KR102163455B1 - Remote delivery system and method using unmanned drone pilotless aircraft - Google Patents
Remote delivery system and method using unmanned drone pilotless aircraft Download PDFInfo
- Publication number
- KR102163455B1 KR102163455B1 KR1020190148686A KR20190148686A KR102163455B1 KR 102163455 B1 KR102163455 B1 KR 102163455B1 KR 1020190148686 A KR1020190148686 A KR 1020190148686A KR 20190148686 A KR20190148686 A KR 20190148686A KR 102163455 B1 KR102163455 B1 KR 102163455B1
- Authority
- KR
- South Korea
- Prior art keywords
- unmanned aerial
- aerial vehicle
- altitude
- delivery
- recipient
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 13
- 238000002716 delivery method Methods 0.000 claims abstract description 12
- 230000001815 facial effect Effects 0.000 claims description 18
- 238000012423 maintenance Methods 0.000 claims description 16
- 238000013459 approach Methods 0.000 claims description 10
- 230000005855 radiation Effects 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- G06Q50/28—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
- G05D1/042—Control of altitude or depth specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B3/00—Audible signalling systems; Audible personal calling systems
- G08B3/10—Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
-
- B64C2201/128—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/60—UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Economics (AREA)
- Remote Sensing (AREA)
- Operations Research (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Marketing (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 무인 항공기를 이용한 원격 배달 시스템 및 배달 방법에 관한 것으로서, 보다 상세하게는 이착륙 지점 제어(무인 항공기의 고도 유지 알고리즘), 수취인 인식/인증, 올바른 수취인이 아닌 사람(동물) 접근 시 경고 방법, 강우량 예측 등을 통해 무인 항공기의 문제점을 해결하고 안전한 배달 서비스가 이루어질 수 있도록 구성된 무인 항공기를 이용한 원격 배달 시스템 및 배달 방법에 관한 것이다.The present invention relates to a remote delivery system and delivery method using an unmanned aerial vehicle, and in more detail, control of take-off and landing points (altitude maintenance algorithm of unmanned aerial vehicle), recipient recognition/authentication, warning method when approaching a person (animal) other than the correct recipient , It relates to a remote delivery system and delivery method using an unmanned aerial vehicle configured to solve the problem of the unmanned aerial vehicle through rainfall prediction, etc. and to provide a safe delivery service.
일반적으로, 드론(DRON)은 기체에 사람이 타지 않고 지상에서 원격조종을 통해 비행하는 무인(無人) 비행기를 의미한다. 이때, 드론은 원격조종을 통해 비행을 수행하기 때문에 무인항공기(UAV)로 불리기도 한다.In general, a drone (DRON) refers to an unmanned airplane flying through remote control from the ground without a person on board. At this time, drones are also called unmanned aerial vehicles (UAVs) because they fly through remote control.
초기의 드론은 군사용 목적으로 개발되었다. 일례로, 드론은 공군기나 고사포의 연습사격을 위한 표적용, 정찰 및 감시와 대잠공격용, 정찰 및 정보수집용 등으로 개발되었다.Early drones were developed for military purposes. For example, drones have been developed for targeting, reconnaissance and surveillance, anti-submarine attacks, reconnaissance and information collection for practice shooting of air force aircraft or AA guns.
드론은 원격탐지장치, 위성제어장치 등 최첨단 장비를 갖추고 사람이 접근하기 힘든 곳이나 위험지역 등에 투입되어 정보를 수집하기도 하고, 공격용 무기를 장착하여 지상군 대신 적을 공격하는 공격기의 기능으로 활용되고 있다.Drones are equipped with state-of-the-art equipment such as remote detection devices and satellite control devices, and are used in places that are difficult to access or dangerous areas to collect information, and are used as a function of attack aircraft to attack enemies instead of ground forces by installing attack weapons.
한편, 드론은 군사적 성격 외에 다양한 민간 분야에 활용되고 있다. 일례로, 사람이 직접 촬영이 어려운 환경(예를 들면, 화산 분화구, 화재 현장 등), 비용이 많이 드는 항공 촬영, 무인 택배(배달) 서비스 등의 용도로 사용된다.On the other hand, drones are being used in a variety of private sectors besides their military nature. For example, it is used for environments in which it is difficult for people to take pictures directly (for example, volcanic craters, fire sites, etc.), expensive aerial photography, and unmanned courier (delivery) services.
무인 택배용 드론은 GPS(위성항법장치)를 통해 물품을 구매자에게 배달한다. 즉, 무인 택배용 드론은 GPS 정보를 이용해 측정되는 현재 위치와 배송 위치를 근거로 비행하여 배송 위치로 물품을 배달한다.Unmanned delivery drones deliver goods to buyers through GPS (satellite navigation system). In other words, drones for unmanned parcel delivery deliver goods to the delivery location by flying based on the current location and delivery location measured using GPS information.
또한 설치된 카메라를 이용하여 대상을 감시하는 CCTV로서의 역할을 하는 CCTV 드론의 경우, 자유로운 움직임을 통해 정밀하고 다양한 영상을 확보할 수 있다는 장점이 있지만, 관리자가 인근에서 움직임을 제어하여야 하는 문제점이 발생한다.In addition, in the case of a CCTV drone that acts as a CCTV monitoring the target using the installed camera, it has the advantage of securing precise and diverse images through free movement, but there is a problem that the administrator must control the movement in the vicinity. .
특히 배송용으로 드론을 사용하는 기술에 대한 연구가 활발하게 진행되고 있으며, 드론은 무인으로 시간과 장소의 문제를 해결하면서 배송이 가능하다는 장점을 가지고 있어, 이러한 장점을 극대화 하기 위한 다양한 노력이 시도되고 있다.In particular, research on the technology of using drones for delivery is being actively conducted, and drones have the advantage of being able to deliver while solving problems of time and place unattended, so various efforts to maximize these advantages have been attempted. Has become.
하지만 일반적으로 드론을 이용하여 배송이 이루어지는 경우 택배기사가 직접 배송을 하는 것에 비해 올바른 수취인에게 배송이 이루어졌는지 인증을 하는 방법이 문제가 된다. 따라서 물품배송 시 인증방법 및 장치에 대한 개발이 요구되고 있다.However, in general, when delivery is performed using a drone, the problem is how to verify that the delivery has been delivered to the correct recipient, compared to the delivery by a courier. Therefore, there is a demand for the development of authentication methods and devices when delivering goods.
또한 배송용 드론의 고도가 유지해야 하는 고도보다 낮으면 스로틀 수치를 올려 드론을 상승시키고 유지해야 하는 고도보다 높으면 스로틀 수치를 내려 드론을 하강시킨다.In addition, if the altitude of the delivery drone is lower than the altitude to be maintained, the throttle value is raised to raise the drone, and if the altitude is higher than the altitude to be maintained, the throttle value is lowered to lower the drone.
그러나 드론이 고도 유지 중에 몇 가지 원인으로 인하여 유지해야 하는 고도로부터 멀어지는 경우가 있다. 그 원인에는 모터 속도 차이로 인한 추력의 불균형, 바람, 드론의 상승이나 하강을 위한 스로틀 계산 값의 오차가 있다.However, while maintaining altitude, there are cases when the drone moves away from the altitude it needs to maintain due to several reasons. The causes include an imbalance in thrust due to a difference in motor speed, wind, and errors in the throttle calculation value for the rise or fall of the drone.
현재 배송용 드론의 고도가 유지해야 하는 고도보다 낮으면 스로틀 수치를 올려 드론을 상승시키고 유지해야 하는 고도보다 높으면 스로틀 수치를 내려 드론을 하강시킨다.If the current altitude of the delivery drone is lower than the altitude that must be maintained, the throttle value is raised to raise the drone, and if it is higher than the altitude that must be maintained, the throttle value is lowered to lower the drone.
그러나 드론이 고도 유지 중에 몇 가지 원인으로 인하여 유지해야 하는 고도로부터 멀어지는 경우가 있다. 그 원인에는 모터 속도 차이로 인한 추력의 불균형, 바람, 드론의 상승이나 하강을 위한 스로틀 계산 값의 오차가 있다. However, while maintaining altitude, there are cases when the drone moves away from the altitude it needs to maintain due to several reasons. The causes include an imbalance in thrust due to a difference in motor speed, wind, and errors in the throttle calculation value for the rise or fall of the drone.
바람은 환경적 요인이고 모터 속도 문제는 주로 하드웨어적 결함으로 인해 발생하는 것이므로 드론의 고도 유지 능력을 저해하는 주된 원인은 스로틀 계산 값 오차다. Since wind is an environmental factor and motor speed problems are mainly caused by hardware defects, the main cause of the drone's ability to maintain altitude is an error in the throttle calculation value.
이 오차는 드론을 현재 고도에서 유지해야 하는 고도로 움직이려 할 때 현재 고도가 정확하게 측정되지 않아서 발생한다. This error is caused by the fact that the current altitude is not accurately measured when trying to move the drone to the altitude it should maintain at the current altitude.
따라서 안정적인 고도 유지를 수행하기 위해서는 현재 드론의 정확한 고도를 측정할 수 있어야 한다.Therefore, in order to perform stable altitude maintenance, it is necessary to be able to measure the accurate altitude of the current drone.
일반적으로 드론의 고도 측정은 관성항법장치에 내장된 가속도센서를 이용한다. 이 경우 가속도를 적분하여 고도를 계산하기 때문에 적분 오차가 누적된다. 또 드론 기체의 진동으로 인한 가속도 측정치의 변동 값도 고도 계산에 사용해서 측정 고도에 오차가 생긴다. 그래서 가속도센서의 이런 문제를 방지하고자 고도 측정에 기압계를 같이 사용한다. In general, to measure the altitude of a drone, an acceleration sensor built into the inertial navigation system is used. In this case, since the acceleration is integrated to calculate the altitude, an integration error is accumulated. In addition, the fluctuation value of the acceleration measurement value due to the vibration of the drone is also used in the altitude calculation, causing an error in the measurement altitude. So, to prevent this problem with the accelerometer, a barometer is used together to measure altitude.
하지만 기압계는 기압의 변화를 측정해 고도를 계산하는데 바람이나 온도 등 외적인 요인에 의해 민감하게 반응한다. However, barometers measure changes in barometric pressure to calculate altitude, and react sensitively to external factors such as wind or temperature.
예를 들어 드론을 작동시킬 때 프로펠러가 일으키는 바람이 지표면에 닿아 드론 주위의 기압이 낮아지면 고도가 0이 아닌 음의 값으로 측정된다. 결과적으로 가속도센서와 기압계를 같이 사용하더라도 측정값은 불규칙적으로 변하는 등 정확한 고도 측정을 기대하기 힘들다.For example, if the air pressure around the drone is lowered due to the wind generated by the propeller when operating the drone, the altitude is measured as a negative value rather than zero. As a result, even if an acceleration sensor and a barometer are used together, it is difficult to expect an accurate altitude measurement, such as the measured value changes irregularly.
앞서 설명한 일반적인 드론의 고도 측정 방법의 문제점들 때문에 기존 연구들에서는 별도의 센서를 추가하여 다른 센서와 함께 고도 측정에 사용한다. 그 결과 기체가 무거워지고 제작비용이 증가하며 연산 처리가 많아지는 문제가 발생한다.Due to the problems of the general drone altitude measurement method described above, in existing studies, a separate sensor is added and used for altitude measurement together with other sensors. As a result, there is a problem that the gas becomes heavier, the manufacturing cost increases, and the calculation processing is increased.
또 센서에 따라 측정 가능 거리의 한계가 있기 때문에 고도에 따라 정확도의 차이가 생긴다. In addition, since there is a limit on the distance that can be measured depending on the sensor, the accuracy varies depending on the altitude.
따라서 배송용 드론이 정확한 주소지로 배송 목적지를 파악하였더라도 고도를 유지하지 못하여 건물과 충돌 사고가 발생하는 것을 막기 위해, 다른 센서를 추가하지 않고 고도 측정의 정확도를 높일 수 있는 방안이 필요하다.Therefore, even if the delivery drone identifies the delivery destination with the correct address, in order to prevent a collision with the building due to failure to maintain the altitude, there is a need for a method to increase the accuracy of altitude measurement without adding other sensors.
또한 정확한 수취인이 아닌 사람에게 배송되는 사고를 방지할 대책이 정확하게 마련되어야 한다.In addition, accurate measures must be in place to prevent accidents delivered to persons other than the correct recipient.
본 발명은 상기와 같은 문제점을 해결하기 위해 이루어진 것으로서, 무인 항공기의 고도 유지 알고리즘에 의한 이착륙 지점 제어와 안면 인식 알고리즘을 이용하여 안면 인식 모델의 파라미터를 추정하는 수취인 인식/인증 방법을 이용한 무인 항공기를 이용한 원격 배달 시스템을 제공하는 데 목적이 있다.The present invention has been made in order to solve the above problems, and provides an unmanned aerial vehicle using a recipient recognition/authentication method for estimating a parameter of a facial recognition model using a face recognition algorithm and a take-off and landing point control by an altitude maintenance algorithm of the unmanned aerial vehicle. It is an object to provide a remote delivery system used.
또한 본 발명은 올바른 수취인이 아닌 사람(동물) 접근 시 경고하고, 강우량 예측에 의해 배달품을 보호할 수 있는 무인 항공기를 이용한 원격 배달 시스템을 제공하는 데 목적이 있다.In addition, an object of the present invention is to provide a remote delivery system using an unmanned aerial vehicle capable of warning when approaching a person (animal) who is not a correct recipient, and protecting delivered goods by predicting rainfall.
상기 과제를 해결하기 위하여 본 발명은 배송 주소가 배송 서버에 입력되고, 상기 배송 주소에 도착하는 단계; 상기 배송 주소에 도착한 후, 유지해야 하는 고도와 현재 무인 항공기의 고도, 유지해야 하는 고도와 현재 측정 고도간의 오차로부터 PID 제어 방법으로 계산하는 보정 스로틀 값에 의한 무인 항공기의 고도 유지 알고리즘에 의한 이착륙 지점 유지 단계; 상기 이착륙 지점 유지 단계에서 안면 패턴을 촬영한 영상에 대해서 교차점들의 집합을 추출하고, 추출된 교차점들의 집합으로부터 안면 인식 모델의 파라미터를 추정하는 수취인 인식/인증 단계; 상기 수취인 인식/인증 완료 후 배송 물품 전달 후 배송 완료하는 단계;를 포함한다.In order to solve the above problems, the present invention includes the steps of: inputting a delivery address into a delivery server and arriving at the delivery address; After arriving at the delivery address, take-off and landing points by the altitude maintenance algorithm of the unmanned aerial vehicle based on the corrected throttle value calculated by the PID control method from the error between the altitude to be maintained and the current altitude of the drone, and the altitude to be maintained and the current measured altitude. Maintenance phase; A recipient recognition/authentication step of extracting a set of intersection points from the image photographed with the facial pattern in the take-off and landing point maintenance step, and estimating a parameter of the facial recognition model from the set of the extracted intersection points; And completing delivery after delivery of the delivery item after completion of the recipient recognition/authentication.
최종 스로틀 값은 수학식 1이다. 상기 안면 인식 모델은 수학식 2를 통해 계산된다.The final throttle value is Equation 1. The facial recognition model is calculated through Equation 2.
상기 무인 항공기는 이동 단말기에 수취인의 음성 인식정보를 요청하고, 이동 단말기의 마이크로폰을 통해 수취인의 음성 인식정보를 얻는다.The unmanned aerial vehicle requests the recipient's voice recognition information from the mobile terminal, and obtains the recipient's voice recognition information through a microphone of the mobile terminal.
상기 무인 항공기는 이동 단말기에 웨어러블 디바이스의 정보를 요청하고, 상기 웨어러블 디바이스의 정보는 수취인이 착용하고 있는 웨어러블 디바이스의 고유 식별번호이다.The unmanned aerial vehicle requests information on the wearable device from the mobile terminal, and the information on the wearable device is a unique identification number of the wearable device worn by the recipient.
상기 안면 인식모델로 촬영된 각각의 보정 패턴 영상에 대해서 4개의 외곽 기준점을 지정하고, 선택된 내부에 포함된 격자 모양의 개수 및 크기 정보를 바탕으로 초기 교차점을 추정하며, 추출된 교차점들의 모양이 원래 위치보다 안쪽에 위치해 있으면 방사 왜곡 계수에 음수의 값으로, 바깥쪽에 있으면 방사 왜곡 계수에 양수의 값으로 조정함으로써 각 교차점들의 위치를 보정한다.For each correction pattern image captured by the facial recognition model, four outer reference points are designated, the initial intersection point is estimated based on the number and size information of the selected grid shape, and the shape of the extracted intersection points is originally If it is located inside the position, the radiation distortion coefficient is adjusted to a negative value, and if it is outside, the radiation distortion coefficient is adjusted to a positive value to correct the position of each intersection.
상기 수취인 인식/인증 완료 전 외부인 접근시 센서 감지 신호를 생성하여 제어부에 전송하는 근거리 센서 및 상기 제어부의 제어 신호에 따라 데시벨 또는 헤르츠를 달리하여 위험을 알리는 스피커를 더 포함한다.A short-range sensor that generates a sensor detection signal when an outsider approaches before completion of the recipient recognition/authentication and transmits the sensor detection signal to the control unit, and a speaker notifying of danger by varying decibels or hertz according to the control signal of the control unit.
상기 외부인 접근을 감지하는 도플러 센서를 포함하는 근거리 센서를 통해 접근 거리가 가까워질수록 볼륨제어신호의 크기를 선형적으로 제어한다.The volume control signal is linearly controlled as the approach distance becomes closer through a short-range sensor including a Doppler sensor that detects the approach of an outsider.
상기와 같이 이루어지는 본 발명은 배송용 무인 항공기가 정확한 주소지로 배송 목적지를 파악하였더라도 고도를 유지하지 못하여 건물과 충돌 사고가 발생하는 것을 막기 위해, 다른 센서를 추가하지 않고 고도 측정의 정확도를 높일 수 있다.The present invention made as described above can increase the accuracy of altitude measurement without adding other sensors in order to prevent a collision with a building due to failure to maintain altitude even if the delivery unmanned aerial vehicle identifies the delivery destination at the correct address. .
또한 본 발명은 올바른 수취인에게 배송이 이루어졌는지 확인하기 위해 안면 인식 에러가 발생하는 최대 원인인 왜곡 변환 보정식으로 왜곡영상에 의한 오류를 방지할 수 있다.In addition, the present invention can prevent errors caused by distorted images by using a distortion conversion correction formula that is the largest cause of facial recognition errors in order to check whether delivery has been made to the correct recipient.
또한 본 발명은 올바른 수취인이 아닌 사람의 접근 시 경고를 하거나, 올바른 수취인이 접근할 때까지 고도를 유지하는 기능을 가져 배송의 정확성을 높일 수 있다.In addition, the present invention provides a warning when a person other than the correct recipient approaches, or has a function of maintaining the altitude until the correct recipient approaches, thereby increasing the accuracy of delivery.
또한 본 발명은 강우량 인식을 위한 심층 신경망 모델을 사용하여 배달 물품이 젖지 않도록 최대한 빨리 피할 수 있다.In addition, the present invention can avoid as soon as possible so as not to get wet by using a deep neural network model for rainfall recognition.
도 1은 본 발명의 일실시예에 따른 무인 항공기를 이용한 원격 배달 시스템의 개념도를 보여주는 도면이다.
도 2는 본 발명의 일실시예에 따른 무인 항공기를 이용한 원격 배달 시스템을 사용하여 수취인을 인능하는 단계를 보여주는 도면이다.
도 3은 본 발명의 일실시예에 따른 무인 항공기를 이용한 원격 배달 시스템의 작동 과정을 보여주는 도면이다.
도 4는 본 발명의 다른 실시예에 따른 무인 항공기를 이용한 원격 배달 시스템의 구성을 보여주는 도면이다.1 is a view showing a conceptual diagram of a remote delivery system using an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 2 is a diagram showing a step of identifying a recipient by using a remote delivery system using an unmanned aerial vehicle according to an embodiment of the present invention.
3 is a diagram showing an operation process of a remote delivery system using an unmanned aerial vehicle according to an embodiment of the present invention.
4 is a diagram showing the configuration of a remote delivery system using an unmanned aerial vehicle according to another embodiment of the present invention.
본 발명을 충분히 이해하기 위해서 본 발명의 바람직한 실시예를 첨부 도면을 참조하여 설명한다. 본 발명의 실시예는 여러 가지 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상세히 설명하는 실시예로 한정되는 것으로 해석되어서는 안 된다. 본 실시예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 따라서 도면에서의 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어 표현될 수 있다. 각 도면에서 동일한 부재는 동일한 참조부호로 도시한 경우가 있음을 유의하여야 한다. 또한, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 기술은 생략된다.In order to fully understand the present invention, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The embodiments of the present invention may be modified in various forms, and the scope of the present invention should not be construed as being limited to the embodiments described in detail below. This embodiment is provided to more completely explain the present invention to those of ordinary skill in the art. Accordingly, the shape of the element in the drawings may be exaggerated to emphasize a clearer description. It should be noted that in each drawing, the same member may be indicated by the same reference numeral. In addition, detailed descriptions of known functions and configurations that are determined to unnecessarily obscure the subject matter of the present invention will be omitted.
본 발명은 이착륙 지점 제어(무인 항공기의 고도 유지 알고리즘), 수취인 인식/인증, 올바른 수취인이 아닌 사람(동물) 접근 시 경고 방법, 강우량 예측 등을 통해 무인 항공기의 문제점을 해결하고 안전한 배달 서비스가 이루어질 수 있도록 무인 항공기(200)에 센싱부(근거리 센서; 101), 제어부(250), 스피커(102) 등을 포함하여 구성된다.The present invention solves the problems of the unmanned aerial vehicle through take-off and landing point control (altitude maintenance algorithm of the unmanned aerial vehicle), recipient recognition/authentication, a warning method when approaching a person (animal) other than the correct recipient, rainfall prediction, etc., and provides a safe delivery service. The unmanned
이착륙 지점 제어(무인 항공기의 고도 유지 알고리즘)Control of take-off and landing points (algorithm for maintaining the altitude of the drone)
도 1 내지 도 4에 도시된 바와 같이 무인 항공기(200)의 고도 유지에 필요한 핵심 정보는 유지해야 하는 고도와 현재 무인 항공기의 고도, 보정 스로틀 값이다. As shown in FIGS. 1 to 4, the key information necessary for maintaining the altitude of the unmanned
보정 스로틀값은 유지해야 하는 고도와 현재 측정 고도간의 오차로부터 계산하며 일반적으로 PID 제어(Proportional-Integral-Differential controller) 방법을 이용한다.The corrected throttle value is calculated from the error between the altitude to be maintained and the current measured altitude, and generally uses a PID control (Proportional-Integral-Differential controller) method.
또한 본 발명에 따른 무인 항공기의 고도 유지 알고리즘은 크게 세 개의 과정을 거친다. 첫 번째는 가속도센서 또는 다른 센서를 이용해 무인 항공기의 현재 고도를 측정하는 과정이며 두 번째는 목표인 유지 고도를 달성하기 위한 보정 스로틀 값을 계산하는 과정이다.In addition, the algorithm for maintaining the altitude of an unmanned aerial vehicle according to the present invention largely goes through three processes. The first is the process of measuring the current altitude of the drone using an accelerometer or other sensor, and the second is the process of calculating the corrected throttle value to achieve the target maintenance altitude.
마지막 세 번째 과정은 계산한 보정 스로틀 값을 현재 스로틀 값에 더해주는 과정이다.The third and final step is to add the calculated corrected throttle value to the current throttle value.
센싱부(101)는 무인 항공기 내 정보, 무인 항공기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부는 GPS센서(GPS sensor), 자이로스코프 센서(gyroscope sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 모션 센서(motion sensor), RGB센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. The
실제 무인 항공기의 고도 유지를 위해 계산한 보정 스로틀 값을 현재 스로틀 값에 더해주거나 사용자가 유지 고도를 변경하고자 할 때 유지 고도 정보를 변경해주거나, 고도 유지를 수행할 때 모터 값 계산을 위해 사용되는 최종 스로틀 값은 수학식 1과 같이 계산된다. The corrected throttle value calculated to maintain the altitude of the actual drone is added to the current throttle value, or the maintenance altitude information is changed when the user wants to change the maintenance altitude, or the final used for calculating the motor value when performing altitude maintenance. The throttle value is calculated as in Equation 1.
최종 스로틀 값인 은 고도 유지를 시작할 때의 스로틀 값인 에 보정 스로틀 값인 을 더해준 것이다.The final throttle value Is the throttle value when you start maintaining altitude Is the corrected throttle value at Was added.
먼저 도 3에 도시된 바와 같이 고도 유지 모드 작동 여부를 체크한다(S201).First, as shown in Fig. 3, it is checked whether the altitude maintenance mode is operated (S201).
그리고 고도 유지 모드를 실행한다(S202).Then, the altitude maintenance mode is executed (S202).
계속하여 현재 고도에 따른 유지 고도 및 현재 스로틀 값에 따른 시작 스로틀 값 셋팅(S203).Continue setting the maintenance altitude according to the current altitude and the start throttle value according to the current throttle value (S203).
그리고 현재 고도 측정 및 PID 제어부를 이용한 스로틀 보정값 계산한다(S204).Then, the current altitude is measured and a throttle correction value is calculated using the PID control unit (S204).
마지막으로 사용자가 유지 고도를 변경하는지 확인(S205)하여 고도를 재계산하고, 이미 변경 상태인지 확인(S207)한 후 재계산한다(S206, S208).Finally, it is checked whether the user changes the maintenance altitude (S205), the altitude is recalculated, and after confirming whether the altitude has already been changed (S207), the recalculation is performed (S206, S208).
수취인 인식/인증Recipient recognition/authentication
도 2에 도시된 바와 같이 무인 항공기(200)는 수취인이 물품을 전달 받을 권리자라는 것을 판단하기 위해 인증 요청을 한다.As shown in FIG. 2, the unmanned
일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 수취인의 얼굴에 대한 정보를 요청할 수 있다. 이동 단말기(100)의 카메라를 통해 수취인의 안면 인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 안면 인식정보를 요청할 수 있다(S101, S102).As an embodiment, the unmanned
이 후, 인증 요청과 확인 요청에서 배송 완료 전송하여 복귀 요청을 한다(S103 ~ S111).After that, the authentication request and the confirmation request are sent to complete delivery to request a return (S103 to S111).
일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 수취인의 음성 인식정보를 요청할 수 있다. As an embodiment, the unmanned
이동 단말기(100)의 마이크로폰을 통해 수취인의 음성 인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 음성 인식정보를 요청할 수 있다. 이를 위해, 수취인의 음성이 미리 배송서버(300)에 저장되고, 예컨대, 물품이 무인 항공기(200)에 적재될 때, 필요시 수취인의 음성 정보가 무인 항공기(200)로 제공될 수 있다.Since the recipient's voice recognition information can be obtained through the microphone of the mobile terminal 100, the unmanned
일실시예로서로서, 무인 항공기(200)는 NFC(Near Field Communication) 인식장치에 이동 단말기(100)에 저장된 전자태그(RFID) 인증정보를 요청할 수 있다. As an embodiment, the unmanned
이동 단말기(100)는 전자태그 정보를 포함하고 무인 항공기(200)가 NFC 인식장치를 포함하여 이동 단말기(100)를 NFC 인식장치에 접속하여 전자태그 인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 전자태그 인식정보를 요청할 수 있다.The mobile terminal 100 includes electronic tag information, and the unmanned
일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 비밀번호정보를 요청할 수 있다. 이동 단말기(100)의 사용자입력부를 통해 비밀번호정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 비밀번호정보를 요청할 수 있다.As an embodiment, the unmanned
일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 패턴인식정보를 요청할 수 있다. As an embodiment, the unmanned
이동 단말기(100)의 사용자입력부를 통해 패턴인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 패턴인식정보를 요청할 수 있다.Since pattern recognition information can be obtained through the user input unit of the mobile terminal 100, the unmanned
무인 항공기(200)는 이동 단말기(100)에 지문인식정보를 요청할 수 있다. 도 5f에 도시한 바와 같이, 이동 단말기(100)의 지문인식부를 통해 지문인식정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 지문인식정보를 요청할 수 있다.The unmanned
일실시예로서, 무인 항공기(200)는 이동 단말기(100)에 웨어러블(Wearable) 디바이스의 정보를 요청할 수 있다. 웨어러블 디바이스의 정보는 수취인이 착용하고 있는 웨어러블 디바이스의 고유 식별번호일 수 있다. 이동 단말기(100)는 인식부를 통해 웨어러블 디바이스의 정보를 얻을 수 있으므로, 무인 항공기(200)는 이동 단말기(100)에 웨어러블 디바이스의 정보를 요청할 수 있다.As an embodiment, the unmanned
다만, 다른 실시예에 의하면 무인 항공기(200)는 이동 단말기에 안면 인식정보, 음성 인식정보, 전자태그 인식정보, 비밀번호정보, 패턴인식정보 및 지문인식정보 중 적어도 하나 이상을 요청할 수 있다.However, according to another embodiment, the unmanned
상기 센싱부(101; 카메라)를 통해 인식한 안면 인식정보 등으로 촬영된 각각의 보정 패턴 영상에 대해서 4단계를 거쳐서 교차점들을 추출한다. Crossing points are extracted through four steps for each correction pattern image captured using facial recognition information, etc., recognized by the sensing unit 101 (camera).
(1) 4개의 외곽 기준점을 지정하고, (2) 선택된 내부에 포함된 격자 모양의 개수 및 크기 정보를 바탕으로 초기 교차점을 추정하며, (3) 추출된 교차점들의 모양이 원래 위치보다 안쪽에 위치해 있으면 방사 왜곡 계수에 음수의 값으로, 바깥쪽에 있으면 방사 왜곡 계수에 양수의 값으로 조정함으로써 각 교차점들의 위치를 보정한다.(1) Designate four outer reference points, (2) estimate the initial intersection point based on the number and size information of the grid shape included in the selected interior, and (3) the shape of the extracted intersection points are located inside the original position. If it is present, the radiation distortion coefficient is adjusted to a negative value, and if it is outside, the radiation distortion coefficient is adjusted to a positive value to correct the positions of each intersection point.
상기 안면 패턴을 촬영한 영상에 대해서 위의 과정을 반복하여 교차점들의 집합을 추출하고, 추출된 교차점들의 집합으로부터 Zhang의 방법과 Brown의 반복 알고리즘을 이용하여 안면 인식 모델의 파라미터를 추정한다. For the image photographed with the facial pattern, the above process is repeated to extract a set of intersection points, and parameters of the facial recognition model are estimated from the extracted set of intersection points using Zhang's method and Brown's iterative algorithm.
이 때 안면 패턴들 사이의 위치 관계를 파악함으로써, 카메라를 기준으로 한 좌표에서 각 패턴들의 회전 및 이동 파라미터도 추정할 수 있다. At this time, by grasping the positional relationship between the facial patterns, it is possible to estimate rotation and movement parameters of each pattern in coordinates based on the camera.
즉, 안면의 실제 좌표와 추정된 왜곡 모델로 계산된 좌표 사이의 거리의 합을 최소화하는 문제로 정의하고 최적의 해를 찾을 수 있다.That is, it is defined as a problem of minimizing the sum of the distances between the actual coordinates of the face and the coordinates calculated by the estimated distortion model, and an optimal solution can be found.
여기서 N은 학습에 사용된 안면 인식 패턴 영상의 수이고, M은 각각의 영상에서 찾은 교차점의 수이며, 는 영상의 좌표이고,Where N is the number of facial recognition pattern images used for learning, M is the number of intersections found in each image, Is the coordinates of the image,
는 왜곡 모델로 추정한 좌표로써, A는 카메라의 초점 거리, 주점, 비틀림 계수, 접선 왜곡을 포함하는 벡터이고, 는 방사 왜곡 계수이며, 는 각각 i번째 영상의 외부 파라미터로써 회전과 이동을 나타내는 벡터이고,는 j번째 좌표의 실제 3차원 좌표이다. Is the coordinates estimated by the distortion model, where A is the vector including the focal length of the camera, the main point, the distortion factor, and the tangential distortion Is the radiation distortion coefficient, Is a vector representing rotation and movement as external parameters of the i-th image, Is the actual three-dimensional coordinate of the j-th coordinate.
여기에 추가적인 왜곡 변환 보정식으로 왜곡영상(원형 영상)을 직교좌표변환방법 등을 사용하여 더 선명한 영상(직사각형 영상)을 얻을 수 있다.In addition, as an additional distortion conversion correction formula, a clearer image (rectangular image) can be obtained by using a rectangular coordinate transformation method or the like.
여기서 수학식 2에 의한 이미지의 View 벡터 수평각(δ)와 수직각(β) 그리고 반지름(R)에 의해 DOV(Direction of View벡터)가 구해지고 원 구 1/2 위의 한 점이 원근왜곡 변환을 위한 원점이 된다. Here, the DOV (Direction of View vector) is obtained by the horizontal angle (δ), the vertical angle (β), and the radius (R) of the image view vector according to Equation 2, and a point on the circle 1/2 transforms the perspective distortion. It becomes the origin for
여기에서 영상 회전정도는 각 θ로 구하고 영상 확대계수는 m을 적용한다.Here, the image rotation degree is calculated by the angle θ and the image magnification factor is applied to m.
수학식 2에 의한 임의의 원형의 이미지를 식에 투영하여 표현하였을 경우 X, Y 2차원 평면상에서의 극좌표(r,δ)를 관계식에 의해 표현하면 수학식 4와 같다.When the image of an arbitrary circle according to Equation 2 is projected onto the equation, the polar coordinates (r, δ) on the X and Y two-dimensional plane are expressed by the relational expression as in Equation 4.
올바른 수취인이 아닌 사람(동물) 접근 시 경고 방법How to warn when approaching a person (animal) other than the correct recipient
도 4에 도시된 바와 같이 본 발명은 외부인의 접근시 상기 센싱부(101)를 통해 센서 감지 신호를 생성하여 제어부(250)가 데시벨(dB) 또는 헤르츠(Hz)를 달리하여 스피커(102)를 통해 위험을 알릴 수 있다.As shown in FIG. 4, the present invention generates a sensor detection signal through the
근거리 센서(101)에서 발생하는 마이크로파 신호가 움직이는 물체에 반사될 때, 도플러 효과로 인해 신호의 주파수가 물체의 속도에 비례하여 변화된다.When the microwave signal generated by the near-
일정한 주기를 갖고 움직이는 물체로부터 반사된 신호의 주파수는 동일하게 유지되나 위상이 시간에 따라 변화한다.The frequency of the signal reflected from a moving object with a constant period remains the same, but the phase changes with time.
f0는 입력신호의 주파수, v는 움직이는 물체의 속도, c는 광속도, f는 주파수 변화량, λ는 입력신호의 파장, x(t)는 물체의 변위이다.f 0 is the frequency of the input signal, v is the speed of the moving object, c is the speed of light, f is the amount of change in frequency, λ is the wavelength of the input signal, and x(t) is the displacement of the object.
도플러 이론에 따르면, 주기적으로 변화되는 변위를 가지고 움직이는 물체에 대해 주파수는 일정하나 위상 ㆈ(t)는 시간에 따라 변화된다. 이것을 수식으로 표현하면 식 6과 같다.According to the Doppler theory, for an object moving with a displacement that changes periodically, the frequency is constant, but the phase ㆈ(t) changes with time. This can be expressed in Equation 6.
따라서 본 발명은 위상 ㆈ(t)에 따라 근로자가 안내 멘트에 집중할 수 있도록 싸이렌 이나 경고음향을 먼저 알림으로써 주의를 집중시킨다.Therefore, the present invention focuses attention by first notifying a siren or a warning sound so that the worker can concentrate on the guidance message according to the phase ㆈ(t).
여기서, λ는 신호의 파장이다. 물체로부터 반사된 신호는 위상변조가 되어있다. 이 물체의 변위 변화 크기가 신호 파장의 크기에 비해 적으면, 위상 변화는 적을 것이다.Here, λ is the wavelength of the signal. The signal reflected from the object is phase-modulated. If the magnitude of the displacement change of this object is less than the magnitude of the signal wavelength, the phase change will be small.
따라서 도플러 센서를 포함하는 근거리 센서(위상 변화 측정)를 통해 사람의 접근 거리가 가까워질수록 제1볼륨제어신호 < 제2볼륨제어신호로 제어가 가능하며, 후술하는 바와 같이 다양한 응용이 가능하다.Therefore, as the approach distance of a person gets closer through a short-range sensor including a Doppler sensor (phase change measurement), the first volume control signal <the second volume control signal can be used, and various applications are possible as described later.
또한 일정 주파수의 센서 신호에 따라 소리의 볼륨 등을 동기화시켜 스피커를 통해 소리를 전달할 수 있다.In addition, sound can be transmitted through a speaker by synchronizing the volume of sound according to a sensor signal of a certain frequency.
따라서 빠르게 접근하는 경우 높은 주파수 또는 위상 φ(t)의 변화, 물체의 변위 변화 크기 등에 따라 소리가 높아질 수 있다.Therefore, when approaching quickly, the sound may increase depending on the change in high frequency or phase φ(t), and the amount of change in displacement of the object.
강우량 예측Rainfall forecast
상기 센싱부(101)를 통한 입력 영상 V를 동일한 길이의 K개 영상 부분 로 나누고, 각 영상 부분에서 무작위로 연속 프레임 표본을 선택해 로 나타낸다. K video portions of the same length as input video V through the
각 를 N 개의 조각 으로 나누면, TSSN은 아래 수학식 7과 같이 조각 집합 에 대한 함수의 형태로 표현된다.bracket N pieces Divided by, TSSN is a set of pieces as shown in Equation 7 below. Is expressed in the form of a function for
이때,에대해 는 입력 조각 과 매개변수 를 대상으로 하는 합성곱 신경망을 나타낸다.At this time, About The input piece And parameters Represents a convolutional neural network targeting.
는 조각 를 입력으로 받아 각 레이블에 대한 점수를 산출한다. The piece It takes as input and calculates the score for each label.
은 여러 조각들의 결과로부터 표본 수준의 합의를 산출하는 조각 합의(patch consensus) 함수를 나타낸다. Represents a patch consensus function that yields a sample-level consensus from the results of several pieces.
는 표본의 조각 합의 결과이다. Is the sample Is the result of a piece agreement.
는 여러 표본들의 결과로부터 영상 수준의 합의를 산출하는 부분 합의 (segmental consensus) 함수를 나타낸다. Denotes a segmental consensus function that calculates the image-level consensus from the results of several samples.
예측 함수 는 부분 합의 가 주어졌을 때, 입력 영상에 대한 레이블 확률 분포를 예측한다.Prediction function Partial agreement Given is, predict the label probability distribution for the input image.
은 각 표본에서 생성된 조각의 개수를 나타낸다. 의 설정에 기초해, 본 발명에서는 를 3으로, 를 Softmax 함수로 설정한다. 부분 합의 와 조각 합의 은 각각 단순한 형태인 와 로 정의한다. 이 때, 레이블 점수 는 모든 조각의 동일한 레이블에 대한 점수의 함수 형태이다. Represents the number of pieces created in each sample. Based on the setting of, in the present invention To 3, Is set with the Softmax function. Partial agreement Piece agreement with Are each simple form Wow Is defined as At this time, the label score Is a function form of the score for the same label of all pieces.
집계(aggregation) 함수 g와 r은 평균, 최댓값, 가중 평균 등 다양한 형태로 설정될 수 있다. Aggregation functions g and r can be set in various forms such as average, maximum value, and weighted average.
본 발명에서는 평균을 사용해 최종 인식 결과를 보고한다.In the present invention, an average is used to report the final recognition result.
일반적인 Categorical Cross-entropy 손실 함수를 사용해, 부분 합의 G에 대한 최종적인 손실 함수는 수학식 8과 같이 표현된다.Using a general categorical cross-entropy loss function, the final loss function for the partial sum G is expressed as Equation 8.
이 때, C 는 레이블의 개수, 는 레이블 의 정답 레이블을 의미한다. 해당 손실 함수는 와 에 따라 미분 가능하거나, 적어도 기울기 계산이 가능하다. In this case, C is the number of labels, The label Means the correct answer label. The corresponding loss function is Wow Differentiable according to, or at least the slope calculation is possible.
따라서 역전파(back-propagation) 알고리즘을 적용해 다수의 표본과 조각으로부터 심층 신경망 모델의 매개 변수 W에 대한 최적화를 수행할 수 있다. Therefore, it is possible to optimize the parameter W of the deep neural network model from multiple samples and fragments by applying a back-propagation algorithm.
역전파 과정에서, 모델의 매개 변수 W에 대한 손실 함수 의 기울기는 수학식 9와 같이 유도된다.In the backpropagation process, the loss function for the parameter W of the model The slope of is derived as in Equation 9.
일반적인 심층 신경망 모델의 매개 변수를 학습하기 위해, 본 발명에서는 기울기 기반 최적화 알고리즘을 사용한다. 위 식은 손실 함수 가 부분 합의 G와 모든 조각 수준 예측으로부터 계산된 조각 합의 에 의해 최적화 가능함을 보여준다.In order to learn the parameters of a general deep neural network model, the present invention uses a gradient-based optimization algorithm. The above equation is a loss function Is the partial sum G and the slice sum calculated from all slice level predictions Shows that optimization is possible by
따라서 본 발명은 강우량 인식을 위한 심층 신경망 모델을 통한 예측 함수 또는 손실 함수 등을 사용하여 배달 물품이 젖지 않도록 최대한 빨리 무인 항공기를 대피시킬 수 있다.Therefore, the present invention is a prediction function through a deep neural network model for rainfall recognition. Or loss function You can use a light to evacuate the drone as soon as possible to avoid getting the delivered goods wet.
특히 최종적으로 학습한 TSSN(Temporal and Spatial Segment Networks) 모델은 우수한 강우량 인식 성능을 보였다.In particular, the finally learned TSSN (Temporal and Spatial Segment Networks) model showed excellent rainfall recognition performance.
한편 무인 항공기를 이용한 원격 배달 방법에 있어 주소 인식 능력이 중요한데, 길가 또는 횡단 보도 등에 세워져 있는 안내판의 표시와 일치 여부를 제어부(250)가 검토할 수 있다.(여기에서 영상 정보의 텍스트화는 Image-to-Text 모듈을 통해 할 수 있다. 즉 영상 정보의 현재 현상을 표현한 내용을 Image-to-Text 모듈을 통해 텍스트로 변환한다.)Meanwhile, in the remote delivery method using an unmanned aerial vehicle, address recognition capability is important, and the
예를 들어 만년로, 만년동 등의 주소(doc1)를 입력받은 경우 GPS 정보에 오류가 발생해 만년로 네거리, 만년로 방향 등과 같은 표지판(doc2)을 발견한 경우 이미지에서 문자를 인식하는 알고리즘을 작동시켜 문자화한 후 상호 일치 여부를 빠르게 판단하여 정확한 주소지로 배송할 수 있도록 해야 한다.For example, if an address (doc1) such as Mannyeon-ro or Mannyeon-dong is input, an error occurs in GPS information, and when a sign (doc2) such as Mannyeon-ro intersection or Mannyeon-ro direction is found, an algorithm that recognizes characters in the image is operated. It is necessary to quickly determine whether they match each other and deliver them to the correct address.
이 경우 CNN(Convolutional Neural Networks) 또는 RNN(Recurrent Neural Network) 방법으로 이미지를 문자화시키거나, 이미지에서 문자를 추출할 수 있다.In this case, the image may be characterized using a convolutional neural network (CNN) or a recurrent neural network (RNN) method, or a character may be extracted from the image.
아래 테스트 프로그램과 같이 두 데이터 doc1, doc2 사이의 자카드 유사도 J(doc1,doc2)는 두 집합의 교집합 크기를 두 집합의 합집합 크기로 나눈 값으로 정의된다.As in the test program below, the jacquard similarity J(doc1,doc2) between two data doc1 and doc2 is defined as the value obtained by dividing the size of the intersection of two sets by the size of the union of the two sets.
결론적으로 아래와 같이 유사도가 0.0으로 나오면 두 개의 데이터가 상당히 유사하다고 제어부(250)가 판단한다.In conclusion, if the degree of similarity is 0.0 as follows, the
여기에서 split()는 스플릿트 모듈, set().union(set())는 합집합 모듈, set().intersection(())은 유사도 모듈을 나타낸다.Here, split() is a split module, set().union(set()) is a union module, and set().intersection(()) is a similarity module.
100 : 이동 단말기
200 : 무인 항공기100: mobile terminal
200: drone
Claims (8)
상기 무인 항공기가 배송 주소에 도착한 후, 유지해야 하는 고도와 현재 무인 항공기의 고도, 유지해야 하는 고도와 현재 측정 고도간의 오차로부터 PID 제어 방법으로 계산한 보정 스로틀 값에 의한 고도 유지 알고리즘을 이용하여 이착륙 지점을 유지하는 단계;
상기 이착륙 지점 유지하는 단계에서 수취인의 안면 패턴을 촬영한 영상에 대해서 안면 인식 모델의 파라미터를 추정하는 수취인 인식/인증 단계;
상기 수취인 인식/인증 완료 후 배송 물품 전달 후 배송 완료하는 단계;를 포함하되,
상기 안면 인식 모델은 아래 수학식 2를 통해 계산되는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
[수학식 2]
(여기서 N은 학습에 사용된 안면 인식 패턴 영상의 수이고, M은 각각의 영상에서 찾은 교차점의 수이며, 는 영상의 좌표이고,
는 왜곡 모델로 추정한 좌표로써, A는 카메라의 초점 거리, 주점, 비틀림 계수, 접선 왜곡을 포함하는 벡터이고, 는 방사 왜곡 계수이며, 는 각각 i번째 영상의 외부 파라미터로써 회전과 이동을 나타내는 벡터이고,는 j번째 좌표의 실제 3차원 좌표이다. )A delivery address is input to a delivery server, and the unmanned aerial vehicle arrives at the delivery address;
After the drone arrives at the delivery address, takeoff and landing using an altitude maintenance algorithm based on a corrected throttle value calculated by the PID control method from the error between the altitude to be maintained and the current altitude of the drone, and the altitude to be maintained and the current measured altitude. Maintaining a point;
A recipient recognition/authentication step of estimating a parameter of a facial recognition model with respect to an image photographed of the recipient's facial pattern in the step of maintaining the take-off and landing point;
Including; the step of completing delivery after delivery of the delivery item after completion of the recipient recognition/authentication;
The face recognition model is a remote delivery method using an unmanned aerial vehicle, characterized in that calculated through Equation 2 below.
[Equation 2]
(Where N is the number of facial recognition pattern images used for learning, M is the number of intersections found in each image, Is the coordinates of the image,
Is the coordinates estimated by the distortion model, where A is the vector including the focal length of the camera, the main point, the distortion factor, and the tangential distortion Is the radiation distortion coefficient, Is a vector representing rotation and movement as external parameters of the i-th image, Is the actual three-dimensional coordinate of the j-th coordinate. )
상기 보정 스로틀 값은 아래 수학식 1인 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.
[수학식 1]
The method of claim 1,
The corrected throttle value is a remote delivery method using an unmanned aerial vehicle, characterized in that Equation 1 below.
[Equation 1]
상기 무인 항공기(200)는 이동 단말기(100)에 수취인의 음성 인식정보를 요청하고, 이동 단말기(100)의 마이크로폰을 통해 수취인의 음성 인식정보를 얻는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.The method of claim 1,
The unmanned aerial vehicle 200 requests the recipient's voice recognition information from the mobile terminal 100, and obtains the recipient's voice recognition information through a microphone of the mobile terminal 100. A remote delivery method using an unmanned aerial vehicle.
상기 무인 항공기(200)는 이동 단말기(100)에 웨어러블(Wearable) 디바이스의 정보를 요청하고, 상기 웨어러블 디바이스의 정보는 수취인이 착용하고 있는 웨어러블 디바이스의 고유 식별번호인 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.The method of claim 1,
The unmanned aerial vehicle 200 requests information on a wearable device from the mobile terminal 100, and the information on the wearable device is a unique identification number of the wearable device worn by the recipient. Remote delivery method.
상기 안면 인식 모델로 촬영된 각각의 보정 패턴 영상에 대해서 4개의 외곽 기준점을 지정하고, 선택된 내부에 포함된 격자 모양의 개수 및 크기 정보를 바탕으로 초기 교차점을 추정하며, 추출된 교차점들의 모양이 원래 위치보다 안쪽에 위치해 있으면 방사 왜곡 계수에 음수의 값으로, 바깥쪽에 있으면 방사 왜곡 계수에 양수의 값으로 조정함으로써 각 교차점들의 위치를 보정하는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.The method of claim 1,
For each correction pattern image captured by the facial recognition model, four outer reference points are designated, the initial intersection point is estimated based on the number and size information of the selected grid shape, and the shape of the extracted intersection points is originally A remote delivery method using an unmanned aerial vehicle, characterized in that the position of each intersection is corrected by adjusting the radiation distortion coefficient to a negative value if it is located inside the position, and by adjusting the radiation distortion coefficient to a positive value if it is outside.
상기 수취인 인식/인증 완료 전 외부인 접근시 센서 감지 신호를 생성하여 제어부(250)에 전송하는 근거리 센서(101) 및 상기 제어부(250)의 제어 신호에 따라 데시벨(dB) 또는 헤르츠(Hz)를 달리하여 위험을 알리는 스피커(102)를 더 포함하는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.The method of claim 1,
The decibel (dB) or hertz (Hz) is different according to the short-range sensor 101 that generates a sensor detection signal and transmits it to the control unit 250 when an outsider approaches before completion of the recipient recognition/authentication. Remote delivery method using an unmanned aerial vehicle, characterized in that it further comprises a speaker 102 to notify the danger.
상기 외부인 접근을 감지하는 도플러 센서를 포함하는 근거리 센서를 통해 접근 거리가 가까워질수록 볼륨제어신호의 크기를 선형적으로 제어하는 것을 특징으로 하는 무인 항공기를 이용한 원격 배달 방법.The method of claim 7,
A remote delivery method using an unmanned aerial vehicle, characterized in that as the approach distance gets closer through a short-range sensor including a Doppler sensor that detects the approach of an outsider, the volume control signal is linearly controlled.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190148686A KR102163455B1 (en) | 2019-11-19 | 2019-11-19 | Remote delivery system and method using unmanned drone pilotless aircraft |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190148686A KR102163455B1 (en) | 2019-11-19 | 2019-11-19 | Remote delivery system and method using unmanned drone pilotless aircraft |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102163455B1 true KR102163455B1 (en) | 2020-10-07 |
Family
ID=72884779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190148686A KR102163455B1 (en) | 2019-11-19 | 2019-11-19 | Remote delivery system and method using unmanned drone pilotless aircraft |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102163455B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115063073A (en) * | 2022-06-10 | 2022-09-16 | 安徽大学 | Efficient and confidential unmanned aerial vehicle cooperative distribution method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101541359B1 (en) * | 2013-10-21 | 2015-08-03 | 동국대학교 산학협력단 | Method and system for unmanned delivery service |
KR20160142017A (en) | 2015-06-02 | 2016-12-12 | 엘지전자 주식회사 | method for luggage shipping authentication using the drone |
KR101829125B1 (en) * | 2016-05-11 | 2018-02-13 | 한국과학기술원 | Method and system for determing delivery point using unmanned aerial vehicle |
KR101873021B1 (en) | 2018-01-11 | 2018-07-02 | 박시연 | Method for providing drone delivery service using 3d coordinates in space |
-
2019
- 2019-11-19 KR KR1020190148686A patent/KR102163455B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101541359B1 (en) * | 2013-10-21 | 2015-08-03 | 동국대학교 산학협력단 | Method and system for unmanned delivery service |
KR20160142017A (en) | 2015-06-02 | 2016-12-12 | 엘지전자 주식회사 | method for luggage shipping authentication using the drone |
KR101829125B1 (en) * | 2016-05-11 | 2018-02-13 | 한국과학기술원 | Method and system for determing delivery point using unmanned aerial vehicle |
KR101873021B1 (en) | 2018-01-11 | 2018-07-02 | 박시연 | Method for providing drone delivery service using 3d coordinates in space |
Non-Patent Citations (2)
Title |
---|
[1] Z. Zhang, "A Flexible new Technique for Camera Calibration," IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 22, pp. 1330-1334, 2000. |
[2] D.C. Brown, "Close-range Camera Calibration," Photogrammetric Engineering, Vol. 37, pp.855- 866, 1971. |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115063073A (en) * | 2022-06-10 | 2022-09-16 | 安徽大学 | Efficient and confidential unmanned aerial vehicle cooperative distribution method |
CN115063073B (en) * | 2022-06-10 | 2024-04-16 | 安徽大学 | Efficient and secret unmanned aerial vehicle collaborative distribution method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230359227A1 (en) | Method and System for Providing Route of Unmanned Air Vehicle | |
US11656638B1 (en) | Backup navigation system for unmanned aerial vehicles | |
US20220146263A1 (en) | Dynamically Adjusting UAV Flight Operations Based On Thermal Sensor Data | |
US20190025071A1 (en) | Information processing device | |
KR101948569B1 (en) | Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same | |
KR20210081984A (en) | Object change detection system for high definition map update and method thereof | |
US20160093225A1 (en) | Landing system for an aircraft | |
US20160086497A1 (en) | Landing site tracker | |
US11183056B2 (en) | Electronic device for generating map data and operating method therefor | |
KR101771492B1 (en) | Method and system for mapping using UAV and multi-sensor | |
RU2755603C2 (en) | System and method for detecting and countering unmanned aerial vehicles | |
US11776369B2 (en) | Acoustic detection of small unmanned aircraft systems | |
US11113567B1 (en) | Producing training data for machine learning | |
US20210221502A1 (en) | Method and a system for real-time data processing, tracking, and monitoring of an asset using uav | |
KR102163455B1 (en) | Remote delivery system and method using unmanned drone pilotless aircraft | |
KR102349818B1 (en) | Autonomous UAV Navigation based on improved Convolutional Neural Network with tracking and detection of road cracks and potholes | |
JP2022051976A (en) | Unmanned aircraft and communication method and program | |
WO2021258282A1 (en) | Target detection device and method, imaging apparatus, and mobile platform | |
CN114379802A (en) | Automatic safe landing place selection for unmanned flight system | |
KR102128590B1 (en) | System for Providing location informaion of flight vehicle and Driving method thereof | |
Gur et al. | Image processing based approach for crime scene investigation using drone | |
US20230282122A1 (en) | Geofence management with an unmanned aerial vehicle | |
Maltese et al. | Detect and avoid function for UAVs: Presentation of an EO/IR sensor solution | |
CN113379732B (en) | Cable target detection method based on airborne laser radar | |
KR20200064236A (en) | Structure inspection system and method using dron |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |