KR102122752B1 - 투하 정밀도 향상을 위한 무인 비행체의 제어 방법 - Google Patents

투하 정밀도 향상을 위한 무인 비행체의 제어 방법 Download PDF

Info

Publication number
KR102122752B1
KR102122752B1 KR1020190132195A KR20190132195A KR102122752B1 KR 102122752 B1 KR102122752 B1 KR 102122752B1 KR 1020190132195 A KR1020190132195 A KR 1020190132195A KR 20190132195 A KR20190132195 A KR 20190132195A KR 102122752 B1 KR102122752 B1 KR 102122752B1
Authority
KR
South Korea
Prior art keywords
screen
unmanned aerial
aerial vehicle
dropping
touch
Prior art date
Application number
KR1020190132195A
Other languages
English (en)
Inventor
이기성
Original Assignee
주식회사 네스앤텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네스앤텍 filed Critical 주식회사 네스앤텍
Priority to KR1020190132195A priority Critical patent/KR102122752B1/ko
Application granted granted Critical
Publication of KR102122752B1 publication Critical patent/KR102122752B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 영상으로 타겟이 표시되는 컨트롤러의 화면 일측에 발생하는 터치를 감지하여 그 타겟이 특정될 수 있도록 하고, 특정된 타겟의 수직 상방으로 무인 비행체의 위치를 조정하여 하방으로 투하되는 투하물의 투하 정밀도를 향상시킬 수 있는 제어 방법에 관한 것이다.
또한, 본 발명은 무인 비행체에 장착된 카메라를 통해 촬영되는 수직하방의 영상을 수신하여 터치 스크린으로 구성되는 컨트롤러의 화면에 표시하는 표시 단계, 영상이 표시되는 컨트롤러의 화면 상에 터치가 발생하면, 터치가 발생한 화면 상의 위치를 감지하는 감지 단계, 터치가 감지된 화면 상의 위치를 기준점으로 설정하고, 그 기준점을 화면의 중심에 위치시키기 위한 무인 비행체의 비행 거리 및 방향을 계산하는 계산 단계, 계산된 비행 거리 및 방향을 이용하여 무인 비행체의 비행을 제어하는 제어 단계, 컨트롤러에 구비되는 어느 하나의 입력 수단을 통해 준비 입력이 발생하면 무인 비행체에 장착된 투하물을 투하 가능한 상태로 준비시키는 준비 단계 및, 준비 입력이 유지되는 상태에서, 컨트롤러에 구비되는 다른 하나의 입력 수단을 통한 투하 입력이 발생하면 무인 비행체에 장착된 투하물을 하방으로 투하하는 투하 단계를 포함하여 구성되는 것을 특징으로 한다.

Description

투하 정밀도 향상을 위한 무인 비행체의 제어 방법{Unmanned vehicle control method for improving dropping accuracy}
본 발명은 무인 비행체에 탑재되어 하방으로 투하되는 투하물의 투하 정밀도를 향상시키기 위한 방법에 관한 것으로써, 보다 상세하게는 영상으로 타겟이 표시되는 컨트롤러의 화면 일측에 발생하는 터치를 감지하여 그 타겟이 특정될 수 있도록 하고, 특정된 타겟의 수직 상방으로 무인 비행체의 위치를 조정하여 하방으로 투하되는 투하물의 투하 정밀도를 향상시킬 수 있는 제어 방법에 관한 것이다.
일반적으로, 드론으로 통용되는 무인 비행체는 종래의 비행체들에 비해 소형이고, 정지 비행이 가능하며, 수직 이착륙 등 비행 방향의 전환을 자유자재로 할 수 있는 특징으로 인해 정찰, 수색 등의 군사 목적뿐만 아니라 방송 촬영 등 다양한 방면에서 널리 이용되고 있다.
따라서, 상기 무인 비행체는 상기한 특징들로 인해 공격을 위한 공격 수단으로 이용될 수 있고, 익수자 등의 구명을 위한 구명 수단으로 이용될 수 있으며, 물품 배송을 위한 배송 수단으로도 이용될 수 있으나, 이와 같거나 유사한 용도로 이용되는 경우에는 무인 비행체에 장착 또는 탑재된 폭탄, 구명 물품 또는 배송 물품 등의 투하물을 원하는 지점이나 목표에 정확하게 투하하기 위한 추가 방안이 요구된다 하겠다.
이와 관련하여, 무인 비행체에 장착 또는 탑재된 다양한 종류의 투하물을 정밀하게 투하하기 위한 기술이 기재된 종래의 발명으로는 대한민국 등록특허공보 제10-0618438호의 “일반폭탄용 비행보조체”, 대한민국 등록특허공보 제10-0673523호 “파라포일 유도낙하산 운송시스템” 및 대한민국 등록특허공보 제10-1055662호의 “일반폭탄 비행보조체의 비행조종장치 및 방법”이 제안되어 공개된 바 있다.
상기 대한민국 등록특허공보 제10-0618438호의 “일반폭탄용 비행보조체”에는 항공기로부터 분리되는 즉시 날개전개장치의 제1 카트리지가 점화하여 주날개가 펼쳐짐과 동시에 꼬리날개도 펼쳐지도록 구성되고, GPS를 통해 위치를 계산하는 유도/조종장치는 실시간으로 계산되는 위치에 따라 작동기 뭉치를 제어하도록 구성되어 외란에 영향을 받지 않고 유도탄과 같은 정밀한 타격이 가능하도록 구성되는 장치에 관한 발명이 제안되었고, 상기 대한민국 등록특허공보 제10-0673523호 “파라포일 유도낙하산 운송시스템”에는 바람의 영향을 분석하고 위치 및 방위각에 근거하여 양측 조종줄의 당김량을 각각 제어함으로써 화물을 목적지점까지 신속하고 정확하게 운반할 수 있도록 구성되는 시스템에 관한 발명이 제안되었다.
또한, 상기 대한민국 등록특허공보 제10-1055662호의 “일반폭탄 비행보조체의 비행조종장치 및 방법”에는 좌우측 주날개의 전개 감지 이전까지는 횡방향축 제어만을 수행하고 좌우측 주날개의 전개 감지 이후에는 횡방향축에 더하여 종방향축의 제어까지 수행하도록 구성되어 종래의 일반적인 투하 방식에 비해 사거리를 연장할 수 있고 정확도를 높일 수 있도록 구성되는 장치 및 방법에 관한 발명이 제안되었다.
그러나 상기와 같은 종래 발명들은 폭탄이나 화물 등의 투하물에 유도기능을 가진 고가의 장비를 장착하도록 구성되는 발명들로써, 기술의 구현을 위한 고비용이 부담되는 문제가 있고, 투하물을 투하함에 있어 조작 미숙 또는 실수로 인한 사고의 발생을 방지하기 위한 방안은 제시하지 못하는 문제가 있으므로, 이와 같은 문제점들을 해결할 수 있는 기술에 관한 발명이 요구되는 실정이다.
대한민국 등록특허공보 제10-0618438호(2006. 08. 24) 대한민국 등록특허공보 제10-0673523호(2007. 01. 17) 대한민국 등록특허공보 제10-1055662호(2011. 08. 03)
본 발명에 의한 투하 정밀도 향상을 위한 무인 비행체의 제어 방법은 상기와 같은 종래 발명들의 문제점들을 해결하기 위해 제안된 발명으로써,
유도기능을 가진 고가의 장비를 사용하도록 구성되는 종래의 발명들은 기술의 구현을 위해 고비용이 발생하는 문제가 있고,
투하물을 투하함에 있어, 조작 미숙 또는 실수로 인한 사고가 발생할 수 있는 문제가 있기 때문에, 이에 대한 해결책을 제시하는 것을 그 목적으로 한다.
본 발명은 상기와 같은 목적을 실현하고자,
무인 비행체에 장착된 카메라를 통해 촬영되는 수직하방의 영상을 수신하여 터치 스크린으로 구성되는 컨트롤러의 화면에 표시하는 표시 단계; 영상이 표시되는 상기 컨트롤러의 화면 상에 터치가 발생하면, 터치가 발생한 화면 상의 위치를 감지하는 감지 단계; 터치가 감지된 화면 상의 위치를 기준점으로 설정하고, 그 기준점을 화면의 중심에 위치시키기 위한 상기 무인 비행체의 비행 거리 및 방향을 계산하는 계산 단계; 계산된 비행 거리 및 방향을 이용하여 상기 무인 비행체의 비행을 제어하는 제어 단계; 상기 컨트롤러에 구비되는 어느 하나의 입력 수단을 통해 준비 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 투하 가능한 상태로 준비시키는 준비 단계; 및, 준비 입력이 유지되는 상태에서, 상기 컨트롤러에 구비되는 다른 하나의 입력 수단을 통한 투하 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 하방으로 투하하는 투하 단계; 를 포함하여 구성되는 것을 특징으로 하는 투하 정밀도 향상을 위한 무인 비행체의 제어 방법을 제시한다.
본 발명에 의한 투하 정밀도 향상을 위한 무인 비행체의 제어 방법은,
유도기능을 가진 고가의 장비를 이용하지 않고 무인 비행체의 위치를 조정하는 방식으로 투하물의 투하 정밀도를 향상시킬 수 있도록 구성되어 기술의 구현을 위한 비용을 종래 발명들에 비해 절감할 수 있는 효과가 발생하고,
컨트롤러에 표시되는 영상에 타겟이 포착되면 화면을 터치하여 타겟을 설정함과 동시에 무인 비행체를 그 타겟의 수직상방으로 비행시킬 수 있도록 구성되고, 컨트롤러에 구비되는 어느 하나의 입력 수단을 통해 발생한 준비 입력이 유지되는 상태에서만 무인 비행체에 장착된 투하물이 투하될 수 있도록 구성되어 투하물의 투하를 위한 무인 비행체의 제어 과정을 간편하게 구현함과 동시에 조작의 미숙 또는 실수로 인한 사고를 방지할 수 있는 효과가 발생한다.
도 1은 본 발명에 의한 투하 정밀도 향상을 위한 무인 비행체의 제어 방법의 순서도.
도 2는 본 발명에 의한 투하 정밀도 향상을 위한 무인 비행체의 제어 방법의 계산 단계를 구성하는 세부 단계들의 진행 순서를 나타낸 순서도.
도 3a은 표시 단계에서의 컨트롤러의 화면을 나타낸 예시도.
도 3b는 감지 단계에서의 컨트롤러의 화면을 나타낸 예시도.
도 3c는 제어 단계 이후의 컨트롤러의 화면을 나타낸 예시도.
도 4는 본 발명에 의한 투하 정밀도 향상을 위한 무인 비행체의 제어 방법의 투하 알고리즘.
본 발명은 무인 비행체에 탑재되어 하방으로 투하되는 투하물의 투하 정밀도를 향상시키기 위한 방법에 관한 것으로써,
도 1에 도시된 바와 같이, 무인 비행체에 장착된 카메라를 통해 촬영되는 수직하방의 영상을 수신하여 터치 스크린으로 구성되는 컨트롤러의 화면에 표시하는 표시 단계(100); 영상이 표시되는 상기 컨트롤러의 화면 상에 터치가 발생하면, 터치가 발생한 화면 상의 위치를 감지하는 감지 단계(110); 터치가 감지된 화면 상의 위치를 기준점으로 설정하고, 그 기준점을 화면의 중심에 위치시키기 위한 상기 무인 비행체의 비행 거리 및 방향을 계산하는 계산 단계(120); 계산된 비행 거리 및 방향을 이용하여 상기 무인 비행체의 비행을 제어하는 제어 단계(130); 상기 컨트롤러에 구비되는 어느 하나의 입력 수단을 통해 준비 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 투하 가능한 상태로 준비시키는 준비 단계(140); 및, 준비 입력이 유지되는 상태에서, 상기 컨트롤러에 구비되는 다른 하나의 입력 수단을 통한 투하 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 하방으로 투하하는 투하 단계(150); 를 포함하여 구성되는 것을 특징으로 하는 투하 정밀도 향상을 위한 무인 비행체의 제어 방법에 관한 것이다.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예들을 상세히 설명하고자 한다.
우선, 도 1에 도시된 상기 표시 단계(100)는 무인 비행체에 장착된 카메라를 통해 촬영되어 전송되는 수직하방의 영상을 수신하여 터치 스크린으로 구성되는 컨트롤러의 화면에 표시하는 단계이다.
따라서, 상기 무인 비행체에는 수직하방의 영상 촬영을 위한 카메라가 직접 장착되거나 짐벌을 통해 장착되고, 위성으로부터 전송되는 신호를 수신하여 위치 정보를 생성하는 GPS 또는 INS 등의 위치 정보 생성 장치가 장착되며, 상기 컨트롤러와 무선 통신하며 무인 비행체의 비행을 제어하기 위한 제어 신호를 수신하고, 촬영되는 영상과 위치 정보를 전송하기 위한 통신 장치가 장착되도록 구성된다.
또한, 상기 무인 비행체에는 비행 중인 기체의 롤(roll), 피치(pitch), 요(yaw)를 측정하기 위한 자이로 센서가 장착됨이 바람직하다.
또한, 상기 무인 비행체에는 다양한 종류의 투하물, 즉, 폭탄, 구명물품 또는 배송물품 등이 장착되거나 탑재될 수 있으며 그 투하물을 장착 또는 탑재한 상태로 수직하방으로 투하하기 위한 투하 장치가 투하물의 종류에 따른 맞춤 형태로 구비될 수 있다.
즉, 상기 투하 장치는 투하물을 파지한 상태로 이송하여 투하하는 방식의 장치로 구성될 수 있고, 하단이 개방되며 내부에 탑재된 투하물이 투하되도록 하는 방식의 장치로 구성될 수 있으나, 경우에 따라 이와는 다른 형태의 장치로 구성되어도 무방하다.
이때, 상기 무인 비행체라 함은 주날개로써 고정익을 구비한 고정익 비행체와 주날개로써 회전익을 구비한 회전익 비행체 중 정지 비행이 가능하고, 수직 이착륙 등 비행 방향의 전환을 자유자재로 할 수 있는 회전익 비행체를 의미하며, 회전익의 개수와 본체의 크기 등은 별도의 제한없이 필요에 따라 다양하게 구성될 수 있다.
또한, 상기 컨트롤러는 상기 무인 비행체와 그 무인 비행체에 장착되는 투하 장치 그리고 상기 카메라를 제어하기 위한 복수 개의 입력 수단과 영상을 표시하기 위한 단일의 표시 수단인 화면이 구비되고, 상기 통신 장치와 무선 통신할 수 있도록 구성되는 제어 장치이다.
따라서, 상기 컨트롤러는 사용자에 의해 제어되는 상태로 무인 비행체의 비행을 제어하기 위한 제어 신호를 생성하여 전송할 수 있고, 무인 비행체로부터 전송되는 영상과 위치 정보를 표시할 수 있으며, 상기 카메라를 통해 촬영되는 영상을 확대 또는 축소할 수 있고, 장착 또는 탑재된 투하물을 수직하방으로 투하할 수 있도록 구성된다.
이때, 상기 컨트롤러의 표시 수단인 화면은 풀 터치 스크린으로 구성되어 영상을 표시함과 동시에 사용자에 의해 발생하는 터치를 감지할 수 있도록 구성되며, 상기 무인 비행체로부터 전송되는 영상이 표시되는 컨트롤러의 화면 상에 터치가 발생하면, 터치가 발생한 화면 상의 위치를 감지하는 단계를 도 1에 도시된 바와 같이 감지 단계(110)라고 한다.
상기 감지 단계(110)는 상기 무인 비행체를 통해 수직하방으로 투하하고자 하는 투하물의 타겟을 화면의 터치를 통해 설정하는 단계이며, 상기 컨트롤러를 이용하여 무인 비행체의 비행을 제어함과 동시에 상기 카메라로 촬영되는 영상을 주시하는 사용자는 영상에 타겟이 포착되면 화면을 터치하여 타겟을 설정함과 동시에 그 타겟의 수직상방으로 무인 비행체가 자동으로 비행하게 함으로써, 무인 비행체와 투하 장치를 동시에 제어하며 투하물을 투하하도록 구성되는 종래의 복잡한 제어 방법이 보다 단순화되도록 할 수 있다.
즉, 본 발명은 타겟을 향해 투하물을 투하하고자 하는 사용자가 타겟이 표시되는 상기 컨트롤러의 화면 일측을 터치하는 방식으로 상기 무인 비행체를 자동으로 제어할 수 있도록 구성됨으로써, 투하물을 투하하기 위한 컨트롤러의 조작에만 집중할 수 있도록 하는 효과가 발생한다.
또한, 본 발명은 사용자가 상기 컨트롤러의 화면 일측을 터치하는 경우에는 터치된 지점을 표시하는 표식이 표적, 사각 박스 또는 점의 형태 등으로 화면에 표시되도록 구성됨으로써 사용자가 자신이 터치하여 타겟이 된 특정한 지점 또는 특정 개체를 용이하고 정확하게 인지할 수 있도록 구성될 수 있다.
한편, 상기 감지 단계(110)에서 터치가 발생한 화면 상의 위치가 감지된 이후로는 상기 무인 비행체의 위치를 자동으로 제어하여 사용자가 화면을 통해 터치한 실제 지형 상의 특정한 지점이나 특정 개체의 수직상방으로 이동시키고 그 위치를 유지하도록 하기 위한 각 단계가 순차적으로 진행되며, 그 단계 중의 하나로써, 상기 컨트롤러의 화면 상에 터치가 발생하면 터치가 감지된 화면 상의 위치를 기준점으로 설정하고, 그 기준점을 화면의 중심에 위치시키기 위한 상기 무인 비행체의 비행 거리 및 방향을 계산하는 단계를 도 1 및 도 2에 도시한 바와 같이 계산 단계(120)라 한다.
즉, 상기 계산 단계(120)는 사용자가 터치한 화면 상의 위치를 타겟으로 하여 상기 무인 비행체를 그 타겟의 수직상방으로 이동 비행시키기 위한 방향을 결정하고, 비행 거리를 계산하는 단계이다.
구체적으로, 상기 계산 단계(120)는 화면의 중심을 중심점으로 설정하고, 터치가 감지된 화면 상의 위치를 기준점으로 설정한 후 상기 기준점으로부터 상기 중심점에 도달하기 위한 X축 방향으로의 최소 거리 값과 Y축 방향으로의 최소 거리 값을 측정하고, 상기 화면의 해상도를 기준으로 각각의 최소 거리 값에 대응하는 픽셀수를 계산하여, 화면의 해상도에 관한 Xsize 및 Ysize를 포함하여 구성되고, 최소 거리 값에 대응하는 픽셀수인 x 값과 y 값을 포함하여 구성되는 픽셀 데이터를 생성하는 픽셀계산 단계(121)를 포함하여 구성되는 것을 특징으로 한다.
즉, 상기 컨트롤러의 표시 수단인 화면은 일정한 가로 길이와 다른 일정한 세로 길이를 갖는 사각의 형태로 구성되고, 그 안에는 사각의 형태로 구성되는 수많은 픽셀(pixel)들이 존재하며, 본 발명에서는 상기 화면의 가로 길이를 구성하는 픽셀의 수를 Xsize라 지칭하고, 화면의 세로 길이를 구성하는 픽셀의 수를 Ysize로 지칭하기로 한다.
따라서, 도 2에 도시된 상기 픽셀계산 단계(121)에서는 화면의 중심을 중심점으로 설정하고, 사용자에 의해 터치가 발생한 화면 상의 위치를 기준점으로 설정한 후, 상기 기준점으로부터 상기 중심점에 도달하기 위한 X축 방향으로의 최소 거리 값과 Y축 방향으로의 최소 거리 값을 측정하고, 해상도에 의해 고정된 값인 Xsize 및 Ysize를 기준으로, 측정된 각각의 최소 거리 값에 대응하는 픽셀수를 계산하여 가로 길이의 최소 거리 값인 x값과 세로 길이의 최소 거리 값인 y 값을 도출함으로써, Xsize 및 Ysize를 포함하여 구성되고, x 값과 y 값을 포함하여 구성되는 픽셀 데이터를 생성할 수 있다.
즉, 상기 화면의 해상도가 1920 * 1080이라 가정하였을 때, Xsize는 1920[px]이고, Ysize는 1080[px]이며, 상기 기준점으로부터 상기 중심점에 도달하기 위한 X축 방향으로의 최소 거리 값이 화면 가로 길이의 3분의 1에 해당하는 경우에는 그 최소 거리 값에 대응하는 픽셀수가 640[px]로 계산되고, Y축 방향으로의 픽셀수를 계산하는 방식도 이와 동일하다.
또한, 상기 화면에 표시되는 영상은 사용자의 제어에 의해 임의의 정도로 줌인(Zoom in)된 상태일 수 있고, 임의의 정도로 줌아웃(Zoom out)된 상태일 수 있으므로, 도 2에 도시된 바와 같이 상기 계산 단계(120)는 화면에 표시되는 영상의 줌 상태에 따라 상기 화면의 수평화각 값인 VFoV와 수직화각 값인 HFoV를 계산하여 화각 데이터를 생성하는 화각계산 단계(122)를 포함하여 구성되는 것을 특징으로 한다.
즉, 상기 화면의 범위 내에 포함되는 픽셀의 수는 화면의 해상도에 따라 동일한 수로 고정되나 그 화면에 표시되는 특정한 지점 또는 특정 개체는 상기 입력 수단을 통한 사용자의 제어에 의해 임의의 정도로 확대되거나 축소되어 표시된 것일 수 있으므로, 상기 무인 비행체를 이동시키기 위한 거리는 화면이 확대 또는 축소된 정도에 따라 다르게 계산되어야 한다.
따라서, 상기 화면의 수직화각 값인 HFoV와 수평화각 값인 VFoV는 상기 입력 수단을 통한 사용자의 제어에 의해 상기 카메라가 영상을 줌인 또는 줌아웃 하여 촬영하는 정도에 따라 그 값이 다르게 형성됨으로써, 이후 상기 무인 비행체를 이동시키기 위한 거리 값이 정확하게 계산될 수 있도록 한다.
또한, 도 2에 도시된 바와 같이 상기 계산 단계(120)는 상기 픽셀 데이터와 상기 화각 데이터를 기반으로 상기 카메라의 각도 오차값을 계산하는 오차계산 단계(123)를 포함하여 구성되는 것을 특징으로 하며, 상기 카메라의 각도 오차값이란 수직하방인 카메라의 현재 촬영방향을 하나의 기준선으로 하고, 카메라로부터 타겟을 연결하는 가상의 선을 다른 하나의 기준선으로 하여 양 기준선 사이에 형성되는 각도 값을 의미한다.
구체적으로, 상기 오차계산 단계(123)는
Figure 112019108350652-pat00001
의 공식을 이용하여, X축 방향으로의 각도 오차 값을 계산하고,
Figure 112019108350652-pat00002
의 공식을 이용하여, Y축 방향으로의 각도 오차 값을 계산하는 것을 특징으로 한다.
이에 관한 본 발명의 일 실시예로써, 상기 픽셀 데이터를 구성하는 Xsize가 1280[px]이고, Ysize가 720[px]이며, x 값이 320[px]이고, y 값이 180[px]인 경우, 상기 오차계산 단계(123)에서 계산되는 X축 방향으로의 각도 오차 값은
Figure 112019108350652-pat00003
이고, 상기 오차계산 단계(123)에서 계산되는 Y축 방향으로의 각도 오차 값은
Figure 112019108350652-pat00004
이다.
또한, 도 2에 도시된 바와 같이 상기 계산 단계(120)는 상기 무인 비행체의 고도와 계산된 각도 오차 값을 기반으로 무인 비행체의 이동거리를 계산하는 거리계산 단계(124)를 포함하여 구성되는 것을 특징으로 하며, 상기 거리계산 단계(124)는
Figure 112019108350652-pat00005
의 공식을 이용하여 X축 방향으로의 이동거리를 계산하고,
Figure 112019108350652-pat00006
의 공식을 이용하여 Y축 방향으로의 이동거리를 계산하는 것을 특징으로 한다.
이에 관한 본 발명의 일 실시예로써, 상기 무인 비행체의 고도가 100m이고, 상기 오차계산 단계(123)에서 계산된 X축 방향으로의 각도 오차 값이 11.25°이며, Y축 방향으로의 각도 오차 값이 15°인 경우, 상기 거리계산 단계(124)에서 계산되는 X축 방향으로의 이동거리는
Figure 112019108350652-pat00007
이고, 상기 거리계산 단계(124)에서 계산되는 Y축 방향으로의 이동거리는
Figure 112019108350652-pat00008
이다.
따라서, 상기한 예에서는, 상기 컨트롤러가 자동으로 제어되며 상기 무인 비행체를 X축 방향으로 26.8m 이동시키고 Y축 방향으로 19.9m 이동시킴으로써 타겟의 수직상방에 위치될 수 있도록 하며, 무인 비행체의 고도는 사용자에 의한 터치가 감지되었을 때의 고도가 그대로 유지되도록 구성된다.
이와 같이, 상기 거리계산 단계(124)에서 도출되는 X축 방향으로의 이동거리와 Y축 방향으로의 이동거리에 따라 상기 무인 비행체를 타겟의 수직상방으로 비행시키는 단계를 제어 단계(130)라 하며, 이때 GPS 또는 INS에서 생성되는 위치 정보를 이용하여 무인 비행체의 위치를 타겟의 수직상방에 고정할 수 있다.
다만, 본 발명은 투하의 정밀도를 향상시키기 위한 목적으로, 상기 제어 단계(130)에서 상기 무인 비행체의 고도가 사용자에 의해 기설정된 임의의 고도 값으로 자동으로 조정되도록 구성될 수 있으나, 그 설정된 고도 값이 무인 비행체의 현재 고도보다 높게 설정된 경우에는 무인 비행체의 고도가 조정되지 않도록 구성됨이 바람직하다.
즉, 상기와 같은 기능은 무인 비행체와 타겟 간의 거리가 자동으로 감소되도록 하여 투하의 정밀도를 향상시키고자 하는 것이므로, 고도 조정에 의해 무인 비행체와 타겟 간의 거리가 증가하여서는 아니된다.
또한, 본 발명에 의한 투하 정밀도 향상을 위한 무인 비행체의 제어 방법은 상기 컨트롤러에 구비되는 어느 하나의 입력 수단을 통해 준비 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 투하 가능한 상태로 준비시키는 준비 단계(140)를 포함하여 구성되는 것을 특징으로 한다.
즉, 도 1에 도시된 바와 같이, 본 발명은 상기 감지 단계(110) 이후 상기 계산 단계(120)가 수행되고, 계산 단계(120) 이후 상기 제어 단계(130)가 수행되도록 구성되며, 이와 같은 구성에 따라 상기 무인 비행체는 사용자에 의해 특정된 타겟의 수직상방으로 이동 비행한 후 그 위치에서 정지 비행할 수 있다.
따라서, 도 3a 내지 도 3b에 도시된 바와 같이, 상기 컨트롤러의 화면 중심에는 사용자에 의해 특정된 타겟이 표시되며, 사용자는 특정된 타겟이 중심에 표시되는 화면을 확인함과 동시에 준비 입력을 발생시키는 컨트롤러의 입력 수단을 통해 상기 투하 장치의 상태를 투하 가능한 상태로 전환시킬 수 있다.
도 3a 내지 도 3b에 관하여 보다 구체적으로 설명하자면, 도 3a는 상기 표시 단계(100)에서의 상기 컨트롤러의 화면을 나타낸 예시도이고, 도 3b는 상기 감지 단계(110)에서 화면에 발생한 터치가 감지된 상태의 화면을 나타낸 예시도이며, 도 3c는 상기 제어 단계 이후의 화면을 나타낸 예시도이며, 실제 화면에 표시되는 배경 등은 생략된 상태이다.
또한, 본 발명에 의한 투하 정밀도 향상을 위한 무인 비행체의 제어 방법은 준비 입력이 유지되는 상태에서, 상기 컨트롤러에 구비되는 다른 하나의 입력 수단을 통한 투하 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 하방으로 투하하는 투하 단계(150)를 포함하여 구성되는 것을 특징으로 한다.
즉, 도 4에 도시된 바와 같이 본 발명은 상기 컨트롤러를 통한 준비 입력이 유지되는 상태에서만 사용자에 의한 투하 입력이 효력을 가지도록 구성됨으로써, 사용자의 조작 미숙 또는 실수로 인한 사고가 방지될 수 있도록 하며, 이에 더하여 조작의 편의성을 확보하기 위한 목적으로 준비 입력을 발생시키는 입력 수단과 투하 입력을 발생시키는 입력 수단은 상기 화면을 기준으로 하여 서로 대칭되는 위치에 구비됨이 바람직하다.
또한, 본 발명은 투하의 정밀도를 향상시키기 위한 목적으로, 상기 제어 단계(130)에서 상기 무인 비행체를 타겟의 수직상방으로 이동시킨 후 GPS 또는 INS에서 생성되는 위치 정보를 이용하여 무인 비행체의 위치를 타겟의 수직상방에 고정하는 과정에서 기류에 의한 흔들림이 기설정된 정도 이상으로 발생하는 경우에는 상기 컨트롤러의 화면에 다양한 방식으로 경고 또는 주의 메시지를 표시함으로써, 사용자가 투하 입력을 보류하도록 할 수 있다.
즉, 상기와 같은 기능은 상기 무인 비행체로부터 투하되는 투하물의 낙하 지점이 강한 기류 등에 의해 타겟으로부터 상당거리 이격된 지점에 형성되는 것을 방지하기 위한 기능이며, 이에 따라 사용자는 투하 입력을 보류하거나 무인 비행체의 고도를 조정하는 방식 등으로 이러한 문제를 해결할 수 있다.
위에서 소개된 실시예들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 기술적 사상이 충분히 전달될 수 있도록 하기 위해, 예로써 제공되는 것이며, 본 발명은 위에서 설명된 실시예들에 한정되지 않고, 다른 형태로 구체화 될 수도 있다.
본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 도면에서 생략하였으며 도면들에 있어서, 구성요소의 폭, 길이, 두께 등은 편의를 위하여 과장 또는 축소되어 표현될 수 있다.
또한, 명세서 전체에 걸쳐서 동일한 참조 번호들은 동일한 구성요소들을 나타낸다.
100 : 표시 단계
110 : 감지 단계
120 : 계산 단계
121 : 픽셀계산 단계
122 : 화각계산 단계
123 : 오차계산 단계
124 : 거리계산 단계
130 : 제어 단계
140 : 준비 단계
150 : 투하 단계

Claims (5)

  1. 무인 비행체에 장착된 카메라를 통해 촬영되는 수직하방의 영상을 수신하여 터치 스크린으로 구성되는 컨트롤러의 화면에 표시하는 표시 단계(100);
    영상이 표시되는 상기 컨트롤러의 화면 상에 터치가 발생하면, 터치가 발생한 화면 상의 위치를 감지하는 감지 단계(110);
    터치가 감지된 화면 상의 위치를 기준점으로 설정하고, 그 기준점을 화면의 중심에 위치시키기 위한 상기 무인 비행체의 비행 거리 및 방향을 계산하는 계산 단계(120);
    계산된 비행 거리 및 방향을 이용하여 상기 무인 비행체의 비행을 제어하는 제어 단계(130);
    상기 컨트롤러에 구비되는 어느 하나의 입력 수단을 통해 준비 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 투하 가능한 상태로 준비시키는 준비 단계(140); 및,
    준비 입력이 유지되는 상태에서, 상기 컨트롤러에 구비되는 다른 하나의 입력 수단을 통한 투하 입력이 발생하면 상기 무인 비행체에 장착된 투하물을 하방으로 투하하는 투하 단계(150); 를 포함하여 구성되되,
    상기 무인 비행체는,
    수직하방의 영상의 촬영을 위한 카메라가 장착되고, 위치정보의 생성을 위한 GPS 또는 INS 등의 위치 정보 생성 장치가 장착되며, 무선 통신을 위한 통신 장치가 장착되는 것을 특징으로 하고,
    촬영되는 영상을 실시간으로 확인하며 상기 무인 비행체의 비행을 제어 가능하고, 상기 카메라를 제어하여 촬영되는 영상을 확대 또는 축소 가능하며, 풀 터치 스크린으로 구성되는 화면 상에 발생하는 터치를 감지하여 무인 비행체의 비행 거리 및 방향을 제어 가능하도록 구성되고,
    상기 감지 단계(110)는,
    상기 컨트롤러를 이용하여 상기 무인 비행체의 비행을 제어함과 동시에 상기 카메라로 촬영되는 영상을 주시하는 사용자는 영상에 타겟이 포착되면 화면을 터치하여 타겟을 설정함과 동시에 그 타겟의 수직상방으로 상기 무인 비행체가 자동으로 비행하게 하고,
    상기 제어 단계(130)는,
    상기 무인 비행체의 고도가 사용자에 의해 기설정된 임의의 고도 값으로 자동으로 조정되되, 설정된 고도 값이 상기 무인 비행체의 현재 고도보다 높게 설정된 경우에는 상기 무인 비행체의 고도가 조정되지 않도록 구성되고,
    상기 준비 입력을 발생시키는 입력 수단과 상기 투하 입력을 발생시키는 입력 수단은,
    화면을 기준으로 하여 서로 대칭되는 위치에 구성되는 것을 특징으로 하는 화면 터치 방식을 이용하는 무인 비행체의 제어 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 계산 단계(120)는,
    화면의 중심을 중심점으로 설정하고, 터치가 감지된 화면 상의 위치를 기준점으로 설정한 후 상기 기준점으로부터 상기 중심점에 도달하기 위한 X축 방향으로의 최소 거리 값과 Y축 방향으로의 최소 거리 값을 측정하고, 상기 화면의 해상도를 기준으로 각각의 최소 거리 값에 대응하는 픽셀수를 계산하여, 화면의 해상도에 관한 Xsize 및 Ysize를 포함하여 구성되고, 최소 거리 값에 대응하는 픽셀수인 x 값과 y 값을 포함하여 구성되는 픽셀 데이터를 생성하는 픽셀계산 단계(121);
    화면에 표시되는 영상의 줌 상태에 따라 상기 화면의 수평화각 값과 수직화각 값을 계산하여 화각 데이터를 생성하는 화각계산 단계(122);
    상기 픽셀 데이터와 상기 화각 데이터를 기반으로 상기 카메라의 각도 오차값을 계산하는 오차계산 단계(123); 및,
    상기 무인 비행체의 고도와 계산된 각도 오차값을 기반으로 무인 비행체의 이동거리를 계산하는 거리계산 단계(124); 를 포함하여 구성되는 것을 특징으로 하는 화면 터치 방식을 이용하는 무인 비행체의 제어 방법.
  4. 제3항에 있어서,
    상기 오차계산 단계(123)는,
    Figure 112020006777531-pat00019
    의 공식을 이용하여, X축 방향으로의 각도 오차 값을 계산하고, 상기 VFoV는 화면의 수평화각 값이며,
    Figure 112020006777531-pat00020
    의 공식을 이용하여, Y축 방향으로의 각도 오차 값을 계산하고, 상기 HFoV는 수직화각 값인 것을 특징으로 하는 화면 터치 방식을 이용하는 무인 비행체의 제어 방법.
  5. 제4항에 있어서,
    상기 거리계산 단계(124)는,
    Figure 112020006777531-pat00021
    의 공식을 이용하여 X축 방향으로의 이동거리를 계산하고, 상기 Vz은 무인 비행체의 고도이며, 상기 θx는 X축 방향으로의 각도 오차 값이고,
    Figure 112020006777531-pat00022
    의 공식을 이용하여 Y축 방향으로의 이동거리를 계산하고, 상기 Vz은 무인 비행체의 고도이며, 상기 θy는 Y축 방향으로의 각도 오차 값인 것을 특징으로 하는 화면 터치 방식을 이용하는 무인 비행체의 제어 방법.
KR1020190132195A 2019-10-23 2019-10-23 투하 정밀도 향상을 위한 무인 비행체의 제어 방법 KR102122752B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190132195A KR102122752B1 (ko) 2019-10-23 2019-10-23 투하 정밀도 향상을 위한 무인 비행체의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190132195A KR102122752B1 (ko) 2019-10-23 2019-10-23 투하 정밀도 향상을 위한 무인 비행체의 제어 방법

Publications (1)

Publication Number Publication Date
KR102122752B1 true KR102122752B1 (ko) 2020-06-15

Family

ID=71081877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190132195A KR102122752B1 (ko) 2019-10-23 2019-10-23 투하 정밀도 향상을 위한 무인 비행체의 제어 방법

Country Status (1)

Country Link
KR (1) KR102122752B1 (ko)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100618438B1 (ko) 2004-10-06 2006-08-30 국방과학연구소 일반폭탄용 비행보조체
KR100673523B1 (ko) 2006-04-20 2007-01-24 주식회사 코아블 파라포일 유도낙하산 운송시스템
KR101055662B1 (ko) 2008-11-24 2011-08-09 국방과학연구소 일반폭탄 비행보조체의 비행조종장치 및 방법
WO2016037219A1 (en) * 2014-09-10 2016-03-17 Burchat Clinton Graeme Delivery system
KR101617411B1 (ko) * 2015-08-17 2016-05-18 박시몽 드론 제어 방법 및 시스템
KR20170093389A (ko) * 2016-02-05 2017-08-16 한화테크윈 주식회사 무인 비행체 제어 방법
KR20190060249A (ko) * 2017-11-24 2019-06-03 사단법인 캠틱종합기술원 구조 장비 투척 방법 및 이를 이용한 구조용 드론

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100618438B1 (ko) 2004-10-06 2006-08-30 국방과학연구소 일반폭탄용 비행보조체
KR100673523B1 (ko) 2006-04-20 2007-01-24 주식회사 코아블 파라포일 유도낙하산 운송시스템
KR101055662B1 (ko) 2008-11-24 2011-08-09 국방과학연구소 일반폭탄 비행보조체의 비행조종장치 및 방법
WO2016037219A1 (en) * 2014-09-10 2016-03-17 Burchat Clinton Graeme Delivery system
KR101617411B1 (ko) * 2015-08-17 2016-05-18 박시몽 드론 제어 방법 및 시스템
KR20170093389A (ko) * 2016-02-05 2017-08-16 한화테크윈 주식회사 무인 비행체 제어 방법
KR20190060249A (ko) * 2017-11-24 2019-06-03 사단법인 캠틱종합기술원 구조 장비 투척 방법 및 이를 이용한 구조용 드론

Similar Documents

Publication Publication Date Title
US10051178B2 (en) Imaging method and appartus
US10935987B2 (en) Landing site localization for dynamic control of an aircraft toward a landing site
US11749126B2 (en) Landing site localization for dynamic control of an aircraft toward a landing site
US9897417B2 (en) Payload delivery
KR102122755B1 (ko) 화면 터치 방식을 이용하는 짐벌 제어 방법
EP3077880B1 (en) Imaging method and apparatus
EP3231714A1 (en) Systems and methods for landing lights
US20200064133A1 (en) Information processing device, aerial photography route generation method, aerial photography route generation system, program, and storage medium
WO2019010922A1 (zh) 信息处理装置、飞行体、输送网络生成方法、输送方法、程序及记录介质
KR102122752B1 (ko) 투하 정밀도 향상을 위한 무인 비행체의 제어 방법
US10412372B2 (en) Dynamic baseline depth imaging using multiple drones
US20230359197A1 (en) Landing Site Localization for Dynamic Control of an Aircraft Toward a Landing Site
JP5857419B2 (ja) 目標標定装置及び目標標定方法
GB2522327A (en) Determining routes for aircraft
EP2881827A1 (en) Imaging method and apparatus
EP2881697A1 (en) Capturing and processing images
GB2522328A (en) Payload delivery
WO2015082594A1 (en) Determining routes for aircraft
KR102181809B1 (ko) 시설물 점검 장치 및 방법
EP2881825A1 (en) Imaging method and apparatus
WO2020105147A1 (ja) 飛行経路案内システム、飛行経路案内装置及び飛行経路案内方法
EP2881709A1 (en) Determining routes for aircraft
EP2881698A1 (en) Payload delivery
EP2881826A1 (en) Imaging method and apparatus
EP2881824A1 (en) Imaging method and system

Legal Events

Date Code Title Description
GRNT Written decision to grant