WO2018030651A1 - 카메라를 구비한 무인 비행체 및 무인 비행체의 영상 처리 방법 - Google Patents

카메라를 구비한 무인 비행체 및 무인 비행체의 영상 처리 방법 Download PDF

Info

Publication number
WO2018030651A1
WO2018030651A1 PCT/KR2017/007457 KR2017007457W WO2018030651A1 WO 2018030651 A1 WO2018030651 A1 WO 2018030651A1 KR 2017007457 W KR2017007457 W KR 2017007457W WO 2018030651 A1 WO2018030651 A1 WO 2018030651A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
image
aerial vehicle
unmanned aerial
frame
Prior art date
Application number
PCT/KR2017/007457
Other languages
English (en)
French (fr)
Inventor
이우성
장승호
강능은
김태균
김현수
백상인
이정재
안대경
이관희
김승년
허창룡
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/324,779 priority Critical patent/US11254427B2/en
Publication of WO2018030651A1 publication Critical patent/WO2018030651A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C25/00Alighting gear
    • B64C25/32Alighting gear characterised by elements which contact the ground or similar surface 
    • B64C2025/325Alighting gear characterised by elements which contact the ground or similar surface  specially adapted for helicopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/13Propulsion using external fans or propellers

Abstract

무인 비행체에 있어서, 본체, 상기 본체의 적어도 일측면으로부터 지정된 길이로 연장된 복수의 프로펠러 연결부들, 상기 복수의 프로펠러 연결부들의 끝단에 각각 연결된 복수의 프로펠러들, 및 상기 본체의 적어도 일면에 장착된 복수의 카메라들을 포함하고, 상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치된 제1 카메라는 상기 본체의 중심점으로부터 제1 크기의 거리만큼 이격되어 배치되고, 상기 복수의 프로펠러들 중 상기 제1 카메라와 인접하게 배치된 제1 프로펠러의 중심점과 상기 본체의 중심점을 연결한 가상의 제1 직선은 제2 크기의 길이를 갖고, 상기 제1 카메라로부터 상기 제1 직선까지 수직하게 그어지는 가상의 제2 직선은 제3 크기의 길이를 갖고, 상기 제3 크기는 상기 제1 프로펠러의 반경보다 크고, 상기 제1 크기는 상기 제2 크기보다 작은 것을 특징으로 하는 무인 비행체가 개시된다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

카메라를 구비한 무인 비행체 및 무인 비행체의 영상 처리 방법
본 문서에 개시되는 다양한 실시 예들은 카메라를 구비한 무인 비행체와 관련된다.
최근 들어, 드론(drone) 등과 같은 무인 비행체를 이용하여 영상을 촬영하는 사용자가 늘고 있는 추세이다. 무인 비행체는 영상 촬영을 지원하기 위해 적어도 하나의 카메라가 일체형으로 제공되거나 적어도 하나의 카메라가 탈부착될 수 있도록 제공될 수 있다.
한편, 무인 비행체에 장착된 적어도 하나의 카메라는 전방위(예: 360도) 영상을 촬영하도록 지원할 수 있다. 예를 들어, 무인 비행체가 일정 높이로 비상하게 되면, 무인 비행체에 장착된 적어도 하나의 카메라는 전후좌우를 비롯하여 상하방의 영상들을 촬영하고, 촬영된 영상들을 무인 비행체에 포함된 영상 처리 모듈(예: 프로세서)이 스티칭(stitching)하여 전방위 영상을 생성할 수 있다.
그러나, 무인 비행체는 무인 비행체에 장착된 카메라의 촬영 영역 내에 무인 비행체의 일부 예컨대, 프로펠러(propeller)가 위치할 수 있다. 이에 따라, 카메라의 촬영 영역 내에 위치한 무인 비행체의 일부가 배경 또는 피사체를 가리게 되는 현상이 발생할 수 있다.
또한, 기존의 무인 비행체에 장착된 적어도 하나의 카메라를 이용하여 촬영된 전방위 영상은 무인 비행체의 움직임에 따라 흔들림이 발생하여 영상을 감상하는 사용자에게 어지러움 등을 유발할 수 있다.
본 문서에서 개시되는 다양한 실시 예들은, 무인 비행체에 장착된 카메라의 촬영 영역 내에 무인 비행체의 일부가 위치하지 않는 무인 비행체의 구조를 제공할 수 있다.
본 문서에서 개시되는 다양한 실시 예들은 촬영된 영상들을 보정할 수 있는 영상 처리 모듈을 포함하는 무인 비행체를 제공할 수 있다.
본 문서에서 개시되는 일 실시 예에 따른 무인 비행체는 본체, 상기 본체의 적어도 일측면으로부터 지정된 길이로 연장된 복수의 프로펠러 연결부들, 상기 복수의 프로펠러 연결부들의 끝단에 각각 연결된 복수의 프로펠러들, 및 상기 본체의 적어도 일면에 장착된 복수의 카메라들을 포함하고, 상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치된 제1 카메라는 상기 본체의 중심점으로부터 제1 크기의 거리만큼 이격되어 배치되고, 상기 복수의 프로펠러들 중 상기 제1 카메라와 인접하게 배치된 제1 프로펠러의 중심점과 상기 본체의 중심점을 연결한 가상의 제1 직선은 제2 크기의 길이를 갖고, 상기 제1 카메라로부터 상기 제1 직선까지 수직하게 그어지는 가상의 제2 직선은 제3 크기의 길이를 갖고, 상기 제3 크기는 상기 제1 프로펠러의 반경보다 크고, 상기 제1 크기는 상기 제2 크기보다 작을 수 있다.
또한, 본 문서에서 개시되는 일 실시 예에 따른 무인 비행체는 상단 프레임 및 하단 프레임 중 적어도 하나를 포함하는 본체, 상기 상단 프레임 및 상기 하단 프레임 중 적어도 하나에 고정되는 회로 실장부, 상기 본체의 적어도 일측면으로부터 지정된 길이로 연장된 복수의 프로펠러 연결부들, 상기 복수의 프로펠러 연결부들의 끝단에 각각 연결된 복수의 프로펠러들, 상기 회로 실장부의 적어도 일면으로부터 연장된 복수의 카메라 연결부들, 및 상기 복수의 카메라 연결부들의 끝단에 각각 연결된 복수의 카메라들을 포함하고, 상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치된 제1 카메라는 상기 본체의 중심점으로부터 제1 크기의 거리만큼 이격되어 배치되고, 상기 복수의 프로펠러들 중 상기 제1 카메라와 인접하게 배치된 제1 프로펠러의 중심점과 상기 본체의 중심점을 연결한 가상의 제1 직선은 제2 크기의 길이를 갖고, 상기 제1 카메라로부터 상기 제1 직선까지 수직하게 그어지는 가상의 제2 직선은 제3 크기의 길이를 갖고, 상기 제3 크기는 상기 제1 프로펠러의 반경보다 크고, 상기 제1 크기는 상기 제2 크기보다 작을 수 있다.
또한, 본 문서에서 개시되는 일 실시 예에 따른 무인 비행체의 영상 처리 방법은 복수의 방위들에 대응하는 복수의 영상들을 획득하는 동작, 상기 복수의 영상들의 보정과 관련된 정보를 획득하는 동작, 상기 보정과 관련된 정보를 기반으로 상기 복수의 영상들을 보정하는 동작, 및 상기 보정된 복수의 영상들을 스티칭하는 동작을 포함할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 무인 비행체에 장착된 카메라의 촬영 영역 내에 무인 비행체의 일부가 위치하지 않음으로써, 배경 또는 피사체가 가려지지 않은 전방위 영상을 제공할 수 있다.
본 문서에서 개시되는 다양한 실시 예들에 따르면, 촬영된 영상을 보정함으로써 흔들림이 없는 전방위 영상을 제공할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 제1 구조를 갖는 무인 비행체의 평면도이다.
도 2는 일 실시 예에 따른 제1 구조를 갖는 무인 비행체의 정면도이다.
도 3은 일 실시 예에 따른 무인 비행체 및 무인 비행체의 측방에 장착된 카메라의 촬영 영역을 설명하기 위한 도면이다.
도 4는 일 실시 예에 따른 무인 비행체 및 무인 비행체의 상하방에 장착된 카메라의 촬영 영역을 설명하기 위한 도면이다.
도 5a는 일 실시 예에 따른 제2 구조를 갖는 무인 비행체의 평면도이다.
도 5b는 일 실시 예에 따른 제2 구조를 갖는 무인 비행체의 정면도이다.
도 6a는 일 실시 예에 따른 제3 구조를 갖는 무인 비행체의 평면도이다.
도 6b는 일 실시 예에 따른 제3 구조를 갖는 무인 비행체의 정면도이다.
도 7a는 일 실시 예에 따른 제4 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이다.
도 7b는 일 실시 예에 따른 제4 구조를 갖는 무인 비행체의 카메라 위치를 설명하기 위한 도면이다.
도 7c는 일 실시 예에 따른 제5 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이다.
도 7d는 일 실시 예에 따른 제6 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이다.
도 7e는 일 실시 예에 따른 제7 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이다.
도 8a는 일 실시 예에 따른 제4 구조 및 제5 구조를 갖는 무인 비행체의 카메라 연결부의 지지 구조를 설명하기 위한 도면이다.
도 8b는 일 실시 예에 따른 제 4 구조 및 제5 구조를 갖는 무인 비행체의 카메라 연결부의 다른 지지 구조를 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 무인 비행체의 블록도이다.
도 10은 일 실시 예에 따른 복수 개의 카메라를 이용하여 촬영된 전방위 영상을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 복수 개의 카메라를 이용하여 촬영된 전방위 영상을 외부 전자 장치로 전송하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 촬영된 영상을 보정하는 방법을 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 무인 비행체의 움직임에 따라 촬영된 영상의 흔들림을 설명하기 위한 도면이다.
도 14는 일 실시 예에 따른 기준 영상을 기반으로 촬영된 영상을 보정하는 방법을 설명하기 위한 도면이다.
도 15a는 일 실시 예에 따른 기준 영상에서 특징부를 추출하는 방법을 설명하기 위한 도면이다.
도 15b는 일 실시 예에 따른 기준 영상에서 특징부를 추출하는 다른 방법을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 무인 비행체의 움직임 정보를 기반으로 촬영된 영상을 보정하는 방법을 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 무인 비행체의 움직임에 따라 카메라의 ISO 감도를 조절하는 방법을 설명하기 위한 도면이다.
도 18은 일 실시 예에 따른 카메라의 ISO 감도 조절에 따른 촬영된 영상을 설명하기 위한 도면이다.
도 19는 일 실시 예에 따른 복수 개의 카메라로 촬영된 영상들을 각 프레임 별로 보정한 후 스티칭하는 방법을 설명하기 위한 도면이다.
도 20은 일 실시 예에 따른 복수 개의 카메라로 촬영된 영상들을 각 프레임 별로 스티칭한 후 보정하는 방법을 설명하기 위한 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면 웨어러블 장치는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(Global Navigation Satellite System)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치 (예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 일 실시 예에 따른 제1 구조를 갖는 무인 비행체의 평면도이고, 도 2는 일 실시 예에 따른 제1 구조를 갖는 무인 비행체의 정면도이다.
도 1 및 도 2를 참조하면, 무인 비행체(100)(예: 드론(drone))는 본체(110)(또는 하우징), 본체(110)의 일측면으로부터 지정된 길이로 연장된 적어도 하나의 프로펠러(propeller) 연결부(또는 암(arm)), 상기 프로펠러 연결부에 연결된 적어도 하나의 프로펠러, 및 본체(110)의 일면에 장착된 적어도 하나의 카메라를 포함할 수 있다.
본체(110)는 제1 면(예: 상면), 제2 면(예: 하면), 및 상기 제1 면과 상기 제2 면 사이의 공간을 적어도 일부 둘러싸는 측면을 포함할 수 있다. 한 실시 예에 따르면, 상기 제1 면 및 상기 제2 면은 동일 또는 유사한 형상으로 마련될 수 있다. 예를 들어, 상기 제1 면이 삼각형으로 마련되는 경우, 상기 제2 면도 삼각형으로 마련될 수 있다. 또 다른 예로, 상기 제1 면이 사각형으로 마련되는 경우, 상기 제2 면도 사각형으로 마련될 수 있다. 그러나, 본체(110)의 형상은 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 본체(110)의 형상은 프로펠러의 개수 또는 카메라의 개수 등에 따라 다르게 마련될 수 있다.
한 실시 예에 따르면, 카메라 제어 및 영상 처리를 위한 적어도 하나의 모듈 및 비행 제어를 위한 적어도 하나의 모듈이 본체(110)의 내측에 배치될 수 있다. 한 예로, 본체(110)의 내측에 적어도 하나의 프로세서, 메모리, 모터, 또는 센서 모듈 등이 배치될 수 있다. 어떤 실시 예에서는, 외부 전자 장치와의 통신을 위한 통신 모듈이 본체(110)의 내측에 더 배치될 수도 있다.
상기 프로세서는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 상기 프로세서는 예를 들면, 무인 비행체(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
한 실시 예에 따르면, 상기 프로세서는 적어도 하나의 카메라를 통해 촬영된 영상을 보정하고, 보정된 영상을 상기 메모리에 저장할 수 있다. 또한, 상기 프로세서는 무인 비행체(100)의 비행을 제어하기 위해 상기 모터의 구동을 제어할 수 있다.
상기 메모리는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 상기 메모리는 예를 들면, 무인 비행체(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 상기 메모리는 소프트웨어 및/또는 프로그램을 저장할 수 있다.
한 실시 예에 따르면, 상기 메모리는 적어도 하나의 카메라를 통해 촬영된 영상을 저장할 수 있다. 또한, 상기 메모리는 상기 센서 모듈을 통해 획득된 무인 비행체(100)의 움직임 정보(예: 센싱 데이터)를 저장할 수 있다.
상기 모터는 전력이 가해지면 상기 모터의 회전축을 회전시킬 수 있다. 상기 회전축의 회전으로 인해 무인 비행체(100)의 프로펠러가 회전될 수 있다.
상기 센서 모듈은 예를 들면, 물리량을 계측하거나 무인 비행체(100)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈은 자이로 센서, 가속도 센서, 또는 기압 센서 등을 포함할 수 있다. 상기 센서 모듈은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 통신 모듈은 예를 들면, 무인 비행체(100)와 외부 전자 장치 간의 통신을 설정할 수 있다. 예를 들면, 상기 통신 모듈은 무선 통신 또는 유선 통신을 통해서 네트워크에 연결되어 상기 외부 전자 장치와 통신할 수 있다.
무선 통신은, 예를 들면 셀룰러 통신 프로토콜로서, 예를 들면 LTE(long-term evolution), LTE-A(LTE-advanced), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(wireless broadband), 또는 GSM(global system for mobile communications) 중 적어도 하나를 사용할 수 있다. 또한 무선 통신은, 예를 들면, 근거리 통신을 포함할 수 있다. 근거리 통신은, 예를 들면, Wi-Fi(wireless fidelity), Bluetooth, NFC(near field communication), 또는 GNSS 중 적어도 하나를 포함할 수 있다.
GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(global positioning system), Glonass(global navigation satellite system), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo(the european global satellite-based navigation system) 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망(telephone network) 중 적어도 하나를 포함할 수 있다.
상기 프로펠러 연결부는 본체(110)의 측면으로부터 지정된 길이로 연장되고, 긴 막대 형상으로 마련될 수 있다. 도시된 도면에서는, 제1 프로펠러 연결부(131)가 본체(110)의 상측면 중심부로부터 연장되고, 제2 프로펠러 연결부(133)가 본체(110)의 우측면 중심부로부터 연장되며, 제3 프로펠러 연결부(135)가 본체(110)의 좌측면 중심부로부터 연장된 상태를 나타낸다. 상기 프로펠러 연결부는 본체(110)의 측방향(예: x축 또는 y축 방향)과 평행하게 연장될 수 있다.
상기 프로펠러는 상기 프로펠러 연결부의 일단에 연결될 수 있다. 도시된 도면에서는, 제1 프로펠러(151)가 제1 프로펠러 연결부(131)의 일단에 연결되고, 제2 프로펠러(153)가 제2 프로펠러 연결부(133)의 일단에 연결되면, 제3 프로펠러(155)가 제3 프로펠러 연결부(135)의 일단에 연결된 상태를 나타낸다. 상기 프로펠러의 회전축 방향은 본체(110)의 상하방향(예: z축 방향)을 향할 수 있다.
일 실시 에에 따른, 카메라는 본체(110)의 서로 다른 측면이 만나는 지점, 본체(110)의 제1 면(예: 상면), 및 본체(110)의 제2 면(예: 하면)에 배치될 수 있다. 예를 들어, 도시된 도면에서는, 제1 카메라(171)가 본체(110)의 상측면과 우측면이 만나는 모서리에 배치되고, 제2 카메라(173)가 본체(110)의 상측면과 좌측면이 만나는 모서리에 배치되며, 제3 카메라(175)가 본체(110)의 좌측면과 우측면이 만나는 모서리에 배치되고, 제4 카메라(177)가 본체(110)의 상면에 배치되며, 제5 카메라(179)가 본체(110)의 하면에 배치된 상태를 나타낸다.
한 실시 예에 따르면, 본체(110)의 측방향에 배치된 카메라의 촬상 각도(또는 화각)는 촬영 영역 내에 카메라와 인접한 양측의 프로펠러가 들어가지 않도록 설정될 수 있다. 예컨대, 제1 카메라(171)의 가로 방향 촬상 각도(θ1a)(171a)는 제1 카메라(171)의 촬영 영역(171c) 내에 제1 카메라(171)와 인접한 제1 프로펠러(151) 및 제2 프로펠러(153)가 들어가지 않도록 설정될 수 있고, 제2 카메라(173)의 가로 방향 촬상 각도(θ2a)(173a)는 제2 카메라(173)의 촬영 영역(173c) 내에 제2 카메라(173)와 인접한 제1 프로펠러(151) 및 제3 프로펠러(155)가 들어가지 않도록 설정될 수 있으며, 제3 카메라(175)의 가로 방향 촬상 각도(θ3a)(175a)는 제3 카메라(175)의 촬영 영역(175c) 내에 제3 카메라(175)와 인접한 제2 프로펠러(153) 및 제3 프로펠러(155)가 들어가지 않도록 설정될 수 있다.
한 실시 예에 따르면, 본체(110)의 측방향에 배치된 카메라가 본체(110)의 중심점으로부터 이격된 거리는 촬상 각도를 벗어나는 영역인 비촬영 영역(또는 음영 영역)이 최소가 되도록 설정될 수 있다. 예컨대, 제1 카메라(171)가 본체(110)의 중심점으로부터 이격된 거리는 제1 카메라(171)와 제2 카메라(173)의 촬상 각도를 벗어나는 제1 비촬영 영역(181) 및 제1 카메라(171)와 제3 카메라(175)의 촬상 각도를 벗어나는 제2 비촬영 영역(183)이 최소가 되도록 설정될 수 있다. 또한, 제2 카메라(173)가 본체(110)의 중심점으로부터 이격된 거리는 제2 카메라(173)와 제1 카메라(171)의 촬상 각도를 벗어나는 제1 비촬영 영역(181) 및 제2 카메라(173)와 제3 카메라(175)의 촬상 각도를 벗어나는 제3 비촬영 영역(185)이 최소가 되도록 설정될 수 있다. 마찬가지로, 제3 카메라(175)가 본체(110)의 중심점으로부터 이격된 거리는 제3 카메라(175)와 제1 카메라(171)의 촬상 각도를 벗어나는 제2 비촬영 영역(183) 및 제3 카메라(175)와 제2 카메라(173)의 촬상 각도를 벗어나는 제3 비촬영 영역(185)이 최소가 되도록 설정될 수 있다.
한 실시 예에 따르면, 본체(110)의 상하방향에 배치된 카메라의 촬상 각도는 상하방향에 배치된 카메라의 촬영 영역과 본체(110)의 측방향에 배치된 카메라의 촬영 영역이 일부 중첩될 수 있도록 설정될 수 있다. 예컨대, 제4 카메라(177)의 촬상 각도(θ4)(177a)는 제4 카메라(177)의 촬영 영역(177c)과 제1 카메라(171)의 세로 방향 촬상 각도(θ1b)(171b)에 의해 정의되는 촬영 영역(171c) 및 제2 카메라(173)의 세로 방향 촬상 각도(θ2b)(173b)에 의해 정의되는 촬영 영역(173c)이 일부 중첩될 수 있도록 설정될 수 있다. 또한, 제5 카메라(179)의 촬상 각도(θ5)(179a)는 제5 카메라(179)의 촬영 영역(179c)과 제1 카메라(171)의 세로 방향 촬상 각도(θ1b)(171b)에 의해 정의되는 촬영 영역(171c) 및 제2 카메라(173)의 세로 방향 촬상 각도(θ2b)(173b)에 의해 정의되는 촬영 영역(173c)이 일부 중첩될 수 있도록 설정될 수 있다.
한 실시 예에 따르면, 본체(110)의 상하방향에 배치된 카메라의 촬상 각도는 촬상 각도를 벗어나는 영역인 비촬영 영역이 최소가 되도록 설정될 수 있다. 예컨대, 제4 카메라(177)의 촬상 각도(177a)는 제4 카메라(177)와 제1 카메라(171)의 촬상 각도를 벗어나는 제4 비촬영 영역(187a) 및 제4 카메라(177)와 제2 카메라(173)의 촬상 각도를 벗어나는 제5 비촬영 영역(187b)이 최소가 되도록 설정될 수 있다. 또한, 제5 카메라(179)의 촬상 각도(179a)는 제5 카메라(179)와 제1 카메라(171)의 촬상 각도를 벗어나는 제6 비촬영 영역(189a) 및 제5 카메라(179)와 제2 카메라(173)의 촬상 각도를 벗어나는 제7 비촬영 영역(189b)이 최소가 되도록 설정될 수 있다.
한 실시 예에 따르면, 본체(110)의 하면에는 적어도 하나의 착륙부재(예: 랜딩 기어(landing gear))가 배치될 수 있다. 도시된 도면에서는, 본체(110)의 하면에 제1 착륙부재(191) 및 제2 착륙부재(193)가 배치된 상태를 나타낸다. 다양한 실시 예에 따르면, 착륙부재는 본체(110)의 일 지점으로부터 연장된 긴 막대 형상으로 마련될 수 있으며, 이 경우 적어도 2개 이상의 착륙부재가 마련될 수 있다. 또한, 상기 2개 이상의 착륙부재를 서로 지정된 각도를 형성하여 본체(110)를 지지할 수 있다. 어떤 실시 예에서, 착륙부재는 판의 형상으로 마련되고 본체(110)의 하면으로부터 연장된 연결부재에 연결될 수도 있다.
한 실시 예에 따르면, 본체(110)의 하면에 배치되는 착륙부재는 비촬영 영역 내에 위치할 수 있다. 한 예로, 제1 착륙부재(191)는 제6 비촬영 영역(189a) 내에 위치할 수 있으며, 제2 착륙부재(193)는 제7 비촬영 영역(189b) 내에 위치할 수 있다.
도 3은 일 실시 예에 따른 무인 비행체 및 무인 비행체의 측방에 장착된 카메라의 촬영 영역을 설명하기 위한 도면이다.
도 3을 참조하면, 무인 비행체(예: 무인 비행체(100))의 프로펠러는 무인 비행체의 중심점(301)으로부터 거리가 프로펠러의 반경(예: 프로펠러의 중심점으로부터 날개 끝단까지의 거리)보다 클 수 있다. 예컨대, 제1 프로펠러(310)(예: 제1 프로펠러(151))는 무인 비행체의 중심점(301)으로부터 제1 거리(d1)(315)만큼 이격되고, 제1 프로펠러(310)의 반경(r)(313)이 제1 거리(315)보다 작을 수 있다.
무인 비행체의 측방에 장착된 카메라는 무인 비행체의 중심점(301)으로부터 지정된 거리만큼 이격되어 배치될 수 있다. 예컨대, 제1 카메라(350)(예: 제1 카메라(171))는 무인 비행체의 중심점(301)으로부터 제2 거리(d2)만큼 이격되어 배치될 수 있다.
한 실시 예에 따르면, 무인 비행체의 측방에 장착된 카메라는 촬영 영역 내에 무인 비행체의 일부(예: 프로펠러)가 들어가지 않도록 배치될 수 있다. 예컨대, 제1 카메라(350)의 촬영 각도(θ6)(355)에 의해 정의되는 촬영 영역(359) 내에 제1 카메라(350)와 인접한 제1 프로펠러(310) 및 제2 프로펠러(330)(예: 제2 프로펠러(153))가 들어가지 않도록 배치될 수 있다.
제1 카메라(350)의 촬영 영역(359) 내에 제1 카메라(350)와 인접한 제1 프로펠러(310)가 들어가지 않기 위해서는, 무인 비행체의 중심점(301) 및 제1 프로펠러(310)의 중심점(311)을 연결한 선(303)과 제1 카메라(350)까지의 수직 거리(d3)(357)가 제1 프로펠러(310)의 반경(313)보다 크고 무인 비행체의 중심점(301)으로부터 제1 프로펠러(310)까지의 거리(315)보다 작게 설정될 수 있다. 마찬가지로, 제1 카메라(350)의 촬영 영역(359) 내에 제1 카메라(350)와 인접한 제2 프로펠러(330)가 들어가지 않기 위해서는, 무인 비행체의 중심점(301) 및 제2 프로펠러(330)의 중심점(331)을 연결한 선(305)과 제1 카메라(350)까지의 수직 거리가 제2 프로펠러(330)의 반경보다 크고 무인 비행체의 중심점(301)으로부터 제2 프로펠러(330)까지의 거리보다 작게 설정될 수 있다.
상술한 설명에서는, 제1 카메라(350) 및 제1 카메라(350)와 인접한 제1 프로펠러(310) 및 제2 프로펠러(330)의 위치 관계에 대해서 설명하였지만, 제2 카메라(370)(예: 제2 카메라(173)) 및 제3 카메라(미도시)(예: 제3 카메라(175))도 동일 또는 유사하게 배치될 수 있다.
한 실시 예에 따르면, 인접한 카메라들의 촬상 각도에 의해 정의되는 촬영 영역들은 일부 중첩될 수 있다. 예컨대, 제1 카메라의 촬상 각도에 의해 정의되는 제1 촬영 영역(359) 및 제2 카메라의 촬상 각도에 의해 정의되는 제2 촬영 영역(379)은 일부 중첩될 수 있다. 도시된 도면에서는, 제1 촬영 영역(359)과 제2 촬영 영역(379)이 제1 프로펠러(310)의 외측에서 중첩된 영역(390)을 형성한 상태를 나타낸다. 한 실시 예에 따르면, 중첩된 영역(390)의 중첩 각도(θ7)(391)는 10도보다 크게 형성할 수 있다.
도 4는 일 실시 예에 따른 무인 비행체 및 무인 비행체의 상하방에 장착된 카메라의 촬영 영역을 설명하기 위한 도면이다.
도 4를 참조하면, 무인 비행체(예: 무인 비행체(100))의 상하방에 장착된 카메라는 무인 비행체의 중심점(401)으로부터 지정된 거리만큼 이격되어 배치될 수 있다. 예컨대, 무인 비행체의 상방에 배치된 제1 카메라(410)(예: 제4 카메라(177))의 중심점(411)으로부터 무인 비행체의 중심점(401)까지의 거리(d4)(417)는 지정된 크기로 설정될 수 있다.
무인 비행체의 상하방에 장착된 카메라의 촬상 각도에 의해 정의되는 촬영 영역은 무인 비행체의 측방에 장착된 카메라의 촬상 각도에 의해 정의되는 촬영 영역과 일부 중첩될 수 있다. 예컨대, 제1 카메라(410)의 촬상 각도(θ8)(413)에 의해 정의되는 제1 촬영 영역(415)은 무인 비행체의 중심점(401)으로부터 측방향으로 지정된 거리(d5)(437)만큼 이격되어 배치된 제2 카메라(430)(예: 제1 카메라(171), 제2 카메라(173), 또는 제3 카메라(175))의 촬상 각도(θ9)(433)에 의해 정의되는 제2 촬영 영역(435)과 일부 중첩될 수 있다. 도시된 도면에서와 같이, 제1 촬영 영역(415)과 제2 촬영 영역(435)이 일부 중첩되어 중첩된 영역(450)을 형성할 수 있다. 한 실시 예에 따르면, 중첩된 영역(450)의 중첩 각도(θ10)(451)는 10도보다 크게 형성할 수 있다.
도 1 내지 도 2에서는 무인 비행체의 프로펠러의 개수가 3개인 경우를 도시하였지만, 무인 비행체의 프로펠러의 개수 및 장착된 카메라의 개수는 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 무인 비행체의 프로펠러의 개수는 4개 이상이 될 수 있으며, 장착된 카메라의 개수도 5개 이상이 될 수 있다.
도 5a는 일 실시 예에 따른 제2 구조를 갖는 무인 비행체의 평면도이고, 도 5b는 일 실시 예에 따른 제2 구조를 갖는 무인 비행체의 정면도이다. 이하의 설명에서는 상술한 설명과 동일 또는 유사한 설명은 생략하도록 한다.
도 5a 및 도 5b를 참조하면, 무인 비행체(500)는 4개의 프로펠러를 가질 수 있다. 예컨대, 무인 비행체(500)는 본체(510)의 좌상측면으로부터 연장된 제1 프로펠러 연결부(531)에 연결된 제1 프로펠러(551), 본체(510)의 우상측면으로부터 연장된 제2 프로펠러 연결부(533)에 연결된 제2 프로펠러(553), 본체(510)의 우하측면으로부터 연장된 제3 프로펠러 연결부(535)에 연결된 제3 프로펠러(555), 및 본체(510)의 좌하측면으로부터 연장된 제4 프로펠러 연결부(537)에 연결된 제4 프로펠러(557)를 포함할 수 있다. 이 경우, 무인 비행체(500)의 본체(510)는 실질적으로 십자가의 형태로 마련될 수 있다. 예컨대, 본체(510)의 제1 면(예: 상면) 및 제2 면(예: 하면)이 실질적으로 십자가의 형태로 마련될 수 있다.
본체(510)의 서로 다른 측면이 만나는 지점 및 본체(510)의 상하면에는 카메라가 배치될 수 있다. 도시된 도면에서는, 본체(510)의 우상측면 및 좌상측면이 만나는 모서리(예: 십자가의 상측 꼭지 부분)에 제1 카메라(571)가 배치되고, 본체(510)의 우상측면 및 우하측면이 만나는 모서리(예: 십자가의 우측 꼭지 부분)에 제2 카메라(573)가 배치되며, 본체(510)의 우하측면 및 좌하측면이 만나는 모서리(예: 십자가의 하측 꼭지 부분)에 제3 카메라(575)가 배치되고, 본체(510)의 좌하측면 및 좌상측면이 만나는 모서리(예: 십자가의 좌측 꼭지 부분)에 제4 카메라(577)가 배치될 수 있다. 또한, 본체(510)의 상면에 제5 카메라(578)가 배치되고, 본체(510)의 하면에 제6 카메라(579)가 배치될 수 있다.
한 실시 예에 따르면, 본체(510)의 측방향에 배치된 카메라의 촬상 각도는 촬영 영역 내에 카메라와 인접한 양측의 프로펠러가 들어가지 않도록 설정될 수 있다. 또한, 본체(510)의 측방향에 배치된 카메라가 본체(510)의 중심점으로부터 이격된 거리는 촬상 각도를 벗어나는 영역인 비촬영 영역이 최소가 되도록 설정될 수 있다.
한 실시 예에 따르면, 본체(510)의 상하방향에 배치된 카메라의 촬상 각도는 상하방향에 배치된 카메라의 촬영 영역과 본체(510)의 측방향에 배치된 카메라의 촬영 영역이 일부 중첩될 수 있도록 설정될 수 있다. 또한, 본체(510)의 상하방향에 배치된 카메라의 촬상 각도는 촬상 각도를 벗어나는 영역인 비촬영 영역이 최소가 되도록 설정될 수 있다.
한 실시 예에 따르면, 본체(510)의 하면에는 적어도 하나의 착륙부재가 배치될 수 있다. 도시된 도면에서는, 본체(510)의 하면에 제1 착륙부재(591) 및 제2 착륙부재(593)가 배치된 상태를 나타낸다. 그러나, 착륙부재의 개수는 이에 한정되는 것은 아니다. 어떤 실시 예에서는, 본체(510)의 하면에 적어도 하나의 다른 착륙부재가 더 배치될 수도 있다.
도 6a는 일 실시 예에 따른 제3 구조를 갖는 무인 비행체의 평면도이고, 도 6b는 일 실시 예에 따른 제3 구조를 갖는 무인 비행체의 정면도이다.
도 6a 및 도 6b를 참조하면, 무인 비행체(600)는 본체(610)가 프로펠러를 감싸도록 마련될 수 있다. 예컨대, 무인 비행체(600)의 제1 프로펠러(651), 제2 프로펠러(653), 제3 프로펠러(655), 및 제4 프로펠러(657)는 본체(610)의 내측에 배치될 수 있다. 한 실시 예에 따르면, 본체(610)는 중심부가 실질적으로 십자가의 형태로 마련될 수 있다. 예컨대, 본체(610)의 중심부는 본체(610)의 중심점으로부터 상측으로 연장된 상중앙부(611a), 우측으로 연장된 우중앙부(611b), 하측으로 연장된 하중앙부(611c), 및 좌측으로 연장된 좌중앙부(611d)가 실질적으로 십자가의 형태로 마련될 수 있다.
한 실시 예에 따르면, 본체(610)는 상중앙부(611a)의 일부로부터 좌중앙부(611d)의 일부까지 연장된 좌상측부(613a), 상중앙부(611a)의 일부로부터 우중앙부(611b)의 일부까지 연장된 우상측부(613b), 우중앙부(611b)의 일부로부터 하중앙부(611c)의 일부까지 연장된 우하측부(613c), 및 하중앙부(611c)의 일부로부터 좌중앙부(611d)의 일부까지 연장된 좌하측부(613d)를 포함할 수 있다. 좌상측부(613a), 우상측부(613b), 우하측부(613c), 및 좌하측부(613d)는 본체(610)의 측방향으로 돌출된 형태로 마련될 수 있다. 예컨대, 좌상측부(613a), 우상측부(613b), 우하측부(613c), 및 좌하측부(613d)의 테두리는 본체(610)의 중심점으로부터 지정된 거리 이격되어 배치된 원호의 형태로 마련될 수 있다.
한 실시 예에 따르면, 제1 프로펠러(651)는 본체(610)의 상중앙부(611a)와 좌중앙부(611d)가 만나는 지점으로부터 연장된 제1 프로펠러 연결부(631)에 연결되고, 제2 프로펠러(653)는 본체(610)의 상중앙부(611a)와 우중앙부(611b)가 만나는 지점으로부터 연장된 제2 프로펠러 연결부(633)에 연결되며, 제3 프로펠러(655)는 본체(610)의 우중앙부(611b)와 하중앙부(611c)가 만나는 지점으로부터 연장된 제3 프로펠러 연결부(635)에 연결되고, 제4 프로펠러(657)는 본체(610)의 하중앙부(611c)와 좌중앙부(611d)가 만나는 지점으로부터 연장된 제4 프로펠러 연결부(637)에 연결될 수 있다.
한 실시 예에 따르면, 본체(610)의 상중앙부(611a), 우중앙부(611b), 하중앙부(611c), 좌중앙부(611d), 상면, 및 하면에는 카메라가 배치될 수 있다. 예컨대, 본체(610)의 상중앙부(611a) 끝단에는 제1 카메라(671)가 배치되고, 본체(610)의 우중앙부(611b) 끝단에는 제2 카메라(673)가 배치되며, 본체(610)의 하중앙부(611c) 끝단에는 제3 카메라(675)가 배치되고, 본체(610)의 좌중앙부(611d) 끝단에는 제4 카메라(677)가 배치될 수 있다. 또한, 본체(610)의 상면에는 제5 카메라(678)가 배치되고, 본체(610)의 하면에는 제6 카메라(679)가 배치될 수 있다.
도 7a는 일 실시 예에 따른 제4 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이고, 도 7b는 일 실시 예에 따른 제4 구조를 갖는 무인 비행체의 카메라 위치를 설명하기 위한 도면이다.
도 7a 및 도 7b를 참조하면, 무인 비행체(700)의 본체(710)는 적어도 하나의 프레임으로 구성될 수 있다. 예를 들어, 도시된 바와 같이, 본체(710)는 상면의 일부를 형성하는 좌상단 수평 프레임(713a)과 우상단 수평 프레임(715a), 하면의 일부를 형성하는 좌하단 수평 프레임(713b)과 우하단 수평 프레임(715b), 상단부를 형성하는 좌상단 수직 프레임(717a)과 우상단 수직 프레임(717b), 및 하단부를 형성하는 좌하단 수직 프레임(719a)과 우하단 수직 프레임(719b)을 포함할 수 있다. 한 실시 예에 따르면, 본체(710)를 구성하는 적어도 하나의 프레임은 프로펠러 및 프로펠러를 회전시키는 모터 중 적어도 하나를 고정시킬 수 있다.
한 실시 예에 따르면, 무인 비행체(700)는 적어도 하나의 카메라가 본체(710)의 내측에 배치되고 본체(710)의 적어도 일면에 형성된 개구부를 통해 외부로 노출될 수 있다. 한 예로, 상기 적어도 하나의 카메라가 본체(710)를 구성하는 프레임의 내측 끝단에 위치할 수 있다. 예컨대, 본체(710)의 측방향에 배치된 카메라는 좌상단 수평 프레임(713a)과 좌하단 수평 프레임(713b) 사이 또는 우상단 수평 프레임(715a)과 우하단 수평 프레임(715b) 사이에 배치되고, 본체(110)의 상하방향에 배치된 카메라는 좌상단 수직 프레임(717a)과 우상단 수직 프레임(717b) 사이 또는 좌하단 수직 프레임(719a)과 우하단 수직 프레임(719b) 사이에 배치될 수 있다. 도시된 도면에서는, 제1 카메라(730)가 좌상단 수평 프레임(713a)의 끝단과 좌하단 수평 프레임(713b)의 끝단 사이에 배치되어 본체(710)의 좌측면에 형성된 좌측 개구부(735)를 통해 외부로 노출되고, 제2 카메라(750)가 우상단 수평 프레임(715a)의 끝단과 우하단 수평 프레임(715b)의 끝단 사이에 배치되어 본체(710)의 우측면에 형성된 우측 개구부(755)를 통해 외부로 노출되며, 제3 카메라(770)가 좌상단 수직 프레임(717a)의 끝단과 우상단 수직 프레임(717b)의 끝단 사이에 배치되어 본체(710)의 상단에 형성된 상단 개구부(775)를 통해 외부로 노출되고, 제4 카메라(790)가 좌하단 수직 프레임(719a)의 끝단과 우하단 수직 프레임(719b)의 끝단 사이에 배치되어 본체(710)의 하단에 형성된 하단 개구부(795)를 통해 외부로 노출된 상태를 나타낸다.
한 실시 예에 따르면, 본체(710)를 구성하는 프레임 내측에 배치된 카메라는 상기 프레임 내측에 위치한 회로 실장부(711)의 일면으로부터 연장된 카메라 연결부(또는 암(arm))에 연결될 수 있다. 예를 들어, 도시된 바와 같이, 제1 카메라(730)는 회로 실장부(711)의 좌측면 일부로부터 연장된 좌측 카메라 연결부(731)에 연결되고, 제2 카메라(750)는 회로 실장부(711)의 우측면 일부로부터 연장된 우측 카메라 연결부(751)에 연결되며, 제3 카메라(770)는 회로 실장부(711)의 상면으로부터 연장된 상단 카메라 연결부(771)에 연결되고, 제4 카메라(790)는 회로 실장부(711)의 하면으로부터 연장된 하단 카메라 연결부(791)에 연결될 수 있다.
한 실시 예에 따르면, 무인 비행체(700)에 설치된 카메라들은 상기 카메라들 각각의 촬상 각도의 중심을 가르는 연장선이 본체(710)의 중심점(710a)에서 서로 만나도록 배치될 수 있다. 예를 들어, 제1 카메라(730)의 촬상 각도(θ10)(733)의 중심을 가르는 연장선(예: 제1 카메라(730)의 연결점(731a)과 제1 카메라(730)의 촬상 각도(733) 중심부를 직선으로 통과하는 선), 제2 카메라(750)의 촬상 각도(θ11)(753)의 중심을 가르는 연장선(예: 제2 카메라(750)의 연결점(751a)과 제2 카메라(750)의 촬상 각도(753) 중심부를 직선으로 통과하는 선), 제3 카메라(770)의 촬상 각도(θ12)(773)의 중심을 가르는 연장선(예: 제3 카메라(770)의 연결점(771a)과 제3 카메라(770)의 촬상 각도(773) 중심부를 직선으로 통과하는 선), 및 제4 카메라(790)의 촬상 각도(θ13)(793)의 중심을 가르는 연장선(예: 제4 카메라(790)의 연결점(791a)과 제4 카메라(790)의 촬상 각도(793) 중심부를 직선으로 통과하는 선)은 본체(710)의 중심점(710a)에서 서로 교차할 수 있다.
다른 실시 예에 따르면, 무인 비행체(700)에 설치된 카메라들은 상기 카메라들 각각의 촬상 각도의 중심을 가르는 연장선이 본체(710)의 중심점(710a)과 각 카메라의 연결점을 연결한 선과 서로 수평이 되도록 배치될 수 있다. 예를 들어, 제1 카메라(730)의 촬상 각도(733)의 중심을 가르는 연장선은 본체(710)의 중심점(710a)과 제1 카메라(730)의 연결점(731a)을 연결한 선과 서로 수평이 되고, 제2 카메라(750)의 촬상 각도(753)의 중심을 가르는 연장선은 본체(710)의 중심점(710a)과 제2 카메라(750)의 연결점(751a)을 연결한 선과 서로 수평이 되며, 제3 카메라(770)의 촬상 각도(773)의 중심을 가르는 연장선은 본체(710)의 중심점(710a)과 제3 카메라(770)의 연결점(771a)을 연결한 선과 서로 수평이 되고, 제4 카메라(790)의 촬상 각도(793)의 중심을 가르는 연장선은 본체(710)의 중심점(710a)과 제4 카메라(790)의 연결점(791a)을 연결한 선과 서로 수평이 될 수 있다.
한 실시 예에 따르면, 상술한 카메라 연결부는 충격 완화 부재(예: 댐퍼(damper))를 통해 본체(710)를 구성하는 프레임에 고정될 수 있다. 예를 들어, 좌측 카메라 연결부(731)는 제1 댐퍼(713c) 및 제2 댐퍼(713d)를 통해 각각 좌상단 수평 프레임(713a) 및 좌하단 수평 프레임(713b)에 고정되고, 우측 카메라 연결부(751)는 제3 댐퍼(715c) 및 제4 댐퍼(715d)를 통해 각각 우상단 수평 프레임(715a) 및 우하단 수평 프레임(715b)에 고정되며, 상단 카메라 연결부(771)는 제5 댐퍼(717c) 및 제6 댐퍼(717d)를 통해 각각 좌상단 수직 프레임(717a) 및 우상단 수직 프레임(717b)에 고정되고, 하단 카메라 연결부(791)는 제7 댐퍼(719c) 및 제8 댐퍼(719d)를 통해 각각 좌하단 수직 프레임(719a) 및 우하단 수직 프레임(719b)에 고정될 수 있다. 또 다른 예로, 회로 실장부(711)도 충격 완화 부재를 통해 본체(710)를 구성하는 프레임에 고정될 수도 있다. 예를 들어, 회로 실장부(711)는 제9 댐퍼(711a), 제10 댐퍼(711b), 제11 댐퍼(711c), 및 제12 댐퍼(711d)를 통해 각각 좌상단 수평 프레임(713a), 좌하단 수평 프레임(713b), 우상단 수평 프레임(715a), 및 우하단 수평 프레임(715b)에 고정될 수 있다.
한 실시 예에 따르면, 상술한 댐퍼들은 본체(710)의 흔들림이나 진동을 무인 비행체(700)에 설치된 복수의 카메라에 동시에 전달할 수 있다. 예를 들어, 본체(710)의 어느 한 지점에서 발생한 흔들림이나 진동은 제1 카메라(730), 제2 카메라(750), 제3 카메라(770), 및 제4 카메라(790)에 동일 또는 유사한 크기로 전달될 수 있다. 이에 따라, 본체(710)가 흔들리더라도 상기 복수의 카메라 간에는 상대적인 흔들림이 없도록 하여 복수의 카메라로부터 획득된 영상들의 스티칭 시에 상기 영상들에 대한 흔들림 보정의 프로세싱을 줄이는 효과를 얻을 수 있다.
한 실시 예에 따르면, 상술한 댐퍼들은 회로 실장부(711), 회로 실장부(711)로부터 연장된 각 카메라 연결부, 및 각 카메라 연결부에 연결된 카메라 등의 무게 및 무게 중심에 따라 형태 및 연결 구조가 다를 수 있다. 한 예로, 본체(710)를 구성하는 프레임 중 상단 프레임에 연결되는 댐퍼는 매달리는 형태로 고정되고 상기 프레임 중 하단 프레임에 연결되는 댐퍼는 눌리는 형태로 고정될 수 있다. 예컨대, 제1 댐퍼(713c) 및 제9 댐퍼(711a)는 좌상단 수평 프레임(713a)에 매달리는 형태로 고정되고, 제3 댐퍼(715c) 및 제9 댐퍼(711a)는 우상단 수평 프레임(715a)에 매달리는 형태로 고정되며, 제2 댐퍼(713d) 및 제10 댐퍼(711b)는 좌하단 수평 프레임(713b)에 눌리는 형태로 고정되고, 제4 댐퍼(715d) 및 제12 댐퍼(711d)는 우하단 수평 프레임(715b)에 눌리는 형태로 고정될 수 있다. 또 다른 예로, 본체(710)를 구성하는 프레임 중 수직 프레임에 연결되는 댐퍼는 부착되는 형태로 고정될 수 있다. 예컨대, 제5 댐퍼(717c)는 좌상단 수직 프레임(717a)에 부착되는 형태로 고정되고, 제6 댐퍼(717d)는 우상단 수직 프레임(717b)에 부착되는 형태로 고정되며, 제7 댐퍼(719c)는 좌하단 수직 프레임(719a)에 부착되는 형태로 고정되고, 제8 댐퍼(719d)는 우하단 수직 프레임(719b)에 부착되는 형태로 고정될 수 있다.
한 실시 예에 따르면, 상술한 카메라 연결부의 길이 및 형상은 본체(710)를 구성하는 프레임의 크기 및 형상, 프로펠러의 직경, 및 카메라의 촬상 각도 등을 고려하여 지정될 수 있다. 예컨대, 카메라의 비촬영 영역(카메라의 촬상 각도를 벗어나는 영역)에 상기 프레임 및 프로펠러가 위치하도록 상기 카메라 연결부의 길이 및 형상이 결정될 수 있다. 또한, 상기 카메라 연결부는 카메라 구동 회로와의 연결을 위한 구조물 또는 배터리를 고정하기 위한 배터리 고정부 등을 더 포함할 수 있으며, 상기 배터리가 상기 프레임에 배치되는 경우에는 상기 배터리와의 연결을 위한 구조물을 더 포함할 수 있다.
회로 실장부(711)는 카메라의 구동을 위한 카메라 구동 회로, 카메라로부터 획득된 영상의 처리를 위한 영상 처리 회로, 및 비행 제어를 위한 비행 제어 회로 중 적어도 하나를 포함할 수 있다. 한 예로, 회로 실장부(711)에는 프로세서, 메모리, 또는 센서 모듈 등이 실장될 수 있다. 또 다른 예로, 회로 실장부(711)에는 외부 전자 장치와의 통신을 위한 통신 모듈이 더 실장될 수도 있다.
도 7c는 일 실시 예에 따른 제5 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이고, 도 7d는 일 실시 예에 따른 제6 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이며, 도 7e는 일 실시 예에 따른 제7 구조를 갖는 무인 비행체의 내부 구조를 설명하기 위한 도면이다.
도 7c를 참조하면, 무인 비행체(700)는 적어도 하나의 카메라가 본체(710)를 구성하는 프레임 외부로 돌출된 형태로 배치될 수 있다. 한 예로, 본체(710)의 측방향에 배치된 카메라는 본체(710)를 구성하는 프레임 외부로 돌출되어 배치될 수 있다. 도 7c에 도시된 바와 같이, 좌측 카메라 연결부(731)는 회로 실장부(711)의 좌측면으로부터 지정된 길이로 연장되어 좌상단 수평 프레임(713a)과 좌하단 수평 프레임(713b) 사이로 돌출될 수 있으며, 우측 카메라 연결부(751)는 회로 실장부(711)의 우측면으로부터 지정된 길이로 연장되어 우상단 수평 프레임(715a)과 우하단 수평 프레임(715b) 사이로 돌출될 수 있다.
한 실시 예에 따르면, 본체(710)를 구성하는 프레임 중 수평 방향의 프레임은 회로 실장부(711)만을 감싸도록 마련될 수도 있다. 예컨대, 좌상단 수평 프레임(713a)과 좌하단 수평 프레임(713b)은 좌측 카메라 연결부(731)를 감싸지 않을 수 있으며, 우상단 수평 프레임(715a)과 우하단 수평 프레임(715b)은 우측 카메라 연결부(751)를 감싸지 않을 수 있다. 이 경우, 도 7a에 도시된 제1 댐퍼(713c), 제2 댐퍼(713d), 제3 댐퍼(715c), 및 제4 댐퍼(715d)가 생략되고, 제9 댐퍼(711a), 제10 댐퍼(711b), 제11 댐퍼(711c), 및 제12 댐퍼(711d)를 통해 회로 실장부(711)가 각각 좌상단 수평 프레임(713a), 좌하단 수평 프레임(713b), 우상단 수평 프레임(715a), 및 우하단 수평 프레임(715b)에 고정될 수 있다.
도 7d 및 도 7e를 참조하면, 무인 비행체(700)는 본체(710)를 구성하는 적어도 하나의 프레임이 생략될 수도 있다. 한 예로, 도 7d에 도시된 바와 같이, 본체(710)는 하단에 배치된 프레임들이 생략될 수 있다. 예를 들어, 본체(710)는 좌하단 수평 프레임(713b), 우하단 수평 프레임(715b), 좌하단 수직 프레임(719a), 및 우하단 수직 프레임(719b)이 생략될 수 있다. 또 다른 예로, 본체(710)는 상단에 배치된 프레임들이 생략될 수도 있다. 예를 들어, 본체(710)는 좌상단 수평 프레임(713a), 우상단 수평 프레임(715a), 좌상단 수직 프레임(717a), 및 우상단 수직 프레임(717b)이 생략될 수도 있다.
도 8a는 일 실시 예에 따른 제4 구조 내지 제5 구조를 갖는 무인 비행체의 카메라 연결부의 지지 구조를 설명하기 위한 도면이고, 도 8b는 일 실시 예에 따른 제4 구조 내지 제5 구조를 갖는 무인 비행체의 카메라 연결부의 다른 지지 구조를 설명하기 위한 도면이다.
도 8a 및 도 8b를 참조하면, 카메라 연결부(850)와 각 프레임(예: 상단 프레임(810) 또는 하단 프레임(830))을 연결하는 댐퍼(예: 제1 댐퍼(870) 또는 제2 댐퍼(890))는 카메라 연결부(850)의 형태 및 연결되는 위치에 따라 그 형태 및 연결 구조가 다를 수 있다. 한 예로, 도 8a에 도시된 바와 같이, 카메라 연결부(850)의 단면의 형태가 사각형인 경우, 카메라 연결부(850)의 상면과 상단 프레임(810) 사이 및 카메라 연결부(850)의 하면과 하단 프레임(830) 사이에 각각 제1 댐퍼(870) 및 제2 댐퍼(890)가 배치될 수 있다. 이 경우, 제1 댐퍼(870)는 상단 프레임(810)에 매달리는 형태로 고정되고, 제2 댐퍼(890)는 하단 프레임(830)에 눌리는 형태로 고정될 수 있다. 예컨대, 제1 댐퍼(870)는 장력 등의 작용(871)을 기반으로 상단 프레임(810)에 고정되고, 제2 댐퍼(890)는 압축력 또는 중력 등의 작용(891)을 기반으로 하단 프레임(830)에 고정될 수 있다.
또 다른 예로, 도 8b에 도시된 바와 같이, 카메라 연결부(850)의 단면의 형태가 원형인 경우, 카메라 연결부(850)의 외주면을 둘러싸는 도넛 형태의 제3 댐퍼(880)가 상단 프레임(810)과 카메라 연결부(850) 및 하단 프레임(820)과 카메라 연결부(850)를 연결할 수도 있다. 그러나, 상술한 댐퍼의 형태 및 연결 구조는 이에 한정되는 것은 아니다. 댐퍼가 카메라 연결부(850)와 각 프레임 사이에 배치되어 카메라 연결부(850)를 각 프레임에 고정하고, 발생하는 진동을 완화시켜줄 수 있다면, 댐퍼의 형태 및 연결구조가 어떤 것이든 가능하다는 것을 당업자는 용이하게 이해할 수 있을 것이다.
상술한 바와 같이, 다양한 실시 예에 따르면, 무인 비행체(예: 무인 비행체(100))는 본체(예: 본체(110)), 상기 본체의 적어도 일측면으로부터 지정된 길이로 연장된 복수의 프로펠러 연결부들(예: 제1 프로펠러 연결부(131), 제2 프로펠러 연결부(133), 또는 제3 프로펠러 연결부(135)), 상기 복수의 프로펠러 연결부들의 끝단에 각각 연결된 복수의 프로펠러들(예: 제1 프로펠러(151), 제2 프로펠러(153), 또는 제3 프로펠러(155)), 및 상기 본체의 적어도 일면에 장착된 복수의 카메라들(예: 제1 카메라(171), 제2 카메라(173), 제3 카메라(175), 제4 카메라(177), 또는 제5 카메라(179))을 포함하고, 상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치된 제1 카메라(예: 제1 카메라(171), 제2 카메라(173), 또는 제3 카메라(175))는 상기 본체의 중심점으로부터 제1 크기의 거리만큼 이격되어 배치되고, 상기 복수의 프로펠러들 중 상기 제1 카메라와 인접하게 배치된 제1 프로펠러의 중심점과 상기 본체의 중심점을 연결한 가상의 제1 직선은 제2 크기의 길이를 갖고, 상기 제1 카메라로부터 상기 제1 직선까지 수직하게 그어지는 가상의 제2 직선은 제3 크기의 길이를 갖고, 상기 제3 크기는 상기 제1 프로펠러의 반경보다 크고, 상기 제1 크기는 상기 제2 크기보다 작을 수 있다.
다양한 실시 예에 따르면, 상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치되고 상기 제1 카메라와 다른 제2 카메라(예: 제1 카메라(171), 제2 카메라(173), 또는 제3 카메라(175))는 상기 제1 카메라의 촬상 각도에 의해 정의되는 제1 촬영 영역과 상기 제2 카메라의 촬상 각도에 의해 정의되는 제2 촬영 영역이 일부 중첩되도록 배치될 수 있다.
다양한 실시 예에 따르면, 상기 제1 촬영 영역과 상기 제2 촬영 영역이 중첩된 영역의 중첩 각도가 10도 이상일 수 있다.
다양한 실시 예에 따르면, 상기 복수의 카메라들 중 상기 본체의 상면 또는 하면에 배치된 제2 카메라(예: 제4 카메라(177) 또는 제5 카메라(179))는 상기 제1 카메라의 촬상 각도에 의해 정의되는 제1 촬영 영역과 상기 제2 카메라의 촬상 각도에 의해 정의되는 제2 촬영 영역이 일부 중첩되도록 배치될 수 있다.
다양한 실시 예에 따르면, 상기 제1 촬영 영역과 상기 제2 촬영 영역이 중첩된 영역의 중첩 각도가 10도 이상일 수 있다.
다양한 실시 예에 따르면, 상기 본체의 하면에 적어도 하나의 착륙부재(예: 제1 착륙부재(191) 또는 제2 착륙부재(193))가 배치되고, 상기 착륙부재는 상기 복수의 카메라들의 촬상 각도를 벗어나는 비촬영 영역 내에 위치할 수 있다.
다양한 실시 예에 따르면, 상기 본체는 중심부(예: 상중앙부(611a), 우중앙부(611b), 하중앙부(611c), 또는 좌중앙부(611d)), 상기 중심부의 일부분으로부터 상기 중심부의 타부분까지 연장된 복수의 측부들(예: 좌상측부(613a), 우상측부(613b), 우하측부(613c), 또는 좌하측부(613d))을 포함하고, 상기 측부들의 각 테두리는 상기 중심부의 중심점으로부터 지정된 크기의 거리만큼 이격되어 배치된 원호의 형태로 마련되고, 상기 복수의 측부들 각각은 상기 복수의 프로펠러들 중 적어도 하나를 감싸는 형태로 마련될 수 있다.
다양한 실시 예에 따르면, 상기 측부들은 제1 측부 및 상기 제1 측부와 인접한 제2 측부를 포함하고, 상기 제1 카메라는 상기 중심부의 적어도 일측면 상에서 상기 제1 측부 및 상기 제2 측부 사이에 배치될 수 있다.
다양한 실시 예에 따르면, 상기 복수의 카메라들 중 상기 본체의 상면 또는 하면에 배치된 제2 카메라는 상기 중심부의 상면 또는 하면에 배치될 수 있다.
다양한 실시 예에 따르면, 무인 비행체는 상단 프레임 및 하단 프레임 중 적어도 하나를 포함하는 본체, 상기 상단 프레임 및 상기 하단 프레임 중 적어도 하나에 고정되는 회로 실장부, 상기 본체의 적어도 일측면으로부터 지정된 길이로 연장된 복수의 프로펠러 연결부들, 상기 복수의 프로펠러 연결부들의 끝단에 각각 연결된 복수의 프로펠러들, 상기 회로 실장부의 적어도 일면으로부터 연장된 복수의 카메라 연결부들, 및 상기 복수의 카메라 연결부들의 끝단에 각각 연결된 복수의 카메라들을 포함하고, 상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치된 제1 카메라는 상기 본체의 중심점으로부터 제1 크기의 거리만큼 이격되어 배치되고, 상기 복수의 프로펠러들 중 상기 제1 카메라와 인접하게 배치된 제1 프로펠러의 중심점과 상기 본체의 중심점을 연결한 가상의 제1 직선은 제2 크기의 길이를 갖고, 상기 제1 카메라로부터 상기 제1 직선까지 수직하게 그어지는 가상의 제2 직선은 제3 크기의 길이를 갖고, 상기 제3 크기는 상기 제1 프로펠러의 반경보다 크고, 상기 제1 크기는 상기 제2 크기보다 작을 수 있다.
다양한 실시 예에 따르면, 상기 회로 실장부 및 상기 복수의 카메라 연결부들 중 적어도 하나는 충격 완화 부재를 통해 상기 상단 프레임 또는 상기 하단 프레임에 고정될 수 있다.
다양한 실시 예에 따르면, 상기 복수의 카메라 연결부들 중 적어도 하나는 상기 상단 프레임 또는 상기 하단 프레임과 실질적으로 수평하게 배치되고, 상기 상단 프레임 또는 상기 하단 프레임의 외측으로 돌출되도록 연장될 수 있다.
도 9는 일 실시 예에 따른 무인 비행체의 블록도이다.
도 9를 참조하면, 무인 비행체(900)는 제1 플랫폼(910) 및 제2 플랫폼(930)을 포함할 수 있다. 한 실시 예에 따르면, 제1 플랫폼(910)은 카메라 제어 및 영상 처리를 위한 플랫폼일 수 있으며, 제2 플랫폼(930)은 비행 제어를 위한 플랫폼일 수 있다. 한 예로, 제1 플랫폼(910)은 OS 기반의 플랫폼이고, 제2 플랫폼(930)은 Non-OS 기반의 플랫폼일 수 있다.
제1 플랫폼(910)은 제1 프로세서(911), 카메라 모듈(913), 메모리(915), 및 통신 모듈(917)을 포함할 수 있다. 제1 프로세서(911)는 모바일 어플리케이션 프로세서(mobile AP)를 포함할 수 있으며, 제1 플랫폼(910)에 포함된 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있다.
한 실시 예에 따르면, 제1 프로세서(911)는 카메라 모듈(913)을 통해 촬영된 영상을 보정하고, 보정된 영상을 메모리(915)에 저장할 수 있다. 또한, 제1 프로세서(911)는 통신 모듈(917)을 통해 수신된 비행과 관련된 제어 신호를 제2 프로세서(931)로 전달할 수 있다.
카메라 모듈(913)(또는 카메라)은 정지 영상 및 동영상을 촬영할 수 있다. 한 실시 예에 따르면, 카메라 모듈(913)은 촬상 소자를 포함할 수 있다. 상기 촬상 소자는 예를 들어, 피사체의 영상 광을 받아들여 화상으로 결상시키는 렌즈, 상기 렌즈를 통과하는 광의 양을 조절하는 조리개, 상기 렌즈를 통과하는 광에 의해 이미지 센서가 일정 시간 동안 노출되도록 조래개를 여닫는 기능을 하는 셔터, 상기 렌즈에 결상된 화상을 광신호로서 수광하는 이미지 센서, 및 내부 메모리 중 적어도 하나를 포함할 수 있다. 상기 내부 메모리는 촬영된 영상을 임시로 저장할 수 있다. 한 실시 예에 따르면, 상기 내부 메모리는 상기 셔터를 조작하기 전, 상기 이미지 센서를 통해 촬상된 영상을 저장할 수 있다.
메모리(915)는 무인 비행체(900)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(915)는 카메라 모듈(913)을 통해 촬영된 영상을 저장할 수 있다. 또 다른 예로, 메모리(915)는 센서 모듈(935)을 통해 획득된 무인 비행체(900)의 움직임 정보(예: 센싱 데이터)를 저장할 수 있다.
통신 모듈(917)은 무인 비행체(900)와 외부 전자 장치 간의 통신을 설정할 수 있다. 예를 들면, 통신 모듈(917)은 무선 통신 또는 유선 통신을 통해서 네트워크에 연결되어 상기 외부 전자 장치와 통신할 수 있다. 상기 외부 전자 장치는 무인 비행체(900)와 페어링(pairing)된 장치(예: 모바일 전자 장치 또는 헤드 마운트 장치(HMD))를 포함할 수 있다.
제2 플랫폼(930)은 제2 프로세서(931), 모터(933), 및 센서 모듈(935)를 포함할 수 있다. 제2 프로세서(931)는 제2 플랫폼(930)에 포함된 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 수행할 수 있다. 한 실시 예에 따르면, 제2 프로세서(931)는 제1 프로세서(911)로부터 비행과 관련된 제어 신호를 수신하여 모터(933)의 구동을 제어할 수 있다.
모터(933)는 무인 비행체(900)의 프로펠러를 회전시킬 수 있다. 예컨대, 모터(933)는 전력이 가해지면 모터(933)의 회전축을 회전시킬 수 있다. 상기 회전축의 회전으로 인해 무인 비행체(900)의 프로펠러가 회전될 수 있다.
센서 모듈(935)은 물리량을 계측하거나 무인 비행체(100)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(935)은 자이로 센서, 가속도 센서, 또는 기압 센서 등을 포함할 수 있다. 센서 모듈(935)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
한 실시 예에 따르면, 센서 모듈(935)은 무인 비행체(900)의 움직임에 따른 센싱 데이터를 수집할 수 있다. 예컨대, 무인 비행체(900)가 고도 상승 또는 무인 비행체(900)의 회전 등에 따른 센싱 데이터를 수집할 수 있다.
도 10은 일 실시 예에 따른 복수 개의 카메라를 이용하여 촬영된 전방위 영상을 설명하기 위한 도면이다.
도 10을 참조하면, 무인 비행체(예: 무인 비행체(100))는 무인 비행체에 장착된 복수 개의 카메라를 이용하여 전방위 영상을 촬영할 수 있다. 도시된 도면에서와 같이, 무인 비행체는 무인 비행체의 하측면에 배치된 제1 카메라(1010)(예: 제3 카메라(575))를 이용하여 전방의 영상(1001)을 획득하고, 무인 비행체의 우측면에 배치된 제2 카메라(1020)(예: 제2 카메라(573))를 이용하여 우측방의 영상(1002)을 획득하며, 무인 비행체의 좌측면에 배치된 제3 카메라(1030)(예: 제4 카메라(577))를 이용하여 좌측방의 영상(1003)을 획득하고, 무인 비행체의 상측면에 배치된 제4 카메라(1040)(예: 제1 카메라(571))를 이용하여 후방의 영상(1004)을 획득하며, 무인 비행체의 상면에 배치된 제5 카메라(1050)(예: 제5 카메라(578))를 이용하여 상방의 영상(1005)을 획득하고, 무인 비행체의 하면에 배치된 제6 카메라(1060)(예: 제6 카메라(579))를 이용하여 하방의 영상(1006)을 획득할 수 있다. 그러나, 카메라의 배치 위치 및 개수는 이에 한정되는 것은 아니다. 상술한 카메라들 중 적어도 하나가 생략될 수 있으며, 적어도 하나의 다른 카메라가 더 배치될 수도 있다.
한 실시 예에 따르면, 상술한 카메라들이 획득하는 영상은 일부 영역이 중첩될 수 있다. 예를 들어, 제1 카메라(1010)가 획득한 전방 영상(1001)은 제1 카메라(1010)와 인접하게 배치된 제2 카메라(1020)가 획득한 우측방 영상(1002), 제3 카메라(1030)가 획득한 좌측방 영상(1003), 제5 카메라(1050)가 획득한 상방 영상(1005), 및 제6 카메라(1060)가 획득한 하방 영상(1006) 중 적어도 하나와 일부 영역이 중첩될 수 있다. 한 실시 예에 따르면, 영상들이 중첩되는 영역은 인접한 카메라들의 촬상 각도의 10도 이상에 해당하는 영역일 수 있다.
도 11은 일 실시 예에 따른 복수 개의 카메라를 이용하여 촬영된 전방위 영상을 외부 전자 장치로 전송하는 방법을 설명하기 위한 도면이다.
도 11을 참조하면, 무인 비행체(예: 무인 비행체(100))는 무인 비행체에 장착된 복수 개의 카메라를 이용하여 전방위 영상을 촬영할 수 있다. 예를 들어, 무인 비행체에 장착된 제1 카메라(예: 제1 카메라(1010)), 제2 카메라(예: 제2 카메라(1020)), 제3 카메라(예: 제3 카메라(1030)), 제4 카메라(예: 제4 카메라(1040)), 제5 카메라(예: 제5 카메라(1050)), 및 제6 카메라(예: 제6 카메라(1060))를 통해 각각 제1 영상(1111), 제2 영상(1112), 제3 영상(1113), 제4 영상(1114), 제5 영상(1115), 및 제6 영상(1116)을 획득할 수 있다.
한 실시 예에 따르면, 무인 비행체는 획득된 영상들(1110)을 센싱 데이터(1130)를 기반으로 보정할 수 있다. 예컨대, 무인 비행체는 무인 비행체의 움직임에 따른 센싱 데이터(1130)를 기반으로 획득된 영상들(1110)을 보정할 수 있다. 또한, 무인 비행체는 보정된 영상들을 스티칭(stitching)하여 전방위 영상(1150)을 획득할 수 있다.
한 실시 예에 따르면, 무인 비행체는 전방위 영상(1150)을 외부 전자 장치 예컨대, 사용자(1171)가 착용할 수 있는 헤드 마운트 장치(1170)에 전송할 수 있다. 이 경우, 헤드 마운트 장치(1170)는 전방위 영상(1150)을 VR(virtual reality) 영상으로서 출력하거나 전방위 영상(1150)을 이용하여 생성된 AR(augmented reality) 영상(1190)을 출력하여 사용자(1171)에게 무인 비행체를 실제로 조정하는 듯한 효과를 제공할 수 있다. 어떤 실시 예에서, 무인 비행체는 헤드 마운트 장치(1170)에 탈부착 가능한 모바일 전자 장치에 전방위 영상(1150)을 전송할 수도 있다.
도 12는 일 실시 예에 따른 촬영된 영상을 보정하는 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 무인 비행체(예: 무인 비행체(100))는 동작 1210에서, 복수의 방위에 대응하는 복수의 영상을 획득할 수 있다. 한 실시 예에 따르면, 무인 비행체는 무인 비행체에 장착된 복수 개의 카메라를 이용하여 복수의 방위에 대응하는 복수의 영상을 획득할 수 있다. 예컨대, 무인 비행체는 무인 비행체의 하측면에 배치된 제1 카메라(예: 제3 카메라(575))를 이용하여 전방의 영상(예: 전방 영상(1001))을 획득하고, 무인 비행체의 우측면에 배치된 제2 카메라(예: 제2 카메라(573))를 이용하여 우측방의 영상(예: 우측방 영상(1002))을 획득하며, 무인 비행체의 좌측면에 배치된 제3 카메라(예: 제4 카메라(577))를 이용하여 좌측방의 영상(예: 좌측방 영상(1003))을 획득하고, 무인 비행체의 상측면에 배치된 제4 카메라(예: 제1 카메라(571))를 이용하여 후방의 영상(예: 후방 영상(1004))을 획득하며, 무인 비행체의 상면에 배치된 제5 카메라(예: 제5 카메라(578))를 이용하여 상방의 영상(예: 상방 영상(1005))을 획득하고, 무인 비행체의 하면에 배치된 제6 카메라(예: 제6 카메라(579))를 이용하여 하방의 영상(예: 하방 영상(1006))을 획득할 수 있다.
동작 1230에서, 무인 비행체는 보정과 관련된 정보를 획득할 수 있다. 한 실시 예에 따르면, 무인 비행체는 카메라들을 통해 획득된 영상들 중 기준 영상을 획득할 수 있다. 예컨대, 무인 비행체는 획득된 영상들 중 무인 비행체의 지정된 움직임 정보에 대응되는 영상을 기준 영상으로 지정할 수 있다. 상기 기준 영상은 예를 들어, 무인 비행체가 수평 상태를 유지한 상태에서 촬영된 영상을 포함할 수 있다. 예를 들어, 상기 기준 영상은 무인 비행체가 호버링(hovering) 상태에서 촬영된 영상을 포함할 수 있다. 다른 실시 예에 따르면, 무인 비행체는 무인 비행체의 움직임 정보를 획득할 수 있다. 예컨대, 무인 비행체는 무인 비행체의 움직임에 따른 센싱 데이터를 획득할 수 있다. 상기 센싱 데이터는 무인 비행체에 포함된 센서 모듈을 통해 획득된 센싱 데이터를 포함할 수 있다.
동작 1250에서, 무인 비행체는 획득된 영상을 보정할 수 있다. 한 실시 예에 따르면, 무인 비행체는 상기 기준 영상을 기반으로 획득된 영상을 보정할 수 있다. 또 다른 실시 예에 다르면, 무인 비행체는 무인 비행체의 움직임 정보를 기반으로 획득된 영상을 보정할 수 있다.
동작 1270에서, 무인 비행체는 보정된 영상을 스티칭할 수 있다. 예컨대, 무인 비행체는 각 방위에 대응하는 영상들을 스티칭하여 전방위 영상을 획득할 수 있다. 한 실시 예에 따르면, 무인 비행체는 각 영상들의 중첩된 영역을 이용하여 영상들을 스티칭할 수 있다. 예컨대, 전방 영상과 우측방 영상의 중첩된 영역을 이용하여 전방 영상과 우측방 영상을 스티칭하고, 전방 영상과 좌측방 영상의 중첩된 영역을 이용하여 전방 영상과 좌측방 영상을 스티칭하며, 전방 영상과 상방 영상의 중첩된 영역을 이용하여 전방 영상과 상방 영상을 스티칭하고, 전방 영상과 하방 영상의 중첩된 영역을 이용하여 전방 영상과 하방 영상을 스티칭할 수 있다. 또한, 우측방 영상 또는 좌측방 영상과 후방 영상의 중첩된 영역을 이용하여 우측방 영상 또는 좌측방 영상과 후방 영상을 스티칭할 수 있다.
다양한 실시 예에 따르면, 무인 비행체는 동작 1250의 수행 전에 동작 1270을 수행할 수도 있다. 예컨대, 무인 비행체는 각 방위에 대응되는 영상들을 먼저 스티칭하고, 스티칭된 전방위 영상을 보정할 수도 있다.
어떤 실시 예에서, 무인 비행체는 동작 1250 및 동작 1270 중 적어도 하나를 생략할 수도 있다. 예컨대, 무인 비행체는 보정되지 않은 영상들 또는 스티칭되지 않은 영상들을 그대로 외부 전자 장치(예: 헤드 마운트 장치)에 전송할 수도 있다. 이 경우, 상기 외부 전자 장치는 상기 영상들을 보정하거나 스티칭하여 디스플레이에 출력할 수 있다.
상술한 바와 같이, 다양한 실시 예에 따르면, 무인 비행체의 영상 처리 방법은 복수의 방위들에 대응하는 복수의 영상들을 획득하는 동작, 상기 복수의 영상들의 보정과 관련된 정보를 획득하는 동작, 상기 보정과 관련된 정보를 기반으로 상기 복수의 영상들을 보정하는 동작, 및 상기 보정된 복수의 영상들을 스티칭하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 보정과 관련된 정보를 획득하는 동작은 상기 복수의 영상들에서 상기 무인 비행체가 기울어지지 않은 상태에서 촬영한 영상을 기준 영상으로 지정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수의 영상들을 보정하는 동작은 상기 기준 영상의 특징부를 추출하는 동작, 및 상기 기준 영상의 특징부를 기반으로 상기 복수의 영상들을 보정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 기준 영상의 특징부를 추출하는 동작은 상기 기준 영상에 포함된 수평선, 건축물, 및 해안선 중 적어도 하나를 특징부로 추출하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 보정과 관련된 정보를 획득하는 동작은 상기 무인 비행체의 움직임에 따른 센싱 데이터를 획득하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 복수의 영상들을 보정하는 동작은 상기 센싱 데이터를 기반으로 상기 복수의 영상들을 보정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 보정된 복수의 영상들을 스티칭하는 동작은 상기 보정된 복수의 영상들의 중첩된 영역을 이용하여 스티칭하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 영상 처리 방법은 상기 스티칭된 영상을 외부 전자 장치로 전송하는 동작을 더 포함할 수 있다.
도 13은 일 실시 예에 따른 무인 비행체의 움직임에 따라 촬영된 영상의 흔들림을 설명하기 위한 도면이다.
도 13을 참조하면, 무인 비행체(1300)는 비행 동작에 의해 움직임이 발생할 수 있다. 예를 들어, 무인 비행체(1300)가 전후좌우로 비행하기 위해 무인 비행체(1300)의 본체가 기울어질 수 있다. 이에 따라, 무인 비행체(1300)에 장착된 카메라를 통해 촬영된 영상이 흔들릴 수 있다.
예를 들어, 제1 상태(1301)에서와 같이, 무인 비행체(1300)가 호버링 상태(예: 기울기가 0도인 상태)에서 촬영한 제1 영상(1331)은 중심축이 무인 비행체(1300)의 상하방향과 평행할 수 있다. 그러나, 제2 상태(1303)에서와 같이, 무인 비행체(1300)가 우측으로 이동하기 위해 우측으로 제1 기울기(예: 15도)만큼 기울어진 상태에서 촬영한 제2 영상(1333)은 중심축이 제1 기울기만큼 우측으로 기울어진 영상일 수 있다. 이에 따라, 제1 영상(1331)과 제2 영상(1333)을 순차적으로 출력하는 경우, 영상들의 중심축이 맞지 않아 영상들이 흔들리는 것처럼 보여질 수 있다.
이에 따라, 무인 비행체(1300)는 중심축이 기울어진 영상들을 보정하여 중심축을 맞춰줌으로써 영상이 흔들려 보이는 현상을 방지할 수 있다. 예컨대, 제2 상태(1303) 또는 제5 상태(1309)에서와 같이 무인 비행체(1300)가 우측으로 이동하기 위해 우측으로 기울어진 상태에서 촬영한 제2 영상(1333) 또는 제5 영상(1339)은 좌측으로 각도 보정할 수 있으며, 제3 상태(1305)에서와 같이 무인 비행체(1300)가 좌측으로 이동하기 위해 좌측으로 기울어진 상태에서 촬영한 제3 영상(1335)은 우측으로 각도 보정할 수 있다. 한 실시 예에 따르면, 무인 비행체(1300)는 무인 비행체(1300)가 기울어지지 않은 상태 예컨대, 제1 상태(1301) 또는 제4 상태(1307)와 같이 호버링 상태에서 촬영한 제1 영상(1331) 또는 제4 영상(1337)을 기준 영상으로 지정하고, 상기 기준 영상을 이용하여 제2 영상(1333), 제3 영상(1335), 및 제5 영상(1339)를 보정할 수 있다.
도 14는 일 실시 예에 따른 기준 영상을 기반으로 촬영된 영상을 보정하는 방법을 설명하기 위한 도면이다.
도 14를 참조하면, 무인 비행체(예: 무인 비행체(100))는 복수 개의 카메라를 통해 촬영된 영상들(1410)(예: 제1 영상(1411), 제2 영상(1412), 제3 영상(1413), 제4 영상(1414), 제5 영상(1415), 및 제6 영상(1416))을 보정할 수 있다. 한 실시 예에 따르면, 무인 비행체는 촬영된 영상들(1410) 중 기준 영상을 지정하고, 상기 기준 영상을 이용하여 촬영된 영상들(1410)을 보정할 수 있다.
한 실시 예에 따르면, 무인 비행체는 촬영된 영상들(1410) 중 무인 비행체가 기울어지지 않은 상태에서 촬영한 영상을 기준 영상으로 지정할 수 있다. 도시된 도면에서와 같이, 무인 비행체는 무인 비행체가 기울어지지 않은 상태인 제1 시간(t1)(1431)에 촬영한 영상을 기준 영상으로 지정할 수 있다. 한 실시 예에 따르면, 제1 시간(1431)에 촬영된 영상은 촬영된 영상들(1410)의 제1 프레임에 대응되는 영상(1451)일 수 있다. 예컨대, 제1 시간(1431)에 촬영된 영상은 제1 영상(1411)의 제1 프레임, 제2 영상(1412)의 제1 프레임, 제3 영상(1413)의 제1 프레임, 제4 영상(1414)의 제1 프레임, 제5 영상(1415)의 제1 프레임, 및 제6 영상(1416)의 제1 프레임에 대응되는 영상들을 스티칭한 영상(1451)일 수 있다.
다른 실시 예에 따르면, 무인 비행체는 촬영된 영상들(1410)의 각 영상마다 기준 영상을 지정할 수도 있다. 예컨대, 무인 비행체는 제1 영상(1411), 제2 영상(1412), 제3 영상(1413), 제4 영상(1414), 제5 영상(1415), 및 제6 영상(1416)의 기준 영상을 각각 지정할 수 있다. 한 예로, 무인 비행체는 제1 영상(1411), 제2 영상(1412), 제3 영상(1413), 제4 영상(1414), 제5 영상(1415), 및 제6 영상(1416)의 기준 영상을 각각 제1 영상(1411)의 제1 프레임, 제2 영상(1412)의 제1 프레임, 제3 영상(1413)의 제1 프레임, 제4 영상(1414)의 제1 프레임, 제5 영상(1415)의 제1 프레임, 및 제6 영상(1416)의 제1 프레임에 대응되는 영상들로 지정할 수 있다.
한 실시 예에 따르면, 무인 비행체는 기준 영상(1451)이 지정되면, 기준 영상(1451)에 대응되는 프레임을 제외한 다른 프레임의 영상들을 기준 영상(1451)을 이용하여 보정할 수 있다. 예를 들어, 무인 비행체는 기준 영상(1451)에서 특징부(1471)를 추출하고, 특징부(1471)에 대응되도록 상기 다른 프레임의 영상들에서 추출한 특징부를 보정할 수 있다. 도시된 도면에서는, 무인 비행체는 제2 시간(t2)(1433)에 촬영된 영상 예컨대, 제1 영상(1411)의 제2 프레임, 제2 영상(1412)의 제2 프레임, 제3 영상(1413)의 제2 프레임, 제4 영상(1414)의 제2 프레임, 제5 영상(1415)의 제2 프레임, 및 제6 영상(1416)의 제2 프레임에 대응되는 영상들을 스티칭한 영상(1453)에서 추출된 특징부(1473)를 기준 영상(1451)에서 추출된 특징부(1471)에 대응되도록 보정(예: 위치 이동 또는 각도 변경)할 수 있다.
이와 같은 방식으로, 무인 비행체는 기준 영상(1451) 이외에 다른 적어도 하나의 영상을 보정할 수 있다. 예를 들어, 무인 비행체는 제n 시간(tn)(1435)에 촬영된 영상 예컨대, 제1 영상(1411)의 제n 프레임, 제2 영상(1412)의 제n 프레임, 제3 영상(1413)의 제n 프레임, 제4 영상(1414)의 제n 프레임, 제5 영상(1415)의 제n 프레임, 및 제6 영상(1416)의 제n 프레임에 대응되는 영상들을 스티칭한 영상(1455)에서 추출된 특징부(1475)를 기준 영상(1451)에서 추출된 특징부(1471)에 대응되도록 보정(예: 위치 이동 또는 각도 변경)할 수 있다.
도 15a는 일 실시 예에 따른 기준 영상에서 특징부를 추출하는 방법을 설명하기 위한 도면이고, 도 15b는 일 실시 예에 따른 기준 영상에서 특징부를 추출하는 다른 방법을 설명하기 위한 도면이다.
도 15a 및 도 15b를 참조하면, 무인 비행체(예: 무인 비행체(100))는 촬영된 영상에서 특징부를 추출할 수 있다. 한 예로, 무인 비행체는 촬영된 영상에서 수평선(1510), 건축물(1530), 또는 해안선(1550) 등을 추출하여 특징부로 지정할 수 있다. 다양한 실시 예에 따르면, 무인 비행체는 산, 지면 형상, 태양, 구름, 바다 해수면, 다리, 나무 등과 같은 고정된 피사체를 추출하여 특징부로 지정할 수도 있다.
도 16은 일 실시 예에 따른 무인 비행체의 움직임 정보를 기반으로 촬영된 영상을 보정하는 방법을 설명하기 위한 도면이다.
도 16을 참조하면, 무인 비행체(예: 무인 비행체(100))는 복수 개의 카메라를 통해 촬영된 영상들(1610)(예: 제1 영상(1611), 제2 영상(1612), 제3 영상(1613), 제4 영상(1614), 제5 영상(1615), 및 제6 영상(1616))을 보정할 수 있다. 한 실시 예에 따르면, 무인 비행체는 촬영된 영상들(1610)을 무인 비행체의 움직임 정보를 기반으로 보정할 수 있다. 예컨대, 무인 비행체는 무인 비행체의 움직임에 따른 센싱 데이터(1630)를 기반으로 촬영된 영상들(1610)을 보정할 수 있다.
한 실시 예에 따르면, 무인 비행체는 무인 비행체가 기울어지지 않은 상태에서 획득한 센싱 데이터(1630)를 기준 데이터로 지정하고, 무인 비행체가 기울어진 상태에서 획득한 센싱 데이터(1630)와 상기 기준 데이터의 차이값을 이용하여 촬영된 영상들(1610)을 보정할 수 있다. 도시된 도면에서와 같이, 무인 비행체는 무인 비행체가 기울어지지 않은 상태인 제1 시간(t1)(1651)에 획득한 센싱 데이터(1630)를 기준 데이터로 지정할 수 있다. 이 경우, 제1 시간(1651)에 촬영한 영상 예컨대, 제1 영상(1611)의 제1 프레임, 제2 영상(1612)의 제1 프레임, 제3 영상(1613)의 제1 프레임, 제4 영상(1614)의 제1 프레임, 제5 영상(1615)의 제1 프레임, 및 제6 영상(1616)의 제1 프레임에 대응되는 영상들을 스티칭한 영상(1671)은 보정하지 않을 수 있다. 어떤 실시 예에서, 제1 시간(1651)에 촬영한 영상은 각 영상들을 스티칭하지 않은 영상일 수도 있다. 예컨대, 제1 시간(1651)에 촬영한 영상은 각각 제1 영상(1611)의 제1 프레임, 제2 영상(1612)의 제1 프레임, 제3 영상(1613)의 제1 프레임, 제4 영상(1614)의 제1 프레임, 제5 영상(1615)의 제1 프레임, 및 제6 영상(1616)의 제1 프레임에 대응되는 영상들일 수도 있다.
한 실시 예에 따르면, 무인 비행체는 상기 기준 데이터가 지정되면, 무인 비행체가 기울어진 상태에서 촬영한 영상 예컨대, 제2 시간(t2)(1653)에 촬영한 제1 영상(1611)의 제2 프레임, 제2 영상(1612)의 제2 프레임, 제3 영상(1613)의 제2 프레임, 제4 영상(1614)의 제2 프레임, 제5 영상(1615)의 제2 프레임, 및 제6 영상(1616)의 제2 프레임에 대응되는 영상들을 스티칭한 영상(1673)을 상기 기준 데이터를 기반으로 보정할 수 있다. 이 경우, 무인 비행체는 제2 시간(1653)에 획득한 무인 비행체의 움직임에 따른 센싱 데이터(1630)와 상기 기준 데이터의 차이값을 이용하여 영상(1673)을 보정(예: 위치 이동 또는 각도 변경)할 수 있다.
이와 같은 방식으로, 무인 비행체는 제n 시간(tn)(1655)에 촬영된 영상 예컨대, 제1 영상(1611)의 제n 프레임, 제2 영상(1612)의 제n 프레임, 제3 영상(1613)의 제n 프레임, 제4 영상(1614)의 제n 프레임, 제5 영상(1615)의 제n 프레임, 및 제6 영상(1616)의 제n 프레임에 대응되는 영상들을 스티칭한 영상(1675)도 보정할 수 있다. 예컨대, 무인 비행체는 제n 시간(1655)에 획득한 무인 비행체의 움직임에 따른 센싱 데이터(1630)와 상기 기준 데이터의 차이값을 이용하여 영상(1675)을 보정(예: 위치 이동 또는 각도 변경)할 수 있다.
도 17은 일 실시 예에 따른 무인 비행체의 움직임에 따라 카메라의 ISO 감도를 조절하는 방법을 설명하기 위한 도면이다.
도 17을 참조하면, 무인 비행체(1700)는 좌향 또는 우향으로의 변경(yaw)(또는 z축 회전)(1701), 좌진 또는 우진(roll)(또는 y축 회전)(1703), 또는 전진 또는 후진(pitch)(또는 x축 회전)(1705)할 수 있다. 이에 따라, 무인 비행체(1700)는 각 움직임에 따른 센싱 데이터(1730)를 무인 비행체(1700)에 포함된 센서 모듈을 기반으로 획득할 수 있다.
한 실시 예에 따르면, 무인 비행체(1700)는 무인 비행체(1700)의 움직임에 따라 무인 비행체(1700)에 장착된 적어도 하나의 카메라의 ISO 감도를 조절할 수 있다. 무인 비행체(1700)의 움직임이 급격히 변하는 경우에는 촬영된 영상(1710)에 블러(blur) 현상이 생길 수 있다. 이를 방지하기 위해, 무인 비행체(1700)는 무인 비행체(1700)의 움직임에 따른 센싱 데이터(1730)를 기반으로 무인 비행체(1700)의 움직임 정도를 판단하고, 무인 비행체(1700)의 움직임 정도가 지정된 크기 이상인 경우, 무인 비행체(1700)에 장착된 적어도 하나의 카메라의 ISO 감도를 조절할 수 있다.
한 실시 예에 따르면, 무인 비행체(1700)는 무인 비행체(1700)의 움직임이 급격하게 변하는 경우, ISO 감도를 낮출 수 있다. 예컨대, 무인 비행체(1700)는 무인 비행체(1700)의 움직임에 따라, 카메라를 제1 감도(1771)에서 순차적으로 제2 감도(1773), 제3 감도(1775), 제4 감도(1777), 및 제5 감도(1779)로 변경할 수 있다. 이에 따라, 무인 비행체(1700)는 카메라의 제1 감도(1771)로 촬영한 제1 영상(1751)에서 순차적으로 카메라의 제2 감도(1773)로 촬영한 제2 영상(1753), 카메라의 제3 감도(1775)로 촬영한 제3 영상(1755), 카메라의 제4 감도(1777)로 촬영한 제4 영상(1757), 및 카메라의 제5 감도(1779)로 촬영한 제5 영상(1759)을 획득할 수 있다.
도 18은 일 실시 예에 따른 카메라의 ISO 감도 조절에 따른 촬영된 영상을 설명하기 위한 도면이다.
도 18을 참조하면, 무인 비행체(예: 무인 비행체(1700))는 무인 비행체의 움직임 정보를 기반으로 무인 비행체에 장착된 적어도 하나의 카메라의 ISO 감도를 조절할 수 있다. 한 예로, 무인 비행체는 무인 비행체의 움직임 정도가 지정된 크기를 초과하는 경우, 카메라의 ISO 감도를 낮출 수 있다.
도시된 좌측 도면에서는, 무인 비행체가 급격하게 움직인 상태에서 촬영한 영상(1810)에 블러 현상이 생기는 것을 보여주며, 우측 도면에서는, 무인 비행체가 카메라의 ISO 감도를 낮춘 상태에서 촬영한 영상(1830)에 블러 현상이 제거된 것을 보여준다.
도 19는 일 실시 예에 따른 복수 개의 카메라로 촬영된 영상들을 각 프레임 별로 보정한 후 스티칭하는 방법을 설명하기 위한 도면이다.
도 19를 참조하면, 무인 비행체(예: 무인 비행체(100))는 촬영된 영상(1910)(예: 제1 영상(1911), 제2 영상(1912), 제3 영상(1913), 제4 영상(1914), 제5 영상(1915), 및 제6 영상(1916))을 각 프레임 별로 보정한 후에 스티칭하여 전방위 영상을 획득할 수 있다.
한 예로, 무인 비행체는 제1 시간(t1)(1931)에 획득한 영상의 제1 프레임(1951) 예컨대, 제1 영상(1911)의 제1 프레임(1951a), 제2 영상(1912)의 제1 프레임(1951b), 제3 영상(1913)의 제1 프레임(1951c), 제4 영상(1914)의 제1 프레임(1951d), 제5 영상(1915)의 제1 프레임(1951e), 및 제6 영상(1916)의 제1 프레임(1951f)를 먼저 보정할 수 있다. 예컨대, 무인 비행체는 제1 시간(1931)에 획득한 영상의 제1 프레임(1951)을 먼저 보정하여 보정된 제1 프레임(1971)을 획득할 수 있다. 다시 말해, 무인 비행체는 제1 영상(1911)의 제1 프레임(1951a), 제2 영상(1912)의 제1 프레임(1951b), 제3 영상(1913)의 제1 프레임(1951c), 제4 영상(1914)의 제1 프레임(1951d), 제5 영상(1915)의 제1 프레임(1951e), 및 제6 영상(1916)의 제1 프레임(1951f)을 각각 보정하여 제1 영상(1911)의 보정된 제1 프레임(1971a), 제2 영상(1912)의 보정된 제1 프레임(1971b), 제3 영상(1913)의 보정된 제1 프레임(1971c), 제4 영상(1914)의 보정된 제1 프레임(1971d), 제5 영상(1915)의 보정된 제1 프레임(1971e), 및 제6 영상(1916)의 보정된 제1 프레임(1971f)을 획득할 수 있다.
각 프레임을 보정한 후에 무인 비행체는 보정된 프레임을 스티칭하여 해당 프레임에 대한 전방위 영상(1991)을 획득할 수 있다. 예를 들어, 무인 비행체는 제1 영상(1911)의 보정된 제1 프레임(1971a), 제2 영상(1912)의 보정된 제1 프레임(1971b), 제3 영상(1913)의 보정된 제1 프레임(1971c), 제4 영상(1914)의 보정된 제1 프레임(1971d), 제5 영상(1915)의 보정된 제1 프레임(1971e), 및 제6 영상(1916)의 보정된 제1 프레임(1971f)을 스티칭하여 제1 프레임에 해당하는 전방위 영상(1991)을 획득할 수 있다.
이와 같은 방식으로, 무인 비행체는 제2 시간(t2)(1933)에 획득한 영상들도 보정한 후에 스티칭할 수 있다. 예를 들어, 무인 비행체는 제2 시간(1933)에 획득한 영상의 제2 프레임(1953)을 먼저 보정하여 보정된 제2 프레임(1973)을 획득할 수 있다. 다시 말해, 무인 비행체는 제2 시간(1933)에 획득한 제1 영상(1911)의 제2 프레임(1953a), 제2 영상(1912)의 제2 프레임(1953b), 제3 영상(1913)의 제2 프레임(1953c), 제4 영상(1914)의 제2 프레임(1953d), 제5 영상(1915)의 제2 프레임(1953e), 및 제6 영상(1916)의 제2 프레임(1953f)을 각각 보정하여 제1 영상(1911)의 보정된 제2 프레임(1973a), 제2 영상(1912)의 보정된 제2 프레임(1973b), 제3 영상(1913)의 보정된 제2 프레임(1973c), 제4 영상(1914)의 보정된 제2 프레임(1973d), 제5 영상(1915)의 보정된 제2 프레임(1973e), 및 제6 영상(1916)의 보정된 제2 프레임(1973f)을 획득할 수 있다. 또한, 무인 비행체는 보정된 제2 프레임(1973)을 스티칭하여 제2 프레임에 대한 전방위 영상(1993)을 획득할 수 있다.
상술한 바와 같이, 무인 비행체는 제n 시간(tn)(1935)에 획득한 영상들을 보정한 후에 스티칭할 수 있다. 예를 들어, 무인 비행체는 제n 시간(1935)에 획득한 영상의 제n 프레임(1955)을 먼저 보정하여 보정된 제n 프레임(1975)을 획득할 수 있다. 다시 말해, 무인 비행체는 제n 시간(1935)에 획득한 제1 영상(1911)의 제n 프레임(1955a), 제2 영상(1912)의 제n 프레임(1955b), 제3 영상(1913)의 제n 프레임(1955c), 제4 영상(1914)의 제n 프레임(1955d), 제5 영상(1915)의 제n 프레임(1955e), 및 제6 영상(1916)의 제n 프레임(1955f)을 각각 보정하여 제1 영상(1911)의 보정된 제n 프레임(1975a), 제2 영상(1912)의 보정된 제n 프레임(1975b), 제3 영상(1913)의 보정된 제n 프레임(1975c), 제4 영상(1914)의 보정된 제n 프레임(1975d), 제5 영상(1915)의 보정된 제n 프레임(1975e), 및 제6 영상(1916)의 보정된 제n 프레임(1975f)을 획득할 수 있다. 또한, 무인 비행체는 보정된 제n 프레임(1975)을 스티칭하여 제n 프레임에 대한 전방위 영상(1995)을 획득할 수 있다.
도 20은 일 실시 예에 따른 복수 개의 카메라로 촬영된 영상들을 각 프레임 별로 스티칭한 후 보정하는 방법을 설명하기 위한 도면이다.
도 20을 참조하면, 무인 비행체(예: 무인 비행체(100))는 촬영된 영상(2010)(예: 제1 영상(2011), 제2 영상(2012), 제3 영상(2013), 제4 영상(2014), 제5 영상(2015), 및 제6 영상(2016))을 각 프레임 별로 스티칭하여 각 프레임에 해당하는 전방위 영상을 획득한 후에 보정할 수도 있다.
한 예로, 무인 비행체는 제1 시간(t1)(2031)에 획득한 영상의 제1 프레임(2051) 예컨대, 제1 영상(2011)의 제1 프레임(2051a), 제2 영상(2012)의 제1 프레임(2051b), 제3 영상(2013)의 제1 프레임(2051c), 제4 영상(2014)의 제1 프레임(2051d), 제5 영상(2015)의 제1 프레임(2051e), 및 제6 영상(2016)의 제1 프레임(2051f)를 먼저 스티칭할 수 있다. 예컨대, 무인 비행체는 제1 시간(2031)에 획득한 영상의 제1 프레임(2051)에 대한 전방위 영상(2071)을 먼저 획득할 수 있다.
각 프레임에 대한 전방위 영상을 획득한 후에 무인 비행체는 각 프레임에 대한 전방위 영상을 보정할 수 있다. 제1 프레임(2051)에 대한 전방위 영상(2071)을 보정하여 보정된 전방위 영상(2091)을 획득할 수 있다.
이와 같은 방식으로, 무인 비행체는 제2 시간(t2)(2033)에 획득한 영상들도 스티칭한 후에 보정할 수 있다. 예를 들어, 무인 비행체는 제2 시간(2033)에 획득한 영상의 제2 프레임(2053)을 먼저 스티칭하여 제2 프레임(2053)에 대한 전방위 영상(2073)을 획득할 수 있다. 다시 말해, 무인 비행체는 제2 시간(2033)에 획득한 제1 영상(2011)의 제2 프레임(2053a), 제2 영상(2012)의 제2 프레임(2053b), 제3 영상(2013)의 제2 프레임(2053c), 제4 영상(2014)의 제2 프레임(2053d), 제5 영상(2015)의 제2 프레임(2053e), 및 제6 영상(2016)의 제2 프레임(2053f)을 스티칭하여 제2 프레임(2053)에 대한 전방위 영상(2073)을 획득할 수 있다. 또한, 무인 비행체는 제2 프레임(2053)에 대한 전방위 영상(2073)을 보정하여 보정된 전방위 영상(2093)을 획득할 수 있다.
상술한 바와 같이, 무인 비행체는 제n 시간(tn)(2035)에 획득한 영상들을 스티칭한 후에 보정할 수 있다. 예를 들어, 무인 비행체는 제n 시간(2035)에 획득한 영상의 제n 프레임(2055)을 먼저 스티칭하여 제n 프레임(2055)에 대한 전방위 영상(2075)을 획득할 수 있다. 다시 말해, 무인 비행체는 제n 시간(2035)에 획득한 제1 영상(2011)의 제n 프레임(2055a), 제2 영상(2012)의 제n 프레임(2055b), 제3 영상(2013)의 제n 프레임(2055c), 제4 영상(2014)의 제n 프레임(2055d), 제5 영상(2015)의 제n 프레임(2055e), 및 제6 영상(2016)의 제n 프레임(2055f)을 스티칭하여 제n 프레임(2055)에 대한 전방위 영상(2075)을 획득할 수 있다. 또한, 무인 비행체는 제n 프레임(2055)에 대한 전방위 영상(2075)를 보정하여 보정된 전방위 영상(2095)를 획득할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 제1 프로세서(911) 또는 제2 프로세서(931))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(예: 메모리(915))가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM, DVD(Digital Versatile Disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM, RAM, 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (15)

  1. 무인 비행체에 있어서,
    본체;
    상기 본체의 적어도 일측면으로부터 지정된 길이로 연장된 복수의 프로펠러 연결부들;
    상기 복수의 프로펠러 연결부들의 끝단에 각각 연결된 복수의 프로펠러들; 및
    상기 본체의 적어도 일면에 장착된 복수의 카메라들을 포함하고,
    상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치된 제1 카메라는 상기 본체의 중심점으로부터 제1 크기의 거리만큼 이격되어 배치되고,
    상기 복수의 프로펠러들 중 상기 제1 카메라와 인접하게 배치된 제1 프로펠러의 중심점과 상기 본체의 중심점을 연결한 가상의 제1 직선은 제2 크기의 길이를 갖고,
    상기 제1 카메라로부터 상기 제1 직선까지 수직하게 그어지는 가상의 제2 직선은 제3 크기의 길이를 갖고,
    상기 제3 크기는 상기 제1 프로펠러의 반경보다 크고, 상기 제1 크기는 상기 제2 크기보다 작은 것을 특징으로 하는 무인 비행체.
  2. 청구항 1에 있어서,
    상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치되고 상기 제1 카메라와 다른 제2 카메라는,
    상기 제1 카메라의 촬상 각도에 의해 정의되는 제1 촬영 영역과 상기 제2 카메라의 촬상 각도에 의해 정의되는 제2 촬영 영역이 일부 중첩되도록 배치된 것을 특징으로 하는 무인 비행체.
  3. 청구항 2에 있어서,
    상기 제1 촬영 영역과 상기 제2 촬영 영역이 중첩된 영역의 중첩 각도가 10도 이상인 것을 특징으로 하는 무인 비행체.
  4. 청구항 1에 있어서,
    상기 복수의 카메라들 중 상기 본체의 상면 또는 하면에 배치된 제2 카메라는,
    상기 제1 카메라의 촬상 각도에 의해 정의되는 제1 촬영 영역과 상기 제2 카메라의 촬상 각도에 의해 정의되는 제2 촬영 영역이 일부 중첩되도록 배치된 것을 특징으로 하는 무인 비행체.
  5. 청구항 4에 있어서,
    상기 제1 촬영 영역과 상기 제2 촬영 영역이 중첩된 영역의 중첩 각도가 10도 이상인 것을 특징으로 하는 무인 비행체.
  6. 청구항 1에 있어서,
    상기 본체의 하면에 적어도 하나의 착륙부재가 배치되고,
    상기 착륙부재는,
    상기 복수의 카메라들의 촬상 각도를 벗어나는 비촬영 영역 내에 위치하는 것을 특징으로 하는 무인 비행체.
  7. 청구항 1에 있어서,
    상기 본체는,
    중심부;
    상기 중심부의 일부분으로부터 상기 중심부의 타부분까지 연장된 복수의 측부들을 포함하고,
    상기 측부들의 각 테두리는 상기 중심부의 중심점으로부터 지정된 크기의 거리만큼 이격되어 배치된 원호의 형태로 마련되고, 상기 복수의 측부들 각각은 상기 복수의 프로펠러들 중 적어도 하나를 감싸는 형태로 마련된 것을 특징으로 하는 무인 비행체.
  8. 청구항 7에 있어서,
    상기 측부들은 제1 측부 및 상기 제1 측부와 인접한 제2 측부를 포함하고,
    상기 제1 카메라는,
    상기 중심부의 적어도 일측면 상에서 상기 제1 측부 및 상기 제2 측부 사이에 배치된 것을 특징으로 하는 무인 비행체.
  9. 청구항 7에 있어서,
    상기 복수의 카메라들 중 상기 본체의 상면 또는 하면에 배치된 제2 카메라는,
    상기 중심부의 상면 또는 하면에 배치된 것을 특징으로 하는 무인 비행체.
  10. 무인 비행체에 있어서,
    상단 프레임 및 하단 프레임 중 적어도 하나를 포함하는 본체;
    상기 상단 프레임 및 상기 하단 프레임 중 적어도 하나에 고정되는 회로 실장부;
    상기 본체의 적어도 일측면으로부터 지정된 길이로 연장된 복수의 프로펠러 연결부들;
    상기 복수의 프로펠러 연결부들의 끝단에 각각 연결된 복수의 프로펠러들;
    상기 회로 실장부의 적어도 일면으로부터 연장된 복수의 카메라 연결부들; 및
    상기 복수의 카메라 연결부들의 끝단에 각각 연결된 복수의 카메라들을 포함하고,
    상기 복수의 카메라들 중 상기 복수의 프로펠러 연결부들 사이에 배치된 제1 카메라는 상기 본체의 중심점으로부터 제1 크기의 거리만큼 이격되어 배치되고,
    상기 복수의 프로펠러들 중 상기 제1 카메라와 인접하게 배치된 제1 프로펠러의 중심점과 상기 본체의 중심점을 연결한 가상의 제1 직선은 제2 크기의 길이를 갖고,
    상기 제1 카메라로부터 상기 제1 직선까지 수직하게 그어지는 가상의 제2 직선은 제3 크기의 길이를 갖고,
    상기 제3 크기는 상기 제1 프로펠러의 반경보다 크고, 상기 제1 크기는 상기 제2 크기보다 작은 것을 특징으로 하는 무인 비행체.
  11. 청구항 10에 있어서,
    상기 회로 실장부 및 상기 복수의 카메라 연결부들 중 적어도 하나는,
    충격 완화 부재를 통해 상기 상단 프레임 또는 상기 하단 프레임에 고정된 것을 특징으로 하는 무인 비행체.
  12. 청구항 10에 있어서,
    상기 복수의 카메라 연결부들 중 적어도 하나는,
    상기 상단 프레임 또는 상기 하단 프레임과 실질적으로 수평하게 배치되고, 상기 상단 프레임 또는 상기 하단 프레임의 외측으로 돌출되도록 연장된 것을 특징으로 하는 무인 비행체.
  13. 무인 비행체의 영상 처리 방법에 있어서,
    복수의 방위들에 대응하는 복수의 영상들을 획득하는 동작;
    상기 복수의 영상들의 보정과 관련된 정보를 획득하는 동작;
    상기 보정과 관련된 정보를 기반으로 상기 복수의 영상들을 보정하는 동작; 및
    상기 보정된 복수의 영상들을 스티칭하는 동작을 포함하는 영상 처리 방법.
  14. 청구항 13에 있어서,
    상기 보정과 관련된 정보를 획득하는 동작은,
    상기 복수의 영상들에서 상기 무인 비행체가 기울어지지 않은 상태에서 촬영한 영상을 기준 영상으로 지정하는 동작을 포함하고,
    상기 복수의 영상들을 보정하는 동작은,
    상기 기준 영상의 특징부를 추출하는 동작; 및
    상기 기준 영상의 특징부를 기반으로 상기 복수의 영상들을 보정하는 동작을 포함하는 영상 처리 방법.
  15. 청구항 13에 있어서,
    상기 보정과 관련된 정보를 획득하는 동작은,
    상기 무인 비행체의 움직임에 따른 센싱 데이터를 획득하는 동작을 포함하고,
    상기 복수의 영상들을 보정하는 동작은,
    상기 센싱 데이터를 기반으로 상기 복수의 영상들을 보정하는 동작을 포함하는 영상 처리 방법.
PCT/KR2017/007457 2016-08-09 2017-07-13 카메라를 구비한 무인 비행체 및 무인 비행체의 영상 처리 방법 WO2018030651A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/324,779 US11254427B2 (en) 2016-08-09 2017-07-13 Unmanned aerial vehicle having camera, and method for unmanned aerial vehicle to process image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0101501 2016-08-09
KR1020160101501A KR102548228B1 (ko) 2016-08-09 2016-08-09 카메라를 구비한 무인 비행체

Publications (1)

Publication Number Publication Date
WO2018030651A1 true WO2018030651A1 (ko) 2018-02-15

Family

ID=61163006

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/007457 WO2018030651A1 (ko) 2016-08-09 2017-07-13 카메라를 구비한 무인 비행체 및 무인 비행체의 영상 처리 방법

Country Status (3)

Country Link
US (1) US11254427B2 (ko)
KR (1) KR102548228B1 (ko)
WO (1) WO2018030651A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10822082B2 (en) 2017-04-07 2020-11-03 Mark Holbrook Hanna Distributed-battery aerial vehicle and a powering method therefor
CN112334854A (zh) * 2019-11-22 2021-02-05 深圳市大疆创新科技有限公司 飞行控制方法、系统、无人飞行器、遥控器及存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2557715B (en) * 2017-02-28 2019-04-17 Matthew Russell Iain Unmanned aerial vehicles
US11453513B2 (en) * 2018-04-26 2022-09-27 Skydio, Inc. Autonomous aerial vehicle hardware configuration
CN108725782A (zh) * 2018-05-30 2018-11-02 永春县乾高智能科技有限公司 一种智能山林巡视无人机
FR3087901B1 (fr) * 2018-10-29 2023-12-22 Safran Electronics & Defense Procede de transmission de donnees issues d’un objet embarque dans un aeronef a un reseau d’objets connectes
KR102258389B1 (ko) * 2019-05-29 2021-05-31 레드원테크놀러지 주식회사 전방위 촬영 드론
CN114604425B (zh) * 2022-02-18 2023-09-05 泰瑞数创科技(北京)股份有限公司 用于无人机巡检的三维低空航图巡检装置
US20230348104A1 (en) * 2022-04-27 2023-11-02 Skydio, Inc. Base Stations For Unmanned Aerial Vehicles (UAVs)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101378337B1 (ko) * 2012-10-30 2014-03-27 주식회사 이미지넥스트 카메라의 영상 처리 장치 및 방법
US20150069174A1 (en) * 2012-11-15 2015-03-12 SZ DJI Technology Co., Ltd Unmanned aerial vehicle and operations thereof
KR101589263B1 (ko) * 2015-06-09 2016-01-28 한국항공우주연구원 프로펠러부 전개식 무인 비행체
KR101625634B1 (ko) * 2016-02-23 2016-05-31 공간정보기술 주식회사 드론의 스테레오 카메라가 촬영한 이미지를 이용한 3차원 모델링 시스템
CN105775151A (zh) * 2016-01-29 2016-07-20 上海云舞网络科技有限公司 360°全景航拍摄影摄像无人机及机架框

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8902322B2 (en) 2012-11-09 2014-12-02 Bubl Technology Inc. Systems and methods for generating spherical images
US9643722B1 (en) * 2014-02-28 2017-05-09 Lucas J. Myslinski Drone device security system
US9798322B2 (en) * 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US10106277B2 (en) * 2015-10-09 2018-10-23 Carl Michael NEELY Self-stabilizing spherical unmanned aerial vehicle camera assembly
CN205707360U (zh) * 2016-04-20 2016-11-23 上海扩意信息科技有限公司 一种用于全景拍摄的无人机
CN107323666B (zh) * 2016-04-28 2020-11-06 深圳富泰宏精密工业有限公司 无人飞行器
CN109219785B (zh) * 2016-06-03 2021-10-01 深圳市大疆创新科技有限公司 一种多传感器校准方法与系统
US10220964B1 (en) * 2016-06-21 2019-03-05 Amazon Technologies, Inc. Unmanned aerial vehicle sensor calibration validation before flight

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101378337B1 (ko) * 2012-10-30 2014-03-27 주식회사 이미지넥스트 카메라의 영상 처리 장치 및 방법
US20150069174A1 (en) * 2012-11-15 2015-03-12 SZ DJI Technology Co., Ltd Unmanned aerial vehicle and operations thereof
KR101589263B1 (ko) * 2015-06-09 2016-01-28 한국항공우주연구원 프로펠러부 전개식 무인 비행체
CN105775151A (zh) * 2016-01-29 2016-07-20 上海云舞网络科技有限公司 360°全景航拍摄影摄像无人机及机架框
KR101625634B1 (ko) * 2016-02-23 2016-05-31 공간정보기술 주식회사 드론의 스테레오 카메라가 촬영한 이미지를 이용한 3차원 모델링 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10822082B2 (en) 2017-04-07 2020-11-03 Mark Holbrook Hanna Distributed-battery aerial vehicle and a powering method therefor
US11811224B2 (en) 2017-04-07 2023-11-07 Mark Holbrook Hanna Distributed-battery aerial vehicle and a powering method therefor
CN112334854A (zh) * 2019-11-22 2021-02-05 深圳市大疆创新科技有限公司 飞行控制方法、系统、无人飞行器、遥控器及存储介质

Also Published As

Publication number Publication date
US11254427B2 (en) 2022-02-22
KR20180017537A (ko) 2018-02-21
US20200391864A1 (en) 2020-12-17
KR102548228B1 (ko) 2023-06-28

Similar Documents

Publication Publication Date Title
WO2018030651A1 (ko) 카메라를 구비한 무인 비행체 및 무인 비행체의 영상 처리 방법
WO2018124662A1 (en) Method and electronic device for controlling unmanned aerial vehicle
WO2018110848A1 (en) Method for operating unmanned aerial vehicle and electronic device for supporting the same
WO2018074893A1 (ko) 디스플레이 장치 및 디스플레이 장치의 영상 처리 방법
WO2018117627A1 (en) Unmanned aerial vehicle
WO2019017592A1 (en) ELECTRONIC DEVICE DISPLACED ON THE BASIS OF A DISTANCE TO AN EXTERNAL OBJECT AND ITS CONTROL METHOD
WO2018155892A1 (en) Method for displaying virtual image, storage medium and electronic device therefor
KR102502404B1 (ko) 정보 처리 장치 및 방법, 그리고 프로그램
WO2019182374A1 (en) System and method for utilizing gaze tracking and focal point tracking
WO2018038441A1 (en) Electronic device and operating method thereof
WO2018128421A1 (en) Image capturing method and electronic device
WO2020222381A1 (en) System and method for low latency, high performance pose fusion
WO2017213339A1 (ko) 수평 자세 유지 장치 및 자세 유지 장치 구동 방법
WO2018008991A1 (ko) 영상 처리를 위한 디스플레이 장치 및 방법
WO2018151576A1 (en) Electronic device for controlling unmanned aerial vehicle and method of operating the same
EP3529686A1 (en) Method and apparatus for providing guidance in a virtual environment
WO2018101592A1 (ko) 무인 비행체 및 그 제어 방법
KR102521040B1 (ko) 수평 자세 유지 장치
WO2019098567A1 (ko) 전자 장치의 이미지 촬영 방법 및 그 전자 장치
WO2017078480A1 (en) Electronic device, wearable device, and method for controlling object displayed through electronic device
WO2019059562A1 (ko) 롤링 셔터 방식을 이용한 복수의 카메라를 포함하는 전자 장치
WO2017209409A1 (ko) 구형 컨텐츠 편집 방법 및 이를 지원하는 전자 장치
WO2018143660A1 (ko) 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법
WO2016126083A1 (ko) 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체
WO2019151817A1 (en) Apparatus and method for tracking a focal point in a head mounted display system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17839669

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17839669

Country of ref document: EP

Kind code of ref document: A1