KR20180115050A - 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템 - Google Patents

무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템 Download PDF

Info

Publication number
KR20180115050A
KR20180115050A KR1020170047200A KR20170047200A KR20180115050A KR 20180115050 A KR20180115050 A KR 20180115050A KR 1020170047200 A KR1020170047200 A KR 1020170047200A KR 20170047200 A KR20170047200 A KR 20170047200A KR 20180115050 A KR20180115050 A KR 20180115050A
Authority
KR
South Korea
Prior art keywords
electronic device
unmanned aerial
aerial vehicle
distance
processor
Prior art date
Application number
KR1020170047200A
Other languages
English (en)
Other versions
KR102290746B1 (ko
Inventor
문춘경
유은경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170047200A priority Critical patent/KR102290746B1/ko
Priority to PCT/KR2018/004288 priority patent/WO2018190648A1/ko
Priority to US16/497,711 priority patent/US20200117183A1/en
Publication of KR20180115050A publication Critical patent/KR20180115050A/ko
Application granted granted Critical
Publication of KR102290746B1 publication Critical patent/KR102290746B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • G01C17/02Magnetic compasses
    • G01C17/28Electromagnetic compasses
    • G01C17/30Earth-inductor compasses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C9/00Measuring inclination, e.g. by clinometers, by levels
    • G01C9/005Measuring inclination, e.g. by clinometers, by levels specially adapted for use in aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0227Cooperation and interconnection of the input arrangement with other functional units of a computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/19Propulsion using electrically powered motors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

전자 장치가 개시된다. 일 실시 예에 따른 전자 장치는, 하우징; 상기 전자 장치의 움직임을 감지하는 센서; 상기 하우징의 일면에 배치되고, VLC(visible light communication) 신호를 출력하는 VLC 출력 모듈; 및 상기 하우징 내에 배치되고 상기 센서 및 상기 VLC 출력 모듈과 전기적으로 연결되는 프로세서;를 포함하고, 상기 프로세서는, 상기 감지된 상기 전자 장치의 움직임에 기반하여 무인 비행 장치(UAV, unmanned aerial vehicle)의 움직임을 제어하기 위한 제어 정보를 생성하고, 상기 VLC 출력 모듈을 이용하여 상기 제어 정보를 포함하는 상기 VLC 신호를 상기 무인 비행 장치로 출력하도록 설정될 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템{Device for controlling unmanned aerial vehicle, unmanned aerial vehicle controlled by the device and system}
본 문서에서 개시되는 실시 예들은, 무인 비행 장치를 제어하는 기술과 관련된다.
무인 비행 장치(예: 드론)는 사람이 타지 않고, 무선 전파의 유도에 의해서 비행하는 장치일 수 있다. 무인 비행 장치는 원래 군사적 목적으로 정찰, 감시 등의 용도로 개발되었으나, 최근에는 물건 배송, 사진 또는 영상 촬영 등의 용도로 활용 범위가 확대되고 있다.
무인 비행 장치는 별도의 조작 장치에서 발생되는 무선 제어 신호에 대응하여, 비행할 수 있다. 무인 비행 장치는 조작 장치의 제어 신호에 따라 고도를 변경하거나, 동일 고도에서 이동 또는 회전할 수 있다. 무인 비행 장치는 카메라 장치를 포함하는 경우, 사진 또는 동영상을 촬영할 수 있다.
무인 비행 장치는 장치 운행을 제어할 수 있는 스틱 또는 터치 패드 등을 포함하는 입력 장치를 제공하고 있다. 무인 비행 장치는 입력 장치로부터 수신된 제어 정보에 따라 일정 방향으로 이동할 수 있다.
종래 기술에 의한 무인 비행 장치의 조작 방식은 3차원 공간상에서 무인 비행 장치의 고도를 변경하거나, 이동 또는 회전 시키기 위해서는 2개의 조이스틱을 복합적인 형태로 조작해야 하고 무인 비행 장치의 자세, 방향과 거리가 조작에 따라 계속 변하게 되므로 초보자들이 무인 비행 장치를 조작하기가 어렵다는 문제가 있었다.
본 발명의 다양한 실시 예들은 초보자들도 무인 비행 장치를 직관적이고 쉽게 제어할 수 있는 전자 장치를 제어할 수 있다.
또한, 종래의 무인 비행 장치를 제어하는 장치는 무인 비행 장치를 3인칭 시점으로 제어하기 위해 무인 비행 장치의 GPS 정보가 필요하다. 실내에서는 GPS 정보를 획득하기 어려워 3인칭 시점으로 무인 비행 장치를 제어하기가 곤란하다는 문제가 있었다.
본 발명의 다양한 실시 예들은 GPS 정보를 획득하기 어려운 환경에서도 3인칭 시점으로 무인 비행 장치를 제어할 수 있는 전자 장치를 제공할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 하우징; 상기 전자 장치의 움직임을 감지하는 센서; 상기 하우징의 일면에 배치되고, VLC(visible light communication) 신호를 출력하는 VLC 출력 모듈; 및 상기 하우징 내에 배치되고 상기 센서 및 상기 VLC 출력 모듈과 전기적으로 연결되는 프로세서;를 포함하고, 상기 프로세서는, 상기 감지된 상기 전자 장치의 움직임에 기반하여 무인 비행 장치(UAV, unmanned aerial vehicle)의 움직임을 제어하기 위한 제어 정보를 생성하고, 상기 VLC 출력 모듈을 이용하여 상기 제어 정보를 포함하는 상기 VLC 신호를 상기 무인 비행 장치로 출력하도록 설정될 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 무인 비행 장치는 하우징; 상기 하우징 상에 배치되고 제어 정보를 포함하는 VLC 신호를 전자 장치로부터 획득하는 복수의 광 센서; 상기 VLC 신호로부터 상기 제어 정보를 획득하는 디코더; 상기 하우징에 연결되는 적어도 하나의 모터; 상기 적어도 하나의 모터에 연결되는 적어도 하나의 프로펠러; 상기 하우징 내에 배치되고 상기 복수의 광 센서, 상기 디코더 및 상기 적어도 하나의 모터와 전기적으로 연결되는 프로세서;를 포함하고, 상기 프로세서는, 상기 전자 장치와 상기 무인 비행 장치 간의 제1 거리, 상기 전자 장치와 상기 무인 비행 장치가 이동할 타겟 지점 간의 제2 거리, 상기 무인 비행 장치로부터 상기 전자 장치로 향하는 방향 및 상기 제어 정보에 기반하여 결정되는 상기 타겟 지점으로 상기 무인 비행 장치가 이동하도록 상기 모터를 제어하도록 설정되고, 상기 제1 거리는 상기 획득된 VLC 신호의 크기에 기반하여 결정되고, 상기 제어 정보는 상기 전자 장치로부터 상기 무인 비행 장치로 향하는 제1 방향 및 상기 전자 장치로부터 상기 타겟 지점으로 향하는 제2 방향 사이의 각도를 포함할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치 및 무인 비행 장치를 포함하는 시스템은 전자 장치 및 무인 비행 장치를 포함하는 시스템에 있어서, 상기 전자 장치는, 제1 하우징; 상기 전자 장치의 움직임을 감지하는 센서; 상기 제1 하우징의 일면에 배치되고, VLC 신호를 출력하는 VLC 출력 모듈; 및 상기 제1 하우징 내에 배치되고 상기 센서 및 상기 VLC 출력 모듈과 전기적으로 연결되는 제1 프로세서;를 포함하고, 상기 제1 프로세서는, 상기 감지된 상기 전자 장치의 움직임에 기반하여 무인 비행 장치의 움직임을 제어하기 위한 제어 정보를 생성하고, 상기 VLC 출력 모듈을 이용하여 상기 제어 정보를 포함하는 상기 VLC 신호를 상기 무인 비행 장치로 출력하도록 설정되고, 상기 무인 비행 장치는, 제2 하우징; 상기 제2 하우징 상에 배치되고 상기 VLC 신호를 획득하는 복수의 광 센서; 상기 VLC 신호로부터 상기 제어 정보를 획득하는 디코더;상기 제2 하우징에 연결되는 적어도 하나의 모터; 상기 적어도 하나의 모터에 연결되는 적어도 하나의 프로펠러; 및 상기 제2 하우징 내에 배치되고 상기 복수의 광 센서, 상기 디코더 및 상기 적어도 하나의 모터와 전기적으로 연결되는 제2 프로세서;를 포함하고, 상기 제2 프로세서는,상기 전자 장치와 상기 무인 비행 장치 간의 제1 거리, 상기 전자 장치와 상기 무인 비행 장치가 이동할 타겟 지점 간의 제2 거리, 상기 무인 비행 장치로부터 상기 전자 장치로 향하는 방향 및 상기 제어 정보에 기반하여 결정되는 상기 타겟 지점으로 상기 무인 비행 장치가 이동하도록 상기 모터를 제어하도록 설정되고, 상기 제1 거리는 상기 수신된 VLC 신호의 크기에 기반하여 결정되고, 상기 제어 정보는 상기 전자 장치로부터 상기 무인 비행 장치로 향하는 제1 방향 및 상기 전자 장치로부터 상기 타겟 지점으로 향하는 제2 방향 사이의 각도를 포함할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 무인 비행 장치의 자세를 고려하지 않고 직관적인 무인 비행 장치의 제어를 가능하게 할 수 있다.
본 문서의 다양한 실시 예에 따르면, VLC 통신을 사용하므로, 다양한 무선 통신 신호간의 간섭을 줄일 수 있다.
본 문서의 다양한 실시 예에 따르면, 사용자가 한 손으로 간편하게 무인 비행 장치를 조작하도록 할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 전자 장치의 블록도를 나타낸다.
도 2는 일 실시 예에 따른 무인 비행 장치의 블록도를 나타낸다.
도 3a는 일 실시 예에 따른 전자 장치의 전면 및 후면을 나타내는 도면이다.
도 3b는 다른 실시 예에 따른 전자 장치의 전면 및 측면을 나타낸다.
도 4는 일 실시 예에 따른 무인 비행 장치의 외관을 나타낸다.
도 5는 일 실시 예에 따른 무인 비행 장치 명령 패킷의 구조를 나타내는 도면이다.
도 6은 일 실시 예에 따른 전자 장치와 무인 비행 장치의 페어링 과정을 나타내는 흐름도이다.
도 7a는 일 실시 예에 따른 전자 장치가 무인 비행 장치를 제어하는 과정을 나타내는 흐름도이다.
도 7b는 일 실시 예에 따른 전자 장치와 무인 비행 장치 간의 거리, 전자 장치와 타겟 지점간의 거리 및 무인 비행 장치로부터 전자 장치로 향하는 방향을 나타낸 도면이다.
도 8은 일 실시 예에 따른 전자 장치의 회전 방향을 나타내는 구면 좌표계를 나타낸다.
도 9는 일 실시 예에 따른 전자 장치가 출력하는 VLC 신호를 나타내는 그래프이다.
도 10a는 일 실시 예에 따른 무인 비행 장치(200)의 광 센서가 획득하는 VLC 신호를 나타내는 그래프이다.
도 10b는 다른 실시 예에 따른 무인 비행 장치(200)의 광 센서가 획득하는 VLC 신호를 나타내는 그래프이다.
도 11a는 일 실시 예에 따른 전자 장치의 방위각 변화에 따라 무인 비행 장치가 이동하는 것을 나타내는 도면이다.
도 11b는 일 실시 예에 따른 전자 장치의 복각 변화에 따라 무인 비행 장치가 이동하는 것을 나타내는 도면이다.
도 11c는 일 실시 예에 따른 거리 변경 정보를 생성하기 위한 사용자 입력에 따라 무인 비행 장치가 이동하는 것을 나타내는 도면이다.
도 11d는 일 실시 예에 따른 자세 변경 정보를 생성하기 위한 사용자 입력에 따라 무인 비행 장치가 자세를 변경하는 것을 나타내는 도면이다.
도 12a는 일 실시 예에 따른 사용자 입력에 의해 무인 비행 장치가 이륙하는 것을 나타내는 도면이다.
도 12b는 일 실시 예에 따른 사용자 입력에 의해 무인 비행 장치의 일면이 전자 장치를 향하도록 회전하는 것을 나타내는 도면이다.
도 12c는 일 실시 예에 따른 사용자 입력에 의해 뷰 파인더가 표시하는 영상이 전환되는 것을 나타내는 도면이다.
도 12d는 일 실시 예에 따른 사용자 입력에 의해 전자 장치의 촬영모드가 실행된 것을 나타내는 도면이다.
도 13은 일 실시 예에 따른 전자 장치의 블록도를 나타낸다.
도 14는 일 실시 예에 따른 무인 비행 장치의 블록도를 나타낸다.
도 15는 일 실시 예에 따른 전자 장치가 무인 비행 장치를 제어하는 과정을 나타내는 흐름도이다.
도 16a는 일 실시 예에 따른 전자 장치의 회전에 따라 무인 비행 장치가 이동하는 것을 나타내는 도면이다.
도 16b는 일 실시 예에 따른 거리 변화 입력에 따라 무인 비행 장치가 이동하는 것을 나타내는 도면이다.
도 17a는 일 실시 예에 따른 전자 장치의 기울임에 따라 무인 비행 장치의 고도가 변경되는 것을 나타내는 도면이다.
도 17b는 다른 실시 예에 따른 전자 장치의 기울임에 따라 무인 비행 장치의 고도가 변경되는 것을 나타내는 도면이다.
도 18은 일 실시 예에 따른 무인 비행 장치의 카메라의 움직임을 제어하는 UI가 표시된 화면을 나타낸다.
도 19는 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도를 나타낸다.
도 20은 일 실시 예에 따른 무인 비행 장치의 블록도이다.
도 21은 일 실시 예에 따른 무인 비행 장치의 플랫폼을 나타낸 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 일 실시 예에 따른 전자 장치의 블록도를 나타낸다.
일 실시 예에 따르면, 전자 장치(100)는 하우징을 포함하고, 센서(110), 입력 장치(120), VLC 출력 모듈(130)(visible light communication module), 메모리(140) 및 프로세서(150)를 포함할 수 있다. 다양한 실시 예에서 전자 장치(100)는 위 구성 요소들 중 일부 구성을 생략하거나, 혹은 다른 구성 요소를 추가적으로 구비할 수 있다. 예를 들어, 디스플레이, 카메라, 배터리나 입/출력 인터페이스, 통신 회로와 같은 구성이 전자 장치(100)에 추가적으로 포함될 수 있다.
센서(110)는 전자 장치(100)의 자세 및 움직임을 감지할 수 있고, 지자기 센서(111), 자이로 센서(112) 또는 가속도 센서(113) 중 적어도 하나를 포함할 수 있다. 지자기 센서(111)는 전자 장치(100)의 방위각을 감지할 수 있다. 자이로 센서(112)는 전자 장치(100)의 기울임을 감지할 수 있다. 일 실시 예에서, 자이로 센서(112)는 전자 장치(100)의 기울임을 나타내는 복각(inclination angle)을 감지할 수 있다. 가속도 센서(113)는 전자 장치(100)의 가속도를 감지할 수 있다. 센서(110)는 감지한 전자 장치(100)의 자세 및 움직임에 대한 정보를 프로세서(150)로 제공할 수 있다.
입력 장치(120)는 전자 장치(100)의 사용자 입력에 따른 입력 신호를 생성할 수 있다. 입력 장치(120)는 예컨대, 스틱형 장치, 버튼형 장치, 또는 터치 패드형 장치 중 적어도 하나를 포함할 수 있다. 입력 장치(120)는 터치 스크린 패널(touch screen panel)의 형태로 제공될 수 있다. 일 실시 예에 따르면, 입력 장치(120)는 무인 비행 장치(200)(UAV, unmanned aerial vehicle)의 이동 개시, 무인 비행 장치(200)의 자세 변경 또는 전자 장치(100)와 무인 비행 장치(200)가 이동할 타겟 지점간의 거리 변경 등과 관련한 사용자 입력 신호를 사용자 입력에 응답하여 프로세서(150)에 전달할 수 있다. 다양한 실시 예에 따르면, 전자 장치(100)는 마이크 또는 스피커 등을 포함할 수 있다. 상기 마이크는 입력 장치(120)에 포함될 수 있다. 마이크를 포함하는 입력 장치(120)는 사용자 음성 입력을 획득하고, 획득된 음성 입력에 대한 음성 인식을 기반으로, 입력 처리를 수행할 수 있다.
VLC 출력 모듈(130)은 인코더(131) 및 발광 소자(132)를 포함할 수 있다. 인코더(131)는 프로세서(250)가 생성한 제어 정보로부터 VLC 신호를 생성할 수 있다. 발광 소자(132)는 인코더(131)가 생성한 VLC 신호를 출력할 수 있다. 발광 소자(132)는 전자 장치의 하우징의 일면에 배치되고 생성된 VLC 신호를 출력할 수 있다. 발광 소자(132)는, 예를 들어, LED(light emitting diode) 등을 포함할 수 있다.
메모리(140)는 전자 장치(100) 운용과 관련한 적어도 하나의 어플리케이션 또는 데이터를 저장할 수 있다. 일 실시 예에 따르면, 메모리(140)는 무인 비행 장치(200) 운행과 관련한 운행 어플리케이션 프로그램을 저장할 수 있다. 다양한 실시 예에 따르면, 상기 어플리케이션 프로그램은 무인 비행 장치(200)의 자세 변경 정보, 전자 장치(100)의 움직임에 대응하여 무인 비행 장치(200)를 이동시키는 제어 정보를 무인 비행 장치(200)로 전송하는 명령어 셋을 포함할 수 있다.
프로세서(150)는 전자 장치(100)의 제어와 관련한 신호의 처리 또는 전달을 처리할 수 있다. 일 실시 예에 따르면, 프로세서(150)는 하우징 내에 배치되고 센서(110), VLC 출력 모듈(130) 및 메모리(140)와 전기적으로 연결될 수 있다. 일 실시 예에 따르면, 프로세서(150)는 감지된 전자 장치(100)의 움직임에 기반하여 무인 비행 장치(200)의 움직임을 제어하기 위한 제어 정보를 생성하고, VLC 출력 모듈(130)을 이용하여 제어 정보를 포함하는 VLC 신호를 무인 비행 장치(200)로 출력할 수 있다. 프로세서(150)의 구체적인 동작은 도 6 내지 도 12d를 참조하여 아래에서 설명될 것이다.
도 2는 일 실시 예에 따른 무인 비행 장치의 블록도를 나타낸다.
일 실시 예에 따르면, 무인 비행 장치(200)는 하우징을 포함하고, VLC 입력 모듈(210), 모터(220), 프로펠러(230), 메모리(240) 및 프로세서(250)를 포함할 수 있다. 다양한 실시 예에서 전자 장치는 위 구성 요소들 중 일부 구성을 생략하거나, 혹은 다른 구성 요소를 추가적으로 구비할 수 있다. 예를 들어, IR 센서(infrared ray sensor), 초음파 센서, OFS(optical flow switch), 카메라 또는 배터리와 같은 구성이 무인 비행 장치(200)에 추가적으로 포함될 수 있다.
VLC 입력 모듈(210)은 광 센서(211) 및 디코더(212)를 포함할 수 있다. 광 센서(211)는 무인 비행 장치(200)의 하우징 상에 배치되고, 복수 개 구비될 수 있다. 광 센서(211)는 전자 장치의 VLC 출력 모듈(130)이 출력한 VLC 신호를 수신할 수 있다. 디코더(212)는 광 센서(211)가 수신한 VLC 신호로부터 무인 비행 장치(200)의 움직임을 제어하기 위한 제어 정보를 획득할 수 있다.
모터(220) 및 프로펠러(230)는 무인 비행 장치(200)를 이동시키는 구동 수단이다. 모터(220) 및 프로펠러(230)는 하나 이상 구비될 수 있다. 모터(220)는 하우징에 연결되고, 프로세서(250)에 의해 제어될 수 있다. 프로펠러(230)는 모터(220)에 연결되고, 모터(220)가 작동함에 따라 회전하고 양력을 발생시켜 무인 비행 장치(200)를 이동시킬 수 있다.
메모리(240)는 무인 비행 장치(200) 운행과 관련한 적어도 하나의 프로그램, 어플리케이션 또는 데이터 등을 저장할 수 있다. 일 실시 예에 따르면, 메모리(240)는 획득된 VLC 신호에 포함된 제어 정보에 기반하여 무인 비행 장치(200)를 이동 또는 회전 시키는 동작 제어와 관련한 비행 어플리케이션을 저장할 수 있다. 상기 비행 어플리케이션은 예컨대, 전자 장치가 제공하는 수집된 제어 정보에서 자세 변경 정보, 전자 장치의 자세 또는 움직임에 대응하여 무인 비행 장치(200)를 이동시키는 제어 정보를 추출하는 명령어 셋, 또는 추출된 제어 정보에 따라 무인 비행 장치(200)를 이동시키는 명령어 셋 등을 포함할 수 있다.
프로세서(250)는 무인 비행 장치(200)의 제어와 관련한 신호를 처리할 수 있다. 일 실시 예에 따르면, 프로세서(250)는 하우징 내에 배치되고 VLC 입력 모듈(210) 및 모터(220)와 전기적으로 연결될 수 있다. 일 실시 예에 따르면, 프로세서(250)는 전자 장치와 무인 비행 장치(200) 간의 거리, 무인 비행 장치(200)로부터 전자 장치로 향하는 방향 및 제어 정보에 기반하여 결정되는 타겟 지점으로 무인 비행 장치(200)가 이동하도록 모터(220)를 제어할 수 있다. 프로세서(250)의 구체적인 동작은 도 6 내지 도 12d를 참조하여 아래에서 설명될 것이다.
다양한 실시 예에 따르면, 상술된 전자 장치(100)와 무인 비행 장치(200)는 전자 장치(100)와 무인 비행 장치(200)를 포함하는 시스템의 구성으로 동작할 수 있다.
이하에서는 도 3a 내지 도 4를 참조하여 다양한 실시 예에 따른 전자 장치 및 무인 비행 장치의 외관을 설명한다.
도 3a는 일 실시 예에 따른 전자 장치의 전면 및 후면을 나타내는 도면이다.
도 3a를 참조하면 전자 장치(300)는 전면에 디스플레이(310)를 포함하고, 후면에 카메라(320) 및 발광 소자(330)를 포함할 수 있다.
디스플레이(310)는 어플리케이션의 실행 화면을 출력할 수 있다. 일 실시 예에서, 디스플레이(310)는 터치 패널과 함께 구현(예: 터치 스크린 패널 등)될 수 있다. 이 경우, 사용자는 디스플레이(310)를 터치함으로써 사용자 입력을 발생시킬 수 있다. 다시 말해서, 디스플레이(310)가 터치 패널과 함께 구현되는 경우, 디스플레이(310)는 입력 장치와 출력 장치의 기능을 함께 수행하는 것으로 이해될 수 있다.
디스플레이(310)는 UI(user interface)(311, 312, 313, 316, 317) 전자 장치(300)의 카메라(320)가 획득한 영상이 표시되는 뷰 파인더(314), 무인 비행 장치(200)의 카메라가 획득한 영상이 표시되는 뷰파인더(315)를 표시할 수 있다. 일 실시 예에서, 디스플레이(310)가 표시하는 UI(311, 312, 313, 314, 316, 317)는 움직임 제어 UI(311), 자세 변경 UI(312, 313), 카메라 제어 UI(316) 및 무인 비행 장치(200)의 이착륙 제어 UI(317)를 포함할 수 있다. 각 UI의 기능은 아래에서 설명될 것이다.
카메라(320)는 전자 장치(300)의 후면에 배치될 수 있고, 영상을 획득할 수 있다.
발광 소자(330)는 전자 장치(300)의 후면에 배치될 수 있고, 프로세서(150)의 제어에 의해 VLC 신호를 출력하는 LED일 수 있다.
도 3b는 다른 실시 예에 따른 전자 장치(300)의 전면 및 측면을 나타낸다.
도 3b를 참조하면 전자 장치(300)는 입력 장치(341, 342, 343) 및 발광 소자(350)를 포함할 수 있다.
입력 장치는 움직임 제어 버튼(341), 움직임 제어 버튼의 위치 인식 센서(342) 및 모드 전환 버튼(343)를 포함할 수 있다.
움직임 제어 버튼(341)은 전자 장치(300)의 프로세서(150)의 제어 정보 생성을 트리거(trigger)하는 사용자 입력을 획득할 수 있다. 예를 들어, 움직임 제어 버튼(341)이 눌리는 사용자 입력이 발생하는 경우, 전자 장치(300)의 프로세서(150)는 상기 사용자 입력이 발생한 시점부터 감지된 전자 장치(300)의 방위각 및 복각 변화량에 기반하여 제어 정보를 생성할 수 있다.
움직임 제어 버튼의 위치 인식 센서(342)는 움직임 제어 버튼의 위치 인식 센서(342)의 길이 방향을 따라 움직일 수 있다.
움직임 제어 버튼의 위치 인식 센서(342)는 움직임 제어 버튼(341)의 위치를 인식할 수 있다. 전자 장치(300)의 프로세서(150)는 인식된 움직임 제어 버튼(341)의 위치에 기반하여 제어 정보를 생성할 수 있다.
모드 전환 버튼(343)은 전자 장치(300)의 프로세서(150)가 생성하는 제어 정보의 종류를 전환하는 사용자 입력을 획득할 수 있다. 예를 들어, 전자 장치(300)의 프로세서(150)의 제어 정보 생성 모드가 전자 장치(300)와 무인 비행 장치(200) 간의 거리 변경 모드일 때, 모드 전환 버튼(343)이 눌리는 사용자 입력이 발생하는 경우, 제어 정보 생성 모드는 카메라 움직임 제어 모드 또는 자세 변경 모드로 전환될 수 있다.
발광 소자(350)는 프로세서의 제어에 의해 VLC 신호를 출력하는 LED일 수 있다.
도 4는 일 실시 예에 따른 무인 비행 장치의 외관을 나타낸다.
도 4를 참조하면 무인 비행 장치(400)는 복수의 광 센서(410) 및 복수의 프로펠러(420)를 포함할 수 있다.
복수의 광 센서(410)는 무인 비행 장치(400)의 하우징 상에 배치될 수 있고, VLC 신호를 획득할 수 있다. 일 실시 예에서, 복수의 광 센서(410)는 무인 비행 장치(400)의 모든 방향의 광원이 출력한 VLC 신호를 획득할 수 있다. 복수의 광 센서(410)의 위치 및 복수의 광 센서(410) 각각이 획득한 VLC 신호의 크기는 무인 비행 장치(400)로부터 광원(예를 들어, 전자 장치)으로 향하는 방향을 결정하기 위해 사용될 수 있다. 무인 비행 장치(400)로부터 광원으로 향하는 방향을 결정하는 구체적인 방법은 아래에서 서술될 것이다.
복수의 프로펠러(420)는 하우징에 내장된 복수의 모터 각각에 연결되어 모터가 작동함에 따라 회전하고 양력을 발생시켜 무인 비행 장치(400)를 이동시킬 수 있다.
전자 장치와 무인 비행 장치 간의 동작을 설명하기에 앞서, 무인 비행 장치 명령 패킷의 구조를 설명한다.
도 5는 일 실시 예에 따른 무인 비행 장치 명령 패킷의 구조를 나타내는 도면이다. 도 5를 참조하면, 무인 비행 장치 명령 패킷은 프리엠블(preamble), SFD(start of frame delimiter), 헤더(header), 데이터(data) 및 FCS(frame check sequence) 등을 포함할 수 있다.
프리엠블은 각 패킷의 맨 앞에 위치하여 패킷의 동기를 위한 부분이다. SFD는 SFD 비트열부터 바이트 단위로 데이터가 구성되어 있다는 것을 알리는 부분이다.
헤더는 소스 어드레스(source address), 데스티네이션 어드레스(destination address), 타입(type) 및 사이즈(size) 등을 포함할 수 있다. 소스 어드레스는 패킷 발신자의 주소를 포함하고, 데스티네이션 어드레스트는 패킷 수신자의 주소를 포함할 수 있다. 타입은 패킷을 이용하여 수행하려는 동작의 타입을 포함하고, 사이즈는 패킷의 사이즈를 포함할 수 있다.
데이터는 무인 비행 장치를 제어하기 위한 제어 정보를 포함할 수 있다. 예를 들어, 데이터는 액션 타입(action type), 기울기(inclination), 방향(direction), 스로틀(throttle), 요우(yaw), 롤(roll) 및 피치(pitch) 등을 포함할 수 있다. 일 실시 예에서, 액션 타입은 팔로우(follow) 또는 무브(move) 등을 포함할 수 있다. 기울기는 무인 비행 장치의 기울기 정보를 포함하고 방향은 무인 비행 장치의 지자계 방향을 포함할 수 있다. 스로틀은 무인 비행 장치의 수직 방향 이동과 관련된 정보를 포함하고, 요우는 무인 비행 장치의 자세와 관련된 정보를 포함할 수 있다. 롤은 무인 비행 장치의 좌우 방향 이동과 관련된 정보를 포함하고, 피치는 무인 비행 장치의 전후 방향 이동과 관련된 정보를 포함할 수 있다.
FCS는 패킷에 문제가 있는지 판별하기 위한 부분이다.
일 실시 예에 따르면, 전자 장치(100)가 무인 비행 장치(200)를 제어하기 전, 전자 장치(100)와 무인 비행 장치(200)는 페어링(paring)될 수 있다.
도 6은 일 실시 예에 따른 전자 장치와 무인 비행 장치의 페어링 과정을 나타내는 흐름도이다.
도 6의 전자 장치(100) 및 무인 비행 장치(200)는 도 1 및 도 2를 참조하여 설명된 전자 장치(100) 및 무인 비행 장치(200)의 구성 전부 또는 일부를 포함할 수 있다.
도 6을 참조하면, 동작 601에서, 무인 비행 장치(200)는 페어링 대기 상태를 활성화할 수 있다. 일 실시 예에 따르면, 무인 비행 장치(200)의 전원이 On되거나, 무인 비행 장치(200)가 지정된 입력(예: 지정된 버튼 입력)을 획득하는 경우, 무인 비행 장치(200)는 페어링 대기 상태를 활성화 할 수 있다.
동작 602에서, 전자 장치(100)는 무인 비행 장치(200)에 페어링을 요청하는 사용자 입력을 수신할 수 있다. 일 실시 예에 따르면 전자 장치(100)는 어플리케이션을 실행하고, 실행된 어플리케이션을 이용하여 사용자 입력을 수신할 수 있다.
동작 603에서, 사용자 입력에 응답하여 전자 장치(100)는 무인 비행 장치(200)로 페어링을 요청하는 VLC 신호를 무인 비행 장치(200)로 출력할 수 있다.
페어링을 요청하는 VLC 신호는 무인 비행 장치 명령 패킷을 포함할 수 있다. 일 실시 예에서, VLC 신호에 포함된 무인 비행 장치 명령 패킷의 타입은 페어링 요청(pairing request)이고, 상기 무인 비행 장치 명령 패킷은 전자 장치(100)의 소스 어드레스(source address)를 포함할 수 있다.
동작 604에서, 무인 비행 장치(200)는 전자 장치(100)에 대응하는 소스 어드레스를 무인 비행 장치(200)의 메모리에 등록할 수 있다.
동작 605에서, 무인 비행 장치(200)는 페어링 완료 신호를 출력할 수 있다.
일 실시 예에서, 무인 비행 장치(200)는 발광 소자 또는 스피커를 더 포함할 수 있다. 무인 비행 장치(200)는 페어링의 완료를 알리기 위해 발광 소자를 이용하여 페어링 완료 광 신호(예를 들어, 기 설정된 패턴에 따라 점멸)를 출력하거나 스피커를 이용하여 페어링 완료 소리 신호(예를 들어, 기 설정된 사운드)를 출력할 수 있다.
동작 606에서, 전자 장치(100)는 페어링 완료 신호를 획득할 수 있다.
일 실시 예에서, 전자 장치(100)는 광 센서, 통신 장치 또는 마이크를 더 포함할 수 있다. 전자 장치(100)는 광 센서를 이용하여 무인 비행 장치(200)의 발광 소자가 출력한 광 신호, 통신 신호 또는 무인 비행 장치(200)의 스피커가 출력한 소리 신호를 획득할 수 있다. 전자 장치(100)는 페어링 완료 신호를 획득한 후, 무인 비행 장치(200)와의 페어링이 완료됨을 결정할 수 있다.
페어링이 완료되면 무인 비행 장치(200)는 페어링된 전자 장치(100)가 출력한 VLC 신호에 포함된 제어 정보에 의해서만 제어되도록 설정될 수 있다.
이하에서 도 3a 내지 4 및 도 7a 내지 도 12d를 참조하여 전자 장치가 무인 비행 장치를 제어하는 방법이 설명된다.
도 7a는 일 실시 예에 따른 전자 장치가 무인 비행 장치를 제어하는 과정을 나타내는 흐름도이다.
도 7a의 전자 장치(100) 및 무인 비행 장치(200)는 도 1 및 도 2를 참조하여 설명된 전자 장치(100) 및 무인 비행 장치(200)의 구성 전부 또는 일부를 포함할 수 있다.
도 7a를 참조하면, 동작 701에서, 전자 장치(100)의 센서(110)는 전자 장치(100)의 움직임을 감지할 수 있다.
일 실시 예에서, 전자 장치(100)의 움직임은 전자 장치(100)의 자세의 변화를 포함할 수 있다. 전자 장치(100)의 자세는 하우징의 일면이 향하는 방향을 의미할 수 있다. 지자기 센서(111)는 하우징의 일면이 향하는 방향의 방위각을 감지할 수 있다. 자이로 센서(112)는 하우징의 일면이 향하는 방향의 복각을 감지할 수 있고, 복각은 하우징의 기울임의 정도를 나타낼 수 있다.
일 실시 예에서, 전자 장치(100)의 자세의 변화는 전자 장치(100)의 회전을 의미할 수 있고, 전자 장치(100)의 회전은 하우징의 일면이 향하는 방향의 방위각 및 복각의 변화량으로 표현될 수 있다.
도 8은 일 실시 예에 따른 전자 장치(100)의 회전 방향을 나타내는 구면 좌표계를 나타낸다.
일 실시 예에서, 자이로 센서(112)는 회전축이 수직인 전자 장치(100) 회전 및 회전축이 수평인 전자 장치(100)의 회전을 감지할 수 있다. 자이로 센서(112)가 감지한 회전축이 수직인 전자 장치(100) 회전 정보는 도 8에 나타난 구면 좌표계의 세타(θ)값으로 표현될 수 있다. 자이로 센서(112)가 감지한 회전축이 수평인 전자 장치(100) 회전 정보는 도 8에 나타난 구면 좌표계의 파이(Φ)값으로 표현될 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 프로세서(150)는 감지된 전자 장치(100)의 움직임에 기반하여 전자 장치(100)의 회전각, 회전 각속도, 이동 속도 또는 이동 거리 등을 산출할 수 있다.
전자 장치(100)의 움직임은 전자 장치(100)의 위치 이동을 포함할 수 있다. 가속도 센서(113)는 전자 장치(100)의 위치 이동의 가속도를 감지할 수 있다.
동작 702에서, 전자 장치(100)의 프로세서(150)는 전자 장치(100)의 움직임에 기반하여 무인 비행 장치(200)의 움직임을 제어하기 위한 제어 정보를 생성할 수 있다.
일 실시 예에서, 전자 장치(100)의 프로세서(150)는 사용자 입력이 획득된 시점부터 감지된 전자 장치(100)의 움직임에 기반하여 제어 정보를 생성할 수 있다. 예를 들어, 전자 장치(100)의 프로세서(150)는 사용자 입력이 획득되기 전에 감지된 전자 장치(100)의 움직임을 사용하지 않고, 사용자 입력이 획득된 후부터 감지된 전자 장치(100)의 움직임을 사용하여 제어 정보를 생성할 수 있다. 다시 말해, 상기 사용자 입력은 제어 정보 생성을 트리거할 수 있다.
일 실시 예에 따르면, 상기 제어 정보 생성을 트리거하는 사용자 입력은 도 3a에 도시된 움직임 제어 UI(311)를 선택하는 사용자 입력일 수 있다.
다른 실시 예에 따르면, 상기 제어 정보 생성을 트리거하는 사용자 입력은 도 3b에 도시된 무인 비행 장치의 움직임 제어 버튼(341)이 눌리는 사용자 입력일 수 있다.
일 실시 예에서, 제어 정보는 전자 장치(100)로부터 무인 비행 장치(200)로 향하는 제1 방향 및 전자 장치(100)로부터 무인 비행 장치(200)가 이동할 타겟 지점으로 향하는 제2 방향 사이의 각도를 포함할 수 있다. 전자 장치(100)의 프로세서는 전자 장치(100)의 방위각 및 복각 변화에 기반하여 제1 방향 및 제2 방향 사이의 각도를 결정할 수 있다. 일 실시 예에 따르면, 제1 방향 및 제2 방향 사이의 각도는 전자 장치(100)의 방위각 및 복각 변화량에 비례할 수 있다. 예를 들어, 전자 장치(100)의 방위각 변화량이 10도이고, 복각 변화량이 20도인경우, 제1 방향 및 제2 방향 사이의 각도는 수평 방향으로 10도이고, 수직방향으로 20도일 수 있다.
일 실시 예에서, 제어 정보는 전자 장치(100)의 회전 각속도 또는 무인 비행 장치(200)의 이동 속도 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 무인 비행 장치(200)의 이동 속도는 전자 장치(100)의 회전 각속도에 기반하여 생성될 수 있다. 예를 들어, 무인 비행 장치(200)의 이동 속도는 전자 장치(100)의 회전 각속도에 비례할 수 있다.
일 실시 예에서, 전자 장치(100)와 타겟 지점 간의 거리는 전자 장치(100)와 무인 비행 장치(200) 간의 거리로 설정될 수 있고, 제어 정보는 전자 장치(100)와 타겟 지점 간의 거리 변경 정보를 포함할 수 있다. 예를 들어, 상기 전자 장치(100)와 타겟 지점 간의 거리 변경 정보는 상기 거리의 증가량 또는 감소량을 포함하고, 상기 거리는 전자 장치(100)와 무인 비행 장치(200) 간의 거리에 상기 증가량을 더한 거리 또는 상기 제1 거리에 상기 감소량을 뺀 거리일 수 있다. 일 실시 예에서, 거리 변경 정보는 전자 장치(100)와 타겟 지점 간의 절대적 거리를 포함할 수 있다.
일 실시 예에서, 동작 702 전, 전자 장치(100)의 입력 장치(120)는 전자 장치(100)와 타겟 지점간의 거리 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다.
예를 들어, 거리 변경 정보를 생성하기 위한 사용자 입력은 도 3a의 움직임 제어 UI(311)를 드래그하는 사용자 입력일 수 있다. 일 실시 예에 따르면, 전자 장치(100)의 프로세서(150)가 움직임 제어 UI(311)를 위 방향으로 드래그하는 사용자 입력을 획득하는 경우, 전자 장치(100)의 프로세서(150)는 전자 장치(100)와 타겟 지점 간의 거리를 증가시키는 거리 변경 정보를 생성할 수 있다. 일 실시 예에 따르면, 전자 장치(100)의 프로세서(150)가 움직임 제어 UI(311)를 아래 방향으로 드래그하는 사용자 입력을 획득하는 경우, 전자 장치(100)의 프로세서(150)는 전자 장치(100)와 타겟 지점 간의 거리를 감소시키는 거리 변경 정보를 생성할 수 있다.
일 실시 예에 따르면, 거리 변경 정보는 전자 장치(100)와 타겟 지점 간의 거리의 변위, 전자 장치(100)와 타겟 지점 간의 거리 변경 속도, 전자 장치(100)와 타겟 지점 간의 거리 변경 가속도를 포함할 수 있다.
일 실시 예에 따르면, 상기 변위, 거리 변경 속도 및 거리 변경 가속도는 움직임 제어 UI(311)가 드래그된 정도에 비례할 수 있다.
일 실시 예에서, 제어 정보는 무인 비행 장치(200)의 자세를 변경하기 위한 자세 변경 정보를 포함할 수 있다. 무인 비행 장치(200)의 자세는 무인 비행 장치(200)의 하우징의 일면이 향하는 방향을 의미할 수 있다.
일 실시 예에서, 동작 702 전, 전자 장치(100)의 입력 장치(120)는 무인 비행 장치(200)의 자세 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다.
예를 들어, 자세 변경 정보를 생성하기 위한 사용자 입력은 도 3a의 무인 비행 장치의 자세 변경 UI(312)의 원을 따라 드래그하는 사용자 입력일 수 있다. 일 실시 예에 따르면, 전자 장치(100)의 프로세서(150)가 무인 비행 장치의 자세 변경 UI(312)를 시계 방향으로 드래그하는 사용자 입력을 획득하는 경우, 전자 장치(100)의 프로세서(150)는 무인 비행 장치(200)가 시계 방향으로 회전하도록 하는 자세 변경 정보를 생성할 수 있다.
동작 703에서, 전자 장치(100)의 프로세서(150)는 VLC 출력 모듈(130)을 이용하여 제어 정보를 포함하는 VLC 신호를 무인 비행 장치로 출력할 수 있다. 무인 비행 장치(200)의 광 센서(211)는 VLC 신호를 전자 장치로부터 획득할 수 있다.
동작 704에서, 무인 비행 장치(200)의 프로세서(250)는 VLC 신호의 크기 및 제어 정보에 기반하여 결정되는 타겟 지점으로 무인 비행 장치(200)가 이동하도록 모터(220)를 제어할 수 있다.
일 실시 예에서, 무인 비행 장치(200)의 프로세서(250)는 획득된 VLC 신호의 크기에 기반하여 전자 장치(100)와 무인 비행 장치(200) 간의 거리인 제1 거리를 결정할 수 있다. 구체적으로, 무인 비행 장치(200)의 프로세서(250)는 획득된 VLC 신호의 논리 하이(logic high)에 해당하는 제1 VLC 신호의 크기 및 논리 로우(logic low)에 해당하는 제2 VLC 신호의 크기의 차이 값에 기반하여 제1 거리를 결정할 수 있다. VLC 신호는 광 신호이고, 빛의 세기는 거리의 제곱에 반비례 하므로, 제1 거리는 차이 값의 제곱근에 반비례할 수 있다.
일 실시 예에서, 무인 비행 장치(200)의 프로세서(250)는 제어 정보에 기반하여 전자 장치(100)와 무인 비행 장치(200)가 이동할 타겟 지점 간의 거리인 제2 거리를 결정할 수 있다. 일 실시 예에 따르면, 제어 정보는 제2 거리 값을 포함할 수 있다. 일 실시 예에 따르면, 제어 정보는 거리 변경 정보를 포함할 수 있다. 무인 비행 장치(200)의 프로세서(250)는 상기 제1 거리에 거리 변경 정보를 적용한 거리를 제2 거리로 결정할 수 있다.
일 실시 예에서, 무인 비행 장치(200)의 프로세서(250)는 복수의 광 센서(211)의 위치 및 상기 복수의 광 센서(211) 각각이 획득한 VLC 신호의 크기에 기반하여 무인 비행 장치(200)로부터 전자 장치(100)로 향하는 방향을 결정할 수 있다. 무인 비행 장치(200)의 프로세서(250)가 무인 비행 장치(200)로부터 전자 장치(100)로 향하는 방향을 결정하는 구체적인 방법은 아래에서 자세히 설명된다.
도 7b는 일 실시 예에 따른 전자 장치와 무인 비행 장치 간의 거리, 전자 장치와 타겟 지점간의 거리 및 무인 비행 장치로부터 전자 장치로 향하는 방향을 나타낸 도면이다.
일 실시 예에 따라, 도 7b를 참조하면, 무인 비행 장치(200)의 프로세서(250)는 제1 거리(D1), 제2 거리(D2) 및 무인 비행 장치(200)로부터 전자 장치(100)로 향하는 방향을 결정할 수 있고, 수신된 VLC 신호에 포함된 제어 정보에 기반하여 타겟 지점(t1)으로 무인 비행 장치(200)가 이동하도록 모터(220)를 제어할 수 있다.
이하에서 도 9 내지 도 10b를 참조하여 무인 비행 장치(200)의 프로세서(250)가 제1 거리를 결정하는 방법을 설명한다.
도 9는 일 실시 예에 따른 전자 장치가 출력하는 VLC 신호를 나타내는 그래프이다. 도 10a는 일 실시 예에 따른 무인 비행 장치(200)의 광 센서(211)가 획득하는 VLC 신호를 나타내는 그래프이다. 도 10b는 다른 실시 예에 따른 무인 비행 장치(200)의 광 센서(211)가 획득하는 VLC 신호를 나타내는 그래프이다.
도 9를 참조하면, 전자 장치의 VLC 출력 모듈(130)이 출력하는 VLC 신호의 논리 로우에 해당하는 VLC 신호의 크기(Voff)는 0일 수 있다.
도 10a 및 도 10b를 참조하면, 무인 비행 장치(200)의 광 센서(211)가 획득하는 VLC 신호의 논리 로우에 해당하는 VLC 신호의 세기(E0)는 0이 아니다. 일반적으로, 무인 비행 장치(200)는 주변 조명(예를 들어, 실내 조명, 태양광 조명 등)이 존재하는 장소에서 제어된다. 따라서 무인 비행 장치(200)의 광 센서(211)가 획득하는 VLC 신호의 논리 로우에 해당하는 VLC 신호의 세기(E0)는 주변 조명의 빛의 세기일 수 있다. 무인 비행 장치(200)의 광 센서(211)가 획득하는 VLC 신호의 논리 하이에 해당하는 VLC 신호의 세기는 E0보다 더 큰 E1 또는 E2이므로, 무인 비행 장치(200)의 프로세서(250)는 VLC 신호를 해석할 수 있다.
무인 비행 장치(200)의 광 센서(211)가 획득하는 VLC 신호의 세기는 주변 조명의 세기를 포함하므로, 무인 비행 장치(200)의 프로세서(250)는 VLC 신호의 논리 하이에 해당하는 제1 VLC 신호의 크기 및 논리 로우에 해당하는 제2 VLC 신호의 크기의 차이 값을 이용하여 제1 거리를 결정할 수 있다.
무인 비행 장치(200)의 광 센서(211)가 도 10a와 같이 VLC 신호를 획득하는 경우, 무인 비행 장치(200)의 프로세서(250)는 E1-E0 값을 이용하여 제1 거리를 결정할 수 있다. 무인 비행 장치(200)의 광 센서(211)가 도 10b와 같이 VLC 신호를 획득하는 경우, 무인 비행 장치(200)의 프로세서(250)는 E2-E0 값을 이용하여 제1 거리를 결정할 수 있다.
도 10a 및 도 10b를 참조하면 E1-E0 값보다 E2-E0 값이 작으므로, 무인 비행 장치(200)의 프로세서(250)가 도 10a의 실시 예에서 결정한 제1 거리는 도 10b의 실시 예에서 결정한 제1 거리보다 짧다.
일 실시 예에 따르면, 무인 비행 장치(200)의 프로세서(250)는 기계 학습에 의해 획득된 데이터를 이용하여 제1 거리를 결정할 수 있다. 기계 학습에 의해 획득된 데이터는 VLC 신호의 논리 하이에 해당하는 제1 VLC 신호의 크기 및 논리 로우에 해당하는 제2 VLC 신호의 크기의 차이 값에 대응하는 제1 거리를 포함하는 데이터를 포함할 수 있다.
일 실시 예에서, 제2 거리는 제1 거리와 동일할 수 있다. 일 실시 예에서, 제2 거리가 제1 거리와 동일한 경우, 무인 비행 장치(200)의 프로세서(250)는 전자 장치(100)와의 거리를 유지하며 이동할 수 있다. 다시 말해, 무인 비행 장치(200)는 전자 장치(100)를 중심으로 하고, 제1 거리를 반지름으로 하는 구면(spherical surface)을 따라 이동할 수 있다.
일 실시 예에서, 제2 거리는 상기 거리 변경 정보가 적용된 거리 일 수 있다.
일 실시 예에서, 무인 비행 장치(200)로부터 전자 장치(100)로 향하는 방향은 복수의 광 센서(211)의 위치 및 복수의 광 센서(211) 각각이 획득한 VLC 신호의 크기에 기반하여 결정될 수 있다.
도 4를 참조하여 무인 비행 장치(200)의 프로세서(250)가 무인 비행 장치로부터 전자 장치로 향하는 방향을 결정하는 방법을 설명한다.
일 실시 예에서, 무인 비행 장치(400)의 하우징의 전면에 배치된 광 센서(411, 412)는 무인 비행 장치(400)의 앞 방향의 광원이 출력한 VLC 신호를 획득할 수 있다. 하우징의 상면에 배치된 광 센서(413)는 무인 비행 장치(400)의 윗 방향의 광원이 출력한 VLC 신호를 획득할 수 있다. 하우징의 좌면에 배치된 광 센서(414)는 무인 비행 장치(400)의 왼 방향의 광원이 출력한 발생한 VLC 신호를 획득할 수 있다. 무인 비행 장치200)의 프로세서(250)는 VLC 신호를 획득한 광 센서(410)의 위치에 기반하여 무인 비행 장치(400)로부터 광원으로 향하는 방향을 결정할 수 있다.
일 실시 예에서, VLC 신호가 무인 비행 장치(400)의 왼쪽 윗 방향의 광원에 의해 출력되는 경우, 하우징의 상면에 배치된 광 센서(413) 및 하우징의 좌면에 배치된 광 센서(414) 모두가 VLC 신호를 획득할 수 있다. 무인 비행 장치(200)의 프로세서(250)는 VLC 신호를 획득한 광 센서(413, 414)의 위치 및 복수의 광 센서(413, 414) 각각이 획득된 VLC 신호의 크기에 기반하여 무인 비행 장치(400)로부터 광원으로 향하는 방향을 결정할 수 있다.
예를 들어, 무인 비행 장치(200)의 프로세서(250)는 하우징의 상면에 배치된 광 센서(413)에 의해 획득된 VLC 신호의 논리 하이에 해당하는 제1 VLC 신호의 크기 및 논리 로우에 해당하는 제2 VLC 신호의 크기의 제1 차이 값 및 하우징의 좌면에 배치된 광 센서(414)에 의해 획득된 VLC 신호의 논리 하이에 해당하는 제3 VLC 신호의 크기 및 논리 로우에 해당하는 제4 VLC 신호의 크기의 제2 차이 값을 이용하여 무인 비행 장치로부터 광원으로 향하는 방향을 결정할 수 있다.
일 실시 예에 따르면, 무인 비행 장치(200)의 프로세서(250)는 기계 학습에 의해 획득된 데이터를 이용하여 제1 거리를 결정할 수 있다. 기계 학습에 의해 획득된 데이터는 복수의 광 센서(211) 각각의 논리 하이 VLC 신호 크기 및 논리 로우 VLC 신호 크기의 차이 값의 비율에 대응하는 무인 비행 장치(200)로부터 광원으로 향하는 방향을 포함하는 데이터를 포함할 수 있다.
일 실시 예에서, 제어 정보는 전자 장치(100)의 회전 각속도 또는 무인 비행 장치(200)의 이동 속도 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 무인 비행 장치(200)의 프로세서(250)는 회전 각속도에 비례하는 속도로 이동할 수 있다. 일 실시 예에 따르면, 무인 비행 장치(200)는 제어 정보에 포함된 무인 비행 장치(200)의 이동 속도로 이동할 수 있다.
이하에서는 도 11a 내지 도 11d를 참조하여 무인 비행 장치가 상기 제1 거리, 상기 제2 거리, 상기 무인 비행 장치로부터 상기 전자 장치로 향하는 방향 및 상기 제어 정보에 기반하여 움직이는 실시 예를 설명한다.
도 11a는 일 실시 예에 따른 전자 장치의 방위각 변화에 따라 무인 비행 장치가 이동하는 것을 나타내는 도면이다.
도 11a를 참조하면, 일 실시 예에서, 전자 장치(1110)는 P0 지점에 위치하고, 무인 비행 장치(1120)는 P1 지점에 위치할 수 있다. 전자 장치(1110)의 일면은 P1 지점을 향할 수 있다. 이후, 전자 장치(1110)는 수평 방향으로 회전하여 전자 장치(1110)의 일면은 P2 지점을 향할 수 있다.
전자 장치(1110)의 센서(110)는 전자 장치(1110)의 방위각(1141)을 감지하고, 전자 장치(1110)의 프로세서(150)는 감지된 방위각(1141) 변화량에 기반하여 제어 정보를 생성할 수 있다. 전자 장치(1110)의 프로세서(150)가 생성하는 제어 정보는 전자 장치(1110)의 위치인 P0 지점으로부터 무인 비행 장치(1120)의 위치인 P1 지점으로 향하는 제1 방향(1131) 및 전자 장치(1110)로부터 무인 비행 장치(1120)가 이동할 타겟 지점(P2)으로 향하는 제2 방향(1132) 사이의 각도를 포함할 수 있다.
전자 장치(1110)의 VLC 출력 모듈(130)은 생성된 제어 정보를 포함하는 VLC 신호를 무인 비행 장치(1120)로 출력할 수 있다.
무인 비행 장치(1120)의 프로세서(250)는 VLC 신호의 논리 하이에 해당하는 세기 및 논리 로우에 해당하는 세기의 차이 값에 기반하여 무인 비행 장치(1120)의 위치인 P1 지점과 전자 장치(1110)의 P0 지점 간의 제1 거리를 결정할 수 있다. 타겟 지점인 P2 지점과 전자 장치(1110)의 P0 지점 간의 제2 거리는 제1 거리와 동일할 수 있다. 무인 비행 장치(1120)의 프로세서(250)는 복수의 광 센서의 위치 및 복수의 광 센서 각각이 획득한 VLC 신호의 논리 하이에 해당하는 세기 및 논리 로우에 해당하는 세기의 차이 값의 비율에 기반하여 무인 비행 장치(1120)로부터 전자 장치(1110)의 위치인 P1 지점으로 향하는 방향을 결정할 수 있다.
무인 비행 장치(1120)의 프로세서(250)는 제1 거리, 제2 거리, 무인 비행 장치(1120)로부터 전자 장치(1110)로 향하는 방향 및 제1 방향(1131)과 제2 방향(1132) 사이의 각도에 기반하여 타겟 지점(P2)을 결정할 수 있다. 무인 비행 장치(1120)의 프로세서(250)는 무인 비행 장치(1120)가 상기 타겟 지점(P2)으로 이동하도록 모터(220)를 제어할 수 있다. 일 실시 예에 따라, 무인 비행 장치(1120)의 프로세서(250)는 무인 비행 장치(1120)와 전자 장치(1110) 간의 거리를 유지하며 이동하도록 모터(220)를 제어할 수 있다.
도 11b는 일 실시 예에 따른 전자 장치(1110)의 복각(1142) 변화에 따라 무인 비행 장치(1120)가 이동하는 것을 나타내는 도면이다.
도 11b를 참조하면, 일 실시 예에서, 전자 장치(1110)는 P0 지점에 위치하고, 무인 비행 장치(1120)는 P1 지점에 위치할 수 있다. 전자 장치(1110)의 일면은 P1 지점을 향할 수 있다. 이후, 전자 장치(1110)는 수직 방향으로 회전하여 전자 장치(1110)의 일면은 P2 지점을 향할 수 있다.
전자 장치(1110)의 센서(110)는 전자 장치(1110)의 복각(1142)을 감지하고, 전자 장치(1110)의 프로세서(150)는 감지된 복각(1142) 변화량에 기반하여 제어 정보를 생성할 수 있다. 전자 장치(1110)의 프로세서(150)가 생성하는 제어 정보는 전자 장치(1110)의 위치인 P0 지점으로부터 무인 비행 장치(1120)의 위치인 P1 지점으로 향하는 제1 방향(1131) 및 전자 장치(1110)로부터 무인 비행 장치(1120)가 이동할 타겟 지점(P2)으로 향하는 제2 방향(1132) 사이의 각도를 포함할 수 있다.
전자 장치(1110)의 VLC 출력 모듈(130)은 생성된 제어 정보를 포함하는 VLC 신호를 무인 비행 장치(1120)로 출력할 수 있다.
무인 비행 장치(1120)의 프로세서(250)는 VLC 신호의 논리 하이에 해당하는 세기 및 논리 로우에 해당하는 세기의 차이 값에 기반하여 무인 비행 장치(1120)의 위치인 P1 지점과 전자 장치(1110)의 P0 지점 간의 제1 거리를 결정할 수 있다. 타겟 지점인 P2 지점과 전자 장치(1110)의 P0 지점 간의 제2 거리는 제1 거리와 동일할 수 있다. 무인 비행 장치(1120)의 프로세서(250)는 복수의 광 센서의 위치 및 복수의 광 센서 각각이 획득한 VLC 신호의 논리 하이에 해당하는 세기 및 논리 로우에 해당하는 세기의 차이 값의 비율에 기반하여 무인 비행 장치(1120)로부터 전자 장치(1110)의 위치인 P1 지점으로 향하는 방향을 결정할 수 있다.
무인 비행 장치(1120)의 프로세서(250)는 제1 거리, 제2 거리, 무인 비행 장치(1120)로부터 전자 장치(1110)로 향하는 방향 및 제1 방향(1131)과 제2 방향(1132) 사이의 각도에 기반하여 타겟 지점(P2)을 결정할 수 있다. 무인 비행 장치(1120)의 프로세서(250)는 무인 비행 장치(1120)가 상기 타겟 지점(P2)으로 이동하도록 모터(220)를 제어할 수 있다. 일 실시 예에 따라, 무인 비행 장치(1120)의 프로세서(250)는 무인 비행 장치(1120)와 전자 장치(1110) 간의 거리를 유지하며 이동하도록 모터(220)를 제어할 수 있다.
다양한 실시 예에 따라, 전자 장치(1110)의 센서(110)는 전자 장치(1110)의 방위각(1141) 및 복각(1142)을 감지하고, 전자 장치(1110)의 프로세서(150)는 감지된 방위각(1141) 및 복각(1142) 변화량에 기반하여 제어 정보를 생성할 수 있다. 무인 비행 장치(1120)의 광 센서(211)는 제어 정보를 포함하는 VLC 신호를 획득할 수 있다. 무인 비행 장치(1120)의 프로세서(250)는 제어 정보에 기반하여 결정되는 타겟 지점(P2)으로 이동하도록 모터(220)를 제어할 수 있다.
도 11c는 일 실시 예에 따른 거리 변경 정보를 생성하기 위한 사용자 입력에 따라 무인 비행 장치(1120)가 이동하는 것을 나타내는 도면이다.
도 11c를 참조하면, 일 실시 예에서, 전자 장치(1110)는 P0 지점에 위치하고, 무인 비행 장치(1120)는 P1 지점에 위치할 수 있다.
전자 장치(1110)의 입력 장치(120)는 전자 장치(1110)(P0)와 타겟 지점(P2)간의 거리 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다. 예를 들어, 도 11c에 도시된 것과 같이 입력 장치(120)는 움직임 제어 UI(1111)를 위 방향으로 드래그하는 사용자 입력을 획득할 수 있다. 상기 사용자 입력에 기반하여 전자 장치(1110)의 프로세서(150)는 전자 장치(1110)(P0)와 타겟 지점(P2)간의 거리를 증가시키는 거리 변경 정보를 생성할 수 있다. 거리 변경 정보는 전자 장치(1110)(P0)와 타겟 지점(P2)간의 거리의 변경량(D2-D1), 변경 속도 또는 변경 가속도 중 적어도 하나를 포함할 수 있다.
일 실시 예에서, 거리의 변경량, 변경 속도 또는 변경 가속도는 움직임 제어 UI(1111)가 드래그된 정도에 비례할 수 있다. 예를 들어, 움직임 제어 UI(1111)가 드래그된 정도가 높을수록, 전자 장치(1110)(P0)와 타겟 지점(P2)간의 거리의 변경량은 클 수 있다.
전자 장치(1110)의 VLC 출력 모듈(130)이 출력하는 VLC 신호는 상기 거리 변경 정보를 포함할 수 있다. 무인 비행 장치(1120)의 프로세서(250)는 무인 비행 장치(1120)의 위치와 전자 장치(1110)의 위치 사이의 제1 거리(D1)에 상기 거리 변경 정보를 적용하여 타겟 지점(P2)과 전자 장치(1110) (P0)의 위치 사이의 제2 거리(D2)를 결정할 수 있다.
무인 비행 장치(1120)의 프로세서(250)는 제2 거리에 기반하여 결정되는 타겟 지점(P2)으로 이동하도록 모터(220)를 제어할 수 있고, 무인 비행 장치(1120)는 P2 지점으로 이동할 수 있다.
일 실시 예에서, 거리 변경 정보는 전자 장치(1110)(P0)와 타겟 지점(P2)간의 절대적 거리를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(1110)의 입력 장치(120)는 전자 장치(1110)(P0)와 타겟 지점(P2)간의 절대적 거리에 대한 입력을 획득할 수 있다. 전자 장치(1110)의 VLC 출력 모듈(130)은 상기 거리 변경 정보가 포함된 VLC 신호를 무인 비행 장치(1120)로 출력할 수 있다.
일 실시 예에 따르면, 무인 비행 장치(1120)의 프로세서(250)는 무인 비행 장치(1120)와 전자 장치(1110)의 간의 거리가 상기 절대적 거리가 되도록 하는 타겟 지점(P2)으로 결정할 수 있다. 무인 비행 장치(1120)의 프로세서(250)는 결정된 타겟 지점(P2)으로 이동하도록 모터(220)를 제어할 수 있고, 무인 비행 장치(1120)는 P2 지점으로 이동할 수 있다. 일 실시 예에서, 무인 비행 장치(1120)는 기계 학습을 통해 획득된 VLC 신호 크기에 대한 절대적 거리 데이터를 이용하여 타겟 지점(P2)으로 이동할 수 있다.
도 11d는 일 실시 예에 따른 자세 변경 정보를 생성하기 위한 사용자 입력에 따라 무인 비행 장치(1120)가 자세를 변경하는 것을 나타내는 도면이다.
도 11d를 참조하면, 전자 장치(1110)의 입력 장치(120)는 전자 장치(1110)의 자세 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다. 예를 들어, 도 11d에 도시된 것과 같이 입력 장치는 무인 비행 장치(1120)의 자세 변경 UI(1111)를 시계 방향으로 드래그하는 사용자 입력을 획득할 수 있다. 상기 사용자 입력에 기반하여 전자 장치(1110)의 프로세서(150)는 무인 비행 장치(1120)가 시계 방향으로 회전하도록 하는 자세 변경 정보를 생성할 수 있다. 상기 자세 변경 정보는 무인 비행 장치(1120)의 하우징의 일면이 향하는 방향의 각도 변화량을 포함할 수 있다.
전자 장치(1110)의 VLC 출력 모듈(130)이 출력하는 VLC 신호는 상기 자세 변경 정보를 포함할 수 있다.
무인 비행 장치(1120)의 프로세서(250)는 프로세서는 자세 변경 정보에 더 기반하여 하우징이 시계 방향으로 회전하도록 모터(220)를 제어할 수 있다.
다양한 실시 예에 따라, 도 11a 내지 도 11d를 참조하여 설명된 실시 예들은 각각이 독립적으로 실시될 수 있을 뿐만 아니라, 복합적으로 실시될 수 있다.
예를 들어, 전자장치(1110)는 방위각 및 복각을 감지하면서 거리 변경 정보 및 자세 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다. 전자 장치(1110)의 프로세서(150)는 감지된 방위각과 복각 및 획득된 사용자 입력에 기반하여 제어 정보를 생성하고, 생성된 제어 정보를 포함하는 VLC 신호를 무인 비행 장치(1120)로 출력할 수 있다. 무인 비행 장치(1120)는 획득한 VLC 신호에 포함된 제어 정보에 기반하여, 전자 장치(1110)와의 거리 및 무인 비행 장치(1120)의 자세를 변경하며 대각선 방향으로 이동할 수 있다.
다양한 실시 예에 따라, 도 12a 내지 도 12d를 참조하여 사용자 입력에 따른 전자 장치 및 무인 비행 장치의 동작을 설명한다.
도 12a 내지 도 12d의 디스플레이가 표시하는 UI(1211, 1212, 1215) 및 뷰 파인더(1213, 1214) 각각은 도 3a의 디스플레이가 표시하는 UI(317, 313, 316) 및 뷰 파인더(315, 314)에 대응될 수 있다.
도 12a는 일 실시 예에 따른 사용자 입력에 의해 무인 비행 장치가 이륙하는 것을 나타내는 도면이다.
일 실시 예에서, 전자 장치(1210)는 도 12a에 도시된 이착륙 제어 UI(1211)를 선택하는 사용자 입력을 획득할 수 있다. 상기 사용자 입력 획득에 응답하여, 전자 장치(1210)의 프로세서(150)는 이륙 명령을 포함하는 제어 정보를 생성할 수 있다. 전자 장치(1210)의 프로세서(150)는 VLC 출력 모듈(140)을 통해 상기 제어 정보를 포함하는 VLC 신호를 무인 비행 장치(1220)로 출력할 수 있다. 무인 비행 장치(1220)는 획득된 VLC 신호에 포함된 제어 정보에 기반하여 기 설정된 높이로 이륙할 수 있다. 일 실시 예에 따르면, 상기 사용자 입력 획득에 응답하여, 전자 장치(1210)의 프로세서(150)는 VLC 출력 모듈(140)을 통해 무인 비행 장치(1220)와의 페어링 요청 신호를 무인 비행 장치(1220)로 출력할 수 있다.
도 12b는 일 실시 예에 따른 사용자 입력에 의해 무인 비행 장치(1220)의 일면이 전자 장치(1210)를 향하도록 회전하는 것을 나타내는 도면이다.
일 실시 예에서, 전자 장치(1210)는 도 12b에 도시된 자세 변경 UI(1212)를 선택하는 사용자 입력을 획득할 수 있다. 상기 사용자 입력 획득에 응답하여, 전자 장치(1210)의 프로세서(150)는 무인 비행 장치(1220)의 카메라가 전자 장치(1210)를 향하도록 자세를 변경시키는 명령을 포함하는 제어 정보를 생성할 수 있다. 전자 장치(1210)의 프로세서(150)는 VLC 출력 모듈(140)을 통해 상기 제어 정보를 포함하는 VLC 신호를 무인 비행 장치(1220)로 출력할 수 있다. 무인 비행 장치(1220)는 획득된 VLC 신호에 포함된 제어 정보 및 무인 비행 장치(1220)로부터 전자 장치(1210)로 향하는 방향에 기반하여 카메라가 전자 장치(1210)를 향하도록 자세를 변경할 수 있다.
도 12c는 일 실시 예에 따른 사용자 입력에 의해 뷰 파인더가 표시하는 영상이 전환되는 것을 나타내는 도면이다.
일 실시 예에서, 전자 장치(1210)는 도 12c에 도시된 2개의 뷰 파인더(1213, 1214) 중 작은 뷰 파인더(1213)를 선택하는 사용자 입력을 획득할 수 있다. 상기 사용자 입력 획득에 응답하여, 전자 장치(1210)는 2개의 뷰 파인더가 표시하는 영상을 전환할 수 있다. 예를 들어, 큰 뷰 파인더(1214)에 전자 장치(1210)의 카메라가 획득하는 영상이 표시되는 중, 작은 뷰 파인더(1213)를 선택하는 사용자 입력이 획득될 수 있다. 사용자 입력에 응답하여, 전자 장치(1210)는 큰 뷰 파인더(1214)는 무인 비행 장치(1220)의 카메라가 획득하는 영상이 표시하고, 작은 뷰 파인더(1213)는 전자 장치(1210)의 카메라가 획득하는 영상을 표시할 수 있다.
도 12d는 일 실시 예에 따른 사용자 입력에 의해 전자 장치(1210)의 촬영모드가 실행된 것을 나타내는 도면이다.
일 실시 예에서, 전자 장치(1210)는 도 12d에 도시된 카메라 제어 UI(1215)를 선택하는 사용자 입력을 획득할 수 있다. 상기 사용자 입력 획득에 응답하여, 전자 장치(1210)는 전자 장치(1210)의 카메라 또는 무인 비행 장치(1220)의 카메라의 정지 영상 또는 동영상을 획득하기 위한 UI를 표시할 수 있다.
이하에서는 도 13 내지 도 18을 참조하여 다양한 실시 예에 따른 전자 장치가 무인 비행 장치의 움직임을 제어하고, 무인 비행 장치의 카메라를 제어하는 방법을 설명한다.
도 13은 일 실시 예에 따른 전자 장치의 블록도를 나타낸다.
일 실시 예에 따르면, 전자 장치(1300)는 하우징을 포함하고, 통신 회로(1310), 센서(1320), 입력 장치(1330), 메모리(1340) 및 프로세서(1350)를 포함할 수 있다.
통신 회로(1310)는, 무인 비행 장치(1400)와의 통신을 지원하기 위해 다양한 모듈을 포함할 수 있다. 예를 들어, 통신 회로(1310)는 2G/3G, LTE, LTE-A(LTE-Advanced), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(wireless broadband)와 같은 셀룰러 통신을 지원하기 위한 셀룰러 모듈(cellular module)을 포함할 수 있다. 또한 통신 회로(1310)는 Wi-Fi와 같이 AP(access point)를 통한 인터넷 액세스를 지원하기 위한 Wi-Fi 모듈을 포함할 수 있다. 또한 통신 회로(1310)는 무인 비행 장치(1400)와 통신을 위한 블루투스(bluetooth) 모듈을 포함할 수 있다. 위치 정보를 획득하기 위한 GPS(global positioning system) 모듈을 포함할 수 있다.
센서(1320)는 전자 장치(1300)의 자세 및 움직임을 감지할 수 있고, 지자기 센서(1321), 자이로 센서(1322) 또는 가속도 센서(1323) 중 적어도 하나를 포함할 수 있다.
입력 장치(1330)는 전자 장치(1300)의 사용자 입력에 따른 입력 신호를 생성할 수 있다.
메모리(1340)는 전자 장치(1300) 운용과 관련한 적어도 하나의 어플리케이션 또는 데이터를 저장할 수 있다. 일 실시 예에 따르면, 메모리(1340)는 무인 비행 장치(1400) 운행과 관련한 운행 어플리케이션 프로그램을 저장할 수 있다. 다양한 실시 예에 따르면, 상기 어플리케이션 프로그램은 무인 비행 장치(1400)의 자세 변경 정보, 무인 비행 장치(1400)를 이동시키는 제어 정보를 무인 비행 장치(1400)로 전송하는 명령어 셋을 포함할 수 있다.
프로세서(1350)는 전자 장치(1300)의 제어와 관련한 신호의 처리 또는 전달을 처리할 수 있다. 일 실시 예에 따르면, 프로세서(1350)는 하우징 내에 배치되고 통신 회로(1310), 센서(1320), 입력 장치(1330) 및 메모리(1340)와 전기적으로 연결될 수 있다. 일 실시 예에 따르면, 프로세서(1350)는 감지된 전자 장치(1300)의 자세 및 움직임 중 적어도 하나, 전자 장치(1300)의 위치 및 무인 비행 장치(1400)의 위치에 기반하여 무인 비행 장치(1400)가 이동할 타겟 지점을 결정할 수 있다. 프로세서(1350)는 무인 비행 장치(1400)가 타겟 지점으로 이동하도록 하는 제어 정보를 생성하고, 통신 회로(1310)를 이용하여 제어 정보를 무인 비행 장치(1400)로 전송할 수 있다. 프로세서(1350)의 구체적인 동작은 도 15 내지 도 17b를 참조하여 아래에서 설명될 것이다.
도 14는 일 실시 예에 따른 무인 비행 장치의 블록도를 나타낸다.
일 실시 예에 따르면, 무인 비행 장치(1400)는 하우징을 포함하고, 통신 회로(1410), 모터(1420), 프로펠러(1430), 메모리(1440), 카메라(1450) 모듈 및 프로세서(1460)를 포함할 수 있다.
통신 회로(1410)는, 전자 장치와의 통신을 지원하기 위해 다양한 모듈을 포함할 수 있다. 구체적으로, 상술된 전자 장치가 포함하는 각종 모듈을 포함할 수 있다.
모터(1420) 및 프로펠러(1430)는 무인 비행 장치(1400)를 이동시키는 구동 수단이다. 모터(1420) 및 프로펠러(1430)는 하나 이상 구비될 수 있다. 모터(1420)는 하우징에 연결되고, 프로세서(1460)에 의해 제어될 수 있다. 프로펠러(1430)는 모터(1420)에 연결되고, 모터(1420)가 작동함에 따라 회전하고 양력을 발생시켜 무인 비행 장치(1400)를 이동시킬 수 있다.
메모리(1440)는 무인 비행 장치(1400) 운행과 관련한 적어도 하나의 프로그램, 어플리케이션 또는 데이터 등을 저장할 수 있다. 일 실시 예에 따르면, 메모리(1440)는 통신 회로(1410)를 통해 수신한 제어 정보에 기반하여 무인 비행 장치(1400)를 이동 또는 회전 시키는 동작 제어와 관련한 비행 어플리케이션을 저장할 수 있다. 상기 비행 어플리케이션은 예컨대, 전자 장치가 제공하는 수집된 제어 정보에서 자세 변경 정보, 전자 장치의 자세 또는 움직임에 대응하여 무인 비행 장치(1400)를 이동시키는 제어 정보를 추출하는 명령어 셋, 또는 추출된 제어 정보에 따라 무인 비행 장치(1400)를 이동시키는 명령어 셋 등을 포함할 수 있다.
카메라 모듈(1450)은 하우징에 연결되어 영상을 획득할 수 있다. 카메라 모듈(1450)은 프로세서(1460)로부터 카메라 구동 신호를 수신하여 카메라를 제어할 수 있다. 카메라 모듈(1450)은 예컨대, 촬영 시작 신호, 일시 정지 신호, 또는 정지 신호를 제어부로부터 수신하여 카메라를 제어할 수 있다. 카메라 모듈(1450)은 프레임 및 프레임 구동부를 포함할 수 있다. 카메라의 프레임 구동부는 카메라가 설치된 프레임의 방향 전환 등을 제어할 수 있다. 프레임 구동부는 예컨대, 카메라 프레임의 피치 업/다운 신호, 또는 카메라 프레임의 롤 레프트/라이트 신호 또는 카메라 프레임의 회전 신호 등을 프로세서(1460)로부터 수신하여 각각의 모터를 회전시킴으로써 프레임의 방향을 전환시킬 수 있다.
프로세서(1460)는 무인 비행 장치(1400)의 제어와 관련한 신호를 처리할 수 있다. 일 실시 예에 따르면, 프로세서(1460)는 하우징 내에 배치되고 통신 회로(1410), 모터(1420), 메모리(1440) 및 카메라 모듈(1450)과 전기적으로 연결될 수 있다. 일 실시 예에 따르면, 프로세서(1460)는 제어 정보에 기반하여 타겟 지점으로 무인 비행 장치(1400)가 이동하도록 모터(1420)를 제어할 수 있다. 프로세서(1460)의 구체적인 동작은 도 15 내지 도 17b를 참조하여 아래에서 설명될 것이다.
도 15는 일 실시 예에 따른 전자 장치가 무인 비행 장치를 제어하는 과정을 나타내는 흐름도이다.
도 15의 전자 장치(1300) 및 무인 비행 장치(1400)는 도 13 및 도 14를 참조하여 설명된 전자 장치(1300) 및 무인 비행 장치(1400)의 구성 전부 또는 일부를 포함할 수 있다.
동작 1501에서, 전자 장치(1300)는 GPS 모듈을 이용하여 전자 장치(1300)의 위치 정보를 획득할 수 있다.
동작 1502에서, 무인 비행 장치(1400)는 GPS 모듈을 이용하여 무인 비행 장치(1400)의 위치 정보를 획득할 수 있다.
동작 1503에서, 무인 비행 장치(1400)는 통신 회로(1410)를 이용하여 획득된 무인 비행 장치(1400)의 위치 정보를 전자 장치(1300)로 전송할 수 있다.
동작 1504에서, 전자 장치(1300)의 센서(1310)는 전자 장치(1300)의 자세 및 움직임을 감지할 수 있다.
일 실시 예에서, 전자 장치(1300)의 자세는 하우징의 일면이 향하는 방향을 의미할 수 있다. 지자기 센서(1321)는 하우징의 일면이 향하는 방향의 방위각을 감지할 수 있다. 자이로 센서(1322)는 하우징의 일면이 향하는 방향의 복각을 감지할 수 있고, 복각은 하우징의 기울임의 정도를 나타낼 수 있다. 일 실시 예에서, 전자 장치(1300)의 자세의 변화는 전자 장치(1300)의 회전을 의미할 수 있고, 전자 장치(1300)의 회전은 하우징의 일면이 향하는 방향의 방위각 및 복각의 변화량으로 표현될 수 있다.
일 실시 예에서, 전자 장치(1300)의 움직임은 전자 장치(1300)의 자세의 변화를 포함할 수 있다.
동작 1505에서, 전자 장치(1300)의 프로세서는 전자 장치(1300)의 자세 및 움직임중 적어도 하나, 전자 장치(1300)의 위치 및 무인 비행 장치(1400)의 위치에 기반하여 무인 비행 장치(1400)가 이동할 타겟 지점을 결정할 수 있다.
일 실시 예에서, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)의 일면이 향하는 방향의 방위각에 기반하여 타겟 지점의 수평 방향 위치를 결정할 수 있다. 타겟 지점은 전자 장치(1300)의 일면이 향하는 방향의 수평 방향에 위치할 수 있다. 상기 타겟 지점과 전자 장치(1300)와의 거리는 전자 장치(1300)와 및 무인 비행 장치(1400) 사이의 거리일 수 있다.
일 실시 예에서, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)의 일면이 향하는 방향의 복각에 기반하여 타겟 지점의 수직 방향 위치를 결정할 수 있다. 타겟 지점은 전자 장치(1300)의 일면이 향하는 방향의 수직 방향에 위치할 수 있다. 상기 타겟 지점과 전자 장치(1300)와의 거리는 전자 장치(1300)와 및 무인 비행 장치(1400) 사이의 거리일 수 있다.
일 실시 예에서, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)의 일면이 향하는 방향의 복각에 기반하여 타겟 지점을 결정할 수 있다. 예를 들어, 타겟 지점의 높이는 전자 장치(1300)의 일면이 향하는 방향의 복각에 비례할 수 있다.
다양한 실시 예에서, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)의 일면이 향하는 방향의 복각에 기반하여 무인 비행 장치(1400)의 수직 상승 속도를 결정할 수 있다. 예를 들어, 전자 장치(1300)의 일면이 향하는 방향의 복각이 클수록 무인 비행 장치(1400)의 수직 상승 속도가 클 수 있다. 일 실시 예에서, 전자 장치(1300)가 기울어진 상태를 유지하는 경우, 무인 비행 장치(1400)는 계속 상승할 수 있다.
일 실시 예에서, 제어 정보는 전자 장치(1300)와 무인 비행 장치(1400) 간의 거리 변경 정보를 포함할 수 있다.
일 실시 예에서, 동작 1505 전, 전자 장치(1300)의 입력 장치(1330)는 전자 장치(1300)와 무인 비행 장치(1400)간의 거리 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다. 예를 들어, 거리 변경 정보를 생성하기 위한 사용자 입력은 도 3a의 움직임 제어 UI(311)를 드래그하는 사용자 입력일 수 있다. 일 실시 예에 따르면, 전자 장치(1300)의 프로세서(1350)가 움직임 제어 UI(311)를 위 방향으로 드래그하는 사용자 입력을 획득하는 경우, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)와 무인 비행 장치(1400) 간의 거리를 증가시키는 거리 변경 정보를 생성할 수 있다.
일 실시 예에 따르면, 전자 장치(1300)의 프로세서(1350)가 움직임 제어 UI(311)를 아래 방향으로 드래그하는 사용자 입력을 획득하는 경우, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)와 무인 비행 장치(1400) 간의 거리를 감소시키는 거리 변경 정보를 생성할 수 있다.
일 실시 예에 따르면, 거리 변경 정보는 전자 장치(1300)와 무인 비행 장치(1400) 지점 간의 거리의 변위, 전자 장치(1300)와 무인 비행 장치(1400) 간의 거리 변경 속도, 전자 장치(1300)와 무인 비행 장치(1400) 간의 거리 변경 가속도를 포함할 수 있다.
일 실시 예에 따르면, 상기 변위, 거리 변경 속도 및 거리 변경 가속도는 움직임 제어 UI(311)가 드래그된 정도에 비례할 수 있다.
다양한 실시 예에 따라, 상술된 타겟 지점 결정 방법, 무인 비행 장치(1400)의 수직 상승 속도 결정 방법 및 전자 장치(1300)와 무인 비행 장치(1400) 간의 거리 변경 정보 생성 방법은 조합되어 사용될 수 있다.
일 실시 예에서, 전자 장치(1300)의 프로세서(1350)는 제어 정보 생성을 트리거하는 사용자 입력이 획득된 경우, 제어 정보를 생성할 수 있다.
일 실시 예에 따르면, 제어 정보 생성을 트리거하는 사용자 입력은 도 3a에 도시된 움직임 제어 UI(311)를 선택하는 사용자 입력일 수 있다.
일 실시 예에 따르면, 상기 제어 정보 생성을 트리거하는 사용자 입력은 도 3b에 도시된 무인 비행 장치(1400)의 움직임 제어 버튼(341)이 눌리는 사용자 입력일 수 있다.
일 실시 예에 따르면, 제어 정보 생성을 트리거하는 사용자 입력은 도 3a에 도시된 움직임 제어 UI(311)를 선택하는 사용자 입력 또는 도 3b에 도시된 무인 비행 장치(1400)의 움직임 제어 버튼(341)이 눌리는 사용자 입력이 일정시간 유지(hold)되는 입력일 수 있다.
예를 들어, 전자 장치(1300)의 프로세서(1350)는 제어 정보 생성을 트리거하는 사용자 입력이 획득되는 중의 전자 장치(1300)의 자세 및 움직임 중 적어도 하나를 이용하여 타겟 지점을 결정할 수 있다.
다양한 실시 예에 따라, 획득되는 입력의 종류에 따라 상술된 무인 비행 장치(1400)를 제어하는 방법이 결정될 수 있다. 예를 들어, 움직임 제어 UI(311)를 선택하는 사용자 입력이 획득되는 경우, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)의 일면이 향하는 방향의 복각에 기반하여 무인 비행 장치(1400)의 수직 상승 속도를 결정할 수 있다. 움직임 제어 UI(311)를 선택하는 사용자 입력이 유지되는 입력이 획득되는 경우, 전자 장치(1300)의 프로세서(1350)는 전자 장치(1300)의 일면이 향하는 방향의 복각에 기반하여 타겟 지점의 수직 방향 위치를 결정할 수 있다.
전자 장치(1300)의 프로세서(1350)는 무인 비행 장치(1400)가 무인 비행 장치(1400)의 위치로부터 타겟 지점으로 이동하기 위한 제어 정보를 생성할 수 있다.
일 실시 예에서, 제어 정보는 무인 비행 장치(1400)의 자세를 변경하기 위한 자세 변경 정보를 포함할 수 있다. 무인 비행 장치(1400)의 자세는 무인 비행 장치(1400)의 하우징의 일면이 향하는 방향을 의미할 수 있다.
일 실시 예에서, 동작 1505 전, 전자 장치(1300)의 입력 장치는 무인 비행 장치(1400)의 자세 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다.
예를 들어, 자세 변경 정보를 생성하기 위한 사용자 입력은 도 3a의 무인 비행 장치의 자세 변경 UI(312)의 원을 따라 드래그하는 사용자 입력일 수 있다. 일 실시 예에 따르면, 전자 장치(1300)의 프로세서(1350)가 무인 비행 장치의 자세 변경 UI(312)를 시계 방향으로 드래그하는 사용자 입력을 획득하는 경우, 전자 장치(1300)의 프로세서(1350)는 무인 비행 장치(1400)가 시계 방향으로 회전하도록 하는 자세 변경 정보를 생성할 수 있다.
제어 정보는 무인 비행 장치(1400)의 움직임과 관련된 롤(roll) 정보, 피치(pitch) 정보 또는 요(yaw) 정보 중 적어도 하나를 포함할 수 있다.
동작 1506에서, 전자 장치(1300)의 프로세서(1350)는 통신 회로를 이용하여 생성된 제어 정보를 무인 비행 장치(1400)로 전송할 수 있다.
동작 1507에서, 무인 비행 장치(1400)의 프로세서(1410)는 제어 정보에 기반하여 타겟 지점으로 무인 비행 장치(1400)가 이동하도록 모터를 제어할 수 있다.
이하에서는 도 16a 내지 도 17b를 참조하여 전자 장치의 제어에 의해 무인 비행 장치가 움직이는 실시 예를 설명한다.
도 16a는 일 실시 예에 따른 전자 장치의 회전에 따라 무인 비행 장치가 이동하는 것을 나타내는 도면이다.
도 16a를 참조하면, 일 실시 예에서, 전자 장치(1610)는 P0 지점에 위치하고, 무인 비행 장치(1620)는 P1 지점에 위치할 수 있다. 전자 장치(1610)의 일면은 P1 지점을 향할 수 있다.
전자 장치(1610)는 전자 장치(1610)의 위치 정보(P0) 및 무인 비행 장치(1620)의 위치 정보(P1)를 획득할 수 있다.
이후, 전자 장치(1610)는 제어 정보 생성을 트리거하는 사용자 입력이 획득하고, 전자 장치(1610)는 수평 방향으로 회전하여 전자 장치(1610)의 일면은 P2 지점을 향할 수 있다.
전자 장치(1610)의 프로세서(1350)는 전자 장치(1610)의 위치 정보(P0), 무인 비행 장치(1620)의 위치 정보(P1) 및 전자 장치(1610)의 일면이 향하는 방향의 방위각에 기반하여 타겟 지점(P2)의 수평 방향 위치를 결정할 수 있다. 전자 장치(1610)의 프로세서(1350)는 무인 비행 장치(1620)가 P1 지점에서 P2 지점으로 이동하도록 하는 제어 정보를 생성할 수 있다. 이 때, P0 지점으로부터 P2 지점까지의 거리는 P0 지점으로부터 P1 지점까지의 거리와 동일할 수 있다.
무인 비행 장치(1620)의 프로세서(1460)는 제어 정보에 기반하여 타겟 지점(P2)으로 무인 비행 장치(1620)가 이동하도록 모터를 제어할 수 있다.
도 16b는 일 실시 예에 따른 거리 변화 입력에 따라 무인 비행 장치(1620)가 이동하는 것을 나타내는 도면이다.
도 16b를 참조하면, 일 실시 예에서, 무인 비행 장치(1620)는 P1 지점에 위치할 수 있다.
전자 장치(1610)의 입력 장치는 전자 장치(1610)와 무인 비행 장치(1620)간의 거리 변경 정보를 생성하기 위한 사용자 입력을 획득할 수 있다. 예를 들어, 도 16b에 도시된 것과 같이 입력 장치는 움직임 제어 UI(1611)를 위 방향으로 드래그하는 사용자 입력을 획득할 수 있다. 상기 사용자 입력에 기반하여 전자 장치(1610)의 프로세서(1350)는 전자 장치(1610)와 무인 비행 장치(1620)간의 거리를 증가시키는 거리 변경 정보를 생성할 수 있다.
무인 비행 장치(1620)는 전자 장치(1610)로부터 거리 변경 정보를 수신하고, 수신된 거리 변경 정보에 기반하여 전자 장치(1610)로부터 더 멀어지는 방향으로 이동할 수 있다.
도 17a는 일 실시 예에 따른 전자 장치의 기울임에 따라 무인 비행 장치의 고도가 변경되는 것을 나타내는 도면이다.
도 17a를 참조하면, 일 실시 예에서, 무인 비행 장치는 P1 지점에 위치할 수 있다.
전자 장치(1710)의 일면이 향하는 방향의 복각은 특정 양(positive)의 값을 가질 수 있다. 전자 장치(1710)의 프로세서(1350)는 전자 장치(1710)의 일면이 향하는 방향의 복각에 기반하여 무인 비행 장치의 수직 상승 속도를 결정할 수 있다.
무인 비행 장치는 전자 장치(1710)로부터 상승 속도 정보를 수신하고, 수신된 상승 속도로 상승할 수 있다.
도 17b는 다른 실시 예에 따른 전자 장치(1710)의 기울임에 따라 무인 비행 장치의 고도가 변경되는 것을 나타내는 도면이다.
도 17b를 참조하면, 일 실시 예에서, 전자 장치(1710)는 P0 지점에 위치하고, 무인 비행 장치는 P1 지점에 위치할 수 있다. 전자 장치(1710)의 일면은 P1 지점을 향할 수 있다.
전자 장치(1710)는 전자 장치(1710)의 위치 정보(P0) 및 무인 비행 장치의 위치 정보(P1)를 획득할 수 있다.
이후, 전자 장치(1710)는 수평 방향으로 회전하여 전자 장치(1710)의 일면은 P2 지점을 향할 수 있다.
전자 장치(1710)의 프로세서(1350)는 전자 장치(1710)의 위치 정보(P0), 무인 비행 장치의 위치 정보(P1) 및 전자 장치(1710)의 일면이 향하는 방향의 복각에 기반하여 타겟 지점(P2)의 수직 방향 위치를 결정할 수 있다. 전자 장치(1710)의 프로세서(1350)는 무인 비행 장치가 P1 지점에서 P2 지점으로 이동하도록 하는 제어 정보를 생성할 수 있다. 이 때, P0 지점으로부터 P2 지점까지의 거리는 P0 지점으로부터 P1 지점까지의 거리와 동일할 수 있다.
무인 비행 장치의 프로세서(1460)는 제어 정보에 기반하여 타겟 지점(P2)으로 무인 비행 장치가 이동하도록 모터를 제어할 수 있다.
도 18은 일 실시 예에 따른 무인 비행 장치의 카메라의 움직임을 제어하는 UI가 표시된 화면을 나타낸다.
일 실시 예에서, 도 18을 참조하면, 전자 장치의 디스플레이는 카메라의 움직임 제어 활성화 UI(1801), 카메라의 방향 변경 UI(1802) 및 카메라의 회전 UI(1803)를 표시할 수 있다.
일 실시 예에서, 전자 장치는 카메라의 움직임 제어 활성화 UI(1801)를 선택하는 사용자 입력을 획득하는 경우, 무인 비행 장치(1400)의 카메라의 움직임을 제어하는 모드를 실행할 수 있다.
일 실시 예에서, 카메라의 움직임을 제어하는 모드가 실행되면, 전자 장치의 프로세서는 카메라 움직임 제어 정보를 생성할 수 있다.
일 실시 예에서, 전자 장치의 프로세서는 카메라의 방향 변경 UI(1802)를 드래그하는 사용자 입력에 기반하여 카메라 움직임 제어 정보를 생성할 수 있다. 예를 들어, 카메라의 방향 변경 UI(1802)가 상하 방향으로 드래그 되는 경우, 전자 장치의 프로세서는 무인 비행 장치(1400)의 카메라의 피치 업/다운 제어 정보를 생성할 수 있다. 카메라의 방향 변경 UI(1802)가 좌우 방향으로 드래그 되는 경우, 전자 장치의 프로세서는 무인 비행 장치(1400)의 카메라의 롤 레프트/라이트 제어 정보를 생성할 수 있다.
일 실시 예에서, 전자 장치의 프로세서는 카메라의 회전 UI(1803)를 드래그하는 사용자 입력에 기반하여 카메라 회전 제어 정보를 생성할 수 있다. 예를 들어, 전자 장치의 프로세서가 카메라의 회전 UI(1803)를 시계 방향으로 드래그하는 사용자 입력을 획득하는 경우, 전자 장치의 프로세서는 무인 비행 장치(1400)의 카메라가 시계 방향으로 회전하도록 하는 카메라 회전 제어 정보를 생성할 수 있다.
도 19는 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다. 본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치(예: PDA(personal digital assistant), 태블릿 PC(tablet PC), 랩탑 PC(, 데스크톱 PC, 워크스테이션, 또는 서버), 휴대용 멀티미디어 장치(예: 전자 책 리더기 또는 MP3 플레이어), 휴대용 의료 기기(예: 심박, 혈당, 혈압, 또는 체온 측정기), 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용 형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착 형(예: 스킨 패드 또는 문신), 또는 생체 이식 형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오 장치, 오디오 액세서리 장치(예: 스피커, 헤드폰, 또는 헤드 셋), 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토메이션 컨트롤 패널, 보안 컨트롤 패널, 게임 콘솔, 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder)(예: 차량/선박/비행기 용 블랙박스(black box)), 자동차 인포테인먼트 장치(예: 차량용 헤드-업 디스플레이), 산업용 또는 가정용 로봇, 드론(drone), ATM(automated teller machine), POS(point of sales) 기기, 계측 기기(예: 수도, 전기, 또는 가스 계측 기기), 또는 사물 인터넷 장치(예: 전구, 스프링클러 장치, 화재 경보기, 온도 조절기, 또는 가로등) 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 또한, 예를 들면, 개인의 생체 정보(예: 심박 또는 혈당)의 측정 기능이 구비된 스마트폰의 경우처럼, 복수의 장치들의 기능들을 복합적으로 제공할 수 있다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 19를 참조하여, 네트워크 환경(1900)에서 전자 장치(1901)(예: 전자 장치(100))는 근거리 무선 통신(1998)을 통하여 전자 장치(1902)와 통신하거나, 또는 네트워크(1999)를 통하여 전자 장치(1904) 또는 서버(1908)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(1901)는 서버(1908)을 통하여 전자 장치(1904)와 통신할 수 있다.
일 실시 예에 따르면, 전자 장치(1901)는 버스(1910), 프로세서(1920)(예: 프로세서(150)), 메모리(1930), 입력 장치(1950)(예: 마이크 또는 마우스), 표시 장치(1960), 오디오 모듈(1970), 센서 모듈(1976), 인터페이스(1977), 햅틱 모듈(1979), 카메라 모듈(1980), 전력 관리 모듈(1988), 및 배터리(1989), 통신 모듈(1990), 및 가입자 식별 모듈(1996)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1901)는 구성요소들 중 적어도 하나(예: 표시 장치(1960) 또는 카메라 모듈(1980))를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(1910)는, 구성요소들(1920-1990)을 서로 연결하고, 구성요소들 간의 신호(예: 제어 메시지 또는 데이터)를 전달하는 회로를 포함할 수 있다.
프로세서(1920)는, 중앙처리장치(central processing unit, CPU), 어플리케이션 프로세서(application processor, AP), GPU(graphics processing unit), 카메라의 ISP(image signal processor), 또는 CP(communication processor) 중 하나 또는 그 이상을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(1920)는 SoC(system on chip) 또는 SiP(system in package)로 구현될 수 있다. 프로세서(1920)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(1920)에 연결된 전자 장치(1901)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(1920)는 다른 구성요소들(예: 통신 모듈(1990)) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리(1932)에 로드 하여 처리하고, 결과 데이터를 비 휘발성 메모리(1934)에 저장할 수 있다.
메모리(1930)는, 휘발성 메모리(1932) 또는 비 휘발성 메모리(1934)를 포함할 수 있다. 휘발성 메모리(1932)는, 예를 들면, RAM(random access memory)(예: DRAM, SRAM, 또는 SDRAM)로 구성될 수 있다. 비 휘발성 메모리(1934)는, 예를 들면, PROM(programmable read-only memory), OTPROM(one time PROM), EPROM(erasable PROM), EEPROM(electrically EPROM), mask ROM, flash ROM, 플래시 메모리, HDD(hard disk drive), 또는 SSD(solid state drive)로 구성될 수 있다. 또한, 비 휘발성 메모리(1934)는, 전자 장치(1901)와의 연결 형태에 따라, 그 안에 배치된 내장 메모리(1936), 또는 필요 시에만 연결하여 사용 가능한 스탠드-얼론(stand-alone) 형태의 외장 메모리(1938)로 구성될 수 있다. 외장 메모리(1938)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card), 또는 메모리 스틱을 포함할 수 있다. 외장 메모리(1938)는 유선(예: 케이블 또는 USB(universal serial bus)) 또는 무선(예: Bluetooth)을 통하여 전자 장치(1901)와 기능적으로 또는 물리적으로 연결될 수 있다.
메모리(1930)는, 예를 들면, 전자 장치(1901)의 적어도 하나의 다른 소프트웨어 구성요소, 예를 들어, 프로그램(1940)에 관계된 명령 또는 데이터를 저장할 수 있다. 프로그램(1940)은, 예를 들면, 커널(1941), 라이브러리(1943), 어플리케이션 프레임워크(1945), 또는 어플리케이션 프로그램(interchangeably "어플리케이션")(1947)을 포함할 수 있다.
입력 장치(1950)는, 마이크, 마우스, 또는 키보드를 포함할 수 있다. 일 실시 예에 따르면, 키보드는 물리적인 키보드로 연결되거나, 표시 장치(1960)를 통해 가상 키보드로 표시될 수 있다.
표시 장치(1960)는, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 디스플레이는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이는, 일 실시 예에 따르면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 디스플레이는 사용자의 터치, 제스처, 근접, 또는 호버링(hovering) 입력을 감지할 수 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(interchangeably "force sensor")를 포함할 수 있다. 상기 터치 회로 또는 압력 센서는 디스플레이와 일체형으로 구현되거나, 또는 디스플레이와는 별도의 하나 이상의 센서들로 구현될 수 있다. 홀로그램 장치는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(1901)의 내부 또는 외부에 위치할 수 있다.
오디오 모듈(1970)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(1970)은, 입력 장치(1950)(예: 마이크)를 통해 소리를 획득하거나, 또는 전자 장치(1901)에 포함된 출력 장치(미 도시)(예: 스피커 또는 리시버), 또는 전자 장치(1901)와 연결된 외부 전자 장치(예: 전자 장치(1902)(예: 무선 스피커 또는 무선 헤드폰) 또는 전자 장치(1906)(예: 유선 스피커 또는 유선 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(1976)은, 예를 들면, 전자 장치(1901)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 고도, 습도, 또는 밝기)를 계측 또는 감지하여, 그 계측 또는 감지된 상태 정보에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(1976)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서(예: RGB(red, green, blue) 센서), IR(infrared) 센서, 생체 센서(예: 홍채 센서, 지문 센서, 또는 HRM(heartbeat rate monitoring) 센서, 후각(electronic nose) 센서, EMG(electromyography) 센서, EEG(Electroencephalogram) 센서, ECG(Electrocardiogram) 센서), 온도 센서, 습도 센서, 조도 센서, 또는 UV(ultra violet) 센서를 포함할 수 있다. 센서 모듈(1976)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1901)는 프로세서(1920) 또는 프로세서(1920)와는 별도의 프로세서(예: 센서 허브)를 이용하여, 센서 모듈(1976)을 제어할 수 있다. 별도의 프로세서(예: 센서 허브)를 이용하는 경우에, 전자 장치(1901)는 프로세서(1920)가 슬립(sleep) 상태에 있는 동안, 프로세서(1920)를 깨우지 않고 별도의 프로세서의 작동에 의하여 센서 모듈(1976)의 동작 또는 상태의 적어도 일부를 제어할 수 있다.
인터페이스(1977)는, 일 실시 예에 따르면, HDMI(high definition multimedia interface), USB, 광 인터페이스(optical interface), RS-232(recommended standard 232), D-sub(D-subminiature), MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다. 연결 단자(1978)는 전자 장치(1901)와 전자 장치(1906)를 물리적으로 연결시킬 수 있다. 일 실시 예에 따르면, 연결 단자(1978)는, 예를 들면, USB 커넥터, SD 카드/MMC 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(1979)은 전기적 신호를 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 예를 들면, 햅틱 모듈(1979)은 사용자에게 촉각 또는 운동 감각과 관련된 자극을 제공할 수 있다. 햅틱 모듈(1979)은 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(1980)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(1980)는, 일 실시 예에 따르면, 하나 이상의 렌즈(예: 광각 렌즈 및 망원 렌즈, 또는 전면 렌즈 및 후면 렌즈), 이미지 센서, 이미지 시그널 프로세서, 또는 플래시(예: 발광 다이오드 또는 제논 램프(xenon lamp) 등)를 포함할 수 있다.
전력 관리 모듈(1988)은 전자 장치(1901)의 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(1989)는, 예를 들면, 1차 전지, 2차 전지, 또는 연료 전지를 포함하여 외부 전원에 의해 재충전되어, 상기 전자 장치(1901)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다.
통신 모듈(1990)은, 예를 들면, 전자 장치(1901)와 외부 장치(예: 제1 외부 전자 장치(1902), 제2 외부 전자 장치(1904), 또는 서버(1908)) 간의 통신 채널 수립 및 수립된 통신 채널을 통한 유선 또는 무선 통신의 수행을 지원할 수 있다. 일 실시 예에 따르면, 통신 모듈(1990)은 무선 통신 모듈(1992) 또는 유선 통신 모듈(1994)을포함하고, 그 중 해당하는 통신 모듈을 이용하여 제1 네트워크(1998)(예: Bluetooth 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(1999)(예: 셀룰러 네트워크와 같은 원거리 통신 네트워크)를 통하여 외부 장치와 통신할 수 있다.
무선 통신 모듈(1992)은, 예를 들면, 셀룰러 통신, 근거리 무선 통신, 또는 GNSS 통신을 지원할 수 있다. 셀룰러 통신은, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications)을 포함할 수 있다. 근거리 무선 통신은, 예를 들면, Wi-Fi(wireless fidelity), Wi-Fi Direct, Li-Fi(light fidelity), Bluetooth, BLE(Bluetooth low energy), Zigbee, NFC(near field communication), MST(magnetic secure transmission), RF(radio frequency), 또는 BAN(body area network)을 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo(the European global satellite-based navigation system)을 포함할 수 있다. 본 문서에서 "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다.
일 실시 예에 따르면, 상기 무선 통신 모듈(1992)은, 셀룰러 통신을 지원하는 경우, 예를 들면, 가입자 식별 모듈(1996)을 이용하여 통신 네트워크 내에서 전자 장치(1901)의 구별 및 인증을 수행할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(1992)은 프로세서(1920)(예: AP)와 별개인 CP를 포함할 수 있다. 이런 경우, CP는, 예를 들면, 프로세서(1920)가 인액티브(예: 슬립) 상태에 있는 동안 프로세서(1920)를 대신하여, 또는 프로세서(1920)가 액티브 상태에 있는 동안 프로세서(1920)과 함께, 전자 장치(1901)의 구성요소들(1910-1896) 중 적어도 하나의 구성 요소와 관련된 기능들의 적어도 일부 기능을 수행할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(1992)은 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS 통신 모듈 중 해당하는 통신 방식만을 지원하는 복수의 통신 모듈들로 구성될 수 있다.
유선 통신 모듈(1994)은, 예를 들면, LAN(local area network), 전력선 통신 또는 POTS(plain old telephone service)를 포함할 수 있다.
제1 네트워크(1998)는, 예를 들어, 전자 장치(1901)와 제1 외부 전자 장치(1902)간의 무선으로 직접 연결을 통해 명령 또는 데이터를 송신 또는 수신 할 수 있는 Wi-Fi 다이렉트 또는 Bluetooth를 포함할 수 있다. 제2 네트워크(1999)는, 예를 들어, 전자 장치(1901)와 제2 외부 전자 장치(1904)간의 명령 또는 데이터를 송신 또는 수신할 수 있는 텔레커뮤니케이션 네트워크(예: LAN(local area network)나 WAN(wide area network)와 같은 컴퓨터 네트워크, 인터넷(internet), 또는 텔레폰(telephone) 네트워크)를 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 명령 또는 상기 데이터는 제2 네트워크에 연결된 서버(1908)를 통해서 전자 장치(1901)와 제2 외부 전자 장치(1904)간에 송신 또는 수신될 수 있다. 제1 및 제2 외부 전자 장치(1902, 1804) 각각은 전자 장치(1901)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시 예들에 따르면, 전자 장치(1901)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(1902, 1804), 또는 서버(1908)에서 실행될 수 있다. 일 실시 예에 따르면, 전자 장치(1901)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(1901)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(1902, 1804), 또는 서버(1908))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(1902, 1804), 또는 서버(1908))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(1901)로 전달할 수 있다. 전자 장치(1901)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 설정된(adapted to or configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 설정된 (또는 구성된) 프로세서"는 해당 동작들을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치(예: 메모리 1930)에 저장된 하나 이상의 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 AP)를 의미할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어(firmware)로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(1930))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(1920))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체(예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램 모듈) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소를 더 포함할 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램 모듈)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 20은 일 실시 예에 따른 무인 비행 장치의 블록도이다.
도 20을 참조하면, 무인 비행 장치(2000)는 비행 몸체(2001) 및 비행 몸체(2001)에 장착되어 영상을 촬영하는 촬상 장치(2005)를 포함할 수 있다. 비행 몸체(2001)는 무인 비행 장치(2000)의 비행을 위한 비행 구동부, 무인 비행 장치(2000)를 제어하는 제어부, 원격 제어기(예: 전자 장치(200))와의 통신을 위한 통신부, 및 무인 비행 장치(2000)의 전력 관리를 위한 전력 관리 모듈(2014)을 포함할 수 있다.
비행 구동부는 비행 몸체(2001)를 공중에 부양시키는 동력을 발생시키는 역할을 할 수 있다. 한 실시 예에 따르면, 비행 구동부는 적어도 하나의 프로펠러(2022), 각각의 프로펠러(2022)를 회전시키는 모터(2021), 각각의 모터(2021)를 구동시키기 위한 모터 구동 회로(2019), 및 각각의 모터 구동 회로(2010)에 제어 신호를 인가하는 모터 제어부(예: MPU(micro processing unit)(2018))를 포함할 수 있다.
제어부는 통신부를 통해 원격 제어기로부터 수신된 제어 신호에 따라 비행 구동부를 구동하여 무인 비행 장치(2000)의 움직임을 제어할 수 있다. 제어부는 예를 들어, 무인 비행 장치(2000)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 제어부는 통신부(예: 통신 모듈(2013)), 메모리(2012), 및 모터 제어부와 연결되어 각 구성요소를 제어할 수 있다. 제어부는 적어도 하나의 프로세서(예: AP(application processor)(2011))를 포함할 수 있다. 한 실시 예에 따르면, 제어부는 센서 모듈(2017)과 연결되고 모터 제어부를 통합 관리하는 프로세서(예: MCU(micro control unit)(2016))를 포함할 수 있다.
통신부(예: 통신 모듈(2013)(또는 통신 회로))는 무인 비행 장치(2000)의 제어를 위한 원격 제어기의 제어 신호를 수신할 수 있다. 또한, 통신부는 무인 비행 장치(2000)의 비행 상태에 관한 정보를 원격 제어기로 송신할 수 있다.
전력 관리 모듈(2014)은 무인 비행 장치(2000)의 전력을 관리할 수 있다. 한 실시 예에 따르면, 전력 관리 모듈(2014)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리(또는 연료) 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(2015)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(2015)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
촬상 장치(2005)는 비행 몸체(2010)에 장착될 수 있다. 촬상 장치(2005)는 정지 영상을 촬영하거나 동영상을 촬영할 수 있다. 촬상 장치(2005)는 적어도 하나의 카메라(2071)를 제어하는 카메라 모듈(2070), 및 촬상 장치(2005)의 방향 전환 등을 제어하기 위한 프레임 구동부를 포함할 수 있다.
카메라 모듈(2070)은 비행 몸체(2001)에 포함된 제어부로부터 카메라 구동 신호를 수신하여 카메라(2071)를 제어할 수 있다. 카메라 모듈(2070)은 예컨대, 촬영 시작 신호, 일시 정지 신호, 또는 정지 신호를 제어부로부터 수신하여 카메라(2071)를 제어할 수 있다. 한 실시 예에 따르면, 카메라 모듈(2070)은 제1 FPCB(flexible printed circuit board)(2034)를 통해 제1 인쇄회로기판(2010)에 마련된 제1 커넥터(2032)에 연결되고, 제1 커넥터(2032)와 연결된 AP(2011)로부터 카메라 구동 신호를 수신할 수 있다.
프레임 구동부는 카메라가 설치된 프레임의 방향 전환 등을 제어할 수 있다. 프레임 구동부는 상기 프레임을 회전시키기 위한 적어도 하나의 모터(2061), 각각의 모터(2061)를 구동시키기 위한 모터 구동 회로(2052), 및 모터 구동 회로(2052)에 제어 신호를 인가하는 모터 제어부(예: MCU(2051))를 포함할 수 있다. 프레임 구동부는 예컨대, 카메라 프레임의 피치 업/다운 신호, 또는 카메라 프레임의 롤 레프트/라이트 신호 등을 제어부로부터 수신하여 각각의 모터(2061)를 회전시킴으로써 상기 프레임의 방향을 전환시킬 수 있다. 한 실시 예에 따르면, 프레임 구동부의 일부는 제2 인쇄회로기판(2050) 상에 실장될 수 있다. 또한, 제2 인쇄회로기판(2050) 상에 실장된 모터 제어부는 제2 FPCB(2033)를 통해 제1 인쇄회로기판(2010)에 마련된 제2 커넥터(2031)에 연결되고, 제2 커넥터(2031)와 연결된 AP(2011)로부터 카메라 구동 신호를 수신할 수 있다. 어떤 실시 예에서, 프레임 구동부는 센서 모듈(2053)을 더 포함할 수도 있다.
도 21은 일 실시 예에 따른 무인 비행 장치의 플랫폼을 나타낸 도면이다.
도 21을 참조하면, 무인 비행 장치(2100)는 어플리케이션 플랫폼(application platform)(2110) 및 비행 플랫폼(flight platform)(2130)을 포함할 수 있다. 어플리케이션 플랫폼(2110)은 무인 비행 장치(2100)를 제어하기 위한 전자 장치(예: 원격 제어기)를 연동시킬 수 있다. 예를 들어, 어플리케이션 플랫폼(2110)은 LTE 등의 통신 채널을 통해 원격 제어기와 연동될 수 있다. 또한, 어플리케이션 플랫폼(2110)은 무인 비행 장치(2100)에 설치된 카메라의 제어 등과 같은 서비스를 처리할 수 있다. 어떤 실시 예에서, 어플리케이션 플랫폼(2110)은 카메라 및 센서 데이터의 분석 등을 통해 무인 비행 장치(2100)의 제어 신호를 자체적으로 생성할 수도 있다. 어플리케이션 플랫폼(2110)은 사용자 어플리케이션에 따라 지원 가능한 기능 등이 변경될 수 있다. 비행 플랫폼(2130)은 항법 알고리즘에 따라 무인 비행 장치(2100)의 비행을 제어할 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    하우징;
    상기 전자 장치의 움직임을 감지하는 센서;
    상기 하우징의 일면에 배치되고, VLC(visible light communication) 신호를 출력하는 VLC 출력 모듈; 및
    상기 하우징 내에 배치되고 상기 센서 및 상기 VLC 출력 모듈과 전기적으로 연결되는 프로세서;를 포함하고, 상기 프로세서는,
    상기 감지된 상기 전자 장치의 움직임에 기반하여 무인 비행 장치(UAV, unmanned aerial vehicle)의 움직임을 제어하기 위한 제어 정보를 생성하고,
    상기 VLC 출력 모듈을 이용하여 상기 제어 정보를 포함하는 상기 VLC 신호를 상기 무인 비행 장치로 출력하도록 설정된, 전자 장치.
  2. 청구항 1에 있어서,
    상기 센서는 상기 전자 장치의 방위각을 감지하는 지자기 센서, 상기 전자 장치의 기울임을 감지하는 자이로 센서 또는 상기 전자 장치의 가속도를 감지하는 가속도 센서 중 적어도 하나를 포함하는, 전자 장치.
  3. 청구항 1에 있어서,
    상기 프로세서는,
    사용자 입력이 획득된 시점부터 감지된 상기 전자 장치의 움직임에 기반하여 상기 제어 정보를 생성하는, 전자 장치.
  4. 청구항 1에 있어서,
    상기 제어 정보는 상기 전자 장치로부터 상기 무인 비행 장치로 향하는 제1 방향 및 상기 전자 장치로부터 상기 무인 비행 장치가 이동할 타겟 지점으로 향하는 제2 방향 사이의 각도를 포함하고,
    상기 제1 방향 및 상기 제2 방향 사이의 각도는 상기 전자 장치의 방위각 및 복각(inclination angle) 변화량에 비례하는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 프로세서는,
    상기 감지된 전자 장치의 회전 각속도에 기반하여 상기 제어 정보를 생성하도록 설정된, 전자 장치.
  6. 청구항 5에 있어서,
    상기 제어 정보는 상기 무인 비행 장치의 이동 속도를 포함하고,
    상기 이동 속도는 상기 회전 각속도에 비례하는, 전자 장치.
  7. 무인 비행 장치에 있어서,
    하우징;
    상기 하우징 상에 배치되고 제어 정보를 포함하는 VLC 신호를 전자 장치로부터 획득하는 복수의 광 센서;
    상기 VLC 신호로부터 상기 제어 정보를 획득하는 디코더;
    상기 하우징에 연결되는 적어도 하나의 모터;
    상기 적어도 하나의 모터에 연결되는 적어도 하나의 프로펠러;
    상기 하우징 내에 배치되고 상기 복수의 광 센서, 상기 디코더 및 상기 적어도 하나의 모터와 전기적으로 연결되는 프로세서;를 포함하고, 상기 프로세서는,
    상기 전자 장치와 상기 무인 비행 장치 간의 제1 거리, 상기 전자 장치와 상기 무인 비행 장치가 이동할 타겟 지점 간의 제2 거리, 상기 무인 비행 장치로부터 상기 전자 장치로 향하는 방향 및 상기 제어 정보에 기반하여 결정되는 상기 타겟 지점으로 상기 무인 비행 장치가 이동하도록 상기 모터를 제어하도록 설정되고,
    상기 제1 거리는 상기 획득된 VLC 신호의 크기에 기반하여 결정되고,
    상기 제어 정보는 상기 전자 장치로부터 상기 무인 비행 장치로 향하는 제1 방향 및 상기 전자 장치로부터 상기 타겟 지점으로 향하는 제2 방향 사이의 각도를 포함하는, 무인 비행 장치.
  8. 청구항 7에 있어서,
    상기 전자 장치와 상기 타겟 지점 간의 제2 거리는 상기 제1 거리와 동일한, 무인 비행 장치.
  9. 청구항 7에 있어서,
    상기 제어 정보는 상기 전자 장치와 상기 타겟 지점 간의 제2 거리의 변경 정보를 포함하고,
    상기 제2 거리는 상기 제1 거리 및 상기 변경 정보에 기반하여 결정되는, 무인 비행 장치.
  10. 청구항 9에 있어서,
    상기 변경 정보는 상기 제2 거리의 증가량 또는 감소량을 포함하고,
    상기 제2 거리는 상기 제1 거리에 상기 증가량을 더한 거리 또는 상기 제1 거리에 상기 감소량을 뺀 거리인, 무인 비행 장치.
  11. 청구항 7에 있어서,
    상기 제어 정보는 상기 하우징의 자세 변경 정보를 포함하고,
    상기 프로세서는 상기 자세 변경 정보에 더 기반하여 상기 하우징이 자세를 변경하도록 상기 모터를 제어하도록 설정된, 무인 비행 장치.
  12. 청구항 7에 있어서,
    상기 제어 정보는 상기 전자 장치의 회전 각속도를 포함하고,
    상기 프로세서는,
    상기 회전 각속도에 기반하여 상기 무인 비행 장치가 이동하도록 상기 모터를 제어하도록 설정된, 무인 비행 장치.
  13. 청구항 12에 있어서,
    상기 무인 비행 장치의 이동 속도는 상기 회전 각속도에 비례하는, 무인 비행 장치.
  14. 청구항 7에 있어서,
    상기 무인 비행 장치로부터 상기 전자 장치로 향하는 방향은 상기 복수의 광 센서의 위치 및 상기 복수의 광 센서 각각이 획득한 상기 VLC 신호의 크기에 기반하여 결정되는, 무인 비행 장치.
  15. 청구항 7에 있어서,
    상기 제1 거리는 상기 획득된 VLC 신호의 논리 하이(logic high)에 해당하는 제1 VLC 신호의 크기 및 논리 로우(logic low)에 해당하는 제2 VLC 신호의 크기의 차이 값에 기반하여 결정되고, 상기 제1 거리는 차이 값의 제곱근에 반비례하는, 무인 비행 장치.
  16. 전자 장치 및 무인 비행 장치를 포함하는 시스템에 있어서,
    상기 전자 장치는,
    제1 하우징;
    상기 전자 장치의 움직임을 감지하는 센서;
    상기 제1 하우징의 일면에 배치되고, VLC 신호를 출력하는 VLC 출력 모듈; 및
    상기 제1 하우징 내에 배치되고 상기 센서 및 상기 VLC 출력 모듈과 전기적으로 연결되는 제1 프로세서;를 포함하고,
    상기 제1 프로세서는,
    상기 감지된 상기 전자 장치의 움직임에 기반하여 무인 비행 장치의 움직임을 제어하기 위한 제어 정보를 생성하고,
    상기 VLC 출력 모듈을 이용하여 상기 제어 정보를 포함하는 상기 VLC 신호를 상기 무인 비행 장치로 출력하도록 설정되고,
    상기 무인 비행 장치는,
    제2 하우징;
    상기 제2 하우징 상에 배치되고 상기 VLC 신호를 획득하는 복수의 광 센서;
    상기 VLC 신호로부터 상기 제어 정보를 획득하는 디코더;
    상기 제2 하우징에 연결되는 적어도 하나의 모터;
    상기 적어도 하나의 모터에 연결되는 적어도 하나의 프로펠러; 및
    상기 제2 하우징 내에 배치되고 상기 복수의 광 센서, 상기 디코더 및 상기 적어도 하나의 모터와 전기적으로 연결되는 제2 프로세서;를 포함하고,
    상기 제2 프로세서는,
    상기 전자 장치와 상기 무인 비행 장치 간의 제1 거리, 상기 전자 장치와 상기 무인 비행 장치가 이동할 타겟 지점 간의 제2 거리, 상기 무인 비행 장치로부터 상기 전자 장치로 향하는 방향 및 상기 제어 정보에 기반하여 결정되는 상기 타겟 지점으로 상기 무인 비행 장치가 이동하도록 상기 모터를 제어하도록 설정되고,
    상기 제1 거리는 상기 획득된 VLC 신호의 크기에 기반하여 결정되고,
    상기 제어 정보는 상기 전자 장치로부터 상기 무인 비행 장치로 향하는 제1 방향 및 상기 전자 장치로부터 상기 타겟 지점으로 향하는 제2 방향 사이의 각도를 포함하는, 시스템.
  17. 청구항 16에 있어서,
    상기 제1 방향 및 상기 제2 방향 사이의 각도는 상기 전자 장치의 방위각 및 복각 변화량에 비례하는, 시스템.
  18. 청구항 16에 있어서,
    상기 제어 정보는 상기 무인 비행 장치의 이동 속도를 포함하고, 상기 이동 속도는 상기 전자 장치의 회전 각속도에 비례하는, 시스템.
  19. 청구항 16에 있어서,
    상기 제2 프로세서는,
    상기 무인 비행 장치로부터 상기 전자 장치로 향하는 방향은 상기 복수의 광 센서의 위치 및 상기 복수의 광 센서 각각이 획득한 상기 VLC 신호의 크기에 기반하여 결정되는, 시스템.
  20. 청구항 16에 있어서,
    상기 제1 거리는 상기 획득된 VLC 신호의 논리 하이에 해당하는 제1 VLC 신호의 크기 및 논리 로우에 해당하는 제2 VLC 신호의 크기의 차이 값에 기반하여 결정되고, 상기 제1 거리는 차이 값의 제곱근에 반비례하는, 시스템.
KR1020170047200A 2017-04-12 2017-04-12 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템 KR102290746B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170047200A KR102290746B1 (ko) 2017-04-12 2017-04-12 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템
PCT/KR2018/004288 WO2018190648A1 (ko) 2017-04-12 2018-04-12 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템
US16/497,711 US20200117183A1 (en) 2017-04-12 2018-04-12 Electronic device for controlling unmanned aerial vehicle, and unmanned aerial vehicle and system controlled thereby

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170047200A KR102290746B1 (ko) 2017-04-12 2017-04-12 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템

Publications (2)

Publication Number Publication Date
KR20180115050A true KR20180115050A (ko) 2018-10-22
KR102290746B1 KR102290746B1 (ko) 2021-08-19

Family

ID=63792705

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170047200A KR102290746B1 (ko) 2017-04-12 2017-04-12 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템

Country Status (3)

Country Link
US (1) US20200117183A1 (ko)
KR (1) KR102290746B1 (ko)
WO (1) WO2018190648A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647168A (zh) * 2019-08-30 2020-01-03 上海大学 一种基于多旋翼无人机的电缆隧道环境检测系统
KR102263538B1 (ko) * 2020-12-22 2021-06-10 한화시스템(주) 항공기용 디스플레이 시스템 및 이의 문자열 표시 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11206254B2 (en) * 2018-11-15 2021-12-21 Intertrust Technologies Corporation Unmanned vehicle management systems and methods
KR102209503B1 (ko) * 2020-08-24 2021-02-01 코아글림 주식회사 지능형 무인 비행체의 무선통신 시스템
KR20220036209A (ko) * 2020-09-15 2022-03-22 삼성전자주식회사 UWB(Ultra Wide Band)에 기초하여 타겟 위치에 관한 서비스를 제공하기 위한 장치 및 방법
CN115331418B (zh) * 2022-08-17 2024-04-09 冠捷显示科技(武汉)有限公司 基于姿态触发功能的摇控器及其控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028756A (ja) * 2006-07-21 2008-02-07 Hitachi Ltd 遠隔監視システム
CN104020777A (zh) * 2014-06-17 2014-09-03 成都华诚智印科技有限公司 一种体感跟随式飞行控制系统及其控制方法
US9387928B1 (en) * 2014-12-18 2016-07-12 Amazon Technologies, Inc. Multi-use UAV docking station systems and methods

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9758239B2 (en) * 2011-04-14 2017-09-12 Hexagon Technology Center Gmbh System and method for controlling an unmanned air vehicle
KR20160134334A (ko) * 2015-05-15 2016-11-23 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20170022489A (ko) * 2015-08-20 2017-03-02 엘지전자 주식회사 무인항공체 및 이의 제어방법
KR101758093B1 (ko) * 2015-09-21 2017-07-14 숭실대학교산학협력단 무인항공기 제어 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028756A (ja) * 2006-07-21 2008-02-07 Hitachi Ltd 遠隔監視システム
CN104020777A (zh) * 2014-06-17 2014-09-03 成都华诚智印科技有限公司 一种体感跟随式飞行控制系统及其控制方法
US9387928B1 (en) * 2014-12-18 2016-07-12 Amazon Technologies, Inc. Multi-use UAV docking station systems and methods

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110647168A (zh) * 2019-08-30 2020-01-03 上海大学 一种基于多旋翼无人机的电缆隧道环境检测系统
KR102263538B1 (ko) * 2020-12-22 2021-06-10 한화시스템(주) 항공기용 디스플레이 시스템 및 이의 문자열 표시 방법

Also Published As

Publication number Publication date
WO2018190648A1 (ko) 2018-10-18
US20200117183A1 (en) 2020-04-16
KR102290746B1 (ko) 2021-08-19

Similar Documents

Publication Publication Date Title
US10551834B2 (en) Method and electronic device for controlling unmanned aerial vehicle
KR102290746B1 (ko) 무인 비행 장치를 제어하는 전자 장치, 그에 의해 제어되는 무인 비행 장치 및 시스템
US10809711B2 (en) Electronic device and method for controlling the same
US11198508B2 (en) Electronic device moved based on distance from external object and control method thereof
US10452063B2 (en) Method, storage medium, and electronic device for controlling unmanned aerial vehicle
EP3454182B1 (en) Method for controlling pointer in virtual reality and electronic device
US20190369613A1 (en) Electronic device and method for controlling multiple drones
US10054946B2 (en) Electronic device and operating method thereof
US11262748B2 (en) Electronic device for controlling unmanned aerial vehicle and control method therefor
ES2794905T3 (es) Procedimiento de fotografía usando un dispositivo electrónico externo y dispositivo electrónico que soporta el mismo
US10809710B2 (en) Method for controlling unmanned aerial vehicle and electronic device for controlling unmanned aerial vehicle
KR20180103601A (ko) 무인 비행 장치를 제어하는 방법 및 이를 지원하는 무인 비행 장치
KR20170055213A (ko) 비행이 가능한 전자 장치를 이용한 촬영 방법 및 장치
EP3605278B1 (en) Method for providing haptic feedback, and electronic device for performing same
CN106066611B (zh) 通过对接对功能进行扩展的方法及其电子装置
KR20190130770A (ko) Vr/ar 콘텐트를 제공하는 전자 장치
US20240144617A1 (en) Methods and systems for anchoring objects in augmented or virtual reality
US10250806B2 (en) Electronic device and method for controlling image shooting and image outputting
US20180275685A1 (en) Method for determining movement location based on movement of external object and electronic device for the same
KR102539947B1 (ko) 사용자를 인식하는 전자 장치 및 그 전자 장치를 제어하는 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant