KR20170086482A - 플라잉 봇의 제어 장치 및 제어 방법 - Google Patents

플라잉 봇의 제어 장치 및 제어 방법 Download PDF

Info

Publication number
KR20170086482A
KR20170086482A KR1020177011684A KR20177011684A KR20170086482A KR 20170086482 A KR20170086482 A KR 20170086482A KR 1020177011684 A KR1020177011684 A KR 1020177011684A KR 20177011684 A KR20177011684 A KR 20177011684A KR 20170086482 A KR20170086482 A KR 20170086482A
Authority
KR
South Korea
Prior art keywords
flying
bot
control
user
robot
Prior art date
Application number
KR1020177011684A
Other languages
English (en)
Inventor
홍기주
조귀목
김기형
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20170086482A publication Critical patent/KR20170086482A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/042Control of altitude or depth specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/50Receiving or transmitting feedback, e.g. replies, status updates, acknowledgements, from the controlled devices
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/91Remote control based on location and proximity

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 플라잉 봇(Flying Bot)을 제어할 수 있는 장치 및 그 제어 방법에 관한 것으로, 상기 플라잉 봇과 무선 통신을 수행하는 통신부와, 상기 플라잉 봇의 제어와 관련된 화상 정보를 표시하기 위한 디스플레이부와, 상기 플라잉 봇의 비행 상태 및 상기 플라잉 봇에서 수행 가능한 기능을 제어하기 위한 사용자 입력부와, 상기 플라잉 봇의 회전 방향 및 이동 방향, 틸트(tile) 상태 중 적어도 하나를 감지하기 위한 감지부, 및, 상기 통신부를 통해 상기 플라잉 봇으로부터 상기 플라잉 봇의 위치 및 주변 상황 중 적어도 하나에 대한 정보를 수신하고, 수신된 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 변경하는 제어부를 포함하며, 상기 제어부는, 상기 변경된 플라잉 봇의 비행 제어 방식에 따라, 상기 사용자 입력부에 입력에 따른 상기 플라잉 봇의 이동 방향 및 회전 방향을 사용자의 위치에 근거하여 결정하는 것을 특징으로 한다.

Description

플라잉 봇의 제어 장치 및 제어 방법
본 발명은 플라잉 봇(Flying Bot)을 제어할 수 있는 장치 및 그 제어 방법에 관한 것이다.
플라잉 봇(Flying Bot)은 조종사 없이 무선전파의 유도에 의하여 비행이 가능한 비행체를 의미할 수 있다. 이러한 플라잉 봇은 현재 기술의 발달로 그 크기가 더욱 소형화 되면서도, 고화질의 카메라 또는 다양한 센서를 감지하여 사용자가 접근하기 어려운 장소 또는 공중에서 수집된 다양한 정보들을 사용자에게 제공할 수 있다.
따라서 단순한 비행 기능 뿐만 아니라, 플라잉 봇에 추가되는 다양한 기능들을 보다 효율적으로 제어할 수 있도록 하기 위한 플라잉 봇의 제어 장치 및 제어 방법이 현재 활발하게 연구중인 실정이다.
본 발명은, 플라잉 봇의 비행 기능을 보다 쉽고 효율적으로 제어할 수 있도록 하는 플라잉 봇의 제어 장치 및 그 제어 방법을 제공하는 것을 그 목적으로 한다.
본 발명의 다른 목적은, 플라잉 봇의 위치 및 상태에 따라 보다 적절하고 효율적으로 제어할 수 있는 방식으로, 상기 플라잉 봇을 제어할 수 있도록 하는 플라잉 봇의 제어 장치 및 제어 방법을 제공하는 것이다.
본 발명의 다른 목적은, 플라잉 봇이 수행하고 있는 기능에 따라 플라잉 봇의 비행 상태를 서로 다르게 제어 할 수 있는 플라잉 봇의 제어 장치 및 제어 방법을 제공하는 것이다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 플라잉 봇(Flying Bot)의 제어 장치는, 상기 플라잉 봇과 무선 통신을 수행하는 통신부와, 상기 플라잉 봇의 제어와 관련된 화상 정보를 표시하기 위한 디스플레이부와, 상기 플라잉 봇의 비행 상태 및 상기 플라잉 봇에서 수행 가능한 기능을 제어하기 위한 사용자 입력부와, 상기 플라잉 봇의 회전 방향 및 이동 방향, 틸트(tile) 상태 중 적어도 하나를 감지하기 위한 감지부, 및, 상기 통신부를 통해 상기 플라잉 봇으로부터 상기 플라잉 봇의 위치 및 주변 상황 중 적어도 하나에 대한 정보를 수신하고, 수신된 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 변경하는 제어부를 포함하며, 상기 제어부는, 상기 변경된 플라잉 봇의 비행 제어 방식에 따라, 상기 사용자 입력부에 입력에 따른 상기 플라잉 봇의 이동 방향 및 회전 방향을 사용자의 위치에 근거하여 결정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 플라잉 봇의 위치로부터, 상기 플라잉 봇과 사용자 사이의 이격 거리를 측정하며, 측정된 이격 거리에 따라 상기 플라잉 봇의 비행 제어 방식을 결정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 측정된 이격 거리에 근거하여 상기 플라잉 봇을 사용자가 육안으로 관측한 결과에 따라 상기 플라잉 봇을 제어하는 3인칭 제어 모드, 상기 플라잉 봇에 장착된 카메라의 시점에 근거하여 상기 플라잉 봇을 제어하는 1인칭 제어 모드, 및 상기 플라잉 봇의 지도상 위치에 근거하여 상기 플라잉 봇을 제어하는 위치 지정 모드 중 어느 하나의 비행 제어 방식으로 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 측정된 이격 거리가 기 설정된 제1 이격 거리 미만인 경우 상기 3인칭 제어 모드로 상기 플라잉 봇의 비행 제어 방식을 결정하고, 상기 측정된 이격 거리가 기 설정된 제2 이격 거리 이상인 경우 상기 위치 지정 모드로 상기 플라잉 봇의 비행 제어 방식을 결정하며, 그 외의 경우에, 상기 1인칭 제어 모드로 상기 플라잉 봇의 비행 제어 방식을 결정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 측정된 이격 거리가 기 설정된 제1 이격 거리 미만인 경우, 상기 플라잉 봇으로부터 송출되는 신호의 세기를 더 측정하고, 상기 측정된 이격 거리에 따라 결정되는 기준치 값보다 일정 수준 이상인지 여부에 따라 상기 플라잉 봇의 비행 제어 방식을 상기 1인칭 제어 모드로 변경할지 여부를 결정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 현재 설정된 비행 제어 방식이 1인칭 제어 모드인 경우, 상기 플라잉 봇에 구비된 카메라로부터 수신되는 영상을 상기 디스플레이부 상에 표시 및, 상기 카메라가 향하는 방향을 상기 플라잉 봇의 전방으로 결정하고, 상기 결정된 전방을 기준으로, 상기 플라잉 봇의 후방 및 좌측과 우측 방향을 결정 및, 상기 결정된 방향들을 상기 사용자 입력부에서 상기 플라잉 봇의 이동 방향을 제어하기 위한 키들과 동기화시키는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 현재 설정된 비행 제어 방식이 3인칭 제어 모드인 경우, 상기 플라잉 봇의 위치를 기준으로 사용자가 위치한 방향을 상기 플라잉 봇의 후방으로 결정하고, 상기 결정된 후방을 기준으로, 상기 플라잉 봇의 전방 및 좌측과 우측 방향을 결정, 및 상기 결정된 방향들을 상기 사용자 입력부에서 상기 플라잉 봇의 이동 방향을 제어하기 위한 키들과 동기화시키는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 현재 설정된 비행 제어 방식이 위치 지정 모드인 경우, 상기 플라잉 봇의 현재 위치에 관련된 정보를 포함하는 지도 정보를 상기 디스플레이부 상에 표시하며, 상기 디스플레이부 상에 가해지는 사용자의 터치 입력에 근거하여 상기 플라잉 봇이 이동되도록 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 사용자의 현재 위치에 대한 정보를 상기 지도 정보 상에 더 표시하며, 상기 사용자의 위치에 대응되는 터치 입력이 있는 경우, 상기 플라잉 봇이 사용자에게 되돌아오도록 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 플라잉 봇이, 현재의 위치까지 이동한 경로를 따라 사용자에게 되돌아오도록 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 플라잉 봇으로부터 인접한 장애물을 감지한 결과가 수신되면, 상기 디스플레이부 상에 상기 감지된 장애물에 관련된 정보를 표시하는 것을 특징으로 하는 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는 상기 장애물의 위치 및 방향을 별도의 그래픽 객체를 이용하여 표시하며, 상기 그래픽 객체는, 상기 플라잉 봇과 상기 감지된 장애물 사이의 이격 거리에 따라 서로 다른 색상 또는 형태로 표시되는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 플라잉 봇의 현재 위치를 포함하는 지도 정보를 상기 디스플레이부 상에 표시하며, 상기 장애물과 관련된 정보를 표시하기 위한 그래픽 객체를, 상기 지도 정보 상에 표시하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 3인칭 제어 모드 또는 상기 위치 지정 모드로 비행 제어 방식이 결정되는 경우, 상기 플라잉 봇의 주변 상황을 감지한 결과에 따라 상기 플라잉 봇의 비행 제어 방식을 1인칭 제어 모드로 변경하며, 상기 플라잉 봇의 비행 제어 방식은, 상기 플라잉 봇의 주변에 기 설정된 개수 이상의 장애물이 감지되는 경우 또는 상기 플라잉 봇에 구비된 카메라로부터 수신된 이미지를 분석한 결과 기 설정된 개수 이상의 장애물이 인식되는 경우에 상기 1인칭 제어 모드로 변경되는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 플라잉 봇의 현재 고도 및, 상기 플라잉 봇으로부터 감지되는 기상 상황을 더 감지한 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 한다.
일 실시 예에 있어서, 사용자의 시선을 인식할 수 있는 시선 인식 수단을 더 포함하고, 상기 제어부는, 상기 시선 인식 수단을 통해 사용자의 시선을 인식한 결과 상기 사용자가 상기 플라잉 봇 제어 장치를 응시한 시간이 기 설정된 시간 이상인 경우 상기 1인칭 제어 모드로 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 사용자의 선택에 따라 상기 플라잉 봇에 구비된 카메라를 구동 및, 상기 카메라에서 수신되는 영상을 촬영하며, 상기 영상을 촬영하는 촬영 모드에 따라 서로 다른 방식으로 상기 플라잉 봇의 비행 상태를 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 영상 촬영 모드는, 파노라마(panorama) 이미지를 촬영하기 위한 파노라마 촬영 모드를 포함하며, 상기 제어부는, 상기 영상 촬영 모드가 파노라마 촬영 모드인 경우, 사용자의 제어에 따른 특정 방향으로 상기 플라잉 봇에 구비된 카메라가 향하는 방향이 고정된 상태에서, 상기 사용자의 제어에 따른 이동 방향에 따라 상기 플라잉 봇이 이동되도록 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 플라잉 봇에 구비된 카메라에서 감지되는 영상을 분석한 결과, 상기 플라잉 봇의 위치, 고도, 및 상기 플라잉 봇의 주변 상황 중 적어도 하나에 근거하여 상기 영상 촬영 모드를 자동으로 변경하는 것을 특징으로 한다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 플라잉 봇의 제어 방법은, 상기 플라잉 봇의 위치 및 주변 상황 중 적어도 하나에 관련된 정보를 상기 플라잉 봇으로부터 수신하는 단계와, 상기 수신한 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 결정하는 단계와, 상기 결정된 플라잉 봇의 비행 제어 방식에 따라 사용자의 입력에 따른 상기 플라잉 봇의 이동 방향 및 회전 방향을, 사용자의 위치에 근거하여 결정하는 단계와, 상기 결정된 플라잉 봇의 비행 제어 방식에 따라 상기 플라잉 봇의 제어에 관련된 정보를 사용자에게 제공하는 단계, 및, 사용자의 입력에 따라 상기 플라잉 봇의 이동 및 상기 플라잉 봇에서 실행 가능한 기능을 수행하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 플라잉 봇의 제어 장치 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 플라잉 봇의 위치 및 상태에 근거하여 보다 적절한 제어 모드를 제공함으로써, 사용자가 보다 편리하게 플라잉 봇을 제어할 수 있다는 장점이 있다.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 플라잉 봇의 동작 상태에 근거하여 플라잉 봇의 비행 상태가 제어되도록 함으로써, 플라잉 봇의 동작 상태에 보다 적절한 비행 상태가 유지될 수 있도록 한다는 장점이 있다.
도 1은 본 발명의 실시 예에 따른 플라잉 봇의 제어 장치 및 플라잉 봇을 설명하기 위한 블록도이다.
도 2a, 도 2b 및, 도 2c는 본 발명의 실시 예에 따른 플라잉 봇의 제어 장치 및 플라잉 봇의 예를 도시한 개념도이다.
도 3은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치가 플라잉 봇의 비행을 제어하는 동작 과정을 도시한 흐름도이다.
도 4a 내지 도 4d는, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치의 비행 제어 방식에 따라 플라잉 봇의 이동이 제어되는 예를 설명하기 위한 개념도이다.
도 5는, 도 3에서 도시한 동작 과정 중, 플라잉 봇의 위치 및 상태에 따라 플라잉 봇의 비행 제어 방식을 결정하는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 6은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치가, 현재 선택된 촬영 모드에 따라 플라잉 봇의 비행 상태를 제어하는 동작 과정을 도시한 흐름도이다.
도 7a 내지 도 7b는, 촬영 모드에 따라 플라잉 봇의 비행 상태가 서로 다르게 제어되는 예를 도시한 예시도이다.
도 8은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치에서 플라잉 봇의 이동 및 그에 따라 촬영되는 이미지의 예를 도시한 예시도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
이하의 본 명세서에서는, 플라잉 봇(Flying bot)이 4개의 회전익(rotter)을 가지는 쿼드콥터(quardcopter)임을 가정하여 설명하기로 한다. 그러나 플라잉 봇은, 이처럼 4개의 회전익을 가지는 형태 뿐만 아니라, 2개, 6개 또는 8개의 회전익을 가지는 멀티콥터(Multicopter)일 수 있음은 물론이다. 또한 본 발명은, 이처럼 회전익을 이용하여 비행하는 형태 뿐만 아니라, 회전익을 이용하지 않는 다른 방식, 예를 들어 제트 추진 방식 등을 이용하는 플라잉 봇에도 얼마든지 적용될 수 있음은 물론이다.
우선 도 1을 참조하여 살펴보면, 도 1은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100) 및 플라잉 봇(180)을 설명하기 위한 블록도이다.
우선 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 카메라(120), 통신부(130), 감지부(140), 출력부(150), 사용자 입력부(160), 제어부(110), 메모리(170) 및 전원 공급부(도시되지 않음) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 플라잉 봇 제어 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 플라잉 봇 제어 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 카메라(120)는 영상 신호를 입력받을 수 있다. 카메라(120)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다.
카메라(120)와 레이저 센서는 서로 조합되어, 사용자의 시선 또는 사용자의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호에 따라 감지대상의 움직임을 스캐닝할 수 있다. 이에 따라, 포토 센서는 수신된 영상으로부터 사용자의 안면이 향하는 방향 및, 사용자의 시선을 감지할 수 있다.
통신부(130)는, 기 설정된 주파수 대역의 무선 신호를 이용하여 상기 플라잉 봇(180)과 직접적으로 통신을 수행하거나, 또는 기 설정된 무선 통신 시스템의 중계기 등을 통해 상기 플라잉 봇(180)과의 무선 통신을 수행할 수 있다. 이를 위해 통신부(130)는 플라잉 봇(180)과 통신을 가능하게 하는 적어도 하나의 통신 모듈을 포함할 수 있다.
또한 통신부(130)는 플라잉 봇 제어 장치(100) 위치를 획득하기 위한 모듈을 더 포함할 수 있다. 이러한 위치정보 획득 모듈로서 대표적인 예로는 GPS(Global Positioning System) 모듈이 있을 수 있다. 예를 들어, 플라잉 봇 제어 장치(100)는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 플라잉 봇 제어 장치(100)의 위치를 획득할 수 있다.
감지부(140)는 플라잉 봇을 제어하기 위한 다양한 센서 및, 플라잉 봇 제어 장치(100) 주변을 둘러싼 주변 환경을 감지하기 위한 적어도 하나 이상의 센서를 포함할 수 있다. 예를 들어 감지부(140)는 사용자의 시선을 인식하기 위한 광 센서(optical sensor, 예를 들어, 카메라(120 참조)), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), 관성 센서(inertial sensor), 방위 센서(direction sensor) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 플라잉 봇 제어 장치(100)의 제어부(110)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
사용자 입력부(160)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(160)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 플라잉 봇(180)의 동작을 제어하기 위한 신호를 플라잉 봇(180)으로 전송할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 전, 후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
출력부(150)는 시각, 청각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 플라잉 봇 제어 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(160)로써 기능함과 동시에, 플라잉 봇 제어 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
또한, 메모리(170)는 플라잉 봇 제어 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 플라잉 봇 제어 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 플라잉 봇(180)의 동작을 제어하기 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 출고 당시부터 플라잉 봇 제어 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 플라잉 봇 제어 장치(100) 상에 설치되어, 제어부(180)에 의하여 플라잉 봇(180)의 동작(또는 기능)이 제어되도록 구동될 수 있다.
제어부(110)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 플라잉 봇 제어 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 플라잉 봇(180)을 제어하기 위해 필요한 정보 또는 기능을 제공하며, 사용자의 입력 또는 설정에 따라 플라잉 봇(180)을 제어하기 위한 신호를 전송할 수 있다.
예를 들어 제어부(110)는 사용자 입력부(160)를 통한 사용자의 입력에 따라 상기 플라잉 봇(180)의 비행 방향 또는 비행 속도와 고도를 결정할 수 있다. 또한 제어부(110)는 플라잉 봇(180)으로부터 수신되는 신호로부터 상기 플라잉 봇(180)의 위치 및 상태를 인식하고, 인식된 결과에 따라 플라잉 봇(180)의 비행을 제어하기 위한 다양한 제어 모드를 사용자에게 제공할 수 있다.
예를 들어 제어부(110)는, 플라잉 봇(180)의 시점에서 사용자가 플라잉 봇(180)을 제어할 수 있도록 하는 제어 모드(이하 1인칭 제어 모드라고 칭하기로 한다) 또는, 비행 중인 플라잉 봇(180)을 제3자의 관점에서 관측하며 플라잉 봇을 제어할 수 있도록 하는 제어 모드(이하 3인칭 제어 모드라고 칭하기로 한다)를 사용자에게 제공할 수 있다. 또는 제어부(110)는 현재 플라잉 봇(180)의 사용자로부터 지정된 위치에 따라 플라잉 봇(180)의 이동을 제어하는 제어 모드(이하 위치 지정 모드라고 칭하기로 한다)를 사용자에게 제공할 수 있다.
이러한 경우 제어부(110)는 상기 다양한 제어 모드 중, 사용자에 의해 선택 또는 자동으로 설정된 어느 하나에 따라, 사용자가 상기 플라잉 봇(180)을 제어하기 위한 다양한 정보를 상기 출력부(150)를 통해 표시할 수 있다. 예를 들어 제어부(110)는 플라잉 봇(180)의 제어 모드가 ‘1인칭 제어 모드’인 경우, 상기 플라잉 봇(180)에 구비된 카메라로부터 수신되는 영상을 디스플레이부(151) 상에 표시할 수 있으며, ‘3인칭 제어 모드’인 경우, 상기 플라잉 봇(180)의 고도 및 상기 플라잉 봇(180)에서 감지되는 기상 환경(예를 들어 풍속 등)등에 대한 정보를 상기 디스플레이부(151) 또는 음향 출력부(150) 중 적어도 하나를 통해 표시할 수 있다. 또는 제어부(110)는 플라잉 봇(180)의 제어 모드가 ‘위치 지정 모드’인 경우, 상기 플라잉 봇(180)의 현재 위치를 상기 디스플레이부(151) 상에 표시할 수 있다. 그리고 제어부(110)는 이러한 제어 모드들 중 어느 하나에 따른 사용자의 입력에 따라 상기 플라잉 봇(180)의 이동 및 비행 상태를 제어할 수 있다.
한편 전원공급부(도시되지 않음)는 제어부(110)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 플라잉 봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
한편 플라잉 봇(180)은 봇 카메라(183), 봇 통신부(184), 봇 센싱부(186), 비행 구동부(185)를 포함할 수 있다. 도 1에 도시된 구성요소들은 플라잉 봇(180)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 플라잉 봇(180)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중, 상기 봇 카메라(183)는 영상 신호를 입력받을 수 있다. 봇 카메라(183)는 CCD, CMOS 등의 카메라 센서를 포함할 수 있으며, 봇 제어부(182)의 제어에 따라 상기 카메라 센서에 감지되는 영상을 촬영할 수 있다.
봇 센싱부(186)는 플라잉 봇(180) 주변을 둘러싼 환경을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 예를 들어 봇 센싱부(186)는 근접 센서proximity sensor), 조도 센서(illumination sensor), 가속도 센서, 자기 센서, 중력 센서, 자이로스코프 센서, 관성 센서, 모션 센서, 적외선 센서, 초음파 센서, 방위 센서 중 적어도 하나의 센서를 포함할 수 있다. 또한 환경 센서(예를 들어, 기압계, 습도계, 온도계, 풍속계 등)등을 더 포함할 수 있다. 이러한 센서들 중 대표적인 센서들에 설명하면 다음과 같다.
먼저 근접 센서는 플라잉 봇(180)의 주변 일정 거리 이내에 다른 물체가 있는지 없는지 여부를 검출할 수 있다. 예를 근접 센서는, 레이저 또는 초음파나 적외선 등을 이용하여 플라잉 봇(180)에 접근하는 물체 또는 근방에 존재하는 물체를 검출할 수 있다.
또한 자이로 센서와 방위 센서, 및 관성 센서는 플라잉 봇(180)의 회전 시, 회전 방향을 감지하고 플라잉 봇(180)이 향하고 있는 방향을 감지할 수 있다. 또한 모션 센서는 플라잉 봇(180)의 현재 비행 상태나 기울어진 상태(틸트(tilt)) 상태 및 회전이나 이동 상태등을 감지할 수 있으며, 가속도 센서는 플라잉 봇의 비행 속도를, 상기 중력 센서나 자기 센서는 현재 플라잉 봇(180)의 고도 등을 감지할 수 있다. 또한 환경 센서는 상기 플라잉 봇(180) 주변의 기압, 습도, 온도, 풍속 등 다양한 기상 상황을 감지할 수 있다.
봇 통신부(184)는, 기 설정된 주파수 대역의 무선 신호를 이용하여 상기 플라잉 봇 제어 장치(100)와 통신을 수행하기 위한 적어도 하나의 통신 모듈을 포함할 수 있다. 봇 통신부(184)는 상기 플라잉 봇 제어 장치(100)로부터 수신된 신호를 봇 제어부(182)에 입력하거나, 상기 봇 제어부(182)의 제어에 따라 상기 봇 카메라(183)에서 감지되는 영상 및 봇 센싱부(186)에서 감지되는 감지값들을 플라잉 봇 제어 장치(100)로 전송할 수 있다.
또한 봇 통신부(184)는 플라잉 봇 제어 장치(100) 위치를 획득하기 위한 모듈을 더 포함할 수 있다. 이러한 플라잉 봇(180)의 위치 정보를 획득하기 위한 모듈로서 GPS 모듈이 있을 수 있다. 예를 들어, 플라잉 봇(180)은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 플라잉 봇(180)의 위치를 획득할 수 있다. 그리고 획득된 플라잉 봇(180)의 위치 정보는 상기 봇 통신부(184)를 통해 플라잉 봇 제어 장치(100)로 전송될 수 있다.
비행 구동부(185)는 봇 제어부(182)의 제어에 따라 플라잉 봇(180)의 비행을 가능하게 한다. 비행 구동부(185)는 봇 제어부(182)의 제어에 따른 방향으로 상기 플라잉 봇(180)이 비행하도록 할 수 있으며, 또한 봇 제어부(182)의 제어에 따른 고도에 플라잉 봇(180)이 비행할 수 있도록 한다.
봇 제어부(182)는 플라잉 봇(180)의 전반적인 동작을 제어한다. 봇 제어부(182)는 봇 통신부(184)를 통해 수신되는 제어 신호에 따른 고도 및 방향으로 상기 플라잉 봇(180)이 비행할 수 있도록 상기 비행 구동부(185)를 제어한다. 예를 들어 봇 제어부(182)는 플라잉 봇 제어 장치(100)에서 수신되는 제어 신호에 따라 플라잉 봇(180)의 이동 방향 및 회전 방향을, 상기 플라잉 봇 제어 장치(100)의 사용자 입력부(160)에 동기화하고, 상기 플라잉 봇 제어 장치(100)의 사용자 입력부(160)를 통해 입력되는 제어 신호에 따라 상기 플라잉 봇(180)이 비행할 수 있도록 한다.
또한 플라잉 봇 제어 장치(100)로부터 요구되는 각종 신호들을 플라잉 봇 제어 장치(100)에 전송할 수 있다. 이처럼 플라잉 봇 제어 장치(100)로 전송되는 신호들은 상기 봇 센싱부(186)의 센서들 중 적어도 하나로부터 감지되는 감지값일 수 있으며, 상기 봇 카메라(183)에서 촬영된 영상일 수도 있다. 또한 상기 전송되는 신호들은 상기 봇 통신부(184)로부터 획득된 플라잉 봇(180)의 위치 정보일 수도 있다.
한편 도 2a, 도 2b, 및 도 2c는 이러한 본 발명의 실시 예에 따른 플라잉 봇(180) 및 상기 플라잉 봇(180)을 제어할 수 있는 제어 장치(100)의 예를 보이고 있는 것이다.
우선 도 2a를 참조하여 살펴보면, 도 2a는 본 발명의 실시 예에 따른 플라잉 봇(180)의 예를 보이고 있는 것이다.
도 2a를 참조하여 살펴보면, 본 발명의 실시 예에 따른 플라잉 봇(180)은 적어도 하나의 회전익(185a, 185b, 185c, 185d)과, 봇 카메라(183)를 포함하여 구성될 수 있다. 플라잉 봇(180)의 봇 제어부(182)는 이러한 회전익들(185a, 185b, 185c, 185d)의 구동을 플라잉 봇 제어 장치(100)에서 수신되는 제어 신호에 따라 각각 제어하여, 비행 상태에 있는 플라잉 봇(180)의 방향을 회전시키거나 이동되도록 할 수 있으며, 또는 일정 각도 이상 기울어진 상태(틸트 상태)로 비행하도록 할 수도 있다.
또한 봇 제어부(182)는 구비된 다양한 센서들과, 봇 카메라(183)를 이용하여 주변 환경에 대한 다양한 감지값과, 상기 봇 카메라(183)를 통해 영상을 촬영할 수 있다. 여기서 상기 봇 카메라(183)는 적어도 두 개 이상 구비될 수 있으며, 이러한 경우 상기 봇 제어부(182)는 적어도 두 개의 방향에서 수신되는 영상을 동시에 촬영할 수 있다. 또한 이처럼 봇 카메라(183)가 적어도 두 개인 경우, 봇 제어부(182)는 적어도 두 개의 봇 카메라(183)들 중 어느 하나를 주 카메라(main camera)로 결정할 수 있으며, 상기 주 카메라로 지정된 봇 카메라(183)가 향하는 방향에 따라 상기 플라잉 봇(180)이 이동하는 방향을 결정할 수도 있다.
한편 상기 도 2a에서는 회전익이 4개인 경우를 예로 들어 보이고 있으나, 본 발명이 적용가능한 플라잉 봇(180)은 회전익이 4개보다 적거나 많은 경우는 물론, 회전익 방식을 사용하지 않는 방식, 예를 들어 제트 추진 방식을 이용하는 것일 수도 있음은 물론이다.
한편, 도 2b 및 도 2c는 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 구현된 다양한 예를 보이고 있는 것이다.
우선 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 예를 보이고 있는 도 2b를 참조하여 살펴보면, 본 발명의 일 실시 예에 따른 플라잉 봇 제어 장치(100)는 디스플레이부(151) 및 카메라, 그리고 사용자로부터 플라잉 봇(180)을 제어하기 위한 신호를 입력받을 수 있는 적어도 하나의 사용자 입력부의 키들(160a, 160b, 160c)을 포함할 수 있다. 여기서 상기 키들(160a, 160b, 160c)은 각각 플라잉 봇(180)의 이동 방향을 제어하기 위한 이동키(160a), 플라잉 봇(180)의 틸트 상태나 회전 상태를 제어하기 위한 회전키(160b) 및, 플라잉 봇(180)의 고도를 제어하기 위한 고도키(160c)를 포함하여 구성될 수 있다. 한편 도 2b에서 보이고 있는 키들(160a, 160b, 160c)에 본 발명이 한정되는 것이 아님은 물론이며, 얼마든지 도 2b에서 보이고 있는 것보다 더 많은 키나 더 적은 키를 포함하여 구성될 수도 있음은 물론이다.
한편 제어부(110)는 디스플레이부(151)를 통해, 플라잉 봇(180)의 제어를 위한 다양한 화상 정보들을 디스플레이부(151) 상에 표시할 수 있다. 예를 들어 제어부(110)는 플라잉 봇(180)의 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 감지값들, 예를 들어 고도(altitude(ALT) : 170a) 및 풍속(wind : 170b) 등을 상기 디스플레이부(151) 상에 표시할 수 있다. 또한 제어부(110)는 사용자의 시선을 인식하고, 사용자의 시선이 인식된 시간에 근거하여 상기 플라잉 봇(180)의 비행 제어 모드를 변경할 수 있다. 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 사용자의 시선을 감지하기 위해 다양한 수단을 이용할 수 있다. 예를 들어 플라잉 봇 제어 장치(100)는 카메라(120)를 상기 사용자의 시선을 인식하기 위한 수단으로 이용할 수 있으며, 제어부(110)는 카메라(120)를 통해 수신되는 영상으로부터 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)를 응시하는 사용자의 시선 및 상기 사용자의 시선이 플라잉 봇 제어 장치(100)을 응시한 시간을 감지할 수 있다.
예를 들어, 제어부(110)는 사용자의 시선 인식 결과 또는 플라잉 봇(180)의 위치나 상태로부터 결정되는 플라잉 봇(180)의 비행 제어 모드에 따라 플라잉 봇(180)의 이동 방향 또는 회전 방향등이 결정되도록 할 수 있다. 즉, 제어부(110)는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 이동키(160a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다.
한편 도 2b에서 보이고 있는 것과 같이, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 플라잉 봇(180)의 제어를 위해 별도로 고안된 것일 수도 있으나, 스마트 폰과 같은 이동 단말기에 설치되는 애플리케이션 또는 프로그램의 형태로 구현될 수도 있다. 이러한 경우 상기 애플리케이션 또는 프로그램이 구동되면, 상기 스마트 폰은 플라잉 봇(180)을 제어할 수 있는 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)로서 동작할 수 있다.
도 2c는 이처럼 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 애플리케이션 또는 프로그램의 형태로 구현된 경우, 상기 애플리케이션 또는 프로그램이 구동된 스마트 폰(200)의 예를 보이고 있는 것이다.
도 2c를 참조하여 살펴보면, 스마트 폰(200)은 본 발명의 실시 예에 따른 플라잉 봇 제어 애플리케이션 또는 프로그램이 실행되면, 스마트 폰(200)의 제어부는 상기 플라잉 봇(180)의 제어를 위한 다양한 화상 정보를 스마트 폰(200)의 디스플레이부(251)를 통해 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는 플라잉 봇(180)의 비행 상태를 제어하기 위한 다양한 그래픽 객체들(260a, 260b, 260c)을 디스플레이부(251) 상에 표시할 수 있다.
이러한 그래픽 객체들은, 각각 플라잉 봇(180)의 이동 방향을 제어하기 위한 이동키(160a)에 대응되는 제1 가상키(260a), 플라잉 봇(180)의 회전 방향 또는 틸트 상태를 제어하기 위한 회전키(160b)에 대응되는 제2 가상키(260b) 및, 플라잉 봇(180)의 고도를 제어하기 위한 고도키(160c)에 대응되는 제3 가상키(260c)가 될 수 있다. 이러한 키들은 본 발명의 이해를 돕기 위한 것일 뿐, 본 발명이 이에 한정되는 것은 아니어서, 스마트 폰(200)의 제어부는 얼마든지 더 많거나 더 적은 플라잉 봇(180)을 제어하기 위한 가상 키들을 상기 디스플레이부(251) 상에 표시할 수 있음은 물론이다.
한편 본 발명의 실시 예에 따른 플라잉 봇 제어 애플리케이션 또는 프로그램이 실행되면, 스마트 폰(200)의 제어부는 스마트 폰(200)의 전면에 구비된 카메라를 이용하여 사용자의 시선을 인식할 수 있으며, 사용자의 시선이 인식된 시간에 근거하여 상기 플라잉 봇(180)의 비행 제어 모드를 변경할 수 있다.
예를 들어, 스마트 폰(200)의 제어부는 사용자의 시선 인식 결과 또는 플라잉 봇(180)의 위치나 상태로부터 결정되는 플라잉 봇(180)의 비행 제어 모드에 따라 플라잉 봇(180)의 이동 방향 또는 회전 방향등이 결정되도록 할 수 있다. 즉, 스마트 폰(200)의 제어부는 현재 설정된 비행 제어 모드에 근거하여, 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향 또는 사용자의 위치나 기준 4방위(동서남북)를 기준으로 상기 제1 가상키(260a)의 입력에 따른 상기 플라잉 봇(180)의 이동 방향 및/또는 회전 방향을 결정할 수 있다.
그리고 스마트 폰(200)의 제어부(110)는 현재 결정된 비행 제어 방식과 관련된 다양한 화상 정보를 상기 디스플레이부(251) 상에 표시할 수 있다. 예를 들어 스마트 폰(200)의 제어부는, 봇 카메라(183)에서 촬영되는 영상 및, 플라잉 봇(180)의 각종 센서로부터 감지되는 다양한 감지값들을 상기 디스플레이부(251) 상에 표시할 수 있다.
한편 이상의 설명에서는, 플라잉 봇(180)을 제어하기 위해 별도로 고안된 플라잉 봇 제어 장치(100)와, 본 발명의 실시 예에 따른 플라잉 봇 제어 방법에 따라 플라잉 봇(180)을 제어하기 위한 애플리케이션 또는 프로그램이 구동되는 스마트 폰(200)을 각각 구분하여 설명하였으나, 이하의 설명에서는 설명의 편의상, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 스마트 폰(200)에서 상기 애플리케이션 또는 프로그램이 구동되는 형태임을 가정하여 명하기로 한다. 이러한 경우, 스마트 폰(200)은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가 될 수 있으며, 스마트 폰(200)의 제어부, 디스플레이부(251) 및 카메라(220)는, 각각 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 제어부(110), 디스플레이부(151), 카메라(120)로 구동될 수 있다.
이하에서는 이와 같이 구성된 플라잉 봇 제어 장치(100)에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
도 3은 본 발명의 실시 예에 따른 플라잉 봇 제어 장치가 플라잉 봇의 비행을 제어하는 동작 과정을 도시한 흐름도이다.
도 3을 참조하여 살펴보면, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 제어부(110)는 플라잉 봇(180)의 구동 시, 초기 설정된 제어 방식에 따라 플라잉 봇(180)의 비행을 제어할 수 있다(S300). 이러한 초기 설정 제어 방식은, 사용자에 의해 미리 결정된 것이거나 또는 플라잉 봇(180) 및 플라잉 봇 제어 장치(100)의 출고시에 미리 정해진 것일 수 있다. 또는 플라잉 봇(180)과 플라잉 봇 제어 장치(100)의 위치에 따라 결정되는 것일 수도 있다.
바람직하게, 상기 초기 설정된 기본 제어 방식은, 3인칭 제어 모드일 수 있다. 이는 플라잉 봇(180)의 구동이 시작되는 경우, 플라잉 봇(180)은 사용자의 시야가 미치는 거리 안에 위치한 상태일 가능성이 높으며, 봇 카메라(183) 역시 지면과 가까운 상태에서는 시야가 제한된 상태일 수 있기 때문이다. 이에 따라 사용자가 제3자의 관점에서 상기 플라잉 봇(180) 및, 장애물 등 플라잉 봇(180)의 주변 상황을 확인하면서 상기 플라잉 봇(180)을 이륙시키는 것이 보다 편리할 수 있기 때문이다.
한편 플라잉 봇(180)이 비행을 시작하는 경우, 플라잉 봇(180)의 봇 제어부(182)는 주변의 다양한 상황을 감지한 정보들을 플라잉 봇 제어 장치(100)로 전송할 수 있다. 여기서 상기 플라잉 봇(180)에서 수신되는 정보들은, 플라잉 봇(180)의 센서들로부터 감지된 감지값 또는 상기 플라잉 봇(180)의 위치 등에 대한 정보를 포함할 수 있다. 이러한 경우 플라잉 봇 제어 장치(100)의 제어부(110)는 상기 수신된 정보들로부터 상기 플라잉 봇(180)의 위치 및 상태를 판단할 수 있다(S302).
한편, 제어부(110)는 상기 S302 단계에서 판단된 상기 플라잉 봇(180)의 위치 및 상태 중 적어도 하나에 근거하여 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있다. 또는 상기 카메라(120)를 통해 사용자의 시선이 플라잉 봇 제어 장치(100)를 응시한 시간을 감지한 결과에 따라 상기 플라잉 봇(180)의 비행 제어 방식을 결정할 수도 있다.
예를 들어 제어부(110)는 상기 카메라(120)를 통해 사용자의 시선이 감지되는 경우, 상기 사용자의 시선이 감지된 시간을 측정할 수 있다. 그리고 상기 측정된 시간이 기 설정된 시간 이상인 경우, 이에 근거하여 상기 플라잉 봇(180)의 비행 제어 방식을 변경할 수 있다. 이러한 경우 제어부(110)는 상기 플라잉 봇(180)의 제어 방식을 플라잉 봇(180)의 시점에서 플라잉 봇(180)을 제어하는 1인칭 제어 모드로 변경할 수 있다.
한편, 제어부(110)는 플라잉 봇(180)의 위치로부터, 상기 플라잉 봇(180)과 자신(플라잉 봇 제어 장치(100)) 사이의 이격 거리를 검출할 수 있고, 검출된 이격 거리에 근거하여, 현재 플라잉 봇(180)에 보다 적합한 비행 제어 방식을 결정할 수도 있다(S304). 또는 제어부(110)는 플라잉 봇(180)으로부터 수신되는 신호의 세기에 근거하여 상기 플라잉 봇(180)의 비행 제어 방식을 결정할 수도 있다. 이하 이처럼 상기 S302 단계에서 판단된 결과에 따라, 플라잉 봇(180)의 비행 제어 방식을 결정하는 상기 S304 단계의 동작 과정의 일 예를, 하기 도 5를 참조하여 보다 자세하게 살펴보기로 한다.
한편, 상기 S304 단계에서 결정된 플라잉 봇(180)의 비행 제어 방식이, 현재 설정된 비행 제어 방식과 다른 경우라면, 제어부(110)는 비행 제어 방식이 변경된 것을 인지할 수 있다. 이러한 경우 제어부(110)는 변경된 비행 제어 방식에 따라, 플라잉 봇(180)의 이동 방향 및 회전 방향 등을 사용자 입력부(160)의 각 키들에 동기화 시킬 수 있다.
이러한 경우 제어부(110)는 현재 결정된 비행 제어 방식에 따라 플라잉 봇(180)의 전방(front), 후방(rear), 좌측(left) 및, 우측(right) 방향을 결정할 수 있다. 예를 들어, 플라잉 봇(180)의 비행 제어 방식이, 1인칭 제어 모드로 변경된 경우라면, 제어부(110)는 플라잉 봇(180)에서 봇 카메라(183)가 향하는 방향을 '전방'으로 결정하고, 상기 결정된 ‘전방’을 기준으로 ‘후방’, ‘좌측’ 및 ‘우측’을 결정할 수 있다. 그리고 상기 결정된 방향들과 사용자 입력부(160)의 키들 중 이동키(160a)를 동기화시킬 수 있다(S306).
뿐만 아니라 제어부(110)는, 상기 S306 단계에서, 상기 결정된 ‘전방’을 기준으로 상기 플라잉 봇(180)의 회전 상태 및, 틸트 상태가 동기화되도록, 상기 플라잉 봇(180)의 모션이나 관성, 및 회전을 감지하는 센서들, 즉 모션 센서, 관성 센서, 자이로스코프 센서를 제어하기 위한 신호를 상기 플라잉 봇(180)에 전송할 수 있다. 이에 따라 플라잉 봇(180)은 현재 변경된 비행 제어 방식에 따라 이동 방향 뿐만 아니라, 회전 방향이나 틸트 상태등이 상기 사용자 입력부의 키들과 동기화될 수 있다.
한편 상술한 설명에서는 1인칭 제어 모드 만을 언급하였으나, 다른 비행 제어 방식으로 변경되는 경우 역시 마찬가지일 수 있다. 예를 들어 비행 제어 방식이 3인칭 제어 모드 또는 위치 지정 모드로 변경된 경우, 제어부(110)는 이에 따라 플라잉 봇(180)의 전방(front), 후방(rear), 좌측(left) 및, 우측(right) 방향을 결정할 수 있다. 예를 들어, 3인칭 제어 모드로 변경된 경우, 제어부(110)는 플라잉 봇(180)과 사용자, 즉 플라잉 봇 제어 장치(100)의 위치에 근거하여 상기 방향들을 결정할 수 있다. 이러한 경우 제어부(110)는, 플라잉 봇(180)으로부터 플라잉 봇 제어 장치(100)를 향하는 방향을 ‘후방’으로 결정하고, 그 반대 방향을 ‘전방’으로 결정할 수 있다. 그리고 결정된 ‘전방’ 및 ‘후방’을 기준으로 ‘좌측’ 및 ‘우측’을 결정할 수 있다. 그리고 상기 결정된 방향들과 사용자 입력부(160)의 키들 중 이동키(160a)를 동기화시킬 수 있다.
반면, 플라잉 봇(180)의 비행 제어 방식이 위치 지정 모드로 변경된 경우, 제어부(110)는 기준 4방위(동서남북)에 근거하여 상기 방향들을 결정할 수 있다. 이러한 경우 제어부(110)는 사용자 입력부(160)의 키들 중 이동키(160a)가 향하는 방향을 기준 4방위(동서남북)으로 설정하고, 사용자의 키 입력에 따라 플라잉 봇(180)의 이동 방향 및 회전 방향, 그리고 틸트 상태등을 제어하기 위한 신호를 플라잉 봇(180)에 전송할 수 있다.
도 4a 내지 도 4d는, 이처럼 본 발명의 실시 예에 따른 플라잉 봇 제어 장치의 비행 제어 방식에 따라 플라잉 봇의 이동이 제어되는 예를 설명하기 위한 개념도이다.
우선 도 4a는 플라잉 봇(180)의 비행 제어 방식이 1인칭 제어 모드인 경우에, 상기 플라잉 봇(180)의 각 방향들이 결정되는 예를 보이고 있는 것이다. 도 4a에서 보이고 있는 것과 같이, 1인칭 제어 모드인 경우에는, 상기 봇 카메라(183)가 향하는 방향(400)이, 플라잉 봇(180)의 전방(front)이 될 수 있으며, 이를 기준으로 다른 방향들(후방, 좌측 및 우측)이 결정될 수 있다. 또한 이에 따라 플라잉 봇(180)의 회전 방향 및 틸트 상태등이 결정될 수 있다.
도 4b는 플라잉 봇(180)의 비행 제어 방식이 3인칭 제어 모드인 경우에, 상기 플라잉 봇(180)의 각 방향들이 결정되는 예를 보이고 있는 것이다. 여기서 3인칭 제어 모드라는 것은, 사용자가 육안으로 상기 플라잉 봇(180)을 관찰하면서 상기 플라잉 봇(180)의 비행 상태를 제어하는 비행 제어 방식일 수 있다.
이에 따라 상기 플라잉 봇(180)의 전방, 후방, 및 좌측 및 우측은 사용자, 즉 플라잉 봇 제어 장치(100)가 위치한 방향에 따라 결정할 수 있다. 이러한 경우, 제어부(110)는 도 5b에서 보이고 있는 것처럼, 사용자와 가까운 곳으로 향하는 방향, 즉 플라잉 봇 제어 장치(100)가 위치한 방향을 상기 플라잉 봇(180)의 ‘후방’으로 결정할 수 있다. 그리고 이와 반대로 사용자와 먼 곳으로 향하는 방향, 즉 플라잉 봇 제어 장치(100)가 위치한 방향과 반대 방향을 상기 플라잉 봇(180)의 ‘전방’으로 결정할 수 있다. 그리고 이처럼 결정된 방향에 따라 좌측 및 우측이 결정될 수 있다. 이러한 경우 상기 플라잉 봇(180)의 봇 카메라(183)가 향하는 방향과는 다른 방향이 플라잉 봇(180)의 전방으로 결정될 수 있으며, 이에 따라 플라잉 봇(180)의 전방이 아닌 다른 방향의 영상이 상기 봇 카메라(183)를 통해 촬영될 수 있다.
한편, 도 4c 및 도 4d는 플라잉 봇(180)의 비행 제어 방식이 위치 지정 모드인 경우의 예들을 보이고 있는 것이다. 도 4c 및 도 4d에서 보이고 있는 것처럼, 위치 지정 모드는, 현재 플라잉 봇(450)의 지도상 위치를 표시할 수 있다.
이러한 경우 도 4c에서 보이고 있는 것처럼, 제어부(110)는 기준 4방위(430)에 사용자 입력부(160) 이동키(160a)에 대응되는 각 방향을 동기화시킬 수 있다. 이러한 경우 제어부(110)는 이동키(160a)에 대한 사용자의 입력에 따라 플라잉 봇(180)의 이동 방향을 기준 4방위의 각 방향에 근거하여 결정할 수 있다.
한편 상기 위치 지정 방식의 경우, 제어부(110)는 디스플레이부(151) 상에 표시되는 지도 정보 중 특정 위치를 지정하기 위한 사용자의 터치 입력을 감지할 수 있다. 즉 도 4d에서 보이고 있는 것처럼, 사용자가 지도 정보가 표시되는 디스플레이부(151) 상의 특정 지점에 터치 입력을 가하는 경우, 제어부(110)는 상기 터치 입력을, 상기 터치 입력이 가해진 지점에 대응되는 지도상 위치에 상기 플라잉 봇을 이동시키기 위한 사용자의 입력으로 인식할 수 있다.
이에 따라 제어부(110)는 상기 지정된 위치로 상기 플라잉 봇(180)을 이동시키기 위한 제어 신호를 전송할 수 있다. 따라서 상기 플라잉 봇(180)은, 도 4d에서 보이고 있는 것처럼, 기존 위치(460a)에서 이동될 수 있으며, 이동 중인 상태의 위치(460b)가 디스플레이부(151) 상에 표시될 수 있다.
한편 이러한 위치 지정 모드로 비행 제어 방식이 결정되는 경우, 제어부(110)는 디스플레이부(151) 상에 사용자의 위치를 표시할 수도 있음은 물론이다. 이러한 경우 제어부(110)는 상기 사용자의 위치가 표시된 디스플레이부(151) 상의 지점에서 터치 입력이 감지되면, 상기 플라잉 봇(180)이 사용자에게 되돌아오도록 하는 제어 신호를 전송할 수 있다. 이러한 경우 제어부(110)는 플라잉 봇(180)이 현재의 위치까지 이동한 경로를 따라 이동하도록 할 수 있으며, 이에 따라 플라잉 봇(180)은 자신이 이동했던 경로를 그대로 이동하여 사용자에게 되돌아올 수 있다.
한편 이러한 위치 지정 모드로 구동되는 경우에도, 플라잉 봇(180)은 인접한 장애물을 검출할 수 있음은 물론이다. 이러한 경우 플라잉 봇(180)은 감지된 장애물의 위치 및 방향, 그리고 플라잉 봇(180)에서 이격된 거리를 감지할 수 있으며, 감지된 정보를 플라잉 봇 제어 장치(100)에 전송할 수 있다. 그리고 이러한 경우 상기 감지된 장애물에 대한 정보, 즉 장애물의 위치 및 방향 그리고 이격 거리 등의 정보가 플라잉 봇 제어 장치(100)의 디스플레이부(151) 상에 표시될 수 있다.
한편 제어부(110)는 상기 S306 단계에서 플라잉 봇(180)의 비행 제어 방식이 변경되는 경우 이를 상기 디스플레이부(151) 상에 표시되는 화상 정보 또는 음향 출력부(150)를 통해 출력되는 음향 정보를 통해 사용자에게 알릴 수도 있다. 그리고 사용자가 상기 비행 제어 방식의 변경을 승인한 경우에 한하여 상기 비행 제어 방식이 변경되도록 할 수도 있음은 물론이다.
한편 상기 S306 단계에서 비행 제어 방식이 변경되는 경우, 제어부(110)는 변경된 비행 제어 방식에 따라 필요한 정보들을 사용자에게 제공할 수 있다(S308). 예를 들어 제어부(110)는 상기 도 4a에서 보이고 있는 것과 같이, 비행 제어 방식이 1인칭 제어 모드인 경우, 상기 플라잉 봇(180)의 봇 카메라(183)에서 수신되는 영상을 디스플레이부(151) 상에 표시할 수 있다. 또한 제어부(110)는 비행 제어 방식이 위치 지정 방식인 경우, 상기 플라잉 봇(180)의 현재 지도상 위치 등을 디스플레이부(151) 상에 표시할 수 있다. 뿐만 아니라 제어부(110)는 플라잉 봇(180) 주변의 상태(예를 들어 기상 상태) 등을 표시할 수도 있다.
그리고 제어부(110)는 다시 상기 S302 단계로 진행하여, 상기 플라잉 봇(180)으로부터 수신되는 정보들에 근거하여, 플라잉 봇(180)의 위치 및 상태를 판단할 수 있다. 그리고 다시 S304 단계로 진행하여 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있으며, 상기 S304 단계의 결정 결과에 따라 상기 S306 단계 및 S308 단계를 다시 수행할 수도 있다.
이처럼, 플라잉 봇(180)의 다양한 위치 및 상태 등에 따라 플라잉 봇(180)의 비행 제어 방식이 결정되도록 함으로써, 제어부(110)는 사용자가 직관적으로 상기 플라잉 봇(180)을 제어할 수 있도록 한다. 또한 플라잉 봇(180)의 비행 방식이 변경되는 경우, 그에 따라 사용자가 플라잉 봇(180)을 제어하기 위해 필요한 정보들을 디스플레이부(151) 상에 표시함으로써 사용자가 보다 편리하/게 플라잉 봇을 제어할 수 있도록 한다.
한편 도 5는, 도 3에서 도시한 동작 과정 중, 플라잉 봇의 위치 및 상태에 따라 플라잉 봇의 비행 제어 방식을 결정하는 동작 과정을 보다 자세히 도시한 것이다.
상기 S304 단계에서 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 플라잉 봇(180)의 위치 및/또는 상태에 근거하여, 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있다. 이처럼 플라잉 봇(180)의 비행 상태를 결정할 수 있는 조건은 다양한 것이 있을 수 있다. 예를 들어 플라잉 봇 제어 장치(100)의 제어부(110)는 플라잉 봇(180)과 플라잉 봇 제어 장치(100) 사이의 이격 거리 또는 플라잉 봇(180)에서 전송되는 신호의 세기에 근거하여 상기 플라잉 봇(180)의 비행 제어 방식을 변경할 수 있다. 도 5는 이러한 경우에 플라잉 봇(180)의 비행 제어 방식이 변경되는 예를 보이고 있는 것이다.
도 5를 참조하여 살펴보면, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)의 제어부(110)는 상기 S302 단계에서 플라잉 봇(180)으로부터 플라잉 봇(180)의 현재 상황에 대한 다양한 정보들이 전송되면, 전송된 정보로부터 상기 플라잉 봇(180)의 위치를 검출할 수 있다. 그리고 제어부(110)는 검출된 플라잉 봇(180)의 위치로부터 플라잉 봇(180)과 플라잉 봇 제어 장치(100) 사이의 이격 거리를 검출할 수 있다.
이러한 경우 제어부(110)는 상기 플라잉 봇(180)과 플라잉 봇 제어 장치(100) 사이의 이격 거리가, 기 설정된 제1 이격 거리 이상인지 여부를 판단할 수 있다(S500). 여기서 상기 제1 이격 거리는, 사용자가 육안으로 상기 플라잉 봇(180)을 관측가능한 거리가 될 수 있다, 즉 상기 이격 거리가, 상기 기 설정된 제1 이격 거리 미만인 경우, 사용자는 육안으로 플라잉 봇(180)을 관측할 수 있으며, 이에 따라 3인칭 제어 모드로 상기 플라잉 봇(180)을 제어할 수 있다.
한편, 비록 사용자, 즉 플라잉 봇 제어 장치(100)와 상기 플라잉 봇(180) 사이의 이격 거리가, 기 설정된 제1 이격 거리 미만인 경우라도, 상기 플라잉 봇(180)과 사용자 사이에 장애물이 있는 경우 사용자는 플라잉 봇을 육안으로 관측할 수 없는 상황이 발생할 수 있다. 이러한 경우 제어부(110)는 상기 플라잉 봇(180)과 사용자 사이에 장애물이 있는지 여부에 따라 다양한 방법을 사용할 수 있다. 예를 들어 제어부(110)는 플라잉 봇(180)의 봇 제어부(182)를 통해, 플라잉 봇(180) 근처에 장애물이 있는지 여부를 검출하거나, 또는 플라잉 봇(180)으로부터 송출되는 신호의 세기를, 상기 플라잉 봇(180)이 이격된 거리에 근거하여 판단함으로써, 플라잉 봇(180)과 사용자 사이에 장애물이 있는지 여부를 검출할 수도 있다.
이를 위해 제어부(110)는 상기 S500 단계에서, 상기 플라잉 봇(180)과 사용자 사이의 이격 거리가 기 설정된 제1 이격 거리 미만인 경우, 상기 플라잉 봇(180)으로부터 송출된 신호의 세기가, 기준치보다 일정 수준 이상 낮은지 여부를 판단할 수 있다(S502). 여기서 상기 신호의 세기를 판단하기 위한 기준치는, 상기 플라잉 봇(180)과 사용자 사이의 이격 거리에 따라 결정될 수 있다. 즉, 상기 플라잉 봇(180)과 사용자 사이의 이격 거리가 멀수록, 상기 기준은 보다 약한 신호의 세기값이 될 수 있으며, 상기 이격 거리가 가까울수록 보다 강한 신호의 세기값이 될 수 있다. 이러한 경우 제어부(110)는 기후나 주변 환경등의 영향을 고려하여, 상기 기준치로부터 일정 수준의 범위를 설정할 수 있으며, 상기 송출된 신호의 세기가 상기 기준치를 기준으로 설정되는 일정 수준의 범위 보다 낮은지 여부를 판단할 수 있다.
상기 S502 단계의 판단 결과, 상기 플라잉 봇(180)으로부터 송출된 신호의 세기가, 상기 플라잉 봇(180)이 이격된 거리에 따른 기준치보다 일정 수준 이상 낮지 않다고 판단되는 경우, 제어부(110)는 사용자가 플라잉 봇(180)을 육안으로 관측하고 제어하는 것이 가능하다고 판단할 수 있다. 이에 따라 제어부(110)는 플라잉 봇(180)의 비행 제어 방식을 3인칭 제어 모드로 결정할 수 있다(S504). 그리고 만약 현재 설정된 플라잉 봇(180)의 비행 제어 방식이 3인칭 제어 모드가 아닌 경우라면, 제어부(110)는 플라잉 봇(180)의 비행 제어 방식을 3인칭 제어 모드로 변경할지 여부를 사용자로부터 선택받거나, 또는 제어 방식을 변경한 후 이를 사용자에게 알릴 수 있다. 그리고 제어부(110)는 상기 변경된 비행 제어 방식에 따라 플라잉 봇(180)의 제어에 필요한 정보들을 사용자에게 제공할 수 있다.
한편 상기 S500 단계의 판단 결과, 상기 플라잉 봇(180)과 사용자 사이의 이격 거리가 기 설정된 제1 이격 거리 이상인 경우, 제어부(110)는 사용자가 육안으로 플라잉 봇(180)을 관측하면서 제어하는 것이 불가능하다고 판단할 수 있다. 또는 제어부(110)는 상기 S502 단계의 판단 결과, 플라잉 봇(180)으로부터 송출되는 신호의 세기가 상기 플라잉 봇(180)과의 이격 거리에 따른 기준치보다 일정 수준 이상 낮은 경우라면, 플라잉 봇(180)과 사용자 사이에 장애물이 있는 것으로 인식할 수 있다. 이처럼 상기 S500 단계에서 사용자가 육안으로 플라잉 봇(180)을 제어하는 것이 불가능하다고 판단하거나, 상기 S502 단계에서 플라잉 봇(180)과 사용자 사이에 장애물이 있는 것으로 판단되는 경우, 제어부(110)는 사용자가 플라잉 봇(180)의 봇 카메라(183)의 시점에서 상기 플라잉 봇(180)을 제어할 수 있는 1인칭 제어 모드로 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있다.
이러한 경우 제어부(110)는, 플라잉 봇(180)의 현재 비행 제어 방식이 1인칭 제어 모드가 아닌 경우, 비행 제어 방식의 변경을 사용자로부터 선택받거나, 변경된 비행 제어 방식을 사용자에게 표시할 수 있다. 그리고 제어부(110)는 상기 변경된 비행 제어 방식에 따라 플라잉 봇(180)의 제어에 필요한 정보들을 사용자에게 제공할 수 있다. 여기서 상기 플라잉 봇(180)의 제어에 필요한 정보는, 상기 플라잉 봇(180)의 봇 카메라(183)에서 수신된 영상이 될 수 있다.
한편, 제어부(110)는 상기 플라잉 봇(180)이 1인칭 제어 모드로 제어하는 것이 부적합하다고 판단되는 경우, 또는 사용자의 선택에 따라 플라잉 봇(180)의 비행 제어 방식을 위치 지정 모드로 변경할 수도 있다. 예를 들어 제어부(110)는 상기 플라잉 봇(180)이 사용자로부터 기 설정된 수준 이상 장거리의 비행을 하는 경우, 이러한 상기 1인칭 제어 모드가 비행 제어 방식으로 적합하지 않다고 판단할 수도 있다. 이러한 경우 제어부(110)는 현재 플라잉 봇(180)의 지도상 위치를 표시하고, 상기 플라잉 봇(180)을 이동시킬 특정 지도상 위치를 상기 사용자로부터 지정받거나, 상기 플라잉 봇(180)의 지도상 위치에 따라 상기 플라잉 봇(180)의 이동 방향을 입력받을 수 있는 위치 지정 모드로 비행 제어 방식을 결정할 수 있다.
즉, 제어부(110)는 플라잉 봇(180)과 사용자 사이의 이격 거리가, 기 설정된 제1 이격 거리 이상인 경우, 상기 위치 지정 모드 또는 1인칭 제어 모드로 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있다. 그리고 상기 플라잉 봇(180)과 사용자 사이의 이격 거리가, 기 설정된 제2 이격 거리 이상인 경우 1인칭 제어 모드 대신, 위치 지정 모드가 보다 적합하다고 결정할 수 있다. 여기서 상기 제1 이격 거리는, 상기 기 제2 이격 거리에 비해 보다 짧은 거리일 수 있다. 따라서 제어부(110)는 상기 플라잉 봇(180)과 사용자 사이의 이격 거리가, 상기 제1 이격 거리 이상, 상기 제2 이격 거리 미만인 경우에 1인칭 제어 모드로 상기 플라잉 봇(180)의 비행 제어 방식을 결정할 수 있다.
한편 비록 상기 S304 단계의 결정 결과, 플라잉 봇(180)의 비행 제어 방식이 3인칭 제어 모드 또는 위치 지정 모드로 결정된 경우라도, 제어부(110)는 플라잉 봇(180)의 주변 상황에 근거하여 상기 비행 제어 방식을 변경할 수도 있음은 물론이다. 예를 들어 제어부(110)는 상기 플라잉 봇(180)의 봇 센싱부(186) 감지 결과, 플라잉 봇(180) 주변에 장애물이 있거나, 기상 환경이 악화(풍속등이 일정 수준 이상인 경우, 우천시인 경우 등)되는 경우, 그에 따라 플라잉 봇(180)의 비행 제어 방식을 변경할 수도 있다.
이러한 경우 제어부(110)는 플라잉 봇(180)의 제어 방식을 1인칭 제어 방식으로 변경할 수 있다. 이는 상기 1인칭 제어 방식의 경우, 사용자가 플라잉 봇(180)의 관점에서 플라잉 봇(180)을 제어함으로써 충돌 등 다양한 위험 요소로부터 보다 기민하게 대처할 수 있기 때문이다. 그리고 제어부(110)는 이처럼 1인칭 제어 방식으로 플라잉 봇(180)이 제어되는 경우, 장애물 등이 감지되면 이를 사용자에게 표시할 수도 있다. 예를 들어 제어부(110)는 진동 또는 특정 음향 신호로 이러한 장애물 접근 경고를 표시할 수 있다. 또한 제어부(110)는 디스플레이부(151)를 통해 장애물 접근 경고를 표시하는 경우, 상기 장애물이 위치한 방향을 표시할 수 있을 뿐만 아니라, 상기 장애물과 플라잉 봇(180) 사이의 거리에 따라 서로 다른 색상 및/또는 형태의 그래픽 객체로 상기 장애물 접근 경고를 표시할 수도 있다.
한편, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 상기 플라잉 봇(180)에서 수행되는 기능에 따라 상기 플라잉 봇(180)의 비행 상태가 제어되도록 할 수도 있다. 예를 들어 상기 플라잉 봇 제어 장치(100)의 제어부(110)는 플라잉 봇(180)의 영상 촬영 방식에 따라 상기 플라잉 봇(180)의 비행 상태가 서로 달라지도록 할 수도 있다.
도 6은 이처럼 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)가, 현재 선택된 촬영 모드에 따라 플라잉 봇(180)의 비행 상태를 제어하는 동작 과정을 도시한 것이다.
도 6을 참조하여 살펴보면, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 사용자의 선택에 따라 플라잉 봇(180)의 봇 카메라(183)를 구동시킬 수 있으며, 기 설정된 다양한 촬영 모드에 따라 상기 봇 카메라(183)의 카메라 센서에 감지되는 영상을 동영상 또는 정지 영상으로 촬영되도록 플라잉 봇(180)의 비행 상태를 제어할 수 있다(S600). 예를 들어 이러한 촬영 모드는, 일반 촬영 모드, 파노라마(panorama) 촬영 모드 등이 있을 수 있으며, 플라잉 봇(180)은 이러한 촬영 모드에 따라 서로 다른 형태로 비행하여 서로 다른 형태의 영상을 저장할 수 있다.
일반적으로 파노라마 촬영 모드는, 횡방향으로 연속적으로 이어지는 복수의 이미지를, 이어지는 이미지끼리 연결하여, 횡방향의 연속된 주변의 넓은 풍경 이미지(파노라마 이미지)를 촬영하는 촬영 모드일 수 있다. 반면 일반 촬영 모드인 경우, 플라잉 봇(180)은 봇 카메라(183)의 촬영 방향을 고정시킬 필요 없이 사용자의 제어 신호에 따라 특정 방향으로 회전하여 봇 카메라(183)로부터 수신되는 영상을 촬영하는 모드일 수 있다.
이러한 플라잉 봇(180)의 촬영 모드에 따라, 플라잉 봇 제어 장치(100)는 플라잉 봇(180)의 비행 상태를 서로 다르게 제어할 수 있다. 예를 들어 현재 촬영 모드가 파노라마 촬영 모드인 경우, 제어부(110)는 상기 파노라마 이미지를 촬영하기 위해, 봇 카메라(183)의 촬영 방향을 고정시킨 비행함으로써, 플라잉 봇(180)의 특정 방향에 대한 연속되는 복수의 이미지를 촬영할 수 있도록 할 수 있다. 또는 제어부(110)는 촬영 모드가 일반 촬영 모드인 경우, 사용자의 제어에 따라, 플라잉 봇(180)의 봇 카메라(183)가 사용자가 원하는 방향의 영상을 수신하도록 상기 플라잉 봇(180)을 회전시키고, 상기 봇 카메라(183)에서 수신되는 영상이 촬영되도록 할 수도 있다.
도 7a 내지 도 7b는, 이러한 촬영 모드에 따라 플라잉 봇의 비행 상태가 제어되는 예를 도시한 예시도이다.
우선 도 7a를 참조하여 살펴보면, 도 7a는 파노라마 촬영 모드인 상태에서, 상기 플라잉 봇(180)이 이동되는 상태의 예를 도시한 것이다.
도 7a에서 보이고 있는 것과 같이, 파노라마 촬영 모드로 구동되는 경우, 봇 제어부(182)는 플라잉 봇 제어 장치(100)의 제어에 따라, 봇 카메라(183)가 향하는 방향(700)이 고정된 상태에서, 상기 플라잉 봇(180)이 이동될 수 있도록 함으로써 상기 플라잉 봇(180)의 이동 위치에 따라, 상기 봇 카메라(183)가 향하는 방향(700)의 연속된 이미지들이 촬영될 수 있도록 한다. 이러한 경우 플라잉 봇 제어 장치(100)는 상기 플라잉 봇(180)에서 수신되는 복수의 이미지를 서로 연속하여 횡방향으로 연결함으로써 파노라마 이미지를 생성할 수 있으며, 생성된 파노라마 이미지를 상기 디스플레이부(151)를 통해 출력할 수 있다.
반면 도 7b는 일반 촬영 모드인 상태에서, 상기 플라잉 봇(180)이 이동되는 상태의 예를 도시한 것이다.
일반 촬영 모드인 경우, 봇 제어부(182)는 상기 파노라마 촬영 모드에서 보이고 있는 것과 같이 연속되는 복수의 이미지를 촬영할 필요가 없다. 이에 따라 도 7b에서 보이고 있는 것과 같이, 봇 제어부(182)는 플라잉 봇 제어 장치(100)의 제어에 따른 이동 방향으로 플라잉 봇(180)의 방향을 회전시킬 수 있으며, 이에 따라 봇 카메라(183)가 향하는 방향 또한 달라지게 된다. 따라서 이동 전과 이동 후에, 상기 봇 카메라(183)는 서로 다른 방향의 이미지를 촬영할 수 있으며, 플라잉 봇 제어 장치(100)는 상기 촬영된 이미지를 수신하고 이를 디스플레이부(151) 상에 표시할 수 있다.
한편 이러한 촬영 모드는, 사용자에 의해 직접 선택될 수도 있지만, 기 설정된 조건에 근거하여 자동으로 선택될 수도 있음은 물론이다. 예를 들어 플라잉 봇 제어 장치(100)의 제어부(110)는 플라잉 봇(180)으로부터 수신된 이미지를 분석한 결과에 근거하여 보다 적합한 촬영 모드를 결정할 수 있다(S602). 예를 들어 제어부(110)는 상기 수신된 이미지의 배경을 분석하여, 상기 이미지의 배경이 수평선 또는 하늘인 경우라면, 파노라마 촬영 모드로 촬영 모드를 변경할 수 있다. 또는 제어부(110)는 수신된 이미지를 분석한 결과 뿐만 아니라, 플라잉 봇(180)의 위치에 근거하여 보다 적합한 촬영 모드를 결정할 수도 있다. 예를 들어 제어부(110)는 플라잉 봇(180)이 일정 수준 이상의 고도에 위치하는 경우 또는, 상기 플라잉 봇(180)의 지도상 위치가 바다 등과 같은 특정 장소에 있는 경우, 이러한 플라잉 봇(180)의 위치에 근거하여 촬영 모드를 파노라마 촬영 모드로 변경할 수도 있다(S602).
또는 상기 수신된 이미지의 분석 결과, 주변에 장애물이 많은 배경이거나, 또는 상기 플라잉 봇(180)의 주변에 장애물이 많은 상황인 경우라면, 제어부(110)는 플라잉 봇(180)의 촬영 모드를 일반 촬영 모드로 변경할 수도 있다. 이는 장애물이 많은 경우, 플라잉 봇(180)의 비행 제어 방식을 1인칭 제어 모드로 변경하여, 사용자가 플라잉 봇(180)의 시점에서 플라잉 봇(180)을 제어할 수 있도록 하기 위함이다. 또는 상기 플라잉 봇(180)의 비행 제어 방식이 사용자 또는 기 설정된 조건에 근거하여 1인칭 제어 모드로 변경되는 경우, 플라잉 봇(180)의 촬영 모드를 일반 촬영 모드로 변경할 수도 있음은 물론이다. 이는 파노라마 촬영 모드의 경우, 봇 카메라(183)의 방향이 고정된 상태가 될 수 있기 때문이다.
상기 S602 단계의 촬영 모드 결정 결과, 제어부(110)는 현재 설정된 촬영 모드가 변경되었는지 여부를 판단할 수 있다(S604). 그리고 상기 S604 단계의 판단 결과, 촬영 모드가 변경되지 않은 경우라면, 제어부(110)는 다시 S600 단계로 진행하여 현재 설정된 촬영 모드에 따라 플라잉 봇(180)의 비행 상태를 제어 및, 봇 카메라(183)에서 수신되는 영상이 촬영되도록 플라잉 봇(180)을 제어한다. 그러나 상기 S604 단계의 판단 결과 촬영 모드가 변경된 경우라면, 제어부(110)는 현재 변경된 촬영 모드에 따라 플라잉 봇(180)의 비행 상태를 제어하고, 봇 카메라(183)에서 수신되는 영상이 촬영되도록 플라잉 봇(180)을 제어한다(S606).
그리고 제어부(110)는 플라잉 봇(180) 영상 촬영 종료가 선택되었는지 여부를 감지할 수 있다(S608). 예를 들어 제어부(110)는 사용자가 촬영 종료를 선택하는 경우, 상기 플라잉 봇(180)에서 영상을 촬영하는 것을 종료할 수 있다. 그러나 만약, 현재 플라잉 봇(180)의 비행 제어 방식이, 1인칭 제어 모드인 경우라면, 사용자가 영상 촬영을 종료하였는지 여부에 상관없이, 상기 봇 카메라(183)에서 감지된 영상을 수신하여, 플라잉 봇 제어 장치(100)의 디스플레이부(151) 상에 표시할 수 있음이 물론이다. 즉, 1인칭 제어 모드의 경우, 촬영 모드가 종료되면, 제어부(110)는 봇 카메라(183)에서 감지된 영상을 별도로 메모리(170)에 저장하지 않을 뿐, 봇 카메라(183)가 계속 동작하도록 제어할 수 있다.
그러나 만약 상기 S608 단계의 감지 결과, 플라잉 봇(180)의 영상 촬영이 종료되지 않은 경우라면, 제어부(110)는 다시 상기 S602 단계로 진행하여, 플라잉 봇(180)의 영상 촬영 모드의 변경 여부를 결정할 수 있다. 그리고 상기 S604 단계로 다시 진행하여, 촬영 모드가 변경되었는지 여부에 따라 상기 S600 단계 내지 S602 단계를 다시 수행할 수 있다. 또는 제어부(110)는 상기 S604 단계의 판단 결과에 따라 상기 S606 단계 및 상기 S608 단계의 동작 과정을 다시 수행할 수도 있다.
한편, 본 발명의 실시 예에 따른 플라잉 봇 제어 장치(100)는 위치 지정 모드로 동작하는 경우에도, 상기 파노라마 촬영 모드에 따라 영상을 촬영할 수 있다. 도 8은 이러한 경우에 본 발명의 실시 예에 따른 플라잉 봇 제어 장치에서 플라잉 봇의 이동 및 그에 따라 촬영되는 이미지의 예를 도시한 것이다.
도 8을 참조하여 살펴보면, 도 8에서 보이고 있는 것과 같이, 위치 지정 모드로 동작하는 경우, 제어부(110)는 디스플레이부(151) 상에서 감지되는 사용자의 터치 입력에 따라 상기 플라잉 봇(180)의 이동을 결정할 수 있다. 이러한 사용자의 터치 입력은, 특정 지점에 대한 터치가 될 수 있으나, 터치 앤드 드래그 입력의 형태로 이루어질 수도 있다.
이러한 경우 제어부(110)는 도 8에서 보이고 있는 것처럼, 현재 플라잉 봇(180)의 위치(800)가 표시되는 디스플레이부(151) 상의 지점에, 터치 입력을 가하고, 이를 드래그 할 수 있다. 이러한 경우, 상기 터치 입력이 드래그된 위치(802)로 상기 플라잉 봇(180)이 이동할 수 있다. 그리고 이러한 상태에서 플라잉 봇(180)의 영상 촬영이 선택되는 경우, 제어부(110)는 플라잉 봇(180)에 구비된 봇 카메라(183)가 향하는 방향을 별도의 그래픽 객체(제1 그래픽 객체(810a) 및, 제2 그래픽 객체(810b))를 이용하여 표시할 수 있다.
이러한 상태에서, 제어부(110)는 사용자의 선택 또는 봇 카메라(183)에서 수신된 이미지를 분석한 결과, 또는 플라잉 봇(180)의 위치등에 근거하여, 봇 카메라(183)의 촬영 모드를 결정할 수 있다. 이러한 경우 만약 상기 촬영 모드가 파노라마 촬영 모드인 경우라면, 상기 도 7a에서 보이고 있는 것처럼, 플라잉 봇(180)의 위치 이동에도 불구하고, 봇 카메라(183)가 향하는 방향은 고정된 상태일 수 있다.
이에 따라 플라잉 봇(180)이 이전 위치(800)에서 터치 앤드 드래그 입력에 의해 이동된 위치(802)로 이동하는 중에도, 상기 제1 그래픽 객체(810a) 및 제2 그래픽 객체(810b)에서 보이고 있는 것처럼, 봇 카메라(183)의 방향이 고정되어 있을 수 있으며, 그 방향에 따라 연속된 영상을 촬영할 수 있다.
예를 들어, 도 8의 제1 이미지(820)는 플라잉 봇(180)이 이전 위치(800)에 있을 때 촬영된 영상일 수 있으며, 제2 이미지(830)는 플라잉 봇(180)이 사용자의 터치 앤드 드래그 입력에 의해 이동된 위치(802)에 있을 때 촬영된 영상일 수 있다. 이러한 경우 제어부(110)는 플라잉 봇(180)으로부터 상기 제1 이미지(820) 및 제2 이미지(830)를 수신하고 이를 합성하여 파노라마 이미지를 생성할 수 있으며, 생성된 파노라마 이미지는 디스플레이부(151) 상에 표시될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 플라잉 봇(Flying Bot)의 제어 장치에 있어서,
    상기 플라잉 봇과 무선 통신을 수행하는 통신부;
    상기 플라잉 봇의 제어와 관련된 화상 정보를 표시하기 위한 디스플레이부;
    상기 플라잉 봇의 비행 상태 및 상기 플라잉 봇에서 수행 가능한 기능을 제어하기 위한 사용자 입력부;
    상기 플라잉 봇의 회전 방향 및 이동 방향, 틸트(tile) 상태 중 적어도 하나를 감지하기 위한 감지부; 및,
    상기 통신부를 통해 상기 플라잉 봇으로부터 상기 플라잉 봇의 위치 및 주변 상황 중 적어도 하나에 대한 정보를 수신하고, 수신된 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 변경하는 제어부를 포함하며,
    상기 제어부는,
    상기 변경된 플라잉 봇의 비행 제어 방식에 따라, 상기 사용자 입력부에 입력에 따른 상기 플라잉 봇의 이동 방향 및 회전 방향을 사용자의 위치에 근거하여 결정하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  2. 제1항에 있어서, 상기 제어부는,
    상기 플라잉 봇의 위치로부터, 상기 플라잉 봇과 사용자 사이의 이격 거리를 측정하며, 측정된 이격 거리에 따라 상기 플라잉 봇의 비행 제어 방식을 결정하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  3. 제2항에 있어서, 상기 제어부는,
    상기 측정된 이격 거리에 근거하여 상기 플라잉 봇을 사용자가 육안으로 관측한 결과에 따라 상기 플라잉 봇을 제어하는 3인칭 제어 모드, 상기 플라잉 봇에 장착된 카메라의 시점에 근거하여 상기 플라잉 봇을 제어하는 1인칭 제어 모드, 및 상기 플라잉 봇의 지도상 위치에 근거하여 상기 플라잉 봇을 제어하는 위치 지정 모드 중 어느 하나의 비행 제어 방식으로 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  4. 제3항에 있어서, 상기 제어부는,
    상기 측정된 이격 거리가 기 설정된 제1 이격 거리 미만인 경우 상기 3인칭 제어 모드로 상기 플라잉 봇의 비행 제어 방식을 결정하고,
    상기 측정된 이격 거리가 기 설정된 제2 이격 거리 이상인 경우 상기 위치 지정 모드로 상기 플라잉 봇의 비행 제어 방식을 결정하며,
    그 외의 경우에, 상기 1인칭 제어 모드로 상기 플라잉 봇의 비행 제어 방식을 결정하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  5. 제4항에 있어서, 상기 제어부는,
    상기 측정된 이격 거리가 기 설정된 제1 이격 거리 미만인 경우, 상기 플라잉 봇으로부터 송출되는 신호의 세기를 더 측정하고, 상기 측정된 이격 거리에 따라 결정되는 기준치 값보다 일정 수준 이상인지 여부에 따라 상기 플라잉 봇의 비행 제어 방식을 상기 1인칭 제어 모드로 변경할지 여부를 결정하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  6. 제3항에 있어서, 상기 제어부는,
    현재 설정된 비행 제어 방식이 1인칭 제어 모드인 경우, 상기 플라잉 봇에 구비된 카메라로부터 수신되는 영상을 상기 디스플레이부 상에 표시 및, 상기 카메라가 향하는 방향을 상기 플라잉 봇의 전방으로 결정하고,
    상기 결정된 전방을 기준으로, 상기 플라잉 봇의 후방 및 좌측과 우측 방향을 결정 및, 상기 결정된 방향들을 상기 사용자 입력부에서 상기 플라잉 봇의 이동 방향을 제어하기 위한 키들과 동기화시키는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  7. 제3항에 있어서, 상기 제어부는,
    현재 설정된 비행 제어 방식이 3인칭 제어 모드인 경우, 상기 플라잉 봇의 위치를 기준으로 사용자가 위치한 방향을 상기 플라잉 봇의 후방으로 결정하고,
    상기 결정된 후방을 기준으로, 상기 플라잉 봇의 전방 및 좌측과 우측 방향을 결정, 및 상기 결정된 방향들을 상기 사용자 입력부에서 상기 플라잉 봇의 이동 방향을 제어하기 위한 키들과 동기화시키는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  8. 제3항에 있어서, 상기 제어부는,
    현재 설정된 비행 제어 방식이 위치 지정 모드인 경우, 상기 플라잉 봇의 현재 위치에 관련된 정보를 포함하는 지도 정보를 상기 디스플레이부 상에 표시하며,
    상기 디스플레이부 상에 가해지는 사용자의 터치 입력에 근거하여 상기 플라잉 봇이 이동되도록 제어하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  9. 제8항에 있어서, 상기 제어부는,
    사용자의 현재 위치에 대한 정보를 상기 지도 정보 상에 더 표시하며,
    상기 사용자의 위치에 대응되는 터치 입력이 있는 경우, 상기 플라잉 봇이 사용자에게 되돌아오도록 제어하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  10. 제9항에 있어서, 상기 제어부는,
    상기 플라잉 봇이, 현재의 위치까지 이동한 경로를 따라 사용자에게 되돌아오도록 제어하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  11. 제1항에 있어서, 상기 제어부는,
    상기 플라잉 봇으로부터 인접한 장애물을 감지한 결과가 수신되면,
    상기 디스플레이부 상에 상기 감지된 장애물에 관련된 정보를 표시하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  12. 제11항에 있어서,
    상기 제어부는
    상기 장애물의 위치 및 방향을 별도의 그래픽 객체를 이용하여 표시하며,
    상기 그래픽 객체는,
    상기 플라잉 봇과 상기 감지된 장애물 사이의 이격 거리에 따라 서로 다른 색상 또는 형태로 표시되는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  13. 제12항에 있어서, 상기 제어부는,
    상기 플라잉 봇의 현재 위치를 포함하는 지도 정보를 상기 디스플레이부 상에 표시하며,
    상기 장애물과 관련된 정보를 표시하기 위한 그래픽 객체를, 상기 지도 정보 상에 표시하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  14. 제3항에 있어서, 상기 제어부는,
    상기 3인칭 제어 모드 또는 상기 위치 지정 모드로 비행 제어 방식이 결정되는 경우, 상기 플라잉 봇의 주변 상황을 감지한 결과에 따라 상기 플라잉 봇의 비행 제어 방식을 1인칭 제어 모드로 변경하며,
    상기 플라잉 봇의 비행 제어 방식은,
    상기 플라잉 봇의 주변에 기 설정된 개수 이상의 장애물이 감지되는 경우 또는 상기 플라잉 봇에 구비된 카메라로부터 수신된 이미지를 분석한 결과 기 설정된 개수 이상의 장애물이 인식되는 경우에 상기 1인칭 제어 모드로 변경되는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  15. 제2항에 있어서, 상기 제어부는,
    상기 플라잉 봇의 현재 고도 및, 상기 플라잉 봇으로부터 감지되는 기상 상황을 더 감지한 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  16. 제3항에 있어서,
    사용자의 시선을 인식할 수 있는 시선 인식 수단을 더 포함하고,
    상기 제어부는,
    상기 시선 인식 수단을 통해 사용자의 시선을 인식한 결과 상기 사용자가 상기 플라잉 봇 제어 장치를 응시한 시간이 기 설정된 시간 이상인 경우 상기 1인칭 제어 모드로 상기 플라잉 봇의 비행 제어 방식을 변경하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  17. 제1항에 있어서, 상기 제어부는,
    사용자의 선택에 따라 상기 플라잉 봇에 구비된 카메라를 구동 및, 상기 카메라에서 수신되는 영상을 촬영하며,
    상기 영상을 촬영하는 촬영 모드에 따라 서로 다른 방식으로 상기 플라잉 봇의 비행 상태를 제어하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  18. 제18항에 있어서,
    상기 영상 촬영 모드는,
    파노라마 이미지를 촬영하기 위한 파노라마(panorama) 촬영 모드를 포함하며,
    상기 제어부는,
    상기 영상 촬영 모드가 파노라마 촬영 모드인 경우, 사용자의 제어에 따른 특정 방향으로 상기 플라잉 봇에 구비된 카메라가 향하는 방향이 고정된 상태에서, 상기 사용자의 제어에 따른 이동 방향에 따라 상기 플라잉 봇이 이동되도록 제어하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  19. 제18항에 있어서, 상기 제어부는,
    상기 플라잉 봇에 구비된 카메라에서 감지되는 영상을 분석한 결과, 상기 플라잉 봇의 위치, 고도, 및 상기 플라잉 봇의 주변 상황 중 적어도 하나에 근거하여 상기 영상 촬영 모드를 자동으로 변경하는 것을 특징으로 하는 플라잉 봇의 제어 장치.
  20. 플라잉 봇(Flying Bot)을 제어하기 위한 방법에 있어서,
    상기 플라잉 봇의 위치 및 주변 상황 중 적어도 하나에 관련된 정보를 상기 플라잉 봇으로부터 수신하는 단계;
    상기 수신한 결과에 근거하여 상기 플라잉 봇의 비행 제어 방식을 결정하는 단계;
    상기 결정된 플라잉 봇의 비행 제어 방식에 따라 사용자의 입력에 따른 상기 플라잉 봇의 이동 방향 및 회전 방향을, 사용자의 위치에 근거하여 결정하는 단계;
    상기 결정된 플라잉 봇의 비행 제어 방식에 따라 상기 플라잉 봇의 제어에 관련된 정보를 사용자에게 제공하는 단계; 및,
    사용자의 입력에 따라 상기 플라잉 봇의 이동 및 상기 플라잉 봇에서 실행 가능한 기능을 수행하는 단계를 포함하는 것을 특징으로 하는 플라잉 봇의 제어 방법.
KR1020177011684A 2014-11-14 2014-11-14 플라잉 봇의 제어 장치 및 제어 방법 KR20170086482A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/010960 WO2016076463A1 (ko) 2014-11-14 2014-11-14 플라잉 봇의 제어 장치 및 제어 방법

Publications (1)

Publication Number Publication Date
KR20170086482A true KR20170086482A (ko) 2017-07-26

Family

ID=55954535

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177011684A KR20170086482A (ko) 2014-11-14 2014-11-14 플라잉 봇의 제어 장치 및 제어 방법

Country Status (3)

Country Link
US (1) US10191487B2 (ko)
KR (1) KR20170086482A (ko)
WO (1) WO2016076463A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019147556A (ja) * 2017-11-06 2019-09-05 株式会社エアロネクスト 飛行体及び飛行体の制御方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10409366B2 (en) 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US10242379B2 (en) * 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
KR102005944B1 (ko) * 2016-10-19 2019-08-01 주식회사 만도 주차 보조 시스템 및 그 제어 방법
WO2019168079A1 (ja) * 2018-02-28 2019-09-06 株式会社ナイルワークス 安全性を向上した農業用ドローン
CN111918821A (zh) * 2018-03-19 2020-11-10 本田技研工业株式会社 飞行器以及飞行器的控制方法
WO2019235418A1 (ja) * 2018-06-04 2019-12-12 株式会社ナイルワークス ドローンシステム、ドローン、操縦器、ドローンシステムの制御方法、および、ドローンシステム制御プログラム
US11809181B2 (en) * 2021-02-11 2023-11-07 Ford Global Technologies, Llc Systems and methods for remote control of vehicles

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670052B2 (ja) 2005-08-19 2011-04-13 学校法人東京電機大学 飛翔ロボット操縦装置および飛翔ロボット操縦方法
KR20110111156A (ko) 2010-04-02 2011-10-10 신진교 프로펠러를 갖는 무선조정용 항공장치
KR20120036684A (ko) 2010-10-08 2012-04-18 경운대학교 산학협력단 지피에스를 이용한 지능형 항공로봇
CA2834210C (en) * 2011-05-03 2019-09-03 Packers Plus Energy Services Inc. Sliding sleeve valve and method for fluid treating a subterranean formation
FR2985581B1 (fr) * 2012-01-05 2014-11-28 Parrot Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs
US20140008496A1 (en) * 2012-07-05 2014-01-09 Zhou Ye Using handheld device to control flying object
US8948935B1 (en) * 2013-01-02 2015-02-03 Google Inc. Providing a medical support device via an unmanned aerial vehicle
EP3060966B1 (en) * 2014-07-30 2021-05-05 SZ DJI Technology Co., Ltd. Systems and methods for target tracking
CN112908042A (zh) * 2015-03-31 2021-06-04 深圳市大疆创新科技有限公司 用于操作无人飞行器的系统和遥控器
US10395434B2 (en) * 2015-04-14 2019-08-27 ETAK Systems, LLC Annotated 3D models of telecommunication sites for planning, engineering, and installation
US10000285B2 (en) * 2016-09-09 2018-06-19 X Development Llc Methods and systems for detecting and resolving failure events when raising and lowering a payload

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019147556A (ja) * 2017-11-06 2019-09-05 株式会社エアロネクスト 飛行体及び飛行体の制御方法
JP2019167104A (ja) * 2017-11-06 2019-10-03 株式会社エアロネクスト 飛行体及び飛行体の制御方法

Also Published As

Publication number Publication date
WO2016076463A1 (ko) 2016-05-19
US20170329325A1 (en) 2017-11-16
US10191487B2 (en) 2019-01-29

Similar Documents

Publication Publication Date Title
KR20170086482A (ko) 플라잉 봇의 제어 장치 및 제어 방법
US11644832B2 (en) User interaction paradigms for a flying digital assistant
US10816967B2 (en) Magic wand interface and other user interaction paradigms for a flying digital assistant
KR102219698B1 (ko) 무인 항공기 제어 장치 및 방법
KR20180075191A (ko) 무인 이동체를 제어하기 위한 방법 및 전자 장치
KR20180064253A (ko) 비행 제어 방법 및 이를 지원하는 전자 장치
WO2016168722A1 (en) Magic wand interface and other user interaction paradigms for a flying digital assistant
CN107205111B (zh) 摄像装置、移动装置、摄像系统、摄像方法和记录介质
CN102445947A (zh) 无人飞行载具控制系统及方法
US10771707B2 (en) Information processing device and information processing method
US11151804B2 (en) Information processing device, information processing method, and program
JP2014063411A (ja) 遠隔制御システム、制御方法、及び、プログラム
KR102391210B1 (ko) 드론 및 드론의 제어 방법
EP3926976B1 (en) Information processing device, information processing method, and program
JP6685742B2 (ja) 操作装置、移動装置、およびその制御システム
JP6855616B2 (ja) 操作装置、移動装置、およびその制御システム
JP2017112438A (ja) 撮像システムおよびその制御方法、通信装置、移動撮像装置、プログラム
US20220166917A1 (en) Information processing apparatus, information processing method, and program
KR20180060403A (ko) 영상 기반의 드론 제어장치
KR20180106178A (ko) 무인 비행체, 전자 장치 및 그에 대한 제어 방법
KR20170019777A (ko) 플라잉 봇의 촬영 제어 장치 및 그 제어방법
KR101761487B1 (ko) Head 디바이스 및 그의 동작 방법
US20230280742A1 (en) Magic Wand Interface And Other User Interaction Paradigms For A Flying Digital Assistant
US12007763B2 (en) Magic wand interface and other user interaction paradigms for a flying digital assistant
WO2022070851A1 (ja) 方法、システムおよびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right