WO2021215366A1 - 無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体 - Google Patents

無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体 Download PDF

Info

Publication number
WO2021215366A1
WO2021215366A1 PCT/JP2021/015756 JP2021015756W WO2021215366A1 WO 2021215366 A1 WO2021215366 A1 WO 2021215366A1 JP 2021015756 W JP2021015756 W JP 2021015756W WO 2021215366 A1 WO2021215366 A1 WO 2021215366A1
Authority
WO
WIPO (PCT)
Prior art keywords
control command
aerial vehicle
unmanned aerial
operator
remote control
Prior art date
Application number
PCT/JP2021/015756
Other languages
English (en)
French (fr)
Inventor
高橋 正光
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022517020A priority Critical patent/JPWO2021215366A5/ja
Priority to US17/919,776 priority patent/US20230161339A1/en
Publication of WO2021215366A1 publication Critical patent/WO2021215366A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Definitions

  • the present invention relates to an unmanned aerial vehicle remote control device, an unmanned aerial vehicle remote control system, an unmanned aerial vehicle remote control method, and a recording medium.
  • a remote control device for remotely controlling an unmanned aerial vehicle which is provided with an operation wand that is gripped and operated by an operator and a guide mechanism that guides the movement of the operation wand (see, for example, Patent Document 1). ..
  • a marker photographed by an infrared camera is attached to the operation wand.
  • the movement of the marker is measured by the principle of triangulation based on the image taken by the infrared camera, and the three-dimensional time series position information of the operation wand is generated, and the generated three-dimensional time is generated.
  • the unmanned aerial vehicle can be remotely controlled by generating a command for operating the unmanned aerial vehicle based on the sequence position information and transmitting the generated command to the unmanned aerial vehicle.
  • Patent Document 1 in order to remotely control an unmanned aerial vehicle, an operation wand and its guide mechanism must be used, and there is a problem that preparation and operation thereof are costly.
  • an object of the present invention is an unmanned aerial vehicle remote control device, an unmanned aerial vehicle remote control system, an unmanned aerial vehicle remote control method, and an unmanned aerial vehicle remote control device capable of remotely controlling an unmanned aerial vehicle without using an operation wand and its guide mechanism.
  • the purpose is to provide a recording medium.
  • the unmanned aircraft remote control device of the present invention includes a gesture recognition means for recognizing a gesture of the operator's finger based on an image including the operator's finger taken by a camera, and the gesture recognition means recognized by the gesture recognition means.
  • the control command specifying means for specifying the control command associated with the gesture of the operator's finger and the communication means for transmitting the control command specified by the control command specifying means to the unmanned aircraft are provided.
  • the unmanned aircraft remote control system of the present invention receives a camera, an unmanned aircraft that receives a control command and is controlled based on the received control command, and the operator's finger based on an image taken by the camera.
  • the gesture recognition unit that recognizes the gesture of the above, the control command identification unit that specifies the control command associated with the gesture of the operator's finger recognized by the gesture recognition unit, and the control command identification unit. It includes a communication unit that transmits a control command to the unmanned aircraft.
  • the unmanned aircraft remote control method of the present invention includes a gesture recognition step for recognizing a gesture of the operator's finger based on an image including the operator's finger taken by a camera, and the gesture recognition step recognized by the gesture recognition step. It includes a control command specifying step for specifying a control command associated with a gesture of the operator's finger, and a communication step for transmitting the control command specified by the control command specifying step to an unmanned aircraft.
  • the recording medium of the present invention includes a gesture recognition process for recognizing a gesture of an operator's finger based on an image including the operator's finger taken by a camera on an electronic device including at least one processor.
  • a control command specifying process for specifying a control command associated with the gesture of the operator's finger recognized by the gesture recognition process, and a communication process for transmitting the control command specified by the control command specifying process to an unmanned aircraft.
  • an unmanned aerial vehicle remote control device an unmanned aerial vehicle remote control system, an unmanned aerial vehicle remote control method and a recording medium capable of remotely controlling an unmanned aerial vehicle without using an operation wand and a guide mechanism thereof. ..
  • FIG. 1 is a schematic configuration diagram of the unmanned aerial vehicle remote control device 10.
  • the unmanned aircraft remote control device 10 has a gesture recognition unit 12b and a gesture recognition unit that recognize the gestures of the operator's fingers based on an image including the operator's fingers taken by the camera.
  • a control command specifying unit 12c that specifies a control command associated with an operator's finger gesture recognized by 12b, a communication unit 14 that transmits a control command specified by the control command specifying unit 12c to an unmanned aircraft, and a communication unit 14. It has.
  • FIG. 2 is a flowchart of an example of the operation of the unmanned aerial vehicle remote control device 10 (unmanned aerial vehicle remote control processing).
  • the gesture recognition unit 12b recognizes the gesture of the operator's finger based on the image including the operator's finger taken by the camera (step S1).
  • control command specifying unit 12c identifies the control command associated with the gesture of the operator's finger recognized in step S1 (step S2).
  • the communication unit 14 transmits the control command specified in step S2 to the unmanned aerial vehicle (step S3).
  • the unmanned aerial vehicle can be remotely controlled by the gesture of the operator's fingers without using the operation wand and its guide mechanism.
  • the unmanned aerial vehicle remote control system will be described in detail as the second embodiment of the present invention.
  • the drone remote control system will be used as the unmanned aerial vehicle remote control system.
  • it will be referred to as a drone remote control system 1.
  • the drone control command specifying unit is used as the control command specifying unit 12c.
  • the drone control command specifying unit 12c it will be described as the drone control command specifying unit 12c.
  • FIG. 3 is a block diagram showing the configuration of the drone remote control system 1 according to the second embodiment.
  • the drone remote control system 1 is a system for remotely controlling the drone by the gesture of the operator's fingers.
  • the drone remote control system 1 includes a drone remote control device 10, a camera 20, and a drone 30.
  • the drone remote control device 10 includes a storage unit 11, a control unit 12, a memory 13, and a communication unit 14.
  • the storage unit 11 is, for example, a non-volatile storage unit such as a hard disk device or a ROM.
  • the program 11a and the conversion table 11b are stored in the storage unit 11.
  • Program 11a is a program executed by the control unit 12 (processor).
  • the conversion table 11b finger gestures (plurality) and drone control commands are stored (registered) in association with each other.
  • control unit 12 includes a processor.
  • the processor is, for example, a CPU (Central Processing Unit). There may be one processor or multiple processors.
  • the processor functions as an image acquisition unit 12a, a gesture recognition unit 12b, a drone control command specifying unit 12c, and a drone control unit 12d by executing a program 11a read from the storage unit 11 into the memory 13 (for example, RAM). .. Some or all of these may be implemented in hardware.
  • the image acquisition unit 12a acquires an image (distance image) including the operator's fingers taken by the camera 20 from the camera 20.
  • the gesture recognition unit 12b executes a hand gesture recognition process for recognizing an operator's finger gesture (for example, a three-dimensional gesture) based on the image acquired by the image acquisition unit 12a.
  • a hand gesture recognition process for example, the one described in Japanese Patent No. 5709228 can be used, and thus the description thereof will be omitted.
  • FIG. 4 is an example of finger gestures recognized by the gesture recognition unit 12b.
  • finger gestures include, for example, a circle operation (clockwise), a circle operation (counterclockwise), a pinch operation, and a pointing operation.
  • Circle operation is a gesture of drawing a circle clockwise with the operator's fingers.
  • Circle operation is a gesture of drawing a circle counterclockwise with the operator's fingers.
  • the pinch operation is a gesture of picking with the operator's thumb and index finger.
  • the pointing operation is a gesture of pointing the index finger of the operator in a specific direction.
  • the drone control command specifying unit 12c converts the gesture of the operator's finger recognized by the gesture recognition unit 12b into a drone control command. Specifically, the drone control command specifying unit 12c is associated with the gesture of the operator's finger recognized by the gesture recognition unit 12b among the drone control commands stored in the storage unit 11 (conversion table 11b). Identify the drone control command.
  • the drone control unit 12d transmits the drone control command specified by the control command identification unit 12c to the drone 30 via the communication unit 14.
  • the communication unit 14 is a communication device that performs wireless communication (for example, wireless communication by WiFi (registered trademark)) with the drone 30.
  • the camera 20 captures an image (video) including the operator's fingers.
  • the camera 20 is, for example, a TOF (Time-of-Flight) type distance image camera. When using a TOF type distance image camera, only one camera 20 is required.
  • the camera 20 is connected to the drone remote control device 10 by wire or wirelessly.
  • the camera 20 is provided in addition to the drone 30.
  • the camera 20 may be a separate body from the drone remote control device 10, or may be built in the drone remote control device 10.
  • Drone 30 is an unmanned aerial vehicle (rotorcraft) that can be flown by remote control.
  • the drone 30 is also called a multicopter.
  • the drone 30 includes a communication unit (not shown) for wireless communication (for example, wireless communication by WiFi) with the drone remote control device 10 and a camera for aerial photography (not shown).
  • the drone 30 Upon receiving the drone control command transmitted from the drone remote control device 10, the drone 30 executes an operation (takeoff / landing, forward / backward, ascending / descending, turning, somersault, etc.) corresponding to the received drone control command.
  • FIG. 5 is a flowchart of an example of the operation of the drone remote control device 10 (drone remote control processing).
  • the drone remote control device 10 acquires an image (distance image) including the operator's fingers taken by the camera 20 from the camera 20 (step S10).
  • a plurality of images are acquired at different times.
  • the drone remote control device 10 executes a hand gesture recognition process that recognizes the operator's finger gestures based on the image acquired by the image acquisition unit 12a (step S11).
  • step S11 when the drone remote control device 10 cannot recognize the gesture of the finger (step S12: NO), the processes of steps S10 to S12 are repeatedly executed.
  • step S12 when the gesture of the finger can be recognized as a result of step S11 (step S12: YES), the drone remote control device 10 (drone control command specifying unit 12c) is stored in the storage unit 11 (conversion table 11b). Among the control commands, the drone control command associated with the gesture of the operator's finger recognized by the gesture recognition unit 12b is specified (step S13).
  • the drone remote control device 10 (drone control unit 12d) wirelessly transmits the drone control command specified in step S13 to the drone 30 via the communication unit 14 (step S14).
  • FIG. 6 is a sequence diagram showing the operation of the drone remote control system 1.
  • the drone remote control device 10 (communication unit 14) establishes WiFi communication with the drone 30 (step S20).
  • the drone remote control device 10 (drone control unit 12d) wirelessly transmits a drone initialization instruction for initializing the drone 30 to the drone 30 via the communication unit 14 (steps S21 and S22).
  • the drone 30 Upon receiving the drone initialization instruction transmitted from the drone remote control device 10, the drone 30 executes initialization and wirelessly transmits an initialization response indicating that the initialization is completed to the drone remote control device 10 ( Step S23).
  • the drone remote control device 10 receives the initialization response transmitted from the drone 30 via the communication unit 14 (steps S23 and S24).
  • the drone remote control device 10 (drone control unit 12d) sends the drone control command specified in step S13 to the drone 30 via the communication unit 14. Wireless transmission (steps S25, S26).
  • the drone 30 When the drone 30 receives the drone control command transmitted from the drone remote control device 10, it executes an operation (takeoff / landing, forward / backward, ascending / descending, turning, somersault, etc.) corresponding to the received drone control command, and the execution result.
  • the execution result response representing the above is wirelessly transmitted to the drone remote control device 10 (step S27).
  • the drone remote control device 10 receives the execution result response transmitted from the drone 30 via the communication unit 14 (steps S27 and S28).
  • the drone remote control system 1 repeatedly executes the processes of steps S25 to S28 every time the drone operation process shown in FIG. 5 is executed.
  • the drone is performed by the gesture of the operator's finger without using the operation wand and its guide mechanism, and without using or touching the operation device such as the radio, smartphone, or tablet. 30 can be operated remotely.
  • the drone 30 since it is not necessary to touch the operating device (for example, the operating wand of the background technology), the drone 30 can be remotely controlled even in a situation where the hands are dirty or the gloves are worn. Operation becomes possible.
  • the operating device for example, the operating wand of the background technology
  • the camera 20 provided independently of the drone 30 recognizes the gestures of the fingers
  • the camera (not shown) provided in the drone 30 is occupied by the gesture recognition process. There is no such thing. This makes it possible to concentrate the camera provided on the drone 30 on monitoring and inspection by aerial photography.
  • the drone 30 can be remotely controlled by the direction indicated by the fingers of one hand or the movement of the fingertips, it is possible to do another thing with the other hand.
  • the following drone 30 can be remotely controlled by a simple finger gesture.
  • the drone 30 can be remotely controlled by the three-dimensional gesture of the fingers.
  • the drone 30 can be turned in the pointing direction by a pointing operation in which the index finger of the operator is directed in a specific direction.
  • the present invention is not limited to this, and the drone 30 may be remotely controlled by a gesture without visually observing.
  • a video (video information) taken by the camera transmitted from the drone 30 equipped with the camera is received and displayed on a display unit (for example, a display device such as a liquid crystal display arranged at the operator's hand).
  • a display unit for example, a display device such as a liquid crystal display arranged at the operator's hand.
  • the case where the drone 30 remotely controlled by the gesture is one machine has been described as an example, but the present invention is not limited to this.
  • step S14 by transmitting (broadcasting) the same drone control command to each of the plurality of drones 30, one gesture causes the same movement to the plurality of drones 30 (to the drone control command).
  • Corresponding operation can be performed.
  • the same movement can be performed while maintaining the relative distance at the time of takeoff. This makes it possible, for example, to demonstrate colony flight with a plurality of drones 30.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (RandomAccessMemory)).
  • a semiconductor memory for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (RandomAccessMemory)
  • the program may also be supplied to the computer by various types of temporary computer readable medium.
  • temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • Drone remote control system 10 Drone remote control device (unmanned aerial vehicle remote control device) 11 Storage unit 11a Program 11b Conversion table 12 Control unit 12a Image acquisition unit 12b Gesture recognition unit 12c Drone control command specification unit (control command specification unit) 12d drone control unit (unmanned aerial vehicle control unit) 13 Memory 14 Communication unit 20 Camera 30 Drone

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

操作ワンド及びそのガイド機構を用いることなく、無人航空機を遠隔操作することができる無人航空機遠隔操作装置等を提供する。 無人航空機遠隔操作装置(10)であって、カメラにより撮影された操作者の手指を含む画像に基づいて、操作者の手指のジェスチャーを認識するジェスチャー認識手段(12b)と、ジェスチャー認識手段(12b)により認識された操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定手段(12c)と、制御コマンド特定手段(12c)により特定された制御コマンドを無人航空機に送信する通信手段(14)と、を備える。

Description

無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体
 本発明は、無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体に関する。
 操作者が把持して操作する操作ワンドと操作ワンドの移動をガイドするガイド機構とを備えた、無人航空機(ドローン)を遠隔操作する遠隔操作装置が知られている(例えば、特許文献1参照)。操作ワンドには、赤外線カメラにより撮影されるマーカが取り付けられている。この遠隔操作装置によれば、赤外線カメラにより撮影された画像に基づいてマーカの動きを三角測量の原理で計測して操作ワンドの三次元時系列位置情報を生成し、その生成された三次元時系列位置情報に基づいて無人航空機を操作するための指令を生成し、その生成された指令を無人航空機に送信することで無人航空機を遠隔操作することができる。
特開2019-142290号公報
 しかしながら、特許文献1においては、無人航空機を遠隔操作するために、操作ワンド及びそのガイド機構を用いなければならず、その準備及び運用にコストを要するという課題がある。
 本発明の目的は、上述した課題を鑑み、操作ワンド及びそのガイド機構を用いることなく、無人航空機を遠隔操作することができる無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体を提供することにある。
 本発明の無人航空機遠隔操作装置は、カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識手段と、前記ジェスチャー認識手段により認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定手段と、前記制御コマンド特定手段により特定された制御コマンドを無人航空機に送信する通信手段と、を備える。
 本発明の無人航空機遠隔操作システムは、カメラと、制御コマンドを受信し、当該受信した制御コマンドに基づいて制御される無人航空機と、前記カメラにより撮影された画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識部と、前記ジェスチャー認識部により認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定部と、前記制御コマンド特定部により特定された制御コマンドを前記無人航空機に送信する通信部と、を備える。
 本発明の無人航空機遠隔操作方法は、カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識ステップと、前記ジェスチャー認識ステップにより認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定ステップと、前記制御コマンド特定ステップにより特定された制御コマンドを無人航空機に送信する通信ステップと、を備える。
 本発明の記録媒体は、少なくとも1つのプロセッサを備えた電子デバイスに、カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識処理と、前記ジェスチャー認識処理により認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定処理と、前記制御コマンド特定処理により特定された制御コマンドを無人航空機に送信する通信処理と、を実行させるためのプログラムを記録したコンピュータ読取可能な記録媒体である。
 本発明により、操作ワンド及びそのガイド機構を用いることなく、無人航空機を遠隔操作することができる無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体を提供することができる。
無人航空機遠隔操作装置10の概略構成図である。 無人航空機遠隔操作装置10の動作(無人航空機遠隔操作処理)の一例のフローチャートである。 実施形態2にかかるドローン遠隔操作システム1の構成を示すブロック図である。 ジェスチャー認識部12bにより認識される手指のジェスチャーの一例である。 ドローン遠隔操作装置10の動作(ドローン遠隔操作処理)の一例のフローチャートである。 ドローン遠隔操作システム1の動作を表すシーケンス図である。
 (実施形態1)
 まず、図1を用いて、実施形態1の無人航空機遠隔操作システムを構成する無人航空機遠隔操作装置10の構成例について説明する。
 図1は、無人航空機遠隔操作装置10の概略構成図である。
 図1に示すように、無人航空機遠隔操作装置10は、カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識部12bと、ジェスチャー認識部12bにより認識された操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定部12cと、制御コマンド特定部12cにより特定された制御コマンドを無人航空機に送信する通信部14と、を備えている。
 次に、上記構成の無人航空機遠隔操作装置10の動作の一例について説明する。
 図2は、無人航空機遠隔操作装置10の動作(無人航空機遠隔操作処理)の一例のフローチャートである。
 まず、ジェスチャー認識部12bが、カメラにより撮影された操作者の手指を含む画像に基づいて、操作者の手指のジェスチャーを認識する(ステップS1)。
 次に、制御コマンド特定部12cが、ステップS1で認識された操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する(ステップS2)。
 次に、通信部14が、ステップS2で特定された制御コマンドを無人航空機に送信する(ステップS3)。
 以上説明したように、実施形態1によれば、操作ワンド及びそのガイド機構を用いることなく、操作者の手指のジェスチャーにより無人航空機を遠隔操作することができる。
 (実施形態2)
 以下、本発明の実施形態2として、無人航空機遠隔操作システムについて詳細に説明する。以下、無人航空機遠隔操作システムとしてドローン遠隔操作システムを用いる。以下、ドローン遠隔操作システム1と記載する。また、制御コマンド特定部12cとしてドローン制御コマンド特定部を用いる。以下、ドローン制御コマンド特定部12cと記載する。
 図3は、実施形態2にかかるドローン遠隔操作システム1の構成を示すブロック図である。
 ドローン遠隔操作システム1は、操作者の手指のジェスチャーによりドローンを遠隔操作するシステムである。ドローン遠隔操作システム1は、ドローン遠隔操作装置10、カメラ20、ドローン30を備えている。
 まず、ドローン遠隔操作装置10の構成例について説明する。
 図3に示すように、ドローン遠隔操作装置10は、記憶部11と、制御部12と、メモリ13と、通信部14と、を備えている。
 記憶部11は、例えば、ハードディスク装置やROM等の不揮発性の記憶部である。記憶部11には、プログラム11a、変換テーブル11bが記憶されている。
 プログラム11aは、制御部12(プロセッサ)により実行されるプログラムである。変換テーブル11bには、手指のジェスチャー(複数)とドローン制御コマンドとが対応付けて記憶(登録)されている。
 制御部12は、図示しないが、プロセッサを備えている。プロセッサは、例えば、CPU(Central Processing Unit)である。プロセッサは、1つの場合もあるし、複数の場合もある。プロセッサは、記憶部11からメモリ13(例えば、RAM)に読み込まれたプログラム11aを実行することで、画像取得部12a、ジェスチャー認識部12b、ドローン制御コマンド特定部12c、ドローン制御部12dとして機能する。これらの一部又は全部は、ハードウェアで実現してもよい。
 画像取得部12aは、カメラ20から当該カメラ20により撮影された操作者の手指を含む画像(距離画像)を取得する。
 ジェスチャー認識部12bは、画像取得部12aにより取得された画像に基づいて、操作者の手指のジェスチャー(例えば、三次元的なジェスチャー)を認識する手指ジェスチャー認識処理を実行する。手指ジェスチャー認識処理については、例えば、特許第5709228号公報に記載のものを用いることができるため、説明を省略する。
 図4は、ジェスチャー認識部12bにより認識される手指のジェスチャーの一例である。
 図4に示すように、手指のジェスチャーには、例えば、サークル操作(右回り)、サークル操作(左回り)、ピンチ操作、ポインティング操作がある。サークル操作(右回り)は、操作者の手指により右回りに円を描くジェスチャーである。サークル操作(左回り)は、操作者の手指により左回りに円を描くジェスチャーである。ピンチ操作は、操作者の親指と人差し指で摘まむジェスチャーである。ポインティング操作は、操作者の人差し指を特定の方向に向けるジェスチャーである。
 ドローン制御コマンド特定部12cは、ジェスチャー認識部12bにより認識された操作者の手指のジェスチャーをドローン制御コマンドに変換する。具体的には、ドローン制御コマンド特定部12cは、記憶部11(変換テーブル11b)に記憶されたドローン制御コマンドのうち、ジェスチャー認識部12bにより認識された操作者の手指のジェスチャーが対応づけられたドローン制御コマンドを特定する。
 ドローン制御部12dは、制御コマンド特定部12cにより特定されたドローン制御コマンドを、通信部14を介してドローン30に送信する。
 通信部14は、ドローン30との間で無線通信(例えば、WiFi(登録商標)による無線通信)する通信装置である。
 カメラ20は、操作者の手指を含む画像(映像)を撮影する。カメラ20は、例えば、TOF(Time-of-Flight)方式の距離画像カメラである。TOF方式の距離画像カメラを用いる場合、カメラ20は一台でよい。カメラ20は、有線又は無線でドローン遠隔操作装置10に接続される。カメラ20は、ドローン30以外に設けられている。カメラ20は、ドローン遠隔操作装置10とは別体であってもよいし、ドローン遠隔操作装置10に内蔵されていてもよい。
 ドローン30は、遠隔操作により飛行させることができる無人航空機(回転翼航空機)である。ドローン30は、マルチコプターとも呼ばれる。ドローン30は、ドローン遠隔操作装置10との間で無線通信(例えば、WiFiによる無線通信)する通信部(図示せず)及び空撮用のカメラ(図示せず)を備えている。ドローン30は、ドローン遠隔操作装置10から送信されるドローン制御コマンドを受信すると、その受信したドローン制御コマンドに対応する動作(離着陸、前進後退、上昇下降、旋回、宙返り等)を実行する。
 次に、ドローン遠隔操作装置10の動作(ドローン遠隔操作処理)の一例について説明する。
 図5は、ドローン遠隔操作装置10の動作(ドローン遠隔操作処理)の一例のフローチャートである。
 まず、ドローン遠隔操作装置10(画像取得部12a)は、カメラ20から当該カメラ20により撮影された操作者の手指を含む画像(距離画像)を取得する(ステップS10)。ここでは、異なる時間に撮影され複数の画像(複数フレームの画像)が取得される。
 次に、ドローン遠隔操作装置10(ジェスチャー認識部12b)は、画像取得部12aにより取得された画像に基づいて、操作者の手指のジェスチャーを認識する手指ジェスチャー認識処理を実行する(ステップS11)。
 ステップS11の結果、ドローン遠隔操作装置10は、手指のジェスチャーを認識できなかった場合(ステップS12:NO)、ステップS10~S12の処理を繰り返し実行する。
 一方、ステップS11の結果、手指のジェスチャーを認識できた場合(ステップS12:YES)、ドローン遠隔操作装置10(ドローン制御コマンド特定部12c)は、記憶部11(変換テーブル11b)に記憶されたドローン制御コマンドのうち、ジェスチャー認識部12bにより認識された操作者の手指のジェスチャーが対応づけられたドローン制御コマンドを特定する(ステップS13)。
 次に、ドローン遠隔操作装置10(ドローン制御部12d)は、ステップS13で特定されたドローン制御コマンドを、通信部14を介してドローン30に無線送信する(ステップS14)。
 次に、上記構成のドローン遠隔操作システム1の動作の一例について説明する。
 図6は、ドローン遠隔操作システム1の動作を表すシーケンス図である。
 図6に示すように、まず、ドローン遠隔操作装置10(通信部14)は、ドローン30との間でWiFiでの通信を確立する(ステップS20)。
 次に、ドローン遠隔操作装置10(ドローン制御部12d)は、ドローン30を初期化するためのドローン初期化指示を、通信部14を介してドローン30に無線送信する(ステップS21、S22)。
 ドローン30は、ドローン遠隔操作装置10から送信されるドローン初期化指示を受信すると、初期化を実行し、初期化が完了したことを表す初期化応答を、ドローン遠隔操作装置10に無線送信する(ステップS23)。
 次に、ドローン遠隔操作装置10は(ドローン制御部12d)は、ドローン30から送信される初期化応答を、通信部14を介して受信する(ステップS23、S24)。
 次に、図5に示すドローン遠隔操作処理が実行された場合、ドローン遠隔操作装置10(ドローン制御部12d)は、ステップS13で特定されたドローン制御コマンドを、通信部14を介してドローン30に無線送信する(ステップS25、S26)。
 ドローン30は、ドローン遠隔操作装置10から送信されるドローン制御コマンドを受信すると、その受信したドローン制御コマンドに対応する動作(離着陸、前進後退、上昇下降、旋回、宙返り等)を実行し、実行結果を表す実行結果応答を、ドローン遠隔操作装置10に無線送信する(ステップS27)。
 次に、ドローン遠隔操作装置10は(ドローン制御部12d)は、ドローン30から送信される実行結果応答を、通信部14を介して受信する(ステップS27、S28)。
 以後、ドローン遠隔操作システム1は、図5に示すドローン操作処理が実行されるごとに、上記ステップS25~S28の処理を繰り返し実行する。
 以上説明したように、実施形態2によれば、操作ワンド及びそのガイド機構を用いることなく、また、プロポやスマホ・タブレット等の操作機器を使ったり触れることなく、操作者の手指のジェスチャーによりドローン30を遠隔操作することができる。
 また、実施形態2によれば、操作機器(例えば、背景技術の操作ワンド)に触れる必要が無いため、手が汚れている、または手袋をしている等の制約がある状況でもドローン30の遠隔操作が可能となる。
 また、実施形態2によれば、ドローン30とは別に独立して設けられたカメラ20によって手指のジェスチャーを認識するため、ドローン30に設けられたカメラ(図示せず)がジェスチャー認識処理に占有されることがない。これにより、ドローン30に設けられたカメラを空撮による監視や点検に専念させることが可能となる。
 また、実施形態2によれば、片手の手指の指し示す方向や指先の動きでドローン30を遠隔操作することが可能となるため、もう一方の手で別のことをすることが可能となる。例えば、自動車を運転しながら、追従しているドローン30を簡単な手指のジェスチャーにより遠隔操作することができる。これにより、運転している自動車の周囲の安全確認や危険予測を行うことができる。あるいは、渋滞状況や空いた駐車スペースの確認をしたり、景色の撮影やドライブ記録をすること等が可能となる。
 また、実施形態2によれば、カメラ20としてTOF(Time-of-Flight)方式の距離画像カメラを用いていているため、手指の三次元的なジェスチャーによりドローン30を遠隔操作することができる。例えば、操作者の人差し指を特定の方向に向けるポインティング操作によりドローン30を指さした方向に旋回させることができる。
 次に、変形例について説明する。
 実施形態2では、操作者がドローン30を目視しながらジェスチャーで当該ドローン30を遠隔制御する例について説明したが、これに限らず、目視することなくジェスチャーでドローン30を遠隔制御してもよい。例えば、カメラが搭載されたドローン30から送信される当該カメラにより撮影された映像(映像情報)を受信して表示部(例えば、操作者の手元に配置されている液晶ディスプレイ等の表示装置)に表示することで、操作者は、その表示部に表示される映像を見ながらジェスチャーでドローン30を遠隔制御することができる。
 また、実施形態2では、ジェスチャーにより遠隔制御されるドローン30が一機である場合を例にして説明したが、これに限らない。例えば、ジェスチャーにより遠隔制御されるドローン30は、複数機であってもよい。例えば、ステップS14(図5参照)において、複数機のドローン30それぞれに同一のドローン制御コマンドを送信(同報)することで、一つのジェスチャーにより複数機のドローン30に同じ動き(ドローン制御コマンドに対応する動作)をさせることができる。例えば、離陸時の相対距離を保った状態で同じ動きをさせることができる。これにより、例えば、複数機のドローン30による群体飛行のデモンストレーションを行うことができる。
 上記実施形態1、2において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 上記実施形態で示した数値は全て例示であり、これと異なる適宜の数値を用いることができるのは無論である。
 上記実施形態はあらゆる点で単なる例示にすぎない。上記実施形態の記載によって本発明は限定的に解釈されるものではない。本発明はその精神または主要な特徴から逸脱することなく他の様々な形で実施することができる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2020年4月24日に出願された日本出願特願2020-077542を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 ドローン遠隔操作システム
10 ドローン遠隔操作装置(無人航空機遠隔操作装置)
11 記憶部
11a プログラム
11b 変換テーブル
12 制御部
12a 画像取得部
12b ジェスチャー認識部
12c ドローン制御コマンド特定部(制御コマンド特定部)
12d ドローン制御部(無人航空機制御部)
13 メモリ
14 通信部
20 カメラ
30 ドローン

Claims (9)

  1.  カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識手段と、
     前記ジェスチャー認識手段により認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定手段と、
     前記制御コマンド特定手段により特定された制御コマンドを無人航空機に送信する通信手段と、を備える無人航空機遠隔操作装置。
  2.  カメラにより撮影された操作者の手指を含む画像を取得する画像取得手段と、
     手指のジェスチャーと制御コマンドとが対応づけて記憶された記憶手段と、をさらに備え、
     前記ジェスチャー認識手段は、前記画像取得手段により取得された画像に基づいて、前記操作者の手指のジェスチャーを認識し、
     制御コマンド特定手段は、前記記憶手段に記憶された前記制御コマンドのうち、前記ジェスチャー認識手段により認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する請求項1に記載の無人航空機遠隔操作装置。
  3.  前記カメラにより撮影された操作者の手指を含む画像は、距離画像であり、
     ジェスチャー認識手段は、前記カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指の三次元的なジェスチャーを認識する請求項1又は2に記載の無人航空機遠隔操作装置。
  4.  前記カメラは、前記無人航空機以外に設けられている請求項1から3のいずれか1項に記載の無人航空機遠隔操作装置。
  5.  前記無人航空機は、ドローンである請求項1から4のいずれか1項に記載の無人航空機遠隔操作装置。
  6.  前記ジェスチャー認識手段により認識される手指のジェスチャーは、サークル操作、ピンチ操作及びポインティング操作の少なくとも一つを含む請求項1から5のいずれか1項に記載の無人航空機遠隔操作装置。
  7.  カメラと、
     制御コマンドを受信し、当該受信した制御コマンドに基づいて制御される無人航空機と、
     前記カメラにより撮影された画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識手段と、
     前記ジェスチャー認識手段により認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定手段と、
     前記制御コマンド特定手段により特定された制御コマンドを前記無人航空機に送信する通信手段と、を備える無人航空機遠隔操作システム。
  8.  カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識ステップと、
     前記ジェスチャー認識ステップにより認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定ステップと、
     前記制御コマンド特定ステップにより特定された制御コマンドを無人航空機に送信する通信ステップと、を備える無人航空機遠隔操作方法。
  9.  少なくとも1つのプロセッサを備えた電子デバイスに、
     カメラにより撮影された操作者の手指を含む画像に基づいて、前記操作者の手指のジェスチャーを認識するジェスチャー認識処理と、
     前記ジェスチャー認識処理により認識された前記操作者の手指のジェスチャーが対応づけられた制御コマンドを特定する制御コマンド特定処理と、
     前記制御コマンド特定処理により特定された制御コマンドを無人航空機に送信する通信処理と、を実行させるためのプログラムを記録したコンピュータ読取可能な記録媒体。
PCT/JP2021/015756 2020-04-24 2021-04-16 無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体 WO2021215366A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022517020A JPWO2021215366A5 (ja) 2021-04-16 無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及びプログラム
US17/919,776 US20230161339A1 (en) 2020-04-24 2021-04-16 Unmanned aerial vehicle remote control device, unmanned aerial vehicle remotecontrol system, unmanned aerial vehicle remote control method, and non-transitorycomputer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-077542 2020-04-24
JP2020077542 2020-04-24

Publications (1)

Publication Number Publication Date
WO2021215366A1 true WO2021215366A1 (ja) 2021-10-28

Family

ID=78269287

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015756 WO2021215366A1 (ja) 2020-04-24 2021-04-16 無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体

Country Status (2)

Country Link
US (1) US20230161339A1 (ja)
WO (1) WO2021215366A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2021204693A1 (en) * 2020-09-23 2022-04-07 Insitu, Inc. (A Subsidiary Of The Boeing Company) A controlled powerup sequence for an unmanned aerial vehicle (UAV)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709228B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
JP2018160228A (ja) * 2017-03-21 2018-10-11 株式会社東芝 経路生成装置、経路制御システム、及び経路生成方法
JP2019142290A (ja) * 2018-02-16 2019-08-29 大豊精機株式会社 遠隔操作装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
US11275482B2 (en) * 2010-02-28 2022-03-15 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US10855760B2 (en) * 2013-11-07 2020-12-01 Cole Asher Ratias Systems and methods for synchronizing content and information on multiple computing devices
KR101533319B1 (ko) * 2014-02-22 2015-07-03 주식회사 브이터치 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법
US11404056B1 (en) * 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
CN109923583A (zh) * 2017-07-07 2019-06-21 深圳市大疆创新科技有限公司 一种姿态的识别方法、设备及可移动平台
WO2021217430A1 (en) * 2020-04-28 2021-11-04 SZ DJI Technology Co., Ltd. System and method for operating a movable object based on human body indications
EP4143705A4 (en) * 2020-04-28 2024-04-24 Strong Force Tp Portfolio 2022 Llc SYSTEMS AND METHODS FOR DIGITAL TWIN OF TRANSPORTATION SYSTEMS

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709228B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
JP2018160228A (ja) * 2017-03-21 2018-10-11 株式会社東芝 経路生成装置、経路制御システム、及び経路生成方法
JP2019142290A (ja) * 2018-02-16 2019-08-29 大豊精機株式会社 遠隔操作装置

Also Published As

Publication number Publication date
JPWO2021215366A1 (ja) 2021-10-28
US20230161339A1 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
US11720126B2 (en) Motion and image-based control system
KR102165450B1 (ko) 무인 항공기를 제어하는 포터블 디바이스 및 그 제어 방법
CN111372851B (zh) 无人航空器控制系统、无人航空器控制方法、及可读存储媒体
US20180129200A1 (en) Headset display device, unmanned aerial vehicle, flight system and method for controlling unmanned aerial vehicle
US20210405763A1 (en) Wearable device and control method thereof, gesture recognition method, and control system
US20200348663A1 (en) Flight control method, device, aircraft, system, and storage medium
CN107831791B (zh) 一种无人机的操控方法、装置、操控设备及存储介质
WO2021215366A1 (ja) 無人航空機遠隔操作装置、無人航空機遠隔操作システム、無人航空機遠隔操作方法及び記録媒体
JP7027601B2 (ja) ロボット制御装置、ロボット制御方法及びロボット
JP6949974B2 (ja) 撮像制御方法、装置及び制御装置、撮像装置
KR20170090888A (ko) Hmd를 이용한 무인기 조종 장치
US20210240180A1 (en) Aerial device and method for controlling the aerial device
US11575832B2 (en) Imaging device, camera-mounted drone, mode control method, and program
US20220250247A1 (en) Remote controlled device, remote control system and remote control device
KR101502275B1 (ko) 무인 헬기 자동 제어 장치 및 제어 방법
JP2020126666A (ja) 移動体操縦システム、操縦シグナル送信システム、移動体操縦方法、プログラム、および記録媒体
WO2018020744A1 (ja) 移動体操縦システム、操縦シグナル送信システム、移動体操縦方法、プログラム、および記録媒体
CN111290574B (zh) 一种利用手势控制无人机的方法,设备及可读存储介质
US10901412B2 (en) Moving body, control method, and recording medium
TW202324015A (zh) 無人機的控制裝置及其控制方法
JP7482923B2 (ja) 無人航空機の制御装置およびその制御方法
JP7082351B2 (ja) 飛行制御システム
US20220135222A1 (en) Control method
US20230126635A1 (en) Ranging device, image processing device and method
WO2020049850A1 (ja) 情報処理装置、情報処理方法、プログラム、および移動装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21793006

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022517020

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21793006

Country of ref document: EP

Kind code of ref document: A1