JP2018515838A - 無人機の遠隔信号伝達制御のためのマルチセンサ制御システムおよび方法 - Google Patents

無人機の遠隔信号伝達制御のためのマルチセンサ制御システムおよび方法 Download PDF

Info

Publication number
JP2018515838A
JP2018515838A JP2017553990A JP2017553990A JP2018515838A JP 2018515838 A JP2018515838 A JP 2018515838A JP 2017553990 A JP2017553990 A JP 2017553990A JP 2017553990 A JP2017553990 A JP 2017553990A JP 2018515838 A JP2018515838 A JP 2018515838A
Authority
JP
Japan
Prior art keywords
operator
command
movement
hand
gestures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017553990A
Other languages
English (en)
Other versions
JP6650467B2 (ja
Inventor
ティ. クラーク、ライアン
ティ. クラーク、ライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northrop Grumman Systems Corp
Original Assignee
Northrop Grumman Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northrop Grumman Systems Corp filed Critical Northrop Grumman Systems Corp
Publication of JP2018515838A publication Critical patent/JP2018515838A/ja
Application granted granted Critical
Publication of JP6650467B2 publication Critical patent/JP6650467B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H27/00Toy aircraft; Other flying toys
    • A63H27/12Helicopters ; Flying tops
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/17Helicopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/13Propulsion using external fans or propellers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Selective Calling Equipment (AREA)

Abstract

装置は、無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを含む。マルチセンサ検出器は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出する少なくとも2つのセンサを含む。コントローラは、マルチセンサ検出器を監視して、少なくとも2つのセンサから受信された入力データに基づいて操作者の複数のジェスチャを判定する。コントローラは、判定された操作者の複数のジェスチャに基づいて無人機へのコマンドを生成する。

Description

本開示は、制御システムに関し、より詳細には、マルチセンサ装置を利用する無人機の遠隔信号伝達制御のためのシステムおよび方法に関する。
ほとんどの無人システムは、システムを製造した製造業者を問わず、組織単位の専門職のための予算および計画を複数の上司に要求する複数の操作者に対する特殊な訓練を必要とする。これは、無人システムの適切な雇用に先立って特殊な訓練が数ヶ月または数年の訓練を必要とする多くの状況において実際的ではない。例えば、歩兵部隊が、任意の戦闘空間内で複雑な複数の航空資産(air asset)を指揮するために、計器飛行資格パイロットを持つことは期待できない。米軍は、複雑な複数のシステムと最小限の訓練を受けた要員との間の相互作用の長い歴史を持ち、地上戦闘員は、複数の人間によって操作される陸上車両および航空機を連係させ、指揮することが期待されている。通常、複数の無人システムは、操作者をデータに没頭させるように設計されたユーザインターフェースを有する無人機とセンサに焦点を当てるように開発されている。しかし、最終的には、長時間(且つ高価な)の訓練の必要性を持つ特殊な操作者を育成することになる。さらに、特殊な訓練が実施された後に操作者の動きを検出するための粗い単一センサセンシングシステムは、それらが展開される前に複数の較正手順を必要とし、操作者の所望のコマンドの変化を検出するのが遅くなることがある。較正の遅延および/または操作者の複数のコマンドの検出は、戦場では致命的となる可能性がある。
本開示は、マルチセンサ装置を利用する無人機の遠隔信号伝達制御のためのシステムおよび方法に関する。一側面では、装置は、無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを含む。マルチセンサ検出器は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出する少なくとも2つのセンサを含む。コントローラは、マルチセンサ検出器を監視して、少なくとも2つのセンサから受信された入力データに基づいて操作者の複数のジェスチャを判定する。コントローラは、判定された操作者の複数のジェスチャに基づいて無人機へのコマンドを生成する。
他の側面では、システムは、無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを含む。マルチセンサ検出器は、操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む。コントローラは、マルチセンサ検出器を監視して、少なくとも2つのセンサから受信された入力データに基づいて操作者の複数のジェスチャを判定する。コントローラは、判定された操作者の複数のジェスチャに基づいてコマンドを生成する。通信モジュールは、無人機を制御するために、コントローラからのコマンドを中継する。
さらなる他の側面では、方法は、少なくとも2つのセンサを有するウェアラブルデバイスから、無人機に命令する操作者の複数のジェスチャを検出することを含む。方法は、少なくとも2つのセンサを分析して、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出することを含む。方法は、少なくとも2つのセンサの分析に基づいて、前記操作者の複数のジェスチャを判定することを含む。方法は、無人機の複数の動作を制御するためのコマンドを通信することを含む。
操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のためのシステムの一例を示す。 操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のためのミッションプランナを有するシステムの一例を示す。 操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人車両の遠隔信号伝達及び制御のための複数のシステム構成要素の一例を示す。 無人機の遠隔信号伝達および制御のためのインタフェースプロトコルの例を示す。 操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための例示的な装置を示す。 操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介して検出することができる例示的なジェスチャを示す。 操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための方法の一例を示す。
本開示は、マルチセンサ装置を利用する無人機(unmanned vehicle : UV)の遠隔信号伝達制御(remote signaling control)のためのシステムおよび方法に関する。このシステムおよび方法は、標準化された人間の複数のジェスチャ(standardized human gestures)(例えば、承認された手および腕の信号)を介してUVを制御することを含む。このシステムは、任意の人間のジェスチャ(例えば、手による上または下への動作)を再現してUVを制御する間にユーザが装着する1組のウェアラブルデバイス(例えば、複数のグローブ)を含む。各ウェアラブルデバイスは、例えば、任意の人間のジェスチャの検出を提供するように構成された加速度計、ジャイロスコープ、磁力計、または抵抗ストリップ(resistance strip)を含み得るマルチセンサ検出器(multi-sensor detector)を含む。別例では、システムは、UVの動きを制御する1組のグローブ(glove)ではなく、単一のグローブを含む。マルチセンサ検出器を利用することにより、単一センサシステムに要求される複雑な複数の較正手順(calibration procedure)を軽減することができる。さらに、マルチセンサ検出器は、従来の単一センサシステム(例えば、加速度計の検出のみ)よりも迅速に手のジェスチャを判定することができる。
ウェアラブルデバイスは、マルチセンサ検出器を監視し、複数の測定値が伝送される伝送媒体(有線または無線)を介して通信するコントローラを含むことができる。システムは、ウェアラブルデバイスから複数の測定値/複数のコマンドを受信するための電子デバイス(例えば、モバイルハンドヘルドデバイスなどの単一ボードコンピュータ)などの複数の通信モジュールをさらに含むことができる。コントローラは、ジェスチャデータを解釈して、任意の手のジェスチャ(例えば、左/右、上/下、手の回転、指の動きなど)に対応する複数の特性を抽出する。抽出された複数の特性は、UVを制御するための既知の手の複数のジェスチャ特性に基づいてUVへのコマンド信号(または複数の信号)を生成するようにコントローラによって用いられる。別の態様では、システムは、ユーザの頭上または頭の周りに装着可能なヘッドマウントディスプレイ(head mounted display : HMD)をさらに含む。HMDは、通信モジュールと通信し、UV(例えば、全体的なシステム状態、UVの緯度および経度情報など)に対応する関連情報を受信するように構成される。
図1は、操作者の複数のジェスチャ140を検出するマルチセンサ検出器を有するウェアラブルデバイス120を介した無人機110の遠隔信号伝達および制御のためのシステム100の一例を示す。ウェアラブルデバイス120のマルチセンサ検出器130(例えば、ウェアラブルグローブ)は、UV110に命令する操作者の複数のジェスチャを検出する。マルチセンサ検出器130は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転の動き、および操作者の手の指の動きに関する操作者のジェスチャの動きおよび方向を検出する少なくとも2つのセンサを含む。例えば、複数のセンサは、操作者の手の動き(例えば、身体を横切る左または右の水平な手の動き)に関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計を含み得る。また複数のセンサは、地球の磁場に対する操作者の手の動き(例えば、横方向の手の動き)を検出する磁力計を含み得る。別例では、複数のセンサは、操作者の手の回転運動を検出するジャイロスコープを含み得る。また複数のセンサは、操作者の手の指の動きを検出する(例えば、指が屈曲すると、抵抗ストリップが屈曲してその抵抗が変化する)指装着式抵抗ストリップ(finger mounted resistance strip)を含み得る。複数のジェスチャ140は、任意の標準的な軍用または産業用マニュアルから解釈され得る。複数のマニュアルの例は、空軍の取扱説明書(Air Force instruction manual)11−218、陸軍のビジュアル信号マニュアル(Department of Army Visual Signals manual)FM−2160、海軍航空マニュアル(Naval Air manual)NAVAIR 00−80T−113などを含む。
コントローラ150は、マルチセンサ検出器130を監視して複数のセンサから(例えば、少なくとも2つのセンサから)受け取った入力データに基づいて操作者のジェスチャを判定する。コントローラ150は、判定された操作者のジェスチャに基づいて、UV110に/から(例えば、直接的または間接的に)コマンドを生成する。例えば、コントローラ150が、検出器130を介して操作者が両手を地面に向かって下方に動かしたことを検出した場合、コントローラは、無人機が下方向に飛行経路を制御するためにその後に無人機により用いられるダウンコマンドを生成することができる。この例に示すように、コントローラ150は、UVを制御するコマンドを中継する通信モジュール160にコマンドを送信し得る。いくつかの実施例では、コントローラ150および/または通信モジュール160は、ウェアラブルデバイス120の一部分として提供され得る。他の例では、コントローラ150および/または通信モジュール160は、グローブの外側にあってもよく、マルチセンサ検出器130へのそれぞれの通信のためにグローブに配線されてもよい。特定の例では、通信モジュール160は、コントローラ150からのコマンドを中継してUV110を制御するシングルボードコンピュータ(例えば、モバイルハンドヘルドデバイス)であってもよい。図示されていないが、UVは、コントローラ150によって生成された複数のコマンドに応答する別個の飛行コントローラ(separate flight controller)を含む。
図3に関してより詳細に示され記載されるように、コントローラ150は、ブルートゥース(Bluetooth)またはユニバーサルシリアルバス接続(universal serial bus connection : USB)を介してコマンドを中継する通信モジュール160にコマンドを送信してUV110を制御する。さらに通信モジュール160と通信するミッションプランナ・アプリケーション(mission planner application)が、設けられ得る(例えば、図2を参照)。ミッションプランナ・アプリケーションは、通信モジュール160からコマンドを受け取り、コマンドに基づいてUV110を制御するための制御コマンドを生成する。ミッションプランナ・アプリケーションは、コンピュータ(例えば、ラップトップ)上で動作し、無線リンクを介して通信モジュール160と通信することができる。ウェアラブルグラス(Wearable glasses)(例えば、図3参照)は、ミッションプランナ・アプリケーションからウェアラブルデバイスの操作者にミッションステータス(mission status)を通信するように設けられ得る。
図2は、操作者の複数のジェスチャ240を検出するマルチセンサ検出器230を有するウェアラブルデバイス220を介した無人機210の遠隔信号伝達及び制御のためのミッションプランナ204を有するシステム200の一例を示す。マルチセンサ検出器230は、無人機210(unmanned vehicle : UV)に命令する操作者の複数のジェスチャ240を検出する。マルチセンサ検出器230は、操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および/または操作者の手の指の動きを検出する抵抗ストリップを含む少なくとも2つのセンサを含み得る。コントローラ250は、複数のセンサから受信した入力データに基づいて操作者のジェスチャ240を判定するマルチセンサ検出器230を監視し、コントローラは、判定された操作者のジェスチャに基づいてUV210のコマンドを生成する。通信モジュール260は、UVを制御するためにコントローラからのコマンドを中継する。この例では、図1の例に示すようにコマンドを直接的に中継するのではなく、通信モジュールは、コマンドを、UV210と通信するミッションプランナ204に中継する。
上述した例と同様に、通信モジュール260は、UV210を制御するためにコマンドを中継するモバイルハンドヘルドデバイス(またはトランシーバ(walkie/talkie)などの他の電子通信デバイス)などの単一のボードコンピュータ(board computer)であってもよい。コントローラ250は、コマンドを例えば、ブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、UV210を制御するためにコマンドを中継する通信モジュール260に送信する。ミッションプランナ204は、通信モジュール260と通信するアプリケーションである。ミッションプランナ・アプリケーションが、通信モジュール260からコマンドを受信し、受信されたコマンドに基づいてUV210を制御するための制御コマンドを生成する。ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して通信モジュールと通信することができる。ウェアラブルグラス(例えば、図3参照)は、ミッションプランナ204からウェアラブルデバイス220の操作者にミッションステータスを伝えるために設けられ得る。ミッションプランナ204は、スクリプトインタフェース(scripting interface)を介してソフトウェアパケットを、汎用プロトコルのコマンドを通信モジュール260と通信するアプリケーションに変換する汎用プロトコルインタフェース(generic protocol interface)に通信することができる。例えば、汎用プロトコルは、トランスポート・コントロール・プロトコル(transport control protocol : TCP)であり、ソフトウェアパケットがPythonスクリプトで通信されるが、他のトランスポートおよびスクリプトスタイルも可能である。
図3は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機(unmanned vehicle : UV)の遠隔信号伝達及び制御のための複数のシステム構成要素300の一例を示す。この例では、UV310は、ミッションプランナ・アプリケーションを動作させるコンピュータ320と無線通信する。ミッションプランナは、ウェアラブルデバイス340からジェスチャ・コマンドを(USBまたはブルートゥースを介して)受信する通信モジュール330(例えば、モバイルハンドヘルドデバイス)と通信する。ウェアラブルステータス・ディスプレイ350(例えば、グーグルグラス)が設けられ、ミッションプランナ320および/または通信モジュール330を介してウェアラブルデバイス340の操作者にステータスを送信することができる。このことは、例えば、ブルートゥース接続を介した通信を含み得る。
図4は、無人機の遠隔信号伝達および制御のためのインタフェースプロトコルの例を示す。この例では、図3に関して上述したミッションプランナは、飛行時間、目的地、ナビゲーション、ターゲットアイデンティティ(target identity)、他の戦場資産との連係などの複数のUVミッションの様々な態様を制御するように、ミッションプランナ・ソフトウェア410を動作させることができる。ミッションプランナ・ソフトウェア410は、汎用プロトコル(例えば、TCPプロトコル)を介して動作する通信モジュールインターフェース430を介してソフトウェアパケット420(例えば、Pythonスクリプト)を送信または受信するスクリプトインタフェースを動作させることができる。通信モジュールインターフェース430は、例えばウェアラブルデバイスを使用して操作者にステータスを提供するために、コンピュータ、単一のボードコンピュータのようなデバイス、またはウェアラブルグラスに関連付けられる。インタフェース430は、例えば、ウェアラブルデバイスのステータス(例えば、オン/オフ)、各モジュールの通信ステータス(例えば、通信に利用可能または利用可能ではない、無線ステータス)、ミッションプランナと通信する複数のデバイスのシステムステータス、及びUAVに関連するステータスの複数のステータスを提供することができる。
図5は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための例示的な装置500を示す。図1に関して上述したウェアラブルデバイスは、510および520に示す1つまたは2つのウェアラブルグローブとして具体化され得る。グローブ510,520は、本明細書で説明されるように解釈された操作者の複数のジェスチャに基づいて複数のコマンドを供給する。グローブ510,520の各々は、本明細書で説明されるような類似の検出センサおよび/またはコントローラで構成され得る。例えば、グローブ510は、操作者の指の動きを検出する抵抗ストリップ530(または複数のストリップ)を含む。手のセンサ540は、本明細書で説明されるマルチセンサ検出器に関して説明された(複数の)加速度計、(複数の)ジャイロスコープ、および/または(複数の)磁力計を含み得る。単一の例示的なセンサは、慣性測定ユニット(inertial measurement unit :IMU)のような9軸センサである。複数のセンサおよび/または複数のストリップ530からの出力は、本明細書で説明されるように通信モジュール(図示せず)と通信することができるUSBケーブル560を介して解釈されたコマンドを送信することができるコントローラ550に通信され得る。
図6は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介して検出される例示的なジェスチャ600を示す。例示的なジェスチャ600は、ダウンジェスチャ(down gesture)であるが、前述したように、複数のジェスチャは、本明細書で説明されるように同様に解釈され得る(例えば、図1に関して記載された複数のジェスチャの例示的な複数のマニュアルを参照)。以下は、ダウンジェスチャ600を解釈するための例示的な擬似コード(pseudo-code)を提示する。これは一例にすぎず、このジェスチャおよび他のそれぞれのジェスチャを解釈する多くの他のコーディングの可能性があり得ることに留意されたい。
// Down
// Arms out, dropped down to sides.
// palm high pos z acc -> palm high neg x acc. High pos y gyro
if( C2_Global_Active && C2_Down && (System.nanoTime() - C2_Down_Time > 500000000) ){
// Active Timer expires after 500ms
C2_Global_Active = false;
C2_Down = false;
C2_Down_Time = 0;
C2_Down_Start_Time = 0;
C2_Down_Motion_Time = 0;
C2_Down_Counter = 0;
} else if ( C2_Global_Active || ( C2_Down && (System.nanoTime() - C2_Down_Time < 500000000) ) ){
C2_Down_Start_Time = 0;
C2_Down_Motion_Time = 0;
C2_Down_Counter = 0;
} else {
// Check for command actions (acc is accelerometer)
if( left_palm_mpu9250_zacc > 12000 // Palms Down
&& right_palm_mpu9250_zacc > 12000
&& Math.abs(left_palm_mpu9250_ygyro) < 4000 // No motion down/up
&& Math.abs(right_palm_mpu9250_ygyro) < 4000
){
// Initial Conditions Met
C2_Down_Start_Time = System.nanoTime();
C2_Down_Counter = C2_Down_Counter | 1;
}
if( left_palm_mpu9250_ygyro > 12000 // Palms moving Down (pos y gyro)
&& right_palm_mpu9250_ygyro > 12000
&& (System.nanoTime() - C2_Down_Start_Time < 250000000)
){
// Proper Motion Conditions Met
C2_Down_Motion_Time = System.nanoTime();
C2_Down_Counter = C2_Down_Counter | 2;
}
if( left_palm_mpu9250_xacc < -12000 // Fingers Down
&& right_palm_mpu9250_xacc < -12000
&& left_forearm_mpu9250_xacc < -12000 // Forearms Vertical
&& right_forearm_mpu9250_xacc < -12000
&& (System.nanoTime() - C2_Down_Start_Time < 1000000000)
&& (System.nanoTime() - C2_Down_Motion_Time < 500000000)
){
// Declared as Proper C2 Command
C2_Global_Active = true;
C2_Down = true;
C2_Down_Time = System.nanoTime();
System.out.println("DOWN");
C2_Down_Counter = C2_Down_Counter | 4;
}
if( ( (C2_Down_Start_Time > 0) && (System.nanoTime() - C2_Down_Start_Time > 1000000000) ) || ( (C2_Down_Motion_Time > 0) && ( (System.nanoTime() - C2_Down_Motion_Time) > 1000000000) )
){
// Start or Motion Timed Out
C2_Down_Start_Time = 0;
C2_Down_Motion_Time = 0;
C2_Down_Counter = 0;
}
}
jCheckBox_C2_Down.setSelected(C2_Down);
上述した構造的及び機能的特徴を考慮して、例示的な方法は、図7を参照することにより、より良く理解されるであろう。説明を簡単にするために、この方法は逐次的に実行されるように示され説明されているが、方法のうちの一部分が、本明細書において示され説明されたものと異なる順序でおよび/または同時に実施され得るので、方法が例示された順序によって限定されないことが理解され認識されたい。このような方法は、例えば、ICまたはコントローラを構成する各種の部品によって実施され得る。
図7は、操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスを介した無人機の遠隔信号伝達及び制御のための方法の一例を示す。710において、方法700は、(例えば、図1のマルチセンサ検出器130を介して)少なくとも2つのセンサを有するウェアラブルデバイスから無人機に命令する操作者の複数のジェスチャを検出することを含む。720において、方法700は、複数のセンサを分析して(例えば、図1のコントローラ150を介して)操作者の複数のジェスチャの動きおよび方向を検出することを含む。このことは、例えば、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する動きおよび方向を検出することを含む。730において、方法700は、複数のセンサの分析に基づいて(例えば、図1のコントローラ150を介して)操作者の複数のジェスチャを判定することを含む。740において、方法700は、(例えば、図1の通信モジュール160を介して)UVの複数の動作を制御するためのコマンドを通信することを含む。図示されていないが、方法700は、コマンドをミッションプランナ・アプリケーションに通信することを含み、ミッションプランナ・アプリケーションは、コマンドに基づいてUVを制御するための制御コマンドを生成することができる。
上述した事項は複数の例である。当然のことながら、複数の要素または複数の手法の考えられるあらゆる組み合わせを説明することは不可能であるが、当業者は、多くのさらなる組み合わせおよび変更が可能であることを認識するであろう。したがって、本開示は、添付の特許請求の範囲を含む本出願の範囲内に入るそのような変更、修正、および変形をすべて包含することが意図されている。本明細書で使用される場合、「含む」という用語は、「含む」ことを意味するが、限定するものではなく、「含むこと」という用語は「含むことを」意味するが、限定するものではない。「に基づく」という用語は、少なくとも部分的に基づいていることを意味する。さらに、明細書または特許請求の範囲が「a」、「an」、「a first(第1の)」、または「another(他の)」の要素またはその等価物を記載する場合、それは、そのような要素の2つ以上を要求または排除するものではなく、そのような要素の1つまたは複数を含むと解釈されるべきである。
上述した事項は複数の例である。当然のことながら、複数の要素または複数の手法の考えられるあらゆる組み合わせを説明することは不可能であるが、当業者は、多くのさらなる組み合わせおよび変更が可能であることを認識するであろう。したがって、本開示は、添付の特許請求の範囲を含む本出願の範囲内に入るそのような変更、修正、および変形をすべて包含することが意図されている。本明細書で使用される場合、「含む」という用語は、「含む」ことを意味するが、限定するものではなく、「含むこと」という用語は「含むことを」意味するが、限定するものではない。「に基づく」という用語は、少なくとも部分的に基づいていることを意味する。さらに、明細書または特許請求の範囲が「a」、「an」、「a first(第1の)」、または「another(他の)」の要素またはその等価物を記載する場合、それは、そのような要素の2つ以上を要求または排除するものではなく、そのような要素の1つまたは複数を含むと解釈されるべきである。
以下に、上記各実施形態から把握できる技術思想を記載する。
(付記1)
装置であって、
無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスであって、前記マルチセンサ検出器は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出する少なくとも2つのセンサを含む、前記ウェアラブルデバイスと、
前記マルチセンサ検出器を監視して、前記少なくとも2つのセンサから受信された入力データに基づいて前記操作者の複数のジェスチャを判定するコントローラと、を備え、
前記コントローラは、判定された操作者の複数のジェスチャに基づいて前記無人機へのコマンドを生成する、装置。
(付記2)
前記マルチセンサ検出器は、
操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む、付記1に記載の装置。
(付記3)
前記コントローラは、前記無人機を制御するために前記コマンドを中継する通信モジュールに前記コマンドを送信する、付記1に記載の装置。
(付記4)
前記通信モジュールは、前記無人機を制御するために前記コマンドを中継するモバイルデバイスである、付記3に記載の装置。
(付記5)
前記コントローラは、前記コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、前記無人機を制御するために前記コマンドを中継する通信モジュールに送信する、付記3に記載の装置。
(付記6)
前記通信モジュールと通信するミッションプランナ・アプリケーションをさらに備え、
前記ミッションプランナ・アプリケーションは、前記通信モジュールからコマンドを受信し、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、付記5に記載の装置。
(付記7)
前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して前記通信モジュールと通信する、付記6に記載の装置。
(付記8)
前記ミッションプランナ・アプリケーションから前記ウェアラブルデバイスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える付記7に記載の装置。
(付記9)
前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、付記7に記載の装置。
(付記10)
前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
前記ソフトウェアパケットは、Pythonスクリプトで通信される、付記9に記載の装置。
(付記11)
システムであって、
無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスであって、前記マルチセンサ検出器は、操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む、前記ウェアラブルデバイスと、
前記マルチセンサ検出器を監視して、前記少なくとも2つのセンサから受信された入力データに基づいて前記操作者の複数のジェスチャを判定するコントローラであって、判定された操作者の複数のジェスチャに基づいてコマンドを生成する前記コントローラと、
前記無人機を制御するために前記コントローラからのコマンドを中継する通信モジュールと、を備えるシステム。
(付記12)
前記通信モジュールは、前記無人機を制御するためのコマンドを中継するモバイルデバイスである、付記11に記載のシステム。
(付記13)
前記コントローラは、前記コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、前記無人機を制御するために前記コマンドを中継する通信モジュールに送信する、付記12に記載のシステム。
(付記14)
前記通信モジュールと通信するミッションプランナ・アプリケーションをさらに備え、
前記ミッションプランナ・アプリケーションは、前記通信モジュールから前記コマンドを受信し、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、付記13に記載のシステム。
(付記15)
前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して前記通信モジュールと通信する、付記14に記載のシステム。
(付記16)
前記ミッションプランナ・アプリケーションから前記ウェアラブルデバイスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える付記15に記載のシステム。
(付記17)
前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、付記16に記載のシステム。
(付記18)
前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
前記ソフトウェアパケットは、Pythonスクリプトで通信される、付記17に記載のシステム。
(付記19)
方法であって、
コントローラが、少なくとも2つのセンサを有するウェアラブルデバイスから、無人機(UV)に命令する操作者の複数のジェスチャを検出すること、
前記少なくとも2つのセンサを分析して、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出すること、
前記コントローラが、前記少なくとも2つのセンサの分析に基づいて、前記操作者の複数のジェスチャを判定すること、
前記コントローラが、前記無人機の複数の動作を制御するためのコマンドを通信すること、を備える方法。
(付記20)
前記コマンドをミッションプランナ・アプリケーションに通信することをさらに備え、
前記ミッションプランナ・アプリケーションは、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、付記19に記載の方法。

Claims (20)

  1. 装置であって、
    無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスであって、前記マルチセンサ検出器は、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出する少なくとも2つのセンサを含む、前記ウェアラブルデバイスと、
    前記マルチセンサ検出器を監視して、前記少なくとも2つのセンサから受信された入力データに基づいて前記操作者の複数のジェスチャを判定するコントローラと、を備え、
    前記コントローラは、判定された操作者の複数のジェスチャに基づいて前記無人機へのコマンドを生成する、装置。
  2. 前記マルチセンサ検出器は、
    操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む、請求項1に記載の装置。
  3. 前記コントローラは、前記無人機を制御するために前記コマンドを中継する通信モジュールに前記コマンドを送信する、請求項1に記載の装置。
  4. 前記通信モジュールは、前記無人機を制御するために前記コマンドを中継するモバイルデバイスである、請求項3に記載の装置。
  5. 前記コントローラは、前記コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、前記無人機を制御するために前記コマンドを中継する通信モジュールに送信する、請求項3に記載の装置。
  6. 前記通信モジュールと通信するミッションプランナ・アプリケーションをさらに備え、
    前記ミッションプランナ・アプリケーションは、前記通信モジュールからコマンドを受信し、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、請求項5に記載の装置。
  7. 前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して前記通信モジュールと通信する、請求項6に記載の装置。
  8. 前記ミッションプランナ・アプリケーションから前記ウェアラブルデバイスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える請求項7に記載の装置。
  9. 前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、請求項7に記載の装置。
  10. 前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
    前記ソフトウェアパケットは、Pythonスクリプトで通信される、請求項9に記載の装置。
  11. システムであって、
    無人機(UV)に命令する操作者の複数のジェスチャを検出するマルチセンサ検出器を有するウェアラブルデバイスであって、前記マルチセンサ検出器は、操作者の手の動きに関する操作者の複数のジェスチャの動きおよび方向を検出する加速度計、地球に対する操作者の手の動きを検出する磁力計、操作者の手の回転動作を検出するジャイロスコープ、および操作者の手の指の動きを検出する抵抗ストリップのうちの少なくとも2つを含む、前記ウェアラブルデバイスと、
    前記マルチセンサ検出器を監視して、前記少なくとも2つのセンサから受信された入力データに基づいて前記操作者の複数のジェスチャを判定するコントローラであって、判定された操作者の複数のジェスチャに基づいてコマンドを生成する前記コントローラと、
    前記無人機を制御するために前記コントローラからのコマンドを中継する通信モジュールと、を備えるシステム。
  12. 前記通信モジュールは、前記無人機を制御するためのコマンドを中継するモバイルデバイスである、請求項11に記載のシステム。
  13. 前記コントローラは、前記コマンドをブルートゥースまたはユニバーサルシリアルバス接続(USB)を介して、前記無人機を制御するために前記コマンドを中継する通信モジュールに送信する、請求項12に記載のシステム。
  14. 前記通信モジュールと通信するミッションプランナ・アプリケーションをさらに備え、
    前記ミッションプランナ・アプリケーションは、前記通信モジュールから前記コマンドを受信し、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、請求項13に記載のシステム。
  15. 前記ミッションプランナ・アプリケーションは、コンピュータ上で動作し、無線リンクを介して前記通信モジュールと通信する、請求項14に記載のシステム。
  16. 前記ミッションプランナ・アプリケーションから前記ウェアラブルデバイスの操作者にミッションステータスを伝えるウェアラブルグラスをさらに備える請求項15に記載のシステム。
  17. 前記ミッションプランナ・アプリケーションは、ソフトウェアパケットをスクリプトインタフェースを介して汎用プロトコルインタフェースに通信し、該汎用プロトコルインタフェースは、汎用プロトコルのコマンドを前記通信モジュールと通信するアプリケーションに変換する、請求項16に記載のシステム。
  18. 前記汎用プロトコルは、トランスポート・コントロール・プロトコル(TCP)であり、
    前記ソフトウェアパケットは、Pythonスクリプトで通信される、請求項17に記載のシステム。
  19. 方法であって、
    コントローラが、少なくとも2つのセンサを有するウェアラブルデバイスから、無人機(UV)に命令する操作者の複数のジェスチャを検出すること、
    前記少なくとも2つのセンサを分析して、操作者の手の動き、地球に対する操作者の手の動き、操作者の手の回転動作、および操作者の手の指の動きに関する操作者の複数のジェスチャの動き及び方向を検出すること、
    前記コントローラが、前記少なくとも2つのセンサの分析に基づいて、前記操作者の複数のジェスチャを判定すること、
    前記コントローラが、前記無人機の複数の動作を制御するためのコマンドを通信すること、を備える方法。
  20. 前記コマンドをミッションプランナ・アプリケーションに通信することをさらに備え、
    前記ミッションプランナ・アプリケーションは、前記コマンドに基づいて前記無人機を制御するための制御コマンドを生成する、請求項19に記載の方法。
JP2017553990A 2015-04-14 2016-03-28 無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法 Active JP6650467B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/686,370 US10459524B2 (en) 2015-04-14 2015-04-14 Multi-sensor control system and method for remote signaling control of unmanned vehicles
US14/686,370 2015-04-14
PCT/US2016/024521 WO2016167946A1 (en) 2015-04-14 2016-03-28 Multi-sensor control system and method for remote signaling control of unmanned vehicles

Publications (2)

Publication Number Publication Date
JP2018515838A true JP2018515838A (ja) 2018-06-14
JP6650467B2 JP6650467B2 (ja) 2020-02-19

Family

ID=55861149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017553990A Active JP6650467B2 (ja) 2015-04-14 2016-03-28 無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法

Country Status (3)

Country Link
US (2) US10459524B2 (ja)
JP (1) JP6650467B2 (ja)
WO (1) WO2016167946A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021089588A (ja) * 2019-12-04 2021-06-10 テックファーム株式会社 操作情報作成装置及び飛行制御システム
US11908014B2 (en) 2018-11-08 2024-02-20 Jpmorgan Chase Bank, N.A. Systems and methods for distributed-ledger based intraday trading

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105573330B (zh) * 2015-03-03 2018-11-09 广州亿航智能技术有限公司 基于智能终端的飞行器操控方法
US9804595B1 (en) * 2015-06-19 2017-10-31 Samuel E. Denard Control system for communicating with and controlling operations of a vehicle
US9809231B2 (en) * 2015-10-28 2017-11-07 Honda Motor Co., Ltd. System and method for executing gesture based control of a vehicle system
US10137777B2 (en) * 2015-11-03 2018-11-27 GM Global Technology Operations LLC Systems and methods for vehicle system control based on physiological traits
US10275036B2 (en) * 2016-01-04 2019-04-30 Sphero, Inc. Modular sensing device for controlling a self-propelled device
US10890981B2 (en) * 2016-10-24 2021-01-12 Ford Global Technologies, Llc Gesture-based vehicle control
US10446059B2 (en) * 2016-12-07 2019-10-15 Thomas William Pryor Hand motion interpretation and communication apparatus
CA2997077A1 (en) * 2017-03-06 2018-09-06 Walmart Apollo, Llc Apparatuses and methods for gesture-controlled unmanned aerial vehicles
DE102017007119B4 (de) * 2017-07-27 2022-12-29 Mercedes-Benz Group AG Verfahren zur Fernsteuerung einer Funktion eines Fahrzeugs
IT201800002417A1 (it) 2018-02-05 2019-08-05 Supsi Scuola Univ Professionale Della Svizzera Italiana Sistema di comando di un dispositivo mobile
US10713935B2 (en) * 2018-02-23 2020-07-14 Nokia Technologies Oy Control service for controlling devices with body-action input devices
CN111566006B (zh) * 2018-02-28 2024-03-12 株式会社尼罗沃克 无人机和操作器及其控制方法、计算机可读取记录介质
GB2574886A (en) * 2018-06-22 2019-12-25 Ecole Polytechnique Fed Lausanne Epfl Teleoperation with a wearable sensor system
KR102032067B1 (ko) * 2018-12-05 2019-10-14 세종대학교산학협력단 강화학습 기반 무인 항공기 원격 제어 방법 및 장치
KR20220105810A (ko) 2021-01-21 2022-07-28 한화디펜스 주식회사 제스처를 이용한 차량 제어 시스템 및 이의 제어 방법
CN113211466A (zh) * 2021-04-27 2021-08-06 北京科技大学顺德研究生院 基于惯性传感器的医用体感机器人系统
CN113311063A (zh) * 2021-05-17 2021-08-27 北京工业大学 一种可穿戴式电磁无损检测仪器
US20230280741A1 (en) * 2022-03-01 2023-09-07 Logistics and Supply Chain MultiTech R&D Centre Limited Wearable Remote Control Device And Tracking System
US11675445B1 (en) * 2022-04-13 2023-06-13 Tomahawk Robotics Inertially isolated spatial control

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05149706A (ja) * 1991-08-05 1993-06-15 Yamaha Corp 楽音制御用曲げセンサ
JP2012509812A (ja) * 2008-11-27 2012-04-26 パロット 無人機を操縦する装置
WO2014130871A1 (en) * 2013-02-22 2014-08-28 Thalmic Labs Inc. Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control
US20140316614A1 (en) * 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data
WO2015014116A1 (en) * 2013-07-31 2015-02-05 SZ DJI Technology Co., Ltd Remote control method and terminal

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8460103B2 (en) 2004-06-18 2013-06-11 Igt Gesture controlled casino gaming system
US9317108B2 (en) * 2004-11-02 2016-04-19 Pierre A. Touma Hand-held wireless electronic device with accelerometer for interacting with a display
GB2437452B (en) * 2005-01-18 2009-11-25 Rallypoint Inc Sensing input actions
WO2007048003A2 (en) * 2005-10-21 2007-04-26 Deere & Company Versatile robotic control module
US8005257B2 (en) 2006-10-05 2011-08-23 The United States Of America As Represented By The Secretary Of The Navy Gesture recognition apparatus and method
US8214098B2 (en) * 2008-02-28 2012-07-03 The Boeing Company System and method for controlling swarm of remote unmanned vehicles through human gestures
US8704758B1 (en) * 2008-11-17 2014-04-22 Iron Will Innovations Canada Inc. Resistive loop excitation and readout for touch point detection and generation of corresponding control signals
US7983450B2 (en) 2009-03-16 2011-07-19 The Boeing Company Method, apparatus and computer program product for recognizing a gesture
US9000887B2 (en) * 2009-07-23 2015-04-07 Qualcomm Incorporated Method and apparatus for communicating control information by a wearable device to control mobile and consumer electronic devices
US10627860B2 (en) * 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US20140008496A1 (en) * 2012-07-05 2014-01-09 Zhou Ye Using handheld device to control flying object
US9044543B2 (en) * 2012-07-17 2015-06-02 Elwha Llc Unmanned device utilization methods and systems
US9156476B2 (en) * 2012-10-02 2015-10-13 Trevor O'Neill System and method for remote control of unmanned vehicles
US20150062086A1 (en) * 2013-08-29 2015-03-05 Rohildev Nattukallingal Method and system of a wearable ring device for management of another computing device
US9367139B2 (en) * 2013-12-12 2016-06-14 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
WO2016010299A1 (ko) * 2014-07-15 2016-01-21 삼성전자 주식회사 루프 형상의 안테나를 포함하는 전자 장치
US9746984B2 (en) * 2014-08-19 2017-08-29 Sony Interactive Entertainment Inc. Systems and methods for providing feedback to a user while interacting with content
EP3065042B1 (en) * 2015-02-13 2018-11-07 LG Electronics Inc. Mobile terminal and method for controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05149706A (ja) * 1991-08-05 1993-06-15 Yamaha Corp 楽音制御用曲げセンサ
JP2012509812A (ja) * 2008-11-27 2012-04-26 パロット 無人機を操縦する装置
US20140316614A1 (en) * 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data
WO2014130871A1 (en) * 2013-02-22 2014-08-28 Thalmic Labs Inc. Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control
WO2015014116A1 (en) * 2013-07-31 2015-02-05 SZ DJI Technology Co., Ltd Remote control method and terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908014B2 (en) 2018-11-08 2024-02-20 Jpmorgan Chase Bank, N.A. Systems and methods for distributed-ledger based intraday trading
JP2021089588A (ja) * 2019-12-04 2021-06-10 テックファーム株式会社 操作情報作成装置及び飛行制御システム
JP7082351B2 (ja) 2019-12-04 2022-06-08 テックファーム株式会社 飛行制御システム

Also Published As

Publication number Publication date
US10459524B2 (en) 2019-10-29
US20190011995A1 (en) 2019-01-10
US10459529B2 (en) 2019-10-29
WO2016167946A1 (en) 2016-10-20
JP6650467B2 (ja) 2020-02-19
US20170031446A1 (en) 2017-02-02

Similar Documents

Publication Publication Date Title
JP6650467B2 (ja) 無人機の遠隔信号伝達制御のためのマルチセンサ制御装置、システムおよび方法
Nahavandi Trusted autonomy between humans and robots: Toward human-on-the-loop in robotics and autonomous systems
Teixeira et al. Teleoperation using google glass and ar, drone for structural inspection
US20210094180A1 (en) Augmented Reality Coordination Of Human-Robot Interaction
Santana et al. Navigation and cooperative control using the ar. drone quadrotor
US20200387238A1 (en) Controller with situational awareness display
KR20180041890A (ko) 가상 객체를 표시하는 방법 및 장치
US20150024368A1 (en) Systems and methods for virtual environment conflict nullification
KR102449439B1 (ko) Hmd를 이용한 무인기 조종 장치
US20160063870A1 (en) System for testing of autonomy in complex environments
US9300430B2 (en) Latency smoothing for teleoperation systems
EP3007030B1 (en) Portable device and control method via gestures
US10970935B2 (en) Body pose message system
US11804052B2 (en) Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path
Macchini et al. Hand-worn haptic interface for drone teleoperation
Gregory et al. Enabling intuitive human-robot teaming using augmented reality and gesture control
Barber et al. Visual and tactile interfaces for bi-directional human robot communication
Islam et al. Haptic and virtual reality based shared control for mav
Watson et al. Simulation-based environment for the eye-tracking control of tele-operated mobile robots
Shaqura et al. Human supervised multirotor UAV system design for inspection applications
Zikmund et al. Reaction to directional vibrations applied on a joystick
Gawron et al. Ground control systems
Amir et al. Kinect controlled UGV
WO2019206833A1 (en) Method and apparatus monitoring a space
Herman et al. Cooperative semi-autonomous robotic network for search and rescue operations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6650467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250