JP2020506443A - 無人機の制御方法、頭部装着式表示メガネおよびシステム - Google Patents
無人機の制御方法、頭部装着式表示メガネおよびシステム Download PDFInfo
- Publication number
- JP2020506443A JP2020506443A JP2019516208A JP2019516208A JP2020506443A JP 2020506443 A JP2020506443 A JP 2020506443A JP 2019516208 A JP2019516208 A JP 2019516208A JP 2019516208 A JP2019516208 A JP 2019516208A JP 2020506443 A JP2020506443 A JP 2020506443A
- Authority
- JP
- Japan
- Prior art keywords
- user
- head
- drone
- screen
- movable mark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011521 glass Substances 0.000 title claims abstract description 158
- 238000000034 method Methods 0.000 title claims abstract description 80
- 210000003128 head Anatomy 0.000 claims description 77
- 210000001508 eye Anatomy 0.000 claims description 28
- 238000005259 measurement Methods 0.000 claims description 28
- 230000033001 locomotion Effects 0.000 claims description 27
- 238000012790 confirmation Methods 0.000 claims description 14
- 230000004424 eye movement Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 abstract description 9
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 102000006822 Agouti Signaling Protein Human genes 0.000 description 1
- 108010072151 Agouti Signaling Protein Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
- G05D1/0816—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft to ensure stability
- G05D1/085—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft to ensure stability to ensure coordination between different movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Selective Calling Equipment (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
移動可能なマークを表示すること;
ユーザの入力情報を取得すること;および、
前記入力情報に基づき、前記移動可能なマークを移動させることで前記無人機を制御すること、
を含む、無人機の制御方法を提供することである。
移動可能なマークを表示するために用いられ;
前記1つまたは複数のプロセッサは:
ユーザの入力情報を取得するために用いられ;
前記入力情報に基づき、前記移動可能なマークを移動させることで無人機を制御する頭部装着式表示メガネを提供することである。
無人機と、前記無人機を制御するための前記頭部装着式表示メガネと、を備えた無人機制御システムを提供することである。
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標位置を判定する。前記慣性測定ユニットが検知した前記ユーザ頭部の1回のピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標位置を判定する。
x=screenW/2+yaw×factorX (1)
式中、xは、スクリーン上のX軸におけるカーソルの座標を表し、screenWは、スクリーンがX軸方向において含む画素の個数(スクリーンの幅)を表し、yaw角(ヨー角)は、IMUの1回のサンプリングで得られるユーザ頭部のヨー角を表し、定数factorXは、スクリーンX軸方向の変換係数を表す。
y=screenH/2+pitch×factorY (2)
式中、yは、スクリーン上のY軸におけるカーソルの座標を表し、screenHは、スクリーンがY軸方向において含む画素の個数(スクリーンの長さ)を表し、pitch角(ピッチ角)は、IMUの1回のサンプリングで得られるユーザ頭部のピッチ角を表し、定数factorYは、スクリーンY軸方向の変換係数を表す。
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のヨー角の角度差に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標ずれを判定する。前記慣性測定ユニットが検知した前記ユーザ頭部の2回のピッチ角の角度差に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標ずれを判定する。具体的には下記の式(3)および(4)によって、スクリーン上でのカーソルの座標位置を判定する。
deltaX=deltaYaw×factorX (3)
式中、deltaXは、スクリーンの水平方向におけるカーソルの座標ずれを表し、deltaYawは、IMUが今回集めたyaw角(ヨー角)と、前回に集めたyaw角との角度差を表し、定数factorXは、スクリーンX軸方向の変換係数を表す。
deltaY=deltaPitch×factorY (4)
式中、deltaYは、スクリーンの垂直方向におけるカーソルの座標ずれを表し、deltaPitchは、IMUが今回集めたpitch角(ピッチ角)と前回に集めたpitch角との角度差を表し、定数factorYは、スクリーンY軸方向の変換係数を表す。
2 ユーザ頭部の平面図
3 ユーザ頭部の回転方向
4 VRメガネのスクリーン
5 移動可能なマーク
6 VRメガネの側面図
7 ユーザ頭部の側面図
8 ユーザ頭部の運動方向
9 VRメガネのスクリーン
10 移動可能なマーク
11 カーソル
12 トラッキング目標
13 カーソル位置
14 カーソル位置
15 矩形枠
50 頭部装着式表示メガネ
51 プロセッサ
52 スクリーン
53 慣性測定ユニット
54 受信ユニット
55 眼部センサ
56 送信ユニット
Claims (52)
- 移動可能なマークを表示すること;
ユーザの入力情報を取得すること;および、
前記入力情報に基づき、前記移動可能なマークを移動させることで無人機を制御すること、
を含むことを特徴とする、無人機の制御方法。 - 前記入力情報は前記ユーザの姿勢情報であることを特徴とする請求項1に記載の方法。
- 前記入力情報は、前記ユーザが入力装置を介して入力した、前記移動可能なマークを移動させるための方向情報であることを特徴とする請求項1に記載の方法。
- 前記入力装置は、5次元キー、ジョイスティック、タッチパネル、タッチスクリーンまたはバーチャルボタンの少なくとも1種を含むことを特徴とする請求項3に記載の方法。
- 前記姿勢情報は、ヨー角とピッチ角の少なくとも1種を含むことを特徴とする請求項2に記載の方法。
- 前記ユーザの入力情報を取得することは:
慣性測定ユニットが検知した前記ユーザ頭部のヨー角とピッチ角を取得することを含むことを特徴とする請求項5に記載の方法。 - 前記入力情報に基づき、前記移動可能なマークを移動させることで前記無人機を制御することは:
前記ヨー角と前記ピッチ角に基づき、スクリーン上での前記移動可能なマークの位置を判定すること;および、
前記スクリーン上での前記移動可能なマークの位置に基づき、前記スクリーン上に表示される目標物体を選択すること、
を含むことを特徴とする請求項6に記載の方法。 - 前記ヨー角と前記ピッチ角に基づき、前記スクリーン上での前記移動可能なマークの位置を判定することは:
前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定すること;および、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定すること、
を含むことを特徴とする請求項7に記載の方法。 - 前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定することは:
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標位置を判定すること;
を含み、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定することは:
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標位置を判定することを含むことを特徴とする請求項8に記載の方法。 - 前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定することは:
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のヨー角の角度差に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標ずれを判定すること;
を含み、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定することは:
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のピッチ角の角度差に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標ずれを判定することを含むことを特徴とする請求項8に記載の方法。 - 前記スクリーン上での前記移動可能なマークの位置に基づき、スクリーン上に表示される目標物体を選択することは:
前記スクリーン上での前記移動可能なマークの位置を調整することで、前記移動可能なマークが前記目標物体の方を指すようにすること;および、
前記ユーザが入力した、前記目標物体を選択するための選択命令を受信すること、
を含むことを特徴とする請求項7に記載の方法。 - ユーザが入力した、前記目標物体を選択するための選択命令を受信することは:
前記ユーザが、5次元キーの確認ボタンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザがタッチパネルをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザが目の動きによって入力した選択命令を受信すること;もしくは、
前記ユーザがタッチスクリーンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記移動可能なマークが前記目標物体上で所定の時間だけとどまった後、前記目標物体を選択すること;もしくは、
前記ユーザが前記バーチャルボタンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザがジョイスティックを操縦することによって入力した選択命令を受信すること、
を含むことを特徴とする請求項11に記載の方法。 - 前記選択命令はポイント選択またはフレーム選択を含むことを特徴とする請求項12に記載の方法。
- 前記無人機の状態情報を取得すること;および、
前記無人機の状態情報に基づき、ローカルに記憶された前記無人機の状態情報を同期すること、
をさらに含むことを特徴とする請求項1〜13のいずれか一項に記載の方法。 - 前記無人機の状態情報を取得することは:
前記無人機に状態情報取得要求を送信すること;および、
前記無人機が送信する状態情報を受信すること、
を含むことを特徴とする請求項14に記載の方法。 - 前記無人機の状態情報を取得することは:
前記無人機が放送する状態情報を受信することを含むことを特徴とする請求項14に記載の方法。 - 1つまたは複数のプロセッサおよび1つのスクリーンを備え、前記スクリーンは、移動可能なマークを表示するために用いられ;前記1つまたは複数のプロセッサは、ユーザの入力情報を取得するために用いられ;そして、前記入力情報に基づき、前記移動可能なマークを移動させることで無人機を制御することを特徴とする、無人機を制御するための頭部装着式表示メガネ。
- 前記入力情報は前記ユーザの姿勢情報であることを特徴とする請求項17に記載の頭部装着式表示メガネ。
- 前記入力情報は、前記ユーザが入力装置を介して入力した、前記移動可能なマークを移動させるための方向情報であることを特徴とする請求項17に記載の頭部装着式表示メガネ。
- 前記入力装置は、5次元キー、ジョイスティック、タッチパネル、タッチスクリーンまたはバーチャルボタンの少なくとも1種を含むことを特徴とする請求項19に記載の頭部装着式表示メガネ。
- 前記姿勢情報はヨー角とピッチ角の少なくとも1種を含むことを特徴とする請求項18に記載の頭部装着式表示メガネ。
- 前記ユーザ頭部のヨー角とピッチ角を検知するとともに、前記ユーザ頭部のヨー角とピッチ角を前記1つまたは複数のプロセッサに送信するための、前記1つまたは複数のプロセッサに接続される慣性測定ユニットをさらに備えることを特徴とする請求項21に記載の頭部装着式表示メガネ。
- 前記1つまたは複数のプロセッサは:
前記ヨー角と前記ピッチ角に基づき、前記スクリーン上での前記移動可能なマークの位置を判定し;そして、
前記スクリーン上での前記移動可能なマークの位置に基づき、前記スクリーン上に表示される目標物体を選択するために用いられることを特徴とする請求項22に記載の頭部装着式表示メガネ。 - 前記1つまたは複数のプロセッサは:
前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定し;そして、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定するために用いられることを特徴とする請求項23に記載の頭部装着式表示メガネ。 - 前記1つまたは複数のプロセッサは:
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標位置を判定し;
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標位置を判定するために用いられることを特徴とする請求項24に記載の頭部装着式表示メガネ。 - 前記1つまたは複数のプロセッサは:
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のヨー角の角度差に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標ずれを判定し;そして、
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のピッチ角の角度差に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標ずれを判定するために用いられることを特徴とする請求項24に記載の頭部装着式表示メガネ。 - 前記1つまたは複数のプロセッサは前記スクリーン上での前記移動可能なマークの位置を調整することで、前記移動可能なマークが前記目標物体の方を指すようにするために用いられ;
前記頭部装着式表示メガネは:
前記1つまたは複数のプロセッサに接続される受信ユニットをさらに含み、前記受信ユニットは、前記ユーザが入力した、前記目標物体を選択するための選択命令を受信するために用いられることを特徴とする請求項23に記載の頭部装着式表示メガネ。 - 前記受信ユニットは、前記ユーザが入力した前記目標物体を選択するための選択命令を受信するために用いられ:
前記ユーザが、5次元キーの確認ボタンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザがタッチパネルをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザが目の動きによって入力した選択命令を受信すること;もしくは、
前記ユーザがタッチスクリーンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記移動可能なマークが前記目標物体上で所定の時間だけとどまった後、前記目標物体を選択すること;もしくは、
前記ユーザが前記バーチャルボタンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザがジョイスティックを操縦することによって入力した選択命令を受信すること、
を含むことを特徴とする請求項27に記載の頭部装着式表示メガネ。 - 前記1つまたは複数のプロセッサに接続される眼部センサをさらに含み、前記眼部センサは、前記ユーザの目の運動情報を検知するとともに、前記運動情報を前記1つまたは複数のプロセッサに送信するために用いられ;
前記1つまたは複数のプロセッサは、前記運動情報に基づき、前記選択命令を判定するために用いられることを特徴とする請求項27に記載の頭部装着式表示メガネ。 - 前記選択命令はポイント選択またはフレーム選択を含むことを特徴とする請求項27に記載の頭部装着式表示メガネ。
- 前記1つまたは複数のプロセッサがさらに:
前記無人機の状態情報を取得し;そして、
前記無人機の状態情報に基づき、ローカルに記憶された前記無人機の状態情報を同期するために用いられることを特徴とする請求項17〜30のいずれか一項に記載の頭部装着式表示メガネ。 - 前記1つまたは複数のプロセッサに接続される送信ユニットをさらに含み、前記送信ユニットは、前記無人機に状態情報取得要求を送信するために用いられ;
前記受信ユニットはさらに、前記無人機が送信する状態情報を受信するために用いられることを特徴とする請求項31に記載の頭部装着式表示メガネ。 - 前記受信ユニットはさらに、前記無人機が放送する状態情報を受信するために用いられることを特徴とする請求項31に記載の頭部装着式表示メガネ。
- 前記受信ユニットはさらに、他の無人機制御端末が送信する前記無人機の状態情報を受信するために用いられ、前記他の無人機制御端末は、前記無人機を制御するとともに、前記無人機が放送する状態情報を受信するために用いられることを特徴とする請求項31に記載の頭部装着式表示メガネ。
- 前記頭部装着式表示メガネが:
移動可能なマークを表示するために用いられるスクリーンと;
ユーザの入力情報を取得し;そして、
前記入力情報に基づき、前記移動可能なマークを移動させることで無人機を制御するための1つまたは複数のプロセッサと、
を含むことを特徴とする、無人機および頭部装着式表示メガネを含む無人機制御システム。 - 前記入力情報は前記ユーザの姿勢情報であることを特徴とする請求項35に記載の無人機制御システム。
- 前記入力情報は、前記ユーザが入力装置を介して入力した、前記移動可能なマークを移動させるための方向情報であることを特徴とする請求項35に記載の無人機制御システム。
- 前記入力装置は、5次元キー、ジョイスティック、タッチパネル、タッチスクリーンまたはバーチャルボタンの少なくとも1種を含むことを特徴とする請求項37に記載の無人機制御システム。
- 前記姿勢情報はヨー角とピッチ角の少なくとも1種を含むことを特徴とする請求項36に記載の無人機制御システム。
- 前記ユーザ頭部のヨー角とピッチ角を検知するとともに、前記ユーザ頭部のヨー角とピッチ角を前記1つまたは複数のプロセッサに送信するための、前記1つまたは複数のプロセッサに接続される慣性測定ユニットをさらに備えることを特徴とする請求項39に記載の無人機制御システム。
- 前記1つまたは複数のプロセッサは:
前記ヨー角と前記ピッチ角に基づき、前記スクリーン上での前記移動可能なマークの位置を判定し;そして、
前記スクリーン上での前記移動可能なマークの位置に基づき、前記スクリーン上に表示される目標物体を選択するために用いられることを特徴とする請求項40に記載の無人機制御システム。 - 前記1つまたは複数のプロセッサは:
前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定し;そして、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定するために用いられることを特徴とする請求項41に記載の無人機制御システム。 - 前記1つまたは複数のプロセッサは:
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標位置を判定し;
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標位置を判定するために用いられることを特徴とする請求項42に記載の無人機制御システム。 - 前記1つまたは複数のプロセッサは:
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のヨー角の角度差に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標ずれを判定し;そして、
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のピッチ角の角度差に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標ずれを判定するために用いられることを特徴とする請求項42に記載の無人機制御システム。 - 前記1つまたは複数のプロセッサは前記スクリーン上での前記移動可能なマークの位置を調整することで、前記移動可能なマークが前記目標物体の方を指すようにするために用いられ;
前記頭部装着式表示メガネは:
前記1つまたは複数のプロセッサに接続される受信ユニットをさらに含み、前記受信ユニットは、前記ユーザが入力した、前記目標物体を選択するための選択命令を受信するために用いられることを特徴とする請求項41に記載の無人機制御システム。 - 前記受信ユニットは、前記ユーザが入力した前記目標物体を選択するための選択命令を受信するために用いられ:
前記ユーザが、5次元キーの確認ボタンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザがタッチパネルをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザが目の動きによって入力した選択命令を受信すること;もしくは、
前記ユーザがタッチスクリーンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記移動可能なマークが前記目標物体上で所定の時間だけとどまった後、前記目標物体を選択すること;もしくは、
前記ユーザが前記バーチャルボタンをクリックすることによって入力した選択命令を受信すること;もしくは、
前記ユーザがジョイスティックを操縦することによって入力した選択命令を受信すること、
を含むことを特徴とする請求項45に記載の無人機制御システム。 - 前記1つまたは複数のプロセッサに接続される眼部センサをさらに含み、前記眼部センサは、前記ユーザの目の運動情報を検知し、前記運動情報を前記1つまたは複数のプロセッサに送信するために用いられ;
前記1つまたは複数のプロセッサは、前記運動情報に基づき、前記選択命令を判定するために用いられることを特徴とする請求項45に記載の無人機制御システム。 - 前記選択命令はポイント選択またはフレーム選択を含むことを特徴とする請求項45に記載の無人機制御システム。
- 前記1つまたは複数のプロセッサがさらに:
前記無人機の状態情報を取得し;そして、
前記無人機の状態情報に基づき、ローカルに記憶された前記無人機の状態情報を同期するために用いられることを特徴とする請求項35〜48のいずれか一項に記載の無人機制御システム。 - 前記1つまたは複数のプロセッサに接続される送信ユニットをさらに含み、前記送信ユニットは、前記無人機に状態情報取得要求を送信するために用いられ;
前記受信ユニットはさらに、前記無人機が送信する状態情報を受信するために用いられることを特徴とする請求項49に記載の無人機制御システム。 - 前記受信ユニットはさらに、前記無人機が放送する状態情報を受信するために用いられることを特徴とする請求項49に記載の無人機制御システム。
- 前記受信ユニットはさらに、他の無人機制御端末が送信する前記無人機の状態情報を受信するために用いられ、前記他の無人機制御端末は、前記無人機を制御するとともに、前記無人機が放送する状態情報を受信するために用いられることを特徴とする請求項49に記載の無人機制御システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/100072 WO2018053824A1 (zh) | 2016-09-26 | 2016-09-26 | 无人机控制方法、头戴式显示眼镜及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020506443A true JP2020506443A (ja) | 2020-02-27 |
JP6851470B2 JP6851470B2 (ja) | 2021-03-31 |
Family
ID=60485742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019516208A Active JP6851470B2 (ja) | 2016-09-26 | 2016-09-26 | 無人機の制御方法、頭部装着式表示メガネおよびシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190220040A1 (ja) |
EP (1) | EP3511758A4 (ja) |
JP (1) | JP6851470B2 (ja) |
CN (1) | CN107454947A (ja) |
WO (1) | WO2018053824A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230076409A (ko) * | 2021-11-24 | 2023-05-31 | 주식회사 딥파인 | 스마트 글래스 및 이를 포함하는 음성 인식 시스템 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019082891A (ja) * | 2017-10-31 | 2019-05-30 | セイコーエプソン株式会社 | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム |
CN107943088A (zh) * | 2017-12-22 | 2018-04-20 | 广州亿航智能技术有限公司 | 一种控制无人机的方法及其系统 |
CN109992096A (zh) * | 2017-12-29 | 2019-07-09 | 北京亮亮视野科技有限公司 | 激活智能眼镜功能图标的方法 |
CN110337621A (zh) * | 2018-04-09 | 2019-10-15 | 深圳市大疆创新科技有限公司 | 运动轨迹确定、延时摄影方法、设备及机器可读存储介质 |
CN109316741A (zh) * | 2018-07-17 | 2019-02-12 | 派视觉虚拟现实(深圳)软件技术有限公司 | 一种vr场景中控制角色移动的方法、装置及设备 |
CN109309709B (zh) * | 2018-08-22 | 2021-08-10 | 北京臻迪科技股份有限公司 | 一种可远端控制无人装置的控制方法 |
CN109300478A (zh) * | 2018-09-04 | 2019-02-01 | 上海交通大学 | 一种听力障碍者的辅助对话装置 |
CN109540834A (zh) * | 2018-12-13 | 2019-03-29 | 深圳市太赫兹科技创新研究院 | 一种电缆老化监测方法及系统 |
CN110412996A (zh) * | 2019-06-18 | 2019-11-05 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于手势和眼动的无人机操控方法、装置和系统 |
CN110347163B (zh) * | 2019-08-07 | 2022-11-18 | 京东方科技集团股份有限公司 | 一种无人驾驶设备的控制方法、设备及无人驾驶控制系统 |
CN110764521B (zh) * | 2019-10-15 | 2021-09-24 | 中国航空无线电电子研究所 | 面向多无人机的地面站任务飞行一体化监控系统及方法 |
CN110753313A (zh) * | 2019-10-30 | 2020-02-04 | 深圳市道通智能航空技术有限公司 | 一种数据同步方法和系统 |
WO2021090906A1 (ja) * | 2019-11-08 | 2021-05-14 | 株式会社エスイーフォー | 制御装置、制御ユニット、それらを有する制御システム |
US11804052B2 (en) * | 2020-03-26 | 2023-10-31 | Seiko Epson Corporation | Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path |
CN112771465A (zh) * | 2020-04-27 | 2021-05-07 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、系统、装置及存储介质 |
CN114527864B (zh) * | 2020-11-19 | 2024-03-15 | 京东方科技集团股份有限公司 | 增强现实文字显示系统、方法、设备及介质 |
US20220374085A1 (en) * | 2021-05-19 | 2022-11-24 | Apple Inc. | Navigating user interfaces using hand gestures |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001306144A (ja) * | 2000-04-21 | 2001-11-02 | Yamaha Motor Co Ltd | 無人ヘリコプタの飛行制御システム |
JP2011189929A (ja) * | 2010-03-11 | 2011-09-29 | Parrot | 無人機、特に回転翼無人機を遠隔制御するための方法および機器 |
JP2013144539A (ja) * | 2012-01-04 | 2013-07-25 | Parrot | 遠隔制御装置によって無人機を直観的に操縦するための方法 |
JP2014063411A (ja) * | 2012-09-24 | 2014-04-10 | Casio Comput Co Ltd | 遠隔制御システム、制御方法、及び、プログラム |
JP2014212479A (ja) * | 2013-04-19 | 2014-11-13 | ソニー株式会社 | 制御装置、制御方法及びコンピュータプログラム |
JP2016119655A (ja) * | 2014-11-26 | 2016-06-30 | パロット | 無人機を没入モードで操縦するためのビデオシステム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8521339B2 (en) * | 2008-09-09 | 2013-08-27 | Aeryon Labs Inc. | Method and system for directing unmanned vehicles |
WO2012154938A1 (en) * | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
JP6026088B2 (ja) * | 2011-08-09 | 2016-11-16 | 株式会社トプコン | 遠隔操作システム |
CN202587217U (zh) * | 2011-12-16 | 2012-12-05 | 新时代集团国防科技研究中心 | 用于无人飞行器作业的辅助显示装置 |
SI24055A (sl) * | 2012-04-16 | 2013-10-30 | Airmamics Napredni Mehatronski Sistemi D.O.O. | Krmilni sistem stabilizacijske glave za letečo ali stacionarno platformo |
CN205139708U (zh) * | 2015-10-28 | 2016-04-06 | 上海顺砾智能科技有限公司 | 一种无人机的动作识别远程控制装置 |
CN105222761A (zh) * | 2015-10-29 | 2016-01-06 | 哈尔滨工业大学 | 借助虚拟现实及双目视觉技术实现的第一人称沉浸式无人机驾驶系统及驾驶方法 |
CN105357220B (zh) * | 2015-12-04 | 2019-04-26 | 深圳一电航空技术有限公司 | 无人机管控方法及系统 |
CN105739525B (zh) * | 2016-02-14 | 2019-09-03 | 普宙飞行器科技(深圳)有限公司 | 一种配合体感操作实现虚拟飞行的系统 |
CN105867613A (zh) * | 2016-03-21 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 基于虚拟现实系统的头控交互方法及装置 |
-
2016
- 2016-09-26 WO PCT/CN2016/100072 patent/WO2018053824A1/zh unknown
- 2016-09-26 JP JP2019516208A patent/JP6851470B2/ja active Active
- 2016-09-26 EP EP16916563.6A patent/EP3511758A4/en not_active Ceased
- 2016-09-26 CN CN201680003670.6A patent/CN107454947A/zh active Pending
-
2019
- 2019-03-25 US US16/363,497 patent/US20190220040A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001306144A (ja) * | 2000-04-21 | 2001-11-02 | Yamaha Motor Co Ltd | 無人ヘリコプタの飛行制御システム |
JP2011189929A (ja) * | 2010-03-11 | 2011-09-29 | Parrot | 無人機、特に回転翼無人機を遠隔制御するための方法および機器 |
JP2013144539A (ja) * | 2012-01-04 | 2013-07-25 | Parrot | 遠隔制御装置によって無人機を直観的に操縦するための方法 |
JP2014063411A (ja) * | 2012-09-24 | 2014-04-10 | Casio Comput Co Ltd | 遠隔制御システム、制御方法、及び、プログラム |
JP2014212479A (ja) * | 2013-04-19 | 2014-11-13 | ソニー株式会社 | 制御装置、制御方法及びコンピュータプログラム |
JP2016119655A (ja) * | 2014-11-26 | 2016-06-30 | パロット | 無人機を没入モードで操縦するためのビデオシステム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230076409A (ko) * | 2021-11-24 | 2023-05-31 | 주식회사 딥파인 | 스마트 글래스 및 이를 포함하는 음성 인식 시스템 |
KR102605774B1 (ko) | 2021-11-24 | 2023-11-29 | 주식회사 딥파인 | 스마트 글래스 및 이를 포함하는 음성 인식 시스템 |
Also Published As
Publication number | Publication date |
---|---|
EP3511758A1 (en) | 2019-07-17 |
EP3511758A4 (en) | 2019-08-28 |
CN107454947A (zh) | 2017-12-08 |
JP6851470B2 (ja) | 2021-03-31 |
WO2018053824A1 (zh) | 2018-03-29 |
US20190220040A1 (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6851470B2 (ja) | 無人機の制御方法、頭部装着式表示メガネおよびシステム | |
US10674062B2 (en) | Control method for photographing using unmanned aerial vehicle, photographing method using unmanned aerial vehicle, mobile terminal, and unmanned aerial vehicle | |
US20220374010A1 (en) | User Interaction Paradigms For A Flying Digital Assistant | |
WO2018214078A1 (zh) | 拍摄控制方法及装置 | |
CN107168352B (zh) | 目标追踪系统及方法 | |
US9703288B1 (en) | System and method for aerial system control | |
KR20180075191A (ko) | 무인 이동체를 제어하기 위한 방법 및 전자 장치 | |
US10917560B2 (en) | Control apparatus, movable apparatus, and remote-control system | |
CN103426282A (zh) | 遥控方法及终端 | |
US11228737B2 (en) | Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium | |
US11611700B2 (en) | Unmanned aerial vehicle with virtual un-zoomed imaging | |
CN113448343B (zh) | 用于设定飞行器的目标飞行路径的方法、系统和可读介质 | |
CN109076206B (zh) | 基于无人机的立体成像方法和装置 | |
WO2019140686A1 (zh) | 跟随控制方法、控制终端及无人机 | |
CN113677412B (zh) | 信息处理装置、信息处理方法和程序 | |
EP3288828B1 (en) | Unmanned aerial vehicle system and method for controlling an unmanned aerial vehicle | |
JP6560479B1 (ja) | 無人航空機制御システム、無人航空機制御方法、及びプログラム | |
JP2022105568A (ja) | 3dツアーの比較表示システム及び方法 | |
WO2017187220A1 (en) | System and method for aerial system control | |
KR20180060403A (ko) | 영상 기반의 드론 제어장치 | |
KR20170093389A (ko) | 무인 비행체 제어 방법 | |
EP3518063A1 (en) | Combined video display and gimbal control | |
CN113631477A (zh) | 信息处理装置、信息处理方法和程序 | |
CN116342838A (zh) | 一种头戴设备及头戴设备中的建图初始化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6851470 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |