JP6851470B2 - 無人機の制御方法、頭部装着式表示メガネおよびシステム - Google Patents
無人機の制御方法、頭部装着式表示メガネおよびシステム Download PDFInfo
- Publication number
- JP6851470B2 JP6851470B2 JP2019516208A JP2019516208A JP6851470B2 JP 6851470 B2 JP6851470 B2 JP 6851470B2 JP 2019516208 A JP2019516208 A JP 2019516208A JP 2019516208 A JP2019516208 A JP 2019516208A JP 6851470 B2 JP6851470 B2 JP 6851470B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- screen
- unmanned aerial
- aerial vehicle
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011521 glass Substances 0.000 title claims description 136
- 238000000034 method Methods 0.000 title claims description 86
- 230000033001 locomotion Effects 0.000 claims description 27
- 238000012790 confirmation Methods 0.000 claims description 11
- 230000004424 eye movement Effects 0.000 claims description 2
- 210000003128 head Anatomy 0.000 description 59
- 239000011295 pitch Substances 0.000 description 33
- 210000001508 eye Anatomy 0.000 description 24
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
- G05D1/0816—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft to ensure stability
- G05D1/085—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft to ensure stability to ensure coordination between different movements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Selective Calling Equipment (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
移動可能なマークを表示すること;
ユーザの入力情報を取得すること;および、
前記入力情報に基づき、前記移動可能なマークを移動させることで前記無人機を制御すること、
を含む、無人機の制御方法を提供することである。
移動可能なマークを表示するために用いられ;
前記1つまたは複数のプロセッサは:
ユーザの入力情報を取得するために用いられ;
前記入力情報に基づき、前記移動可能なマークを移動させることで無人機を制御する頭部装着式表示メガネを提供することである。
無人機と、前記無人機を制御するための前記頭部装着式表示メガネと、を備えた無人機制御システムを提供することである。
前記慣性測定ユニットが検知した前記ユーザ頭部の1回のヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標位置を判定する。前記慣性測定ユニットが検知した前記ユーザ頭部の1回のピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標位置を判定する。
x=screenW/2+yaw×factorX (1)
式中、xは、スクリーン上のX軸におけるカーソルの座標を表し、screenWは、スクリーンがX軸方向において含む画素の個数(スクリーンの幅)を表し、yaw角(ヨー角)は、IMUの1回のサンプリングで得られるユーザ頭部のヨー角を表し、定数factorXは、スクリーンX軸方向の変換係数を表す。
y=screenH/2+pitch×factorY (2)
式中、yは、スクリーン上のY軸におけるカーソルの座標を表し、screenHは、スクリーンがY軸方向において含む画素の個数(スクリーンの長さ)を表し、pitch角(ピッチ角)は、IMUの1回のサンプリングで得られるユーザ頭部のピッチ角を表し、定数factorYは、スクリーンY軸方向の変換係数を表す。
前記慣性測定ユニットが検知した前記ユーザ頭部の2回のヨー角の角度差に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標ずれを判定する。前記慣性測定ユニットが検知した前記ユーザ頭部の2回のピッチ角の角度差に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標ずれを判定する。具体的には下記の式(3)および(4)によって、スクリーン上でのカーソルの座標位置を判定する。
deltaX=deltaYaw×factorX (3)
式中、deltaXは、スクリーンの水平方向におけるカーソルの座標ずれを表し、deltaYawは、IMUが今回集めたyaw角(ヨー角)と、前回に集めたyaw角との角度差を表し、定数factorXは、スクリーンX軸方向の変換係数を表す。
deltaY=deltaPitch×factorY (4)
式中、deltaYは、スクリーンの垂直方向におけるカーソルの座標ずれを表し、deltaPitchは、IMUが今回集めたpitch角(ピッチ角)と前回に集めたpitch角との角度差を表し、定数factorYは、スクリーンY軸方向の変換係数を表す。
2 ユーザ頭部の平面図
3 ユーザ頭部の回転方向
4 VRメガネのスクリーン
5 移動可能なマーク
6 VRメガネの側面図
7 ユーザ頭部の側面図
8 ユーザ頭部の運動方向
9 VRメガネのスクリーン
10 移動可能なマーク
11 カーソル
12 トラッキング目標
13 カーソル位置
14 カーソル位置
15 矩形枠
50 頭部装着式表示メガネ
51 プロセッサ
52 スクリーン
53 慣性測定ユニット
54 受信ユニット
55 眼部センサ
56 送信ユニット
Claims (17)
- 移動可能なマークを表示するステップと、
ユーザの入力情報を取得するステップと、
前記入力情報に基づき、前記移動可能なマークを移動させて無人機を制御するステップと、
を含み、
前記入力情報は前記ユーザの姿勢情報であることを特徴とする、無人機の制御方法。 - 前記入力情報は、前記ユーザが入力装置を介して入力した、前記移動可能なマークを移動させるための方向情報であることを特徴とする請求項1に記載の方法。
- 前記姿勢情報は、ヨー角とピッチ角のうち少なくとも1種を含むことを特徴とする請求項1に記載の方法。
- 前記ユーザの入力情報を取得するステップは、
前記ユーザ頭部のヨー角とピッチ角を取得するステップを含むことを特徴とする請求項3に記載の方法。 - 前記入力情報に基づき、前記移動可能なマークを移動させて前記無人機を制御するステップは、
前記ヨー角と前記ピッチ角に基づき、スクリーン上での前記移動可能なマークの位置を判定するステップと、
前記スクリーン上での前記移動可能なマークの位置に基づき、前記スクリーン上に表示される目標物体を選択するステップと、
を含むことを特徴とする請求項4に記載の方法。 - 前記ヨー角と前記ピッチ角に基づき、前記スクリーン上での前記移動可能なマークの位置を判定するステップは、
前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定するステップと、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定するステップと、
を含むことを特徴とする請求項5に記載の方法。 - 前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定するステップは、
前記ユーザ頭部の1回のヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標位置を判定するステップ、
を含み、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定するステップは、
前記ユーザ頭部の1回のピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標位置を判定するステップ、
を含むことを特徴とする請求項6に記載の方法。 - 前記ヨー角に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標を判定するステップは、
前記ユーザ頭部の2回のヨー角の角度差に基づき、前記スクリーン上の水平方向における前記移動可能なマークの座標ずれを判定するステップ、
を含み、
前記ピッチ角に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標を判定するステップは、
前記ユーザ頭部の2回のピッチ角の角度差に基づき、前記スクリーン上の垂直方向における前記移動可能なマークの座標ずれを判定するステップ、
を含むことを特徴とする請求項6に記載の方法。 - 前記スクリーン上での前記移動可能なマークの位置に基づき、スクリーン上に表示される目標物体を選択するステップは、
前記スクリーン上での前記移動可能なマークの位置を調整することで、前記移動可能なマークが前記目標物体の方を指すようにするステップと、
前記ユーザが入力した、前記目標物体を選択するための選択命令を受信するステップと、
を含むことを特徴とする請求項5に記載の方法。 - 前記目標物体を選択するための選択命令を受信するステップは、
前記ユーザが、5次元キーの確認ボタンをクリックすることによって入力した選択命令を受信するステップ、または、
前記ユーザがタッチパネルをクリックすることによって入力した選択命令を受信するステップ、または、
前記ユーザが目の動きによって入力した選択命令を受信するステップ、または、
前記ユーザがタッチスクリーンをクリックすることによって入力した選択命令を受信するステップ、または、
前記移動可能なマークが前記目標物体上で所定の時間だけとどまった後、前記目標物体を選択するステップ、または、
前記ユーザがバーチャルボタンをクリックすることによって入力した選択命令を受信するステップ、または、
前記ユーザがジョイスティックを操縦することによって入力した選択命令を受信するステップ、のうち少なくとも1つステップを含むことを特徴とする請求項9に記載の方法。 - 前記選択命令はポイント選択またはフレーム選択を含むことを特徴とする請求項10に記載の方法。
- 前記無人機の状態情報を取得するステップと、
前記無人機の状態情報に基づき、ローカルに記憶された前記無人機の状態情報を同期するステップと、
をさらに含むことを特徴とする請求項1〜11のいずれか一項に記載の方法。 - 前記無人機の状態情報を取得するステップは、
前記無人機に状態情報取得要求を送信するステップと、
前記無人機が送信する状態情報を受信するステップと、
を含むことを特徴とする請求項1〜12のいずれか一項に記載の方法。 - 前記無人機の状態情報を取得するステップは、
前記無人機が放送する状態情報を受信するステップ、を含むことを特徴とする請求項12に記載の方法。 - プロセッサと、
スクリーンと、を備え、
前記プロセッサは、請求項1〜14のいずれか一項に記載の方法を用いて前記無人機を制御することを特徴とする、頭部装着式表示メガネ。 - 無人機および頭部装着式表示メガネを含む無人機制御システムにおいて、
前記頭部装着式表示メガネは、
スクリーンと、
請求項1〜14のいずれか一項に記載の方法を用いて前記無人機を制御するプロセッサと、
を含むことを特徴とする、無人機制御システム。 - コンピュータに、請求項1〜14のいずれか一項に記載の方法を実行させるためのプログラムが格納されたコンピュータが読み取り可能な記録媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/100072 WO2018053824A1 (zh) | 2016-09-26 | 2016-09-26 | 无人机控制方法、头戴式显示眼镜及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020506443A JP2020506443A (ja) | 2020-02-27 |
JP6851470B2 true JP6851470B2 (ja) | 2021-03-31 |
Family
ID=60485742
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019516208A Active JP6851470B2 (ja) | 2016-09-26 | 2016-09-26 | 無人機の制御方法、頭部装着式表示メガネおよびシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190220040A1 (ja) |
EP (1) | EP3511758A4 (ja) |
JP (1) | JP6851470B2 (ja) |
CN (1) | CN107454947A (ja) |
WO (1) | WO2018053824A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019082891A (ja) * | 2017-10-31 | 2019-05-30 | セイコーエプソン株式会社 | 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム |
CN107943088A (zh) * | 2017-12-22 | 2018-04-20 | 广州亿航智能技术有限公司 | 一种控制无人机的方法及其系统 |
CN109992096A (zh) * | 2017-12-29 | 2019-07-09 | 北京亮亮视野科技有限公司 | 激活智能眼镜功能图标的方法 |
CN110337621A (zh) * | 2018-04-09 | 2019-10-15 | 深圳市大疆创新科技有限公司 | 运动轨迹确定、延时摄影方法、设备及机器可读存储介质 |
CN109316741A (zh) * | 2018-07-17 | 2019-02-12 | 派视觉虚拟现实(深圳)软件技术有限公司 | 一种vr场景中控制角色移动的方法、装置及设备 |
CN109309709B (zh) * | 2018-08-22 | 2021-08-10 | 北京臻迪科技股份有限公司 | 一种可远端控制无人装置的控制方法 |
CN109300478A (zh) * | 2018-09-04 | 2019-02-01 | 上海交通大学 | 一种听力障碍者的辅助对话装置 |
CN109540834A (zh) * | 2018-12-13 | 2019-03-29 | 深圳市太赫兹科技创新研究院 | 一种电缆老化监测方法及系统 |
CN110412996A (zh) * | 2019-06-18 | 2019-11-05 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于手势和眼动的无人机操控方法、装置和系统 |
CN110347163B (zh) * | 2019-08-07 | 2022-11-18 | 京东方科技集团股份有限公司 | 一种无人驾驶设备的控制方法、设备及无人驾驶控制系统 |
CN110764521B (zh) * | 2019-10-15 | 2021-09-24 | 中国航空无线电电子研究所 | 面向多无人机的地面站任务飞行一体化监控系统及方法 |
CN110753313A (zh) * | 2019-10-30 | 2020-02-04 | 深圳市道通智能航空技术有限公司 | 一种数据同步方法和系统 |
WO2021090906A1 (ja) * | 2019-11-08 | 2021-05-14 | 株式会社エスイーフォー | 制御装置、制御ユニット、それらを有する制御システム |
US11804052B2 (en) * | 2020-03-26 | 2023-10-31 | Seiko Epson Corporation | Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path |
CN112771465A (zh) * | 2020-04-27 | 2021-05-07 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、系统、装置及存储介质 |
CN114527864B (zh) * | 2020-11-19 | 2024-03-15 | 京东方科技集团股份有限公司 | 增强现实文字显示系统、方法、设备及介质 |
US20220374085A1 (en) * | 2021-05-19 | 2022-11-24 | Apple Inc. | Navigating user interfaces using hand gestures |
KR102605774B1 (ko) * | 2021-11-24 | 2023-11-29 | 주식회사 딥파인 | 스마트 글래스 및 이를 포함하는 음성 인식 시스템 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001306144A (ja) * | 2000-04-21 | 2001-11-02 | Yamaha Motor Co Ltd | 無人ヘリコプタの飛行制御システム |
US8521339B2 (en) * | 2008-09-09 | 2013-08-27 | Aeryon Labs Inc. | Method and system for directing unmanned vehicles |
FR2957266B1 (fr) * | 2010-03-11 | 2012-04-20 | Parrot | Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante. |
WO2012154938A1 (en) * | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
JP6026088B2 (ja) * | 2011-08-09 | 2016-11-16 | 株式会社トプコン | 遠隔操作システム |
CN202587217U (zh) * | 2011-12-16 | 2012-12-05 | 新时代集团国防科技研究中心 | 用于无人飞行器作业的辅助显示装置 |
FR2985329B1 (fr) * | 2012-01-04 | 2015-01-30 | Parrot | Procede de pilotage intuitif d'un drone au moyen d'un appareil de telecommande. |
SI24055A (sl) * | 2012-04-16 | 2013-10-30 | Airmamics Napredni Mehatronski Sistemi D.O.O. | Krmilni sistem stabilizacijske glave za letečo ali stacionarno platformo |
JP2014063411A (ja) * | 2012-09-24 | 2014-04-10 | Casio Comput Co Ltd | 遠隔制御システム、制御方法、及び、プログラム |
JP2014212479A (ja) * | 2013-04-19 | 2014-11-13 | ソニー株式会社 | 制御装置、制御方法及びコンピュータプログラム |
FR3028767B1 (fr) * | 2014-11-26 | 2017-02-10 | Parrot | Systeme video pour le pilotage d'un drone en mode immersif |
CN205139708U (zh) * | 2015-10-28 | 2016-04-06 | 上海顺砾智能科技有限公司 | 一种无人机的动作识别远程控制装置 |
CN105222761A (zh) * | 2015-10-29 | 2016-01-06 | 哈尔滨工业大学 | 借助虚拟现实及双目视觉技术实现的第一人称沉浸式无人机驾驶系统及驾驶方法 |
CN105357220B (zh) * | 2015-12-04 | 2019-04-26 | 深圳一电航空技术有限公司 | 无人机管控方法及系统 |
CN105739525B (zh) * | 2016-02-14 | 2019-09-03 | 普宙飞行器科技(深圳)有限公司 | 一种配合体感操作实现虚拟飞行的系统 |
CN105867613A (zh) * | 2016-03-21 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 基于虚拟现实系统的头控交互方法及装置 |
-
2016
- 2016-09-26 EP EP16916563.6A patent/EP3511758A4/en not_active Ceased
- 2016-09-26 WO PCT/CN2016/100072 patent/WO2018053824A1/zh unknown
- 2016-09-26 CN CN201680003670.6A patent/CN107454947A/zh active Pending
- 2016-09-26 JP JP2019516208A patent/JP6851470B2/ja active Active
-
2019
- 2019-03-25 US US16/363,497 patent/US20190220040A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP3511758A1 (en) | 2019-07-17 |
CN107454947A (zh) | 2017-12-08 |
WO2018053824A1 (zh) | 2018-03-29 |
JP2020506443A (ja) | 2020-02-27 |
US20190220040A1 (en) | 2019-07-18 |
EP3511758A4 (en) | 2019-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6851470B2 (ja) | 無人機の制御方法、頭部装着式表示メガネおよびシステム | |
US10674062B2 (en) | Control method for photographing using unmanned aerial vehicle, photographing method using unmanned aerial vehicle, mobile terminal, and unmanned aerial vehicle | |
EP3494443B1 (en) | Systems and methods for controlling an image captured by an imaging device | |
WO2018214078A1 (zh) | 拍摄控制方法及装置 | |
US9586682B2 (en) | Unmanned aerial vehicle control apparatus and method | |
US20180095459A1 (en) | User interaction paradigms for a flying digital assistant | |
US10917560B2 (en) | Control apparatus, movable apparatus, and remote-control system | |
JP4012749B2 (ja) | 遠隔操縦システム | |
US11228737B2 (en) | Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium | |
KR102122755B1 (ko) | 화면 터치 방식을 이용하는 짐벌 제어 방법 | |
CN113448343B (zh) | 用于设定飞行器的目标飞行路径的方法、系统和可读介质 | |
US11611700B2 (en) | Unmanned aerial vehicle with virtual un-zoomed imaging | |
CN102387306A (zh) | 摄像控制系统、控制设备和控制方法 | |
JP2022105568A (ja) | 3dツアーの比較表示システム及び方法 | |
WO2020209167A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
EP3288828B1 (en) | Unmanned aerial vehicle system and method for controlling an unmanned aerial vehicle | |
US12007763B2 (en) | Magic wand interface and other user interaction paradigms for a flying digital assistant | |
JP6560479B1 (ja) | 無人航空機制御システム、無人航空機制御方法、及びプログラム | |
JP6699944B2 (ja) | 表示システム | |
KR20180060403A (ko) | 영상 기반의 드론 제어장치 | |
EP3518063A1 (en) | Combined video display and gimbal control | |
KR20170093389A (ko) | 무인 비행체 제어 방법 | |
CN113631477A (zh) | 信息处理装置、信息处理方法和程序 | |
JP6643162B2 (ja) | 制御装置、制御方法、撮像システム及びプログラム | |
CN117156267B (zh) | 基于环境自适应的云台相机工作模式切换方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6851470 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |