JP2016119655A - 無人機を没入モードで操縦するためのビデオシステム - Google Patents
無人機を没入モードで操縦するためのビデオシステム Download PDFInfo
- Publication number
- JP2016119655A JP2016119655A JP2015229445A JP2015229445A JP2016119655A JP 2016119655 A JP2016119655 A JP 2016119655A JP 2015229445 A JP2015229445 A JP 2015229445A JP 2015229445 A JP2015229445 A JP 2015229445A JP 2016119655 A JP2016119655 A JP 2016119655A
- Authority
- JP
- Japan
- Prior art keywords
- image
- drone
- viewpoint
- camera
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 239000011521 glass Substances 0.000 claims abstract description 25
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims abstract description 23
- 238000009877 rendering Methods 0.000 claims abstract description 7
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 18
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 12
- 238000009966 trimming Methods 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 5
- 230000000295 complement effect Effects 0.000 claims description 4
- 238000007654 immersion Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 5
- 230000004044 response Effects 0.000 abstract description 3
- 210000003128 head Anatomy 0.000 description 34
- 239000012634 fragment Substances 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 5
- 241000905137 Veronica schmidtiana Species 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000006641 stabilisation Effects 0.000 description 3
- 238000011105 stabilization Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H27/00—Toy aircraft; Other flying toys
- A63H27/12—Helicopters ; Flying tops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
- A63H30/04—Electrical arrangements using wireless transmission
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0016—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0038—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Abstract
【課題】ユーザの頭部の時として突然の移動の時間で見られる待ち時間を減らすことによって、仮想現実メガネを用いてFPVモードで無人機を操縦する試みをかなり改善できるようにする撮影システムを提案すること。【解決手段】このシステムは、無人機と、無人機から送信される画像をレンダリングする仮想現実メガネを有するとともにユーザの頭部の方向の変化を検出するための手段が設けられる遠隔ステーションとを備える。無人機は、「視点」画像(P’1)と、その視野が更に広く且つその精細度が更に低い「鳥瞰」画像(P’2)とを生成する。ユーザの頭部の位置の変化に応じて「視点」画像の視軸が変更されると、ステーションは、ユーザの頭部の移動中に、その輪郭(CO’)が検出手段により検出される位置の変化に応じて調整される、現在の「視点」画像と「鳥瞰」画像との組み合わせを局所的に生成する。【選択図】図6C
Description
本発明は、以下で一般に「無人機」と称される、遠隔制御される電動装置に関する。
これらの装置は、飛行する無人機、特に、ヘリコプター、クワドリコプター、又は、同様のもの等の回転翼無人機であってもよい。しかしながら、本発明は、飛行装置を操縦して飛行装置とデータをやりとりすることに限定されず、本発明は、遠隔ユーザの制御下で地上を進行する滑走装置にも同様に適用される。用語「無人機」は、その最も一般的な意味において理解されたい。
飛行無人機の典型的な例は、一連のセンサ(加速度計、3軸ジャイロメータ、高度計)と、無人機が向かう現場の画像を捕捉するフロントカメラと、上空から見た地上の画像を捕捉する垂直視野カメラとを備えるクワドリコプターである、フランスのパリにあるParrot SAのAR.無人機2.0又はBebopである。
国際特許出願公開第2010/061099A2号明細書及び欧州特許出願公開第2364757A1号明細書である文献(Parrot SA)は、そのような無人機と、組み込まれた加速度計を伴うタッチスクリーン装置、例えばiPhone型のスマートフォン又はiPad(登録商標)型のタブレットを用いた無人機の操縦原理とについて記載する。これらの装置は、操縦コマンドの検出のため及びWi−Fi(IEEE802.11)又はブルートゥースローカルネットワークタイプの無線リンクを介した無人機とのデータの双方向のやりとりのために必要とされる様々な制御部材を組み込む。これらの装置には、無人機のフロントカメラによって捕捉された画像を表示するタッチスクリーンが更に設けられ、この場合、加えて、このタッチスクリーンとユーザの指との単純な接触によって、特定数の記号がコマンドの起動を可能にする。
無人機のフロントビデオカメラは、特に、「没入モ−ド」又はFPV(一人称視点)操縦、すなわち、ユーザがあたかも自分自身で無人機に乗っているかのような同じ態様でカメラの画像を用いる操縦のために使用され得る。また、フロントビデオカメラは、無人機が向かう現場の一連の画像を捕捉する役目を果たしてもよい。そのため、ユーザは、カメラ又はカムコーダーと同じ方法で無人機を使用でき、このカメラ又はカムコーダーは、手で保持されるのではなく、無人機によって支持される。収集された画像は、記録され、放送され、オンラインでウェブサイトに置かれ、他のインターネットユーザへ送られ、ソーシャルネットワークで共有され得る。
飛行を正確に撮影するためには、まず第一に、方向付け可能で且つ安定したカメラを有することが必要である。その目的のため、カメラは、ユニバーサルジョイントシステムに取り付けられてもよく、或いは、電子画像安定化がもたらされてもよい。
しかしながら、無人機の撮影カメラから得られるそのような安定化された画像の戻りは、このタイプのFPV操縦にとって理想的ではない。特に、画像安定化は、それがもはや飛行機の姿勢などの本質的な情報を操縦者に対して示さないという事実をもたらす。また、特に、クワドリコプターなどのホバリング無人機の場合、撮影カメラの従来の画像戻りはあまり面白くない。実際に、そのような無人機を用いると、例えば橋の橋脚間を飛びながら1つのポイントを撮影するためには、障害物に最も近い有力な候補をうまく扱うことが探られる。
そのため、そのようなケースでは、画像安定化カメラを用いた撮影中に操縦者が左右を「見回す」ことができることが望ましい。
従来のFPV装置において、仮想現実メガネには、ユーザの頭部の変位を考慮に入れるためにジャイロスコープ及び加速度計が設けられる。従来の操作原理は、以下のステップを備える。
a)操縦者の頭部の動きを測定する
b)操縦者の頭部の新たな位置を無人機へ送る
c)操縦者の頭部の新たな位置に応じて無人機カメラの視点を移動させる
d)画像を取得する
e)カメラが魚眼型レンズなどの非常に歪みを生じさせる光学系を有する場合には、画像を再処理する
f)ビデオ画像をエンコードする
g)無人機のビデオ画像を地上ステーションへ送信する
h)地上ステーションにおいてビデオ画像をデコードする
i)それぞれの眼ごとに、地上ステーションでビデオ画像を逆投影する
a)操縦者の頭部の動きを測定する
b)操縦者の頭部の新たな位置を無人機へ送る
c)操縦者の頭部の新たな位置に応じて無人機カメラの視点を移動させる
d)画像を取得する
e)カメラが魚眼型レンズなどの非常に歪みを生じさせる光学系を有する場合には、画像を再処理する
f)ビデオ画像をエンコードする
g)無人機のビデオ画像を地上ステーションへ送信する
h)地上ステーションにおいてビデオ画像をデコードする
i)それぞれの眼ごとに、地上ステーションでビデオ画像を逆投影する
仮想現実FPVメガネに取り付けられるセンサに基づくそのようなカメラ方向制御技術は、欧州特許出願公開第2557468A2号明細書に記載される。
前述したステップのそれぞれは特定の時間を要し、また、現在の電子的手段を用いる場合であっても、このステップの組を200ms未満(すなわち、30画像/秒のフレームレートにおいては6画像)で実行することは、主にステップb)及びg)におけるデータ転送時間に起因して非常に難しい。この待ち時間は、操縦者の頭部の動きと仮想現実メガネで表示される画像との間の相関関係の欠如をもたらし、これは、しばしば、ユーザに嫌悪感を引き起こす。
この問題を避けるための解決策は、360°にわたって無人機で画像を捕捉するとともに、その画像を地上ステーションへ直接に転送することで成し得る。そのようにすると、前述したステップb)、c)、及び、g)はもはや必要とされない。
しかしながら、所望の精細度をもって360°にわたり景色の全画像を無人機から地上ステーションへ送信するには、無人機と地上ステーションとの間の送信チャネルの比較的限られた作業データ転送速度に適合しない、かなりの帯域幅を必要とする。
本発明の目的は、ユーザの頭部の時として突然の移動の時間で見られる待ち時間を減らすことによって、仮想現実メガネを用いてFPVモードで無人機を操縦する試みをかなり改善できるようにする撮影システムを提案することである。
本発明は、その目的のため、没入下で無人機を操縦するためのシステムであって、それ自体知られる態様で、特に前述した欧州特許出願公開第2557468A2号明細書から知られる態様で、撮影手段が設けられる無人機と、撮影手段を介して捕捉されて無線通信手段によって無人機から送信される画像をレンダリングする仮想現実メガネ、メガネを着用するユーザの頭部の方向の変化を検出するための手段、及び、レンダリングされた画像を生成するようになっている地上グラフィック処理手段を備える地上ステーションとを備えるシステムを提案する。
また、システムは、無人機に搭載されて「視点」画像と呼ばれる第1の画像を生成するとともに、この第1の画像を地上グラフィック処理手段へ送信するための手段、及び、検出手段により検出され且つ無線通信手段を介して無人機へ送信される、ユーザの頭部の位置の変化に応じて「視点」画像の視軸を変更するために無人機に設けられる手段も備える。
本発明の特徴として、システムは、無人機に搭載されて、その視野が「視点」画像のそれよりも幅広いとともにその角精細度が「視点」画像のそれよりも低い「鳥瞰」画像と呼ばれる第2の画像を生成するとともに、この第2の画像を地上グラフィック処理手段へ送信するための手段を更に備える。地上グラフィック処理手段は、更に、ユーザの頭部の移動中に、地上ステーションに存在する現在の「視点」画像及び「鳥瞰」画像の組み合わせにより、検出手段により検出される位置の変化に応じて調整される輪郭を用いてレンダリングされる画像を局所的に生成するように構成されている。
具体的には、2つの「視点」画像及び「鳥瞰」画像は、別個の画像となり得るが、同等に、単一の同じ全体画像であって、その角分解能が全体画像の残りの部分(その結果、「視点」画像に相当する)におけるよりも「視点」領域(その結果、「鳥瞰」画像に相当する)において高い全体画像へと統合され得ることに留意されたい。
また、システムは、個別に或いは当業者が技術的に適合するものとして知っている任意の組み合わせにしたがって考慮される以下の有利な特徴も任意に備える。
−地上グラフィック処理手段は、現在の「鳥瞰」画像中への現在の「視点」画像のはめ込みを行うとともに、そのようにして得られた画像に対して可変トリミング操作を適用するように構成されている
−撮影手段は、異なる視軸の幅広い視野の一組の撮影カメラを備える
−撮影手段は、「視点」画像及び「鳥瞰」画像に関して異なる精細度を有するカメラを備える
−撮影手段は、全てが同じ精細度を有する共通のカメラセットと、共通のカメラセットとは異なる精細度の画像を生成するための回路とを備える
−システムは、水平面内の全ての方向を互いにカバーする相補的な視野の一組のカメラを備える
−システムは、その視軸が無人機の主軸にしたがって配置される第1のカメラと、精細度が更に低く、その視軸が主軸に対して左及び右に方向付けられる2つのカメラとを備える
−精細度が更に低い2つのカメラは、水平面内の全ての方向を互いにカバーする相補的な視野を有する
−少なくとも特定のカメラが魚眼型の光学系を有し、その魚眼型の光学系によって生成される歪みを補正するための手段が設けられている
−地上グラフィック処理手段は、現在の「鳥瞰」画像中への現在の「視点」画像のはめ込みを行うとともに、そのようにして得られた画像に対して可変トリミング操作を適用するように構成されている
−撮影手段は、異なる視軸の幅広い視野の一組の撮影カメラを備える
−撮影手段は、「視点」画像及び「鳥瞰」画像に関して異なる精細度を有するカメラを備える
−撮影手段は、全てが同じ精細度を有する共通のカメラセットと、共通のカメラセットとは異なる精細度の画像を生成するための回路とを備える
−システムは、水平面内の全ての方向を互いにカバーする相補的な視野の一組のカメラを備える
−システムは、その視軸が無人機の主軸にしたがって配置される第1のカメラと、精細度が更に低く、その視軸が主軸に対して左及び右に方向付けられる2つのカメラとを備える
−精細度が更に低い2つのカメラは、水平面内の全ての方向を互いにカバーする相補的な視野を有する
−少なくとも特定のカメラが魚眼型の光学系を有し、その魚眼型の光学系によって生成される歪みを補正するための手段が設けられている
ここで、図の全体にわたって同じ参照符号が同一の要素又は機能的に同様の要素を示す添付図面を参照しつつ、本発明の実施の一例について説明する。
本発明に係る「没入型モード」又は「FPV」撮影システムは、一組の撮影カメラが装備された無人機と、適切なレンジの無線リンクを介して無人機と通信するとともに、想定し得る最も現実的な態様で無人機に乗って飛んでいる感覚をユーザに与える画像をユーザの眼の前方にレンダリングするための手段が設けられる仮想現実メガネを備える地上機器とを備える。
無人機に装備されるカメラは、魚眼型の光学系を有するカメラ、すなわち、約180°の視野をカバーする半球視野レンズを備えるカメラなどの広視野カメラである。
本発明の第1の実施形態においては、図1を参照すると、無人機10は3つの撮影カメラ110,121,122を有する。
第1のカメラ又は主カメラ110は、その視軸A10が前方へ向けられる魚眼型レンズを有する。主カメラは、かなりの数のピクセル、一般的には現在の技術では8〜20メガピクセルを伴う大型センサを有する。
図2に示されるように、主カメラ110の魚眼レンズは、主カメラのための円形輪郭の画像IM10を生成し、該画像の境界線円は、好ましくは、センサC10の長方形境界線に対して横方向に突出し、それにより、露出される数のピクセルに有利に働き、一般に4/3であるセンサ表面占有率を最適化するとともに、上下方向での撮影に有利に働く。
無人機は更なる2つの補助カメラ121,122を有し、これらの補助カメラは、この例では図1に示されるように無人機の両側のそれぞれへ向き、同一直線上の反対の視角A21,A22を伴う。また、これらのカメラにも魚眼レンズが設けられるが、これらのカメラは、より小型のレンズを備える更に小さいサイズのセンサC21,C22を有する。これらのカメラに関しては、図2にも示されるように、画像円IM21,IM22がそれぞれ対応するセンサC21,C22の範囲内に完全に含まれる。一般に、センサC21,C22のために使用されるセンサは、フル高精細度(フルHD)カメラのために使用されるタイプの、現在の技術では3メガピクセル程度の精細度を有するセンサである。この例では、約1.8メガピクセルがそれぞれの魚眼レンズによって効果的に照射される。
以下で分かるように、2つの補助センサは、それらのそれぞれの視軸が互いにほぼ反対であれば、任意の方向を有してもよく、目的は、特に、それぞれが球のほぼ半分をカバーする2つの画像間の接合部が、視界にとって及び/又は実行されるべき処理操作にとってあまり煩わしくない場所に位置付けられることである。また、あまり有用ではない垂直上方付近に位置付けられる角度領域をカバーしないようになっていてもよい。例えば、約70°上方の画像部分が無視されてもよい。
このカメラの組から、無人機の電子回路は、一対の仮想現実メガネの視覚ディスプレイに対する複合レンダリングに関して見られるように処理されるようになっている2つの画像を地上ステーションへ送信する。
「視点」画像と呼ばれる第1の画像P1は、無人機の仮想パイロットの視点を反映するカメラ110によって捕捉される画像であり、また、「鳥瞰」画像と呼ばれる第2の画像P2は、2つの側方カメラ121,122によってもたらされて搭載電子回路によって組み合わされる画像である。第1の画像は、制限された視野に対応するフル精細画像であり、一方、第2の画像は、水平における360°の視野及び垂直における360°又はそれよりも僅かに小さい視野にわたる解像度が更に低い画像である。
3つのカメラの焦点距離が全く同じであり、それにより、これらのカメラ間の2つの画像の重ね合わせを例外なく行うことができることに留意されたい。
図3は、画像P1,P2のサイズによって、これらの画像のピクセルごとの角度分解能と関連がある大きさを反映し、画像P1は帯域幅に関して画像P2よりも大きく、そのため、画像P2がより小さいサイズで表わされる。
約90°×90°の視野の「視点」領域のためにVGA画像(640×480)が使用されるとともに、残りの部分(360°×360°の視野)のために他のVGA画像が使用される場合に本発明が有利となり得ることに留意されたい。
ここで、仮想現実メガネにおいてFPV型の実験を反映する画像を得るために本発明に係るシステムで実施される異なるステップについて説明する。
「視点」画像P1の生成及び送信
このステップは、以下の操作を実施する。
1)メガネに装備されるセンサ(加速度計又はその他)は、ユーザの頭部の動きを測定する。
2)ユーザの頭部の位置の情報は、一般にレンダリングされるべき画像の比率に対応する比率をもって、例えば少なくとも毎秒30回、地上ステーションの回路から無線通信チャネルを介して無人機の回路へ定期的に送られる。
3)無人機上で、「視点」画像のための新たな視軸が、受けられた前記頭部位置情報に応じて規定される。
4)カメラによって捕捉された各画像は、画像P1を生成するために、この視軸に応じてトリミングされる。
5)無人機の回路において、この画像は、必要に応じて、魚眼レンズによってもたらされる歪みを補償するべく再処理される(そのような処理は、それ自体知られており、更に詳しく説明されない)。
6)そのように再処理された画像は、好ましくは圧縮により、適したアルゴリズムを用いてコード化される。
7)圧縮された画像は、無線通信チャネルを介して地上ステーションへ送信される。
1)メガネに装備されるセンサ(加速度計又はその他)は、ユーザの頭部の動きを測定する。
2)ユーザの頭部の位置の情報は、一般にレンダリングされるべき画像の比率に対応する比率をもって、例えば少なくとも毎秒30回、地上ステーションの回路から無線通信チャネルを介して無人機の回路へ定期的に送られる。
3)無人機上で、「視点」画像のための新たな視軸が、受けられた前記頭部位置情報に応じて規定される。
4)カメラによって捕捉された各画像は、画像P1を生成するために、この視軸に応じてトリミングされる。
5)無人機の回路において、この画像は、必要に応じて、魚眼レンズによってもたらされる歪みを補償するべく再処理される(そのような処理は、それ自体知られており、更に詳しく説明されない)。
6)そのように再処理された画像は、好ましくは圧縮により、適したアルゴリズムを用いてコード化される。
7)圧縮された画像は、無線通信チャネルを介して地上ステーションへ送信される。
これらの操作は、例えば、カメラ110の視軸A10の更新及び対応するトリミングごとに毎秒30画像の速度で繰り返される。
ここでは、変形として、カメラ110がアクチュエータに応じて移動できるようにして、頭部位置情報に応じてカメラの物理的な視軸を調整できることに留意されたい。
他の変形によれば、異なって方向付けられる2つ或いは幾つものカメラにより取得される画像を組み合わせることよって「鳥瞰」画像と同じ方法で視点画像が生成されてもよい。
「鳥瞰」画像P2の生成及び送信
このステップは、以下の操作を実施する。
1)2つの側方カメラ121,122を用いて2つの画像が取得される。
2)搭載電子回路によって2つの画像が単一画像へと組み合わされる。
3)そのように組み合わされた画像は、好ましくは圧縮により、適したアルゴリズムを用いてコード化される。
4)圧縮された画像は、無線通信チャネルを介して地上ステーションへ送信される。
1)2つの側方カメラ121,122を用いて2つの画像が取得される。
2)搭載電子回路によって2つの画像が単一画像へと組み合わされる。
3)そのように組み合わされた画像は、好ましくは圧縮により、適したアルゴリズムを用いてコード化される。
4)圧縮された画像は、無線通信チャネルを介して地上ステーションへ送信される。
地上ステーションにおける画像の処理
ユーザが自分の頭部を動かさない限り、地上ステーションは、無人機から流される高精細度の「視点」画像P1をメガネで表示する。ここでは、カメラ110により捕捉された画像のトリミング処理が必要とされるため、毎秒30画像のフレームレートが想定し得る。
しかし、ユーザが自分の頭部を回転させると、「視点」画像の生成及び送信の前述したプロセスの全てのステップは、前述したように、それぞれの個々の画像に関して行われるべき画像P1のトリミング操作に起因して、検索されたフレームレートに適合しない処理時間を要する。
本発明によれば、ステーションの電子回路は、移行の必要性のため(すなわち、ユーザの頭部が再び固定されるまで)、このときに地上ステーションで利用できる最も新しい画像P1,P2と仮想現実メガネの座標とから移行画像を構成する。移行画像は、地上ステーション及びメガネ側で十分に利用できるデータから、今しがた説明したような組み合わせ操作及びトリミング操作によって生成される。通信チャネルを介した転送が必要とされなければ、また、ディスプレイのリフレッシング及びトリミングを実行しさえするだけでよければ、この操作のための待ち時間は非常に少なくてもよい。
検索移行を確保するために、側方カメラ121,122によってもたらされる視野が更に広い画像P2を地上で簡単にトリミングしてレンダリングできることが理解される。しかし、この画像P2は、通常はカメラ110を用いて生成される「視点」画像よりも低い精細度を有し、また、そのような解決策は、移行のレンダリングで画像全体の解像度の急激な低下を引き起こす。
この現象を避けるため、地上ステーションが装備するグラフィカルプロセッサを用いて画像の組み合わせが行われる。
そのため、図4は、ユーザが自分の頭部を左へ回転させた場合に対する画像の組み合わせを示す。この例において、レンダリングされるべき画像は、一方では、その幅がユーザの頭部の回転角度の大きさよりも一層大きい右側に位置付けられる縁部を排除することにより得られる「視点」画像P1の断片P’1を、そのように減少した画像P’1をコンプリートすることによりその左側縁部でこの領域に対応する「鳥瞰」画像の断片P’2と組み合わせることによって得られる。
したがって、画像の断片のこの組み合わせは、簡単なトリミング操作及び並置操作によって行われ、構成により、頭部の横回転の角度振幅は知られており、また、画像P1の参照システムと画像P2の参照システムとの間の対応も知られている。
そのため、ユーザに対してレンダリングされる画像の最も大きい部分は高精細度のままであり、また、画像の縁部だけがより低い精細度であるが、それは、ユーザの頭部の方向が安定しない限りにおいて一時的にすぎない。
これらのトリミング操作/並置操作が行われる速度が高精細「視点」画像の受信の速度から相関されなくてもよく(一般に現在の技術で毎秒30画像)或いは更に高くてもよいことに留意すべきである。特に、仮想現実メガネは、毎秒75画像以上の速度でレンダリングを行うことができ、また、前述したトリミング操作/並置操作は、グラフィカルプロセッサ負荷に関して十分に軽く、この速度に到達できる。
移行の全期間中、並置された画像のこの生成は、ユーザの頭部の現在の位置に応じて行われる。そのため、図5A及び図5Bは、地上で利用できる画像P1,P2の断片P’1,P’2及びP”1,P”2の2つの連続する組み合わせをそれぞれ地上ステーションが生成して表示する簡略化されたケースを示し、断片P”2は、2つの瞬間同士の間でユーザの頭部が回転し続けたという事実に起因して、断片P’2よりも幅広い。ここで、図6A〜図6Cを参照して、実像に関する本発明の実施について説明する。
図6Aの画像は、高精細「視点」画像P1の、同じ場面であるがより幅広い視野及びより低い精細度を伴う「鳥瞰」画像P2へのはめ込みに対応し、2つの画像の軸が1つにまとめられる。このはめ込みは、地上ステーションで行われ、また、実に、前述した画像の並置の役割を果たす。
ユーザが自分の頭部を真っ直ぐに保つ限り、仮想現実メガネでレンダリングされる画像は「視点」画像P1だけであり、その輪郭COが図6Bに示される。
ユーザが自分の頭部をこの例では左へ回転させると、ユーザに対して効果的にレンダリングされる画像の輪郭(ここではCO’で示される)が左へシフトされ、また、ユーザに対してレンダリングされる画像は、実際には、右側で決定された幅の帯域を奪われている画像P1の断片P’1と、画像P1の直ぐ左側に位置付けられる画像P2の断片P’2との組み合わせに対応することが理解される(画像のこれらの2つの断片間の境界が図6Bに破線で示される)。
当然のことながら、画像の左側部分は、精細度があまり高くないが、先端が切り取られた画像P1に組み合わせられた後に表示されるべく直ぐに利用できるという利点を有する。それにより、ごく僅かな待ち時間と、ユーザに完全に適した画質とがもたらされる。
当然のことながら、頭部回転情報が無人機の電子回路へ送られ、それに応じて、カメラ110の視軸A10を調整するとともに、カメラ110により生成される新たな光景を地上ステーションに対してレンダリングし、その後、この新たな光景は、ユーザの頭部の動きが前述したトリミング処理操作/組み合わせ処理操作を行う必要なく緩やかな可変性を許容し得るように十分に遅い限りにおいてメガネでレンダリングされる。図7は、無人機100の側での本発明の実施の可能性をブロック図として示す。
最初に、「視点」機能及び「鳥瞰」機能のための専用のカメラを設ける代わりに、同じカメラが「視点」画像の生成及び「鳥瞰」画像の生成の両方に関与できることに留意すべきである。
この場合、今まで説明された先の実施形態に固有のカメラ110が一組のカメラによって置き換えられてもよい。したがって、図7は、n個のカメラ110−1〜110−nを概略的に示す。これらのカメラの出力は、一方では、「視点」画像を生成するための回路130に接続され、他方では、「鳥瞰」画像を生成するための回路140に接続される。回路140は、回路130よりも精細度が低い画像を生成するために、回路130に対してピクセルの一部だけを考慮に入れる。
地上ステーションとの無線通信のための回路は、その受信部151で、ユーザの絶対的な或いは相対的な頭部位置情報を受けるとともに、この情報を「視点」画像生成回路に適用して、ここでは実際にレンダリングされるよりも幅広い視野の組み合わせ画像のデジタル処理によって、レンダリングされるべき画像P1のための視軸を調整する。
回路130及び140からくる画像は、無線通信回路の放出部152によって地上ステーションへ送られる。本発明の実施のために、これらの画像が別々に或いは組み合わせ態様で送られてもよいことに留意されたい。
図8は、本発明を実施するために地上ステーション200に設けられる要素を概略的に示す。無線通信回路の受信部251は、互いから分離される或いは互いに組み合わされる画像P1,P2を無人機から受ける。グラフィック処理回路210は、受けられた画像から、図6Aのタイプの画像を生成し、この場合、高精細度の「視点」画像が「鳥瞰」画像中にはめ込まれる。
従来のように地上ステーションが接続される仮想現実メガネを備える、ユーザの頭部回転を取得するための装置220は、この情報を、メガネから受けられる位置情報に応じて、トリミング操作(並置操作は、前述したように、グラフィック処理回路210によるはめ込みによって既に行われている)を行うようになっているグラフィック処理回路230へ供給する。
実際には、グラフィック処理回路210,230が同じ回路によって成されてもよいことに留意されたい。
並行して、地上ステーションの無線通信回路の放出部252は、前述したように「視点」画像P1の視軸を更新するためにユーザの頭部位置情報を無人機へ送る。
ここで、図9A〜図9Cを参照して、無人機が装備する一組のカメラの他の想定し得る形態について説明する。
図9Aには、無人機軸に沿う方向を向く「視点」カメラ110と、その視軸が図1の場合のように互いに正反対ではなく左及び右に対して(前方向に)傾いている2つの「鳥瞰」カメラとが概略的に示される。当然のことながら、これは、特にユーザが自分の頭部を後方へ十分に回転させる場合に可能な視野を制限するが、一定の帯域幅に関してより良い品質の「鳥瞰」画像を有することができるようにする。
図9Bは、左右に向く2つのカメラ111,112のみの使用を示す。この場合、「視点」画像の大部分は、2つのカメラにより捕捉される画像の組み合わせによってもたらされる。変形として、前方及び後方をそれぞれ向く2つのカメラのみが設けられてもよい。
最後に、図9Cは、その物理的な視軸が互いに120°離間される同一の解像度の3つのカメラ111,112,113の使用を示す。これらのカメラのうちの1つが前方に向くことが好ましい。
当然のことながら、本発明は、説明されて図示された実施形態に何ら限定されず、また、当業者は、それらの実施形態の多くの変形及び修正を行う方法を知っている。本発明は、ホバリングする或いはしない、検査用、レジャー用、又は、他の目的のための様々なタイプの無人機に適用される。また、本発明は、搭載電子回路又は遠隔電子回路を伴う様々なタイプの仮想現実メガネにも適用される。
Claims (9)
- 没入下で無人機を操縦するためのシステムであって、
−撮影手段(110,121,122)が設けられる無人機(100)と、
−前記撮影手段を介して捕捉されて無線通信手段によって前記無人機から送信される画像をレンダリングする仮想現実メガネ、前記メガネを着用するユーザの頭部の方向の変化を検出するための手段(220)、及び、レンダリングされた画像を生成するようになっている地上グラフィック処理手段(210,230)を備える地上ステーション(200)と、
−前記無人機に搭載されて「視点」画像と呼ばれる第1の画像を生成するとともに、この第1の画像を前記地上グラフィック処理手段へ送信するための手段(110,121,122,130,140)と、
−前記検出手段により検出され且つ前記無線通信手段(151,152)を介して前記無人機へ送信される、ユーザの頭部の位置の変化に応じて前記「視点」画像の視軸を変更するために前記無人機に設けられる手段(151,130)と、
を備えるシステムであって、
前記システムは、
−前記無人機に搭載されて、視野が前記「視点」画像のそれよりも幅広いとともに角精細度が前記「視点」画像のそれよりも低い「鳥瞰」画像と呼ばれる第2の画像を生成するとともに、この第2の画像を前記地上グラフィック処理手段へ送信するための手段(110,121,122,130,140)を更に備え、
前記地上グラフィック処理手段(210,230)は、ユーザの頭部の移動中に、前記地上ステーションに存在する現在の「視点」画像及び「鳥瞰」画像(P1,P2)の組み合わせにより、前記検出手段により検出される位置の変化に応じて調整される輪郭(CO’)を用いてレンダリングされる画像(P’1−P’2,P”1−P”2)を局所的に生成するように構成されていることを特徴とする、システム。 - 前記地上グラフィック処理手段(210,230)は、現在の「鳥瞰」画像(P2)中への現在の「視点」画像(P1)のはめ込みを行うとともに、そのようにして得られた画像に対して可変トリミング操作を適用するように構成されている、請求項1に記載のシステム。
- 前記撮影手段は、幅広い視野と異なる視軸とを有する一組の撮影カメラ(110,121,122;110−1−110n;111,112;111−113)を備える、請求項1に記載のシステム。
- 前記撮影手段は、前記「視点」画像及び前記「鳥瞰」画像に関して異なる精細度を有するカメラ(110;121,122)を備える、請求項3に記載のシステム。
- 前記撮影手段は、全てが同じ精細度を有する共通のカメラセットのカメラ(110−1−110n)と、前記共通のカメラセットとは異なる精細度の画像を生成するための回路(130,140)とを備える、請求項3に記載のシステム。
- 水平面内の全ての方向を互いにカバーする相補的な視野の一組のカメラ(111,112;121−122;111−113)を備える、請求項3に記載のシステム。
- 視軸が前記無人機の主軸にしたがって配置される第1のカメラ(110)と、精細度が更に低く、視軸が主軸に対して左及び右に方向付けられる一組のカメラ(121,122)とを備える、請求項4に記載のシステム。
- 精細度が更に低い前記カメラ(121,122)は、水平面内の全ての方向を互いにカバーする相補的な視野を有する、請求項7に記載のシステム。
- 少なくとも特定のカメラが魚眼型の光学系を有し、前記魚眼型の光学系によって生成される歪みを補正するための手段が設けられている、請求項3に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1461501 | 2014-11-26 | ||
FR1461501A FR3028767B1 (fr) | 2014-11-26 | 2014-11-26 | Systeme video pour le pilotage d'un drone en mode immersif |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016119655A true JP2016119655A (ja) | 2016-06-30 |
Family
ID=52450418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015229445A Withdrawn JP2016119655A (ja) | 2014-11-26 | 2015-11-25 | 無人機を没入モードで操縦するためのビデオシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9747725B2 (ja) |
EP (1) | EP3025770B1 (ja) |
JP (1) | JP2016119655A (ja) |
CN (1) | CN105763790A (ja) |
FR (1) | FR3028767B1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019084898A (ja) * | 2017-11-03 | 2019-06-06 | 株式会社エアロネクスト | 飛行体操縦システム及び飛行体操縦システムを用いて飛行体を操縦する方法 |
JP2019201409A (ja) * | 2017-11-06 | 2019-11-21 | 株式会社エアロネクスト | 飛行体及び飛行体の制御方法 |
JP2020506443A (ja) * | 2016-09-26 | 2020-02-27 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人機の制御方法、頭部装着式表示メガネおよびシステム |
JP7288947B1 (ja) | 2021-12-16 | 2023-06-08 | 楽天グループ株式会社 | 飛行制御システム、飛行制御方法、及び無人飛行体 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160125674A (ko) * | 2015-04-22 | 2016-11-01 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
WO2017017675A1 (en) * | 2015-07-28 | 2017-02-02 | Margolin Joshua | Multi-rotor uav flight control method and system |
KR20170095030A (ko) * | 2016-02-12 | 2017-08-22 | 삼성전자주식회사 | 통신 시스템에서 vr 컨텐트 디스플레이를 지원하는 기법 |
US20170374276A1 (en) * | 2016-06-23 | 2017-12-28 | Intel Corporation | Controlling capturing of a multimedia stream with user physical responses |
CN106339079A (zh) * | 2016-08-08 | 2017-01-18 | 清华大学深圳研究生院 | 一种基于计算机视觉的利用无人飞行器实现虚拟现实的方法及装置 |
CN106375669B (zh) * | 2016-09-30 | 2019-08-06 | 天津远度科技有限公司 | 一种稳像方法、装置和无人机 |
US11011140B2 (en) | 2016-11-14 | 2021-05-18 | Huawei Technologies Co., Ltd. | Image rendering method and apparatus, and VR device |
CN106708074B (zh) * | 2016-12-06 | 2020-10-30 | 深圳市元征科技股份有限公司 | 基于vr眼镜控制无人机的方法及装置 |
CN108234929A (zh) * | 2016-12-21 | 2018-06-29 | 昊翔电能运动科技(昆山)有限公司 | 无人机中的图像处理方法和设备 |
DE112017006531T5 (de) * | 2017-01-25 | 2019-09-26 | Ford Global Technologies, Llc | Ferngesteuerter virtual-reality-parkdienst |
US10687050B2 (en) | 2017-03-10 | 2020-06-16 | Qualcomm Incorporated | Methods and systems of reducing latency in communication of image data between devices |
CN107065905A (zh) * | 2017-03-23 | 2017-08-18 | 东南大学 | 一种沉浸式无人机控制系统及其控制方法 |
US11049219B2 (en) | 2017-06-06 | 2021-06-29 | Gopro, Inc. | Methods and apparatus for multi-encoder processing of high resolution content |
JP7000050B2 (ja) * | 2017-06-29 | 2022-01-19 | キヤノン株式会社 | 撮像制御装置及びその制御方法 |
US11178377B2 (en) * | 2017-07-12 | 2021-11-16 | Mediatek Singapore Pte. Ltd. | Methods and apparatus for spherical region presentation |
WO2019014807A1 (zh) * | 2017-07-17 | 2019-01-24 | 朱继莲 | 远程临场驾驶无人车作业系统及自动驾驶汽车测试场系统 |
CN108646776B (zh) * | 2018-06-20 | 2021-07-13 | 珠海金山网络游戏科技有限公司 | 一种基于无人机的成像系统和方法 |
CN108873898A (zh) * | 2018-06-26 | 2018-11-23 | 武汉理工大学 | 一种基于实时数据交互的沉浸式远程驾驶控制系统及方法 |
CN109040555A (zh) * | 2018-08-22 | 2018-12-18 | 信利光电股份有限公司 | 一种fpv图像的显示系统及方法 |
CN110944222B (zh) * | 2018-09-21 | 2021-02-12 | 上海交通大学 | 沉浸媒体内容随用户移动变化的方法及系统 |
CN115580709A (zh) * | 2018-10-26 | 2023-01-06 | 深圳市道通智能航空技术股份有限公司 | 航拍相机的图像处理方法、图像处理系统及无人机 |
US11228781B2 (en) | 2019-06-26 | 2022-01-18 | Gopro, Inc. | Methods and apparatus for maximizing codec bandwidth in video applications |
US11481863B2 (en) | 2019-10-23 | 2022-10-25 | Gopro, Inc. | Methods and apparatus for hardware accelerated image processing for spherical projections |
CN113160615B (zh) * | 2021-03-03 | 2022-11-29 | 上海凌苇智能科技合伙企业(有限合伙) | 一种基于ar技术实现无人机起飞前安全检测方法及系统 |
CN116563186A (zh) * | 2023-05-12 | 2023-08-08 | 中山大学 | 一种基于专用ai感知芯片的实时全景感知系统及方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3564134A (en) * | 1968-07-03 | 1971-02-16 | Us Navy | Two-camera remote drone control |
US6147709A (en) * | 1997-04-07 | 2000-11-14 | Interactive Pictures Corporation | Method and apparatus for inserting a high resolution image into a low resolution interactive image to produce a realistic immersive experience |
KR20050042399A (ko) * | 2003-11-03 | 2005-05-09 | 삼성전자주식회사 | 게이즈 디텍션을 이용한 비디오 데이터 처리 장치 및 방법 |
FR2922666B1 (fr) * | 2007-10-17 | 2011-07-22 | Aerodrones | Procede et systeme modulable de pilotage et d'exploitation d'une plateforme volante miniature a intelligence embarquee |
US8675068B2 (en) * | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
FR2938774A1 (fr) | 2008-11-27 | 2010-05-28 | Parrot | Dispositif de pilotage d'un drone |
JP5382770B2 (ja) * | 2008-12-26 | 2014-01-08 | 株式会社Ihiエアロスペース | 無人移動体システム |
CN101616310B (zh) * | 2009-07-17 | 2011-05-11 | 清华大学 | 可变视角及分辨率的双目视觉系统目标图像稳定化方法 |
FR2957266B1 (fr) * | 2010-03-11 | 2012-04-20 | Parrot | Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante. |
US8184069B1 (en) * | 2011-06-20 | 2012-05-22 | Google Inc. | Systems and methods for adaptive transmission of data |
JP6026088B2 (ja) * | 2011-08-09 | 2016-11-16 | 株式会社トプコン | 遠隔操作システム |
US9347792B2 (en) * | 2011-10-31 | 2016-05-24 | Honeywell International Inc. | Systems and methods for displaying images with multi-resolution integration |
GB2497119B (en) * | 2011-12-01 | 2013-12-25 | Sony Corp | Image processing system and method |
CN103955228A (zh) * | 2014-04-29 | 2014-07-30 | 西安交通大学 | 一种航拍成像及控制装置 |
-
2014
- 2014-11-26 FR FR1461501A patent/FR3028767B1/fr active Active
-
2015
- 2015-10-26 US US14/923,307 patent/US9747725B2/en not_active Expired - Fee Related
- 2015-11-12 EP EP15194270.3A patent/EP3025770B1/fr not_active Not-in-force
- 2015-11-25 CN CN201511036062.9A patent/CN105763790A/zh not_active Withdrawn
- 2015-11-25 JP JP2015229445A patent/JP2016119655A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020506443A (ja) * | 2016-09-26 | 2020-02-27 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人機の制御方法、頭部装着式表示メガネおよびシステム |
JP2019084898A (ja) * | 2017-11-03 | 2019-06-06 | 株式会社エアロネクスト | 飛行体操縦システム及び飛行体操縦システムを用いて飛行体を操縦する方法 |
JP7024997B2 (ja) | 2017-11-03 | 2022-02-24 | 株式会社エアロネクスト | 飛行体操縦システム及び飛行体操縦システムを用いて飛行体を操縦する方法 |
JP2019201409A (ja) * | 2017-11-06 | 2019-11-21 | 株式会社エアロネクスト | 飛行体及び飛行体の制御方法 |
JP7288947B1 (ja) | 2021-12-16 | 2023-06-08 | 楽天グループ株式会社 | 飛行制御システム、飛行制御方法、及び無人飛行体 |
Also Published As
Publication number | Publication date |
---|---|
EP3025770A1 (fr) | 2016-06-01 |
US20160148431A1 (en) | 2016-05-26 |
FR3028767A1 (fr) | 2016-05-27 |
CN105763790A (zh) | 2016-07-13 |
FR3028767B1 (fr) | 2017-02-10 |
EP3025770B1 (fr) | 2017-01-25 |
US9747725B2 (en) | 2017-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016119655A (ja) | 無人機を没入モードで操縦するためのビデオシステム | |
US10936894B2 (en) | Systems and methods for processing image data based on region-of-interest (ROI) of a user | |
US11019280B2 (en) | Systems and methods for video processing and display | |
US11106203B2 (en) | Systems and methods for augmented stereoscopic display | |
US9738382B2 (en) | Drone immersion-piloting system | |
CN104781873B (zh) | 图像显示装置、图像显示方法、移动装置、图像显示系统 | |
JP2016203978A (ja) | 無人機を没入状態で操縦するためのシステム | |
JP6899875B2 (ja) | 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム | |
WO2017166714A1 (zh) | 全景图像的拍摄方法、装置及系统 | |
WO2018123747A1 (ja) | ドローン操縦システム、操縦シグナル送信機セットおよびドローン操縦方法 | |
CN115238018A (zh) | 用于管理3d飞行路径的方法和相关系统 | |
JP6744033B2 (ja) | 移動体操縦システム、操縦シグナル送信システム、移動体操縦方法、プログラム、および記録媒体 | |
JP2020126666A (ja) | 移動体操縦システム、操縦シグナル送信システム、移動体操縦方法、プログラム、および記録媒体 | |
CN108646776B (zh) | 一种基于无人机的成像系统和方法 | |
JP7024997B2 (ja) | 飛行体操縦システム及び飛行体操縦システムを用いて飛行体を操縦する方法 | |
TWI436270B (zh) | 虛擬望遠方法及其裝置 | |
JP6929674B2 (ja) | 環境画像表示システム及び環境画像表示方法 | |
KR101027533B1 (ko) | 영상 감시 장치 및 그 방법 | |
JP2022040134A (ja) | 推定システムおよび自動車 | |
KR20190069777A (ko) | 무인항공기를 이용한 가상체험시스템 및 무인항공기 가상체험제공방법. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181011 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20190627 |