JP6919206B2 - 表示装置、及び、表示装置の制御方法 - Google Patents

表示装置、及び、表示装置の制御方法 Download PDF

Info

Publication number
JP6919206B2
JP6919206B2 JP2017012756A JP2017012756A JP6919206B2 JP 6919206 B2 JP6919206 B2 JP 6919206B2 JP 2017012756 A JP2017012756 A JP 2017012756A JP 2017012756 A JP2017012756 A JP 2017012756A JP 6919206 B2 JP6919206 B2 JP 6919206B2
Authority
JP
Japan
Prior art keywords
unit
mobile device
moving body
image
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017012756A
Other languages
English (en)
Other versions
JP2018121267A (ja
Inventor
小林 伸一
伸一 小林
高野 正秀
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017012756A priority Critical patent/JP6919206B2/ja
Priority to US15/863,106 priority patent/US10599142B2/en
Publication of JP2018121267A publication Critical patent/JP2018121267A/ja
Application granted granted Critical
Publication of JP6919206B2 publication Critical patent/JP6919206B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Indicating Measured Values (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、表示装置、及び、表示装置の制御方法に関する。
従来、遠隔操縦できる無人機(いわゆるドローン)が知られている(例えば、特許文献1参照)。特許文献1記載の無人機は、航法姿勢制御システムを備える4翼ヘリコプター(quadricopter)であり、遠隔制御装置との間の無線リンクを通じて操縦コマンドを受信する。また、特許文献1記載の無人機はカメラを備え、カメラにより取り込んだ画像を遠隔制御装置に送信する。ユーザーは、遠隔制御装置のタッチスクリーンを用いて、無人機の旋回、上昇もしくは下降、カメラが指す方向の変更等の操作を行うことができる。
特開2013−144539号公報
特許文献1に記載されたように、無人機にカメラを設けて撮像を行わせる場合、撮像時の無人機の位置や方向を知ることができれば、撮像画像の有用性が高まることが期待される。例えば、特許文献1記載の構成では、遠隔制御装置と無人機の相対的な角度や向きを求めることが可能である。しかしながら、撮像時の無人機の位置と撮像画像との対応付けを、撮像した後に知ることができても、撮像画像の利用可能性に限界があった。
本発明は、カメラを備える移動体により撮像される撮像画像について、撮像時の移動体の位置との対応付けを効果的に行えるようにすることを目的とする。
上記課題を解決するため、本発明は、使用者の頭部に装着される表示部と、移動体が送信する撮像画像を受信する通信部と、前記通信部により受信した撮像画像に基づき実空間における前記移動体の位置を推定する位置推定部と、前記通信部により受信した撮像画像と、前記位置推定部により推定した前記移動体の位置に関する情報とを前記表示部に表示させる表示制御部と、を備える。
本発明によれば、移動体が撮像した撮像画像を、移動体の位置と共に表示できる。これにより、ユーザーが、移動体の位置と撮像画像との対応を容易に把握することができる。従って、例えば、移動体の位置を確認してから撮像を行うことができ、撮像画像の有用性を高めることが期待できる。
上記構成において、前記位置推定部は、予め定められた範囲を前記移動体が撮像した基準撮像画像に基づいて、前記基準撮像画像を撮像した際の前記移動体の位置を特定して基準移動体位置を設定し、前記基準移動体位置に基づき前記移動体の位置を推定する構成としてもよい。
この構成によれば、例えば基準移動体位置からの移動体の移動量および移動方向を利用する方法等により、移動体の位置を容易に推定できる。
上記構成において、前記通信部は、前記移動体が送信する位置情報を受信し、前記位置推定部は、前記通信部により受信した位置情報に基づき、前記基準移動体位置からの前記移動体の移動量を求めることにより、前記移動体の位置を推定する構成としてもよい。
この構成によれば、移動体の位置を容易に、精度良く推定できる。
上記構成において、前記位置推定部は、前記通信部により撮像画像を受信した場合に、受信した前記撮像画像と前記基準撮像画像とに基づいて前記移動体の位置を推定する構成としてもよい。
この構成によれば、移動体が送信する撮像画像を用いることにより、移動体の位置を容易に推定できる。
上記構成において、前記表示制御部は、前記移動体の位置に関する情報として、前記移動体の撮像方向、撮像倍率、前記移動体の高度、前記基準移動体位置からの移動量の少なくともいずれかを表示する構成としてもよい。
この構成によれば、移動体の撮像方向、撮像倍率、移動体の高度、基準移動体位置からの移動量等を表示して、表示装置のユーザーに対して適切に情報を提供できる。
上記構成において、前記通信部により受信した前記撮像画像における位置を指定する位置指定部を備え、前記位置推定部は、前記撮像画像を撮像したときの前記移動体の位置に基づいて、前記位置指定部により指定された位置に対応する実空間における位置を推定する構成としてもよい。
この構成によれば、撮像画像における位置に対応する実空間の位置を推定することにより、ユーザーに対し、撮像画像と実空間との対応に関する情報を提供できる。
上記構成において、前記位置推定部は、前記位置指定部により指定された位置に対応して推定した実空間における位置を、マーカー位置として設定し、前記表示制御部は、前記マーカー位置を前記表示部に表示させる構成としてもよい。
この構成によれば、ユーザーに対し、撮像画像と実空間との対応に関する情報を、表示部により提供できる。
上記構成において、前記位置推定部は、前記通信部により撮像画像を受信した場合に、受信した前記撮像画像における前記マーカー位置の相対位置を推定し、前記表示制御部は、前記位置推定部により推定した相対位置に基づいて、前記通信部により受信した前記撮像画像と、前記マーカー位置を示す表示オブジェクトとを前記表示部に表示させる構成としてもよい。
この構成によれば、指定された位置を示す表示オブジェクトを撮像画像とともに表示することにより、ユーザーに対し、撮像画像と実空間との対応に関する情報を提供できる。
上記構成において、操作を受け付ける受付部を備え、前記受付部で受け付けた操作に基づき前記移動体を制御する制御情報を前記通信部により送信する構成としてもよい。
この構成によれば、表示装置に対する操作を移動体の制御に反映させることができ、移動体の操作性の向上を図ることができる。
上記構成において、前記表示部の動きを検出する動きセンサーを備え、前記受付部は前記動きセンサーの検出値に基づき、前記表示部の動きによる操作を受け付ける構成としてもよい。
この構成によれば、表示部の動きによる操作を移動体の制御に反映させることができ、移動体の操作性の向上を図ることができる。
また、上記課題を解決するため、本発明は、使用者の頭部に装着される表示部を備える表示装置の制御方法であって、移動体が送信する撮像画像を受信するステップと、受信した撮像画像に基づき実空間における前記移動体の位置を推定するステップと、前記移動体から受信した撮像画像と、推定した前記移動体の位置に関する情報とを前記表示部に表示するステップと、を有する。
本発明によれば、移動体が撮像した撮像画像を、移動体の位置と共に表示できる。これにより、ユーザーが、移動体の位置と撮像画像との対応を容易に把握することができる。従って、例えば、移動体の位置を確認してから撮像を行うことができ、撮像画像の有用性を高めることが期待できる。
本発明は、上述した表示装置、及び表示装置の制御方法以外の種々の形態で実現することも可能である。例えば、上記の表示装置を含む表示システムを構成することも可能であり、具体的には、上記の表示装置と移動体とを含むシステムであってもよい。また、上記の制御方法を実行するために制御部やコンピューターが実行するプログラムとして実現してもよい。また、上記プログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
移動機制御システムの概略構成図。 移動機ユニットの機能ブロック図。 HMDの外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 画像表示部の構成を示す斜視図。 画像表示部と撮像範囲の対応を示す模式図。 HMDのブロック図。 制御部および記憶部の機能ブロック図。 移動機の動作を示すフローチャート。 リモートコントローラーの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの表示例を示す図。 移動機の移動エリアの例を示す模式図。 HMDの表示例を示す図。 HMDの表示例を示す図。
図1は、本発明を適用した実施形態に係る移動機制御システム1の概略構成図である。
移動機制御システム1は、移動機ユニット300と、移動機ユニット300を操縦するオペレーターが装着して使用するHMD(Head Mounted Display:頭部装着型表示装置)100とを有する。オペレーターは、ユーザー、あるいは使用者ということができ、以下の説明では使用者と称する。
移動機ユニット300は、移動機310(移動体)と、移動機310の操縦に使用されるリモートコントローラー350とを含む。
本実施形態では、本発明の移動体の一態様として、移動機310を例示する。移動機310は、4つのプロペラ321、322、323、324の回転により飛行する飛行体である。移動機310は、或いは、無人飛行体(UAV:Unmanned Aerial Vehicle)を意味するドローン(Drone)と呼ばれるものの一種であり、4翼ヘリコプターと呼ぶこともできる。移動機310は、リモートコントローラー350により遠隔操縦される。
プロペラ321、322、323、324は、それぞれ、飛行モーター331、332、333、334により駆動されて回転し、移動機310を浮上させる。また、移動機310には移動機カメラ335が設けられ、移動機カメラ335により撮像した撮像画像をリモートコントローラー350に送信することができる。移動機カメラ335は、移動機310の本体に直接固定されてもよいし、ジンバル(Gimbal)、雲台等の台座を介して移動機310の本体に固定される構成であってもよい。また、移動機カメラ335の台座に、移動機カメラ335の撮像方向を変更及び調整する機構を設けてもよい。
リモートコントローラー350は、使用者が操作する各種の操作子を備える。リモートコントローラー350は、移動機310との間で無線通信を実行し、操作子の操作に対応するコマンドを生成して移動機310に送信する。移動機310は、リモートコントローラー350から送信されるコマンドを受信し、コマンドに従って飛行する。リモートコントローラー350が備える操作子の数や形状等の具体的構成は任意であり、本実施形態では一例として、操作スティック351、352、及び、操作ボタン353、354を図示する。操作スティック351、352は、それぞれ、リモートコントローラー350の本体に対して前後方向、及び/又は左右方向に倒すように操作可能な棒状の操作子である。操作ボタン353、354は、例えば押しボタンスイッチ或いは接触検知式のタッチセンサーで構成される。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、図3を参照して後述するように、平たい箱形の本体を備え、この本体に、使用者の操作を受け付ける各種のスイッチや操作パッド等の操作部を備える。これらの操作部を使用者が操作することによって、制御装置10は、HMD100を制御する制御装置として機能する。
HMD100は、リモートコントローラー350との間で通信を実行する。リモートコントローラー350は、移動機310が無線送信する撮像画像データに基づく画像データを、HMD100に送信することが可能である。HMD100は、リモートコントローラー350から画像データを受信して、受信した画像データに基づく画像を画像表示部20により表示する。これにより、使用者は、移動機310が撮像した撮像画像を画像表示部20によって視認し、リモートコントローラー350を操作して、移動機310を操縦できる。
HMD100とリモートコントローラー350とを接続する態様は任意であり、例えば、制御装置10とリモートコントローラー350とを有線接続する構成であってもよい。具体的には、USB(Universal Serial Bus)(登録商標)ケーブル等により接続する態様が考えられる。本実施形態では、HMD100とリモートコントローラー350とを無線通信回線により、相互にデータ通信可能に接続した例を説明する。
図2は、移動機ユニット300の機能ブロック図であり、移動機310の制御系の構成、及び、リモートコントローラー350の制御系の構成を示す。
移動機310の制御系は、移動機310を制御する移動機制御部341と、移動機制御部341に接続される各部により構成される。詳細には、移動機310は、移動機制御部341、移動機記憶部342、移動機通信部343、GPS装置344、飛行制御部345、カメラ制御部346、モーターコントローラー347、及び姿勢センサー348を備える。また、図示を省略するが、移動機310は、飛行モーター331、332、333、334(図1)を含む各部に電源を供給するバッテリーと、バッテリーによる電力供給を制御するバッテリー制御回路とを備える。
移動機制御部341は、CPU(Central Processing Unit)やマイコン等の演算処理装置(プロセッサー)を備え、プログラムを実行することにより、移動機310を制御する。移動機制御部341は、ROM(Read Only Memory)、RAM(Random Access Memory)、その他周辺回路等を備える構成としてもよい。
移動機制御部341には、移動機制御部341が処理するデータ等を記憶する移動機記憶部342が接続される。移動機記憶部342は、半導体メモリー素子等の記憶装置を有し、移動機310の制御に関する各種データや、移動機制御部341が実行するプログラムを記憶する。
また、移動機制御部341には、移動機通信部343が接続される。移動機通信部343は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成され、リモートコントローラー350との間で無線通信を実行する。移動機通信部343は、ラジコン用の周波数である27MHz帯、40MHz帯、2.4GHz帯等で無線通信を実行する。或いは、移動機通信部343は、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信を行う。移動機通信部343は、移動機制御部341の制御に従ってリモートコントローラー350と通信を実行し、リモートコントローラー350が送信するコマンドを受信して移動機制御部341に出力する。また、移動機通信部343は、移動機カメラ335の撮像画像データをリモートコントローラー350に送信する。
GPS(Global Positioning System)装置344は、GPS衛星から送信される信号を受信して解析することにより、移動機310の位置を測定(測位)する装置である。GPS装置344は、移動機制御部341の制御に従って測位を行い、測位結果を移動機制御部341に出力する。GPS装置344が出力する測位結果は、移動機310の緯度及び経度を含み、移動機310の高度を含んでもよい。
また、移動機制御部341には飛行制御部345が接続される。飛行制御部345は、モーターコントローラー347、及び姿勢センサー348に接続される。モーターコントローラー347は、飛行制御部345の制御に従って、飛行モーター331、332、333、334を駆動する回路である。
姿勢センサー348は、移動機310の姿勢や動きを検出するセンサーである。例えば、姿勢センサー348は、ジャイロセンサー、加速度センサー、速度センサー、高度センサーのいずれかを備える構成とすることができる。また、姿勢センサー348は、移動機310の方向を検出するための地磁気センサーを備えてもよい。例えば、姿勢センサー348は、3軸ジャイロセンサー、3軸加速度センサー、3軸地磁気センサーを統合した9軸モーションセンサーユニットを用いてもよく、このモーションセンサーユニットに高度センサーを統合してもよい。姿勢センサー348は、飛行制御部345の制御に従って、検出値を飛行制御部345に出力する。
飛行制御部345は、移動機制御部341の制御に従って、移動機310の飛行を制御する。飛行制御部345は、姿勢センサー348の検出値を取得し、予め設定された飛行プログラムに従って、姿勢センサー348の検出値を利用してモーターコントローラー347を制御する。飛行制御部345が実行する自律飛行プログラムは、移動機310の姿勢を所定の飛行姿勢に保持する制御、移動機制御部341が指定する高度へ上昇または下降する制御、移動機制御部341が指定する位置まで飛行する制御等を実現するプログラムである。飛行制御部345が実行する自律飛行プログラムは、予め設定された定型動作を実行することが可能である。
定型動作は、例えばホバリング、定経路飛行、定位置飛行等、定められた内容の飛行動作を指す。ホバリングは、一定の位置を維持して飛行する動作である。定経路飛行は、予め設定された経路に沿って高度、緯度、及び経度を調整して移動する動作である。定位置飛行は、予め設定された位置に向けて高度、緯度、及び経度を調整して移動する動作である。定型動作では、飛行モーター331、332、333、334の回転数制御等の詳細な制御を飛行制御部345が自律的に実行する。例えばリモートコントローラー350を操作する使用者は、定型動作の種類や目的地等を指定すればよく、操作の簡易化を実現できる。
ここで、移動機310の位置は、高度、緯度、経度を含む。例えば、移動機制御部341がリモートコントローラー350から、定型動作の種類を指定するコマンドを受信した場合、移動機制御部341は飛行制御部345に対し、定型動作の実行を指示する。飛行制御部345は、移動機制御部341の指示に従って、指示された種類の定型動作を行う。
定型動作を行うための自律飛行プログラム、及び、定型動作の経路や位置等の各種データは、例えば移動機記憶部342に記憶される。これにより、リモートコントローラー350において定型動作を指示する簡単な操作を行うことで、移動機310に定型動作を実行させることができる。飛行制御部345を移動機310に統合することも可能である。例えば、移動機310を構成する演算処理装置が、プログラムを実行することにより、飛行制御部345として機能する構成であってもよい。また、移動機制御部341及び飛行制御部345を、上記のプログラムと同様の機能を実行するようプログラミングされたハードウェアで構成してもよい。
飛行制御部345は、移動機310が姿勢センサー348により検出した検出値及び/またはGPS装置344により検出した緯度、経度を、移動機制御部341に出力する。移動機制御部341は、姿勢センサー348の検出値及びGPS装置344の検出結果の一部または全部を、移動機通信部343によりリモートコントローラー350に送信できる。移動機310がリモートコントローラー350に送信する移動機310の位置に関する情報を、移動機位置情報と呼ぶ。移動機位置情報は、例えば、移動機310の高度、緯度、経度を含む。また、移動機位置情報は、移動機310の位置を示す情報として、高度、緯度、経度以外の情報を含んでもよい。例えば、移動機310の位置を移動機310の平面位置に対応する住所表示、地名、地番、近傍または直下の施設名や建物名により表現してもよいし、予め設定されたランドマークを基準とする方角や距離により移動機310の位置を示す情報を含んでもよい。
また、移動機310がリモートコントローラー350に送信する移動機310の位置に関する情報は、移動機位置情報のほか、移動機310の環境や状況に関する移動機状況情報を含んでもよい。移動機状況情報は、移動機310の位置に関連する情報を含んでもよい。例えば、移動機310の近傍または直下の施設名や建物名等の周辺施設に関する情報を含んでもよい。また、移動機状況情報は、移動機310の環境に関する情報(天気(天候)、温度、湿度、風速、風向、降雨量等)を含んでもよい。
移動機310は、リモートコントローラー350に対し、リモートコントローラー350が指定したタイミングで取得した検出値及び/または検出結果に基づく移動機位置情報を送信してもよい。また、移動機310は、リモートコントローラー350に対し、リモートコントローラー350が指定したタイミング以後に取得した検出値及び/または検出結果に基づく移動機位置情報を随時送信してもよい。
なお、移動機310が位置を検出する構成は、GPS装置344や姿勢センサー348に限定されない。例えば、移動機310が飛行する領域(エリア)に予め設置された無線ビーコン送信機からビーコン信号を受信し、ビーコン信号の受信強度等に基づいて移動機310の位置を検出してもよい。無線ビーコン送信機には、赤外光(IR)等の可視外領域の光でビーコン信号を送信する光ビーコン装置や、Bluetoothでビーコン信号を送信するBluetoothビーコンを利用できる。この場合に検出される移動機310の位置は、高度、及び、無線ビーコン送信機に対する相対位置を含む。この場合、移動機制御部341は、高度、及び、無線ビーコン送信機に対する相対位置を含む移動機位置情報を生成して、リモートコントローラー350に送信すればよい。
移動機制御部341には、飛行制御部345を制御するカメラ制御部346が接続される。飛行制御部345は、上述したように移動機310の本体に設置されて、所定の方向を撮像する。飛行制御部345は、撮像素子336と、撮像レンズ(図示略)を移動させてズーム倍率を調整するズーム機構337とを備える。撮像素子336は、例えば、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサー等からなる。
カメラ制御部346は、移動機制御部341の制御に従って撮像素子336及びズーム機構337を駆動し、移動機制御部341により指定されたズーム倍率で撮像を行い、撮像画像データを移動機制御部341に出力する。移動機310は、移動機カメラ335によって予め設定されたサンプリング周期で撮像を実行し、撮像画像データを生成する。すなわち、移動機310は動画像を撮像するといえる。移動機310は、リモートコントローラー350に対し、リモートコントローラー350が指定したタイミングで撮像した撮像画像データを送信することができる。この場合、リモートコントローラー350は、移動機310が撮像した静止画像の撮像画像データを取得できる。また、移動機310は、リモートコントローラー350に対し、リモートコントローラー350が指定したタイミング以後に撮像した撮像画像データを随時送信することができる。この場合、リモートコントローラー350は、移動機310が撮像した動画像(映像)の撮像画像データを取得できる。
リモートコントローラー350は、CTL(Controller)演算制御部360を備える。CTL演算制御部360は、CTL制御部361、コマンド作成部362、及びCTL記憶部363を含む。CTL演算制御部360は、CPUやマイコン等の演算処理装置と、ROM、RAM、不揮発性記憶素子等を備えて構成され、演算処理装置によりプログラムを実行することによって、リモートコントローラー350を制御する。CTL演算制御部360のCTL制御部361、及びコマンド作成部362は、演算処理装置がプログラムを実行することで実現されてもよい。また、CTL演算制御部360を、上記のプログラムと同様の機能を実行するようプログラミングされたハードウェアで構成してもよい。また、CTL記憶部363は、ROM、RAM、不揮発性記憶素子の記憶領域の一部または全部を用いて構成され、CTL演算制御部360が実行するプログラムや、CTL演算制御部360が処理する各種データを記憶する。
CTL演算制御部360には、CTL操作部364が接続される。CTL操作部364は、図1に示した操作スティック351、352や操作ボタン353、354、及び、その他の操作子を含む。
また、CTL演算制御部360には第1通信部371、及び第2通信部372が接続される。第1通信部371は、移動機310が備える移動機通信部343と無線通信を行う通信部である。第1通信部371が通信に使用する周波数帯や通信方式は、移動機通信部343と通信できるよう適宜選択されればよい。従って、第1通信部371は、移動機通信部343と同様、ラジコン用の周波数である27MHz帯、40MHz帯、2.4GHz帯等で無線通信を実行する。或いは、移動機通信部343は、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。
第2通信部372は、HMD100との間で無線通信を実行する通信部である。第2通信部372は、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。
CTL演算制御部360は、CTL制御部361の機能によりCTL操作部364の操作を検出する。CTL制御部361は、検出した操作が移動機310の動作を指示する操作である場合に、コマンド作成部362の機能により、CTL操作部364の操作に対応するコマンドを生成する。CTL制御部361は、第1通信部371により、コマンド作成部362が生成したコマンドを送信し、移動機310を飛行させる。コマンド作成部362が生成するコマンドは、移動機310の上昇、下降、旋回、逆旋回などの基本的な動作を指示するコマンドであってもよいし、移動機310の定型動作を指示するコマンドであってもよい。
CTL演算制御部360は、第1通信部371により移動機310と通信し、移動機310が送信する移動機位置情報を受信する。また、CTL演算制御部360は、移動機310が送信する撮像画像データを受信する。CTL演算制御部360は、第1通信部371により受信した移動機位置情報、及び、撮像画像データを、第2通信部372によってHMD100に送信できる。この場合、CTL演算制御部360は、HMD100に対し、HMD100が指定したタイミングで移動機位置情報及び/または撮像画像データを送信することができる。また、CTL演算制御部360は、HMD100に対し、HMD100が指定したタイミング以後に移動機位置情報及び/または撮像画像データを随時送信することができる。また、CTL演算制御部360は、移動機310から受信した移動機位置情報を加工し、受信した移動機位置情報に基づき生成された移動機310の位置を示すデータを、新しい移動機位置情報としてHMD100に送信してもよい。また、CTL演算制御部360は、移動機310から受信した撮像画像データを加工し、受信した撮像画像データに基づき生成された画像データを、HMD100に送信してもよい。
図3は、HMD100の外観構成を示す説明図である。
制御装置10は、図3に示すように、平たい箱形のケース10A(筐体)を備える。ケース10Aは、使用者の操作を受け付ける各種のスイッチやトラックパッド14等を備え、これらを使用者が操作することによって、制御装置10は、HMD100を制御する制御装置として機能する。また、ケース10Aは、HMD100を制御する機能部を内蔵する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。
本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
また、右導光板26及び左導光板28の表面に、調光機能を有する電子シェード(図示略)を設けてもよい。電子シェードは電圧を入力する端子(図示略)、及び、端子間の電圧に応じて光の透過率が変化するシェード本体(図示略)を有し、後述するHMD制御部141の制御により、印加される電圧を調整可能である。電子シェードは、可視光を含む波長域全体の透過率が変化する構成であってもよいし、光の波長域により異なる透過率を有する構成であってもよい。電子シェードは、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。電子シェードの光学特性を調整することにより、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者に視認させることによって、画像を表示する。使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に電子シェードを装着し、電子シェードの光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。
HMDカメラ61は、画像表示部20の前部フレーム27に配設される。HMDカメラ61は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図3の例では、HMDカメラ61が前部フレーム27の端部ER側に配置される。HMDカメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
HMDカメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のHMDカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。HMDカメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、HMDカメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。HMDカメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように、HMDカメラ61の撮像範囲が設定される。
HMDカメラ61は、HMD制御部141が備える撮像制御部156の制御に従って撮像を実行し、撮像画像データを撮像制御部156に出力する。
HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー64を備える。距離センサー64は、例えば、使用者にとって前方に位置する測定対象物までの距離を検出する構成とすることができ、本実施形態では、前部フレーム27において右導光板26と左導光板28との連結部分に配置される。この例では、画像表示部20の装着状態において、距離センサー64の位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサー64の測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればHMDカメラ61の撮像方向と重複する方向である。
距離センサー64は、例えば、LED(Light Emitting Diode)やレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する。距離センサー64は、HMD制御部141の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサー64は、HMD制御部141の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの端部に設けられるコネクター42に着脱可能に接続される。すなわち、ケース10Aには、接続ケーブル40を抜き差し可能なコネクター42が設けられ、画像表示部20を使用する場合にコネクター42に接続ケーブル40が接続される。
接続ケーブル40は、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。
コネクター46は、ステレオミニプラグを接続するジャック(オーディオコネクター)であり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図3に示す構成例では、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、コネクター46に接続される。
マイク63は、例えば図3に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図8)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
制御装置10は、使用者により操作される被操作部として、トラックパッド14、上下キー15、LED表示部17、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。これらの被操作部は、例えば、使用者の手指により操作される。
トラックパッド14は、ケース10Aの前面において、使用者が指を接触させる、タッチ操作を行うための領域である。トラックパッド14は、ケース10Aの前面と同様の平面であってもよいが、トラックパッド14と、それ以外の領域とを使用者が識別できる構成であることが好ましい。例えば、トラックパッド14の縁を示す線が印刷または凹凸により形成されてもよいし、トラックパッド14が、トラックパッド14の表面の触感をそれ以外の領域と異ならせる表面加工を施されてもよい。
制御装置10は、ケース10Aの前面において、後述するタッチセンサー13(図7)により、使用者によるトラックパッド14への接触操作を検出できる。制御装置10は、タッチセンサー13が接触操作を検出した場合に、操作を検出した位置を特定する。トラックパッド14は、トラックパッド14における絶対位置、或いは、相対位置を入力する操作のために使用できる。
ケース10Aの前面にはLED表示部17が設置される。LED表示部17は、トラックパッド14に位置し、LED表示部17の表面は、ケース10Aの前面における他の領域と違わない。LED表示部17は、光を透過可能な透過部(図示略)を有し、透過部の直下に設置される1または複数のLEDが点灯することにより、使用者が記号等を視認できるように、発光する。図3の例では、LED表示部17のLEDが点灯することにより、3つの記号△(三角形)、○(丸)、□(四角形)が現れる。
制御装置10は、LED表示部17に対する使用者の手指の接触操作を、タッチセンサー13により検出し、操作位置を特定できる。このため、例えば操作位置が、LED表示部17に現れる記号のどれに対応する位置かを特定できる。従って、LED表示部17はソフトウェアボタンとして機能する。例えば、LED表示部17に現れる記号を、HMD100の機能に対応付けることで、LED表示部17へのタッチ操作を当該機能に対する操作として検出できる。HMD100は、図3の例で、記号○(丸)をホームボタンに割り当てることができる。この場合、記号○(丸)の位置に接触操作が行われると、HMD制御部141は、ホームボタンの操作を検出する。また、記号□(四角形)は履歴ボタンに割り当てることができる。この場合、記号□(四角形)の接触操作を、HMD制御部141は、履歴ボタンの操作として検出する。同様に、記号△(三角形)は戻るボタンに割り当てることができる。HMD制御部141は、記号△(三角形)の接触操作を、戻るボタンの操作として検出する。
上下キー15は、ケース10Aの側面に配置され、押圧操作を検出する一対のキーを備える。上下キー15の右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。
電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチである。
ケース10Aにおいて電源スイッチ18と同じ側の側面には、USBコネクター188(図7)が設けられる。USBコネクター188は、制御装置10を、外部の装置に接続するインターフェイスであり、本実施形態ではインターフェイスの一例として、USB規格に準拠したコネクターを例示する。USBコネクター188は、例えば、microUSB規格に適合する形状、及びサイズを有するコネクターであり、転送速度等の仕様は任意である。
制御装置10は後述するようにバッテリー132(図7)を有し、バッテリー132が供給する電力により制御装置10および画像表示部20が動作する。バッテリー132への充電は、USBコネクター188に対して電力を供給することにより行うことができる。HMD100は、制御装置10と画像表示部20を取り外し、制御装置10のみを専用の充電装置に接続することで、充電を行うことができる。
図4は、画像表示部20が備える光学系の構成を示す要部平面図である。図4には説明のため使用者の左眼LE及び右眼REを図示する。
図4に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、HMD制御部141の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー69(図7)が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、HMD制御部141の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図5及び図6は、画像表示部20の要部構成を示す図である。図5は、画像表示部20を使用者の頭部側から見た要部斜視図である。なお、図5では接続ケーブル40の図示を省略する。図6はHMDカメラ61の画角の説明図である。
図5は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図5では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
HMDカメラ61は、上記のように画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。図6は、HMDカメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。HMDカメラ61の画角(撮像範囲)をCで示す。なお、図6には水平方向の画角Cを示すが、HMDカメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。
HMDカメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図6に示すように、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。HMDカメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。
また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図6の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図3に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。
HMDカメラ61の画角Cは、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。
HMDカメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をHMDカメラ61が備える構成であってもよい。
また、距離センサー64は、右導光板26と左導光板28との中央において、前方を向いて配置される。例えば、距離センサー64は、画像表示部20の中央位置から、図6に示す対象物OBのように、使用者の正面方向に位置する物体までの距離を検出可能に構成される。HMD100を装着した使用者は、注視する方向に頭を向けるので、注視する対象は画像表示部20の正面にあると考えることができる。このため、画像表示部20の中央に配置された距離センサー64が、画像表示部20の正面を検出方向64Aとすれば、使用者が注視する対象までの距離を検出できる。
また、図5に示すように、画像表示部20の使用者側には内側カメラ68が配置される。内側カメラ68は、使用者の右眼RE、及び、左眼LEのそれぞれに対応するように、右導光板26と左導光板28との中央位置に一対、設けられる。内側カメラ68は、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラである。内側カメラ68は、HMD制御部141の制御に従って撮像を行う。HMD制御部141は、内側カメラ68の撮像画像データを解析する。例えば、HMD制御部141は、内側カメラ68の撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、使用者の視線方向を特定する。また、HMD制御部141は、使用者の視線方向の変化を求めることができ、右眼RE及び左眼LEのそれぞれの眼球運動を検出してもよい。
ここで、使用者の視線の移動は、使用者の仮想視点の移動とみることもできる。
また、HMD制御部141は、内側カメラ68の撮像画像データから使用者の右眼RE及び左眼LEの瞼(眼瞼)の画像を抽出して、眼瞼運動を検出してもよく、眼瞼の状態を検出してもよい。本実施形態では画像表示部20が一対の内側カメラ68、68を備える構成を例示するが、例えば、1つの内側カメラ68を、画像表示部20の中央位置に設けてもよい。この場合、1つの内側カメラ68が、右眼RE及び左眼LEを撮像できる画角を有することが好ましいが、例えば、右眼REまたは左眼LEの一方のみを内側カメラ68により撮像してもよい。すなわち、右眼REまたは左眼LEのいずれか一方の視線方向、眼球運動、眼瞼運動、眼瞼の状態等をHMD制御部141が検出する構成としてもよい。
また、HMD制御部141は、内側カメラ68の撮像画像から右眼RE及び左眼LEの視線方向を検出した場合に、右眼RE及び左眼LEの輻輳角を求めることができる。図6には輻輳角を符号PAで示す。輻輳角PAは、使用者が注視する対象物OBまでの距離に対応する。すなわち、使用者が立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。従って、輻輳角を検出することで、使用者が注視する距離を求めることができる。また、使用者の輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。
輻輳角は、例えば、内側カメラ68の撮像画像データから求めることができる。例えば、内側カメラ68に撮像画像データから右眼REの視線方向を求め、この視線方向から、右眼REの正面方向に対する右眼REの視線方向の角度LAを求める。同様に、内側カメラ68の撮像画像データから左眼LEの視線方向を求め、この視線方向に基づき、左眼LEの正面方向に対する左眼LEの視線方向の角度RAを求める。輻輳角PAは、角度LA、RAの和に等しく、容易に輻輳角PAを求めることができる。
図7は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置として操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、HMD通信部117(通信部)、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、HMD通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。
メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。
メインプロセッサー140は、操作部110から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。この場合、操作部110は、トラックパッド14におけるタッチ位置を示すデータを含む操作信号をメインプロセッサー140に出力する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、トラックパッド14(図3)の直下に配置されるLED(図示略)、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
HMD通信部117は、外部の機器との間で無線通信を実行する。本実施形態では、通信部117は、リモートコントローラー350が備える第2通信部372と無線通信を実行する。HMD通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。HMD通信部117は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図3)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USBコネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。HMD100とリモートコントローラー350とをUSBケーブルによって接続する場合、USBコネクター188が、リモートコントローラー350に接続される。
また、HMD100は、バイブレーター19を備える。バイブレーター19は、モーター(図示略)、偏心した回転子(図示略)等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。
センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。
画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図3に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215(記憶部)が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、HMDカメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
EEPROM(Electrically Erasable Programmable ROM)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。
HMDカメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図3に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図3に示すように、前部フレーム27の端部ERにおいてHMDカメラ61の近傍に配置される。LEDインジケーター67は、HMDカメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。
内側カメラ68は、インターフェイス211を介して制御装置10から入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。図4には1つの内側カメラ68を図示するが、図3(A)に示す一対の内側カメラ68、68が同時に動作してもよい。また、一対の内側カメラ68、68のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
距離センサー64は、インターフェイス211を介して制御装置10から入力される信号に従って距離検出を実行し、検出結果を示す信号を制御装置10に出力する。図4には1つの距離センサー64を図示するが、図3(A)に示す一対の距離センサー64、64が同時に動作してもよい。また、一対の距離センサー64、64のそれぞれが、インターフェイス211に接続され、独立して動作する構成であってもよい。
受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。
左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235(動きセンサー)、及び、磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
右表示ユニット22が備えるHMDカメラ61、距離センサー64、照度センサー65、内側カメラ68、温度センサー217、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、HMDカメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。
HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。
図8は、制御装置10の制御系を構成するHMD記憶部170、及びHMD制御部141の機能ブロック図である。図8に示すHMD記憶部170は、不揮発性記憶部121(図7)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、HMD制御部141、及び、HMD制御部141が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。HMD制御部141、及びHMD制御部141を構成する各機能部は、例えば、メインプロセッサー140、メモリー118、及び不揮発性記憶部121により構成される。
HMD制御部141は、HMD記憶部170が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
HMD記憶部170は、HMD制御部141が処理する各種のデータを記憶する。HMD記憶部170は、設定データ171、表示設定データ172、撮像画像データ173、移動機識別データ174、移動エリアデータ175、エリア内タグデータ176、基準移動体位置データ177、及び、位置履歴データ178を記憶する。
また、HMD記憶部170は、画像表示部20により表示可能な画像や映像を含むコンテンツを含むコンテンツデータを記憶してもよい。
設定データ171は、HMD100の動作に係る各種の設定値を含む。また、HMD制御部141がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ171に含めてもよい。
表示設定データ172は、画像表示部20により表示する画像に関するデータであり、詳細には、使用者が移動機310を操縦する場合の画像の表示態様に関する設定を含む。
表示設定データ172は、例えば、リモートコントローラー350からHMD通信部117が受信した画像データを画像表示部20に表示する場合の表示サイズ、表示位置等の情報を含む。HMD制御部141は、画像表示部20にアイコン、ウィジェット、メニュー画面等のように、特定の機能が割り当てられた画像や領域を表示することが可能であり、これらを用いてGUI(Graphical User Interface)を実現できる。表示設定データ172は、これらの表示の要否や表示位置等に関する情報を含んでもよいし、これらを表示するための画像データを含んでもよい。
撮像画像データ173は、リモートコントローラー350から受信された画像データである。リモートコントローラー350は、上述したように、リモートコントローラー350は、移動機310の移動機カメラ335の撮像画像データ、または、撮像画像データに基づき生成した画像データを送信する。このため、リモートコントローラー350からHMD100が受信する画像データは、撮像画像データそのものとは限らないが、撮像画像データに関連するデータである。HMD制御部141は、リモートコントローラー350から受信した画像データを、撮像画像データ173としてHMD記憶部170に記憶させる。
移動機識別データ174は、制御装置10が通信する移動機ユニット300を識別する情報を含む。移動機識別データ174は、移動機310及びリモートコントローラー350の機種名、型番、メーカー名、製造番号、製造時に設定された固有のID等を含んでもよい。或いは、移動機識別データ174は、使用者が設定した移動機310またはリモートコントローラー350のID等の識別情報を含んでもよい。また、移動機識別データ174は、HMD100が移動機ユニット300を認証するために用いる認証用の情報を含んでもよい。また、移動機識別データ174は、制御装置10がHMD通信部117によりリモートコントローラー350と通信する場合、通信に必要な情報を含んでもよい。具体的には、ネットワークアドレス、ネットワークID、パスワード等の通信用の認証情報等を含んでもよい。
移動エリアデータ175は、移動機310を移動(飛行)させる領域として予め設定された移動エリアに関する情報を含む。本実施形態では、移動機310を、予め設定された移動エリアにおいて移動させ、この移動中に移動機310が撮像する撮像画像に基づき、画像表示部20に画像を表示する。移動エリアデータ175は、移動機310を移動させる移動エリアの位置や大きさ等の情報を含む。移動エリアの位置及びサイズは、実際の空間である実空間における位置及びサイズで特定される。また、移動エリアの位置及びサイズが高さ方向で特定されてもよい。具体的には、移動エリアの高度の範囲が定められてもよい。
移動エリアデータ175に含まれる移動エリアの位置は、実空間における絶対的な位置を示すことが可能な、緯度や経度で表現されてもよいし、実空間に設定される基準に対する相対的な位置として表現されてもよい。
エリア内タグデータ176は、移動エリアに設置されるタグに関する情報を含む。移動エリアには、移動機310の位置の指標となるタグが設置される。移動エリアに設置されるタグについて、各タグを識別するID等の識別情報と、各タグの位置を示す情報とが対応付けられてエリア内タグデータ176に含まれる。また、移動エリアに設定されるタグのうち少なくとも1つは、移動エリアにおける移動機310の位置を推定する処理において基準となる基準位置を示すタグである。エリア内タグデータ176は、基準位置を示すタグについて、基準位置であることを示す情報と、タグの位置を示す情報と、タグの識別情報とを対応付けて含む。タグの位置は、実空間における絶対的な位置を示すことが可能な、緯度や経度で表現されてもよいし、移動エリアに設定される基準に対する相対的な位置として表現されてもよい。
基準移動体位置データ177は、移動エリアにおける移動機310の基準移動体位置を示す情報を含む。後述するように、HMD制御部141の制御により、移動エリアに設置される基準位置を示すタグを利用して、移動機310の基準移動体位置が設定される。基準移動体位置データ177は、設定された基準移動体位置に関する情報を含む。
位置履歴データ178は、移動機310の位置の履歴を含む。位置履歴データ178は、後述する位置推定部155が推定する移動機310の位置の履歴であってもよい。また、位置履歴データ178は、リモートコントローラー350がHMD100に送信する移動機310の位置に関する情報を含んでもよい。
HMD制御部141は、オペレーティングシステム(OS)143、画像処理部145、表示制御部147、撮像制御部149、検出制御部151、通信制御部153、位置推定部155、操作検出部157、及び、コマンド生成部159の機能を有する。
オペレーティングシステム143の機能は、HMD記憶部170が記憶する制御プログラムの機能であり、その他のHMD制御部141の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
画像処理部145は、画像表示部20により表示する画像または映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
表示制御部147は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
また、表示制御部147は、表示設定データ172に基づき、画像表示部20により各種の画像を表示させる。例えば、表示制御部147は、表示設定データ172の設定に従ってアイコン、ウィジェット、メニュー等を表示させる。
撮像制御部149は、HMDカメラ61を制御して撮像を実行させ、撮像画像データを生成し、HMD記憶部170に一時的に記憶する。また、HMDカメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は撮像画像データをHMDカメラ61から取得して、HMD記憶部170に一時的に記憶する。
また、撮像制御部149は、内側カメラ68を制御して使用者の右眼RE及び左眼LEを撮像してもよい。この場合、HMD制御部141は、撮像制御部149の制御に従って内側カメラ68が撮像する撮像画像データを解析して、使用者の右眼RE及び左眼LEの運動を検出してもよい。この場合、HMD制御部141は、右眼RE及び左眼LEのそれぞれ、或いは、いずれか一方について、動き方向、及び、動き量等を求めてもよい。
検出制御部151は、HMD100が備える各種センサーの検出値を取得する。検出制御部151が制御するセンサーは、例えば、6軸センサー111、磁気センサー113、温度センサー217、6軸センサー235、磁気センサー237、距離センサー64、及び照度センサー65を含む。また、GPS115を含んでもよい。
また、検出制御部151は、受付部として機能し、HMD100に対する操作を受け付ける。検出制御部151は、制御装置10が備えるボタン11やタッチセンサー13に対する操作を検出する。また、検出制御部151は、制御装置10が備える6軸センサー111や磁気センサー113の検出値及び/または検出値の変化に基づき、制御装置10を動かすことによる操作を検出する。また、検出制御部151は、画像表示部20が備える6軸センサー235や磁気センサー237の検出値及び/または検出値の変化に基づき、画像表示部20を動かすことによる操作を検出する。例えば、検出制御部151は、制御装置10及び/又は画像表示部20の動きが、予め設定された態様の動きに該当する場合に、操作を検出する。
通信制御部153は、HMD通信部117を制御してリモートコントローラー350との間の通信を実行させる。
位置推定部155は、移動機310の位置を推定する。位置推定部155は、リモートコントローラー350が送信する移動機310の位置情報に基づき、移動機310の位置を特定してもよい。移動機310が移動エリア内に位置する状態で、位置推定部155は、移動機310の撮像画像データ、或いは、移動機310の撮像画像データに基づきリモートコントローラー350が生成する画像データに基づいて、移動機310の位置を推定する処理を行う。
操作検出部157(位置指定部)は、画像表示部20を装着した使用者による位置指示操作を検出する。操作検出部157は、撮像制御部149の制御によりHMDカメラ61が撮像する撮像画像データを解析し、撮像画像データから指示体(使用者の指、手、他の身体の一部、或いは他の物体など)の画像を抽出する。操作検出部157は、撮像画像データにおける指示体の画像の位置を特定し、特定した位置を、画像表示部20に対する相対位置に変換する。変換後の位置を、操作位置として出力する。これにより、画像表示部20を装着する使用者が、HMDカメラ61の撮像範囲に指示体を位置させ、或いは、撮像範囲で指示体を動かすことで、位置指示操作を行うことができる。
コマンド生成部159は、検出制御部151が検出する操作、或いは、操作検出部157が検出する操作に従って、コマンドを生成する。コマンド生成部159が生成するコマンドは、移動機310またはリモートコントローラー350を動作させるコマンドである。例えば、移動機310に対して定型動作を指示するコマンドや、リモートコントローラー350に対して撮像画像データの送信を指示するコマンドである。コマンド生成部159が生成するコマンドはHMD通信部117によりリモートコントローラー350に送信され、リモートコントローラー350が受信する。リモートコントローラー350は、HMD100が送信するコマンドを受信して、移動機310に送信する。なお、コマンド生成部159が生成するコマンドのうち、移動機310の動作に係るコマンドは、リモートコントローラー350から移動機310に対するコマンドの送信を指示するコマンドであってもよい。この場合、コマンド生成部159は、リモートコントローラー350が解釈可能なコマンドを生成すればよい。すなわち、リモートコントローラー350が、移動機310に対する定型コマンド等のコマンドを生成する動作を、リモートコントローラー350に対して指示するコマンドであってもよい。
図9、図10及び図11は移動機制御システム1の各部の動作を示すフローチャートである。図12及び図14は、移動機制御システム1の動作に伴い画像表示部20に表示される画面の表示例を示す図である。また、図13は移動機310の移動エリアの例を示す模式図である。これらの図を参照して、移動機制御システム1の動作を説明する。
図9は、移動機310の動作を示すフローチャートである。
移動機制御部341は、移動機310の電源がオンにされると動作を開始し、モーターコントローラー347を含む各部の初期化、及び、リモートコントローラー350との間の通信を確立する動作を実行する(ステップS11)。
移動機制御部341は、GPS装置344による位置検出を開始させ、GPS装置344が検出する位置情報の取得を開始する(ステップS12)。また、移動機制御部341は、カメラ制御部346を制御して、移動機カメラ335による撮像を開始させる(ステップS13)。
移動機制御部341は、GPS装置344から取得した位置情報、及び、移動機カメラ335の撮像画像データを、リモートコントローラー350に対して送信する処理を開始する(ステップS14)。ここで、移動機制御部341は、姿勢センサー348の検出値を位置情報に含めて送信してもよい。また、移動機制御部341は、例えば移動機310のバッテリー残量等を含む制御情報を、位置情報に含めて送信してもよい。図9に示す動作例では、移動機制御部341は、位置情報及び撮像画像データの送信を、ステップS14以後、予め設定された周期で継続して実行する。
ここで、移動機制御部341は、移動機通信部343により、リモートコントローラー350が送信する定型動作コマンドを受信したか否かを判定する(ステップS15)。定型動作コマンドを受信した場合(ステップS15;Yes)、移動機制御部341は、受信したコマンドで指定される定型動作を、飛行制御部345によって実行させる(ステップS16)。その後、移動機制御部341は、動作を終了するか否かを判定し(ステップS17)、動作を終了しない場合は(ステップS17;No)、ステップS15に戻る。
また、定型動作コマンドを受信しない場合(ステップS15;No)、移動機制御部341はステップS17に移行する。
図10は、リモートコントローラー350の動作を示すフローチャートである。
CTL演算制御部360は、リモートコントローラー350の電源がオンにされると動作を開始し、リモートコントローラー350の各部の初期化、及び、移動機310との間の通信を確立する動作を実行する(ステップS21)。ステップS21で、CTL演算制御部360は、第2通信部372によりHMD100との間の通信を確立する処理を実行してもよい。
CTL演算制御部360は、移動機310から位置情報及び撮像画像データの受信を開始する(ステップS22)。CTL演算制御部360は、移動機310から受信した位置情報及び撮像画像データをCTL記憶部363に一時的に記憶する。CTL演算制御部360は、移動機310から受信した位置情報をHMD100に送信する動作を開始する(ステップS23)。ここで、CTL演算制御部360が送信する位置情報は、上述したように、移動機310がGPS装置344により検出した位置情報に限らず、姿勢センサー348の検出値を含んでいてもよいし、制御情報を含んでもよい。
ここで、CTL演算制御部360は、HMD100から、撮像画像データの送信を指示するコマンドを受信したか否かを判定し(ステップS24)、受信していない場合は(ステップS24;No)、受信するまで待機する。撮像画像データの送信を指示するコマンドを受信した場合(ステップS24;Yes)、CTL演算制御部360は、送信動作を開始する。すなわち、移動機310から受信した撮像画像データ、または、受信した撮像画像データに基づき生成した画像データをHMD100に送信する動作を開始する(ステップS25)。ここで、CTL演算制御部360は、例えば、移動機310から受信した撮像画像データについて、解像度の変換、フレームレートの変換、画像フォーマットの変換等の画像処理を行い、処理後の画像データをHMD100に送信してもよい。
CTL演算制御部360は、HMD100から、定型動作を指示するコマンドを受信したか否かを判定する(ステップS26)。定型動作を指示するコマンドを受信した場合(ステップS26;Yes)、CTL演算制御部360は、移動機310に対して定型動作を指示する定型動作コマンドを送信する(ステップS27)。その後、CTL演算制御部360は、動作を終了するか否かを判定し(ステップS28)、動作を終了しない場合は(ステップS28;No)、ステップS26に戻る。また、定型動作を指示するコマンドを受信しない場合(ステップS26;No)、移動機制御部341はステップS28に移行する。
図11は、HMD100の動作を示すフローチャートである。
HMD制御部141は、HMD100の電源がオンにされると動作を開始し、HMD100の各部の初期化を行い、リモートコントローラー350との間で通信を確立する(ステップS31)。次いで、HMD制御部141は、リモートコントローラー350から位置情報を受信する動作を開始する(ステップS32)。
HMD制御部141は、通常モードで画像表示部20に画像を表示する。画像表示部20における表示モードとして、本実施形態では、HMD制御部141が、通常モードと、撮像画像モードとを切り替えることが可能である。撮像画像モードは、移動機310が移動機カメラ335により撮像した撮像画像データに基づく画像を、画像表示部20により表示する動作モードである。通常モードは、移動機ユニット300とHMD100とが通信を実行する状態で、移動機310の撮像画像データを表示しない表示モードである。なお、HMD100は、移動機ユニット300と通信しない状態で、例えばHMD記憶部170に記憶したコンテンツデータを再生する表示等を行うことが可能である。通常モード及び撮像画像モードは、HMD100の使用者がリモートコントローラー350を操作して移動機310を操縦する場合の表示モードである。
図12は、HMD100の表示例を示す図であり、通常モードにおける画像表示部20の表示例を示す。図中、符号VRは、画像表示部20を装着する使用者の視野を示す。符号Vはハーフミラー261、281により画像を使用者に視認させることが可能な領域であり、言い換えれば画像表示部20が画像を表示できる表示可能領域である。
通常モードにおいて、表示領域Vには、情報表示部I1、I2、I3、及びメニュータブTMが配置される。情報表示部I1は、移動機310の位置情報を表示する。情報表示部I2は、移動機310の操縦に関する各種の情報が表示される。例えば、移動機310のバッテリー残量の警告等が情報表示部I2に表示される。情報表示部I3は、移動機310の位置を、予め設定された範囲における位置として示す画像を表示する。メニュータブTMは、HMD100の設定等を行うためのメニュー画面(図示略)を呼び出す指示を行う操作用の画像である。例えば、HMD制御部141がHMDカメラ61の撮像画像に基づいて、メニュータブTMに対する指示体の操作を検出した場合に、メニュー画面を表示することができる。
通常モードでは、表示領域Vの中央を避ける位置に情報表示部I1、I2、I3、及びメニュータブTMが配置される。このため、表示領域Vの中央を含む大部分で、画像表示部20を透過して外景を視認可能である。このように、通常モードでは、外景すなわち実空間を視認する目的に適した表示が行われる。図12の例では、飛行する移動機310を目視により視認可能であり、使用者は、移動機310を視認して、リモートコントローラー350を操作し、移動機310を操縦できる。
ステップS33で、HMD制御部141は、通常モードの表示を開始し、リモートコントローラー350から受信した位置情報を情報表示部I1に表示し、受信した位置情報に基づき移動機310の位置を示す画像を情報表示部I3に表示する。また、位置情報に制御情報が含まれる場合は、この制御情報、または、制御情報に基づきHMD制御部141が生成するメッセージ等を情報表示部I2に表示してもよい。
HMD制御部141は、操作検出部157が検出する操作によって、基準位置の設定が指示されたか否かを判定する(ステップS34)。基準位置の設定は、移動機310が移動エリアを飛行する場合において、移動機310の位置と、移動エリアとの対応付けを行う処理である。より具体的には、移動機310の撮像画像データを利用して移動機310の位置を特定するために、移動機310の撮像画像データに写る範囲すなわち撮像範囲と、移動エリアとの位置を対応付ける、一種のキャリブレーションである。基準位置の設定を行った後は、移動機310の撮像画像データに写る実空間の画像から、撮像を行ったときの移動機310の位置や方向を求めることが可能となる。
図13の模式図には、移動機310を移動させる移動エリアの一例として、複数の樹木が植えられている移動エリアAを示す。図13の模式図は移動エリアAを上から見た平面図であり、符号Wが木を示し、符号TGは木Wに取り付けられたタグを示す。タグTGは、木Wの幹や枝に取り付けられる目印として機能し、タグTGの形状やサイズは任意であるが、移動機カメラ335の撮像画像でタグTGの画像を検出できるものであることが好ましい。図13の例では1本の木Wに1〜2個のタグTGが取り付けられる。移動エリアAにおける各々のタグTGには、識別用の識別情報(ここではIDと呼ぶ)が付与される。移動エリアAにおけるタグTGの位置、及び、タグTGの識別情報は、エリア内タグデータ176(図8)に含まれる。
移動エリアAには、基準位置を示す基準タグCRが設置される。基準タグCRは、タグTGの一種であるが、移動エリアAにおいて基準位置とすることが好ましい位置に設置される。後述するように、基準位置を設定する処理では移動機310の撮像画像データを利用するので、移動機310が撮像しやすい位置に基準タグCRが設置されることが好ましく、木Wや、その他の移動エリアA内の物体の影に隠れないような位置であることが好ましい。基準タグCRはタグTGの一種であるから、タグTGと同様に、基準タグCRの識別情報及び基準タグCRの位置は、エリア内タグデータ176に含まれてHMD記憶部170に記憶される。
なお、図13は移動エリアAの一例に過ぎず、タグTGは木Wに取り付けられるものに限定されない。例えば、タグTGは移動エリアA内の地面や床面に設置されてもよい。また、移動エリアAは屋内であってもよく、この場合、タグTGや基準タグCRは壁面に設置されてもよい。
基準位置の設定が指示されない場合(ステップS34;No)、HMD制御部141は後述するステップS48に移行する。基準位置の設定が指示された場合(ステップS34;Yes)、HMD制御部141は、HMD記憶部170から移動エリアAに関するデータを取得する(ステップS35)。具体的には、HMD制御部141は移動エリアデータ175、エリア内タグデータ176、及び基準移動体位置データ177を取得する。
HMD制御部141は、リモートコントローラー350に対して撮像画像の取得を指示するコマンドを生成して送信し(ステップS36)、このコマンドに応じてリモートコントローラー350が送信する画像データの取得を開始する(ステップS37)。HMD制御部141は、表示モードを撮像画像モードに切り替え、リモートコントローラー350が受信する画像データに基づく画像の表示を開始する(ステップS38)。
図14は、HMD100の表示例を示す図であり、撮像画像モードにおける画像表示部20の表示例を示す。図中、視野VR及び表示領域Vは図12を参照して説明した通りである。
撮像画像モードでは、表示領域Vの中央に、リモートコントローラー350から受信した画像データに基づく画像Pが表示される。画像Pの表示サイズ及び表示位置は予め設定されており、図14には表示領域Vの全面に表示された例を示す。
撮像画像モードにおいて、表示領域Vには、通常モードと同様に、情報表示部I1、I2、I3、及びメニュータブTMを配置できる。これらの表示位置は、表示領域Vの中央を避けた位置であるため、画像Pの視認性を大きく損なうおそれはない。また、図14の例のように画像Pを表示領域Vの全面に表示する場合、画像Pに情報表示部I1、I2、I3、及びメニュータブTMが重なって表示される。画像Pを表示領域Vの一部に表示する場合、情報表示部I1、I2、I3、及びメニュータブTMを、画像Pを避けた位置に表示してもよい。また、検出制御部151が検出する操作に基づき、一時的に、情報表示部I1、I2、I3、及びメニュータブTMの表示をオフにしてもよい。
撮像画像モードにおいても、画像表示部20は外光を透過する構成であるため、画像P越しに外景を視認可能である。このため、使用者は、撮像画像モードの実行中も、実空間の移動機310を視認できるので、移動機310を目視により操縦できる。なお、撮像画像モードにおいて、リモートコントローラー350が操作された場合に、リモートコントローラー350の操作をHMD制御部141が検出して、外景の視認性を高めるように表示を制御してもよい。具体的には、HMD制御部141は、画像処理またはOLEDユニット221、241の発光制御を行って、画像表示部20に表示する画像Pの表示輝度を低下させることにより、外景の視認性を高めてもよい。
基準位置設定を指示した場合、使用者は、移動機310を操縦して、基準位置の設定用の画像を撮像できる位置に移動させる。基準位置の設定用の画像を撮像できる位置を、移動機310の基準移動体位置という。基準移動体位置は、移動機310が撮像する撮像画像に関する条件で規定される。本実施形態では、移動エリアAのうち基準タグCRを含む範囲を撮像可能であり、少なくとも半数以上のタグTGの設置位置を含む範囲を撮像可能であることが条件とされる。使用者は、リモートコントローラー350を操作して、移動機310の位置を、基準移動体位置の条件を満たす位置に調整する。この調整の作業、すなわちリモートコントローラー350の操作は、移動機310の撮像画像を撮像画像モードで視認しながら行うことができるので、困難性は低い。また、コマンド生成部159の機能により、移動機310を操縦するコマンドをHMD制御部141が生成して、リモートコントローラー350に送信し、移動機310を基準移動体位置に移動させる操作を補助してもよい。また、基準移動体位置に移動機310を移動させる定型動作を指示するコマンドをコマンド生成部159が生成して送信し、自動的に移動機310を基準移動体位置に移動させてもよい。
図14には、移動機310が基準移動体位置に移動した場合の撮像画像データに基づく画像Pを表示した状態を示す。画像Pには、移動エリアAに植えられた木Wが写っており、複数のTGの位置を含む範囲が撮像されたことが明らかであり、基準タグCRが撮像されている。
HMD制御部141は、検出制御部151により、使用者が行う基準位置指定操作を検出したか否かを判定する(ステップS39)。基準位置指定操作は、移動機310の撮像画像における基準タグCRの位置を指定する操作であり、例えば、HMDカメラ61の撮像範囲において、使用者の手や指などの指示体を移動させる操作や、トラックパッド14に対する位置指示操作である。
図14には、基準位置指定操作を行う指示体Hを示す。指示体Hは実空間の物体であるから画像表示部20を透過して視認される。HMD制御部141は、検出制御部151により指示体Hの位置を検出し、検出した位置に対応して基準位置マーカーCRAを表示する。使用者が指示体Hを動かすと、指示体Hの検出位置すなわち操作位置に対応して、基準位置マーカーCRAが移動する。使用者は、基準位置マーカーCRAが、画像Pにおける基準タグCRに重なるように、指示体Hで操作を行う。そして、基準位置マーカーCRAが基準タグCRに重なった状態で使用者が確定操作を行うと、基準位置マーカーCRAの位置が、使用者が指定した位置として特定される。
ここで、基準位置マーカーCRAは、いわゆるポインターとして機能し、使用者の操作(ここでは指示体Hの位置)に対応する位置に表示される。基準位置マーカーCRAは、3Dのように立体表示されるAR画像、ARマーカーとすることもできる。例えば、デジタルカメラの焦点合わせで使用されるオートフォーカス技術を適用して、基準位置マーカーCRAが基準タグCRに近づいた状態で使用者が確定操作を行うと、実物の基準マーカーに重なった事が容易に判るようにしてもよい。また、例えば、指示体Hの位置に基づき標的範囲をサークルで囲んで表示し、標的を捕捉すると基準位置マーカーCRAが点滅する、標的範囲内の対象物上の位置に合わせて表示する、標的範囲内の対象物に重なったときに音声を出力する等の補助動作を行ってもよい。これにより、例えば、柿等の果樹が位置する果樹園や畑において、対象物である柿等の木の高さ等を等高線のように表示してもよい。また、大きな畑や市街地を対象とする場合において、基準タグCRは、1つだけではなく複数あっても良い。
HMD制御部141は、使用者が行う基準位置指定操作を検出した場合(ステップS39;Yes)、使用者が指定した操作位置を特定して取得する(ステップS41)。ステップS41で取得する位置は、使用者が指定した基準位置マーカーCRAの位置である。HMD制御部141は、基準位置マーカーCRAの位置に基づき、基準移動体位置に関する基準移動体位置データ177を生成する(ステップS41)。
ステップS41で、まず、HMD制御部141は、画像Pと基準位置マーカーCRAとの相対位置を特定する。次に、HMD制御部141は、画像Pに含まれる目印となる物体の画像を検出して、検出した画像の位置を特定する。目印となる物体は、例えば、木WやタグTGである。HMD制御部141は、画像Pで特定した物体の画像Pにおける位置と、基準位置マーカーCRAの位置とに基づき、移動エリアAに対する移動機310の相対位置、及び、方向を算出する。ここで、HMD制御部141は、移動機カメラ335のズーム機構337のズーム倍率を加味した演算を行ってもよい。この処理により、基準移動体位置と移動機310の撮像画像データとの対応付けがなされ、基準移動体位置データ177が生成される。
移動機310は、GPS装置344を備えており、移動機310の位置について緯度、経度、高度等の情報を得ることができる。しかしながら、移動機310を屋内の移動エリアAで移動させる場合や、非常に高い精度で移動機310の位置を検出したい場合など、GPS装置344以外の方法により、移動機310の位置を求めることのニーズがある。本実施形態では、移動機310が撮像する撮像画像データに基づいて、撮像を行ったときの移動機310の位置および方向を特定する。この特定を可能とするために、実空間である移動エリアAと、移動機310の撮像画像データとを対応付けるため、使用者に指示体Hによる操作を行わせて、基準位置マーカーCRAを基準タグCRに合わせる操作をさせる。このように、HMD制御部141が画像表示部20に画像Pを表示させた状態で、画像表示部20に表示させるマーカーである基準位置マーカーCRAにより、位置を指定させることで、実空間と画像Pとの対応付けを高精度で、容易に行える。
HMD制御部141は、基準移動体位置データ177を生成し、HMD記憶部170に記憶または上書きした後、基準移動体位置からの移動機310の移動量の検出を開始する(ステップS42)。HMD制御部141は、移動機310が検出するGPS装置344の位置情報や姿勢センサー348の検出値等の差分を求める処理や積算する処理等により、時間の経過に伴う移動機310の移動量と、移動方向を積算する。
HMD制御部141は、基準移動体位置と、基準移動体位置からの移動機310の移動量および移動方向の積算値に基づいて、移動エリアAにおける移動機310の位置を算出する(ステップS43)。
そして、HMD制御部141は、算出した移動機310の位置と、移動機310が撮像する撮像範囲とを、画像表示部20により表示する。
また、HMD制御部141は、移動機310の位置および方向を算出した場合に、算出した移動機310の位置及び/または方向と、移動機310の撮像画像データとを対応付けてHMD記憶部170に記憶してもよい。そして、移動機310の位置及び/または方向をもとに、移動機310の撮像画像データをHMD記憶部170から読み出して、画像表示部20によって表示可能としてもよい。また、移動機310の位置及び/または方向と移動機310の撮像画像データとをパーソナルコンピューター等に出力可能な構成としてもよい。
図15は、HMD100の表示例を示す図であり、移動機310の撮像画像とともに移動機310の位置等を表示した例を示す。
図15には、1つの木Wの側方から移動機310が撮像した撮像画像データに基づく画像Pが表示される。表示領域Vには、情報表示部I1、I2、I3が配置され、GPS装置344が検出した移動機310の位置等が表示される。さらに、表示領域Vには情報表示部I4が配置される。情報表示部I4は移動エリアAにおける移動機310の相対位置を図案化して示す。また、情報表示部I4では、移動機310が移動機カメラ335により撮像する撮像範囲、或いは撮像方向が図案化して示される。使用者は、移動機310が撮像した撮像画像データを表示領域Vで確認し、この撮像画像データが、どの位置から撮像されたものかを情報表示部I4の表示により知ることができる。
HMD制御部141は、ステップS43で求めた移動機310の撮像範囲にタグTGが含まれるか否かを、エリア内タグデータ176等に基づき判定する(ステップS45)。タグTGが含まれない場合(ステップS45;No)、HMD制御部141は後述するステップS47に移行する。また、タグTGが含まれる場合(ステップS45;Yes)、HMD制御部141は、撮像画像データにおけるタグTGの位置に重ねて、タグTGのIDを表示する(ステップS46)。ここで、タグTGのIDは、実空間のタグTG及び撮像画像データに写るタグTGにおいては目視できないが、HMD制御部141がIDをタグTGに重ねて表示することで、AR(Augmented Rality)表示の視覚効果を得られる。これにより、使用者は、撮像画像データに基づく画像を見ることで、タグTGに関する情報を得ることができる。
HMD制御部141は、撮像画像モードの終了の指示の有無を判定し(ステップS47)、撮像画像モードの終了の指示があった場合は(ステップS47;Yes)、ステップS33に移行して、表示モードを通常モードに切り替える。また、撮像画像モードの終了の指示がない場合(ステップS47;No)、HMD100の動作を終了するか否かを判定する(ステップS48)。動作を終了しない場合は(ステップS48;No)、ステップS39に戻る。
以上説明したように、本発明を適用した実施形態のHMD100は、使用者の頭部に装着される画像表示部20と、移動機310が送信する撮像画像を受信するHMD通信部117とを備える。HMD100は、HMD通信部117により受信した撮像画像に基づき実空間における移動機310の位置を推定する位置推定部155を備える。また、HMD100は、HMD通信部117により受信した撮像画像と、位置推定部155により推定した移動機310の位置に関する情報とを画像表示部20に表示させる表示制御部147と、を備える。
本発明を適用したHMD100、及び、HMD100の制御方法によれば、移動機310が撮像した撮像画像を、移動機310の位置と共に表示できる。これにより、ユーザーが、移動機310の位置と撮像画像との対応を容易に把握することができる。従って、例えば、移動機310の位置を確認してから撮像を行うことができ、移動機310が撮像する撮像画像の有用性を高めることが期待できる。
また、位置推定部155は、予め定められた範囲を移動機310が撮像した基準撮像画像に基づいて、基準撮像画像を撮像した際の移動機310の位置を特定して基準移動体位置を設定し、基準移動体位置に基づき移動機310の位置を推定する。これにより、例えば基準移動体位置からの移動機310の移動量および移動方向を利用する方法等により、移動機310の位置を容易に推定できる。
また、HMD通信部117は、移動機310が送信する位置情報を受信し、位置推定部155は、HMD通信部117により受信した位置情報に基づき、基準移動体位置からの移動機310の移動量を求めることにより、移動機310の位置を推定する。これにより、移動機310の位置を容易に、精度良く推定できる。
また、位置推定部155は、HMD通信部117により撮像画像を受信した場合に、受信した撮像画像と基準撮像画像とに基づいて移動機310の位置を推定する。これにより、移動機310が送信する撮像画像を用いることにより、移動機310の位置を容易に推定できる。
また、表示制御部147は、移動機310の位置に関する情報として、移動機310の撮像方向、撮像倍率、移動機310の高度、基準移動体位置からの移動量の少なくともいずれかを表示する。これにより、移動機310の撮像方向、撮像倍率、移動機310の高度、基準移動体位置からの移動量等を表示して、表示装置のユーザーに対して適切に情報を提供できる。
ここで、移動機310の位置に関する情報は、上述した移動機位置情報を含んでもよく、その他、移動機310の環境や状況に関する移動機状況情報を含んでもよい。移動機状況情報は、移動機310の位置に関連する情報を含んでもよい。例えば、移動機310の近傍または直下の施設名や建物名等の周辺施設に関する情報を含んでもよい。また、移動機状況情報は、移動機310の環境に関する情報(天気(天候)、温度、湿度、風速、風向、降雨量等)を含んでもよい。
また、移動機310の位置に関する情報は、移動機310の周囲の状況について移動機310の移動機制御部341が判定処理あるいは分析処理を行った処理結果を含んでもよい。すなわち、移動機制御部341が判定する周囲の天候や、天候の予測結果を含んでよい。また、移動機310の近傍に位置する植物、建物、設備など予め設定された監視対象物についての情報を含んでもよい。具体例としては、果樹園において移動機310の近傍または撮像範囲内の樹木または果物の最適摘果時期を示す情報、建物や橋梁或いは道路構造物などの建造物の劣化検査において監視対象の建造物のセメント剥がれの有無等を示す情報を含んでもよい。また、最適摘果時期や修繕の有無などをHMD100の使用者に問いかけるメッセージ等を含んでもよく、HMD100が、これら移動機301が送信する情報をAR表示する構成が考えられる。例えば、移動機310の位置を示す情報として、タグ(図に示すタグTG)を基準とする「南10m、高さ3m」等の情報をHMD100が表示することで、果実の摘果作業、消毒作業の後からの作業の補助として場所と情報を簡単につなげることが可能となり、非常に有用である。また、例えば、建造物の劣化検査における道路、建造物の補修の場所特定をアシストする用途にも利用できる。さらに、移動機310の位置に関する情報を、移動機310の移動と連動させ、図15に示した情報表示部I4の表示のような状態とマップ表示とを連動させ、撮像後に同じ場所をHMD100の使用者が見回るとその場所が一目瞭然にAR重畳画像(マーカーでも良い)として表示されて対象位置が即座に判るような作業支援的な用途でも利用できる。
また、移動機310は、移動機310の位置に関する情報に加え、機体状態情報として、現在位置、高度、速度、移動方向等以外に、移動機310の姿勢、バッテリー残量等の情報や、無線機器等の操作するためのリモコンの電波強度等の情報を送信してもよい。例えば、移動機310からの無線通信の電波強度等によっても移動機310とHMD100の視界方向との相対的な位置関係を特定できる。また、携帯電話機用の基地局が発する電波の受信強度を利用してもよい。
また、HMD100は、HMD通信部117により受信した撮像画像における位置を指定する操作検出部157を備える。位置推定部155は、撮像画像を撮像したときの移動機310の位置に基づいて、操作検出部157により指定された位置に対応する実空間における位置を推定する。これにより、撮像画像における位置に対応する実空間の位置を推定することにより、ユーザーに対し、撮像画像と実空間との対応に関する情報を提供できる。
また、位置推定部155は、検出制御部151により指定された位置に対応して推定した実空間における位置を、マーカー位置として設定し、表示制御部147は、マーカー位置を画像表示部20に表示させる。これにより、ユーザーに対し、撮像画像と実空間との対応に関する情報を、画像表示部20により提供できる。
また、位置推定部155は、HMD通信部117により撮像画像を受信した場合に、受信した撮像画像におけるマーカー位置の相対位置を推定する。表示制御部147は、位置推定部155により推定した相対位置に基づいて、HMD通信部117により受信した撮像画像と、マーカー位置を示す表示オブジェクトとを画像表示部20に表示させる。これにより、指定された位置を示す表示オブジェクトを撮像画像とともに表示することにより、ユーザーに対し、撮像画像と実空間との対応に関する情報を提供できる。
また、HMD100は、操作を受け付ける検出制御部151を備え、検出制御部151で受け付けた操作に基づき移動機310を制御する制御情報をHMD通信部117により送信する。これにより、表示装置に対する操作を移動機310の制御に反映させることができ、移動機310の操作性の向上を図ることができる。
また、HMD100は、画像表示部20の動きを検出する動きセンサーとして6軸センサー235、及び/または磁気センサー237を備える。HMD100は、検出制御部151は動きセンサーの検出値に基づき、画像表示部20の動きによる操作を受け付ける。これにより、画像表示部20の動きによる操作を移動機310の制御に反映させることができ、移動機310の操作性の向上を図ることができる。
さらに、移動機制御システム1において、撮像画像モードで画像Pを表示中に、検出制御部151が位置指示操作を検出した場合に、指示位置に対応する仮想マーカーを設定してもよい。この場合、HMD制御部141は、画像Pにおける指示位置を検出し、その画像Pに対応する撮像画像データを撮像したときの移動機310の位置および方向に基づき、仮想マーカーの移動エリアAに対する相対位置を特定する。さらに、特定した位置をHMD記憶部170に記憶する。この構成では、1または複数の仮想マーカーの位置を、例えば情報表示部I4に表示してもよい。
移動機制御システム1の適用例としては、例えば、野菜や果樹等の農作物を栽培する圃場(農園)において、農作物の生育状況等を移動機310の撮像画像データにより監視する用途が挙げられる。この例では、移動エリアAは圃場の全部または圃場を区分した一部とすることができる。また、タグTGは、圃場に存在する農作物である樹木や樹木を指示する什器あるいは支柱等の設置物に取り付けることができる。この場合、移動機310の撮像画像データに基づき農作物の状態を目視できる上、撮像画像データが撮像した範囲および移動機310の位置を知ることができる。従って、多数の樹木や農作物が存在する圃場において、漏れなく、的確に農作物の状態を目視により確認できる。
また、移動機制御システム1の他の適用例として、建築物、道路、橋梁などの建造物や移動可能な物品の状態を、目視により点検、管理する用途が挙げられる。
ここで、移動機310の移動機カメラ335は可視光による撮像を行うものに限定されず、赤外光などの可視外光による撮像を行う構成や、超音波等を用いたセンサーであってもよい。例えば、赤外光を照射する光源を移動機310に搭載してもよい。これにより、移動機310の撮像画像データを用いて、農作物の糖度を検出することができる。また、建造物の点検をする場合において、対象の建造物の探傷検査や、サーモグラフィ技術を利用して温度の測定等を行うことができる。
また、その他の適用例として、スタジアム等の多数の座席を有する大規模施設において、移動機310の撮像画像データを利用して場所ごとの混雑度を判定する、道路における渋滞の状況を判定する等の用途が挙げられる。
また、図12、図14、図15等に示したように情報表示部I3にマップを表示する場合に、移動機310の移動方向、すなわち、どちらからどちらへ移動しているかを示すような情報を付加して表示してもよい。例えば、情報表示部I3に表示するマップ画像に、飛行機雲の画像を付加してもよい。さらに、情報表示部I3及びその他の表示領域V内の場所において、実空間の移動機310の位置に合わせたAR表示を行ってもよい。このAR表示の具体例として、飛行機雲の画像や、実空間の移動機310の進行方向の後に影を付ける、矢印を付加する等の方向性を持った付加画像を付加して表示する態様を用いてもよく、移動機310に関する操作が楽になるメリットがある。
上述した実施形態において、操作検出部157は、画像表示部20の動きまたは画像表示部20に対する操作を検出し、この操作に応じてコマンド生成部159が定型動作を指示するコマンドを生成することが可能である。ここで、操作検出部157は、HMD100以外の装置による操作を検出してもよい。例えば、使用者が指に装着する指輪型の操作デバイスを用いる例が挙げられる。また、使用者が腕に装着する腕時計型の操作デバイスを用いる例が挙げられる。これらの操作デバイスは、6軸センサー235や磁気センサー237等の動きセンサーと、動きセンサーの検出値をHMD100に送信する送信部とを備えてもよい。この場合、操作デバイスとHMD通信部117とが、Bluetoothにより相互に通信可能な構成とすれば、操作検出部157が、操作デバイスを動かす操作を検出できる。この場合、操作検出部157は、操作デバイスの動きが予め設定された態様である場合に、定型動作を指示するコマンドを生成してもよい。
また、操作検出部157は、マイク63が集音する音声によるコマンド指示を検出してもよい。すなわち、検出制御部151は、音声インターフェイス182により検出する音声のパターンが、予め設定されたパターンに該当する場合に、定型動作を指示するコマンドを生成してもよい。
また、HMD制御部141は、表示制御部147によって、リモートコントローラー350から受信した画像データに基づく画像Pを表示する場合に、画像Pまたは画像Pにおいて含まれるタグTGを、立体視が可能な態様で表示してもよい。この構成は、画像処理部145が、右表示ユニット22により表示する画像と左表示ユニット24により表示する画像とに視差を生じる様に画像を処理することで実現可能である。例えば、図15に示したタグTGのIDをAR表示する場合に、視差を付けて表示することができる。この場合、HMD100の使用者に、リアルな現実感を想起させながら画像を見せることができる。
また、HMD100が、他のHMD100と無線データ通信可能な場合に、当該他のHMD100に、リモートコントローラー350からHMD100が受信した画像データや、この画像データに移動機310の位置を示すデータ等を含めたデータを送信してもよい。この場合、HMD100の使用者が他のHMD100の使用者に、移動機310の撮像画像データや移動機310の位置に関する情報を提供できる。
指示体は、図に示した指示体Hのように、人間の指、手等のほか、HMD100を遠隔操作するリモコン装置、指し棒、ペン等であってもよい。また、検出制御部151は、エアーマウス等のデバイスの操作を検出してもよく、検出手段としてはHMDカメラ61の撮像画像を用いることができ、例えばLED等の発光体を具備するデバイスを指示体として用いることもできる。
また、HMD制御部141は、表示領域Vに表示する情報表示部I1、I2、I3、I4に示した情報を、音声により、右イヤホン32、左イヤホン34から出力してもよい。この音声は、移動機310の飛行中に、移動機310の位置に対応して出力してもよい。
なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式はHMD通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。例えば、制御装置10に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、HMDカメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。例えば、HMDカメラ61により撮像する外景の画像と、表示画像とを合成した合成画像を画像表示部20により表示する構成とすれば、画像表示部20が外光を透過しなくても、使用者に外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の表示装置に本発明を適用することも勿論可能である。
上記実施形態では、移動体の一例として、無人飛行体であり、4翼ヘリコプターである移動機310を示した。移動体は、これに限定されるものではなく、遠隔操作される自動車や船、ロボット、これらの玩具等の遠隔操作や自動運転される種々の無人の移動体に対しても適用可能である。この場合の移動体は画像を撮像するカメラを有していればよく、ヘリコプター、飛行機、ロケット、潜水艦、人口衛星、バス等の車両、鉄道車両等の移動体が挙げられ、有人であっても無人であってもよく、貨物を搭載してもよい。無人で操縦・操作される機器であっても、輸送対象として人を乗せる構成であってもよい。また、移動体は、トラック(貨物運送用自動車)に付随するクレーンユニット等の付属機器であってもよい。また、シャベルカー、除雪車、草刈機、トラクター、ブルトーザー、コンバイン、耕運機、田植え機、農薬散布機等の作業用車両や作業用(例えば、建設現場用)機器等、農業、林業、漁業、砿業等で使用される機器に適用できる。これらの移動体は遠隔操作利用される機器であってもよく人が搭乗して操縦してもよい。
また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮像した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示、或いは仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図2、図7、図8等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、HMD制御部141が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムをHMD通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
1…移動機制御システム、10…制御装置、20…画像表示部(表示部)、22…右表示ユニット、24…左表示ユニット、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、61…HMDカメラ、63…マイク、64…距離センサー、64A…検出方向、65…照度センサー、68…内側カメラ、100…HMD(表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS、117…HMD通信部(通信部)、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、141…HMD制御部、143…オペレーティングシステム、145…画像処理部、149…撮像制御部、151…検出制御部(受付部)、153…通信制御部、155…位置推定部、156…撮像制御部、157…操作検出部(位置指定部)、159…コマンド生成部、170…HMD記憶部、171…設定データ、172…タッチセンサー、173…撮像画像データ、174…移動機識別データ、175…移動エリアデータ、176…エリア内タグデータ、177…基準移動体位置データ、178…位置履歴データ、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、300…移動機ユニット、310…移動機(移動体)、335…移動機カメラ、350…リモートコントローラー、A…移動エリア、CR…基準タグ、CRA…基準位置マーカー、I1…情報表示部、I2…情報表示部、I3…情報表示部、I4…情報表示部、V…表示領域、VR…視野。

Claims (10)

  1. 使用者の頭部に装着される表示部と、
    移動体が送信する撮像画像を受信する通信部と、
    前記通信部により受信した撮像画像に基づき実空間における前記移動体の位置を推定する位置推定部と、
    前記通信部により受信した撮像画像と、前記位置推定部により推定した前記移動体の位置に関する情報とを前記表示部に表示させる表示制御部と、
    を備え
    前記通信部は、前記移動体が送信する位置情報を受信し、
    前記位置推定部は、予め定められた範囲を前記移動体が撮像した基準撮像画像に基づいて、前記基準撮像画像を撮像した際の前記移動体の位置を特定して基準移動体位置を設定し、前記通信部により受信した位置情報に基づき、前記基準移動体位置からの前記移動体の移動量を求めることにより、前記移動体の位置を推定す表示装置。
  2. 前記位置推定部は、前記通信部により撮像画像を受信した場合に、受信した前記撮像画像と前記基準撮像画像とに基づいて前記移動体の位置を推定する
    請求項記載の表示装置。
  3. 前記表示制御部は、前記移動体の位置に関する情報として、前記移動体の撮像方向、撮像倍率、前記移動体の高度、前記基準移動体位置からの移動量の少なくともいずれかを表示する
    請求項1または2記載の表示装置。
  4. 使用者の頭部に装着される表示部と、
    移動体が送信する撮像画像を受信する通信部と、
    前記通信部により受信した撮像画像に基づき実空間における前記移動体の位置を推定する位置推定部と、
    前記通信部により受信した撮像画像と、前記位置推定部により推定した前記移動体の位置に関する情報とを前記表示部に表示させる表示制御部と、
    前記通信部により受信した前記撮像画像における位置を指定する位置指定部と、を備え、
    前記位置推定部は、前記撮像画像を撮像したときの前記移動体の位置に基づいて、前記位置指定部により指定された位置に対応する実空間における位置を推定する、表示装置。
  5. 前記位置推定部は、前記位置指定部により指定された位置に対応して推定した実空間における位置を、マーカー位置として設定し、
    前記表示制御部は、前記マーカー位置を前記表示部に表示させる
    請求項記載の表示装置。
  6. 前記位置推定部は、前記通信部により撮像画像を受信した場合に、受信した前記撮像画像における前記マーカー位置の相対位置を推定し、
    前記表示制御部は、前記位置推定部により推定した相対位置に基づいて、前記通信部により受信した前記撮像画像と、前記マーカー位置を示す表示オブジェクトとを前記表示部に表示させる
    請求項記載の表示装置。
  7. 操作を受け付ける受付部を備え、前記受付部で受け付けた操作に基づき前記移動体を制御する制御情報を前記通信部により送信する
    請求項1からのいずれか1項に記載の表示装置。
  8. 前記表示部の動きを検出する動きセンサーを備え、
    前記受付部は前記動きセンサーの検出値に基づき、前記表示部の動きによる操作を受け付ける
    請求項記載の表示装置。
  9. 使用者の頭部に装着される表示部を備える表示装置の制御方法であって、
    移動体が送信する撮像画像を受信するステップと、
    受信した撮像画像に基づき実空間における前記移動体の位置を推定するステップと、
    前記移動体から受信した撮像画像と、推定した前記移動体の位置に関する情報とを前記表示部に表示するステップと、
    前記移動体が送信する位置情報を受信するステップと、を有し、
    前記移動体の位置を推定するステップは、予め定められた範囲を前記移動体が撮像した基準撮像画像に基づいて、前記基準撮像画像を撮像した際の前記移動体の位置を特定して基準移動体位置を設定し、受信した前記位置情報に基づき、前記基準移動体位置からの前記移動体の移動量を求めることにより、前記移動体の位置を推定する、表示装置の制御方法。
  10. 使用者の頭部に装着される表示部を備える表示装置の制御方法であって、
    移動体が送信する撮像画像を受信するステップと、
    受信した撮像画像に基づき実空間における前記移動体の位置を推定するステップと、
    前記移動体から受信した撮像画像と、推定した前記移動体の位置に関する情報とを前記表示部に表示するステップと、
    受信した前記撮像画像における位置を指定するステップと、を有し、
    前記移動体の位置を推定するステップは、前記撮像画像を撮像したときの前記移動体の位置に基づいて、指定された位置に対応する実空間における位置を推定する、表示装置。
JP2017012756A 2017-01-27 2017-01-27 表示装置、及び、表示装置の制御方法 Active JP6919206B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017012756A JP6919206B2 (ja) 2017-01-27 2017-01-27 表示装置、及び、表示装置の制御方法
US15/863,106 US10599142B2 (en) 2017-01-27 2018-01-05 Display device and control method for display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017012756A JP6919206B2 (ja) 2017-01-27 2017-01-27 表示装置、及び、表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2018121267A JP2018121267A (ja) 2018-08-02
JP6919206B2 true JP6919206B2 (ja) 2021-08-18

Family

ID=62979856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017012756A Active JP6919206B2 (ja) 2017-01-27 2017-01-27 表示装置、及び、表示装置の制御方法

Country Status (2)

Country Link
US (1) US10599142B2 (ja)
JP (1) JP6919206B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP6919222B2 (ja) * 2017-02-27 2021-08-18 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
CN109032185A (zh) * 2018-09-13 2018-12-18 国网辽宁省电力有限公司葫芦岛供电公司 一种输电线路巡视无人机避障控制装置
US20210018911A1 (en) * 2018-11-30 2021-01-21 Rakuten, Inc. Display control system, display control device and display control method
US11492115B2 (en) 2018-11-30 2022-11-08 Rakuten Group, Inc. Unmanned aerial vehicle display control system, display control device and display control method
JP7248040B2 (ja) * 2019-01-11 2023-03-29 日本電気株式会社 監視装置、監視方法、およびプログラム
JP2020155923A (ja) * 2019-03-20 2020-09-24 ソニー株式会社 リモートコントロール装置と撮像制御装置およびその方法
WO2021106115A1 (ja) * 2019-11-27 2021-06-03 株式会社A.L.I. Technologies 飛行状況管理システム
JP7082351B2 (ja) * 2019-12-04 2022-06-08 テックファーム株式会社 飛行制御システム
US11297285B2 (en) * 2020-03-27 2022-04-05 Sean Solon Pierce Dental and medical loupe system for lighting control, streaming, and augmented reality assisted procedures
JP6957695B1 (ja) * 2020-07-30 2021-11-02 株式会社ジンズホールディングス プログラム、情報処理方法、及び情報処理装置
JP7491782B2 (ja) * 2020-09-04 2024-05-28 川崎重工業株式会社 物資空輸システム及び物資空輸方法
JP7289152B2 (ja) * 2021-03-17 2023-06-09 株式会社RedDotDroneJapan 飛行制御システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4179693A (en) * 1977-05-23 1979-12-18 Rockwell Internation Corporation Autonomous, check-pointing, navigational system for an airborne vehicle
JP3467017B2 (ja) * 2000-11-30 2003-11-17 キヤノン株式会社 位置姿勢の決定方法及び装置並びに記憶媒体
US20130176192A1 (en) * 2011-09-30 2013-07-11 Kenneth Varga Extra-sensory perception sharing force capability and unknown terrain identification system
JP6026088B2 (ja) * 2011-08-09 2016-11-16 株式会社トプコン 遠隔操作システム
FR2985329B1 (fr) 2012-01-04 2015-01-30 Parrot Procede de pilotage intuitif d'un drone au moyen d'un appareil de telecommande.
RU2646360C2 (ru) * 2012-11-13 2018-03-02 Сони Корпорейшн Устройство и способ отображения изображения, мобильное устройство, система отображения изображения и компьютерная программа
EP3133819A4 (en) 2014-04-14 2017-02-22 Panasonic Intellectual Property Management Co., Ltd. Image delivery method, image reception method, server, terminal apparatus, and image delivery system
JP6607433B2 (ja) 2014-06-23 2019-11-20 パナソニックIpマネジメント株式会社 映像配信方法及びサーバ
JP2015204512A (ja) * 2014-04-14 2015-11-16 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、カメラ、受信装置、受信方法
US9817396B1 (en) * 2014-06-09 2017-11-14 X Development Llc Supervisory control of an unmanned aerial vehicle
US9563201B1 (en) * 2014-10-31 2017-02-07 State Farm Mutual Automobile Insurance Company Feedback to facilitate control of unmanned aerial vehicles (UAVs)
KR102243659B1 (ko) * 2014-12-29 2021-04-23 엘지전자 주식회사 이동 단말기 및 그 제어 방법
EP3065042B1 (en) * 2015-02-13 2018-11-07 LG Electronics Inc. Mobile terminal and method for controlling the same
KR102246557B1 (ko) * 2015-04-07 2021-04-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9830713B1 (en) * 2015-12-17 2017-11-28 Rockwell Collins, Inc. Surveillance imaging system and method
EP3391339A2 (en) * 2015-12-18 2018-10-24 Iris Automation, Inc. Real-time visual situational awareness system
US11295458B2 (en) * 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors

Also Published As

Publication number Publication date
US10599142B2 (en) 2020-03-24
JP2018121267A (ja) 2018-08-02
US20180217590A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6919206B2 (ja) 表示装置、及び、表示装置の制御方法
US10972668B2 (en) Display device and control method for display device
US11025826B2 (en) Display system, display device, and control method for display device
US11046429B2 (en) Head mounted display and method for maneuvering vehicle
US10643390B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US10310502B2 (en) Head-mounted display device, control method therefor, and computer program
US20190243357A1 (en) Wearable uav control device and uav system
JP2018165066A (ja) 頭部装着型表示装置およびその制御方法
JP7003633B2 (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2019164420A (ja) 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
US11804052B2 (en) Method for setting target flight path of aircraft, target flight path setting system, and program for setting target flight path
JP2018055416A (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、及び、プログラム
JP2019081456A (ja) 頭部装着型表示装置、無人機の操縦方法
JP2017146726A (ja) 移動支援装置、及び、移動支援方法
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
US20230062433A1 (en) Eyewear controlling an uav
US20230063386A1 (en) Eyewear synchronized with uav image capturing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R150 Certificate of patent or registration of utility model

Ref document number: 6919206

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150