JP2018523331A - 無人車両の制御のための動的に調整可能な状況認識インタフェース - Google Patents

無人車両の制御のための動的に調整可能な状況認識インタフェース Download PDF

Info

Publication number
JP2018523331A
JP2018523331A JP2017556201A JP2017556201A JP2018523331A JP 2018523331 A JP2018523331 A JP 2018523331A JP 2017556201 A JP2017556201 A JP 2017556201A JP 2017556201 A JP2017556201 A JP 2017556201A JP 2018523331 A JP2018523331 A JP 2018523331A
Authority
JP
Japan
Prior art keywords
scene
operator
data set
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017556201A
Other languages
English (en)
Other versions
JP6797831B2 (ja
Inventor
エイチ. ウェイ、ジェローム
エイチ. ウェイ、ジェローム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northrop Grumman Systems Corp
Original Assignee
Northrop Grumman Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northrop Grumman Systems Corp filed Critical Northrop Grumman Systems Corp
Publication of JP2018523331A publication Critical patent/JP2018523331A/ja
Application granted granted Critical
Publication of JP6797831B2 publication Critical patent/JP6797831B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

装置は、少なくとも1つのパラメータを監視して、画像データセットから収集されたシーン内の少なくとも1つのオブジェクトに割り当てられるデータ量および解像度を動的に調整する画像収集モジュールを含む。SAI(状況認識インタフェース)は、画像収集モジュールにより画像データセットから割り当てられたデータ量および解像度に基づいてシーンの3Dビデオをオペレータにレンダリングし、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受信する。

Description

本開示は、制御システムに関し、より詳細には、無人車両の制御のための状況認識インタフェースを動的に調整するためのシステムおよび方法に関する。
多くの無人システムは、組織ユニット内の専門職員に関する割り当ておよび計画を立てる司令官として要求されるオペレータに対する特殊な訓練を必要とする。これは、特殊な訓練が無人システムの適切な利用に先立って数ヶ月または数年の訓練を必要とする多くの状況において実用的ではない。通常、無人のシステムは無人の車両とセンサに焦点を当てるように開発されており、ユーザインタフェースはオペレータがデータで満たされるように設計されている。現在の無人システムは、例えば、情報品質および通信ファクタにより直接的なオペレータの制御の有効性には限界がある。オンボードセンサは、非常に複雑でダイナミックな環境での操作をサポートするために、十分な視野、解像度、または更新レートを提供しない場合がある。制限された帯域幅および待ち時間は、車両からオペレータへの情報の品質および適時性を低下させる可能性があり、ユーザ入力の遅延は車両の制御性を低下させる可能性がある。さらに、状況認識情報のオペレータへの提示およびオペレータからの制御入力の手段は、オペレータと車両との間の接続を著しく劣化させる可能性がある。
本開示は、無人車両の制御のための状況認識インタフェースを動的に調整するためのシステムおよび方法に関する。一態様では、装置は、少なくとも1つのパラメータを監視して、画像データセットから収集されたシーン内のある領域に割り当てられるデータ量および解像度を動的に調整する画像収集モジュールを含む。SAI(状況認識インタフェース)は、画像収集モジュールによる画像データセットから割り当てられたデータ量および解像度に基づいてシーンの3Dビデオをオペレータにレンダリングし、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受信する。
別の態様では、システムは、シーンを特徴付けるEO(電気光学)画像データセットを生成するように構成された第1のセンサを含む。シーンの3Dビデオを提供するステムは、シーンを特徴付けるLIDAR(レーザー照明型検出および測距)画像データセットを生成するように構成された第2のセンサを含む。画像収集モジュールは、少なくとも1つのパラメータに基づいて、EO画像データセットおよびLIDAR画像データセットからシーンの領域内の少なくとも1つのオブジェクトに割り当てられるデータ量および解像度を動的に調整して、シーンの3Dビデオを提供するために統合された画像データセットを生成する。状況認識インタフェースは、統合された画像データセットからシーンの3Dビデオをオペレータにレンダリングし、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受信する。
さらに別の態様では、方法は、少なくとも2つのセンサから画像データセットを受け取るステップを含む。方法は、画像データセットを統合して、画像データセットに基づいてUV(無人車両)のオペレータ用の3Dシーンを生成するステップを含む。方法は、オペレータ用のインタフェースでシーンをレンダリングするための利用可能な帯域幅を決定することを含む。方法は、利用可能な帯域幅に基づいてシーン内のある領域の解像度を調整することを含む。
無人車両の制御のための状況認識インタフェースを動的に調整するシステムの一例を示す。 無人車両の制御のための状況認識インタフェースを動的に調整する画像統合モジュールの一例を示す。 画像統合モジュールおよびインタフェースの較正手順の一例を示す。 無人車両の制御のための状況認識インタフェースの一例を示す。 検出された帯域幅パラメータに基づく状況認識ディスプレイへの例示的な出力レンダリングを示す。 状況認識インタフェースおよびコントローラにより無人車両を制御するために利用することができる例示的な入力デバイスを示す。 無人車両の制御のための状況認識インタフェースを動的に調整する方法の一例を示す。
本開示は、無人車両の制御のための状況認識インタフェースを動的に調整するためのシステムおよび方法に関する。これは、無人車両(UV:unmanned vehicle)に搭載されたオンボードセンサから状況認識インタフェース(SAI:situational awareness interface)によりシーンの3次元(3−D)ビデオ(例えば、3Dパノラマビデオ)を生成することを含む。コントローラはSAIとインタラクトして、SAIから受信したオペレータのインタラクションおよびジェスチャがUVを制御できるようにする。システムは、例えば、電気光学(EO:electro−optical)センサのデータセットに対応するシーンのEO画像を生成する全方向性センサ(例えば、レディバグ(LadyBug(登録商標))センサ)を含むことができる。他のセンサデータは、例えば、レーザー照明型検出及び測距(LIDAR:Laser Illuminated Detection and Ranging)センサのデータセットに対応するシーンのLIDAR画像を生成するLIDARセンサを含む。システムはさらに、LIDARセンサデータ(および/または他のセンサデータ)を用いてEOセンサデータなどのセンサデータを収集および処理して画像データセットを生成する画像収集モジュールを含む。画像データセットは、UVのオペレータに対してシーンの3Dビデオをリアルタイムでレンダリングするためのデバイス(例えば、仮想現実ヘッドセットまたは3Dモニタ)への(無線)ネットワークリンクを介して送信することができる。
画像収集モジュールは、画像データセットを生成するためにセンサのデータセットから使用されるデータ(要素)の量を動的に調整するように構成することができ、このことは、結果的にSAIを介してオペレータに提示されるシーンの3Dビデのリッチネスレベル(richness level)(バージョン)を制御する。システムは、少なくとも1つのパラメータに基づいて各センサのデータセットから画像データセットのデータサイズおよび/またはレンダリング品質を決定するために使用されるデータ量および/または解像度を動的に調整する。例えば、パラメータは、ネットワークリンクで利用可能な帯域幅の量、EOセンサおよびLIDARセンサによって捕捉されるデータの量、および/またはシステムの処理能力に基づいて決定することができる。パラメータ(または複数のパラメータ)に基づいてシーンの3Dビデオのリッチネスを動的に調整することにより、オペレータはリアルタイムで、例えば、ネットワークリンクの帯域幅が低下した状態で、想定的に低いリッチネスレベル(例えば、シーンの3Dビデオからバックグラウンドオブジェクトが省略されること、相対的に低い解像度のシーンの3Dビデオなどを伴う)ではあるが、シーンを継続して見ることができる。
システムは、シーンの背景オブジェクトの先験的な知識に基づいて、およびセンサデータを実世界の状態に変換すること(distilling)によって、ネットワークリンクで利用可能な最小限の量の帯域幅を利用するようにさらに構成することができる。例えば、画像統合モジュールは、LIDARデータセット(またはいくつかの適用ではEOデータセットのみまたは両方のセット)を分析し、モデルデータベースからモデルオブジェクトを選択して、シーン内のオブジェクト(例えば、背景オブジェクト)を表すように構成することができる。画像統合のコレクションはまた、選択されたモデルオブジェクトおよび画像データセットの対応するバージョンに基づいて、画像データセットの拡張バージョンを生成することができる。これには、オペレータがUVに対するコマンドおよび制御の決定を支援するためのシーン内の注釈を含めることができる。
図1は、図1は、無人車両(UV)120の制御のために状況認識インタフェース(SAI)110を動的に調整するシステム100の一例を示す。コントローラ140に関連する画像収集モジュール130は、少なくとも1つのパラメータを監視して、画像データセット150から収集されたシーン内のある領域に割り当てられたデータおよび解像度を動的に調整する。本明細書で使用されるように、用語「領域」は、UVの集合的な視野を表す収集されたセンサデータに基づいてオペレータに提示されるレンダリングされた画像を指す。この領域は、視野全体を含むことができ、かつ視野内のオブジェクトを含むこともできる。状況認識インタフェース(SAI)110は、画像収集モジュール130によって画像データセット150から割り当てられたデータ量および解像度に基づいて、シーンの3Dビデオをオペレータ160にレンダリングする。SAIは、シーンと相互作用する無人車両(UV)120を制御するように指示されるオペレータ160からのオペレータコマンドを受信する。例えば、UV120は、1つまたは複数のセンサ170を含み、1つまたは複数のセンサ170は、UV120のオンボードに搭載され、画像データセット150において収集されかつ処理することができるデータを生成して、UVの視点から観察されるシーンを生成して、オペレータ160がSAI110を介してシーンを見ることができる。帯域幅検出器180は、任意のシーンに対してレンダリング可能な利用可能な帯域幅および/または解像度を決定する。帯域幅検出器180は、画像データセット150を収集するため、および/またはシーンデータをSAI110に送信するために現在のネットワーク送信条件に関する情報を受信するソフトウェアおよび/またはハードウェアコンポーネントを含むことができる。
帯域幅検出器180は、複数の変化するネットワーク性能データを監視して、画像収集モジュール130を介してSAI110によって任意のシーンがどのようにレンダリングされるべきかを示すパラメータを生成することができる。これは、良好な帯域幅条件下での高解像度から任意のシーンの解像度を変更して、不十分なネットワーク能力に対応するようにシーンの解像度を低解像度に調整することを含む。場合によっては、シーン全体を高解像度または低解像度に調整することができる。他の例では、オペレータのフィードバックまたは所定のポリシーおよび/または検出された条件に基づいて、シーン内にレンダリングされる特定のオブジェクトをより高い解像度でレンダリングし、他のオブジェクトを低解像度でレンダリングすることができる。また、オンボード処理(例えば、オンボードUV処理および/または画像収集モジュールでの処理)に対して、送信すべきデータ量を決定するために帯域幅のトレードオフを行うことができる。これには、オンボード処理が利用可能な帯域幅に対して任意のポリシーについてどのくらい行われるべきかを規定する決定またはポリシーが含まれ、オブジェクトをさらに認識して特徴付けて、次に圧縮された表現を送信するか、例えば、または別の例では生データを送信する。
帯域幅検出器180によって提供されるパラメータは、例えば、画像データセットをレンダリングするための利用可能な帯域幅の量、ネットワークサービスプロバイダからのサービスパラメータの品質、現在のネットワーク性能を示す秒当たりのデータパラメータ、または3Dビデオシーンのためにレンダリングされるディテール(detail)の量を示すための高解像度パラメータを含む。SAI110は、シーン内の特定のオブジェクトに解像度帯域幅を割り当てるためにオペレータからのフィードバックを画像収集モジュール130に提供することができ、フィードバックは、音声コマンド、視線追跡デバイス入力、またはジョイスティック入力による十字線調整を含むことができ、例えば、フィードバックは、シーン内の他のオブジェクトよりもより高い解像度(可能であれば)でレンダリングされるべき対象のオブジェクトを示す。
特定のセンサの例では、画像収集モジュール130は、例えば、電気光学(EO)センサのデータセットおよびレーザー照明型検出及び測距(LIDAR)画像センサのデータセットを含む少なくとも2つのセンサから生成された少なくとも2つのデータセットから収集されたデータを処理することができる。他のセンサ170は、例えば、音響センサ、赤外線センサ、紫外線センサ、および/または可視光センサを含むことができる。図示されていないが、UV120は、コントローラ140によって提供されるオペレータコマンドに反応するオンボード飛行/地上コントローラを含むことができる。UV120は、ヘリコプターまたは飛行機のような航空機搭載システムであってもよく、また自動車、トラック、または軍事資産などの地上デバイスとすることができる。
システム100は、オペレータ160からUV120に詳細な定義、実質的にゼロレイテンシイマージョン(zero latency immersion)、または意識の伝達(transfer of consciousness)を提供して、操縦された航空機または陸上車両のようにシームレスな制御を可能にすることができる。自律的動作をサポートするために、センサ170の豊富なセットは、オンボードの無人車両120に利用される外部環境に関する質の良いタイムリーな情報を提供することができる。これらのセンサ170からの集約されかつ関連付けられた情報は、自律的な制御システムが利用可能ものとしてオペレータ160に同じ状況認識を提供するように活用することができる。これは高帯域幅の通信を必要とするかもしれないが、意識の高い伝達を可能にし、忠実度の高い制御を可能にする。ターミナルエリアなどの特定の動作環境では、この機能は、困難な状況で安全を維持するために実行可能であり、かつ必要であり得る。さらに、3D情報を提示し、かつ制御入力を可能にする様々な技術を利用して、制御効率および精度をさらに向上させることができる。例えば、システム100は、レディバグ(Ladybug)センサからの5つの電気光学(EO)画像を、ベロダインライダー(Velodyne Lidar)センサからの3D LIDARポイントクラウドと合成して単一の統合データセットにすることができる。集約/収集/統合データセット内に含まれる結果として得られる情報は、環境の色および3D位置を提供するセットにおける各データ要素またはオブジェクトを有する環境(例えば、領域)のシームレスなパノラマビューとすることができる。
図2は、無人車両の制御のための状況認識インタフェース(SAI)210を動的に調整する画像統合モジュール200の一例を示す。前述のように、画像収集モジュールは、帯域幅検出器220からの少なくとも1つのパラメータを監視して、画像データセットから収集されたシーン内のある領域に割り当てられるデータ量および解像度を動的に調整することができる。SAI210は、画像収集モジュール200により画像データセットから割り当てられたデータ量および解像度に基づいて、シーンの3Dビデオをオペレータにレンダリングする。SAI210は、シーン内の特定のオブジェクトに解像度帯域幅を割り当てるためにオペレータからのフィードバックを画像収集モジュール200に提供するリッチネス収集モジュール230を含む。例えば、フィードバックは、音声コマンド、視線追跡デバイス入力、またはジョイスティック入力による十字線調整を含むことができ、フィードバックは、シーン内のどのオブジェクトが、検出された帯域幅条件に基づいてオペレータが可能であればより高い解像度でレンダリングされたものを見たいかを示す。
1つの特定の例では、画像収集モジュール200は、シーンを特徴付ける電気光学(EO)画像データセットを生成するように構成された第1のセンサ240から画像データを収集することができる。240における第2のセンサは、シーンを特徴付けるレーザー照明型検出および測距(LIDAR)画像データセットを生成するように構成することができる。この例では、画像収集モジュール200は、少なくとも1つのパラメータに基づいてEO画像データセット240およびLIDAR画像データセットからシーンのある領域内の少なくとも1つのオブジェクトに割り当てられるデータ量および解像度を動的に調整して、シーンの3DビデオをSAI210に提供するための統合画像データセットを生成する。
画像収集モジュール250は、センサ240から受け取った状況データを3Dビデオシーンのビデオ座標にマッピングするオブジェクト座標マッパ250を含む。これは、X、Y、Z直交座標マッピングおよび/または例えば、任意のターゲットからの半径が任意の角度で指定される放射状マッピング(radial mapping)を含むことができる。マッピングを決定するための較正プロトコルは、図3に関して以下に図示され、かつ説明される。画像収集モジュール200は、シーンにおいて検出されたオブジェクトタイプ(例えば、自動車、トラック、樹木、大型ごみ容器(dumpsters)、人など)を決定するオブジェクト識別子260をも含むことができる。1つの特定の例では、オブジェクト識別子260は、オブジェクトから放出され(emitted)、かつセンサ240によって検出される形状または周波数帯域に関連する確率に基づいてオブジェクトタイプを決定するための分類子(または複数の分類子)を含むことができる。一例の分類子は、サポートベクトルマシン(SVM:support vector machine)であるが、オブジェクトを識別するために他のタイプを用いることができる。
オブジェクトが識別された後、オペレータの状況認識を容易にするために、オブジェクト分類、手順データまたは処理データを3Dシーンに重ね合わせることができる。図示のように、画像収集モジュール200は、SAI210にシーン出力を提供し、SAIを介してオペレータのフィードバックおよび/または制御コマンドを受信するためのシーン出力ジェネレータおよびコマンドプロセッサ270を含むことができる。SAI210は、例えば、オペレータに3Dシーンをレンダリングするための仮想現実ヘッドセットまたは複数のモニタを含むこともできる(例えば、図4参照)。
図3は、画像統合モジュールおよびインタフェースの較正手順300の一例を示す。本明細書に記載された画像収集モジュール用のセンサデータを収集するために、いくつかの較正手順を実行して、収集されたセンサデータが本明細書に記載されたSAIを介してオペレータに提示されるシーンオブジェクトにマッピングされる。310において、内部較正が実行され、ここでは、半径および接線方向の歪みファクタに加えて、決定される主オブジェクトデータポイント、決定される画像スキューファクタに関してレンズ焦点距離(例えば、センサ上にデータを収集するためのレンズ)が考慮される。320において、外部較正が実行され、ここでは、例えば、平面までの距離(例えば、オペレータによって知覚されるような)、平面に対する単位法線、平面上の任意の点、LIDARと個々のカメラヘッドとの間の定量または回転、およびLIDARとカメラヘッドとの間の変換等のパラメータおよび座標を決定することができる。外部較正320の後、330においてデータを補間することができ(例えば、センサからのデータは、X、Y、Zの3D座標系にプロットされる)、340においてフィルタリングを介して関心領域(またはオブジェクト)としてレンダリングされる。ここで、領域は、オペレータによって観察されるようなレンダリングされる視野を指す。
センサの内部較正パラメータ及び外部較正パラメータの情報が与えられると、各センサ間のデータ関連付けは、図3に示すように、センサ歪みに対するオフセット補正を伴う座標フレームの変換と、その後のセンサデータ補間とによって行うことができる。収集されたデータセットは、2つ(または3つ以上)の相補的なデータタイプ(例えば、3D LIDARおよびEO画像)が組み合わされることで、より完全なものとなると予想することができる。得られたリッチな3Dデータは、仮想現実ヘッドセットまたは3Dモニタにより容易に表示され、オペレータに詳細な空間認識を提供することができる。3Dの関係や色を超えていても、他のセンサ(赤外、音響など)との統合により、より高い次元のデータを生成してオペレータに表示することができる。視差のために、遠方点の奥行き知覚は、3D表示によって影響されないが、近接物体については、3D表示は劇的な効果を有することができる。特に、屋内環境または都市環境のパーキングまたはナビゲーションなどの近接移動の場合、この空間認識の表示の改善は、制御の有効性を高めることができる。
図4は、無人車両の制御のための状況認識インタフェース400の一例を示す。410において、仮想現実ヘッドセットを装着して、420で示されたレンダリングされたビデオシーンを見ているが、ヘッドセットまたは他のデバイスを介して無人車両にコマンドフィードバックを提供するオペレータが示されている。これは、音声コマンド、目の動きに基づくコマンド、または図6の例に示されるようなオペレータの手から受信されたコマンドを含むことができる。レンダリングされたシーンを観察するための別の例では、420で示されるように、複数の出力モニタをオペレータが監視することができる(例えば、3Dメガネを介して)。レンダリングされるシーン420は、利用可能な検出された帯域幅に基づいて全体的に低い解像度レベルでレンダリングされる。相対的に高い解像度から相対的に低い解像度への様々な他のレンダリングの例が、図5に関して示され、かつ説明される。
図5は、検出された帯域幅パラメータに基づく状況認識ディスプレイへの出力レンダリングの例を示す。帯域幅、センサデータ、およびセンサ処理の可用性に応じて、直接観測可能な範囲を超えてオペレータにハイパーアウェアネス(hyper awareness)を提示することが可能である。先験的に抽出されるか、または既知の分類、手順データおよび他の処理情報は、状況認識の変換および制御を容易にするために、510で重ね合わされ、520で示される没入型3D環境内でオペレータに提示されることができる。
オンボードの自律的な能力から得られる情報は、オペレータの認識を改善するために使用することができる。帯域幅の制約が問題になる場合、530に示すようなフル解像度または低下解像度での統合されたセンサデータを表示するか、または540に示すようなオンボードセンサ処理によって抽出された3D空間における個別のエンティティのプリミティブ表現を表示することができる。一例における別の可能なアプローチは、通信帯域幅の最小量を必要とするが、センサ情報の実世界の状態および/または環境の先験的な知識への高性能のオンボード処理および変換を行って550において示されるように実世界の状態の高レベルの情報を利用して環境およびオブジェクトの高精度3Dレンダリングを生成することを必要とする。例えば、自律システムによって評価されるような可用性、解決すべき状況の複雑さ、および正しい決定の不確定性に基づいて、表示フォーマットおよびその後の帯域幅利用を調整することができる。
図6は、状況認識インタフェースおよびコントローラを介して無人車両を制御するために利用することができる例示的な入力デバイス600を示す。オペレータの相互作用に関しては、無人車両の直接制御を指示するために様々な技術を用いることができる。610におけるグローブまたはタッチスクリーン620を介した身体および指ジェスチャ制御インタフェースを使用して、オペレータからの入力を読み取ることができる。これには、没入型の3D環境でオペレータを仮想制御インタフェースに接続するために活用される触覚フィードバック技術が含まれる。仮想メニューと制御インタフェースとの複雑で自然な相互作用により、オペレータの制御精度が向上し、作業負荷が軽減される。加えて、伝統的なスティック630または640におけるホイールコントローラを使用して、没入型の世界表現の有無にかかわらず直接入力を提供することができる。
上述の構造的及び機能的特徴を考慮して、例示的な方法は、図7を参照することにより、より良く理解されるであろう。説明を簡単にするために、この方法は連続的に実行されるように図示され説明されているが、方法は図示の順序に限定されず、方法の一部が本明細書に示され説明されたものとは異なる順序および/または同時に起こり得ることが理解されかつ評価されるべきである。このような方法は、例えば、ICやコントローラに構成された各種のコンポーネントによって実行可能である。
図7は、無人車両の制御のための状況認識インタフェースを動的に調整する方法700の一例を示す。710において、方法700は、(例えば、図1のセンサ170により)少なくとも2つのセンサから画像データセットを受信することを含む。720において、方法700は、(例えば、図1の画像収集モジュール130により)画像データセットに基づいて画像データセットを統合して、無人車両(UV)のオペレータのための3Dシーンを生成することを含む。730において、方法700は、(例えば、図1の帯域幅検出器180により)オペレータのためのインタフェースでシーンをレンダリングするために利用可能な帯域幅を決定することを含む。740において、方法700は、(例えば、図1の画像収集モジュール130により)利用可能な帯域幅に基づいてシーン内のある領域(またはオブジェクト)の解像度を調整することを含む。前述のように、検出された帯域幅に基づいて、シーン全体の解像度を増減することができる。別の例では、利用可能な帯域幅および/またはオペレータのフィードバックに基づいてシーン内の任意のオブジェクト(または複数のオブジェクト)の解像度を高め、シーン内の他のオブジェクトの解像度を下げることができる。図示されていないが、方法700は、シーン内のオブジェクトを分類して、例えば、オブジェクトから放出される形状または周波数帯域に関連する確率に基づいてオブジェクトタイプを決定することも含むことができる。
上記の記載は例示的なものである。当然のことながら、構成要素または方法のあらゆる考えられる組み合わせを説明することは不可能であるが、当業者は、多くのさらなる組み合わせおよび置換が可能であることを認識するであろう。したがって、本開示は、添付の特許請求の範囲を含む本出願の範囲内に含まれるそのような変更、修正、および変形をすべて包含することが意図されている。本明細書で使用される場合、「含む」という用語は、含むことを意味するがこれに限定されない、「含んでいる」という用語は含んでいることを意味するがこれに限定されない。「に基づく」という用語は、少なくとも部分的に基づいていることを意味する。さらに、本開示または特許請求の範囲が「ある」、「第1の」、または「別の」要素またはその等価物を引用する場合、そのような要素の1つまたは複数を含むと解釈されるべきであり、そのような要素を2つ以上必要とも排除するものでもない。
上記の記載は例示的なものである。当然のことながら、構成要素または方法のあらゆる考えられる組み合わせを説明することは不可能であるが、当業者は、多くのさらなる組み合わせおよび置換が可能であることを認識するであろう。したがって、本開示は、添付の特許請求の範囲を含む本出願の範囲内に含まれるそのような変更、修正、および変形をすべて包含することが意図されている。本明細書で使用される場合、「含む」という用語は、含むことを意味するがこれに限定されない、「含んでいる」という用語は含んでいることを意味するがこれに限定されない。「に基づく」という用語は、少なくとも部分的に基づいていることを意味する。さらに、本開示または特許請求の範囲が「ある」、「第1の」、または「別の」要素またはその等価物を引用する場合、そのような要素の1つまたは複数を含むと解釈されるべきであり、そのような要素を2つ以上必要とも排除するものでもない。
上記実施形態から把握できる技術思想を付記として以下に記載する。
[付記1]
装置であって、
少なくとも1つのパラメータを監視して画像データセットから収集されたシーンのある領域に割り当てられるデータ量及び解像度を動的に調整する画像収集モジュールと、
前記画像収集モジュールによって前記画像データセットから割り当てられたデータ量および解像度に基づいてシーンの3Dビデオをオペレータにレンダリングし、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受信するSAI(状況認識インタフェース)と
を備え、
前記SAIは、3Dシーンをオペレータにレンダリングするための仮想現実ヘッドセットまたは複数のモニタを含み、
オペレータの状況認識を容易にするために、オブジェクト分類、手順データ、または処理データが3Dシーンに重ね合わされる、装置。
[付記2]
システムであって、
シーンを特徴付けるEO(電気光学)画像データセットを生成するように構成された第1のセンサと、
シーンを特徴付けるLIDAR(レーザー照射型検出及び測距)画像データセットを生成するように構成された第2のセンサと、
少なくとも1つのパラメータに基づいて前記EO画像データセットおよび前記LIDAR画像データセットからシーンのある領域内の少なくとも1つのオブジェクトに割り当てられるデータ量および解像度を動的に調整して、シーンの3Dビデオを提供するための統合された画像データセットを生成するように構成された画像収集モジュールと、
前記統合された画像データからシーンの3Dビデオをレンダリングして、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受け取るための状況認識インタフェースと
を備え、
前記画像収集モジュールが、音響センサ、赤外線センサ、紫外線センサ、および可視光センサを含む他のデータセットからのデータを統合し、
前記画像収集モジュールは、前記センサから受信した状況データを3Dビデオシーンのビデオ座標にマッピングするオブジェクト座標マッパを含む、システム。
[付記3]
前記画像収集モジュールは、シーンの領域内で検出されたオブジェクトタイプを決定するためのオブジェクト識別子を含む、付記2に記載のシステム。
[付記4]
前記オブジェクト識別子は、前記オブジェクトから放出される形状または周波数帯域に関連する確率に基づいてオブジェクトタイプを決定するための分類子を含む、付記3に記載のシステム。
[付記5]
システムであって、
シーンを特徴付けるEO(電気光学)画像データセットを生成するように構成された第1のセンサと、
シーンを特徴付けるLIDAR(レーザー照射型検出及び測距)画像データセットを生成するように構成された第2のセンサと、
少なくとも1つのパラメータに基づいて前記EO画像データセットおよび前記LIDAR画像データセットからシーンのある領域内の少なくとも1つのオブジェクトに割り当てられるデータ量および解像度を動的に調整して、シーンの3Dビデオを提供するための統合された画像データセットを生成するように構成された画像収集モジュールと、
前記統合された画像データからシーンの3Dビデオをレンダリングして、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受け取るための状況認識インタフェースと
SAIからオペレータコマンドを受信し、前記オペレータコマンドに基づいて前記UVに制御コマンドを送信するコントローラと
を備えるシステム。

Claims (20)

  1. 装置であって、
    少なくとも1つのパラメータを監視して画像データセットから収集されたシーンのある領域に割り当てられるデータ量及び解像度を動的に調整する画像収集モジュールと、
    前記画像収集モジュールによって前記画像データセットから割り当てられたデータ量および解像度に基づいてシーンの3Dビデオをオペレータにレンダリングし、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受信するSAI(状況認識インタフェース)と
    を備える装置。
  2. 前記少なくとも1つのパラメータは、前記画像データセットをレンダリングするための利用可能な帯域幅の量のパラメータ、ネットワークサービスプロバイダからのサービスパラメータの品質、現在のネットワーク性能を示す秒当たりのデータパラメータ、または3Dビデオシーンに対してレンダリングされるディテールの量を示す解像度パラメータを示す、請求項1に記載の装置。
  3. 前記SAIは、シーンの領域内の特定のオブジェクトに解像度帯域幅を割り当てるために、前記オペレータからのフィードバックを前記画像収集モジュールに提供し、前記フィードバックは、音声コマンド、視線追跡デバイス入力、またはジョイスティック入力による十字線調整を含む、請求項2に記載の装置。
  4. 前記画像収集モジュールは、EO(電気光学)センサのデータセット、LIDAR(レーザー照明型検出及び測距)画像センサのデータセット、音響センサ、赤外線センサ、紫外線センサ、および可視光センサを含む少なくとも2つのセンサから生成された少なくとも2つのデータセットからのデータを処理する、請求項1に記載の装置。
  5. 前記画像収集モジュールは、前記センサから受信した状況データを3Dビデオシーンのビデオ座標にマッピングするオブジェクト座標マッパを含む、請求項4に記載の装置。
  6. 前記画像収集モジュールは、シーンの領域内で検出されたオブジェクトタイプを決定するためのオブジェクト識別子を含む、請求項5に記載の装置。
  7. 前記オブジェクト識別子は、オブジェクトから放出される形状または周波数帯域に関連する確率に基づいてオブジェクトタイプを決定するための分類子を含む、請求項6に記載の装置。
  8. 前記SAIは、3Dシーンをオペレータにレンダリングするための仮想現実ヘッドセットまたは複数のモニタを含む、請求項1に記載の装置。
  9. 前記SAIからオペレータコマンドを受信し、前記オペレータコマンドに基づいて前記UVに制御コマンドを送信するコントローラをさらに備える、請求項8に記載の装置。
  10. オペレータの状況認識を容易にするために、オブジェクト分類、手順データ、または処理データが3Dシーンに重ね合わされる、請求項8に記載の装置。
  11. システムであって、
    シーンを特徴付けるEO(電気光学)画像データセットを生成するように構成された第1のセンサと、
    シーンを特徴付けるLIDAR(レーザー照射型検出及び測距)画像データセットを生成するように構成された第2のセンサと、
    少なくとも1つのパラメータに基づいて前記EO画像データセットおよび前記LIDAR画像データセットからシーンのある領域内の少なくとも1つのオブジェクトに割り当てられるデータ量および解像度を動的に調整して、シーンの3Dビデオを提供するための統合された画像データセットを生成するように構成された画像収集モジュールと、
    前記統合された画像データからシーンの3Dビデオをレンダリングして、シーンと相互作用するUV(無人車両)に対するオペレータコマンドを受け取るための状況認識インタフェースと
    を備えるシステム。
  12. 前記少なくとも1つのパラメータは、前記画像データセットをレンダリングするための利用可能な帯域幅パラメータの量、ネットワークサービスプロバイダからのサービスパラメータの品質、現在のネットワーク性能を示す秒当たりのデータパラメータ、または3Dビデオシーンに対してレンダリングされるディテールの量を示すための解像度パラメータを示す、請求項11に記載のシステム。
  13. SAIは、シーンの領域内の特定のオブジェクトに解像度帯域幅を割り当てるために、オペレータからのフィードバックを前記画像収集モジュールに提供し、前記フィードバックは、音声コマンド、視線追跡デバイス入力、またはジョイスティック入力による十字線調整を含む、請求項11に記載のシステム。
  14. 前記画像収集モジュールが、音響センサ、赤外線センサ、紫外線センサ、および可視光センサを含む他のデータセットからのデータを統合する、請求項11に記載のシステム。
  15. 前記画像収集モジュールは、前記センサから受信した状況データを3Dビデオシーンのビデオ座標にマッピングするオブジェクト座標マッパを含む、請求項14に記載のシステム。
  16. 前記画像収集モジュールは、シーンの領域内で検出されたオブジェクトタイプを決定するためのオブジェクト識別子を含む、請求項15に記載のシステム。
  17. 前記オブジェクト識別子は、前記オブジェクトから放出される形状または周波数帯域に関連する確率に基づいてオブジェクトタイプを決定するための分類子を含む、請求項16に記載のシステム。
  18. SAIからオペレータコマンドを受信し、前記オペレータコマンドに基づいて前記UVに制御コマンドを送信するコントローラをさらに備える、請求項11に記載のシステム。
  19. 方法であって、
    コントローラにより少なくとも2つのセンサから画像データセットを受信するステップと、
    前記コントローラにより前記画像データセットを統合して、前記画像データセットに基づいてUV(無人車両)のオペレータ用の3Dシーンを生成するステップと、
    前記コントローラによりオペレータのためのインタフェースにおいてシーンをレンダリングするために利用可能な帯域幅を決定するステップと、
    前記コントローラにより前記利用可能な帯域幅に基づいてシーン内のある領域の解像度を調整するステップと
    を含む方法。
  20. シーン内のオブジェクトを分類して、前記オブジェクトから放出される形状または周波数帯域に関連する確率に基づいてオブジェクトタイプを決定するステップをさらに含む、請求項19に記載の方法。
JP2017556201A 2015-04-29 2016-04-20 無人車両の制御のための動的に調整可能な状況認識インタフェース Active JP6797831B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/699,733 2015-04-29
US14/699,733 US10142609B2 (en) 2015-04-29 2015-04-29 Dynamically adjustable situational awareness interface for control of unmanned vehicles
PCT/US2016/028449 WO2016176093A1 (en) 2015-04-29 2016-04-20 Dynamically adjustable situational awareness interface for control of unmanned vehicles

Publications (2)

Publication Number Publication Date
JP2018523331A true JP2018523331A (ja) 2018-08-16
JP6797831B2 JP6797831B2 (ja) 2020-12-09

Family

ID=55953395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556201A Active JP6797831B2 (ja) 2015-04-29 2016-04-20 無人車両の制御のための動的に調整可能な状況認識インタフェース

Country Status (3)

Country Link
US (1) US10142609B2 (ja)
JP (1) JP6797831B2 (ja)
WO (1) WO2016176093A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9824596B2 (en) * 2013-08-30 2017-11-21 Insitu, Inc. Unmanned vehicle searches
WO2018105576A1 (ja) * 2016-12-05 2018-06-14 Kddi株式会社 飛行装置、制御装置、通信制御方法、及び制御方法
KR20180075191A (ko) * 2016-12-26 2018-07-04 삼성전자주식회사 무인 이동체를 제어하기 위한 방법 및 전자 장치
US10692279B2 (en) * 2017-07-31 2020-06-23 Quantum Spatial, Inc. Systems and methods for facilitating making partial selections of multidimensional information while maintaining a multidimensional structure
CN111212785B (zh) * 2017-08-15 2024-04-02 萨罗尼科斯贸易与服务一人有限公司 改进的多旋翼飞行器和接口设备
CN109343061B (zh) * 2018-09-19 2021-04-02 百度在线网络技术(北京)有限公司 传感器标定方法、装置、计算机设备、介质和车辆
KR20200055596A (ko) * 2018-11-13 2020-05-21 삼성전자주식회사 차량에 탑재되는 단말 장치가 영상을 전송하는 방법 및 차량의 주행을 제어하는 원격 제어 장치가 영상을 수신하는 방법
US11305887B2 (en) * 2019-09-13 2022-04-19 The Boeing Company Method and system for detecting and remedying situation awareness failures in operators of remotely operated vehicles
US20230169733A1 (en) * 2021-12-01 2023-06-01 Flipkart Internet Private Limited System and method for rendering objects in an extended reality
CN116012474B (zh) * 2022-12-13 2024-01-30 昆易电子科技(上海)有限公司 仿真测试图像生成、回注方法及系统、工控机、装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112856A (ja) * 1996-10-04 1998-04-28 Agency Of Ind Science & Technol 画像伝送装置および方法
JP2001209426A (ja) * 2000-01-26 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 移動体制御装置
JP2002344925A (ja) * 2001-05-15 2002-11-29 Sony Corp 動画像配信装置、動画像配信方法、動画像配信プログラム、動画像配信プログラム格納媒体、画像指定装置、画像指定方法、画像指定プログラム及び画像指定プログラム格納媒体及び動画像提供システム
JP2003333569A (ja) * 2002-05-13 2003-11-21 Sony Corp ファイルフォーマット、情報処理システム、情報処理装置および方法、記録媒体、並びにプログラム
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2005073218A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理装置
JP2009065534A (ja) * 2007-09-07 2009-03-26 Sharp Corp 再生装置、再生方法、プログラムおよび記録媒体
JP2009273116A (ja) * 2008-04-07 2009-11-19 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
JP2013168739A (ja) * 2012-02-14 2013-08-29 Hitachi Ltd 画像処理システム、及び、画像処理方法
JP2014048859A (ja) * 2012-08-31 2014-03-17 Ihi Aerospace Co Ltd 遠隔操縦システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4855822A (en) * 1988-01-26 1989-08-08 Honeywell, Inc. Human engineered remote driving system
US20030164794A1 (en) * 2002-03-04 2003-09-04 Time Domain Corporation Over the horizon communications network and method
WO2006137829A2 (en) * 2004-08-10 2006-12-28 Sarnoff Corporation Method and system for performing adaptive image acquisition
US7925391B2 (en) 2005-06-02 2011-04-12 The Boeing Company Systems and methods for remote display of an enhanced image
US9182228B2 (en) * 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
US8195343B2 (en) * 2007-05-19 2012-06-05 Ching-Fang Lin 4D GIS virtual reality for controlling, monitoring and prediction of manned/unmanned system
KR100955483B1 (ko) * 2008-08-12 2010-04-30 삼성전자주식회사 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법
US20100106344A1 (en) * 2008-10-27 2010-04-29 Edwards Dean B Unmanned land vehicle having universal interfaces for attachments and autonomous operation capabilities and method of operation thereof
US20100114408A1 (en) 2008-10-31 2010-05-06 Honeywell International Inc. Micro aerial vehicle quality of service manager
CA2758104C (en) * 2009-04-07 2015-04-07 Lg Electronics Inc. Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
EP2672927A4 (en) * 2011-02-10 2014-08-20 Atrial Innovations Inc EARLY APPENDIX OCCLUSION AND TREATMENT OF ARRHYTHMIA
US20120306741A1 (en) * 2011-06-06 2012-12-06 Gupta Kalyan M System and Method for Enhancing Locative Response Abilities of Autonomous and Semi-Autonomous Agents
US9288513B2 (en) 2011-08-29 2016-03-15 Aerovironment, Inc. System and method of high-resolution digital data image transmission
TW201339903A (zh) * 2012-03-26 2013-10-01 Hon Hai Prec Ind Co Ltd 無人飛行載具控制系統及方法
EP2967322A4 (en) * 2013-03-11 2017-02-08 Magic Leap, Inc. System and method for augmented and virtual reality
US9538096B2 (en) * 2014-01-27 2017-01-03 Raytheon Company Imaging system and methods with variable lateral magnification
US20160122038A1 (en) * 2014-02-25 2016-05-05 Singularity University Optically assisted landing of autonomous unmanned aircraft
US9997079B2 (en) * 2014-12-12 2018-06-12 Amazon Technologies, Inc. Commercial and general aircraft avoidance using multi-spectral wave detection
US9880551B2 (en) * 2015-03-06 2018-01-30 Robotic Research, Llc Point-and-click control of unmanned, autonomous vehicle using omni-directional visors

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10112856A (ja) * 1996-10-04 1998-04-28 Agency Of Ind Science & Technol 画像伝送装置および方法
JP2001209426A (ja) * 2000-01-26 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 移動体制御装置
JP2002344925A (ja) * 2001-05-15 2002-11-29 Sony Corp 動画像配信装置、動画像配信方法、動画像配信プログラム、動画像配信プログラム格納媒体、画像指定装置、画像指定方法、画像指定プログラム及び画像指定プログラム格納媒体及び動画像提供システム
JP2003333569A (ja) * 2002-05-13 2003-11-21 Sony Corp ファイルフォーマット、情報処理システム、情報処理装置および方法、記録媒体、並びにプログラム
JP2004056335A (ja) * 2002-07-18 2004-02-19 Sony Corp 情報処理装置および方法、表示装置および方法、並びにプログラム
JP2005073218A (ja) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd 画像処理装置
JP2009065534A (ja) * 2007-09-07 2009-03-26 Sharp Corp 再生装置、再生方法、プログラムおよび記録媒体
JP2009273116A (ja) * 2008-04-07 2009-11-19 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
JP2013168739A (ja) * 2012-02-14 2013-08-29 Hitachi Ltd 画像処理システム、及び、画像処理方法
JP2014048859A (ja) * 2012-08-31 2014-03-17 Ihi Aerospace Co Ltd 遠隔操縦システム

Also Published As

Publication number Publication date
WO2016176093A1 (en) 2016-11-03
US20170041587A1 (en) 2017-02-09
JP6797831B2 (ja) 2020-12-09
US10142609B2 (en) 2018-11-27

Similar Documents

Publication Publication Date Title
JP6797831B2 (ja) 無人車両の制御のための動的に調整可能な状況認識インタフェース
US11024083B2 (en) Server, user terminal device, and control method therefor
US10514541B2 (en) Display update time reduction for a near-eye display
WO2018032457A1 (en) Systems and methods for augmented stereoscopic display
EP3889908A2 (en) Image projection method, apparatus, device and storage medium
CN106327584B (zh) 一种用于虚拟现实设备的图像处理方法及装置
US20120293407A1 (en) Head mounted display device and image display control method therefor
US11790758B2 (en) Emergency response system using virtual working area
CN113074733A (zh) 飞行轨迹的生成方法、控制装置及无人飞行器
JP2015142383A (ja) 両眼光学拡張現実システムの範囲較正
US20160291592A1 (en) System And Method For Video Processing And Presentation
EP3128413A1 (en) Sharing mediated reality content
US11943602B1 (en) Systems and methods for spatial update latency compensation for head-tracked audio
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2019130708A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN113483774A (zh) 导航方法、装置、电子设备及可读存储介质
WO2019061466A1 (zh) 一种飞行控制方法、遥控装置、遥控系统
CN107636592B (zh) 航道规划方法、控制端、飞行器及航道规划系统
EP4086102B1 (en) Navigation method and apparatus, electronic device, readable storage medium and computer program product
JP2019159503A (ja) 情報処理装置及びプログラム
EP3340013A1 (en) A gazed object identification module, a system for implementing gaze translucency, and a related method
CN116124119A (zh) 一种定位方法、定位设备及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200207

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20200225

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200331

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200401

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200522

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200526

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200714

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200915

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201006

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201104

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201118

R150 Certificate of patent or registration of utility model

Ref document number: 6797831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250