JP7367922B2 - 操縦支援システム - Google Patents

操縦支援システム Download PDF

Info

Publication number
JP7367922B2
JP7367922B2 JP2019151023A JP2019151023A JP7367922B2 JP 7367922 B2 JP7367922 B2 JP 7367922B2 JP 2019151023 A JP2019151023 A JP 2019151023A JP 2019151023 A JP2019151023 A JP 2019151023A JP 7367922 B2 JP7367922 B2 JP 7367922B2
Authority
JP
Japan
Prior art keywords
image
user
unit
visual field
pilot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019151023A
Other languages
English (en)
Other versions
JP2021030806A (ja
Inventor
行信 松原
康次 小村
修 ▲高▼山
宏果 津田
浩平 舩引
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Japan Aerospace Exploration Agency JAXA
Original Assignee
Shimadzu Corp
Japan Aerospace Exploration Agency JAXA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp, Japan Aerospace Exploration Agency JAXA filed Critical Shimadzu Corp
Priority to JP2019151023A priority Critical patent/JP7367922B2/ja
Publication of JP2021030806A publication Critical patent/JP2021030806A/ja
Application granted granted Critical
Publication of JP7367922B2 publication Critical patent/JP7367922B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Description

本発明は、航空機、車両、船舶を含む移動体の操縦を支援する操縦支援システムに関する。
ヘリコプタや飛行機などの航空機では、夜間や天候等により視程が低下して操縦者が肉眼で機外の状況を視認するのが困難である場合に、操縦を支援するためのシステムを用いた飛行が行われる。
こうした操縦支援システムとしては、赤外線カメラ等によって機外を撮影した画像を、ヘッドアップディスプレイ(Head Up Display:HUD)やヘッド(又はヘルメット)マウントディスプレイ(Head Mount Display, Helmet Mount Display:HMD)等の表示装置に表示するものがある(特許文献1など参照)。また、こうした撮影画像に代えて、GPSや慣性航法システム(INS : Inertial Navigation System)よる自機位置情報と予め記憶してある地形データとを元に3次元地形画像を生成し、これを表示装置に表示することも行われている。操縦者が肉眼で外界の状況を視認することが難しい場合であっても、上述したように表示装置に表示される様々な情報を利用することで、操縦者は外界の状況を把握して操縦を行うことができる。
特開2012-224210号公報
操縦者が外界の状況を肉眼で確認することが難しい場合、外界の状況把握には赤外線カメラ等による画像が用いられる。しかしながら、外界の状況によっては、赤外線カメラによる画像であっても、周囲の建築物や山などの障害物が不鮮明で認識しにくい、或いは、それらの一部分しか見えないといった場合がある。
例えば、赤外線カメラによる画像を見ながら操縦している最中に天候が急変し、視界がより一層不良である状況になると、一時的に外界の状況を把握できなくなるため、飛行の安全性が低下する。そのため、操縦者はできるだけ早く、そのエリアを離脱・回避する行動をとる必要がある。
なお、航空機に限らず、自動車等の車両を操縦(運転)する場合や、船舶を操縦する場合においても、同様の問題が生じることがある。
本発明は上記課題を解決するために成されたものであり、その主たる目的は、夜間や低視程の状況下における操縦者による外界の状況認識能力を向上させ、それによって飛行や運行、走行等の安全性を向上させることができる操縦支援システムを提供することである。
上記課題を解決するために成された本発明の一態様に係る操縦支援システムは、
移動体中の利用者が視認している視野範囲を特定する視野範囲特定部と、
前記移動体から見える外界の実画像を取得する実画像取得部と、
前記移動体の現在位置付近における3次元地図情報に基づいて、前記移動体から見えると想定される外界の仮想画像を作成する3次元地図画像作成部と、
前記実画像と前記仮想画像とにおいて少なくとも前記視野範囲に対応する部分をマッチングさせた状態で、そのマッチング後の画像を前記利用者の視界に重畳して表示する表示処理部と、
を備えるものである。
上記態様に係る操縦支援システムにおいて「移動体」は、航空機、船舶、車輌などを含む。また、「移動体中の利用者」は、移動体を操縦する操縦者のほか、操縦を補助する又は補佐する副操縦士等の操縦補助者、操縦への直接的な関与の有無に拘わらず移動体から外界の状況等を監視したり探索を行ったりする業務や作業を実施する搭乗者も含む。
本発明の一態様に係る操縦支援システムにおいて実画像取得部は、移動体から見える或る程度の広い範囲の外界の実画像を取得する。但し、天候などの移動体外部の状況によっては、実画像の一部又は全部が不鮮明になる可能性がある。一方、3次元地図画像作成部は、その時点での移動体の現在位置付近における3次元地図情報に基づいて、移動体から見えると想定される外界の仮想画像を作成する。また、視野範囲特定部は、移動体中の利用者例えば操縦者が、視認している視野範囲を特定し、表示処理部は、実画像と仮想画像とにおいて少なくとも特定された視野範囲に対応する部分をマッチングさせた状態で、そのマッチング後の画像をその利用者の視界に重畳して表示する。
したがって 本発明の一態様に係る操縦支援システムによれば、夜間や悪天候等による低視程の状況下であって、実際の外界の撮影画像の全体又はその一部が不鮮明である状況であっても、3次元地図情報を利用して利用者が見ている視野範囲における撮影画像の全部又は一部を補って、視認性の高い画像を表示画面上に表示することができる。それにより、利用者による外界の状況認識能力を向上させることができ、利用者による移動体の飛行や走行、運行の安全性を向上させることができる。
本発明の一実施形態である操縦支援システムの概略ブロック構成図。 本実施形態である操縦支援システムにおける制御・処理部の詳細なブロック構成図。 本実施形態の操縦支援システムにおいて主操縦士用の表示画像を作成する際の処理を説明するための模式図。 本実施形態の操縦支援システムにおいて副操縦士用の表示画像を作成する際の処理を説明するための模式図。 本実施形態の操縦支援システムにおける、3次元地図情報による仮想画像と実画像とのマッチング処理を説明するための模式図。
本発明に係る操縦支援システムの一実施形態について、添付図面を参照して説明する。この実施形態の操縦支援システムは、ヘリコプタに搭乗している主操縦士及び副操縦士が該ヘリコプタを操縦する際の操縦を支援するものである。即ち、ここでは「移動体」はヘリコプタ、「移動体中の利用者」は主操縦士及び副操縦士である。
[本実施形態の操縦支援システムの全体構成]
図1は、本実施形態の操縦支援システムの概略ブロック構成図である。
この操縦支援システムは、制御・処理部1と、二つの頭部装着型表示装置2A、2Bと、センサポッド3と、飛行情報収集部4と、GNSS/INS装置5と、を含む。また、操縦支援システムは、本システムには含まれない外部のデジタル地図データベース6に接続可能であるか、或いは、該デジタル地図データベース6に収録されている地図データの一部が格納された記憶装置を含む。前者の場合、本システムは、外部のデジタル地図データベース6にアクセスして必要なデータのみを受信する送受信部を含む。
センサポッド3は、操縦対象であるヘリコプタ100の機外(通常は機体下方)に設けられている。また、頭部装着型表示装置2Aは主操縦士の頭部に、頭部装着型表示装置2Bは副操縦士の頭部に、それぞれ装着されている。この例では、頭部装着型表示装置の数は2であるが、その数はこれに限らず、1又は3以上であってもよい。
[センサポットの詳細構成]
センサポッド3は、マルチセンサ部30とセンサポッド制御部35とを含む。マルチセンサ部30は、赤外線カメラ31、可視カメラ32、測距センサ33、及び照明部34を含む。
赤外線カメラ31は外界の赤外画像を取得するものであり、近赤外、中赤外、又は遠赤外のいずれか、又はそれら複数の異なる波長帯を検出可能なセンサを含む構成とすることができる。可視カメラ32は、低照度下においても高い感度で以て画像を取得可能なビデオカメラである。測距センサ33はLiDAR(Light Detection And Ranging)又はミリ波レーダ等による測距装置であり、周囲の地形、障害物等が位置する方向及び距離を求め、それに基づいて距離画像を作成するものである。これらはいずれも、ヘリコプタ100から見た外界の画像を撮影するものであり、それぞれが本発明の上記態様における「実画像取得部」の一例である。
照明部34は、照明が必要とされる低視程時等において、可視光又は赤外光を機外の対象物に照射し、赤外線カメラ31及び可視カメラ32による撮像条件を向上させ、より視認性の高い画像の取得を可能とするものである。なお、照明部34は、レーザレンジファインダ用途等を兼ねるものでもよい。
センサポッド制御部35は、ヘリコプタ100の機体の振動の影響を低減するスタビライザ機能を有しており、制御・処理部1からの制御信号に応じて、センサポッド3のアジマス(AZ)方向及びエレベーション(EL)方向の姿勢を調整するものである。本実施形態の操縦支援システムでは、制御・処理部1からの制御信号を受けたセンサポッド制御部35の制御の下でセンサポッド3は、主操縦士が見ていると推測される方向に指向するように動作する頭部方向追従モード、指定された特定の方向を指向するように動作する特定方向固定モード、及び、所定の範囲に亘りその指向する方向が繰り返し変化するように動作するスキャンモード、のいずれかのモードで使用される。但し、後述する特徴的な処理動作の際には、センサポッド3のモードは頭部方向追従モードとなる。
なお、マルチセンサ部30に含まれるカメラ及びセンサは上記のものに限らず、一部のカメラ及びセンサを削除したり別の種類のカメラ及びセンサを付加したりしてもよい。また、同じ種類のカメラ及びセンサを複数搭載することにより、センサポッド3の指向方向が一定であっても広い範囲を一度に撮影することが可能である構成としてもよい。
[頭部装着型表示装置の詳細構成]
頭部装着型表示装置2A、2Bは例えば、主操縦士及び副操縦士が頭部に装着するヘルメットと一体化された装置であり、コネクタ9を介して制御・処理部1と電気的に接続されている。頭部装着型表示装置2A、2Bは、頭部角度/位置/角速度及び視線方向検出部20と、高感度センサ部21と、表示部22と、画像選択/合成部23と、バッテリ24と、を含む。
頭部装着型表示装置2Aの頭部角度/位置/角速度及び視線方向検出部20は例えば、周囲を撮影する複数のカメラと、6軸ジャイロセンサと、その複数のカメラ及びジャイロセンサで得られた信号を処理する信号処理部と、を含む。複数のカメラはそれぞれ主操縦士の周囲の風景又は機体(操縦室)内の所定のマーカー等を撮影し、信号処理部は撮影された画像に基づいて、主操縦士の頭部の位置及び傾き角度を計算する。
頭部の位置とは例えば、所定の機体内3次元基準座標XYZ上の位置情報である。また、頭部の傾き角度とは例えば、機体内3次元基準座標XYZ各軸と頭部の中心軸線との成す角度である。一方、6軸ジャイロセンサは、主操縦士の頭部の移動に伴う該頭部の角速度を検出する。そして、頭部角度/位置/角速度及び視線方向検出部20は、上述したようにして得られた主操縦士の頭部の位置、角度、及び角速度の情報を制御・処理部1に送信する。これら情報は、主操縦士がそのときに見ている視野範囲を特定するために使用される。したがって、本実施形態において、頭部角度/位置/角速度及び視線方向検出部20は、本発明の上記態様における「視野範囲特定部」を構成する要素である。
頭部装着型表示装置2Aの高感度センサ部21は、主操縦士が顔を向けている方向を中心として所定の範囲の実際の画像を低照度状態で取得可能なカメラである。したがって、高感度センサ部21も本発明の上記態様における「実画像取得部」の一例である。画像選択/合成部23は、制御・処理部1から送られて来た表示画像と高感度センサ部21により得られる高感度センサ画像との一方を選択したり又は合成したりして表示部22に入力する。
頭部装着型表示装置2Aの表示部22は、例えば透過型液晶表示素子などの表示素子、主操縦士の眼前に配置されるバイザ(又はコンバイナ)、表示素子から前記バイザまでの間に配置された照射光学系と、を含む。画像選択/合成部23から入力された画像は例えば透過型液晶表示素子に表示される。そして、表示素子から発した画像光は照射光学系を経て、バイザで反射され、平行な光として主操縦士の眼に到達する。バイザは主操縦士が顔を向けている方向の外界から到来する外光を透過させる。そのため、主操縦士の眼前には、概ね平行光であるその外光による背景画像とバイザでの反射光による表示画像とが重畳されて表示される。後述の説明から明らかであるが、本実施形態のシステムでは、上記画像選択/合成部23及び表示部22が制御・処理部1の一部とともに、本発明の上記態様における「表示処理部」を構成する要素である。
副操縦士が使用する頭部装着型表示装置2Bも上述した頭部装着型表示装置2Aと同じ構成要素を有する。これら頭部装着型表示装置2A、2Bにはコネクタ9を介して制御・処理部1から駆動電力が供給されているが、例えば緊急事態の発生等で操縦士が機体から離れる際に、コネクタ9が離脱して頭部装着型表示装置2A、2Bが制御・処理部1と分離された状態になった場合でも、内蔵されたバッテリ24から供給される電力を利用して、高感度センサ部21による高感度センサ画像を表示部22に表示することが可能である。
[制御・処理部の詳細構成]
図2は、本実施形態のシステムにおける制御・処理部1の詳細なブロック構成図である。
図2に示すように、制御・処理部1は、シンボル画像作成部10、3D(3次元)地図画像作成部11、画像マッチング部12、視野範囲特定処理部13、特徴部位抽出部14、視認性指標算出部15、視差補正部16、スケーリング部17、及び、表示画像作成処理部18、を含む。表示画像作成処理部18は、画像選択部180、画像補完部181、視野範囲画像抽出部182、画像重畳部183などの機能ブロックを含む。
制御・処理部1には、飛行情報収集部4から飛行情報データが入力されるとともに、GNSS/INS装置5からGNSS/INSデータが入力される。飛行情報データは、操縦中である航空機(この例ではヘリコプタ100)の飛行諸元を示すデータであり、例えば飛行速度、飛行高度、機体の姿勢(ピッチ角、バンク角)、方位、エンジントルク、燃料残量などを含むデータである。これらデータは航空機に一般に搭載されている様々な機器に基づいて得られる情報であり、航空機の種類等に応じてその情報の内容は異なる。また、GNSS/INSデータは、高い精度で以て飛行位置をリアルタイムで示すデータである。
また、制御・処理部1には、頭部装着型表示装置2Aから頭部角度/位置/角速度及び視線方向データA及び高感度センサ画像データAが入力され、頭部装着型表示装置2Bから頭部角度/位置/角速度及び視線方向データB及び高感度センサ画像データBが入力される。さらにまた、制御・処理部1には、センサポッド3のマルチセンサ部30から、赤外画像データ、可視画像データ、距離画像データが入力される。さらに、制御・処理部1には、デジタル地図データベース6又は事前に地図データが記録された記録装置からデジタル地図データが入力される。
制御・処理部1は、上述したように入力される様々なデータを用いたデータ処理を実行することで、頭部装着型表示装置2A、2Bにおいて表示に利用される表示画像A、表示画像Bをそれぞれ作成して頭部装着型表示装置2A、2Bに出力する。
[制御・処理部における処理動作]
飛行時における制御・処理部1でのデータ処理動作を説明する。
シンボル画像作成部10は、上記飛行情報データ、主操縦士の頭部角度/位置/角速度及び視線方向データA、及び副操縦士の頭部角度/位置/角速度及び視線方向データBを用い、主操縦士用のシンボル画像Aと、副操縦士用のシンボル画像Bとを作成する。シンボル画像は、例えば飛行速度などの数値や文字などのテキスト情報、図形、記号などが中心の画像であり、他の画像と重畳された状態でも高い視認性が確保されるように、標準的に例えば緑色で表示され、特に操縦者の注目を引く必要がある場合(緊急を要する場合等)には赤色などで表示される。
飛行速度や飛行高度などの飛行諸元に関連する情報は、シンボル画像Aとシンボル画像Bとで共通であるが、必ずしも得られる情報の全てを表示するとは限らず、表示する情報を主操縦士と副操縦士とで変えることも可能である。また、飛行諸元に関する情報ではなく、そのときに操縦士が見ている方角などの、主操縦士と副操縦士とで異なる項目の情報もシンボル画像に表示させるようにすることができる。そのため、主操縦士用のシンボル画像Aと副操縦士用のシンボル画像Bとは、通常、異なるものである。
視差補正部16は、マルチセンサ部30で得られた赤外画像、可視画像、及び距離画像を構成するデータを受け、それら各画像において、センサポッド3における赤外線カメラ31、可視カメラ32、及び測距センサ33の取付位置と主操縦士及び副操縦士の視点位置(操縦室の位置)との差により生じる視差(画角)を補正する。また、スケーリング部17は、上記各画像について、レンズやセンサのサイズ等による画角の相違を補正するためにスケーリング(拡大・縮小)処理を行う。視差補正及びスケーリング処理後の赤外画像及び可視画像は、表示画像作成処理部18とともに特徴部位抽出部14及び視認性指標算出部15に入力される。また、視差補正及びスケーリング処理後の距離画像も、表示画像作成処理部18に入力される。
なお、高感度センサ画像データA、Bは主操縦士及び副操縦士がそれぞれ装着している頭部装着型表示装置2A、2Bから得られる画像データであるため、センサポッド3で得られる画像データとは異なり画角の修正の必要がない。そのため、高感度センサ画像データA、Bは視差補正及びスケーリング処理を経ることなく、特徴部位抽出部14や表示画像作成処理部18に導入される。視差補正やスケーリング処理を実施した場合でも視差や画角を完全に補正することは難しい場合があるし、そうした処理のために画質が劣化する場合もある。こうしたことから、一般的には、これら処理を経ることがない、高感度センサ画像データA、Bを利用したほうが良好な実画像が得られ易い。
特徴部位抽出部14は、主操縦士、副操縦士それぞれの頭部装着型表示装置2A、2Bから送られて来る高感度センサ画像データA、高感度センサ画像データB、並びに、視差補正及びスケーリング処理後の赤外画像データ、可視画像データ、距離画像データから、物体の輪郭や特徴部位を抽出する。特徴部位とは例えば、特徴的な地形、標識物、地表と河川、湖沼、海岸等との境界、或いは植生差異等による特徴的な境界、模様等が現れる場所などである。一方、視認性指標算出部15は、上記画像毎に、例えば画像全体のコントラストなどの予め決められた、画像の視認性の程度を判断するための指標となる視認性指標値を計算する。この視認性指標値は画像単位に限らず、一枚の画像を複数の領域に区分した小領域毎に視認性指標値を求めるとともに、その複数の各小領域の視認性指標値を用いて一枚の画像全体の視認性指標値を算出してもよい。
3D地図画像作成部11は、GNSS/INSデータ等によりその時点で航空機が飛行している位置や進行方向を把握し、その位置付近で進行方向の所定の範囲に亘るデジタル地図データをデジタル地図データベース6から収集して3D地図画像を作成する。上述した高感度センサ画像データA、Bや赤外画像データ、可視画像データに基づく画像は、ヘリコプタ100から実際に見える外界の実画像である。これに対し、3D地図画像は、ヘリコプタ100から見えると推定される外界の仮想的な画像である。
GNSS/INSデータの精度の限界や時間的な遅延等によって、或いは、そのヘリコプタ100の機動性や飛行速度等のために、3D地図画像と外界の実画像との間では位置等のずれが生じる。そこで、画像マッチング部12は、二つの高感度センサ画像、赤外画像、又は可視画像のいずれか一つ又は複数から得られた特徴部位の情報を用いて、その時点での外界の実画像と3D地図画像とをマッチングさせる。ここでいうマッチングとは、外界の或る対象物が画像上で対応する位置に来るように3D地図画像全体を移動させたり、回転させたり、或いは、その全体又は一部を拡大若しくは縮小させたりする処理である。
一方、視野範囲特定処理部13は、頭部角度/位置/角速度及び視線方向データA、頭部角度/位置/角速度及び視線方向データBと、当該表示装置の表示部における表示可能範囲から、主操縦士及び副操縦士からそれぞれ見えている視野範囲を決定する。即ち、頭部角度/位置/角速度及び視線方向データAから、主操縦士が顔を向けている方向や角度さらにはその時間的な変化の度合いが求まるから、それにより決定される視線の中心線を中心とした表示装置の表示可能範囲をそのときに主操縦士が見ている視野範囲と決定する。
また、実際には、人間は顔を向けている方向の正面を見ているとは限らず、顔は正面を向きながら瞳を動かして視線を斜め方向に向けることができる。こうした視線の方向を正確に捉えることが可能な装置としてアイトラッカが知られている。頭部角度/位置/角速度及び視線方向検出部20に代えて、又は頭部角度/位置/角速度及び視線方向検出部20に加えてアイトラッカを用いることで、主操縦士が視線を向けている方向をより的確に検出し、主操縦士が見ている視野範囲をより精度良く決定することができる。副操縦士から見えている視野範囲も同様である。なお、アイトラッカはヘルメット又はバイザに組み込むことができる。
表示画像作成処理部18には、外界の実画像として、視差補正及びスケーリングされた赤外画像、可視画像、及び距離画像と、各操縦士の頭部装着型表示装置2A、2Bで得られた高感度センサ画像A、Bが入力される。また、実画像ではなく地図データに基づく仮想的な画像として、実画像とマッチングされた3D地図画像が入力される。さらに、上記シンボル画像A、Bも入力される。なお、距離画像は一般に、当該ヘリコプタ100からの距離に応じて機外の各物体(障害物等)を異なる色で以て表示したものであり、その方向は画像上の表示位置に対応している。測距センサ33による測距データが点群データ、つまりは方向及び距離を示すデータである場合には、このデータを画像形態に変換して、つまりは画像化して使用すればよい。
また表示画像作成処理部18には、主操縦士及び副操縦士それぞれの視野範囲を示す情報が入力されている。視野範囲画像抽出部182は、実画像である赤外画像、可視画像、距離画像、及び高感度センサ画像Aについて、主操縦士の視野範囲に含まれる画像のみを抽出する。また同様に、視野範囲画像抽出部182は、実画像である赤外画像、可視画像、距離画像、及び高感度センサ画像Bについて、副操縦士の視野範囲に含まれる画像のみを抽出する。また、視野範囲画像抽出部182は、実画像とマッチングされている3D地図画像についても、主操縦士の視野範囲に含まれる画像と副操縦士の視野範囲に含まれる画像とを抽出する。
また表示画像作成処理部18には、各実画像それぞれの視認性指標値がほぼリアルタイムで入力されている。例えば可視画像全体の視認性指標値が低い場合には、そのときの可視画像はその全体が不明瞭であることを示している。また、可視画像の中の一部の小領域に対する視認性指標値が低い場合には、その小領域のみの部分的な画像が不鮮明であることを示している。そこで、表示画像作成処理部18において画像選択部180は、赤外画像、可視画像、距離画像、二つの高感度センサ画像Aの全体の視認性指標値を比較し、その中で視認性指標値が最も高い画像の視認性指標値の値が所定値以上である場合には、該画像を選択する。
また、可視画像の一部の領域の視認性指標値が低く、赤外画像、距離画像、又は高感度センサ画像A、Bにおいて対応する領域の視認性指標値が高い場合、画像補完部181は可視画像のうちの視認性指標値が低い領域の画像を赤外画像、距離画像、又は高感度センサ画像A、Bにおける画像で置き換える補完処理を行う。さらにまた、可視画像、赤外画像、距離画像、及び高感度センサ画像Aの全てについて視認性指標値が所定値未満である場合、画像選択部180は、これら実画像に代えて3D地図画像Aを選択する。また、可視画像、赤外画像、距離画像、及び高感度センサ画像Aの全てについて一部の領域のみの視認性指標値が低い場合には、その領域についてのみ実画像に代えて3D地図画像Aで補完してもよい。こうして主操縦士の視野範囲の画像として、いずれかの実画像、複数の異なる種類の実画像を繋ぎ合わせた画像、実画像と仮想的な画像とを繋ぎ合わせた画像、又は仮想的な画像(3D地図画像)が得られる。また副操縦士の視野範囲の画像についても同様である。
画像重畳部183は、上述したように選択された又は補完されたあとの、主操縦士、副操縦士それぞれに対する画像に、シンボル画像A、Bを重畳して表示画像A、Bを作成する。なお、こうした画像を重畳するか否かは操縦者が選択できるようにしておくとよい。
また、上述したように距離画像はヘリコプタ100からの距離に応じて機外の各物体(障害物等)を異なる色で以て表示したものであるため、距離画像上の色を見ると各物体までの距離を把握し易い。そこで、距離画像は実画像として扱わず、画像重畳部183は、シンボル画像A、Bとともに距離画像を、上述したように選択された又は補完されたあとの画像に重畳することにより表示画像A、Bを生成してもよい。
制御・処理部1では上述したようなデータ処理により、主操縦士用の頭部装着型表示装置2Aの表示部22に表示される表示画像Aと、副操縦士用の頭部装着型表示装置2Bの表示部22に表示される表示画像Bとが作成される。こうして作成された表示画像が頭部装着型表示装置2A、2Bにそれぞれ送られて表示部22により表示される。したがって、仮に外界が可視画像、赤外画像で殆ど見えない状況であっても、主操縦士及び副操縦士の眼前には、3D地図画像が外界から到来する外光による画像に重畳して表示される。
[表示画像作成処理の具体例]
図3は、主操縦士用の表示画像の作成処理の信号の流れの一例を示す図である。これは、主操縦士の頭部の方向にセンサポッド3が追従している場合である。
上述したように、3D地図画像作成部11はGNSS/INSデータによる航空機の位置情報等に基づいて3D地図画像を作成するが、GNSS/INSデータの精度や遅延、機体の機動、速度等によって、生成された3D地図画像と実外界間とでずれが生じる可能性がある。そこで、画像マッチング部12は、高感度センサ画像A、赤外画像、可視画像、又は距離画像のいずれか一つ又は複数から得られた特徴情報を用い、その時点での外界の実画像とマッチングしている3D地図画像を生成する。外界の実画像と3D地図画像とのマッチングの具体例については後述する。
表示画像作成処理部18は上述したように各画像から主操縦士の視野範囲に対応する領域の画像を抽出する。そして視認性指標値を参照し、可視画像、赤外画像、距離画像、高感度センサ画像Aの中で視認性指標値が最も高い画像を選択するとともに、その画像の中の不明瞭部分を3D地図画像Aで補完する。或いは、画像全体の視認性が低い場合には、該画像に代えて3D地図画像Aを選択する。その補完後の又は選択後の画像に、シンボル画像Aを重畳して表示画像Aとして出力する。
図4は、副操縦士用の表示画像の生成処理の信号の流れの一例を示す図である。
この場合、図3に示したように実画像に対してマッチングされた3D地図画像が得られているので、表示画像作成処理部18は、可視画像、赤外画像、距離画像、高感度センサ画像Bの中で視認性指標値が最も高い画像を選択するとともに、その画像の中の不明瞭部分を副操縦士の視野範囲に対応する3D地図画像Bで補完する。或いは、画像全体の視認性が低い場合には、該画像に代えて3D地図画像Bを選択する。その補完後の又は選択後の画像にシンボル画像Bを重畳して表示画像Bとして出力する。
[実外界と3D地図画像とのマッチングの具体例]
図5は、3D地図画像と実外界とのマッチング方法の一具体例を示す概念図である。
いま、図5(a)に示すように、センサポッド3のマルチセンサ部30に含まれるカメラで所定の範囲の実画像が取得されているものとする。この画像から抽出した物体の輪郭や特徴部位等を利用して、3D地図画像と実外界とのマッチングを行う。ここでは、実画像に現れている山の稜線の形状(図中に太線で示している部分)などの複数の特徴部位を抽出することができる。
3D地図画像作成部11はデジタル地図データに基づいて、広い範囲の周囲外界(以下、3D地図画像空間という)の地図画像を生成する。画像マッチング部12は、3D地図画像空間全体の中で、実画像から得られた特徴部位に合致する部分を探索する。そして、合致する部分が見つかったならば、それに合わせて3D地図画像空間の地図画像を拡大・縮小するとともに位置を合わせる(図5(b))。そうして、そのマッチング後の3D地図画像空間の地図画像から、図5(c)に示すように、主操縦士及び副操縦士それぞれの視野範囲に対応した各画像(部分3D地図画像)を切り出して表示画像A、Bに代替したり補完したりするために使用する。このように、広範囲の3D地図画像空間の地図画像を作成しておくことで、主操縦士や副操縦士が急に視野範囲を変えた場合でも、速やかにその変化に追従した部分3D地図画像を取得することができる。
以上のように本実施形態の操縦支援システムでは、主操縦士及び副操縦士がそれぞれ装着している頭部装着型表示装置2A、2Bのバイザを介して、カメラにより撮影された赤外画像や可視画像を外界による背景画像に重畳して表示することができ、その赤外画像や可視画像の全体又は一部の視認性が低下した場合には、それに代えて又は一部を補完して仮想的な3D地図画像を表示することができる。そして、そうした背景画像に重畳される表示画像を、主操縦士や副操縦士の頭部の動きに迅速に追従させることができる。その結果、肉眼による外界の視認性が低下する場合であっても、操縦者による外界の状況認識能力を向上させることができ、ヘリコプタ100の飛行の安全性を向上させることができる。
もちろん、こうした操縦士や副操縦士に限らず、ヘリコプタ100等の移動体に搭乗している人が外界の状況を確認する必要がある状況はしばしばある。したがって、こうしたシステムを利用可能あるのは実際に操縦を行う者やそれを補佐・補助する者に限らない。
また、上記実施形態のシステムでは、実画像と仮想画像(3D地図画像)とをマッチングさせたあとに主操縦士及び副操縦士それぞれの視野範囲の画像を抽出していたが、逆に、先に実画像と仮想画像(3D地図画像)とで視野範囲の画像を抽出したあとに、それら抽出された画像のマッチングを行うようにしてもよい。
さらにまた、上記実施形態は本発明の一例にすぎず、上記記載の変形例にとどまらず、本発明の趣旨の範囲で適宜、変更や修正、追加を行っても本願特許請求の範囲に包含されることは当然である。
[種々の態様]
上述した例示的な実施形態が以下の態様の具体例であることは、当業者には明らかである。
(第1項)本発明の一態様に係る操縦支援システムは、
移動体中の利用者が視認している視野範囲を特定する視野範囲特定部と、
前記移動体から見える外界の実画像を取得する実画像取得部と、
前記移動体の現在位置付近における3次元地図情報に基づいて、前記移動体から見えると想定される外界の仮想画像を作成する3次元地図画像作成部と、
前記実画像と前記仮想画像とにおいて少なくとも前記視野範囲に対応する部分をマッチングさせた状態で、そのマッチング後の画像を前記利用者の視界に重畳して表示する表示処理部と、
を備えるものである。
第1項に記載の操縦支援システムによれば、夜間や悪天候等による低視程の状況下であって、実際の外界の撮影画像の全体又はその一部が不鮮明である状況であっても、3次元地図情報を利用して利用者が見ている視野範囲における撮影画像の全部又は一部を補って、視認性の高い画像を利用者の眼前に表示することができる。それにより、利用者による外界の状況認識能力を向上させることができ、利用者による移動体の飛行や走行、運行の安全性を向上させることができる。
(第2項)第1項に記載の操縦支援システムにおいて、前記視野範囲特定部は、前記利用者が頭部に装着する装着物又は該利用者が居る移動体内空間に設けられ、該利用者の頭部の静的な及び/又は動的な状態を検知する状態検知部を含み、該状態検知部により得られた情報に基づいて前記利用者の視野範囲を特定するものとすることができる。
ここで、利用者が頭部に装着する装着物とは典型的にはヘルメット又はゴーグルなどである。また、利用者が居る移動体内空間とは典型的には操縦室(コックピット)である。
第2項に記載の操縦支援システムによれば、利用者の頭部の位置や傾き角度、方向、角速度などを正確に且つ遅滞なく把握することができ、その頭部の動きに応じた適切な画像を利用者の眼前に表示することができる。
(第3項)第1項又は第2項に記載の操縦支援システムにおいて、前記視野範囲特定部は、利用者の視線を計測する視線計測部を含み、該視線計測部により得られた情報に基づいて前記利用者の視野範囲を特定するものとすることができる。
第3項に記載の操縦支援システムによれば、利用者の実際の視線の方向を計測しているので、例えば顔が正面を向きながら視線を斜め左方又は右方に向けているような場合でも、利用者に実際に見えている外界の実画像とそれにマッチングした仮想画像とを利用者に見せることができる。
(第4項)第1項~第3項のいずれか一つに記載の操縦支援システムにおいて、前記視野範囲特定部は、前記利用者が装着している表示装置の表示可能範囲に基づいて該利用者の視野範囲を決定するものとすることができる。
第4項に記載の操縦支援システムによれば、バイザ等で制約を受ける表示装置の表示可能範囲に応じた適切な視野範囲の画像を取得することができる。
(第5項)第1項~第4項のいずれか一つに記載の操縦支援システムにおいて、前記利用者が頭部に装着する装着物に設けられた撮像部を前記実画像取得部を構成する構成部品として使用し、該撮像部による画像情報をマッチング処理に優先的に使用して処理の高速化を実現するものとすることができる。
利用者の頭部に装着する装着物(例えば上記表示装置)に設けられた撮像部は、その利用者の頭部方向と一致しており、他のセンサとは異なり画角修正等が不要である。したがって、第5項に記載の操縦支援システムによれば、この撮像部による画像情報をマッチング処理に使用することで、外界との高精度な重畳性の確保と共に処理の高速化を図ることができる。
1…制御・処理部
10…シンボル画像作成部
11…3D地図画像作成部
12…画像マッチング部
13…視野範囲特定処理部
14…特徴部位抽出部
15…視認性指標算出部
16…視差補正部
17…スケーリング部
18…表示画像作成処理部
180…画像選択部
181…画像補完部
182…視野範囲画像抽出部
183…画像重畳部
2A、2B…頭部装着型表示装置
20…頭部角度/位置/角速度及び視線方向検出部
21…高感度センサ部
22…表示部
23…画像選択/合成部
24…バッテリ
3…センサポッド
30…マルチセンサ部
31…赤外線カメラ
32…可視カメラ
33…測距センサ
34…照明部
35…センサポッド制御部
4…飛行情報収集部
5…GNSS/INS装置
6…デジタル地図データベース
9…コネクタ
100…ヘリコプタ

Claims (5)

  1. 移動体中の利用者が視認している視野範囲を特定する視野範囲特定部と、
    前記移動体から見える外界の実画像を取得する実画像取得部と、
    前記移動体の現在位置付近における3次元地図情報に基づいて、前記移動体から見えると想定される外界の仮想画像を作成する3次元地図画像作成部と、
    前記実画像と前記仮想画像とにおいて少なくとも前記視野範囲に対応する部分を、前記実画像と前記仮想画像に含まれる共通の特徴部位が対応する位置にくるようにマッチングさせた状態で、そのマッチング後の画像を前記利用者の視界に重畳して表示する表示処理部と、
    を備える操縦支援システム。
  2. 前記視野範囲特定部は、前記利用者が頭部に装着する装着物又は該利用者が居る移動体内空間に設けられ、該利用者の頭部の静的な及び/又は動的な状態を検知する状態検知部を含み、該状態検知部により得られた情報に基づいて前記利用者の視野範囲を特定する、請求項1に記載の操縦支援システム。
  3. 前記視野範囲特定部は、利用者の視線を計測する視線計測部を含み、該視線計測部により得られた情報に基づいて前記利用者の視野範囲を特定する、請求項1に記載の操縦支援システム。
  4. 前記視野範囲特定部は、前記利用者が装着している表示装置の表示可能範囲に基づいて該利用者の視野範囲を決定する、請求項1~3のいずれか1項に記載の操縦支援システム。
  5. 前記利用者が頭部に装着する装着物に設けられた撮像部を前記実画像取得部を構成する構成部品として使用し、該撮像部による画像情報をマッチング処理に優先的に使用して処理の高速化を実現する、請求項1~4のいずれか1項に記載の操縦支援システム。
JP2019151023A 2019-08-21 2019-08-21 操縦支援システム Active JP7367922B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019151023A JP7367922B2 (ja) 2019-08-21 2019-08-21 操縦支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019151023A JP7367922B2 (ja) 2019-08-21 2019-08-21 操縦支援システム

Publications (2)

Publication Number Publication Date
JP2021030806A JP2021030806A (ja) 2021-03-01
JP7367922B2 true JP7367922B2 (ja) 2023-10-24

Family

ID=74674857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019151023A Active JP7367922B2 (ja) 2019-08-21 2019-08-21 操縦支援システム

Country Status (1)

Country Link
JP (1) JP7367922B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032292A1 (ja) * 2021-09-02 2023-03-09 ソニーグループ株式会社 情報処理方法、情報処理プログラム、及び情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (ja) 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd ヘリコプタの操縦支援装置
JP2001344597A (ja) 2000-05-30 2001-12-14 Fuji Heavy Ind Ltd 融合視界装置
WO2016152572A1 (ja) 2015-03-20 2016-09-29 日産自動車株式会社 間接視界提示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (ja) 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd ヘリコプタの操縦支援装置
JP2001344597A (ja) 2000-05-30 2001-12-14 Fuji Heavy Ind Ltd 融合視界装置
WO2016152572A1 (ja) 2015-03-20 2016-09-29 日産自動車株式会社 間接視界提示装置

Also Published As

Publication number Publication date
JP2021030806A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
EP1160541B1 (en) Integrated vision system
CA2691375C (en) Aircraft landing assistance
US4805015A (en) Airborne stereoscopic imaging system
US8218006B2 (en) Near-to-eye head display system and method
US9830713B1 (en) Surveillance imaging system and method
US20210019942A1 (en) Gradual transitioning between two-dimensional and three-dimensional augmented reality images
US20090284552A1 (en) Methods and systems for operating avionic systems based on user gestures
EP2856454B1 (en) Airport surface collision-avoidance system (ascas)
EP3173847B1 (en) System for displaying fov boundaries on huds
US10382746B1 (en) Stereoscopic augmented reality head-worn display with indicator conforming to a real-world object
JP6831949B2 (ja) 表示制御システム、表示制御装置及び表示制御方法
JPH02145914A (ja) 航空機の表示装置
JP7367922B2 (ja) 操縦支援システム
JP3252129B2 (ja) ヘリコプタの操縦支援装置
KR102173476B1 (ko) 비행 안전 시야 확보를 위한 항공기용 신호처리 시스템
JP6890759B2 (ja) 飛行経路案内システム、飛行経路案内装置及び飛行経路案内方法
US10777013B1 (en) System and method for enhancing approach light display
US20220301441A1 (en) Method and system for displaying and managing a situation in the environment of an aircraft
WO2020110293A1 (ja) 表示制御システム、表示制御装置及び表示制御方法
JP7367930B2 (ja) 移動体用画像表示システム
Knabl et al. Designing an obstacle display for helicopter operations in degraded visual environment
US11912429B2 (en) System and methodology to provide an augmented view of an environment below an obstructing structure of an aircraft
JP2024071414A (ja) 移動体用操縦支援方法及び移動体用操縦支援システム
EP3835726A1 (en) Landing aid system and landing aid method
Hebel et al. Imaging sensor fusion and enhanced vision for helicopter landing operations

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20191016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7367922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150