JP2021030806A - Steering-assistance system - Google Patents

Steering-assistance system Download PDF

Info

Publication number
JP2021030806A
JP2021030806A JP2019151023A JP2019151023A JP2021030806A JP 2021030806 A JP2021030806 A JP 2021030806A JP 2019151023 A JP2019151023 A JP 2019151023A JP 2019151023 A JP2019151023 A JP 2019151023A JP 2021030806 A JP2021030806 A JP 2021030806A
Authority
JP
Japan
Prior art keywords
image
unit
user
moving body
visual field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019151023A
Other languages
Japanese (ja)
Other versions
JP7367922B2 (en
Inventor
行信 松原
Yukinobu Matsubara
行信 松原
康次 小村
Koji Komura
康次 小村
修 ▲高▼山
修 ▲高▼山
Osamu Takayama
宏果 津田
Hiroka Tsuda
宏果 津田
浩平 舩引
Kohei Funabiki
浩平 舩引
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Japan Aerospace Exploration Agency JAXA
Original Assignee
Shimadzu Corp
Japan Aerospace Exploration Agency JAXA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp, Japan Aerospace Exploration Agency JAXA filed Critical Shimadzu Corp
Priority to JP2019151023A priority Critical patent/JP7367922B2/en
Publication of JP2021030806A publication Critical patent/JP2021030806A/en
Application granted granted Critical
Publication of JP7367922B2 publication Critical patent/JP7367922B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To assist an operator to enhance ability to recognize the situation in the outside even under low-visibility condition, by displaying a high-visibility image in a manner of superimposing the image on the outside.SOLUTION: A steering-assistance system comprises: a viewing range identification part (20, 1) that identifies a viewing range that a user in a moving body is viewing; a real image acquisition part (30, 21, 1) that acquires a real image of an outside that can be seen from the moving body; a three-dimensional map creation part (1) that creates a virtual image of the outside that is supposed to be visible from the moving body on the basis of three-dimensional map information near a current position of the moving body; and a display processing part (1, 22) that matches respective parts of the real image and the virtual image corresponding to at least the viewing range with each other, and display a post-matching image in the corresponding-parts-matched state, in a manner of superimposing the image on a view field of the user.SELECTED DRAWING: Figure 1

Description

本発明は、航空機、車両、船舶を含む移動体の操縦を支援する操縦支援システムに関する。 The present invention relates to a maneuvering support system that assists maneuvering a moving body including an aircraft, a vehicle, and a ship.

ヘリコプタや飛行機などの航空機では、夜間や天候等により視程が低下して操縦者が肉眼で機外の状況を視認するのが困難である場合に、操縦を支援するためのシステムを用いた飛行が行われる。 For aircraft such as helicopters and airplanes, when the visibility is reduced due to nighttime or weather and it is difficult for the operator to visually recognize the situation outside the aircraft, flight using a system to assist the maneuvering is performed. Will be done.

こうした操縦支援システムとしては、赤外線カメラ等によって機外を撮影した画像を、ヘッドアップディスプレイ(Head Up Display:HUD)やヘッド(又はヘルメット)マウントディスプレイ(Head Mount Display, Helmet Mount Display:HMD)等の表示装置に表示するものがある(特許文献1など参照)。また、こうした撮影画像に代えて、GPSや慣性航法システム(INS : Inertial Navigation System)よる自機位置情報と予め記憶してある地形データとを元に3次元地形画像を生成し、これを表示装置に表示することも行われている。操縦者が肉眼で外界の状況を視認することが難しい場合であっても、上述したように表示装置に表示される様々な情報を利用することで、操縦者は外界の状況を把握して操縦を行うことができる。 Such a maneuvering support system includes an image taken outside the aircraft by an infrared camera or the like, such as a head up display (HUD) or a head (or helmet) mount display (HMD). Some are displayed on a display device (see Patent Document 1 and the like). In addition, instead of such a captured image, a three-dimensional terrain image is generated based on the position information of the own aircraft by GPS or an inertial navigation system (INS) and the terrain data stored in advance, and this is displayed as a display device. It is also displayed in. Even if it is difficult for the operator to visually recognize the situation of the outside world, the operator can grasp the situation of the outside world and operate by using various information displayed on the display device as described above. It can be performed.

特開2012−224210号公報Japanese Unexamined Patent Publication No. 2012-224210

操縦者が外界の状況を肉眼で確認することが難しい場合、外界の状況把握には赤外線カメラ等による画像が用いられる。しかしながら、外界の状況によっては、赤外線カメラによる画像であっても、周囲の建築物や山などの障害物が不鮮明で認識しにくい、或いは、それらの一部分しか見えないといった場合がある。 When it is difficult for the operator to confirm the situation of the outside world with the naked eye, an image taken by an infrared camera or the like is used to grasp the situation of the outside world. However, depending on the conditions of the outside world, even if the image is taken by an infrared camera, obstacles such as surrounding buildings and mountains may be unclear and difficult to recognize, or only a part of them may be visible.

例えば、赤外線カメラによる画像を見ながら操縦している最中に天候が急変し、視界がより一層不良である状況になると、一時的に外界の状況を把握できなくなるため、飛行の安全性が低下する。そのため、操縦者はできるだけ早く、そのエリアを離脱・回避する行動をとる必要がある。
なお、航空機に限らず、自動車等の車両を操縦(運転)する場合や、船舶を操縦する場合においても、同様の問題が生じることがある。
For example, if the weather suddenly changes while you are maneuvering while looking at an image from an infrared camera and the visibility becomes even worse, you will not be able to grasp the situation of the outside world temporarily, which will reduce flight safety. To do. Therefore, the operator needs to take action to leave or avoid the area as soon as possible.
It should be noted that the same problem may occur not only in an aircraft but also in the case of operating (driving) a vehicle such as an automobile or in the case of operating a ship.

本発明は上記課題を解決するために成されたものであり、その主たる目的は、夜間や低視程の状況下における操縦者による外界の状況認識能力を向上させ、それによって飛行や運行、走行等の安全性を向上させることができる操縦支援システムを提供することである。 The present invention has been made to solve the above problems, and its main purpose is to improve the ability of the operator to recognize the situation of the outside world at night or under low visibility conditions, thereby flying, operating, running, etc. It is to provide a maneuvering support system that can improve the safety of the aircraft.

上記課題を解決するために成された本発明の一態様に係る操縦支援システムは、
移動体中の利用者が視認している視野範囲を特定する視野範囲特定部と、
前記移動体から見える外界の実画像を取得する実画像取得部と、
前記移動体の現在位置付近における3次元地図情報に基づいて、前記移動体から見えると想定される外界の仮想画像を作成する3次元地図画像作成部と、
前記実画像と前記仮想画像とにおいて少なくとも前記視野範囲に対応する部分をマッチングさせた状態で、そのマッチング後の画像を前記利用者の視界に重畳して表示する表示処理部と、
を備えるものである。
The maneuvering support system according to one aspect of the present invention made to solve the above problems is
A visual field range specifying part that specifies the visual field range that the user in the moving body is viewing, and
A real image acquisition unit that acquires a real image of the outside world seen from the moving body,
A 3D map image creation unit that creates a virtual image of the outside world that is assumed to be visible from the moving body based on the 3D map information near the current position of the moving body.
A display processing unit that displays the matched image superimposed on the user's field of view in a state where at least a portion corresponding to the visual field range is matched between the real image and the virtual image.
Is provided.

上記態様に係る操縦支援システムにおいて「移動体」は、航空機、船舶、車輌などを含む。また、「移動体中の利用者」は、移動体を操縦する操縦者のほか、操縦を補助する又は補佐する副操縦士等の操縦補助者、操縦への直接的な関与の有無に拘わらず移動体から外界の状況等を監視したり探索を行ったりする業務や作業を実施する搭乗者も含む。 In the maneuvering support system according to the above aspect, the "moving body" includes an aircraft, a ship, a vehicle, and the like. In addition, the "user in the moving body" is not only the operator who controls the moving body, but also the co-pilot who assists or assists the maneuvering, and whether or not he / she is directly involved in the maneuvering. It also includes passengers who carry out tasks and tasks such as monitoring and searching for the situation of the outside world from moving objects.

本発明の一態様に係る操縦支援システムにおいて実画像取得部は、移動体から見える或る程度の広い範囲の外界の実画像を取得する。但し、天候などの移動体外部の状況によっては、実画像の一部又は全部が不鮮明になる可能性がある。一方、3次元地図画像作成部は、その時点での移動体の現在位置付近における3次元地図情報に基づいて、移動体から見えると想定される外界の仮想画像を作成する。また、視野範囲特定部は、移動体中の利用者例えば操縦者が、視認している視野範囲を特定し、表示処理部は、実画像と仮想画像とにおいて少なくとも特定された視野範囲に対応する部分をマッチングさせた状態で、そのマッチング後の画像をその利用者の視界に重畳して表示する。 In the maneuvering support system according to one aspect of the present invention, the real image acquisition unit acquires a real image of a wide range of the outside world that can be seen from a moving body. However, depending on the conditions outside the moving body such as the weather, a part or all of the actual image may be blurred. On the other hand, the three-dimensional map image creation unit creates a virtual image of the outside world that is assumed to be visible from the moving body based on the three-dimensional map information near the current position of the moving body at that time. Further, the visual field range specifying unit identifies the visual field range visually recognized by the user in the moving body, for example, the operator, and the display processing unit corresponds to at least the visual field range specified in the real image and the virtual image. In the state where the parts are matched, the image after the matching is superimposed on the user's field of view and displayed.

したがって 本発明の一態様に係る操縦支援システムによれば、夜間や悪天候等による低視程の状況下であって、実際の外界の撮影画像の全体又はその一部が不鮮明である状況であっても、3次元地図情報を利用して利用者が見ている視野範囲における撮影画像の全部又は一部を補って、視認性の高い画像を表示画面上に表示することができる。それにより、利用者による外界の状況認識能力を向上させることができ、利用者による移動体の飛行や走行、運行の安全性を向上させることができる。 Therefore, according to the maneuvering support system according to one aspect of the present invention, even in a situation where the visibility is low due to nighttime, bad weather, etc., and the whole or a part of the actual photographed image of the outside world is unclear. The three-dimensional map information can be used to supplement all or part of the captured image in the viewing range viewed by the user, and a highly visible image can be displayed on the display screen. As a result, the ability of the user to recognize the situation in the outside world can be improved, and the safety of the user's flight, running, and operation of the moving body can be improved.

本発明の一実施形態である操縦支援システムの概略ブロック構成図。The schematic block block diagram of the maneuvering support system which is one Embodiment of this invention. 本実施形態である操縦支援システムにおける制御・処理部の詳細なブロック構成図。A detailed block configuration diagram of a control / processing unit in the maneuvering support system of the present embodiment. 本実施形態の操縦支援システムにおいて主操縦士用の表示画像を作成する際の処理を説明するための模式図。The schematic diagram for demonstrating the process at the time of creating the display image for the main pilot in the maneuvering support system of this embodiment. 本実施形態の操縦支援システムにおいて副操縦士用の表示画像を作成する際の処理を説明するための模式図。The schematic diagram for demonstrating the process at the time of creating the display image for the co-pilot in the maneuvering support system of this embodiment. 本実施形態の操縦支援システムにおける、3次元地図情報による仮想画像と実画像とのマッチング処理を説明するための模式図。The schematic diagram for demonstrating the matching process of the virtual image and the real image by 3D map information in the maneuvering support system of this embodiment.

本発明に係る操縦支援システムの一実施形態について、添付図面を参照して説明する。この実施形態の操縦支援システムは、ヘリコプタに搭乗している主操縦士及び副操縦士が該ヘリコプタを操縦する際の操縦を支援するものである。即ち、ここでは「移動体」はヘリコプタ、「移動体中の利用者」は主操縦士及び副操縦士である。 An embodiment of the maneuvering support system according to the present invention will be described with reference to the accompanying drawings. The maneuvering support system of this embodiment assists the main pilot and the co-pilot on board the helicopter in maneuvering the helicopter. That is, here, the "moving body" is a helicopter, and the "user in the moving body" is the main pilot and the co-pilot.

[本実施形態の操縦支援システムの全体構成]
図1は、本実施形態の操縦支援システムの概略ブロック構成図である。
この操縦支援システムは、制御・処理部1と、二つの頭部装着型表示装置2A、2Bと、センサポッド3と、飛行情報収集部4と、GNSS/INS装置5と、を含む。また、操縦支援システムは、本システムには含まれない外部のデジタル地図データベース6に接続可能であるか、或いは、該デジタル地図データベース6に収録されている地図データの一部が格納された記憶装置を含む。前者の場合、本システムは、外部のデジタル地図データベース6にアクセスして必要なデータのみを受信する送受信部を含む。
[Overall configuration of the maneuvering support system of this embodiment]
FIG. 1 is a schematic block configuration diagram of the maneuvering support system of the present embodiment.
This maneuvering support system includes a control / processing unit 1, two head-mounted display devices 2A and 2B, a sensor pod 3, a flight information collecting unit 4, and a GNSS / INS device 5. Further, the maneuvering support system can be connected to an external digital map database 6 not included in this system, or a storage device in which a part of the map data recorded in the digital map database 6 is stored. including. In the former case, the system includes a transmitter / receiver that accesses the external digital map database 6 and receives only necessary data.

センサポッド3は、操縦対象であるヘリコプタ100の機外(通常は機体下方)に設けられている。また、頭部装着型表示装置2Aは主操縦士の頭部に、頭部装着型表示装置2Bは副操縦士の頭部に、それぞれ装着されている。この例では、頭部装着型表示装置の数は2であるが、その数はこれに限らず、1又は3以上であってもよい。 The sensor pod 3 is provided outside the helicopter 100 to be operated (usually below the aircraft). The head-mounted display device 2A is attached to the head of the main operator, and the head-mounted display device 2B is attached to the head of the co-pilot. In this example, the number of head-mounted display devices is 2, but the number is not limited to this and may be 1 or 3 or more.

[センサポットの詳細構成]
センサポッド3は、マルチセンサ部30とセンサポッド制御部35とを含む。マルチセンサ部30は、赤外線カメラ31、可視カメラ32、測距センサ33、及び照明部34を含む。
[Detailed configuration of sensor pot]
The sensor pod 3 includes a multi-sensor unit 30 and a sensor pod control unit 35. The multi-sensor unit 30 includes an infrared camera 31, a visible camera 32, a distance measuring sensor 33, and an illumination unit 34.

赤外線カメラ31は外界の赤外画像を取得するものであり、近赤外、中赤外、又は遠赤外のいずれか、又はそれら複数の異なる波長帯を検出可能なセンサを含む構成とすることができる。可視カメラ32は、低照度下においても高い感度で以て画像を取得可能なビデオカメラである。測距センサ33はLiDAR(Light Detection And Ranging)又はミリ波レーダ等による測距装置であり、周囲の地形、障害物等が位置する方向及び距離を求め、それに基づいて距離画像を作成するものである。これらはいずれも、ヘリコプタ100から見た外界の画像を撮影するものであり、それぞれが本発明の上記態様における「実画像取得部」の一例である。 The infrared camera 31 acquires an infrared image of the outside world, and is configured to include a sensor capable of detecting one of the near infrared, the middle infrared, the far infrared, or a plurality of different wavelength bands thereof. Can be done. The visible camera 32 is a video camera capable of acquiring an image with high sensitivity even under low illuminance. The distance measuring sensor 33 is a distance measuring device using LiDAR (Light Detection And Ranging) or millimeter wave radar, and obtains the direction and distance where the surrounding terrain, obstacles, etc. are located, and creates a distance image based on the direction and distance. is there. Each of these captures an image of the outside world as seen from the helicopter 100, and each is an example of the "real image acquisition unit" in the above aspect of the present invention.

照明部34は、照明が必要とされる低視程時等において、可視光又は赤外光を機外の対象物に照射し、赤外線カメラ31及び可視カメラ32による撮像条件を向上させ、より視認性の高い画像の取得を可能とするものである。なお、照明部34は、レーザレンジファインダ用途等を兼ねるものでもよい。 The illumination unit 34 irradiates an object outside the machine with visible light or infrared light at a low visibility or the like where illumination is required to improve the imaging conditions by the infrared camera 31 and the visible camera 32, resulting in higher visibility. It is possible to acquire a high-quality image. The illumination unit 34 may also be used for a laser range finder or the like.

センサポッド制御部35は、ヘリコプタ100の機体の振動の影響を低減するスタビライザ機能を有しており、制御・処理部1からの制御信号に応じて、センサポッド3のアジマス(AZ)方向及びエレベーション(EL)方向の姿勢を調整するものである。本実施形態の操縦支援システムでは、制御・処理部1からの制御信号を受けたセンサポッド制御部35の制御の下でセンサポッド3は、主操縦士が見ていると推測される方向に指向するように動作する頭部方向追従モード、指定された特定の方向を指向するように動作する特定方向固定モード、及び、所定の範囲に亘りその指向する方向が繰り返し変化するように動作するスキャンモード、のいずれかのモードで使用される。但し、後述する特徴的な処理動作の際には、センサポッド3のモードは頭部方向追従モードとなる。 The sensor pod control unit 35 has a stabilizer function that reduces the influence of vibration of the helicopter 100, and responds to the control signal from the control / processing unit 1 in the azimuth (AZ) direction and elevator of the sensor pod 3. It adjusts the posture in the vibration (EL) direction. In the maneuvering support system of the present embodiment, the sensor pod 3 is oriented in the direction presumed to be seen by the main pilot under the control of the sensor pod control unit 35 that receives the control signal from the control / processing unit 1. A head direction tracking mode that operates so as to, a specific direction fixed mode that operates so as to point in a specified specific direction, and a scan mode that operates so that the direction in which the direction is directed repeatedly changes over a predetermined range. Used in one of the modes. However, in the case of the characteristic processing operation described later, the mode of the sensor pod 3 is the head direction tracking mode.

なお、マルチセンサ部30に含まれるカメラ及びセンサは上記のものに限らず、一部のカメラ及びセンサを削除したり別の種類のカメラ及びセンサを付加したりしてもよい。また、同じ種類のカメラ及びセンサを複数搭載することにより、センサポッド3の指向方向が一定であっても広い範囲を一度に撮影することが可能である構成としてもよい。 The cameras and sensors included in the multi-sensor unit 30 are not limited to those described above, and some cameras and sensors may be deleted or other types of cameras and sensors may be added. Further, by mounting a plurality of cameras and sensors of the same type, a wide range can be photographed at one time even if the directivity direction of the sensor pod 3 is constant.

[頭部装着型表示装置の詳細構成]
頭部装着型表示装置2A、2Bは例えば、主操縦士及び副操縦士が頭部に装着するヘルメットと一体化された装置であり、コネクタ9を介して制御・処理部1と電気的に接続されている。頭部装着型表示装置2A、2Bは、頭部角度/位置/角速度及び視線方向検出部20と、高感度センサ部21と、表示部22と、画像選択/合成部23と、バッテリ24と、を含む。
[Detailed configuration of head-mounted display device]
The head-mounted display devices 2A and 2B are, for example, devices integrated with a helmet worn by the main operator and the co-pilot on the head, and are electrically connected to the control / processing unit 1 via the connector 9. Has been done. The head-mounted display devices 2A and 2B include a head angle / position / angular velocity and line-of-sight direction detection unit 20, a high-sensitivity sensor unit 21, a display unit 22, an image selection / composition unit 23, and a battery 24. including.

頭部装着型表示装置2Aの頭部角度/位置/角速度及び視線方向検出部20は例えば、周囲を撮影する複数のカメラと、6軸ジャイロセンサと、その複数のカメラ及びジャイロセンサで得られた信号を処理する信号処理部と、を含む。複数のカメラはそれぞれ主操縦士の周囲の風景又は機体(操縦室)内の所定のマーカー等を撮影し、信号処理部は撮影された画像に基づいて、主操縦士の頭部の位置及び傾き角度を計算する。 The head angle / position / angular velocity and line-of-sight direction detection unit 20 of the head-mounted display device 2A were obtained by, for example, a plurality of cameras for photographing the surroundings, a 6-axis gyro sensor, and the plurality of cameras and the gyro sensor. Includes a signal processing unit that processes signals. Each of the plurality of cameras captures the scenery around the main pilot or a predetermined marker in the aircraft (control room), and the signal processing unit positions and tilts the main pilot's head based on the captured image. Calculate the angle.

頭部の位置とは例えば、所定の機体内3次元基準座標XYZ上の位置情報である。また、頭部の傾き角度とは例えば、機体内3次元基準座標XYZ各軸と頭部の中心軸線との成す角度である。一方、6軸ジャイロセンサは、主操縦士の頭部の移動に伴う該頭部の角速度を検出する。そして、頭部角度/位置/角速度及び視線方向検出部20は、上述したようにして得られた主操縦士の頭部の位置、角度、及び角速度の情報を制御・処理部1に送信する。これら情報は、主操縦士がそのときに見ている視野範囲を特定するために使用される。したがって、本実施形態において、頭部角度/位置/角速度及び視線方向検出部20は、本発明の上記態様における「視野範囲特定部」を構成する要素である。 The position of the head is, for example, position information on a predetermined three-dimensional reference coordinate XYZ inside the aircraft. Further, the inclination angle of the head is, for example, an angle formed by each axis of the three-dimensional reference coordinates XYZ in the machine body and the central axis of the head. On the other hand, the 6-axis gyro sensor detects the angular velocity of the head of the main operator as it moves. Then, the head angle / position / angular velocity and line-of-sight direction detection unit 20 transmits the information on the head position, angle, and angular velocity of the main operator obtained as described above to the control / processing unit 1. This information is used to identify the field of view that the pilot is currently looking at. Therefore, in the present embodiment, the head angle / position / angular velocity and the line-of-sight direction detecting unit 20 are elements constituting the "visual field range specifying unit" in the above aspect of the present invention.

頭部装着型表示装置2Aの高感度センサ部21は、主操縦士が顔を向けている方向を中心として所定の範囲の実際の画像を低照度状態で取得可能なカメラである。したがって、高感度センサ部21も本発明の上記態様における「実画像取得部」の一例である。画像選択/合成部23は、制御・処理部1から送られて来た表示画像と高感度センサ部21により得られる高感度センサ画像との一方を選択したり又は合成したりして表示部22に入力する。 The high-sensitivity sensor unit 21 of the head-mounted display device 2A is a camera capable of acquiring an actual image in a predetermined range in a low illuminance state centering on the direction in which the main pilot is facing his / her face. Therefore, the high-sensitivity sensor unit 21 is also an example of the “real image acquisition unit” in the above aspect of the present invention. The image selection / composition unit 23 selects or combines one of the display image sent from the control / processing unit 1 and the high-sensitivity sensor image obtained by the high-sensitivity sensor unit 21 to display unit 22. Enter in.

頭部装着型表示装置2Aの表示部22は、例えば透過型液晶表示素子などの表示素子、主操縦士の眼前に配置されるバイザ(又はコンバイナ)、表示素子から前記バイザまでの間に配置された照射光学系と、を含む。画像選択/合成部23から入力された画像は例えば透過型液晶表示素子に表示される。そして、表示素子から発した画像光は照射光学系を経て、バイザで反射され、平行な光として主操縦士の眼に到達する。バイザは主操縦士が顔を向けている方向の外界から到来する外光を透過させる。そのため、主操縦士の眼前には、概ね平行光であるその外光による背景画像とバイザでの反射光による表示画像とが重畳されて表示される。後述の説明から明らかであるが、本実施形態のシステムでは、上記画像選択/合成部23及び表示部22が制御・処理部1の一部とともに、本発明の上記態様における「表示処理部」を構成する要素である。 The display unit 22 of the head-mounted display device 2A is arranged between a display element such as a transmissive liquid crystal display element, a visor (or combiner) arranged in front of the main operator's eyes, and the display element to the visor. Including the irradiation optical system. The image input from the image selection / compositing unit 23 is displayed on, for example, a transmissive liquid crystal display element. Then, the image light emitted from the display element passes through the irradiation optical system, is reflected by the visor, and reaches the eyes of the main pilot as parallel light. The visor allows outside light coming from the outside world in the direction the main pilot is facing. Therefore, in front of the main pilot's eyes, the background image due to the external light, which is generally parallel light, and the display image due to the reflected light from the visor are superimposed and displayed. As is clear from the description below, in the system of the present embodiment, the image selection / synthesis unit 23 and the display unit 22 together with a part of the control / processing unit 1 form a "display processing unit" in the above aspect of the present invention. It is a constituent element.

副操縦士が使用する頭部装着型表示装置2Bも上述した頭部装着型表示装置2Aと同じ構成要素を有する。これら頭部装着型表示装置2A、2Bにはコネクタ9を介して制御・処理部1から駆動電力が供給されているが、例えば緊急事態の発生等で操縦士が機体から離れる際に、コネクタ9が離脱して頭部装着型表示装置2A、2Bが制御・処理部1と分離された状態になった場合でも、内蔵されたバッテリ24から供給される電力を利用して、高感度センサ部21による高感度センサ画像を表示部22に表示することが可能である。 The head-mounted display device 2B used by the co-pilot also has the same components as the head-mounted display device 2A described above. Drive power is supplied from the control / processing unit 1 to these head-mounted display devices 2A and 2B via the connector 9. For example, when the operator leaves the aircraft due to an emergency or the like, the connector 9 is supplied. Even when the head-mounted display devices 2A and 2B are separated from the control / processing unit 1, the high-sensitivity sensor unit 21 uses the power supplied from the built-in battery 24. It is possible to display the high-sensitivity sensor image according to the above on the display unit 22.

[制御・処理部の詳細構成]
図2は、本実施形態のシステムにおける制御・処理部1の詳細なブロック構成図である。
図2に示すように、制御・処理部1は、シンボル画像作成部10、3D(3次元)地図画像作成部11、画像マッチング部12、視野範囲特定処理部13、特徴部位抽出部14、視認性指標算出部15、視差補正部16、スケーリング部17、及び、表示画像作成処理部18、を含む。表示画像作成処理部18は、画像選択部180、画像補完部181、視野範囲画像抽出部182、画像重畳部183などの機能ブロックを含む。
[Detailed configuration of control / processing unit]
FIG. 2 is a detailed block configuration diagram of the control / processing unit 1 in the system of the present embodiment.
As shown in FIG. 2, the control / processing unit 1 includes a symbol image creation unit 10, a 3D (three-dimensional) map image creation unit 11, an image matching unit 12, a visual field range identification processing unit 13, a feature portion extraction unit 14, and visual recognition. It includes a sex index calculation unit 15, a parallax correction unit 16, a scaling unit 17, and a display image creation processing unit 18. The display image creation processing unit 18 includes functional blocks such as an image selection unit 180, an image complement unit 181, a field range image extraction unit 182, and an image superimposition unit 183.

制御・処理部1には、飛行情報収集部4から飛行情報データが入力されるとともに、GNSS/INS装置5からGNSS/INSデータが入力される。飛行情報データは、操縦中である航空機(この例ではヘリコプタ100)の飛行諸元を示すデータであり、例えば飛行速度、飛行高度、機体の姿勢(ピッチ角、バンク角)、方位、エンジントルク、燃料残量などを含むデータである。これらデータは航空機に一般に搭載されている様々な機器に基づいて得られる情報であり、航空機の種類等に応じてその情報の内容は異なる。また、GNSS/INSデータは、高い精度で以て飛行位置をリアルタイムで示すデータである。 Flight information data is input from the flight information collecting unit 4 to the control / processing unit 1, and GNSS / INS data is input from the GNSS / INS device 5. The flight information data is data indicating the flight specifications of the aircraft in flight (helicopter 100 in this example), for example, flight speed, flight altitude, attitude of the aircraft (pitch angle, bank angle), orientation, engine torque, and so on. It is data including the remaining amount of fuel. These data are information obtained based on various devices generally mounted on an aircraft, and the content of the information differs depending on the type of aircraft and the like. Further, the GNSS / INS data is data indicating the flight position in real time with high accuracy.

また、制御・処理部1には、頭部装着型表示装置2Aから頭部角度/位置/角速度及び視線方向データA及び高感度センサ画像データAが入力され、頭部装着型表示装置2Bから頭部角度/位置/角速度及び視線方向データB及び高感度センサ画像データBが入力される。さらにまた、制御・処理部1には、センサポッド3のマルチセンサ部30から、赤外画像データ、可視画像データ、距離画像データが入力される。さらに、制御・処理部1には、デジタル地図データベース6又は事前に地図データが記録された記録装置からデジタル地図データが入力される。 Further, head angle / position / angular velocity and line-of-sight direction data A and high-sensitivity sensor image data A are input from the head-mounted display device 2A to the control / processing unit 1, and the head is head-mounted from the head-mounted display device 2B. Part angle / position / angular velocity and line-of-sight direction data B and high-sensitivity sensor image data B are input. Furthermore, infrared image data, visible image data, and distance image data are input to the control / processing unit 1 from the multi-sensor unit 30 of the sensor pod 3. Further, digital map data is input to the control / processing unit 1 from the digital map database 6 or a recording device in which map data is recorded in advance.

制御・処理部1は、上述したように入力される様々なデータを用いたデータ処理を実行することで、頭部装着型表示装置2A、2Bにおいて表示に利用される表示画像A、表示画像Bをそれぞれ作成して頭部装着型表示装置2A、2Bに出力する。 The control / processing unit 1 executes data processing using various data input as described above, so that the display image A and the display image B used for display in the head-mounted display devices 2A and 2B are displayed. Are created and output to the head-mounted display devices 2A and 2B, respectively.

[制御・処理部における処理動作]
飛行時における制御・処理部1でのデータ処理動作を説明する。
シンボル画像作成部10は、上記飛行情報データ、主操縦士の頭部角度/位置/角速度及び視線方向データA、及び副操縦士の頭部角度/位置/角速度及び視線方向データBを用い、主操縦士用のシンボル画像Aと、副操縦士用のシンボル画像Bとを作成する。シンボル画像は、例えば飛行速度などの数値や文字などのテキスト情報、図形、記号などが中心の画像であり、他の画像と重畳された状態でも高い視認性が確保されるように、標準的に例えば緑色で表示され、特に操縦者の注目を引く必要がある場合(緊急を要する場合等)には赤色などで表示される。
[Processing operation in the control / processing section]
The data processing operation in the control / processing unit 1 during flight will be described.
The symbol image creating unit 10 uses the flight information data, the head angle / position / angular velocity and line-of-sight direction data A of the main pilot, and the head angle / position / angular velocity and line-of-sight direction data B of the sub-pilot. A symbol image A for the pilot and a symbol image B for the assistant pilot are created. The symbol image is an image centered on, for example, numerical values such as flight speed, text information such as characters, figures, symbols, etc., and is standard so that high visibility is ensured even when superimposed on other images. For example, it is displayed in green, and especially when it is necessary to attract the attention of the operator (in case of emergency, etc.), it is displayed in red.

飛行速度や飛行高度などの飛行諸元に関連する情報は、シンボル画像Aとシンボル画像Bとで共通であるが、必ずしも得られる情報の全てを表示するとは限らず、表示する情報を主操縦士と副操縦士とで変えることも可能である。また、飛行諸元に関する情報ではなく、そのときに操縦士が見ている方角などの、主操縦士と副操縦士とで異なる項目の情報もシンボル画像に表示させるようにすることができる。そのため、主操縦士用のシンボル画像Aと副操縦士用のシンボル画像Bとは、通常、異なるものである。 Information related to flight specifications such as flight speed and flight altitude is common to symbol image A and symbol image B, but not all the information that can be obtained is always displayed, and the information to be displayed is displayed by the FO. It is also possible to change between and the co-pilot. In addition, it is possible to display information on items different between the main operator and the co-pilot, such as the direction the operator is looking at at that time, in the symbol image instead of the information on the flight specifications. Therefore, the symbol image A for the main pilot and the symbol image B for the co-pilot are usually different.

視差補正部16は、マルチセンサ部30で得られた赤外画像、可視画像、及び距離画像を構成するデータを受け、それら各画像において、センサポッド3における赤外線カメラ31、可視カメラ32、及び測距センサ33の取付位置と主操縦士及び副操縦士の視点位置(操縦室の位置)との差により生じる視差(画角)を補正する。また、スケーリング部17は、上記各画像について、レンズやセンサのサイズ等による画角の相違を補正するためにスケーリング(拡大・縮小)処理を行う。視差補正及びスケーリング処理後の赤外画像及び可視画像は、表示画像作成処理部18とともに特徴部位抽出部14及び視認性指標算出部15に入力される。また、視差補正及びスケーリング処理後の距離画像も、表示画像作成処理部18に入力される。 The parallax correction unit 16 receives the data constituting the infrared image, the visible image, and the distance image obtained by the multi-sensor unit 30, and in each of these images, the infrared camera 31, the visible camera 32, and the measurement in the sensor pod 3. The disparity (angle of view) caused by the difference between the mounting position of the distance sensor 33 and the viewpoint position (position of the cockpit) of the main operator and the sub-operator is corrected. Further, the scaling unit 17 performs scaling (enlargement / reduction) processing on each of the above images in order to correct a difference in the angle of view due to the size of the lens or the sensor. The infrared image and the visible image after the parallax correction and the scaling process are input to the feature portion extraction unit 14 and the visibility index calculation unit 15 together with the display image creation processing unit 18. Further, the distance image after the parallax correction and the scaling processing is also input to the display image creation processing unit 18.

なお、高感度センサ画像データA、Bは主操縦士及び副操縦士がそれぞれ装着している頭部装着型表示装置2A、2Bから得られる画像データであるため、センサポッド3で得られる画像データとは異なり画角の修正の必要がない。そのため、高感度センサ画像データA、Bは視差補正及びスケーリング処理を経ることなく、特徴部位抽出部14や表示画像作成処理部18に導入される。視差補正やスケーリング処理を実施した場合でも視差や画角を完全に補正することは難しい場合があるし、そうした処理のために画質が劣化する場合もある。こうしたことから、一般的には、これら処理を経ることがない、高感度センサ画像データA、Bを利用したほうが良好な実画像が得られ易い。 Since the high-sensitivity sensor image data A and B are image data obtained from the head-mounted display devices 2A and 2B worn by the main pilot and the sub-pilot, respectively, the image data obtained by the sensor pod 3 Unlike, there is no need to correct the angle of view. Therefore, the high-sensitivity sensor image data A and B are introduced into the feature portion extraction unit 14 and the display image creation processing unit 18 without undergoing parallax correction and scaling processing. Even when parallax correction or scaling processing is performed, it may be difficult to completely correct the parallax or angle of view, and the image quality may deteriorate due to such processing. For this reason, in general, it is easier to obtain a better real image by using the high-sensitivity sensor image data A and B that do not undergo these processes.

特徴部位抽出部14は、主操縦士、副操縦士それぞれの頭部装着型表示装置2A、2Bから送られて来る高感度センサ画像データA、高感度センサ画像データB、並びに、視差補正及びスケーリング処理後の赤外画像データ、可視画像データ、距離画像データから、物体の輪郭や特徴部位を抽出する。特徴部位とは例えば、特徴的な地形、標識物、地表と河川、湖沼、海岸等との境界、或いは植生差異等による特徴的な境界、模様等が現れる場所などである。一方、視認性指標算出部15は、上記画像毎に、例えば画像全体のコントラストなどの予め決められた、画像の視認性の程度を判断するための指標となる視認性指標値を計算する。この視認性指標値は画像単位に限らず、一枚の画像を複数の領域に区分した小領域毎に視認性指標値を求めるとともに、その複数の各小領域の視認性指標値を用いて一枚の画像全体の視認性指標値を算出してもよい。 The feature site extraction unit 14 includes high-sensitivity sensor image data A, high-sensitivity sensor image data B, and parallax correction and scaling sent from the head-mounted display devices 2A and 2B of the main pilot and the sub-pilot, respectively. The contour and feature parts of the object are extracted from the processed infrared image data, visible image data, and distance image data. The characteristic part is, for example, a characteristic topography, a sign, a boundary between the ground surface and a river, a lake, a coast, etc., or a place where a characteristic boundary, a pattern, etc. due to a vegetation difference or the like appears. On the other hand, the visibility index calculation unit 15 calculates a visibility index value that is a predetermined index for determining the degree of visibility of the image, such as the contrast of the entire image, for each of the images. This visibility index value is not limited to the image unit, and the visibility index value is obtained for each small area in which one image is divided into a plurality of areas, and the visibility index value of each of the plurality of small areas is used. The visibility index value of the entire image may be calculated.

3D地図画像作成部11は、GNSS/INSデータ等によりその時点で航空機が飛行している位置や進行方向を把握し、その位置付近で進行方向の所定の範囲に亘るデジタル地図データをデジタル地図データベース6から収集して3D地図画像を作成する。上述した高感度センサ画像データA、Bや赤外画像データ、可視画像データに基づく画像は、ヘリコプタ100から実際に見える外界の実画像である。これに対し、3D地図画像は、ヘリコプタ100から見えると推定される外界の仮想的な画像である。 The 3D map image creation unit 11 grasps the position and the direction of travel of the aircraft at that time from GNSS / INS data and the like, and digital map data over a predetermined range of the direction of travel in the vicinity of the position is stored in the digital map database. Collect from 6 to create a 3D map image. The images based on the high-sensitivity sensor image data A and B, the infrared image data, and the visible image data described above are real images of the outside world that are actually visible from the helicopter 100. On the other hand, the 3D map image is a virtual image of the outside world estimated to be visible from the helicopter 100.

GNSS/INSデータの精度の限界や時間的な遅延等によって、或いは、そのヘリコプタ100の機動性や飛行速度等のために、3D地図画像と外界の実画像との間では位置等のずれが生じる。そこで、画像マッチング部12は、二つの高感度センサ画像、赤外画像、又は可視画像のいずれか一つ又は複数から得られた特徴部位の情報を用いて、その時点での外界の実画像と3D地図画像とをマッチングさせる。ここでいうマッチングとは、外界の或る対象物が画像上で対応する位置に来るように3D地図画像全体を移動させたり、回転させたり、或いは、その全体又は一部を拡大若しくは縮小させたりする処理である。 Due to the limit of accuracy of GNSS / INS data, time delay, etc., or due to the mobility, flight speed, etc. of the helicopter 100, there is a deviation in position between the 3D map image and the actual image of the outside world. .. Therefore, the image matching unit 12 uses the information of the feature portion obtained from any one or more of the two high-sensitivity sensor images, the infrared image, and the visible image, and uses the information of the feature portion as the actual image of the outside world at that time. Match with 3D map image. Matching here means moving or rotating the entire 3D map image so that an object in the outside world comes to the corresponding position on the image, or enlarging or reducing the whole or part of the 3D map image. It is a process to do.

一方、視野範囲特定処理部13は、頭部角度/位置/角速度及び視線方向データA、頭部角度/位置/角速度及び視線方向データBと、当該表示装置の表示部における表示可能範囲から、主操縦士及び副操縦士からそれぞれ見えている視野範囲を決定する。即ち、頭部角度/位置/角速度及び視線方向データAから、主操縦士が顔を向けている方向や角度さらにはその時間的な変化の度合いが求まるから、それにより決定される視線の中心線を中心とした表示装置の表示可能範囲をそのときに主操縦士が見ている視野範囲と決定する。 On the other hand, the visual field range specifying processing unit 13 is mainly based on the head angle / position / angular velocity and line-of-sight direction data A, the head angle / position / angular velocity and line-of-sight direction data B, and the displayable range in the display unit of the display device. Determine the field of view that is visible to the pilot and assistant pilot, respectively. That is, since the direction and angle at which the main pilot is facing the face and the degree of change over time can be obtained from the head angle / position / angular velocity and the line-of-sight direction data A, the center line of the line of sight determined by that can be obtained. The displayable range of the display device centered on is determined as the field of view range that the main pilot is looking at at that time.

また、実際には、人間は顔を向けている方向の正面を見ているとは限らず、顔は正面を向きながら瞳を動かして視線を斜め方向に向けることができる。こうした視線の方向を正確に捉えることが可能な装置としてアイトラッカが知られている。頭部角度/位置/角速度及び視線方向検出部20に代えて、又は頭部角度/位置/角速度及び視線方向検出部20に加えてアイトラッカを用いることで、主操縦士が視線を向けている方向をより的確に検出し、主操縦士が見ている視野範囲をより精度良く決定することができる。副操縦士から見えている視野範囲も同様である。なお、アイトラッカはヘルメット又はバイザに組み込むことができる。 Further, in reality, a human is not always looking at the front in the direction in which the face is facing, and the face can move the eyes while facing the front to direct the line of sight in an oblique direction. The eye tracker is known as a device capable of accurately grasping the direction of such a line of sight. The direction in which the main operator is directing the line of sight by using the eye tracker in place of the head angle / position / angular velocity and line-of-sight direction detection unit 20, or in addition to the head angle / position / angular velocity and line-of-sight direction detection unit 20. Can be detected more accurately, and the viewing range seen by the main pilot can be determined more accurately. The same applies to the field of view seen by the co-pilot. The eye tracker can be incorporated into a helmet or visor.

表示画像作成処理部18には、外界の実画像として、視差補正及びスケーリングされた赤外画像、可視画像、及び距離画像と、各操縦士の頭部装着型表示装置2A、2Bで得られた高感度センサ画像A、Bが入力される。また、実画像ではなく地図データに基づく仮想的な画像として、実画像とマッチングされた3D地図画像が入力される。さらに、上記シンボル画像A、Bも入力される。なお、距離画像は一般に、当該ヘリコプタ100からの距離に応じて機外の各物体(障害物等)を異なる色で以て表示したものであり、その方向は画像上の表示位置に対応している。測距センサ33による測距データが点群データ、つまりは方向及び距離を示すデータである場合には、このデータを画像形態に変換して、つまりは画像化して使用すればよい。 The display image creation processing unit 18 obtained parallax-corrected and scaled infrared images, visible images, and distance images as real images of the outside world, and head-mounted display devices 2A and 2B of each pilot. High-sensitivity sensor images A and B are input. Further, a 3D map image matched with the real image is input as a virtual image based on the map data instead of the real image. Further, the symbol images A and B are also input. In addition, the distance image generally displays each object (obstacle, etc.) outside the aircraft in different colors according to the distance from the helicopter 100, and the direction corresponds to the display position on the image. There is. When the distance measurement data by the distance measurement sensor 33 is point cloud data, that is, data indicating a direction and a distance, this data may be converted into an image form, that is, imaged and used.

また表示画像作成処理部18には、主操縦士及び副操縦士それぞれの視野範囲を示す情報が入力されている。視野範囲画像抽出部182は、実画像である赤外画像、可視画像、距離画像、及び高感度センサ画像Aについて、主操縦士の視野範囲に含まれる画像のみを抽出する。また同様に、視野範囲画像抽出部182は、実画像である赤外画像、可視画像、距離画像、及び高感度センサ画像Bについて、副操縦士の視野範囲に含まれる画像のみを抽出する。また、視野範囲画像抽出部182は、実画像とマッチングされている3D地図画像についても、主操縦士の視野範囲に含まれる画像と副操縦士の視野範囲に含まれる画像とを抽出する。 Further, information indicating the visual field ranges of the main pilot and the co-pilot is input to the display image creation processing unit 18. The field-of-view range image extraction unit 182 extracts only the images included in the field-of-view range of the main pilot with respect to the infrared image, the visible image, the distance image, and the high-sensitivity sensor image A, which are real images. Similarly, the field-of-view range image extraction unit 182 extracts only the images included in the field-of-view range of the assistant pilot with respect to the infrared image, the visible image, the distance image, and the high-sensitivity sensor image B, which are real images. Further, the field-of-view range image extraction unit 182 also extracts an image included in the field-of-view range of the main pilot and an image included in the field-of-view range of the sub-pilot with respect to the 3D map image matched with the real image.

また表示画像作成処理部18には、各実画像それぞれの視認性指標値がほぼリアルタイムで入力されている。例えば可視画像全体の視認性指標値が低い場合には、そのときの可視画像はその全体が不明瞭であることを示している。また、可視画像の中の一部の小領域に対する視認性指標値が低い場合には、その小領域のみの部分的な画像が不鮮明であることを示している。そこで、表示画像作成処理部18において画像選択部180は、赤外画像、可視画像、距離画像、二つの高感度センサ画像Aの全体の視認性指標値を比較し、その中で視認性指標値が最も高い画像の視認性指標値の値が所定値以上である場合には、該画像を選択する。 Further, the visibility index value of each actual image is input to the display image creation processing unit 18 in substantially real time. For example, when the visibility index value of the entire visible image is low, the visible image at that time indicates that the entire visible image is unclear. Further, when the visibility index value for a part of the small area in the visible image is low, it indicates that the partial image of only the small area is unclear. Therefore, in the display image creation processing unit 18, the image selection unit 180 compares the overall visibility index values of the infrared image, the visible image, the distance image, and the two high-sensitivity sensor images A, and among them, the visibility index value. When the value of the visibility index value of the image having the highest value is equal to or higher than a predetermined value, the image is selected.

また、可視画像の一部の領域の視認性指標値が低く、赤外画像、距離画像、又は高感度センサ画像A、Bにおいて対応する領域の視認性指標値が高い場合、画像補完部181は可視画像のうちの視認性指標値が低い領域の画像を赤外画像、距離画像、又は高感度センサ画像A、Bにおける画像で置き換える補完処理を行う。さらにまた、可視画像、赤外画像、距離画像、及び高感度センサ画像Aの全てについて視認性指標値が所定値未満である場合、画像選択部180は、これら実画像に代えて3D地図画像Aを選択する。また、可視画像、赤外画像、距離画像、及び高感度センサ画像Aの全てについて一部の領域のみの視認性指標値が低い場合には、その領域についてのみ実画像に代えて3D地図画像Aで補完してもよい。こうして主操縦士の視野範囲の画像として、いずれかの実画像、複数の異なる種類の実画像を繋ぎ合わせた画像、実画像と仮想的な画像とを繋ぎ合わせた画像、又は仮想的な画像(3D地図画像)が得られる。また副操縦士の視野範囲の画像についても同様である。 Further, when the visibility index value of a part of the visible image is low and the visibility index value of the corresponding region in the infrared image, the distance image, or the high-sensitivity sensor images A and B is high, the image complementing unit 181 Complementary processing is performed to replace an image in a region having a low visibility index value among visible images with an infrared image, a distance image, or an image in high-sensitivity sensor images A and B. Furthermore, when the visibility index value is less than a predetermined value for all of the visible image, the infrared image, the distance image, and the high-sensitivity sensor image A, the image selection unit 180 replaces these actual images with the 3D map image A. Select. Further, when the visibility index value of only a part of the visible image, the infrared image, the distance image, and the high-sensitivity sensor image A is low, the 3D map image A is replaced with the actual image only for that area. May be complemented with. In this way, as the image of the viewing range of the main pilot, one of the real images, an image obtained by joining a plurality of different types of real images, an image obtained by joining a real image and a virtual image, or a virtual image ( 3D map image) is obtained. The same applies to the image of the field of view of the co-pilot.

画像重畳部183は、上述したように選択された又は補完されたあとの、主操縦士、副操縦士それぞれに対する画像に、シンボル画像A、Bを重畳して表示画像A、Bを作成する。なお、こうした画像を重畳するか否かは操縦者が選択できるようにしておくとよい。 The image superimposition unit 183 superimposes the symbol images A and B on the images for the main pilot and the co-pilot after being selected or complemented as described above to create the display images A and B. It is preferable that the operator can select whether or not to superimpose such images.

また、上述したように距離画像はヘリコプタ100からの距離に応じて機外の各物体(障害物等)を異なる色で以て表示したものであるため、距離画像上の色を見ると各物体までの距離を把握し易い。そこで、距離画像は実画像として扱わず、画像重畳部183は、シンボル画像A、Bとともに距離画像を、上述したように選択された又は補完されたあとの画像に重畳することにより表示画像A、Bを生成してもよい。 Further, as described above, since the distance image is a display of each object (obstacle, etc.) outside the aircraft in different colors according to the distance from the helicopter 100, each object is viewed in different colors when looking at the colors on the distance image. It is easy to grasp the distance to. Therefore, the distance image is not treated as a real image, and the image superimposition unit 183 superimposes the distance image together with the symbol images A and B on the image after being selected or complemented as described above, thereby displaying the display image A. B may be generated.

制御・処理部1では上述したようなデータ処理により、主操縦士用の頭部装着型表示装置2Aの表示部22に表示される表示画像Aと、副操縦士用の頭部装着型表示装置2Bの表示部22に表示される表示画像Bとが作成される。こうして作成された表示画像が頭部装着型表示装置2A、2Bにそれぞれ送られて表示部22により表示される。したがって、仮に外界が可視画像、赤外画像で殆ど見えない状況であっても、主操縦士及び副操縦士の眼前には、3D地図画像が外界から到来する外光による画像に重畳して表示される。 In the control / processing unit 1, the display image A displayed on the display unit 22 of the head-mounted display device 2A for the main pilot and the head-mounted display device for the co-pilot are displayed by the data processing as described above. A display image B to be displayed on the display unit 22 of 2B is created. The display image thus created is sent to the head-mounted display devices 2A and 2B, respectively, and displayed by the display unit 22. Therefore, even if the outside world is almost invisible in the visible image and the infrared image, the 3D map image is superimposed and displayed on the image by the outside light coming from the outside world in front of the main pilot and the co-pilot. Will be done.

[表示画像作成処理の具体例]
図3は、主操縦士用の表示画像の作成処理の信号の流れの一例を示す図である。これは、主操縦士の頭部の方向にセンサポッド3が追従している場合である。
上述したように、3D地図画像作成部11はGNSS/INSデータによる航空機の位置情報等に基づいて3D地図画像を作成するが、GNSS/INSデータの精度や遅延、機体の機動、速度等によって、生成された3D地図画像と実外界間とでずれが生じる可能性がある。そこで、画像マッチング部12は、高感度センサ画像A、赤外画像、可視画像、又は距離画像のいずれか一つ又は複数から得られた特徴情報を用い、その時点での外界の実画像とマッチングしている3D地図画像を生成する。外界の実画像と3D地図画像とのマッチングの具体例については後述する。
[Specific example of display image creation process]
FIG. 3 is a diagram showing an example of a signal flow in the process of creating a display image for the main pilot. This is the case where the sensor pod 3 follows the direction of the head of the main pilot.
As described above, the 3D map image creation unit 11 creates a 3D map image based on the position information of the aircraft based on the GNSS / INS data, but depending on the accuracy and delay of the GNSS / INS data, the maneuverability of the aircraft, the speed, etc. There may be a discrepancy between the generated 3D map image and the real world. Therefore, the image matching unit 12 uses the feature information obtained from any one or more of the high-sensitivity sensor image A, the infrared image, the visible image, and the distance image, and matches with the real image of the outside world at that time. Generate a 3D map image. A specific example of matching between a real image of the outside world and a 3D map image will be described later.

表示画像作成処理部18は上述したように各画像から主操縦士の視野範囲に対応する領域の画像を抽出する。そして視認性指標値を参照し、可視画像、赤外画像、距離画像、高感度センサ画像Aの中で視認性指標値が最も高い画像を選択するとともに、その画像の中の不明瞭部分を3D地図画像Aで補完する。或いは、画像全体の視認性が低い場合には、該画像に代えて3D地図画像Aを選択する。その補完後の又は選択後の画像に、シンボル画像Aを重畳して表示画像Aとして出力する。 As described above, the display image creation processing unit 18 extracts an image of a region corresponding to the visual field range of the main pilot from each image. Then, referring to the visibility index value, the image having the highest visibility index value among the visible image, the infrared image, the distance image, and the high-sensitivity sensor image A is selected, and the unclear part in the image is 3D. Complement with map image A. Alternatively, when the visibility of the entire image is low, the 3D map image A is selected instead of the image. The symbol image A is superimposed on the complemented or selected image and output as the display image A.

図4は、副操縦士用の表示画像の生成処理の信号の流れの一例を示す図である。
この場合、図3に示したように実画像に対してマッチングされた3D地図画像が得られているので、表示画像作成処理部18は、可視画像、赤外画像、距離画像、高感度センサ画像Bの中で視認性指標値が最も高い画像を選択するとともに、その画像の中の不明瞭部分を副操縦士の視野範囲に対応する3D地図画像Bで補完する。或いは、画像全体の視認性が低い場合には、該画像に代えて3D地図画像Bを選択する。その補完後の又は選択後の画像にシンボル画像Bを重畳して表示画像Bとして出力する。
FIG. 4 is a diagram showing an example of the signal flow of the display image generation processing for the co-pilot.
In this case, since a 3D map image matched with the actual image is obtained as shown in FIG. 3, the display image creation processing unit 18 can perform a visible image, an infrared image, a distance image, and a high-sensitivity sensor image. The image having the highest visibility index value is selected from B, and the unclear portion in the image is complemented with the 3D map image B corresponding to the viewing range of the assistant pilot. Alternatively, when the visibility of the entire image is low, the 3D map image B is selected instead of the image. The symbol image B is superimposed on the complemented or selected image and output as a display image B.

[実外界と3D地図画像とのマッチングの具体例]
図5は、3D地図画像と実外界とのマッチング方法の一具体例を示す概念図である。
いま、図5(a)に示すように、センサポッド3のマルチセンサ部30に含まれるカメラで所定の範囲の実画像が取得されているものとする。この画像から抽出した物体の輪郭や特徴部位等を利用して、3D地図画像と実外界とのマッチングを行う。ここでは、実画像に現れている山の稜線の形状(図中に太線で示している部分)などの複数の特徴部位を抽出することができる。
[Specific example of matching between the real outside world and 3D map image]
FIG. 5 is a conceptual diagram showing a specific example of a matching method between a 3D map image and the real outside world.
Now, as shown in FIG. 5A, it is assumed that the actual image in a predetermined range is acquired by the camera included in the multi-sensor unit 30 of the sensor pod 3. Matching between the 3D map image and the real outside world is performed using the contours and feature parts of the object extracted from this image. Here, it is possible to extract a plurality of characteristic parts such as the shape of the mountain ridge line (the part indicated by the thick line in the figure) appearing in the actual image.

3D地図画像作成部11はデジタル地図データに基づいて、広い範囲の周囲外界(以下、3D地図画像空間という)の地図画像を生成する。画像マッチング部12は、3D地図画像空間全体の中で、実画像から得られた特徴部位に合致する部分を探索する。そして、合致する部分が見つかったならば、それに合わせて3D地図画像空間の地図画像を拡大・縮小するとともに位置を合わせる(図5(b))。そうして、そのマッチング後の3D地図画像空間の地図画像から、図5(c)に示すように、主操縦士及び副操縦士それぞれの視野範囲に対応した各画像(部分3D地図画像)を切り出して表示画像A、Bに代替したり補完したりするために使用する。このように、広範囲の3D地図画像空間の地図画像を作成しておくことで、主操縦士や副操縦士が急に視野範囲を変えた場合でも、速やかにその変化に追従した部分3D地図画像を取得することができる。 The 3D map image creation unit 11 generates a map image of a wide range of the surrounding external world (hereinafter referred to as 3D map image space) based on the digital map data. The image matching unit 12 searches for a portion of the entire 3D map image space that matches the feature portion obtained from the actual image. Then, when a matching portion is found, the map image in the 3D map image space is enlarged / reduced and the position is adjusted accordingly (FIG. 5 (b)). Then, from the map image of the 3D map image space after the matching, as shown in FIG. 5 (c), each image (partial 3D map image) corresponding to the viewing range of each of the main pilot and the sub pilot is obtained. It is cut out and used to replace or complement the displayed images A and B. By creating a map image of a wide range of 3D map image space in this way, even if the main pilot or sub-pilot suddenly changes the field of view, the partial 3D map image that quickly follows the change. Can be obtained.

以上のように本実施形態の操縦支援システムでは、主操縦士及び副操縦士がそれぞれ装着している頭部装着型表示装置2A、2Bのバイザを介して、カメラにより撮影された赤外画像や可視画像を外界による背景画像に重畳して表示することができ、その赤外画像や可視画像の全体又は一部の視認性が低下した場合には、それに代えて又は一部を補完して仮想的な3D地図画像を表示することができる。そして、そうした背景画像に重畳される表示画像を、主操縦士や副操縦士の頭部の動きに迅速に追従させることができる。その結果、肉眼による外界の視認性が低下する場合であっても、操縦者による外界の状況認識能力を向上させることができ、ヘリコプタ100の飛行の安全性を向上させることができる。 As described above, in the maneuvering support system of the present embodiment, the infrared image captured by the camera via the visors of the head-mounted display devices 2A and 2B worn by the main pilot and the co-pilot, respectively. A visible image can be displayed superimposed on a background image by the outside world, and if the visibility of the infrared image or visible image deteriorates in whole or in part, it is virtual instead or partially complemented. 3D map image can be displayed. Then, the display image superimposed on the background image can be quickly made to follow the movement of the heads of the main pilot and the co-pilot. As a result, even when the visibility of the outside world with the naked eye is lowered, the ability of the operator to recognize the situation of the outside world can be improved, and the flight safety of the helicopter 100 can be improved.

もちろん、こうした操縦士や副操縦士に限らず、ヘリコプタ100等の移動体に搭乗している人が外界の状況を確認する必要がある状況はしばしばある。したがって、こうしたシステムを利用可能あるのは実際に操縦を行う者やそれを補佐・補助する者に限らない。 Of course, not only such pilots and co-pilots, but also those who are on board a moving body such as a helicopter 100 often need to check the situation of the outside world. Therefore, such a system can be used not only by the person who actually operates the system and the person who assists / assists it.

また、上記実施形態のシステムでは、実画像と仮想画像(3D地図画像)とをマッチングさせたあとに主操縦士及び副操縦士それぞれの視野範囲の画像を抽出していたが、逆に、先に実画像と仮想画像(3D地図画像)とで視野範囲の画像を抽出したあとに、それら抽出された画像のマッチングを行うようにしてもよい。 Further, in the system of the above embodiment, after matching the real image and the virtual image (3D map image), the images of the viewing ranges of the main pilot and the sub pilot are extracted. After extracting the image of the viewing range from the real image and the virtual image (3D map image), the extracted images may be matched.

さらにまた、上記実施形態は本発明の一例にすぎず、上記記載の変形例にとどまらず、本発明の趣旨の範囲で適宜、変更や修正、追加を行っても本願特許請求の範囲に包含されることは当然である。 Furthermore, the above-described embodiment is merely an example of the present invention, and is not limited to the above-described modification, and is included in the claims of the present application even if it is appropriately changed, modified, or added within the scope of the purpose of the present invention. It is natural that.

[種々の態様]
上述した例示的な実施形態が以下の態様の具体例であることは、当業者には明らかである。
[Various aspects]
It will be apparent to those skilled in the art that the exemplary embodiments described above are specific examples of the following embodiments.

(第1項)本発明の一態様に係る操縦支援システムは、
移動体中の利用者が視認している視野範囲を特定する視野範囲特定部と、
前記移動体から見える外界の実画像を取得する実画像取得部と、
前記移動体の現在位置付近における3次元地図情報に基づいて、前記移動体から見えると想定される外界の仮想画像を作成する3次元地図画像作成部と、
前記実画像と前記仮想画像とにおいて少なくとも前記視野範囲に対応する部分をマッチングさせた状態で、そのマッチング後の画像を前記利用者の視界に重畳して表示する表示処理部と、
を備えるものである。
(Section 1) The maneuvering support system according to one aspect of the present invention is
A visual field range specifying part that specifies the visual field range that the user in the moving body is viewing, and
A real image acquisition unit that acquires a real image of the outside world seen from the moving body,
A 3D map image creation unit that creates a virtual image of the outside world that is assumed to be visible from the moving body based on the 3D map information near the current position of the moving body.
A display processing unit that displays the matched image superimposed on the user's field of view in a state where at least a portion corresponding to the visual field range is matched between the real image and the virtual image.
Is provided.

第1項に記載の操縦支援システムによれば、夜間や悪天候等による低視程の状況下であって、実際の外界の撮影画像の全体又はその一部が不鮮明である状況であっても、3次元地図情報を利用して利用者が見ている視野範囲における撮影画像の全部又は一部を補って、視認性の高い画像を利用者の眼前に表示することができる。それにより、利用者による外界の状況認識能力を向上させることができ、利用者による移動体の飛行や走行、運行の安全性を向上させることができる。 According to the maneuvering support system described in paragraph 1, even in a situation where the visibility is low due to nighttime or bad weather, and the whole or a part of the actual photographed image of the outside world is unclear, 3 The three-dimensional map information can be used to supplement all or part of the captured image in the visual field range viewed by the user, and a highly visible image can be displayed in front of the user's eyes. As a result, the ability of the user to recognize the situation in the outside world can be improved, and the safety of the user's flight, running, and operation of the moving body can be improved.

(第2項)第1項に記載の操縦支援システムにおいて、前記視野範囲特定部は、前記利用者が頭部に装着する装着物又は該利用者が居る移動体内空間に設けられ、該利用者の頭部の静的な及び/又は動的な状態を検知する状態検知部を含み、該状態検知部により得られた情報に基づいて前記利用者の視野範囲を特定するものとすることができる。 (Clause 2) In the maneuvering support system according to the first paragraph, the visual field range specifying portion is provided in a wearable object worn by the user on the head or in a moving body space in which the user is present, and the user. It can include a state detection unit that detects the static and / or dynamic state of the head of the head, and can specify the visual field range of the user based on the information obtained by the state detection unit. ..

ここで、利用者が頭部に装着する装着物とは典型的にはヘルメット又はゴーグルなどである。また、利用者が居る移動体内空間とは典型的には操縦室(コックピット)である。
第2項に記載の操縦支援システムによれば、利用者の頭部の位置や傾き角度、方向、角速度などを正確に且つ遅滞なく把握することができ、その頭部の動きに応じた適切な画像を利用者の眼前に表示することができる。
Here, the wearable object worn by the user on the head is typically a helmet or goggles. In addition, the space inside the moving body where the user is located is typically the cockpit.
According to the maneuvering support system described in Section 2, the position, tilt angle, direction, angular velocity, etc. of the user's head can be grasped accurately and without delay, and it is appropriate according to the movement of the head. The image can be displayed in front of the user's eyes.

(第3項)第1項又は第2項に記載の操縦支援システムにおいて、前記視野範囲特定部は、利用者の視線を計測する視線計測部を含み、該視線計測部により得られた情報に基づいて前記利用者の視野範囲を特定するものとすることができる。 (Clause 3) In the maneuvering support system according to the first or second paragraph, the visual field range specifying unit includes a line-of-sight measurement unit that measures the user's line-of-sight, and includes information obtained by the line-of-sight measurement unit. Based on this, the visual field range of the user can be specified.

第3項に記載の操縦支援システムによれば、利用者の実際の視線の方向を計測しているので、例えば顔が正面を向きながら視線を斜め左方又は右方に向けているような場合でも、利用者に実際に見えている外界の実画像とそれにマッチングした仮想画像とを利用者に見せることができる。 According to the maneuvering support system described in Section 3, the direction of the user's actual line of sight is measured. Therefore, for example, when the face is facing the front and the line of sight is directed diagonally to the left or right. However, it is possible to show the user an actual image of the outside world that is actually visible to the user and a virtual image that matches the actual image.

(第4項)第1項〜第3項のいずれか一つに記載の操縦支援システムにおいて、前記視野範囲特定部は、前記利用者が装着している表示装置の表示可能範囲に基づいて該利用者の視野範囲を決定するものとすることができる。 (Clause 4) In the maneuvering support system according to any one of paragraphs 1 to 3, the visual field range specifying unit is based on the displayable range of the display device worn by the user. The viewing range of the user can be determined.

第4項に記載の操縦支援システムによれば、バイザ等で制約を受ける表示装置の表示可能範囲に応じた適切な視野範囲の画像を取得することができる。 According to the maneuvering support system described in paragraph 4, it is possible to acquire an image of an appropriate viewing range according to the displayable range of the display device restricted by the visor or the like.

(第5項)第1項〜第4項のいずれか一つに記載の操縦支援システムにおいて、前記利用者が頭部に装着する装着物に設けられた撮像部を前記実画像取得部を構成する構成部品として使用し、該撮像部による画像情報をマッチング処理に優先的に使用して処理の高速化を実現するものとすることができる。 (Clause 5) In the maneuvering support system according to any one of the items 1 to 4, the actual image acquisition unit constitutes the image pickup unit provided on the wearable object worn by the user on the head. It can be used as a component to be used, and the image information obtained by the imaging unit can be preferentially used for the matching process to realize high-speed processing.

利用者の頭部に装着する装着物(例えば上記表示装置)に設けられた撮像部は、その利用者の頭部方向と一致しており、他のセンサとは異なり画角修正等が不要である。したがって、第5項に記載の操縦支援システムによれば、この撮像部による画像情報をマッチング処理に使用することで、外界との高精度な重畳性の確保と共に処理の高速化を図ることができる。 The imaging unit provided on the wearable object (for example, the above display device) to be worn on the user's head coincides with the direction of the user's head, and unlike other sensors, there is no need to correct the angle of view. is there. Therefore, according to the maneuvering support system described in the fifth item, by using the image information obtained by the imaging unit for the matching process, it is possible to secure high-precision superposition with the outside world and speed up the process. ..

1…制御・処理部
10…シンボル画像作成部
11…3D地図画像作成部
12…画像マッチング部
13…視野範囲特定処理部
14…特徴部位抽出部
15…視認性指標算出部
16…視差補正部
17…スケーリング部
18…表示画像作成処理部
180…画像選択部
181…画像補完部
182…視野範囲画像抽出部
183…画像重畳部
2A、2B…頭部装着型表示装置
20…頭部角度/位置/角速度及び視線方向検出部
21…高感度センサ部
22…表示部
23…画像選択/合成部
24…バッテリ
3…センサポッド
30…マルチセンサ部
31…赤外線カメラ
32…可視カメラ
33…測距センサ
34…照明部
35…センサポッド制御部
4…飛行情報収集部
5…GNSS/INS装置
6…デジタル地図データベース
9…コネクタ
100…ヘリコプタ
1 ... Control / processing unit 10 ... Symbol image creation unit 11 ... 3D map image creation unit 12 ... Image matching unit 13 ... Visual field range specification processing unit 14 ... Feature part extraction unit 15 ... Visibility index calculation unit 16 ... Disparity correction unit 17 ... Scaling unit 18 ... Display image creation processing unit 180 ... Image selection unit 181 ... Image complementing unit 182 ... Field range image extraction unit 183 ... Image superimposing unit 2A, 2B ... Head-mounted display device 20 ... Head angle / position / Angle speed and line-of-sight direction detection unit 21 ... High-sensitivity sensor unit 22 ... Display unit 23 ... Image selection / composition unit 24 ... Battery 3 ... Sensor pod 30 ... Multi-sensor unit 31 ... Infrared camera 32 ... Visible camera 33 ... Distance measurement sensor 34 ... Lighting unit 35 ... Sensor pod control unit 4 ... Flight information collection unit 5 ... GNSS / INS device 6 ... Digital map database 9 ... Connector 100 ... Helicopter

Claims (5)

移動体中の利用者が視認している視野範囲を特定する視野範囲特定部と、
前記移動体から見える外界の実画像を取得する実画像取得部と、
前記移動体の現在位置付近における3次元地図情報に基づいて、前記移動体から見えると想定される外界の仮想画像を作成する3次元地図画像作成部と、
前記実画像と前記仮想画像とにおいて少なくとも前記視野範囲に対応する部分をマッチングさせた状態で、そのマッチング後の画像を前記利用者の視界に重畳して表示する表示処理部と、
を備える操縦支援システム。
A visual field range specifying part that specifies the visual field range that the user in the moving body is viewing, and
A real image acquisition unit that acquires a real image of the outside world seen from the moving body,
A 3D map image creation unit that creates a virtual image of the outside world that is assumed to be visible from the moving body based on the 3D map information near the current position of the moving body.
A display processing unit that displays the matched image superimposed on the user's field of view in a state where at least a portion corresponding to the visual field range is matched between the real image and the virtual image.
A maneuvering support system equipped with.
前記視野範囲特定部は、前記利用者が頭部に装着する装着物又は該利用者が居る移動体内空間に設けられ、該利用者の頭部の静的な及び/又は動的な状態を検知する状態検知部を含み、該状態検知部により得られた情報に基づいて前記利用者の視野範囲を特定する、請求項1に記載の操縦支援システム。 The visual field range specifying portion is provided in the wearable object worn by the user on the head or in the moving body space in which the user is present, and detects the static and / or dynamic state of the user's head. The maneuvering support system according to claim 1, further comprising a state detection unit for specifying a visual field range of the user based on the information obtained by the state detection unit. 前記視野範囲特定部は、利用者の視線を計測する視線計測部を含み、該視線計測部により得られた情報に基づいて前記利用者の視野範囲を特定する、請求項1に記載の操縦支援システム。 The maneuvering support according to claim 1, wherein the visual field range specifying unit includes a line-of-sight measuring unit that measures the user's line of sight, and specifies the user's visual field range based on the information obtained by the line-of-sight measuring unit. system. 前記視野範囲特定部は、前記利用者が装着している表示装置の表示可能範囲に基づいて該利用者の視野範囲を決定する、請求項1〜3のいずれか1項に記載の操縦支援システム。 The maneuvering support system according to any one of claims 1 to 3, wherein the visual field range specifying unit determines the visual field range of the user based on the displayable range of the display device worn by the user. .. 前記利用者が頭部に装着する装着物に設けられた撮像部を前記実画像取得部を構成する構成部品として使用し、該撮像部による画像情報をマッチング処理に優先的に使用して処理の高速化を実現する、請求項1〜4のいずれか1項に記載の操縦支援システム。 The imaging unit provided on the wearable object worn by the user on the head is used as a component component of the actual image acquisition unit, and the image information obtained by the imaging unit is preferentially used for the matching process for processing. The maneuvering support system according to any one of claims 1 to 4, which realizes high speed.
JP2019151023A 2019-08-21 2019-08-21 Pilot support system Active JP7367922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019151023A JP7367922B2 (en) 2019-08-21 2019-08-21 Pilot support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019151023A JP7367922B2 (en) 2019-08-21 2019-08-21 Pilot support system

Publications (2)

Publication Number Publication Date
JP2021030806A true JP2021030806A (en) 2021-03-01
JP7367922B2 JP7367922B2 (en) 2023-10-24

Family

ID=74674857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019151023A Active JP7367922B2 (en) 2019-08-21 2019-08-21 Pilot support system

Country Status (1)

Country Link
JP (1) JP7367922B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032292A1 (en) * 2021-09-02 2023-03-09 ソニーグループ株式会社 Information processing method, information processing program, and information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (en) * 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd Operation support device for helicopter
WO2016152572A1 (en) * 2015-03-20 2016-09-29 日産自動車株式会社 Indirect-view presentation device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344597A (en) 2000-05-30 2001-12-14 Fuji Heavy Ind Ltd Fused visual field device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001039398A (en) * 1999-07-30 2001-02-13 Kawasaki Heavy Ind Ltd Operation support device for helicopter
WO2016152572A1 (en) * 2015-03-20 2016-09-29 日産自動車株式会社 Indirect-view presentation device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032292A1 (en) * 2021-09-02 2023-03-09 ソニーグループ株式会社 Information processing method, information processing program, and information processing device

Also Published As

Publication number Publication date
JP7367922B2 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
EP1160541A1 (en) Integrated vision system
US9648313B1 (en) Aviation display system and method
CA2691375C (en) Aircraft landing assistance
EP1906151B1 (en) Imaging and display system to aid helicopter landings in brownout conditions
DK2227676T3 (en) APPARATUS AND METHOD OF LANDING A ROTOR AIR
US9158305B2 (en) Remote control system
CA2376184C (en) Head tracker system
US20210019942A1 (en) Gradual transitioning between two-dimensional and three-dimensional augmented reality images
US20190049949A1 (en) Modified-reality device and method for operating a modified-reality device
CN107010237B (en) System and method for displaying FOV boundaries on HUD
US8373590B1 (en) Method and a system for processing and displaying images of the surroundings of an aircraft
JP6831949B2 (en) Display control system, display control device and display control method
JP3252129B2 (en) Helicopter operation support equipment
JP7367922B2 (en) Pilot support system
KR102173476B1 (en) Signal processing system for aircraft
EP4040377A2 (en) Display systems and methods
JP6890759B2 (en) Flight route guidance system, flight route guidance device and flight route guidance method
US20120162248A1 (en) Method for Eliminating a Cockpit Mask and Associated Helmet-Mounted Display System
JP6821864B2 (en) Display control system, display control device and display control method
Knabl et al. Designing an obstacle display for helicopter operations in degraded visual environment
US20220301441A1 (en) Method and system for displaying and managing a situation in the environment of an aircraft
JP7367930B2 (en) Image display system for mobile objects
Hebel et al. Imaging sensor fusion and enhanced vision for helicopter landing operations
JP2004341936A (en) Flying support image display system
JP2021091276A (en) Operation support method for movable body and operation support system for movable body

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20191016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7367922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150