JPH10230899A - Man-machine interface of aerospace aircraft - Google Patents

Man-machine interface of aerospace aircraft

Info

Publication number
JPH10230899A
JPH10230899A JP9038859A JP3885997A JPH10230899A JP H10230899 A JPH10230899 A JP H10230899A JP 9038859 A JP9038859 A JP 9038859A JP 3885997 A JP3885997 A JP 3885997A JP H10230899 A JPH10230899 A JP H10230899A
Authority
JP
Japan
Prior art keywords
sound
crew
detection target
head
man
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9038859A
Other languages
Japanese (ja)
Inventor
Motoya Takeyama
素也 武山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP9038859A priority Critical patent/JPH10230899A/en
Publication of JPH10230899A publication Critical patent/JPH10230899A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make it possible for a crew to sense the direction of detection target by the sense of hearing by outputting a sound of which sound image is oriented by a binaural sound output device to the crew. SOLUTION: A detection target 21 is detected in the direction of ϕ21 and another detection target 22 is detected in the direction of ϕ22 for the direction of a nose of an aerospace aircraft 20. At that time, if a crew 17 of the aerospace aircraft 20 faces the direction of ϕ for the direction of the nose of the aerospace aircraft 20, each direction of the detection targets 21, 22 for the direction of the front of the crew's head is ϕ-ϕ21 and ϕ+ϕ22, respectively. Man-machine interface generates a sound of which sound image is oriented in the direction of the detection target for the direction of the front of the crew's head and orients it in such a manner that the direction of a sound source is continuously changed in proportion to an amount of change in the direction of the detection target. If the sound image orientation is set in this way, the direction of the sound source is smoothly changed in accordance with the change of the direction of the detection target.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、航空宇宙飛行機と飛行
シミュレーターにおいて、探知目標の方向を乗組員に伝
達するためのマンマシンインターフェースに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a man-machine interface for transmitting the direction of a detection target to a crew in an aerospace aircraft and a flight simulator.

【0002】[0002]

【従来の技術】航空宇宙飛行機において、探知情報を航
空宇宙飛行機の乗組員に伝達する手段として、主に、デ
ィスプレイ装置が用いられる。ディスプレイ装置は、通
常、CRT(Cathode-Ray Tube)が用いられ、乗組員に探知
情報を表示する。また、高い運動性能が要求される航空
機には、探知情報を表示する方法として、HUD(Head Up
Display)、HMD(Head Mounted Display)が用いられる。
この方法によれば、パイロットが前方を見たまま情報を
得ることができる。
2. Description of the Related Art In an aerospace aircraft, a display device is mainly used as a means for transmitting detection information to a crew of the aerospace aircraft. The display device usually uses a CRT (Cathode-Ray Tube), and displays detection information to the crew. For aircraft that require high athletic performance, HUD (Head Up
Display) and HMD (Head Mounted Display).
According to this method, the pilot can obtain information while looking ahead.

【0003】レーダー、赤外線、レーザーなどを用いた
探知装置は、人間が行う目視の能力を補うことができ
る。例えば、航空宇宙飛行機の乗組員は、肉眼で確認で
きないような遠方の目標をこれらの探知装置によって補
足することができる。また、雨や雲などの影響によって
視界不良の時であっても、目標の位置を知ることができ
る。さらに、人間の視野の範囲外にある側方や後方から
の探知情報を得ることもできる。これらの探知装置から
得られた目標の距離、方位、仰角の位置情報は、乗組員
の前に備えられたCRTやHUDなどのディスプレイ装置に表
示される。このように、航空宇宙飛行機の乗組員は、自
らの肉眼で目標を確認する手段のほかに、探知装置によ
って得られた探知情報をディスプレイ装置を介して確認
する手段を持っている。
A detection device using a radar, an infrared ray, a laser, or the like can supplement the human visual ability. For example, crews of aerospace aircraft can use these sniffers to capture distant targets that are not visible to the naked eye. In addition, even when visibility is poor due to the influence of rain or clouds, the position of the target can be known. Further, it is possible to obtain detection information from the side or the rear outside the range of the human visual field. Information on the distance, azimuth, and elevation of the target obtained from these detection devices is displayed on a display device such as a CRT or HUD provided in front of the crew. As described above, the crew of the aerospace aircraft has a means for confirming the detection information obtained by the detection device via the display device in addition to the means for confirming the target with its own eyes.

【0004】しかし、それらの情報の知覚は、肉眼によ
る場合であっても、ディスプレイ装置による場合であっ
ても、専ら視覚によるものである。探知情報を乗組員に
知らせるために、しばしば警報音を鳴らす場合がある
が、その目的は主に、乗組員に計器パネルやディスプレ
イ装置を確認するように注意を促すことにある。したが
って、乗組員の視覚に対するストレスは、非常に高い状
態にある。
[0004] However, the perception of such information is exclusively visual, whether by the naked eye or by a display device. Often, an audible alarm is sounded to inform the crew of detection information, but the primary purpose is to alert the crew to check the instrument panel and display device. Therefore, the crew's visual stress is very high.

【0005】さて、次に、サウンドに関する公知の技術
を紹介する。それは、バイノーラルによる音像定位の技
術である。バイノーラルは両耳で受聴することであり、
通常私達が私達の周りの音を聞いている状態である。私
達はバイノーラルによって音源の方向や距離を知覚する
ことができる。これが音像定位である。
[0005] Next, well-known techniques relating to sound will be introduced. It is a technique of sound image localization by binaural. Binaural means listening in both ears,
Usually we are listening to the sounds around us. We can perceive the direction and distance of the sound source by binaural. This is sound image localization.

【0006】バイノーラルによる音像定位の理論と技術
については、幾つかの文献を引用する。その一つは、H.
W.Gierlich氏の「Application of Binaural Technolog
y」Applied Acoustics 36 (1992 Elsevier Science Pub
lishers Ltd, England)の記事である。また、別の文献
として、F.L.Wightman氏とD.J.Kistler氏の「Headphone
Simulation of Free-Field Listening I: Stimulus Syn
thesis」J. Acoust. Soc. Amer., Vol. 85, pp.858-867
(1989) と、F.L.Wightman氏とD.J.Kistler氏の「Headp
hone Simulation of Free-Field Listening II: Psycho
physical Validation」J. Acoust. Soc. Amer., Vol. 8
5, pp.868-878 (1989)がある。さらに、米国特許第4,38
8,494号と、米国特許第4,817,149号と、米国特許第5,22
2,059号によって技術が開示されている。このように、
バイノーラルによる音像定位の技術は、オーディオの分
野で、より臨場感のあるサウンドを再現する技術であ
る。
Several references are cited for the theory and technology of binaural sound image localization. One of them is H.
W. Gierlich's Application of Binaural Technolog
y '' Applied Acoustics 36 (1992 Elsevier Science Pub
lishers Ltd, England). Another document is FLWightman and DJKistler's "Headphone
Simulation of Free-Field Listening I: Stimulus Syn
thesis "J. Acoust. Soc. Amer., Vol. 85, pp. 858-867
(1989) and FLWightman and DJKistler's Headp
hone Simulation of Free-Field Listening II: Psycho
physical Validation "J. Acoust. Soc. Amer., Vol. 8
5, pp.868-878 (1989). In addition, U.S. Pat.
No. 8,494 and U.S. Pat.No. 4,817,149 and U.S. Pat.
No. 2,059 discloses the technology. in this way,
The binaural sound image localization technology is a technology for reproducing a more realistic sound in the audio field.

【0007】[0007]

【発明が解決しようとする課題】本発明は、航空宇宙飛
行機の乗組員の過度な視覚負荷を軽減する。
SUMMARY OF THE INVENTION The present invention reduces the excessive visual load on aerospace crew.

【0008】本発明の目的は、航空宇宙飛行機におい
て、乗組員が探知目標の方向を聴覚によって知覚するこ
とができるマンマシンインターフェースを提供すること
にある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a man-machine interface in an aerospace aircraft that allows a crew to sense the direction of a detection target by hearing.

【0009】また、本発明の他の目的は、飛行シミュレ
ーターの乗組員が仮想探知目標の方向を聴覚によって知
覚することができるマンマシンインターフェースを提供
することにある。
Another object of the present invention is to provide a man-machine interface that allows a crew of a flight simulator to sense the direction of a virtual detection target by hearing.

【0010】[0010]

【課題を解決するための手段】本発明は、航空宇宙飛行
機において、探知目標の方向をその航空宇宙飛行機の乗
組員に音像定位された音によって伝達するマンマシンイ
ンターフェースであって、 その探知目標の方向を得
て、その乗組員の頭の正面の方向を検出し、その探知目
標の方向とその乗組員の頭の正面の方向からその乗組員
の頭の正面の方向に対する探知目標の方向を計算し、音
源に用いる音をその乗組員の頭の正面の方向に対する探
知目標の方向に音像定位して、その音像定位された音を
生成し、その音像定位された音をサウンド出力装置によ
ってバイノーラルでその乗組員に出力する。
SUMMARY OF THE INVENTION The present invention relates to a man-machine interface in an aerospace aircraft for transmitting the direction of a detection target to a crew of the aerospace aircraft by sound image localized sound. Obtain the direction, detect the direction of the front of the crew's head, and calculate the direction of the detection target with respect to the direction of the front of the crew's head from the direction of the detection target and the direction of the front of the crew's head Then, the sound used for the sound source is sound image localized in the direction of the detection target with respect to the direction of the front of the crew's head, the sound image localized sound is generated, and the sound image localized sound is binaurally output by the sound output device. Output to the crew.

【0011】また、本発明は、飛行シミュレーターにお
いて、仮想探知目標の方向をその飛行シミュレーターの
乗組員に音像定位された音によって伝達するマンマシン
インターフェースであって、その仮想探知目標の方向を
得て、その乗組員の頭の正面の方向を検出し、その仮想
探知目標の方向とその乗組員の頭の正面の方向からその
乗組員の頭の正面の方向に対する仮想探知目標の方向を
計算し、音源に用いる音をその乗組員の頭の正面の方向
に対する仮想探知目標の方向に音像定位して、その音像
定位された音を生成し、その音像定位された音をサウン
ド出力装置によってバイノーラルでその乗組員に出力す
る。
The present invention also provides a man-machine interface in a flight simulator for transmitting the direction of a virtual detection target to a crew of the flight simulator by sound localized in a sound image. Detecting the direction of the front of the crew's head, calculating the direction of the virtual detection target with respect to the direction of the front of the crew head from the direction of the virtual detection target and the direction of the front of the crew head, The sound used for the sound source is sound image localized in the direction of the virtual detection target with respect to the direction of the front of the crew's head, the sound image localized sound is generated, and the sound image localized sound is binaurally output by the sound output device. Output to the crew.

【0012】[0012]

【実施例】まず、本発明の実施において、本発明を構成
する技術が実施可能であることを示すために、既に公開
された特許文献を引用しておく。その特許文献は、米国
特許第5,371,799号と、米国特許第4,658,932号と、米国
特許第5,333,200号と、米国特許第5,325,436号と、米国
特許第5,187,692号と、米国特許第4,739,513号である。
これらは特に、頭部伝達関数を用いて音像定位する技術
と、バイノーラルのレコーディングと再生の技術を開示
している。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, in order to show that the technology constituting the present invention can be implemented in the practice of the present invention, reference is made to already published patent documents. That patent is U.S. Pat. No. 5,371,799, U.S. Pat. No. 4,658,932, U.S. Pat. No. 5,333,200, U.S. Pat. No. 5,325,436, U.S. Pat. No. 5,187,692, and U.S. Pat.
They disclose, in particular, a technique for localizing a sound image using a head-related transfer function and a technique for recording and reproducing binaural.

【0013】本発明の構成を大まかに分けると、探知目
標の方向を得る部分と、乗組員の頭の正面の方向を検出
する部分と、その探知目標の方向とその乗組員の頭の正
面の方向からその乗組員の頭の正面の方向に対する探知
目標の方向を計算する部分と、音源に用いる音をその乗
組員の頭の正面の方向に対する探知目標の方向に音像定
位して、音像定位された音を生成する部分と、その音像
定位された音をサウンド出力装置によってバイノーラル
でその乗組員に出力する部分がある。
The structure of the present invention can be roughly divided into a part for obtaining the direction of the detection target, a part for detecting the front direction of the crew head, the direction of the detection target and the front part of the crew head. A part that calculates the direction of the detection target with respect to the front direction of the crew's head from the direction, and the sound image localization is performed by localizing the sound used for the sound source in the direction of the detection target with respect to the front direction of the crew's head. There is a part that generates the sound that is generated, and a part that outputs the sound whose sound image has been localized to the crew in a binaural manner by a sound output device.

【0014】それぞれの部分は、様々な実施態様がある
が、ここに好ましい実施例を示すことにする。
Although each part has various embodiments, a preferred embodiment will now be described.

【0015】図1において、探知情報1は、探知目標に
ついての情報である。探知の対象となる目標は様々であ
る。例えば、民間の航空機においては、航路上およびそ
の周辺の悪天候領域を探知し、これらの領域を避けて飛
行する必要がある。ACAS(Airborne Collision Avoidanc
e System)のように衝突の危険の生ずる可能性のある航
空機の接近を探知し、乗組員にトラフィック・アドバイ
ザリーを提供するシステムがある。また、軍用機におい
ては、敵機や味方機の方向を刻々と乗組員に伝達する必
要があり、飛行目的によっては、地上や海上の施設の方
向の情報が必要である。さらに、宇宙飛行機の飛行に
は、宇宙空間にある人工衛星や浮遊する障害物などの方
向を知る必要がある。このように、探知目標の方向2
は、航空宇宙飛行機の飛行にとって重要な情報である。
In FIG. 1, detection information 1 is information on a detection target. Targets to be detected are various. For example, in a commercial aircraft, it is necessary to detect bad weather areas on and around a sea route and fly around these areas. ACAS (Airborne Collision Avoidanc
Some systems, such as the e System), detect the approach of an aircraft that may cause a collision risk and provide crew members with traffic advisory. Further, in the case of a military aircraft, it is necessary to transmit the direction of an enemy aircraft or an allied aircraft to the crew every moment, and depending on the purpose of flight, it is necessary to provide information on the directions of facilities on the ground or at sea. In addition, flying a space plane requires knowing the direction of satellites and floating obstacles in space. Thus, the direction of the detection target 2
Is important information for aerospace flight.

【0016】方向は方位と仰角からなるが、本発明にお
いては、少なくとも方位、好ましくは方位と仰角の両方
を必要とする。また、探知目標の方位と仰角に加えて、
航空宇宙飛行機から探知目標までの距離が得られるなら
ば、探知目標の位置を知ることができる。
The direction comprises an azimuth and an elevation, but the present invention requires at least an azimuth, preferably both the azimuth and the elevation. In addition to the azimuth and elevation of the detection target,
If the distance from the aerospace aircraft to the detection target can be obtained, the position of the detection target can be known.

【0017】その探知目標の方向2を得る手段の一つ
は、航空宇宙飛行機に搭載された探知装置による。探知
装置には、レーダーによるもの、赤外線によるもの、レ
ーザーによるものなどがあり、それらを使用する環境に
あわせて選択することができる。例えば、レーダー探知
装置から探知目標の方向を得るには、レーダーアンテナ
の角度信号を S-D(Synchro-Digital)コンバータで変換
して得る方法や、フェイズド・アレイ・レーダーのレー
ダービーム走査方向から探知目標の方向を得る方法があ
る。また、レーダー探知装置によって探知目標までの距
離が得られることは公知である。
One of the means for obtaining the direction 2 of the detection target is a detection device mounted on an aerospace aircraft. The detection device includes a device using a radar, a device using an infrared ray, a device using a laser, and the like, and can be selected according to the environment in which the device is used. For example, to obtain the direction of the detection target from the radar detection device, a method of converting the angle signal of the radar antenna with an SD (Synchro-Digital) converter or obtaining the detection target from the radar beam scanning direction of the phased array radar. There is a way to get directions. It is also known that a radar detection device can obtain a distance to a detection target.

【0018】一般に、探知目標の方向は航空宇宙飛行機
の機首方向に対する方向として乗組員に伝達される。そ
の航空宇宙飛行機の機首方向はジャイロによってロール
角、ピッチ角、ヨー角を検出することで求められる。
Generally, the direction of the detection target is transmitted to the crew as a direction with respect to the nose direction of the aerospace aircraft. The nose direction of the aerospace aircraft is obtained by detecting a roll angle, a pitch angle, and a yaw angle using a gyro.

【0019】探知目標の方向2を得る別の手段は、デー
タリンクシステムによる。その航空宇宙飛行機は、それ
自身が装備している探知装置によらなくても、地上にあ
る探知設備、船舶や人工衛星または別の航空宇宙飛行機
に搭載された探知装置の探知情報を、データリンクシス
テムを介して受信し、探知目標の方向を得ることができ
る。
Another means for obtaining the direction 2 of the detection target is by a data link system. Instead of relying on its own equipment, the aerospace aircraft can use datalinks to detect information from on-ground detection equipment, ships, satellites, or other onboard aerospace aircraft. It can be received through the system to get the direction of the detection target.

【0020】一方、その航空宇宙飛行機の乗組員17の
頭の正面の方向を検出するには、公知の様々な手段によ
って実現できる。例えば、機械的な検出手段としてロー
タリーエンコーダーやポテンショメーターを用いること
ができる。また、磁気センサーをその乗組員の頭部に固
定して磁界の強度を測定し、その乗組員の頭の空間位置
を計測することができる。このような手段によってその
乗組員の頭の正面の方向がわかるが、本発明において別
の実施例を示すなら、テレビカメラ10でその乗組員の
頭部を撮影し、画像処理によってその乗組員の頭の向き
を検出する方法がある。画像処理による物体の位置検出
の技術は公知である。本発明においては、乗組員が航空
宇宙飛行機の機内にいることと、機内の広さや磁気など
の影響を受けやすい機器があることを考慮すれば、画像
処理によって乗組員の頭の正面の方向を検出する方法は
実用的である。
On the other hand, the direction in front of the head of the crew member 17 of the aerospace aircraft can be detected by various known means. For example, a rotary encoder or a potentiometer can be used as mechanical detection means. Further, the magnetic sensor is fixed to the head of the crew, the strength of the magnetic field is measured, and the spatial position of the head of the crew can be measured. By such means, the direction of the front of the crew's head can be known. However, in another embodiment of the present invention, the crew's head is photographed with the television camera 10 and the crew's head is image-processed. There is a method to detect the direction of the head. Techniques for detecting the position of an object by image processing are known. In the present invention, taking into account that the crew is inside the aerospace aircraft and that there are devices that are susceptible to the size and magnetism of the cabin, the front direction of the crew's head is determined by image processing. The detection method is practical.

【0021】これらの検出手段によって得られた、その
乗組員の頭の正面の方向11と、その探知目標の方向2
から、計算機3によって、その乗組員の頭の正面の方向
に対する探知目標の方向が計算される。その航空宇宙飛
行機の機首方向に対する探知目標の方向を、その乗組員
の頭の正面の方向に対する探知目標の方向に変換する必
要性は、その乗組員がその航空宇宙飛行機の機首方向で
ない方向を向いている場合は、その航空宇宙飛行機の機
首方向に対する探知目標の方向とその乗組員の頭の正面
の方向に対する探知目標の方向が一致しないからであ
る。
The direction 11 of the front of the crew's head and the direction 2 of the detection target obtained by these detecting means
, The direction of the detection target with respect to the direction of the front of the crew's head is calculated by the computer 3. The need to convert the direction of the detection target with respect to the aerospace plane's nose direction to the direction of the detection target with respect to the direction in front of the crew's head is determined by the direction in which the crew is not in the nose direction of the aerospace plane. This is because the direction of the detection target with respect to the nose direction of the aerospace aircraft does not match the direction of the detection target with respect to the direction in front of the crew's head.

【0022】このことを図3、図4によって説明する。
今、図3の例のように、航空宇宙飛行機20の機首方向
に対して、探知目標21がφ21の方向に探知され、ま
た、別の探知目標22が、φ22の方向に探知されたと
する。この時、その航空宇宙飛行機の乗組員17が、そ
の航空宇宙飛行機の機首方向に対してφの方向を向いて
いたとするなら、その乗組員の頭の正面の方向に対す
る、探知目標21、探知目標22のそれぞれの方向は、
φ-φ21、φ+φ22 である。さらに、図4の例のよ
うに、航空宇宙飛行機20の機首方向に対して、探知目
標21がθ21の方向に探知され、また、別の探知目標
22が、θ22の方向に探知されたとする。この時、そ
の航空宇宙飛行機の乗組員17が、その航空宇宙飛行機
の機首方向に対してθの方向を向いていたとするなら、
その乗組員の頭の正面の方向に対する、探知目標21、
探知目標22のそれぞれの方向は、θ-θ21、θ+θ2
2である。ただし、本発明の実施において、その探知目
標の方向2が仰角を含まず、方位のみの場合は、その乗
組員の頭の正面の方向に対する探知目標の方位をその航
空宇宙飛行機の高度における水平面上で反映させること
が望ましい。
This will be described with reference to FIGS.
Now, it is assumed that the detection target 21 is detected in the direction of φ21 with respect to the nose direction of the aerospace aircraft 20, and another detection target 22 is detected in the direction of φ22, as in the example of FIG. . At this time, if the crew 17 of the aerospace aircraft is oriented in the direction φ with respect to the nose direction of the aerospace aircraft, the detection target 21 and the detection target in the direction in front of the crew's head are detected. Each direction of the goal 22
φ-φ21, φ + φ22. Furthermore, as in the example of FIG. 4, it is assumed that the detection target 21 is detected in the direction of θ21 with respect to the nose direction of the aerospace aircraft 20, and another detection target 22 is detected in the direction of θ22. . At this time, if the crew 17 of the aerospace aircraft was oriented at θ with respect to the nose direction of the aerospace aircraft,
The detection target 21 in the direction in front of the crew's head,
The directions of the detection targets 22 are θ−θ21, θ + θ2.
2. However, in the practice of the present invention, if the direction 2 of the detection target does not include the elevation angle but includes only the azimuth, the azimuth of the detection target with respect to the direction in front of the crew's head is set on the horizontal plane at the altitude of the aerospace aircraft. It is desirable to be reflected in.

【0023】本発明のマンマシンインターフェースは、
乗組員の頭の正面の方向に対する探知目標の方向に音像
定位された音を生成する。本発明の実施例においては、
探知目標の方向の変化量に比例して音源の方向も連続的
に変化するように定位することができる。このような音
像定位の設定によれば、探知目標の方向の変化に伴っ
て、音源の方向も滑らかに変化していく。
The man-machine interface of the present invention
A sound localized in the direction of the detection target with respect to the direction in front of the crew's head is generated. In an embodiment of the present invention,
The localization can be performed so that the direction of the sound source also changes continuously in proportion to the amount of change in the direction of the detection target. According to the setting of the sound image localization, the direction of the sound source also changes smoothly with the change of the direction of the detection target.

【0024】しかし、人間の聴覚の方向分解能は、本発
明に用いる探知装置の方向分解能と比較すれば非常に低
い。そこで、本発明の別の実施例として、その乗組員の
頭の正面の方向に対する探知目標の方向分解能を30°と
し、非連続的な方向でその探知目標の方向を聴覚によっ
て知覚させることができる。この実施例においては、そ
の乗組員の頭の正面の方向に対する探知目標の方向の水
平面における方位分解能を30°に設定する実施例と、そ
の乗組員の頭の正面の方向に対する探知目標の方向の方
位分解能と仰角分解能を共に30°に設定する実施例をと
ることができる。
However, the directional resolution of human hearing is much lower than the directional resolution of the detection device used in the present invention. Therefore, as another embodiment of the present invention, the directional resolution of the detection target with respect to the direction in front of the crew's head can be set to 30 °, and the direction of the detection target can be perceived in a discontinuous direction by hearing. . In this embodiment, an embodiment in which the azimuth resolution in the horizontal plane of the direction of the detection target with respect to the direction of the front of the crew head is set to 30 °, and the direction of the detection target with respect to the direction of the front of the crew head is An embodiment in which the azimuth resolution and the elevation angle resolution are both set to 30 ° can be taken.

【0025】これを図5を用いて説明する。図5は、乗
組員17の周辺の三次元空間を示したものである。本発
明の実施例のうち、探知目標の方向が、仰角を含まない
方位のみの場合は、音源の方向は二次元の平面で定位す
ればよい。この二次元の平面は、その航空宇宙飛行機の
高度における水平面であることが望ましい。この水平面
の方位分解能を30°に設定するならば、その乗組員を中
心にして、水平面に12の方位を定めることができる。こ
のことは、航空分野において、しばしば方位を時計の文
字盤にたとえて、「2時の方向」のように呼ぶことに対
応するのに都合がよい。さらに、図5のように、探知目
標の方向が方位と仰角による場合、方位とともに仰角に
ついても、それぞれの分解能を30°に設定するならば、
その乗組員を中心にして空間に62の方向を定めることが
できる。このように定めた方向に対して音像定位するほ
うが、あらゆる方向に対応して音像定位する場合に比べ
て、頭部伝達関数の数や音像定位された音の数を減少さ
せ、計算処理や記憶装置への負担を減少させると共に、
聴覚による探知目標の方向の知覚に十分かつ実用的な効
果が得られる。
This will be described with reference to FIG. FIG. 5 shows a three-dimensional space around the crew 17. In the embodiment of the present invention, when the direction of the detection target is only the azimuth not including the elevation angle, the direction of the sound source may be localized on a two-dimensional plane. This two-dimensional plane is preferably a horizontal plane at the altitude of the aerospace aircraft. If the azimuth resolution of this horizontal plane is set to 30 °, 12 azimuths can be defined in the horizontal plane with the crew as the center. This is convenient in the aeronautical field, where the orientation is often referred to as a clock face and referred to as "two o'clock". Further, as shown in FIG. 5, when the direction of the detection target is based on the azimuth and the elevation angle, if the respective resolutions of the azimuth and the elevation angle are set to 30 °,
62 directions can be defined in the space around the crew. Sound image localization in the direction determined in this way reduces the number of head-related transfer functions and the number of sound image localized sounds compared to the case where sound image localization is performed in all directions, and performs calculation processing and storage. Reduce the burden on the device and
A sufficient and practical effect can be obtained for the perception of the direction of the detection target by hearing.

【0026】探知情報には航空宇宙飛行機からその探知
目標までの距離が含まれる場合がある。この場合、本発
明の実施例において、音像定位にその距離を反映させる
ことにより、その航空宇宙飛行機から探知目標までの距
離感を聴覚によって知覚することができる。
The detection information may include the distance from the aerospace aircraft to the detection target. In this case, in the embodiment of the present invention, by reflecting the distance in the sound image localization, the sense of distance from the aerospace aircraft to the detection target can be perceived by hearing.

【0027】しかし、探知目標がその航空宇宙飛行機か
ら 100kmの距離にあることを聴覚によって知覚しようと
する場合に、音源を実際の探知距離と等倍の距離に位置
させることは現実的でない。本発明の実施例において
は、その航空宇宙飛行機から探知目標までの探知距離を
10,000分の1 から 1,000分の1 の範囲で縮尺した距離
を求め、その乗組員からその縮尺した距離に音源に用い
る音を音像定位させる。例えば、本発明の縮尺率を 10,
000分の1 とするならば、100kmの距離にあるその探知目
標は乗組員の頭から10mの距離に、10kmの距離にあるそ
の探知目標は乗組員の頭から1mの距離に音像定位させ
る。これを図6によって説明すれば、その乗組員17の
乗った航空宇宙飛行機の探知範囲19を探知目標21が
飛行するとき、P1、P2、P3、P4の各通過ポイン
トにおいてその乗組員にその探知目標の方向と距離を音
像定位された音で伝達するとすれば、それぞれの通過ポ
イントにおけるその探知目標との距離を 10,000分の1
から 1,000分の1 の範囲で縮尺して求めた縮尺した距離
の位置p11、p12、p13、p14で音像定位し
て、乗組員に伝達することによってその探知目標との距
離の変化を聴覚によって知覚することができる。
However, it is not realistic to locate the sound source at a distance equal to the actual detection distance when trying to auditorily perceive that the detection target is at a distance of 100 km from the aerospace plane. In the embodiment of the present invention, the detection distance from the aerospace aircraft to the detection target is determined.
The scaled distance is calculated in the range of 1/10000 to 1/1000, and the sound used for the sound source is localized from the crew to the scaled distance. For example, if the scale of the present invention is 10,
If it is 1/1000, the target located at 100 km is located 10 m from the crew's head, and the target located at 10 km is located 1 m from the crew's head. This will be described with reference to FIG. 6. When the detection target 21 flies through the detection range 19 of the aerospace aircraft on which the crew member 17 is riding, the crew member performs the detection at each passing point of P1, P2, P3, and P4. Assuming that the direction and distance of the target are transmitted by sound image localized sound, the distance to the detection target at each passing point is 1 / 10,000.
The sound image is localized at the positions p11, p12, p13, and p14 of the scaled distances obtained by reducing the scale in a range of 1/1000 from, and the change in the distance from the detection target is perceived by hearing. can do.

【0028】しかし、音の強さは距離の2乗に比例して
減衰するため、探知目標の広いレンジの距離の変化を聴
覚に適度な音の強さで知覚させることは困難である。航
空宇宙飛行機の機内のようにノイズが存在する環境にお
いて、減衰した音の知覚のために聞き耳を立てることは
好ましくない。そこで、本発明の別の実施例において、
探知目標の距離によらず、乗組員から常に一定の距離で
音像定位する実施例がある。この場合は音像定位する距
離を、10cmから10mの範囲に設定し、好ましくは50cmか
ら5mの範囲に設定することによって、良い効果を得る
ことができる。これを図6によって説明すれば、その乗
組員17の乗った航空宇宙飛行機の探知範囲19を探知
目標21が飛行するとき、 P1、P2、P3、P4の
各通過ポイントにおいてその乗組員にその探知目標の方
向を音像定位された音で伝達するとすれば、それぞれの
通過ポイントにおけるその探知目標との距離にかかわら
ず、その乗組員の頭から一定の距離にあるp21、p2
2、p23、p24で音像定位して、その乗組員に伝達
することによって、音による距離感は知覚できないもの
の、常に一定の適度な音の強さでその探知目標の方向を
聴覚によって知覚することができる。
However, since the intensity of the sound attenuates in proportion to the square of the distance, it is difficult to perceive a change in distance over a wide range of the detection target with an appropriate sound intensity for hearing. In a noisy environment, such as in an aerospace aircraft, it is not desirable to listen for the perception of attenuated sound. Thus, in another embodiment of the present invention,
There is an embodiment in which sound image localization is always performed at a fixed distance from the crew regardless of the distance of the detection target. In this case, a good effect can be obtained by setting the distance at which the sound image is localized in the range of 10 cm to 10 m, and preferably in the range of 50 cm to 5 m. This will be described with reference to FIG. 6. When the detection target 21 flies in the detection range 19 of the aerospace aircraft on which the crew member 17 is riding, the crew member performs the detection at each passing point of P1, P2, P3, and P4. Assuming that the direction of the target is transmitted by sound image-localized sound, p21 and p2 at a fixed distance from the head of the crew, regardless of the distance to the detection target at each passing point.
2. By localizing the sound image at p23 and p24 and transmitting it to the crew, the sense of distance due to sound cannot be perceived, but the direction of the detection target is always perceived by the auditory sense with a constant appropriate sound intensity. Can be.

【0029】図1を用いて引き続き説明すると、音源に
用いる音の種類には、探知情報1の内容によって様々な
例が実施できる。例えば、探知情報に探知目標の種類の
情報が含まれているなら、それを音声メッセージとして
音源に用いる音とすることができる。また、前述したよ
うに、探知目標との距離にかかわらず常に一定の距離で
音像定位するなら、音声メッセージに探知目標との距離
情報を用いてもよい。この機能は、公知の音声合成技術
を用いることで実現できる。もし、探知情報1によっ
て、音源に用いる音の種類を変更するのであれば、セレ
クタ12によって選択する。本発明の実施例によれば、
記憶装置13に格納した音声メッセージのデータを、探
知情報1に基づいて、セレクタ12で指定し、その音声
メッセージのデータをシンセサイザ14で合成して、音
源に用いる音を生成する。他の実施例として音源に、警
告、警報に使われるビープ音を用いることができる。こ
の場合は、図1の音声合成を行う回路を一般に使われる
ビープ音を発生させる電子回路に換えて、音源に用いる
音を生成することで実現できる。
Continuing the description with reference to FIG. 1, various examples of the type of sound used for the sound source can be implemented depending on the contents of the detection information 1. For example, if the detection information includes information on the type of the detection target, it can be used as a sound used as a sound source as a voice message. Further, as described above, if sound image localization is always performed at a fixed distance regardless of the distance to the detection target, information on the distance to the detection target may be used in the voice message. This function can be realized by using a known speech synthesis technique. If the type of sound used for the sound source is to be changed according to the detection information 1, the selector 12 selects the type. According to an embodiment of the present invention,
The voice message data stored in the storage device 13 is specified by the selector 12 based on the detection information 1, and the voice message data is synthesized by the synthesizer 14 to generate a sound to be used as a sound source. As another embodiment, a beep sound used for a warning and a warning can be used as a sound source. In this case, it can be realized by generating a sound used for a sound source in place of the commonly used electronic circuit for generating a beep sound in the circuit for performing speech synthesis shown in FIG.

【0030】上記のステップに続いて、計算機3によっ
て計算された、その乗組員の頭の正面の方向に対する探
知目標の方向に基づき、頭部伝達関数マップ4からその
方向に対する頭部伝達関数を選択し、その音源に用いる
音を DSP(Digital Signal Processor)5で音像定位し
て、音像定位された音を生成する。この音像定位された
音を、D-A(Digital-Analog)コンバータ6a、6bと、
アンプ7a、7bで信号処理して、乗組員17の付け
る、サウンド出力装置であるヘッドフォン8の左右それ
ぞれのスピーカー9a、9bからバイノーラルで出力す
る。
Following the above steps, a head-related transfer function for that direction is selected from the head-related transfer function map 4 based on the direction of the detection target with respect to the direction of the head of the crew calculated by the computer 3. Then, the sound used for the sound source is sound image localized by a DSP (Digital Signal Processor) 5 to generate a sound image localized sound. The localized sound is converted into DA (Digital-Analog) converters 6a and 6b,
Signal processing is performed by the amplifiers 7a and 7b, and the signals are binaurally output from the left and right speakers 9a and 9b of the headphone 8, which is a sound output device, attached to the crew 17.

【0031】図2において、その乗組員の頭の正面の方
向に対する探知目標の方向に音像定位された音を生成す
る別の実施例を示す。図2の各構成要素に付した符号が
図1と共通のものは、同じ機能である。この実施例にお
いては、その乗組員に伝達する音は、あらかじめその音
源に用いる音をその乗組員の頭の正面の方向に対する探
知目標の方向分解能のすべての方向に音像定位して、音
像定位された音を生成し、記憶装置15に、その音像定
位された音として格納されたものを用いる。あらかじめ
音像定位された音を用いるため、音の再生には、頭部伝
達関数や DSPが不要となる。図2の実施例では、計算機
3によって計算された、その乗組員の頭の正面の方向に
対する探知目標の方向に基づき、その方向に対するその
音像定位された音を、記憶装置15から読み出し、信号
処理して、サウンド出力装置にバイノーラルで出力す
る。
FIG. 2 shows another embodiment for generating a sound localized in the direction of the detection target with respect to the direction of the front of the crew's head. 2 have the same functions as those in FIG. 1. In this embodiment, the sound transmitted to the crew is sound image localized in advance by using the sound used for the sound source in all directions of the directional resolution of the detection target with respect to the front direction of the head of the crew. The generated sound is used, and the sound stored as the sound image localized sound is used in the storage device 15. Since the sound localized in advance is used, head-related transfer functions and DSP are not required for sound reproduction. In the embodiment of FIG. 2, based on the direction of the detection target with respect to the direction of the head of the crew calculated by the computer 3, the sound image localized in that direction is read from the storage device 15 and signal processing is performed. Then, the data is binaurally output to the sound output device.

【0032】音源を特定の位置に定位して、バイノーラ
ルでリスナーに出力する技術は前述の文献に開示されて
いる。
A technique for localizing a sound source at a specific position and outputting the sound to a listener in a binaural manner is disclosed in the aforementioned document.

【0033】さて、本発明の別の目的は、飛行シミュレ
ーターの乗組員に、仮想の探知目標の方向を聴覚によっ
て知覚することができるマンマシンインターフェースを
提供することにある。この目的を実現させるための本発
明の構成は、既に説明した航空宇宙飛行機の乗組員に探
知目標の方向を伝達する方法に準じている。飛行シミュ
レーターの主な用途は、乗組員に対する航空宇宙飛行機
の操縦訓練と、アミューズメント分野における航空宇宙
飛行機の体験である。そのため、本発明において、実際
の航空宇宙飛行機と飛行シミュレーターとの違いは、探
知目標が実際に存在するものであるか仮想のものである
かの違いである。仮想探知目標は、電子的に擬似的に生
成されたものである。本発明の実施例においては、図1
および図2の、探知情報1と探知目標の方向2が仮想で
あること。また、図3、図4および図6の、探知目標2
1、22が仮想であること。さらに、乗組員17の乗る
航空宇宙飛行機20が実際の機体でなく飛行シミュレー
ターに変更される。
It is another object of the present invention to provide a crew of a flight simulator with a man-machine interface that can sense the direction of a virtual detection target by hearing. The configuration of the present invention for achieving this object is in accordance with the method of transmitting the direction of the detection target to the crew of the aerospace aircraft described above. The main applications of the flight simulator are aerospace flight training for crew and the experience of aerospace planes in the amusement field. Therefore, in the present invention, the difference between the actual aerospace aircraft and the flight simulator is the difference between whether the detection target actually exists or is virtual. The virtual detection target is generated electronically in a pseudo manner. In the embodiment of the present invention, FIG.
And that the detection information 1 and the direction 2 of the detection target in FIG. 2 are virtual. In addition, the detection target 2 shown in FIGS.
1 and 22 are virtual. Further, the aerospace aircraft 20 on which the crew member 17 rides is changed to a flight simulator instead of an actual airframe.

【0034】一般に、飛行シミュレーターは、実際の航
空宇宙飛行機で発生するエンジンのノイズや振動などを
なくすことができるので、本発明の音像定位された音の
サウンド出力装置として拡声器を用いる実施例も実用的
である。拡声器をサウンド出力装置とするバイノーラル
技術は前述の文献に開示されている。
In general, since a flight simulator can eliminate engine noise and vibration generated in an actual aerospace aircraft, the embodiment of the present invention using a loudspeaker as a sound image localized sound output device is also available. It is practical. A binaural technique using a loudspeaker as a sound output device is disclosed in the aforementioned document.

【0035】ここに開示した実施例は、本発明を説明す
る一例にすぎない。例えば、信号処理のための DSPは、
デジタル信号を専門に計算するプロセッサーであるが、
汎用の計算に用いる MPU(Micro Processor Unit)に処理
させることことも可能である。また、音のデータを格納
する記憶装置として、ROM(Read Only Memory)またはRAM
(Random Access Memory)を用いるのが適当であるが、必
要ならば、ハードディスクや光ディスクを用いてもよ
い。さらに、例えば方位を表現するときに「方位270
°」、「右30°」、「4時の方向」、「北北東」など、
様々な表現ができるように、本発明の実施例を説明する
ために使用した用語や表現によって本発明の範囲を限定
してはならない。
The embodiments disclosed herein are only examples illustrating the present invention. For example, a DSP for signal processing
A processor that specializes in calculating digital signals,
It can also be processed by an MPU (Micro Processor Unit) used for general-purpose calculations. As a storage device for storing sound data, a ROM (Read Only Memory) or a RAM
(Random Access Memory) is suitable, but if necessary, a hard disk or an optical disk may be used. Further, for example, when expressing the bearing, the “bearing 270
° ”,“ 30 ° right ”,“ 4 o’clock ”,“ north-northeast ”
In order to allow various expressions, the scope of the present invention should not be limited by the terms and expressions used to describe the embodiments of the present invention.

【0036】[0036]

【発明の効果】以上のように構成された、本発明によれ
ば、航空宇宙飛行機の乗組員は探知目標の方向を聴覚に
よって知覚することができる。本発明の特徴は、探知目
標の方向が、航空宇宙飛行機の機首方向に対してではな
く、その乗組員の頭の正面の方向に対して定位され、そ
れに基づき、音像定位された音が発せられることであ
る。このことは、乗組員が探知目標の方向の情報を常に
乗組員の頭の正面の方向を基準にして知覚できるという
ことである。これによって、乗組員が極度にストレスの
高い状態にある場合においても、直感的に探知目標の方
向を認知することができ、パニック状態に陥りにくくす
る効果がある。
According to the present invention configured as described above, the crew of the aerospace aircraft can perceive the direction of the detection target by hearing. A feature of the present invention is that the direction of the detection target is localized not in the nose direction of the aerospace aircraft, but in the direction in front of the crew's head, based on which the sound image localized sound is emitted. Is to be done. This means that the crew can always perceive information on the direction of the detection target with reference to the front direction of the crew head. As a result, even when the crew is in a state of extremely high stress, the direction of the detection target can be intuitively recognized, and there is an effect that it is difficult to fall into a panic state.

【0037】ただし、本発明は、従来の探知情報を乗組
員に伝達する手段であるCRTやHUDなどのディスプレイ装
置を置き換えるものではなく、これらの視覚による知覚
手段と本発明の聴覚による知覚手段を併用することが最
大の効果を生み出す。
However, the present invention does not replace the conventional display devices such as CRTs and HUDs which are means for transmitting detection information to the crew. Instead, these visual perception means and the auditory perception means of the present invention are used. The greatest effect is achieved when used together.

【0038】また、本発明をアミューズメントとしての
飛行シミュレーターに用いるならば、従来の視覚的体感
に聴覚による体感が加わり、興奮度を高める効果があ
る。
Further, if the present invention is used in a flight simulator as an amusement, an auditory sensation is added to the conventional visual sensation, which has the effect of increasing the degree of excitement.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】本発明の別の実施例を示すブロック図である。FIG. 2 is a block diagram showing another embodiment of the present invention.

【図3】本発明の実施例を説明するための参照図面であ
る。
FIG. 3 is a reference drawing for explaining an embodiment of the present invention.

【図4】本発明の実施例を説明するための参照図面であ
る。
FIG. 4 is a reference drawing for explaining an embodiment of the present invention.

【図5】本発明の実施例を説明するための参照図面であ
る。
FIG. 5 is a reference drawing for explaining an embodiment of the present invention.

【図6】本発明の実施例を説明するための参照図面であ
る。
FIG. 6 is a reference drawing for explaining an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 探知情報 2 探知目標の方向 3 計算機 4 頭部伝達関数マップ 5 DSP 6a D−Aコンバータ 6b D−Aコンバータ 7a アンプ 7b アンプ 8 ヘッドフォン 9a スピーカー 9b スピーカー 10 テレビカメラ 11 乗組員の頭の正面の方向 12 セレクタ 13 記憶装置 14 シンセサイザ 15 記憶装置 17 乗組員 19 探知範囲 20 航空宇宙飛行機 21 探知目標 22 探知目標 Reference Signs List 1 detection information 2 direction of detection target 3 computer 4 HRTF map 5 DSP 6a DA converter 6b DA converter 7a amplifier 7b amplifier 8 headphone 9a speaker 9b speaker 10 TV camera 11 front direction of crew head 12 selector 13 storage device 14 synthesizer 15 storage device 17 crew 19 detection range 20 aerospace aircraft 21 detection target 22 detection target

Claims (31)

【特許請求の範囲】[Claims] 【請求項1】 航空宇宙飛行機において、探知目標の方
向をその航空宇宙飛行機の乗組員に、音像定位された音
によって伝達するマンマシンインターフェースであっ
て、 (a)その探知目標の方向を得て、 (b)その乗組員の頭の正面の方向を検出し、 (c)その探知目標の方向とその乗組員の頭の正面の方
向から、その乗組員の頭の正面の方向に対する探知目標
の方向を計算し、 (d)音源に用いる音をその乗組員の頭の正面の方向に
対する探知目標の方向に音像定位して、その音像定位さ
れた音を生成し、 (e)その音像定位された音をサウンド出力装置によっ
てバイノーラルでその乗組員に出力する、航空宇宙飛行
機のマンマシンインターフェース。
1. A man-machine interface for transmitting the direction of a detection target to a crew of the aerospace aircraft by sound image localized sound in an aerospace aircraft, and (a) obtaining the direction of the detection target (B) detecting the front direction of the crew's head; and (c) detecting the detection target with respect to the front direction of the crew's head from the direction of the detection target and the front of the crew's head. Calculating the direction; (d) sound localizing the sound used for the sound source in the direction of the detection target with respect to the direction of the front of the crew's head to generate a sound whose sound image has been localized; A man-machine interface for an aerospace aircraft that outputs buzzed sound to its crew through a sound output device.
【請求項2】 その探知目標の方向が方位である、請求
項1の航空宇宙飛行機のマンマシンインターフェース。
2. The aerospace aircraft man-machine interface of claim 1, wherein the direction of the detection target is an azimuth.
【請求項3】 その探知目標の方向が方位と仰角であ
る、請求項1の航空宇宙飛行機のマンマシンインターフ
ェース。
3. The man-machine interface for an aerospace aircraft according to claim 1, wherein the directions of the detection targets are an azimuth and an elevation angle.
【請求項4】 その探知目標の方向を、その航空宇宙飛
行機の探知装置から得る、請求項1の航空宇宙飛行機の
マンマシンインターフェース。
4. The aerospace aircraft man-machine interface of claim 1, wherein the direction of the detection target is obtained from a detection device of the aerospace aircraft.
【請求項5】 その探知目標の方向を、データリンクシ
ステムによって得る、請求項1の航空宇宙飛行機のマン
マシンインターフェース。
5. The aerospace aircraft man-machine interface of claim 1, wherein the direction of the detection target is obtained by a data link system.
【請求項6】 その乗組員の頭の正面の方向を画像処理
によって検出する、請求項1の航空宇宙飛行機のマンマ
シンインターフェース。
6. The man-machine interface of an aerospace aircraft according to claim 1, wherein the direction of the front of the crew's head is detected by image processing.
【請求項7】 その乗組員の頭の正面の方向に対する探
知目標の方向の方位分解能が30°である、請求項1の航
空宇宙飛行機のマンマシンインターフェース。
7. The aerospace aircraft man-machine interface of claim 1, wherein the azimuth resolution of the direction of the detection target with respect to the direction in front of the crew's head is 30 °.
【請求項8】 その乗組員の頭の正面の方向に対する探
知目標の方向の方位分解能が30°で、かつ、その乗組員
の頭の正面の方向に対する探知目標の方向の仰角分解能
が30°である、請求項1の航空宇宙飛行機のマンマシン
インターフェース。
8. The azimuth resolution of the direction of the detection target with respect to the front direction of the crew head is 30 °, and the elevation angle resolution of the detection target direction with respect to the front direction of the crew head is 30 °. The man-machine interface of the aerospace aircraft of claim 1.
【請求項9】 その航空宇宙飛行機からその探知目標ま
での距離の 10,000分の1 から 1,000分の1 の範囲で縮
尺した距離を求め、その乗組員からその縮尺した距離に
音像定位する、請求項1の航空宇宙飛行機のマンマシン
インターフェース。
9. A method for determining a scaled distance within a range of 1/10000 to 1/1000 of a distance from the aerospace aircraft to the detection target, and localizing a sound image from the crew to the reduced distance. Man-machine interface for aerospace aircraft.
【請求項10】 その航空宇宙飛行機からその探知目標
までの距離にかかわらず、その乗組員の頭から一定の距
離に音像定位する、請求項1の航空宇宙飛行機のマンマ
シンインターフェース。
10. The aerospace aircraft man-machine interface of claim 1, wherein the sound localization is performed at a fixed distance from the crew's head regardless of the distance from the aerospace aircraft to the detection target.
【請求項11】 その乗組員の頭から、10cmから10mの
範囲の距離で音像定位する、請求項10の航空宇宙飛行
機のマンマシンインターフェース。
11. The man-machine interface of an aerospace aircraft according to claim 10, wherein sound image localization is performed at a distance in a range of 10 cm to 10 m from a head of the crew.
【請求項12】 請求項1のマンマシンインターフェー
スであって、その乗組員の頭の正面の方向に対する探知
目標の方向に音像定位された音を生成する手段として、 (a)その音源に用いる音をその乗組員の頭の正面の方
向に対する探知目標の方向の方向分解能のすべての方向
に音像定位して、音像定位された音を生成し、 (b)その音像定位された音を記憶装置に格納し、 (c)その乗組員の頭の正面の方向に対する探知目標の
方向を乗組員に伝達するときに、その音像定位された音
をその記憶装置から読み出してその音像定位された音を
生成する、航空宇宙飛行機のマンマシンインターフェー
ス。
12. The man-machine interface according to claim 1, wherein the means for generating a sound image localized in the direction of the detection target with respect to the front direction of the crew's head includes: (a) a sound used for the sound source; In all directions having a directional resolution of the direction of the detection target with respect to the front direction of the crew's head to generate a sound image-localized sound, and (b) storing the sound image-localized sound in a storage device. (C) when transmitting the direction of the detection target relative to the front direction of the crew's head to the crew, reading out the sound image-localized sound from the storage device and generating the sound image-localized sound Aerospace plane man-machine interface.
【請求項13】 請求項1のマンマシンインターフェー
スであって、その乗組員の頭の正面の方向に対する探知
目標方向に音像定位された音を生成する手段として、 (a)その音源に用いる音を記憶装置に格納し、 (b)その乗組員の頭の正面の方向に対する探知目標の
方向を乗組員に伝達するときに、その音源に用いる音
を、その乗組員の頭の正面の方向に対する探知目標の方
向に対する頭部伝達関数を用いて音像定位して、その音
像定位された音を生成する、航空宇宙飛行機のマンマシ
ンインターフェース。
13. The man-machine interface according to claim 1, wherein said means for generating a sound image localized in a detection target direction with respect to a direction in front of the crew's head includes: (a) sound used for the sound source; (B) When transmitting the direction of the detection target with respect to the front direction of the crew's head to the crew, the sound used for the sound source is detected with respect to the front direction of the crew's head. A man-machine interface for an aerospace aircraft that localizes a sound image using a head-related transfer function with respect to a target direction, and generates the sound image-localized sound.
【請求項14】 その音源に用いる音がビープ音であ
る、請求項1の航空宇宙飛行機のマンマシンインターフ
ェース。
14. The aerospace aircraft man-machine interface of claim 1, wherein the sound used for the sound source is a beep sound.
【請求項15】 その音源に用いる音が音声メッセージ
である、請求項1の航空宇宙飛行機のマンマシンインタ
ーフェース。
15. The aerospace aircraft man-machine interface of claim 1, wherein the sound used for the sound source is a voice message.
【請求項16】 そのサウンド出力装置にヘッドフォン
を用いる、請求項1の航空宇宙飛行機のマンマシンイン
ターフェース。
16. The aerospace aircraft man-machine interface of claim 1, wherein headphones are used as the sound output device.
【請求項17】 飛行シミュレーターにおいて、仮想探
知目標の方向をその飛行シミュレーターの乗組員に、音
像定位された音によって伝達するマンマシンインターフ
ェースであって、 (a)その探知目標の方向を得て、 (b)その乗組員の頭の正面の方向を検出し、 (c)その探知目標の方向とその乗組員の頭の正面の方
向から、その乗組員の頭の正面の方向に対する仮想探知
目標の方向を計算し、 (d)音源に用いる音をその乗組員の頭の正面の方向に
対する仮想探知目標の方向に音像定位して、その音像定
位された音を生成し、 (e)その音像定位された音をサウンド出力装置によっ
てバイノーラルでその乗組員に出力する、航空宇宙飛行
機のマンマシンインターフェース
17. A man-machine interface for transmitting a direction of a virtual detection target to a crew of the flight simulator by sound image localized sound in a flight simulator, comprising: (a) obtaining a direction of the detection target; (B) detecting the front direction of the crew's head; and (c) detecting the virtual detection target with respect to the front direction of the crew's head from the direction of the detection target and the front of the crew's head. Calculating the direction; (d) sound image localization of the sound used for the sound source in the direction of the virtual detection target with respect to the direction of the front of the crew's head to generate the sound image localized sound; (e) the sound image localization Man-machine interface of an aerospace aircraft that outputs buzzed sound to its crew via a sound output device
【請求項18】 その仮想探知目標の方向が方位であ
る、請求項17の航空宇宙飛行機のマンマシンインター
フェース。
18. The aerospace aircraft man-machine interface of claim 17, wherein the direction of the virtual detection target is an azimuth.
【請求項19】 その仮想探知目標の方向が方位と仰角
である、請求項17の航空宇宙飛行機のマンマシンイン
ターフェース。
19. The aerospace man-machine interface of claim 17, wherein the direction of the virtual detection target is azimuth and elevation.
【請求項20】 画像処理によってその乗組員の頭の正
面の方向を検出する、請求項17の航空宇宙飛行機のマ
ンマシンインターフェース。
20. The aerospace aircraft man-machine interface of claim 17, wherein the frontal direction of the crew head is detected by image processing.
【請求項21】 その乗組員の頭の正面の方向に対する
仮想探知目標の方向の方位分解能が30°である、請求項
17の航空宇宙飛行機のマンマシンインターフェース。
21. The aerospace aircraft man-machine interface of claim 17, wherein the azimuth resolution of the direction of the virtual detection target with respect to the direction in front of the crew's head is 30 °.
【請求項22】 その乗組員の頭の正面の方向に対する
仮想探知目標の方向の方位分解能が30°で、かつ、その
乗組員の頭の正面の方向に対する仮想探知目標の方向の
仰角分解能が30°である、請求項17の航空宇宙飛行機
のマンマシンインターフェース。
22. The azimuth resolution in the direction of the virtual detection target with respect to the front direction of the crew head is 30 °, and the elevation angle resolution in the direction of the virtual detection target with respect to the front direction of the crew head is 30. 18. The aerospace man-machine interface of claim 17, wherein the angle is °.
【請求項23】 その飛行シミュレーターからその仮想
探知目標までの距離の 10,000分の1 から 1,000分の1
の範囲で縮尺した距離を求め、その乗組員の頭からその
縮尺した距離に音像定位する、請求項17の航空宇宙飛
行機のマンマシンインターフェース。
23. A distance from the flight simulator to the virtual detection target of 1 / 10,000 to 1 / 1,000.
18. The man-machine interface for an aerospace aircraft according to claim 17, wherein a scaled distance is obtained in the range of and the sound image is localized at the scaled distance from the crew's head.
【請求項24】 その飛行シミュレーターからその仮想
探知目標までの距離にかかわらず、その乗組員の頭から
一定の距離に音像定位する、請求項17の航空宇宙飛行
機のマンマシンインターフェース。
24. The man-machine interface of an aerospace aircraft according to claim 17, wherein a sound image is localized at a fixed distance from the crew's head regardless of the distance from the flight simulator to the virtual detection target.
【請求項25】 その乗組員の頭から、10cmから10mの
範囲の距離で音像定位する、請求項24の航空宇宙飛行
機のマンマシンインターフェース。
25. The man-machine interface of an aerospace aircraft according to claim 24, wherein sound image localization is performed at a distance in a range of 10 cm to 10 m from a head of the crew.
【請求項26】 請求項17のマンマシンインターフェ
ースであって、その乗組員の頭の正面の方向に対する仮
想探知目標の方向に音像定位された音を生成する手段と
して、 (a)その音源に用いる音をその乗組員の頭の正面の方
向に対する仮想探知目標の方向の方向分解能のすべての
方向に音像定位して、音像定位された音を生成し、 (b)その音像定位された音を記憶装置に格納し、 (c)その乗組員の頭の正面の方向に対する仮想探知目
標の方向を乗組員に伝達するときに、その音像定位され
た音をその記憶装置から読み出してその音像定位された
音を生成する、航空宇宙飛行機のマンマシンインターフ
ェース。
26. The man-machine interface according to claim 17, wherein as means for generating a sound image localized in the direction of the virtual detection target with respect to the front direction of the crew's head, (a) using the sound source Sound localizing the sound in all directions with a directional resolution of the direction of the virtual detection target with respect to the direction of the front of the crew's head to generate a sound-localized sound; (b) storing the sound-localized sound (C) when transmitting the direction of the virtual detection target with respect to the direction of the front of the crew's head to the crew, the sound image localized sound is read out from the storage device and the sound image localized An aerospace man-machine interface that generates sound.
【請求項27】 請求項17のマンマシンインターフェ
ースであって、その乗組員の頭の正面の方向に対する仮
想探知目標方向に音像定位された音を生成する手段とし
て、 (a)その音源に用いる音を記憶装置に格納し、 (b)その乗組員の頭の正面の方向に対する仮想探知目
標の方向を乗組員に伝達するときに、その音源に用いる
音を、その乗組員の頭の正面の方向に対する仮想探知目
標の方向に対する頭部伝達関数を用いて音像定位して、
その音像定位された音を生成する、航空宇宙飛行機のマ
ンマシンインターフェース。
27. The man-machine interface according to claim 17, wherein: a means for generating a sound image localized in a virtual detection target direction with respect to a direction in front of the crew's head; (B) when transmitting the direction of the virtual detection target with respect to the front direction of the crew's head to the crew, the sound used for the sound source is transmitted to the front direction of the crew's head. Sound image localization using the head related transfer function for the direction of the virtual detection target for
An aerospace man-machine interface that generates the localized sound.
【請求項28】 その音源に用いる音がビープ音であ
る、請求項17の航空宇宙飛行機のマンマシンインター
フェース。
28. The aerospace aircraft man-machine interface of claim 17, wherein the sound used for the sound source is a beep sound.
【請求項29】 その音源に用いる音が音声メッセージ
である、請求項17の航空宇宙飛行機のマンマシンイン
ターフェース。
29. The aerospace aircraft man-machine interface of claim 17, wherein the sound used for the sound source is a voice message.
【請求項30】 そのサウンド出力装置にヘッドフォン
を用いる、請求項17の航空宇宙飛行機のマンマシンイ
ンターフェース。
30. The aerospace aircraft man-machine interface of claim 17, wherein headphones are used as the sound output device.
【請求項31】 そのサウンド出力装置に拡声器を用い
る、請求項17の航空宇宙飛行機のマンマシンインター
フェース。
31. The man-machine interface of an aerospace aircraft according to claim 17, wherein a loudspeaker is used for the sound output device.
JP9038859A 1997-02-24 1997-02-24 Man-machine interface of aerospace aircraft Pending JPH10230899A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9038859A JPH10230899A (en) 1997-02-24 1997-02-24 Man-machine interface of aerospace aircraft

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9038859A JPH10230899A (en) 1997-02-24 1997-02-24 Man-machine interface of aerospace aircraft

Publications (1)

Publication Number Publication Date
JPH10230899A true JPH10230899A (en) 1998-09-02

Family

ID=12536937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9038859A Pending JPH10230899A (en) 1997-02-24 1997-02-24 Man-machine interface of aerospace aircraft

Country Status (1)

Country Link
JP (1) JPH10230899A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092799A (en) * 2001-09-18 2003-03-28 Sony Corp Acoustic processor
JP2004023180A (en) * 2002-06-12 2004-01-22 Toshiba Corp Voice transmission apparatus, voice transmission method and program
JP2010147529A (en) * 2008-12-16 2010-07-01 Sony Corp Information processing system and information processing method
JP2011521511A (en) * 2008-04-18 2011-07-21 ソニー エリクソン モバイル コミュニケーションズ, エービー Audio augmented with augmented reality
EP2669634A1 (en) * 2012-05-30 2013-12-04 GN Store Nord A/S A personal navigation system with a hearing device
JP2016105641A (en) * 2012-09-27 2016-06-09 インテル・コーポレーション Audio spatialization by camera
JP2018152834A (en) * 2017-03-14 2018-09-27 株式会社東芝 Method and apparatus for controlling audio signal output in virtual auditory environment

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092799A (en) * 2001-09-18 2003-03-28 Sony Corp Acoustic processor
JP2004023180A (en) * 2002-06-12 2004-01-22 Toshiba Corp Voice transmission apparatus, voice transmission method and program
JP2011521511A (en) * 2008-04-18 2011-07-21 ソニー エリクソン モバイル コミュニケーションズ, エービー Audio augmented with augmented reality
JP2010147529A (en) * 2008-12-16 2010-07-01 Sony Corp Information processing system and information processing method
US8644531B2 (en) 2008-12-16 2014-02-04 Sony Corporation Information processing system and information processing method
EP2669634A1 (en) * 2012-05-30 2013-12-04 GN Store Nord A/S A personal navigation system with a hearing device
JP2016105641A (en) * 2012-09-27 2016-06-09 インテル・コーポレーション Audio spatialization by camera
JP2018152834A (en) * 2017-03-14 2018-09-27 株式会社東芝 Method and apparatus for controlling audio signal output in virtual auditory environment

Similar Documents

Publication Publication Date Title
US5647016A (en) Man-machine interface in aerospace craft that produces a localized sound in response to the direction of a target relative to the facial direction of a crew
US20030223602A1 (en) Method and system for audio imaging
CA2656766C (en) Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system
US10410562B2 (en) Image generating device and image generating method
CN100483970C (en) System and method for highly accurate real time tracking and positioning in three dimensions
US4713669A (en) Binaural doppler collision alert system for general aviation aircraft
US5905464A (en) Personal direction-finding apparatus
US20030025614A1 (en) Aircraft collision avoidance system
Flanagan et al. Aurally and visually guided visual search in a virtual environment
JPH04249500A (en) Method and device for giving directional sound on on-line
US8724834B2 (en) Acoustic user interface system and method for providing spatial location data
EP3286931B1 (en) Augmented hearing system
US20100183159A1 (en) Method and System for Spatialization of Sound by Dynamic Movement of the Source
Begault et al. Three-dimensional audio versus head-down traffic alert and collision avoidance system displays
US20110188342A1 (en) Device and method for acoustic display
US20200225685A1 (en) Method for indicating information of unmanned aerial vehicle, unmanned aerial vehicle, and ground equipment
JPH10307040A (en) Device and method for displaying map information in navigator and computer-readable recording medium wherein map-information display control program is recorded in the navigator
JPH10230899A (en) Man-machine interface of aerospace aircraft
US6149435A (en) Simulation method of a radio-controlled model airplane and its system
Carlander et al. Uni-and bimodal threat cueing with vibrotactile and 3D audio technologies in a combat vehicle
Usman et al. 3D sound generation using Kinect and HRTF
KR102114052B1 (en) Stereo sound apparatus for aircraft and output method thereof
Daniels et al. Improved performance from integrated audio video displays
JP2587957B2 (en) Radar display method and apparatus
US20240122781A1 (en) Information processing device, information processing method, and program