JP2009210491A - Sonar receiving device - Google Patents

Sonar receiving device Download PDF

Info

Publication number
JP2009210491A
JP2009210491A JP2008055647A JP2008055647A JP2009210491A JP 2009210491 A JP2009210491 A JP 2009210491A JP 2008055647 A JP2008055647 A JP 2008055647A JP 2008055647 A JP2008055647 A JP 2008055647A JP 2009210491 A JP2009210491 A JP 2009210491A
Authority
JP
Japan
Prior art keywords
channel
time difference
volume
listening
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008055647A
Other languages
Japanese (ja)
Other versions
JP5050935B2 (en
Inventor
Koji Oda
晃司 小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008055647A priority Critical patent/JP5050935B2/en
Publication of JP2009210491A publication Critical patent/JP2009210491A/en
Application granted granted Critical
Publication of JP5050935B2 publication Critical patent/JP5050935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain acoustic information in all azimuth ranges in real time, and to improve the temporal efficiency by shortening the time required for target discrimination. <P>SOLUTION: In an active sonar device 20, an acoustic system 9 includes a central CH setting section 10 for calculating the azimuth of a cursor on B scope display and setting acoustic central channel information, a by-CH sound volume-time difference setting section 11 for calculating the sound volume difference corresponding to the directive difference between the right and left ears, and the arrival time difference between the right and left ear positions for the azimuth shifted from the cursor azimuth for each received signal of all beam channels, a by-CH sound volume-time difference providing section 12 for providing the by-CH sound volume-time difference to each of the received signals for the right and left of all the beam channels based on the by-CH sound volume-time difference setting information, and acoustic processing sections 14 and 15 for the right and left for composing the sum of outputs of the received signals for the right and left previously branched to two systems and converting it to an acoustic signal of an audible band. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、ソーナー受信装置に係り、詳しくは、アクティブソーナー装置のようにビデオ表示系(映像表示系)と聴音系との2系統の機能を備えた構成において、聴音系の改善を図るソーナー受信装置に関する。   The present invention relates to a sonar receiver, and more particularly, a sonar receiver for improving an audio system in a configuration having two systems of a video display system (video display system) and an audio system as in an active sonar apparatus. Relates to the device.

ソーナー受信装置の代表であるアクティブソーナー装置は、探信捜索中常に探信情報を監視している機能として、ビデオ表示系と聴音系との2系統を備えている。すなわち、同装置は、探信捜索によって目標から得た受信信号を基に探信情報をビデオ表示系に起点映像として表示するとともに、聴音系にその映像上の特定信号をオペレータがカーソルで指定することにより聴音信号を得て聴音する、という2系統の機能を用いて目標を判別する。このように、オペレータの視覚のみならず聴覚も活用することで、より確実に目標を判別するように図られている。   An active sonar device, which is representative of a sonar receiver device, has two systems, a video display system and a sound system, as a function to constantly monitor the search information during the search. That is, the device displays the search information as a starting video on the video display system based on the received signal obtained from the target by the search search, and the operator designates a specific signal on the video with the cursor in the listening system. Thus, the target is discriminated by using the two functions of obtaining the listening signal and listening. In this way, by utilizing not only the visual sense of the operator but also the auditory sense, the goal is determined more reliably.

図4は、そのような2系統の機能を備えた従来のアクティブソーナー装置の概略構成を示すブロック図である。同アクティブソーナー装置100は、同図に示すように、送受波素子から送信信号を変換した音波を水中に発射するとともに、目標からの反響音波を受信信号に変換する送受波部101と、全方位範囲にわたって連続的に形成される複数の待ち受けビームを形成するビーム形成部102と、待ち受けビームから雑音除去などの信号処理を行う信号処理部103と、表示に必要な信号処理を行う表示処理部104と、表示処理後の受信信号を図5に示すようなBスコープ表示(横軸が方位、縦軸が時間で、各方位の信号を時系列に沿って掃引表示するもの)するBスコープ表示部105と、聴音したい信号CH(チャネル)を選択する聴音CH選択部106と、Bスコープ表示上のカーソル方位を計算するカーソル方位計算部107と、聴音したい信号CHを可聴帯域の聴音信号に変換する聴音処理部108と、聴音信号をヘッドセットなどでオペレータに聴音させる聴音出力部109とを備えている。   FIG. 4 is a block diagram showing a schematic configuration of a conventional active sonar apparatus having such two functions. As shown in the figure, the active sonar apparatus 100 emits a sound wave obtained by converting a transmission signal from a transmission / reception element into water, and transmits / receives a wave transmission / reception unit 101 that converts an echo sound wave from a target into a reception signal. A beam forming unit 102 that forms a plurality of standby beams formed continuously over a range, a signal processing unit 103 that performs signal processing such as noise removal from the standby beams, and a display processing unit 104 that performs signal processing necessary for display And B scope display section for displaying the received signal after the display processing as shown in FIG. 5 (the horizontal axis is the azimuth, the vertical axis is the time, and the signals in each direction are swept in time series) 105, a listening channel selection unit 106 for selecting a signal CH (channel) to be listened to, a cursor direction calculation unit 107 for calculating a cursor direction on the B scope display, A hearing unit 108 for converting the stomach signal CH audible band listening signal, and an hearing output unit 109 for listening to the operator listening signal such as the headset.

ここで、信号処理部103、表示処理部104及びBスコープ表示部105はビデオ表示系110を構成する。一方、聴音CH選択部106、カーソル方位計算部107、聴音処理部108及び聴音出力部109は聴音系111を構成している。また、ビーム形成部102は、図4にイメージを示すように、複数の送受波素子の出力を整相し全方位範囲にわたって連続的に形成される複数の待ち受けビームを形成し、それぞれのビームチャネルの受信信号として、ビデオ表示系110と聴音系111に出力する。   Here, the signal processing unit 103, the display processing unit 104, and the B scope display unit 105 constitute a video display system 110. On the other hand, the listening sound CH selection unit 106, the cursor direction calculation unit 107, the listening processing unit 108, and the listening output unit 109 constitute an listening system 111. Further, as shown in the image of FIG. 4, the beam forming unit 102 phasing the outputs of the plurality of transmitting and receiving elements to form a plurality of standby beams that are continuously formed over the entire azimuth range. Is received by the video display system 110 and the listening system 111.

ビデオ表示系110は、全方位範囲をカバーするように形成される複数の待ち受け受信ビームで受信された音響信号を、図5に示すように、1探信分ごとに音波伝搬速度と同期して時間方向に掃引させて、信号強度に応じた輝点を表示するようにBスコープ表示部105にBスコープ表示を行う。一方、聴音系111は、Bスコープ表示上のカーソル方位に相当する待ち受け受信ビームチャネルで受信した音響信号を、Bスコープ表示での掃引に同期して聴音信号として音声に変換してヘッドセットなどの聴音出力部109に出力してオペレータが聴音する。   The video display system 110 synchronizes the acoustic signals received by a plurality of standby reception beams formed so as to cover the omnidirectional range in synchronism with the sound wave propagation speed for each probe as shown in FIG. The B scope display is performed on the B scope display unit 105 so as to display the bright spot corresponding to the signal intensity by sweeping in the time direction. On the other hand, the listening system 111 converts an acoustic signal received by the standby reception beam channel corresponding to the cursor direction on the B scope display into a sound as a listening signal in synchronization with the sweep on the B scope display, and so on. The sound is output to the sound output unit 109 and the operator listens.

目標の捜索に際しては、Bスコープ表示で掃引表示される輝点の有無と、表示された輝点に対応した聴音信号音の有無とにより、目標の有無を判別しながら捜索している。ここで、受信信号をリアルタイム(実時間)で常時監視しているのは、Bスコープ表示により掃引表示される全方位範囲にわたる複数の待ち受け受信ビームの受信信号の強度を示した輝点映像と、Bスコープ表示上のカーソル方位に相当する待ち受け受信ビーム、つまり単一ビームによる特定の方位の受信信号の聴音である。   When searching for a target, the search is performed while determining the presence / absence of a target based on the presence / absence of a bright spot swept and displayed in the B scope display and the presence / absence of an audio signal corresponding to the displayed bright spot. Here, the reception signal is constantly monitored in real time (real time) because the bright spot image showing the intensity of the reception signals of a plurality of standby reception beams over the omnidirectional range swept by the B scope display, This is a standby reception beam corresponding to the cursor direction on the B scope display, that is, a listening sound of a reception signal in a specific direction by a single beam.

ところで、図4に示した従来のアクティブソーナー装置100では、全方位範囲を捜索する場合、まずは全方位範囲をリアルタイムで常時監視できるBスコープ表示での輝点映像を基に目標の判別を行うが、信号処理により雑音除去対策を講ずるものの目標信号のみならず残響や雑音の目標以外の輝点映像も表示されることがあり、目標の判別のための情報としては十分でない場面が発生する。この場合、表示された輝点の位置にカーソルを合わせて、次の探信での聴音による信号状態の確認及び輝点の表示状態の前探信との比較により目標の判別を行うことになる。
しかしながら、Bスコープ表示での輝点映像に残響や雑音の目標以外の輝点映像が多数表示された場合には、聴音による判定についてカーソル方位以外の輝点情報に対しては、カーソルを移動し次の探信まで待って目標の判別のための作業を行う必要がある。したがって、リアルタイムで全方位範囲の聴音情報が得られないので、捜索範囲内の目標判別のために時間がかかるようになり、時間的効率が悪いという課題がある。
By the way, in the conventional active sonar apparatus 100 shown in FIG. 4, when searching for the omnidirectional range, first, the target is determined based on the bright spot video in the B scope display that can always monitor the omnidirectional range in real time. Although noise removal measures are taken by signal processing, not only the target signal but also a bright spot video other than the target of reverberation and noise may be displayed, and a scene that is not sufficient as information for target discrimination occurs. In this case, the target is determined by placing the cursor at the position of the displayed bright spot and confirming the signal state by listening to sound in the next search and comparing it with the previous search of the display state of the bright spot. .
However, when many bright spot images other than the target of reverberation and noise are displayed on the bright spot video in the B scope display, the cursor is moved with respect to bright spot information other than the cursor direction for judgment by listening sound. It is necessary to wait for the next search and perform work for target discrimination. Therefore, since the listening information of the omnidirectional range cannot be obtained in real time, it takes time to discriminate the target in the search range, and there is a problem that time efficiency is poor.

このような課題を解決すべく、オペレ−タに音源方向識別情報を与えるために、左右一対の戴頭型受聴器に配置した4個のスピ−カで、受信ビ−ムの方位に対応した音像を形成するようにした構成のアクティブソーナー装置が提供されている(特許文献1)。同アクティブソーナー装置は、全方位範囲にわたって連続的に形成される複数の待ち受けビームでの受信信号を互いに直交する任意の4方位方向のベクトル成分に分解し、その4方位方向のベクトル成分ごとに合成した受信信号を、その4方位方向の存在する象限に対応させて、左右一対の戴頭型受聴器に配置した4個のスピ−カに合成した受信信号をそれぞれ分配してオペレータに聴音させるようになっている。   In order to solve such a problem, in order to give sound source direction identification information to the operator, four speakers arranged in a pair of left and right headed listeners correspond to the direction of the receiving beam. There has been provided an active sonar device configured to form a sound image (Patent Document 1). The active sonar device decomposes a received signal from a plurality of standby beams continuously formed over an omnidirectional range into vector components in arbitrary four azimuth directions orthogonal to each other, and synthesizes the vector components in the four azimuth directions. In response to the quadrants that exist in the four azimuth directions, the received signals synthesized are distributed to the four speakers arranged in the pair of left and right headed listeners so that the operator can listen to them. It has become.

また、超音波探査機能と水中可聴音聴取機能とを備えて、簡易・安価な構成を可能にした水中探査装置が提供されている(特許文献2)。さらに、複数の音源から出力される複数系列の音のそれぞれに対して音響定位を付与するように構成した音響定位制御装置が提供されている(特許文献3)。
実開平03−110391号公報 特開2003−322679号公報 特開平07−271357号公報
There is also provided an underwater exploration apparatus that has an ultrasonic exploration function and an underwater audible sound listening function and enables a simple and inexpensive configuration (Patent Document 2). Furthermore, an acoustic localization control device configured to give acoustic localization to each of a plurality of series of sounds output from a plurality of sound sources is provided (Patent Document 3).
Japanese Utility Model Publication No. 03-110391 JP 2003-322679 A JP 07-271357 A

なお、特許文献2には、ビデオ表示系と聴音系との2系統の機能を備えた構成が示されているが、本願発明のように、Bスコープ表示上のカーソル方位を中心としてこれからずれた方位に対して、左右の耳の指向性の差に相当する音量差及び左右の耳の位置による時間差を反映させて聴音系の改善を図ることは開示されていない。
特許文献3には、複数の音源から出力される複数系列の音のそれぞれに対して音響定位を付与するようにした構成の音響定位制御装置が示されているが、ビデオ表示系と聴音系との2系統の機能を備えたアクティブソーナー装置にそのような音響定位制御装置を組合わせた場合に生ずる課題については言及されていない。
In addition, Patent Document 2 shows a configuration having two functions of a video display system and a listening system, but it deviates from this with the cursor direction on the B scope display as the center as in the present invention. It is not disclosed to improve the listening system by reflecting the difference in volume corresponding to the difference in directivity between the left and right ears and the time difference due to the positions of the left and right ears with respect to the azimuth.
Patent Document 3 discloses an acoustic localization control device configured to give acoustic localization to each of a plurality of series of sounds output from a plurality of sound sources. No mention is made of problems that arise when such an acoustic localization control device is combined with an active sonar device having two systems of functions.

ところで、従来のアクティブソーナー装置には、次のような問題がある。
すなわち、特許文献1に開示されている従来のアクティブソーナー装置は、オペレータは左右一対の戴頭型受聴器に配置した4個のスピ−カで常に全方位範囲にわたって受信信号を聴音するようになるので、限定した方位範囲内だけを捜索する場合でも、限定外の余分な方向範囲を捜索してその受信信号を聴音してしまうため、結果的に時間効率の悪さは改善されず、捜索の妨げになる。また、同アクティブソーナー装置は、ビデオ表示系での画面表示上の基準方位と音像の基準となる方位とを整合する手段がないので、ビデオ表示系で表示される映像と聴音系で聴音される音像の位置とでずれの発生が避けられない。
However, the conventional active sonar apparatus has the following problems.
That is, in the conventional active sonar device disclosed in Patent Document 1, an operator always listens to a received signal over an omnidirectional range with four speakers arranged in a pair of left and right head-type listeners. Therefore, even when searching only within the limited azimuth range, it searches for the extra direction range outside the limitation and listens to the received signal, so that the time efficiency is not improved and the search is hindered. become. Further, the active sonar apparatus has no means for matching the reference orientation on the screen display in the video display system with the orientation that becomes the reference of the sound image, so that the image displayed in the video display system and the listening system are heard. Deviation from the position of the sound image is inevitable.

この発明は、上述の事情に鑑みてなされたもので、リアルタイムで全方位範囲の聴音情報を得ることができ、目標判別に要する時間を短縮して時間的効率を向上させることができるようにしたソーナー受信装置を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and is capable of obtaining listening information of an omnidirectional range in real time, shortening the time required for target discrimination, and improving time efficiency. The object is to provide a sonar receiver.

上記課題を解決するために、この発明の構成は、全方位範囲を音波により探信捜索して目標から得た受信信号をビデオ表示系及び聴音系に出力するソーナー受信装置に係り、前記聴音系は、入力された前記受信信号を左用及び右用の2系統に分岐する左右分岐手段と、前記ビデオ表示系におけるBスコープ表示上で制御されたカーソル方位を計算して、聴音中心チャネル情報を設定する中心チャネル設定手段と、前記受信信号の全チャネルそれぞれに前記カーソル方位からのずれた方位に対して、左耳の指向性と右耳の指向性の差に相当する音量差及び左耳と右耳の位置による到達時間差を計算してチャネル毎音量・時間差情報を設定するチャネル毎音量・時間差設定手段と、前記チャネル毎音量・時間差情報をもとに、前記2系統に分岐された前記受信信号の全チャネルの左用及び右用それぞれにチャネル毎音量・時間差を付与するチャネル毎音量・時間差付与手段と、前記チャネル毎音量・時間差が付与された前記左用及び右用受信信号それぞれの出力の和を合成し可聴帯域の聴音信号に変換する左用聴音処理部及び右用聴音処理手段と、前記左右2系統の聴音信号を入力してオペレータにステレオ聴音させる聴音出力手段とを含むことを特徴としている。   In order to solve the above-described problems, the configuration of the present invention relates to a sonar receiver that outputs a received signal obtained from a target by searching and searching an omnidirectional range using sound waves, and outputs the received signal to a video display system and an audio system. The left and right branching means for branching the received signal into two systems for left and right, and calculating the cursor direction controlled on the B scope display in the video display system, and setting the listening center channel information Center channel setting means, and a volume difference corresponding to the difference between the directivity of the left ear and the directivity of the right ear, and the left ear and the right Based on the volume / time difference information for each channel and the volume / time difference setting means for each channel for calculating the arrival time difference depending on the position of the ear and setting the volume / time difference information for each channel, the two systems are branched. In addition, a channel-by-channel volume / time difference providing unit for applying a channel-by-channel volume / time difference to each of the left and right channels of the received signal, and each of the left and right received signals to which the channel-by-channel volume / time difference has been applied. A left sound processing unit and a right sound processing means for synthesizing the sum of outputs and converting the sound into an audible band sound signal; and a sound output means for inputting the two left and right sound signals and causing the operator to listen in stereo. It is a feature.

このように、この発明の構成によれば、ビデオ表示系におけるBスコープ表示上のカーソル方位を計算し、受信信号の全チャネルそれぞれに前記カーソル方位からのずれた方位に対して、左右の耳の指向性の差に相当する音量差及び左右の耳の位置による時間差を計算してチャネル毎音量・時間差情報を設定し、このチャネル毎音量・時間差情報をもとに
予め左右の2系統に分岐した受信信号の全チャネルの左右の信号それぞれにチャネル毎音量・時間差を付与して、左右の信号それぞれの出力の和を合成して聴音信号を出力するようにしたので、オペレータに音源方向識別情報を含んだ聴音情報を与えることができるため、方位方向に音源の方位を表現した擬似的なステレオフォニックで聴音させることができる。
したがって、リアルタイムで全方位範囲の聴音情報を得ることができ、目標判別に要する時間を短縮して時間的効率を向上させることができる。
As described above, according to the configuration of the present invention, the cursor direction on the B scope display in the video display system is calculated, and the left and right ears are respectively detected with respect to the direction deviated from the cursor direction for all the channels of the received signal. The volume difference corresponding to the difference in directivity and the time difference depending on the positions of the left and right ears are calculated to set the volume and time difference information for each channel, and the left and right systems are branched in advance based on the volume and time difference information for each channel. Since the left and right signals of all channels of the received signal are given a volume and time difference for each channel, and the sum of the outputs of the left and right signals is synthesized to output the listening signal, the sound source direction identification information is given to the operator. Since the included listening sound information can be given, the sound can be heard with a pseudo stereophonic expression in which the azimuth direction of the sound source is expressed in the azimuth direction.
Therefore, it is possible to obtain the audible sound information in all directions in real time, and it is possible to improve the time efficiency by reducing the time required for the target discrimination.

アクティブソーナー装置20は、聴音系9が、Bスコープ表示上のカーソルの方位を計算し聴音中心チャネル情報を設定する中心CH設定部10と、全ビームチャネルの受信信号それぞれにカーソル方位からのずれた方位に対して、左右の耳の指向性の差に相当する音量差及び左右の耳の位置による到達時間差を計算するCH毎音量・時間差設定部11と、CH毎音量・時間差設定情報をもとに全ビームチャネルの受信信号の左用及び右用それぞれにCH毎音量・時間差を付与するCH毎音量・時間差付与部12と、全ビームチャネルの受信信号それぞれを左用及び右用の2系統に分岐する左右分岐部13と、左用及び右用受信信号それぞれで出力の和を合成し可聴帯域の聴音信号に変換する左用聴音処理部14及び右用聴音処理部15と、左右2系統の聴音信号を入力してオペレータにステレオ聴音させる聴音出力部16とを含んでいる。   In the active sonar device 20, the listening system 9 calculates the azimuth of the cursor on the B scope display and sets the audible center channel information, and the received signals of all beam channels are shifted from the cursor azimuth. Based on the volume / time difference setting unit 11 for each CH that calculates the difference in sound volume corresponding to the difference in directivity between the left and right ears and the arrival time difference depending on the positions of the left and right ears, and the sound volume / time difference setting information for each CH In addition, each CH channel volume / time difference adding unit 12 for applying a CH volume / time difference to the left and right channels of the reception signals of all beam channels, and the reception signals of all beam channels are branched into two systems, left and right. A left and right branching unit 13, a left listening processing unit 14 and a right listening processing unit 15 that synthesize the sum of outputs of the left and right reception signals and convert them into an audible band listening signal; And a listening output unit 16 for stereo listening to the operator to input listening signal of the right two systems.

実施形態1Embodiment 1

図1は、この発明の実施形態1であるソーナー受信装置の概略構成を示すブロック図、図2は同ソーナー受信装置の聴音系の動作原理を説明する概略図である。なお、本実施形態1ではアクティブソーナー装置に適用した例で示している。
この実施形態1であるソーナー受信装置としてのアクティブソーナー装置20は、図1に示すように、送受波部1、ビーム形成部2、ビデオ表示系3、聴音系9を備えている。
送受波部1は、複数の送受波素子を有しこれらの送受波素子から送信信号を変換した音波を水中に全方位範囲にわたって発射するとともに、目標からの反響音波を受信信号に変換ビーム形成部2に出力する。ビーム形成部2は、複数の送受波素子の出力を整相し全方位範囲にわたって連続的に形成される複数の待ち受けビームを形成しそれぞれのビームチャネルの受信信号としてビデオ表示系3と聴音系9に出力する。
FIG. 1 is a block diagram showing a schematic configuration of a sonar receiving apparatus according to Embodiment 1 of the present invention, and FIG. 2 is a schematic diagram for explaining the operating principle of a sound system of the sonar receiving apparatus. In the first embodiment, an example applied to an active sonar device is shown.
As shown in FIG. 1, an active sonar apparatus 20 as a sonar receiving apparatus according to the first embodiment includes a transmission / reception unit 1, a beam forming unit 2, a video display system 3, and an audio system 9.
The transmission / reception unit 1 has a plurality of transmission / reception elements, emits sound waves obtained by converting transmission signals from these transmission / reception elements into the water over all azimuth ranges, and converts echo waves from the target into reception signals. Output to 2. The beam forming unit 2 phasing the outputs of a plurality of transmitting / receiving elements to form a plurality of standby beams formed continuously over an omnidirectional range, and a video display system 3 and a sound system 9 as reception signals of the respective beam channels. Output to.

ビデオ表示系3は、信号処理部4と、表示処理部5と、表示部6とから構成される。信号処理部4は、ビーム形成部2の出力である受信信号から雑音信号を除去してエコー信号を抽出する処理を行って表示処理部5に出力する。表示処理部5は、信号処理された信号を、全受信方位を時系列に映像表示するための映像信号を生成する処理を行ってBスコープ表示として表示器7に出力する。表示部6は、信号処理部4からの映像信号を入力して、図5に示したような、Bスコープ表示する表示器7と、Bスコープ表示上のカーソルCを制御するカーソル制御部8とから構成される。   The video display system 3 includes a signal processing unit 4, a display processing unit 5, and a display unit 6. The signal processing unit 4 performs processing for removing the noise signal from the reception signal that is the output of the beam forming unit 2 and extracting an echo signal, and outputs the result to the display processing unit 5. The display processing unit 5 performs a process of generating a video signal for displaying video in the time series of all reception directions of the signal-processed signal, and outputs the signal to the display unit 7 as a B scope display. The display unit 6 receives the video signal from the signal processing unit 4 and displays a B scope display 7 as shown in FIG. 5 and a cursor control unit 8 for controlling the cursor C on the B scope display. Consists of

聴音系9は、中心CH設定部10と、CH毎音量・時間差設定部11と、CH毎音量・時間差付与部12と、左右分岐部13と、左用聴音処理部14と、右用聴音処理部15と、聴音出力部16とから構成される。中心CH設定部10は、Bスコープ表示上でカーソル制御部8で制御されたカーソルの方位を計算し聴音中心チャネル情報を設定してCH毎音量・時間差設定部11に出力する。CH毎音量・時間差設定部11は、ビーム形成部2から出力される全ビームチャネルの受信信号それぞれにカーソル方位からのずれた方位に対して、図2に示す左耳の指向性と右耳の指向性の差に相当する音量差及び左耳と右耳の位置による到達時間差を計算してCH毎音量・時間差情報を設定してCH毎音量・時間差付与部12に出力する。CH毎音量・時間差付与部12は、CH毎音量・時間差設定情報をもとに全ビームチャネルの受信信号の左用及び右用それぞれにCH毎音量・時間差を付与する。左右分岐部13は、ビーム形成部2から出力された全ビームチャネルの受信信号それぞれを左用及び右用の2系統に分岐する。左用聴音処理部14及び右用聴音処理部15は、CH毎音量・時間差付与部12から出力される左用及び右用それぞれで出力の和を合成し可聴帯域の聴音信号に変換する。聴音出力部16は、ヘッドセットなどから成り左右2系統の聴音信号を入力してオペレータにステレオ聴音させる。   The listening system 9 includes a central CH setting unit 10, a volume / time difference setting unit 11 for each CH, a volume / time difference giving unit 12 for each CH, a left / right branching unit 13, a left listening processing unit 14, and a right listening processing unit. 15 and the listening sound output unit 16. The center CH setting unit 10 calculates the direction of the cursor controlled by the cursor control unit 8 on the B scope display, sets the listening center channel information, and outputs it to the CH volume / time difference setting unit 11. The volume / time difference setting unit 11 for each CH outputs the left ear directivity and the right ear directivity shown in FIG. 2 for each of the reception signals of all beam channels output from the beam forming unit 2 with respect to the direction shifted from the cursor direction. The volume difference corresponding to the directivity difference and the arrival time difference depending on the positions of the left and right ears are calculated, and the volume / time difference information for each CH is set and output to the volume / time difference adding unit 12 for each CH. The CH volume / time difference assigning unit 12 assigns the CH volume / time difference to the left and right of the received signals of all beam channels based on the CH volume / time difference setting information. The left / right branching unit 13 branches the received signals of all the beam channels output from the beam forming unit 2 into two systems for left and right. The left listening processing unit 14 and the right listening processing unit 15 synthesize the sum of the outputs for the left and right outputs from the volume and time difference providing unit 12 for each CH, and convert the sum into an audible listening signal. The sound output unit 16 is composed of a headset or the like, and inputs two sound signals from left and right to make the operator listen in stereo.

聴音出力部16を構成しているヘッドセットを装着したオペレータがカーソルを操作して、カーソル方位に対応して形成されるビーム信号を聴知する場合、図2に示したように、左耳の指向性ALと右耳の指向性ARとの間には、音量差DV及び時間差DTが生ずる。
ここで、音量差DVは、左耳の指向性ALと右耳の指向性ARとの差によって表される。一方、時間差DTは、(両耳間の距離×sinθ)/cで表される(ここで、θ:カーソル方位LCからのずれ角、c:音速)。
When an operator wearing the headset constituting the sound output unit 16 operates the cursor and hears a beam signal formed corresponding to the cursor direction, as shown in FIG. A volume difference DV and a time difference DT are generated between the directivity AL and the directivity AR of the right ear.
Here, the volume difference DV is represented by the difference between the directivity AL of the left ear and the directivity AR of the right ear. On the other hand, the time difference DT is expressed by (distance between both ears × sin θ) / c (where, θ: deviation angle from the cursor direction LC, c: sound velocity).

次に、図1及び図2を参照して、本実施形態1によるアクティブソーナー装置20の動作について説明する。
まず、送受波部1において複数の送受波素子から送信信号を変換した音波が水中に発射され、目標からの反響音波が受信信号に変換されてビーム形成部2に出力されると、ビーム形成部2は、複数の送受波素子の出力を整相し全方位範囲にわたって連続的に形成される複数の待ち受けビームを形成して、それぞれのビームチャネルの受信信号としてビデオ表示系3と聴音系9に出力する。
Next, with reference to FIG.1 and FIG.2, operation | movement of the active sonar apparatus 20 by this Embodiment 1 is demonstrated.
First, a sound wave obtained by converting transmission signals from a plurality of wave transmitting / receiving elements in the wave transmitting / receiving unit 1 is launched into water, and an echo sound wave from a target is converted into a received signal and output to the beam forming unit 2. 2 phasing the outputs of a plurality of transmission / reception elements to form a plurality of standby beams formed continuously over an omnidirectional range, and to the video display system 3 and the sound system 9 as reception signals of the respective beam channels. Output.

次に、ビデオ表示系3に出力された受信信号は、信号処理部4、表示処理部5を経由して、表示部6の表示器7でBスコープ表示の映像として掃引表示される。一方、ビーム形成部2から聴音系9に出力された受信信号は、左右分岐部13において全ビームチャネルの受信信号それぞれが左用及び右用の2系統に分岐して、CH毎音量・時間差付与部12に出力される。ここで、中心CH設定部10は、Bスコープ表示上でカーソル制御部8で制御されたカーソルの方位を計算し聴音中心チャネル情報を設定してCH毎音量・時間差設定部11に出力する。   Next, the received signal output to the video display system 3 is swept and displayed as a B scope display image on the display unit 7 of the display unit 6 via the signal processing unit 4 and the display processing unit 5. On the other hand, the received signal output from the beam forming unit 2 to the listening system 9 is divided into two left and right systems in the left and right branching unit 13 for each beam signal, and the volume / time difference providing unit for each channel. 12 is output. Here, the center CH setting unit 10 calculates the direction of the cursor controlled by the cursor control unit 8 on the B scope display, sets the listening center channel information, and outputs it to the volume / time difference setting unit 11 for each CH.

次に、CH毎音量・時間差設定部11は、ビーム形成部3から出力される全ビームチャネルの受信信号それぞれにカーソル方位からのずれた方位に対して、図2に示す左耳の指向性ALと右耳の指向性ARの差に相当するいずれかの音量差DV及び左耳と右耳の位置による到達時間差DTを計算して、CH毎音量・時間差設定情報として設定してCH毎音量・時間差付与部12に出力する。   Next, the volume / time difference setting unit 11 for each CH outputs the directivity AL of the left ear shown in FIG. And the arrival time difference DT depending on the position of the left and right ears, and the volume difference DV corresponding to the difference between the directivity AR between the right ear and the right ear. Output to the time difference assigning unit 12.

次に、CH毎音量・時間差付与部12は、CH毎音量・時間差設定情報をもとに左右分岐部13から入力した全ビームチャネルの受信信号の左系及び右系のそれぞれにCH毎音量・時間差を付与して左用聴音処理部14あるいは右用聴音処理部15に出力する。   Next, the volume / time difference giving unit 12 for each CH sets the volume / time difference for each channel to the left system and the right system of the received signals of all the beam channels input from the left / right branching unit 13 based on the volume / time difference setting information for each CH. The time difference is given and output to the left listening processing unit 14 or the right listening processing unit 15.

次に、左用聴音処理部14及び右用聴音処理部15は、CH毎音量・時間差付与部12から出力される左系及び右系それぞれで出力の和を合成し、可聴帯域の聴音信号に変換して左右2系統の聴音信号としてヘッドセットなどから成る聴音出力部16に出力する。よって、オペレータはヘッドセットでその聴音信号を聴音することにより、左右2系統のステレオ聴音をすることができる。   Next, the left sound processing unit 14 and the right sound processing unit 15 synthesize the sum of the outputs in the left system and the right system output from the volume and time difference providing unit 12 for each CH, and convert them into an audio signal in the audible band. Then, it outputs to the listening sound output part 16 which consists of a headset etc. as a sound signal of 2 systems of right and left. Thus, the operator can make two left and right stereo listening sounds by listening to the listening signal with the headset.

このように、本実施形態1によるアクティブソーナー装置20の構成によれば、聴音系9が、Bスコープ表示上のカーソルの方位を計算し聴音中心チャネル情報を設定する中心CH設定部10と、全ビームチャネルの受信信号それぞれにカーソル方位からのずれた方位に対して、左右の耳の指向性の差に相当する音量差及び左右の耳の位置による到達時間差を計算するCH毎音量・時間差設定部11と、CH毎音量・時間差設定情報をもとに全ビームチャネルの受信信号の左用及び右用それぞれにCH毎音量・時間差を付与するCH毎音量・時間差付与部12と、全ビームチャネルの受信信号それぞれを左用及び右用の2系統に分岐する左右分岐部13と、左用及び右用受信信号それぞれで出力の和を合成し可聴帯域の聴音信号に変換する左用聴音処理部14及び右用聴音処理部15と、左右2系統の聴音信号を入力してオペレータにステレオ聴音させる聴音出力部16とを含んでいるので、オペレータに音源方向識別情報を含んだ聴音情報を与えることができるため、方位方向に音源の方位を表現した擬似的なステレオフォニックで聴音させることができる。
したがって、リアルタイムで全方位範囲の聴音情報を得ることができ、従来のようなカーソル方位を移動させて次の探信を待って目標を判別するという操作が不要になるので、時間的効率を向上させることができる。
Thus, according to the configuration of the active sonar device 20 according to the first embodiment, the listening system 9 calculates the azimuth of the cursor on the B scope display and sets the listening center channel information, and the entire CH setting unit 10. A volume / time difference setting unit for each CH that calculates a difference in sound volume corresponding to the difference in directivity between the left and right ears and a difference in arrival time depending on the positions of the left and right ears with respect to each direction of the received signal of the beam channel that deviates from the cursor direction. 11, a volume-by-CH volume / time-difference adding unit 12 that gives a volume-by-CH volume / time difference to the left and right of the received signal of all beam channels based on the volume-by-CH volume / time difference setting information, and reception of all beam channels Left and right branching section 13 for branching each signal into two systems for left and right, and left for synthesizing the sum of the outputs of the left and right reception signals and converting them to an audible audio signal Since the sound processing unit 14 and the right sound processing unit 15 and the sound output unit 16 that inputs the two left and right sound signals and causes the operator to listen in stereo, the sound information including the sound source direction identification information is provided to the operator. Therefore, the sound can be heard with a pseudo stereophonic expression in which the azimuth direction of the sound source is expressed in the azimuth direction.
Therefore, it is possible to obtain the sound information of the omnidirectional range in real time, which eliminates the need to move the cursor direction and wait for the next search to discriminate the target as before, improving time efficiency. Can be made.

実施形態2Embodiment 2

図3は、この発明の実施形態2であるソーナー受信装置の概略構成を示すブロック図である。この実施形態2のソーナー受信装置の構成が、上述の実施形態1のそれと大きく異なるところは、聴音系に輝点CH検出部及びミュート制御部を追加するようにした点である。
すなわち、本実施形態2であるソーナー受信装置としてのアクティブソーナー装置22は、図3に示すように、聴音系9における左右分岐部13の前段に輝点CH検出部17及びミュート制御部18が追加されている。輝点CH検出部17は、ビデオ表示系3の表示器7で輝点として表示される方位及びタイミングを検出し、方位に対応したビームCH及びタイミング情報をミュート制御部18に出力する。ミュート制御部18は、ビーム形成部2から出力されたCH毎のビーム信号と、輝点CH検出部17から出力されたビームCH及びタイミング情報を入力する。
これ以外は、上述した実施形態1と略同様である。それゆえ、図3において、図1の構成部分と対応する各部には、同一の番号を付してその説明を省略する。
FIG. 3 is a block diagram showing a schematic configuration of a sonar receiving apparatus according to the second embodiment of the present invention. The configuration of the sonar receiving apparatus of the second embodiment is greatly different from that of the first embodiment described above in that a bright spot CH detection unit and a mute control unit are added to the listening system.
That is, in the active sonar device 22 as the sonar receiving device according to the second embodiment, as shown in FIG. 3, the bright spot CH detection unit 17 and the mute control unit 18 are added before the left and right branching unit 13 in the listening system 9. Has been. The bright spot CH detection unit 17 detects an azimuth and timing displayed as a bright spot on the display unit 7 of the video display system 3, and outputs a beam CH and timing information corresponding to the azimuth to the mute control unit 18. The mute control unit 18 inputs the beam signal for each CH output from the beam forming unit 2, the beam CH output from the bright spot CH detection unit 17, and timing information.
Except this, it is substantially the same as the first embodiment described above. Therefore, in FIG. 3, the same reference numerals are given to the respective parts corresponding to the constituent parts in FIG. 1, and the description thereof is omitted.

次に、図3を参照して、本実施形態2によるアクティブソーナー装置22の動作について説明する。
ビデオ表示系3の表示処理部5から出力された受信方位毎の映像信号は、前述の実施形態2と同様に、表示部6に入力する系統と、輝点CH検出部17に入力する2系統に分岐される。輝点CH検出部17は、表示器7で輝点として表示される方位及びタイミングを検出し、方位に対応したビームCHとタイミング情報をミュート制御部18にへ出力する。ミュート制御部18は、ビーム形成部2から出力されたCH毎の待ち受けビーム信号及び輝点CH検出部17から出力されたビームCH及びタイミング情報を入力する。
Next, the operation of the active sonar device 22 according to the second embodiment will be described with reference to FIG.
The video signals for each reception direction output from the display processing unit 5 of the video display system 3 are input to the display unit 6 and two systems input to the bright spot CH detection unit 17 as in the second embodiment. Fork. The bright spot CH detection unit 17 detects the azimuth and timing displayed as the bright spot on the display unit 7, and outputs the beam CH and timing information corresponding to the azimuth to the mute control unit 18. The mute control unit 18 inputs the standby beam signal for each CH output from the beam forming unit 2 and the beam CH and timing information output from the bright spot CH detection unit 17.

そして、ミュート制御部18は、ビームCH及びタイミング情報により、入力される各受信ビーム信号のうち、表示器7で輝点表示される方位に対応するビームCH及びそのタイミング以外の受信ビーム信号の振幅を強制的に”0”にする。すなわち、表示器7で輝点表示されるタイミングでかつその方位のビーム信号のみに、ミュート制御部18に入力された際の振幅を維持する。ミュート制御部18から出力されたCH毎のビーム信号は、CH毎音量・時間差付与部12に入力され、以降は前述した実施形態2の動作と同様になる。   Based on the beam CH and timing information, the mute controller 18 among the input received beam signals, the beam CH corresponding to the direction in which the bright spot is displayed on the display unit 7 and the amplitude of the received beam signal other than the timing thereof. Is forced to "0". In other words, the amplitude when the light is input to the mute control unit 18 is maintained only at the timing when the bright spot is displayed on the display 7 and only in the beam signal in that direction. The beam signal for each CH output from the mute control unit 18 is input to the volume / time difference providing unit 12 for each CH, and the subsequent operation is the same as that of the second embodiment.

このような構成により、聴音出力部16に出力される聴音は、表示器7で輝点が表示
される方位及びタイミングのみミュートが解除される。すなわち、信号処理により信号として検出された音以外はミュートされ、高雑音な状況での使用においてS/Nの低下を抑えることができる。
With such a configuration, the mute of the listening sound output to the listening sound output unit 16 is released only in the direction and timing at which the bright spot is displayed on the display device 7. That is, sounds other than those detected as signals by signal processing are muted, and a decrease in S / N can be suppressed when used in a high noise situation.

このように、実施形態2によるアクティブソーナー装置22によれば、聴音系における一部の構成が異なるだけなので、実施形態1と略同様な効果を得ることができ、加えて高雑音な状況での使用においてS/Nの低下を抑えることができるという効果を得ることができる。   As described above, according to the active sonar device 22 according to the second embodiment, since only a part of the configuration in the listening system is different, it is possible to obtain substantially the same effect as in the first embodiment, and in addition, in a high noise situation. In use, it is possible to obtain an effect that a decrease in S / N can be suppressed.

以上、この発明の実施形態を図面により詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計の変更等があってもこの発明に含まれる。例えば、各実施形態ではソーナー受信装置としてはアクティブソーナー装置に例をあげて説明したが、これに限らずにパッシブソーナー装置に対しても同様に適用することができる。   Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to these embodiments, and even if there is a design change or the like without departing from the gist of the present invention. Included in the invention. For example, in each embodiment, the active sonar device has been described as an example of the sonar receiving device. However, the present invention is not limited to this and can be similarly applied to a passive sonar device.

この発明の実施形態1であるソーナー受信装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the sonar receiver which is Embodiment 1 of this invention. 同ソーナー受信装置の聴音系の動作原理を説明する概略図である。It is the schematic explaining the operating principle of the listening system of the sonar receiver. この発明の実施形態2であるソーナー受信装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the sonar receiver which is Embodiment 2 of this invention. 従来のソーナー受信装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the conventional sonar receiver. 同ソーナー受信装置におけるBスコープ表示の一例を示す図である。It is a figure which shows an example of the B scope display in the sonar receiver.

符号の説明Explanation of symbols

1 送受波部
2 ビーム形成部
3 ビデオ表示系
4 信号処理部
5 表示処理部
6 表示部
7 表示器
8 カーソル制御器
9 聴音系
10 中心CH設定部
11 CH毎音量・時間差設定部
12 CH毎音量・時間差付与部
13 左右分岐部
14 左用聴音処理部
15 右用聴音処理部
16 聴音出力部
17 輝点CH検出部
18 ミュート制御部
20、22 アクティブソーナー装置(ソーナー受信装置)
DESCRIPTION OF SYMBOLS 1 Transmission / reception part 2 Beam forming part 3 Video display system 4 Signal processing part 5 Display processing part 6 Display part 7 Display 8 Cursor controller 9 Hearing system 10 Central CH setting part 11 Volume for every CH and time difference setting part 12 Volume for every CH Time difference giving unit 13 Left / right branching unit 14 Left sound processing unit 15 Right sound processing unit 16 Sound output unit 17 Bright spot CH detection unit 18 Mute control unit 20, 22 Active sonar device (sona receiver)

Claims (5)

全方位範囲を音波により探信捜索して目標から得た受信信号をビデオ表示系及び聴音系に出力するソーナー受信装置であって、
前記聴音系は、
入力された前記受信信号を左用及び右用の2系統に分岐する左右分岐手段と、
前記ビデオ表示系におけるBスコープ表示上で制御されたカーソル方位を計算して、聴音中心チャネル情報を設定する中心チャネル設定手段と、
前記受信信号の全チャネルそれぞれに前記カーソル方位からのずれた方位に対して、左耳の指向性と右耳の指向性の差に相当する音量差及び左耳と右耳の位置による到達時間差を計算してチャネル毎音量・時間差情報を設定するチャネル毎音量・時間差設定手段と、
前記チャネル毎音量・時間差情報をもとに、前記2系統に分岐された前記受信信号の全チャネルの左用及び右用それぞれにチャネル毎音量・時間差を付与するチャネル毎音量・時間差付与手段と、
前記チャネル毎音量・時間差が付与された前記左用及び右用受信信号それぞれの出力の和を合成し可聴帯域の聴音信号に変換する左用聴音処理部及び右用聴音処理手段と、
前記左右2系統の聴音信号を入力してオペレータにステレオ聴音させる聴音出力手段と、
を含むことを特徴とするソーナー受信装置。
A sonar receiver that outputs a received signal obtained from a target by searching and searching an omnidirectional range using sound waves to a video display system and an audio system,
The listening system is
Left and right branching means for branching the input received signal into two systems for left and right;
Center channel setting means for calculating a cursor direction controlled on the B scope display in the video display system and setting listening center channel information;
A difference in volume corresponding to the difference between the directivity of the left ear and the right ear, and the arrival time difference due to the positions of the left ear and the right ear, with respect to the direction deviated from the cursor direction for each channel of the received signal. Channel-by-channel volume / time difference setting means for calculating and setting volume-by-channel volume / time difference information;
Based on the volume and time difference information for each channel, a volume and time difference providing unit for each channel that gives a volume and time difference for each channel to the left and right of all the channels of the received signal branched into the two systems,
The left sound processing unit and the right sound processing means for synthesizing the sum of the outputs of the left and right reception signals to which the volume and time difference for each channel is given, and converting them into an audible band sound signal;
An audio output means for inputting the audio signals of the left and right systems and causing the operator to listen in stereo;
A sonar receiver comprising:
前記ビデオ表示系及び前記聴音系の前段に、前記目標から得た前記受信信号を入力して該受信信号の全チャネルの信号を整相し、前記全方位範囲にわたって連続的に形成される複数の待ち受けビームを形成して前記ビデオ表示系及び前記聴音系に出力するビーム形成手段、を備えることを特徴とする請求項1記載のソーナー受信装置。   The received signal obtained from the target is input to the front stage of the video display system and the audio system, and the signals of all channels of the received signal are phased, and a plurality of continuously formed over the omnidirectional range. 2. The sonar receiver according to claim 1, further comprising beam forming means for forming a standby beam and outputting the beam to the video display system and the listening system. 前記聴音系は、さらに前記ビデオ表示系における前記Bスコープ表示上で輝点として表示される方位及びタイミングを検出し、該方位に対応したビームチャネル及びタイミング情報を出力する輝点チャネル検出手段と、前記ビーム形成手段から出力されたチャネル毎の前記待ち受けビームと前記輝点チャネル検出手段から出力された前記ビームチャネル及び前記タイミング情報を入力するミュート制御手段と、を含むことを特徴とする請求項1又は2記載のソーナー受信装置。   The listening system further detects a azimuth and timing displayed as a luminescent spot on the B scope display in the video display system, and outputs a luminescent spot channel detection means that outputs a beam channel and timing information corresponding to the azimuth. 2. The standby beam for each channel outputted from the beam forming means, and the mute control means for inputting the beam channel outputted from the bright spot channel detecting means and the timing information. Or the sonar receiver of 2. 複数の送受波素子を有し該送受波素子から全方位範囲にわたって音波を発射するとともに、前記目標からの反響音波を前記受信信号に変換して出力する送受波手段、を備えることを特徴とする請求項1,2又は3記載のソーナー受信装置。   And a transmission / reception unit that has a plurality of transmission / reception elements, emits sound waves from the transmission / reception elements over an omnidirectional range, and converts echo waves from the target into the reception signals and outputs them. The sonar receiver according to claim 1, 2 or 3. 前記ソーナー受信装置が、アクティブソーナー装置から成ることを特徴とする請求項1乃至4のいずれか1つに記載のソーナー受信装置。   The sonar receiving apparatus according to any one of claims 1 to 4, wherein the sonar receiving apparatus comprises an active sonar apparatus.
JP2008055647A 2008-03-06 2008-03-06 Sonar receiver Active JP5050935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008055647A JP5050935B2 (en) 2008-03-06 2008-03-06 Sonar receiver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008055647A JP5050935B2 (en) 2008-03-06 2008-03-06 Sonar receiver

Publications (2)

Publication Number Publication Date
JP2009210491A true JP2009210491A (en) 2009-09-17
JP5050935B2 JP5050935B2 (en) 2012-10-17

Family

ID=41183790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008055647A Active JP5050935B2 (en) 2008-03-06 2008-03-06 Sonar receiver

Country Status (1)

Country Link
JP (1) JP5050935B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102928843A (en) * 2012-08-17 2013-02-13 友达光电股份有限公司 Method and system for measuring spatial position of object using sound wave
JP2021532358A (en) * 2018-07-24 2021-11-25 フルークコーポレイションFluke Corporation Systems and methods for representing acoustic signatures from target scenes
US11913829B2 (en) 2017-11-02 2024-02-27 Fluke Corporation Portable acoustic imaging tool with scanning and analysis capability

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102928843A (en) * 2012-08-17 2013-02-13 友达光电股份有限公司 Method and system for measuring spatial position of object using sound wave
US11913829B2 (en) 2017-11-02 2024-02-27 Fluke Corporation Portable acoustic imaging tool with scanning and analysis capability
JP2021532358A (en) * 2018-07-24 2021-11-25 フルークコーポレイションFluke Corporation Systems and methods for representing acoustic signatures from target scenes
US11762089B2 (en) 2018-07-24 2023-09-19 Fluke Corporation Systems and methods for representing acoustic signatures from a target scene
US11960002B2 (en) 2018-07-24 2024-04-16 Fluke Corporation Systems and methods for analyzing and displaying acoustic data
US11965958B2 (en) 2018-07-24 2024-04-23 Fluke Corporation Systems and methods for detachable and attachable acoustic imaging sensors

Also Published As

Publication number Publication date
JP5050935B2 (en) 2012-10-17

Similar Documents

Publication Publication Date Title
US10397722B2 (en) Distributed audio capture and mixing
JP4449998B2 (en) Array speaker device
JP4561785B2 (en) Speaker array device
JP4924119B2 (en) Array speaker device
US20100123785A1 (en) Graphic Control for Directional Audio Input
CN1784900A (en) Arrangement and method for audio source tracking
JP2008543143A (en) Acoustic transducer assembly, system and method
JP2008543144A (en) Acoustic signal apparatus, system, and method
US10746872B2 (en) System of tracking acoustic signal receivers
JP4375355B2 (en) Speaker array device and audio beam setting method for speaker array device
US20170251324A1 (en) Reproducing audio signals in a motor vehicle
CN112104929A (en) Intelligent equipment, and method and system for controlling intelligent loudspeaker box
CN112104928A (en) Intelligent sound box and method and system for controlling intelligent sound box
JP4892927B2 (en) Imaging apparatus and communication conference system
JP5050935B2 (en) Sonar receiver
KR101613683B1 (en) Apparatus for generating sound directional radiation pattern and method thereof
JP4810810B2 (en) Sonar method and underwater image sonar
JP2000295698A (en) Virtual surround system
KR101091646B1 (en) Sonar and sonar driving method
JP5032960B2 (en) Acoustic input device
EP3182734B1 (en) Method for using a mobile device equipped with at least two microphones for determining the direction of loudspeakers in a setup of a surround sound system
JP2018034221A (en) Robot system
JP5852325B2 (en) Sound image localization improvement device
CN112098930A (en) Method for searching vehicle and intelligent equipment
JP4751974B2 (en) Portable sound source search device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120709

R150 Certificate of patent or registration of utility model

Ref document number: 5050935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3