JP6201292B2 - Audio information display device, audio information display method and program - Google Patents

Audio information display device, audio information display method and program Download PDF

Info

Publication number
JP6201292B2
JP6201292B2 JP2012231750A JP2012231750A JP6201292B2 JP 6201292 B2 JP6201292 B2 JP 6201292B2 JP 2012231750 A JP2012231750 A JP 2012231750A JP 2012231750 A JP2012231750 A JP 2012231750A JP 6201292 B2 JP6201292 B2 JP 6201292B2
Authority
JP
Japan
Prior art keywords
sound
unit
display
microphone
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012231750A
Other languages
Japanese (ja)
Other versions
JP2014086759A (en
Inventor
菱倉 博文
博文 菱倉
啓 名越
啓 名越
茂彦 岩間
茂彦 岩間
未穂 大瀧
未穂 大瀧
五十嵐 誠
誠 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012231750A priority Critical patent/JP6201292B2/en
Publication of JP2014086759A publication Critical patent/JP2014086759A/en
Application granted granted Critical
Publication of JP6201292B2 publication Critical patent/JP6201292B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、周囲の音声を取得して可視化する装置ための、音声情報表示装置、音声情報表示方法およびプログラムに関する。   The present invention relates to a sound information display device, a sound information display method, and a program for a device that acquires and visualizes surrounding sounds.

聴覚に障害がある場合や、健常者であってもヘッドフォンの利用により周辺の音声情報を認識できない場合がある。また、周辺の音声情報を取得して、取得した音声情報に対応する様々な表示により、ユーザに音声情報を視覚的に認識させる装置がある(特許文献1、特許文献2)。   There are cases where hearing is impaired, and even a normal person cannot recognize surrounding audio information by using headphones. There are also devices that acquire peripheral audio information and visually recognize the audio information by various displays corresponding to the acquired audio information (Patent Documents 1 and 2).

特開2010−251916号公報JP 2010-251916 A 特開2005−99418号公報JP-A-2005-99418

検出される音声情報としては、例えば、緊急車両のサイレン音や自動車のクラクション、室内における各種警報装置が発する警報音など、緊急性を要する音声情報がある。これら緊急性を要する音声情報の認識には、音声が発せられる方向を明確に認識する必要がある。   Examples of the sound information to be detected include sound information that requires urgency, such as a siren sound of an emergency vehicle, a car horn, and an alarm sound emitted by various alarm devices in a room. To recognize such urgent voice information, it is necessary to clearly recognize the direction in which the voice is emitted.

本発明はこのような問題点に鑑みなされたものであり、緊急性を要する音声が発せられる方向を、直感的且つ適切に認識することを可能とする、音声情報表示装置、音声情報表示方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such problems, and a voice information display device, a voice information display method, and a voice information display method capable of intuitively and appropriately recognizing a direction in which urgent voice is emitted. The purpose is to provide a program.

上記目的を達成するために、本発明に係る音声情報表示装置(100、200)は、表示部(140、640)、前記表示部(140、640)を囲うように配置された複数のマイクロフォン(20)、前記複数のマイクロフォン(20)から入力された音声信号に基づき音源方向を検出する入力音分析部(113、613)、前記入力音分析部(113、613)により検出された音源方向に配置されている前記マイクロフォン(20)の配置方向を基点として、前記マイクロフォン(20)から入力された音声信号を表す形状を前記表示部(140、640)に表示させる表示制御部(111、611)、を備え、前記表示制御部(111、611)は、所定の音圧以上の音声信号を検出した場合に、前記音声信号を表す形状を前記表示部(140、640)に、前記所定の音圧以上の音声信号を検出した時間以上表示させることを特徴とする。 In order to achieve the above object, an audio information display device (100, 200) according to the present invention includes a display unit (140, 640) and a plurality of microphones arranged so as to surround the display unit (140, 640). 20), an input sound analysis unit (113, 613) for detecting a sound source direction based on audio signals input from the plurality of microphones (20), and a sound source direction detected by the input sound analysis unit (113, 613). A display control unit (111, 611) that causes the display unit (140, 640) to display a shape representing an audio signal input from the microphone (20), based on the arrangement direction of the arranged microphone (20). , wherein the display control unit (111,611), when detecting an audio signal on a predetermined sound pressure or higher, the display shape representing the speech signal To (140,640), characterized by Rukoto to display the predetermined sound audio signal on pressure or the detected time or more.

また、本発明に係る音声情報表示方法は、表示部(140、640)を囲うように配置された複数のマイクロフォン(20)から入力された音声信号に基づき音源方向を検出する入力音分析ステップ、前記入力音分析ステップにおいて検出された音源方向に配置されている前記マイクロフォン(20)の配置方向を基点として、前記マイクロフォン(20)から入力された音声信号を表す形状を前記表示部(140、640)に表示させる表示制御ステップ、を含み、前記表示制御ステップは、所定の音圧以上の音声信号を検出した場合に、前記音声信号を表す形状を前記表示部(140、640)に、前記所定の音圧以上の音声信号を検出した時間以上表示させることを特徴とする。 Also, the audio information display method according to the present invention includes an input sound analysis step of detecting a sound source direction based on audio signals input from a plurality of microphones (20) arranged so as to surround the display unit (140, 640), Based on the arrangement direction of the microphone (20) arranged in the sound source direction detected in the input sound analysis step, the shape representing the audio signal inputted from the microphone (20) is used as the display unit (140, 640). The display control step displays the shape representing the audio signal on the display unit (140, 640) when the audio signal having a predetermined sound pressure or higher is detected. characterized Rukoto to display the sound pressure or higher of the audio signal detected time or more.

また、本発明に係るプログラムは、音声情報表示装置(100、200)が備えるコンピュータ(110、610)に、表示部(140、640)を囲うように配置された複数のマイクロフォン(20)から入力された音声信号に基づき音源方向を検出する入力音分析ステップ、前記入力音分析ステップにおいて検出された音源方向に配置されている前記マイクロフォン(20)の配置方向を基点として、前記マイクロフォン(20)から入力された音声信号を表す形状を前記表示部(140、640)に表示させる表示制御ステップ、を実行させ、前記表示制御ステップは、所定の音圧以上の音声信号を検出した場合に、前記音声信号を表す形状を前記表示部(140、640)に、前記所定の音圧以上の音声信号を検出した時間以上表示させることを特徴とする。 A program according to the present invention is input from a plurality of microphones (20) arranged so as to surround the display unit (140, 640) to a computer (110, 610) included in the audio information display device (100, 200). Input sound analysis step for detecting the direction of the sound source based on the received sound signal, from the microphone (20) based on the arrangement direction of the microphone (20) arranged in the sound source direction detected in the input sound analysis step. A display control step of causing the display unit (140, 640) to display a shape representing the input audio signal, and the display control step detects the audio signal when an audio signal having a predetermined sound pressure or higher is detected. The shape representing the signal is displayed on the display unit (140, 640) for a time longer than the time when the sound signal having the predetermined sound pressure or higher is detected. It was characterized by Rukoto.

本発明によれば、音声が発せられる方向を、直感的且つ適切に認識することを可能とする。   According to the present invention, it is possible to intuitively and appropriately recognize the direction in which sound is emitted.

本実施形態に係る音声情報表示装置の外観斜視図である。It is an external appearance perspective view of the audio | voice information display apparatus which concerns on this embodiment. 本実施形態に係る音声情報表示装置のマイクロフォンの位置に対応する音源方向の例を示した図である。It is the figure which showed the example of the sound source direction corresponding to the position of the microphone of the audio | voice information display apparatus which concerns on this embodiment. 本実施形態に係る音声情報表示装置の構成ブロック図である。It is a block diagram of the configuration of the audio information display device according to the present embodiment. 第1の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 1st Embodiment. 第1の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 1st Embodiment. 第1の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 1st Embodiment. 第1の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 1st Embodiment. 第1の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 1st Embodiment. 第1の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 1st Embodiment. 第2の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る音声情報表示装置の周波数分析例を示すグラフである。It is a graph which shows the frequency analysis example of the audio | voice information display apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る表示エリアと対応する周波数を示した図である。It is the figure which showed the frequency corresponding to the display area which concerns on 3rd Embodiment. 第3の実施形態に係る表示エリアと対応する周波数を示した図である。It is the figure which showed the frequency corresponding to the display area which concerns on 3rd Embodiment. 第3の実施形態に係る表示エリアと対応する周波数を示した図である。It is the figure which showed the frequency corresponding to the display area which concerns on 3rd Embodiment. 第3の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 3rd Embodiment. 第4の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 4th Embodiment. 第4の実施形態に係る音声情報表示装置の音圧分析例を示すグラフである。It is a graph which shows the example of sound pressure analysis of the audio | voice information display apparatus which concerns on 4th Embodiment. 第4の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 4th Embodiment. 第4の実施形態に係る音声情報表示装置の表示時間を示す図である。It is a figure which shows the display time of the audio | voice information display apparatus which concerns on 4th Embodiment. 第4の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 4th Embodiment. 第4の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 4th Embodiment. 第5の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 5th Embodiment. 第5の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 5th Embodiment. 第5の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 5th Embodiment. 第5の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 5th Embodiment. 第5の実施形態に係る音声情報表示装置の表示例を示す図である。It is a figure which shows the example of a display of the audio | voice information display apparatus which concerns on 5th Embodiment. 第6の実施形態に係る音声情報表示装置を構成するジャケットマイク部の外観斜視図である。It is an external appearance perspective view of the jacket microphone part which comprises the audio | voice information display apparatus which concerns on 6th Embodiment. 第6の実施形態に係る音声情報表示装置を構成するジャケットマイク部とスマートフォン部が装着されている状態の斜視図である。It is a perspective view of the state with which the jacket microphone part and smart phone part which comprise the audio | voice information display apparatus which concerns on 6th Embodiment are mounted | worn. 第6の実施形態に係る音声情報表示装置の構成ブロック図である。It is a structure block diagram of the audio | voice information display apparatus which concerns on 6th Embodiment. 第6の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 6th Embodiment. 第6の実施形態に係る音声情報表示装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the audio | voice information display apparatus which concerns on 6th Embodiment.

以下、本発明における第1の実施形態から第5の実施形態に共通する音声情報表示装置100について、図1から図3を参照して説明する。   Hereinafter, an audio information display device 100 common to the first to fifth embodiments of the present invention will be described with reference to FIGS. 1 to 3.

音声情報表示装置100は、図1に示すように、表示機能を備えた装置である。具体的には、携帯電話端末やタブレット端末のように、小型で持ち運び容易であることが好ましい。音声情報表示装置100は、その筐体10が構成する面に表示部140の表示面を備え、矩形の筐体10の4隅に各々マイクロフォン20を備える。   The voice information display device 100 is a device having a display function as shown in FIG. Specifically, it is preferable that the mobile phone terminal or the tablet terminal is small and easy to carry. The audio information display device 100 includes a display surface of the display unit 140 on a surface formed by the housing 10 and microphones 20 at four corners of the rectangular housing 10.

マイクロフォン20は、例えば図2のように音声情報表示装置100の長辺を縦方向とした場合に、右上の角部にマイクロフォン20A、右下にマイクロフォン20B、左下にマイクロフォン20C、左上にマイクロフォン20Dを備える。マイクロフォン20の位置は、必ずしも筐体10の4隅に限定されず、筐体10の中心からみて4方向に備えられ、音源の方向が判別可能な配置であればよい。   For example, when the long side of the audio information display device 100 is in the vertical direction as shown in FIG. 2, the microphone 20 has a microphone 20A at the upper right corner, a microphone 20B at the lower right, a microphone 20C at the lower left, and a microphone 20D at the upper left. Prepare. The positions of the microphones 20 are not necessarily limited to the four corners of the casing 10, and may be any arrangement as long as the microphones 20 are provided in four directions when viewed from the center of the casing 10 and the direction of the sound source can be determined.

図2における矢印が指す方向A〜Hは、マイクロフォン20によって音源の方向が特定される方向の例を示している。実際の利用形態は、表示部140が地面に対して水平となるように配置または把持されるため、方向A〜Hは、音声情報表示装置100を中心として地面と水平方向の向きとなる。 2 indicate examples of directions in which the direction of a sound source is specified by the microphone 20. In an actual usage mode, the display unit 140 is arranged or gripped so as to be horizontal with respect to the ground, so the directions A to H are oriented in the horizontal direction with respect to the ground with the audio information display device 100 as the center.

このため、マイクロフォン20は、各々が備えられている方向を中心に指向性を有していることが好ましい。例えば、マイクロフォン20Aは、B方向を中心に指向性を有し、マイクロフォン20Bは、D方向を中心に指向性を有する。また、マイクロフォン20Cは、F方向を中心に指向性を有し、マイクロフォン20Dは、H方向を中心に指向性を有する。 For this reason, it is preferable that the microphone 20 has directivity around the direction in which each microphone 20 is provided. For example, the microphone 20A has directivity around the B direction, and the microphone 20B has directivity around the D direction. Further, the microphone 20C has directivity around the F direction, and the microphone 20D has directivity around the H direction.

音声情報表示装置100は、図1に示すようにその筐体10は矩形でなくともよく、また、マイクロフォン20は4箇所のみではなくともよい。例えば、音声情報表示装置100は、表示部140を正面とした場合、円形や多角形であってもよい。また、マイクロフォン20は、6箇所や8箇所、または矩形の筐体10が構成する辺の中央に備えられえていてもよい。いずれにおいても、マイクロフォン20は、表示部140の周囲に配置されていることが好ましい。 As shown in FIG. 1, the audio information display device 100 does not have to have a rectangular casing 10, and the microphones 20 need not have only four locations. For example, the audio information display device 100 may be circular or polygonal when the display unit 140 is the front. Moreover, the microphone 20 may be provided in the center of the edge | side which 6 places, 8 places, or the rectangular housing | casing 10 comprises. In any case, the microphone 20 is preferably disposed around the display unit 140.

音声情報表示装置100は、その構成として図3に示すように、制御部110、音声信号入力部120、記憶部130、表示部140、操作部150、電源部160、マイクロフォン20を備える。また、音声情報表示装置100は、他に図示しない各種必要な構成要素を備えていてもよい。   As shown in FIG. 3, the audio information display device 100 includes a control unit 110, an audio signal input unit 120, a storage unit 130, a display unit 140, an operation unit 150, a power supply unit 160, and a microphone 20. The audio information display apparatus 100 may include various necessary components that are not shown.

制御部110は、音声情報表示装置100を構成する各部の動作制御、各種データの処理または演算等を行う。制御部110は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、DSP(Digital Signal Processor)等により構成され、ROMに記憶された各種プログラムをRAM上で実行することにより音声情報表示装置100を構成する各部の動作制御や各部より入力された信号やデータの処理または演算、ファイルの処理等を行う。   The control unit 110 performs operation control of each unit constituting the audio information display device 100, processing or calculation of various data, and the like. The control unit 110 includes, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), a DSP (Digital Signal Processor), and the like. Various programs stored in the ROM are stored on the RAM. By executing this, operation control of each part constituting the voice information display apparatus 100, processing or calculation of signals and data input from each part, file processing, and the like are performed.

制御部110は、実行されるプログラムによって各種機能を実現する。本実施形態において制御部110は、表示制御部111、操作制御部112、入力音分析部113、音認識部114を実現する。   The control unit 110 implements various functions by executing programs. In the present embodiment, the control unit 110 implements a display control unit 111, an operation control unit 112, an input sound analysis unit 113, and a sound recognition unit 114.

表示制御部111は、表示部140に対して各種情報を表示させる処理を行う。例えば、記憶部130に記憶されている各種表示形態や文字等の表示、図示しないタッチパネル操作部に連動した各種GUI(Graphical User Interface)などを表示させる。   The display control unit 111 performs processing for displaying various types of information on the display unit 140. For example, various display forms and characters stored in the storage unit 130, various GUIs (Graphical User Interfaces) linked to a touch panel operation unit (not shown), and the like are displayed.

操作制御部112は、操作部150が操作されることによって生成する操作信号に基づいた処理を実行させる。   The operation control unit 112 executes processing based on an operation signal generated when the operation unit 150 is operated.

入力音分析部113は、マイクロフォン20から入力され、音声信号入力部120から取得した音声データに対して各種分析を行う。具体例としては、マイクロフォン20A〜20Dに入力された音圧の分析、音圧に基づく音源方向の分析、周波数の分析などである。   The input sound analysis unit 113 performs various analyzes on the sound data input from the microphone 20 and acquired from the sound signal input unit 120. Specific examples include analysis of sound pressure input to the microphones 20A to 20D, analysis of a sound source direction based on sound pressure, and analysis of frequency.

音認識部114は、マイクロフォン20から入力され、音声信号入力部120から取得した音声データに対して、例えば記憶部130に記憶されている各種音のパターンデータと照合し、入力された音声の特定を行う。   The sound recognition unit 114 compares the sound data input from the microphone 20 and acquired from the sound signal input unit 120 with, for example, pattern data of various sounds stored in the storage unit 130, and specifies the input sound. I do.

音声信号入力部120は、制御部110の制御によりマイクロフォン20から入力された音声信号を制御部110が処理するためのデータに変換する。音声信号入力部120は、例えば、A/D変換部121および増幅部122から構成される。増幅部122は、マイクロフォン20から入力される音声信号を増幅する、例えばオペアンプ等である。A/D変換部121は、増幅部122が増幅した音声信号を、A/D(Analog - Digital)変換し、制御部110に音声データを送出する。   The audio signal input unit 120 converts the audio signal input from the microphone 20 under control of the control unit 110 into data for the control unit 110 to process. The audio signal input unit 120 includes, for example, an A / D conversion unit 121 and an amplification unit 122. The amplification unit 122 is, for example, an operational amplifier that amplifies the audio signal input from the microphone 20. The A / D conversion unit 121 performs A / D (Analog-Digital) conversion on the audio signal amplified by the amplification unit 122 and sends the audio data to the control unit 110.

記憶部130は、例えばフラッシュメモリやHDD(Hard Disk Drive)より構成され、音声情報表示装置100に必要な各種データや、マイクロフォン20等外部から入力される記録対象のデータが記憶され、制御部110の処理によって記憶動作や読み出し動作が行われる。記憶部140は音声情報表示装置100に内蔵されるものに限らず、所定のインターフェースによって接続される外部の記憶デバイスであってもよい。外部の記憶デバイスの一例としては、USB(Universal Serial Bus)端子に接続されるUSBメモリや外部HDD装置、所定のメモリカードスロットにより接続されるメモリカードなどである。   The storage unit 130 includes, for example, a flash memory or an HDD (Hard Disk Drive), and stores various data necessary for the audio information display device 100 and data to be recorded input from the outside such as the microphone 20. Through this process, a storage operation and a read operation are performed. The storage unit 140 is not limited to that built in the audio information display device 100, and may be an external storage device connected by a predetermined interface. Examples of the external storage device include a USB memory connected to a USB (Universal Serial Bus) terminal, an external HDD device, and a memory card connected by a predetermined memory card slot.

表示部140は、例えば液晶表示素子や有機EL(Electro Luminescence)表示素子、およびそれらを駆動する回路ユニット等からなり、表示制御部111の制御により各種表示内容や表示形態が表示される。   The display unit 140 includes, for example, a liquid crystal display element, an organic EL (Electro Luminescence) display element, and a circuit unit that drives them, and displays various display contents and display forms under the control of the display control unit 111.

操作部150は、音声情報表示装置100に対してユーザが各種処理や動作指示を行うためのユーザインターフェースであり、例えば、押ボタン式や回転式の操作手段、または表示部140に重ねて設けられた図示しないタッチパネル操作部により構成される。操作部150が操作されることにより、操作に基づく信号が後述する操作制御部112に出力され、操作に基づく各部の動作や各種処理が実行される。   The operation unit 150 is a user interface for the user to perform various processes and operation instructions to the audio information display device 100. For example, the operation unit 150 is provided so as to overlap the push button type or rotary type operation unit or the display unit 140. It is comprised by the touchscreen operation part which is not shown in figure. When the operation unit 150 is operated, a signal based on the operation is output to the operation control unit 112 described later, and the operation of each unit and various processes based on the operation are executed.

電源部160は、音声情報表示装置100を構成する各部に電力を供給するバッテリを含む電源回路等であり、制御部110の制御によって、各部へ適切な電力の供給や、電源部160への充電が制御される。   The power supply unit 160 is a power supply circuit including a battery that supplies power to each unit constituting the audio information display device 100, and appropriately supplies power to each unit and charges the power supply unit 160 under the control of the control unit 110. Is controlled.

次に、図4から図9に基づき、第1の実施形態について説明する。   Next, the first embodiment will be described based on FIGS. 4 to 9.

音声情報表示装置100は、操作部150の操作によって電源がオンとなり、電源部160から電力が供給されて動作している間は、常時マイクロフォン20による音声の入力を受け付けている。その状態において、入力音分析部113は、音声信号入力部120から取得した音声データに基づいて、所定音圧以上の音声信号がマイクロフォン20のいずれかまたは複数のマイクロフォン20に入力されたか否かを判断する(ステップS11)。   The sound information display device 100 is always turned on by the operation of the operation unit 150 and receives sound input from the microphone 20 while operating with power supplied from the power supply unit 160. In this state, the input sound analysis unit 113 determines whether or not an audio signal having a predetermined sound pressure or higher is input to any one or a plurality of microphones 20 based on the audio data acquired from the audio signal input unit 120. Judgment is made (step S11).

ステップS11における音圧の判定は、例えば、音声信号入力部120から入力された音声データに対して、入力信号のレベルに応じてパルス幅のHレベルとLレベルの比率を変えるPWM(Pulse Width Modulation)変換を行い、そのパルス幅により判断する。このPWM変換は、周波数帯域毎に行ってもよい。その場合は、PWM変換前にBPF(Band Pass Filter)により、所望の周波数帯域毎に音声データを選別する。また、PWM変換は、複数のマイクロフォン20毎に行う。 The determination of the sound pressure in step S11 is, for example, PWM (Pulse Width Modulation) that changes the ratio of the H level and L level of the pulse width according to the level of the input signal with respect to the audio data input from the audio signal input unit 120. ) Convert and judge by the pulse width. This PWM conversion may be performed for each frequency band. In that case, audio data is selected for each desired frequency band by BPF (Band Pass Filter) before PWM conversion. The PWM conversion is performed for each of the plurality of microphones 20.

ステップS11において、入力されていないと判断された場合(ステップS11:No)、ステップS11の処理を再度実行することにより、逐次所定音圧以上の音声信号の入力が監視される。 If it is determined in step S11 that no input has been made (step S11: No), the input of a sound signal having a predetermined sound pressure or higher is successively monitored by executing the process of step S11 again.

ステップS11において判断される所定音圧は、任意に設定されてもよいが、具体例として音圧レベルが70dB以上とする。この数値は、予め設定されていてもよく、ユーザの聴覚レベルに合わせて設定が変更可能であってもよい。   The predetermined sound pressure determined in step S11 may be set arbitrarily, but as a specific example, the sound pressure level is 70 dB or more. This numerical value may be set in advance, or the setting may be changed according to the user's hearing level.

ステップS11において、所定音圧以上の音声信号が入力されたと判断された場合(ステップS11:Yes)、入力音分析部113は、入力された各マイクロフォン20による音声データに基づき、音源の方向を分析する(ステップS12)。   When it is determined in step S11 that an audio signal having a predetermined sound pressure or higher has been input (step S11: Yes), the input sound analysis unit 113 analyzes the direction of the sound source based on the input audio data from each microphone 20. (Step S12).

ステップS12の処理を、図5に基づき説明する。先ず、入力音分析部113はマイクロフォン20A〜20Dの各々に対応する音声データに基づき、入力された音声信号の音圧が最大のマイクロフォンを特定する(ステップS121)。ステップS121の処理を行うときに比較する各マイクロフォン20の音声データは、所定の時間帯における最大値を検出してもよく、所定の時間帯の積分値における最大値を検出してもよい。また、複数のマイクロフォン20間の最大値の差が所定以上小さい場合、例えば最大音圧の差が2dB以内である場合は、それらのマイクロフォン20の音圧は同一であるとしてもよい。   The process of step S12 is demonstrated based on FIG. First, the input sound analysis unit 113 identifies a microphone having the maximum sound pressure of the input sound signal based on the sound data corresponding to each of the microphones 20A to 20D (step S121). For the audio data of each microphone 20 to be compared when performing the process of step S121, the maximum value in a predetermined time zone may be detected, or the maximum value in the integrated value in a predetermined time zone may be detected. In addition, when the difference between the maximum values of the plurality of microphones 20 is smaller than a predetermined value, for example, when the difference between the maximum sound pressures is within 2 dB, the sound pressures of the microphones 20 may be the same.

ステップS121において、音圧が最大のマイクロフォン20が特定できたと判断された場合(ステップS121:Yes)、入力音分析部113は音圧が最大と特定されたマイクロフォン20の方向を音源方向であると判断する(ステップS122)。例えば、図2においてマイクロフォン20Aが最大音圧が入力されたマイクロフォンであると特定された場合は、方向Bが音源方向であると判断される。同様に、マイクロフォン20Bの場合は方向D、マイクロフォン20Cの場合は方向F、マイクロフォン20Dの場合は方向Hであると判断される。   In step S121, when it is determined that the microphone 20 having the maximum sound pressure can be identified (step S121: Yes), the input sound analysis unit 113 determines that the direction of the microphone 20 identified as having the maximum sound pressure is the sound source direction. Judgment is made (step S122). For example, when the microphone 20A is identified as the microphone to which the maximum sound pressure is input in FIG. 2, it is determined that the direction B is the sound source direction. Similarly, it is determined that the direction is D in the case of the microphone 20B, the direction F in the case of the microphone 20C, and the direction H in the case of the microphone 20D.

ステップS121において、音圧が最大のマイクロフォン20が特定できないと判断された場合(ステップS121:No)、入力音分析部113は、音圧が他より大きい同一音圧の2つのマイクロフォン20が特定できるか否かを判断する(ステップS123)。ステップS123の処理においても、同一音圧と判断する誤差はステップS121と同様でよい。ステップS123において、音圧が他より大きい同一音圧の2つのマイクロフォン20が特定できた場合(ステップS123:Yes)、入力音分析部113は音圧が他より大きい同一音圧の2つのマイクロフォン20の間の方向を音源方向であると判断する(ステップS124)。   When it is determined in step S121 that the microphone 20 having the maximum sound pressure cannot be specified (step S121: No), the input sound analysis unit 113 can specify two microphones 20 having the same sound pressure that is higher than the other sound pressures. Whether or not (step S123). Also in the process of step S123, the error for determining the same sound pressure may be the same as in step S121. In step S123, when the two microphones 20 having the same sound pressure larger than the others can be identified (step S123: Yes), the input sound analysis unit 113 has two microphones 20 having the same sound pressure larger than the others. Is determined as the sound source direction (step S124).

ステップS124の処理は、例えば図2において、方向A、方向C、方向Eおよび方向Gにはマイクロフォンが配置されていないため、これらの方向を挟む2つのマイクロフォン20を方向A、方向C、方向Eおよび方向Gにおける仮想のマイクロフォンとするものである。   In the process of step S124, for example, in FIG. 2, since no microphones are arranged in the direction A, the direction C, the direction E, and the direction G, the two microphones 20 sandwiching these directions are changed to the direction A, the direction C, and the direction E. And a virtual microphone in the direction G.

ステップS124の判断は、例えば、図2においてマイクロフォン20Aとマイクロフォン20Bが音圧が他より大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Cが音源方向であると判断される。同様に、マイクロフォン20Bとマイクロフォン20Cが音圧が他より大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Fが音源方向であると判断され、マイクロフォン20Cとマイクロフォン20Dが音圧が他より大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Gが音源方向であると判断され、マイクロフォン20Dとマイクロフォン20Aが音圧が他より大きい同一音圧の2つのマイクロフォン20であると特定された場合は、方向Aが音源方向であると判断される。   The determination in step S124 is, for example, when the microphone 20A and the microphone 20B in FIG. 2 are identified as two microphones 20 having the same sound pressure that is larger than the other, the direction C is determined to be the sound source direction. The Similarly, when it is determined that the microphone 20B and the microphone 20C are two microphones 20 having the same sound pressure that is larger than the other, the direction F is determined to be the sound source direction, and the microphone 20C and the microphone 20D are sounded. When it is specified that the two microphones 20 have the same sound pressure larger than the other, the direction G is determined to be the sound source direction, and the microphone 20D and the microphone 20A have the same sound pressure 2 larger than the other. When it is specified that there are two microphones 20, it is determined that the direction A is the sound source direction.

ステップS123において、音圧が他より大きい同一音圧の2つのマイクロフォン20が特定できなかった場合(ステップS123:No)、入力音分析部113は全てのマイクロフォン20が同一音圧であるか否かを判断する(ステップS125)。ステップS125の処理においても、同一音圧と判断する誤差はステップS121と同様でよい。ステップS125において、全てのマイクロフォン20が同一の音圧であると判断された場合(ステップS125:Yes)、入力音分析部113は音声情報表示装置100の上方であると判断する(ステップS126)。ステップS126の判断は、音声情報表示装置100が置かれた状況やユーザに把持されている状況が多いために、音源方向が音声情報表示装置100の上方であると定義しているが、音声情報表示装置100の下方であると判断してもよい。   In step S123, when the two microphones 20 having the same sound pressure larger than the others cannot be identified (step S123: No), the input sound analyzer 113 determines whether all the microphones 20 have the same sound pressure. Is determined (step S125). Also in the process of step S125, the error for determining the same sound pressure may be the same as in step S121. If it is determined in step S125 that all the microphones 20 have the same sound pressure (step S125: Yes), the input sound analysis unit 113 determines that the sound information display device 100 is above (step S126). The determination in step S126 defines that the sound source direction is above the voice information display device 100 because there are many situations where the voice information display device 100 is placed or held by the user. It may be determined that it is below the display device 100.

ステップS126の処理は、例えば図2において、表示部140の上方を向くマイクロフォンは配置されていないため、全てのマイクロフォン20を表示部140の上方を向く仮想のマイクロフォンとするものである。   In the process of step S126, for example, in FIG. 2, since no microphones facing upward of the display unit 140 are arranged, all the microphones 20 are virtual microphones facing upward of the display unit 140.

ステップS125において、全てのマイクロフォン20が同一の音圧ではないと判断された場合(ステップS125:No)、入力音分析部113は音源の方向が特定できないと判断する(ステップS127)。   If it is determined in step S125 that all the microphones 20 do not have the same sound pressure (step S125: No), the input sound analysis unit 113 determines that the direction of the sound source cannot be specified (step S127).

図4に戻り、ステップS12において音源の方向が分析された後、分析された音源の方向に基づき、表示制御部111は音声を示す情報を表示部140に表示させる(ステップS13)。ステップS13の処理と表示例を図6から図9により説明する。   Returning to FIG. 4, after the direction of the sound source is analyzed in step S12, based on the analyzed direction of the sound source, the display control unit 111 displays information indicating sound on the display unit 140 (step S13). The process of step S13 and a display example will be described with reference to FIGS.

先ず、表示制御部111は、入力音分析部113が検出した音源方向に基づき、表示部140における音源方向のマイクロフォン20の配置方向を基点とした放射状のパターンを表示させる(ステップS131)。ステップS131の処理で表示される例として、図7は、音源方向がマイクロフォン20Aの方向であると判断された場合を示す。同様に、図8は、音源方向がマイクロフォン20Aと20Dの間であると判断された場合を示す。同様に、図9は、音源方向が音声情報表示装置100の上方であると判断された場合を示す。   First, the display control unit 111 displays a radial pattern based on the arrangement direction of the microphones 20 in the sound source direction on the display unit 140 based on the sound source direction detected by the input sound analysis unit 113 (step S131). As an example displayed in the process of step S131, FIG. 7 shows a case where it is determined that the sound source direction is the direction of the microphone 20A. Similarly, FIG. 8 shows a case where the sound source direction is determined to be between the microphones 20A and 20D. Similarly, FIG. 9 shows a case where it is determined that the sound source direction is above the audio information display device 100.

次に、表示制御部111は、ステップS131において表示した放射状パターンの表示パラメータを、基点となるマイクロフォン20に近い順に表示パラメータを変化させ(ステップS132)、所定時間が経過するまで繰り返す(ステップS133)。   Next, the display control unit 111 changes the display parameters of the radial pattern displayed in step S131 in the order closer to the microphone 20 serving as the base point (step S132), and repeats until a predetermined time elapses (step S133). .

ステップS132の処理を具体的に説明すると、図7から図9において表示される放射状パターンは、音源方向のマイクロフォン20または仮想マイクロフォンの配置方向を基点として、表示エリア300A、表示エリア300R1、300R2、300R3、300R4が順に配置されている。これらの表示エリア300を、例えば色や輝度を、表示エリア300R1、300R2、300R3、300R4の順に変化させていく。変化のタイミングは、例えば0.5秒毎である。表示制御部111は、このような表示を、例えば、5秒から10秒などの予め定められた所定時間繰り返す。予め定めだれた繰り返し時間は、入力音分析部113において、所定音圧以上の音声信号が入力されたと判断された時点からの時間であってもよく、所定音圧以上の音声信号が入力されたと判断され、その音声信号が所定音圧以下となった時点からの時間であってもよい。   The processing in step S132 will be specifically described. The radial patterns displayed in FIGS. 7 to 9 are based on the arrangement direction of the microphone 20 or the virtual microphone in the sound source direction as a base point, the display area 300A, the display areas 300R1, 300R2, and 300R3. , 300R4 are arranged in order. In these display areas 300, for example, the color and luminance are changed in the order of display areas 300R1, 300R2, 300R3, and 300R4. The change timing is, for example, every 0.5 seconds. The display control unit 111 repeats such display for a predetermined time period such as 5 seconds to 10 seconds. The predetermined repetition time may be a time from the time when the input sound analysis unit 113 determines that a sound signal having a predetermined sound pressure or higher is input, and a sound signal having a predetermined sound pressure or higher is input. It may be the time from the time when the sound signal is determined and becomes equal to or lower than a predetermined sound pressure.

また、予め定められた繰り返し時間は、音圧のレベルによって変化してもよい。例えば入力音分析部113において検出された音圧が約80dBである場合は10秒、約90dBである場合は15秒などである。   Further, the predetermined repetition time may vary depending on the sound pressure level. For example, when the sound pressure detected by the input sound analysis unit 113 is about 80 dB, it is 10 seconds, and when the sound pressure is about 90 dB, it is 15 seconds.

表示エリア300Aには、例えば入力音分析部113において分析された最大音の音圧レベルなどを数値で表示する。図7の例においては、マイクロフォン20Aにおいて音圧が約80dBの音声信号が入力され、マイクロフォン20Aの方向(方向B)に音源が存在することを示す。図8の例においては、マイクロフォン20Aおよびマイクロフォン20Dにおいて、各々音圧が約80dBの音声信号が入力され、マイクロフォン20Aとマイクロフォン20Dの中間に位置する仮想マイクロフォンの方向(方向A)に音源が存在することを示す。図9の例においては、マイクロフォン20A〜20Dの全てにおいて、各々音圧が約80dBの音声信号が入力され、音声情報表示装置100の上方からの音声信号を検出する仮想マイクロフォンの方向に音源が存在することを示す。   In the display area 300A, for example, the sound pressure level of the maximum sound analyzed by the input sound analysis unit 113 is displayed as a numerical value. In the example of FIG. 7, an audio signal having a sound pressure of about 80 dB is input to the microphone 20A, and a sound source is present in the direction of the microphone 20A (direction B). In the example of FIG. 8, an audio signal having a sound pressure of about 80 dB is input to each of the microphone 20A and the microphone 20D, and a sound source exists in the direction of the virtual microphone (direction A) located between the microphone 20A and the microphone 20D. It shows that. In the example of FIG. 9, in all of the microphones 20 </ b> A to 20 </ b> D, an audio signal having a sound pressure of about 80 dB is input, and a sound source exists in the direction of the virtual microphone that detects the audio signal from above the audio information display device 100. Indicates to do.

このように、第1の実施形態においては、音源方向のマイクロフォン20の配置方向を基点として音声信号を表す形状を表示部140に表示させるため、ユーザは直感的に最大音を検出したマイクロフォン20の位置に基づき音源方向とその範囲を把握することができる。また、音声信号を表す形状を、音源方向のマイクロフォン20の配置方向を基点とする放射状とするため、ユーザは音源方向を直感的に把握することができる。また、音声信号を表す形状を、音源方向のマイクロフォン20の配置方向を基点とした複数の表示エリアを順に表示パラメータを変化させるため、より明瞭に音源方向を把握することができる。   As described above, in the first embodiment, the shape representing the audio signal is displayed on the display unit 140 with the arrangement direction of the microphone 20 in the sound source direction as a base point, and thus the user intuitively detects the maximum sound of the microphone 20 that has detected the maximum sound. The sound source direction and its range can be grasped based on the position. Further, since the shape representing the audio signal is a radial shape based on the arrangement direction of the microphone 20 in the sound source direction, the user can intuitively grasp the sound source direction. In addition, since the display parameters of the shape representing the audio signal are sequentially changed in a plurality of display areas based on the arrangement direction of the microphone 20 in the sound source direction, the sound source direction can be grasped more clearly.

第1の実施形態においては、音源方向のマイクロフォン20の配置方向を基点とする放射状とする表示エリア300を表示エリア300R1、300R2、300R3、300R4からなる4つの表示エリア300としたが、特に表示エリア300の数は限定されず、放射状の表示範囲も限定されない。   In the first embodiment, the display area 300 having a radial shape based on the arrangement direction of the microphones 20 in the sound source direction is the four display areas 300 including the display areas 300R1, 300R2, 300R3, and 300R4. The number of 300 is not limited, and the radial display range is not limited.

次に、図10および図11に基づき、第2の実施形態について説明する。第2の実施形態における音声情報表示装置100が実行する処理は第1の実施形態と同一であるため説明を省略する。第1の実施形態とは、図6におけるステップS131で実行される放射状パターンの表示形態が異なる。   Next, a second embodiment will be described based on FIG. 10 and FIG. Since the process performed by the audio information display apparatus 100 in the second embodiment is the same as that in the first embodiment, the description thereof is omitted. The display form of the radial pattern executed in step S131 in FIG. 6 is different from the first embodiment.

第1の実施形態においては、図7から図9において説明したように音声信号を表す形状を放射状に表示したが、第2の実施形態においては、この放射状の表示にマイクロフォン20の各々における音源特定範囲の情報を含める。   In the first embodiment, as described with reference to FIGS. 7 to 9, the shape representing the audio signal is displayed in a radial manner. In the second embodiment, the sound source identification in each of the microphones 20 is displayed on the radial display. Include range information.

具体的な例の一つとして、図10に示す表示形態は、音声信号を表す放射形状を音源方向のマイクロフォン20または仮想マイクロフォンの配置方向を基点として角度が約45度の放射形状としている。放射形状の角度を45度とした理由としては、音声情報表示装置100を中心にマイクロフォン20A〜20Dおよびこれらのマイクロフォン20を用いた仮想マイクロフォンによる音源特定範囲は、各々45度となるためである。 As one specific example, the display form shown in FIG. 10 has a radial shape representing an audio signal as a radial shape having an angle of about 45 degrees with respect to the arrangement direction of the microphone 20 or the virtual microphone in the sound source direction. The reason why the angle of the radial shape is set to 45 degrees is that the sound source specifying range by the microphones 20A to 20D and the virtual microphone using these microphones 20 is 45 degrees, centering on the audio information display device 100.

図10に示した表示形態は、音声信号を表す放射形状を角度が45度の放射形状としているが、各々のマイクロフォン20および仮想マイクロフォンにおける音源特定範囲は厳密なものではないため、45度以上であってもよい。   In the display form shown in FIG. 10, the radiation shape representing the audio signal is a radiation shape having an angle of 45 degrees. However, the sound source specifying ranges in the respective microphones 20 and virtual microphones are not strict, so the radiation form is 45 degrees or more. There may be.

さらに、具体的な例として、図11に示す表示形態は、第1の実施形態として説明した図7および図8と同様の表示に加えて、音源特定範囲を示す角度の情報を含めたものである。図11においても、音源特定範囲を示す角度は45度またはそれ以上でもよい。さらに音源特定範囲を示す角度は、音声信号を表す放射形状に対して線として表現されてもよく、表示色を異ならせて表示されてもよい。   Furthermore, as a specific example, the display form shown in FIG. 11 includes information on the angle indicating the sound source specific range in addition to the display similar to that shown in FIGS. 7 and 8 described as the first embodiment. is there. Also in FIG. 11, the angle indicating the sound source identification range may be 45 degrees or more. Furthermore, the angle indicating the sound source identification range may be expressed as a line with respect to the radial shape representing the audio signal, or may be displayed with a different display color.

第2の実施形態においても、表示エリア300A、表示エリア300R1、300R2、300R3、300R4の表示形態については、第1の実施形態と同様である。   Also in the second embodiment, the display form of the display area 300A and the display areas 300R1, 300R2, 300R3, and 300R4 is the same as that of the first embodiment.

このように、音源特定方向を角度として表示させることにより、ユーザは音源の方向をより明確に把握することができる。   In this way, by displaying the sound source specifying direction as an angle, the user can more clearly grasp the direction of the sound source.

次に、図12から図21に基づき、第3の実施形態について説明する。第3の実施形態における音声情報表示装置100が実行する処理において、第1の実施形態と同一の処理については説明を省略する。   Next, a third embodiment will be described with reference to FIGS. In the processing executed by the audio information display device 100 in the third embodiment, the description of the same processing as in the first embodiment is omitted.

図12のステップS12において、入力音分析部113が、入力された各マイクロフォン20による音声データに基づき音源の方向を分析した後、入力音分析部113は、音源方向におけるマイクロフォン20から入力された音声信号の周波数を分析する(ステップS31)。ステップS31の処理は、前述したように、所定周波数帯域毎のBPFを介したPWM変換によるパルス幅に基づき周波数帯域毎の音圧レベルを分析する。また、既存のフーリエ変換等の手法を用いてもよい。   In FIG.12 S12, after the input sound analysis part 113 analyzes the direction of a sound source based on the audio | voice data by each input microphone 20, the input sound analysis part 113 is the sound input from the microphone 20 in the sound source direction. The frequency of the signal is analyzed (step S31). As described above, the processing in step S31 analyzes the sound pressure level for each frequency band based on the pulse width obtained by PWM conversion via the BPF for each predetermined frequency band. Further, an existing technique such as Fourier transform may be used.

図13は、入力された音声信号の音圧レベルと周波数帯域との関連を示した例であり、縦軸は音圧レベルであり、横軸は周波数である。縦軸における音圧レベルの閾値thは、ステップS11の所定音圧であり、閾値th以上の音圧レベルを有する音声信号に対して処理を実行する。横軸における周波数帯域は、後述する第1の周波数区分と第2の周波数区分の例を表している。第1の周波数区分は、f1からf2までの周波数帯域、f2からf3までの周波数帯域、f3からf4までの周波数帯域、f4からf5までの周波数帯域、f5からf6までの周波数帯域として区分されている。また、第2の周波数区分は、第1の周波数区分をさらに細分化した区分であり、f1からf2までの周波数帯域においては、f1からf1Aまでの周波数帯域、f1Aからf1Bまでの周波数帯域、f1Bからf2までの周波数帯域として区分されている。他の第1の周波数区分においても同様である。図15から図17および表1と表2に示すように、第2の周波数区分は第1の周波数区分内において部分的に重複しているが、図13は便宜的に重複しない記載としている。 FIG. 13 is an example showing the relationship between the sound pressure level of an input audio signal and the frequency band, where the vertical axis represents the sound pressure level and the horizontal axis represents the frequency. The sound pressure level threshold th on the vertical axis is the predetermined sound pressure in step S11, and processing is performed on an audio signal having a sound pressure level equal to or higher than the threshold th. The frequency band on the horizontal axis represents an example of a first frequency division and a second frequency division, which will be described later. The first frequency division, the frequency band from f 1 to f 2, the frequency band from f 2 to f 3, the frequency band from f 3 to f 4, the frequency band from f 4 to f 5, from f 5 It is classified as a frequency band of up to f 6. The second frequency section is a section obtained by further subdividing the first frequency section. In the frequency band from f 1 to f 2 , the frequency band from f 1 to f 1A and f 1A to f 1B. And the frequency band from f 1B to f 2 . The same applies to the other first frequency sections. As shown in FIGS. 15 to 17 and Tables 1 and 2, the second frequency division partially overlaps within the first frequency division, but FIG. 13 does not overlap for convenience.

図13には、一例として音声信号W1と音声信号W2との2種類の音声信号の例を記載する。音声情報表示装置100が検出する音声信号は、ユーザの周辺において発せられるあらゆる音声信号を対象とするが、特に音圧レベルが閾値th以上となる音声信号は、例えばサイレン音や警報音、報知音など特定の周波数帯域に特化した音声信号が多いため、図13においては周波数帯域幅の小さい音声信号を例として説明する。   FIG. 13 shows an example of two types of audio signals, an audio signal W1 and an audio signal W2, as an example. The audio signal detected by the audio information display device 100 is intended for any audio signal emitted in the vicinity of the user. Particularly, an audio signal having a sound pressure level equal to or higher than the threshold th is, for example, a siren sound, an alarm sound, or a notification sound. Since there are many audio signals specialized for a specific frequency band, for example, an audio signal having a small frequency bandwidth will be described as an example in FIG.

例えば、音声信号W1の周波数分布は、音圧レベルが閾値th以上においては、第1の周波数区分としてはf2からf3までの周波数帯域に分布し、第2の周波数区分としてはf2Aからf2Bの間に分布している。同様に音声信号W2の周波数分布は、音圧レベルが閾値th以上においては、第1の周波数区分としてはf3からf4までの周波数帯域に分布し、第2の周波数区分としてはf3Aからf4の間に分布している。 For example, when the sound pressure level is equal to or higher than the threshold th, the frequency distribution of the audio signal W1 is distributed in the frequency band from f 2 to f 3 as the first frequency section, and from f 2A as the second frequency section. Distributed between f 2B . Similarly the frequency distribution of the audio signal W2 is in the sound pressure level is above the threshold th, a first frequency division distributed in the frequency band from f 3 to f 4, from the second f 3A is a frequency division Distributed between f4 .

次に、表示制御部111は、ステップS31で分析された周波数の分布に基づき、音声を示す情報を表示部140に表示させる(ステップS32)。ステップS32の処理と表示例を図14から図21により説明する。   Next, the display control unit 111 causes the display unit 140 to display information indicating sound based on the frequency distribution analyzed in step S31 (step S32). The process of step S32 and a display example will be described with reference to FIGS.

先ず、表示制御部111は、入力音分析部113が分析した音源方向におけるマイクロフォン20から入力された音声信号の周波数帯域に対応する表示エリア300を表示させ(ステップS321)、所定時間が経過するまで表示する(ステップS322)。   First, the display control unit 111 displays the display area 300 corresponding to the frequency band of the audio signal input from the microphone 20 in the sound source direction analyzed by the input sound analysis unit 113 (step S321) until a predetermined time elapses. It is displayed (step S322).

ステップS321における表示例を、図18から図21に示す。これらの表示例において、表示エリア300F1から300F5は、第2の周波数区分に対応する。図19は、第2の周波数区分は5つに区分されている例であり、図18、図20、図21は第2の周波数区分は3つに区分されている例である。図20および図21の表示形態においても、第2の周波数区分は5つに区分されていてもよい。また、第2の周波数区分に加えて第1の周波数区分もその区分数や区分する周波数は限定されない。   Display examples in step S321 are shown in FIGS. In these display examples, display areas 300F1 to 300F5 correspond to the second frequency division. FIG. 19 is an example in which the second frequency division is divided into five, and FIGS. 18, 20, and 21 are examples in which the second frequency division is divided into three. 20 and 21 also, the second frequency division may be divided into five. In addition to the second frequency division, the number of divisions and the frequency to be divided are not limited in the first frequency division.

ここで、第1の周波数区分および第2の周波数区分の区分例について、図15および図16により説明する。   Here, examples of the first frequency division and the second frequency division will be described with reference to FIGS. 15 and 16.

図15は、第1の周波数区分を5区分し、第2の周波数区分を第1の周波数区分毎に3区分した例である。区分対象となる周波数帯域は200Hzから7kHzまでとしているが、この範囲に限定されない。200Hzから7kHzまでの周波数帯域は、例えばサイレン音や警報音、報知音などユーザがその発生を即座に知る必要のある音が分布する帯域を中心とした周波数帯域としている。   FIG. 15 shows an example in which the first frequency section is divided into five sections and the second frequency section is divided into three sections for each first frequency section. The frequency band to be classified is from 200 Hz to 7 kHz, but is not limited to this range. The frequency band from 200 Hz to 7 kHz is a frequency band centering on a band in which sounds such as siren sounds, alarm sounds, and notification sounds that the user needs to know immediately about their occurrence are distributed.

図15の例において、第1の周波数区分と第2の周波数区分の各々の周波数帯域と対応する表示エリアは、表1のようになっている。

Figure 0006201292
In the example of FIG. 15, the display areas corresponding to the frequency bands of the first frequency section and the second frequency section are as shown in Table 1.
Figure 0006201292

図18から図21に示した表示例において、表示エリア300を5つに区分している場合、図15および表1の例に示す200Hz〜420Hzの第1の周波数区分は、青色や緑色の系統の色により表示し、この第1の周波数区分内の第2の周波数区分の各々は第1の周波数区分として用いる同一の色であってもよく、同系統の異なる色であってもよい。420Hz〜950Hzの第1の周波数区分は、黄色系統の色により表示し、950Hz〜2kHzの第1の周波数区分は、橙色系統の色により表示する。また、2kHz〜3.7kHzの第1の周波数区分は、赤色系統の色により表示し、3.7kHz〜7kHzの第1の周波数区分は、紫色系統の色により表示する。   In the display examples shown in FIGS. 18 to 21, when the display area 300 is divided into five, the first frequency division of 200 Hz to 420 Hz shown in the example of FIG. 15 and Table 1 is a blue or green system. Each of the second frequency sections in the first frequency section may be the same color used as the first frequency section, or may be a different color of the same system. The first frequency section of 420 Hz to 950 Hz is displayed with a yellow color, and the first frequency section of 950 Hz to 2 kHz is displayed with an orange color. The first frequency section of 2 kHz to 3.7 kHz is displayed with a red color, and the first frequency section of 3.7 kHz to 7 kHz is displayed with a purple color.

以上の表示色は一例であるが、例えば緊急車両のサイレン音の周波数帯域が415Hzから1.9kHzであるため、この周波数帯域を含む420Hz〜950Hzの第1の周波数区分と950Hz〜2kHzの第1の周波数区分は、サイレン帯域として黄色系統や橙色系統など、危険や緊急性のある音声信号であることが認識しやすい色調で表示する。同様に、ガス警報器や火災報知機の警報音の周波数帯域が2kHzから7kHzであるため、この周波数帯域を含む2kHz〜3.7kHzの第1の周波数区分と3.7kHz〜7kHzの第1の周波数区分は、警報器帯域として赤色系統や紫色系統など、危険や緊急性のある音声信号であることを認識しやすい色調で表示する。   The above display color is an example. For example, since the frequency band of the emergency vehicle's siren sound is from 415 Hz to 1.9 kHz, the first frequency division of 420 Hz to 950 Hz including this frequency band and the first frequency range of 950 Hz to 2 kHz are included. The frequency classification is displayed in a color tone that makes it easy to recognize that the siren band is a dangerous or urgent audio signal, such as a yellow system or an orange system. Similarly, since the frequency band of the alarm sound of the gas alarm device or the fire alarm is 2 kHz to 7 kHz, the first frequency division of 2 kHz to 3.7 kHz including this frequency band and the first frequency range of 3.7 kHz to 7 kHz are included. The frequency classification is displayed in a color tone that is easy to recognize that the alarm signal band is a dangerous or urgent voice signal such as a red line or a purple line.

例えば、図13に示す音声信号W1の場合は、420Hz〜950Hzの第1の周波数区分に属すると共に、550Hz〜730Hzの第2の周波数区分に属する。このため、例えば図18の例においては、音源方向のマイクロフォン20の配置方向を基点として、表示エリア300F2が黄色系統の色により表示される。同様に、音声信号W2の場合は、950Hz〜2kHzの第1の周波数区分に属すると共に、1.2kHz〜1.6kHzの第2の周波数区分および1.5kHz〜2kHzの第2の周波数区分に属する。このため、例えば図18の例においては、音源方向のマイクロフォン20の配置方向を基点として、表示エリア300F2および表示エリア300F3が橙色系統の色により表示される。 For example, the audio signal W1 shown in FIG. 13 belongs to the first frequency division of 420 Hz to 950 Hz and belongs to the second frequency division of 550 Hz to 730 Hz. For this reason, for example, in the example of FIG. 18, the display area 300F2 is displayed in a yellow color with the arrangement direction of the microphone 20 in the direction of the sound source as a base point. Similarly, the audio signal W2 belongs to the first frequency division of 950 Hz to 2 kHz, and belongs to the second frequency division of 1.2 kHz to 1.6 kHz and the second frequency division of 1.5 kHz to 2 kHz. . For this reason, for example, in the example of FIG. 18, the display area 300F2 and the display area 300F3 are displayed in orange colors with the arrangement direction of the microphone 20 in the sound source direction as a base point.

図16は、第1の周波数区分を3区分し、第2の周波数区分を第1の周波数区分毎に5区分した例である。区分対象となる周波数帯域は図15同様に200Hzから7kHzまでとしている。   FIG. 16 shows an example in which the first frequency division is divided into three and the second frequency division is divided into five for each first frequency division. The frequency band to be classified is from 200 Hz to 7 kHz as in FIG.

図16の例において、第1の周波数区分と第2の周波数区分の各々の周波数帯域と対応する表示エリア300は、表2のようになっている。

Figure 0006201292
In the example of FIG. 16, the display area 300 corresponding to each frequency band of the first frequency section and the second frequency section is as shown in Table 2.
Figure 0006201292

図18から図21に示した表示例において、表示エリア300を3つに区分している場合、図16および表2の例に示す200Hz〜420Hzの第1の周波数区分は、青色や緑色の系統の色により表示し、この第1の周波数区分内の第2の周波数区分の各々は第1の周波数区分として用いる同一の色であってもよく、同系統の異なる色であってもよい。420Hz〜2kHzの第1の周波数区分は、黄色系統の色により表示し、2kHz〜7kHzの第1の周波数区分は、赤色系統の色により表示する。以上の表示色も一例であるが、5つの区分と同様に、サイレン帯域および警報器帯域を黄色系統や赤色系統など、危険や緊急性のある音声信号であることを認識しやすい色調で表示する。   In the display examples shown in FIGS. 18 to 21, when the display area 300 is divided into three, the first frequency division of 200 Hz to 420 Hz shown in the examples of FIG. 16 and Table 2 is a blue or green system. Each of the second frequency sections in the first frequency section may be the same color used as the first frequency section, or may be a different color of the same system. The first frequency section of 420 Hz to 2 kHz is displayed with a yellow color, and the first frequency section of 2 kHz to 7 kHz is displayed with a red color. The above display color is also an example, but as with the five categories, the siren band and alarm band are displayed in a color tone that makes it easy to recognize that the sound signal is dangerous or urgent, such as a yellow system or a red system. .

図18から図21の表示例について説明すると、図18は、説明を容易にするために、マイクロフォン20Aの方向(方向B)から音声信号を検出した場合と、マイクロフォン20Dおよびマイクロフォン20Cの間の方向(方向G)から音声信号を検出した場合の表示を同時に示している。   The display examples of FIGS. 18 to 21 will be described. FIG. 18 illustrates a case where an audio signal is detected from the direction of the microphone 20A (direction B) and a direction between the microphone 20D and the microphone 20C for ease of explanation. The display when the audio signal is detected from (direction G) is shown at the same time.

表示制御部111により、表示部140には音源方向のマイクロフォン20の配置方向を基点として、表示エリア300A、300F1、300F2、300F3が順に放射状に配置され、入力音分析部113により分析された周波数帯域に基づき、第2の周波数区分に対応する表示エリア300F1、300F2、300F3が、第1の周波数区分に対応する色調により表示される。   The display control unit 111 arranges the display areas 300 </ b> A, 300 </ b> F <b> 1, 300 </ b> F <b> 2, and 300 </ b> F <b> 3 in a radial pattern on the display unit 140 based on the arrangement direction of the microphone 20 in the sound source direction, Based on the above, the display areas 300F1, 300F2, and 300F3 corresponding to the second frequency division are displayed with the color tone corresponding to the first frequency division.

図19の例は、図18と同様であるが、第2の周波数区分を5つの区分とし、表示エリア300F1から300F5とした場合の例である。   The example of FIG. 19 is the same as that of FIG. 18, but is an example in which the second frequency division is five divisions and the display areas 300F1 to 300F5.

図20の例は、第1の実施形態に基づく表示に加えて、第2の周波数区分に基づく表示エリア300F1から300F3を表示部140の中央に配置した例である。第2の周波数区分に基づく表示エリア300F1から300F3は、図20のような形態に限定されず、例えば同心円形状や同心角形状であってもよい。同心円形状や同心角形状の場合は、中心側が周波数の低い第2の周波数区分であり、外側が周波数の高い第2の周波数区分とする。   The example of FIG. 20 is an example in which display areas 300F1 to 300F3 based on the second frequency division are arranged in the center of the display unit 140 in addition to the display based on the first embodiment. The display areas 300F1 to 300F3 based on the second frequency division are not limited to the form as shown in FIG. 20, and may be, for example, concentric circles or concentric angles. In the case of a concentric circle shape or a concentric angle shape, the center side is a second frequency segment having a low frequency and the outside is a second frequency segment having a high frequency.

図21の例は、マイクロフォン20Aの方向(方向B)から音声信号を検出したことを示す複数のドット形状により、第2の周波数区分に基づく表示エリア300F1から300F3を表した例である。図21に示すように、音源方向のマイクロフォン20の配置方向を基点として、破線で囲った複数のドット形状の列で表される表示エリア300F1から300F3が表示される。図18から図20の表示例と異なる点は、第2の周波数区分に基づく表示エリア300F1から300F3の各々が、例えばドット形状のように複数の表示形状から構成されている。この複数の表示形状は、音源方向のマイクロフォン20に近い方から、ステップS322の所定時間に該当する時間内で、表示を移動させる。このため、検出した音声信号に基づく表示エリア300F1から300F3のいずれかまたは複数の表示が、図21の例においては、右上から左下の方向に流れる表示となる。   The example of FIG. 21 is an example in which the display areas 300F1 to 300F3 based on the second frequency division are represented by a plurality of dot shapes indicating that an audio signal is detected from the direction of the microphone 20A (direction B). As shown in FIG. 21, display areas 300F1 to 300F3 represented by a plurality of dot-shaped columns surrounded by broken lines are displayed with the arrangement direction of the microphone 20 in the sound source direction as a base point. A difference from the display examples of FIGS. 18 to 20 is that each of the display areas 300F1 to 300F3 based on the second frequency division is composed of a plurality of display shapes such as a dot shape. The plurality of display shapes are moved in the time corresponding to the predetermined time in step S322 from the side closer to the microphone 20 in the sound source direction. For this reason, any one or a plurality of displays in the display areas 300F1 to 300F3 based on the detected audio signal is a display that flows from the upper right to the lower left in the example of FIG.

図21の例は、表示部140が例えば液晶表示素子などを用いた場合について説明したが、表示部140として、例えばLED素子を一面に配置して、図21の例に示すような表示形態としてもよい。   In the example of FIG. 21, the case where the display unit 140 uses, for example, a liquid crystal display element has been described. Also good.

第3の実施形態においては、第2の周波数区分毎に表示位置を異ならせているため、例えば日本における救急車のサイレン音のように、複数の中心周波数を交互に繰り返す音の場合、複数の第2の周波数区分に対応する表示エリア300が交互に表示される。このため、複数の中心周波数を交互に繰り返す表示パターンについては、音の種別を特定しやすい。   In the third embodiment, since the display position is different for each second frequency segment, for example, in the case of a sound that alternately repeats a plurality of center frequencies, such as an ambulance siren sound in Japan, Display areas 300 corresponding to the two frequency segments are alternately displayed. For this reason, it is easy to specify the type of sound for a display pattern in which a plurality of center frequencies are alternately repeated.

このように、第3の実施形態においては、検出した音声信号の音源方向と周波数に基づき、音声信号を表す表示が所定時間表示される。このため、ユーザは、検出した音声信号の方向に加えてその周波数帯域も把握することができ、特にサイレン音や警報音、報知音などの周波数帯域が判別可能であるために、緊急を要する音の発生を的確に把握することができる。   As described above, in the third embodiment, the display representing the audio signal is displayed for a predetermined time based on the sound source direction and the frequency of the detected audio signal. For this reason, the user can grasp the frequency band in addition to the direction of the detected audio signal, and in particular, the frequency band such as siren sound, alarm sound, notification sound, etc. can be discriminated. Can be accurately grasped.

第3の実施形態においては、一例として、サイレン帯域や警報機帯域に合わせて第1の周波数区分を設定したが、第1の周波数区分の設定はこれに限定されない。例えば、聴覚の障害として、所定の周波数範囲の聴覚が衰えている場合や聞こえない場合などがある。このため、図17に示すように、第1の周波数区分をユーザの聴覚に合わせて設定してもよい。例えば、日常的に不都合がない程度に聞こえる周波数帯域を緑系統の色として表示し、ある程度不都合のある周波数帯域を黄色系統の色として表示し、全く聞こえない周波数帯域を赤色系統の色として表示させる。このような設定は、操作部150の操作によって、予めユーザの聴覚に適応するように設定する。   In the third embodiment, as an example, the first frequency section is set according to the siren band and the alarm band, but the setting of the first frequency section is not limited to this. For example, there is a case where hearing in a predetermined frequency range is weakened or cannot be heard as hearing impairment. For this reason, as shown in FIG. 17, you may set a 1st frequency division according to a user's hearing. For example, a frequency band that can be heard to an extent that is not inconvenient on a daily basis is displayed as a green color, a frequency band that is somewhat inconvenient is displayed as a yellow color, and a frequency band that cannot be heard at all is displayed as a red color. . Such setting is set in advance so as to adapt to the user's hearing by operating the operation unit 150.

このような例においては、ユーザは自らの聴覚で感知が困難な周波数帯域における緊急を要する音の発生を的確に把握することができる。   In such an example, the user can accurately grasp the occurrence of sound that requires an emergency in a frequency band that is difficult to detect by his / her hearing.

次に、図22から図27に基づき、第4の実施形態について説明する。第4の実施形態における音声情報表示装置100が実行する処理において、第1の実施形態と同一の処理については説明を省略する。   Next, a fourth embodiment will be described based on FIGS. In the processing executed by the audio information display device 100 according to the fourth embodiment, the description of the same processing as that of the first embodiment is omitted.

図22のステップS12において、入力音分析部113が、入力された各マイクロフォン20による音声データに基づき音源の方向を分析した後、入力音分析部113は、音源方向におけるマイクロフォン20から入力された音声信号の音圧を分析する(ステップS41)。   In FIG.22 S12, after the input sound analysis part 113 analyzes the direction of a sound source based on the audio | voice data by each input microphone 20, the input sound analysis part 113 is the audio | voice input from the microphone 20 in a sound source direction. The sound pressure of the signal is analyzed (step S41).

ステップS41の処理を、図23を用いて具体的に説明する。図23の縦軸は音圧レベルであり、横軸は時間となっている。縦軸における音圧レベルの閾値thは、ステップS11の所定音圧であり、音圧の閾値th以上の音声信号に対して処理を実行する。ステップS41の音圧分析処理は、ステップS11の処理と同時に行われてもよい。先ず、入力音分析部113は音源方向のマイクロフォン20から入力された音声データに対して時間毎にその音圧レベルを求める。図23および図25においては、一例として音声信号W3の例を記載する。   The process of step S41 will be specifically described with reference to FIG. The vertical axis in FIG. 23 is the sound pressure level, and the horizontal axis is time. The sound pressure level threshold th on the vertical axis is the predetermined sound pressure in step S11, and processing is performed on an audio signal equal to or higher than the sound pressure threshold th. The sound pressure analysis process in step S41 may be performed simultaneously with the process in step S11. First, the input sound analysis unit 113 obtains the sound pressure level for each time of the sound data input from the microphone 20 in the sound source direction. 23 and 25, an example of the audio signal W3 is described as an example.

例えば、音声信号W3の音圧分布は、時間t1において閾値thを超え、時間t2において音圧レベルp1を超え、時間t3において音圧レベルp4を超えている。また、時間t4において音圧レベルp2以下となり、時間t5において音圧レベルp1以下となり、時間t6において閾値th以下となっている。   For example, the sound pressure distribution of the audio signal W3 exceeds the threshold th at time t1, exceeds the sound pressure level p1 at time t2, and exceeds the sound pressure level p4 at time t3. At time t4, the sound pressure level is p2 or less, at time t5, the sound pressure level p1 or less, and at time t6, the sound pressure level p2 or less.

図23の例における音圧レベルの値は、例えば閾値thを70dBとした場合、p1が80dB、p2が90dB、p3が100dB、p4が110dBである。したがって、音声信号F3はピーク時で80dB以上90dB未満の音圧レベルであることが示される。   23, for example, when the threshold value th is 70 dB, p1 is 80 dB, p2 is 90 dB, p3 is 100 dB, and p4 is 110 dB. Therefore, it is indicated that the sound signal F3 has a sound pressure level of 80 dB or more and less than 90 dB at the peak time.

次に、表示制御部111は、ステップS41で分析された音圧レベルに基づき、音声を示す情報を表示部140に表示させる(ステップS42)。ステップS42の処理と表示例を図24から図27により説明する。   Next, the display control unit 111 causes the display unit 140 to display information indicating sound based on the sound pressure level analyzed in step S41 (step S42). The process of step S42 and a display example will be described with reference to FIGS.

先ず、表示制御部111は、入力音分析部113が分析した音源方向におけるマイクロフォン20から入力された音声信号の音圧に対応する表示エリアを表示させ(ステップS421)、所定時間が経過するまで表示する(ステップS422)。   First, the display control unit 111 displays a display area corresponding to the sound pressure of the audio signal input from the microphone 20 in the sound source direction analyzed by the input sound analysis unit 113 (step S421), and displays until a predetermined time elapses. (Step S422).

ステップS421からステップS422までの表示時間は、所定の音圧レベル以上となっている時間であり、例えば、音圧レベルが閾値thを超えた時刻t1から閾値th以下となる時刻t6までの間、表示エリア300P1を表示させ、音圧レベルがp1を超えた時刻t2からp1以下となる時刻t5までの間、表示エリア300P2を表示させる。同様に、音圧レベルがp3を超えた時刻t3からp3以下となる時刻t4までの間、表示エリア300P3を表示させる。   The display time from step S421 to step S422 is a time during which the sound pressure level is equal to or higher than a predetermined sound pressure level. For example, from time t1 when the sound pressure level exceeds the threshold th to time t6 when the sound pressure level exceeds the threshold th, The display area 300P1 is displayed, and the display area 300P2 is displayed from time t2 when the sound pressure level exceeds p1 to time t5 when it is equal to or lower than p1. Similarly, the display area 300P3 is displayed from time t3 when the sound pressure level exceeds p3 to time t4 when it is equal to or lower than p3.

また、上記のように音圧の時間変動に対応した表示を行う場合は、音の継続時間が短い場合、ユーザはその音が発生したことを見逃す可能性が高い。したがって、所定値の音圧を検出した時刻に対して係数を掛けることにより実際の音の継続時間よりも長く表示させる。   Further, when the display corresponding to the temporal variation of the sound pressure is performed as described above, if the duration of the sound is short, the user is likely to miss the occurrence of the sound. Accordingly, the time when the sound pressure of the predetermined value is detected is multiplied by a coefficient to display the time longer than the actual sound duration.

図25に示すように、音声信号における閾値th以上の時刻t1〜t6に対して係数を掛けることにより、T1〜T6の時刻に対して、各表示エリア300Pを表示させる。図26および図27の例の場合、時刻t1と同一時刻である時刻T1に、表示エリア300P1の表示が開始され、次に、時刻t2に対応する時刻T2に、表示エリア300P2の表示が開始される。同様に、時刻t3に対応する時刻T3に、表示エリア300P3の表示が開始され、時刻t4に対応する時刻T4に表示エリア300P3の表示が終了する。同様に、時刻t5に対応する時刻T5に表示エリア300P2の表示が終了し、時刻t6に対応する時刻T6に表示エリア300P1の表示が終了する。   As shown in FIG. 25, each display area 300P is displayed at times T1 to T6 by multiplying the times t1 to t6 that are equal to or greater than the threshold th in the audio signal by a coefficient. In the example of FIGS. 26 and 27, display of the display area 300P1 is started at time T1, which is the same time as time t1, and then display of the display area 300P2 is started at time T2 corresponding to time t2. The Similarly, display of display area 300P3 is started at time T3 corresponding to time t3, and display of display area 300P3 is ended at time T4 corresponding to time t4. Similarly, display of display area 300P2 ends at time T5 corresponding to time t5, and display of display area 300P1 ends at time T6 corresponding to time t6.

このように、図23における音声信号W3の例においては、その音声信号の音源方向と音圧レベルに基づき、表示エリア300P1から表示エリア300P3が所定時間表示される。したがって、ユーザは音源方向の特定とともに、どの程度の大きさの音がしたのかを感覚的に把握することがえきる。本実施形態において、各々の表示エリア300Pは、表示される色が異なっていることが効果的である。また、表示エリア300P1から300P4までの全ての表示エリアを示す枠が表示された上で、入力音分析部113が分析した音圧レベルに該当する表示エリア300Pに色を伴った表示を行うようにしてもよい。   Thus, in the example of the audio signal W3 in FIG. 23, the display area 300P1 to the display area 300P3 are displayed for a predetermined time based on the sound source direction and the sound pressure level of the audio signal. Therefore, the user can sensibly grasp how loud the sound was made while specifying the sound source direction. In the present embodiment, it is effective that each display area 300P has a different displayed color. In addition, a frame indicating all the display areas from the display areas 300P1 to 300P4 is displayed, and the display area 300P corresponding to the sound pressure level analyzed by the input sound analysis unit 113 is displayed with a color. May be.

次に、図28から図32に基づき、第5の実施形態について説明する。第5の実施形態における音声情報表示装置100が実行する処理において、第1の実施形態と同一の処理については説明を省略する。   Next, a fifth embodiment will be described with reference to FIGS. In the processing executed by the audio information display device 100 in the fifth embodiment, the description of the same processing as that in the first embodiment is omitted.

図28のステップS12において、入力音分析部113が、入力された各マイクロフォン20による音声データに基づき音源の方向を分析した後、音認識部114は、音源方向におけるマイクロフォン20から入力された音声信号の音の種別を分析する(ステップS51)。   In step S12 in FIG. 28, after the input sound analysis unit 113 analyzes the direction of the sound source based on the input sound data from each microphone 20, the sound recognition unit 114 receives the sound signal input from the microphone 20 in the sound source direction. The type of sound is analyzed (step S51).

ステップS51の処理を、図29に基づき説明する。先ず、音認識部114は、対処となる音声信号に基づく音声データにおいて、分析範囲を特定する(ステップS511)。具体的には、分析対象の音声データにおける音圧レベルが継続して閾値th以上となる区間などであるが、特に限定はされず、既存の各種区間判別手法を用いる。   The process of step S51 will be described with reference to FIG. First, the sound recognizing unit 114 specifies an analysis range in sound data based on a sound signal to be dealt with (step S511). Specifically, it is a section where the sound pressure level in the sound data to be analyzed is continuously equal to or higher than the threshold th, but is not particularly limited, and various existing section determination methods are used.

次に、音認識部114は、分析範囲の音声データを、記憶部130等に記憶されている音データベースと照合する(ステップS512)。ステップS512における音データベースは、記憶部130に限らず、音声情報表示装置100に通信機能が備えられている場合は、その通信機能を用いて外部のサーバ等に記憶されている音データベースとの照合を行ってもよい。また、ステップS512における音データベースとの照合処理は、通信機能を用いて外部のサーバ等における照合処理を利用してもよい。この場合、音認識部114は、外部のサーバ等に分析対象の音声データを送信し、照合結果を受け取る。   Next, the sound recognizing unit 114 collates the sound data in the analysis range with a sound database stored in the storage unit 130 or the like (step S512). The sound database in step S512 is not limited to the storage unit 130, and if the voice information display device 100 has a communication function, it is collated with a sound database stored in an external server or the like using the communication function. May be performed. Moreover, the collation process with the sound database in step S512 may utilize the collation process in an external server etc. using a communication function. In this case, the sound recognition unit 114 transmits the voice data to be analyzed to an external server or the like, and receives the collation result.

次に、音認識部114は、ステップS512の処理において音の種別が特定されたか否かを判断する(ステップS513)。ステップS512の照合結果としては、例えば、「救急車」「火災報知機」「地震警報」「電子レンジ」「人の声」などの照合結果を得ることができ、音データベースに分析対象の音声データまたはそれに類似する音声データが含まれていない場合は、特定できない旨の照合結果を得る。   Next, the sound recognizing unit 114 determines whether or not the type of sound is specified in the process of step S512 (step S513). As the collation result in step S512, for example, collation results such as “ambulance”, “fire alarm”, “earthquake alarm”, “microwave oven”, “human voice”, etc. can be obtained. When similar voice data is not included, a collation result indicating that the voice data cannot be specified is obtained.

ステップS513において、音の種別が特定されたと判断された場合(ステップS513:Yes)、音認識部114は、表示制御部111に特定された音の種別を表す情報を通知する(ステップS513)。ステップS513において、音の種別が特定されなかった判断された場合(ステップS513:No)、音認識部114は、表示制御部111に音の種別が特定されないことを表す情報を通知する(ステップS514)。ステップS513およびステップS514における通知とは、各々の情報を一時的にRAMに記憶させておくことにより、表示制御部111がその情報に基づく表示を行うことができる処理等である。   If it is determined in step S513 that the sound type has been specified (step S513: Yes), the sound recognition unit 114 notifies the display control unit 111 of information indicating the specified sound type (step S513). If it is determined in step S513 that the sound type has not been specified (step S513: No), the sound recognition unit 114 notifies the display control unit 111 of information indicating that the sound type is not specified (step S514). ). The notification in step S513 and step S514 is a process that allows the display control unit 111 to perform display based on the information by temporarily storing each information in the RAM.

図28に戻り、表示制御部111は、ステップS51で分析された音の種別に基づき、音声を示す情報を表示部140に表示させる(ステップS52)。ステップS52の処理と表示例を図29から図32により説明する。   Returning to FIG. 28, the display control unit 111 causes the display unit 140 to display information indicating sound based on the type of sound analyzed in step S51 (step S52). The processing in step S52 and a display example will be described with reference to FIGS.

先ず、表示制御部111は、音認識部114が分析した音源方向におけるマイクロフォン20から入力された音声信号の種別を示す情報を表示させ(ステップS521)、所定時間が経過するまで表示する(ステップS522)。   First, the display control unit 111 displays information indicating the type of the audio signal input from the microphone 20 in the sound source direction analyzed by the sound recognition unit 114 (step S521), and displays the information until a predetermined time has elapsed (step S522). ).

ステップS51の処理において、例えばマイクロフォン20Aの方向から入力された音声信号が、最大音圧80dBであり、音認識部114による認識結果が救急車のサイレン音である場合は、図31に示すように、マイクロフォン20Aの配置方向を基点とした放射状のパターンの表示に加えて、救急車を表す「Ambulance」の文字を表示する。図31における放射状パターンは、第1の実施形態に基づく表示エリア300Aとしているが、第2の実施形態から第4の実施形態を適用してもよい。   In the process of step S51, for example, when the audio signal input from the direction of the microphone 20A has a maximum sound pressure of 80 dB and the recognition result by the sound recognition unit 114 is the siren sound of an ambulance, as shown in FIG. In addition to the display of the radial pattern based on the arrangement direction of the microphone 20A, the letters “Ambulance” representing an ambulance are displayed. The radial pattern in FIG. 31 is the display area 300A based on the first embodiment, but the second to fourth embodiments may be applied.

また、放射状のパターンの表示に第1の実施形態、第2の実施形態、第4の実施形態を適用した場合は、各表示エリア300A、300Pの表示色を音認識部114の認識結果を連想させる色としてもよい。例えば、音認識部114における認識結果が消防車のサイレン音である場合や、火災報知機の警報音である場合は、赤系統の表示色とする。また、図31においては文字により表示したが、認識結果を表す図やアイコンを表示してもよい。例えば、認識結果が救急車のサイレン音である場合は救急車を表す図を表示し、認識結果が火災報知機の警報音である場合は炎を表す図を表示する。 Further, when the first embodiment, the second embodiment, or the fourth embodiment is applied to the display of the radial pattern, the display color of each display area 300A, 300P is associated with the recognition result of the sound recognition unit 114. It is good also as a color to make. For example, when the recognition result in the sound recognition unit 114 is a siren sound of a fire engine or an alarm sound of a fire alarm, the display color is red. In addition, although displayed with characters in FIG. 31, a diagram or icon representing the recognition result may be displayed. For example, when the recognition result is an ambulance siren sound, a figure representing an ambulance is displayed, and when the recognition result is a fire alarm warning sound, a figure representing flame is displayed.

また、図32に示すように、音認識部114による認識結果が緊急を要する音である場合や重要な音である場合は、放射状のパターンをそれらが判別できるような形状としてもよい。このような場合であっても、各表示エリア300A,300F、300Pは、各実施形態に対応する。   As shown in FIG. 32, when the recognition result by the sound recognition unit 114 is an urgent sound or an important sound, a radial pattern may be formed so that they can be distinguished. Even in such a case, each display area 300A, 300F, 300P corresponds to each embodiment.

このように、音認識部114による認識結果に基づいた表示を組み合わせることにより、ユーザは音源方向に加えて音の種別も的確に認識することができ、危険な音が検出されたことを早い段階で認識することができる。   In this way, by combining the display based on the recognition result by the sound recognition unit 114, the user can accurately recognize the type of sound in addition to the direction of the sound source, and early detection that a dangerous sound has been detected. Can be recognized.

音認識部が参照する音データベースは、通信機能を用いて照合を行う場合であっても、特に緊急を要する音については、音声情報表示装置100が備える記憶部130に音データベースを備え、記憶部130の音データベースを優先的に照合するような処理としてもよい。この場合、特に緊急を要する音の照合結果を、通信機能を用いた照合より早く行うことができる。また、通信機能が利用できない場合においても、特に緊急を要する音についての照合を行うことができる。   The sound database referred to by the sound recognition unit includes a sound database in the storage unit 130 included in the voice information display device 100, particularly for sounds that require urgentness, even when collation is performed using a communication function. It is good also as a process which collates 130 sound databases preferentially. In this case, it is possible to perform a collation result of sound that requires an emergency more quickly than collation using the communication function. In addition, even when the communication function cannot be used, it is possible to perform collation for sounds that are particularly urgent.

次に、図33から図37に基づき、第6の実施形態について説明する。第6の実施形態における音声情報表示装置100の構成は、第1の実施形態から第5の実施形態における音声情報表示装置100の構成とは異なるが、共通する構成については説明を省略する。また、第6の実施形態における表示形態は、第1の実施形態から第5の実施形態における表示形態が適用可能である。   Next, a sixth embodiment will be described with reference to FIGS. The configuration of the audio information display device 100 in the sixth embodiment is different from the configuration of the audio information display device 100 in the first to fifth embodiments, but the description of the common configuration is omitted. Moreover, the display form in 1st Embodiment to 5th Embodiment is applicable to the display form in 6th Embodiment.

第1の実施形態から第5の実施形態における音声情報表示装置100は、筐体10の4隅にマイクロフォン20を備えているため、専用の装置となってしまう。第6の実施形態においては、4隅にマイクロフォン20を備えていない汎用の携帯電話や情報端末を用いて、共通リソースを利用した音声情報表示装置100を構成する。   Since the audio information display device 100 in the first to fifth embodiments includes the microphones 20 at the four corners of the housing 10, it becomes a dedicated device. In the sixth embodiment, a voice information display device 100 using common resources is configured using a general-purpose mobile phone or information terminal that does not include the microphones 20 at the four corners.

図33は、音声情報表示装置100を構成するジャケットマイク部500の概観斜視図である。ジャケットマイク部500には表示機能は備えられておらず、4隅にマイクロフォン20が備えられている。図34は、汎用の携帯電話600に、ジャケットマイク部500を装着し、音声情報表示装置200を構成した場合の斜視図である。この音声情報表示装置200は、ジャケットマイク部500に備えられたマイクロフォン20が取得した音声信号に基づき、音源方向のマイクロフォン20の配置方向を基点として音声信号を表す形状を、携帯電話600における表示部640に表示させる。   FIG. 33 is a schematic perspective view of a jacket microphone unit 500 constituting the audio information display device 100. FIG. Jacket microphone unit 500 is not provided with a display function, and is provided with microphones 20 at four corners. FIG. 34 is a perspective view when the audio information display device 200 is configured by attaching the jacket microphone unit 500 to the general-purpose mobile phone 600. This voice information display device 200 has a shape of a voice signal based on the voice signal acquired by the microphone 20 provided in the jacket microphone unit 500 and representing the voice signal based on the arrangement direction of the microphone 20 in the sound source direction. 640 to display.

音声情報表示装置200は、図35に示すように、ジャケットマイク部500および携帯電話600により構成される。携帯電話600は、上述したように電話機能を有さない情報端末であってもよい。ジャケットマイク部500はその上面に携帯電話600を装着するが、装着機構の有無は問わない。   The audio information display device 200 includes a jacket microphone unit 500 and a mobile phone 600, as shown in FIG. The mobile phone 600 may be an information terminal that does not have a telephone function as described above. Jacket microphone unit 500 has mobile phone 600 mounted on its upper surface, but it does not matter whether or not a mounting mechanism is provided.

ジャケットマイク部500は、第1の制御部510、音声信号入力部120、第1の操作部550、第1の電源部560、第1の通信部570、マイクロフォン20を備える。また、携帯電話600は、第2の制御部610、記憶部630、表示部640、第2の操作部650、第2の電源部660、第2の通信部670、第3の通信部680を備える。   The jacket microphone unit 500 includes a first control unit 510, an audio signal input unit 120, a first operation unit 550, a first power supply unit 560, a first communication unit 570, and the microphone 20. In addition, the mobile phone 600 includes a second control unit 610, a storage unit 630, a display unit 640, a second operation unit 650, a second power supply unit 660, a second communication unit 670, and a third communication unit 680. Prepare.

第1の制御部510は、その構成は制御部110と同様であり、ジャケットマイク部500を構成する各部の動作制御、各種データの処理または演算等を行う。第1の制御部510は、実行されるプログラムによって、第1の操作制御部512および第1の通信制御部515を実現する。
The configuration of the first control unit 510 is the same as that of the control unit 110, and performs operation control of each unit constituting the jacket microphone unit 500, processing or calculation of various data, and the like. The first control unit 510 realizes the first operation control unit 512 and the first communication control unit 515 by a program to be executed.

第1の操作制御部512は、第1の操作部550が操作されることによって生成する操作信号に基づいた処理を実行させる。第1の通信制御部515は、音声信号入力部120から送出された音声データまたは音声データに基づくデータを、第1の通信部560を用いて送信する制御を行う。 The first operation control unit 512 executes processing based on an operation signal generated when the first operation unit 550 is operated. The first communication control unit 515 performs control to transmit audio data transmitted from the audio signal input unit 120 or data based on the audio data using the first communication unit 560.

第1の操作部550は、ジャケットマイク部500に対してユーザが各種処理や動作指示を行うためのユーザインターフェースであり、その構成は操作部150と同様である。第1の操作部550が操作されることにより、操作に基づく信号が後述する第1の操作制御部512に出力され、操作に基づく各部の動作や各種処理が実行される。   The first operation unit 550 is a user interface for the user to perform various processes and operation instructions to the jacket microphone unit 500, and the configuration thereof is the same as that of the operation unit 150. When the first operation unit 550 is operated, a signal based on the operation is output to a first operation control unit 512, which will be described later, and the operation of each unit and various processes based on the operation are executed.

第1の電源部560は、ジャケットマイク部500を構成する各部に電力を供給するバッテリを含む電源回路等であり、第1の制御部510の制御によって、各部へ適切な電力の供給や、第1の電源部560への充電が制御される。 The first power supply unit 560 is a power supply circuit including a battery that supplies power to each unit constituting the jacket microphone unit 500, and is controlled by the first control unit 510 to supply appropriate power to each unit, The charging of the first power supply unit 560 is controlled.

第1の通信部570は、携帯電話600との通信を行う通信ユニットから構成され、第1の通信制御部515の制御により音声信号入力部120への音声入力に基づく各種データを送出する。第1の通信部570は、例えばブルートゥース方式の通信を行う通信ユニットや、赤外線通信を行う通信ユニット、誘導電界を用いた通信方式等、各種無線通信方式が適用可能である。第1の通信部570は、無線通信方式に限らず、携帯電話600と有線接続するインターフェースであってもよい。   The first communication unit 570 includes a communication unit that communicates with the mobile phone 600, and sends various data based on the audio input to the audio signal input unit 120 under the control of the first communication control unit 515. The first communication unit 570 can employ various wireless communication methods such as a communication unit that performs Bluetooth communication, a communication unit that performs infrared communication, and a communication method that uses an induction electric field. The first communication unit 570 is not limited to the wireless communication method, and may be an interface connected to the mobile phone 600 by wire.

第2の制御部610は、その構成は制御部110と同様であり、携帯電話600を構成する各部の動作制御、各種データの処理または演算等を行うことにより、携帯電話600としての機能に加えて、ジャケットマイク部500から送出されたデータに基づく音声情報表示装置200としての各種処理を行う。第1の制御部510は、実行されるプログラムによって表示制御部611、第2の操作制御部612、入力音分析部613、音認識部614、第2の通信制御部615、第3の通信制御部616を実現する。   The second control unit 610 has the same configuration as that of the control unit 110. In addition to the functions of the mobile phone 600, the second control unit 610 performs operation control of various units constituting the mobile phone 600, processing of various data, or calculation. The voice information display device 200 performs various processes based on the data sent from the jacket microphone unit 500. The first control unit 510 includes a display control unit 611, a second operation control unit 612, an input sound analysis unit 613, a sound recognition unit 614, a second communication control unit 615, and a third communication control depending on the program to be executed. The unit 616 is realized.

表示制御部611は、表示部640に対して各種情報を表示させる処理を行う。例えば、記憶部130に記憶されている各種表示形態や文字等の表示、図示しないタッチパネル操作部に連動した各種GUIなどを表示させる。   The display control unit 611 performs processing for displaying various types of information on the display unit 640. For example, various display forms and characters stored in the storage unit 130, various GUIs linked to a touch panel operation unit (not shown), and the like are displayed.

第2の操作制御部612は、第2の操作部650が操作されることによって生成する操作信号に基づいた処理を実行させる。   The second operation control unit 612 executes processing based on an operation signal generated when the second operation unit 650 is operated.

入力音分析部613は、入力音分析部113と同様の処理を、ジャケットマイク部500から受信した音声データまたは音声データに基づくデータに対して行う。具体例としては、マイクロフォン20A〜20Dに入力された音圧の分析、音圧に基づく音源方向の分析、周波数の分析などである。   The input sound analysis unit 613 performs the same processing as the input sound analysis unit 113 on the voice data received from the jacket microphone unit 500 or data based on the voice data. Specific examples include analysis of sound pressure input to the microphones 20A to 20D, analysis of a sound source direction based on sound pressure, and analysis of frequency.

音認識部614は、音認識部114と同様の処理をジャケットマイク部500から受信した音声データまたは音声データに基づくデータに対して行う。   The sound recognition unit 614 performs the same processing as the sound recognition unit 114 on the voice data received from the jacket microphone unit 500 or data based on the voice data.

第2の通信制御部615は、第2の通信部670を用いて、ジャケットマイク部500から音声データまたは音声データに基づくデータを受信する制御を行う。 The second communication control unit 615 uses the second communication unit 670 to perform control to receive audio data or data based on the audio data from the jacket microphone unit 500.

第3の通信制御部616は、第3の通信部680を用いて、携帯電話回線や無線LAN回線等を用いた通信のための制御を行う。 The third communication control unit 616 uses the third communication unit 680 to perform control for communication using a mobile phone line, a wireless LAN line, or the like.

第2の通信部670は、ジャケットマイク部500との通信を行う通信ユニットから構成され、第2の通信制御部615の制御により、第1の通信部570から送出された各種データを受信する。第2の通信部670の通信方式は第1の通信部570と同一の通信方式を用いる。   The second communication unit 670 is composed of a communication unit that communicates with the jacket microphone unit 500, and receives various data sent from the first communication unit 570 under the control of the second communication control unit 615. The communication method of the second communication unit 670 uses the same communication method as that of the first communication unit 570.

第3の通信部680は、携帯電話600が単独で電話端末や通信端末として用いられる場合に用いる通信ユニットであり、第3の通信制御部616の制御により、携帯電話回線を用いた通信や無線LAN回線を用いた通信を行う。第3の通信部680は、携帯電話600にジャケットマイク部500が装着された場合、通常の電話端末や通信端末としての通信機能に加えて、音声情報表示装置200として必要な通信を行ってもよい。例えば、音認識部614による音データベースとの照合を、第3の通信部680による通信を介して他のサーバ等で行う場合である。   The third communication unit 680 is a communication unit used when the mobile phone 600 is used alone as a telephone terminal or a communication terminal. Under the control of the third communication control unit 616, communication using a mobile phone line or wireless communication is performed. Communication using a LAN line is performed. When the jacket microphone unit 500 is attached to the mobile phone 600, the third communication unit 680 performs necessary communication as the voice information display device 200 in addition to the communication function as a normal telephone terminal or communication terminal. Good. For example, there is a case where collation with the sound database by the sound recognition unit 614 is performed by another server or the like via communication by the third communication unit 680.

記憶部630は、その構成は記憶部130と同様であり、携帯電話600として必要な記憶動作に加えて、ジャケットマイク部500から送出されたデータに基づく音声情報表示装置200としての記憶動作を行う。 The storage unit 630 has the same configuration as the storage unit 130, and performs a storage operation as the voice information display device 200 based on data transmitted from the jacket microphone unit 500 in addition to the storage operation necessary for the mobile phone 600. .

表示部640は、その構成は表示部140と同様であり、表示制御部611の制御により、携帯電話600として必要な表示内容に加えて、音声情報表示装置200として必要な表示内容が表示される。   The display unit 640 has the same configuration as the display unit 140, and the display content necessary for the audio information display device 200 is displayed in addition to the display content necessary for the mobile phone 600 under the control of the display control unit 611. .

第2の操作部650は、携帯電話600に対してユーザが各種処理や動作指示を行うためのユーザインターフェースであり、その構成は操作部150と同様である。第2の操作部650が操作されることにより、操作に基づく信号が後述する第2の操作制御部612に出力され、操作に基づく各部の動作や各種処理が実行される。   The second operation unit 650 is a user interface for the user to perform various processes and operation instructions on the mobile phone 600, and the configuration thereof is the same as that of the operation unit 150. When the second operation unit 650 is operated, a signal based on the operation is output to a second operation control unit 612, which will be described later, and the operation and various processes of each unit based on the operation are executed.

第2の電源部660は、携帯電話600を構成する各部に電力を供給するバッテリを含む電源回路等であり、第2の制御部610の制御によって、各部へ適切な電力の供給や、第2の電源部660への充電が制御される。 The second power supply unit 660 is a power supply circuit or the like including a battery that supplies power to each unit included in the mobile phone 600. Under the control of the second control unit 610, appropriate power supply to each unit, The charging of the power supply unit 660 is controlled.

次に、ジャケットマイク部500が実行する処理を図36により説明する。ジャケットマイク部500の電源は、独立して操作されてもよく、携帯電話600と装着されることにより電源がオンとなってもよい。ジャケットマイク部500は、第1の電源部560から電力が供給されて動作している間は、常時マイクロフォン20による音声の入力を受け付けている。その状態において、第1の制御部510により音声信号の入力があると判断された場合(ステップS61:Yes)、第1の通信制御部515は、入力された音声信号に基づく音声信号入力部120によりA/D変換された音声データを、携帯電話600に送信する(ステップS62)。   Next, processing executed by the jacket microphone unit 500 will be described with reference to FIG. The power source of jacket microphone unit 500 may be operated independently, or may be turned on by being attached to mobile phone 600. The jacket microphone unit 500 always accepts voice input from the microphone 20 while operating with power supplied from the first power supply unit 560. In this state, when the first control unit 510 determines that an audio signal is input (step S61: Yes), the first communication control unit 515 performs the audio signal input unit 120 based on the input audio signal. The A / D converted audio data is transmitted to the mobile phone 600 (step S62).

ステップS61の処理を行わずに、例えば、マイクロフォン20への音声信号の入力有無に関わらず、無音も含めた音声データを常時携帯電話600に送信してもよいが、消費電力削減する上では、音声信号の入力毎に送信することが好ましい。さらには、第1の制御部510は、音声信号入力部120から取得した音声データが、所定以上の音圧の音声データであるかを判断し、所定以上の音圧のデータである場合に、その音声データを携帯電話600に送信してもよい。   Without performing the process of step S61, for example, audio data including silence may be transmitted to the mobile phone 600 regardless of whether or not an audio signal is input to the microphone 20, but in order to reduce power consumption, It is preferable to transmit each time an audio signal is input. Furthermore, the first control unit 510 determines whether the sound data acquired from the sound signal input unit 120 is sound data having a sound pressure equal to or higher than a predetermined value. The audio data may be transmitted to the mobile phone 600.

次に、携帯電話600が実行する処理を図37により説明する。先ず、入力音分析部613は、第2の通信部によりジャケットマイク部500から音声データを受信したか否かを判断する(ステップS71)。音声データを受信したと判断した場合(ステップS70:Yes)、他の実施形態と同様に、入力音分析部613は音源方向の分析を行う(ステップS72)。また、入力音分析部613および音認識部614は、必要に応じて他の実施形態と同様に、受信音声の周波数分析(ステップS73)、受信音声の音圧分析(ステップS74)、受信音声の音種別分析(ステップS75)を実行する。次に、これらの処理に基づき、他の実施形態と同様に、表示制御部611は表示部640に音声を示す情報を表示させる(ステップS76)。   Next, processing executed by the mobile phone 600 will be described with reference to FIG. First, the input sound analysis unit 613 determines whether audio data has been received from the jacket microphone unit 500 by the second communication unit (step S71). When it is determined that the audio data has been received (step S70: Yes), the input sound analysis unit 613 analyzes the sound source direction (step S72) as in the other embodiments. In addition, the input sound analysis unit 613 and the sound recognition unit 614 perform frequency analysis (step S73) of received voice, sound pressure analysis (step S74) of received voice, Sound type analysis (step S75) is executed. Next, based on these processes, the display control unit 611 displays information indicating sound on the display unit 640 as in other embodiments (step S76).

このような構成とすることで、音声情報表示装置100のような専用の装置ではなくとも、汎用の携帯電話や情報端末を用いて、容易に音声情報表示装置200を構成することができる。音声情報表示装置200の表示形態は、第1の実施形態から第5の実施形態における表示形態に共通する。   With such a configuration, the voice information display device 200 can be easily configured using a general-purpose mobile phone or information terminal, instead of a dedicated device such as the voice information display device 100. The display form of the audio information display device 200 is common to the display forms in the first to fifth embodiments.

また、音声情報表示装置200の構成は、図33および図34の形状に限定されず、例えば、ジャケットマイク部500は携帯電話600の周囲を覆う形状としてもよい。この場合、ジャケットマイク部500における携帯電話600の周囲を覆う部分の4隅にマイクロフォン20が各々設けられる。   The configuration of the audio information display device 200 is not limited to the shape shown in FIGS. 33 and 34. For example, the jacket microphone unit 500 may have a shape covering the periphery of the mobile phone 600. In this case, the microphones 20 are provided at the four corners of the portion covering the periphery of the mobile phone 600 in the jacket microphone unit 500.

本発明の実施の形態は、その要旨を逸脱しない限り、様々に変更可能である。また、本発明における音声情報表示装置100および音声情報表示装置200を実現するためのプログラムは、例えばネットワークや可搬型の記憶媒体によって、音声情報表示装置100または携帯電話600に加えて、同様の機能を備える装置にインストールされてもよい。   The embodiment of the present invention can be variously modified without departing from the gist thereof. In addition, the program for realizing the audio information display device 100 and the audio information display device 200 according to the present invention has the same function in addition to the audio information display device 100 or the mobile phone 600 by, for example, a network or a portable storage medium. May be installed in a device comprising:

20:マイクロフォン、100:音声情報表示装置、110:制御部、111:表示制御部、112:操作制御部、113:入力音分析部、114:音認識部、120:音声信号入力部 20: Microphone, 100: Audio information display device, 110: Control unit, 111: Display control unit, 112: Operation control unit, 113: Input sound analysis unit, 114: Sound recognition unit, 120: Audio signal input unit

Claims (8)

表示部、
前記表示部を囲うように配置された複数のマイクロフォン、
前記複数のマイクロフォンから入力された音声信号に基づき音源方向を検出する入力音分析部、
前記入力音分析部により検出された音源方向に配置されている前記マイクロフォンの配置方向を基点として、前記マイクロフォンから入力された音声信号を表す形状を前記表示部に表示させる表示制御部、
を備え、
前記表示制御部は、所定の音圧以上の音声信号を検出した場合に、前記音声信号を表す形状を前記表示部に、前記所定の音圧以上の音声信号を検出した時間以上表示させることを特徴とする音声情報表示装置。
Display,
A plurality of microphones arranged so as to surround the display unit;
An input sound analysis unit for detecting a sound source direction based on sound signals input from the plurality of microphones;
A display control unit that causes the display unit to display a shape representing an audio signal input from the microphone, based on the arrangement direction of the microphone arranged in the sound source direction detected by the input sound analysis unit;
With
When the display control unit detects a sound signal having a predetermined sound pressure or higher, the display control unit displays the shape representing the sound signal on the display unit for a time longer than the time when the sound signal having the predetermined sound pressure or higher is detected. A voice information display device.
前記表示制御部は、前記音声信号を表す形状を、前記マイクロフォンの配置方向を基点として、前記マイクロフォンの音源特定範囲を表す形状として表示させることを特徴とする請求項1に記載の音声情報表示装置。   The audio information display device according to claim 1, wherein the display control unit displays a shape representing the audio signal as a shape representing a sound source specific range of the microphone with respect to an arrangement direction of the microphone. . 前記入力音分析部は、前記マイクロフォンから入力された音声信号の周波数帯域を分析し、
前記表示制御部は、前記基点より前記入力音分析部によって分析された周波数帯域毎に表示位置が異なるように前記所定の音圧以上の音声信号を示す情報を表示させることを特徴とする請求項1または2に記載の音声情報表示装置。
The input sound analysis unit analyzes a frequency band of an audio signal input from the microphone,
The display control unit displays information indicating an audio signal having the predetermined sound pressure or higher so that a display position is different for each frequency band analyzed by the input sound analysis unit from the base point. The audio information display device according to 1 or 2.
前記入力音分析部は、前記マイクロフォンから入力された音声信号の音圧レベルを分析し、
前記表示制御部は、前記基点より前記入力音分析部によって分析された音圧レベル毎に表示位置が異なるように前記所定の音圧以上の音声信号を示す情報を表示させることを特徴とする請求項1または2に記載の音声情報表示装置。
The input sound analysis unit analyzes a sound pressure level of an audio signal input from the microphone,
The display control unit displays information indicating an audio signal equal to or higher than the predetermined sound pressure so that a display position is different for each sound pressure level analyzed by the input sound analysis unit from the base point. Item 3. The audio information display device according to Item 1 or 2.
前記複数のマイクロフォンから入力された音声信号の種別を分析する音認識部をさらに備え、
前記表示制御部は、前記音認識部により入力された音声信号が緊急を有する所定の音声信号であると判断された場合、前記所定の音圧以上の音声信号を示す情報の表示形態を変更して表示させることを特徴とする請求項1から請求項4のいずれか1項に記載の音声情報表示装置。
A sound recognizing unit that analyzes a type of an audio signal input from the plurality of microphones;
When it is determined that the audio signal input by the sound recognition unit is a predetermined audio signal having an emergency, the display control unit changes a display form of information indicating the audio signal equal to or higher than the predetermined sound pressure. The voice information display device according to any one of claims 1 to 4, wherein the voice information display device is displayed.
前記表示制御部は、前記音声信号を表す形状を、前記マイクロフォンの配置方向を基点として、ドット形状に表示させることを特徴とする、請求項1から請求項3のいずれか1項に記載の音声情報表示装置。   The sound according to any one of claims 1 to 3, wherein the display control unit displays a shape representing the sound signal in a dot shape with an arrangement direction of the microphone as a base point. Information display device. 表示部を囲うように配置された複数のマイクロフォンから入力された音声信号に基づき音源方向を検出する入力音分析ステップ、
前記入力音分析ステップにおいて検出された音源方向に配置されている前記マイクロフォンの配置方向を基点として、前記マイクロフォンから入力された音声信号を表す形状を前記表示部に表示させる表示制御ステップ、
を含み、
前記表示制御ステップは、所定の音圧以上の音声信号を検出した場合に、前記音声信号を表す形状を前記表示部に、前記所定の音圧以上の音声信号を検出した時間以上表示させることを特徴とする音声情報表示方法。
An input sound analysis step for detecting a sound source direction based on sound signals input from a plurality of microphones arranged so as to surround the display unit;
A display control step of displaying on the display unit a shape representing an audio signal input from the microphone, based on the arrangement direction of the microphone arranged in the sound source direction detected in the input sound analysis step;
Including
In the display control step, when an audio signal having a predetermined sound pressure or higher is detected, a shape representing the audio signal is displayed on the display unit for a time longer than the time when the audio signal having the predetermined sound pressure or higher is detected. A characteristic voice information display method.
音声情報表示装置が備えるコンピュータに、
表示部を囲うように配置された複数のマイクロフォンから入力された音声信号に基づき音源方向を検出する入力音分析ステップ、
前記入力音分析ステップにおいて検出された音源方向に配置されている前記マイクロフォンの配置方向を基点として、前記マイクロフォンから入力された音声信号を表す形状を前記表示部に表示させる表示制御ステップ、
を実行させ、
前記表示制御ステップは、所定の音圧以上の音声信号を検出した場合に、前記音声信号を表す形状を前記表示部に、前記所定の音圧以上の音声信号を検出した時間以上表示させることを特徴とするプログラム。
In the computer provided in the voice information display device,
An input sound analysis step for detecting a sound source direction based on sound signals input from a plurality of microphones arranged so as to surround the display unit;
A display control step of displaying on the display unit a shape representing an audio signal input from the microphone, based on the arrangement direction of the microphone arranged in the sound source direction detected in the input sound analysis step;
And execute
In the display control step, when an audio signal having a predetermined sound pressure or higher is detected, a shape representing the audio signal is displayed on the display unit for a time longer than the time when the audio signal having the predetermined sound pressure or higher is detected. A featured program.
JP2012231750A 2012-10-19 2012-10-19 Audio information display device, audio information display method and program Active JP6201292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012231750A JP6201292B2 (en) 2012-10-19 2012-10-19 Audio information display device, audio information display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012231750A JP6201292B2 (en) 2012-10-19 2012-10-19 Audio information display device, audio information display method and program

Publications (2)

Publication Number Publication Date
JP2014086759A JP2014086759A (en) 2014-05-12
JP6201292B2 true JP6201292B2 (en) 2017-09-27

Family

ID=50789480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012231750A Active JP6201292B2 (en) 2012-10-19 2012-10-19 Audio information display device, audio information display method and program

Country Status (1)

Country Link
JP (1) JP6201292B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6286271B2 (en) 2014-04-18 2018-02-28 住友理工株式会社 Vibration isolator
EP3239975A4 (en) * 2014-12-26 2018-08-08 Sony Corporation Information processing device, information processing method, and program
DE112016005648T5 (en) * 2015-12-11 2018-08-30 Sony Corporation DATA PROCESSING DEVICE, DATA PROCESSING PROCESS AND PROGRAM

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498129A (en) * 1990-08-14 1992-03-30 Pfu Ltd Method of displaying frequency characteristic of sound on screen
JPH06328980A (en) * 1993-05-25 1994-11-29 Casio Comput Co Ltd On-vehicle alarm device
JPH07104049A (en) * 1993-10-07 1995-04-21 Toshiba Toransupooto Eng Kk Sound source direction indicating device
JPH1021047A (en) * 1996-07-05 1998-01-23 Nippon Telegr & Teleph Corp <Ntt> Noise-suppressing sound collector
JP2007329702A (en) * 2006-06-08 2007-12-20 Toyota Motor Corp Sound-receiving device and voice-recognition device, and movable object mounted with them
JP2009243894A (en) * 2008-03-28 2009-10-22 Yamaha Corp Position detection system and position detection device
JP5801026B2 (en) * 2009-05-28 2015-10-28 株式会社ザクティ Image sound processing apparatus and imaging apparatus
JP2011180470A (en) * 2010-03-03 2011-09-15 Yamaha Corp Sound visualizing device
JP2011227199A (en) * 2010-04-16 2011-11-10 Nec Casio Mobile Communications Ltd Noise suppression device, noise suppression method and program

Also Published As

Publication number Publication date
JP2014086759A (en) 2014-05-12

Similar Documents

Publication Publication Date Title
CN105282654B (en) Earphone listening device
CN106664490B (en) Monophonic or multichannel audio control interface
RU2714805C2 (en) Method and system of vehicle for performing secret call of an operator of rescue services (embodiments)
KR20130036743A (en) Microphone interference detection method and apparatus
EP2939151A1 (en) Method and apparatus for generating audio information
US9864576B1 (en) Voice controlled assistant with non-verbal user input
CN106572411A (en) Noise cancelling control method and relevant device
JP6201292B2 (en) Audio information display device, audio information display method and program
CN107743178B (en) Message playing method and mobile terminal
EP3458872B1 (en) Gesture-enabled audio device with visible feedback
JP2008533793A5 (en)
JP5983332B2 (en) Audio information notification apparatus, audio information notification method, and program
KR101328865B1 (en) Wrist watch for deaf and its control method
JP6131563B2 (en) Audio information display device, audio information display method and program
US9460592B2 (en) Human audible localization for sound emitting devices
JP2019197550A (en) Sound input/output device
US11069332B2 (en) Interference generation
JP2020074234A (en) Electronic apparatus and feedback providing method
US8461986B2 (en) Audible event detector and analyzer for annunciating to the hearing impaired
EP2983148B1 (en) Voice-sensitive emergency alert system
KR102652553B1 (en) Electronic device and method for detecting block of microphone
JP2014092796A (en) Speech information notification device, speech information notification method and program
CN203883964U (en) Pulse detection headphone, terminal and system
US9924363B2 (en) Wireless security system for wireless audio device
TWM517887U (en) Security host having communication function of Internet of things (IoT)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170814

R150 Certificate of patent or registration of utility model

Ref document number: 6201292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150