JP6296646B2 - Hearing complement system, hearing complement device, and hearing complement method - Google Patents

Hearing complement system, hearing complement device, and hearing complement method Download PDF

Info

Publication number
JP6296646B2
JP6296646B2 JP2014009196A JP2014009196A JP6296646B2 JP 6296646 B2 JP6296646 B2 JP 6296646B2 JP 2014009196 A JP2014009196 A JP 2014009196A JP 2014009196 A JP2014009196 A JP 2014009196A JP 6296646 B2 JP6296646 B2 JP 6296646B2
Authority
JP
Japan
Prior art keywords
sound
sound data
auditory
unit
hearing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014009196A
Other languages
Japanese (ja)
Other versions
JP2015139084A (en
Inventor
畑中 武蔵
武蔵 畑中
尚 津田
尚 津田
矢野 周治
周治 矢野
勝彦 櫛
勝彦 櫛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nitto Denko Corp
Original Assignee
Nitto Denko Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nitto Denko Corp filed Critical Nitto Denko Corp
Priority to JP2014009196A priority Critical patent/JP6296646B2/en
Publication of JP2015139084A publication Critical patent/JP2015139084A/en
Application granted granted Critical
Publication of JP6296646B2 publication Critical patent/JP6296646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

この発明は、利用者の聴覚を補完する聴覚補完システム、聴覚補完装置及び聴覚補完方法に関する。   The present invention relates to a hearing complement system, a hearing complement apparatus, and a hearing complement method that complement a user's hearing.

従来、音を増幅する補聴器により聴覚障害者の聴こえの問題を解消する技術が知られている。最近では、音をデジタル信号処理し、聴覚障害者に対してノイズを低減したクリアな音声を提供するデジタル方式の補聴器が主流になりつつある。   2. Description of the Related Art Conventionally, a technique for solving the problem of hearing of a hearing impaired person using a hearing aid that amplifies sound is known. Recently, digital hearing aids that process digital signals of sounds and provide clear sounds with reduced noise to hearing-impaired people are becoming mainstream.

例えば、特許文献1には、アナログ入力音信号をデジタル入力信号に変換し、外部メモリからプログラム及び設定値を読み込み、デジタル入力信号に対して信号処理を行い、信号処理した信号をアナログ出力信号に変換し、アナログ出力信号又はアナログ入力音信号を切り替えて出力音信号として出力する技術が開示されている。また、低音域と高音域を分割しつつ必要に応じて高音域を低減することでノイズを低減する技術も知られている(例えば、特許文献2参照)。   For example, in Patent Document 1, an analog input sound signal is converted into a digital input signal, a program and setting values are read from an external memory, signal processing is performed on the digital input signal, and the signal processed signal is converted into an analog output signal. A technique for converting and switching an analog output signal or an analog input sound signal to output as an output sound signal is disclosed. There is also known a technique for reducing noise by dividing a low sound region and a high sound region and reducing a high sound region as necessary (see, for example, Patent Document 2).

このように、上記特許文献1及び2等に代表される従来の補聴器では、聴覚障害者に対してよりクリアな音声を提供する観点から様々な工夫がなされている。   As described above, in the conventional hearing aid represented by Patent Documents 1 and 2 and the like, various ideas are made from the viewpoint of providing clearer sound to the hearing impaired person.

特開2011−035684号公報JP 2011-035684 A 特開2012−109933号公報JP 2012-109933 A

しかしながら、聴覚障害者は、可能な限り聴覚に支障がない健聴者と同等な生活スタイルで日常を過ごすことを望んでおり、単にノイズが低減されたクリアな音声で話者の発話内容を聴き取ることを望んでいるわけではない。   However, hearing-impaired people want to spend their daily lives in the same lifestyle as those with normal hearing who do not disturb their hearing as much as possible, and simply listen to the speaker's utterances with clear noise with reduced noise. I don't want it.

例えば、健聴者は、台所から聴こえるコトコト音などの生活音により安らぎや充実感等を感じる場合が多いが、かかる生活音がノイズとともに除去されてしまうと、聴覚障害者が生活音に伴う安らぎや充実感を得ることができない。なお、聴覚障害者が生活音を聴き取れるようにノイズ除去レベルを下げると、該聴覚障害者が公共場所等に所在する際に却ってノイズが増加してしまい、聴覚障害者がクリアな音声を聴き取れない結果となる。   For example, a normal hearing person often feels a sense of comfort and fulfillment due to life sounds such as a sound that can be heard from the kitchen. I cannot get a sense of fulfillment. Note that if the noise removal level is lowered so that the hearing impaired person can hear the life sound, the noise increases when the hearing impaired person is located in a public place, etc., and the hearing impaired person listens to clear sound. The result cannot be taken.

また、健聴者は、話者の声の高低のパターンを示すトーン並びに声の響きや調子を示す声色から話者の心中を察するケースが多いが、デジタル方式で量子化する際の量子化誤差等によってトーンや声色に関する情報が失われると、聴覚障害者が健聴者と同様に話者の心中を察することができない結果となる。   In many cases, a normal hearing person inspects the speaker's heart from the tone indicating the high and low patterns of the speaker's voice and the voice color indicating the sound and tone of the voice, but the quantization error when quantizing digitally etc. If the information on tone and voice color is lost, the result is that a hearing-impaired person cannot perceive the speaker's heart like a normal hearing person.

さらに、健聴者は、複数の話者と会話する場合に、個々の話者の声の周波数の違いや声の到来方向などを考慮して誰の発言であるかを無意識に認識しているが、上記量子化誤差等により方向情報や周波数のわずかな差違が失われると、誰の発言であるかを認識できない結果となる。   Furthermore, when a normal hearing person converses with multiple speakers, he or she unconsciously recognizes who is speaking in consideration of differences in the frequency of the voices of individual speakers and the direction of voice arrival. If a slight difference in direction information or frequency is lost due to the quantization error or the like, it is impossible to recognize who is speaking.

これらのことから、聴覚障害者と健聴者の間に所在する聴覚に関するギャップを補完し、聴覚障害者に対して健聴者と同等な生活スタイルをいかにして提供するかが重要な課題となっている。なお、かかる課題は、聴覚障害者のみについて生ずる課題ではなく、健聴者のうちの比較的難聴傾向にある利用者についても同様に生ずる課題である。   From these facts, it is an important issue to complement the hearing gap between hearing-impaired and hearing-impaired and to provide a hearing-impaired person with a lifestyle equivalent to that of the hearing-impaired. Yes. Such a problem is not only a problem that occurs only for a hearing impaired person, but also a problem that occurs similarly for a user who is relatively deaf in hearing.

本発明は、上記従来の課題を解決するためになされたものであって、利用者の聴覚を効率的に補完し、もって利用者に対して快適な生活環境を提供することができる聴覚補完システム、聴覚補完装置及び聴覚補完方法を提供することを目的とする。   The present invention has been made in order to solve the above-described conventional problems, and can efficiently complement the user's hearing and thereby provide a comfortable living environment for the user. An object of the present invention is to provide a hearing complement device and a hearing complement method.

上述した課題を解決し、目的を達成するため、本発明は、利用者の耳に装着される聴覚補完装置であって、前記利用者に到来する音データを集音する1又は複数の集音手段と、前記集音手段により集音された音データから音声を抽出する音声抽出手段と、前記集音手段により集音された音データから前記利用者の聴覚を補完するために用いられ、少なくとも生活音データを含む聴覚補完情報を抽出する聴覚補完情報抽出手段と、前記聴覚補完情報抽出手段により抽出された聴覚補完情報を所定の表示手段に表示制御する表示制御手段と、少なくとも前記音声抽出手段により抽出された音声に前記生活音データを重畳した出力音データを前記利用者に出力する音出力手段とを備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention is an auditory complement device that is worn on a user's ear and collects sound data that arrives at the user. means, a voice extracting means for extracting audio from collected sounds data by said sound collecting means, from the sound data collected by the said sound collecting means is used to complement the hearing of the user, Auditory supplement information extracting means for extracting auditory supplement information including at least life sound data , display control means for controlling display of the auditory supplement information extracted by the auditory supplement information extracting means on a predetermined display means, and at least the voice extraction Sound output means for outputting to the user output sound data obtained by superimposing the life sound data on the voice extracted by the means.

また、本発明は、上記発明において、前記聴覚補完情報抽出手段は、前記集音手段により集音された音データから所定の周波数帯の音を前記聴覚補完情報として抽出することを特徴とする。 Further, in the above invention, the aural complementary information extraction means, a feature and Turkey to extract sound collected by a predetermined frequency band from the sound data as the auditory complementary information by the sound collecting means To do.

また、本発明は、上記発明において、前記利用者の周辺状況を判定する状況判定手段をさらに備え、前記聴覚補完情報抽出手段は、前記集音手段により集音された音データから前記周辺状況に対応した周波数帯の音を前記聴覚補完情報として抽出することを特徴とする。 Furthermore, the present invention, in the above invention, further comprises a situation determination means for judging the surrounding situation of the user, wherein the auditory supplement information extracting means converts the sound data collected by the sound collecting means into the surrounding situation. the sound of the corresponding frequency band, wherein the benzalkonium be extracted as the aural complementary information.

また、本発明は、上記発明において、前記聴覚補完情報抽出手段は、前記集音手段により集音された音データに含まれる音の到来方向を前記聴覚補完情報として抽出し、前記表示制御手段は、前記音データに含まれる音の到来方向を前記表示手段に表示制御することを特徴とする。 Further, in the present invention according to the present invention, the auditory supplement information extracting unit extracts the arrival direction of the sound included in the sound data collected by the sound collector as the auditory supplement information, and the display control unit is The direction of arrival of the sound included in the sound data is controlled to be displayed on the display means .

また、本発明は、上記発明において、前記集音手段を複数備え、前記聴覚補完情報抽出手段は、前記複数の集音手段により集音された複数の音データにおける音の到来時間の差に応じて到来方向を判定することを特徴とする。   Further, the present invention is the above invention, further comprising a plurality of the sound collecting means, wherein the auditory complementary information extracting means is responsive to a difference in sound arrival times in the plurality of sound data collected by the plurality of sound collecting means. And determining the direction of arrival.

また、本発明は、上記発明において、前記聴覚補完情報抽出手段は、前記集音手段により集音された音データに含まれる音声から話者の感情を前記聴覚補完情報として抽出し、前記表示制御手段は、前記話者の感情を前記表示手段に表示制御することを特徴とする。 Also, in the present invention according to the above invention, the auditory supplement information extracting unit extracts a speaker's emotion as the auditory complement information from the voice included in the sound data collected by the sound collector, and the display control The means controls the display of the speaker's emotion on the display means .

また、本発明は、上記発明において、前記聴覚補完情報抽出手段は、前記集音手段により集音された音データに含まれる音声の大きさ、高さ及び/又はピッチの変化を検出し、検出した変化により推定される話者の感情を前記聴覚補完情報として抽出することを特徴とする。   Also, in the present invention according to the above invention, the auditory supplement information extracting unit detects a change in the volume, height and / or pitch of the sound included in the sound data collected by the sound collecting unit. The emotion of the speaker estimated by the change is extracted as the auditory complement information.

また、本発明は、利用者の耳に装着される聴覚補完装置であって、前記利用者に到来する音データを集音する1又は複数の集音手段と、前記集音手段により集音された音データから音声を抽出する音声抽出手段と、前記集音手段により集音された音データから前記利用者の聴覚を補完するために用いられ、少なくとも生活音データを含む聴覚補完情報を抽出する聴覚補完情報抽出手段と、前記聴覚補完情報抽出手段により抽出された聴覚補完情報を所定の表示手段に表示制御する表示制御手段と、少なくとも前記音声抽出手段により抽出された音声に前記生活音データを重畳した出力音データを前記利用者に出力する音出力手段とを備えたことを特徴とする。 In addition, the present invention is an auditory complement device that is worn on a user's ear, and is collected by one or more sound collecting means for collecting sound data arriving at the user, and the sound collecting means. extraction and voice extracting means for extracting a sound from the sound data from the sound data collected by the said sound collecting means is used to complement the hearing of the user, the auditory complementary information including at least living sound data Auditory supplement information extracting means , display control means for controlling the auditory supplement information extracted by the auditory supplement information extracting means on a predetermined display means, and at least the voice extracted by the voice extracting means in the living sound data And sound output means for outputting the output sound data superimposed with the user to the user.

また、本発明は、利用者に到来する音データを集音する集音ステップと、前記集音ステップにより集音された音データから音声を抽出する音声抽出ステップと、前記集音ステップにより集音された音データから前記利用者の聴覚を補完するために用いられ、少なくとも生活音データを含む聴覚補完情報を抽出する聴覚補完情報抽出ステップと、前記聴覚補完情報抽出ステップにより抽出された聴覚補完情報を所定の表示部に表示制御する表示制御ステップと、少なくとも前記音声抽出ステップにより抽出された音声に前記生活音データを重畳した出力音データを前記利用者に出力する音出力ステップとを含んだことを特徴とする。 The present invention also provides a sound collection step for collecting sound data arriving at a user, a sound extraction step for extracting sound from the sound data collected by the sound collection step, and a sound collection step by the sound collection step. from sounds data, the used to supplement the user's hearing, the hearing complementary information extracting step of extracting the aural complementary information including at least living sound data, hearing supplement extracted by the auditory complementary information extracting step A display control step for controlling display of information on a predetermined display unit, and a sound output step for outputting to the user output sound data in which the life sound data is superimposed on the sound extracted by at least the sound extraction step. It is characterized by that.

本発明によれば、利用者の聴覚を効率的に補完し、もって利用者に対して快適な生活環境を提供することができる。 According to the present invention, the hearing a Subscriber efficiently complement, it is possible to provide a comfortable living environment for the user with.

図1は、実施例1に係る聴覚補完システムについて説明するための説明図である。FIG. 1 is an explanatory diagram for explaining a hearing complementation system according to the first embodiment. 図2は、図1に示したイヤピースの内部構成を示すブロック図である。FIG. 2 is a block diagram showing an internal configuration of the earpiece shown in FIG. 図3は、図1に示したコアユニットの内部構成を示すブロック図である。FIG. 3 is a block diagram showing an internal configuration of the core unit shown in FIG. 図4は、コアユニットによる音データの処理について説明するための説明図である。FIG. 4 is an explanatory diagram for explaining processing of sound data by the core unit. 図5は、フィルタの選択について説明するための説明図である。FIG. 5 is an explanatory diagram for explaining selection of a filter. 図6は、音の到来方向の識別について説明するための説明図である。FIG. 6 is an explanatory diagram for explaining identification of a sound arrival direction. 図7は、話者の感情の識別について説明するための説明図である。FIG. 7 is an explanatory diagram for explaining identification of a speaker's emotion. 図8は、音データに対するフィルタリングについて説明するための説明図である。FIG. 8 is an explanatory diagram for explaining filtering on sound data. 図9は、コアユニットによる音データの処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a sound data processing procedure by the core unit. 図10は、実施例2に係る聴覚補完装置であるイヤピースの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an earpiece that is a hearing complementation apparatus according to the second embodiment. 図11は、図10に示したイヤピースによる音データの処理手順を示すフローチャートである。FIG. 11 is a flowchart showing a processing procedure of sound data by the earpiece shown in FIG. 図12は、実施例3に係る聴覚補完システムについて説明するための説明図である。FIG. 12 is an explanatory diagram for explaining the hearing complementation system according to the third embodiment. 図13は、図12に示したイヤピースの内部構成を示すブロック図である。FIG. 13 is a block diagram showing the internal configuration of the earpiece shown in FIG. 図14は、図12に示したコアユニットの内部構成を示すブロック図である。FIG. 14 is a block diagram showing an internal configuration of the core unit shown in FIG.

以下に、添付図面を参照して、本発明に係る聴覚補完システム、聴覚補完装置及び聴覚補完方法の好適な実施例を詳細に説明する。   Exemplary embodiments of a hearing complementation system, a hearing complementation apparatus, and a hearing complementation method according to the present invention will be described below in detail with reference to the accompanying drawings.

まず、本実施例1に係る聴覚補完システムについて説明する。図1は、聴覚補完システムのシステム構成を示す図である。図1に示すように、聴覚補完システムは、イヤピース10と、コアユニット20とを有する。   First, the hearing complementation system according to the first embodiment will be described. FIG. 1 is a diagram illustrating a system configuration of an auditory complementation system. As shown in FIG. 1, the hearing complementation system includes an earpiece 10 and a core unit 20.

イヤピース10は、利用者の耳穴に挿入することで装着される耳穴式の装置である。このイヤピース10は、本実施例で採用した耳穴式に限定されるものではなく、耳のひだに入れる耳ひだ式や耳に掛ける耳掛け式であっても良い。   The earpiece 10 is an ear hole type device that is worn by being inserted into the user's ear hole. The earpiece 10 is not limited to the ear hole type employed in the present embodiment, but may be an ear fold type to be put in an ear fold or an ear hook type to be hung on the ear.

コアユニット20は、本発明の聴覚補完に係る処理等を行う本体装置であり、ブルートゥース(Bluetooth)(登録商標)や赤外線等の近距離通信によってイヤピース10と通信可能に接続される。コアユニット20は、利用者のポケットへの収納や、ストラップ等を用いた装着が可能である。   The core unit 20 is a main body device that performs processing related to hearing complementation according to the present invention, and is connected to the earpiece 10 so as to be communicable by short-range communication such as Bluetooth (registered trademark) or infrared rays. The core unit 20 can be stored in a user's pocket or mounted using a strap or the like.

利用者の就寝時など該利用者がイヤピース10を使用しない場合には、イヤピース10をポッドやクレイドル等に載置し、非接触で無線充電することができる。同様に、利用者の就寝時など該利用者がコアユニット20を使用しない場合には、コアユニット20をクレイドル等に載置し、非接触で無線充電することができる。なお、イヤピース10は、コアユニット20により非接触で無線充電することも可能である。   When the user does not use the earpiece 10 such as when the user sleeps, the earpiece 10 can be placed on a pod, a cradle, or the like and wirelessly charged without contact. Similarly, when the user does not use the core unit 20 such as when the user is sleeping, the core unit 20 can be placed on a cradle or the like and wirelessly charged without contact. The earpiece 10 can be wirelessly charged by the core unit 20 in a non-contact manner.

イヤピース10及びコアユニット20は、それぞれ外部から到来する音を集音して音データを生成する。   The earpiece 10 and the core unit 20 each collect sound coming from the outside and generate sound data.

コアユニット20は、自装置で集音した音データから聴覚補完情報を生成する聴覚補完処理部23aを有している。具体的には、この聴覚補完処理部23aは、自装置で集音した音データから生活音データ、音方向データ及び話者感情データを含む聴覚補完情報を生成する。   The core unit 20 includes an auditory complement processing unit 23a that generates auditory supplement information from sound data collected by the own device. Specifically, the auditory complement processing unit 23a generates auditory supplement information including life sound data, sound direction data, and speaker emotion data from sound data collected by the own device.

この生活音データは、自装置で集音した音データから、台所から聴こえるコトコト音などの生活音を抽出したデータである。生活音データは、あらかじめ登録された抽出対象となる生活音の周波数及びパターンを自装置で集音した音データから抽出することで生成される。   This living sound data is data obtained by extracting living sounds such as squeak sounds heard from the kitchen from sound data collected by the own device. The living sound data is generated by extracting the frequency and pattern of the living sound that is registered in advance from the sound data collected by the own device.

音方向データは、自装置で集音した音データの到来方向を示すデータである。話者感情データは、自装置で集音した音データに含まれる音声から抽出した話者の感情に係るデータである。時系列的に見て話者の音声のトーンや声色が変化した場合には、話者の感情に起伏が生じたものと判定し、これを話者感情データとして抽出する。   The sound direction data is data indicating the arrival direction of the sound data collected by the own device. The speaker emotion data is data related to the emotion of the speaker extracted from the voice included in the sound data collected by the own device. When the tone or voice color of the speaker's voice changes over time, it is determined that the speaker's emotion has undulated, and this is extracted as speaker emotion data.

聴覚補完処理部23aは、生活音データをイヤピース10に送信するとともに、音方向データ及び話者感情データを自装置の表示部27aに表示制御する。図1では、話者の感情を示す話者アイコンF1と、音声の到来方向を示す音声アイコンF2を表示部27aに表示した例を図示している。例えば、利用者自身の位置を表示部27aの中心とし、話者アイコンF1の相対位置と音声アイコンF2の表示角度により、話者の音声の到来方向を認識することができるとともに、話者アイコンF1の図柄によって話者の感情を推測することが可能となる。   The auditory complement processing unit 23a transmits life sound data to the earpiece 10 and controls display of sound direction data and speaker emotion data on the display unit 27a of the own device. FIG. 1 illustrates an example in which a speaker icon F1 indicating a speaker's emotion and a voice icon F2 indicating a voice arrival direction are displayed on the display unit 27a. For example, with the user's own position as the center of the display unit 27a, the arrival direction of the speaker's voice can be recognized from the relative position of the speaker icon F1 and the display angle of the voice icon F2, and the speaker icon F1. This makes it possible to guess the speaker's emotions.

イヤピース10は、自装置で集音した音データからノイズを除去しつつ、この音データに含まれる音声帯域から音声を抽出する音声抽出部13aを有する。この音声抽出部13aは、自装置で集音した音データのうち、特に音声を効果的に聞き取ることができるよう調整されている。   The earpiece 10 has a sound extraction unit 13a that extracts sound from a sound band included in sound data while removing noise from sound data collected by the own device. The sound extraction unit 13a is adjusted so that the sound can be effectively heard from the sound data collected by the own device.

イヤピース10は、音声抽出部13aが出力した出力音データと、コアユニット20から受信した生活音データとを合成して出力する。このため、利用者は、音声だけでなく生活音も良好に聞き取ることができ、これにより台所作業を行う家族の行動を認識し、もって安心感や安らぎを感じることが可能となる。   The earpiece 10 synthesizes and outputs the output sound data output from the sound extraction unit 13 a and the life sound data received from the core unit 20. For this reason, the user can hear not only the voice but also the living sound well, thereby recognizing the behavior of the family who performs the kitchen work, and can feel a sense of security and comfort.

なお、コアユニット20から生活音データを受信しない場合には、音声抽出部13aが出力した出力音データがそのまま出力されるので、イヤピース10が単体の補聴器として動作する。なお、話者の感情をトーン信号などを使ってイヤピース10を介して音で出力することも可能である。   In addition, when the living sound data is not received from the core unit 20, the output sound data output from the sound extraction unit 13a is output as it is, so that the earpiece 10 operates as a single hearing aid. Note that it is also possible to output the speaker's emotion as a sound through the earpiece 10 using a tone signal or the like.

次に、図1に示したイヤピース10の内部構成について説明する。図2は、図1に示したイヤピース10の内部構成を示すブロック図である。図2に示すように、イヤピース10は、マイク11、AD変換部12、制御部13、無線通信部14、電源部15、DA変換部16及びイヤホン17を有する。   Next, the internal configuration of the earpiece 10 shown in FIG. 1 will be described. FIG. 2 is a block diagram showing an internal configuration of the earpiece 10 shown in FIG. As illustrated in FIG. 2, the earpiece 10 includes a microphone 11, an AD conversion unit 12, a control unit 13, a wireless communication unit 14, a power supply unit 15, a DA conversion unit 16, and an earphone 17.

マイク11は、利用者に到来する音を集音し、アナログ信号として出力する集音手段である。AD変換部12は、マイク11が出力したアナログ信号をデジタル信号に変換し、制御部13に出力する。   The microphone 11 is a sound collecting unit that collects sound coming to the user and outputs it as an analog signal. The AD conversion unit 12 converts the analog signal output from the microphone 11 into a digital signal and outputs the digital signal to the control unit 13.

無線通信部14は、コアユニット20と無線通信を行う通信ユニットである。無線通信部14は、コアユニット20から生活音データ等の音データを受信し、制御部13に出力する。   The wireless communication unit 14 is a communication unit that performs wireless communication with the core unit 20. The wireless communication unit 14 receives sound data such as life sound data from the core unit 20 and outputs the sound data to the control unit 13.

制御部13は、デジタル信号処理を行うDSP(Digital Signal Processor)である。制御部13は、その内部に音声抽出部13a及び出力合成部13bを有する。音声抽出部13aは、AD変換部12が出力したデジタル信号からノイズ成分をフィルタリングし、音声に対応する周波数帯に増幅を行って出力音データを生成する音声抽出手段である。   The control unit 13 is a DSP (Digital Signal Processor) that performs digital signal processing. The control unit 13 includes a voice extraction unit 13a and an output synthesis unit 13b therein. The voice extraction unit 13a is a voice extraction unit that filters noise components from the digital signal output from the AD conversion unit 12 and amplifies the frequency component corresponding to the voice to generate output sound data.

出力合成部13bは、音声抽出部13aが生成した出力音データと無線通信部14が受信した音データとを合成し、合成音データを生成する。なお、コアユニット20から音データを受信していない場合には、音声抽出部13aが生成した出力音データと合成音データとは同一となる。   The output synthesis unit 13b synthesizes the output sound data generated by the voice extraction unit 13a and the sound data received by the wireless communication unit 14 to generate synthesized sound data. When sound data is not received from the core unit 20, the output sound data generated by the sound extraction unit 13a and the synthesized sound data are the same.

DA変換部16は、制御部13が出力したデジタル信号である合成音データをアナログ信号に変換する。イヤホン17は、DA変換部16の出力したアナログ信号により、利用者の耳に音を出力する音出力手段として機能する。   The DA converter 16 converts the synthesized sound data, which is a digital signal output from the controller 13, into an analog signal. The earphone 17 functions as a sound output unit that outputs a sound to the user's ear based on the analog signal output from the DA converter 16.

電源部15は、制御部13及び無線通信部14に電力を供給する電源であり、この電源部15は、既に説明したようにポッド、クレイドル又はコアユニット20により無線充電可能である。   The power supply unit 15 is a power supply that supplies power to the control unit 13 and the wireless communication unit 14, and the power supply unit 15 can be wirelessly charged by the pod, cradle, or core unit 20 as described above.

図1に示したイヤピース10を単独で用いる場合には左右いずれかの耳に装着することとなるが、2つのイヤピース10を左右の耳にそれぞれ装着することとしてもよい。   When the earpiece 10 shown in FIG. 1 is used alone, it is attached to either the left or right ear, but the two earpieces 10 may be attached to the left and right ears, respectively.

次に、図1に示したコアユニット20の内部構成について説明する。図3は、図1に示したコアユニット20の内部構成を示すブロック図である。図3に示すように、コアユニット20は、マイク21a、マイク21b、AD変換部22a、AD変換部22b、制御部23、無線通信部24、電源部25、記憶部26及びタッチパネルディスプレイ27を有する。   Next, the internal configuration of the core unit 20 shown in FIG. 1 will be described. FIG. 3 is a block diagram showing an internal configuration of the core unit 20 shown in FIG. As shown in FIG. 3, the core unit 20 includes a microphone 21a, a microphone 21b, an AD conversion unit 22a, an AD conversion unit 22b, a control unit 23, a wireless communication unit 24, a power supply unit 25, a storage unit 26, and a touch panel display 27. .

マイク21a及びマイク21bは、利用者に到来する音を集音し、アナログ信号として出力する集音手段である。マイク21aとマイク21bとは、コアユニット20の筐体上の離隔した位置に設ける。AD変換部22aは、マイク21aが出力したアナログ信号をデジタル信号に変換し、制御部23に出力する。AD変換部22bは、マイク21bが出力したアナログ信号をデジタル信号に変換し、制御部23に出力する。   The microphone 21a and the microphone 21b are sound collecting means for collecting sounds coming to the user and outputting them as analog signals. The microphone 21 a and the microphone 21 b are provided at spaced positions on the housing of the core unit 20. The AD conversion unit 22 a converts the analog signal output from the microphone 21 a into a digital signal and outputs the digital signal to the control unit 23. The AD conversion unit 22 b converts the analog signal output from the microphone 21 b into a digital signal and outputs the digital signal to the control unit 23.

無線通信部24は、イヤピース10や外部の装置と無線通信を行う通信ユニットである。無線通信部24は、制御部23が出力した音データをイヤピース10に送信する。   The wireless communication unit 24 is a communication unit that performs wireless communication with the earpiece 10 and an external device. The wireless communication unit 24 transmits the sound data output from the control unit 23 to the earpiece 10.

記憶部26は、フラッシュメモリ等からなる記憶デバイスである。記憶部26は、コアユニット20の制御に関する制御データの格納、録音データの格納等に用いられる。   The storage unit 26 is a storage device composed of a flash memory or the like. The storage unit 26 is used for storing control data related to the control of the core unit 20, recording data, and the like.

タッチパネルディスプレイ27は、液晶ディスプレイ等からなる表示部27aと、タッチパネル等からなる操作部27bとを組み合わせた表示操作部である。なお、操作部27bとして物理的なボタン等を設けてもよい。   The touch panel display 27 is a display operation unit that combines a display unit 27a including a liquid crystal display and an operation unit 27b including a touch panel. A physical button or the like may be provided as the operation unit 27b.

制御部23は、デジタル信号処理を行うDSP(Digital Signal Processor)である。制御部23は、その内部に聴覚補完処理部23aと、イヤピース出力処理部23cと、録音管理部23dと、充電管理部23eと、通信管理部23fとを有する。   The control unit 23 is a DSP (Digital Signal Processor) that performs digital signal processing. The control unit 23 includes an auditory complement processing unit 23a, an earpiece output processing unit 23c, a recording management unit 23d, a charge management unit 23e, and a communication management unit 23f.

聴覚補完処理部23aは、マイク21a及びマイク21bにより集音された音データから利用者の聴覚を補完する聴覚補完情報を生成する聴覚補完情報抽出手段である。その詳細については後述するが、聴覚補完処理部23aは、生成した聴覚補完情報のうち、生活音データ等の音データをイヤピース出力処理部23cに出力するとともに、音方向データ及び話者感情データ等を表示部27aへの表示制御に用いる。すなわち、音方向データ及び話者感情データ等については、表示部27aが報知手段として用いられることになる。また、生活音データ等の音データについては、イヤピース出力処理部23cによりイヤピース10に出力され、最終的にイヤホン17から出力されるので、イヤホン17が報知手段として機能することとなる。   The auditory complement processing unit 23a is an auditory complement information extracting unit that generates auditory complement information that complements the user's hearing from sound data collected by the microphone 21a and the microphone 21b. Although the details will be described later, the auditory complement processing unit 23a outputs sound data such as life sound data among the generated auditory complement information to the earpiece output processing unit 23c, sound direction data, speaker emotion data, and the like. Is used for display control on the display unit 27a. That is, for the sound direction data and speaker emotion data, the display unit 27a is used as a notification unit. Further, since sound data such as life sound data is output to the earpiece 10 by the earpiece output processing unit 23c and finally output from the earphone 17, the earphone 17 functions as a notification unit.

イヤピース出力処理部23cは、聴覚補完処理部23aが出力した音データをイヤピース10に出力する処理部である。具体的には、イヤピース出力処理部23cは、イヤピース10に出力すべき音データを合成し、合成した音データを無線通信部24によりイヤピース10に送信する。   The earpiece output processing unit 23 c is a processing unit that outputs the sound data output by the auditory complement processing unit 23 a to the earpiece 10. Specifically, the earpiece output processing unit 23 c synthesizes sound data to be output to the earpiece 10, and transmits the synthesized sound data to the earpiece 10 by the wireless communication unit 24.

録音管理部23dは、マイク21a及びマイク21bが集音した音データを録音データとして記憶部26に格納し、利用者の操作に応じて再生や消去を行う処理部である。録音データの記憶部26への格納は常時行うことが好適である。   The recording management unit 23d is a processing unit that stores sound data collected by the microphone 21a and the microphone 21b in the storage unit 26 as recording data, and reproduces or deletes the data in accordance with a user operation. It is preferable to always store the recorded data in the storage unit 26.

充電管理部23eは、コアユニット20及びイヤピース10の充電を管理する処理部である。充電管理部23eは、コアユニット20及びイヤピース10の充電量を監視し、必要に応じて利用者に報知する。また、充電管理部23eは、コアユニット20の充電を行ったクレイドルを識別し、当該クレイドルを特定するクレイドルIDを記憶部26に格納する。また、充電管理部23eは、イヤピース10が所定距離以内に所在している場合には、イヤピース10を充電する。   The charge management unit 23 e is a processing unit that manages charging of the core unit 20 and the earpiece 10. The charge management unit 23e monitors the charge amounts of the core unit 20 and the earpiece 10, and notifies the user as necessary. In addition, the charge management unit 23 e identifies the cradle that has charged the core unit 20, and stores the cradle ID that identifies the cradle in the storage unit 26. The charge management unit 23e charges the earpiece 10 when the earpiece 10 is located within a predetermined distance.

通信管理部23fは、無線通信部24による通信状況を管理する処理部である。通信管理部23fは、イヤピース10との通信が途切れた場合に、利用者に対して報知を行う。また、通信管理部23fは、イヤピース10との通信が途切れた場合に、その時刻情報を記憶部26に格納する。GPS(Global Positioning System)等により位置情報を取得可能であれば、イヤピース10との通信が途切れた場所を記憶部26に格納してもよい。このようにイヤピース10との通信途絶時の情報を格納することにより、利用者がイヤピース10を紛失した際にイヤピース10を見つける手がかりを提供することができる。   The communication management unit 23 f is a processing unit that manages the communication status of the wireless communication unit 24. The communication management unit 23f notifies the user when communication with the earpiece 10 is interrupted. In addition, when communication with the earpiece 10 is interrupted, the communication management unit 23 f stores the time information in the storage unit 26. If the position information can be acquired by GPS (Global Positioning System) or the like, a location where communication with the earpiece 10 is interrupted may be stored in the storage unit 26. By storing information at the time of the communication interruption with the earpiece 10 in this way, a clue for finding the earpiece 10 when the user loses the earpiece 10 can be provided.

電源部25は、制御部23、無線通信部24、記憶部26及びタッチパネルディスプレイ27に電力を供給する電源であり、この電源部25は、既に説明したようにクレイドルにより無線充電可能である。   The power supply unit 25 is a power supply that supplies power to the control unit 23, the wireless communication unit 24, the storage unit 26, and the touch panel display 27. The power supply unit 25 can be wirelessly charged by the cradle as described above.

次に、コアユニット20による音データの処理についてさらに説明する。図4は、コアユニット20による音データの処理について説明するための説明図である。図4に示すように、マイク21a及びマイク21bが集音した音データは、AD変換部22a及びAD変換部22bによりデジタル信号に変換された後、録音管理部23dに出力される。   Next, sound data processing by the core unit 20 will be further described. FIG. 4 is an explanatory diagram for explaining processing of sound data by the core unit 20. As shown in FIG. 4, the sound data collected by the microphone 21a and the microphone 21b is converted into a digital signal by the AD conversion unit 22a and the AD conversion unit 22b, and then output to the recording management unit 23d.

録音管理部23dは、マイク21a及びマイク21bが集音した音データを録音データとして記憶部26に格納するとともに、聴覚補完処理部23aに出力する。また、録音管理部23dは、記憶部26から録音データを読み出して、聴覚補完処理部23aに出力する録音再生が可能である。   The recording management unit 23d stores the sound data collected by the microphone 21a and the microphone 21b as recording data in the storage unit 26 and outputs the sound data to the auditory complement processing unit 23a. In addition, the recording management unit 23d can perform recording and reproduction by reading the recording data from the storage unit 26 and outputting it to the auditory complement processing unit 23a.

聴覚補完処理部23aは、方向識別部23a1、個人識別部23a2、感情識別部23a3、フィルタ選択部23a4、増幅部23a5、音声フィルタ23a6、生活音フィルタ23a7、車両走行音フィルタ23a8及び緊急車両音フィルタ23a9を有する。   The auditory complement processing unit 23a includes a direction identification unit 23a1, a personal identification unit 23a2, an emotion identification unit 23a3, a filter selection unit 23a4, an amplification unit 23a5, a voice filter 23a6, a life sound filter 23a7, a vehicle running sound filter 23a8, and an emergency vehicle sound filter. 23a9.

方向識別部23a1は、マイク21aが取得した音データ(AD変換部22aの出力)と、マイク21bが取得した音データ(AD変換部22bの出力)とを用いて音の到来方向を識別する。具体的には、方向識別部23a1は、マイク21aとマイク21bとがそれぞれ取得した音データにおける音の到来時間の差を算出し、算出した到来時間の差によって音の到来方向を識別する。方向識別部23a1は、識別した音の到来方向を示す音方向データを生成し、表示部27aの表示制御に用いる。   The direction identification unit 23a1 identifies the arrival direction of sound using sound data acquired by the microphone 21a (output of the AD conversion unit 22a) and sound data acquired by the microphone 21b (output of the AD conversion unit 22b). Specifically, the direction identification unit 23a1 calculates a difference in sound arrival time in the sound data respectively acquired by the microphone 21a and the microphone 21b, and identifies a sound arrival direction based on the calculated difference in arrival time. The direction identification unit 23a1 generates sound direction data indicating the direction of arrival of the identified sound and uses it for display control of the display unit 27a.

個人識別部23a2は、マイク21aが取得した音データを用いて音声の話者を識別する。具体的には、個人識別部23a2は、マイク21aが取得した音データから音声の特徴パラメータを算出し、特徴パラメータが一致する音声を同一人物の音声であると識別する。音声の特徴パラメータの算出には、MFCC(Mel-Frequency Cepstrum Coefficient)等の任意の手法を用いることができる。   The personal identification unit 23a2 identifies a voice speaker using sound data acquired by the microphone 21a. Specifically, the personal identification unit 23a2 calculates voice feature parameters from the sound data acquired by the microphone 21a, and identifies voices having the same feature parameters as voices of the same person. Arbitrary methods, such as MFCC (Mel-Frequency Cepstrum Coefficient), can be used for calculation of the voice feature parameter.

個人識別部23a2は、話者を識別した場合には、話者に関する情報を話者識別データとして表示部27aの表示制御に用いる。また、特定の話者について音声の特徴パラメータと個人名とを対応付け、登録データとして記憶部26に格納しておけば、マイク21aが取得した音データから算出した特徴パラメータが登録データの特徴パラメータと一致した場合に、該登録データの個人名を表示することも可能である。   When the speaker is identified, the personal identification unit 23a2 uses information about the speaker as speaker identification data for display control of the display unit 27a. In addition, if a voice feature parameter and a personal name are associated with each other for a specific speaker and stored in the storage unit 26 as registered data, the feature parameter calculated from the sound data acquired by the microphone 21a is the feature parameter of the registered data. It is also possible to display the personal name of the registered data when it matches.

感情識別部23a3は、マイク21aが取得した音データを用いて話者の感情を識別する。具体的には、感情識別部23a3は、マイク21aが取得した音データに含まれる音声の大きさ、高さ及びピッチの変化を検出し、検出した変化により話者の感情を識別する。話者が興奮して話すときの音声は、平静に話すときの音声に比べると音量が大きくなり、音域が高くなり、言葉が早口になる傾向がある。そこで、音声の大きさ、高さ及びピッチの変化を検出することにより、話者の感情の変化を推定できるのである。感情識別部23a3は、識別した話者の感情を示す話者感情データを生成し、表示部27aへの表示制御に用いる。   The emotion identifying unit 23a3 identifies the speaker's emotion using the sound data acquired by the microphone 21a. Specifically, the emotion identification unit 23a3 detects changes in the volume, height, and pitch of the voice included in the sound data acquired by the microphone 21a, and identifies the speaker's emotion based on the detected changes. The voice when a speaker speaks with excitement tends to be louder, the range is higher, and the language is faster than the voice when speaking quietly. Therefore, it is possible to estimate the change in the speaker's emotion by detecting the change in the volume, height and pitch of the speech. The emotion identification unit 23a3 generates speaker emotion data indicating the emotion of the identified speaker and uses it for display control on the display unit 27a.

音声フィルタ23a6は、マイク21aが取得した音データ(AD変換部22aの出力)から、音声に対応する周波数帯を抽出して音声データとして出力するフィルタである。生活音フィルタ23a7は、マイク21aが取得した音データから、生活音に対応する周波数帯を抽出して生活音データとして出力するフィルタである。車両走行音フィルタ23a8は、マイク21aが取得した音データから、車両走行音に対応する周波数帯を抽出して車両走行音データとして出力するフィルタである。緊急車両音フィルタ23a9は、マイク21aが取得した音データから、緊急車両のサイレンに対応する周波数帯を抽出して緊急車両音データとして出力するフィルタである。なお、ここでは4種のフィルタを用いる場合を例示したが、任意のフィルタを追加することができる。   The sound filter 23a6 is a filter that extracts a frequency band corresponding to sound from sound data (output of the AD conversion unit 22a) acquired by the microphone 21a and outputs the same as sound data. The life sound filter 23a7 is a filter that extracts the frequency band corresponding to the life sound from the sound data acquired by the microphone 21a and outputs it as the life sound data. The vehicle travel sound filter 23a8 is a filter that extracts a frequency band corresponding to the vehicle travel sound from the sound data acquired by the microphone 21a and outputs the same as the vehicle travel sound data. The emergency vehicle sound filter 23a9 is a filter that extracts the frequency band corresponding to the siren of the emergency vehicle from the sound data acquired by the microphone 21a and outputs it as emergency vehicle sound data. In addition, although the case where four types of filters were used was illustrated here, arbitrary filters can be added.

フィルタ選択部23a4は、聴覚補完システムの利用状況に応じて各フィルタの使用可否を選択する状況判定手段として機能する。利用状況は、利用者の操作入力によっても決定可能であるが、充電管理部23eから最後に充電に使用したクレイドルのクレイドルIDを取得し、このクレイドルIDに応じて決定することもできる。   The filter selection unit 23a4 functions as a situation determination unit that selects whether or not each filter can be used in accordance with the usage situation of the auditory complementation system. The usage status can be determined by a user's operation input, but the cradle ID of the cradle that was last used for charging is obtained from the charge management unit 23e, and can be determined according to the cradle ID.

図5は、フィルタの選択について説明するための説明図である。図5(a)では、シーン種別「自宅」、シーン種別「運転中」、シーン種別「職場」、シーン種別「録音再生」の4つの利用状況について、各フィルタの使用可否を示している。   FIG. 5 is an explanatory diagram for explaining selection of a filter. FIG. 5A shows whether or not each filter can be used for the four usage situations of the scene type “home”, the scene type “driving”, the scene type “workplace”, and the scene type “recording / playback”.

シーン種別「自宅」では、音声フィルタ23a6がオフ(不使用)、生活音フィルタ23a7がオン(使用)、車両走行音フィルタ23a8がオフ、緊急車両音フィルタ23a9がオフとなっている。音声フィルタ23a6がオフであるのは、イヤピース10において音声抽出が行われているためである。従って、自宅で聴覚補完システムを使用する場合には、イヤピース10からは音声と生活音が強調されて出力されることとなる。   In the scene type “home”, the sound filter 23a6 is turned off (not used), the life sound filter 23a7 is turned on (used), the vehicle running sound filter 23a8 is turned off, and the emergency vehicle sound filter 23a9 is turned off. The reason why the sound filter 23a6 is off is because sound extraction is performed in the earpiece 10. Therefore, when using the hearing complementation system at home, the earpiece 10 outputs the voice and life sound with emphasis.

シーン種別「運転中」では、音声フィルタ23a6がオフ、生活音フィルタ23a7がオフ、車両走行音フィルタ23a8がオン、緊急車両音フィルタ23a9がオンとなっている。音声フィルタ23a6がオフであるのは、イヤピース10において音声抽出が行われているためである。従って、運転中に聴覚補完システムを使用する場合には、イヤピース10からは音声、車両走行音及び緊急車両音が強調されて出力されることとなる。   In the scene type “Driving”, the sound filter 23a6 is off, the life sound filter 23a7 is off, the vehicle running sound filter 23a8 is on, and the emergency vehicle sound filter 23a9 is on. The reason why the sound filter 23a6 is off is because sound extraction is performed in the earpiece 10. Therefore, when using the auditory supplement system during driving, the earpiece 10 emphasizes and outputs voice, vehicle running sound, and emergency vehicle sound.

シーン種別「職場」では、音声フィルタ23a6がオフ、生活音フィルタ23a7がオフ、車両走行音フィルタ23a8がオフ、緊急車両音フィルタ23a9がオフとなっている。この場合には、フィルタの出力はイヤピース10に送信されないが、イヤピース10において音声抽出が行われているので、音声が強調されて出力されることとなる。   In the scene type “workplace”, the sound filter 23a6 is off, the life sound filter 23a7 is off, the vehicle running sound filter 23a8 is off, and the emergency vehicle sound filter 23a9 is off. In this case, the output of the filter is not transmitted to the earpiece 10, but since the voice extraction is performed in the earpiece 10, the voice is emphasized and output.

シーン種別「録音再生」では、音声フィルタ23a6がオン、生活音フィルタ23a7がオフ、車両走行音フィルタ23a8がオフ、緊急車両音フィルタ23a9がオフとなっている。録音再生時には、イヤピース10で音声抽出が行うことができないため、コアユニット20で音声の抽出を行うのである。なお、録音再生を行う場合には、各フィルタのオンオフを利用者が個別に選択可能としてもよい。   In the scene type “recording / playback”, the sound filter 23a6 is on, the life sound filter 23a7 is off, the vehicle running sound filter 23a8 is off, and the emergency vehicle sound filter 23a9 is off. At the time of recording / playback, voice extraction cannot be performed by the earpiece 10, and therefore voice extraction is performed by the core unit 20. When recording / reproducing is performed, the user may be able to individually select ON / OFF of each filter.

図5(b)は、クレイドルIDとシーン種別の対応関係を示す図である。図5(b)では、クレイドルIDが「C001」であるクレイドルが自宅に設置されており、クレイドルIDが「C002」であるクレイドルが車両に設置されており、クレイドルIDが「C003」であるクレイドルが職場に設置されていることを示している。従って、最後に充電に使用したクレイドルのクレイドルIDが「C001」であれば、シーン種別を「自宅」と判定し、最後に充電に使用したクレイドルのクレイドルIDが「C002」であれば、シーン種別を「運転中」と判定し、最後に充電に使用したクレイドルのクレイドルIDが「C003」であれば、シーン種別を「職場」と判定することができる。   FIG. 5B is a diagram showing the correspondence between the cradle ID and the scene type. In FIG. 5B, the cradle with the cradle ID “C001” is installed at home, the cradle with the cradle ID “C002” is installed in the vehicle, and the cradle with the cradle ID “C003” is installed. Is installed in the workplace. Therefore, if the cradle ID of the last cradle used for charging is “C001”, the scene type is determined to be “home”, and if the cradle ID of the last cradle used for charging is “C002”, the scene type is determined. If the cradle ID of the cradle last used for charging is “C003”, the scene type can be determined as “workplace”.

なお、録音管理部23dが記憶部26から読み出した録音データを聴覚補完処理部23aに出力している場合には、最後に充電に使用したクレイドルのクレイドルIDに関わらず、シーン種別「録音再生」に決定される。   When the recording management unit 23d outputs the recording data read from the storage unit 26 to the auditory complement processing unit 23a, the scene type “recording / playback” is used regardless of the cradle ID of the cradle used for the last charging. To be determined.

図4に戻って説明を続ける。フィルタ選択部23a4は、決定したシーン種別に応じて「オン」に設定されたフィルタに、マイク21aが取得した音データを出力する。各フィルタは、マイク21aが取得した音データから所定の周波数帯を抽出し、増幅部23a5に出力する。   Returning to FIG. 4, the description will be continued. The filter selection unit 23a4 outputs the sound data acquired by the microphone 21a to the filter set to “ON” according to the determined scene type. Each filter extracts a predetermined frequency band from the sound data acquired by the microphone 21a and outputs it to the amplifying unit 23a5.

増幅部23a5は、各フィルタの出力を合成して増幅し、イヤピース出力処理部23cに出力する。すなわち、増幅部23a5が出力する音データには、音声データ、生活音データ、車両走行音データ、緊急車両音データ等の強調音データが含まれることとなる。なお、各フィルタの出力に対する増幅率は、利用者の聴力の特性に合わせて個別に設定可能である。   The amplifying unit 23a5 synthesizes and amplifies the outputs of the filters, and outputs them to the earpiece output processing unit 23c. That is, the sound data output from the amplifying unit 23a5 includes emphasized sound data such as sound data, life sound data, vehicle running sound data, and emergency vehicle sound data. The amplification factor for the output of each filter can be individually set according to the characteristics of the hearing ability of the user.

イヤピース出力処理部23cは、聴覚補完処理部23aが出力した音データをイヤピース10に送信する。   The earpiece output processing unit 23 c transmits the sound data output from the hearing complement processing unit 23 a to the earpiece 10.

次に、音の到来方向の識別についてさらに説明する。図6は、音の到来方向の識別について説明するための説明図である。マイク21aとマイク21bとは、コアユニット20の筐体上の離隔した位置に配置されているため、図6(a)に示すように、音の到来時間に差が生じる。方向識別部23a1は、マイク21aへの音の到来時間とマイク21bへの音の到来時間との差分dTを算出する。   Next, the identification of the sound arrival direction will be further described. FIG. 6 is an explanatory diagram for explaining identification of a sound arrival direction. Since the microphone 21a and the microphone 21b are arranged at positions separated from each other on the casing of the core unit 20, as shown in FIG. The direction identification unit 23a1 calculates a difference dT between the arrival time of the sound to the microphone 21a and the arrival time of the sound to the microphone 21b.

図6(b)に示すように、差分dTが0より大きければ音の到来方向はマイク21a側であり、差分dTが0より小さければ音の到来方向はマイク21b側である。従って、マイク21a及びマイク21bの配置と、差分dTとによって、音の到来方向を識別することができるのである。   As shown in FIG. 6B, if the difference dT is greater than 0, the direction of sound arrival is on the microphone 21a side, and if the difference dT is smaller than 0, the direction of sound arrival is on the microphone 21b side. Therefore, the direction of arrival of sound can be identified by the arrangement of the microphones 21a and 21b and the difference dT.

次に、話者の感情の識別についてさらに説明する。図7は、話者の感情の識別について説明するための説明図である。図7に示すように、感情識別部23a3は、マイク21aが取得した音データに含まれる音声の大きさ、高さ及びピッチの変化を検出する。   Next, speaker emotion identification will be further described. FIG. 7 is an explanatory diagram for explaining identification of a speaker's emotion. As shown in FIG. 7, the emotion identification unit 23a3 detects changes in the size, height, and pitch of the voice included in the sound data acquired by the microphone 21a.

図7では、音声区間R2における音声は、音声区間R1における音声よりも振幅が大きく、音域が高く、ピッチが速くなっている。このため、感情識別部23a3は、音声区間R2における話者の感情が、音声区間R1における話者の感情よりも興奮した状態にあると推定する。この場合には、感情識別部23a3は、興奮した状態にあることを模式的に示す感情表示を表示部27aに表示制御する。   In FIG. 7, the voice in the voice section R2 has a larger amplitude, a higher sound range, and a faster pitch than the voice in the voice section R1. For this reason, the emotion identification unit 23a3 estimates that the speaker's emotion in the speech segment R2 is more excited than the speaker's emotion in the speech segment R1. In this case, the emotion identification unit 23a3 controls display on the display unit 27a of an emotion display that schematically shows that the person is in an excited state.

また、音声区間R3における音声は、音声区間R1における音声よりも振幅が小さく、音域が低く、ピッチが遅くなっている。このため、感情識別部23a3は、音声区間R3における話者の感情が、音声区間R1における話者の感情よりも沈静した状態にあると推定する。この場合には、感情識別部23a3は、沈静した状態にあることを模式的に示す感情表示を表示部27aに表示制御する。   In addition, the voice in the voice section R3 has a smaller amplitude, lower sound range, and slower pitch than the voice in the voice section R1. For this reason, the emotion identification unit 23a3 estimates that the speaker's emotion in the voice segment R3 is more calm than the speaker's emotion in the voice segment R1. In this case, the emotion identification unit 23a3 controls display on the display unit 27a of an emotion display schematically showing that the emotion identification unit 23a3 is in a calm state.

次に、音データに対するフィルタリングについて説明する。図8は、音データに対するフィルタリングについて説明するための説明図である。図8(a)に示すように、音声フィルタ23a6は、マイク21aが出力する音データから音声に対応する周波数帯の音データを抽出する。   Next, filtering for sound data will be described. FIG. 8 is an explanatory diagram for explaining filtering on sound data. As shown in FIG. 8A, the sound filter 23a6 extracts sound data in a frequency band corresponding to sound from sound data output from the microphone 21a.

同様に、生活音フィルタ23a7は生活音に対応する周波数帯の音データを抽出し、車両走行音フィルタ23a8は車両走行音に対応する周波数帯の音データを抽出し、緊急車両音フィルタ23a9は緊急車両のサイレンに対応する周波数帯の音データを抽出する。   Similarly, the life sound filter 23a7 extracts sound data in the frequency band corresponding to the life sound, the vehicle travel sound filter 23a8 extracts sound data in the frequency band corresponding to the vehicle travel sound, and the emergency vehicle sound filter 23a9 is the emergency sound. Sound data in the frequency band corresponding to the vehicle siren is extracted.

従って、フィルタ選択部23a4が音声フィルタ23a6及び生活音フィルタ23a7を選択した場合には、図8(b)に示すように、増幅部23a5は、音声フィルタ23a6が抽出した周波数帯の音データと、生活音フィルタ23a7が抽出した周波数帯の音データとを合成して増幅することとなる。   Therefore, when the filter selection unit 23a4 selects the audio filter 23a6 and the life sound filter 23a7, as illustrated in FIG. 8B, the amplification unit 23a5 includes the sound data of the frequency band extracted by the audio filter 23a6, The sound data of the frequency band extracted by the life sound filter 23a7 is synthesized and amplified.

次に、コアユニット20による音データの処理手順について説明する。図9は、コアユニット20による音データの処理手順を示すフローチャートである。コアユニット20は、マイク21a及びマイク21bの出力をAD変換部22a及びAD変換部22bによりデジタル信号に変換して取得する(ステップS101)。録音管理部23dは、マイク21a及びマイク21bが集音した音データを録音データとして記憶部26に格納する(ステップS102)。   Next, a procedure for processing sound data by the core unit 20 will be described. FIG. 9 is a flowchart showing a sound data processing procedure performed by the core unit 20. The core unit 20 acquires the outputs of the microphone 21a and the microphone 21b by converting them into digital signals using the AD conversion unit 22a and the AD conversion unit 22b (step S101). The recording management unit 23d stores the sound data collected by the microphone 21a and the microphone 21b in the storage unit 26 as recording data (step S102).

聴覚補完処理部23a内の方向識別部23a1は、マイク21a及びマイク21bの出力から音の到来時間の差を算出し、算出した到来時間の差によって音の到来方向を識別する(ステップS103)。   The direction identifying unit 23a1 in the auditory complement processing unit 23a calculates the difference in sound arrival time from the outputs of the microphone 21a and the microphone 21b, and identifies the sound arrival direction based on the calculated difference in arrival time (step S103).

聴覚補完処理部23a内の個人識別部23a2は、マイク21aの出力から音声の特徴パラメータを算出し、特徴パラメータが一致する音声を同一人物の音声であると識別する(ステップS104)。   The personal identification unit 23a2 in the auditory complement processing unit 23a calculates a voice feature parameter from the output of the microphone 21a, and identifies a voice having the same feature parameter as a voice of the same person (step S104).

聴覚補完処理部23a内の感情識別部23a3は、マイク21aの出力に含まれる音声の大きさ、高さ及びピッチの変化を検出し、検出した変化により話者の感情を識別する(ステップS105)。   The emotion identifying unit 23a3 in the auditory complement processing unit 23a detects changes in the volume, height, and pitch of the voice included in the output of the microphone 21a, and identifies the speaker's emotion based on the detected changes (step S105). .

聴覚補完処理部23aは、方向識別部23a1により識別した音の到来方向と、個人識別部23a2による話者の識別結果と、感情識別部23a3により識別した話者の感情とを表示部27aに表示制御する(ステップS106)。   The auditory complement processing unit 23a displays the sound arrival direction identified by the direction identification unit 23a1, the speaker identification result by the personal identification unit 23a2, and the speaker emotion identified by the emotion identification unit 23a3 on the display unit 27a. Control is performed (step S106).

フィルタ選択部23a4は、利用者の操作入力、最後に充電に使用したクレイドルのクレイドルID、録音データの再生中であるか否か等によりシーン種別を決定し(ステップS107)、決定したシーン種別に応じたフィルタを選択する(ステップS108)。   The filter selection unit 23a4 determines the scene type based on the user's operation input, the cradle ID of the cradle used for the last charging, whether or not the recorded data is being reproduced (step S107), and the determined scene type is set. A corresponding filter is selected (step S108).

フィルタ選択部23a4により選択されたフィルタは、マイク21aの出力から所定の周波数帯を抽出し強調音データ(音声データ、生活音データ、車両走行音データ、緊急車両音データ等)として出力するフィルタリングを行う(ステップS109)。増幅部23a5は、各フィルタが出力した強調音データを合成して増幅する(ステップS110)。イヤピース出力処理部23cは、合成の結果得られた音データをイヤピース10に送信し(ステップS111)、処理を終了する。   The filter selected by the filter selection unit 23a4 extracts a predetermined frequency band from the output of the microphone 21a and performs filtering to output as emphasized sound data (voice data, life sound data, vehicle running sound data, emergency vehicle sound data, etc.). This is performed (step S109). The amplifying unit 23a5 synthesizes and amplifies the emphasized sound data output from each filter (step S110). The earpiece output processing unit 23c transmits the sound data obtained as a result of the synthesis to the earpiece 10 (step S111), and ends the process.

上述してきたように、本実施例1に係る聴覚補完システムは、コアユニット20のマイク21a及びマイク21bで集音した音データから音の到来方向や話者の感情等を聴覚補完情報として抽出し、表示部27aに表示制御することにより、利用者の聴覚を視覚によって効率的に補完し、もって利用者に対して快適な生活環境を提供することができる。   As described above, the auditory complementation system according to the first embodiment extracts the direction of sound arrival and the emotion of the speaker from the sound data collected by the microphone 21a and the microphone 21b of the core unit 20 as auditory supplement information. By controlling the display on the display unit 27a, it is possible to efficiently complement the user's hearing visually and provide a comfortable living environment for the user.

また、生活音等についても対応する周波数帯の音データを抽出して増幅し、イヤピース10から出力することができるので、利用者は音声以外の音データについても聞き取ることが可能となり、もって利用者に対して快適な生活環境を提供することができる。   In addition, since sound data in the corresponding frequency band can be extracted and amplified for living sounds, etc., and can be output from the earpiece 10, the user can also listen to sound data other than voice, so the user Can provide a comfortable living environment.

また、聴覚補完システムが利用される際の周辺状況を判定し、周辺状況に応じた周波数帯の音データを抽出して増幅し、イヤピース10から出力することができるので、利用者は状況に応じて種々の音を聞き取ることが可能となる。   In addition, it is possible to determine the surrounding situation when the hearing complementation system is used, extract and amplify sound data in a frequency band corresponding to the surrounding situation, and output it from the earpiece 10, so that the user can respond to the situation. Various sounds can be heard.

また、コアユニット20はクレイドルにより無線充電可能であり、イヤピース10はポッド、クレイドル又はコアユニット20により無線充電可能である。イヤピース10はコアユニット20により無線充電可能であるため、外出先でポッドやクレイドルがない状況であってもイヤピース10の充電が可能である。   The core unit 20 can be wirelessly charged with a cradle, and the earpiece 10 can be wirelessly charged with a pod, cradle, or core unit 20. Since the earpiece 10 can be wirelessly charged by the core unit 20, the earpiece 10 can be charged even in a situation where there is no pod or cradle on the go.

実施例1では、イヤピース10とコアユニット20とを有する聴覚補完システムにおいて聴覚補完を行う構成を示したが、本実施例2ではイヤピース単体で聴覚補完を行う構成について説明する。   In Example 1, although the structure which performs auditory complementation in the auditory complementation system which has the earpiece 10 and the core unit 20 was shown, the structure which performs auditory complementation alone in this Example 2 is demonstrated.

図10は、実施例2に係る聴覚補完装置であるイヤピース110の構成を示すブロック図である。図10に示すように、イヤピース110は、マイク11と、AD変換部12と、制御部113と、電源部15と、DA変換部16と、イヤホン17とを有する。   FIG. 10 is a block diagram illustrating a configuration of an earpiece 110 that is a hearing complement apparatus according to the second embodiment. As illustrated in FIG. 10, the earpiece 110 includes a microphone 11, an AD conversion unit 12, a control unit 113, a power supply unit 15, a DA conversion unit 16, and an earphone 17.

マイク11は、利用者に到来する音データを集音し、アナログ信号として出力する集音手段である。AD変換部12は、マイク11が出力したアナログ信号をデジタル信号に変換し、制御部113に出力する。   The microphone 11 is a sound collecting unit that collects sound data arriving at the user and outputs it as an analog signal. The AD conversion unit 12 converts the analog signal output from the microphone 11 into a digital signal and outputs the digital signal to the control unit 113.

制御部113は、デジタル信号処理を行うDSP(Digital Signal Processor)である。制御部113は、その内部にフィルタ選択部113a、音声フィルタ113b1、生活音フィルタ113b2、車両走行音フィルタ113b3、緊急車両音フィルタ113b4、増幅部113c及び充電管理部113dを有する。   The control unit 113 is a DSP (Digital Signal Processor) that performs digital signal processing. The control unit 113 includes a filter selection unit 113a, a sound filter 113b1, a life sound filter 113b2, a vehicle running sound filter 113b3, an emergency vehicle sound filter 113b4, an amplification unit 113c, and a charge management unit 113d.

音声フィルタ113b1は、マイク11が取得した音データ(AD変換部12の出力)から、音声に対応する周波数帯を抽出して音声データとして出力するフィルタである。生活音フィルタ113b2は、マイク11が取得した音データから、生活音に対応する周波数帯を抽出して生活音データとして出力するフィルタである。車両走行音フィルタ113b3は、マイク11が取得した音データから、車両走行音に対応する周波数帯を抽出して車両走行音データとして出力するフィルタである。緊急車両音フィルタ113b4は、マイク11が取得した音データから、緊急車両のサイレンに対応する周波数帯を抽出して緊急車両音データとして出力するフィルタである。なお、ここでは4種のフィルタを用いる場合を例示したが、任意のフィルタを追加することができる。   The sound filter 113b1 is a filter that extracts a frequency band corresponding to sound from sound data acquired by the microphone 11 (output of the AD conversion unit 12) and outputs it as sound data. The living sound filter 113b2 is a filter that extracts the frequency band corresponding to the living sound from the sound data acquired by the microphone 11 and outputs the extracted frequency band as the living sound data. The vehicle travel sound filter 113b3 is a filter that extracts a frequency band corresponding to the vehicle travel sound from the sound data acquired by the microphone 11 and outputs the frequency band as vehicle travel sound data. The emergency vehicle sound filter 113b4 is a filter that extracts the frequency band corresponding to the siren of the emergency vehicle from the sound data acquired by the microphone 11 and outputs it as emergency vehicle sound data. In addition, although the case where four types of filters were used was illustrated here, arbitrary filters can be added.

充電管理部113dは、イヤピース110の充電を管理する処理部である。充電管理部113dは、イヤピース110の充電量を監視し、必要に応じて利用者に報知する。また、充電管理部113dは、イヤピース110の充電を行った装置を識別し、当該装置を特定する装置IDをフィルタ選択部113aに出力する。   The charge management unit 113d is a processing unit that manages charging of the earpiece 110. The charge management unit 113d monitors the charge amount of the earpiece 110 and notifies the user as necessary. In addition, the charge management unit 113d identifies the device that charged the earpiece 110, and outputs a device ID that identifies the device to the filter selection unit 113a.

フィルタ選択部113aは、イヤピース110の利用状況に応じて各フィルタの使用可否を選択する。利用状況は、利用者の操作入力によっても決定可能であるが、充電管理部113dが出力した装置IDに応じて決定することもできる。   The filter selection unit 113a selects whether or not each filter can be used in accordance with the usage status of the earpiece 110. The usage status can be determined by a user operation input, but can also be determined according to the device ID output by the charge management unit 113d.

フィルタ選択部113aは、決定した利用状況に応じて選択されたフィルタに、マイク11が取得した音データを出力する。各フィルタは、マイク11が取得した音データから所定の周波数帯を抽出し、増幅部113cに出力する。   The filter selection unit 113a outputs the sound data acquired by the microphone 11 to the filter selected according to the determined usage situation. Each filter extracts a predetermined frequency band from the sound data acquired by the microphone 11 and outputs it to the amplifying unit 113c.

増幅部113cは、各フィルタの出力を合成して増幅し、出力音データを生成する。増幅部113cが生成した出力音データは、DA変換部16によりアナログ信号に変換される。イヤホン17は、DA変換部16の出力したアナログ信号により、利用者の耳に音を出力することとなる。   The amplifying unit 113c synthesizes and amplifies the outputs of the filters and generates output sound data. The output sound data generated by the amplification unit 113c is converted into an analog signal by the DA conversion unit 16. The earphone 17 outputs a sound to the user's ear based on the analog signal output from the DA converter 16.

電源部15は、制御部113に電力を供給する電源であり、この電源部15は、実施例1と同様にポッドやクレイドル等により無線充電可能である。   The power supply unit 15 is a power supply that supplies power to the control unit 113, and the power supply unit 15 can be wirelessly charged by a pod, a cradle, or the like as in the first embodiment.

次に、イヤピース110による音データの処理手順について説明する。図11は、イヤピース110による音データの処理手順を示すフローチャートである。イヤピース110は、マイク11の出力をAD変換部12によりデジタル信号に変換して取得する(ステップS201)。   Next, a procedure for processing sound data by the earpiece 110 will be described. FIG. 11 is a flowchart showing a sound data processing procedure by the earpiece 110. The earpiece 110 acquires the output of the microphone 11 by converting the output of the microphone 11 into a digital signal by the AD converter 12 (step S201).

フィルタ選択部113aは、利用者の操作入力、若しくは、最後に充電に使用した装置の装置IDにより利用状況を決定し(ステップS202)、決定した利用状況に応じたフィルタを選択する(ステップS203)。   The filter selection unit 113a determines the usage status based on the user's operation input or the device ID of the device last used for charging (step S202), and selects a filter corresponding to the determined usage status (step S203). .

フィルタ選択部113aにより選択されたフィルタは、マイク11の出力から所定の周波数帯を抽出するフィルタリングを行う(ステップS204)。増幅部113cは、各フィルタのフィルタリング結果を合成して増幅し、出力音データを生成する(ステップS205)。イヤピース110は、合成結果である出力音データをDA変換部16によりアナログ信号に変換し、イヤホン17から出力して(ステップS206)、処理を終了する。   The filter selected by the filter selection unit 113a performs filtering for extracting a predetermined frequency band from the output of the microphone 11 (step S204). The amplification unit 113c synthesizes and amplifies the filtering results of the filters, and generates output sound data (step S205). The earpiece 110 converts the output sound data, which is the synthesis result, into an analog signal by the DA converter 16 and outputs the analog signal from the earphone 17 (step S206), and ends the process.

上述してきたように、本実施例2に係る聴覚補完装置であるイヤピース110は、マイク11で集音した音データから生活音等に対応する周波数帯の音データを抽出して増幅し、イヤホン17から出力するので、利用者は音声以外の音データについても聞き取ることが可能となる。   As described above, the earpiece 110, which is a hearing complementing apparatus according to the second embodiment, extracts and amplifies sound data in a frequency band corresponding to daily life from sound data collected by the microphone 11, and the earphone 17 Therefore, the user can hear sound data other than voice.

また、聴覚補完装置が利用される際の周辺状況を判定し、その状況に応じた周波数帯の音データを抽出して増幅し、イヤホン17から出力することができるので、利用者は状況に応じて種々の音を聞き取ることが可能となる。   In addition, it is possible to determine the surrounding situation when the hearing complementing device is used, extract and amplify sound data of a frequency band corresponding to the situation, and output it from the earphone 17, so that the user can respond according to the situation. Various sounds can be heard.

実施例1では、コアユニット20が自装置で集音した音データから聴覚補完情報を生成する構成を例示したが、イヤピースが集音した音データをコアユニットに送信し、コアユニットはイヤピースから受信した音データから聴覚補完情報を生成するよう構成してもよい。本実施例3では、コアユニットがイヤピースから受信した音データを用いて聴覚補完情報を生成する構成について説明する。   In the first embodiment, the configuration in which the core unit 20 generates the auditory complement information from the sound data collected by the own device is illustrated. However, the sound data collected by the earpiece is transmitted to the core unit, and the core unit receives from the earpiece. Auditory supplement information may be generated from the sound data that has been processed. In the third embodiment, a configuration in which the core unit generates auditory supplement information using sound data received from the earpiece will be described.

図12は、実施例3に係る聴覚補完システムについて説明するための説明図である。図12に示すように、実施例3に係る聴覚補完システムは、イヤピース210Rと、イヤピース210Lと、コアユニット220とを有する。   FIG. 12 is an explanatory diagram for explaining the hearing complementation system according to the third embodiment. As shown in FIG. 12, the hearing complementation system according to the third embodiment includes an earpiece 210 </ b> R, an earpiece 210 </ b> L, and a core unit 220.

イヤピース210Rは、利用者の右耳に装着される装置であり、イヤピース210Lは、利用者の左耳に装着される装置である。イヤピース210R及び210Lは、それぞれマイク及びイヤホンを内蔵しており、マイクにより集音した音データをコアユニット220に送信する。   The earpiece 210R is a device worn on the user's right ear, and the earpiece 210L is a device worn on the user's left ear. Earpieces 210 </ b> R and 210 </ b> L each have a built-in microphone and earphone, and transmit sound data collected by the microphone to core unit 220.

コアユニット220内部の聴覚補完処理部223aは、イヤピース210R及び210Lから受信した音データを用いて聴覚補完情報を生成する点が実施例1に示した聴覚補完処理部23aと異なる。聴覚補完処理部223aは、イヤピース210R及び210Lから受信した音データを用いて音方向データ及び話者感情データを含む聴覚補完情報を生成する。   The auditory complement processing unit 223a in the core unit 220 is different from the auditory complement processing unit 23a shown in the first embodiment in that auditory supplement information is generated using sound data received from the earpieces 210R and 210L. The auditory complement processing unit 223a generates auditory supplement information including sound direction data and speaker emotion data using the sound data received from the earpieces 210R and 210L.

音方向データ及び話者感情データの生成については実施例1と同様であり、音方向データ及び話者感情データはコアユニット220の表示部27aに表示制御される。なお、音方向データの生成については、イヤピース210Rとイヤピース210Lとがそれぞれ取得した音データにおける音の到来時間の差を算出し、算出した到来時間の差によって音の到来方向を識別することとなる。   The generation of the sound direction data and the speaker emotion data is the same as in the first embodiment, and the sound direction data and the speaker emotion data are displayed on the display unit 27 a of the core unit 220. Regarding the generation of sound direction data, the difference in sound arrival time in the sound data acquired by the earpiece 210R and the earpiece 210L is calculated, and the sound arrival direction is identified by the calculated difference in arrival time. .

このように、コアユニット220は、実施例1と同様に、音方向データ及び話者感情データ等を生成し、表示部27aに表示制御することができる。また、図示を省略したが、コアユニット220は、実施例1と同様に、生活音データ等の強調音データを生成してイヤピース210R及び210Lに送信することができ、イヤピース210R及び210Lは生活音データ等の強調音データをイヤホンから出力することができる。   As described above, the core unit 220 can generate sound direction data, speaker emotion data, and the like and control the display on the display unit 27a as in the first embodiment. Although not shown, the core unit 220 can generate emphasized sound data such as life sound data and transmit it to the earpieces 210R and 210L as in the first embodiment. The earpieces 210R and 210L Emphasized sound data such as data can be output from the earphone.

次に、図12に示したイヤピース210Rの内部構成について説明する。図13は、図12に示したイヤピース210Rの内部構成を示すブロック図である。図13に示すように、イヤピース210Rは、マイク11、AD変換部12、制御部213、無線通信部214、電源部15、DA変換部16及びイヤホン17を有する。   Next, the internal configuration of the earpiece 210R shown in FIG. 12 will be described. 13 is a block diagram showing an internal configuration of the earpiece 210R shown in FIG. As illustrated in FIG. 13, the earpiece 210 </ b> R includes a microphone 11, an AD conversion unit 12, a control unit 213, a wireless communication unit 214, a power supply unit 15, a DA conversion unit 16, and an earphone 17.

制御部213は、マイク11により集音され、AD変換部12によりデジタル信号に変換された音データを音声抽出部13aに出力するとともに、無線通信部214に出力する。無線通信部214は、制御部213が出力した音データをコアユニット220に送信するとともに、コアユニット220から生活音データ等の音データを受信して制御部213に出力する。   The control unit 213 outputs the sound data collected by the microphone 11 and converted into a digital signal by the AD conversion unit 12 to the voice extraction unit 13 a and also to the wireless communication unit 214. The wireless communication unit 214 transmits the sound data output from the control unit 213 to the core unit 220, receives sound data such as life sound data from the core unit 220, and outputs the sound data to the control unit 213.

その他の構成及び動作については実施例1に示したイヤピース10と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。また、イヤピース210Lの内部構成も図12に示したイヤピース210Rと同様であるので説明を省略する。   Since other configurations and operations are the same as those of the earpiece 10 shown in the first embodiment, the same components are denoted by the same reference numerals, and description thereof is omitted. Further, the internal configuration of the earpiece 210L is the same as that of the earpiece 210R shown in FIG.

次に、図12に示したコアユニット220の内部構成について説明する。図14は、図12に示したコアユニット220の内部構成を示すブロック図である。図14に示すように、コアユニット220は、制御部223、無線通信部224、電源部25、記憶部26及びタッチパネルディスプレイ27を有する。   Next, the internal configuration of the core unit 220 shown in FIG. 12 will be described. FIG. 14 is a block diagram showing an internal configuration of the core unit 220 shown in FIG. As illustrated in FIG. 14, the core unit 220 includes a control unit 223, a wireless communication unit 224, a power supply unit 25, a storage unit 26, and a touch panel display 27.

無線通信部224は、イヤピース210R及び210Lや外部の装置と無線通信を行う通信ユニットである。無線通信部224は、イヤピース210R及び210Lから受信した音データを制御部223に出力するとともに、制御部223が出力した音データをイヤピース210R及び210Lに送信する。   The wireless communication unit 224 is a communication unit that performs wireless communication with the earpieces 210R and 210L and an external device. The wireless communication unit 224 outputs the sound data received from the earpieces 210R and 210L to the control unit 223, and transmits the sound data output from the control unit 223 to the earpieces 210R and 210L.

制御部223は、その内部に聴覚補完処理部223aと、イヤピース出力処理部23cと、録音管理部23dと、充電管理部23eと、通信管理部23fとを有する。聴覚補完処理部223aは、イヤピース210R及び210Lにより集音された音データから利用者の聴覚を補完する聴覚補完情報を生成する点が実施例1と異なる。その他の構成及び動作については実施例1に示したコアユニット20と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。   The control unit 223 includes an auditory complement processing unit 223a, an earpiece output processing unit 23c, a recording management unit 23d, a charge management unit 23e, and a communication management unit 23f. The auditory complementation processing unit 223a is different from the first embodiment in that the auditory complementation processing unit 223a generates auditory complementation information that complements the user's hearing from the sound data collected by the earpieces 210R and 210L. Since other configurations and operations are the same as those of the core unit 20 shown in the first embodiment, the same components are denoted by the same reference numerals, and description thereof is omitted.

上述してきたように、本実施例3に係る聴覚補完システムは、イヤピース210R及び210Lで集音した音データから音の到来方向や話者の感情等を聴覚補完情報として抽出し、表示部27aに表示制御することにより、利用者の聴覚を視覚によって効率的に補完し、もって利用者に対して快適な生活環境を提供することができる。   As described above, the auditory complementation system according to the third embodiment extracts the arrival direction of the sound, the emotion of the speaker, and the like from the sound data collected by the earpieces 210R and 210L as auditory supplement information, and displays it on the display unit 27a. By controlling the display, the user's hearing can be efficiently supplemented visually, and a comfortable living environment can be provided to the user.

また、生活音等についても対応する周波数帯の音データを抽出して増幅し、イヤピース210R及び210Lから出力することができるので、利用者は音声以外の音データについても聞き取ることが可能となり、もって利用者に対して快適な生活環境を提供することができる。   In addition, since the sound data of the corresponding frequency band can be extracted and amplified for living sounds, etc., and output from the earpieces 210R and 210L, the user can also hear sound data other than voice, A comfortable living environment can be provided to the user.

また、聴覚補完システムが利用される際の周辺状況を判定し、周辺状況に応じた周波数帯の音データを抽出して増幅し、イヤピース210R及び210Lから出力することができるので、利用者は状況に応じて種々の音を聞き取ることが可能となる。   Moreover, since the surrounding situation when the hearing complementation system is used can be determined, sound data in a frequency band corresponding to the surrounding situation can be extracted and amplified, and output from the earpieces 210R and 210L, the user can It is possible to hear various sounds according to the sound.

なお、上記実施例1、2及び3に示した構成及び動作は、本発明を限定するものではなく、適宜変更して実施する事ができる。例えば、上記実施例1及び3では、イヤピースとコアユニットとが無線通信する構成を例示したが、イヤピースとコアユニットとを有線接続して通信するよう構成してもよい。   In addition, the structure and operation | movement shown to the said Examples 1, 2, and 3 do not limit this invention, It can implement by changing suitably. For example, in the first and third embodiments, the configuration in which the earpiece and the core unit communicate wirelessly is illustrated, but the earpiece and the core unit may be configured to communicate by wired connection.

また、上記実施例1及び3では、音の到来方向や話者感情を表示により報知する構成を例示したが、これらをイヤピースからの音出力により報知することもできる。音の到来方向を音により報知する場合には、左右のイヤピースのいずれかから信号音を出力すればよい。また、話者感情を音により報知する場合には、話者感情が平静であると識別したならば音声をそのまま出力し、話者感情が興奮状態や沈静状態にあると識別したならば識別結果に合わせた信号音を音声に重畳して出力すればよい。このように音の到来方向や話者感情の音出力による報知は、実施例2に示したように表示部を持たない構成でも利用することができる。   Moreover, in the said Example 1 and 3, although the structure which alert | reports the arrival direction of a sound and a speaker emotion by display was illustrated, these can also be alert | reported by the sound output from an earpiece. When the direction of sound arrival is notified by sound, a signal sound may be output from either the left or right earpiece. Also, when the speaker emotion is notified by sound, if the speaker emotion is identified as calm, the speech is output as it is, and if the speaker emotion is identified as being in an excited state or a calm state, the identification result It is only necessary to superimpose the signal sound matched to the sound and output it. As described above, the notification based on the sound arrival direction and the sound output of the speaker emotion can be used even in a configuration having no display unit as shown in the second embodiment.

また、上記実施例1及び3では、イヤピースにマイクや音声抽出部等を設け、イヤピース単体でも補聴器として利用可能となるよう構成した場合を例示したが、イヤピースが音出力のみを行う構成としてもよい。この場合には、コアユニットの音声フィルタを常にオン状態とし、イヤピースはコアユニットから受信した音データをそのまま出力することとなる。   In the first and third embodiments, the earpiece is provided with a microphone, a voice extraction unit, and the like, and the earpiece alone can be used as a hearing aid. However, the earpiece may be configured to output only sound. . In this case, the sound filter of the core unit is always turned on, and the earpiece outputs the sound data received from the core unit as it is.

以上のように、本発明に係る聴覚補完システム、聴覚補完装置及び聴覚補完方法は、利用者の聴覚を効率的に補完し、もって利用者に対して快適な生活環境を提供することに適している。   As described above, the auditory complementation system, auditory complementation apparatus, and auditory complementation method according to the present invention are suitable for efficiently supplementing the user's hearing and providing a comfortable living environment for the user. Yes.

10、110、210R、210L イヤピース
11、21a、21b マイク
12、22a、22b AD変換部
13、23、113、213 制御部
13a 音声抽出部
13b 出力合成部
14、24、214、224 無線通信部
15、25 電源部
16 DA変換部
17 イヤホン
20、220 コアユニット
23a、223a 聴覚補完処理部
23a1 方向識別部
23a2 個人識別部
23a3 感情識別部
23a4、113a フィルタ選択部
23a5、113c 増幅部
23a6、113b1 音声フィルタ
23a7、113b2 生活音フィルタ
23a8、113b3 車両走行音フィルタ
23a9、113b4 緊急車両音フィルタ
23c イヤピース出力処理部
23d 録音管理部
23e、113d 充電管理部
23f 通信管理部
26 記憶部
27 タッチパネルディスプレイ
27a 表示部
27b 操作部
10, 110, 210R, 210L Earpiece 11, 21a, 21b Microphone 12, 22a, 22b AD conversion unit 13, 23, 113, 213 Control unit 13a Speech extraction unit 13b Output synthesis unit 14, 24, 214, 224 Wireless communication unit 15 , 25 Power supply unit 16 DA conversion unit 17 Earphone 20, 220 Core unit 23a, 223a Auditory supplement processing unit 23a1 Direction identification unit 23a2 Personal identification unit 23a3 Emotion identification unit 23a4, 113a Filter selection unit 23a5, 113c Amplification unit 23a6, 113b1 Audio filter 23a7, 113b2 Life sound filter 23a8, 113b3 Vehicle running sound filter 23a9, 113b4 Emergency vehicle sound filter 23c Earpiece output processing unit 23d Recording management unit 23e, 113d Charge management unit 23f Communication management unit 2 Storage unit 27 touch panel display 27a display portion 27b operating unit

Claims (9)

利用者に到来する音データを集音する1又は複数の集音手段と、
前記集音手段により集音された音データから音声を抽出する音声抽出手段と、
前記集音手段により集音された音データから前記利用者の聴覚を補完するために用いられ、少なくとも生活音データを含む聴覚補完情報を抽出する聴覚補完情報抽出手段と、
前記聴覚補完情報抽出手段により抽出された聴覚補完情報を所定の表示手段に表示制御する表示制御手段と、
少なくとも前記音声抽出手段により抽出された音声に前記生活音データを重畳した出力音データを前記利用者に出力する音出力手段と
を備えたことを特徴とする聴覚補完システム。
One or more sound collecting means for collecting sound data arriving at the user;
Voice extraction means for extracting voice from the sound data collected by the sound collection means;
From the sound data collected by the sound collecting means is used to complement the hearing of the user, the auditory complementary information extracting means for extracting the aural complementary information including at least living sound data,
Display control means for controlling display of the auditory complement information extracted by the auditory supplement information extracting means on a predetermined display means ;
A hearing complementing system comprising: sound output means for outputting to the user output sound data in which the life sound data is superimposed on the sound extracted by the sound extraction means.
前記聴覚補完情報抽出手段は、前記集音手段により集音された音データから所定の周波数帯の音を前記聴覚補完情報として抽出することを特徴とする請求項1に記載の聴覚補完システム。 The aural complementary information extracting means, auditory completion system of claim 1 the sound of a predetermined frequency band from the sound data collected by the said sound collecting means, wherein the benzalkonium be extracted as the aural complementary information . 前記利用者の周辺状況を判定する状況判定手段をさらに備え、
前記聴覚補完情報抽出手段は、前記集音手段により集音された音データから前記周辺状況に対応した周波数帯の音を前記聴覚補完情報として抽出することを特徴とする請求項2に記載の聴覚補完システム。
A situation determination means for determining a surrounding situation of the user;
The aural complementary information extracting means, wherein the sound in a frequency band corresponding to the peripheral status from the sound data collected by the said sound collecting means to claim 2, wherein the benzalkonium be extracted as the aural complementary information Auditory complementation system.
前記聴覚補完情報抽出手段は、前記集音手段により集音された音データに含まれる音の到来方向を前記聴覚補完情報として抽出し、
前記表示制御手段は、前記音データに含まれる音の到来方向を前記表示手段に表示制御する
ことを特徴とする請求項1、2又は3に記載の聴覚補完システム。
The auditory supplement information extracting means extracts the arrival direction of the sound included in the sound data collected by the sound collecting means as the auditory supplement information,
The auditory complementation system according to claim 1, 2 or 3, wherein the display control means controls the display means to display the direction of arrival of sound included in the sound data.
前記集音手段を複数備え、
前記聴覚補完情報抽出手段は、前記複数の集音手段により集音された複数の音データにおける音の到来時間の差に応じて到来方向を判定する
ことを特徴とする請求項4に記載の聴覚補完システム。
A plurality of the sound collecting means;
5. The auditory sense according to claim 4, wherein the auditory complement information extracting unit determines an arrival direction according to a difference in arrival times of sounds in a plurality of sound data collected by the plurality of sound collecting units. Complementary system.
前記聴覚補完情報抽出手段は、前記集音手段により集音された音データに含まれる音声から話者の感情を前記聴覚補完情報として抽出し、
前記表示制御手段は、前記話者の感情を前記表示手段に表示制御する
ことを特徴とする請求項1〜5のいずれか一つに記載の聴覚補完システム。
The auditory supplement information extracting means extracts a speaker's emotion from the voice included in the sound data collected by the sound collecting means as the auditory supplement information,
The auditory complementation system according to any one of claims 1 to 5, wherein the display control unit controls display of the speaker's emotion on the display unit .
前記聴覚補完情報抽出手段は、前記集音手段により集音された音データに含まれる音声の大きさ、高さ及び/又はピッチの変化を検出し、検出した変化により推定される話者の感情を前記聴覚補完情報として抽出する
ことを特徴とする請求項6に記載の聴覚補完システム。
The auditory complementation information extraction means detects a change in the size, height and / or pitch of the speech included in the sound data collected by the sound collection means, and the speaker's emotion estimated by the detected change Is extracted as the auditory supplement information. The auditory complement system according to claim 6.
利用者の耳に装着される聴覚補完装置であって、
前記利用者に到来する音データを集音する1又は複数の集音手段と、
前記集音手段により集音された音データから音声を抽出する音声抽出手段と、
前記集音手段により集音された音データから前記利用者の聴覚を補完するために用いられ、少なくとも生活音データを含む聴覚補完情報を抽出する聴覚補完情報抽出手段と、
前記聴覚補完情報抽出手段により抽出された聴覚補完情報を所定の表示手段に表示制御する表示制御手段と、
少なくとも前記音声抽出手段により抽出された音声に前記生活音データを重畳した出力音データを前記利用者に出力する音出力手段と
を備えたことを特徴とする聴覚補完装置。
A hearing complement device worn on a user's ear,
One or more sound collecting means for collecting sound data arriving at the user;
Voice extraction means for extracting voice from the sound data collected by the sound collection means;
From the sound data collected by the sound collecting means is used to complement the hearing of the user, the auditory complementary information extracting means for extracting the aural complementary information including at least living sound data,
Display control means for controlling display of the auditory complement information extracted by the auditory supplement information extracting means on a predetermined display means ;
A hearing complementing device comprising: sound output means for outputting, to the user, output sound data obtained by superimposing the life sound data on the sound extracted by the sound extraction means.
利用者に到来する音データを集音する集音ステップと、
前記集音ステップにより集音された音データから音声を抽出する音声抽出ステップと、
前記集音ステップにより集音された音データから前記利用者の聴覚を補完するために用いられ、少なくとも生活音データを含む聴覚補完情報を抽出する聴覚補完情報抽出ステップと、
前記聴覚補完情報抽出ステップにより抽出された聴覚補完情報を所定の表示部に表示制御する表示制御ステップと、
少なくとも前記音声抽出ステップにより抽出された音声に前記生活音データを重畳した出力音データを前記利用者に出力する音出力ステップと
を含んだことを特徴とする聴覚補完方法。
A sound collection step for collecting sound data arriving at the user;
A voice extraction step of extracting voice from the sound data collected by the sound collection step;
From the sound collecting step sound collected by the data, the used to supplement the user's hearing, the hearing complementary information extracting step of extracting the aural complementary information including at least living sound data,
A display control step for controlling display of the auditory supplement information extracted by the auditory supplement information extraction step on a predetermined display unit ;
And a sound output step of outputting to the user output sound data obtained by superimposing the life sound data on the sound extracted by the sound extraction step.
JP2014009196A 2014-01-22 2014-01-22 Hearing complement system, hearing complement device, and hearing complement method Active JP6296646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014009196A JP6296646B2 (en) 2014-01-22 2014-01-22 Hearing complement system, hearing complement device, and hearing complement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014009196A JP6296646B2 (en) 2014-01-22 2014-01-22 Hearing complement system, hearing complement device, and hearing complement method

Publications (2)

Publication Number Publication Date
JP2015139084A JP2015139084A (en) 2015-07-30
JP6296646B2 true JP6296646B2 (en) 2018-03-20

Family

ID=53769825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014009196A Active JP6296646B2 (en) 2014-01-22 2014-01-22 Hearing complement system, hearing complement device, and hearing complement method

Country Status (1)

Country Link
JP (1) JP6296646B2 (en)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57159199A (en) * 1981-03-25 1982-10-01 Matsushita Electric Ind Co Ltd Hearing aid device
JPH07325589A (en) * 1994-04-04 1995-12-12 Toyota Motor Corp Active noise removal device
JP2004061932A (en) * 2002-07-30 2004-02-26 World Pioneer:Kk Apparatus and system for annunciation for person having hearing difficulty
JP2007004001A (en) * 2005-06-27 2007-01-11 Tokyo Electric Power Co Inc:The Operator answering ability diagnosing device, operator answering ability diagnosing program, and program storage medium
JP2007334149A (en) * 2006-06-16 2007-12-27 Akira Hata Head mount display apparatus for hearing-impaired persons
WO2009125579A1 (en) * 2008-04-09 2009-10-15 パナソニック株式会社 Hearing aid, hearing aid apparatus, method of hearing aid method, and integrated circuit
JP5154396B2 (en) * 2008-12-25 2013-02-27 リオン株式会社 hearing aid
WO2010084769A1 (en) * 2009-01-22 2010-07-29 パナソニック株式会社 Hearing aid
EP2445230A4 (en) * 2009-06-17 2016-05-18 Panasonic Ip Corp America Hearing aid apparatus
JP2011035684A (en) * 2009-08-03 2011-02-17 Panasonic Corp Hearing aid
JP2012083746A (en) * 2010-09-17 2012-04-26 Kinki Univ Sound processing device
JP5500125B2 (en) * 2010-10-26 2014-05-21 パナソニック株式会社 Hearing aid
JP3179321U (en) * 2012-08-13 2012-10-25 株式会社レーベン販売 Rubbing prevention hearing aid

Also Published As

Publication number Publication date
JP2015139084A (en) 2015-07-30

Similar Documents

Publication Publication Date Title
US20230409276A1 (en) Acoustic Event Detection and Data Storage
EP3081011B1 (en) Name-sensitive listening device
US20150294662A1 (en) Selective Noise-Cancelling Earphone
US10873813B2 (en) Method and apparatus for audio pass-through
US20130343584A1 (en) Hearing assist device with external operational support
WO2011001433A2 (en) A system and a method for providing sound signals
CN109429132A (en) Earphone system
JP2020156107A (en) Voice processor, voice processing method and voice processing program
KR20150018727A (en) Method and apparatus of low power operation of hearing assistance
US11893997B2 (en) Audio signal processing for automatic transcription using ear-wearable device
US10607625B2 (en) Estimating a voice signal heard by a user
JP2009178783A (en) Communication robot and its control method
KR101672455B1 (en) Portable terminal and sound detector each of which communicating using Body Area Network and data control method for the same
US11627398B2 (en) Hearing device for identifying a sequence of movement features, and method of its operation
EP2887698B1 (en) Hearing aid for playing audible advertisement
US11189265B2 (en) Systems and methods for assisting the hearing-impaired using machine learning for ambient sound analysis and alerts
EP2876902A1 (en) Adjustable hearing aid device
JP6296646B2 (en) Hearing complement system, hearing complement device, and hearing complement method
AU2017202620A1 (en) Method for operating a hearing device
US10873816B2 (en) Providing feedback of an own voice loudness of a user of a hearing device
JP2015139083A (en) Auditory sense supplement system and auditory sense supplement method
WO2018105668A1 (en) Acoustic device and acoustic processing method
JP2008042740A (en) Non-audible murmur pickup microphone
WO2024075434A1 (en) Information processing system, device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180219

R150 Certificate of patent or registration of utility model

Ref document number: 6296646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250