JP6598323B1 - 補聴器及びプログラム - Google Patents

補聴器及びプログラム Download PDF

Info

Publication number
JP6598323B1
JP6598323B1 JP2018105935A JP2018105935A JP6598323B1 JP 6598323 B1 JP6598323 B1 JP 6598323B1 JP 2018105935 A JP2018105935 A JP 2018105935A JP 2018105935 A JP2018105935 A JP 2018105935A JP 6598323 B1 JP6598323 B1 JP 6598323B1
Authority
JP
Japan
Prior art keywords
voice
data
hearing aid
speech
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018105935A
Other languages
English (en)
Other versions
JP2019213001A (ja
Inventor
英明 長沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kitasato Institute
Original Assignee
Kitasato Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kitasato Institute filed Critical Kitasato Institute
Priority to JP2018105935A priority Critical patent/JP6598323B1/ja
Application granted granted Critical
Publication of JP6598323B1 publication Critical patent/JP6598323B1/ja
Publication of JP2019213001A publication Critical patent/JP2019213001A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】使用者にとってクリアで聞き取りやすい補聴音声を提供可能な補聴器を提供する。【解決手段】補聴器は、音声サンプリングデータを取得する音声サンプリングデータ取得部と、前記音声サンプリングデータに対する音声認識処理を行ってテキストデータに変換する音声認識処理部と、前記テキストデータに基づく音声合成処理を行って合成音声データを生成する音声合成処理部と、前記合成音声データを再生して出力する再生処理部と、を備える。【選択図】図1

Description

本発明は、補聴器及びプログラムに関する。
マイクで集音した音声を増幅して出力することで使用者(難聴者)を補助する補聴器が知られている。
特許文献1には、実時間で音声加工が可能で、フォルマント強調効果の高く、不自然な残留雑音の少ない音声加工装置を得ること、及び、フォルマント強調と音声信号スペクトルを難聴者の可聴範囲にいれる信号処理とを両方とも効率的に行う補聴器が開示されている。
また、特許文献2には、使用者に応じて音声を変換して出力するための音声出力装置、及び、これを適用した補聴器について記載されている。当該音声出力装置は、受信した音声を、当該使用者が認識できる音声に変換する変換部を有している。変換部は、受信した音声のうちの特定の単語を、使用者が認識できる音声に変換して出力する。
平6−075595号公報 特開2013−127536号公報
現在使用され、又は、市販されている補聴器は、基本的にはマイクで集音された音を使用者に少しでも聞き取りやすい音にするために、主に周波数をもとに変化させること、かつ音量を変化させることがなされている。いずれにしても“マイクで集音された音”を加工して出力している。マイクで集音された音には発話者の声(シグナル)のほかに背景に存在する雑音(ノイズ)が含まれている。このノイズの成分の多くはシグナルと同様の音声であるため、集音した音に如何なる加工を施したとしてもシグナルとノイズとを完全に分離することが困難であった。そのため、使用者にとって真にクリアで聞き取りやすい補聴音声を提供することができなかった。
本発明は、このような課題に鑑みてなされたものであって、使用者にとってクリアで聞き取りやすい補聴音声を提供可能な補聴器及びプログラムを提供する。
本発明の第1の態様によれば、補聴器は、音声サンプリングデータを取得する音声サンプリングデータ取得部と、前記音声サンプリングデータに対する音声認識処理を行ってテキストデータに変換する音声認識処理部と、前記テキストデータに基づく音声合成処理を行って合成音声データを生成する音声合成処理部と、前記合成音声データを再生して出力する再生処理部と、を備える。
また、本発明の第2の態様によれば、上述の補聴器は、前記テキストデータをディスプレイに表示させる表示処理部を更に備える。
また、本発明の第3の態様によれば、上述の補聴器は、使用者の操作に従って、前記合成音声データの音量、再生速度、及び、声種、についての設定の少なくとも何れか一つを変更する設定部を更に備える。
また、本発明の第4の態様によれば、前記音声合成処理部は、事前に登録された発話者の音声に基づいて前記合成音声データを生成する。
また、本発明の第5の態様によれば、前記音声合成処理部は、予め取得しておいた使用者の聴覚機能検査結果に基づいた最適な声種で前記合成音声データを生成する。
また、本発明の第6の態様によれば、プログラムは、補聴器のコンピュータに、音声サンプリングデータを取得するステップと、前記音声サンプリングデータに対する音声認識処理を行ってテキストデータに変換するステップと、前記テキストデータに基づく音声合成処理を行って合成音声データを生成するステップと、前記合成音声データを再生して出力するステップと、を実行させる。
上述の補聴器及びプログラムによれば、使用者にとってクリアで聞き取りやすい補聴音声を提供できる。
第1の実施形態に係る補聴器の全体構成を示す図である。 第1の実施形態に係る補聴器本体の機能構成を示す図である。 第1の実施形態に係るCPUの使用者補助時の処理フローを示す図である。 第1の実施形態に係る素片データテーブルの例を示す図である。 第1の実施形態に係る補聴器本体の設定画面の例を示す図である。 第2の実施形態に係る補聴器本体の機能構成を示す図である。 第2の実施形態に係るCPUの声種登録時の処理フローを示す図である。 第2の実施形態に係る素片データテーブルの例を示す図である。 第2の実施形態に係るCPUの使用者補助時の処理フローを示す図である。 第3の実施形態に係るCPUの声種登録時の処理フローを示す図である。
<第1の実施形態>
以下、第1の実施形態に係る補聴器について、図1〜図5を参照しながら説明する。
(全体構成)
図1は、第1の実施形態に係る補聴器の全体構成を示す図である。
図1を参照しながら、補聴器1全体の構成について詳しく説明する。
図1に示すように、補聴器1は、発話者Tの胸元等に取り付けられるピンマイク10と、補聴器1の補助を受ける使用者L(難聴者)が保持する補聴器本体11と、を有してなる。
ピンマイク10は、内部にA/D変換器を有し、発話者Tによる発話音声を集音してサンプリングする。以下、発話者Tの発話音声をサンプリングして得られた情報を「音声サンプリングデータ」とも記載する。更に、ピンマイク10は、内部に近距離無線通信(例えば、Blue tooth(登録商標)等)用のトランスミッタを具備し、取得した音声サンプリングデータを、近距離無線通信を介して補聴器本体11に送信する。
なお、本実施形態に係るピンマイク10は集音の指向性が高く設定されており、装着した発話者Tより発話される音声が主としてサンプリングされるようになっている。
補聴器本体11は、イヤホン111と、ディスプレイ112とを有している。
補聴器本体11は、ピンマイク10から受信した音声サンプリングデータに基づいて所定の補助音声を生成するとともに、当該補助音声を再生してイヤホン111から出力する。使用者Lは、イヤホン111から出力される補助音声を聞き取ることで、補聴器1からの補助を受ける。
また、補聴器本体11は、音声サンプリングデータに基づくテキストデータをディスプレイ112に表示する。使用者Lは、ディスプレイ112に表示されるテキストデータを視認することで、補聴器1から更なる補助を受ける。
(補聴器本体の機能構成)
図2は、第1の実施形態に係る補聴器本体の機能構成を示す図である。
図2を参照しながら、補聴器1の補聴器本体11の機能構成について詳しく説明する。
図2に示すように、補聴器本体11は、CPU110と、イヤホン111と、ディスプレイ112と、メモリ113と、ストレージ114とを備えている。
CPU110は、補聴器本体11の動作全体の制御を司るプロセッサである。CPU110は、予め用意されたプログラムに従って動作することで後述する種々の機能を発揮する。
イヤホン111は、補聴器1の使用者Lの耳に装着され、使用者Lにとって聞き取りやすい補助音声を出力する。イヤホン111は、一般的なノイズキャンセリング機能を具備するものであってもよい。
ディスプレイ112は、情報を視認可能に表示可能なデバイスであって、例えば、液晶ディスプレイや有機ELディスプレイなどである。また、ディスプレイ112は、いわゆるタッチパネルであって、表示画面における画像情報を表示するとともに、当該表示画面に対する使用者Lのタッチ操作を受け付ける。
メモリ113は、いわゆる主記憶装置であって、CPU110がプログラムに基づいて動作するための命令及びデータが展開される。
ストレージ114は、いわゆる補助記憶装置であって、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等であってよい。なお、ストレージ114には、音声合成処理に必要な素片データテーブルV1が記録されている。素片データテーブルV1については後述する。
近距離無線通信モジュール115は、ピンマイク10との間で情報をやり取りするための通信インタフェースである。
次に、CPU110の具体的な機能について説明する。
CPU110は、予め用意されたプログラムに従って動作することで、音声サンプリングデータ取得部1100、音声認識処理部1101、音声合成処理部1102、再生処理部1103、表示処理部1104及び設定部1105としての機能を発揮する。
音声サンプリングデータ取得部1100は、ピンマイク10及び近距離無線通信モジュール115を通じて、発話者Tの発話音声がサンプリングされて作成された音声サンプリングデータを取得する。
音声認識処理部1101は、音声サンプリングデータ取得部1100によって取得された音声サンプリングデータに対する音声認識処理(Speech to Text)を行ってテキストデータに変換する。
音声合成処理部1102は、音声認識処理部1101によって得られたテキストデータに基づく音声合成処理(Text to Speech)を行って合成音声データを生成する。
再生処理部1103は、音声合成処理部1102によって生成された合成音声データを再生してイヤホン111から出力する。
表示処理部1104は、音声認識処理部1101が生成したテキストデータをディスプレイに表示させる。
設定部1105は、使用者Lの操作に従って、合成音声データの音量、再生速度、及び、声種についての設定を変更する。
(使用者補助時の処理フロー)
図3は、第1の実施形態に係るCPUの使用者補助時の処理フローを示す図である。
図4は、第1の実施形態に係る素片データテーブルの例を示す図である。
図3〜図4を参照しながら、第1の実施形態に係る補聴器1が実行する処理フローについて詳しく説明する。
まず、ピンマイク10は、発話者Tが発話した音声を入力(集音)する(ステップS01)。このとき、ピンマイク10は、内部に具備されたDSPにより、入力された音声をサンプリングして音声サンプリングデータD1を取得する。そして、ピンマイク10は、取得した音声サンプリングデータD1を、補聴器本体11の近距離無線通信モジュール115に向けて送信する。このようにして、補聴器本体11のCPU110(音声サンプリングデータ取得部1100)は、音声サンプリングデータD1を取得する。
次に、CPU110(音声認識処理部1101)は、音声サンプリングデータD1に対する音声認識処理(Speech to Text)を行う(ステップS02)。この音声認識処理の結果、テキストデータD2に変換される。
次に、CPU110(音声合成処理部1102)は、音声認識処理によって生成されたテキストデータD2に基づいて音声合成処理(Text to Speech)を行う(ステップS03)。この合成音声処理においては、CPU110は、波形接続型音声合成処理を行う。すなわち、CPU110は、予め用意された複数の波形データである素片データD3を組み合わせて(接続して)合成音声データD4を生成する。この素片データD3については、図4を参照しながら詳しく説明する。
図4は、ストレージ114に記録された素片データテーブルV1の例を示している。
図4に示すように素片データテーブルV1には、声種(例えば、“アナウンサー(男性)”、“一般(女性)”、“子供(男の子)”、・・)ごとに、発音の音素(“a”、“i”、“u”、・・)の波形データである素片データD3が記録されている。CPU110は、テキストデータD2に示される文字(例えば、“おはよう”)に対応する素片データD3(例えば、音素“o”、“ha”、“yo”をに対応する素片データD3)を素片データテーブルV1から抽出するとともに、これらを接続して合成音声データD4を生成する。
また、図3において、CPU110(表示処理部1104)は、ステップS03の処理と並行して、テキストデータD2のディスプレイ112への表示処理を行う(ステップS04)。
音声合成処理(ステップS03)を通じて合成音声データD4を生成すると、CPU110(再生処理部1103)は、生成された合成音声データD4(補助音声)を再生してイヤホン111から出力する(ステップS05)。
以上で、CPU110の一連の処理が完了する。
(設定画面の例)
図5は、第1の実施形態に係る補聴器本体の設定画面の例を示す図である。
CPU110(設定部1105)は、使用者Lから所定の操作を受け付けると、図5に示す設定画面をディスプレイ112に表示させる。
設定画面には、例えば、再生される音声(合成音声データD4)の声種、再生速度、音量などの設定変更用画像が表示される。使用者Lは、ディスプレイ112をタッチ操作してこれらの設定を変更する。これにより、使用者Lは、本人にとって好みの(聞き取りやすい)、声種、再生速度、音量に所望に変更することができる。
(作用、効果)
以上に説明した構成によれば、第1の実施形態に係る補聴器1は、発話者Tが発声した音声に対し、音声認識処理を施してテキストデータに変換した後、再度、テキストデータに基づく音声合成処理によって音声を再生する。ここで、テキストデータには、発話者Tが発声した言語情報のみが抽出されるものであり、周囲のノイズを含むものではない。このように、一旦テキストデータに変換することで、ノイズが全く含まれない補助音声を提供することができる。また、音声合成処理において、使用者Lの聴覚機能に適合した補助音声を最適な声種、再生速度、音量で提供することができる。
なお、第1の実施形態に係る素片データテーブルV1には、“アナウンサー”、“一般”、“子供”、・・等の声種(素片データ)が事前に登録されているものとして説明した。これらの声種は、特に、当てはまる人間の肉声に基づくものであることが好ましい。例えば、“アナウンサー”に対応する素片データは、実際のアナウンサーの肉声の録音データから作成されることが好ましい。
また、第1の実施形態に係る補聴器1によれば、テキストデータからの合成音声を再生するので、再生させる音声(補助音声)の自由度を高めることができる。例えば、集音した声、音、スピードにとらわれる必要がなく、自由に合成可能である。また、AI技術を搭載することで、会話の状況に応じた、発音の抑揚、きめ細かなスピードの調整(一つの単語の中でもスピードを変化させることなど)、感情の表現なども可能になる。台本を棒読みするのではなく、役者が台詞を言うように、感情をこめて話すことも可能になる。
なお、第1の実施形態に係る補聴器1は、発話者Tと使用者Lとが一対一で会話を行うものとして説明したが、他の実施形態においてはこの態様に限られない。例えば、他の実施形態に係る補聴器1は、複数の発話者Tそれぞれにピンマイク10を装着させるとともに、各ピンマイク10から受信する音声サンプリングデータD1を区別して、声種等を変えて使用者Tに聞かせる態様としてもよい。また、この場合、ディスプレイ112に表示させるテキストも区別できるように表示してもよい。
また、使用者L又は医師等による特定の操作に従って、特定の声種(例えば、アナウンサー(男性)等)につき、その歯切れの声を、より使用者Lにとって聞き取りやすい音声になるように編集、加工することも可能である。
<第2の実施形態>
次に、第2の実施形態に係る補聴器について、図6〜図9を参照しながら説明する。
(補聴器本体の機能構成)
図6は、第2の実施形態に係る補聴器本体の機能構成を示す図である。
図6を参照しながら、第2の実施形態に係る補聴器1の補聴器本体11の機能構成について詳しく説明する。
図6に示すように、第2の実施形態に係るCPU110は、第1の実施形態の各機能に加え、更に、登録部1106としての機能を発揮する。
登録部1106は、特定の発話者Tの音声を再現するための素片データを取得して、ストレージ114の素片データテーブルV2に登録する。
(声種登録時の処理フロー)
図7は、第2の実施形態に係るCPUの声種登録時の処理フローを示す図である。
図8は、第2の実施形態に係る素片データテーブルの例を示す図である。
図7〜図8を参照しながら、第2の実施形態に係る補聴器1が実行する処理フローについて詳しく説明する。
図7に示す処理フローは、新たな素片データの登録(声種登録)を行うための処理フローである。この声種登録処理の処理フローが開始されると、まず、CPU110(登録部1106)は、登録用テキストをディスプレイ112に表示させる(ステップS11)。登録用テキストとは、発話者Tに読み上げさせることで、当該発話者Tの肉声に基づいた素片データを過不足なく取得可能に予め用意されたテキストである。登録用テキストは、“あ”、“い”、・・等の1文字のみからなるテキストであってもよいし、“あした”、“こんにちは”、・・等の単語の文字列であってもよいし、このような単語を組み合わせた文章からなるものであってもよい。
CPU110は、発話者Tに対し、ディスプレイ112に表示した登録用テキストを読み上げるように指示する。
次に、CPU110(登録部1106)は、登録用テキストについて読み上げられた音声を録音(サンプリング)する(ステップS12)。
次に、CPU110(登録部1106)は、録音された音声サンプリングデータを、表示された登録用テキストの内容に基づいて分解し、各音素(“a”、“i”、“u”、・・)に対応する素片データを抽出する(ステップS13)。
次に、CPU110(登録部1106)は、抽出した素片データを素片データテーブルV2に登録する(ステップS14)。
図8は、ステップS11〜ステップS14の処理を経て生成された素片データテーブルV2の例を示している。図8に示すように素片データテーブルV2には、特定の発話者Tを示す発話者IDごとに、発音の音素(“a”、“i”、“u”、・・等)の波形データである素片データD3が記録されている。発話者IDは、例えば、ピンマイク10の個体識別情報等であってよい。
(使用者補助時の処理フロー)
図9は、第1の実施形態に係るCPUの使用者補助時の処理フローを示す図である。
図9に示す処理フローは、第1の実施形態(図3)と比較して、ステップS06の処理を含むことで相違する。以下、ステップS06の処理について詳しく説明する。
発話者Tの音声の入力を受け付けると、CPU110(音声合成処理部1102)は、ピンマイク10から受信した音声サンプリングデータD1に紐付けられた発話者ID(ピンマイク10の個体識別情報)を取得する。そして、CPU110は、取得した発話者IDに対応する素片データD3を素片データテーブルV2から特定する。
CPU110は、ステップS06で特定した素片データD3を組み合わせて音声合成処理(ステップS03)を行う。
このように、CPU110は、例えばピンマイク10に紐づく発話者IDに基づいて、発話者Tの肉声に基づく素片データD3を自動的に特定する。これにより、例えば、複数人の発話者Tが存在する場合であっても、自動的に各発話者Tに対応する声種の補助音声が再生される。
(作用、効果)
以上に説明した構成によれば、第2の実施形態に係る補聴器1は、事前に登録された発話者T自身の音声に基づいて合成音声データを生成する。これにより、使用者Lは、発話者T本人の声と同種の補助音声を聞くことができる。したがって、発話者Tとの会話において、使用者Lにとってより違和感のない補助音声を提供することができる。
なお、第2の実施形態に係る補聴器1は、事前にステップS11〜ステップS17(図7)の声種登録処理を実施するものとして説明したが、他の実施形態においてはこの態様に限定されない。例えば、使用者Lとの実際の会話中に、その場で取得された音声サンプリングデータD1に基づいて、新たな発話者を登録しながら声種に加える機能を有していてもよい。これにより、新たな(初見の)発話者の音声を登録しながら、その音声を補助音声に組み入れることができる。
また、使用者L又は医師等による特定の操作に従って、ステップS11〜ステップS17を経て登録された声種につき、その歯切れの声を、より使用者Lにとって聞き取りやすい音声になるように編集、加工することも可能である。
<第3の実施形態>
次に、第3の実施形態に係る補聴器について、図10を参照しながら説明する。
(声種登録時の処理フロー)
図10は、第3の実施形態に係るCPUの声種登録時の処理フローを示す図である。
第3の実施形態に係る補聴器1の機能構成は、第2の実施形態(図6)と同様であるため、詳細な説明を省略する。
第3の実施形態に係る補聴器1のCPU110(登録部1106)は、図10に示す処理フローを実行して、新たな素片データを素片データテーブルに登録する。
図10に示すように、CPU110は、まず、使用者Lの聴覚機能検査結果を取得する(ステップS20)。聴覚機能検査結果とは、医師による使用者Lの聴覚の診断結果であって、例えば、音の周波数帯域ごとにその音を聞き取れる最小レベル(dB)等が示される(純音聴力検査)。なお、純音聴力検査以外の聴覚機能検査結果も含まれても良い。例えば、・・・。
次に、CPU110は、種々の聴覚機能検査結果に基づいて、最も聞き取りやすい周波数を取り入れた素片データを生成する(ステップS21)。このとき、CPU110は、例えば、第1の実施形態の素片データテーブルV1、又は、第2の実施形態の素片データテーブルV2にて事前に登録されている素片データを、種々の聴覚機能検査結果に基づく適切な周波数に変換(加工)することで、新たな素片データを生成してもよい。
次に、CPU110は、ステップS21で生成した素片データを素片データテーブルV2に登録する。
(作用、効果)
以上に説明した構成によれば、第3の実施形態に係る補聴器1は、種々の聴覚機能検査の結果に基づく最適な(使用者が最も聞き取りやすい)補助音声を提供することができる。
<その他の実施形態>
以上、第1〜第3の実施形態に係る補聴器1について詳細に説明したが、補聴器1の具体的な態様は、上述のものに限定されることはなく、要旨を逸脱しない範囲内において種々の設計変更等を加えることは可能である。
たとえば、第1〜第3の実施形態に係る補聴器1は、発話者Tにピンマイク10が取り付けられる態様として説明したが、他の実施形態においてはこの態様に限定されない。他の実施形態に係る補聴器1は、補聴器本体11に集音センサ(マイク)が具備される態様であってもよい。
また、第1〜第3の実施形態に係る補聴器1は、テキストデータに基づいて、予め登録された素片データを繋ぎ合わせて合成音声データを生成する波形接続型音声合成処理を行うものとして説明したが、他の実施形態においてはこの態様に限定されない。
他の実施形態に係る補聴器1は、基底周波数、音色、雑音レベルなどのパラメータを調整して波形を作り、人工的な音声を作るフォルマント合成処理を行うものであってもよい。
また、第1〜第3の実施形態に係る補聴器1は、いずれも、テキストデータをディスプレイ112に表示させるものとして説明したが他の実施形態においてはこの態様に限定されない。ディスプレイ112へのテキストデータの表示はあくまで補助的な機能であって、他の実施形態に係る補聴器1は具備していなくともよい。
また、補聴器1のCPU110が実行する音声認識処理、音声合成処理においては、人工知能(AI)を適用して各変換精度を向上させる機能を有していてもよい。
特に、第2の実施形態に係る補聴器1の場合、例えば、以下のような機能を有していてもよい。即ち、CPU110は、発話者Tが発声した音声の内容と、音声認識処理(ステップS02)を経て取得したテキストデータの内容とが一致していたかどうかの判定入力を受け付ける。両者が一致していた場合、CPU110は、発話者Tの肉声が記録された音声サンプリングデータを、音声認識処理後のテキストデータに基づいて音素に分解し、素片データを抽出する。このようにすることで、発話者Tによって発声がなされる度に、音声合成処理(ステップS03)にて生成される合成音声を発話者T本人の肉声に近づけることができる。
上述の各実施形態において、上述したCPU110の各種処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。また、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
上記プログラムは、上述した機能の一部を実現するためのものであってもよい。更に、上述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上のとおり、本発明に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態及びその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 補聴器
10 ピンマイク
11 補聴器本体
110 CPU
1100 音声サンプリングデータ取得部
1101 音声認識処理部
1102 音声合成処理部
1103 再生処理部
1104 表示処理部
1105 設定部
1106 登録部
111 イヤホン
112 ディスプレイ
113 メモリ
114 ストレージ
115 近距離無線通信モジュール
T 発話者
L 使用者

Claims (6)

  1. 音声サンプリングデータを取得する音声サンプリングデータ取得部と、
    前記音声サンプリングデータに対する音声認識処理を行ってテキストデータに変換する音声認識処理部と、
    前記テキストデータに基づく音声合成処理を行って合成音声データを生成する音声合成処理部と、
    前記合成音声データを再生して出力する再生処理部と、
    を備え、
    前記音声合成処理部は、
    発話者を識別する識別情報を取得し、事前に登録された複数の発話者の音声のうち当該識別情報に対応する発話者の音声を用いて生成した前記合成音声データを再生し、
    前記識別情報は、前記音声サンプリングデータの送信元であるマイクの個体識別情報である
    補聴器。
  2. 前記テキストデータをディスプレイに表示させる表示処理部を更に備える
    請求項1に記載の補聴器。
  3. 使用者の操作に従って、前記合成音声データの音量、再生速度、及び、声種についての設定の少なくとも何れか一つを変更する設定部を更に備える
    請求項1又は請求項2に記載の補聴器。
  4. 前記音声合成処理部は、予め取得しておいた使用者の聴覚機能検査結果に基づいた最適な声種で前記合成音声データを生成する
    請求項1から請求項3の何れか一項に記載の補聴器。
  5. 予め用意された登録用テキストに従って読み上げられた音声を、前記識別情報と対応付けて登録する登録部をさらに備える
    請求項1から請求項4のいずれか一項に記載の補聴器。
  6. 補聴器のコンピュータに、
    音声サンプリングデータを取得するステップと、
    前記音声サンプリングデータに対する音声認識処理を行ってテキストデータに変換するステップと、
    前記テキストデータに基づく音声合成処理を行って合成音声データを生成するステップと、
    前記合成音声データを再生して出力するステップと、
    を実行させ、
    前記合成音声データを再生して出力するステップでは、更に、
    発話者を識別する識別情報を取得し、事前に登録された複数の発話者の音声のうち当該識別情報に対応する発話者の音声を用いて生成した前記合成音声データを再生し、
    前記識別情報は、前記音声サンプリングデータの送信元であるマイクの個体識別情報である
    プログラム。
JP2018105935A 2018-06-01 2018-06-01 補聴器及びプログラム Active JP6598323B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018105935A JP6598323B1 (ja) 2018-06-01 2018-06-01 補聴器及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018105935A JP6598323B1 (ja) 2018-06-01 2018-06-01 補聴器及びプログラム

Publications (2)

Publication Number Publication Date
JP6598323B1 true JP6598323B1 (ja) 2019-10-30
JP2019213001A JP2019213001A (ja) 2019-12-12

Family

ID=68383251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018105935A Active JP6598323B1 (ja) 2018-06-01 2018-06-01 補聴器及びプログラム

Country Status (1)

Country Link
JP (1) JP6598323B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6807491B1 (ja) * 2020-02-07 2021-01-06 株式会社テクノリンク 補聴器用合成音声セットの修正方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013895A (ja) * 1998-06-23 2000-01-14 Matsushita Electric Ind Co Ltd 外部雑音に対応した補聴器
JP3670180B2 (ja) * 1999-02-16 2005-07-13 有限会社ジーエムアンドエム 補聴器
JP2003195939A (ja) * 2001-12-26 2003-07-11 Toshiba Corp プラント監視制御システム
JP4755813B2 (ja) * 2003-11-14 2011-08-24 日立公共システムエンジニアリング株式会社 クライアント端末
JP4867804B2 (ja) * 2007-06-12 2012-02-01 ヤマハ株式会社 音声認識装置及び会議システム
JP2013007879A (ja) * 2011-06-24 2013-01-10 Panasonic Corp 車載電子装置
US20170243582A1 (en) * 2016-02-19 2017-08-24 Microsoft Technology Licensing, Llc Hearing assistance with automated speech transcription
JP6599828B2 (ja) * 2016-08-29 2019-10-30 株式会社テクノリンク 音処理方法、音処理装置、及びプログラム

Also Published As

Publication number Publication date
JP2019213001A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
CN1679371B (zh) 传声器和通信接口系统
Rosenblum et al. Lip-read me now, hear me better later
US7676372B1 (en) Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
US8781836B2 (en) Hearing assistance system for providing consistent human speech
JP6673828B2 (ja) 自閉症における言語処理向上のための装置
KR20110090066A (ko) 청력을 검사하는 휴대용 음원재생장치 및 이를 수행하는 방법
US20170076738A1 (en) Natural ear
Cohen et al. The effect of visual distraction on auditory-visual speech perception by younger and older listeners
JP2009178783A (ja) コミュニケーションロボット及びその制御方法
US11589173B2 (en) Hearing aid comprising a record and replay function
JP6598323B1 (ja) 補聴器及びプログラム
JP2000152394A (ja) 軽度難聴者用補聴装置、軽度難聴者対応伝送システム、軽度難聴者対応記録再生装置、及び軽度難聴者対応再生装置
Calandruccio et al. The effectiveness of clear speech as a masker
JP7218143B2 (ja) 再生システムおよびプログラム
WO2020079918A1 (ja) 情報処理装置及び情報処理方法
JPS5879400A (ja) 補聴器
KR102350890B1 (ko) 휴대용 청력검사장치
Jeyalakshmi et al. Development of Speech Recognition System for Hearing Impaired in Native language
JP7432879B2 (ja) 発話トレーニングシステム
TWI824424B (zh) 語意評估之助聽調整裝置及其方法
JP5052107B2 (ja) 音声再現装置及び音声再現方法
WO2024024122A1 (ja) 音声処理方法、プログラム、及び音声処理システム
Jeyalakshmi et al. Development of speech recognition system in native language for hearing impaired
JPS6367400B2 (ja)
JP2002108378A (ja) 文書読み上げ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190125

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190125

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190927

R150 Certificate of patent or registration of utility model

Ref document number: 6598323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250