JP2015007683A - 音声処理器具、音声処理方法 - Google Patents

音声処理器具、音声処理方法 Download PDF

Info

Publication number
JP2015007683A
JP2015007683A JP2013132343A JP2013132343A JP2015007683A JP 2015007683 A JP2015007683 A JP 2015007683A JP 2013132343 A JP2013132343 A JP 2013132343A JP 2013132343 A JP2013132343 A JP 2013132343A JP 2015007683 A JP2015007683 A JP 2015007683A
Authority
JP
Japan
Prior art keywords
signal
character string
predetermined
hearing aid
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013132343A
Other languages
English (en)
Inventor
貴文 甲斐
Takafumi Kai
貴文 甲斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013132343A priority Critical patent/JP2015007683A/ja
Publication of JP2015007683A publication Critical patent/JP2015007683A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】話し手が一定の話速、且つ連続的に話すときでも、補聴器のユーザ(聞き手)の理解度を向上させる。ここでの「連続的に話す」とは、例えば「じゅういちねんかんかんがえているからからかわれそうです」のように、話し手が、話の一部に五十音(例えば、「かん」や「から」)を繰り返し、息継ぎすることなく話すことを意味する。【解決手段】音声処理器具は、入力された音声信号を発音上の単位毎に分け、分けた前記音声信号各々に所定の処理をして出力する。【選択図】 図9

Description

本発明は、音声処理器具、音声処理方法に関し、特に、聞き手の理解度を向上させる為に音声処理を行う音声処理器具、音声処理方法に関する。
一般的に、音声処理を行い、聞き手の理解度を向上させる補聴器が知られている。音声処理を行う補聴器としては、以下の特許文献1が開示されている。
特許文献1の補聴器は、話し手の発した声が音声信号として入力される。特許文献1の補聴器は、音声信号が入力されると、最初の母音の長さを測定する。例えば、「おはよう」という音声信号が入力された場合には、最初の母音「お」の長さを測定する。次に、特許文献1の補聴器は、測定した母音の長さに基づいて、入力された音声信号の話速を検出し、入力された音声信号の話速を所定の目標話速に変換するための変換比率を算出する。特許文献1の補聴器は、先頭の音節の母音「お」後の音声信号「はよう」の話速を、算出した変換比率で変換して出力する。
上述の構成や動作の通り、特許文献1の補聴器は、入力された音声信号の話速を所定の目標話速となるように変換することができ、聞き手の理解度を向上させる。
特開平10−70790号公報
しかし、特許文献1の補聴器は、話し手が一定の音調で連続的に話すときには、補聴器のユーザ(聞き手)の理解度を向上させることができないという課題があった。ここでの「連続的に話す」とは、例えば「じゅういちねんかんかんがえているからからかわれそうです」のように、話し手が、話の一部に五十音(例えば、「かん」や「から」)を繰り返し、息継ぎすることなく話すことを意味する。
上述の課題が生じる理由としては、話し手が一定の音調で連続的に話す場合であっても特許文献1の補聴器は、話し手が発した音を所定の速度に変換するだけであり、変換された音を聞いた聞き手は、どこまでが意味のある音なのか、切れ目が分からないからである。その結果、聞き手は、話し手の話す内容を理解できず、理解度を向上させることができなかった。なお、上述の例の場合、話し手は、「11年間、考えているから揶揄われそうです」と話したつもりである。
本発明は、上記課題を解決する音声処理器具、音声処理方法を提供することを目的とする。
上記目的を達成するために、本発明の音声処理器具は、入力された音声信号を発音上の単位毎に分け、分けた前記音声信号各々に所定の処理をして出力する。
上記目的を達成するために、本発明の音声処理方法は、入力された音声信号を発音上の単位毎に分け、分けた前記音声信号各々に所定の処理をして出力する。
本発明によれば、音声処理器具は、話し手が一定の音調で連続的に話す場合であっても、音声処理器具のユーザ(聞き手)に話し手が話した内容を理解させることができ、音声処理器具のユーザ(聞き手)の理解度を向上させることができる。
本発明の第1の実施の形態における補聴器の構成例を示す図である。 本発明の第1の実施の形態における補聴器の動作を説明する為の図である。 本発明の第1の実施の形態における補聴器が、入力された音声信号を信号処理した一例を示した図である。 本発明の第1の実施の形態における補聴器に周囲の音を遮断する構成を付加した図(その1)である。 本発明の第1の実施の形態における補聴器に周囲の音を遮断する構成を付加した図(その2)である。 本発明の第1の実施の形態における補聴器に音声信号を出力する時間を調整する為の構成を付加した図である。 本発明の第2の実施の形態における補聴器の構成例を示す図である。 本発明の第2の実施の形態における補聴器の動作を説明する為の図である。 本発明の第3の実施の形態における音声処理器具に入出力される信号を説明する為の図である。
次に本発明の実施形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
本発明の第1の実施の形態における補聴器は、意味のある音を聞き手が認識できるよう、入力された音声信号を文節毎に分け、分けた音声信号を所定の時間、間をおいて出力する。例えば、「じゅういちねんかんかんがえているからからかわれそうです」と音声が入力された場合、本実施形態の補聴器は、「じゅういちねんかん(11年間)」「かんがえているから(考えているから)」「からかわれそうです」と文節毎に分ける。まず、以下に、本発明の第1の実施の形態における補聴器の構成や機能、動作について説明する。
[構成の説明]
まず、本発明の第1の実施の形態における補聴器の構成と機能について説明する。
(1)本発明の第1の実施の形態における補聴器の構成
図1は、本発明の第1の実施の形態における補聴器の構成例を示す図である。図1に示されるように、本実施形態の補聴器1は、マイク10と、A/D変換部11と、記憶部12と、信号処理部13と、データベース14と、D/A変換部15と、アンプ16と、スピーカー17を備える。
A/D変換部11は、マイク10と記憶部12に接続される。また、信号処理部13は、記憶部12、データベース14、およびD/A変換部15に接続される。アンプ16は、D/A変換部15とスピーカー17に接続される。
(2)本発明の第1の実施形態における補聴器を構成する各部位の機能
マイク10は、一般的なマイクである。マイク10は、入力された音声を音声信号に変換して出力する。音声信号は、アナログ信号である。
A/D変換部11は、入力された音声信号等のアナログ信号をデジタル信号に変換して出力する。
記憶部12は、入力されたデジタル信号を、入力された順に自身に備わるメモリに記憶する。記憶部12は、所定のタイミングになると、記憶するデジタル信号のうち、信号レベルが所定値以上となったデジタル信号(以下、「信号A」という)と、その後、所定値以下になったデジタル信号(以下、「信号B」という)を求める。記憶部12は、記憶しているデジタル信号に中から、信号Aを記憶してから信号Bを記憶するまでの間に記憶されたデジタル信号を、話し手から発せられた音声に対応するデジタル信号と判別して、信号処理部13に出力する。所定のタイミングは、一定間隔毎のタイミングであってもよく、本実施形態の補聴器1のユーザによって記憶部12に設定される。なお、記憶部12は、デジタル信号を出力すると、記憶するデジタル信号をメモリから消去する。
信号処理部13は、一般的な音声認識機能を有する。信号処理部13は、音声に対応するデジタル信号が入力されると、一般的な音声認識機能により、入力されたデジタル信号を文字列に変換し、変換した文字列を処理上の文とみなし、出力する。信号処理部13は、文を出力した結果、文節に対応する文字列と処理終了に対応する信号が入力される。信号処理部13は、処理終了に対応する信号が入力されると、文節に対応する文字列をデジタル信号として出力する。但し、信号処理部13は、各デジタル信号を出力する際、所定時間、間をおいて出力する。上述の所定時間は、本実施形態の補聴器1のユーザによって、信号処理部13に設定される。
データベース14は、文節に対応する文字列(以下、「文節文字列」という)が、本実施形態の補聴器1のユーザによって設定されている。本実施形態の補聴器1のユーザは、文節に対応する文字列として「じゅういちねんかん」、「かんがえているから」や「からかわれそうです」を設定してもよい。データベース14は、文(例えば、「じゅういちねんかんかんがえているからからかわれそうです」)が入力されると、上述の文節文字列を参照しながら文を文節毎に分け、各文節に対応する文字列を出力する。文を文節毎に分ける動作の詳細については、後述の[動作の説明]に記載する。データベース14は、文を文節毎に分け終わると、処理終了に対応する信号を出力する。
D/A変換部15は、入力されたデジタル信号をアナログ信号に変換して出力する。
アンプ16は、一般的なアンプである。すなわち、アンプ16は、入力される音声信号を増幅して出力する。
スピーカー17は、一般的なスピーカーである。すなわち、スピーカー17は、入力されるアナログ信号を音声として出力する。
A/D変換部11とD/A変換部15は、電子回路やFPGA(Field−Programmable Gate Array)を用いて実現することができる。また、信号処理部13は、DSP(Digital Signal Processor)やCPU(Central Processing Unit)等の演算処理装置を用いて実現することができる。さらに、記憶部12とデータベース14は、RAM(Random Access Memory)やCPU(Central Processing Unit)等の演算処理装置を用いて実現することができる。
[動作の説明]
図2は、本発明の第1の実施の形態における補聴器の動作を説明する為の図である。図3は、本発明の第1の実施の形態における補聴器が、入力された音声信号を信号処理した一例を示した図である。
図2、図3を用いて、本実施形態の補聴器の動作を以下に説明する。
(1)本実施形態の補聴器の動作
まず、話し手から発せられた音声が本実施形態の補聴器のマイク10に入力したとする。
マイク10は、話し手から発せられた音声が入力されると、その音声を音声信号に変換し、図2に示されるように、変換した音声信号をA/D変換部11に出力する。音声信号は、アナログ信号である。
次に、A/D変換部11は、図2に示されるように、マイク10から入力された音声信号をデジタル信号に変換して、記憶部12に出力する(S1)。
次に、記憶部12は、A/D変換部11から入力されたデジタル信号を、入力された順に自身に備わるメモリに記憶する(S2)。
次に、記憶部12は、所定のタイミングになると、記憶しているデジタル信号の中に、話し手から発せられた音声に対応するデジタル信号があるか判別し、話し手から発せられた音声に対応するデジタル信号があれば、その信号を信号処理部13に出力する(S3)。
具体的には、記憶部12は、所定のタイミングになると、記憶するデジタル信号のうち、信号レベルが所定値以上となったデジタル信号(以下、「信号A」という)と、その後、所定値以下になったデジタル信号(以下、「信号B」という)を求める。記憶部12は、記憶しているデジタル信号に中から、信号Aを記憶してから信号Bを記憶するまでの間に記憶されたデジタル信号を、話し手から発せられた音声に対応するデジタル信号と判別して、信号処理部13に出力する。なお、上述の所定のタイミングは、一定間隔毎のタイミングであってもよく、本実施形態の補聴器1のユーザによって記憶部12に設定される。なお、記憶部12は、デジタル信号を出力すると、記憶するデジタル信号をメモリから消去する。
次に、信号処理部13は、記憶部12から音声に対応するデジタル信号が入力されると、一般的な音声認識機能により、入力されたデジタル信号を文字列に変換し、変換した文字列を処理上の文とみなす(S4)。
次に、信号処理部13は、S4で求めた文を所定の文節毎に分ける(S5)。
具体的には、信号処理部13は、以下の(I)〜(III)の処理を行う。
(I)まず、信号処理部13は、S4で求めた文(例えば、「じゅういちねんかんかんがえているからからかわれそうです」)をデータベース14に出力する。
なお、データベース14には、文節に対応する文字列が、本実施形態の補聴器1のユーザによって設定されている。文節は、一般的に終助詞の「ね」を挟みうるかどうかで判断できることが知られており、本実施形態の補聴器1のユーザは、終助詞の「ね」を付けて意味の通る語句を、文節に対応する文字列(以下、「文節文字列」という)として設定する。例えば、本実施形態の補聴器1のユーザは、文節文字列として「じゅういちねんかん」、「かんがえているから」や「からかわれそうです」をデータベース14に設定してもよい。
(II)次に、データベース14は、文(例えば、「じゅういちねんかんかんがえているからからかわれそうです」)が入力されると、以下の処理A〜Cを繰り返し実施して文を文節毎に分け、各文節に対応する文字列を出力する。
(処理A)データベース14は、入力された文から、文字数が少なくとも1文字以上で文の先頭の文字から始まる文字列(例えば、「じ」、「じゅ」「じゅう」「じゅういちねんかん」等)を全て抽出する。
(処理B)次に、データベース14は、抽出した文字列のうち、文節文字列と一致するものがあるかを判別し、一致する文字列があれば、その文字列(例えば、「じゅういちねんかん」)を信号処理部13に出力する。
(処理C)次に、データベース14は、出力した文字列(以下、「出力文字列」という)後の文(例えば「じゅういちねんかん」後の「かんかんがえているからからかわれそうです」)を、入力された文とみなし、その文について再度処理Aを実施する。
なお、データベース14は、上述の処理Aにおいて、文節文字列と一致する文字列が見つからなければ、そのとき認識していた文を信号処理部13に出力し、処理A〜Cを終了する。また、データベース14は、上述の処理Cにおいて、出力文字列後の文がなければ、処理A〜Cを終了する。
(III)次に、データベース14は、処理A〜Cを終了すると、処理終了に対応する信号を信号処理部13に出力する。
上述の(I)〜(III)の処理を実施した結果、データベース14は、出力文字列「じゅういちねんかん」、「かんかんがえているから」および「からかわれそうです」を信号処理部13に出力したものとして以下の説明を続ける。
次に、信号処理部13は、処理終了に対応する信号がデータベース14から入力されると、それまでにデータベース14から入力された出力文字列(例えば、「じゅういちねんかん」)をデジタル信号としてD/A変換部15に出力する。但し、信号処理部13は、各デジタル信号を出力する際、所定時間、間をおいてD/A変換部15に出力する(S6)。上述の所定時間は、本実施形態の補聴器1のユーザによって、信号処理部13に設定される。
なお、信号処理部13は、デジタル信号が出力されない上述の所定の時間の間、信号レベルが所定値以下の小さなノイズデータ、若しくは無音データを出力してもよい。所定値は、本実施形態の補聴器1のユーザによって選択される。ノイズデータや無音データは、デジタル信号である。
次に、D/A変換部15は、デジタル信号が信号処理部13から入力されると、アナログの音声信号に変換してアンプ16に出力する(S7)。
次に、アンプ16は、D/A変換部15から音声信号が入力されると、その信号を増幅し、スピーカー17に出力する。
スピーカー17は、アンプ16から入力される音声信号を音声として出力する。
上述の動作の結果、話し手が一定の音調で連続的に話す場合であっても、本実施形態の補聴器1を使用するユーザ(聞き手)は、文節毎に分けられた音声を聞く事ができる。例えば、話し手が一定の音調で連続的に「じゅういちねんかんかんがえているからからかわれそうです」と話す場合であっても、本実施形態の補聴器1のユーザは、「じゅういちねんかん」「かんがえているから」「からかわれそうです」と文節毎に分けて聞く事ができる。その結果、本実施形態の補聴器1を使用するユーザ(聞き手)は、話し手が話した内容を容易に理解することができる。
図3では、本実施形態の補聴器1が、入力された音声信号を文節分けした他の一例を示している。図3では、本実施形態の補聴器1が、入力された音声信号「あなたがいる」を「あなたが」「いる」と文節分けし、「あなたが」と「いる」を間をおいて出力した様子を示している。
なお、上述のS6では、信号処理部13は、各デジタル信号を所定時間、間をおいて出力したが、各デジタル信号を出力する毎に、その信号レベルを一定以上変動させ、間をおかずに出力してもよい。なぜなら、本実施形態の補聴器1を使用するユーザ(聞き手)は、間がなくても、信号レベルが一定以上異なった音声信号を聞くことで、各文節を認識することができるからである。
具体的には、信号処理部13は、各デジタル信号を出力する際に、出力するデジタル信号の信号レベルを、直近に出力したデジタル信号の信号レベルよりも所定値以上大きな、若しくは小さな信号レベルにして出力する。信号処理部13は、デジタル信号を出力すると、そのデジタル信号の信号レベルを、直近に出力したデジタル信号の信号レベルとして記憶する。上述の所定値や所定の信号レベルは、本実施形態の補聴器1のユーザによって信号処理部13に設定される。なお、信号処理部13は、初めてデジタル信号を出力する場合には、所定の信号レベルで出力する。
(2)本実施形態の補聴器に付加される機能
本実施形態の補聴器1には、周囲の音を遮断する構成が付加されてもよい。図4は、本発明の第1の実施の形態における補聴器に周囲の音を遮断する構成を付加した図(その1)である。
本実施形態の補聴器1は、図4に示されるように、周囲の音を遮断する構成として、耳栓を付加することができる。本実施形態の補聴器1は、耳栓によって、マイク10以外から耳に入ってくる周囲の音を物理的に遮断することができる。
図5は、本発明の第1の実施の形態における補聴器に周囲の音を遮断する構成を付加した図(その2)である。
本実施形態の補聴器1は、図5に示されるように、周囲の音を遮断する構成として、一般的な負帰還回路を付加することができる。一般的な負帰還回路は、入力された音声信号のSN(Signal to Noise)比を改善することができる。その為、本実施形態の補聴器1は、マイク10の後に一般的な負帰還回路を付加することで、入力される音声信号のSN比が改善し、音声信号に対してノイズである周囲の音を抑えることができる。本実施形態の補聴器1は、上述の耳栓と負帰還回路の両方を備えてもよい。
図6は、本発明の第1の実施の形態における補聴器に音声信号を出力する時間を調整する為の構成を付加した図である。本実施形態の補聴器1は、図6に示されるように、上述のS6で用いた所定時間を信号処理部13に設定する機能部(以下、「再生時間コントローラ18」という)を付加することができる。再生時間コントローラ18は、数字キーとエンターキーを備え、エンターキーが本実施形態の補聴器1のユーザによって押下されると、それまでに押下された数字キーに対応する数値を所定時間として信号処理部13に設定する。本実施形態の補聴器1のユーザは、再生時間コントローラ18によって、文節毎に分けられた音声信号を出力する間を調整することができる。
[効果の説明]
本実施形態によれば、補聴器は、話し手が一定の音調で連続的に話す場合であっても、音声処理器具のユーザ(聞き手)に話し手が話した内容を容易に理解させることができ、音声処理器具のユーザ(聞き手)の理解度を向上させることができる。
その理由は、本実施形態の補聴器が、入力された音声信号を所定の文節毎に分け、分けた音声信号各々を所定時間、間をとりながら、又は、分けた音声信号各々の信号レベルを変動させながら出力するからである。本実施形態の補聴器1を使用するユーザ(聞き手)は、文節毎に分けられた音声を聞くことで、意味のある音を認識でき、話し手が話した内容を理解することができるので、理解度を向上させることができる。
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。
一般的に外国語、特に英語は、話し手によって発話される時、単語一つ一つが発話されるのではなく、複数の単語が連続して発話される。これは、一般的にリエゾンと呼ばれる。例えば、Can I help you?が発話されるときには、キャン アイ ヘルプ ユーと発話されるのではなく、Can Iが連続的に発話され、キャナイ ヘルプ ユーと発話される。リエゾンに慣れていない者は、辞書に示されている単語の音とは違った音になる為に、話し手が話す外国語を理解することは難しい。第2の実施の形態の補聴器は、翻訳機として動作し、リエゾンが用いられた外国語の音声が入力された場合であっても、その意味を聞き手に理解させるものである。
以下、本発明の第2の実施の形態の補聴器の構成と動作について説明する。
[構成の説明]
図7は、本発明の第2の実施の形態における補聴器の構成例を示す図である。第2の実施の形態における補聴器2は、図7に示されるように、信号処理部13と、データベース14の代わりに、信号処理部23と、データベース24を備える。
信号処理部23は、認識した文(例えば、「キャナイヘルプユー」)を出力した結果、文を構成する単語、若しくはリエゾンにより連結した語句について、その意味を示すデータが入力される。また、信号処理部23は、処理終了に対応する信号が入力されると、それまでに入力された意味を示す各データをデジタル信号として出力する。但し、信号処理部23は、各デジタル信号を出力する際、所定時間、間をおいて出力する。上述の所定時間は、本実施形態の補聴器2のユーザによって、信号処理部23に設定される。
データベース24は、単語、若しくはリエゾンにより連結した語句に対応する文字列(以下、「分割候補文字列」という)と、その意味に対応するデータ(以下、「意味データ」という)とが関連づけられて、本実施形態の補聴器2のユーザによって設定される。例えば、本実施形態の補聴器2のユーザは、分割候補文字列として「キャナイ」、「ヘルプ」、「ユー」をデータベース24に設定してもよい。また、本実施形態の補聴器2のユーザは、意味データとして「私はできる」、「助ける」、「あなたを」を示すデータを各分割候補文字列と関連づけてデータベース24に設定してもよい。データベース24は、文(例えば、「キャナイヘルプユー」)が入力されると、その文を単語、若しくはリエゾンにより連結した語句に分け、その意味を示すデータ、すなわち意味データを出力する。文を単語、若しくはリエゾンにより連結した語句に分け、その意味を示すデータを出力する動作の詳細については、後述の[動作の説明]に記載する。データベース24は、意味データを出力し終わると、処理終了に対応する信号を信号処理部23に出力する。
なお、上述した以外の構成や機能は、第1の実施の形態における無線通信端末を適用した補聴器と同じであるので、同一の符号を付して説明を省略する。
[動作の説明]
次に、本実施形態における補聴器2の動作を説明する。図8は、本発明の第2の実施の形態における補聴器の動作を説明する為の図である。
まず、補聴器2の信号処理部23は、図8に示されるように、上述のS4を実施し、文を求めると、その文を単語、若しくはリエゾンにより連結した語句毎に分け、さらにその意味を示すデータを出力する(S15)。
具体的には、信号処理部23は、以下の(i)〜(iii)の処理を行う。
(i)まず、信号処理部23は、上述のS4によって求められた文(例えば、「キャナイヘルプユー」)をデータベース24に出力する。
なお、データベース24には、単語、若しくはリエゾンにより連結した語句に対応する文字列(以下、「分割候補文字列」という)と、その意味に対応するデータ(以下、「意味データ」という)とが関連づけられて、本実施形態の補聴器2のユーザにより設定されている。例えば、本実施形態の補聴器2のユーザは、分割候補文字列として「キャナイ」、「ヘルプ」、「ユー」をデータベース24に設定してもよい。また、本実施形態の補聴器2のユーザは、意味データとして「私はできる」、「助ける」、「あなたを」を示すデータを各分割候補文字列と関連づけてデータベース24に設定してもよい。
(ii)次に、データベース24は、文(例えば、「キャナイヘルプユー」)が入力されると、以下の処理a〜処理cを、繰り返し実施して文を単語、若しくはリエゾンにより連結した語句に分け、その意味を示すデータを出力する。
(処理a)まず、データベース24は、入力された文から、文字数が少なくとも1文字以上で文の先頭の文字から始まる文字列(例えば、「キ」、「キャ」「キャナ」「キャナイ」等)を全て抽出する。
(処理b)次に、データベース24は、抽出した文字列のうち、一致文字列(例えば、「キャナイ」)があれば、その文字列に関連づけられている意味データ(例えば、「私はできる」を示すデータ)を信号処理部23に出力する。
(処理c)次に、データベース24は、上述の一致文字列後の文(例えば「キャナイ」後の「ヘルプユー」)を、入力された文とみなし、その文について再度処理aを実施する。
なお、データベース24は、上述の処理aにおいて、一致文字列がなければ、そのとき認識していた文を信号処理部23に出力し、処理a〜cを終了する。また、データベース14は、上述の処理cにおいて、一致文字列後の文がなければ、処理a〜cを終了する。
(iii)データベース24は、処理a〜cを終了すると、処理終了に対応する信号を信号処理部23に出力する。
上述の(i)〜(iii)の処理を実施した結果、データベース24は、「私はできる」、「助ける」、及び「あなたを」を示す意味データを信号処理部23に出力したとして、以下の説明を続ける。
次に、信号処理部23は、処理終了に対応する信号がデータベース14から入力されると、それまでにデータベース24から入力された意味データ(例えば、「私はできる」「助ける」「あなたを」を示すデータ)をデジタル信号としてD/A変換部15に出力する。但し、信号処理部23は、各デジタル信号を出力する際には、所定時間、間をおいてD/A変換部15に出力する(S16)。上述の所定時間は、本実施形態の補聴器2のユーザによって、信号処理部23に設定される。
その結果、本実施形態の補聴器は、リエゾンが用いられた外国語の音声(例えば、「キャナイヘルプユー」)が入力された場合であっても、その意味「私はできる」、「助ける」、「あなたを」を間をあけながら出力し、聞き手に外国語を理解させることができる。
その他の動作については、第1の実施の形態の動作と同様である為、詳細の説明を省略する。
[効果の説明]
本実施形態によれば、補聴器は、リエゾンが用いられた外国語の音声が入力された場合であっても、その意味を聞き手に理解させることができる。
その理由として、本実施形態の補聴器は、入力された外国語の音声信号を単語、若しくはリエゾンにより連結した語句に分け、分けた単語や語句の意味を求め、求めた各意味を聞き手が聞きやすいように間をとりながら音声信号として出力するからである。
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。
[構成の説明]
図9は、本発明の第3の実施の形態における音声処理器具に入出力される信号を説明する為の図である。
第3の実施の形態における音声処理器具は、図9に示されるように、音声信号が入力される。また、本実施形態の音声処理器具は、入力された音声信号を発音上の単位毎に分け、分けた音声信号各々に所定の処理をして出力する。
所定の処理は、分けた音声信号各々を所定の時間、間をおく処理であってもよい。その結果、本実施形態の音声処理器具は、分けた音声信号各々を所定の時間、間をおいて出力することができる。所定の時間は、本実施形態の音声処理器具のユーザによって設定される。
また、上述の発音上の単位は、文節であってもよい。また、上述の所定時間は、本実施形態の音声処理器具のユーザによって設定される。
[動作の説明]
第3の実施の形態における音声処理器具は、入力された音声信号を発音上の単位毎、例えば文節毎に分け、分けた音声信号各々に所定の処理をして出力する。
所定の処理は、分けた音声信号各々を所定の時間、間をおく処理であってもよい。その結果、本実施形態の音声処理器具は、分けた音声信号各々を所定の時間、間をおいて出力することができる。所定の時間は、本実施形態の音声処理器具のユーザによって設定される。
[効果の説明]
本実施形態によれば、補聴器は、話し手が一定の音調で連続的に話す場合であっても、音声処理器具のユーザ(聞き手)に話し手が話した内容を容易に理解させることができ、音声処理器具のユーザ(聞き手)の理解度を向上させることができる。
その理由は、本実施形態の補聴器が、入力された音声信号を発音上の単位、例えば文節毎に分け、分けた音声信号各々を聞き手が聞きやすいように所定時間、間をおく等、所定の処理をして出力するからである。本実施形態の補聴器1を使用するユーザ(聞き手)は、発音上の単位毎に分けられた音声を聞くことで、意味のある音を認識でき、話し手が話した内容を理解することができるので、理解度を向上させることができる。
なお、上述した実施の形態は、その形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々変更可能である。
さらに、上記の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
入力された音声信号を発音上の単位毎に分け、分けた前記音声信号各々に所定の処理をして出力する、
ことを特徴とする音声処理器具。
(付記2)
前記所定の処理は、分けた前記音声信号各々を所定の時間、間をおく処理である、
ことを特徴とする付記1に記載の音声処理器具。
(付記3)
前記発音上の単位は、文節である、
ことを特徴とする付記1乃至2のいずれか1項に記載の音声処理器具。
(付記4)
前記発音上の単位は、単語、若しくは前記単語がリエゾンにより連結した語句であり、前記所定の処理は、分けた前記音声信号各々を所定の音声信号に変換して出力する処理である、
ことを特徴とする付記1乃至3のいずれか1項に記載の音声処理器具。
(付記5)
入力された音声信号に対応する第1の文字列から抽出した、文字数が少なくとも1文字以上で前記第1の文字列の先頭の文字から始まる文字列のうち、発音上の単位に対応する所定の第2の文字列と一致する前記文字列を出力し、さらに、出力した前記文字列後の前記第1の文字列を、新たな前記第1の文字列とみなす出力処理を繰り返すデータ処理部と、
入力される前記文字列各々に所定の処理をして出力する信号処理部と、を備える、
ことを特徴とする音声処理器具。
(付記6)
前記所定の処理は、分けた前記音声信号各々を所定の時間、間をおく処理である、
ことを特徴とする付記5に記載の音声処理器具。
(付記7)
前記データ処理部は、一致した前記文字列に対応する所定のデータを出力し、
前記信号処理部は、入力される前記所定のデータ各々を、所定時間、間をおいて前記音声信号として出力する、
ことを特徴とする付記5乃至6のいずれか1項に記載の音声処理器具。
(付記8)
前記データ処理部は、前記所定の第2の文字列と一致する前記文字列がない場合、若しくは、前記信号処理部に出力した前記文字列後の前記第1の文字列がない場合に、前記出力処理を終了する、
ことを特徴とする付記5乃至7のいずれか1項に記載の音声処理器具。
(付記9)
入力された音声信号を発音上の単位毎に分け、分けた前記音声信号各々に所定の処理をして出力する、
ことを特徴とする音声処理方法。
(付記10)
前記所定の処理は、分けた前記音声信号各々を所定の時間、間をおく処理である、
ことを特徴とする付記9に記載の音声処理方法。
(付記11)
入力された音声信号に対応する第1の文字列から抽出した、文字数が少なくとも1文字以上で前記第1の文字列の先頭の文字から始まる文字列のうち、発音上の単位に対応する所定の第2の文字列と一致する前記文字列を求め、さらに、一致した前記文字列後の前記第1の文字列を新たな前記第1の文字列とみなすことを、前記所定の第2の文字列と一致する前記文字列が求められなくなるまで繰り返し、求めた前記文字列各々に所定の処理をして出力する、
ことを特徴とする音声処理方法。
(付記12)
前記所定の処理は、分けた前記音声信号各々を所定の時間、間をおく処理である、
ことを特徴とする付記11に記載の音声処理方法。
(付記13)
一致した前記文字列に対応する所定のデータ各々を、所定時間、間をおいて前記音声信号として出力する、
ことを特徴とする付記11乃至12のいずれか1項に記載の音声処理方法。
(付記14)
前記所定の処理は、分けた前記音声信号を各々出力する際、出力する前記音声信号の信号レベルを、少なくとも直近に出力した前記音声信号の前記信号レベルとは所定値以上異なる前記信号レベルにする処理である、
ことを特徴とする付記1に記載の音声処理器具。
(付記15)
負帰還回路を備え、入力された前記音声信号を前記負帰還回路に入力し、その結果、出力された前記音声信号を発音上の単位毎に分ける、
ことを特徴とする付記1乃至4のいずれか1項、又は付記14に記載の音声処理器具。
(付記16)
前記間には、無音、若しくは所定値以下のノイズに対応する前記音声信号を出力する、
ことを特徴とする付記1乃至4のいずれか1項、又は付記6乃至8のいずれか1項、又は付記14乃至15のいずれか1項に記載の音声処理器具。
(付記17)
前記音声処理器具は、補聴器や翻訳機である、
ことを特徴とする付記1乃至8のいずれか1項、又は付記14乃至16のいずれか1項に記載の音声処理器具。
(付記18)
耳栓を備える、
ことを特徴とする付記1乃至8のいずれか1項、又は付記14乃至17のいずれか1項に記載の音声処理器具。
1 補聴器
2 補聴器
10 マイク
11 A/D変換部
12 記憶部
13 信号処理部
14 データベース
15 D/A変換部
16 アンプ
17 スピーカー
23 信号処理部
24 データベース

Claims (10)

  1. 入力された音声信号を発音上の単位毎に分け、分けた前記音声信号各々に所定の処理をして出力する、
    ことを特徴とする音声処理器具。
  2. 前記所定の処理は、分けた前記音声信号各々を所定の時間、間をおく処理である、
    ことを特徴とする請求項1に記載の音声処理器具。
  3. 前記発音上の単位は、文節である、
    ことを特徴とする請求項1乃至2のいずれか1項に記載の音声処理器具。
  4. 前記発音上の単位は、単語、若しくは前記単語がリエゾンにより連結した語句であり、前記所定の処理は、分けた前記音声信号各々を所定の音声信号に変換して出力する処理である、
    ことを特徴とする請求項1乃至3のいずれか1項に記載の音声処理器具。
  5. 入力された音声信号に対応する第1の文字列から抽出した、文字数が少なくとも1文字以上で前記第1の文字列の先頭の文字から始まる文字列のうち、発音上の単位に対応する所定の第2の文字列と一致する前記文字列を出力し、さらに、出力した前記文字列後の前記第1の文字列を、新たな前記第1の文字列とみなす出力処理を繰り返すデータ処理部と、
    入力される前記文字列各々に所定の処理をして出力する信号処理部と、を備える、
    ことを特徴とする音声処理器具。
  6. 前記所定の処理は、分けた前記音声信号各々を所定の時間、間をおく処理である、
    ことを特徴とする請求項5に記載の音声処理器具。
  7. 前記データ処理部は、一致した前記文字列に対応する所定のデータを出力し、
    前記信号処理部は、入力される前記所定のデータ各々を、所定時間、間をおいて前記音声信号として出力する、
    ことを特徴とする請求項5乃至6のいずれか1項に記載の音声処理器具。
  8. 前記データ処理部は、前記所定の第2の文字列と一致する前記文字列がない場合、若しくは、前記信号処理部に出力した前記文字列後の前記第1の文字列がない場合に、前記出力処理を終了する、
    ことを特徴とする請求項5乃至7のいずれか1項に記載の音声処理器具。
  9. 入力された音声信号を発音上の単位毎に分け、分けた前記音声信号各々に所定の処理をして出力する、
    ことを特徴とする音声処理方法。
  10. 前記所定の処理は、分けた前記音声信号各々を所定の時間、間をおく処理である、
    ことを特徴とする請求項9に記載の音声処理方法。
JP2013132343A 2013-06-25 2013-06-25 音声処理器具、音声処理方法 Pending JP2015007683A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013132343A JP2015007683A (ja) 2013-06-25 2013-06-25 音声処理器具、音声処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013132343A JP2015007683A (ja) 2013-06-25 2013-06-25 音声処理器具、音声処理方法

Publications (1)

Publication Number Publication Date
JP2015007683A true JP2015007683A (ja) 2015-01-15

Family

ID=52338004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013132343A Pending JP2015007683A (ja) 2013-06-25 2013-06-25 音声処理器具、音声処理方法

Country Status (1)

Country Link
JP (1) JP2015007683A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036320A (ja) * 2016-08-29 2018-03-08 株式会社テクノリンク 音処理方法、音処理装置、及びプログラム
CN113825082A (zh) * 2021-09-19 2021-12-21 武汉左点科技有限公司 一种用于缓解助听延迟的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0556499A (ja) * 1991-08-23 1993-03-05 Hitachi Ltd デイジタル補聴器
JP2000187494A (ja) * 1998-12-21 2000-07-04 Toyota Motor Corp 音声合成方法および音声合成装置
JP2007010892A (ja) * 2005-06-29 2007-01-18 Toa Corp 音声信号判断装置
JP2007232829A (ja) * 2006-02-28 2007-09-13 Murata Mach Ltd 音声対話装置とその方法及びプログラム
JP2008032834A (ja) * 2006-07-26 2008-02-14 Toshiba Corp 音声翻訳装置及びその方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0556499A (ja) * 1991-08-23 1993-03-05 Hitachi Ltd デイジタル補聴器
JP2000187494A (ja) * 1998-12-21 2000-07-04 Toyota Motor Corp 音声合成方法および音声合成装置
JP2007010892A (ja) * 2005-06-29 2007-01-18 Toa Corp 音声信号判断装置
JP2007232829A (ja) * 2006-02-28 2007-09-13 Murata Mach Ltd 音声対話装置とその方法及びプログラム
JP2008032834A (ja) * 2006-07-26 2008-02-14 Toshiba Corp 音声翻訳装置及びその方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036320A (ja) * 2016-08-29 2018-03-08 株式会社テクノリンク 音処理方法、音処理装置、及びプログラム
CN113825082A (zh) * 2021-09-19 2021-12-21 武汉左点科技有限公司 一种用于缓解助听延迟的方法及装置

Similar Documents

Publication Publication Date Title
DK2808868T3 (en) Method of Processing a Voice Segment and Hearing Aid
WO2017061027A1 (ja) 言語モデル生成装置、言語モデル生成方法とそのプログラム、音声認識装置、および音声認識方法とそのプログラム
US11587547B2 (en) Electronic apparatus and method for controlling thereof
CN110675866B (zh) 用于改进至少一个语义单元集合的方法、设备及计算机可读记录介质
JP6405653B2 (ja) 音声出力装置および音声出力方法
US20160210982A1 (en) Method and Apparatus to Enhance Speech Understanding
JP6599828B2 (ja) 音処理方法、音処理装置、及びプログラム
JP2014130251A (ja) 会話保護システム及び会話保護方法
JP4752516B2 (ja) 音声対話装置および音声対話方法
US20190362734A1 (en) Method for detecting ambient noise to change the playing voice frequency and sound playing device thereof
JP4953767B2 (ja) 音声生成装置
JP2015007683A (ja) 音声処理器具、音声処理方法
JP2014199445A (ja) サウンドマスキング装置、方法及びプログラム
JP6849977B2 (ja) テキスト表示用同期情報生成装置および方法並びに音声認識装置および方法
Franich Internal and contextual cues to tone perception in Medʉmba
JP6918471B2 (ja) 対話補助システムの制御方法、対話補助システム、及び、プログラム
CN113421571A (zh) 一种语音转换方法、装置、电子设备和存储介质
EP3718107B1 (en) Speech signal processing and evaluation
JP4979336B2 (ja) 音声出力装置
JP2016164628A (ja) 音読評価装置、音読評価方法、及びプログラム
Huckvale et al. Combining acoustic, phonetic, linguistic and audiometric data in an intrusive intelligibility metric for hearing-impaired listeners
TWI824424B (zh) 語意評估之助聽調整裝置及其方法
JP6970345B2 (ja) 学習装置、音声認識装置、学習方法、音声認識方法およびプログラム
JP2012098483A (ja) 音声データ生成装置
Liu An acoustic study of Mandarin rhotic suffix

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171128