JP5030150B2 - 筋電位信号による音声認識装置 - Google Patents

筋電位信号による音声認識装置 Download PDF

Info

Publication number
JP5030150B2
JP5030150B2 JP2007071728A JP2007071728A JP5030150B2 JP 5030150 B2 JP5030150 B2 JP 5030150B2 JP 2007071728 A JP2007071728 A JP 2007071728A JP 2007071728 A JP2007071728 A JP 2007071728A JP 5030150 B2 JP5030150 B2 JP 5030150B2
Authority
JP
Japan
Prior art keywords
signal
feature
speech recognition
myoelectric
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007071728A
Other languages
English (en)
Other versions
JP2008233438A (ja
Inventor
雅博 吉川
宏明 児島
和世 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2007071728A priority Critical patent/JP5030150B2/ja
Publication of JP2008233438A publication Critical patent/JP2008233438A/ja
Application granted granted Critical
Publication of JP5030150B2 publication Critical patent/JP5030150B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、筋電位信号による音声認識装置に関するものであり、詳細には、サポートベクターマシン(SVM)を用いて識別性を向上させた筋電位信号から日本語母音の音声を識別する音声認識装置に関するものである。
音声情報処理技術および情報処理装置のハードウェアの発展により、コールセンター、ゲーム機、カーナビ、学習ソフト、携帯電話などで音声認識が広く使われるようになってきている。これらの音声認識の用途では、高い認識精度での音声認識が可能になってきているが、しかしながら、特別な環境または場面では、いまだ、音声認識を適用することが困難な状況がある。例えば、
(1)作業現場や飛行機の中などの騒音の大きい環境、
(2)公共の場所で大きな声で話せない場面、
(3)咽頭切除などで発声が困難な場合、
などの、明瞭な音声を得ることができない状況では、音声認識は困難である。
通常の音声認識を代替もしくは補助する方法として、これまでにも、音声を用いずに、発話内容の認識(以下、音声非依存型音声認識と定義される)を行う手法が、いくつか提案されている。最も盛んに研究されているのが、口唇周辺の画像認識に基づく手法である(非特許文献1〜非特許文献6)。例えば、間瀬らは、口唇周辺画像からオプティカルフローを特徴量として抽出し、音声を用いない音声認識を実現している(非特許文献7)。また、別の例として、表面からは観測できない発音時の調音器官の挙動を観測する方法も検討されている(非特許文献8)。
Takemotoらは、MRIで撮像した画像を用いて、母音発声時の声道の変化を三次元的に捉える研究を行っている(非特許文献9)。また、超音波を用いて舌の動作を観測する研究も行われている(非特許文献10)。発声時の調音器官を観測するこれらの手法は、音声非依存型音声認識への応用も可能である。
一方で、表情筋から計測した筋電位信号を用いて、音声非依存型音声認識を行う研究もなされている。筋電位は筋収縮を誘発し、筋繊維上を流れる微弱な電流であり、皮膚の表面から観測できる。複数の表情筋から観測した筋電位信号は、発声する音声に対して特異的なパターンを示すので、パターン認識の手法を用いて音声非依存型音声認識が試みられてきた。
筋電位信号を利用する利点は、画像認識よりも少ない計算コストで処理でき、マスクなどで口元が隠れている場合にも適用できることである。また、筋電位信号は小型の電極で計測可能であり、携帯可能な認識装置の実現が期待できる。さらに、筋電位信号は脳の運動指令を反映した信号であり、筋肉の動きに先立って発生するので、発声前から音声認識を開始できる利点もある。真鍋らは、3電極で計測した筋電位信号を基に、ニューラルネットワークを用いて5母音を認識できることを報告している(非特許文献11)。また、福田らは、混合正規分布を組み込んだニューラルネットワークと隠れマルコフモデルを組み合わせて、16種類の単語を認識している(非特許文献12)。
松岡,古谷,黒須:"画像処理による読唇の試み−母音口形の識別およびそれに基づく単語認識",計測自動制御学会論文集,22,2,pp.191−198(1986). 呉,田村,光本,河合,黒須,岡崎:"音声・口形特徴量を併用するニューラルネットを用いた母音認識",電子情報通信学会論文誌,J73−D2,8,pp.1309−1314(1990). 寺田,山中,大恵:"口のカラー動画像を用いた音韻認識",電気学会論文誌D,119,1,pp.37−43(1999). 石井,佐藤,西田,景山:"時系列口唇画像を用いた読唇のための特徴抽出と唇の動き解析",電気学会論文誌D,119,4,pp.465−472(1999). 菅原,新地,岸野,小西:"パーソナルコンピュータ上での読唇システムの実時間実現",計測自動制御学会論文集,36,12,pp.1145−1151(2000). 中田,安藤:"色抽出法と固有空間法を用いた読唇処理",電子情報通信学会論文誌,J85−D2,12,pp.1813−1822(2002). 間瀬,ペントランド:"オプティカルフローヲ用いた読唇",電子情報通信学会論文誌,J73−D2,6,pp.796−803(1990). M. Stone, E. P. Davis, A. S. Douglas, M. NessAiver, R. Gullapalli, W. S. Levine and A. Lundberg: "Modeling the motion of the internal tongue from tagged cine−mri images", The Journal of the Acoustical Society of America, 109, 6, pp.2974−2982 (2001). H. Takemoto and K. Honda: "Measurement of temporal changes in vocal tract area function from 3D cine−MRI data", The Journal of the Acoustical Society of America, 119, 2, pp.1037−1049 (2006). Y. S. Akgul, C. Kambhamettu and M. Stone: "Automatic extraction and tracking of the tongue contours", IEEE Transactions on Medical Imaging, 18, 10, pp.1035−1045 (1999). 真鍋,平岩,杉村:"無発声音声認識:筋電信号を用いた声を伴わない日本語5母音の認識",電子情報通信学会論文誌,J88−D2,9,pp.1909−1917(2005). 福田, 藤田, 辻:"EMG信号を利用した代用発声システム",電子情報通信学会論文誌,J88−D2,1,pp.105−112(2005). 西田,栗田:"カーネル学習法とその画像認識への応用",情報処理学会:コンピュータビジョンとイメージメディア,46,SIG15(CVIM12),pp.1−10(2005). 木塚,木竜,増田,佐渡山:"表面筋電図",東京電機大学出版局(2006). 河合,原島:"肉単",エヌ・ティー・エス(2004). C. C. Chang and C. J. Lin: "LIBSVM: a library for support vector machines"(2001).
従来の筋電位信号に基づいて音声認識を行う報告では、非特許文献11に示されるように、3電極で計測した筋電位信号を基に、ニューラルネットワークを用いて5母音を認識できることを報告しており、また、非特許文献12に示されるように、混合正規分布を組み込んだニューラルネットワークと隠れマルコフモデルを組み合わせて、16種類の単語を認識したことを報告しているが、従来手法で用いられているニューラルネットには、過学習による汎化能力の低下、局所最適解、学習時間の遅さなどが、実用的な意味では、解決されるべき課題として浮かび上がる。
また、従来では、意図的に表情筋を大きく動かし、音声に対する筋電位信号パターンを明確化することで、識別精度の向上を図っているが、この方法は、利用者へ負担がかかるなどの問題がある。
本発明は、これらの課題を解決するためになされたものであり、本発明の目的は、サポートベクターマシン(以下、SVMと称する)を用いて識別性を向上させた筋電位信号による音声認識装置を提供することにある。具体的に本発明の目的は、筋電位信号から日本語母音の音声を識別する音声認識装置を提供することにある。
上記のような目的を達成するため、本発明の音声認識装置は、口唇周辺の複数箇所の筋電位信号を検出する信号計測部と、前記信号計測部から検出された筋電位信号から特徴情報を抽出する特徴抽出部と、前記特徴抽出部から抽出された特徴情報により訓練データを生成する訓練データ生成部と、前記訓練データ生成部により生成された訓練データに基づいてサポートベクトルマシンを構成するサポートベクトルマシン学習部と、前記サポートベクトルマシン学習部により構成されたサポートベクトルマシンによるデータ処理により前記特徴情報から母音音声を識別する音声識別部を備えることを特徴とする。
また、本発明の音声認識装置において、前記信号計測部は、話者の表情筋および声帯周辺に貼り付けた表面電極を用いて筋電位信号を計測するものであり、また、前記特徴情報は、筋電位信号の周波数特徴および筋電位信号の振幅特徴の2種類の特徴量をフレーム単位で抽出した特徴量に基づく周波数特徴および振幅特徴を有する特徴ベクトルであることを特徴とするものである。
本発明の音声認識装置によれば、利用者の発声時の表情筋及び声帯周辺の筋から計測した筋電位信号の特徴量からラベル付き訓練データを生成し、SVMを用いて識別関数を構成し、SVMが学習した識別関数を用いて、筋電位信号の特徴量のみに基づいて音声を識別するので、識別性が高く音声認識を行うことができる。これは、ここで用いるSVMは、画像認識などの適用分野で、従来のパターン認識手法よりも汎化能力が高いためである。
加えて、SVMは、線形分離不可能な訓練データから少ない計算量で識別関数を構成できるため、筋電位信号を用いた音声認識が実用上においても十分に有効性が高いものとなる。本発明の音声認識装置においては、特徴量として、振幅特徴と周波数特徴の2種類の特徴量を抽出た特徴ベクトルを用いており、これにより、識別精度の向上をはかることができるものとなっている。
以下、本発明を実施する場合の形態について、具体例に基づき説明する。図1は、本発明の実施例に係る音声認識装置の構成を示すブロック図であり、図2は、本発明の実施例に係る音声認識装置において計測する筋電位信号の測定位置を説明する図である。図1において、11は信号計測部、12は特徴抽出部、13は訓練データ生成部、14はサポートベクトルマシン学習部、15は音声識別部である。
図1に示すブロック図は、SVMを用いた筋電位信号による音声認識方法の処理の流れを示すものとなっている。信号計測部11では、話者の表情筋及び声帯周辺に貼り付けた表面電極を用いて生の筋電位信号(以下EMG信号)を計測し、この信号を基に積分筋電位信号(以下IEMG信号)を計算する。特徴抽出部12では、EMG信号とIEMG信号から特徴ベクトルをフレーム単位で抽出する。特徴ベクトルは、筋電位信号の振幅特徴および周波数特徴を有するように構成されている。サポートベクトルマシン学習部14では、訓練データ生成部13で生成したラベル付き訓練データからSVMを用いて識別関数を構成する。音声識別部15では、学習した識別関数によって、特徴ベクトルの音声識別を行い、識別結果を出力する。以下では各構成要素について説明する。
信号計測部11は、図2に示すように、使用者の口唇の周囲位置から筋電位信号を取り出すため、湿式の表面電極(Blue sensor,Ambu 社)を皮膚表面に貼り付け、筋電位計測装置(Universal EMG,(有)追坂電子機器)を用いて増幅、アナログローパスフィルタ(遮断周波数400Hz)を施して、EMG信号を計測する。
計測したEMG信号は、A/D変換器(DF−3000L,パベック電子開発(株))を用いて、サンプリング周波数16kHz、16bitでサンプリングし、特徴抽出、SVC構成などの処理を行う信号処理モジュールおよびSVCによる音声認識モジュールを実装したデータ処理装置のパーソナルコンピュータに取り込む。パーソナルコンピュータに取り込んだEMG信号に対して、3倍に増幅、全波整流、5次のデジタルバタワースフィルタ(遮断周波数10Hz)を適用して、IEMG信号を計算する。
ここで計算するIEMG信号は、運動生理学の分野において筋活動レベルを表す指標として一般的に用いられている(非特許文献14参照)信号を利用している。また、本発明による音声認識装置では、筋電位信号のEMG信号とIEMG信号の2種類の信号から特徴量(振幅特徴および周波数特徴)を抽出する。なお、訓練データの作成と音声モニター用に、EMG信号と同時にダイナミックマイク(F−V620,ソニー(株))で音声を収録する。
[識別対象の音声と計測する筋電位信号]
本発明の実施例の音声認識装置では、日本語5母音(/a/,/i/,/u/,/e/,/o/)を識別の対象としている。約1秒の間隔を空けて、各母音を約200ミリ秒(ms)、5母音連続で発声した時の筋電位信号を基に学習と識別を行う。表面電極の貼り付け位置は、図2に示されているように、5箇所(5チャネル)としている。チャネル1は声帯(Vocal cord)、チャネル2は顎二腹筋(Digastric)、チャネル3は下唇下制筋(Mentalis)、チャネル4は口輪筋(Orbicularis oris)、チャネル5は大頬骨筋(Zygomaticus major)の直上に配置した。発声時によく働く筋を基準に選定し、解剖学的知見に基づき、おおよその位置を同定する(非特許文献15参照)。
図3は、5母音を連続して発声した時の音声とEMG信号の例を示す図である。図3に示されるように、各母音に対して特異的な信号パターンが得られることがわかる。
特徴抽出部12は、フレーム長64ms(1024点)、フレーム周期16ms(256点)で切り出したEMG信号とIEMG信号から特徴抽出を行う。切り出したEMG信号とIEMG信号に対しては、それぞれハミング窓と方形窓による窓処理を行う。以上の処理を行った後、振幅特徴と周波数特徴の2種類の特徴量をフレーム単位で抽出する。従来では、振幅特徴のみを用いたものが多いが、筋の周波数特性や筋から皮膚表面までの伝達特性が異なるために周波数情報が識別には有効である。
このため、本発明の音声認識装置では、周波数特徴も併せて利用する。振幅特徴は、フレーム内のIEMG信号の時間平均により計算する。周波数特徴は、EMG信号のFFTケプストラム係数を用いる。ここでは、低次の5項を筋電位信号の周波数特徴として採用する。ケプストラムは、少ない次数で周波数特徴を表すことができるが、これまで筋電位信号を用いた音声認識にはほとんど用いられたことはなかった。
このようにして、各チャネルについて1 次元の振幅特徴と5次元の周波数特徴を抽出し、5チャネル合計で30次元の特徴ベクトルを求める。この特徴ベクトルにより、訓練データを生成し、サポートベクトルマシンを構成する。
訓練データ生成部13では、EMG信号と同期して収録した音声信号の零交叉数に基づき、特徴ベクトルにクラスラベルを付与する。フレーム内零交叉数が30以上のフレームが連続する区間を音声区間として検出する。次に、音声区間の最初のフレームより、5フレーム(80ms)過去のフレームから16フレーム(256ms)分の区間を取り、この区間の特徴ベクトルにクラスラベルを付与する。80ms過去に遡ってクラスラベルを付与するのは、図3に示したように、筋が動いて発声が行われるよりも以前に筋電位信号が発生するためである。実際には、計測する筋、音声によって、発生するタイミングが異なるが、本発明の音声認識装置では一律の時間80msを設定する。ここでは、5母音に加えて、発声を行っていない無発声区間(silence)も識別の対象とする。
サポートベクトルマシン学習部14は、SVMを用いて訓練データからEMG信号を識別する識別関数を構成する。SVMは、訓練データから「マージン最大化」という基準で識別超平面のパラメータを学習する。未知の特徴ベクトルxを2つのクラスCとC(クラスラベルはそれぞれ1と−1)のいずれかに識別する識別関数を次式で表す。
Figure 0005030150
ここでyはi番目の訓練サンプルxに対応するクラスラベルであり、Dは訓練サンプル数、λはラグランジュの未定乗数、bはバイアス項である。sign(z)は、z>0の時は1、z<0の時は−1を出力する関数である。K(xi,x)は、カーネル関数である。
本発明の音声認識装置におけるサポートベクトルマシンでは、カーネルパラメータが1つしかない、次式のRadial basis function(RBF)カーネルを用いる。
Figure 0005030150
ここでγは、カーネルパラメータである。カーネル関数は、線形分離不可能な訓練データを高次元の特徴空間に写像し、写像先の特徴空間において線形分離可能にする。計測した筋電位信号は、線形分離不可能なデータになりやすいので、カーネル関数を導入する。実際に識別関数を求めるためには、次式を最大にするλを求める。
Figure 0005030150
Figure 0005030150
ここで、Cはどの程度の誤識別を許すかを決定するペナルティパラメータである。Cが大きいほど、訓練データに対してよりフィットした識別超平面となる。求めたλのうち、非0のλに対する訓練サンプルは、サポートベクターと呼ばれ、式(1)の識別関数はサポートベクターより構成される。
以上説明したように、SVMは原理的に2クラスを識別する手法であるため、多クラスを識別するために「one−against−one」アルゴリズムを用いる。このアルゴリズムでは、N個のクラスに対して、N(N+1)/2個の識別関数を生成し、すべての識別関数の識別結果を集計し、最も多く識別されたクラスをそのフレームにおける識別結果とする。SVMに関わる処理には、LIBSVM(非特許文献16)のMATLABインタフェースを利用する。
[日本語5母音の識別実験]
本発明の音声認識装置の有効性を評価するために、筋電位信号からの日本語5 母音の識別実験を行った。被験者は、20〜30歳代の男性3名(被験者A,B,C)と女性1名(被験者D)の計4名である。被験者Aについては、予備実験を何度か行っているが、他の被験者については、電極を貼り付けて筋電位を計測する実験は初めてであった。1回の試行で被験者は、約1sの間隔を空けて各母音につき約200ms、5母音を連続で発声し、同様の試行を30回行った。できるだけ自然な発声を心がけ、表情筋の動かし方や口の開け方を強調した発声方法は行わないこととした。この時の筋電位信号と音声信号を、先に説明した方法で計測した。筋電位信号の計測位置は、また、前述したように、表情筋と声帯周辺の直上計5箇所とした。
[SVMのパラメータ選択]
式(2)のカーネルパラメータγと式(3)のペナルティパラメータCを、訓練データに対する交差確認法に基づいて、被験者ごとに最適な値を決定した。カーネルパラメータγとペナルティパラメータCの探索範囲は、C={2,2,…,213},γ={2−6,2−5,…,2}とした。各被験者の最適な値を表1に示す。すべての被験者でγの値は0.5となり、Cの値は16−256の範囲に収まっている。実際には、極端な値をとらない限り識別率に与える影響は小さいことが確認された。
Figure 0005030150
識別率の評価は、6重交差確認法により行った。30試行のデータを5試行ずつ6セットに分割し、うち5セット(25試行)を選択して学習、残りの1セット(5試行)で識別を行う。すべてのセットが識別されるように6回の識別を行い、6回の識別率の平均値を求める。一人の被験者の各母音と無発声の識別率は、以下の式で定義する。
Figure 0005030150
ここで、式(5)の分母は、各母音につき480サンプル(30試行×16フレーム)であり、無発声については8730サンプルである。25試行分(9275サンプル)の訓練データから識別関数を学習する時間は、短時間(数秒以内)で終了した。
このようにして求めた被験者ごとの5母音の識別率を表2に示す。被験者Aの5母音の平均識別率は、約81%と識別率が最も高かった。被験者Aの識別率が、特に高かったのは、予備実験において筋電位信号のパターンが顕著に現れる電極位置を、予め同定できていたためと考えられる。筋電位信号を初めて計測した被験者のうち、被験者BとCについては65%以上の識別率が得られているが、被験者Dについては約52%の識別率にとどまっている。この原因として、筋の位置がうまく同定できていない、筋電位信号のパワーが小さいために十分な筋電位信号パターンが得られない、などが考えられる。また、全被験者について、/i/もしくは/e/での識別率が低くなっている。誤識別の結果を調べると、/i/と/e/を相互に誤識別している場合が多かった。これは/i/と/e/の口の開け方が近く、筋電位信号のパターンが類似しているために起こったものと考えられる。
Figure 0005030150
図4は、被験者Aの5試行分の識別結果の例を示す図である。図4に示すように、音声よりも約80ms先行して、音声の識別が行われていることがわかる。ただし、この例においては、/i/と/o/の発音に誤識別が多く起こっている。
また、周波数特徴の有効性を調べるために、振幅特徴のみを用いて学習と識別を行った結果が表3である。SVMの2つのパラメータγとCは、表1の値を用いた。振幅特徴と周波数特徴の両方を使用した時に比べて、振幅特徴のみを用いた場合の5母音の平均識別率は大きく低下した。特に、被験者Dについては、約37%も識別率が下がっており、周波数特徴が5母音の識別に大きく寄与していたことがわかる。
Figure 0005030150
次に、silence以外の母音を識別開始してから、16フレーム分の識別結果で投票を行って、最も多く識別された母音を識別結果として、識別率を求めた。発話単位の識別率は、以下のように定義する。
Figure 0005030150
ここで、式(6)の分母は30である。このようにして求めた被験者ごとの5母音の識別率を表4に示す。フレーム単位の識別率よりも、識別精度は大幅によくなり、被験者A、B、Cで90%以上の識別率が得られた。被験者Dについても、76%の識別率が得られた。このように投票を行うことで、十分な識別精度が得られることが示された。これに対して、先に説明したフレーム単位の識別では、早い時点で結果が得られるという利点がある。
Figure 0005030150
本発明の音声認識装置は、利用者の発声時の表情筋及び声帯周辺の筋から計測した筋電位信号の特徴量からラベル付き訓練データを生成し、SVMを用いて識別関数を構成し、SVMが学習した識別関数を用いて、筋電位信号の特徴量のみに基づいて音声を識別するため、また、線形分離不可能な訓練データから少ない計算量で識別関数を構成するため、識別性が高く、筋電位信号を用いた音声認識を実用的に利用することができる。
本発明の実施例に係る音声認識装置の構成を示すブロック図である。 本発明の実施例に係る音声認識装置において計測する筋電位信号の測定位置を説明する図である。 5母音を連続して発声した時の音声とEMG信号の例を示す図である。 被験者Aの5試行分の識別結果の例を示す図である。
符号の説明
11 信号計測部
12 特徴抽出部
13 訓練データ生成部
14 サポートベクトルマシン学習部
15 音声識別部

Claims (4)

  1. 口唇周辺の複数箇所の筋電位信号を検出し、前記筋電位信号を基に積分筋電位信号を計算する信号計測部と、
    各箇所において、前記信号計測部から検出された筋電位信号のFFTケプストラム係数から低次の5項により5次元の周波数特徴と、前記積分筋電位信号からフレーム内の時間平均により1次元の振幅特徴と、を抽出して特徴ベクトルを抽出する特徴抽出部と、
    前記特徴抽出部から抽出された特徴ベクトルに、音声信号の零交叉数に基づき、無発声区間を含めてクラスラベルを付与することより訓練データを生成する訓練データ生成部と、
    前記訓練データ生成部により生成された訓練データに基づいてサポートベクトルマシンを構成するサポートベクトルマシン学習部と、
    前記サポートベクトルマシン学習部により構成されたサポートベクトルマシンによるデータ処理により前記特徴情報から母音音声を識別する音声識別部と
    を備えることを特徴とする音声認識装置。
  2. 請求項1に記載の音声認識装置において、
    前記信号計測部は、話者の表情筋および声帯周辺に貼り付けた表面電極を用いて筋電位信号を計測する
    ことを特徴とする音声認識装置。
  3. 請求項1に記載の音声認識装置において、
    前記音声識別部は、
    複数フレーム分の識別結果で投票を行い、最も多く識別された母音を識別結果として識別する
    ことを特徴とする音声認識装置。
  4. 信号計測部およびデータ処理装置を備え、前記信号計測部により検出した筋電位信号からデータ処理装置により音声認識処理を行う音声認識処理方法であって、
    前記信号計測部により検出された口唇周辺の複数箇所の筋電位信号のFFTケプストラム係数から低次の5項により5次元の周波数特徴を抽出し、前記筋電位信号を基に積分筋電位信号を計算してフレーム内の時間平均により1次元の振幅特徴を抽出してから特徴ベクトルを抽出するステップと、抽出された特徴ベクトル、音声信号の零交叉数に基づき、無発声区間を含めてクラスラベルを付与することにより訓練データを生成するステップと、
    生成された訓練データに基づいてサポートベクトルマシンを構成するステップと、
    前記構成されたサポートベクトルマシンによるデータ処理により前記特徴情報から母音音声を識別するステップと
    を備えることを特徴とする音声認識処理方法。
JP2007071728A 2007-03-20 2007-03-20 筋電位信号による音声認識装置 Expired - Fee Related JP5030150B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007071728A JP5030150B2 (ja) 2007-03-20 2007-03-20 筋電位信号による音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007071728A JP5030150B2 (ja) 2007-03-20 2007-03-20 筋電位信号による音声認識装置

Publications (2)

Publication Number Publication Date
JP2008233438A JP2008233438A (ja) 2008-10-02
JP5030150B2 true JP5030150B2 (ja) 2012-09-19

Family

ID=39906304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007071728A Expired - Fee Related JP5030150B2 (ja) 2007-03-20 2007-03-20 筋電位信号による音声認識装置

Country Status (1)

Country Link
JP (1) JP5030150B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101785500B1 (ko) * 2016-02-15 2017-10-16 인하대학교산학협력단 근육 조합 최적화를 통한 안면근육 표면근전도 신호기반 단모음인식 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5924724B2 (ja) * 2011-05-09 2016-05-25 国立大学法人岩手大学 顎口腔運動状態の推定方法及び顎口腔運動状態の推定装置
EP3956883A4 (en) 2019-04-19 2022-12-21 Magic Leap, Inc. VOICE RECOGNITION ENGINE INPUT IDENTIFICATION
CN113729738B (zh) * 2021-09-13 2024-04-12 武汉科技大学 一种多通道肌电特征图像的构建方法
CN116372322B (zh) * 2023-05-09 2023-10-03 佛山市三乔焊接实业有限公司 一种mig焊机的新型双脉冲控制方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612483A (ja) * 1992-06-26 1994-01-21 Canon Inc 音声入力方法及び装置
JP4827285B2 (ja) * 2000-09-04 2011-11-30 東京エレクトロン株式会社 パターン認識方法、パターン認識装置及び記録媒体
JP2003123025A (ja) * 2001-10-17 2003-04-25 Toshiba Corp パターン認識装置とパターン認識方法
JP3908965B2 (ja) * 2002-02-28 2007-04-25 株式会社エヌ・ティ・ティ・ドコモ 音声認識装置及び音声認識方法
JP3892754B2 (ja) * 2002-05-20 2007-03-14 株式会社エヌ・ティ・ティ・ドコモ 測定装置
JP4447857B2 (ja) * 2003-06-20 2010-04-07 株式会社エヌ・ティ・ティ・ドコモ 音声検出装置
JP4713111B2 (ja) * 2003-09-19 2011-06-29 株式会社エヌ・ティ・ティ・ドコモ 発話区間検出装置、音声認識処理装置、送信システム、信号レベル制御装置、発話区間検出方法
JP2005128242A (ja) * 2003-10-23 2005-05-19 Ntt Docomo Inc 音声認識装置
JP2005128245A (ja) * 2003-10-23 2005-05-19 Ntt Docomo Inc 音声認識装置
JP4729902B2 (ja) * 2003-12-12 2011-07-20 株式会社豊田中央研究所 音声対話システム
US7890323B2 (en) * 2004-07-28 2011-02-15 The University Of Tokushima Digital filtering method, digital filtering equipment, digital filtering program, and recording medium and recorded device which are readable on computer
JP4150795B2 (ja) * 2005-01-21 2008-09-17 国立大学法人徳島大学 聴覚補助装置、音声信号処理方法、音声処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101785500B1 (ko) * 2016-02-15 2017-10-16 인하대학교산학협력단 근육 조합 최적화를 통한 안면근육 표면근전도 신호기반 단모음인식 방법

Also Published As

Publication number Publication date
JP2008233438A (ja) 2008-10-02

Similar Documents

Publication Publication Date Title
Janke et al. EMG-to-speech: Direct generation of speech from facial electromyographic signals
US7680666B2 (en) Speech recognition system, speech recognition method, speech synthesis system, speech synthesis method, and program product
EP2887351A1 (en) Computer-implemented method, computer system and computer program product for automatic transformation of myoelectric signals into audible speech
Simantiraki et al. Stress detection from speech using spectral slope measurements
US20200178883A1 (en) Method and system for articulation evaluation by fusing acoustic features and articulatory movement features
JP5030150B2 (ja) 筋電位信号による音声認識装置
CN106233379A (zh) 声音合成设备和用于合成声音的方法
Hahm et al. Parkinson's condition estimation using speech acoustic and inversely mapped articulatory data
CN103705218B (zh) 构音障碍识别的方法、系统和装置
US12105876B2 (en) System and method for using gestures and expressions for controlling speech applications
Srisuwan et al. Comparison of feature evaluation criteria for speech recognition based on electromyography
Fu et al. Svoice: Enabling voice communication in silence via acoustic sensing on commodity devices
Eray et al. An application of speech recognition with support vector machines
Ali et al. Intelligent pathological voice detection
Ananthakrishnan et al. Mapping between acoustic and articulatory gestures
CN113160366A (zh) 一种3d人脸动画合成方法及系统
Amami et al. A robust voice pathology detection system based on the combined bilstm–cnn architecture
Lee et al. An exploratory study of emotional speech production using functional data analysis techniques
Cao et al. Comparing the performance of individual articulatory flesh points for articulation-to-speech synthesis
Rathina et al. Basic analysis on prosodic features in emotional speech
JP2004329750A (ja) 生体信号を利用した人工発声装置及び方法
Kalgaonkar et al. Recognizing talking faces from acoustic doppler reflections
Narayanan Speech in Affective Computing 12
Belete College of Natural Sciences
Sivaraman et al. Analysis of coarticulated speech using estimated articulatory trajectories.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120621

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees