JPH0634195B2 - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPH0634195B2
JPH0634195B2 JP62016876A JP1687687A JPH0634195B2 JP H0634195 B2 JPH0634195 B2 JP H0634195B2 JP 62016876 A JP62016876 A JP 62016876A JP 1687687 A JP1687687 A JP 1687687A JP H0634195 B2 JPH0634195 B2 JP H0634195B2
Authority
JP
Japan
Prior art keywords
level
inverse
circuit
output
weighted sum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62016876A
Other languages
English (en)
Other versions
JPS63183499A (ja
Inventor
勝信 伏木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP62016876A priority Critical patent/JPH0634195B2/ja
Publication of JPS63183499A publication Critical patent/JPS63183499A/ja
Publication of JPH0634195B2 publication Critical patent/JPH0634195B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、音声波形より文字データを抽出する音声認識
装置に関する。
(従来技術とその問題点) 従来、入力音声のセグメンテーションを行なった後に音
声認識を行なう種々の方式が例えば下記文献“新美康永
著「音声認識」(共立出版)”等により知られている。
一方、パーセプトロンあるいはそれに類似した素子を階
層的に結合してネットワークを構成しテキスト−音素変
換を行なう方式が、テランス・ジェイ・セジョノスキー
(Trrence J.Sejnowski)及びチャールズ・アール・ロ
ーゼンバーグ(Charles R.Rosenberg)著の技術論文“N
ET talk:A Parallel Network that Learns to Read Al
oud”(The Johns Hopkins University Electrical Eng
ineering and Computer Science Technical Report JHU
/EECS-86/01)等の文献により知られている。
しかしながら、前者の音声認識方式は複雑なセグメンテ
ーションアルゴリズムを必要とし、且つセグメンテーシ
ョンアルゴリズムに必要な知識を獲得することが困難で
あるという欠点があった。一方、後者のテキスト−音素
変換方式は比較的単純な回路構成で実現できるとともに
学習を行なうことにより前記変換に必要な知識を比較的
容易に獲得できる長所がある。そこで、後者の如き方式
を前者の音声認識に応用することが考えられるが、後者
の方式は時間軸方向に対する処理が十分考慮されておら
ず適用が困難であった。
(問題点を解決するための手段) 前述の問題点を解決するために本願発明が提供する音声
認識装置は、音声の知覚または生成の過程に対応して設
けられた階層毎に各階層内の状態に対応して予め用意さ
れたセグメンテーションデータに従って制御される複数
個のインバースフィルタと、前記各階層内の状態に対応
して予め用意された重み係数に従って下層の前記インバ
ースフィルタの出力値の荷重和を算出し上層の前記イン
バースフィルタの入力とする手段とを有することを特徴
とする。
(作用) 人間の音声の知覚(生成)過程は、文字列の処理等を行
なう言語レベルの処理,音素レベルの処理,調音器官の
制御に対応した調音レベルの処理等の階層構造を持って
いることが知られている。また各階層は複数個の状態を
有しており、文字列レベルでは例えば日本語の場合
「あ」,「い」,「か」,「さ」等の文字に対応する状
態が、音素レベルでは「p」,「t」,「k」,
「s」,「a」,「i」,「y」等の音素に対応する状
態が、調音レベルでは「有声」,「無声」,「鼻音」,
「破裂」,「唇音」,「歯ぐき音」等の調音状態が考え
られる。
以上述べたような階層構造は比較的単純な構造を持ち直
観的にも分り易く音声認識システムを構築する上でも有
用である。音声波形を文字列に変換する音声認識処理を
行なう為には入力音声をセグメンテーションする処理
と、各セグメントが前記各階層のどの状態に対応するか
を推定する必要がある。一般に、各階層における一つの
状態が他の状態に移行する際にはその状態を表わすパラ
メータ値が特有の時間変化をするため、前記パラメータ
の時間変化特性を調べればセグメンテーションが可能と
なる。本発明においては前記状態に特有の時間変化特性
をインバースフィルタを用いて評価しセグメンテーショ
ン情報を得ることができる。前記インバースフィルタを
制御する各状態に固有の係数値(セグメンテーションデ
ータ)は、例えば実際の音声波形データと正解データを
与えて学習させることにより得ることができる。
前記状態を表わすパラメータとしては例えば、前記下層
の複数個のインバースフィルタの出力値の荷重和(線形
結合)を用いることができる。この際、前記状態に対す
る荷重和の荷重値(重み係数)は実際の音声データと正
解データを与えて学習することにより得ることができ
る。
(実施例) 次に図面を参照して本発明を一層詳しく説明する。第1
図は本発明の一実施例を示すブロック図である。
第1図において、まず音声波形が音源パラメータ抽出回
路1およびホルマントパラメータ抽出回路2に入力され
る。音源パラメータ抽出回路1は前記音声波形から有声
/無声データ,ピッチデータ,振巾データ等の音源パラ
メータ値を抽出し調音レベルの荷重和回路11,12,13に
出力する。一方、ホルマントパラメータ抽出回路2は前
記音声波形からホルマントパラメータ値を抽出し、調音
レベルの荷重和回路11,12,13に出力する。調音レベル
の荷重和回路11,12,13は前記音源パラメータ値および
ホルマントパラメータ値にそれぞれの荷重和回路毎に予
め定められた荷重をかけた後に、対応する調音レベルの
インバースフィルタ14,15,16に出力する。調音レベル
のインバースフィルタ14,15,16は予め各インバースフ
ィルタ毎に定められた係数に従って、対応する前記調音
レベルの荷重和回路の出力に対してインバースフィルタ
リングを行ない音素レベルの荷重和回路21,22,23に出
力する。
音素レベルの荷重和回路21,22,23は前記調音レベルの
インバースフィルタの出力に対して各荷重和回路毎に予
め定められた荷重をかけた後に加算を行ない総和を対応
する音素レベルのインバースフィルタ24,25,26に出力
する。音素レベルのインバースフィルタ24,25,26は、
予め各インバースフィルタ毎に定められた係数に従って
対応する前記音素レベルの荷重和回路の出力に対してイ
ンバースフィルタリングを行ない文字レベルの荷重和回
路31,32,33に出力する。
文字レベルの荷重和回路31,32,33は前記音素レベルの
インバースフィルタの出力に対して、各荷重和回路毎に
予め定められた荷重をかけた後に加算を行ない総和を対
応する文字レベルのインバースフィルタ34,35,36に出
力する。文字レベルのインバースフィルタ34,35,36は
予めインバースフィルタ毎に定められた係数に従って対
応する前記文字レベルの荷重和回路の出力に対してイン
バースフィルタリングを行ない最適文字検出回路41に出
力する。最適文字検出回路41は前記文字レベルのインバ
ースフィルタの出力値を比較し最小値に対応する文字を
出力する。
第2図は第1図において用いられているインバースフィ
ルタの構成例を示すブロック図である。
まず入力端子51を介して該レベルにおける前記荷重和回
路の出力値101が加算回路52に入力される。加算回路52
は荷重回路56,57,58の出力値と前記荷重和回路の出力
値101を加算し総和を遅延回路53に出力する。遅延回路5
3,54,55は該入力に対して該レベルにおいて定められ
た単位時間だけ遅延を行なう。荷重回路56,57,58は対
応する前記遅延回路の出力に対して各インバースフィル
タ毎に予め定められた前記係数を用いて荷重をかけ加算
回路52に出力する。遅延回路55の出力109はインバース
フィルタの出力値として出力端子59を介して出力され
る。
以上の説明においては、インバースフィルタとして第2
図に示されるような巡回型のフィルタを用いたが、一般
に時間遅れ要素を含むフィルタを用いれば各状態のパラ
メータ値の時間変化パターンを調べることができ同様の
効果が得られることは明らかである。
(発明の効果) 以上述べた如く本発明によればセグメンテーションデー
タに従って制御されるインバースフィルタを用いること
により比較的単純な回路構成でセグメンテーションおよ
び状態認識を行ない音声認識を行なうことが可能とな
る。
【図面の簡単な説明】
第1図は本発明の一実施例を示すブロック図、第2図は
その実施例で用いるインバースフィルタを示すブロック
図である。 これら図において、1は音源パラメータ抽出回路、2は
ホルマントパラメータ抽出回路、11,12,13は調音レベ
ルの荷重和回路、14,15,16は調音レベルのインバース
フィルタ、21,22,23は音素レベルの荷重和回路、24,
25,26は音素レベルのインバースフィルタ、31,32,33
は文字レベルの荷重和回路、34,35,36は文字レベルの
インバースフィルタ、41は最適文字検出回路、51は入力
端子、52は加算回路、53,54,55は遅延回路、56,57,
58は荷重回路、59は出力端子をそれぞれ表わす。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】音声の知覚または生成の過程に対応して設
    けられた階層毎に各階層内の状態に対応して予め用意さ
    れたセグメンテーションデータに従って制御される複数
    個のインバースフィルタと、前記各階層内の状態に対応
    して予め用意された重み係数に従って下層の前記インバ
    ースフィルタの出力値の荷重和を算出し上層の前記イン
    バースフィルタの入力とする手段とを有することを特徴
    とする音声認識装置。
JP62016876A 1987-01-27 1987-01-27 音声認識装置 Expired - Lifetime JPH0634195B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62016876A JPH0634195B2 (ja) 1987-01-27 1987-01-27 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62016876A JPH0634195B2 (ja) 1987-01-27 1987-01-27 音声認識装置

Publications (2)

Publication Number Publication Date
JPS63183499A JPS63183499A (ja) 1988-07-28
JPH0634195B2 true JPH0634195B2 (ja) 1994-05-02

Family

ID=11928385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62016876A Expired - Lifetime JPH0634195B2 (ja) 1987-01-27 1987-01-27 音声認識装置

Country Status (1)

Country Link
JP (1) JPH0634195B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2764277B2 (ja) * 1988-09-07 1998-06-11 株式会社日立製作所 音声認識装置
JPH03114345A (ja) * 1989-09-28 1991-05-15 Sekisui Chem Co Ltd 発呼者認識電話装置

Also Published As

Publication number Publication date
JPS63183499A (ja) 1988-07-28

Similar Documents

Publication Publication Date Title
EP3752964B1 (en) Speech style transfer
CN112466326B (zh) 一种基于transformer模型编码器的语音情感特征提取方法
JP5554893B2 (ja) 音声特徴ベクトル変換方法及び装置
CN111312245B (zh) 一种语音应答方法、装置和存储介质
EP0146470A2 (en) A text to speech system
CN115641543B (zh) 一种多模态抑郁情绪识别方法及装置
CN109256118B (zh) 基于生成式听觉模型的端到端汉语方言识别系统和方法
CN112002348B (zh) 一种患者语音愤怒情绪识别方法和系统
CN109979436A (zh) 一种基于频谱自适应法的bp神经网络语音识别系统及方法
Rong et al. Acoustic features extraction for emotion recognition
Yadav et al. Prosodic mapping using neural networks for emotion conversion in Hindi language
CN113571095B (zh) 基于嵌套深度神经网络的语音情感识别方法和系统
JP3014177B2 (ja) 話者適応音声認識装置
Patel et al. Optimize approach to voice recognition using iot
JPH0634195B2 (ja) 音声認識装置
CN109767790A (zh) 一种语音情感识别方法及系统
Jagadeeshwar et al. ASERNet: Automatic speech emotion recognition system using MFCC-based LPC approach with deep learning CNN
Yousfi et al. Isolated Iqlab checking rules based on speech recognition system
Nurdiyanto Human Voice Recognition Using Artificial Neural Networks
Binh et al. A high-performance speech-recognition method based on a nonlinear neural network
Fallside On the acquisition of speech by machines, asm
Tereikovskyi et al. The Procedure of Adapting the Design Parameters of the Convolutional Neural Network During the Speaker's Emotions Recognition
Tomar et al. CNN-MFCC model for speaker recognition using emotive speech
WO2022234615A1 (ja) 変換モデル学習装置、変換モデル生成方法、変換装置、変換方法およびプログラム
Pandit et al. Automatic speech recognition of Gujarati digits using artificial neural network