JPH0466999A - 文節境界検出装置 - Google Patents

文節境界検出装置

Info

Publication number
JPH0466999A
JPH0466999A JP2179216A JP17921690A JPH0466999A JP H0466999 A JPH0466999 A JP H0466999A JP 2179216 A JP2179216 A JP 2179216A JP 17921690 A JP17921690 A JP 17921690A JP H0466999 A JPH0466999 A JP H0466999A
Authority
JP
Japan
Prior art keywords
reliability
neural network
phrase
standard
standard language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2179216A
Other languages
English (en)
Inventor
Shin Kamiya
伸 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2179216A priority Critical patent/JPH0466999A/ja
Publication of JPH0466999A publication Critical patent/JPH0466999A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 【産業上の利用分野】
二の発明は、連続音声認識装置等に用いられる文節境界
検出装置に関する。
【従来の技術】
従来、連続音声認識装置において、連続発声され1こ音
声を認識する場合には次のようにして文節境界位置を検
出している。すなわち、パワー変化およびピッチ周波数
変化の韻律情報を表す特徴パラメータを用い几条件式を
求める。そして、入力された音声信号かみ抽出されたパ
ワーおよびピッチ周波数の値を上記条件式に代入して得
られfコ値と閾値との比較結果から文節境界位置を検出
するのである。
【発明が解決しようとする課題】
しかしながら、上述のような韻律情報に基ついて文節境
界を検出する方法においては、韻律情報には不確定な要
素が多い等の理白から定式化が困難である。したかって
、韻律情報を表す特徴パラメータを用いた条件式を求め
るためには十分な経験が必要であり、誰でも簡単に文節
境界検出用の条件式を求めることができないという問題
がある。 また、音声処理に韻律情報を用いる場合には、標準語に
おける韻律情報を用いる二とが多い。ところカミ話者に
は標準語を話せる人と話せない人とがあり、地域間差や
話者間差が大きい。したかって、連続発声され几音声を
韻律情報に基づいて認識する場合には、認識率の向上に
限度か有るという問題かある。 そこで、この発明の目的は、韻律情報における地域間差
や話者間差に拘わりなく、誰でも簡単な処理で文節境界
を検出できる文節境界検出装置を提供することにある。
【課題を解決するための手段】
上記目的を達成するため、第1の発明は、入力音声信号
から抽出された韻律情報を表す特徴パラメータに基づい
て文節境界を検出する文節境界検出装置において、第1
の所定数のフレームにおける入力音声信号から抽出され
た上記特徴パラメータを表す信号が入力され、この入力
された特徴パラメータに基づいて、上記第1の所定数の
フレームにおける中心フレームか文節境界である信頼度
(文節境界信頼度)を表す文節境界検出信号を所定の手
順によって出力するニューラルネットワークを備えたこ
とを特徴としている。 まf二、第2の発明は、第1の発明の文節境界検出装置
において、上記ニューラルネットワークは上記第1の所
定数のフレームにおける中心フレームか標準語で話され
たフレームである信頼度(標準語信頼度)を表す標準語
識別信号を所定の手順によって出力することを特徴とし
ている。 また、第3の発明は、第2の発明の文節境界検出装置に
おいて、上記ニューラルネットワークからの上記標準語
識別信号に基つく標準語信頼度を格納するメモリと、上
記メモリから第2の所定数分のフレームの標準語信頼度
を読み出して、この読み出した標準語信頼度の平均値を
算出する平均値算出部を備えて、上記ニューラルネット
ワークは上記平均値算出部によって算出された上記第2
の所定数分のフレームの標準語信頼度の平均値を取り込
み、この取り込んだ上記平均値と上記韻律情報を表す特
徴パラメータとに基づいて、上記文節境界信頼度を表す
文節境界検出信号および標準語信頼度を表す標準語識別
信号を所定の手順によって出力することを特徴としてい
る。
【作用】
第1の発明では、第1の所定数のフレームにお1する入
力音声信号から抽出された韻律情報の特徴パラメータを
表す信号がニューラルネットワークに入力される。そう
すると、このニューラルネットワークからは、入力され
た上記特徴パラメータに基づいて、上記第1の所定数の
フレームにおける中心フレームか文節境界である信頼度
(文節境界信頼度)を表す文節境界検出信号か所定の手
順によって出力される。その結果、上記ニューラルネッ
トワークから出力される文節境界検出信号から得られる
文節境界信頼度に基づいて、文節境界位置が検出される
。 すなわち、上記ニューラルネットワークに上記韻律情報
の特徴パラメータを表す信号を入力するだけで、文節境
界位置か自動的に検出されるのである。 まに、第2の発明では、上記第1の発明における上記ニ
ューラルネットワークによって、入力された上記第1の
所定数のフレームにおける韻律情報を表す特徴パラメー
タに基づいて、上記第1の所定数のフレームにおける中
心フレームか標準語で話されたフレームである信頼度(
標準語信頼度)を表す標準語識別信号か所定の手順によ
って出力される。しにがって、上記ニューラルネットワ
ークから出力される標準語識別信号から得られる標準語
信頼度に基ついて、当該中心フレームに係る発声が標準
語である度合いが得られる。 また、第3の発明では、上記第2の発明における上記ニ
ューラルネットワークからの上記標準語識別信号に基づ
く標準語信頼度がメモリに格納される。そうすると、上
記メモリに格納された第2の所定数分のフレームの標準
語信頼度が平均値算出部によって読み出されて平均値が
算出される。 そして、算出された上記標準語信頼度の平均値か上記ニ
ューラルネットワークに取り込まれ、この取り込まれた
上記平均値と上記韻律情報を表す特徴パラメータとに基
づいて、上記文節境界信頼度を表す文節境界検出信号お
よび標準語信頼度を表す標準語識別信号か所定の手順に
よって出力される。 したかって、入力音声信号から抽出されfこ韻律情報を
表す特徴パラメータに含まれる地域間差や話者開蓋が標
準語信頼度によって正規化されて、文節境界信頼度が求
められる。
【実施例】
以下、この発明を図示の実施例により詳細に説明する。 第1図はこの発明の文節境界検出装置における一実施例
のブロック図である。第1図において、入力された音声
信号は音声分析部1において例えばサンプリング周期1
2KHzでA/D変換され、更にフレーム(lフレーム
は16m5程度)毎にパワーおよびピッチ周波数の韻律
情報を表す特徴パラメータが算出される。こうして抽出
された2種の特徴パラメータは遅延部2によって第1の
所定数のフレームに相当する時間だけ遅延されて二二一
うルネノトワーク3に入力される。 そうすると、このニューラルネットワーク3によって、
入力された2種の特徴パラメータと直前の第2の所定数
分のフレームから後に詳述するようにして求められる当
該話者の発声が標準語である信頼度(以下、標準語信頼
度と言う)とに基づいて、文節境界の候補が後に詳述す
るようにして各フレーム毎に検出される。そして、文節
境界である信頼度(以下、文節境界信頼度と言う)を表
す文節境界検出信号が検出結果として出力される。した
かって、この文節境界検出信号から得られる文節境界信
頼度に基づいて、文節境界位置を検出てきるのである。 さらに、このニューラルネットワーク3において、入力
された上記2種の特徴パラメータと上記標準語信頼度と
に基づいて当該フレームが標準語であるかが識別され、
各フレーム毎の標準語信頼度を表す標準語識別信号が識
別結果として出力される。 こうして、ニューラルネットワーク3から出力され几各
フレーム毎の標準語信頼度を表す標準語識別信号は平均
値算出部4に入力される。平均値算出部4はニューラル
ネットワーク3から入力された標準語信頼度をメモリ5
に格納すると共に、メモリ5に格納された標準語信頼度
の中から上記第2の所定数分のフレームに係る標準語信
頼度を読み出してその平均値を算出する。こうして算出
された標準語信頼度の平均値を表す信号か平均値算出部
4からニューラルネットワーク3に対して出力される。 そして、平均値算出部4から出力された標準語信頼度の
平均値を表す信号は、上述のようにニューラルネットワ
ーク3に入力されて、次のフレームにおける文節境界信
頼度および標準語信頼度を求める際の入力データとなる
のである。 すなわち、ニューラルネットワーク3は上記2種の特徴
パラメータと標準語信頼度とに基づいて、各フレーム毎
の文節境界信頼度を求めるのである。 こうすることによって、話者の音声から抽出された韻律
情報を表す特徴パラメータに基づいてのみならず、その
話者の発声が標準語である度合いに基づいて文節境界を
検出てきるのである。 以下、上記ニューラルネットワーク3および遅延部2に
ついて詳細?こ説明する。 第2図は遅延部2のブロック図およびニューラルネット
ワーク3の構造の概念図と、それらの接続関係を示す図
であるっニューラルネットワーク3は、入力層31.中
間層32および出力層33の3層構造を有する3層パー
セプトロン型ニューラルネットワークである。二〇二ュ
ーラルネソトワーク3の入力層31には(2N−1例え
は、N−10)個のユニットを配し、中間層32には6
個のユニットを配し、出力層33には2個のユニットを
配している。 上記入力層3Iの(2N−1)個の各ユニットと中間層
32の総てのユニットとはシナプス結合によって結合さ
れており、中間層32の6個の各ユニットと出力層33
の総てのユニットともシナプス結合によって結合されて
いる。 上記入力層31の2N個のユニット35.・・・、40
はN個ずつ2つのグループに分けられる。そして、一方
のクループのユニット35.36.・−137には、音
声分析部1からのパワーを表す信号を入力する。また、
他方のクループのユニット3839、・、40には、音
声分析部lかろのピッチ周波数を表す信号を入力する。 その際に、上記両クループのユニットのうちユニット3
5.38には音声分析部1からのパワーを表す信号ある
いはピッチ周波数を表す信号を直接入力し、ユニット3
639には音声分析部1からのパワーを表す信号あるい
はピッチ周波数を表す信号を遅延部2における1個の遅
延素子2IによってIフレームに相当する時間だけ遅延
させて入力する。以下同様にして、ユニット37.40
には音声分析部1からのパワーを表す信号あるいはピッ
チ周波数を表す信号を(N−1)個の遅延素子21によ
って(N−1)フレームに相当する時間たけ遅延させて
入力する。 こうすることによって、遅延部2に音声分析部1からの
連続したNフレーム(例えば、lOフレーム)分のパワ
ーを表す信号およびピッチ周波数を表す信号を入力した
際に、Nフレーム目の特徴パラメータが遅延部2に人力
され73時点で上記Nフレーム分のパワーを表す信号お
よびピッチ周波数を表す信号か同時にニューラルネット
ワーク3の入力層31に入力されることになるのである
。 さらに、上記ニューラルネットワーク3の入力層31に
おける残りのユニット41には、上述のように平均値算
出部4からの標準語信頼度の平均値を表す信号か入力さ
れる。 まfこ、出力層33の2個のユニット42.43のうち
、ユニット42には“文節境界”を割り付ける一方、ユ
ニット43には”標準語”を割り付ける。 すなわち、ユニット42から出力される信号は文節境界
信頼度を表す上記文節境界検出信号であり、ユニット4
3から出力される信号は標準語信頼度を表す上記標準語
識別信号である。 上記ニューラルネットワーク3の学習は、次のように誤
差逆伝播法によって実施する。すなわち、まず多数話者
の音声信号から、第3図に示すようにNフレーム分のパ
ワーおよびピッチ周波数の2種の特徴パラメータの時系
列を得て、これを学習データとする。ま1こ、上記Nフ
レーム分の学習データの中心フレームが文節境界フレー
ムであるかとうかを視察によって求める一方、当該Nフ
レーム分の学習データに係る話者の発声が標準語である
かとうかを求めておく。 そして、学習の際には、上記連続したNフレーふ分の2
種の特徴パラメータから成る学習データを、上述のよう
にしてニューラルネットワーク3における入力層31の
2N個の各ユニット3540に入力する。その際に、第
1図におlする平均値算出部4かるニューラルイ、ソト
ワーク3への信号ラインに設けられfニスイッチ6を“
開“にして、学習時においてはニューラルネットワーク
3の出力値がフィードバックされないようにする。 そして、入力層31のユニット41には、当該学習デー
タに係る話者の発声が標準語である場合には値“じを表
す信号を入力する一方、標準語てない場合には値“0”
を表す信号を入力する。 さらに、入力したNフレーム分の学習データの中心フレ
ームが文節境界フレームである場合には文節境界フレー
ムであることを表す教師データ”ビを出力層33のユニ
ット42に入力し、文節境界フレームでない場合には文
節境界フレームでないことを表す教師データ“0”を入
力する。一方、上記中心フレームが標準語であるフレー
ム(以下、標準語フレームと言う)である場合には標準
語フレームであることを表す教師データ“ビを出力層3
3のユニット43に入力し、標準語フレームでない場合
には標準語フレームでないことを表す教師データ“0”
を入力するのである。こうして、誤差逆伝播法による学
習が実施される。 尚、第3図においては、分かり易くするために各学習デ
ータの時系列をアナログ的に表現し、各フレームの間隔
は実際より可なり誇張して表現している。 すなわち、この学習においては、ニューラルネットワー
ク3の入力層31にNフレーム分の韻律情報を表す特徴
パラメータと標準語信頼度が入力された場合に、このN
フレームの中心フレームにおける文節境界信頼度および
標準語信頼度を出力するように学習するのである。そう
すると、ニューラルネットワーク3の出力層33におけ
るユニ、ソト42,43からの出力値が教師データと同
じになるように各ノナブス結合に付加された重みの値を
設定し直してニューラルネットワーク3の構造を決定す
るのである。 こうして学習されたニューラル不・ノドワーク3によっ
て人力音声信号の文節境界フレームを検出する際には、
平均値算出部4からニューラル不・ノドワーク3への信
号ラインに設けられ1ニスイノチロを”閉”にして、平
均値算出部4からの枕準語信頼度の平均値を表す信号か
ニューラル不・ノドワーク3の入力層31におけるユニ
ット41に入力されるようにしておく。 音声分析部lによって抽出されたノくワーおよびピッチ
周波数の2種のパラメータの時系列を遅延部2に入力す
る。そうすると、遅延部2に入力された2種のパラメー
タの時系列は、上述のようにNフレーム単位でニューラ
ルネットワーク3の入力層31の各ユニット35.・、
40に順次時間を繰り下げて入力される。さらに、ユニ
ット41には、平均値算出部4から出力されるTフレー
ム(例えば、30フレーム)分の最新の標準語信頼度の
平均値を表す信号が入力される。 この場合、上記標準語信頼度の平均値の初期値として例
えば“05”をメモリ5に格納しておく。 そして、上記初期値“0.5”を表す信号に基ついてニ
ューラルネットワーク3の出力層33′:″)ユニット
43から最初の標準語信頼度を表す標準語識別信号が出
力されと、その標準語識別信号に基つく標準語信頼度の
値をメモリ5に追加する。そして、この新たに追加され
た標準語信頼度の値と上記初期値との平均値を次回のフ
レームに係る処理の際の入力データとするのである。以
下、同様にして出力層33のユニット43から標準語信
頼度を表す標準語識別信号が出力される毎に、その標準
語信頼度の値をメモリ5に追加して行き、メモリ5に格
納された(標準語信頼度十初期値)の数がTフレームに
なった以降は最新のT個の標準語信頼度の値をメモリ5
に格納しておくようにするのであ上述のように、平均値
算出部4からの標準語信頼度の平均値を表す信号かユニ
ット41に入力されると、ニューラルネットワーク3の
各ユニットは学習によって設定され几重みの値に基つく
出力値をンナプス結合によって接続された上層のユニッ
トに出力する。その結果、出力層33のユニット42は
、入力されたNフレームの中心フレームか文節境界であ
る信頼度に応しに“ビ〜”O”の値を表す文節境界検出
信号を出力する。一方、ユニット43は、人力されたN
フレームの中心フレームか標準語である信頼度に応し几
“ビ〜“0”の値を表す標準語識別信号を出力するので
ある。 すなわち、ニューラルネットワーク3におけるユニット
42からの出力信号に基づいて人力音声信号の文節境界
を検出できるのである。その際に、ユニット43からの
標準語信頼度の平均値をニューラルネットワーク3の人
力層31にフィードバックして、次の文節境界検出の際
に標準語信頼度を加味して文節境界検出処理を実行する
ようにしている。したかって、ユニット42からの文節
境界信頼度を表す信号に基づく文節境界検出は、アクセ
ントパターンやイントネーンヨンパターン等を表す韻律
情報における地域間差や話者開蓋を標準語信頼度によっ
て正規化して、正しく文節境界を検出てきるのである。 このことは、次に様に考えることかできる。すなわち、
上述のように、ニューラルネットワーク3の入力層31
に話者の発声か標準語である度合いを表す値を入力する
ユニット41を設け、学習に際して話者の今市が標準語
である場合にはユニット41に“ビを入力する一方、話
者の発声が標準語でない場合には“0”を人力するよう
にしている。 したかって、学習済みのニューラルネットワーク3の中
には、標準語の韻律情報に基づいて文節境界信頼度を求
めるネットワークと標準語以外の韻律情報に基づいて文
節境界信頼度を求めるネットワークとが形成されると考
えられる。そして、文節境界検出時においては、人力層
31のユニット41にフィードバックされる当該話者の
標準語信頼度の平均値に応じて標準語の韻律情報に基づ
くネットワークまたは標準語以外の韻律情報に基つくネ
ットワークのいずれかによって求められた出力値に、上
記標準語信頼度の平均値に応した重み付けが成されfこ
値かニューラルネットワーク3から出力されるのである
。 上述のように、本実施例の文節境界検出装置においては
、音声分析部Iによって抽出したべ力音声信号のパワー
およびピッチ周波数の韻律情報を表す特徴パラメータの
連続したNフレーム分をニューラルネットワーク39入
力層31におけるユニット35.・、40に入力する。 また、ニューラルネットワーク3の入力層31のユニッ
ト41には直前のTフレームにおける標準語信頼度の平
均値を人力する。そうすると、ニューラルネットワーク
3は、入力されたNフレーム分の特徴パラメータと直前
のTフレームにおける標準語信頼度の平均値に基づいて
、上記Nフレームの中心フレームが文節境界である信頼
度を表す文節境界検出信号を出力層33のユニット42
から出力する。一方、上記中心フレームが標準語である
信頼度を表す標準語識別信号を出力層33のユニット4
3から出力する。 その際に、上記出力層33のユニット43から出力され
た最新のTフレーム分の標準語信頼度の平均値を平均値
算出部4て算出してニューラルネットワーク3の入力層
31におけるユニット41にフィードバックするように
している。すなわち、ニューラルネットワーク3によっ
て実施されろ上記中心フレームに係る文節境界信頼度を
表す文節境界検出信号の生成は、現在入力され1ニNフ
レ一ム分の2種の特徴パラメータと直前におけるTフレ
ーム分の標準語信頼度の平均値に基づいて実施されるの
である。こうすることによって、上記Nフレーム分の韻
律情報を表す特徴パラメータに基づいて求められた中心
フレームにおける文節境界信頼度に含まれる地域間差や
話者開蓋が当該話者の標準語信頼度によって正規化され
るのである。 また、本実施例においては、ニューラルネットワーク3
の入力層31にパワーとピッチ周波数の特徴パラメータ
と直面のTフレームにおける標準語信頼度の平均値とを
入力するという非常に簡単な処理によって、文節境界フ
レームである信頼度を自動的に求めることかできる。 したかって、本実施例によれば、入力音声信号から抽出
さイー1ニバワーやピッチ周波数等の韻律情報を表す特
徴パラメータに基ついて文節境界を検出する際に、その
韻律情報に含まイーる地域間差や話者開蓋に拘わりなく
、誰でら簡単な処理で文節境界を検出てきるのである。 上記実施例においては、特徴パラメータとしてパワーお
よびピッチ周波数を用いてし1ろか、この発明はこれら
に限定されるものではない。要は、韻律情報を表す特徴
パラメータであればよい。 上記実施例におけるニューラルネットワーク3の入力層
あるいは中間層のユニット数は、入力する特徴パラメー
タの種類数、フレーム数および識別精度等によって適宜
に変更しても何等差し支えない。 上記遅延部2の構成は本実施例に限定されるものてはな
い。 上記実施例において用いられるニューラルネットワーク
3として、3層バーセブトロン型ニューラルネットワー
クを用いているが、4層以上のパーセブトロン型ニュー
ラルネットワークであっても構わない。
【発明の効果】
以上より明らかなように、第1の発明の文節境界検出装
置:よ、第1′:)所定数のフレームにおける入力音声
信号から抽出されR韻律情報を表す特徴パラメータに基
ついて、上記第1の所定数のフレームにおける中心フレ
ームか文節境界である信頼度(文節境界信頼度)を表す
文節境界検出信号をニューラルネットワークから出力す
るので、上記文節境界検出信号から得られる文節境界信
頼度に基づいて文節境界位置を検出てきる。 したかって、この発明によれば、上記ニューラルネット
ワークに上記特徴パラメータを入力するだけの簡単な処
理で、文節境界位置を自動的に検出てきる。 また、第2の発明の文節境界検出装置は、第1の発明に
おける上記ニューラルネットワークによって、上記第1
の所定数のフレームにおける中心フレームか標準語で話
されたフレームである信頼度(標準語信頼度)を表す標
準語識別信号を出力するようにし1こので、上記第1の
所定数のフレームにおける中心フレームが標準語である
明合いを簡単な処理で自動的に知ることかできる。 ま几、第3の発明の文節境界検出装置は、第2の発明に
おける上記ニューラルネットワークからの標準語信頼度
を順次メモリに格納し、上記メモリから第2の所定数分
のフレームの標準語信頼度の平均値を平均値算出部によ
って算出し、上記ニューラルネットワークは算出された
上記平均値と上記韻律情報を表す特徴パラメータとに基
づいて上記文節境界検出信号および標準語識別信号を出
力するので、上記特徴パラメータに含まれる地域間差や
話者開蓋を上記標準語信頼度によって正規化して文節境
界位置を検出できる。 したかって、この発明によれば、韻律情報における地域
間差や話者開蓋に拘わりなく、誰でも簡単な処理で文節
境界を検出てきる。
【図面の簡単な説明】
第1図はこの発明の文節境界検出装置における一実施例
のブロック図、第2図は第1図における遅延部とニュー
ラルネットワークの詳細図、第3図は第2図におけるニ
ューラルネットワークの学習に用いる学習データと教師
データの一例を示す図である。 ■・・音声分析部、      2・遅延部、3 ニュ
ーラルネットワーク、 4・・平均値算出部、      5・・・メモリ、2
1・・遅延素子、      31・・入力層、32・
・中間層、       33・・出力層、35〜43
・・・ユニット。 第1図 第2図

Claims (3)

    【特許請求の範囲】
  1. (1)入力音声信号から抽出された韻律情報を表す特徴
    パラメータに基づいて文節境界を検出する文節境界検出
    装置において、 第1の所定数のフレームにおける入力音声信号から抽出
    された上記特徴パラメータを表す信号が入力され、この
    入力された特徴パラメータに基づいて、上記第1の所定
    数のフレームにおける中心フレームが文節境界である信
    頼度すなわち文節境界信頼度を表す文節境界検出信号を
    所定の手順によって出力するニューラルネットワークを
    備えたことを特徴とする文節境界検出装置。
  2. (2)請求項1に記載の文節境界検出装置において、 上記ニューラルネットワークは上記第1の所定数のフレ
    ームにおける中心フレームが標準語で話されたフレーム
    である信頼度すなわち標準語信頼度を表す標準語識別信
    号を所定の手順によつて出力することを特徴とする文節
    境界検出装置。
  3. (3)請求項2に記載の文節境界検出装置において、 上記ニューラルネットワークからの上記標準語識別信号
    に基づく標準語信頼度を格納するメモリと、 上記メモリから第2の所定数分のフレームの標準語信頼
    度を読み出して、この読み出した標準語信頼度の平均値
    を算出する平均値算出部を備えて、上記ニューラルネッ
    トワークは上記平均値算出部によって算出された上記第
    2の所定数分のフレームの標準語信頼度の平均値を取り
    込み、この取り込んだ上記平均値と上記韻律情報を表す
    特徴パラメータとに基づいて、上記文節境界信頼度を表
    す文節境界検出信号および標準語信頼度を表す標準語識
    別信号を所定の手順によって出力することを特徴とする
    文節境界検出装置。
JP2179216A 1990-07-04 1990-07-04 文節境界検出装置 Pending JPH0466999A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2179216A JPH0466999A (ja) 1990-07-04 1990-07-04 文節境界検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2179216A JPH0466999A (ja) 1990-07-04 1990-07-04 文節境界検出装置

Publications (1)

Publication Number Publication Date
JPH0466999A true JPH0466999A (ja) 1992-03-03

Family

ID=16061969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2179216A Pending JPH0466999A (ja) 1990-07-04 1990-07-04 文節境界検出装置

Country Status (1)

Country Link
JP (1) JPH0466999A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07138998A (ja) * 1993-11-17 1995-05-30 Sankyo Kogyo Kk 潜函工法による井筒集水用の垂直配列vスロットスクリーン及びこのスクリーン用ユニット
JP2008082072A (ja) * 2006-09-28 2008-04-10 Nippon Steel & Sumikin Metal Products Co Ltd 土木構造用の波付け鋼板および同波付け鋼板の製造方法ならびに同波付け鋼板を用いて構築される構造物
JP2009031452A (ja) * 2007-07-25 2009-02-12 Sony Corp 音声解析装置、および音声解析方法、並びにコンピュータ・プログラム
US7908142B2 (en) 2006-05-25 2011-03-15 Sony Corporation Apparatus and method for identifying prosody and apparatus and method for recognizing speech
US7979270B2 (en) 2006-12-01 2011-07-12 Sony Corporation Speech recognition apparatus and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07138998A (ja) * 1993-11-17 1995-05-30 Sankyo Kogyo Kk 潜函工法による井筒集水用の垂直配列vスロットスクリーン及びこのスクリーン用ユニット
US7908142B2 (en) 2006-05-25 2011-03-15 Sony Corporation Apparatus and method for identifying prosody and apparatus and method for recognizing speech
JP2008082072A (ja) * 2006-09-28 2008-04-10 Nippon Steel & Sumikin Metal Products Co Ltd 土木構造用の波付け鋼板および同波付け鋼板の製造方法ならびに同波付け鋼板を用いて構築される構造物
US7979270B2 (en) 2006-12-01 2011-07-12 Sony Corporation Speech recognition apparatus and method
JP2009031452A (ja) * 2007-07-25 2009-02-12 Sony Corp 音声解析装置、および音声解析方法、並びにコンピュータ・プログラム
US8165873B2 (en) 2007-07-25 2012-04-24 Sony Corporation Speech analysis apparatus, speech analysis method and computer program

Similar Documents

Publication Publication Date Title
JP2764277B2 (ja) 音声認識装置
US4956865A (en) Speech recognition
JPH04362699A (ja) 音声認識方法及び装置
Tsenov et al. Speech recognition using neural networks
US20040015357A1 (en) Method and apparatus for rejection of speech recognition results in accordance with confidence level
CN115881164A (zh) 一种语音情感识别方法及系统
Liu et al. AI recognition method of pronunciation errors in oral English speech with the help of big data for personalized learning
JPH0466999A (ja) 文節境界検出装置
JPS5939760B2 (ja) 音声認識装置
JP3008593B2 (ja) 音声認識装置
JP6594273B2 (ja) 疑問発話判定装置、その方法、及びプログラム
JPH02254498A (ja) 音韻分類記号化装置
JPS60217395A (ja) 音声による危機状態の検出装置
KR100304530B1 (ko) 시간지연신경망을이용한특징어인식시스템
KR930011739B1 (ko) 초성 프리매칭의 2단매칭을 이용한 음성 인식방법
JPH1097269A (ja) 音声検出装置及び方法
JP2000148187A (ja) 話者認識方法、その方法を用いた装置及びそのプログラム記録媒体
JP2515609B2 (ja) 話者認識方法
JPH0460600A (ja) 音節境界決定装置
JPH02253299A (ja) 音節パターンの切り出し装置
JPH02254500A (ja) 発声速度推定装置
JPH0690631B2 (ja) 音声認識方法
JPH06324696A (ja) 音声認識装置及び方法
JPH03276199A (ja) 話者認識方法
JPS6140686A (ja) 標準パタ−ン登録方式