JP3280825B2 - 音声特徴分析装置 - Google Patents

音声特徴分析装置

Info

Publication number
JP3280825B2
JP3280825B2 JP10263195A JP10263195A JP3280825B2 JP 3280825 B2 JP3280825 B2 JP 3280825B2 JP 10263195 A JP10263195 A JP 10263195A JP 10263195 A JP10263195 A JP 10263195A JP 3280825 B2 JP3280825 B2 JP 3280825B2
Authority
JP
Japan
Prior art keywords
voice
feature
information
analysis
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10263195A
Other languages
English (en)
Other versions
JPH08297496A (ja
Inventor
一郎 服部
晃 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP10263195A priority Critical patent/JP3280825B2/ja
Priority to US08/638,295 priority patent/US5774850A/en
Publication of JPH08297496A publication Critical patent/JPH08297496A/ja
Application granted granted Critical
Publication of JP3280825B2 publication Critical patent/JP3280825B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声により個人の特徴
を分析する音声特徴分析装置に関する。
【0002】
【従来の技術】従来、図2に示すように、音声による特
徴分析では特定話者の基準となる音声を予め登録した後
に、分析を行う場合には、その基準となる音声と同一話
者の分析を行う音声入力データとの比較によって分析を
行っていた。図2において、91は音声入力部、92は
基準音声記憶部、93は音声入力部91より入力された
音声と、基準音声記憶部92に格納されている音声とを
比較する比較処理部で、94は比較処理部93の処理結
果を出力する出力部である。
【0003】ユーザは、始めに入力部91より基準とな
る音声(例えば健康であると感じている時の音声)を入
力し、基準音声記憶部92に保存しておく。そしてユー
ザが体調を診断する際に、入力部91より音声を入力す
る。比較処理部93では入力された音声と基準音声記憶
部92に格納されている音声とのずれを比較計算するこ
とによって、出力部94を用いてユーザに結果を提示し
ていた。この場合、音声データについて周波数等による
分析をした上での比較処理ではなく、単に入力された音
声を比較するのみであった。
【0004】
【発明が解決しようとしている課題】従来の方法では、
基準の音声を予め入力してしておかなくては処理を行う
ことができなく、また基準音声との比較音声を行う必要
から特定話者の分析しか行えない等の問題があった。ま
た、複数話者を分析するためには、複数の基準音声記憶
部を用意する必要があった。
【0005】
【課題を解決するための手段】本発明の課題は、特定の
言葉を発声した音を入力する入力手段と、前記入力手段
で入力された音の特徴を抽出する音声特徴抽出手段と、
前記特定の言葉について、音声の特徴と対応する分析情
報を格納した音声特徴分類テーブルと、前記音声特徴分
類テーブルに基づいて、前記音声特徴抽出手段で抽出し
た音声の特徴に対応する分析情報を出力する分析情報出
力手段により解決される。
【0006】
【作用】音声の特徴をソナグラムパターン、ピッチ周波
数に関する情報、発声時間等による複数の不特定話者に
おける相違を抽出しておき、その抽出した相違とそれに
対応する分析結果の対応テーブルを音声特徴分類テーブ
ルとして作成しておく。そして、入力された音声から特
徴を抽出し、音声特徴分類テーブルに基づいて、そこに
格納されている性格、健康状態、及びストレス度を提示
するようにした。また、2人の音声を入力することによ
って、2人の性格を分析し、その相性をも提示するよう
にした。
【0007】
【実施例】図1は本発明の一実施例の構成図である。図
中の1は本願発明の音声特徴分析装置であり、カラオケ
機100に接続されている。2は音声入力手段であり、
カラオケ機100のマイク101からの音声データを入
力処理するものであり、マイク101から入力されるア
ナログの音声データをA/D変換し、デジタルデータと
して音声特徴装置内のメモリ(図示せず)への格納処理
を行うものである。
【0008】3は音声特徴抽出手段であり、音声入力手
段2により入力処理された音声データについて、発声時
間、ピッチ周波数の最大値、ピッチ周波数の平均値、周
波数毎の時間分布のパターンであるソナグラム情報等に
基づいて、音声の特徴抽出するものである。4は音声の
特徴毎に対応する健康状態や性格に関する文章を格納し
た音声特徴分析テーブルである。音声特徴分析テーブル
4の詳細な構造については、図17乃至図22に示して
ある。すなわち、性格分析に関する音声特徴分析テーブ
ルには、図17の性格分類値テーブル24と図18の性
格分析情報テーブル25が該当する。本実施例では音声
特徴分析テーブルを分類値のテーブルと分析情報のテー
ブルの2つに分割してあるが、分類値を省略して、一つ
のテーブルとしてもよい。また同様に、健康分析に関す
る音声特徴分析テーブルには、図21の健康分類値テー
ブル28と図22の健康分析情報テーブル29が該当す
る。
【0009】5は音声特徴抽出手段で抽出した特徴をキ
ーとして、音声特徴分析テーブル4内の対応する文章デ
ータを検索し、求めた文章データを出力装置に出力させ
る分析情報出力手段である。102はディスプレイ、1
03はプリンタであって、音声特徴分析装置1の分析結
果の出力先である。図3は本発明の一実施例における動
作フローである。図4は音声特徴抽出処理の動作フロー
であり、図3のS34の処理の動作を詳細に示すもので
ある。また、図5は健康/性格分析処理の動作フローで
あり、図3のS35の処理の動作を詳細に示すものであ
る。
【0010】図6は、本発明における画面入力および画
面出力を例を示す図である。図3乃至図5のフローと、
図7乃至図22のデータ構造を用いて、本願の一実施例
の処理を説明する。まず、1人の健康と性格分析したい
か、あるいは、2人の相性および各人の健康と性格を分
析したいかを指定させておく(S31)。そして、図6
にあるとおり、ユーザ(発声者)に対して、画面を用い
て、特定の言葉をマイクを使用して発声するように指示
する(S32)。ここでは、STARTボタンをディス
プレイ上に点滅させることにより、発声を指示する。こ
の特定の言葉とは、後の分析処理の段階で音声の特徴を
抽出しやすいように、例えば、「I LOVE YO
U」等のように母音を多く含む言葉にすると良い。装置
からの指示に従いユーザが指定された言葉をマイク10
1を使用して発声すると、その音声データをA/D変換
し、デジタル化された音声データを装置内のメモリに格
納する(S33)。S31で2人の分析モードを選択し
た場合には、もう一度、S32、S33の処理を行う。
図8はデジタル化された音声データのメモリ上に格納さ
れる形式であり、所定単位時間毎の音声の強さが格納さ
れている。その内容を表示したものが、図7である。
【0011】次に、このメモリに格納されているデジタ
ル化した音声データの特徴を抽出する処理を行う(S3
4)。その詳細を図4を用いて説明する。まず図8に示
したデジタル化した音声データのうち、特定の言葉を発
声した部分(発声時間)を算出する。すなわち、図8に
示した音声データの強さが一定以上(雑音以上のレベ
ル)を始めて越えたメモリ上の位置情報を求め、そし
て、一定レベル以下の音声が一定時間以上続き、始めて
その一定レベル以下になった音声の位置情報を求める。
この2つの位置情報の間隔(個数)に音声データが格納
される単位時間をかけることで、発声時間を算出する
(S41)。
【0012】次に、このデジタル化した音声データの内
の発声部分をFFT(高速フーリエ変換)の処理を行う
ことで、図9に示したデータを得る。FFTの処理で
は、図7にあるように、発声部分を所定個数(N個)の
フレームに分割し、各フレーム毎に周波数毎のパワース
ペクトルの波形データ(図9)を求める(S42)。そ
して、各フレーム毎のパワースペクトルの波形データか
らピッチ周波数を算出し、メモリに格納する(S4
3)。ピッチ周波数とは各フレームの波形データの内、
最初のピークに対応する周波数のことである。1乃至N
フレームまでのピッチ周波数を格納したテーブルは図1
0のとおりである。さらに、図9のパワースペクトルの
データについて、閾値を越える周波数を求め、各フレー
ム番号を時間に対応させ、周波数と時間との対応のデー
タを求め、メモリに格納する(S44)。そのメモリ内
のデータ形式を示したものが図12であり、それを表示
したものが図11である。
【0013】次に図3における音声の特徴に対応する健
康・性格の分析データを求める処理(S35)の説明
を、図5のフローを用いて説明する。まず、発声時間分
類値を算出する(S51)。図4のS41で算出した発
声時間のデータをキーに、図13の発声時間分類テーブ
ル20を検索する。発声時間のデータが、発声時間分類
テーブル20の左から一番のカラムの値と2番目カラム
の値の範囲に入る対応するレコードの分類値を取り出
す。例えば、1.5秒の場合には「時1」という分類値
を取り出す。
【0014】次に、ピッチ周波数最大値の分類値を算出
する(S52)。図10にあるピッチ周波数データ11
からピッチ周波数の最大値を求め、その最大値をキーに
して、図14のピッチ周波数最大値分類テーブル21を
検索する。S51の処理と同様に、例えば、ピッチ周波
数の最大値が176Hzならば、分類値「最2」が算出
される。
【0015】ピッチ周波数最大値の場合と同様にして、
ピッチ周波数データ11と図15のピッチ周波数平均値
分類テーブル22から、ピッチ周波数平均値の分類値を
算出する(S53)。次に、ソナグラムパターンの分類
値を算出する(S54)。図12は、ソナグラムパター
ンデータ12の形式を示すものであり、図11はそのソ
ナグラムパターンデータ12の表示例である。ソナグラ
ムパターンデータ12とは、発声した音に含まれる各周
波数帯毎の時間分布パターンである。本実施例では時間
値の代わりにフレーム番号を用いている。このソナグラ
ムパターンデータ12は、図9の各フレームのFFT変
換後のデータより求める。すなわち、各フレームのFF
T変換後のデータのうち、各周波数帯について、閾値を
越えるパワーを有するかどうかを判定し、閾値を越えて
いれば、ソナグラムパターンデータ内の周波数帯とフレ
ーム番号に対応する位置に「1」を格納し、閾値を越え
ていなければ、「0」を格納する。
【0016】本装置には、分析に使用する、特定の性格
あるいは健康状態を示すソナグラムパターンデータを複
数個、あらかじめ記憶している。(図示せず)。S54
の動作は、まず、入力された音声データからソナグラム
パターンデータを作成し、予め記憶されている複数個の
ソナグラムパターンデータとの比較処理を行う。図16
にあるソナグラム分類テーブル23を用いて、この比較
処理を行う。図16のソナグラム分類テーブル23の第
1段目は比較を行うソナグラムパターン番号を格納して
おり、この番号により対応するソナグラムパターンデー
タを取り出す。第2段目は一致度が一番高い際に取り出
す分類値を格納している。第3段目は比較処理における
作業領域であり、ソナグラムパターンデータ内の「1」
の格納位置、及び「0」の格納位置の一致数を格納する
領域である。すべてのソナグラムパターンについて、比
較処理を行い、この作業領域の値に基づいて、最も一致
数の多いソナグラムパターンに対応する分類値を求め
る。
【0017】そして、前記で算出した4種類の分類値を
キーにして、図17の性格分類値テーブル24と図21
の健康分類値テーブル28を検索して、性格および健康
状態の分類値を求める(S55)。例えば、4種類の分
類値が「時1」「最1」「平1」「面3」の場合には、
性格分類値としては「性格3」が求められ、健康分類値
としては「健康・ストレス3」が求められる。
【0018】以上の処理は、2人の相性を分析するモー
ドの場合には、2人目の分の処理を行う。また、図3に
あるとおり、2人の相性を分析するモードである場合に
は(S36)、2人の相性分析データを求める(S3
7)。この処理は、図6のフローにあるとおり、先ず、
各人の性格分類値をキーに、図19にある相性分類値テ
ーブル26を検索し、相性分類値を求める。例えば1人
の性格分類値が「性格3」でもう1人の性格分類値が
「性格2」の場合には、相性分類値「相性3・2」が求
められる。
【0019】前記で算出した性格分類値、健康分類値、
相性分類値をキーにして、それぞれ、図18の性格分析
情報テーブル25、図22の健康分析情報テーブル2
9、図20の相性分析情報テーブル27を検索し、分析
結果である文書情報を抽出し、ディスプレイ102、プ
リンタ103、図6のように出力する。以上説明してき
たのは、カラオケ機に接続した音声特徴分析装置につい
てであるが、パソコン通信を通じて利用することも可能
である。また、ストレス度チェックを行うシステムを車
等に搭載し、運転者の発声する声を常に監視し、ストレ
ス度が高まってきた場合に、休憩を促すようになシステ
ムにも利用可能である。
【0020】
【発明の効果】以上説明したように、本発明によって、
不特定話者を対象として性格分析、相性分析、健康分析
(ストレス度チェック)等の分析を、特定の言葉を発声
するだけで行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施例の構成図
【図2】従来技術を説明する図
【図3】本発明の一実施例における動作フロー
【図4】音声特徴抽出処理の動作フロー
【図5】健康/性格分析処理の動作フロー
【図6】発声指示画面および分析結果出力画面の例
【図7】入力音声データの表示例
【図8】A/D変換後の入力音声データのデータ形式
【図9】各フレームのFFT変換後のデータの表示例
【図10】ピッチ周波数データのデータ形式
【図11】ソナグラムパターンデータの表示例
【図12】ソナグラムパターンデータのデータ形式
【図13】発声時間分類テーブルのデータ形式
【図14】ピッチ周波数最大値分類テーブルのデータ形
【図15】ピッチ周波数平均値分類テーブルのデータ形
【図16】ソナグラム分類テーブルのデータ形式
【図17】性格分類値テーブルのデータ形式
【図18】性格分析情報テーブルのデータ形式
【図19】相性分類値テーブルのデータ形式
【図20】相性分析情報テーブルのデータ形式
【図21】健康分類値テーブルのデータ形式
【図22】健康分析情報テーブルのデータ形式
【符号の説明】
1 音声特徴分析装置 2 音声入力手段 3 音声特徴抽出手段 4 音声特徴分析テーブル 5 分析情報出力手段 100 カラオケ機 101 マイク 102 ディスプレイ 103 プリンタ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G10L 15/00 G10L 3/00 551H 21/06 R 7/10 (56)参考文献 特開 平2−71733(JP,A) 特開 平5−12023(JP,A) 特開 平2−131749(JP,A) 特開 平8−117210(JP,A) 特開 平5−35287(JP,A) 特開 平8−54884(JP,A) 特開 昭50−54195(JP,A) 実開 昭55−138909(JP,U) 特公 平7−31508(JP,B2) 話者の感情が音声の韻律的特徴に及ぼ す影響,日本音響学会講演論文集,日 本,2−4−3,269−270 グループウェアのためのマン・マシ ン・コミュニケーション,情報処理,日 本,Vol.34,No.8,1054−1062 (58)調査した分野(Int.Cl.7,DB名) G10L 11/00 - 21/06 A63F 9/06 G06C 3/00 G10K 15/04 JICSTファイル(JOIS)

Claims (9)

    (57)【特許請求の範囲】
  1. 【請求項1】第1の人が発声した音声、および、第2の
    人が発声した音を入力する入力手段と、 前記入力手段で入力された前記各人のの特徴を抽出
    する音声特徴抽出手段と、第1の 音声の特徴、第2の音声の特徴、第1の音声およ
    び第2の音声に関する分析情報を関連づけた組み合わせ
    複数格納した分析情報テーブルと、 前記分析情報テーブルに基づいて、前記音声特徴抽出手
    段で抽出した音声の特徴に対応する分析情報を出力する
    分析情報出力手段とを備えたことを特徴とする音声特徴
    分析装置。
  2. 【請求項2】第1の人が発声した音声、および、第2の
    人が発声した音声を入力する入力手段と、 前記入力手段で入力された音声の特徴を抽出する音声特
    徴抽出手段と、 音声の特徴、人の分類情報を対応づけた組み合わせを複
    数格納した音声特徴分類テーブルと、 第1の人の分類情報、第2の人の分類情報、第1の人と
    第2の人に関する分析情報を対応づけた組み合わせを複
    数格納した分析情報テーブルと、 前記各人から抽出された音声の特徴を前記音声特徴分類
    テーブルに照合して各人の分類情報を求め、さらに、求
    められた該各人の分類情報の組み合わせを前記分析情報
    テーブルに照合して対応する該二人に関する分析情報を
    出力する分析情報出力手段とを備えたことを特徴とする
    音声特徴分析装置。
  3. 【請求項3】前記分析情報は、第1の人と第2の人につ
    いての相性に関する情報であることを特徴とする請求項
    乃至2記載の音声特徴分析装置。
  4. 【請求項4】前記分類情報は、人の性格に関する情報で
    あることを特徴とする請求項記載の音声特徴分析装
    置。
  5. 【請求項5】前記音声特徴分析装置はカラオケ装置に接
    続され、カラオケのマイクからの音を前記入力手段の入
    力とすることを特徴とする請求項1乃至4記載の音声特
    徴分析装置。
  6. 【請求項6】前記入力手段特定の言葉について発声さ
    れた言葉であることを特徴とする請求項1乃至5記載の
    音声特徴分析装置。
  7. 【請求項7】前記音声の特徴は、発声時間の情報に基づ
    くことを特徴とする請求項1乃至5記載の音声特徴分析
    装置。
  8. 【請求項8】前記音声の特徴は、ピッチ周波数の情報に
    基づくことを特徴とする請求項1乃至5記載の音声特徴
    分析装置。
  9. 【請求項9】前記音声の特徴は、周波数帯毎の時間分布
    データであるソナグラムの情報に基づくことを特徴とす
    る請求項1乃至5記載の音声特徴分析装置。
JP10263195A 1995-04-26 1995-04-26 音声特徴分析装置 Expired - Lifetime JP3280825B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10263195A JP3280825B2 (ja) 1995-04-26 1995-04-26 音声特徴分析装置
US08/638,295 US5774850A (en) 1995-04-26 1996-04-26 Sound characteristic analyzer with a voice characteristic classifying table, for analyzing the voices of unspecified persons

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10263195A JP3280825B2 (ja) 1995-04-26 1995-04-26 音声特徴分析装置

Publications (2)

Publication Number Publication Date
JPH08297496A JPH08297496A (ja) 1996-11-12
JP3280825B2 true JP3280825B2 (ja) 2002-05-13

Family

ID=14332595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10263195A Expired - Lifetime JP3280825B2 (ja) 1995-04-26 1995-04-26 音声特徴分析装置

Country Status (2)

Country Link
US (1) US5774850A (ja)
JP (1) JP3280825B2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3050180B2 (ja) * 1997-08-08 2000-06-12 日本電気株式会社 音声認識装置
US6173260B1 (en) * 1997-10-29 2001-01-09 Interval Research Corporation System and method for automatic classification of speech based upon affective content
IL122632A0 (en) * 1997-12-16 1998-08-16 Liberman Amir Apparatus and methods for detecting emotions
US7769620B1 (en) * 1998-09-01 2010-08-03 Dennis Fernandez Adaptive direct transaction for networked client group
JP4232299B2 (ja) * 1999-11-08 2009-03-04 ヤマハ株式会社 演奏カロリー消費量測定装置
KR100413407B1 (ko) * 2000-09-29 2004-01-13 유양수 음성분석시스템과 대응주파수발진장치 및음성분석프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
SE0004221L (sv) 2000-11-17 2002-04-02 Forskarpatent I Syd Ab Metod och anordning för talanalys
EP1246164A1 (en) * 2001-03-30 2002-10-02 Sony France S.A. Sound characterisation and/or identification based on prosodic listening
US20020147585A1 (en) * 2001-04-06 2002-10-10 Poulsen Steven P. Voice activity detection
US6719707B1 (en) 2001-06-15 2004-04-13 Nathan Montgomery Apparatus and method for performing musical perception sound analysis on a system
KR100458562B1 (ko) * 2001-07-20 2004-12-03 주식회사 사주닷컴 2인 이상의 공동운세를 산출하는 방법 및 시스템
KR20030033890A (ko) * 2001-10-25 2003-05-01 (주)인터루션 사용자의 음성정보 분석을 통한 사이버 비서 시스템 및 그방법
JP3727574B2 (ja) * 2001-11-30 2005-12-14 株式会社第一興商 録音装置とともに使用されるカラオケ装置およびカラオケ録音システム
US7191134B2 (en) * 2002-03-25 2007-03-13 Nunally Patrick O'neal Audio psychological stress indicator alteration method and apparatus
JP2004226589A (ja) * 2003-01-22 2004-08-12 Xing Inc 音楽再生装置
JP2005027225A (ja) * 2003-07-02 2005-01-27 Sanyo Electric Co Ltd 移動電話機
JP2005128864A (ja) * 2003-10-24 2005-05-19 Ishisaki:Kk 人体カラーの数値的評価システムおよび評価評価方法
CN101375329A (zh) * 2005-03-14 2009-02-25 沃克索尼克股份有限公司 用于语音转换的自动施主分级和选择系统及方法
JP4682324B2 (ja) * 2005-04-12 2011-05-11 国立大学法人佐賀大学 受講者の自信の有無判定による理解度チェックを伴う教育システム
US8027946B1 (en) * 2006-12-22 2011-09-27 Avaya Inc. Higher order logic applied to expert systems for alarm analysis, filtering, correlation and root cause
KR100905586B1 (ko) * 2007-05-28 2009-07-02 삼성전자주식회사 로봇에서의 원거리 음성 인식을 위한 마이크의 성능 평가시스템 및 방법
JP2017010309A (ja) 2015-06-23 2017-01-12 トヨタ自動車株式会社 意思決定支援装置および意思決定支援方法
JP6601214B2 (ja) * 2015-12-25 2019-11-06 ブラザー工業株式会社 楽曲選曲装置、カラオケシステム及び楽曲選曲用プログラム
JP6763103B1 (ja) * 2020-05-19 2020-09-30 株式会社eVOICE 話者間相性判定装置、話者間相性判定方法およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6273391A (ja) * 1985-09-27 1987-04-04 Toshiba Corp パタ−ン認識学習装置
US4989249A (en) * 1987-05-29 1991-01-29 Sanyo Electric Co., Ltd. Method of feature determination and extraction and recognition of voice and apparatus therefore
NL8901032A (nl) * 1988-11-10 1990-06-01 Philips Nv Coder om extra informatie op te nemen in een digitaal audiosignaal met een tevoren bepaald formaat, een decoder om deze extra informatie uit dit digitale signaal af te leiden, een inrichting voor het opnemen van een digitaal signaal op een registratiedrager, voorzien van de coder, en een registratiedrager verkregen met deze inrichting.
JPH0636156B2 (ja) * 1989-03-13 1994-05-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識装置
JPH03143434A (ja) * 1989-10-30 1991-06-19 Nitsuko Corp 音声体調バロメータ
US5559927A (en) * 1992-08-19 1996-09-24 Clynes; Manfred Computer system producing emotionally-expressive speech messages
US5567162A (en) * 1993-11-09 1996-10-22 Daewoo Electronics Co., Ltd. Karaoke system capable of scoring singing of a singer on accompaniment thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
グループウェアのためのマン・マシン・コミュニケーション,情報処理,日本,Vol.34,No.8,1054−1062
話者の感情が音声の韻律的特徴に及ぼす影響,日本音響学会講演論文集,日本,2−4−3,269−270

Also Published As

Publication number Publication date
US5774850A (en) 1998-06-30
JPH08297496A (ja) 1996-11-12

Similar Documents

Publication Publication Date Title
JP3280825B2 (ja) 音声特徴分析装置
JP3373305B2 (ja) 音声認識用データ圧縮
US8595005B2 (en) System and method for recognizing emotional state from a speech signal
US7133826B2 (en) Method and apparatus using spectral addition for speaker recognition
US20110144997A1 (en) Voice synthesis model generation device, voice synthesis model generation system, communication terminal device and method for generating voice synthesis model
JP2003508805A (ja) 複数の音声信号パラメータの分析を通して音声信号の感情を検出する装置、方法、及び、製造物品
JP2007500367A (ja) 音声認識方法およびコミュニケーション機器
US20090197224A1 (en) Language Learning Apparatus, Language Learning Aiding Method, Program, and Recording Medium
JP3908965B2 (ja) 音声認識装置及び音声認識方法
US20030120490A1 (en) Method for creating a speech database for a target vocabulary in order to train a speech recorgnition system
DE60014583T2 (de) Verfahren und vorrichtung zur integritätsprüfung von benutzeroberflächen sprachgesteuerter geräte
Shahin Speaker identification in the shouted environment using suprasegmental hidden Markov models
JPS62502571A (ja) 音声分析による個人の識別
JPH1020883A (ja) ユーザ認証装置
JP2000194392A (ja) 騒音適応型音声認識装置及び騒音適応型音声認識プログラムを記録した記録媒体
JP3531342B2 (ja) 音声処理装置および音声処理方法
US20030018473A1 (en) Speech synthesizer and telephone set
JPH10198393A (ja) 会話記録装置
JPH07210197A (ja) 話者識別方法
JP2002014687A (ja) 音声合成装置
JPS6287998A (ja) 音声認識装置
JP2005017620A (ja) 言語特定方法、言語特定用プログラム及び言語特定方法を用いた機械翻訳システム
JP2658426B2 (ja) 音声認識方法
JPH03223799A (ja) 分離しているワード、特に非常に大きい語いの認識方法と装置
JPH06337700A (ja) 音声合成装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100222

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120222

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140222

Year of fee payment: 12

EXPY Cancellation because of completion of term