JPH08297496A - 音声特徴分析装置 - Google Patents

音声特徴分析装置

Info

Publication number
JPH08297496A
JPH08297496A JP7102631A JP10263195A JPH08297496A JP H08297496 A JPH08297496 A JP H08297496A JP 7102631 A JP7102631 A JP 7102631A JP 10263195 A JP10263195 A JP 10263195A JP H08297496 A JPH08297496 A JP H08297496A
Authority
JP
Japan
Prior art keywords
voice
voice feature
analysis
information
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7102631A
Other languages
English (en)
Other versions
JP3280825B2 (ja
Inventor
Ichiro Hattori
一郎 服部
Akira Suzuki
晃 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Animo Ltd
Original Assignee
Fujitsu Ltd
Animo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Animo Ltd filed Critical Fujitsu Ltd
Priority to JP10263195A priority Critical patent/JP3280825B2/ja
Priority to US08/638,295 priority patent/US5774850A/en
Publication of JPH08297496A publication Critical patent/JPH08297496A/ja
Application granted granted Critical
Publication of JP3280825B2 publication Critical patent/JP3280825B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Abstract

(57)【要約】 【目的】本発明は、カラオケ機等に接続して不特定者の
音声の分析を行う音声特徴分析装置を提供することを目
的とする。 【構成】本発明は、操作者に特定の言葉を発声してもら
い、その発声した音の特徴を抽出する音声特徴抽出手段
と、この特定の言葉について、音声の特徴と対応する分
析情報を格納した音声特徴分類テーブルと、この音声特
徴分類テーブルに基づいて、前記音声特徴抽出手段で抽
出した音声の特徴に対応する分析情報を出力する分析情
報出力手段を備えるようにした。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声により個人の特徴
を分析する音声特徴分析装置に関する。
【0002】
【従来の技術】従来、図2に示すように、音声による特
徴分析では特定話者の基準となる音声を予め登録した後
に、分析を行う場合には、その基準となる音声と同一話
者の分析を行う音声入力データとの比較によって分析を
行っていた。図2において、91は音声入力部、92は
基準音声記憶部、93は音声入力部91より入力された
音声と、基準音声記憶部92に格納されている音声とを
比較する比較処理部で、94は比較処理部93の処理結
果を出力する出力部である。
【0003】ユーザは、始めに入力部91より基準とな
る音声(例えば健康であると感じている時の音声)を入
力し、基準音声記憶部92に保存しておく。そしてユー
ザが体調を診断する際に、入力部91より音声を入力す
る。比較処理部93では入力された音声と基準音声記憶
部92に格納されている音声とのずれを比較計算するこ
とによって、出力部94を用いてユーザに結果を提示し
ていた。この場合、音声データについて周波数等による
分析をした上での比較処理ではなく、単に入力された音
声を比較するのみであった。
【0004】
【発明が解決しようとしている課題】従来の方法では、
基準の音声を予め入力してしておかなくては処理を行う
ことができなく、また基準音声との比較音声を行う必要
から特定話者の分析しか行えない等の問題があった。ま
た、複数話者を分析するためには、複数の基準音声記憶
部を用意する必要があった。
【0005】
【課題を解決するための手段】本発明の課題は、特定の
言葉を発声した音を入力する入力手段と、前記入力手段
で入力された音の特徴を抽出する音声特徴抽出手段と、
前記特定の言葉について、音声の特徴と対応する分析情
報を格納した音声特徴分類テーブルと、前記音声特徴分
類テーブルに基づいて、前記音声特徴抽出手段で抽出し
た音声の特徴に対応する分析情報を出力する分析情報出
力手段により解決される。
【0006】
【作用】音声の特徴をソナグラムパターン、ピッチ周波
数に関する情報、発声時間等による複数の不特定話者に
おける相違を抽出しておき、その抽出した相違とそれに
対応する分析結果の対応テーブルを音声特徴分類テーブ
ルとして作成しておく。そして、入力された音声から特
徴を抽出し、音声特徴分類テーブルに基づいて、そこに
格納されている性格、健康状態、及びストレス度を提示
するようにした。また、2人の音声を入力することによ
って、2人の性格を分析し、その相性をも提示するよう
にした。
【0007】
【実施例】図1は本発明の一実施例の構成図である。図
中の1は本願発明の音声特徴分析装置であり、カラオケ
機100に接続されている。2は音声入力手段であり、
カラオケ機100のマイク101からの音声データを入
力処理するものであり、マイク101から入力されるア
ナログの音声データをA/D変換し、デジタルデータと
して音声特徴装置内のメモリ(図示せず)への格納処理
を行うものである。
【0008】3は音声特徴抽出手段であり、音声入力手
段2により入力処理された音声データについて、発声時
間、ピッチ周波数の最大値、ピッチ周波数の平均値、周
波数毎の時間分布のパターンであるソナグラム情報等に
基づいて、音声の特徴抽出するものである。4は音声の
特徴毎に対応する健康状態や性格に関する文章を格納し
た音声特徴分析テーブルである。音声特徴分析テーブル
4の詳細な構造については、図17乃至図22に示して
ある。すなわち、性格分析に関する音声特徴分析テーブ
ルには、図17の性格分類値テーブル24と図18の性
格分析情報テーブル25が該当する。本実施例では音声
特徴分析テーブルを分類値のテーブルと分析情報のテー
ブルの2つに分割してあるが、分類値を省略して、一つ
のテーブルとしてもよい。また同様に、健康分析に関す
る音声特徴分析テーブルには、図21の健康分類値テー
ブル28と図22の健康分析情報テーブル29が該当す
る。
【0009】5は音声特徴抽出手段で抽出した特徴をキ
ーとして、音声特徴分析テーブル4内の対応する文章デ
ータを検索し、求めた文章データを出力装置に出力させ
る分析情報出力手段である。102はディスプレイ、1
03はプリンタであって、音声特徴分析装置1の分析結
果の出力先である。図3は本発明の一実施例における動
作フローである。図4は音声特徴抽出処理の動作フロー
であり、図3のS34の処理の動作を詳細に示すもので
ある。また、図5は健康/性格分析処理の動作フローで
あり、図3のS35の処理の動作を詳細に示すものであ
る。
【0010】図6は、本発明における画面入力および画
面出力を例を示す図である。図3乃至図5のフローと、
図7乃至図22のデータ構造を用いて、本願の一実施例
の処理を説明する。まず、1人の健康と性格分析したい
か、あるいは、2人の相性および各人の健康と性格を分
析したいかを指定させておく(S31)。そして、図6
にあるとおり、ユーザ(発声者)に対して、画面を用い
て、特定の言葉をマイクを使用して発声するように指示
する(S32)。ここでは、STARTボタンをディス
プレイ上に点滅させることにより、発声を指示する。こ
の特定の言葉とは、後の分析処理の段階で音声の特徴を
抽出しやすいように、例えば、「I LOVE YO
U」等のように母音を多く含む言葉にすると良い。装置
からの指示に従いユーザが指定された言葉をマイク10
1を使用して発声すると、その音声データをA/D変換
し、デジタル化された音声データを装置内のメモリに格
納する(S33)。S31で2人の分析モードを選択し
た場合には、もう一度、S32、S33の処理を行う。
図8はデジタル化された音声データのメモリ上に格納さ
れる形式であり、所定単位時間毎の音声の強さが格納さ
れている。その内容を表示したものが、図7である。
【0011】次に、このメモリに格納されているデジタ
ル化した音声データの特徴を抽出する処理を行う(S3
4)。その詳細を図4を用いて説明する。まず図8に示
したデジタル化した音声データのうち、特定の言葉を発
声した部分(発声時間)を算出する。すなわち、図8に
示した音声データの強さが一定以上(雑音以上のレベ
ル)を始めて越えたメモリ上の位置情報を求め、そし
て、一定レベル以下の音声が一定時間以上続き、始めて
その一定レベル以下になった音声の位置情報を求める。
この2つの位置情報の間隔(個数)に音声データが格納
される単位時間をかけることで、発声時間を算出する
(S41)。
【0012】次に、このデジタル化した音声データの内
の発声部分をFFT(高速フーリエ変換)の処理を行う
ことで、図9に示したデータを得る。FFTの処理で
は、図7にあるように、発声部分を所定個数(N個)の
フレームに分割し、各フレーム毎に周波数毎のパワース
ペクトルの波形データ(図9)を求める(S42)。そ
して、各フレーム毎のパワースペクトルの波形データか
らピッチ周波数を算出し、メモリに格納する(S4
3)。ピッチ周波数とは各フレームの波形データの内、
最初のピークに対応する周波数のことである。1乃至N
フレームまでのピッチ周波数を格納したテーブルは図1
0のとおりである。さらに、図9のパワースペクトルの
データについて、閾値を越える周波数を求め、各フレー
ム番号を時間に対応させ、周波数と時間との対応のデー
タを求め、メモリに格納する(S44)。そのメモリ内
のデータ形式を示したものが図12であり、それを表示
したものが図11である。
【0013】次に図3における音声の特徴に対応する健
康・性格の分析データを求める処理(S35)の説明
を、図5のフローを用いて説明する。まず、発声時間分
類値を算出する(S51)。図4のS41で算出した発
声時間のデータをキーに、図13の発声時間分類テーブ
ル20を検索する。発声時間のデータが、発声時間分類
テーブル20の左から一番のカラムの値と2番目カラム
の値の範囲に入る対応するレコードの分類値を取り出
す。例えば、1.5秒の場合には「時1」という分類値
を取り出す。
【0014】次に、ピッチ周波数最大値の分類値を算出
する(S52)。図10にあるピッチ周波数データ11
からピッチ周波数の最大値を求め、その最大値をキーに
して、図14のピッチ周波数最大値分類テーブル21を
検索する。S51の処理と同様に、例えば、ピッチ周波
数の最大値が176Hzならば、分類値「最2」が算出
される。
【0015】ピッチ周波数最大値の場合と同様にして、
ピッチ周波数データ11と図15のピッチ周波数平均値
分類テーブル22から、ピッチ周波数平均値の分類値を
算出する(S53)。次に、ソナグラムパターンの分類
値を算出する(S54)。図12は、ソナグラムパター
ンデータ12の形式を示すものであり、図11はそのソ
ナグラムパターンデータ12の表示例である。ソナグラ
ムパターンデータ12とは、発声した音に含まれる各周
波数帯毎の時間分布パターンである。本実施例では時間
値の代わりにフレーム番号を用いている。このソナグラ
ムパターンデータ12は、図9の各フレームのFFT変
換後のデータより求める。すなわち、各フレームのFF
T変換後のデータのうち、各周波数帯について、閾値を
越えるパワーを有するかどうかを判定し、閾値を越えて
いれば、ソナグラムパターンデータ内の周波数帯とフレ
ーム番号に対応する位置に「1」を格納し、閾値を越え
ていなければ、「0」を格納する。
【0016】本装置には、分析に使用する、特定の性格
あるいは健康状態を示すソナグラムパターンデータを複
数個、あらかじめ記憶している。(図示せず)。S54
の動作は、まず、入力された音声データからソナグラム
パターンデータを作成し、予め記憶されている複数個の
ソナグラムパターンデータとの比較処理を行う。図16
にあるソナグラム分類テーブル23を用いて、この比較
処理を行う。図16のソナグラム分類テーブル23の第
1段目は比較を行うソナグラムパターン番号を格納して
おり、この番号により対応するソナグラムパターンデー
タを取り出す。第2段目は一致度が一番高い際に取り出
す分類値を格納している。第3段目は比較処理における
作業領域であり、ソナグラムパターンデータ内の「1」
の格納位置、及び「0」の格納位置の一致数を格納する
領域である。すべてのソナグラムパターンについて、比
較処理を行い、この作業領域の値に基づいて、最も一致
数の多いソナグラムパターンに対応する分類値を求め
る。
【0017】そして、前記で算出した4種類の分類値を
キーにして、図17の性格分類値テーブル24と図21
の健康分類値テーブル28を検索して、性格および健康
状態の分類値を求める(S55)。例えば、4種類の分
類値が「時1」「最1」「平1」「面3」の場合には、
性格分類値としては「性格3」が求められ、健康分類値
としては「健康・ストレス3」が求められる。
【0018】以上の処理は、2人の相性を分析するモー
ドの場合には、2人目の分の処理を行う。また、図3に
あるとおり、2人の相性を分析するモードである場合に
は(S36)、2人の相性分析データを求める(S3
7)。この処理は、図6のフローにあるとおり、先ず、
各人の性格分類値をキーに、図19にある相性分類値テ
ーブル26を検索し、相性分類値を求める。例えば1人
の性格分類値が「性格3」でもう1人の性格分類値が
「性格2」の場合には、相性分類値「相性3・2」が求
められる。
【0019】前記で算出した性格分類値、健康分類値、
相性分類値をキーにして、それぞれ、図18の性格分析
情報テーブル25、図22の健康分析情報テーブル2
9、図20の相性分析情報テーブル27を検索し、分析
結果である文書情報を抽出し、ディスプレイ102、プ
リンタ103、図6のように出力する。以上説明してき
たのは、カラオケ機に接続した音声特徴分析装置につい
てであるが、パソコン通信を通じて利用することも可能
である。また、ストレス度チェックを行うシステムを車
等に搭載し、運転者の発声する声を常に監視し、ストレ
ス度が高まってきた場合に、休憩を促すようになシステ
ムにも利用可能である。
【0020】
【発明の効果】以上説明したように、本発明によって、
不特定話者を対象として性格分析、相性分析、健康分析
(ストレス度チェック)等の分析を、特定の言葉を発声
するだけで行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施例の構成図
【図2】従来技術を説明する図
【図3】本発明の一実施例における動作フロー
【図4】音声特徴抽出処理の動作フロー
【図5】健康/性格分析処理の動作フロー
【図6】発声指示画面および分析結果出力画面の例
【図7】入力音声データの表示例
【図8】A/D変換後の入力音声データのデータ形式
【図9】各フレームのFFT変換後のデータの表示例
【図10】ピッチ周波数データのデータ形式
【図11】ソナグラムパターンデータの表示例
【図12】ソナグラムパターンデータのデータ形式
【図13】発声時間分類テーブルのデータ形式
【図14】ピッチ周波数最大値分類テーブルのデータ形
【図15】ピッチ周波数平均値分類テーブルのデータ形
【図16】ソナグラム分類テーブルのデータ形式
【図17】性格分類値テーブルのデータ形式
【図18】性格分析情報テーブルのデータ形式
【図19】相性分類値テーブルのデータ形式
【図20】相性分析情報テーブルのデータ形式
【図21】健康分類値テーブルのデータ形式
【図22】健康分析情報テーブルのデータ形式
【符号の説明】
1 音声特徴分析装置 2 音声入力手段 3 音声特徴抽出手段 4 音声特徴分析テーブル 5 分析情報出力手段 100 カラオケ機 101 マイク 102 ディスプレイ 103 プリンタ

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】特定の言葉を発声した音を入力する入力手
    段と、 前記入力手段で入力された音の特徴を抽出する音声特徴
    抽出手段と、 前記特定の言葉について、音声の特徴と対応する分析情
    報を格納した音声特徴分類テーブルと、 前記音声特徴分類テーブルに基づいて、前記音声特徴抽
    出手段で抽出した音声の特徴に対応する分析情報を出力
    する分析情報出力手段とを備えたことを特徴とする音声
    特徴分析装置。
  2. 【請求項2】前記音声特徴分類テーブルの分析情報には
    健康の状態に関する情報を格納したことを特徴とする請
    求項1記載の音声特徴分析装置。
  3. 【請求項3】前記音声特徴分類テーブルの分析情報には
    人の性格に関する情報を格納したことを特徴とする請求
    項1記載の音声特徴分析装置。
  4. 【請求項4】前記入力手段から2人の発声音が入力さ
    れ、 第1の人の性格に関する情報と第2の人の性格に関する
    情報から対応する相性情報を格納する相性分類テーブル
    を備え、 前記分析情報出力手段は、前記音声分類テーブルに基づ
    いて、前記音声特徴抽出手段で抽出した前記2人の音声
    の特徴に対応する性格の分析情報をそれぞれ求め、求め
    た性格の分析情報から前記相性分類テーブルに基づい
    て、2人の相性に関する情報を出力することを特徴とす
    る請求項3記載の音声特徴分析装置。
  5. 【請求項5】前記音声特徴分析装置はカラオケ装置に接
    続され、カラオケのマイクからの音を前記入力手段の入
    力とすることを特徴とする請求項1乃至4記載の音声特
    徴分析装置。
  6. 【請求項6】前記特定の言葉は、母音を多く含む言葉で
    あることを特徴とする請求項1乃至5記載の音声特徴分
    析装置。
  7. 【請求項7】前記音声特徴分類テーブルに格納される音
    の特徴は、発声時間の情報に基づくことを特徴とする請
    求項1乃至5記載の音声特徴分析装置。
  8. 【請求項8】前記音声特徴分類テーブルに格納される音
    の特徴は、ピッチ周波数の情報に基づくことを特徴とす
    る請求項1乃至5記載の音声特徴分析装置。
  9. 【請求項9】前記音声特徴分類テーブルに格納される音
    の特徴は、周波数帯毎の時間分布データであるソナグラ
    ムの情報に基づくことを特徴とする請求項1乃至5記載
    の音声特徴分析装置。
JP10263195A 1995-04-26 1995-04-26 音声特徴分析装置 Expired - Lifetime JP3280825B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10263195A JP3280825B2 (ja) 1995-04-26 1995-04-26 音声特徴分析装置
US08/638,295 US5774850A (en) 1995-04-26 1996-04-26 Sound characteristic analyzer with a voice characteristic classifying table, for analyzing the voices of unspecified persons

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10263195A JP3280825B2 (ja) 1995-04-26 1995-04-26 音声特徴分析装置

Publications (2)

Publication Number Publication Date
JPH08297496A true JPH08297496A (ja) 1996-11-12
JP3280825B2 JP3280825B2 (ja) 2002-05-13

Family

ID=14332595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10263195A Expired - Lifetime JP3280825B2 (ja) 1995-04-26 1995-04-26 音声特徴分析装置

Country Status (2)

Country Link
US (1) US5774850A (ja)
JP (1) JP3280825B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001128959A (ja) * 1999-11-08 2001-05-15 Yamaha Corp 演奏カロリー消費量測定装置
JP2002509267A (ja) * 1997-12-16 2002-03-26 アミール・リバーマン 情動状態検出装置及び方法
KR20030033890A (ko) * 2001-10-25 2003-05-01 (주)인터루션 사용자의 음성정보 분석을 통한 사이버 비서 시스템 및 그방법
JP2003154159A (ja) * 2001-07-20 2003-05-27 Sazoo.Com Co Ltd 2人以上の共同運勢を算出する方法及びシステム
JP2003167588A (ja) * 2001-11-30 2003-06-13 Daiichikosho Co Ltd 録音装置とともに使用されるカラオケ装置およびカラオケ録音システム
KR100413407B1 (ko) * 2000-09-29 2004-01-13 유양수 음성분석시스템과 대응주파수발진장치 및음성분석프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP2004514178A (ja) * 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット 音声の分析の方法及び装置
JP2004226589A (ja) * 2003-01-22 2004-08-12 Xing Inc 音楽再生装置
JP2005027225A (ja) * 2003-07-02 2005-01-27 Sanyo Electric Co Ltd 移動電話機
JP2005128864A (ja) * 2003-10-24 2005-05-19 Ishisaki:Kk 人体カラーの数値的評価システムおよび評価評価方法
JP2006293102A (ja) * 2005-04-12 2006-10-26 Saga Univ 受講者の自信の有無判定による理解度チェックを伴う教育システム
JP2017116800A (ja) * 2015-12-25 2017-06-29 ブラザー工業株式会社 楽曲選曲装置、カラオケシステム及び楽曲選曲用プログラム
JP2021182067A (ja) * 2020-05-19 2021-11-25 株式会社eVOICE 話者間相性判定装置、話者間相性判定方法およびプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3050180B2 (ja) * 1997-08-08 2000-06-12 日本電気株式会社 音声認識装置
US6173260B1 (en) * 1997-10-29 2001-01-09 Interval Research Corporation System and method for automatic classification of speech based upon affective content
US7769620B1 (en) * 1998-09-01 2010-08-03 Dennis Fernandez Adaptive direct transaction for networked client group
EP1246164A1 (en) * 2001-03-30 2002-10-02 Sony France S.A. Sound characterisation and/or identification based on prosodic listening
US20020147585A1 (en) * 2001-04-06 2002-10-10 Poulsen Steven P. Voice activity detection
US6719707B1 (en) 2001-06-15 2004-04-13 Nathan Montgomery Apparatus and method for performing musical perception sound analysis on a system
US7191134B2 (en) * 2002-03-25 2007-03-13 Nunally Patrick O'neal Audio psychological stress indicator alteration method and apparatus
CN101375329A (zh) * 2005-03-14 2009-02-25 沃克索尼克股份有限公司 用于语音转换的自动施主分级和选择系统及方法
US8027946B1 (en) * 2006-12-22 2011-09-27 Avaya Inc. Higher order logic applied to expert systems for alarm analysis, filtering, correlation and root cause
KR100905586B1 (ko) * 2007-05-28 2009-07-02 삼성전자주식회사 로봇에서의 원거리 음성 인식을 위한 마이크의 성능 평가시스템 및 방법
JP2017010309A (ja) 2015-06-23 2017-01-12 トヨタ自動車株式会社 意思決定支援装置および意思決定支援方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6273391A (ja) * 1985-09-27 1987-04-04 Toshiba Corp パタ−ン認識学習装置
US4989249A (en) * 1987-05-29 1991-01-29 Sanyo Electric Co., Ltd. Method of feature determination and extraction and recognition of voice and apparatus therefore
NL8901032A (nl) * 1988-11-10 1990-06-01 Philips Nv Coder om extra informatie op te nemen in een digitaal audiosignaal met een tevoren bepaald formaat, een decoder om deze extra informatie uit dit digitale signaal af te leiden, een inrichting voor het opnemen van een digitaal signaal op een registratiedrager, voorzien van de coder, en een registratiedrager verkregen met deze inrichting.
JPH0636156B2 (ja) * 1989-03-13 1994-05-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識装置
JPH03143434A (ja) * 1989-10-30 1991-06-19 Nitsuko Corp 音声体調バロメータ
US5559927A (en) * 1992-08-19 1996-09-24 Clynes; Manfred Computer system producing emotionally-expressive speech messages
US5567162A (en) * 1993-11-09 1996-10-22 Daewoo Electronics Co., Ltd. Karaoke system capable of scoring singing of a singer on accompaniment thereof

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002509267A (ja) * 1997-12-16 2002-03-26 アミール・リバーマン 情動状態検出装置及び方法
JP2001128959A (ja) * 1999-11-08 2001-05-15 Yamaha Corp 演奏カロリー消費量測定装置
KR100413407B1 (ko) * 2000-09-29 2004-01-13 유양수 음성분석시스템과 대응주파수발진장치 및음성분석프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
USRE43406E1 (en) 2000-11-17 2012-05-22 Transpacific Intelligence, Llc Method and device for speech analysis
JP2004514178A (ja) * 2000-11-17 2004-05-13 フォルスカーパテント アイ エスワイディ アクチボラゲット 音声の分析の方法及び装置
JP2003154159A (ja) * 2001-07-20 2003-05-27 Sazoo.Com Co Ltd 2人以上の共同運勢を算出する方法及びシステム
KR20030033890A (ko) * 2001-10-25 2003-05-01 (주)인터루션 사용자의 음성정보 분석을 통한 사이버 비서 시스템 및 그방법
JP2003167588A (ja) * 2001-11-30 2003-06-13 Daiichikosho Co Ltd 録音装置とともに使用されるカラオケ装置およびカラオケ録音システム
JP2004226589A (ja) * 2003-01-22 2004-08-12 Xing Inc 音楽再生装置
JP2005027225A (ja) * 2003-07-02 2005-01-27 Sanyo Electric Co Ltd 移動電話機
JP2005128864A (ja) * 2003-10-24 2005-05-19 Ishisaki:Kk 人体カラーの数値的評価システムおよび評価評価方法
JP2006293102A (ja) * 2005-04-12 2006-10-26 Saga Univ 受講者の自信の有無判定による理解度チェックを伴う教育システム
JP2017116800A (ja) * 2015-12-25 2017-06-29 ブラザー工業株式会社 楽曲選曲装置、カラオケシステム及び楽曲選曲用プログラム
JP2021182067A (ja) * 2020-05-19 2021-11-25 株式会社eVOICE 話者間相性判定装置、話者間相性判定方法およびプログラム

Also Published As

Publication number Publication date
US5774850A (en) 1998-06-30
JP3280825B2 (ja) 2002-05-13

Similar Documents

Publication Publication Date Title
JP3280825B2 (ja) 音声特徴分析装置
Schuller et al. Hidden Markov model-based speech emotion recognition
US20090197224A1 (en) Language Learning Apparatus, Language Learning Aiding Method, Program, and Recording Medium
JP2004037721A (ja) 音声応答システム、音声応答プログラム及びそのための記憶媒体
JP3908965B2 (ja) 音声認識装置及び音声認識方法
JP2006267465A (ja) 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体
Kostov et al. Emotion in user interface, voice interaction system
JP4587854B2 (ja) 感情解析装置、感情解析プログラム、プログラム格納媒体
US20060165239A1 (en) Method for determining acoustic features of acoustic signals for the analysis of unknown acoustic signals and for modifying sound generation
CN108269574A (zh) 语音信号处理方法及装置、存储介质、电子设备
Amir et al. Unresolved anger: Prosodic analysis and classification of speech from a therapeutic setting
Streefkerk et al. Prominence in read aloud sentences, as marked by listeners and classified automatically
JPS62502571A (ja) 音声分析による個人の識別
JPH1020883A (ja) ユーザ認証装置
Raptis Exploring latent structure in expressive speech
Laskowski et al. A scalable method for quantifying the role of pitch in conversational turn-taking
JPH0968998A (ja) 音声認識方法及び音声認識装置
JPH04324499A (ja) 音声認識装置
JPH0338699A (ja) 音声認識装置
JPH10198393A (ja) 会話記録装置
JP2005017620A (ja) 言語特定方法、言語特定用プログラム及び言語特定方法を用いた機械翻訳システム
JP2007133227A (ja) ニューラルネット学習装置および感情判断装置
JPH06337700A (ja) 音声合成装置
Patil et al. Comparison of Speech Emotion Recognition Performance with Different System Features
JPH03223799A (ja) 分離しているワード、特に非常に大きい語いの認識方法と装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100222

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120222

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140222

Year of fee payment: 12

EXPY Cancellation because of completion of term