JP4627154B2 - 人間の感情状態に応じた音楽出力装置及び音楽出力方法 - Google Patents
人間の感情状態に応じた音楽出力装置及び音楽出力方法 Download PDFInfo
- Publication number
- JP4627154B2 JP4627154B2 JP2004172615A JP2004172615A JP4627154B2 JP 4627154 B2 JP4627154 B2 JP 4627154B2 JP 2004172615 A JP2004172615 A JP 2004172615A JP 2004172615 A JP2004172615 A JP 2004172615A JP 4627154 B2 JP4627154 B2 JP 4627154B2
- Authority
- JP
- Japan
- Prior art keywords
- music
- state
- learning
- emotional state
- acoustic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
このような背景音楽の選択や出力は、従来熟練した音響効果の専門家に委ねられており、日常生活において手軽に利用できる技術ではない。
本装置によって音声命令に含まれるニュアンスにも対応した制御を可能にしており、例えばテレビのリモコンに搭載して音量調節の程度を変化させることなどが可能である。
本技術は、電子文書が有する感情を自動的に判定すると共に、その判定の精度を高くするものであり、単語の感情表現を感情ベクトル値で表した感情表現辞書を用いることを特徴としている。
また特許文献5では得られた感情を別のユーザに視覚的に知らせるものであって、聴覚的な効果を企図したものではない。
すなわち、請求項1に係る発明は人間の発する音声及び活動に伴って生じる活動音に対して、当該人の感情状態に適し、該音声及び該活動音の背景音楽を選択して出力可能な音楽出力装置を提供する。
該装置において感情状態学習用テーブルと、該感情状態学習テーブルに基づいて第1の機械学習モデルにより音響特徴量と感情状態との関連を取得して状態判断テーブルに学習結果を保存する感情状態学習手段と、音楽選択学習用テーブルと、該音楽選択学習テーブルに基づいて第2の機械学習モデルにより選択する音楽と感情状態との関連を取得して音楽選択テーブルに学習結果を保存する音楽選択学習手段とを備える。
本構成において、音響スペクトルに係る特徴量として、強度、テンポ、及び周波数を全て用いることを特徴とする。
該方法においては、まず、感情状態学習手段により、予め備えた感情状態学習テーブルに基づいて第1の機械学習モデルにより音響特徴量と感情状態との関連を取得して状態判断テーブルに学習結果を保存する感情状態学習ステップ、音楽選択学習手段により、予め備えた音楽選択学習テーブルに基づいて第2の機械学習モデルにより選択する音楽と感情状態との関連を取得して音楽選択テーブルに学習結果を保存する音楽選択学習ステップを有する。
すなわち、感情状態の判断に際して機械学習を用いることができるので、ユーザの個性に応じた状態判断に寄与し、より正確な状態判断を行うことが可能である。
また、音楽選択に際して機械学習を用いることができるので、感情状態に応じた適切な音楽の選択に寄与する。すなわち、感情状態に応じて画一的な対応動作を取るのではなく、複数のパラメータで表される感情状態に対しても、最適な音楽選択に寄与する。
請求項6記載の発明についても同様の効果を奏する。
請求項7記載の発明についても同様の効果を奏する。
請求項8記載の発明についても同様の効果を奏する。
図1は本発明の第1の実施形態に係る人間の感情状態に応じた音声出力装置(1)の構成図である。本装置は、例えば公知の音声入力端子又はマイクを備えたパーソナルコンピュータによって実現することが簡便である。すなわちハードウェアとしては集音マイクなどを接続して人間の音声及び活動時の音を入力するための音響入力端子(10)と、各種信号処理・演算処理を行うCPU(20)、該CPU(20)に接続され必要に応じてデータの入出力を行う外部記憶装置であるハードディスク(30)の他、選択された音楽をライン出力するための音楽出力端子(40)や、直接出力するスピーカ(41)を備えている。
音声の場合には、非特許文献6に開示されるような公知のソフトウェアを実行して音声情報から音声波形・スペクトルを算出処理し、音声の特徴量を抽出するのが簡便である。
具体的には上述した公知のソフトウェア等により、図3に示す音韻スペクトルが得られる。図3において上段は、感情状態が「元気」(通常)であるときの音声波形、下段は該音声の強度(パワー)を示しており、概ね1.3秒程度の発声時間内の時間的変化である。
さらに、図4は感情状態が「眠い」時の音声波形(上段)及び強度(下段)を示している。
すわなち、図3において、最初に閾値を超えた時刻をt1、再び閾値以下になった後に再度閾値を超えた時刻をt2とすると、これらはそれぞれ「オー」の発声開始時刻、「ライ」の発声開始時刻であり、この間の時間t2−t1がテンポとなる。
テンポ測定(52)では、上記のように各音素の開始時刻間の間隔や、各音素における最大強度となった時刻間の間隔、あるいは強度のグラフから各音素間で強度が0に近づき谷となる間の時間を求めることもできる。
周波数測定(53)では、ピッチの最大値および最小値、又は平均値などを測定値として用いることができる。
図7及び図8はホルマント周波数を示すグラフである。両図の比較から「元気」時にはホルマント周波数の分散が大きいのに対し、「眠い」時には平坦な分布となっており、全体に抑揚が少なくなっている。
この場合、各分布値から分散を算出し、比較することにより、感情状態の特性を得ることができる。
さらに、周波数によって昇降する人の分類とその気分の判断を行うことも可能であり、活動音により音声と同様に様々な感情状態の判断を行うことができる。
すなわち、本発明におけるユーザの感情状態とは、時々刻々変化するユーザの感情状態だけでなく、一般的な生活場面での感情といったものまでを含む概念である。
すなわち、本発明において感情状態を判断する際には複数の音響特徴量から、状態判断テーブル(31)との近似度を点数化し、合計点の最も高いものをユーザの感情状態と判断する。
そして、まず強度測定(51)の結果から、感情状態判断テーブル(31)を参照して強度から見たときの確度を決定する。次の表1は感情状態判断テーブル(31)の一例である。
すなわち、強度に関しては各感情状態確度算出処理(54)(55)(56)でそれぞれの感情状態の確度が上記感情状態判断テーブル(31)から決定される。
例えば、図3、図4の音響スペクトルでは、「元気」時のテンポが0.22秒、「眠い」時のテンポが0.55秒程度であり、感情状態判断テーブル(31)からテンポに関しては、図3の音声情報が入力されると、「怒っている」確度が0.3、「元気」確度が0.8、「眠い」確度が0.1となる。
図5、図6の音響スペクトルによれば、「元気」時の基本周波数の最大値及び最小値の中間値(平均値)は130Hzであり、この場合に「怒っている」確度は0.6、「元気」な確度は0.7、「眠い」確度は0となる。
同様に感情状態C確度算出処理(56)で「眠い」確度は、強度に関して0、テンポに関して0.1、周波数に関して0であり、確度0.1と算出される。
このように、従来の方法では1つの感情状態の程度でしか表すことができなかったのに対し、本発明では複数の感情状態に対して同時にそれらの確度を決定することができる。
状態判断部(23)で判断された感情状態から、音楽選択テーブル(32)を参照し、出力すべき音楽の種類を選択する。音楽の種類としては音楽ジャンルによる分類、楽曲の印象尺度による分類など任意の分類方法によることができる。
楽曲印象の分類としては、本件出願人らによる楽曲の分類尺度を用いることもできる。
音楽選択テーブル(32)には感情状態と、出力すべき音楽との対照表が格納されている。表4は対照表の一例である。
判定は、択一的にいずれの音楽にするか一度にしてもよいし、図9のように順次実行してもよい。順次実行する場合には、上位の判定で対応動作を実行した場合には下位の判定を行わない構成でもよい。
ここで例えば閾値が1.0であった場合、「明るい曲」を出力すべきと判定(61)する。
楽曲データ(33)は表5のように構成されており、各楽曲のファイルとその楽曲の種類が対応付けされて格納される。データは、MIDIファイルやMP3による。
そして、音楽出力部(25)では公知の音楽再生処理方法により、再生を行う。
従来の手動による音楽選択と異なり、予め音楽選択テーブルに蓄えた情報に従って自動的に最適な音楽を選択し出力することができる。
ここで感情状態の学習には公知の機械学習モデルを用いることができるが、一例としてサポートベクトルマシンを用いる方法を次に説述する。
本件発明者らによる論文(非特許文献9)では、これを自然言語処理に適用し、SVMを用いた単語多義性解消問題に対する解法を示している。
SVMは、空間を超平面で分割することにより2つの分類からなるデータを分類する手法である。このとき、2つの分類が正例と負例とからなるものとすると、学習データにおける正例と負例の間隔(マージン)が大きいものほどオープンデータで誤った分類をする可能性が低いと考えられ、このマージンを最大にする超平面を求め、それを用いて分類を行う。
図中において、白点(110)は正例、黒点(111)は負例を表し、実線は空間を分割する超平面(112)を、波線はマージン領域の境界を表す面(113)を意味している。
SVMによる分類に関する定式化の一例について説明する。尚、ここで示す定式化は公知のものである。まず、xを2次元ベクトル、xiをi番目のサポートベクトル、Kをカーネル関数、yiは、後述するようにサポートベクトルxi(i=1,2・・・l、yi∈{1,−1})に対する期待される出力値である。bはパラメータである。
ここで、αi>0となるサポートベクトルxiについて、数1の和をとっている部分は、この事例のみを用いて計算される。つまり実際の解析には学習データのうち、サポートベクトルと呼ばれる事例のみしか用いられない。
ところで、カーネル関数としては、ポリノミアル(Polynomial)、ガウシャン・ラジアル・ベイシス・ファンクション(Gaussian Radial Basis Function)、エクスポネンシャル・ラジアル・ベイシス・ファンクション(Exponential Radial Basis Function)、マルチレイヤー・パーセプション(Multi−Layer Perception)、フーリエー・シリーズ(Fourier Series)、スプライン(Splines)、ビースプライン(Bsplines)、アディティブ・カーネル(Additive Kernels)、テンソル・プロダクト・カーネル(Tensor Product Kernels)等の関数を用いることもできる。
感情状態学習部(100)においては感情状態学習テーブル(101)を用いてカーネル関数を定義し、状態判断テーブルに該関数を保存する。従って、本実施例では状態判断テーブル(31)は実施形態1で示した対応表ではなく、関数として格納されることになる。
本発明はこのような感情状態の判断に機械学習を用いた点に特徴を有し、機械学習モデルとしては上述したSVMの他、ニューラルネットワーク手法、最大エントロピー手法などを適宜用いることができる。
ニューラルネットワーク手法の場合には、入力に対応する望ましい出力の組を例示してニューラルネットワークの重みを決定する方法であるバックプロパゲーション(逆向き伝搬)を用いるのが好ましく、非特許文献10、11などに開示されている。
その結果は関数の形式で、音楽選択テーブル(32)に記録される。学習結果は音楽選択部(24)で機械学習モデルを用いた選択処理に使用される。
全てのユーザについて学習させずとも、例えば「早口の男性」「声の低い女性」など、ある程度特徴を分けて学習させ、使用時に選択するだけでも判断の精度を上げることができる。
したがって、本実施形態2、3は判定の高精度化に極めて寄与する構成である。
これにより、発話者の感情に合わせて情緒豊かな会話を楽しむことができるようになる。
すなわち、図13に示すように公知の文書ファイルであるテキスト情報(130)を外部記憶装置からの読み込み、或いはネットワークにおける受信によってテキスト入力部(130)で取得する。
語句抽出部(131)は、まず表8に示すような状態判断テーブル(131)を参照し、その中の「含まれる単語」に属する語句を抽出する。
そして、音楽選択部(24)ではこれらの確度から、前記の方法と同様に音楽選択テーブル(32)を用いて最適な音楽を選択する。
音声認識処理部(141)の構成については、特許文献2、4などに開示される他、市販の音声認識ソフトウェアなどを組み込んで採用することもできる。
認識後は、テキスト情報となるため、実施例5における構成と同様である。
例えば、演劇の公演において自動的に効果音を挿入することも可能である。舞台の音響をマイクにより集音して入力し、登場人物の感情状態に応じた効果音楽を自動的に再生することで、効果的な演出が可能となる。
また、会議室などに設定して、怒った口調を検出した場合には場を鎮めるような音楽を流す設備や、図書館内に設置して高揚した口調などふさわしくない音声を検出した場合に警告のチャイムを鳴らす、といった実施方法が考えられる。
10 音響入力端子
20 CPU
21 音声入力部
22 音響特徴量抽出部
23 状態判断部
24 音楽選択部
25 音楽出力部
30 ハードディスク
31 状態判断テーブル
32 音楽選択テーブル
40 音楽出力端子
41 スピーカ
Claims (8)
- 人間の発する音声及び活動に伴って生じる活動音に対して、当該人の感情状態に適し、該音声及び該活動音の背景音楽を選択して出力可能な音楽出力装置であって、
感情状態学習用テーブルと、
該感情状態学習テーブルに基づいて第1の機械学習モデルにより音響特徴量と感情状態との関連を取得して状態判断テーブルに学習結果を保存する感情状態学習手段と、
音楽選択学習用テーブルと、
該音楽選択学習テーブルに基づいて第2の機械学習モデルにより選択する音楽と感情状態との関連を取得して音楽選択テーブルに学習結果を保存する音楽選択学習手段と、
該音声及び該活動音を取得し、音響情報として入力する音響情報入力手段と、
該音響情報から該音響情報の音響スペクトルに係る特徴量を抽出する音響特徴量抽出手段と、
該音響特徴量を入力して、該状態判断テーブルに基づいて音響情報に係る人間の感情状態を該第1の機械学習モデルにより判断する状態判断手段と、
判断された該感情状態を入力して、該音楽選択テーブルに基づいて該第2の機械学習モデルにより音楽を選択する音楽選択手段と、
該音楽を背景音楽として出力する音楽出力手段と
を備え、
該音響スペクトルに係る特徴量として、強度、テンポ、及び周波数を全て用いる
ことを特徴とする人間の感情状態に応じた音楽出力装置。 - 前記感情状態学習用テーブルを、前記音声及び活動音を生じさせる人間の特徴別に用意して学習し、
前記状態判断手段において、判断時に選択された特徴別の学習結果を用いて音響情報に係る当該人間の感情状態を判断する
請求項1に記載の人間の感情状態に応じた音楽出力装置。 - 前記状態判断テーブルにおいて、
同一の音響特徴量に対して、複数の感情状態の確度が定義される
請求項1又は2に記載の人間の感情状態に応じた音楽出力装置。 - 前記機械学習モデルが、
最大エントロピーモデル、サポートベクトルマシンモデル
のいずれかである
請求項1ないし3のいずれかに記載の人間の感情状態に応じた音楽出力装置。 - 前記音楽出力装置が、電話回線との接続手段を備え、
前記音声情報入力手段が、電話回線における通話音声を取得して入力すると共に、
前記音楽出力手段が、電話回線における通話音声に音楽を挿入する
請求項1ないし4のいずれかに記載の人間の感情状態に応じた音楽出力装置。 - 人間の発する音声及び活動に伴って生じる活動音に対して、当該人の感情状態に適し、該音声及び該活動音の背景音楽を選択して出力可能な音楽出力方法であって、
感情状態学習手段により、予め備えた感情状態学習テーブルに基づいて第1の機械学習モデルにより音響特徴量と感情状態との関連を取得して状態判断テーブルに学習結果を保存する感情状態学習ステップ、
音楽選択学習手段により、予め備えた音楽選択学習テーブルに基づいて第2の機械学習モデルにより選択する音楽と感情状態との関連を取得して音楽選択テーブルに学習結果を保存する音楽選択学習ステップ、
音響情報入力手段により、該音声及び該活動音を取得し、音響情報として入力する音響情報入力ステップ、
音響特徴量抽出手段により、該音響情報から該音響情報の音響スペクトルに係る特徴量を抽出する音響特徴量抽出ステップ、
状態判断手段により、該音響特徴量を入力して、該状態判断テーブルに基づいて音響情報に係る人間の感情状態を該第1の機械学習モデルにより判断する状態判断ステップ、
音楽選択手段により、該感情状態を入力して、該音楽選択テーブルに基づいて該第2の機械学習モデルにより音楽を選択する音楽選択ステップ、
音楽出力手段により、該音楽を背景音楽として出力する音楽出力ステップ
の各ステップを含むことを特徴とする人間の感情状態に応じた音楽出力方法。 - 前記感情状態学習ステップにおいて、
前記感情状態学習用テーブルを、前記音声及び活動音を生じさせる人間の特徴別に用意して学習し、
前記状態判断ステップにおいて、
前記状態判断手段が、判断時に選択された特徴別の学習結果を用いて音響情報に係る当該人間の感情状態を判断する
請求項6に記載の人間の感情状態に応じた音楽出力方法。 - 前記状態判断テーブルにおいて、
同一の音響特徴量に対して、複数の感情状態の確度が定義される
請求項6又は7に記載の人間の感情状態に応じた音楽出力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004172615A JP4627154B2 (ja) | 2004-06-10 | 2004-06-10 | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004172615A JP4627154B2 (ja) | 2004-06-10 | 2004-06-10 | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005352151A JP2005352151A (ja) | 2005-12-22 |
JP4627154B2 true JP4627154B2 (ja) | 2011-02-09 |
Family
ID=35586689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004172615A Expired - Fee Related JP4627154B2 (ja) | 2004-06-10 | 2004-06-10 | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4627154B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102182455B1 (ko) * | 2020-03-27 | 2020-11-24 | 이병오 | 배경 음악이 삽입된 음성 멘트 제공 방법 및 이를 실행하는 장치 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008029889A1 (fr) * | 2006-09-08 | 2008-03-13 | Panasonic Corporation | Terminal de traitement des informations, procédé de génération d'informations musicales et programme |
JP4836084B2 (ja) * | 2007-05-29 | 2011-12-14 | 太陽ラジオ株式会社 | 番組制作システムと制作プログラム |
KR101009604B1 (ko) * | 2007-06-16 | 2011-01-20 | 김길호 | 음악적 구성요소를 이용한 감성인식 방법 |
JP6959044B2 (ja) * | 2017-06-23 | 2021-11-02 | 株式会社野村総合研究所 | 記録サーバ、記録方法及びプログラム |
CN107105369A (zh) | 2017-06-29 | 2017-08-29 | 京东方科技集团股份有限公司 | 声音定向切换装置及显示系统 |
CN111276163B (zh) * | 2020-01-20 | 2023-02-21 | 新绎健康管理有限公司 | 音乐筛选方法及装置 |
US11743380B2 (en) | 2021-03-15 | 2023-08-29 | Avaya Management L.P. | System and method for context aware audio enhancement |
KR102642358B1 (ko) * | 2022-02-09 | 2024-03-04 | 전남대학교산학협력단 | 텍스트 감정분석 기반의 음악 추천 장치 및 방법 |
JP7297342B1 (ja) * | 2022-09-26 | 2023-06-26 | 株式会社Creator’s NEXT | 脳情報の分析によるレコメンデーション |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214024A (ja) * | 1997-01-30 | 1998-08-11 | Atr Chinou Eizo Tsushin Kenkyusho:Kk | 対話型映画システム |
JP2000268047A (ja) * | 1999-03-17 | 2000-09-29 | Sony Corp | 情報提供システム、クライアント、情報提供サーバ及び情報提供方法 |
JP2001162058A (ja) * | 1999-12-10 | 2001-06-19 | Iesato Sato | 自律移動型セラピー機器 |
JP2002032306A (ja) * | 2000-07-19 | 2002-01-31 | Atr Media Integration & Communications Res Lab | メール伝送システム |
JP2003132085A (ja) * | 2001-10-19 | 2003-05-09 | Pioneer Electronic Corp | 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム |
JP2003210833A (ja) * | 2002-01-17 | 2003-07-29 | Aruze Corp | 対話ゲームシステム、対話ゲーム方法及びプログラム |
JP2003345727A (ja) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | 感情伝達装置 |
-
2004
- 2004-06-10 JP JP2004172615A patent/JP4627154B2/ja not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214024A (ja) * | 1997-01-30 | 1998-08-11 | Atr Chinou Eizo Tsushin Kenkyusho:Kk | 対話型映画システム |
JP2000268047A (ja) * | 1999-03-17 | 2000-09-29 | Sony Corp | 情報提供システム、クライアント、情報提供サーバ及び情報提供方法 |
JP2001162058A (ja) * | 1999-12-10 | 2001-06-19 | Iesato Sato | 自律移動型セラピー機器 |
JP2002032306A (ja) * | 2000-07-19 | 2002-01-31 | Atr Media Integration & Communications Res Lab | メール伝送システム |
JP2003132085A (ja) * | 2001-10-19 | 2003-05-09 | Pioneer Electronic Corp | 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム |
JP2003210833A (ja) * | 2002-01-17 | 2003-07-29 | Aruze Corp | 対話ゲームシステム、対話ゲーム方法及びプログラム |
JP2003345727A (ja) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | 感情伝達装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102182455B1 (ko) * | 2020-03-27 | 2020-11-24 | 이병오 | 배경 음악이 삽입된 음성 멘트 제공 방법 및 이를 실행하는 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP2005352151A (ja) | 2005-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Venkataramanan et al. | Emotion recognition from speech | |
US8185395B2 (en) | Information transmission device | |
WO2018168427A1 (ja) | 学習装置、学習方法、音声合成装置、音声合成方法 | |
JP4914295B2 (ja) | 力み音声検出装置 | |
Koolagudi et al. | Two stage emotion recognition based on speaking rate | |
JP6908045B2 (ja) | 音声処理装置、音声処理方法、およびプログラム | |
EP1859437A2 (en) | An automatic donor ranking and selection system and method for voice conversion | |
JPWO2007148493A1 (ja) | 感情認識装置 | |
CN101627427A (zh) | 声音强调装置及声音强调方法 | |
CN112992109B (zh) | 辅助歌唱系统、辅助歌唱方法及其非瞬时计算机可读取记录媒体 | |
US20120095767A1 (en) | Voice quality conversion device, method of manufacturing the voice quality conversion device, vowel information generation device, and voice quality conversion system | |
JP4627154B2 (ja) | 人間の感情状態に応じた音楽出力装置及び音楽出力方法 | |
JP5050698B2 (ja) | 音声処理装置およびプログラム | |
Helander et al. | A novel method for prosody prediction in voice conversion | |
JP2005352154A (ja) | 感情状態反応動作装置 | |
Přibil et al. | GMM-based speaker age and gender classification in Czech and Slovak | |
JP3673507B2 (ja) | 音声波形の特徴を高い信頼性で示す部分を決定するための装置およびプログラム、音声信号の特徴を高い信頼性で示す部分を決定するための装置およびプログラム、ならびに擬似音節核抽出装置およびプログラム | |
JP5803125B2 (ja) | 音声による抑圧状態検出装置およびプログラム | |
Baghel et al. | Exploration of excitation source information for shouted and normal speech classification | |
Stoll | Finding difficult speakers in automatic speaker recognition | |
Grewal et al. | Isolated word recognition system for English language | |
JP5083951B2 (ja) | 音声処理装置およびプログラム | |
JP3706112B2 (ja) | 音声合成装置及びコンピュータプログラム | |
JP2006154212A (ja) | 音声評価方法および評価装置 | |
JP2010256765A (ja) | ユーザプロファイル抽出方法、ユーザプロファイル抽出装置及びユーザプロファイル抽出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101102 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101104 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |