JP2005345496A - 音声処理装置、音声処理方法およびそのプログラム - Google Patents

音声処理装置、音声処理方法およびそのプログラム Download PDF

Info

Publication number
JP2005345496A
JP2005345496A JP2004161471A JP2004161471A JP2005345496A JP 2005345496 A JP2005345496 A JP 2005345496A JP 2004161471 A JP2004161471 A JP 2004161471A JP 2004161471 A JP2004161471 A JP 2004161471A JP 2005345496 A JP2005345496 A JP 2005345496A
Authority
JP
Japan
Prior art keywords
expression
speech
state
likelihood
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004161471A
Other languages
English (en)
Other versions
JP4580190B2 (ja
Inventor
Kota Hidaka
浩太 日高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004161471A priority Critical patent/JP4580190B2/ja
Publication of JP2005345496A publication Critical patent/JP2005345496A/ja
Application granted granted Critical
Publication of JP4580190B2 publication Critical patent/JP4580190B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

【課題】 音声データに基づき、この音声データを含むコンテンツ中のを感情表出区間を検出することができる音声処理装置および音声処理方法を提供すること。
【解決手段】 学習音声に含まれる音声特徴量、話者の感情、感情表出確率、および、平静状態確率を対応付けた符号帳110CBを記憶する記憶手段110と、入力音声に含まれる音声特徴量を抽出する音声特徴量抽出手段120と、抽出した音声特徴量に基づいて符号帳から抽出した感情表出確率を用いて感情表出状態尤度を算出する感情表出状態尤度算出手段130と、感情表出状態尤度に基づいて入力音声の各音声部分に、感情表出があったか否かを判定する感情表出判定手段150により構成する。
【選択図】 図1

Description

本発明は、人間が発声した音声を分析して人の感情の表出を検出する音声処理装置、音声処理方法及びそのプログラムに関する。
マルチメディアコンテンツの増加に伴い、短時間にコンテンツの要約を作成する技術が求められている。このコンテンツに含まれる音声データに基づいて要約する技術が例えば、特許文献1、特許文献2に示されている。特許文献1または特許文献2には、音声に加えて映像を含む場合について開示されている。
特許文献1に開示する技術は、音声データを解析して、音声のスペクトル幅、ピーク周波数、信号レベル等の音声特徴量を生成し、生成した音声特徴量が予め決められている条件を満たすか否かで重要部分を判定し、抽出するものである。例えば、観客の歓声があがったときの音声データの音声特徴量を予め取得しておき、この音声特徴量と比較し、音声特徴量が類似または近似する部分を重要部分として抽出し、抽出した重要部分をつなぎ合わせて要約を生成するものである。
特許文献2には、予め学習音声中の強調音声区間と平静音声区間からそれぞれ複数の音声特徴量の組を音声特徴量ベクトルとして抽出し、各量子化ベクトル符号に対応してその符号の強調状態での出現確率と平静状態での出現確率を格納した符号帳を作成しておき、入力音声からフレームごとに抽出した音声特徴量と対応する強調状態及び平静状態の各出現確率を符号帳から求め、それらから入力音声が強調状態か平静状態かを判定することが示されている。
特開平3−80782号公報 特開2002−230598号公報 特開平5−289691号公報 「音響・音声工学」、古井貞煕、近代科学社、1992 「音声符号化」、守谷健弘、電子情報通信学会、1998 「ディジタル音声処理」、古井貞煕、東海大学出版会、1985 「複合正弦波モデルに基づく音声分析アルゴリズムに関する研究」、嵯峨山茂樹、博士論文、1998 Y.Linde, A.Buzo and R.M.Gray, "An algorithm for vector Quantizer design", IEEE Trans. Commun., vol. Com-288, pp.84-95, 1980
しかし、このような従来の音声処理技術では、音声特徴量の類似性等や、コンテンツによって再現される状況(例えば、盛り上がり)等に着目して重要部分を抽出するため、音声コンテンツ中の感情の表出を検出することができないという問題があった。
本発明はこのような問題を解決するためになされたもので、コンテンツに含まれる音声データに基づき、このコンテンツ中の感情表出を検出することができる音声処理装置、音声処理方法およびそのプログラムを提供するものである。
第1の発明による音声処理方法(請求項1)及び装置(請求項17)は、フレーム毎の音声特徴量の組に基づき音声の感情表出状態を判定する音声処理方法及び装置であり、基本周波数、パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上及び/又はこれらのフレーム間差分の少なくともいずれか1つ以上を含む音声特徴量の組から成る音声特徴量ベクトルと感情表出状態でのその音声特徴量ベクトルの出現確率がコードごとに格納された符号帳を用い、上記音声特徴量の組を量子化した上記符号帳中の対応する音声特徴量ベクトルの少なくとも1フレーム異常を含む区間の感情表出状態での出現確率を求め、上記音声特徴量ベクトルの感情表出状態での出現確率に基づいて感情表出状態となる尤度を算出し、上記感情表出状態となる尤度に基づいて上記区間が感情表出状態であるか否かを判定することを特徴とする。
この構成により、学習音声から感情表出があった部分の音声特徴量を抽出し、その音声特徴量に基づいて入力音声の感情表出を判定することができる。
第2の発明による音声処理方法(請求項6)及び装置(請求項21)は、第1の発明において、上記符号帳には音声特徴量ベクトルと対応して平静状態での出現確率が格納されており、各フレームの上記音声特徴量の組を量子化した上記符号帳中の音声特徴量ベクトルに対応する平静状態での出現確率を求め、上記音声特徴量ベクトルの平静状態での出現確率に基づいて平静状態となる尤度を算出し、上記感情表出状態となる尤度と上記平静状態となる尤度を比較して上記区間が感情表出状態であると判定することを特徴とする。
このように平静状態尤度と比較することにより、感情表出の検出精度をより高くすることができる。
第3の発明による音声処理方法(請求項8)は、第2の発明において、前記感情表出状態尤度と前記平静状態尤度との比に基づいて、入力音声から抽出した所定の音声特徴量を含む前記入力音声の各音声部分に前記話者の感情表出があったか否かを判定する。
この構成により、感情表出の検出精度を高めることができる。また、判定の基準を音声データに応じて柔軟に調整することが可能な音声処理装置を実現することができる。
第4の発明は、第1、2又は3の発明において、前記音声特徴量が、基本周波数、パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上(請求項3及び19)あるいはそれらのフレーム間差分の少なくともいずれか1つ以上(請求項4及び17)を含む。
この構成により、コンテンツに含まれる音声データに基づき、話者依存性の少ない感情表出の判定が可能となる。
第5の発明は、第1、2、3又は4の発明において、上記符号帳には、各コードに対応して上記感情表出状態として笑い表出状態、怒り表出状態、悲しみ表出状態の少なくとも2つの感情表出状態における音声特徴量ベクトルの出現確率が格納されており、上記少なくとも2つの感情表出状態のそれぞれについて上記音声特徴量ベクトルの出現確率に基づいてそれぞれの感情表出尤度を求め、上記少なくとも2つの感情表出状態の上記感情表出尤度に基づいてどの感情表出状態であるかを判定することを特徴とする(請求項13及び23)。
この構成により、複数の感情表出のどの感情であるかを検出することができる。
本発明は、学習音声から感情表出があった部分の音声特徴量を抽出し、その音声特徴量に基づいて入力音声の感情表出を判定するため、コンテンツに含まれる音声データに基づき、このコンテンツ中の感情表出区間を検出することができる。
以下、本発明の実施の形態について、図面を用いて説明する。
図1は、本発明の実施の形態に係る音声処理装置の機能構成を示すブロック図である。図1において、音声処理装置100は、学習音声を用いて生成された符号帳であって、学習音声に含まれる音声特徴量の組から生成されたベクトル量子化された音声特徴量ベクトルとそれに対応する符号、音声を発した話者の感情、話者の感情表出があったときの音声特徴量ベクトルの出現確率である感情表出確率、および、話者の感情表出がなかったときの音声特徴量ベクトルの出現確率である平静状態確率を対応付けて保持する符号帳110CBを予め記憶する記憶手段110と、入力音声に含まれる音声特徴量ベクトルを抽出する音声特徴量抽出手段120と、音声特徴量抽出手段120が抽出した音声特徴量ベクトルに対応する音声特徴量ベクトルを符号帳から検出し、この符号帳から検出された音声特徴量ベクトルに対応する感情表出確率に基づいて、話者の感情表出についての尤度である感情表出状態尤度を算出する感情表出状態尤度算出手段130と、音声特徴量抽出手段120が抽出した音声特徴量ベクトルに対応する音声特徴量ベクトルを符号帳110CBから検出し、この符号帳110CBから検出された音声特徴量ベクトルに対応する平静状態確率に基づいて、話者の平静状態についての尤度である平静状態尤度を算出する平静状態尤度算出手段140と、感情表出状態尤度算出手段130が算出した感情表出状態尤度、および、平静状態尤度算出手段140が算出した平静状態尤度に基づいて、音声特徴量抽出手段120が入力音声から抽出した所定の音声特徴量を含む入力音声の各音声部分に、話者の感情表出があったか否かを判定する感情表出判定手段150とを含むように構成されている。この実施例では更に、感情表出判定手段150によって話者の感情表出があったと判定された音声部分に対応するコンテンツ部分を含む要約コンテンツを生成する要約コンテンツ生成手段160を設けた場合を示している。
図1には示してないが、音声特徴量抽出手段120はバッファメモリ手段を有しており、入力された音声コンテンツを一時的に格納し、そのバッファメモリ手段内の音声データを分析して音声特徴量ベクトルを抽出する。
図2は、音声処理装置100の具体的構成の一例を示す図である。図2において、入力部210に外部からディジタル信号として入力された音声コンテンツは、CPU(Central Processing Unit)231の制御によりハードディスク235に一時格納される。入力部210には、例えば、マウス等のポインティングデバイス212とキーボード211等が接続されている。なお、音声コンテンツとしては、外部の通信ネットワークから受信されたコンテンツでもよいし、あるいはフレキシブルディスクドライブやCD(Compact Disk)、DVD(Digital Versatile Disk)等のドライブから読み出されたものを入力してもよい。ここではコンテンツは映像コンテンツであってもよく、その場合は、映像コンテンツに含まれている音声信号を入力部210に入力する。
表示部220は、例えば、液晶画面等のモニタ画面を有し、キーボード211あるいはポインティングデバイス212の操作に応じてCPU231から出力する情報を表示することができる。表示部220のモニタ画面には、入力データ、処理経過、処理結果、その他の情報が表示される。
図1における音声特徴量抽出手段120、感情表出状態尤度算出手段130、平静状態尤度算出手段140、感情表出判定手段150、および、要約コンテンツ生成手段160の機能は、図2においてそれぞれの処理を記述したプログラムをCPU231により実行することにより実現される。それらのプログラムは例えばハードディスク235に格納されており、実行時には必要なプログラムがRAM(Random Access Memory)233に読み込まれ、CPU231により実行される。ハードディスク235にはそのほか、後述する符号帳が格納されており、また、前述の入力音声コンテンツもしくは映像コンテンツが格納される。
ROM(Read Only Memory)にはCPU231を立ち上げるためのプログラム、その他のプログラムおよび制御用のパラメータ等を記憶する。RAM233にはCPU231動作中にCPU231の動作に要するプログラムやデータ等が記憶される。EEPROM(Electrically Erasable Programmable Memory)234はプリケーションソフトや所定のデータを不揮発かつ書替可能に記憶する。
出力部240は、付加的機能としてCPU231がプログラム実行により入力音声コンテンツ中の感情表出部分を抽出し、生成した要約コンテンツを出力する機能を有し、フレキシブルディスクドライブやDVD等への記録機能をさらに含んでもよく、通信機能を有し、外部にデータを送信できるようにしてもよい。また、音声コンテンツに対応する区間の映像コンテンツを抽出し、要約コンテンツとして必要に応じて音声とともに出力してもよい。
以下、本発明の実施の形態に係る音声処理装置100の動作について説明する。図3は、本発明の実施の形態に係る音声処理装置100の動作を説明するためのフローチャートである。
まず、学習音声を用いて生成された符号帳であって、学習音声に含まれる所定の音声特徴量の組(パラメータの組)である音声特徴量ベクトル、音声を発した話者の感情、話者の感情表出があったとき(以下、感情表出状態という。)の音声特徴量ベクトルの出現確率である感情表出確率、および、話者の感情表出がなかったときの音声特徴量ベクトルの出現確率である平静状態確率を対応付けて保持する符号帳が予め作成され、図1の記憶手段110に格納されている(S310)。この処理は、任意の入力音声データについてこの発明に従ってコンテンツの要約を生成する処理を開始する前に行っておく。符号帳作成の詳細とともに後述するが、音声特徴量ベクトルは、特許文献2に開示されているような音声のフレームごとに検出する基本周波数、平均パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上及び/又はそれらのフレーム間差分の少なくともいずれか1つ以上のパラメータの組を含むベクトルである。
ステップS320〜S340は感情表出検出処理である。まず、入力音声コンテンツの全体が記憶手段110に取り込まれ、その取り込まれた入力音声から予め決めた複数種類の音声特徴量の組(音声特徴量ベクトル)を抽出する(S320)。
S320で入力音声の所定区間(判定区間)から抽出した一連の音声特徴量ベクトルにそれぞれ最も近い音声特徴量ベクトルを符号帳から検出し、この符号帳からその検出された音声特徴量ベクトルの、感情表出状態での出現確率を読み出し、この一連の出現確率に基づいて、話者の感情表出についての尤度である感情表出状態尤度を算出する。この感情表出状態尤度の計算は、入力音声の一連の音声特徴量ベクトルの判定区間ごと(例えば後述の音声小段落ごと、または一定区間長ごと)に行う。
同様に、入力音声から抽出した音声特徴量ベクトルの、平静状態での出現確率を符号帳から読み出し、この確率に基づいて、話者の平静状態についての尤度である平静状態尤度を上記感情表出状態尤度の算出と同じ判定区間ごとに算出する(S330)。
次に、ステップS330で算出した感情表出状態尤度、および平静状態尤度に基づいて、ステップS320で入力音声から抽出した所定の音声特徴量の組を含む入力音声の音声部分に、話者の感情表出があったか否かを判定区間ごとに判定する(S340)。
最後に、必要に応じてステップS340で話者の感情表出があったと判定された区間に対応するコンテンツ部分を全て入力音声コンテンツから抽出し、要約コンテンツとする(S350)。
以下に、上記の各ステップでの処理について詳細に説明する。まず、各ステップでの処理についての詳細な説明に先立ち、上記の音声特徴量の組について説明する。音声特徴量としては、音声スペクトル等の情報に比べて、雑音環境下でも安定して得られ、かつ感情表出状態か否かの判定が話者依存性の低いものを用いる。このような条件を満たす音声特徴量として、本発明の実施の形態では、基本周波数f0、パワーp、動的特徴量d(t)、無声区間TS等を抽出する。
これらの音声特徴量の抽出法は公知であり、その詳細については、例えば、非特許文献1、非特許文献2、非特許文献3等を参照されたい。
ここで、上記の動的特徴量d(t)は、以下の式(1) によって定義され、その時間変化量は発話速度の尺度となるパラメータである。
Figure 2005345496
ここで、tは時刻、Ck(t)は時刻tにおけるk次のLPCケプストラム係数、±F0は対象とするフレーム(以下、現フレームという)の前後のフレーム数(必ずしも整数個のフレームでなくとも一定の時間区間でもよい)をいう。なお、動的特徴量d(t)としては、特許文献3に定義されたものを用いるのでもよい。
LPCケプストラム係数の次数kは、1からKまでの整数のいずれかである。動的特徴量d(t)の単位時間当たりの極大点の数、または、単位時間当たりの変化率は発話速度の尺度となる。
以下では、1フレームの長さ(以下、フレーム長という)を100msとし、このフレームの開始時刻から50msずらして次のフレームを形成するものとする。また、フレーム毎に、平均基本周波数f0'、平均パワーp'を算出するものとする。平均基本周波数f0'及び平均パワーp'は、基本周波数f0が信頼できるフレームについてのみ使用して算出する。例えば、基本周波数f0の抽出の際の自己相関係数を利用してもよい。さらに、現フレームの基本周波数f0'と、現フレームからiフレーム前の基本周波数f0'および現フレームからiフレーム後の基本周波数f0'のそれぞれと差分Δf0'(-i)、Δf0'(i)と、をとる。平均パワーp'についても同様に、現フレームの平均パワーp'と、現フレームからiフレーム前の平均パワーp'および現フレームからiフレーム後の平均パワーp'のそれぞれと差分Δp'(-i)、Δp'(i)と、をとる。
次に、これらフレーム毎の、基本周波数f0'、基本周波数の差分Δf0'(-i)、Δf0'(i)、平均パワーp'、平均パワーの差分Δp'(-i)、Δp'(i)を規格化する。以下では、基本周波数f0'、基本周波数の差分Δf0'(-i)、Δf0'(i)、平均パワーp'、平均パワーの差分Δp'(-i)、Δp'(i)のそれぞれを、単に、f0'、Δf0'(-i)、Δf0'(i)、p'、Δp'(-i)、Δp'(i)と表し、規格化されたものを、それぞれ、f0"、Δf0"(-i)、Δf0"(i)、p”、Δp"(-i)、Δp"(i)と表す。
この規格化は、例えば、f0'、Δf0'(-i)、Δf0'(i)のそれぞれを、例えば、処理対象の音声データ全体の平均基本周波数で割ることによって行うのでもよいし、標準化して平均0、分散1にしてもよい。また、処理対象の音声データ全体の平均基本周波数の代わりに、後述する音声小段落や音声段落毎の平均基本周波数や、数秒や数分等の時間内での平均基本周波数等を用いるのでもよい。
同様に、p'についても、処理対象の音声データ全体の平均パワーで割り、規格化又は標準化する。また、処理対象の音声データ全体の平均パワーの代わりに、後述する音声小段落や音声段落毎の平均パワーや、数秒や数分等の時間内での平均パワー等を用いるのでもよい。ここで、上記のiの値を、例えば、4とする。
動的特徴量(ダイナミックメジャー)のピークの本数は、以下のように算出する。まず、現フレームの開始時刻を中心に現フレームより十分長い時間幅(2T1、ただしT1は例えばフレーム長の10倍程度とする)の区間を設ける。次に、この区間内における動的特徴量d(t)の時間変化の極大点を算出し、極大点の個数dp(以下、単にdpという)を計数する。
また、ダイナミックメジャーのピーク本数の差分値も、以下に述べるようにして算出しておく。すなわち、現フレームの開始時刻のT2前の時刻を中心とする幅2T1内の区間におけるdpから、現フレームのdpを差し引いた差成分Δdp(-T2)を求める。同様に、現フレームの終了時刻のT3後の時刻を中心とする幅2T1内の区間におけるdpを、現フレームのdpから差し引いた差成分Δdp(T3)を求める。
上記の、T1、T2、T3の値は、それぞれ、フレーム長より十分長いものとし、以下では、T1=T2=T3=450msとする。ただし、これらの値に限られるものではない。また、フレームの前後の無声区間の長さを、それぞれ、tSR、tSFとする。ステップS320では、上記のf0"、Δf0"(-i)、Δf0"(i)、p”、Δp"(-i)、Δp"(i)、dp、Δdp(-T2)、Δdp(T3)等(以下、それぞれをパラメータと呼ぶ)の値をフレーム毎に抽出する。
符号帳作成の際は、上記のf0"、Δf0"(-i)、Δf0"(i)、p"、Δp"(-i)、Δp"(i)、dp、Δdp(-T2)、Δdp(T3)等のパラメータの中から選択されたパラメータの組、例えば(f0",p",dp)(音声特徴量ベクトル)に対応させて、感情表出確率および平静状態確率が算出され、選ばれたパラメータと感情表出確率および平静状態確率とを対応させて符号帳に記録している。符号帳には上記のパラメータの組と同じ組のパラメータが音声特徴量ベクトルとして記録されている。
ステップS320では、入力音声を対象に、上記の音声特徴量パラメータf0"、Δf0"(-i)、Δf0"(i)、p”、Δp"(-i)、Δp"(i)、dp、Δdp(-T2)、Δdp(T3)等のパラメータのうち、符号帳に記録された音声特徴量ベクトルで使用されているパラメータ、例えば前述の(f0",p",dp)の値をフレームごとに算出し、全音声コンテンツに渡る一連の音声特徴量ベクトルを得る。これによって、音声コンテンツの各音声特徴量ベクトルに対応する符号帳中の音声特徴量ベクトルを特定でき、感情表出確率および平静状態確率を決定できることになる。
ステップS330での処理の詳細を、図4を用いて説明する。ステップS330では、まず、ステップS331〜S333で、音声小段落および音声段落を抽出する。次に、ステップS334、S335、S336で、感情表出状態尤度及び平静状態尤度を算出する。この実施例では音声小段落を、感情表出状態か否かを判定する対象の単位とし、音声段落は、例えば、400ms程度またはそれ以上の無声区間ではさまれた、少なくとも1つ以上の音声小段落を含む区間であるものとする。図5に音声小段落と音声段落の関係を概念的に示す。
音声段落等の抽出には、まず、入力音声データの無声区間と有声区間を抽出する(S331)。有声区間であるか無声区間であるかの判定(以下、単に、有声/無声の判定という)は、周期性の有無の判定と等価であるとみなして、自己相関関数や変形相関関数のピーク値に基づいて行われることが多い。
具体的には、入力信号の短時間スペクトルからスペクトル包絡を除去し、得られた予測残差の自己相関関数(以下、変形相関関数という)を算出し、変形相関関数のピーク値が所定の閾値より大きいか否かによって有声/無声の判定を行う。また、そのようなピークが得られる相関処理の遅延時間に基づいて、ピッチ周期1/f0の抽出を行う。
上記では、フレーム毎に各音声特徴量を音声データから抽出する場合について述べたが、音声データが、例えば、CELP(Code-Excited Linear Prediction)などにより、既にフレーム毎に符号化(すなわち、分析)されており、この符号化で得られる係数または符号を用いて音声特徴量を生成するのでもよい。CELPによって得られる符号(以下、CELP符号という)には、一般に、線形予測係数、利得係数、ピッチ周期等が含まれる。そのため、CELP符号を復号して上記の音声特徴量を得ることができる。
具体的には、復号された利得係数の絶対値または二乗値をパワーとして用い、ピッチ成分の利得係数と非周期成分の利得係数との比に基づいて有声/無声の判定を行うことができる。また、復号されたピッチ周期の逆数をピッチ周波数、すなわち基本周波数として用いることができる。また、上記の式(1) で説明した動的特徴量の計算に使用するLPCケプストラム係数は、CELP符号を復号して得られたものを変換して求めることができる。
また、CELP符号にLSP(Line Spectrum Pair)係数が含まれていれば、LSP係数を一旦LPCケプストラム係数に変換し、変換して得られたLPCケプストラム係数から求めてもよい。このように、CELP符号には本発明で使用できる音声特徴量が含まれているので、CELP符号を復号し、フレーム毎に必要な音声特徴量の組を取り出すことができる。
図4に戻って、有声区間の両側の無声区間の時間tSR、tSFがそれぞれ予め決めたt以上になるとき、その無声区間によって囲まれた有声区間を含む信号部分を音声小段落Sとして抽出する(S332)。以下では、この無声区間の時間tSの値を、例えば、tS=400msとする。
次に、この音声小段落S内の、好ましくは後半部の有声区間内の平均パワーpと、この音声小段落Sの平均パワー値PSの定数β倍とを比較し、p<βPSであれば、その音声小段落Sを末尾音声小段落とし、直前の末尾音声小段落後の音声小段落から現在の末尾音声小段落までを音声段落と決定して抽出する(S333)。
音声小段落の抽出は、上記の有声区間を囲む無声区間の時間がtS以上となるという条件で行う。図5に、音声小段落としてSj-1、Sj、Sj+1を示し、以下では音声小段落Sを処理対象の音声小段落とする。音声小段落Sは、Q個の有声区間から構成され、音声小段落Sの平均パワーをPjとする。
また、音声小段落Sに含まれるq番目の有声区間V(q=1, 2, …, Q)の平均パワーをpと表す。音声小段落Sが音声段落Bの末尾の音声小段落であるか否かは、音声小段落Sを構成する後半部分の有声区間の平均パワーに基づいて判定する。具体的には、以下の式(2) に示す条件が満たされるか否かで判定する。
Figure 2005345496
この条件を満たすとき、音声小段落Sjが音声段落Bの末尾音声小段落であると判定する。
ここで、αはQj/2以下の値をとる定数であり、βは例えば0.5〜1.5程度の値をとる定数である。これらの値は、音声段落の抽出を最適化するように、予め実験により決めておく。ただし、有声区間の平均パワーpqは、その有声区間内の全フレームの平均パワーである。本発明の実施の形態では、例えばα=3、β=0.8とする。上記のようにすることによって、隣接する末尾音声小段落間の音声小段落の集合を音声段落と判定できる。あるいは、音声小段落を固定長t(s)、シフト幅S(s)と決めてもよい。例えばt(s)=S(s)=1msecの固定長、シフト幅としてもよい。音声段落についてもΔSの無声区間で囲まれた区間としてもよい。
次に、図4に戻って感情表出状態尤度を算出する処理(S334、S335)について説明する(以下、この処理を感情表出判定処理という。)。まず、ステップS310で予め作成した符号帳に記録される音声特徴量ベクトルに合わせて、ステップS320で抽出した入力音声小段落中の音声特徴量の組をベクトル量子化し、符号列C1, C2, C3, …を得る(S334)。
ステップS335での感情表出状態尤度の算出に先立って、図6を用いて符号帳の作成方法について説明する。まず、多数の学習用音声を被験者から採取し、感情表出があった発話と平静状態での発話とを識別できるようにラベルを付ける(S311)。例えば、音声が、笑っている、怒っている、悲しんでいる、とそれぞれ判断した区間にラベル付けを行う。
反対に平静状態と判定する理由を、上記の笑い、怒り、悲しみのいずれにも該当せず、発話が平静であると感じられることとする。
ステップS311で上記のラベル付けを行ったら、ラベル付けされた音声データから、ステップS320での処理と同様に予め決めたパラメータの組の音声特徴量、例えば(f0",p",dp)の値を音声特徴量ベクトル値としてフレームごとに抽出する(S312)。ラベル付けによって得られる感情表出状態または平静状態の情報と、感情表出状態または平静状態とされたラベル区間(ラベル付けされた音声区間)について得られる音声特徴量ベクトルとを用いて、LBGアルゴリズムに従って符号帳を作成する(S313)。
LBGアルゴリズムは公知であり、その詳細は、例えば、非特許文献5を参照されたい。
符号帳に記録されるエントリの数(以下、符号長サイズという。)は、2m個(mは、1以上の整数)確保できると共に可変であり、エントリのインデックスとしてコードCが用いられ、インデックスにはコードCに対応したmビットの量子化ベクトル(C=00…0〜11…1)が用いられる。
符号帳には、この量子化ベクトル(コードC)に対応させて、フレーム長より十分長い所望の区間、例えば学習音声のラベル区間に得られる全音声特徴量ベクトルを使って上記LBGアルゴリズムにより決められた代表ベクトルを符号帳の音声特徴量代表ベクトルとして記録しておく。その際、各音声特徴量を、例えば、その平均値と標準偏差で規格化してもよい。以下の説明では、符号帳の音声特徴量代表ベクトルも単に音声特徴量ベクトルと呼ぶ。
入力音声データから抽出した音声特徴量のパラメータのうち、感情表出判定処理に使用するパラメータの組は、上記の符号帳作成に用いたパラメータの組と同じものである。感情表出状態または平静状態の音声小段落を特定するために、音声小段落中のコードC(エントリのインデックス。)に対応させて、各感情表出状態での出現確率と平静状態での出現確率をそれぞれ算出する。その際、感情を「笑い」、「怒り」、「悲しみ」などに分類しておき、それぞれの感情について上記の感情表出状態と平静状態の各出現確率を算出し、1つの符号帳に記録する。従って、符号帳には、上記のコードCと、音声特徴量ベクトルと、感情表出状態での出現確率と平静状態での出現確率とが対応して記録されている。これらは感情の種類毎に分類して別々の符号帳に記録してもよい。
以下に、ステップS335で行う話者の感情表出についての尤度である感情表出状態尤度の算出、および、ステップS336で行う平静状態についての尤度である平静状態尤度の算出方法の一例について説明する。まず、学習音声中のラベル区間に含まれるフレームの数をnとし、それぞれのフレームについて得られる音声特徴量の組に対応するコードが時系列でC, C, …, Cとなっているものとする。
上記で説明したように、ラベル区間は、符号帳を作成する処理のステップS311で、ラベルが付けられた1つの音声区間である。このとき、ステップS335、S336で算出される、ラベル区間Aの感情表出状態尤度PAemoおよび平静状態尤度PAnrmは、それぞれ、以下の式(3) および式(4) に示すように表される。
Figure 2005345496
ここで、Pemo(Ci|C1…Ci-1)は、コード列C1, …, Ci-1の次にコードCiが感情表出状態となる条件付出現確率、Pnrm(Ci|C1…Ci-1)は、同様にコード列C1, …, Ci-1の次にコードCiが平静状態となる条件付出現確率である。また、Pemo(Ci)は、符号帳を作成する処理において、音声が感情表出状態とラベル付けされた部分に存在した音声特徴量ベクトルに対応するコードCiの総個数を数え、その総個数を、感情表出状態とラベル付けされた音声データの全コード数(=フレーム数)で割算した値である。一方、Pnrm(Ci)は、コードCiが平静状態とラベル付けされた部分に存在した個数を、平静状態とラベル付けされた音声データの全コード数で割算した値である。
以下では、各条件付出現確率をN-gram(N<i)モデルで近似し、感情表出状態尤度および平静状態尤度の計算を簡単にする。N-gramモデルは、ある時点でのある事象の出現がその直前のN-1個の事象の出現に依存すると近似するモデルである。ここで、N=3のときはtrigram、N=2のときはbigram、N=1のときはunigramとよばれる。このモデルでは、例えば、i番目のフレームにコードCiが出現する確率P(Ci)は、P(Ci)=P(Ci|Ci-N+1…Ci-1)とされる。
上記の式(3) および式(4) 中の各条件付出現確率Pemo(Ci|C1…Ci-1)、Pnrm(Ci|C1…Ci-1)にN-gramモデルを適用すると、各条件付出現確率は以下の式(5) および式(6) に示すように近似される。
Pemo(Ci|C1…Ci-1)=Pemo(Ci|Ci-N+1…Ci-1) (5)
Pnrm(Ci|C1…Ci-1)=Pnrm(Ci|Ci-N+1…Ci-1) (6)
上記の式(5) のPemo(Ci|Ci-N+1…Ci-1)および式(6) のPnrm(Ci|Ci-N+1…Ci-1)は、通常、符号帳から全て得られるようになっているが、一部のものについては、学習音声から得られないものもある。その場合は、他の条件付出現確率や単独出現確率から補間によって求めたものでもよい。例えば、低次(すなわち、コード列が短い)の条件付出現確率と単独出現確率等とから高次(すなわち、コード列が長い)の条件付出現確率を補間して求めることができる。
以下に、この補間の方法について説明する。以下では、上記のtrigram (N=3)、bigram (N=2)、および、unigram (N=1)を例にとり説明する。各出現確率は、trigram (N=3)では、Pemo(Ci|Ci-2Ci-1)、Pnrm(Ci|Ci-2Ci-1)、bigram (N=2)では、Pemo(Ci|Ci-1)、Pnrm(Ci|Ci-1)、そして、unigram (N=1)では、Pemo(Ci)、Pnrm(Ci)と表される。
この補間の方法では、Pemo(Ci|Ci-2Ci-1)およびPnrm(Ci|Ci-2Ci-1)を、上記の感情表出状態での3つの出現確率、または、平静状態での3つの出現確率を用い、以下の式(7) および式(8) に基づいて算出する。
Figure 2005345496
ここで、上記のλemo1、λemo2、λemo3は、trigramの感情表出状態とラベル付けされた学習データのフレーム数をnとし、時系列でコードC1, C2, …, Cnが得られたとき、以下のように表される。
Figure 2005345496
ただし、λemo1、λemo2、λemo3を求めるときの音声データは、符号帳を作成するときの音声データ以外のものとする。符号帳を作成するときの音声データと同じ音声データを用いると、λemo1=1、λemo2=λemo3=0の自明な解となってしまうからである。同様に、λnrm1、λnrm2、λnrm3も求められる。
次に、trigramを用い、ラベル区間Aのフレーム数がFAであり、得られたコードがC1, C2, …, CFAのとき、このラベル区間Aの感情表出状態尤度PAemoおよび平静状態尤度PAnrmは、それぞれ、以下の式(9) および式(10)に示すように表される。
PAemo=Pemo(C3|C1C2)…Pemo(CFA|CFA-2CFA=1) (9)
PAnrm=Pnrm(C3|C1C2)…Pnrm(CFA|CFA-2CFA-1) (10)
本発明の実施の形態では、上記のように補間と、感情表出状態尤度PAemoおよび平静状態尤度PAnrmの算出とができるように、上記の例では、trigram (N=3)、bigram (N=2)、および、unigram (N=1)を各コードについて算出しておき、符号帳に格納しておくものとする。つまり、符号帳には、各コードに対応して、音声特徴量ベクトルと、その感情表出状態での出現確率と、平静状態での出現確率との組が格納される。
その感情表出状態での出現確率としては、各コードが過去のフレームで出現したコードと無関係に感情表出状態で出現する確率(単独出現確率)、直前の連続した所定数のフレームの取り得るコードの列の次にそのコードが感情表出状態で出現する条件付出現確率、またはそれら両方を使用する。同様に、平静状態での出現確率、そのコードが過去のフレームで出現したコードと無関係に平静状態で出現する単独出現確率、直前の連続した所定数のフレームの取り得るコードの列の次にそのコードが平静状態で出現する条件付出現確率、またはそれら両方を使用する。
図7に、符号帳に記録される内容の一例を示す。以下の各符号帳の作成において、学習音声から使用する平静状態のフレーム総数と、対応する感情(例えば笑い)の表出状態のフレーム総数は等しく選ばれている。この例では学習音声中の笑いのラベル区間と平静のラベル区間を分析して作成した符号帳CB-1と、怒りのラベル区間と平静のラベル区間を分析して作成した符号帳CB-2と、悲しみのラベル区間と平静のラベル区間を分析して作成した符号帳CB-3とを示している。図7に示すように、各符号帳には各コードC1, C2, …毎に、その音声特徴量ベクトルと、その単独出現確率が、各感情表出状態および平静状態について格納され、条件付出現確率が各感情表出状態および平静状態についてそれぞれ組として格納されている。ここで、コードC1, C2, C3, …は、符号帳の各音声特徴量代表ベクトルに対応したコード(インデックス)を表し、それぞれmビットの値"00…00"、"00…01"、"00…10"、…である。
符号帳におけるh番目のコードをChで表し、例えばC1は第1番目のコードを表すものとする。以下では、この発明に好適な音声特徴量の組の例として、パラメータf0"、p"、dpを使用し、符号帳サイズ(音声特徴量ベクトルの数)が25の場合の感情表出状態および平静状態での、条件付出現確率をtrigramで近似した例について説明する。
図8は、音声データの処理を説明するための模式図である。時刻tから始まる音声小段落のうち、第1フレームから第4フレームまでを符号i〜i+3を付して示している。フレーム長およびフレームシフトを、上記のように、それぞれ、100ms、50msとした。ここでは、フレーム番号i(時刻t〜t+100)のフレームについてコードC1が、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC2が、フレーム番号i+2(時刻t+100〜t+200)のフレームについてコードC3が、そして、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC4が得られているものとする。すなわち、フレーム順にコードがC1、C2、C3、C4であるとする。
この場合、フレーム番号i+2以上のフレームでは、trigramが計算できる。いま、音声小段落Sの感情表出状態尤度をPSemo、平静状態尤度をPSnrmとすると、第4フレームまでの各尤度はそれぞれ、以下の式(11)および式(12)によって与えられる。
PSemo=Pemo(C3|C1C2)Pemo(C4|C2C3) (11)
PSnrm=Pnrm(C3|C1C2)Pnrm(C4|C2C3) (12)
この例では、符号帳からコードC3、C4の感情表出状態および平静状態の各単独出現確率を求め、コードC2の次にコードC3が感情表出状態および平静状態で出現する条件付出現確率を求め、さらに、コードC3が連続するコードC1C2の次に感情表出状態および平静状態で出現し、コードC4が連続するコードC2C3の次に感情表出状態および平静状態で出現する条件付出現確率を求めると以下のようになる。
Pemo(C3|C1C2)=λemo1Pemo(C3|C1C2)+λemo2Pemo(C3|C2)+λemo3Pemo(C3)
(13)
Pemo(C4|C2C3)=λemo1Pemo(C4|C2C3)+λemo2Pemo(C4|C3)+λemo3Pemo(C4)
(14)
Pnrm(C3|C1C2)=λnrm1Pnrm(C3|C1C2)+λnrm2Pnrm(C3|C2)+λrnm3Pnrm(C3)
(15)
Pnrm(C4|C2C3)=λnrm1Pnrm(C4|C2C3)+λnrm2Pnrm(C4|C3)+λnrm3Pnrm(C4)
(16)
上記の式(13)〜(16)を用いることによって、式(11)と(12)とで示される第3フレームまでの感情表出状態尤度PSemoと平静状態尤度をPSnrmが求まる。ここで、条件付出現確率Pemo(C3|C1C2)およびPnrm(C3|C1C2)は、フレーム番号i+2以降で計算できる。
以上の説明は、第4フレームi+3までの計算についてであったが、フレーム数FSの音声小段落Sについても同様に適用できる。例えば、フレーム数FSの音声小段落Sのそれぞれのフレームから得られたコードがC1、C2、…、CFAのとき、この音声小段落Sが感情表出状態になる尤度PAemoと平静状態になる尤度PAnrmを以下の式(17)および式(18)に示すように計算する。
Figure 2005345496
上記のように算出した尤度が、PAemo>PAnrm、であれば、その音声小段落Sの発話状態は、感情表出状態であると判定する(S350)。逆に、PAemo≦PAnrmであれば、実質的に平静状態と判定されることになる。同様に、PAemo/PAnrm>1、であることを感情表出状態と判定するための条件とするのでもよい。また、正の重み係数Wに対しWLPAemo>PAnrm、を満足することを条件とすることにより、あるいは
RE=(logPAemo-logPAnrm)/L>W (19)
を満足することを条件とすることにより、小段落のフレーム数Lに応じて重み付けの影響を増減するようにしてもよい。
ステップS360で作成する要約コンテンツは、感情表出状態と判定されたコンテンツ部分の前の所定の音声小段落や音声段落を含めたものを接続して作成するのでもよい。これにより、突然、感情表出状態のコンテンツが再生され、要約されたコンテンツを閲覧者が適切に理解できないことや理解が困難になることを防止できる。要約コンテンツの抽出はコンテンツ全体に対する圧縮率が予め決めた値になった時点で停止してもよいし、あるいは、上記重み係数Wの値を適当に調整することにより、前コンテンツに対する要約コンテンツが予め決めた圧縮率の範囲となるようにしてもよい。
あるいは、感情表出状態出現確率Pemoの音声小段落にわたる総和ΣPemoと平静状態出現確率Pnrmの音声小段落にわたる総和ΣPnrmから感情表出状態尤度PAemoと平静状態尤度PAnrmを次式
Figure 2005345496
のように求め、PAemo>PAnrmならその音声小段落は感情表出状態であると判定し、PAemo≦PAnrmであれば平静状態と判定してもよい。あるいは、これら条件付出現確率の総積あるいは条件付出現確率の総和を重み付け比較して音声小段落の発話状態を判定してもよい。
「笑い」、「怒り」、「悲しみ」の各感情表出状態判定方法においても、用いる音声特徴量については前述の方法の場合と同様であり、音声特徴量の組としては例えばパラメータ基本周波数、パワー、動的特徴量の時間変化特性の少なくとも1つ以上及び/又はこれらのフレーム間差分の少なくとも1つ以上を含むことが好ましい。出現確率も単独出現確率又はこれと条件付出現確率の組合せでもよく、更にこの組合せを用いる場合は、条件付出現確率の計算に対し線形補間法を用いることが好ましい。またこの感情表出状態判定方法においても、音声小段落又はこれよりも長い適当な区間ごとに、あるいは全体の音声信号の各音声特徴量の平均値で各音声特徴量を規格化し、あるいは標準化してフレームごとの音声特徴量の組を形成し、ベクトル量子化以後の処理を行うことが好ましい。
感情表出状態判定方法としては、例えば、音声小段落に対する「笑い」、「怒り」、「悲しみ」についての尤度PAlau, PAang, PAsadを式(17)と同様に次式
Figure 2005345496
により計算し、これにより例えば「笑い」であるか、「平静」であるかを判定する場合には、前述と同様に笑いの表出尤度PAlauと生成状態尤度PAnrmから条件
(a1) PAlau>PAnrm
(b1) WLPAlau>PAnrm
(c1) RL=(logPAlau-logPAnrm)/L>W、
のいずれか予め決めた条件を使って、その条件を満足していれば笑いの表出状態であると判定する。「怒り」であるか「平静」であるかの判定は式(23)を使って尤度PAangを計算し、
(a2) PAang>PAnrm
(b2) WLPAang>PAnrm
(c2) RA=(logPAang-logPAnrm)/L>W、
のいずれか予め決めた条件を使って、その条件を満足していれば怒りの表出状態と判定する。同様に、「悲しみ」であるか「平静」であるかの判定は式(24)を使って尤度PAsadを計算し、
(a3) PAsad>PAnrm
(b3) WLPAsad>PAnrm
(c3) RS=(logPAsad-logPAnrm)/L>W、
のいずれか予め決めた条件を使って、その条件を満足するか判定すればよい。判定条件はこれ以外にもいろいろなものが容易に考えられる。
感情表出が「笑い」であるか、「怒り」であるか、「悲しみ」であるかを判定する場合は、例えば上記条件式(c1), (c2), (c3)による笑い尤度比RL、怒り尤度比RA、悲しみ尤度比RSを計算し、これらの尤度比を比較することにより決めることができる。
この発明の原理によれば、前述のように、音声特徴量として基本周波数、パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上及び/又はこれらのフレーム間差分の少なくともいずれか1つ以上を使用すればよいが、これらの音声特徴量のうち、動的特徴量の時間変化特性を含むことことが好ましい。更に、音声特徴量として少なくとも基本周波数、パワー、動的特徴量の時間変化特性又はそれらのフレーム間差分を使用することにより感情検出の精度を高めることができる。音声特徴量として少なくとも特に基本周波数、動的特徴量の時間変化特性は実用的な特徴量として好ましい。
以上、この発明による感情表出検出方法で使用される符号帳の作成と、その符号帳を使った感情表出の検出について詳細に説明した。以下には、この発明を使って所望の感情表出、ここでは笑い、怒り、悲しみの所望の音声区間を抽出する実施形態を示す。
第1実施形態
この実施形態は3つの感情、「笑い」、「怒り」、「悲しみ」を区別せず、何れの感情表出も「感情」として検出する場合である。
学習音声中の「笑い」の表出区間、「怒り」の表出区間、「悲しみ」の表出区間は区別せず、全て「感情」のラベリングをし、その他の区間で、平静である区間に「平静」のラベリングをして図9に示すように1つの符号帳を作成しておく。
図10は第1実施形態による感情表出区間の検出処理手順を示す。
ステップS1:入力音声コンテンツから所定の音声区間Sを取り込む。音声区間は前述の音声小段落であってもよいし、あるいは予め決めた少なくとも1フレームを含む一定長の音声区間であってもよい。
ステップS2:取り込んだ音声区間を分析してフレーム毎の音声特徴量ベクトルを求め、図9の符号帳を参照して例えば式(17), (18)又は式(19), (20)により平静状態尤度PAnrmと感情表出状態尤度PAemoを計算する。
ステップS3:残りの音声区間があるか判定し、あればステップS1に戻り、次の音声区間について同様の処理を行う。
ステップS4:全ての音声区間について感情表出状態尤度PAemoと平静状態尤度PAnrmが例えば図11に概念的に示すように求まると、WLPAemo>PAnrmを満たす区間S'を検出し、その各検出区間S'の位置(例えば検出区間の開始及び終了フレーム番号、又はコンテンツの最初から検出区間の開始時刻及び終了時刻)を記憶手段に記憶する。Wは予め決めた正の定数であり、Lは各区間S毎のフレーム数である。尚、図11にはWLPAemo, PAnrmを連続曲線で示しているが、実際には音声区間Sごとの不連続な曲線である。
ステップS5:ステップS4で検出した区間S'の位置に対応する音声区間を入力音声コンテンツから感情表出区間として抽出する。
第2実施形態
この実施形態は、上記第1実施形態において検出した感情表出区間S'を、図10のステップS5において更に感情表出が「笑い」、「怒り」、「悲しみ」のどれであるかを判定する。この第2実施形態は第1実施形態で使用する図9の感情表出検出用の符号帳に加えて次の符号帳を予め作成しておく。
上記「感情」のラベルがつけられた学習音声区間中の笑いの表出区間に「笑い」をラベリングし、怒りの表出区間に「怒り」をラベリングし、悲しみの表出区間に「悲しみ」をラベリングし、これら「笑い」、「怒り」、「悲しみ」がラベリングされた音声区間に基いて図12に示す符号帳を作成する。
図13は第2実施形態による「笑い」、「怒り」、「悲しみ」の感情表出区間を検出する処理手順を示す。ステップS1〜S4は図9の符号帳を使って図10に示した第1実施形態による感情表出区間の検出処理と同じであり、これにより「笑い」、「怒り」、「悲しみ」のいずれかを含む感情表出区間S’が検出される。以降のステップS5〜S8により、各感情表出区間S’が「笑い」、「怒り」、「悲しみ」のどれであるかを判別する。
ステップS5:ステップS4で検出された1つの感情表出区間S’内の一連の音声特徴量ベクトルを得る。これはステップS1〜S3において全音声区間についての音声特徴量ベクトルが既に求められているので、その中から区間S’に対応する一連の音声特徴量ベクトルを取り出せばよい。
ステップS6:図12の符号帳を参照して検出感情表出区間S’の笑い表出尤度PAlau、怒り表出尤度PAang、悲しみ表出尤度PAsadをそれぞれ計算する。
ステップS7:これら尤度PAlau, PAang, PAsadのうち、最大の尤度を判定し、その最大尤度の感情を表すマーク、例えば笑いはLau、怒りはAng、悲しみはSadのマークをその検出区間S’の位置に対応して記憶する。
ステップS8:未処理の感情表出検出区間S’が残っているか判定し、残っていればステップS5に戻り、次の感情表出検出区間S’について同様の処理を実行する。
ステップS9:全ての感情表出検出区間S’について最大尤度の判定が終了していれば、全ての感情表出検出区間S’の中からマークLau, Ang, Sadのうち、例えば利用者により指定された感情のマークの検出区間と対応する音声区間を入力の音声コンテンツから抽出する。
このように、第2実施形態に拠れば、利用者が1種類又は複数種類の感情表出を指定すれば、その指定された感情表出を音声コンテンツから抽出することができる。
第3実施形態
上述の第2実施形態では音声コンテンツからまず感情表出区間を検出し、次に各感情表出区間が「笑い」、「怒り」、「悲しみ」のいずれであるかを判定する場合を示したが、この第3実施形態では、音声コンテンツから直接「笑い」、「怒り」、「悲しみ」の任意の感情表出を検出する。符号帳は図12に示したものを使用する。図14は第3実施形態による感情表出区間の検出処理手順を示す。
ステップS1:音声区間Sを入力音声コンテンツから取り込む。
ステップS2:音声区間Sの一連のフレームの音声特徴量ベクトルを求め、図12の符号帳を参照して笑い表出尤度PAlau、怒り表出尤度PAang、悲しみ表出尤度PAsadをそれぞれ計算する。
ステップS3:これら尤度PAlau, PAang, PAsadのうち、最大の尤度を判定し、その最大尤度の感情を表すマーク例えば笑いはLau、 怒りはAng、悲しみはSadのマークをその音声区間Sの位置に対応して記憶する。
ステップS4:未処理の音声区間Sが残っているが判定し、残っていればステップS1に戻り、次の音声区間Sについて同様の処理を実行する。
ステップS5:全ての音声区間Sについて最大尤度の判定が終了していれば、全ての音声区間Sの中からマークLau, Ang, Sadのうち例えば利用者により指定されたマークの検出区間と対応する音声区間を入力音声コンテンツから抽出する。
このように、第3実施形態によっても、利用者が1種類又は複数種類の感情表出を指定すれば、その指定された感情表出を音声コンテンツから抽出することができる。この第3実施形態の場合は、第1実施形態における符号帳は使用しないので、平静状態尤度を使用しないことになる。即ち、この発明による感情表出の検出には、平静状態尤度の計算を必ずしも必要としない。
第4実施形態
この実施形態も、例えば「笑い」、「怒り」、「悲しみ」の3種類の感情表出の任意のもの(1つ又は複数)を抽出することを可能にするものであり、予め次の3つの符号帳を作成しておく(図7の例と同様である)。
(1) 学習音声中の全ての笑いの表出区間に「笑い」のラベリングをし、全ての平静状態区間に「平静」のラベリングをして笑い検出用符号帳を作成する。
(2) 学習音声中の全ての怒りの表出区間に「怒り」のラベリングをし、全ての平静状態区間に「平静」のラベリングをして怒り検出用符号帳を作成する。
(3) 学習音声中の全ての悲しみの表出区間に「悲しみ」のラベリングをし、全ての平静状態区間に「悲しみ」のラベリングをして悲しみ検出用符号帳を作成する。
図15は第4実施形態の処理手順を示す。この実施形態においても、3種類の感情表出の任意の1つ又は複数を検出できる。
ステップS1:入力音声コンテンツから音声区間Sを取り込む。音声区間Sは前述のように音声小段落でもよいし、予め決めた一定長の区間でもよい。
ステップS2:音声区間Sを分析してフレーム毎の音声特徴量を求め、上記笑い検出用符号帳を参照して笑い表出尤度PAlauとそれに対する平静状態尤度PAnrmを求め、笑い尤度比
RL=(logPAlau-logPAnrm)/L
を計算する。上記怒り検出用符号帳を参照して怒り表出尤度PAangとそれに対する平静状態尤度PAnrmを求め、怒り尤度比
RA=(logPAang-logPAnrm)/L
を計算する。更に、上記悲しみ検出用符号帳を参照して悲しみ表出尤度PAsadとそれに対する平静状態尤度PAnrmを求め、悲しみ尤度比
RS=(logPAsad-logPAnrm)/L
を計算する。計算したこれら尤度比RL, RA, RSを記憶する。
ステップS3:残りの音声区間Sがあるか判定し、あればステップS1に戻り次の音声区間Sについて同様の処理を実行する。入力音声コンテンツの全音声区間について終了していれば、利用者により指定された「笑い」、「怒り」、「悲しみ」の任意の1つ又は複数について次のステップS4,S5,S6のうち指定された感情に対応するものを実行する。
ステップS4,S5,S6:ステップS1,S2,S3の処理により例えば図16に概念的に示すように、縦軸を尤度比Rとして笑い表出尤度比RL、怒り表出尤度比RA、悲しみ表出尤度比RSの曲線がそれぞれえられており、これらと予め決めた閾値Rthを比較し、Rthより大となる区間を検出し、それらの位置と感情マークLau, Ang, Sadを対応させて記憶する。
ステップS7:「笑い」、「怒り」、「悲しみ」のうち、利用者により指定されたものの検出区間を入力音声コンテンツから抽出する。
このように、この第3実施形態においても「笑い」、「怒り」、「悲しみ」の任意の感情表出を選択してコンテンツから抽出することが可能である。
第5実施形態
この実施形態は第4実施形態の変形例である。第4実施形態では感情表出区間を検出するために各感情表出状態尤度比を一定閾値Rthと比較したが、ここでは、各感情表出状態尤度を共通の平静状態尤度と比較して各感情表出区間を検出する。そのために、学習音声中の笑い表出区間、怒り表出区間、悲しみ表出区間にそれぞれ「笑い」、「怒り」、「悲しみ」をラベリングし、音声が平静となる区間に「平静」をそれぞれラベリングし、図17に示す符号帳を作成しておく。図17に示すように、符号帳には笑い、怒り、悲しみ、平静の各感情表出における符号の単独出現確率(unigram)、条件付出現確率(bigram, trigram)が学習音声から求められ、書き込まれている。
図18は第5実施形態の処理手順を示す。
ステップS1:入力音声コンテンツから音声区間Sを取り込む。
ステップS2:音声区間Sを分析してフレーム毎の音声特徴量を求め、図17の符号帳を参照して笑い表出尤度PAlau、怒り表出尤度PAang、悲しみ表出尤度PAsad、平静状態尤度PAnrmを計算し、記憶する。
ステップS3:残りの音声区間があるか判定し、あればステップS1に戻り、次の音声区間について同様の処理を実行する。残りの音声区間がなければ、「笑い」、「怒り」、「悲しみ」のうち利用者により指定された1つ又は複数についてステップS4,S5,S6の対応するものを実行する。
ステップS4,S5,S6:ステップS1,S2,S3の処理が終了した段階で例えば図19に概念的に示すように、笑い表出尤度PAlau、怒り表出尤度PAang、悲しみ表出尤度PAsad、平静状態尤度PAnrmの曲線がえられている。ただし図19ではフレーム数Lの区間の各感情表出尤度PAlau, PAang, PAsadに重みWLを乗算した曲線を示している。これら尤度曲線WLPAlau, WLPAang, WLPAsadと曲線PAnrmを比較し、WLPAlau>PAnrm、WLPAang>PAnrm、WLPAsad>PAnrmを満足し、かつPAlau, PAang, PAsadのうち最大のものの区間をそれぞれ検出し、それぞれ検出区間の位置とマークを対応させて記憶する。
ステップS7:「笑い」、「怒り」、「悲しみ」のうち、利用者により指定された感情の検出区間に対応する音声区間を音声コンテンツから抽出する。
第6実施形態
この実施形態では、予め学習音声中の「笑い」、「怒り」、「悲しみ」の音声区間にそれぞれ対応するラベルをつけ、「笑い」の音声区間と「怒り」の音声区間の全フレームの音声特徴量ベクトルから笑い表出についての各量子化音声特徴量ベクトルの各出現確率と、怒り表出についての量子化音声特徴量ベクトルの各出現確率を求め、図20に示す符号帳CB−1を作成し、同様に「怒り」の音声区間と「悲しみ」の音声区間の全フレームの音声特徴量ベクトルから怒り表出についての各量子化音声特徴量ベクトルの各出現確率と、悲しみ表出についての量子化音声特徴量ベクトルの各出現確率を求め、図20に示す符号帳CB−2を作成し、「悲しみ」の音声区間と「笑い」の音声区間の全フレームの音声特徴量ベクトルから悲しみ表出についての各量子化音声特徴量ベクトルの各出現確率と、笑い表出についての量子化音声特徴量ベクトルの各出現確率を求め、図20に示す符号帳CB−3を作成しておく。
図21は第6実施形態による感情表出検出処理手順を示す。
ステップS1〜S4は図10の各感情を区別しない場合の処理手順と同様であり、図9の符号帳を使って全音声区間について得た感情表出状態尤度WLPAemoと平静状態尤度PAnrmの曲線からWLPAemo>PAnrmとなる区間を感情表出区間S’として全て検出し、一時記憶する。
ステップS5:感情表出区間S’を取り込む。
ステップS6:感情表出区間S’の一連の音声特徴量ベクトルから図20の符号帳CB−1を参照して笑い表出尤度PAlau1と怒り表出尤度PAang2を求め、符号帳CB−2を参照して怒り表出尤度PAang1と悲しみ表出尤度PAsad2を求め、符号帳CB−3を参照して悲しみ表出尤度PAsad1と笑い表出尤度PAlau2を求める。
ステップS7:上記尤度から笑い、怒り、悲しみについてそれぞれ2つの尤度を以下のように決める。
笑い尤度: PLAU1=PAlau1/PAang2; PLAU2=PAlau2/PAsad1
怒り尤度: PANG1=PAang1/PAsad2; PANG2=PAang2/PAlau1
悲しみ尤度:PSAD1=PAsad1/PAlau2; PSAD2=PAsad2/PAang1
ステップS8:笑い度、怒り度、悲しみ度を以下のように決める。
笑い度: LAU=(PLAU1+PLAU2)/2
怒り度: ANG=(PANG1+PANG2)/2
悲しみ度: SAD=(PSAD1+PSAD2)/2
ステップS9:図22に示すように、
LAU>ANGかつLAU>SADの区間を検出し、Lauのマークをつける。
ANG>SADかつANG>LAUの区間を検出し、Angのマークをつける。
SAD>LAUかつSAD>ANGの区間を検出し、Sadのマークをつける。
ステップS10:全ての検出区間S’について処理が終了したか判定し、終了してなければステップS5に戻って次の感情表出検出区間S’についてステップS6〜S9で同様の処理を実行する。
ステップS11:全ての検出区間S’について終了していれば、利用者により指定された感情のマークの区間を音声コンテンツから抽出する。あるいはユーザが希望する指定の時間長で要約を視聴したい、笑っているところだけ見たい、などの要求を満足する閾値Rth以上の区間を抽出してもよい(図22の破線参照)。
上述の第1から第6実施形態における各感情表出状態尤度PAlau, PAang, PAsadはいずれも前記式(17)または(19)のいずれを使用して計算してもよい。
以上説明したように、本発明の実施の形態に係る音声処理装置は、学習音声から感情表出があった部分の音声特徴量を抽出し、その音声特徴量に基づいて入力音声の感情表出を判定するため、コンテンツに含まれる音声データに基づき、このコンテンツを感情面に着目して要約することができる。
また、感情表出状態尤度と平静状態尤度との比に基づいて、話者の感情表出があったか否かを判定するため、判定の基準を音声データに応じて柔軟に調整できる。
また、音声特徴量が、少なくとも、基本周波数、パワー、動的特徴量のうち、いずれか1つ以上を含み、話者依存性の少ない音声特徴量に基づいて要約コンテンツを作成するため、より正確に感情表出を検出できる。
さらに、フレーム毎に音声特徴量が記憶され、抽出されるため、時間的なむらが音声データから感情表出を検出できる。
また、本発明の実施の形態では、音声処理装置が上記のS310〜S360の各ステップでの処理を行う音声処理動作について説明したが、これらのステップS310〜S360を含む音声処理動作を実行させるための音声処理プログラムがインストールされた所定のコンピュータを用いて実施することも可能である。
本発明に係る音声処理装置および音声処理プログラムは、コンテンツに含まれる音声データに基づき感情の表出を抽出でき、従ってこのコンテンツを感情面に着目して要約し、例えばインターネット上で配信するコンテンツの要約生成などに適用できる。
本発明の実施の形態に係る音声処理装置の機能構成を示すブロック図。 本発明の実施の形態に係る音声処理装置の具体的構成の一例を示す図。 本発明の実施の形態に係る音声処理装置の動作を説明するためのフローチャート。 ステップS330での処理の詳細を説明するためのフローチャート。 音声小段落、音声段落等を説明するための概念図。 ステップS310での処理の詳細を説明するためのフローチャート。 符号帳の記載例を示す図。 音声データの処理を説明するための模式図。 第1実施形態に使用する符号帳の例を示す図。 第1実施形態の処理手順を示すフローチャート。 尤度の比較による感情表出区間の検出を説明するための概念図。 第1実施形態で使用される符号帳の例を示す図。 第2実施形態の処理手順を示すフローチャート。 第3実施形態の処理手順を示すフローチャート。 第4実施形態の処理手順を示すフローチャート。 尤度比に基づく感情表出区間の検出を説明するための概念図。 第4実施形態で使用される符号帳の例を示す図。 第5実施形態の処理手順を示すフローチャート。 尤度比較に基づく感情表出区間の検出を説明するための概念図。 第6実施形態で使用する符号帳の例を示す図。 第6実施形態の処理手順を示すフローチャート。 笑い度、怒り度、悲しみどの比較による感情表出を説明すうための概念図。
符号の説明
100 音声処理装置
110 記憶手段
110CB 符号帳
120 音声特徴量抽出手段
130 感情表出状態尤度算出手段
140 平静状態尤度算出手段
150 感情表出判定手段
160 要約コンテンツ生成手段
210 入力部
220 表示部
231 CPU
232 ROM
233 RAM
234 EEPROM
235 ハードディスク
240 出力部

Claims (25)

  1. フレーム毎の音声特徴量の組に基づき音声の感情表出状態を判定する音声処理方法であって、
    (a) 基本周波数、パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上及び/又はこれらのフレーム間差分の少なくともいずれか1つ以上を含む音声特徴量の組から成る音声特徴量ベクトルと感情表出状態でのその音声特徴量ベクトルの出現確率がコードごとに格納された符号帳を用い、少なくとも1フレーム以上を含む区間の上記音声特徴量の組を量子化した上記符号帳中の対応する音声特徴量ベクトルの感情表出状態での出現確率を求めるステップと、
    (b) 上記区間の上記音声特徴量ベクトルの感情表出状態での出現確率に基づいて感情表出状態となる尤度を算出するステップと、
    (c) 上記感情表出状態となる尤度に基づいて上記区間が感情表出状態であるか否かを判定するステップ、
    とを含むことを特徴とする音声処理方法。
  2. 請求項1記載の方法において、各上記音声特徴量ベクトルは、少なくとも動的特徴量の時間変化特性を含むことを特徴とする音声処理方法。
  3. 請求項1記載の方法において、各上記音声特徴量ベクトルは、少なくとも基本周波数、パワー、動的特徴量の時間変化特性を含むことを特徴とする音声処理方法。
  4. 請求項1記載の方法において、各上記音声特徴量ベクトルは、少なくとも基本周波数、パワー、動的特徴量の時間変化特性又はそれらのフレーム間差分を含むことを特徴とする音声処理方法。
  5. 請求項1乃至4のいずれかに記載の方法において、上記ステップ(c) は上記感情表出状態となる尤度が所定の値より高いか否かを調べ、高ければ上記区間を感情表出状態と判定するステップであることを特徴とする音声処理方法。
  6. 請求項1乃至4のいずれかに記載の方法において、上記符号帳には音声特徴量ベクトルと対応して平静状態での出現確率が格納されており、
    上記ステップ(a) は、各フレームの上記音声特徴量の組を量子化した上記符号帳中の音声特徴量ベクトルに対応する平静状態での出現確率を求めるステップを含み、
    上記ステップ(b) は、上記音声特徴量ベクトルの平静状態での出現確率に基づいて平静状態となる尤度を算出するステップを含み、
    上記ステップ(c) は、上記感情表出状態となる尤度と上記平静状態となる尤度を比較して上記区間が感情表出状態であると判定するステップを含むことを特徴とする音声処理方法。
  7. 請求項6記載の方法において、上記ステップ(c) は上記感情表出状態となる尤度が上記平静状態となる尤度より高いとき、感情表出状態と判定するステップであることを特徴とする音声処理方法。
  8. 請求項6記載の方法において、上記ステップ(c) は、上記感情表出状態となる尤度と上記平静状態となる尤度の比に基づいて判定するステップであることを特徴とする音声処理方法。
  9. 請求項7又は8記載の方法において、上記符号帳には更に複数種類の感情表出状態のそれぞれにおける音声特徴量ベクトルの出現確率がコードごとに格納されており、感情表出状態と判定されたとき、更に、
    (d) 上記区間において上記符号帳を参照して上記複数種類の各感情表出についての音声の音声特徴量ベクトルの出現確率を求めるステップと、
    (e) その出現確率に基いて上記区間における上記感情表出の尤度を求めるステップと、
    (f) 上記複数種類のそれぞれの感情表出の尤度を比較し、上記区間がどの感情表出であるかを判定するステップ、
    とを含むことを特徴とする音声処理方法。
  10. 請求項9記載の方法において、上記複数種類の感情表出は笑い表出、怒り表出、悲しみ表出の少なくともいずれか2つ以上であることを特徴とする音声処理方法。
  11. 請求項1乃至8のいずれかに記載の方法において、上記符号帳に各コードに対応して格納されている上記感情表出状態での出現確率は、そのコードの音声特徴量ベクトルが感情表出状態となる単独出現確率と、直前の所定数のコードの次にそのコードの音声特徴量ベクトルが感情表出状態となる条件付確率とを含み、
    上記ステップ(b) は、現在のフレームの上記音声特徴量の組を量子化した音声特徴量ベクトルに対応する感情表出状態での単独出現確率と、上記条件付確率とに基づいて上記区間が感情表出状態となる尤度を求めるステップを含むことを特徴とする音声処理方法。
  12. 請求項11記載の方法において、上記感情表出は、笑いの表出、怒りの表出及び悲しみの表出のうちの予め決めた1つであることを特徴とする音声処理方法。
  13. 請求項1乃至4のいずれかに記載の方法において、上記符号帳には、各コードに対応して上記感情表出状態として笑い表出状態、怒り表出状態、悲しみ表出状態のうちの予め決めた少なくとも2つの感情表出状態における音声特徴量ベクトルの出現確率が格納されており、上記ステップ(b) は、上記少なくとも2つの感情表出状態のそれぞれについて上記音声特徴量ベクトルの出現確率に基づいてそれぞれの感情表出尤度を求めるステップを含み、上記ステップ(c) は、上記感情表出尤度に基づいてどの感情表出状態であるかを判定するステップを含むことを特徴とする音声処理方法。
  14. 請求項1乃至4のいずれかに記載の方法において、上記符号帳には、各コードに対応して上記感情表出状態として笑い表出状態、怒り表出状態、悲しみ表出状態のうちの少なくとも2つの感情表出状態における音声特徴量ベクトルの出現確率と、平静状態における音声特徴量ベクトルの出現確率とが格納されており、上記ステップ(b) は、上記少なくとも2つの感情表出状態及び平静状態のそれぞれについて上記音声特徴量ベクトルの出現確率に基づいてそれぞれの感情表出尤度及び平静状態尤度を求めるステップを含み、上記ステップ(c) は、上記少なくとも2つの感情表出状態の上記感情表出尤度と平静状態尤度に基づいてどの感情表出状態であるかを判定するステップを含むことを特徴とする音声処理方法。
  15. 請求項14記載の方法において、上記ステップ(c) は、上記少なくとも2つの感情表出尤度のそれぞれと上記平成状態尤度の比に基いてどの感情表出状態であるかを判定することを特徴とする音声処理方法。
  16. 請求項14記載の方法において、上記ステップ(c) は、上記少なくとも2つの感情表出尤度のそれぞれを上記区間のフレーム数に依存する重み付けし、その重み付け尤度と上記平静状態尤度と比較してどの感情表出状態であるかを判定することを特徴とする音声処理方法。
  17. フレームごとの音声特徴量の組に基づいて音声の感情表出状態を判定する音声処理装置であり、
    基本周波数、パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上及び/又はこれらのフレーム間差分の少なくともいずれか1つ以上を含む音声特徴量の組から成る音声特徴量ベクトルと感情表出状態でのその音声特徴量ベクトルの出現確率がコードごとに格納された符号帳と、
    上記音声特徴量の組を量子化した音声特徴量ベクトルの感情表出状態での出現確率に基づいて少なくとも1つ以上のフレームを含む区間が感情表出状態となる尤度を求める感情表出尤度算出手段と、
    上記求めた上記感情表出状態となる尤度に基づいて上記区間が感情表出状態か否かを判定する感情表出判定手段、
    とを含むことを特徴とする音声処理装置。
  18. 請求項17記載の音声処理装置において、各上記音声特徴量ベクトルは、少なくとも動的特徴量の時間変化特性を含むことを特徴とする音声処理装置。
  19. 請求項17記載の音声処理装置において、各上記音声特徴量ベクトルは、少なくとも基本周波数とパワーと動的特徴量の時間変化特性を含むことを特徴とする音声処理装置。
  20. 請求項17記載の音声処理装置において、各上記音声特徴量ベクトルは、少なくとも基本周波数、パワー、動的特徴量の時間変化特性又はこれらのフレーム間差分を含むことを特徴とする音声処理装置。
  21. 請求項17乃至20のいずれかに記載の音声処理装置において、上記感情表出判定手段は、上記感情表出状態となる尤度が所定の値より高いか否かを調べ、高ければ上記区間を感情表出状態と判定する手段であることを特徴とする音声処理装置。
  22. 請求項21に記載の音声処理装置において、上記符号帳には各コードごとに上記音声特徴量ベクトルの平静状態での出現確率が格納されており、上記音声処理装置は更に、各フレームの上記音声特徴量の組を量子化した上記符号帳中の音声特徴量ベクトルに対応する平静状態での出現確率に基づいて上記区間が平静状態となる尤度を求める平静状態尤度算出手段を含み、上記感情表出判定手段は、上記区間が感情表出状態となる尤度と、上記平静状態となる尤度との比較に基づいて上記区間が感情表出状態であるか否かを判定することを特徴とする音声処理装置。
  23. 請求項17乃至21のいずれかに記載の音声処理装置において、上記符号帳には、上記感情表出状態として各コードに対応して笑い表出状態、怒り表出状態、悲しみ表出状態のうちの少なくとも2つの感情表出状態における音声特徴量ベクトルの出現確率が格納されており、上記感情表出尤度算出手段は、上記少なくとも2つの感情表出状態のそれぞれについて上記音声特徴量ベクトルの出現確率に基づいてそれぞれの感情表出尤度を求める手段を含み、上記感情表出判定手段は、上記少なくとも2つの感情表出状態の上記感情表出尤度に基づいてどの感情表出状態であるかを判定する手段を含むことを特徴とする音声処理装置。
  24. 請求項17乃至21のいずれかに記載の音声処理装置において、上記符号帳に各コードに対応して格納されている上記感情表出状態としての笑い表出状態、怒り表出状態、悲しみ表出状態でのそのコードに対応する音声特徴量ベクトルの出現確率は、そのコードの音声特徴量ベクトルが笑い表出状態、怒り表出状態、悲しみ表出状態のいずれかとなる単独出現確率と、直前の所定数のコードの次にそのコードの音声特徴量ベクトルが笑い表出状態、怒り表出状態、悲しみ表出状態のいずれかとなる条件付確率とを含み、
    上記感情表出尤度算出手段は、上記音声特徴量の組を量子化した音声特徴量ベクトルに対応する笑い表出状態、怒り表出状態、悲しみ表出状態のいずれかでの単独出現確率と、条件付確率とに基づいて上記区間が笑い表出状態、怒り表出状態、悲しみ表出状態のいずれかとなる尤度を求める手段を含むことを特徴とする音声処理方法。
  25. 請求項1乃至16のいずれか記載の音声処理方法をコンピュータにより実行可能なプログラム。
JP2004161471A 2004-05-31 2004-05-31 音声処理装置、音声処理方法およびそのプログラム Expired - Fee Related JP4580190B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004161471A JP4580190B2 (ja) 2004-05-31 2004-05-31 音声処理装置、音声処理方法およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004161471A JP4580190B2 (ja) 2004-05-31 2004-05-31 音声処理装置、音声処理方法およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2005345496A true JP2005345496A (ja) 2005-12-15
JP4580190B2 JP4580190B2 (ja) 2010-11-10

Family

ID=35497981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004161471A Expired - Fee Related JP4580190B2 (ja) 2004-05-31 2004-05-31 音声処理装置、音声処理方法およびそのプログラム

Country Status (1)

Country Link
JP (1) JP4580190B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069361A1 (ja) * 2005-12-16 2007-06-21 Matsushita Electric Industrial Co., Ltd. 情報処理端末
WO2007102505A1 (ja) * 2006-03-06 2007-09-13 Nagasaki University 乳児の情動を判定する方法、そのための装置とプログラム
KR100790494B1 (ko) 2006-06-22 2008-01-02 중앙대학교 산학협력단 감성인식 시스템 및 그 시스템에 있어서 특징집합 선택방법
WO2008032787A1 (fr) 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme
JP2010093584A (ja) * 2008-10-08 2010-04-22 Nippon Telegr & Teleph Corp <Ntt> 視聴印象推定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2010283478A (ja) * 2009-06-03 2010-12-16 Nippon Telegr & Teleph Corp <Ntt> 映像予告生成装置、映像予告生成方法および映像予告生成プログラム
WO2021255795A1 (ja) * 2020-06-15 2021-12-23 日本電信電話株式会社 情報処理装置、情報処理方法およびプログラム
US20220028415A1 (en) * 2017-08-22 2022-01-27 Tencent Technology (Shenzhen) Company Limited Speech emotion detection method and apparatus, computer device, and storage medium
US11388528B2 (en) 2018-10-16 2022-07-12 Sivantos Pte. Ltd. Method for operating a hearing instrument and hearing system containing a hearing instrument

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102191306B1 (ko) 2014-01-22 2020-12-15 삼성전자주식회사 음성 감정 인식 시스템 및 방법
KR102607373B1 (ko) * 2016-11-23 2023-12-05 한국전자통신연구원 음성감성 인식 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280685A (ja) * 2002-03-26 2003-10-02 Nippon Telegr & Teleph Corp <Ntt> 音声着信方法、音声着信装置、音声着信プログラム
JP2003316398A (ja) * 2002-04-25 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法、符号化器及びそのプログラム
JP2003316378A (ja) * 2001-08-08 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音声処理方法及びその方法を使用した装置及びそのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316378A (ja) * 2001-08-08 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音声処理方法及びその方法を使用した装置及びそのプログラム
JP2003280685A (ja) * 2002-03-26 2003-10-02 Nippon Telegr & Teleph Corp <Ntt> 音声着信方法、音声着信装置、音声着信プログラム
JP2003316398A (ja) * 2002-04-25 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法、符号化器及びそのプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069361A1 (ja) * 2005-12-16 2007-06-21 Matsushita Electric Industrial Co., Ltd. 情報処理端末
WO2007102505A1 (ja) * 2006-03-06 2007-09-13 Nagasaki University 乳児の情動を判定する方法、そのための装置とプログラム
JP5099711B2 (ja) * 2006-03-06 2012-12-19 株式会社マザー&チャイルド 乳児の情動を判定する方法、そのための装置とプログラム
KR100790494B1 (ko) 2006-06-22 2008-01-02 중앙대학교 산학협력단 감성인식 시스템 및 그 시스템에 있어서 특징집합 선택방법
JPWO2008032787A1 (ja) * 2006-09-13 2010-01-28 日本電信電話株式会社 感情検出方法、感情検出装置、その方法を実装した感情検出プログラム及びそのプログラムを記録した記録媒体
JP5039045B2 (ja) * 2006-09-13 2012-10-03 日本電信電話株式会社 感情検出方法、感情検出装置、その方法を実装した感情検出プログラム及びそのプログラムを記録した記録媒体
WO2008032787A1 (fr) 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme
US8386257B2 (en) 2006-09-13 2013-02-26 Nippon Telegraph And Telephone Corporation Emotion detecting method, emotion detecting apparatus, emotion detecting program that implements the same method, and storage medium that stores the same program
JP2010093584A (ja) * 2008-10-08 2010-04-22 Nippon Telegr & Teleph Corp <Ntt> 視聴印象推定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2010283478A (ja) * 2009-06-03 2010-12-16 Nippon Telegr & Teleph Corp <Ntt> 映像予告生成装置、映像予告生成方法および映像予告生成プログラム
US20220028415A1 (en) * 2017-08-22 2022-01-27 Tencent Technology (Shenzhen) Company Limited Speech emotion detection method and apparatus, computer device, and storage medium
US11922969B2 (en) * 2017-08-22 2024-03-05 Tencent Technology (Shenzhen) Company Limited Speech emotion detection method and apparatus, computer device, and storage medium
US11388528B2 (en) 2018-10-16 2022-07-12 Sivantos Pte. Ltd. Method for operating a hearing instrument and hearing system containing a hearing instrument
EP3641344B1 (en) * 2018-10-16 2023-12-06 Sivantos Pte. Ltd. A method for operating a hearing instrument and a hearing system comprising a hearing instrument
WO2021255795A1 (ja) * 2020-06-15 2021-12-23 日本電信電話株式会社 情報処理装置、情報処理方法およびプログラム
JPWO2021255795A1 (ja) * 2020-06-15 2021-12-23
JP7355244B2 (ja) 2020-06-15 2023-10-03 日本電信電話株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP4580190B2 (ja) 2010-11-10

Similar Documents

Publication Publication Date Title
CN108573693B (zh) 文本到语音系统和方法以及其存储介质
US11587569B2 (en) Generating and using text-to-speech data for speech recognition models
JP4911034B2 (ja) 音声判別システム、音声判別方法及び音声判別用プログラム
CN114203147A (zh) 用于文本到语音的跨说话者样式传递以及用于训练数据生成的系统和方法
JP6370749B2 (ja) 発話意図モデル学習装置、発話意図抽出装置、発話意図モデル学習方法、発話意図抽出方法、プログラム
JP4580190B2 (ja) 音声処理装置、音声処理方法およびそのプログラム
KR101014086B1 (ko) 음성 처리 장치 및 방법, 및 기록 매체
EP4266306A1 (en) A speech processing system and a method of processing a speech signal
US7315819B2 (en) Apparatus for performing speaker identification and speaker searching in speech or sound image data, and method thereof
Nakamura et al. Fast and high-quality singing voice synthesis system based on convolutional neural networks
JP4630136B2 (ja) ストレス状態推定緩和装置及びそのプログラム
JP3803311B2 (ja) 音声処理方法及びその方法を使用した装置及びそのプログラム
Salishev et al. Voice activity detector (VAD) based on long-term mel frequency band features
JPH05197398A (ja) 音響単位の集合をコンパクトに表現する方法ならびに連鎖的テキスト−音声シンセサイザシステム
KR101862982B1 (ko) LPC-10e 보코더에서 DNN을 이용한 유무성음 판별 방법
JP4256393B2 (ja) 音声処理方法及びそのプログラム
JP2005352311A (ja) 音声合成装置および音声合成プログラム
JP4691327B2 (ja) 情報処理装置および情報処理プログラム
Cernak et al. Incremental syllable-context phonetic vocoding
JP2005352893A (ja) 通信端末および通信プログラム
JP2005352420A (ja) 要約コンテンツ生成装置、生成方法及びそのプログラム
JP2006011159A (ja) コンテンツ応答処理装置、処理方法及びそのプログラム
JP5166195B2 (ja) 音響分析パラメータ生成方法とその装置と、プログラムと記録媒体
JP4843646B2 (ja) 音声認識装置とその方法と、プログラムと記録媒体
JP2005354519A (ja) 撮像装置および撮像プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060801

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees