JP2012248065A - 怒り感情推定装置、怒り感情推定方法およびそのプログラム - Google Patents
怒り感情推定装置、怒り感情推定方法およびそのプログラム Download PDFInfo
- Publication number
- JP2012248065A JP2012248065A JP2011120336A JP2011120336A JP2012248065A JP 2012248065 A JP2012248065 A JP 2012248065A JP 2011120336 A JP2011120336 A JP 2011120336A JP 2011120336 A JP2011120336 A JP 2011120336A JP 2012248065 A JP2012248065 A JP 2012248065A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- dialogue
- utterance content
- text
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
【解決手段】対話テキストを話者別のテキストに分割する話者分割処理部11と、分割された話者別のテキストの形態素を解析し、各話者別のテキストを形態素単位に分割した形態素解析結果を出力する形態素解析処理部12と、形態素解析結果を用い、話者別のテキスト中の同じ内容語の出現頻度を表す指標である発話内容冗長性特徴量を、各話者別のテキストに対して求める発話内容冗長性特徴量抽出部13と、形態素解析結果を用い、話者別のテキスト中の内容語の出現頻度を表す指標である発話内容情報性特徴量を、各話者別のテキストに対して求める発話内容情報性特徴量抽出部14と、予め学習した感情識別器30を用い、発話内容冗長性特徴量及び発話内容情報性特徴量の少なくとも一方を用いて対話テキストの対話が怒り対話か否かを推定する感情識別部20とを具備する。
【選択図】図3
Description
(1)従来技術のように単語毎に感情を対応付けていく場合、このような感情語辞書を一般的に網羅することはとても難しい。そのため、感情語辞書に登録されていない未知語を多く含む文章では感情推定が行えない。
(2)自由発話において感情語の出現頻度は少ない。例えば、怒りを表す感情語として「腹が立つ」、「むっとする」などが用いられるが、これらの言葉が自由発話の中で直接発せられることは少ない(怒っている話者が「私はむっとしている」などとは言わない)。そのため、正確に感情を推定するのが難しい。
(3)従来技術のように単語毎に感情を対応付ける場合、同一の単語でも使われ方や文脈によって、それにより生起される感情は変化する。例えば、怒りを表す感情語として「戦争」、「喧嘩」などが用いられるが、「夫婦円満のためには、たまには喧嘩もした方が良い」と言った場合の「喧嘩」からは「怒り」という感情は生起されにくい。そのため、誤って感情を推定してしまう問題が生じる。
「同一話者がどれだけ同じ内容を繰り返し発言しているか」…発話内容冗長性
「1発話に含まれる情報量が多いか」…発話内容情報性
といった特徴を用いる。
怒っている話者は同じことを何度も繰り返して話す傾向がある。例えば、コールセンタのような対話で顧客が怒って電話をかけてきた場合、通話の冒頭から最後まで繰り返し同じことについて延々と怒っていることが多い。同様に、怒られている話者も同じ内容を繰り返し説明することが多い。図1に示した対話例では顧客が「金額」、「請求書」を繰り返している。
怒っている話者は一つの発話に多くの情報を詰め込んで話す傾向がある。例えば、「“誰が”“誰に対し”“何について”怒っている」ということを一度にまくしたてるように話す。同様に、怒られている話者も、平常時に比べて丁寧に答えようと「“誰が”“誰に対し”“何について”」といったことを省略せずに話す傾向がある。図2に示した発話例では、怒っている際の顧客はより状況を詳細に伝えようと、平常時より多くの情報を多くオペレータに話している。怒られているオペレータは、より丁寧に返答しようと「私ども」、「契約の際の」などといった情報を省略せずに顧客に話している。
・各話者の単語繰り返し頻度
・各話者の内容語頻度
を計算する。これらの値を統合し、繰り返し頻度や内容語頻度が高ければ、怒り対話であると判定する。
・入力:対話テキスト
・出力:話者別のテキスト
・処理内容:
対話を書き起こしたテキストに対し、話者別のテキストへの分割を行う。対話を書き起こしたテキストとは例えば図5に示したようなテキストを指し、図5に示したように話者別のテキストに分割する。なお、事前に話者別に書き起こされていた場合には本処理は不要となる。
・入力:話者別のテキスト
・出力:形態素解析結果(形態素単位に分かち書きされたテキスト)
・処理内容:
話者別のテキストの形態素解析を行い、文章を形態素単位に分割して出力する。形態素とは言語的に意味を持つ最小単位のことである。形態素解析技術としては、従来技術を用いることができる。例えば、「私は少女を見た」という文を形態素解析すると、単語及び品詞を「/」で区切った形式の形態素解析結果
私[名詞]/は[格助詞]/少女[名詞]/を[格助詞]/見た[動詞]
が得られる。
・入力:形態素解析結果
・出力:発話内容冗長性特徴量
・処理内容:
話者別のテキストの各形態素解析結果に対して、発話内容冗長性特徴量をそれぞれ計算する。形態素解析された入力テキストTに対して、nTはTに含まれる内容語数とする。内容語とは、名詞、動詞、形容詞などである。また、入力テキストT中の異なり内容語数を_nTとする。異なり内容語数とは、同じ単語は1度しかカウントしない場合の内容語数である。例えば、形態素解析された入力テキストTを「/請求書/の/金額/が/おかしい/ん/だよ/なんで/こんな/金額/が/請求書/に/載っ/て/いる/ん/だ」とした場合、内容語は「請求書、金額、おかしい、金額、請求書、載っ」となり、内容語数nTは6、異なり内容語数_nTは4となる。
これは、全内容語中にどれだけ異なった内容語が出現したかを示す割合の逆数である。全て全く異なる内容語を語っていれば、Rの値は1で最小となり、同じ内容語を何度も繰り返しているほど、Rの値は大きい値となる。上記の例では、Rは1/(4/6)=1.5となる。Rの値が大きくなるほど、冗長性が高いことを意味する。
S’w=ΣI’i(i=1,2,…,_nT)
R=Sw−S’w
重要な(話題を示す)単語が繰り返し出現しているほど、Rの値は大きくなり、冗長性が高いことを意味する。
・入力:形態素解析結果
・出力:発話内容情報性特徴量
・処理内容:
話者別のテキストの各形態素解析結果に対して、発話内容冗長性特徴量をそれぞれ計算する。形態素解析された入力テキストTに対して、mTはTに含まれる形態素数とする。例えば、形態素解析された入力テキストTを「/請求書/の/金額/が/おかしい/ん/だよ/なんで/こんな/金額/が/請求書/に/載っ/て/いる/ん/だ」とした場合、形態素数mTの値は18となる。
これは、全形態素中にどれだけ内容語が出現したかを示す割合である。内容語を全く含まなければ、Hの値は0で最小となり、内容語が多く出現しているほど、Hの値は大きい値となる。全て内容語であった場合に、Hの値は1となり、最大となる。上記の例では、Hは6/18≒0.33となる。Hの値が大きくなるほど、情報性が高い(情報量が多い)ことを意味する。なお、内容語数nTの生値をそのままHの値としても良い。
H=Sw
重要な(話題を示す)単語が多く出現しているほど、Hの値は大きくなり、情報性が高い(情報量が多い)ことを意味する。
・入力:話者毎の発話内容冗長性特徴量R、発話内容情報性特徴量Hのうち、1つ以上
・出力:感情(「怒り」/「平常」)の推定結果
・処理内容:
話者毎の発話内容冗長性特徴量R、発話内容情報性特徴量Hのうち、1つ以上を入力として、事前に学習した感情識別器30を用いて、感情の推定を行う。
事前処理として、学習に用いる対話テキストコーパス50は、事前に人手で対話や対話中の各発話に「怒っている」「怒っていない」とラベル付けされたデータである。
・入力:話者毎の発話内容冗長性特徴量R、発話内容情報性特徴量Hのうち、1つ以上
・出力:感情識別器
・処理内容:
学習用対話テキストコーパス50を使用し、テキスト解析部10の処理により算出された話者毎の発話内容冗長性特徴量R、発話内容情報性特徴量Hのうち、1つ以上をもとに、感情識別器30を生成する。即ち、怒っている対話と怒っていない対話(もしくは怒っている発話を含む対話区間と怒っていない発話を含む対話区間)の各特徴量R,Hの値の傾向を学習し、感情識別器30を生成する。
・入力:対話音声
・出力:話者毎の対話テキスト,単語毎の認識信頼度
・処理内容:
対話音声を対話テキストへ変換する。音声をテキスト化する技術として、音声認識技術がある。入力音声が話者別にステレオ録音されている場合はモノラル録音よりも音声認識が容易である。モノラル録音の場合は、話者別に音声を識別するための手段と併用する必要がある。例えば、音声スペクトルを特徴量とし、GMM(Gaussian Mixture Model)を用いる方法などがある。
・入力:形態素解析結果,単語毎の認識信頼度
・出力:発話内容冗長性特徴量
・処理内容:
音声認識部60からは音声認識結果と共に単語毎の認識信頼度が出力される。認識信頼度とは認識結果の尤もらしさの信頼性を示す値である。認識信頼度が高ければ、認識結果が正しいと推測される。認識信頼度が低ければ、認識結果が誤っていると推測される。従って、この例では、例えば内容語数nTや異なり内容語数_nTをカウントする際に、認識信頼度が事前に定めた閾値より低い場合は信頼性が低いとしてカウント対象としない、もしくは認識信頼度が事前に定めた閾値より高い場合のみカウント対象とする。
・入力:形態素解析結果,単語毎の認識信頼度
・出力:発話内容情報性特徴量
・処理内容:
発話内容冗長性特徴量抽出部13と同様、音声認識部60から出力される単語毎の認識信頼度をもとに、この例では内容語数nTや形態素数mTをカウントする際に、認識信頼度が事前に定めた閾値より低い場合は信頼性が低いとしてカウント対象としない、もしくは認識信頼度が事前に定めた閾値より高い場合のみカウント対象とする。
・入力:対話音声
・出力:韻律的特徴量
・処理内容:
入力された対話音声に対し、韻律的特徴量を計算する。韻律的特徴とはピッチ(声の高さ)やパワー(声の大きさ)などである。ピッチやパワーの計算方法としては、従来技術を用いる。実際に用いる韻律的特徴量としては、ピッチやパワーの平均値や最大・最小値、分散値などである。さらに、急峻な立ち上がりなど変動の大きさを捉えるために、ピッチやパワーなどの微分値や二回微分値を用いても良い。
・入力:話者毎の発話内容冗長性特徴量R、発話内容情報性特徴量Hのうち、1つ以上
・出力:感情(「怒り」/「平常」)の推定結果
・処理内容:
話者毎の発話内容冗長性特徴量R、発話内容情報性特徴量Hのうち、1つ以上に加え、韻律的特徴量のうちいずれか1つ以上を入力として、事前に学習した感情識別器30を用いて、感情の推定を行う。
・1つの対話中に複数の話題が含まれることがあり、話題の変化がある場合、正しい発話内容冗長性特徴量を計算することができない。このような話題の変化がある場合でも頑健に判定を行うことが可能になる。
・対話の途中から怒りだしたり、途中で怒りが収まったりすることがある。対話全体で判定を行うと特徴(特徴量)が鈍ってしまい、誤判定につながる。このような場合に対しても頑健に判定を行うことが可能になる。
といったことがある。
・入力:対話テキスト
・出力:対話区間
・処理内容:
ある事前に定めた長さの対話区間(分析対話区間)を抽出する。長さの単位としては、例えば発話数などがある。抽出対象とする区間は先頭発話を事前に定めたシフト幅ずつシフトさせ、対話の最後に達するまで繰り返す。分析対話区間の発話数を4(顧客発話:2,オペレータ発話:2)とし、シフト幅を2(顧客発話:1,オペレータ発話:1)とした場合の分析対話区間抽出例を図11に示す。
・入力:分析対話区間毎の感情(「怒り」/「平常」)の推定結果
・出力:対話全体の感情(「怒り」/「平常」)の判定結果
・処理内容:
感情識別部20から出力される分析対話区間毎の感情推定結果(「怒り」/「平常」)をもとに怒り対話か平常対話かの判定を行う。判定の方法としては、事前に定めておいた閾値Xaより怒りとして判定された分析対話区間の数が多ければ「怒り対話」とするものでも良い。または、数ではなく対話全区間数中の怒りと判定された対話区間の割合を用いても良い。
・分析窓1では怒り区間が4つ、平常区間が1つなので、D1は怒り区間となる。
・分析窓2では怒り区間が3つ、平常区間が2つなので、D2は怒り区間となる。
・分析窓3では怒り区間が2つ、平常区間が3つである。この際、前のスムージング結果(分析窓2におけるD2)の結果は反映しない。結果、D3は平常区間となる。なお、前のスムージング結果を反映させても良い。その場合は、分析窓3は怒り区間が3つ、平常区間が2つなので、D3は怒り区間のままとなる。
Claims (6)
- 対話テキストを話者別のテキストに分割する話者分割処理部と、
前記話者分割処理部で分割された話者別のテキストの形態素を解析し、各話者別のテキストを形態素単位に分割した形態素解析結果を出力する形態素解析処理部と、
前記形態素解析結果を用い、話者別のテキスト中の同じ内容語の出現頻度を表す指標である発話内容冗長性特徴量を、各話者別のテキストに対して求める発話内容冗長性特徴量抽出部と、
前記形態素解析結果を用い、話者別のテキスト中の内容語の出現頻度を表す指標である発話内容情報性特徴量を、各話者別のテキストに対して求める発話内容情報性特徴量抽出部と、
予め学習した感情識別器を用い、前記発話内容冗長性特徴量及び前記発話内容情報性特徴量の少なくとも一方を用いて前記対話テキストの対話が怒り対話か否かを推定する感情識別部とを具備することを特徴とする怒り感情推定装置。 - 請求項1記載の怒り感情推定装置において、
対話音声を対話テキストに変換して前記話者分割処理部に出力する音声認識部を備えることを特徴とする怒り感情推定装置。 - 請求項2記載の怒り感情推定装置において、
前記対話音声から韻律的特徴量を求める韻律的特徴量抽出部を備え、
前記感情識別部は前記発話内容冗長性特徴量及び前記発話内容情報性特徴量の少なくとも一方に加え、前記韻律的特徴量を用いて前記推定を行うことを特徴とする怒り感情推定装置。 - 請求項1記載の怒り感情推定装置において、
怒り対話か否かをラベル付けされた学習用対話テキストコーパスを用い、前記話者分割処理部、前記形態素解析処理部、前記発話内容冗長性特徴量抽出部及び前記発話内容情報性特徴量抽出部よりなるテキスト解析部の処理により算出された発話内容冗長性特徴量及び発話内容情報性特徴量の傾向を予め学習して前記感情識別器を生成する識別器生成部を具備することを特徴とする怒り感情推定装置。 - 対話テキストを話者別のテキストに分割する話者分割処理過程と、
前記話者分割処理過程で分割された話者別のテキストの形態素を解析し、各話者別のテキストを形態素単位に分割した形態素解析結果を出力する形態素解析処理過程と、
前記形態素解析結果を用い、話者別のテキスト中の同じ内容語の出現頻度を表す指標である発話内容冗長性特徴量を、各話者別のテキストに対して求める発話内容冗長性特徴量抽出過程と、
前記形態素解析結果を用い、話者別のテキスト中の内容語の出現頻度を表す指標である発話内容情報性特徴量を、各話者別のテキストに対して求める発話内容情報性特徴量抽出過程と、
予め学習した感情識別器を用い、前記発話内容冗長性特徴量及び前記発話内容情報性特徴量の少なくとも一方を用いて前記対話テキストの対話が怒り対話か否かを推定する感情識別過程とを含むことを特徴とする怒り感情推定方法。 - 請求項1乃至4記載のいずれかの怒り感情推定装置としてコンピュータを動作させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011120336A JP5506738B2 (ja) | 2011-05-30 | 2011-05-30 | 怒り感情推定装置、怒り感情推定方法およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011120336A JP5506738B2 (ja) | 2011-05-30 | 2011-05-30 | 怒り感情推定装置、怒り感情推定方法およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012248065A true JP2012248065A (ja) | 2012-12-13 |
JP5506738B2 JP5506738B2 (ja) | 2014-05-28 |
Family
ID=47468444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011120336A Active JP5506738B2 (ja) | 2011-05-30 | 2011-05-30 | 怒り感情推定装置、怒り感情推定方法およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5506738B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191471A (ja) * | 2014-03-28 | 2015-11-02 | Kddi株式会社 | 感情情報推定装置、方法及びプログラム |
KR101589150B1 (ko) * | 2014-12-30 | 2016-02-12 | 주식회사 카카오 | 강조 정보를 포함하는 인스턴트 메시지를 송수신하는 서버, 단말 및 방법 |
JP2017228160A (ja) * | 2016-06-23 | 2017-12-28 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置及びプログラム |
WO2018212055A1 (ja) * | 2017-05-17 | 2018-11-22 | 日本電信電話株式会社 | ドキュメント識別装置、ドキュメント識別方法、プログラム |
KR20190125154A (ko) * | 2018-04-27 | 2019-11-06 | 아토머스 주식회사 | 심리 상담 데이터를 기계 학습한 자동 대화 장치 및 그 방법 |
CN110815234A (zh) * | 2018-08-07 | 2020-02-21 | 圈乐斯株式会社 | 交互机器人的控制方法及控制服务器 |
JP2020095732A (ja) * | 2016-06-23 | 2020-06-18 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置及びプログラム |
CN111986702A (zh) * | 2020-07-31 | 2020-11-24 | 中国地质大学(武汉) | 一种基于语音信号处理的说话人心理阻抗现象识别方法 |
KR20210112955A (ko) * | 2020-03-06 | 2021-09-15 | 아주대학교산학협력단 | 한글 자모간 유사성에 기반한 비속어 검출 시스템 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010175684A (ja) * | 2009-01-28 | 2010-08-12 | Nippon Telegr & Teleph Corp <Ntt> | 通話状態判定装置、通話状態判定方法、プログラム、記録媒体 |
-
2011
- 2011-05-30 JP JP2011120336A patent/JP5506738B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010175684A (ja) * | 2009-01-28 | 2010-08-12 | Nippon Telegr & Teleph Corp <Ntt> | 通話状態判定装置、通話状態判定方法、プログラム、記録媒体 |
Non-Patent Citations (2)
Title |
---|
三品賢一 他3名: "コーパスごとの類似度を考慮した用例に基づく感情推定手法の改善", 自然言語処理, vol. 第17巻第4号, JPN6014001627, 30 July 2010 (2010-07-30), JP, pages 91 - 110, ISSN: 0002767363 * |
有本泰子 他2名: "「怒り」の発話を対象とした話者の感情の程度推定法", 自然言語処理, vol. 第14巻第3号, JPN6014001623, 10 April 2007 (2007-04-10), JP, pages 147 - 163, ISSN: 0002767362 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191471A (ja) * | 2014-03-28 | 2015-11-02 | Kddi株式会社 | 感情情報推定装置、方法及びプログラム |
KR101589150B1 (ko) * | 2014-12-30 | 2016-02-12 | 주식회사 카카오 | 강조 정보를 포함하는 인스턴트 메시지를 송수신하는 서버, 단말 및 방법 |
JP2017228160A (ja) * | 2016-06-23 | 2017-12-28 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置及びプログラム |
JP2020095732A (ja) * | 2016-06-23 | 2020-06-18 | パナソニックIpマネジメント株式会社 | 対話行為推定方法、対話行為推定装置及びプログラム |
JPWO2018212055A1 (ja) * | 2017-05-17 | 2020-03-12 | 日本電信電話株式会社 | ドキュメント識別装置、ドキュメント識別方法、プログラム |
WO2018212055A1 (ja) * | 2017-05-17 | 2018-11-22 | 日本電信電話株式会社 | ドキュメント識別装置、ドキュメント識別方法、プログラム |
KR20190125154A (ko) * | 2018-04-27 | 2019-11-06 | 아토머스 주식회사 | 심리 상담 데이터를 기계 학습한 자동 대화 장치 및 그 방법 |
KR102199423B1 (ko) | 2018-04-27 | 2021-01-06 | 아토머스 주식회사 | 심리 상담 데이터를 기계 학습한 자동 대화 장치 및 그 방법 |
CN110815234A (zh) * | 2018-08-07 | 2020-02-21 | 圈乐斯株式会社 | 交互机器人的控制方法及控制服务器 |
KR20210112955A (ko) * | 2020-03-06 | 2021-09-15 | 아주대학교산학협력단 | 한글 자모간 유사성에 기반한 비속어 검출 시스템 및 방법 |
KR102358553B1 (ko) * | 2020-03-06 | 2022-02-03 | 아주대학교산학협력단 | 한글 자모간 유사성에 기반한 비속어 검출 시스템 및 방법 |
CN111986702A (zh) * | 2020-07-31 | 2020-11-24 | 中国地质大学(武汉) | 一种基于语音信号处理的说话人心理阻抗现象识别方法 |
CN111986702B (zh) * | 2020-07-31 | 2022-11-04 | 中国地质大学(武汉) | 一种基于语音信号处理的说话人心理阻抗现象识别方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5506738B2 (ja) | 2014-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5506738B2 (ja) | 怒り感情推定装置、怒り感情推定方法およびそのプログラム | |
Macary et al. | On the use of self-supervised pre-trained acoustic and linguistic features for continuous speech emotion recognition | |
KR102161579B1 (ko) | 응답문 생성 장치, 방법 및 프로그램, 그리고 음성 대화 시스템 | |
Atmaja et al. | Two-stage dimensional emotion recognition by fusing predictions of acoustic and text networks using SVM | |
JP6440967B2 (ja) | 文末記号推定装置、この方法及びプログラム | |
Kopparapu | Non-linguistic analysis of call center conversations | |
US11270691B2 (en) | Voice interaction system, its processing method, and program therefor | |
Meftah et al. | Speaker identification in different emotional states in Arabic and English | |
Abushariah et al. | Phonetically rich and balanced text and speech corpora for Arabic language | |
Pervaiz et al. | Emotion recognition from speech using prosodic and linguistic features | |
Thomas et al. | Data-driven posterior features for low resource speech recognition applications | |
Polzehl et al. | Salient features for anger recognition in german and english ivr portals | |
Revathy et al. | Performance comparison of speaker and emotion recognition | |
Catania et al. | Automatic Speech Recognition: Do Emotions Matter? | |
Luo et al. | Emotional Voice Conversion Using Neural Networks with Different Temporal Scales of F0 based on Wavelet Transform. | |
Kumar et al. | Automatic spontaneous speech recognition for Punjabi language interview speech corpus | |
Gasparini et al. | Sentiment recognition of Italian elderly through domain adaptation on cross-corpus speech dataset | |
Vicsi et al. | Recognition of Emotions on the Basis of Different Levels of Speech Segments. | |
KR102407055B1 (ko) | 음성인식 후 자연어 처리를 통한 대화 품질지수 측정장치 및 그 방법 | |
Kurian et al. | Connected digit speech recognition system for Malayalam language | |
Tarján et al. | Improved recognition of Hungarian call center conversations | |
Quang et al. | Automatic question detection: prosodic-lexical features and cross-lingual experiments | |
Tripathi et al. | Multilingual and multimode phone recognition system for Indian languages | |
CN114694688A (zh) | 语音分析器和相关方法 | |
Shahin | Speaker identification investigation and analysis in unbiased and biased emotional talking environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5506738 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |