JP6782329B1 - 感情推定装置、感情推定システム、及び感情推定方法 - Google Patents
感情推定装置、感情推定システム、及び感情推定方法 Download PDFInfo
- Publication number
- JP6782329B1 JP6782329B1 JP2019091864A JP2019091864A JP6782329B1 JP 6782329 B1 JP6782329 B1 JP 6782329B1 JP 2019091864 A JP2019091864 A JP 2019091864A JP 2019091864 A JP2019091864 A JP 2019091864A JP 6782329 B1 JP6782329 B1 JP 6782329B1
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- speaker
- group
- belongs
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
図1は、本発明の第1実施形態にかかるユーザ装置1を示すブロック図である。ユーザ装置1は、スマートフォンを想定する。ユーザ装置1が、「感情推定装置」の一例である。ただし、ユーザ装置1としては、任意の情報処理装置を採用することができ、例えば、パーソナルコンピュータ等の端末型の情報機器であってもよいし、ノートパソコン、ウェアラブル端末及びタブレット端末等の可搬型の情報端末であってもよい。
第1実施形態では、ユーザ装置1は、人が取り得る複数の感情を、肯定的であるか又は否定的であるかによってグループ分けした結果と、興奮時か否かとによってグループ分けした結果とに基づいて、発話者の感情を推定する。
処理装置2は、記憶装置3から制御プログラムPRを読み取り実行することによって、取得部21、推定部25、及び、出力部26として機能する。
図5を用いて、処理装置2によって実現される機能について説明する。
例えば、補正後認識文字列CSDが「今日試合に勝った」であれば、感情スコア算出処理部2522は、以下のような感情ごとのスコアを出力する。
怒り 0
悲しみ 0
上述の例では、補正後認識文字列CSDに、感情分類データ33に含まれる「勝っ」が含まれているため、感情スコア算出処理部2522は、「勝っ」に対応する喜びのスコアを1増加させる。増加させるスコアの量は、1に限らなく、感情分類データ33に含まれる文字列ごとに異なってもよい。例えば、より喜びを強く示す文字列のスコアの増加量を2としてもよい。さらに、補正後認識文字列CSDに、感情分類データ33に含まれる文字列、及び、内容を強調する文字列が含まれる場合、感情スコア算出処理部2522は、感情のスコアの増加量を大きくしてもよい。例えば、補正後認識文字列CSDが「今日試合に勝ててとても嬉しい」であれば、補正後認識文字列CSDに感情分類データ33に含まれる「嬉しい」が含まれており、かつ、「とても」という内容を強調する文字列が含まれるため、感情スコア算出処理部2522は、例えば、喜びのスコアを2増加させる。補正後認識文字列CSDのうち、どの文字列が、内容を強調する文字列であるか否かは、形態素解析処理によって得られる形態素によって判定することができる。以下の例では、説明を容易にするため、増加させるスコアの量が1であるとする。
さらに、補正後認識文字列CSDに、感情分類データ33に含まれる文字列、及び、内容を否定する文字列が含まれる場合、感情スコア算出処理部2522は、この補正後認識文字列CSDに含まれる文字列に対応する感情のスコアを増加させる処理とは異なる処理を実行してもよい。例えば、補正後認識文字列CSDが「今日試合に勝つことができなかった」であれば、補正後認識文字列CSDに感情分類データ33に含まれる「勝つ」が含まれるが、「なかっ」という内容を否定する文字列が含まれるため、感情スコア算出処理部2522は、例えば、悲しみのスコアを1増加させる。補正後認識文字列CSDのうち、どの文字列が、内容を否定する文字列であるか否かは、形態素解析処理によって得られる形態素によって判定することができる。このように、形態素解析処理によって、補正後認識文字列CSDが肯定的な内容なのか否定的な内容かを推定することが可能である。以下の例では、説明を容易にするため、補正後認識文字列CSDに、感情分類データ33に含まれる文字列が含まれれば、この補正後認識文字列CSDに含まれる文字列に対応する感情のスコアを増加させることとして説明を行う。
学習モデル実行処理部2532は、抽出した音の特徴量を、予め学習した学習モデルに入力して、この学習モデルから得られた出力結果に基づいて、第2感情グループデータGD2を出力する。第2感情グループデータGD2は、発話者の感情が、興奮グループGE3と非興奮グループGE4との何れに属するかを示す。
予め学習した学習モデルは、例えば、音の特徴量が入力されると、感情ごとのスコアを出力するモデルである。第2推定部253は、下記(2)式を満たす場合、発話者の感情が興奮グループGE3に属することを示す第2感情グループデータGD2を出力する。一方、(2)式を満たさない場合、第2推定部253は、発話者の感情が非興奮グループGE4に属することを示す第2感情グループデータGD2を出力する。
また、発話者の感情がネガティブグループGE2に属することを第1感情グループデータGD1が示し、且つ、発話者の感情が興奮グループGE3に属することを第2感情グループデータGD2が示す場合、感情推定部254は、発話者の感情が怒りであると推定する。
発話者の感情がネガティブグループGE2に属することを第1感情グループデータGD1が示し、且つ、発話者の感情が非興奮グループGE4に属することを第2感情グループデータGD2が示す場合、感情推定部254は、発話者の感情が悲しみであると推定する。
感情推定部254は、推定した発話者の感情を示す感情データEDを出力する。感情データEDは、例えば、以下に示す2つの態様がある。感情データEDの第1の態様は、推定した発話者の感情を示す識別子である。感情を示す識別子には、喜びを示す識別子、怒りを示す識別子、及び、悲しみを示す識別子がある。感情データEDの第2の態様は、推定した発話者の感情を示す識別子と、推定した発話者の感情のスコアとである。推定した発話者の感情のスコアは、例えば、第1感情グループデータGD1の第2の態様に含まれる、推定した発話者の感情のスコアと、第2感情グループデータGD2の第2の態様に含まれる、推定した発話者の感情のスコアとの合計値、又は、平均値である。
感情に応じた処理の第1の態様は、認識文字列SDに対して、感情を具象化した図形を付加する処理である。感情を具象化した図形は、例えば、感情を具象化した絵文字、及び、感情を具象化した顔文字である。絵文字は、文字コードに対応付けられた画像である。文字コードは、例えば、Unicodeである。顔文字は、記号及び文字を組み合わせて顔を表現した文字列である。以下の説明では、感情を具象化した図形は、感情を具象化した絵文字であるとして説明する。喜びを具象化した絵文字は、例えば、笑顔を示す絵文字である。怒りを具象化した絵文字は、例えば、怒りの顔を示す絵文字である。悲しみを具象化した絵文字は、例えば、泣き顔を示す絵文字である。さらに、感情データEDが第2の態様である場合、出力部26は、感情データEDが示す感情であって、感情データEDに含まれるスコアに応じた深さを有する感情を具象化した絵文字を、認識文字列SDに付加する絵文字として決定してもよい。例えば、感情データEDが示す感情が悲しみであり、かつ、感情データEDに含まれるスコアが所定の閾値以下である場合、出力部26は、涙をこぼす顔を示す絵文字を認識文字列SDに付加する絵文字として決定する。一方、感情データEDが示す感情が悲しみであり、かつ、感情データEDに含まれるスコアが所定の閾値より大きい場合、出力部26は、号泣した顔を示す絵文字を認識文字列SDに付加する絵文字として決定する。号泣した顔を示す絵文字は、涙をこぼす顔を示す絵文字と比較して、より深い悲しみを具象化している。
出力部26は、認識文字列SDに絵文字を付加して得られた絵文字付き文字列を出力する。絵文字を付加する位置は、例えば、以下に示す2つがある。第1の位置は、認識文字列SDの末尾である。第2の位置は、認識文字列SD内における、感情分類データ33に含まれる文字列の次である。表示装置4は、出力部26が出力した絵文字付き文字列に基づく画像を表示する。
次に、推定部25が実行する処理について、図6を用いて説明する。
以上説明したように、第1実施形態によれば、ユーザ装置1は、認識文字列SDに対する文字列感情推定処理の推定結果と、音声データVDに対する音声感情推定処理の推定結果とに基づいて、発話者の感情を推定する。文字列感情推定処理では、認識文字列SDの意味内容に着目するので、発話者の音声に基づく認識文字列SDが肯定的な内容なのか否定的な内容なのかを高い精度で判定できる。一方、音声の抑揚には、発話者が興奮しているか否かが顕著に表れる。認識文字列SDは、単なる文字列に過ぎないので、音声の抑揚が失われている。発話者の感情には、興奮時に表れる喜びと怒りと、非興奮時に表れる悲しみがある。従って、仮に、認識文字列SDから、発話者の感情が、興奮時の感情であるか非興奮時の感情であるかを推定しようとすると、誤推定が発生する場合がある。例えば、感情スコア算出処理部2522において、発話者の真の感情が怒りであるのに、認識文字列SDに基づいて悲しみのスコアが最も高く算出される場合がある。また、感情スコア算出処理部2522において、発話者の真の感情が悲しみであるのに、認識文字列SDに基づいて怒りのスコアが最も高く算出される場合がある。即ち、認識文字列SDに基づいて、興奮時の感情と非興奮時の感情とを区別しようとすると、怒りと悲しみとを混同する可能性がある。しかしながら、認識文字列SDに基づいて感情を推定する第1推定部252は、混同することがある怒りと悲しみとを1つのグループとして推定するため、怒りと悲しみとの混同による誤推定を無くすことができる。
音声感情推定処理について、音の特徴量の中には、基本周波数及びラウドネスのように、興奮時と非興奮時とで値が大きく異なる傾向を有する特徴量がある。従って、音声感情推定処理では、発話者の感情が、興奮時の感情であるか非興奮時の感情であるかを精度良く推定することができる。一方、音の特徴量には、発話者の発話の意味内容が含まれていない。発話者の感情には、肯定的な時に現れる喜びと、否定的な時に現れる怒りと悲しみとがある。従って、仮に、音の特徴量から、発話者の感情が、肯定的な感情であるか否定的な感情であるかを推定しようとすると、誤推定が発生する場合がある。例えば、学習モデル実行処理部2532における学習モデルにおいて、発話者の真の感情が喜びであるのに、怒りのスコアが最も高く算出される場合がある。また、学習モデル実行処理部2532における学習モデルにおいて、発話者の真の感情が怒りであるのに、喜びのスコアが最も高く算出される場合がある。即ち、音の特徴量に基づいて、肯定的な感情と否定的な感情とを区別しようとすると、喜びと怒りとを混同する可能性がある。しかしながら、音の特徴量に基づいて感情を推定する第2推定部253は、混同することがある喜びと怒りとを1つのグループとして推定するため、喜びと怒りとの混同による誤推定を無くすことができる。
以上により、第1実施形態によれば、混同することがある感情同士を1つのグループとして推定するため、誤推定を抑制することができる。例えば、認識文字列SDに基づく各感情のスコアと音の特徴量に基づく各感情のスコアとの平均値によって発話者の感情を推定する場合と比較すると、発話者の感情を精度良く推定することが可能になる。
以上により、感情推定部254は、発話者の感情がポジティブグループGE1に属することを第1感情グループデータGD1が示す場合、第2感情グループデータGD2を参照することなく、発話者の感情を推定することが可能になる。また、発話者の感情がネガティブグループGE2に属することを第1感情グループデータGD1が示す場合であっても、感情推定部254は、第2感情グループデータGD2を参照することにより、発話者の感情を精度良く推定することが可能になる。
第1実施形態では、推定部25は、第1推定部252によって文字列感情推定処理を実行し、第1感情グループデータGD1がネガティブグループGE2を示す場合、第2推定部253によって音声感情推定処理を実行する。一方、第2実施形態では、推定部25aは、第2推定部253によって音声感情推定処理を実行し、第2感情グループデータGD2が興奮グループGE3を示す場合、第1推定部252によって文字列感情推定処理を実行する。以下、第2実施形態にかかるユーザ装置1aを説明する。なお、以下に例示する第2実施形態において作用又は機能が第1実施形態と同等である要素については、以上の説明で参照の符号を流用して各々の詳細な説明を適宜に省略する。
図7は、第2実施形態にかかるユーザ装置1aを示すブロック図である。ユーザ装置1aは、処理装置2a、記憶装置3a、表示装置4、操作装置5、通信装置6、放音装置7、及び、集音装置8を具備するコンピュータシステムにより実現される。記憶装置3aは、処理装置2aが読取可能な記録媒体であり、処理装置2aが実行する制御プログラムPRaを含む複数のプログラムを記憶する。
また、発話者の感情が興奮グループGE3に属することを第2感情グループデータGD2が示し、且つ、発話者の感情がポジティブグループGE1に属することを第1感情グループデータGD1が示す場合、感情推定部254aは、発話者の感情が喜びであると推定する。
発話者の感情が興奮グループGE3に属することを第2感情グループデータGD2が示し、且つ、発話者の感情がネガティブグループGE2に属することを第1感情グループデータGD1が示す場合、感情推定部254aは、発話者の感情が怒りであると推定する。
次に、推定部25aが実行する処理について、図9を用いて説明する。
以上説明したように、第2実施形態によれば、発話者の感情が非興奮グループGE4に属することを第2感情グループデータGD2が示す場合、感情推定部254aは、発話者の感情が悲しみであると推定する。また、発話者の感情が興奮グループGE3に属することを第2感情グループデータGD2が示し、且つ、発話者の感情がポジティブグループGE1に属することを第1感情グループデータGD1が示す場合、感情推定部254aは、発話者の感情が喜びであると推定する。発話者の感情が興奮グループGE3に属することを第2感情グループデータGD2が示し、且つ、発話者の感情がネガティブグループGE2に属することを第1感情グループデータGD1が示す場合、感情推定部254aは、発話者の感情が怒りであると推定する。
以上によれば、感情推定部254aは、発話者の感情が非興奮グループGE4に属することを第2感情グループデータGD2が示す場合、感情推定部254aは、第1感情グループデータGD1を参照することなく、発話者の感情を推定することが可能になる。また、発話者の感情が興奮グループGE3に属することを第2感情グループデータGD2が示す場合であっても、第1感情グループデータGD1を参照することにより、発話者の感情を精度良く推定することが可能になる。
本発明は、以上に例示した各実施形態に限定されない。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を併合してもよい。
同様に、第2推定部253は、(2)式において、左辺である「(喜びのスコア+怒りのスコア)/2」と、右辺である「β×悲しみのスコア」との差の絶対値が所定値以上ある場合に、発話者の感情が興奮グループGE3と非興奮グループGE4との何れに属することを示す第2感情グループデータGD2を出力し、前述の差の絶対値が所定値未満である場合に、発話者の感情が不明であることを示す第2感情グループデータGD2を出力してもよい。
第1感情グループデータGD1及び第2感情グループデータGD2の何れか一方が、発明者の感情が不明であることを示す場合、感情推定部254は、他方の感情グループデータに基づいて、発話者の感情を推定してもよい。
ここで、第1感情グループデータGD1及び第2感情グループデータGD2が、第2の態様であるとする。例えば、第1感情グループデータGD1が、発話者の感情が不明であることを示す場合、感情推定部254は、第2感情グループデータGD2に含まれる各感情のスコアのうち、最も大きいスコアを有する感情を、発話者の感情として推定する。同様に、第2感情グループデータGD2が、発話者の感情が不明であることを示す場合、感情推定部254は、第1感情グループデータGD1に含まれる各感情のスコアのうち、最も大きいスコアを有する感情を、発話者の感情として推定する。
このように、第1推定部252の推定結果と第2推定部253の推定結果とに整合性がとれない場合には、何れか一方の推定結果が誤推定であることを示すため、感情推定部254は、誤った推定結果を出力することを抑制することが可能になる。
例えば、第1感情グループデータGD1及び第2感情グループデータGD2が、第2の態様であるとする。出力部26は、第1感情グループデータGD1に含まれる喜びのスコアが所定値以上である場合に第1の絵文字付き文字列を出力し、第2感情グループデータGD2に含まれる悲しみのスコアが所定値以上である場合に第2の絵文字付き文字列を出力する。
ユーザである発話者は、表示装置4に表示された絵文字付き文字列を見て、操作装置5を操作することにより、自身の感情に近い絵文字付き文字列を選択する。
以上により、ユーザ装置1は、発話者の感情が推定不能と決定した場合でも、発話者に選択させることにより、発話者の感情に近い、適切な感情を選択することが可能になる。
なお、この変形例では、処理装置2cが出力部26として機能する、言い換えれば、認識文字列SDに対して感情データEDが示す感情に応じた処理を実行するが、処理装置2Cが出力部26として機能してもよい。処理装置2Cが出力部26として機能する場合、サーバ装置101が、認識文字列SDに対して感情データEDが示す感情に応じた処理を実行し、この処理によって得られたデータを、ユーザ装置1cに送信する。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
Claims (9)
- 発話者の音声を含む音を示す音声データを取得する取得部と、
前記音声データに音声認識処理を施して得られた認識文字列に基づいて、前記発話者の感情が、肯定的な感情が属する第1グループと、否定的な感情が属する第2グループとの何れに属するかを推定する第1推定部と、
前記音声データが示す音の特徴量に基づいて、前記発話者の感情が、興奮時の感情が属する第3グループと、興奮時ではない感情が属する第4グループとの何れに属するかを推定する第2推定部と、
前記第1推定部の推定結果と前記第2推定部の推定結果とに基づいて、前記発話者の感情を推定する感情推定部と、
を備え、
前記感情推定部は、
前記発話者の感情が前記第1グループに属することを前記第1推定部の推定結果が示す場合、前記発話者の感情が喜びであると推定し、
前記発話者の感情が前記第2グループに属することを前記第1推定部の推定結果が示し、且つ、前記発話者の感情が前記第3グループに属することを前記第2推定部の推定結果が示す場合、前記発話者の感情が怒りであると推定し、
前記発話者の感情が前記第2グループに属することを前記第1推定部の推定結果が示し、且つ、前記発話者の感情が前記第4グループに属することを前記第2推定部の推定結果が示す場合、前記発話者の感情が悲しみであると推定する、
感情推定装置。
- 発話者の音声を含む音を示す音声データを取得する取得部と、
前記音声データに音声認識処理を施して得られた認識文字列に基づいて、前記発話者の感情が、肯定的な感情が属する第1グループと、否定的な感情が属する第2グループとの何れに属するかを推定する第1推定部と、
前記音声データが示す音の特徴量に基づいて、前記発話者の感情が、興奮時の感情が属する第3グループと、興奮時ではない感情が属する第4グループとの何れに属するかを推定する第2推定部と、
前記第1推定部の推定結果と前記第2推定部の推定結果とに基づいて、前記発話者の感情を推定する感情推定部と、
を備え、
前記感情推定部は、
前記発話者の感情が前記第4グループに属することを前記第2推定部の推定結果が示す場合、前記発話者の感情が悲しみであると推定し、
前記発話者の感情が前記第3グループに属することを前記第2推定部の推定結果が示し、且つ、前記発話者の感情が前記第1グループに属することを前記第1推定部の推定結果が示す場合、前記発話者の感情が喜びであると推定し、
前記発話者の感情が前記第3グループに属することを前記第2推定部の推定結果が示し、且つ、前記発話者の感情が前記第2グループに属することを前記第1推定部の推定結果が示す場合、前記発話者の感情が怒りであると推定する、
感情推定装置。
- 前記第1推定部は、
前記発話者の感情が前記第3グループに属することを前記第2推定部の推定結果が示す場合、文字列を、喜び、怒り、及び悲しみの何れかに分類した感情分類データを参照して、前記感情分類データに含まれる喜び又は怒りの文字列を、前記認識文字列と比較することにより、前記発話者の感情が、前記第1グループと前記第2グループとの何れに属するかを推定する、
請求項2に記載の感情推定装置。
- 発話者の音声を含む音を示す音声データを取得する取得部と、
前記音声データに音声認識処理を施して得られた認識文字列に基づいて、前記発話者の感情が、肯定的な感情が属する第1グループと、否定的な感情が属する第2グループとの何れに属するかを推定する第1推定部と、
前記音声データが示す音の特徴量に基づいて、前記発話者の感情が、興奮時の感情が属する第3グループと、興奮時ではない感情が属する第4グループとの何れに属するかを推定する第2推定部と、
前記第1推定部の推定結果と前記第2推定部の推定結果とに基づいて、前記発話者の感情を推定する感情推定部と、
を備え、
前記感情推定部は、
前記発話者の感情が前記第1グループに属することを前記第1推定部の推定結果が示し、且つ、前記発話者の感情が前記第4グループに属することを前記第2推定部の推定結果が示す場合、推定不能と決定する、
感情推定装置。
- 前記認識文字列に対して、前記感情推定部が推定した感情を具象化した図形を付加する処理を施す出力部を備え、
前記出力部は、前記感情推定部が推定不能であると決定した場合、前記認識文字列に対して喜びを具象化した図形を付加する処理を施して得られる図形付き文字列と、前記認識文字列に対して悲しみを具象化した図形を付加した処理を施して得られる図形付き文字列とのうち少なくとも1つの図形付き文字列を出力する、
請求項4に記載の感情推定装置。
- 請求項1から4までの何れか1項に記載の感情推定装置と、前記感情推定装置と通信可能な端末装置とを備える感情推定システムであって、
前記端末装置は、
前記発話者の音声を含む音を集音する集音部と、
前記発話者の音声を含む音を示す前記音声データを、前記感情推定装置に送信する送信部と、
前記感情推定装置から、前記認識文字列と、前記感情推定部が推定した前記発話者の感情を示す感情データとを受信する受信部と、
前記認識文字列に対して、前記感情データが示す感情に応じた処理を施して得られるデータを出力する出力部と、
を備える感情推定システム。
- 発話者の音声を含む音を示す音声データを取得し、
前記音声データに音声認識処理を施して得られた認識文字列に基づいて、前記発話者の感情が、肯定的な感情が属する第1グループと、否定的な感情が属する第2グループとの何れに属するかを推定し、
前記音声データが示す音の特徴量に基づいて、前記発話者の感情が、興奮時の感情が属する第3グループと、興奮時ではない感情が属する第4グループとの何れに属するかを推定し、
前記発話者の感情が前記第1グループと前記第2グループとの何れに属するかを示す推定結果と、前記発話者の感情が前記第3グループと前記第4グループとの何れに属するかを示す推定結果とに基づいて、前記発話者の感情を推定する、
処理をコンピュータが実行する感情推定方法であって、
前記発話者の感情が前記第1グループに属することを推定した場合、前記発話者の感情が喜びであると推定し、
前記発話者の感情が前記第2グループに属することを推定し、且つ、前記発話者の感情が前記第3グループに属することをの推定した場合、前記発話者の感情が怒りであると推定し、
前記発話者の感情が前記第2グループに属することを推定し、且つ、前記発話者の感情が前記第4グループに属することを推定した場合、前記発話者の感情が悲しみであると推定する、
感情推定方法。
- 発話者の音声を含む音を示す音声データを取得し、
前記音声データに音声認識処理を施して得られた認識文字列に基づいて、前記発話者の感情が、肯定的な感情が属する第1グループと、否定的な感情が属する第2グループとの何れに属するかを推定し、
前記音声データが示す音の特徴量に基づいて、前記発話者の感情が、興奮時の感情が属する第3グループと、興奮時ではない感情が属する第4グループとの何れに属するかを推定し、
前記発話者の感情が前記第1グループと前記第2グループとの何れに属するかを示す推定結果と、前記発話者の感情が前記第3グループと前記第4グループとの何れに属するかを示す推定結果とに基づいて、前記発話者の感情を推定する、
処理をコンピュータが実行する感情推定方法であって、
前記発話者の感情が前記第4グループに属することを推定した場合、前記発話者の感情が悲しみであると推定し、
前記発話者の感情が前記第3グループに属することを推定した場合、且つ、前記発話者の感情が前記第1グループに属することを推定した場合、前記発話者の感情が喜びであると推定し、
前記発話者の感情が前記第3グループに属することを推定し、且つ、前記発話者の感情が前記第2グループに属することを推定した場合、前記発話者の感情が怒りであると推定する、
感情推定方法。
- 発話者の音声を含む音を示す音声データを取得し、
前記音声データに音声認識処理を施して得られた認識文字列に基づいて、前記発話者の感情が、肯定的な感情が属する第1グループと、否定的な感情が属する第2グループとの何れに属するかを推定し、
前記音声データが示す音の特徴量に基づいて、前記発話者の感情が、興奮時の感情が属する第3グループと、興奮時ではない感情が属する第4グループとの何れに属するかを推定し、
前記発話者の感情が前記第1グループと前記第2グループとの何れに属するかを示す推定結果と、前記発話者の感情が前記第3グループと前記第4グループとの何れに属するかを示す推定結果とに基づいて、前記発話者の感情を推定する、
処理をコンピュータが実行する感情推定方法であって、
前記発話者の感情が前記第1グループに属することを推定し、且つ、前記発話者の感情が前記第4グループに属することを推定結した場合、推定不能と決定する、
感情推定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019091864A JP6782329B1 (ja) | 2019-05-15 | 2019-05-15 | 感情推定装置、感情推定システム、及び感情推定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019091864A JP6782329B1 (ja) | 2019-05-15 | 2019-05-15 | 感情推定装置、感情推定システム、及び感情推定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6782329B1 true JP6782329B1 (ja) | 2020-11-11 |
JP2020187262A JP2020187262A (ja) | 2020-11-19 |
Family
ID=73043496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019091864A Active JP6782329B1 (ja) | 2019-05-15 | 2019-05-15 | 感情推定装置、感情推定システム、及び感情推定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6782329B1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7453169B2 (ja) | 2021-02-24 | 2024-03-19 | Kddi株式会社 | 感情種別グループの識別を介して感情推定を行うモデル、装置及び方法 |
WO2023175842A1 (ja) * | 2022-03-17 | 2023-09-21 | 日本電気株式会社 | 音分類装置、音分類方法、及びコンピュータ読み取り可能な記録媒体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005091463A (ja) * | 2003-09-12 | 2005-04-07 | Toshiba Corp | 情報処理装置 |
JP2006071936A (ja) * | 2004-09-01 | 2006-03-16 | Matsushita Electric Works Ltd | 対話エージェント |
JP6262613B2 (ja) * | 2014-07-18 | 2018-01-17 | ヤフー株式会社 | 提示装置、提示方法及び提示プログラム |
JP6617053B2 (ja) * | 2016-02-29 | 2019-12-04 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
JP6524049B2 (ja) * | 2016-10-28 | 2019-06-05 | 株式会社東芝 | 感情推定装置、感情推定方法、感情推定プログラム、および感情カウントシステム |
US10957306B2 (en) * | 2016-11-16 | 2021-03-23 | International Business Machines Corporation | Predicting personality traits based on text-speech hybrid data |
-
2019
- 2019-05-15 JP JP2019091864A patent/JP6782329B1/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020187262A (ja) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9396724B2 (en) | Method and apparatus for building a language model | |
US9229924B2 (en) | Word detection and domain dictionary recommendation | |
TWI610295B (zh) | 解壓縮及壓縮用於語音辨識之轉換器資料的電腦實施方法及電腦實施之語音辨識系統 | |
US20180143965A1 (en) | Trained data input system | |
US11586689B2 (en) | Electronic apparatus and controlling method thereof | |
WO2014190732A1 (en) | Method and apparatus for building a language model | |
CN110853617B (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN112069309B (zh) | 信息获取方法、装置、计算机设备及存储介质 | |
WO2020253128A1 (zh) | 基于语音识别的通信服务方法、装置、计算机设备及存储介质 | |
CN108804427B (zh) | 语音机器翻译方法及装置 | |
US20180277145A1 (en) | Information processing apparatus for executing emotion recognition | |
CN107316635B (zh) | 语音识别方法及装置、存储介质、电子设备 | |
JP6782329B1 (ja) | 感情推定装置、感情推定システム、及び感情推定方法 | |
US20220122596A1 (en) | Method and system of automatic context-bound domain-specific speech recognition | |
US20220012520A1 (en) | Electronic device and control method therefor | |
CN110728983A (zh) | 一种信息显示方法、装置、设备及可读存储介质 | |
CN112910761B (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 | |
Xue | A novel english speech recognition approach based on hidden Markov model | |
WO2020166125A1 (ja) | 翻訳用データ生成システム | |
CN110781329A (zh) | 图像搜索方法、装置、终端设备及存储介质 | |
KR20200082232A (ko) | 감성 분석 장치, 이를 포함하는 대화형 에이전트 시스템, 감성 분석을 수행하기 위한 단말 장치 및 감성 분석 방법 | |
JP7348818B2 (ja) | 対話装置 | |
KR20190133325A (ko) | 음성인식 방법 및 장치 | |
US12002475B2 (en) | Electronic device performing speaker recognition and control method thereof | |
JP7379788B2 (ja) | 感情推定装置、及び、感情推定システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20190617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6782329 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |