JPH08339446A - 対話装置 - Google Patents

対話装置

Info

Publication number
JPH08339446A
JPH08339446A JP7143511A JP14351195A JPH08339446A JP H08339446 A JPH08339446 A JP H08339446A JP 7143511 A JP7143511 A JP 7143511A JP 14351195 A JP14351195 A JP 14351195A JP H08339446 A JPH08339446 A JP H08339446A
Authority
JP
Japan
Prior art keywords
user
emotion
response
computer
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7143511A
Other languages
English (en)
Inventor
Keiko Watanuki
啓子 綿貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Sharp Corp
Original Assignee
GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO, Sharp Corp filed Critical GIJUTSU KENKYU KUMIAI SHINJOHO SHIYORI KAIHATSU KIKO
Priority to JP7143511A priority Critical patent/JPH08339446A/ja
Publication of JPH08339446A publication Critical patent/JPH08339446A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Computer And Data Communications (AREA)

Abstract

(57)【要約】 【目的】 ユーザ(人間)とコンピュータの対話装置に
おいて、ユーザの多様な感情を検出し、この感情に応じ
て、コンピュータ側から情報を出力することにより、親
しみの持てる対話装置を提供すること。 【構成】 ユーザの動作や行動に応じる複数の入力部1
(1-1,1-2.…)と、入力部1から入力された信号の
特徴を抽出する特徴抽出部2(2-1,2-2,…)と、特
徴抽出部2により抽出された複数の信号特徴からユーザ
の感情を判定する感情判定部4と、感情判定部4により
判定された感情に基づき、コンピュータの応答内容を生
成する応答生成部と、応答内容の出力部7(7-1,7-
2,…)から構成される。応答内容は、出力部7により
ユーザに伝えられる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ユーザ(人間)とコン
ピュータとが対話する対話装置に関し、より詳細には、
音声或いは表情などを通じて対話を行うためのものに関
する。
【0002】
【従来の技術】従来、人間とコンピュータの間のインタ
フェースとしては、キーボードや手書き文字認識,音声
認識などが知られている。しかし、これらの手段によっ
てコンピュータ側に入力される情報は、言語に変換して
入力されるものであり、入力を行う人間の感情を言語以
外の情報として扱う手段を有するものではなかった。一
方、特開平5−12023号公報には、音声認識を利用
して使用者の感情を認識する装置が開示されている。ま
た、特開平6−67601号公報には、手話使用者の表
情を認識し、話者の感情を含んだ自然文を出力する装置
が開示されている。さらに、特開平5−100667号
公報には、演奏者の動きを検出して、演奏者の感情にマ
ッチした楽音制御をする装置が開示されている。
【0003】
【発明が解決しようとする課題】人間が働きかけること
を要する上述の従来例の装置と同様に、コンピュータと
の対話においても、人間は気分が乗ってきたり、あるい
はいらいらしたり、退屈したりと様々な感情を持つ。こ
のような感情に対応すべく、特開平5−12023号公
報では、感情を音声から抽出しようとするものであり、
特開平6−67601号公報では、手話に伴う表情から
捉えようとするものであり、また、特開平5−1006
67号公報では、演奏者の腕の曲げ押し等の体の動きか
ら感情を検出しようとするものであるが、本来、人間の
感情は、音声のみ,表情のみ,あるいは動きのみという
ように、シングルモードに現われるのではなく、音声や
表情,身振りなどと同時に、あるいは、相補的に現われ
るものであるから、従来例の手段は、必ずしも満足でき
るものではない。さらに、ユーザ(人間)の感情を検出
しても、上述の従来例における装置の応答においても同
様のことがいえるが、従来のコンピュータとの対話にお
いては、コンピュータ側からの応答内容および応答の仕
方がユーザの感情にかかわらず一定で、面白みのないも
のであった。本発明は、上述の課題を解決するためにな
されたもので、ユーザ(人間)とコンピュータの対話装
置において、ユーザの多様な感情を検出するとともに、
さらにこの感情に応じて、コンピュータ側から情報を出
力することにより、親しみの持てる対話装置を提供する
ことをその目的とする。
【0004】
【課題を解決するための手段】本発明は、上述の課題を
解決するために、(1)ユーザ(人間)とコンピュータ
が音声あるいは表情などを通じて対話する対話装置にお
いて、前記ユーザの行動或いは動作に応じる複数の入力
手段と、該入力手段から入力された信号の特徴を抽出す
る特徴抽出手段と、該特徴抽出手段により抽出された複
数の信号特徴から前記ユーザの感情を判定する感情判定
手段と、該感情判定手段により判定された感情に基づ
き、前記コンピュータの応答内容を生成する応答生成手
段とから構成されること、或いは、(2)前記(1)に
おいて、前記感情判定手段は、前記複数の信号特徴とし
て前記ユーザの音声の高さと視線の方向を抽出し、それ
らからユーザの感情を判定すること、或いは、(3)前
記(1)又は(2)において、感情の履歴を蓄積する履
歴格納手段を更に備えたことを特徴とするものを構成す
る。
【0005】
【作用】請求項1の対話装置においては、入力手段によ
りユーザの行動或いは動作に対応して発生する複数の信
号から信号抽出手段によりユーザの複数の信号特徴が抽
出される。そして、これら複数の信号特徴を統合的に扱
い、感情判定手段によりユーザの感情を判定することが
できる。また、判定された感情に基づき、応答生成手段
によりコンピュータからの応答が決定される。これによ
り、ユーザの感情に応じてコンピュータ側からの応答を
制御することができるので、より親しみの持てる対話装
置を提供することができる。請求項2の対話装置におい
ては、音声の高さと視線の方向とからユーザの感情が判
定される。これにより、より間違いの少ないユーザの感
情を判定できる。請求項3の対話装置においては、履歴
格納手段によりユーザの感情の履歴が蓄積される。これ
により、ユーザの感情の変化を記録することができるよ
うになり、ユーザの感情の変化に応じた感情判定ができ
るようになるとともに、ユーザの感情の変化に応じたコ
ンピュータの応答の制御ができるようになるので、より
満足のできる対話装置が得られる。
【0006】
【実施例】図1は、本発明の対話装置の実施例を示すブ
ロック図である。図1において、1は、入力部、2は、
入力部から得られる信号の特徴を抽出する特徴抽出部で
ある。3は、感情を判定するためのデータをあらかじめ
格納しておく感情特徴格納部であり、4は、感情特徴格
納部3のデータを基に、ユーザの行動或いは動作から得
られる信号の特徴からユーザの感情を判定する感情判定
部である。5は、ユーザの感情に応じてコンピュータが
出力すべきデータをあらかじめ格納しておく応答特徴格
納部であり、6は、応答特徴格納部7のデータを基に、
コンピュータの応答内容を生成する応答生成部である。
7は、該応答生成部6により生成されたデータを出力す
る出力部である。8は、現在時刻を得るための時刻取得
部である。
【0007】次に、本実施例の動作に関して説明する。
入力部1は、例えばカメラやマイク,動きセンサ,ある
いは心電計など、複数の入力部1-1,1-2,…を備える
ことができ、ユーザの行動或いは動作に対応して発生す
る複数の信号が取り込まれる。特徴抽出部2で抽出され
る特徴としては、例えば、音声の高低(以下ピッチとい
う),音声の大きさ,発話の速度,ポーズの長さ,表
情,顔の向き,口の大きさや形,視線の方向,身振り,
手振り,頭の動き,心拍数などが考えられ、そのための
複数の特徴抽出部2-1,2-2,…を備える。また、出力
部7は、例えば、スピーカやディスプレイ,触覚装置な
ど、複数の出力部7-1,7-2,…を備えることができ
る。
【0008】以下では、入力部1-1として音声を入力す
るための音声入力部を、入力部1-2としてユーザの顔画
像を入力するための顔画像入力部を、また、特徴抽出部
2-1としてユーザが発声する音声の高さを抽出するピッ
チ抽出部を、特徴抽出部2-2としてユーザの視線方向を
検出し、コンピュータに視線を向けているかどうか(ア
イコンタクト)を判定する視線検出部を、さらに、出力
部7-1としてCGによる疑似人間を表示する表示部、お
よび出力部7-2として合成音声を出力する音声出力部と
して、本発明の実施例が示されているので、その動作を
説明する。マイク等の入力部1-1によって装置に取り込
まれた音声信号は、特徴抽出部2-1でA/D変換され、
あらかじめ決められた処理単位(フレーム:1フレーム
は1/30秒)毎に平均ピッチ[Hz]が求められ、フレ
ーム毎の平均ピッチ変化量[%]が感情判定部4に送出
される。カメラ等の入力部1-2によって装置に取り込ま
れた視線の画像は、特徴抽出部2-2でフレーム毎にアイ
コンタクトの時間長[sec]が求められ、フレーム毎の
アイコンタクト時間長の変化量[%]が感情判定部4に
送出される。
【0009】図2は、特徴抽出部2-1で抽出された平均
ピッチ[Hz]の例を示す図である。また、図3は、時系
列にとったフレーム毎の平均ピッチ変化量[%]の例を
示す図である。ここで、(+)数値はピッチが先行フレ
ームより上がっていることを意味し、また、(−)数値
は下がっていることを意味する。図4は、特徴抽出部2
-2で検出されるアイコンタクトの時間長[sec]の例を
示す図である。また、図5は、時系列にとったフレーム
毎のアイコンタクト変化量[%]の例を示す図である。
ここで、(+)数値はアイコンタクトの時間長が先行フ
レームより長くなっていることを意味し、また、(−)
数値は短くなっていることを意味する。なお、ここで
は、平均ピッチの変化量をピッチ特徴、およびアイコン
タクトの時間長の変化量を視線特徴としたが、最高ピッ
チやアイコンタクトの回数などをそれぞれピッチ特徴,
視線特徴としてもよい。
【0010】感情判定部4では、入力されたユーザのピ
ッチ特徴および視線特徴を、フレーム毎に感情特徴格納
部3のデータを参照して、該フレーム毎のユーザの感情
が判定される。表1は、感情特徴格納部3のデータの例
を示す表である。この表には、平均ピッチの変化量
[%]とアイコンタクトの時間長の変化量[%]から判
定されるユーザの感情として両者の関係が示されてい
る。
【0011】
【表1】
【0012】図6は、感情判定部4での時系列にとった
フレーム毎の処理の例を示す図である。ここでは、例え
ば、ピッチ変化量が+30[%]およびアイコンタクト
変化量が+45[%]と検出され、ユーザの感情が「楽
しい」と判定されている。
【0013】感情判定部4で判定された感情は、応答生
成部6に送出される。該応答生成部6では、フレーム毎
に応答特徴格納部5のデータを参照して、出力すべき音
声情報および顔画像情報がそれぞれ出力部7-2と出力部
7-1とに送出される。表2は、応答特徴格納部5のデー
タの例を示す表である。この表には、ユーザの感情に応
じてコンピュータによる応答をピッチパタンおよびCG
顔画像で指定するようにするための両者の対応関係が示
されている。もちろん、音声の大きさや発話の速度を指
定したり、また、顔だけでなく、身振りも加えるように
してもよい。
【0014】
【表2】
【0015】図7は、感情判定部4での処理に応じる応
答生成部6での時系列にとったフレーム毎の処理の例を
示す図である。ここでは、例えば、ユーザの「楽しい」
という感情判定に対して、コンピュータからピッチパタ
ン2の音声で笑顔のCG顔画像を出力するよう処理して
いる。図8は、応答生成部6で指定されるピッチパタン
の例を示す図で、また、図9は、CG顔画像の例を示す
図である。
【0016】次に、本願のほかの発明の実施例を説明す
る。図10は、この実施例の装置構成を示すブロック図
であり、図示のように、先の本発明の実施例の構成に、
ユーザの感情の履歴を蓄積する履歴格納部9が付加され
ている。以下に、この実施例でユーザの感情の履歴を処
理する動作について説明する。まず、先の実施例と同様
の手順によって、感情判定部4で判定されたユーザの感
情をフレーム毎に履歴格納部9に蓄積する。人間の感情
は変化し、その感情変化には、たとえば、「楽しい」か
ら「ふつう」の感情、「イライラ」の感情から「怒って
いる」感情というように、一定の規則制があると考えら
れる。そこで、感情判定部4では、該当フレームでのユ
ーザのピッチ特徴および視線特徴と、さらに前フレーム
の感情の履歴を参照して、該フレームのユーザの感情が
判定される。図11は、ユーザの感情の履歴情報を利用
した、感情判定部4での時系列にとったフレーム毎の処
理の例を示す図である。ここでは、該フレームで、ピッ
チ変化量が−30〔%〕およびアイコンタクト変化量が
+45〔%〕と検出され、かつ、前フレームの感情履歴
「イライラ」を参照して、ユーザの感情が「怒ってい
る」と判定されている。感情判定部4で判定された感情
は、応答生成部6に送出される。コンピュータとの対話
において、ユーザの感情に応じて、コンピュータ側から
の応答内容や応答の仕方が変化するようになれば、対話
がより楽しいものになると考えられる。そこで、応答生
成部6では、感情判定部4で判定された該フレームの感
情と履歴格納部9に蓄積された前フレームのデータを基
に、該フレームでのコンピュータからの応答が決定され
て、出力部7−1、7−2…に送出される。図12は、
ユーザの感情の履歴情報を利用した、応答生成部6での
時系列にとったフレーム毎の処理の例を示す図である。
ここでは、感情判定部4でユーザの該フレームでの感情
が「退屈」と判定され、履歴格納部9に蓄積された前フ
レームの感情履歴「退屈」を参照して、ユーザを楽しま
せるようなピッチパタンとCG顔画像を出力するように
指定されている。このように、ユーザの感情の履歴を参
照することにより、ユーザの感情を変化させるようなコ
ンピュータの応答を制御することができる。なお、ここ
では、感情判定を「楽しい」「退屈」などとカテゴリに
分類して判定しているが、感情とは本来、たとえば「非
常に楽しい」から「非常に退屈」まで連続的なものであ
る。そこで、感情の判定を、ユーザから入力されるデー
タの特徴量から、「感情度」として、「楽しさ」の度合
0.5,0.1,0.8…などと、アナログ処理するよう
にしてもよい。図13は、「感情度」のアナログ判定処
理の例を示す図である。ここでは、「楽しい」から「退
屈」までの「感情度」のアナログ処理の例が示されてい
る。このことにより、この「感情度」に応じて、コンピ
ュータの応答もアナログ制御できるようになる。表3
は、「感情度」に応じたコンピュータの応答のアナログ
制御の例を示す表である。ここでは、平均ピッチ、およ
び顔画像の口の形をアナログ制御する例が示されてい
る。なお、表中のK1,K2は係数である。
【0017】
【表3】
【0018】
【発明の効果】人間とコンピュータが音声あるいは表情
などを通じて対話する対話装置において、請求項1の対
話装置においては、ユーザの行動に対応して発生する複
数の信号特徴からユーザの感情を判定することができる
とともに、ユーザの感情に応じてコンピュータ側から応
答するよう制御することができる。したがって、より親
しみの持てる対話装置を提供できる。請求項2の対話装
置においては、ユーザの音声の高さ(ピッチ)と視線の
方向(アイコンタクト)とからユーザの感情を判定する
ので、より間違いの少ない判定が可能となる。請求項3
の対話装置においては、ユーザの感情の変化に応じた感
情判定ができるようになるとともに、ユーザの感情の変
化に応じたコンピュータの応答の制御ができるようにな
るので、対話装置として、より満足できるものが得られ
る。
【図面の簡単な説明】
【図1】本発明の対話装置の実施例を示すブロック図で
ある。
【図2】本発明の実施例の特徴抽出部で抽出された平均
ピッチ[Hz]の例を示す図である。
【図3】本発明の実施例の特徴抽出部で抽出された平均
ピッチの変化量[%]の例を示す図である。
【図4】本発明の実施例の特徴抽出部で抽出されたアイ
コンタクト時間長[sec]の例を示す図である。
【図5】本発明の実施例の特徴抽出部で抽出されたアイ
コンタクト時間長の変化量[%]の例を示す図である。
【図6】本発明の実施例の感情判定部での処理の例を示
す図である。
【図7】本発明の実施例の応答生成部での処理の例を示
す図である。
【図8】本発明の実施例の応答生成部でのピッチパタン
の例を示す図である。
【図9】本発明の実施例の応答生成部でのCG顔画像の
例を示す図である。
【図10】本発明の他の実施例の概略構成ブロック図で
ある。
【図11】本発明の他の実施例のユーザの履歴を利用し
た感情判定部での処理の例を示す図である。
【図12】本発明の他の実施例のユーザの履歴を利用し
た応答生成部での処理の例を示す図である。
【図13】本発明の実施例の感情判定部での「感情度」
による感情のアナログ判定処理の例を示す図である。
【符号の説明】
1,1-1,1-2…入力部、2,2-1,2-2…特徴抽出
部、3…感情特徴格納部、4…感情判定部、5…応答特
徴格納部、6…応答生成部、7,7-1,7-2…出力部、
8…時刻取得部、9…履歴格納部。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 571 G10L 9/00 301A 9/00 301 G06F 15/62 380

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 ユーザ(人間)とコンピュータが音声あ
    るいは表情などを通じて対話する対話装置において、前
    記ユーザの行動或いは動作に応じる複数の入力手段と、
    該入力手段から入力された信号の特徴を抽出する特徴抽
    出手段と、該特徴抽出手段により抽出された複数の信号
    特徴から前記ユーザの感情を判定する感情判定手段と、
    該感情判定手段により判定された感情に基づき、前記コ
    ンピュータの応答内容を生成する応答生成手段とから構
    成されることを特徴とする対話装置。
  2. 【請求項2】 前記感情判定手段は、前記複数の信号特
    徴として前記ユーザの音声の高さと視線の方向を抽出
    し、それらからユーザの感情を判定することを特徴とす
    る請求項1記載の対話装置。
  3. 【請求項3】 感情の履歴を蓄積する履歴格納手段を更
    に備えたことを特徴とする請求項1または2記載の対話
    装置。
JP7143511A 1995-06-09 1995-06-09 対話装置 Pending JPH08339446A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7143511A JPH08339446A (ja) 1995-06-09 1995-06-09 対話装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7143511A JPH08339446A (ja) 1995-06-09 1995-06-09 対話装置

Publications (1)

Publication Number Publication Date
JPH08339446A true JPH08339446A (ja) 1996-12-24

Family

ID=15340442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7143511A Pending JPH08339446A (ja) 1995-06-09 1995-06-09 対話装置

Country Status (1)

Country Link
JP (1) JPH08339446A (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254592A (ja) * 1997-03-13 1998-09-25 Nec Corp 感情生成装置およびその方法
JPH10328422A (ja) * 1997-05-29 1998-12-15 Omron Corp 自動応答玩具
JPH11265239A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 感情生成装置及び感情生成方法
JPH11282866A (ja) * 1998-03-31 1999-10-15 Sharp Corp 電子書籍表示装置及びコンピュータ読み取り可能な記録媒体
JP2000076421A (ja) * 1998-08-28 2000-03-14 Nec Corp 感情解析システム
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
WO2002023524A1 (fr) * 2000-09-13 2002-03-21 A.G.I.Inc. Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2002215183A (ja) * 2001-01-16 2002-07-31 Agi:Kk 感性発生方法及び感性発生装置並びにソフトウェア
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置
JP2004016743A (ja) * 2002-06-20 2004-01-22 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004065309A (ja) * 2002-08-01 2004-03-04 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004178593A (ja) * 2002-11-25 2004-06-24 Eastman Kodak Co 画像処理方法及びシステム
WO2004075168A1 (ja) * 2003-02-19 2004-09-02 Matsushita Electric Industrial Co., Ltd. 音声認識装置及び音声認識方法
JP2006031467A (ja) * 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP2006178063A (ja) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
JP2007287177A (ja) * 2002-12-11 2007-11-01 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
WO2008069187A1 (ja) * 2006-12-05 2008-06-12 The University Of Tokyo プレゼンテーション支援装置および方法並びにプログラム
JP2008217444A (ja) * 2007-03-05 2008-09-18 Toshiba Corp 利用者と対話する装置、方法およびプログラム
JP2009037410A (ja) * 2007-08-01 2009-02-19 Nippon Hoso Kyokai <Nhk> 感情表現抽出処理装置及びプログラム
JP2009163619A (ja) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc 応答生成装置、及び応答生成プログラム
JP2012113589A (ja) * 2010-11-26 2012-06-14 Nec Corp 行動促進装置、行動促進方法およびプログラム
KR101317047B1 (ko) * 2012-07-23 2013-10-11 충남대학교산학협력단 얼굴표정을 이용한 감정인식 장치 및 그 제어방법
US9020816B2 (en) 2008-08-14 2015-04-28 21Ct, Inc. Hidden markov model for speech processing with training method
JP2018068548A (ja) * 2016-10-27 2018-05-10 富士ゼロックス株式会社 対話制御システム
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254592A (ja) * 1997-03-13 1998-09-25 Nec Corp 感情生成装置およびその方法
US6219657B1 (en) 1997-03-13 2001-04-17 Nec Corporation Device and method for creation of emotions
JPH10328422A (ja) * 1997-05-29 1998-12-15 Omron Corp 自動応答玩具
JPH11265239A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 感情生成装置及び感情生成方法
JPH11282866A (ja) * 1998-03-31 1999-10-15 Sharp Corp 電子書籍表示装置及びコンピュータ読み取り可能な記録媒体
JP2000076421A (ja) * 1998-08-28 2000-03-14 Nec Corp 感情解析システム
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
US7340393B2 (en) 2000-09-13 2008-03-04 Advanced Generation Interface, Inc. Emotion recognizing method, sensibility creating method, device, and software
WO2002023524A1 (fr) * 2000-09-13 2002-03-21 A.G.I.Inc. Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel
CN100370414C (zh) * 2000-09-13 2008-02-20 株式会社A·G·I 感受能力生成器及其方法
KR100714535B1 (ko) * 2000-09-13 2007-05-07 가부시키가이샤 에이.지.아이 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어를 저장한 컴퓨터로 읽을 수 있는 기록매체
JP2002215183A (ja) * 2001-01-16 2002-07-31 Agi:Kk 感性発生方法及び感性発生装置並びにソフトウェア
JP2003339681A (ja) * 2002-05-27 2003-12-02 Denso Corp 車両用表示装置
JP2004016743A (ja) * 2002-06-20 2004-01-22 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004065309A (ja) * 2002-08-01 2004-03-04 P To Pa:Kk 遊技機、遊技制御方法及びプログラム
JP2004178593A (ja) * 2002-11-25 2004-06-24 Eastman Kodak Co 画像処理方法及びシステム
JP2007287177A (ja) * 2002-12-11 2007-11-01 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP4525712B2 (ja) * 2002-12-11 2010-08-18 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
JPWO2004075168A1 (ja) * 2003-02-19 2006-06-01 松下電器産業株式会社 音声認識装置及び音声認識方法
US7711560B2 (en) 2003-02-19 2010-05-04 Panasonic Corporation Speech recognition device and speech recognition method
WO2004075168A1 (ja) * 2003-02-19 2004-09-02 Matsushita Electric Industrial Co., Ltd. 音声認識装置及び音声認識方法
JP2006031467A (ja) * 2004-07-16 2006-02-02 Fujitsu Ltd 応答生成プログラム、応答生成方法、および応答生成装置
JP4508757B2 (ja) * 2004-07-16 2010-07-21 富士通株式会社 応答生成プログラム、応答生成方法、および応答生成装置
JP2006178063A (ja) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc 対話処理装置
JP2008139762A (ja) * 2006-12-05 2008-06-19 Univ Of Tokyo プレゼンテーション支援装置および方法並びにプログラム
WO2008069187A1 (ja) * 2006-12-05 2008-06-12 The University Of Tokyo プレゼンテーション支援装置および方法並びにプログラム
JP2008217444A (ja) * 2007-03-05 2008-09-18 Toshiba Corp 利用者と対話する装置、方法およびプログラム
JP2009037410A (ja) * 2007-08-01 2009-02-19 Nippon Hoso Kyokai <Nhk> 感情表現抽出処理装置及びプログラム
JP2009163619A (ja) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc 応答生成装置、及び応答生成プログラム
US9020816B2 (en) 2008-08-14 2015-04-28 21Ct, Inc. Hidden markov model for speech processing with training method
JP2012113589A (ja) * 2010-11-26 2012-06-14 Nec Corp 行動促進装置、行動促進方法およびプログラム
KR101317047B1 (ko) * 2012-07-23 2013-10-11 충남대학교산학협력단 얼굴표정을 이용한 감정인식 장치 및 그 제어방법
JP2018068548A (ja) * 2016-10-27 2018-05-10 富士ゼロックス株式会社 対話制御システム
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Similar Documents

Publication Publication Date Title
JPH08339446A (ja) 対話装置
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
JP5616325B2 (ja) ユーザ命令に基づいて表示を変更する方法
Ramakrishnan et al. Speech emotion recognition approaches in human computer interaction
US6509707B2 (en) Information processing device, information processing method and storage medium
JP4030162B2 (ja) 息検出機能付情報処理装置及び息検出による画像表示制御方法
Hoch et al. Bimodal fusion of emotional data in an automotive environment
CN110598576B (zh) 一种手语交互方法、装置及计算机介质
JP5911796B2 (ja) マルチモーダル情報を用いるユーザ意図推論装置及び方法
JP3844874B2 (ja) マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
CN106157956A (zh) 语音识别的方法及装置
WO2007098560A1 (en) An emotion recognition system and method
Hasegawa et al. Active agent oriented multimodal interface system
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
KR20190099347A (ko) 입력 표시 장치, 입력 표시 방법, 및 프로그램
JP2019217122A (ja) ロボット、ロボットの制御方法及びプログラム
CN112232127A (zh) 一种智能演讲训练系统及方法
JP3652961B2 (ja) 音声処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体
JPH11265239A (ja) 感情生成装置及び感情生成方法
JPH09218770A (ja) 対話処理装置および対話処理方法
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
Rabie et al. Evaluation and discussion of multi-modal emotion recognition
JP4394532B2 (ja) 音声処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体
JP3199972B2 (ja) あいづち応答のある対話装置
JP7201984B2 (ja) アンドロイドのジェスチャ生成装置及びコンピュータプログラム