JP2000259601A - 会話装置および方法 - Google Patents

会話装置および方法

Info

Publication number
JP2000259601A
JP2000259601A JP11103071A JP10307199A JP2000259601A JP 2000259601 A JP2000259601 A JP 2000259601A JP 11103071 A JP11103071 A JP 11103071A JP 10307199 A JP10307199 A JP 10307199A JP 2000259601 A JP2000259601 A JP 2000259601A
Authority
JP
Japan
Prior art keywords
conversation
response sentence
data
robot
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11103071A
Other languages
English (en)
Inventor
Masami Kato
誠巳 加藤
Yosuke Tani
洋介 谷
Takayuki Kirikoshi
孝之 桐越
Hironori Sugata
裕紀 菅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP11103071A priority Critical patent/JP2000259601A/ja
Publication of JP2000259601A publication Critical patent/JP2000259601A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 コンピュータ・グラフィックスおよび音声認
識・合成により,人間と対話している感覚に近い会話が
可能な会話装置および方法を提供する. 【解決手段】 利用者が音声を入力する音声入力部と,
入力された音声を認識する音声認識部と,認識された音
声から応答文を構築する応答文構築部と,その構築され
た応答文を音声にする音声合成部と,その合成音声を出
力する合成音声出力部と,同じく構築された応答文に応
じた様々な動作をするロボットの映像を生成する映像生
成部と,その生成された映像をディスプレイなどの表示
デバイスに表示する映像表示部と,それらの処理に必要
なデータとして,応答文の集合である台本データとロボ
ット・データと個人情報データを格納するデータ格納部
とを備え,コンピュータ・グラフィックスおよび音声認
識・合成により,人間と対話している感覚に近い会話を
実現する.

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は,コンピュータとそ
の利用者が会話をする会話装置および方法に関し,特
に,コンピュータ・グラフィックスおよび音声認識・合
成により,人間と対話している感覚に近い会話が可能な
会話装置および方法に関する.
【0002】
【従来の技術】Elizaは、MITのJoseph
Weizenbaumによって1966年に作り出され
たコンピュータとの会話プログラムである.Eliza
のアルゴリズムは,入力文中の単語をキーワードとして
検索し,それに対して予め用意された応答文を出力する
ものである.キーワードが含まれていない入力文に対し
ては,答えることができないため,関係のない話題に逸
らす手法が取られている.Elizaをセラピストにし
たて,精神分析治療をシミュレートした会話例はよく知
られている.初期のElizaによる会話装置は,利用
者はテキスト(入力文)をキーボードから入力し,会話
装置からの応答文も同じくディスプレイなどにテキスト
として表示されるというものである.
【0003】また,会話装置からの応答を,テキストで
はなく,コンピュータの合成音声により行うものも提案
されている(http://www.vperson.
com/sylvie.html).この会話装置で
は,3次元コンピュータ・グラフィックスによりロボッ
トの顔の映像をディスプレイに表示し,応答の際に発せ
られる合成音声に同期して口部を動かすことで,人間と
対話している感覚に近づけている.
【0004】
【発明が解決しようとする課題】初期のElizaによ
る会話装置および方法は,テキストをベースに会話が成
り立っているため,人間と会話しているという感覚から
は程遠いものである.この問題を解決するため,会話装
置からの応答を,テキストではなく,コンピュータの合
成音声により行うものも提案されているが,利用者から
の入力がキーボードを用いたテキストであるいう問題が
残っている.また,応答文に応じた動きをするロボット
の顔のみの表示のため,身振りや手振りなどによる表現
ができないという問題もある.さらに,これら2つの従
来技術においては,Eliza(会話プログラム)やE
lizaを擬人化したロボットの人格なるものを変えた
り,利用者が話題を選択したり,事前に履歴情報,趣
味,家系図などを入力しておきデータベースとするなど
については考慮されていない.
【0005】本発明では,上述のような課題を持つ会話
装置および方法に対して,ハンズフリーな入力や,ロボ
ットの身振りや手振りなどによる表現を可能とし,ま
た,ロボットの人格なるものを変えたり,利用者が話題
を選択したり,事前に履歴情報,趣味,家系図,友人な
どを入力しておきデータベースとすることで,人間と対
話している感覚に近い会話が可能な会話装置および方法
を提供するものである.
【0006】
【課題を解決するための手段】利用者が音声を入力する
音声入力部と,入力された音声を認識する音声認識部
と,認識された音声から応答文を構築する応答文構築部
と,その構築された応答文を音声にする音声合成部と,
その合成音声を出力する合成音声出力部と,同じく構築
された応答文に応じた様々な動作をするロボットの映像
を生成する映像生成部と,その生成された映像をディス
プレイなどの表示デバイスに表示する映像表示部と,そ
れらの処理に必要なデータとして,応答文の集合である
台本データとロボット・データと個人情報データを格納
するデータ格納部とを備え,コンピュータ・グラフィッ
クスおよび音声認識・合成により,人間と対話している
感覚に近い会話を実現する.
【0007】
【発明の実施の形態】まず,本発明の会話装置について
説明する.
【0008】図1は,本発明による会話装置の構成例を
示しており,利用者10が音声を入力する音声入力部2
0と,入力された音声を認識する音声認識部30と,認
識された音声からElizaのアルゴリズムにより応答
文を構築する,すなわち,認識された結果である入力文
中のキーワードを検索し,それに対して予め用意された
応答文をデータ格納部90から探し出すことにより応答
文を構築する応答文構築部40と,その構築された応答
文を音声にする音声合成部50と,その合成音声を出力
する合成音声出力部60と,同じく構築された応答文に
応じた様々な動作をするロボットの映像を生成する映像
生成部70と,その生成された映像をディスプレイなど
の表示デバイスに表示する映像表示部80と,それらの
処理に必要なデータを格納するデータ格納部90とから
成る.
【0009】図16は,データ格納部90を示してい
る.映像表示部80に表示されるロボットに対して様々
な人格なるものを与えたり,色々な話題に対応させるた
めの応答文の集合である台本データ910と,映像表示
部80を介して応答文に応じた様々な動作を利用者10
に提供するための元データである3次元ロボット・デー
タ920と,利用者10の個人情報である個人情報デー
タ930とから成る.本実施例においては,ロボット・
データは3次元としたが,2次元であってもかまわない
ことは言うまでもない.
【0010】次に,本発明の会話方法について説明す
る.
【0011】まず,利用者10は,マイクなどの音声入
力部20を用いて映像表示部80に表示されるロボット
に話しかける.入力された音声は,音声認識部30で認
識され,応答文構築部40にその結果が渡される.応答
文構築部40では,Elizaのアルゴリズムにより応
答文を構築する.すなわち,認識された結果である入力
文中のキーワードを検索し,それに対して予め用意され
た応答文をデータ格納部90から探し出すことにより応
答文を構築する.この応答文を音声合成部50で音声に
し,スピーカなどの合成音声出力部60から音声化され
た応答文を出力する.さらに,応答文に応じた様々な動
作をするロボットの映像を映像生成部70で生成し,デ
ィスプレイなどの映像表示部80に出力する.この一連
の流れにより,利用者10と映像表示部80に表示され
るロボットとの会話が成立する.本実施例においては,
上述の通り入力を音声認識,出力を合成音声としたが,
従来のようにキーボード入力,テキストによる出力も可
能なことは言うまでもない.また,マウスからの選択入
力やディジタイザからの手書き文字の入力も可能なこと
は言うまでもない.さらに,出力を合成音声で行う場
合,タレント,有名人あるいは親,兄弟,子供,恋人等
の声を合成することができることは言うまでもない.
【0012】図2は,本発明による会話方法の会話例を
示している.入力文中に「風邪」というキーワードがあ
るので,それに対して用意された応答文(4)が出力さ
れる.また,入力文(7)や(9)にはキーワードが含
まれていないため,趣味について語りかけたり(8),
適当な応答をしている(10).このように,Eliz
aのアルゴリズムは,入力文中のキーワードを検索し,
それに対して用意された応答文を出力するものである.
この台本のようなものを書き換えることで,映像表示部
80に表示されるロボットに対し,様々な人格なるもの
を与えることができることは言うまでもない.例えば,
この台本を入れ替えることにより,タレント,有名人あ
るいは親,兄弟,子供,恋人などの人格を与えることも
可能である.また,利用者10が台本を選択すること
で,話題(ごまをすってほしい,楽しい話をしたい,愚
痴を聞いてほしい,野球の話をしたい,昔話を聞きた
い,など)を選ぶことも可能である.さらに,新聞記事
などをスキャナで読み取り,その結果を文字認識し台本
を作成することで,時事的話題に関する会話も可能とな
る.この台本データ910は,前記データ格納部90に
格納されている.
【0013】図3は,会話の内容を示すウィンドウの例
である.利用者10は,入出力手段にかかわらず,この
ウィンドウで会話の内容を確認することができる.
【0014】図4は,会話の履歴を示すウィンドウの例
である.会話中に,どのような会話をしたか,どんな話
題だったか,どんな質問をしたかなど,過去の会話の内
容が知りたい場合がある.利用者10は必要に応じてこ
のウィンドウを見ることで,会話を始めてから現在に至
るまでのやり取りを確認することができる.また,会話
履歴ウィンドウに表示される情報をログファイルとして
保存することも可能であることは言うまでもない.
【0015】図5は,映像表示部80に表示される3次
元コンピュータ・グラフィックスで表現されたロボット
を示している.このロボットは,応答文に応じた動きを
することができる.
【0016】図6から図13は,応答文に応じた様々な
ロボットの動作例を示している.図6は挨拶,図7はう
なずく,図8は首をかしげる,図9は万歳,図10は泣
く,図11は驚く,図12は笑う,図13は怒る動作を
示している.この動作の選択は,入力文中のキーワード
を元に行うか,または,入力文を形態素解析することに
よって,入力文中から動詞,形容詞,副詞を抽出するこ
とで行う.また,人間の顔の表情(喜怒哀楽など)や身
振り,手振りを計算機に取り込むことによりロボットの
動作に反映させることも可能であることは言うまでもな
い.
【0017】図14は,ログインダイアログを示してい
る.利用者10は,はじめに,このログインダイアログ
を用いて利用者10自身の名前を入力する.この操作の
後,利用者10は映像表示部80に表示されるロボット
との会話が可能となる.その入力した名前が過去に入力
されたものと一致した場合,既にデータ格納部90に保
存してある個人情報(履歴情報,趣味,家系図,友人な
ど)を読み込む.これにより,利用者10に特化した話
題にも対応できる.また,一致しなかった場合は,個人
情報データ930を作成するために個人情報入力ダイア
ログを開く.
【0018】図15は,個人情報入力ダイアログを示し
ている.本実施例では,生年月日,趣味,性別を入力し
ているが,この他,どのような個人情報でもかまわない
ことは言うまでもない.入力された個人情報はデータ格
納部90に格納される.
【0019】このように,本発明においては,ハンズフ
リーな入力や,ロボットの身振りや手振りなどによる表
現を可能とし,また,ロボットの人格なるものを変えた
り,利用者10が話題を選択したり,事前に履歴情報,
趣味,家系図,友人などを入力しておきデータベースと
することで,人間と対話している感覚に近い会話が可能
となる.
【0020】ここまでは,スタンドアローンで動く会話
装置について説明してきたが,電話やインターネットな
どネットワークを介して利用することもできることは言
うまでもない.また,会話の相手が複数のロボットであ
ってもかまわない.さらに,利用者10からの入力文を
形態素解析や構文解析することにより,意味理解や談話
解析を行い,その結果を応答文やコンピュータ・グラフ
ィックスで表現されたロボットの動作に反映することが
できる.Elizaのアルゴリズムへ形態素解析を適用
することの利点は,以下の通りである. A)形態素解析では,各単語,各品詞にコストが与えら
れており,そのコストによって文章を形態素に分解する
ので,入力文はほぼ適切に品詞分解される.よって,E
lizaのキーワード検索において,正確なキーワード
検索がしやすく,不自然な対話が生じにくい. B)形態素解析によって,形容詞,副詞,動詞が正確に
抽出できるので,3次元ロボットの動作へ,会話の内容
を反映させやすくなる. C)形態素解析によって分解された形態素は,活用する
品詞に関して,その読みと終止形が分かる.よって,E
lizaのキーワードのデータファイル(台本データ9
10)に終止形のみを登録しておけばよく,全ての活用
形を登録する必要はなくなる. D)名詞を正確に抽出することにより,同義語の取り扱
いが容易となる. E)入力文の意味を正確に理解する上で,Elizaに
構文解析を適用する際に有効に利用し得る.
【0021】応用例としては,例えば,利用者10が指
示を与え,それに従順に従うロボットや,複数のロボッ
トにサッカー,野球などをプログラムで実行させている
状態において,監督になったような感覚で色々指示を与
え,自分のチームをコントロールするなども考えられ
る.また,プログラムされたロボットのゴルフのスイン
グ(または,テニスのラケットの使い方)を音声などで
指示して矯正し,打球の変化の結果を示すなども考えら
れる.さらに,利用者10が日本語で話すと英語で答え
てくるようにし,英語が下手な人が,英会話の練習で利
用するなども考えられる.
【0022】
【発明の効果】本発明の会話装置および方法では,コン
ピュータ・グラフィックスおよび音声認識・合成を利用
者とのインターフェースとしているため,利用者が人間
と対話している感覚に近い形で会話することができる.
また,本発明におけるデータ格納部に格納されている夫
々のデータを入れ替えることにより,様々なロボットを
創り出すことができる.従って,一人でいるときの退屈
しのぎやドライブ中の眠気防止に役立つロボットなども
創り出すことが可能である.
【0023】
【図面の簡単な説明】
【図1】本発明による会話装置の構成例を示すブロック
図である.
【図2】本発明による会話方法の会話例を示す文章であ
る.
【図3】会話の内容を示すウィンドウである.
【図4】会話の履歴を示すウィンドウである.
【図5】3次元コンピュータ・グラフィックスで表現さ
れたロボットを示すウィンドウである.
【図6】応答文に応じたロボットの動作例1(挨拶)を
示すウィンドウである.
【図7】応答文に応じたロボットの動作例2(うなず
く)を示すウィンドウである.
【図8】応答文に応じたロボットの動作例3(首をかし
げる)を示すウィンドウである.
【図9】応答文に応じたロボットの動作例4(万歳)を
示すウィンドウである.
【図10】応答文に応じたロボットの動作例5(泣く)
を示すウィンドウである.
【図11】応答文に応じたロボットの動作例6(驚く)
を示すウィンドウである.
【図12】応答文に応じたロボットの動作例7(笑う)
を示すウィンドウである.
【図13】応答文に応じたロボットの動作例8(怒る)
を示すウィンドウである.
【図14】ログインダイアログを示すウィンドウであ
る.
【図15】個人情報入力ダイアログを示すウィンドウで
ある.
【図16】本発明による会話装置のデータ格納部を示す
模式図である.
【符号の説明】
10 利用者 20 音声入力部 30 音声認識部 40 応答文構築部 50 音声合成部 60 合成音声出力部 70 映像生成部 80 映像表示部 90 データ格納部 910 台本データ 920 3次元ロボット・データ 930 個人情報データ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551P 15/22 571U G06F 15/38 Z Fターム(参考) 5B091 AA11 AA15 CB12 CB24 CB32 CC01 DA06 EA02 5D015 KK03 KK04 LL05 5D045 AB01 AB21 9A001 DD13 HH17 HH18 HH26 HZ01 HZ13 HZ19 HZ29

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】利用者と会話をする装置であって,利用者
    が音声を入力する音声入力部と,入力された音声を認識
    する音声認識部と,認識された音声から応答文を構築す
    る応答文構築部と,その構築された応答文を音声にする
    音声合成部と,その合成音声を出力する合成音声出力部
    と,同じく構築された応答文に応じた様々な動作をする
    ロボットの映像を生成する映像生成部と,その生成され
    た映像をディスプレイなどの表示デバイスに表示する映
    像表示部と,それらの処理に必要なデータとして,応答
    文の集合である台本データとロボット・データと個人情
    報データを格納するデータ格納部とを備え,コンピュー
    タ・グラフィックスおよび音声認識・合成により,人間
    と対話している感覚に近い会話ができることを特徴とす
    る会話装置.
  2. 【請求項2】利用者と会話をする方法であって,利用者
    が音声を入力し,入力された音声を認識して入力文を作
    成し,その認識結果である入力文を元に応答文を構築
    し,その応答文を音声合成により音声化しその結果を出
    力すると共に,応答文に応じた様々な動作をするロボッ
    トの映像を,データ格納部に格納されているロボット・
    データを元に生成しその結果を出力することにより,コ
    ンピュータ・グラフィックスおよび音声認識・合成によ
    り,人間と対話している感覚に近い会話ができることを
    特徴とする会話方法.
  3. 【請求項3】前記応答文を,Elizaのアルゴリズム
    により構築する,すなわち,認識された結果である入力
    文中のキーワードを検索し,それに対して予め用意され
    た応答文をデータ格納部から探し出すことにより応答文
    を構築することを特徴とする請求項1乃至2のいずれか
    に記載の会話装置および方法.
  4. 【請求項4】前記ロボット・データを,3次元データと
    することを特徴とする請求項1乃至2のいずれかに記載
    の会話装置および方法.
  5. 【請求項5】前記データ格納部に格納されている台本デ
    ータを,利用者が追加または交換または削除することが
    できることを特徴とする請求項1乃至4のいずれかに記
    載の会話装置および方法.
  6. 【請求項6】請求項5において,台本データを追加また
    は交換することにより,会話装置の人格なるものかつ/
    または話題を変更することができることを特徴とする会
    話装置および方法.
  7. 【請求項7】前記データ格納部に格納されているロボッ
    ト・データを,利用者が追加または交換または削除する
    ことができることを特徴とする請求項1乃至4のいずれ
    かに記載の会話装置および方法.
  8. 【請求項8】請求項7において,ロボット・データを追
    加または交換することにより,前記ロボットの顔の表情
    かつ/または外観かつ/または身振りかつ/または手振
    りを変更することができることを特徴とする会話装置お
    よび方法.
  9. 【請求項9】前記データ格納部に格納されている個人情
    報データを,利用者が追加たは交換または削除すること
    ができることを特徴とする請求項1乃至4のいずれかに
    記載の会話装置および方法.
  10. 【請求項10】請求項9において,個人情報データを追
    加または交換することにより,特定個人に関する会話を
    することができることを特徴とする会話装置および方
    法.
  11. 【請求項11】前記応答文を構築する場合,前記入力文
    を形態素解析かつ/または構文解析した結果を利用する
    ことを特徴とする請求項1乃至4のいずれかに記載の会
    話装置および方法.
  12. 【請求項12】応答文に応じた様々な動作をする前記ロ
    ボットの映像を,データ格納部に格納されているロボッ
    ト・データを元に生成する場合,前記応答文を形態素解
    析した結果を利用することを特徴とする請求項1乃至4
    のいずれかに記載の会話装置および方法.
JP11103071A 1999-03-05 1999-03-05 会話装置および方法 Pending JP2000259601A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11103071A JP2000259601A (ja) 1999-03-05 1999-03-05 会話装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11103071A JP2000259601A (ja) 1999-03-05 1999-03-05 会話装置および方法

Publications (1)

Publication Number Publication Date
JP2000259601A true JP2000259601A (ja) 2000-09-22

Family

ID=14344433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11103071A Pending JP2000259601A (ja) 1999-03-05 1999-03-05 会話装置および方法

Country Status (1)

Country Link
JP (1) JP2000259601A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002031810A1 (fr) * 2000-10-11 2002-04-18 Sony Corporation Appareil de commande de robot
JP2002132404A (ja) * 2000-10-30 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> ロボットシステム、ロボット制御装置および方法、並びにロボット制御プログラムを記録した記録媒体
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP2002169804A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2002221992A (ja) * 2001-01-29 2002-08-09 Nec Corp 人物特定システム
JP2005003747A (ja) * 2003-06-09 2005-01-06 Cai Media Kyodo Kaihatsu:Kk 対話型ロボット及び対話システム
JP2006235671A (ja) * 2005-02-22 2006-09-07 Norinaga Tsukiji 会話装置及びコンピュータ読み取り可能な記録媒体。
JP2008158985A (ja) * 2006-12-26 2008-07-10 Sharp Corp 電子機器およびその制御方法
JP2013235548A (ja) * 2012-05-08 2013-11-21 Linfops Kk 脳型感情表現ロボットの制御方法
JP2014182307A (ja) * 2013-03-19 2014-09-29 Sharp Corp 音声認識システム、および発話システム
CN114882877A (zh) * 2017-05-12 2022-08-09 苹果公司 低延迟智能自动化助理
US11862151B2 (en) 2017-05-12 2024-01-02 Apple Inc. Low-latency intelligent automated assistant
US11984124B2 (en) 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002031810A1 (fr) * 2000-10-11 2002-04-18 Sony Corporation Appareil de commande de robot
KR100814569B1 (ko) * 2000-10-11 2008-03-17 소니 가부시끼 가이샤 로봇 제어 장치
US7203642B2 (en) 2000-10-11 2007-04-10 Sony Corporation Robot control apparatus and method with echo back prosody
JP2002132404A (ja) * 2000-10-30 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> ロボットシステム、ロボット制御装置および方法、並びにロボット制御プログラムを記録した記録媒体
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2002169804A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP4622106B2 (ja) * 2001-01-29 2011-02-02 日本電気株式会社 人物特定システム
JP2002221992A (ja) * 2001-01-29 2002-08-09 Nec Corp 人物特定システム
JP2005003747A (ja) * 2003-06-09 2005-01-06 Cai Media Kyodo Kaihatsu:Kk 対話型ロボット及び対話システム
JP2006235671A (ja) * 2005-02-22 2006-09-07 Norinaga Tsukiji 会話装置及びコンピュータ読み取り可能な記録媒体。
JP2008158985A (ja) * 2006-12-26 2008-07-10 Sharp Corp 電子機器およびその制御方法
JP2013235548A (ja) * 2012-05-08 2013-11-21 Linfops Kk 脳型感情表現ロボットの制御方法
JP2014182307A (ja) * 2013-03-19 2014-09-29 Sharp Corp 音声認識システム、および発話システム
CN114882877A (zh) * 2017-05-12 2022-08-09 苹果公司 低延迟智能自动化助理
US11862151B2 (en) 2017-05-12 2024-01-02 Apple Inc. Low-latency intelligent automated assistant
CN114882877B (zh) * 2017-05-12 2024-01-30 苹果公司 低延迟智能自动化助理
US11984124B2 (en) 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution

Similar Documents

Publication Publication Date Title
CN108962217B (zh) 语音合成方法及相关设备
US6526395B1 (en) Application of personality models and interaction with synthetic characters in a computing system
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
Lee et al. Nonverbal behavior generator for embodied conversational agents
Nagao et al. Speech dialogue with facial displays: Multimodal human-computer conversation
Sayers et al. The Dawn of the Human-Machine Era: A forecast of new and emerging language technologies.
KR20020067592A (ko) 개인 상호 작용을 시뮬레이트하고 유저의 정신 상태및/또는 인격에 응답하는 유저 인터페이스/엔터테인먼트장치
KR20020071917A (ko) 개인 상호 작용을 시뮬레이트하고 관련 데이터를 갖는외부 데이터베이스를 차징하는 유저인터페이스/엔터테인먼트 장치
JP7352115B2 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、非言語情報生成方法、非言語情報生成モデル学習方法及びプログラム
Ritschel et al. Irony man: Augmenting a social robot with the ability to use irony in multimodal communication with humans
US20160071302A1 (en) Systems and methods for cinematic direction and dynamic character control via natural language output
JP2000259601A (ja) 会話装置および方法
JP2006178063A (ja) 対話処理装置
JPWO2019160105A1 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JPWO2019160090A1 (ja) 非言語情報生成装置、方法、及びプログラム
JP2001249945A (ja) 感情生成方法および感情生成装置
Nijholt Conversational agents and the construction of humorous acts
JPWO2019160104A1 (ja) 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
Ishizuka et al. Describing and generating multimodal contents featuring affective lifelike agents with MPML
JP4508757B2 (ja) 応答生成プログラム、応答生成方法、および応答生成装置
DeMara et al. Towards interactive training with an avatar-based human-computer interface
Cerezo et al. Interactive agents for multimodal emotional user interaction
Gonzalez et al. Passing an enhanced Turing test–interacting with lifelike computer representations of specific individuals
Edlund In search for the conversational homunculus: serving to understand spoken human face-to-face interaction
Cordar et al. Making virtual reality social