JP2020047240A - インタラクティブ応答方法及びそれを利用するコンピュータ・システム - Google Patents

インタラクティブ応答方法及びそれを利用するコンピュータ・システム Download PDF

Info

Publication number
JP2020047240A
JP2020047240A JP2018227969A JP2018227969A JP2020047240A JP 2020047240 A JP2020047240 A JP 2020047240A JP 2018227969 A JP2018227969 A JP 2018227969A JP 2018227969 A JP2018227969 A JP 2018227969A JP 2020047240 A JP2020047240 A JP 2020047240A
Authority
JP
Japan
Prior art keywords
output data
computer system
interactive response
text
response method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018227969A
Other languages
English (en)
Inventor
永明 周
yong ming Zhou
永明 周
峰森 朱
feng sen Zhu
峰森 朱
政緯 李
Cheng-Wei Lee
政緯 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2020047240A publication Critical patent/JP2020047240A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Machine Translation (AREA)

Abstract

【課題】チャットボットがよりインタラクティブに応答できるようにするインタラクティブ応答方法及びコンピュータ・システムを提供する。【解決手段】インタラクティブ応答方法は、ユーザーから入力データを受信し、入力データに応じて出力データを生成し、出力データから複数の属性を取り出し、出力データの複数の属性に対応する複数のインタラクションを決定し、複数のインタラクションを非プレイヤー・キャラクタにより表現するステップを有する。入力データ及び出力データはテキストに関連している。【選択図】図2

Description

本発明はインタラクティブ応答方法及びそれを利用するコンピュータ・システムに関連し、特に、チャットボットがよりインタラクティブに応答できるようにするインタラクティブ応答方法及びコンピュータ・システムに関連する。
技術の進歩及び発展により、コンピュータ・システムとユーザーとの間の交流の要請が増えている。例えば、体性感覚ゲーム(somatosensory games)、仮想現実(virtual reality:VR)環境、オンライン・カスタマー・サービス、及びチャットボットのようなヒューマン・コンピュータ・インタラクション技術は、その利便性や効率に起因して人気が高まりつつある。そのようなヒューマン・コンピュータ・インタラクション技術はゲームやウェブサイトで使用されてもよいし、チャットボットは、コンピュータ・プログラム又は人工知能によりユーザーと聴覚又は文字による会話を行う一般的なヒューマン・コンピュータ・インタラクション技術のうちの1つである。例えば、チャットボットはユーザーに対して簡易なテキスト・メッセージ又はテキスト質問を返す。このように、チャットボットはテキストで簡易な質問や機械応答を返すことができるに過ぎず、そのような応答はチャットボットとユーザーとの間のインタラクションを制限している。従って従来技術に対する改善が必要とされている。
従って、本発明は、チャットボットとユーザーとの間のインタラクションを改善するインタラクティブ応答方法及びコンピュータ・システムを提供し、より良いユーザー体感を提供する。
本発明の実施形態はインタラクティブ応答方法を開示し、本方法は、ユーザーから入力データを受信するステップ;入力データに応じて出力データを生成するステップ;出力データから複数の属性(a plurality of attributes)を取り出すステップ;出力データの複数の属性に対応する複数のインタラクションを決定するステップ;及び複数のインタラクションを非プレイヤー・キャラクタ(a non-player character:NPC)により表現するステップを有し、入力データ及び出力データはテキストに関連している。
本発明の実施形態は、処理デバイスと、処理デバイスに結合され、プログラム・コードを保存するメモリ・デバイスとを有するコンピュータ・システムも開示し、プログラム・コードはインタラクティブ応答方法を実行するように処理デバイスに命令し、インタラクティブ応答方法は、ユーザーから入力データを受信するステップ;入力データに応じて出力データを生成するステップ;出力データから複数の属性を取り出すステップ;出力データの複数の属性に対応する複数のインタラクションを決定するステップ;及び複数のインタラクションを非プレイヤー・キャラクタにより表現するステップを有し、入力データ及び出力データはテキストに関連している。
本発明のこれら及びその他の対象は、様々な図及び図面に示される好適な実施形態についての以下の詳細な説明を理解した後に当業者に疑う余地なく更に明らかになるであろう。
図1は本発明の実施形態によるコンピュータ・システムの概略図である。
図2は本発明の実施形態によるインタラクティブ応答プロセスの概略図である。
図3は本発明の別の実施形態によるコンピュータ・システムの概略図である。
本発明の実施形態によるコンピュータ・システム10の概略図である図1を参照する。コンピュータ・システム10は、チャットボット102と、処理ユニット104と、テキスト・トゥ・ジェスチャー・ユニット106とを含む。チャットボット102はユーザーから入力を受信するように構成されている。例えば、ユーザーはチャットボットにテキスト・メッセージを入力するかもしれないし、ユーザーが話した言葉をテキストに翻訳するためにトランスレータが使用されるかもしれない。更に、チャットボット102は、入力データに応じて、テキスト・ベースの出力データを生成してもよい。処理ユニット104は、入力データから複数の属性を取り出すように構成されている。例えば、処理ユニット104は、感情(an emotion)、意図(an intention)、意味役割(a semantic role)、又は出力データのキーワードをリアル・タイムで取り出してもよい。テキスト・トゥ・ジェスチャー・ユニット106は、テキスト・ベースの出力データの属性に対応する複数のインタラクションを決定するように構成される。インタラクションは、アクション、表情(a facial expression)、凝視(a gaze)、テキスト、スピーチ、ジェスチャー、感情、又は動き(a movement)のうちの少なくとも何れかである。更に、出力データに対応するインタラクションが決定されると、そのインタラクションは非プレイヤー・キャラクタ(NPC)により表示される。従って、本発明のコンピュータ・システム10は、より良くユーザー体感を向上させるようにチャットボット及びNPCを組み込むことにより、ユーザーと交流し得る。
詳細に、本発明の実施形態によるインタラクティブ応答プロセス20の概略図である図2を参照する。インタラクティブ応答プロセス20は以下のステップを含む:
ステップ202:開始。
ステップ204:ユーザーから入力データを受ける。
ステップ206:入力データに応じて出力データを生成する。
ステップ208:出力データから属性を取り出す。
ステップ210:出力データの属性に対応するインタラクションを決定する。
ステップ212:非プレイヤー・キャラクタを通じてインタラクションを表示する。
ステップ214:終了。
ステップ204において、チャットボット102はユーザーから入力データを受信する。入力データは、テキストであってもよく、或いはユーザーにより発せられたスピーチ又は音声から翻訳されたテキストであってもよい。一実施形態において、ユーザーがゲーム環境にいる場合に、ユーザーは、チャットボット102に対してテキスト・メッセージを入力し、簡易な質問を尋ねてもよい。代替的に、ユーザーが音声を生成すると、その音声が、プログラムによってテキストに翻訳され、チャットボット102のための入力データとして使用されてもよい。
入力データ(例えば、テキスト)を受けた後、ステップ206において、チャットボット102は入力データに対応する出力データを速やかに生成するかもしれない。一例では、ユーザーにより入力された入力データが「お元気ですか(How are you)」である場合に、チャットボット102は「私は元気です(I’m fine)」という出力データを速やかに生成してもよく、それに応じてステップ208において出力データは属性を抽出するための基礎として使用されてもよい。ステップ208において、感情、意図、意味役割、又は出力データのキーワードのような属性を決定するために、出力データは検索される。一実施形態において、出力データは、コンピュータ・システム10の処理ユニット又はサーバーにより検索される。そのようにして処理ユニット104は、感情、意図、意味役割、又は出力データのキーワードを、出力データから同時に取り出してもよい。一例において、処理ユニット104は、チャットボット102により生成された出力データは出力データ中に悲しい感情を含んでいると判断し、その結果、悲しい感情を読み取る。同様に、処理ユニット104は、ユーザーが楽しい絵文字(a happy emoji)を送っている場合に、ユーザーはハッピーであると判断する。留意すべきことに、複数の感情、意図、意味役割、又はキーワードが出力データから取り出されてもよく、上記の例に限定されない。更に、処理ユニット104は、リアル・タイムでユーザーからテキスト・メッセージを処理及び検索するように、チャットボット、コンピュータ・システム10、又はサーバーに実装されてもよい。
ステップ210において、出力データの属性に対応するインタラクションが決定される。一実施形態において、出力データの属性に対応するインタラクションは、テキスト・トゥ・ジェスチャー・ユニット106により決定される。インタラクションは、アクション、表情、凝視、テキスト、スピーチ、ジェスチャー、感情、又は動きのうちの少なくとも何れかであり、仮想現実アバター(the virtual reality avatar)を通じて表示される。インタラクションは、テキスト・トゥ・ジェスチャー・ユニット106により採用されるルール・ベースのプロセス又は機械学習プロセスにより決定されてもよく、そのようなプロセスは、機械学習プロセス又はルール・ベースのプロセスに関する複数のトランスクリプト(a plurality of transcripts)及び複数のボディランゲージ(a plurality of body languages)を有する複数のビデオを収集する。より具体的には、ビデオは、トランスクリプト又はテキストに対応するインタラクションを決定及び保存するように、テキスト・トゥ・ジェスチャー・ユニット106をトレーニングするために使用されてよい。それとは別に、テキスト・トゥ・ジェスチャー・ユニット106は、ビデオの中で提示されるボディランゲージ又はトランスクリプトから、対応する属性を学習してもよい。例えば、ビデオの中で男が手を振って大声で笑っている場合、テキスト・トゥ・ジェスチャー・ユニット106は、楽しい感情が笑っている顔に対応することを、学習するかもしれない。代替的に、男が嫌悪の表情で「大嫌いだ(I hate you)」と言う場合、テキスト・トゥ・ジェスチャー・ユニット106は、「I hate you」が嫌いな感情に対応することを、学習するかもしれない。従って、テキスト・トゥ・ジェスチャー・ユニット106は、ユーザーが関連する言葉やフレーズを入力すると、出力データに従って対応する属性を自動的に識別し得る。
属性に対応するインタラクションが出力データから取り出された後、ステップ212において、インタラクションはNPCにより表示される。一実施形態において、NPCはステップ208で決定されたインタラクションを表す仮想現実アバターである。即ち、属性が悲しい感情である場合、NPCは、仮想現実アバターの表情を通じて、悲しい感情を表してもよい。この状況では、チャットボット102を通じてテキストによりユーザーへマシン・リプライを返すのではなく、チャットボット102は、テキスト・トゥ・ジェスチャー・ユニット106により決定されたインタラクションに応じて仮想現実アバターによりユーザーと交流し得る。
一実施形態において、コンピュータ・システム10は、スポークスマン又は企業のエージェントとして使用されてもよい。全ての企業が、顧客の質問に回答するために人工知能(AI)システムを採用する又はその余裕があるわけではないので、それに対して本発明によるコンピュータ・システム10は、感情、意図、意味役割、又はキーワードを、顧客が尋ねた質問から見抜くことができ、従って、コンピュータ・システム10は、顧客により入力されたテキストから属性を把握することにより、顧客の意図及び態度を理解し得る。このように、チャットボット102により応答が届けられるだけでなく、決定されたインタラクションも、顧客と交流するためにNPCにより表示される。従って、本発明のコンピュータ・システム10は、企業のエージェント又はスポークスマンであってもよく、企業の印象を改善することに寄与する。
本発明の一例によるコンピュータ・システム30の概略図である図3を参照する。コンピュータ・システム30は、上記のインタラクティブ応答プロセス20を実現するために使用されてよいが、それに限定されない。コンピュータ・システム30は、マイクロプロセッサ又は特定用途向け集積回路(ASIC)のような処理手段300と、ストレージ・ユニット310と、通信インターフェース・ユニット320とを含んでよい。ストレージ・ユニット310は、プログラム・コード312を保存することが可能な任意のデータ・ストレージ・デバイスであってもよく、そのプログラム・コード312は処理手段300によりアクセスされて実行される。ストレージ・ユニット310の具体例は、加入者識別モジュール(SIM)、リード・オンリ・メモリ(ROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、CD-ROM/DVD-ROM、磁気テープ、ハード・ディスク、及び光データ・ストレージ・デバイスを含むが、それらに限定されない。
留意すべきことに、上記の実施形態は本発明の概念を説明しており、当業者は適宜修正を施してもよく、本発明はそれらに限定されない。例えば、テキスト・ベースの出力データから属性を取り出すための判断は機械学習法に限定されず、機械学習法はビデオの収集に限定されず、他の方法によって実現されてもよく、それら全ては本発明の範囲に属する。
要するに、本発明は、チャットボットとユーザーとの間のインタラクションを改善するようにインタラクティブ応答方法及びコンピュータ・システムを提供し、それにより、NPCは、スピーチ、ボディ・ジェスチャ、及び感情の関わりとともにユーザーと交流し、より良いユーザー体感を提供する。
本発明の教示を保持しつつデバイス及び方法についての多くの変形及び代替が行われてよいことに、当業者は容易に気付くであろう。従って、上記の開示は添付の特許請求の範囲によってのみ規定されるように解釈されるべきである。

Claims (12)

  1. インタラクティブ応答方法であって:
    ユーザーから入力データを受信するステップ;
    前記入力データに応じて出力データを生成するステップ;
    前記出力データから複数の属性を取り出すステップ;
    前記出力データの前記複数の属性に対応する複数のインタラクションを決定するステップ;及び
    前記複数のインタラクションを非プレイヤー・キャラクタにより表現するステップ;
    を有し、前記入力データ及び前記出力データはテキストに関連している、インタラクティブ応答方法。
  2. 前記複数の属性は、感情、意図、意味役割、及び前記出力データのキーワードのうちの少なくとも何れかである、請求項1に記載のインタラクティブ応答方法。
  3. 前記非プレイヤー・キャラクタは仮想現実アバターである、請求項1に記載のインタラクティブ応答方法。
  4. 前記複数のインタラクションは、アクション、表情、凝視、テキスト、スピーチ、ジェスチャー、感情、又は動きのうちの少なくとも何れかであり、前記仮想現実アバターにより表示される、請求項3に記載のインタラクティブ応答方法。
  5. 前記複数のインタラクションは、機械学習プロセス又はルール・ベースのプロセスにより決定される、請求項1に記載のインタラクティブ応答方法。
  6. 複数のトランスクリプト及び複数のボディランゲージを有する複数のビデオが前記機械学習プロセスの間に収集される、請求項5に記載のインタラクティブ応答方法。
  7. 処理デバイスと、前記処理デバイスに結合され、プログラム・コードを保存するメモリ・デバイスとを有するコンピュータ・システムであって:
    前記プログラム・コードはインタラクティブ応答方法を実行するように前記処理デバイスに命令し、前記インタラクティブ応答方法は:
    ユーザーから入力データを受信するステップ;
    前記入力データに応じて出力データを生成するステップ;
    前記出力データから複数の属性を取り出すステップ;
    前記出力データの前記複数の属性に対応する複数のインタラクションを決定するステップ;及び
    前記複数のインタラクションを非プレイヤー・キャラクタにより表現するステップ;
    を有し、前記入力データ及び前記出力データはテキストに関連している、コンピュータ・システム。
  8. 前記複数の属性は、感情、意図、意味役割、及び前記出力データのキーワードのうちの少なくとも何れかである、請求項7に記載のコンピュータ・システム。
  9. 前記非プレイヤー・キャラクタは仮想現実アバターである、請求項7に記載のコンピュータ・システム。
  10. 前記複数のインタラクションは、アクション、表情、凝視、テキスト、スピーチ、ジェスチャー、感情、又は動きのうちの少なくとも何れかであり、前記仮想現実アバターにより表示される、請求項9に記載のコンピュータ・システム。
  11. 前記複数のインタラクションは、機械学習プロセス又はルール・ベースのプロセスにより決定される、請求項7に記載のコンピュータ・システム。
  12. 複数のトランスクリプト及び複数のボディランゲージを有する複数のビデオが前記機械学習プロセスの間に収集される、請求項11に記載のコンピュータ・システム。
JP2018227969A 2018-09-20 2018-12-05 インタラクティブ応答方法及びそれを利用するコンピュータ・システム Pending JP2020047240A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/137,529 2018-09-20
US16/137,529 US20200099634A1 (en) 2018-09-20 2018-09-20 Interactive Responding Method and Computer System Using the Same

Publications (1)

Publication Number Publication Date
JP2020047240A true JP2020047240A (ja) 2020-03-26

Family

ID=64665745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018227969A Pending JP2020047240A (ja) 2018-09-20 2018-12-05 インタラクティブ応答方法及びそれを利用するコンピュータ・システム

Country Status (5)

Country Link
US (1) US20200099634A1 (ja)
EP (1) EP3627304A1 (ja)
JP (1) JP2020047240A (ja)
CN (1) CN110929003A (ja)
TW (1) TW202013145A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091426A1 (ja) * 2020-10-29 2022-05-05 株式会社EmbodyMe 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム
KR102538759B1 (ko) * 2022-05-23 2023-05-31 가천대학교 산학협력단 메타버스플랫폼 내의 개인 맞춤형 식단 제공 챗봇을 제공하는 시스템 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102369559B1 (ko) * 2017-04-24 2022-03-03 엘지전자 주식회사 단말기
US11544886B2 (en) 2019-12-17 2023-01-03 Samsung Electronics Co., Ltd. Generating digital avatar

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218770A (ja) * 1996-02-14 1997-08-19 Toshiba Corp 対話処理装置および対話処理方法
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2015069231A (ja) * 2013-09-26 2015-04-13 Kddi株式会社 キャラクタ生成装置およびプログラム
US20180005646A1 (en) * 2014-12-04 2018-01-04 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7921214B2 (en) * 2006-12-19 2011-04-05 International Business Machines Corporation Switching between modalities in a speech application environment extended for interactive text exchanges
US8738739B2 (en) * 2008-05-21 2014-05-27 The Delfin Project, Inc. Automatic message selection with a chatbot
US8630961B2 (en) * 2009-01-08 2014-01-14 Mycybertwin Group Pty Ltd Chatbots
US8818926B2 (en) * 2009-09-29 2014-08-26 Richard Scot Wallace Method for personalizing chat bots
US8989786B2 (en) * 2011-04-21 2015-03-24 Walking Thumbs, Llc System and method for graphical expression during text messaging communications
US9536049B2 (en) * 2012-09-07 2017-01-03 Next It Corporation Conversational virtual healthcare assistant
US20140122083A1 (en) * 2012-10-26 2014-05-01 Duan Xiaojiang Chatbot system and method with contextual input and output messages
US20140122407A1 (en) * 2012-10-26 2014-05-01 Xiaojiang Duan Chatbot system and method having auto-select input message with quality response
US20140122618A1 (en) * 2012-10-26 2014-05-01 Xiaojiang Duan User-aided learning chatbot system and method
US20140122619A1 (en) * 2012-10-26 2014-05-01 Xiaojiang Duan Chatbot system and method with interactive chat log
US8832589B2 (en) * 2013-01-15 2014-09-09 Google Inc. Touch keyboard using language and spatial models
US9588591B2 (en) * 2013-10-10 2017-03-07 Google Technology Holdings, LLC Primary device that interfaces with a secondary device based on gesture commands
US9390706B2 (en) * 2014-06-19 2016-07-12 Mattersight Corporation Personality-based intelligent personal assistant system and methods
US9288303B1 (en) * 2014-09-18 2016-03-15 Twin Harbor Labs, LLC FaceBack—automated response capture using text messaging
US10274224B2 (en) * 2015-11-04 2019-04-30 Modine Manufacturing Company Discharge plenum for packaged HVAC unit
US20170250930A1 (en) * 2016-02-29 2017-08-31 Outbrain Inc. Interactive content recommendation personalization assistant
CN106503646B (zh) * 2016-10-19 2020-07-10 竹间智能科技(上海)有限公司 多模态情感辨识系统及方法
US20180197104A1 (en) * 2017-01-06 2018-07-12 Microsoft Technology Licensing, Llc Using an action-augmented dynamic knowledge graph for dialog management

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218770A (ja) * 1996-02-14 1997-08-19 Toshiba Corp 対話処理装置および対話処理方法
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
US20010042057A1 (en) * 2000-01-25 2001-11-15 Nec Corporation Emotion expressing device
JP2015069231A (ja) * 2013-09-26 2015-04-13 Kddi株式会社 キャラクタ生成装置およびプログラム
US20180005646A1 (en) * 2014-12-04 2018-01-04 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
JP2018503894A (ja) * 2014-12-04 2018-02-08 マイクロソフト テクノロジー ライセンシング,エルエルシー 対話型ダイアログシステムのための感情タイプの分類

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
塙 俊樹,他: "条件付き確率場を用いた発話テキストに対するジェスチャの推定", 電気学会論文誌C, vol. 136, no. 3, JPN6020002358, 1 March 2016 (2016-03-01), JP, pages 308 - 317, ISSN: 0004333316 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022091426A1 (ja) * 2020-10-29 2022-05-05 株式会社EmbodyMe 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム
JP2022071968A (ja) * 2020-10-29 2022-05-17 株式会社EmbodyMe 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム
JP7253269B2 (ja) 2020-10-29 2023-04-06 株式会社EmbodyMe 顔画像処理システム、顔画像生成用情報提供装置、顔画像生成用情報提供方法および顔画像生成用情報提供プログラム
KR102538759B1 (ko) * 2022-05-23 2023-05-31 가천대학교 산학협력단 메타버스플랫폼 내의 개인 맞춤형 식단 제공 챗봇을 제공하는 시스템 및 방법

Also Published As

Publication number Publication date
TW202013145A (zh) 2020-04-01
EP3627304A1 (en) 2020-03-25
US20200099634A1 (en) 2020-03-26
CN110929003A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
Xu et al. Long time no see! open-domain conversation with long-term persona memory
JP2020047240A (ja) インタラクティブ応答方法及びそれを利用するコンピュータ・システム
US11727220B2 (en) Transitioning between prior dialog contexts with automated assistants
US8954849B2 (en) Communication support method, system, and server device
CN112162628A (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
WO2018118546A1 (en) Systems and methods for an emotionally intelligent chat bot
US20210397645A1 (en) Image search method and apparatus, computer device, and storage medium
EP3619619A1 (en) Generating responses in automated chatting
CN107294837A (zh) 采用虚拟机器人进行对话交互的方法和系统
CN109324688A (zh) 基于虚拟人行为标准的交互方法及系统
WO2022017068A1 (zh) 信息处理方法、装置及设备
CN108470188B (zh) 基于图像分析的交互方法及电子设备
CN107657949A (zh) 游戏数据的获取方法及装置
CN104994000A (zh) 一种图像动态呈现的方法和装置
CN117033587A (zh) 人机交互方法、装置、电子设备及介质
CN110891201A (zh) 文本生成方法、装置、服务器和存储介质
WO2022089546A1 (zh) 标签生成方法、装置及相关设备
CN109388695A (zh) 用户意图识别方法、设备及计算机可读存储介质
JP7111154B2 (ja) 回答選択装置、回答選択方法、回答選択プログラム
CN114115533A (zh) 智能交互方法和装置
JP6988715B2 (ja) 回答文選択装置、方法、およびプログラム
CN113542653A (zh) 一种虚拟物品交互方法
Vīra et al. Towards the development of the multilingual multimodal virtual agent
Caschera et al. Multimodal interaction in gaming
CN115376512B (zh) 一种基于人物画像的语音识别系统及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200901