JP6803333B2 - 対話型ダイアログシステムのための感情タイプの分類 - Google Patents

対話型ダイアログシステムのための感情タイプの分類 Download PDF

Info

Publication number
JP6803333B2
JP6803333B2 JP2017528786A JP2017528786A JP6803333B2 JP 6803333 B2 JP6803333 B2 JP 6803333B2 JP 2017528786 A JP2017528786 A JP 2017528786A JP 2017528786 A JP2017528786 A JP 2017528786A JP 6803333 B2 JP6803333 B2 JP 6803333B2
Authority
JP
Japan
Prior art keywords
user
emotion type
fact
profile input
type code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017528786A
Other languages
English (en)
Other versions
JP2018503894A (ja
JP2018503894A5 (ja
Inventor
ウン,エドワード
レオン,マックス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2018503894A publication Critical patent/JP2018503894A/ja
Publication of JP2018503894A5 publication Critical patent/JP2018503894A5/ja
Application granted granted Critical
Publication of JP6803333B2 publication Critical patent/JP6803333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Description

[0001] 人為的対話型ダイアログシステムは、最先端の家庭用電子デバイスにおいてますます普及している機能である。たとえば、現在のワイヤレススマートフォンは、ユーザとリアルタイムの対話型会話を行うために、音声認識、対話型ダイアログ、および音声合成ソフトウェアを組み込み、こうしたサービスを情報およびニュース、リモートデバイスの構成およびプログラミング、会話の親密な関係などとして送達する。
[0002] ユーザがダイアログシステムとより自然でシームレスな会話を体験できるようにするために、意味論的コンテンツに加えて感情的コンテンツを有する音声または他の出力を生成することが望ましい。たとえば、ニュースを送達する、タスクをスケジューリングする、またはその他の方法でユーザと対話する場合、ユーザをより効果的に会話を行わせるために、合成された音声および/または他の出力に感情的特徴を付与することが望ましくなる。
[0003] したがって、対話型ダイアログシステムによって送達される意味論的コンテンツに付与するのに好適な感情を決定するため、および、このように決定された感情を複数の所定の感情タイプのうちの1つに従って分類するための、技法を提供することが望ましい。
[0004] 本課題を解決するための手段は、下記の発明を実施するための形態でさらに説明する概念の選択を簡略化された形で紹介するために提供される。本課題を解決するための手段は、請求する主題の主な機能または重要な機能を識別することを意図しておらず、請求する主題の範囲を限定するために使用されることも意図していない。
[0005] 簡単に言えば、本明細書で説明する主題の様々な態様は、対話型ダイアログシステム用の装置を提供するための技法を対象としている。ある態様において、モバイル通信デバイスが利用可能な事実またはプロファイル入力を以前または現在のユーザ入力と組み合わせて、対話型ダイアログシステムによって生成される出力ステートメントと関連付けるために適切な感情タイプコードを選択することができる。たとえば、事実またはプロファイル入力を、ユーザオンラインアクティビティ、ユーザ通信、カレンダおよびスケジューリング機能などの、デバイス使用のある態様から導出することができる。感情タイプコードを選択するためのアルゴリズムは、規則ベースとするか、または機械学習技法を使用して事前に構成することができる。感情タイプコードを出力ステートメントと組み合わせて、改善されたユーザ体験のための感情的特徴を有する合成音声を生成することができる。
[0006] 他の利点は、以下の詳細な説明および図面から明らかとなろう。
[0007]本開示の技法が適用可能なモバイル通信デバイスを採用するシナリオを示す図である。 [0008]デバイスのプロセッサおよび他の要素によって実行可能な処理の、例示的実施形態を示す図である。 [0009]ダイアログエンジンによって実行される処理の例示的実施形態を示す図である。 [0010]本開示に従った感情タイプ分類ブロックの例示的実施形態を示す図である。 [0011]ハイブリッド感情タイプ分類アルゴリズムの例示的実施形態を示す図である。 [0012]規則ベースアルゴリズムの例示的実施形態を示す図である。 [0013]規則ベースアルゴリズムの代替の例示的実施形態を示す図である。 [0014]感情タイプを選択するためにトレーニングされたアルゴリズムを導出するための、トレーニング方式の例示的実施形態を示す図である。 [0015]本開示に従った方法の例示的実施形態を示す図である。 [0016]前述の方法およびプロセスのうちの1つまたは複数を実行可能な、非限定的コンピューティングシステムを概略的に示す図である。 [0017]本開示に従った装置の例示的実施形態を示す図である。 [0018]表示テキストに、可聴音声ではなくまたは可聴音声に加えて感情的コンテンツが付与されるダイアログシステムに、本開示の技法が組み込まれる、例示的実施形態を示す図である。
[0019] 本明細書で説明する技術の様々な態様は、一般に、電子的対話型ダイアログシステム内の出力ステートメントに関連付けられた感情タイプコードを選択するための技術を対象としている。添付の図面に関して下記に示される詳細な説明は、本発明の例示的態様の説明として意図され、本発明が実施可能な単なる例示的態様を表すものとは意図されていない。本説明全体を通じて使用される「例示的」という用語は、「例、インスタンス、または図例として働くこと」を意味し、必ずしも他の例示的態様よりも好ましいかまたは有利であるものと解釈されるべきではない。詳細な説明は、本発明の例示的態様を完全に理解するための特定の細部が含まれる。当業者であれば、本発明の例示的態様がこれらの特定の細部なしで実施可能であることが明らかとなろう。いくつかのインスタンスにおいて、周知の構造およびデバイスは、本明細書に提示される例示的態様の新規性を曖昧にするのを避けるためにブロック図の形で示される。
[0020] 図1は、本開示の技法が適用可能なモバイル通信デバイス120を採用するシナリオを示す。図1は単なる例示の目的で示されており、本開示の範囲を、本開示をモバイル通信デバイスに適用することのみに限定することは意味していないことに留意されたい。たとえば、本明細書で説明する技法は、他のデバイスおよびシステムにおいて、たとえば、ノートブックおよびデスクトップのコンピュータのヒューマンインターフェースシステム、自動車ナビゲーションシステムなどにおいて、容易に適用可能である。こうした代替の適用例は、本開示の範囲内にあるものと企図される。
[0021] 図1において、ユーザ110は、モバイル通信デバイス120、たとえばハンドヘルドスマートフォンと通信する。スマートフォンは、音声通話、および、計算タスクの多様なアレイを実装するための比較的高度なマイクロプロセッサを用いたインターネットアクセスなどの、通信機能を統合した任意のモバイルデバイスを含むことが理解できよう。ユーザ110は、デバイス120上のマイクロフォン124に音声入力122を提供することができる。デバイス120内の1つまたは複数のプロセッサ125、および/またはネットワークを介して利用可能な(たとえば、クラウドコンピューティング方式を実装する)プロセッサ(図示せず)は、たとえば下記で図2を参照しながらさらに説明するような機能を実行する、マイクロフォン124によって受信された音声信号を処理することができる。プロセッサ125は、本明細書で単なる例示のために説明するような任意の特定の形、形状、または機能分割を有する必要がないこと、およびこうしたプロセッサは、一般に、当分野で既知の様々な技法を使用して実装可能であることに留意されたい。
[0022] プロセッサ125によって実行される処理に基づいて、デバイス120は、オーディオスピーカ128を使用して、音声入力122に応答する音声出力126を生成することができる。あるシナリオにおいて、デバイス120は、音声入力122とは無関係に音声出力126を生成することも可能であり、たとえばデバイス120は、自立的に警告を提供すること、または他のユーザ(図示せず)からのメッセージを音声出力126の形でユーザ110にリレーすることができる。例示的実施形態において、音声入力122に応答する出力は、たとえば、テキスト、グラフィックス、アニメーションなどとして、デバイス120のディスプレイ129上に表示することもできる。
[0023] 図2は、デバイス120のプロセッサ125および他の要素によって実行可能な対話型ダイアログシステム200の、例示的実施形態を示す図である。図2に示される処理は、単なる例示のためのものであり、本開示の範囲を図2に示される動作の任意の特定のシーケンスまたはセットに制限するものではないことに留意されたい。たとえば、代替の例示的実施形態において、感情タイプコードを選択するための本明細書で開示されるある技法は、図2に示される処理に関係なく適用可能である。さらに、図2に示される1つまたは複数のブロックは、システムにおける特定の機能分割に応じて組み合わせるかまたは省略することが可能であるため、図2は、図示されるブロックのいかなる機能的な依存性または独立性をも示唆するものではない。こうした代替の例示的実施形態は、本開示の範囲内であるものと企図される。
[0024] 図2において、ブロック210で音声入力が受信される。音声入力210は、たとえばデバイス120上のマイクロフォン124から導出される音響信号を表す波形に対応し得る。音声入力210の出力210aは、音声コンテンツを含む音響波形のデジタル化バージョンに対応し得る。
[0025] ブロック220で、出力210aに対して音声認識が実行される。例示的実施形態において、音声認識220は、出力210a内に存在するような音声をテキストに変換する。音声認識220の出力220aは、それに応じて、デジタル化された音響波形出力210a内に存在する音声のテキスト表現に対応し得る。たとえば、マイクロフォン124によって拾われるような出力210aが、「明日の天気はどうですか」などの人間の発話のオーディオ波形表現を含む場合、音声認識220は、その音声認識機能に基づいて、「明日の天気はどうですか」というテキストに対応するASCIIテキスト(または他のテキスト表現)を出力することができる。ブロック220によって実行されるような音声認識は、たとえば、隠れマルコフモデル(HMM)、ニューラルネットワークなどを含む、音響モデリング技法および言語モデリング技法を使用して実行可能である。
[0026] ブロック230で、出力210aの予測される自然言語の知識に基づいて、音声認識220の出力220aに対して言語理解が実行される。例示的実施形態において、構文解析および文法的解析などの自然言語理解技法は、出力220aにおけるテキストの意図された意味を導出するために、たとえば形態および構文の知識を使用して実行可能である。言語理解230の出力230aは、出力220a内に存在する音声の意味論的および/または感情的コンテンツの形式的表現を含むことができる。
[0027] ブロック240で、ダイアログエンジンは、出力230aから決定されたように音声に対して好適な応答を生成する。たとえば、ユーザ音声入力が特定の地理の天気に関するクエリに対応することを、言語理解230が決定した場合、ダイアログエンジン240は、たとえば天気予報サービスまたはデータベースなどのソースから、必要な天気情報を取得およびアセンブルすることができる。たとえば、取り出された天気情報は、天気予報に関する時刻/日付コード、「晴れ」の天気に対応する天気タイプコード、および72度(摂氏22.2度)の平均気温を示す温度フィールドに対応することができる。
[0028] 例示的実施形態において、ダイアログエンジン240は、ユーザによる迅速な理解のために提示できるように、取り出された情報をさらに「パッケージング」することができる。したがって、ダイアログエンジン240の意味論的コンテンツ出力240aは、「今日の天気は晴れ、気温72度」などの、意味論的コンテンツの表現に対応することができる。
[0029] 意味論的コンテンツ240aに加えて、ダイアログエンジン240は、意味論的コンテンツ240aに関連付けられた感情タイプコード240bをさらに生成することができる。感情タイプコード240bは、出力音声としてユーザに送達される時に意味論的コンテンツ240aに付与するための、特定タイプの意味論的コンテンツを示すことができる。たとえば、ユーザがある日のピクニックを計画している場合、感情的に陽気な調子の声で晴れの天気予報を同時に伝えることができる。この場合、感情タイプコード240bは、「中程度の幸せ」に対応する感情コンテンツタイプと言い表すことができる。対話型ダイアログシステム200が利用可能なデータ、事実、および入力に基づいて、感情タイプコード240bを生成するための技法について、たとえば図3を参照しながら下記でさらに説明する。
[0030] ブロック250で、ダイアログエンジン240の出力240a、240bに対して言語生成が実行される。言語生成は、人間のユーザによる迅速な理解のために、ダイアログエンジン240の出力を、たとえば語彙および文法規則に従ったターゲット言語でのセンテンスなど、自然言語形式で提示する。たとえば、意味論的コンテンツ240aに基づいて、言語生成250は、「今日の天気は晴れ、72度になるでしょう」というステートメントを生成することができる。
[0031] 例示的実施形態において、ブロック250は、システムパーソナリティブロック255から入力255aをさらに受け入れることができる。システムパーソナリティブロック255は、対話型ダイアログシステムに関して事前に選択された「パーソナリティ」に従って、ダイアログエンジンについてデフォルトパラメータ255aを指定することができる。たとえば、システムパーソナリティが「男性」または「女性」、あるいは「明朗」または「思慮深い」ものと選択された場合、ブロック255は、システムパーソナリティに対応するパラメータを基準入力255aとして指定することができる。ある例示的実施形態において、ブロック255を省略するか、またはその機能を他のブロック、たとえばダイアログエンジン240または言語生成ブロック250に組み込むことが可能であり、こうした代替の例示的実施形態は、本開示の範囲内にあるものと企図されることに留意されたい。
[0032] 例示的実施形態において、言語生成ブロック250は、意味論的コンテンツ240a、感情タイプコード240b、およびデフォルトの感情パラメータ255aを組み合わせて、出力ステートメント250aを合成することができる。たとえば、「中程度の幸せ」に対応する感情タイプコード240bは、ブロックに、「素晴らしいニュース、今日の天気は晴れ、72度になるでしょう!」などの、自然言語(たとえば英語)のセンテンスを生成させることができる。出力ステートメント250aに対応するオーディオ音声を生成するために、後続のテキスト−音声ブロック260に言語生成ブロック250の出力ステートメント250aが提供される。
[0033] ある例示的実施形態において、上記で説明した言語生成ブロック250のいくつかの機能が省略できることに留意されたい。たとえば、言語生成ブロック250は、必ずしも出力ステートメント250aを生成する際に感情タイプコード240bを反映するとは限らず、代わりに、合成された音声出力の完全な感情コンテンツを提供するために、テキスト−音声ブロック260(感情タイプコード240bにもアクセスできる)に依拠することができる。さらに、ダイアログエンジンによって取り出された情報がすでに自然言語形式である、あるインスタンスにおいて、言語生成ブロック250を効果的にバイパスすることができる。たとえば、ダイアログエンジン240によってアクセスされるインターネット天気サービスは、天気更新を英語などの自然言語で直接提供することができるため、言語生成250は、必ずしも意味論的コンテンツ240a上でいかなる実質的な事後処理をも実行する必要がない場合がある。こうした代替の例示的実施形態は、本開示の範囲内にあるものと企図される。
[0034] ブロック260で、言語生成250の出力250aに対してテキスト−音声変換が実行される。例示的実施形態において、250aに対応するテキストコンテンツおよび感情タイプコード240bに対応する感情コンテンツを有する音声を合成するために、感情タイプコード240bはTTSブロック260にも提供される。テキスト−音声変換260の出力はオーディオ波形とすることができる。
[0035] ブロック270で、テキスト−音声変換260の出力から音響出力が生成される。デバイス120のスピーカ128によって、リスナー、たとえば図1のユーザ110に、音声出力を提供することができる。
[0036] 対話型ダイアログシステムがますます高度になるにつれて、こうしたシステムによって生成される音声に好適な感情タイプコードおよび他のタイプの出力を効果的に選択するための技法を提供することが望ましくなる。たとえば、意味論的コンテンツ240aと共に感情タイプコード240bを提供することによって提案されるように、ある適用例では、音声出力270が感情的に中立なテキスト表現として生成されるだけでなく、リスナーに送達される時に事前に指定された感情コンテンツを組み込むことも望ましい。したがって、適切な感情コンテンツが音声出力270内に存在するものとユーザ110が知覚するように、出力ステートメント250aを好適な感情タイプコード240bに関連付けることができる。
[0037] たとえば、ある野球チームがワールドシリーズで勝ったという情報に意味論的コンテンツ240aが対応し、さらにユーザ110がその野球チームのファンであるように、ダイアログエンジン240が指定する場合、ユーザの感情状態に合致させるために「興奮」(たとえば、中立または不幸せ、の反対として)を表すように感情タイプコード240bを選択することで、結果としてユーザ110の対話体験をより満足のいくものにする可能性がある。
[0038] 図3は、適切な意味論的コンテンツならびに関連付けられた感情タイプコードを生成するために、ダイアログエンジン240によって実行される処理の例示的実施形態240.1を示す。図3は単なる例示のために示されており、本開示の範囲を本明細書で説明する技法の任意の特定の適用例に限定するものではないことに留意されたい。
[0039] 図3において、ダイアログエンジン240.1は、意味論的コンテンツ生成ブロック310と、本明細書では「分類ブロック」とも呼ばれる感情タイプ分類ブロック320とを含む。ブロック310および320のどちらにもユーザダイアログ入力230aが提供され、これは、現在または任意の以前のダイアログセッションにおいて、ユーザ110によって1つまたは複数のステートメントまたはクエリ上で実行される言語理解230の出力を含むことができる。特に、意味論的コンテンツ生成ブロック310は、ユーザに送達されることになる情報に対応する意味論的コンテンツ240.1aを生成する一方で、感情タイプ分類ブロック320は、意味論的コンテンツ240.1aに付与されることになる、感情タイプコード240.1bによって表される適切な感情タイプを生成する。ユーザダイアログ入力230aは、たとえばローカルデバイスメモリ上の履歴ファイル内などに記憶されるような、現在または以前のダイアログセッションからのユーザ入力のうちのいずれかまたはすべてを含むものと理解できることに留意されたい。
[0040] ユーザダイアログ入力230aに加えて、ブロック320にはさらに「事実またはプロファイル」入力301が提供され、これは、その上にダイアログエンジン240.1が実装されるデバイスの使用から導出されるパラメータを含むことができる。感情タイプ分類ブロック320は、たとえば、下記でさらに開示される機械学習技法に従ってオフラインでトレーニングされたパラメータを備える、1つまたは複数のアルゴリズムに従った事実またはプロファイル入力301およびユーザダイアログ入力230aの組み合わせに基づいて、適切な感情タイプコード240.1bを生成することができる。例示的実施形態において、感情タイプコード240.1bは、感情(たとえば、「幸せ」など)、ならびに(たとえば、1〜5の数字のうち、「非常に幸せ」を示す5を用いて)その感情が表される程度を示す程度インジケータを、含むことができる。例示的実施形態において、感情タイプコード240.1bは、出力音声に付与することが可能な複数の所定の感情タイプのうちの1つを指定するために、感情マークアップ言語(EmotionML)で指定されるような形式で表すことができる。
[0041] スマートフォンなどの現在の消費者デバイスについて、現在の傾向は、多様な機能セットを、ユーザによって頻繁に、またしばしば継続的に持ち運ばれる単一のモバイルデバイスに統合した、不可欠なパーソナルアシスタントの役割を担うためのものになりつつあることに留意されたい。多種多様な目的(たとえば、音声通信、インターネットアクセス、スケジュールプランニング、レクリエーションなど)のための単一のユーザによるこうしたデバイスの反復使用により、対話型ダイアログシステム200による、感情タイプコード240.1bを選択するための膨大な関連データへの潜在的なアクセスが可能となる。たとえば、スマートフォン用の位置サービスが実行可能な場合、ある期間にわたるユーザの地理的位置に関するデータを使用して、たとえば、地元のスポーツチームのファンである、または、ある地域内の新しいレストランに行ってみる傾向があるなど、ユーザの地理的プリファレンスを推測することができる。関連データを生成するシナリオの使用の他の例には、トピックまたはキーワード検索を実行するためにスマートフォンを使用してインターネットにアクセスすること、カレンダの日付またはアポイントメントをスケジューリングすること、デバイスの初期設定時にユーザプロファイルをセットアップすることなどが含まれるが、これらに限定されない。こうしたデータは、ユーザ110との対話型ダイアログセッション中に、意味論的コンテンツ240.1aに付与するのに適切な感情タイプコード240.1bを評価するために、ダイアログシステムによって集合的に利用可能である。こうした使用シナリオに鑑み、対話型ダイアログシステムを実装するモバイル通信デバイスの使用から、少なくとも1つあるいは複数の事実またはプロファイル入力301を導出することが、特に有利である。
[0042] 図4は、本開示に従った感情タイプ分類ブロックの例示的実施形態320.1を示す。図4において、デバイス120によって取得可能な例示的な事実またはプロファイル入力301.1は、感情タイプ分類のタスクに関連するようにシステム設計者によって選択された複数の事実またはプロファイルパラメータ402〜422を含む。例示的な事実またはプロファイル入力301.1は、単なる例示のために与えられていることに留意されたい。代替の例示的実施形態において、事実またはプロファイル入力301.1の個々のパラメータのうちのいずれかを省略すること、および/または、図4に示されていない他のパラメータを追加することが可能である。パラメータ402〜422は、必ずしもパラメータの互いに素なクラスを記述するものではなく、すなわち、感情タイプ分類ブロック320.1によって使用される単一タイプの入力が、入力402〜422の2つまたはそれ以上のカテゴリに同時に入る可能性がある。こうした代替の例示的実施形態は、本開示の範囲内にあるものと企図される。
[0043] ユーザ構成402は、感情タイプ分類に役立つデバイス120にユーザ110によって直接入力される情報を含む。例示的実施形態において、デバイス120のセットアップ中、または一般にデバイス120の動作中、ユーザ110は一連のプロファイル問題に答えるように求められる可能性がある。たとえばユーザ110は、年齢および性別、趣味、関心、好きな映画、スポーツ、性格特性などに関して問われる可能性がある。いくつかのインスタンスにおいて、ユーザの性格特性(たとえば、外向性または内向性、支配的または従順など)に関する情報は、パーソナリティプロファイルのアンケートからの質問を問うことによって推測可能である。ユーザ構成402からの情報は、感情タイプコード240.1bを選択するために、感情タイプ分類ブロック320.1によって後で使用するために記憶することができる。
[0044] ユーザオンラインアクティビティ404は、インターネットまたは他のネットワークとの間でデバイス120を介して伝送される、インターネット使用統計および/またはデータのコンテンツを含む。例示的実施形態において、オンラインアクティビティ404は、たとえばデバイス120を介してウェブ検索エンジンにサブミットされるような、ユーザ検索クエリを含むことができる。ユーザ検索クエリのコンテンツは留意され、同様のクエリの頻度および/またはタイミングなどの他の統計とすることができる。例示的実施形態において、オンラインアクティビティ404は、頻繁にアクセスされるウェブサイトの識別、電子メールメッセージのコンテンツ、ソーシャルメディアウェブサイトへの投稿を、さらに含むことができる。
[0045] ユーザ通信406は、デバイス120を使用して実行されるテキストまたは音声の通信を含む。こうした通信は、たとえば、ショートメッセージングサービス(SMS)を介して送信されるテキストメッセージ、ワイヤレスネットワークを介する音声通話などを含むことができる。ユーザ通信406は、ネイティブまたは第三者のソーシャルメディアネットワーク、たとえば、デバイス120を使用してユーザ110によってアクセスされるインターネットウェブサイト上でのメッセージング、あるいは、インスタントメッセージングまたはチャットアプリケーションなどを含むこともできる。
[0046] ユーザ位置408は、たとえば、1つまたは複数のセルラー基地局、または、インターネットベースの位置サービスが実行可能な場合はこうしたサービスとの、ワイヤレス通信を介して、デバイス120が利用可能なユーザ位置の記録を含むことができる。ユーザ位置408はさらに、たとえばユーザが家または職場、車内、混雑した環境、会議室にいる場合など、ユーザの位置コンテキストを指定することができる。
[0047] カレンダ/スケジューリング機能/現地の日付および時刻410は、ユーザのアクティビティのスケジュールに基づく感情分類に関連するような時刻情報を含むことができる。たとえば、こうした情報は、パーソナルスケジューリングオーガナイザとしてのユーザ110によるデバイス120の使用を前提とすることができる。例示的実施形態において、ユーザのカレンダ上の時間セグメントが利用可能であるかまたは利用不可であるかは、感情タイプの分類に関連するものであり得る。さらに、今後のアポイントメントの性質、たとえばスケジュールされた休暇または重要な商談も、関連するものであり得る。
[0048] カレンダ/スケジューリング機能/現地の日付および時刻410は、ある時間がユーザの勤務時間と重複するかどうか、または現在の日付が週末に対応するかどうかなどの情報を、さらに組み込むことができる。
[0049] ユーザ感情状態412は、ユーザのリアルタイムの感情状態の決定に関するデータを含む。こうしたデータは、ダイアログシステムに対するユーザの発話のコンテンツ、ならびに音声パラメータ、生理的信号などを含むことができる。感情認識技術は、デバイス120上の様々なセンサ(たとえば、物理センサ入力420)によって感知されるような、たとえば、ユーザの会話、顔の表情、デバイス120との間で通信される最近のテキストメッセージ、体温および心拍数を含む生理的兆候などを感知することによって、ユーザの感情を推測する際に、さらに利用することができる。
[0050] デバイス使用統計414は、ユーザ110がどの程度頻繁にデバイス120を使用するか、ユーザがどの程度の期間、何の目的でデバイス120を使用したかなどに関する、情報を含むことができる。例示的実施形態において、一日を通じたユーザのデバイス120との対話の時間および頻度、ならびにそれらの対話中に、使用されたアプリケーション、または閲覧されたウェブサイトを、記録することが可能である。
[0051] オンライン情報リソース416は、オンライン情報源から取得されるような、ユーザの関心に関するニュースまたはイベントを含むことができる。たとえば、ユーザ110がスポーツチームのファンであるという決定に基づいて、オンライン情報リソース416は、そのスポーツチームが最近試合に勝ったというニュースを含むことができる。代替として、たとえば、ユーザ110があるタイプの料理を好むことが決定された場合、オンライン情報リソース416は、ユーザの家の近くにそのタイプの新しいレストランが開店したばかりであるというニュースを含むことができる。
[0052] デジタルアシスタント(DA)パーソナリティ418は、ダイアログシステムに関するパーソナリティプロファイルを指定することができるため、ユーザによるダイアログシステムとの対話は、人間のアシスタントとの対話をより厳密に模倣することになる。DAパーソナリティプロファイルは、たとえば、DAが外向性であるか内向性であるか、支配的であるか従順であるか、またはDAの性別を指定することができる。たとえば、DAパーソナリティ418は、デジタルアシスタントに対して女性の明朗なパーソナリティに対応するプロファイルを指定することができる。この機能は、図2を参照しながら上記で説明したようなシステムパーソナリティブロック255の代替として、またはこれに関連して提供することができることに留意されたい。
[0053] 物理センサ入力420は、デバイス120の物理パラメータを感知するためのデバイス120上のセンサから導出される信号を含むことができる。たとえば、物理センサ入力420は、たとえばユーザ110が現在歩いているかまたは車中にいるかを決定するために、デバイス120内の加速度計および/またはジャイロスコープからのセンサ信号を含むことができる。ユーザの現在の移動状況の知識は、適切な感情応答の生成に役立つ感情タイプ分類ブロック320.1に情報を提供することができる。物理センサ入力420は、たとえば、背景雑音に基づいて環境の特徴を推測するためなどに、デバイス120上のマイクロフォンまたは他の音響録音デバイスからのセンサ信号も含むことができる。
[0054] 会話履歴422は、ユーザとデジタルアシスタントとの間での現在および過去の会話の任意の録音を含むことができる。
[0055] 事実またはプロファイル入力301.1ならびにユーザダイアログ入力230aは、感情タイプ分類ブロック320.1の感情タイプ分類アルゴリズム450への入力として提供することができる。感情タイプ分類アルゴリズム450は、特定の事実またはプロファイル入力301.1およびユーザダイアログ入力230aによって指定された多次元ベクトルを、たとえば適切な感情タイプおよび対応するその感情の程度を指定する、感情タイプコード240.1bの特定の出力決定にマッピングすることができる。
[0056] 図5は、ハイブリッド感情タイプ分類アルゴリズムの例示的実施形態450.1を示す。図5は、単なる例示のために示されており、本開示の範囲を図示された任意の特定タイプのアルゴリズムに限定するものではないことに留意されたい。
[0057] 図5において、感情タイプ分類アルゴリズム450.1は、感情タイプを選択するために使用されることになる少なくとも1つのアルゴリズムを選択するための、アルゴリズム選択ブロック510を含む。例示的実施形態において、少なくとも1つのアルゴリズムは、規則ベースアルゴリズム512およびトレーニング済みアルゴリズム514を含む。規則ベースアルゴリズム512は、ダイアログシステムの設計者によって指定されたアルゴリズムに対応可能であり、一般に、所与の感情タイプを特定のシナリオ、事実、プロファイル、および/またはユーザダイアログ入力に割り当てるために、設計者によって見分けられるような基本的原理に基づくものとすることができる。他方で、トレーニング済みアルゴリズム514は、そのパラメータおよび機能的マッピングが、たとえばオフラインで大規模セットのトレーニングデータから導出される、アルゴリズムに対応可能である。トレーニング済みアルゴリズム514内の入力と出力との間の相互関係は、規則ベースアルゴリズム512内よりもシステム設計者に対してトランスペアレントでない可能性があり、トレーニング済みアルゴリズム514は一般に、アルゴリズムトレーニングから決定されるような変数間のより複雑な相互依存性を捕らえ得ることを理解されよう。
[0058] 図5に見られるように、規則ベースアルゴリズム512およびトレーニング済みアルゴリズム514はどちらも、入力として事実またはプロファイル入力301.1およびユーザダイアログ入力230aを受け入れることができる。アルゴリズム選択ブロック510は、任意のインスタンスにおいて感情タイプコード240.1bを選択するために使用するように、アルゴリズム512または514のうちの適切な1つを選択することができる。たとえば、値の所定のセットに対応する事実またはプロファイル入力301.1および/またはユーザダイアログ入力230aに応答して、選択ブロック510は、トレーニング済みアルゴリズム514の代わりに特定の規則ベースアルゴリズム512を実装することを選択するか、またはその逆を選択することができる。例示的実施形態において、たとえば、基本的原理に基づくそれらの設計が結果としてあるインスタンスにおいて、感情タイプのより正確な分類を生じさせる場合に、規則ベースアルゴリズム512が、あるケースではトレーニング済みアルゴリズム514よりも好ましい可能性がある。規則ベースアルゴリズム512は、たとえば、あるタイプのトレーニング済みアルゴリズム514を設計するために十分なトレーニングデータが利用できないというあるシナリオにおいても、好ましい可能性がある。例示的実施形態において、特定の入力セットに基づいて予測される応答を導出することが設計者にとって相対的に容易である場合、規則ベースアルゴリズム512を選択することができる。
[0059] 図6は、規則ベースアルゴリズムの例示的実施形態600を示す。図6は単なる例示のために示されており、本開示の範囲を、規則ベースアルゴリズム、規則ベースアルゴリズムの任意の特定の実装、あるいは、事実またはプロファイル入力301.1または感情タイプ240bについての任意の特定の形式またはコンテンツに、限定するものではないことに留意されたい。
[0060] 図6において、意思決定ブロック610で、ユーザ感情状態412が「幸せ」であるかどうかが決定される。幸せでない場合、アルゴリズムはブロック612に進み、感情タイプコード240bを「中立」に設定する。幸せである場合、アルゴリズムは意思決定ブロック620に進む。
[0061] 意思決定ブロック620で、ユーザ構成402のパーソナリティパラメータ402.1が「外向性」であるかどうかがさらに決定される。外向性でない場合、アルゴリズムはブロック622に進み、感情タイプコード240bを、感情タイプ「興味あり」の程度が1であることを示す「興味あり(1)」に設定する。外向性である場合、アルゴリズムはブロック630に進み、感情タイプコード240bを「幸せ(3)」に設定する。
[0062] 規則ベースアルゴリズム600は、外向性のユーザは、より陽気または「より幸せ」な感情タイプを表すダイアログシステムに関心を持ちやすいという想定の下で、ユーザのパーソナリティに基づいて、選択的に感情タイプコード240bを設定することを理解されよう。さらに規則ベースアルゴリズム600は、現在幸せなユーザは、同じく幸せな感情タイプを有するシステムにより積極的に応答するという想定のもので、現在のユーザ感情状態に基づいて感情タイプコード240bを設定する。代替の実施形態において、感情タイプコード240bを事実またはプロファイル入力301.1の他のパラメータおよび値に関連付けるように、本明細書で明示的に説明していない他の規則ベースアルゴリズムを容易に設計することができる。
[0063] アルゴリズム600によって示されるように、感情タイプコード240bの決定は、必ずしも常に、事実またはプロファイル入力301.1およびユーザダイアログ入力230aにおけるすべての利用可能パラメータを利用するわけではない。特にアルゴリズム600は、ユーザ感情状態412およびユーザ構成402のみを利用する。利用可能パラメータの任意のサブセットを利用するアルゴリズムのこうした例示的実施形態、ならびに、本明細書で明示的に説明していないパラメータを利用するアルゴリズムの代替の例示的実施形態は、本開示の範囲内にあるものと企図される。
[0064] 図7は、規則ベースアルゴリズムの代替の例示的実施形態700を示す。図7において、意思決定ブロック710で、ユーザダイアログ入力230aが更新されたニュースに関するユーザによるクエリに対応するかどうかが決定される。対応する場合、アルゴリズムは意思決定ブロック720に進む。
[0065] 意思決定ブロック720で、ユーザ感情状態412が「幸せ」であるかどうか、またさらに、オンライン情報リソース416が、ユーザのお気に入りのスポーツチームが試合に勝ったばかりであることを示すかどうかが、決定される。例示的実施形態において、ユーザのお気に入りのスポーツチームは、事実またはプロファイル入力301.1の他のパラメータから、たとえば、ユーザ構成402、ユーザオンラインアクティビティ404、カレンダ/スケジューリング機能410などから、それ自体を導出することができる。意思決定ブロック720の出力が肯定の場合、アルゴリズムはブロック730に進み、感情タイプコード240bは「興奮(3)」に設定される。
[0066] 感情タイプコード240bを選択するための規則ベースアルゴリズムに加えて、感情タイプ分類アルゴリズム450.1は、代替としてまたは関連して、トレーニング済みアルゴリズムを利用することができる。図8は、感情タイプを選択するためにトレーニング済みアルゴリズムを導出するためのトレーニング方式の例示的実施形態800を示す。図8は単なる例示のために示されており、本開示の範囲を、感情タイプを選択するためのトレーニングアルゴリズムに関するいずれの特定の技法にも限定するものではないことに留意されたい。
[0067] 図8において、トレーニング段階801中、アルゴリズムトレーニングブロック810に、一連または複数の基準事実またはプロファイル入力301.1、対応する一連の基準の前ユーザ入力230a、および対応する一連の基準感情タイプコード240.1bを含む、入力が提供される。本明細書において、括弧で囲まれたパラメータx{x}は、複数または一連のオブジェクトxを示すことに留意されたい。特に、各基準事実またはプロファイル入力301.1は、事実またはプロファイル入力301.1の設定の特定の組み合わせに対応する。
[0068] たとえば、1つの例示的な基準事実またはプロファイル入力301.1は、ユーザ構成402を「外向性」パーソナリティタイプを含むように、ユーザオンラインアクティビティ404を語句「シーホークス」に関するオンライン検索の複数のインスタンスを含むように、ユーザ位置408を居住市として「シアトル」に対応するように、指定することができる。この基準事実またはプロファイル入力301.1に対応して、基準ユーザダイアログ入力230aは、最新のスポーツニュースに関するユーザクエリを含むことができる。代替のインスタンスにおいて、この基準事実またはプロファイル入力301.1に対応する基準ユーザダイアログ入力230aは、前ユーザ入力を全く示さないNULL文字列とすることができる。基準事実またはプロファイル入力301.1および対応する基準ユーザダイアログ入力230aのこの例示的組み合わせに基づいて、トレーニング段階801中、アルゴリズムトレーニングブロック810に基準感情タイプコード240.1bを指定することができる。
[0069] 例示的実施形態において、基準事実またはプロファイル入力301.1およびユーザダイアログ入力230aの特定の設定に適切な基準感情タイプコード240.1bを、人間の注釈者または判定者によって供給することができる。これらの人間の注釈者には、トレーニング段階801中に、基準事実またはプロファイル入力および基準ユーザ入力の個別の組み合わせを提示することが可能であり、この状況に応答して、各組み合わせに好適な感情タイプの注釈を付けることができる。このプロセスは、多くの人間の注釈者ならびに、基準事実またはプロファイル入力および前ユーザ入力の多くの組み合わせを使用して反復することができるため、大量のトレーニングデータをアルゴリズムトレーニングブロック810に利用することができる。トレーニングデータおよび基準の感情タイプ注釈に基づいて、基準入力の所与の組み合わせを基準出力に最も正確にマッピングするトレーニング済みアルゴリズムのために、トレーニング済みアルゴリズムパラメータ810aの最適なセットを導出することができる。
[0070] 例示的実施形態において、人間の注釈者は、デジタルアシスタントのパーソナリティの対応する特徴と同様または同一の、ある特徴を有することができる。たとえば人間の注釈者は、たとえば、システムパーソナリティ255および/またはデジタルアシスタントパーソナリティ418によって指定されるような、デジタルアシスタントの構成済み特徴と同じ性別またはパーソナリティタイプを有することができる。
[0071] アルゴリズムトレーニングブロック810は、基準事実またはプロファイル入力301.1、ユーザダイアログ入力230a、および基準感情タイプコード240.1bの複数の供給されたインスタンスに応答して、入力の各組み合わせを供給された基準感情タイプに最適にマッピングする、アルゴリズムパラメータのセット、たとえば重み、構造、係数などを、導出するように構成される。例示的実施形態において、入力を出力にマッピングするための一般規則を最適に導出する、機械学習、たとえば管理学習からの技法を利用することができる。これに応じてアルゴリズムトレーニングブロック810は、図5に示されるようなトレーニング済みアルゴリズムブロック514の例示的実施形態514.1に提供される、トレーニング済みアルゴリズムパラメータ810aの最適なセットを生成する。特に、ブロック514.1は、トレーニング済みアルゴリズムパラメータ810aに従って、リアルタイム動作802中に感情タイプ240.1bを選択する。
[0072] さらに下記で、本開示の技法の例示的適用例を説明する。この例は単なる例示のために与えられるものであり、本開示の範囲を、事実またはプロファイル入力、システム応答、またはシナリオのいずれの特定のセットまたはタイプにも限定するものではないことに留意されたい。
[0073] マークはフットボールファンである。彼は常に、ナショナルフットボールリーグ(NFL)に関するニュースに注意を払っている。シアトル在住の彼のお気に入りのチームは、シアトルシーホークスである。毎週日曜日、マークは自分のスマートフォンを使ってフットボールゲームをオンラインで視聴し、自分の友人たちとオンラインチャットアプリケーションを介してプレーヤおよびチームについて意見を交わす。彼は自分のアクティビティや興味もソーシャルメディアアプリケーションで共有する。数か月前、シーホークスが49ersを延長戦で打ち負かした時、彼は非常に興奮して、その勝利について自分のソーシャルメディアのプロフィールページで大々的に論じた。
[0074] ある月曜日、シーホークスはサンフランシスコのマンデーナイトフットボールで、49ersと試合をしていた。残念ながら、マークはクライアントと夕食を取っており、試合を見過ごした。その夕食はマークにとって重要な商談であり、彼は商取引をまとめられそうであった。結果的に商談は非常にうまく進行し、マークの提案はクライアントに承認された。夕食後、マークは帰宅する車中で、リアルタイムの音声会話をするために自分のスマートフォンで対話型ダイアログシステム(またはデジタルアシスタントDA)を起動した。
[0075] マーク:「やあ、素晴らしい夕食だったよ!契約を結んだ。ダン(マークの上司)はきっと喜ぶよ。」
[0076] デジタルアシスタント(陽気な調子の声で):「やった!良かったね。」(DA応答1)
[0077] マーク:「ところでシーホークスはどうだった、教えてよ!」
[0078] デジタルアシスタント(興奮した調子の声で):「当ててみて。君のシーホークスは勝ったよ!49ersを30対25で打ち負かしたんだ。ラッセルウィルソンが第4クォータで2本のタッチダウンパスを決めたよ。」(DA応答2)
[0079] マーク:「わぁ、それはすごい。試合を見られなくて残念だ。今年もプレイオフに進むね!」
[0080] デジタルアシスタント(引き続き興奮した声で、やや抑え気味に):「うん!プレイオフの間、君のカレンダをブロックしておかなくちゃ。見逃したくないだろ!」(DA応答3)
[0081] 上記の例は、本開示の技法のいくつかの態様を示している。特に、対話型ダイアログシステムはマークがフットボールファンであること、およびシーホークスファンであることも知っている。システムはこの情報を、たとえば、マークがフットボールニュースの追跡を希望していること、ならびに彼のお気に入りのチームがシーホークスであることを示す、マークが自分のデジタルアシスタント上で構成した明示的設定から取得する。DAはオンライン情報源から、シーホークスがその夜ライバルチームのサンフランシスコ49ersと試合をしたこと、およびシーホークスが逆転勝ちしたことも知っている。これによってDAはシーホークスの勝利のニュースをマークに報告する時に、興奮した調子の声(DA応答2)に対応する感情タイプを選択することができる。さらにDAは、マークの好みについての知識および彼の事前入力に基づいて、マークのカレンダをブロックする時間を提案する時に、興奮した調子の声(DA応答3)を選択する。
[0082] さらにダイアログシステムは、たとえば、マークのスマートフォンの使用パターン(たとえば、使用頻度、使用時間など)、自分のスマートフォンのセットアップ時にマークによって示された個人的な興味および趣味、ならびに自分のソーシャルメディアネットワークに対するステータス更新から導出される、マークのパーソナリティに関する情報を有する。この例において、ダイアログシステムは、マークのパーソナリティを推測するために彼の電話の使用パターンによって生成された大量の統計を取り扱うように設計された機械学習アルゴリズムに基づいて、マークが外向性の誠実な人間であることが決定できる。
[0083] マークがDAシステムを2か月前に起動したこと、および彼がそれ以来DAを定期的かつますます頻繁に使用しているという事実から、さらなる情報が導出される。先週、マークはDAと平均一日5回対話した。例示的実施形態において、ある感情タイプ分類アルゴリズムは、こうした対話の頻度に起因して、マークとDAとの間の親密さが深くなっていることを推測できる。
[0084] さらにDAは、マークの現在の感情状態が幸せであることを彼の声から決定する。彼のデバイス上のカレンダ/スケジューリング機能を使用することで、DAは勤務時間後であること、およびマークがクライアントとの商談を終えたばかりであることを知る。対話中、DAは、たとえば車の電子機器とのワイヤレスブルートゥース(登録商標)接続の確立、加速度計によって決定される歩行期間に続く静止期間、車内の低レベルの背景雑音、測定された移動速度などから、マークが車中にいることを識別する。さらに、時刻統計に合致する位置データ履歴などの過去のデータから、マークが夕食後に車で帰宅していることが推量される。したがって、図4のブロック450.1を参照しながら説明したような分類アルゴリズムにより、DAは陽気な調子の声(DA応答1)に対応する感情タイプを選択する。
[0085] 図9は、本開示に従った方法900の例示的実施形態を示す。図9は単なる例示のために示されたものであり、本開示の範囲を図示された任意の特定の方法に限定するものではないことに留意されたい。
[0086] 図9において、ブロック910で、方法は、少なくとも1つの事実またはプロファイル入力に基づいて、出力ステートメントに関連付けられた感情タイプコードを選択することを含み、感情タイプコードは複数の所定の感情タイプのうちの1つを指定する。
[0087] ブロック920で、方法は、出力ステートメントに対応する音声を生成することを含み、生成された音声は感情タイプコードによって指定された所定の感情を有する。例示的実施形態において、少なくとも1つの事実またはプロファイル入力は、対話型ダイアログシステムを実装するモバイル通信デバイスの使用から導出される。
[0088] 図10は、前述の方法およびプロセスのうちの1つまたは複数を実行することが可能な非限定的コンピューティングシステム1000を概略的に示す。コンピューティングシステム1000は簡略形式で示される。仮想的に、任意のコンピュータアーキテクチャを本開示の範囲を逸脱することなく使用できることが理解されよう。異なる実施形態において、コンピューティングシステム1000は、メインフレームコンピュータ、サーバコンピュータ、クラウドコンピューティングシステム、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホームエンターテイメントコンピュータ、ネットワークコンピューティングデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス、スマートフォン、ゲーミングデバイスなどの形を取ることができる。
[0089] コンピューティングシステム1000は、プロセッサ1010およびメモリ1020を含む。コンピューティングシステム1000は、任意選択により、ディスプレイサブシステム、通信サブシステム、センササブシステム、カメラサブシステム、および/または図10に示されていない他のコンポーネントを含むことができる。コンピューティングシステム1000は、任意選択により、たとえばキーボード、マウス、ゲームコントローラ、カメラ、マイクロフォン、および/またはタッチスクリーンなどの、ユーザ入力デバイスを含むこともできる。
[0090] プロセッサ1010は、1つまたは複数の命令を実行するように構成された1つまたは複数の物理デバイスを含むことができる。たとえばプロセッサは、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または他の論理構成の一部である、1つまたは複数の命令を実行するように構成可能である。こうした命令は、タスクの実行、データタイプの実装、1つまたは複数のデバイスの状態の変換、または場合によっては所望の結果の達成のために実装可能である。
[0091] プロセッサは、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。追加または代替として、プロセッサは、ハードウェアまたはファームウェア命令を実行するように構成された、1つまたは複数のハードウェアまたはファームウェア論理機械を含むことができる。プロセッサのプロセッサは、シングルコアまたはマルチコアであってよく、その上で実行されるプログラムは並列または分散処理用に構成可能である。プロセッサは、任意選択により、リモートに配置され、および/または調整処理用に構成することが可能な、2つまたはそれ以上のデバイス全体に分散される個々のコンポーネントを含むことができる。プロセッサの1つまたは複数の態様は、クラウドコンピューティング構成で構成されたリモートにアクセス可能なネットワーク化コンピューティングデバイスによって仮想化および実行することができる。
[0092] メモリ1020は、本明細書で説明する方法およびプロセスを実装するために、プロセッサによって実行可能なデータおよび/または命令を保持するように構成された、1つまたは複数の物理デバイスを含むことができる。こうした方法およびプロセスが実装される時、メモリ1020の状態は(たとえば異なるデータを保持するように)変換可能である。
[0093] メモリ1020は、取り外し可能媒体および/または組み込みデバイスを含むことができる。メモリ1020は、とりわけ、光学メモリデバイス(たとえば、CD、DVD、HD-DVD、Blu-Rayディスクなど)、半導体メモリデバイス(たとえば、RAM、EPROM、EEPROMなど)、および/または磁気メモリデバイス(たとえば、ハードディスクドライブ、フロッピィディスクドライブ、テープドライブ、MRAMなど)を含むことができる。メモリ1020は、揮発性、不揮発性、動的、静的、読み取り/書き込み、読み取り専用、ランダムアクセス、順次アクセス、位置アドレス指定可能、ファイルアドレス指定可能、およびコンテンツアドレス指定可能の特徴のうちの、1つまたは複数を備えるデバイスを含むことができる。いくつかの実施形態において、プロセッサ1010およびメモリ1020は、特定用途向け集積回路またはシステムオンチップなどの、1つまたは複数の共通デバイスに組み込むことができる。
[0094] メモリ1020は、本明細書で説明する方法およびプロセスを実装するために実行可能なデータおよび/または命令の記憶および/または転送に使用可能な、取り外し可能コンピュータ可読記憶媒体の形を取ることもできる。メモリ1020は、とりわけ、CD、DVD、HD−DVD、Blu−Rayディスク、EEPROM、および/またはフロッピィディスクの形を取ることができる。
[0095] メモリ1020は、情報を記憶する1つまたは複数の物理デバイスを含むことを理解されよう。「モジュール」、「プログラム」、および「エンジン」という用語は、1つまたは複数の特定の機能を実行するために実装されたコンピューティングシステム1000の態様を記述するために使用可能である。いくつかのケースにおいて、こうしたモジュール、プログラム、またはエンジンは、メモリ1020によって保持される命令を実行するプロセッサ1010を介してインスタンス化可能である。異なるモジュール、プログラム、および/またはエンジンを、同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数などからインスタンス化できることを理解されよう。同様に、同じモジュール、プログラム、および/またはエンジンを、異なるアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数などからインスタンス化できる。「モジュール」、「プログラム」、および「エンジン」という用語は、実行可能ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベースレコードなどの個々またはグループを包含することを意味する。
[0096] 態様において、コンピューティングシステム1000は、少なくとも1つの事実またはプロファイル入力に基づいて、出力ステートメントに関連付けられた感情タイプコードを選択するために、プロセッサ1010によって実行可能な命令を保持するメモリ1020を含む、コンピューティングデバイスに対応することが可能であり、感情タイプコードは複数の所定の感情タイプのうちの1つを指定する。命令は、出力ステートメントに対応する音声を生成するために、プロセッサ1010によってさらに実行可能であり、生成された音声は、感情タイプコードによって指定された所定の感情タイプを有するものである。例示的実施形態において、少なくとも1つの事実またはプロファイル入力は、対話型ダイアログシステムを実装するモバイル通信デバイスの使用から導出される。こうしたコンピューティングデバイスは、プロセス、機械、製造、または組成物に対応することを理解されたい。
[0097] 図11は、本開示に従った装置1100の例示的実施形態を示す。装置1100は単なる例示のために示されており、本開示の範囲を図示された任意の特定の装置に限定するものではないことに留意されたい。
[0098] 図11において、分類ブロック1120は、少なくとも1つの事実またはプロファイル入力1120bに基づいて、出力ステートメント1110aに関連付けられた感情タイプコード1120aを選択するように構成される。感情タイプコード1120aは、複数の所定の感情タイプのうちの1つを指定する。テキスト−音声ブロック1130は、出力ステートメント1110aと感情タイプコード1120aによって指定された所定の感情タイプとに対応する、音声1130aを生成するように構成される。例示的実施形態において、少なくとも1つの事実またはプロファイル入力1120bは、対話型ダイアログシステムを実装するモバイル通信デバイスの使用から導出される。
[0099] 本開示の技法は、必ずしもモバイル通信デバイスを組み込んだ実施形態に限定されるものでないことに留意されたい。代替の例示的実施形態において、本技法は、たとえばデスクトップコンピュータ、ホームゲーミングシステムなどの、非モバイルデバイスに組み込むこともできる。さらに、本技法を組み込むモバイル通信デバイスは、必ずしもスマートフォンに限定されるものではなく、コンピュータ化された腕時計、眼鏡などのウェアラブルデバイスを含むこともできる。こうした代替の例示的実施形態は、本開示の範囲内にあるものと企図される。
[00100] 図12は、本開示の技法が、可聴音声ではなくまたは可聴音声に加えて表示されるテキストに付与される感情コンテンツを伴うダイアログシステムに組み込まれる、例示的実施形態1200を示す。図12に示されるブロックは図2で同様にラベル付けされたブロックに対応しており、図2に示されるあるブロックは説明しやすいように図12から省略されていることに留意されたい。
[00101] 図12において、言語生成ブロック250の出力250aは、ダイアログエンジン240によって生成される感情タイプコード240bと組み合わされ、テキスト−音声および/または表示用テキストブロック1260に入力される。テキスト−音声態様において、ブロック1260は、意味論的コンテンツ240aおよび感情タイプコード240bを用いて音声を生成する。表示用テキスト態様において、ブロック1260は、代替としてまたはさらに、意味論的コンテンツ240aおよび感情タイプコード240bを用いて表示用テキストを生成する。感情タイプコード240bは、たとえば、表示されるテキスト文字のサイズまたはフォントを調整すること、感情タイプコード240bに対応する顔文字(たとえば、笑顔または他のピクチャ)を提供することなどのような技法を使用して、表示されるテキストに感情を付与することができることを理解されよう。例示的実施形態において、ブロック1260は、代替としてまたはさらに、ディスプレイ上のDAまたはユーザを表す1つまたは複数のアバターに対して、感情ベースのアニメーションまたはグラフィカル修正を生成する。たとえば、感情タイプコード240bが「悲しみ」に対応している場合、事前に選択されたDAを表すアバターは、事前に構成された「悲しい」表情を用いて生成するか、または場合によっては、たとえば「泣いている動作」などの動きを介して悲しみを表現するようにアニメーション化することができる。こうした代替の例示的実施形態は、本開示の範囲内にあるものと企図される。
[00102] 本明細書および特許請求の範囲において、要素が別の要素に「接続」または「結合」されていると言い表される場合、これは他の要素に直接接続または結合可能であるか、あるいは介在要素が存在可能であることが理解されよう。これに対して、要素が別の要素に「直接接続」または「直接結合」されていると言い表される場合、介在要素は一切存在しない。さらに、要素が別の要素に「電気的に結合」されていると言い表される場合、これはこうした要素間に低抵抗の経路が存在することを示し、要素が別の要素に単に「結合」されていると言い表される場合、こうした要素間には低抵抗の経路が存在するかまたは存在しない場合がある。
[00103] 本明細書で説明する機能は、少なくとも部分的に、1つまたは複数のハードウェアおよび/またはソフトウェア論理コンポーネントによって実行可能である。たとえば、制限なしに、使用可能な例示タイプのハードウェア論理コンポーネントは、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラム向け集積回路(ASIC)、特定プログラム向け標準製品(ASSP)、システムオンチップシステム(SOC)、結合プログラマブル論理デバイス(CPLD)などを含む。
[00104] 本発明は様々な修正および代替の構成が可能であるが、図面内にはそのうちのある例示的な実施形態が示されており、上記で詳細に説明している。しかしながら、本発明を開示された特定の形に限定する意図はなく、むしろ、本発明の趣旨および範囲内に入るすべての修正、代替構成、および等価物をカバーするものと意図されることを理解されたい。

Claims (20)

  1. 対話型ダイアログシステムのための装置であって、
    ユーザダイアログ入力に情報的に応じて出力ステートメントを生成するように構成された意味論的コンテンツ生成ブロックと、
    少なくとも1つの事実またはプロファイル入力に基づいて、前記出力ステートメントに関連付けられた感情タイプコードを選択するように構成された分類ブロックであって、前記感情タイプコードは複数の所定の感情タイプのうちの1つを指定する、分類ブロックと、
    前記出力ステートメントに対応する音声を生成するように構成されたテキスト−音声ブロックであって、前記生成された音声は前記感情タイプコードによって指定された前記所定の感情タイプを有するものである、テキスト−音声ブロックと、
    を備え、
    前記少なくとも1つの事実またはプロファイル入力は、音声通話およびインターネットアクセスサービスを提供するように構成されたモバイル通信デバイスの使用統計から導出されるパラメータを備え、前記少なくとも1つの事実またはプロファイル入力は、デジタルアシスタントパーソナリティをさらに備え、
    前記装置は、前記デジタルアシスタントパーソナリティに基づいて前記出力ステートメントを自然言語で生成するように構成された言語生成ブロックであって、前記出力ステートメントは、所定の意味論的コンテンツおよび前記感情タイプコードに関連付けられた指定された所定の感情タイプを有する、言語生成ブロックをさらに備える、
    装置。
  2. モバイル通信デバイスは、音声通話およびインターネットアクセスサービスを提供するように構成される、請求項1に記載の装置。
  3. 前記少なくとも1つの事実またはプロファイル入力は、ユーザによって前記モバイル通信デバイスに直接入力される少なくとも1つのユーザ構成パラメータを備える、請求項1に記載の装置。
  4. 前記少なくとも1つのユーザ構成パラメータは、趣味、関心、性格特性、好きな映画、好きなスポーツ、および好きな料理のタイプのうちの少なくとも1つを備える、請求項3に記載の装置。
  5. 前記少なくとも1つの事実またはプロファイル入力は、前記装置を使用してユーザオンラインアクティビティから導出される少なくとも1つのパラメータをさらに備える、請求項3に記載の装置。
  6. ユーザオンラインアクティビティから導出される前記少なくとも1つのパラメータは、インターネット検索クエリ、アクセスされるインターネットウェブサイト、電子メールメッセージのコンテンツ、およびオンラインソーシャルメディアウェブサイトへの投稿のうちの、少なくとも1つを備える、請求項5に記載の装置。
  7. 前記少なくとも1つの事実またはプロファイル入力は、前記モバイル通信デバイスの位置システムにより定められるユーザ位置、前記モバイル通信デバイスを用いて行われるユーザのテキストまたは音声通信のコンテンツ、および、前記モバイル通信デバイスのカレンダスケジューリング機能を使用して前記ユーザによってスケジューリングされた少なくとも1つのイベントのうちの、少なくとも1つをさらに備える、請求項3に記載の装置。
  8. 前記少なくとも1つの事実またはプロファイル入力は、現在のユーザ感情状態、およびオンライン情報リソースのうちの、少なくとも1つをさらに備える、請求項3に記載の装置。
  9. 前記分類ブロックは、前記対話型ダイアログシステムに入力されるユーザダイアログに基づいて前記感情タイプコードを選択するようにさらに構成され、前記対話型ダイアログシステムは、前記モバイル通信デバイスの少なくとも1つのプロセッサにより実行される、請求項2に記載の装置。
  10. 前記自然言語による前記出力ステートメントに対応するテキストを生成する表示ブロックのためのテキストをさらに備える、請求項2に記載の装置。
  11. 前記自然言語は英語である、請求項10に記載の装置。
  12. アルゴリズムを使用して前記感情タイプコードを選択するように構成された前記分類ブロックは、少なくとも1つの事実またはプロファイル入力と対応する複数の基準感情タイプとの間の少なくとも1つの機能的マッピングを備え、前記少なくとも1つの機能的マッピングは機械学習技法から導出され、前記アルゴリズムは、前記少なくとも1つの事実またはプロファイル入力を、前記デジタルアシスタントパーソナリティによる前記出力ステートメントの提供に関連した感情タイプに対応する感情タイプにマッピングする、請求項1に記載の装置。
  13. プロセッサと、前記プロセッサによって実行可能な命令を保持するメモリとを含む、コンピューティングデバイスであって、前記命令は、
    ユーザダイアログ入力に情報的に応じて出力ステートメントを生成すること、
    少なくとも1つの事実またはプロファイル入力に基づいて、前記出力ステートメントに関連付けられた感情タイプコードを選択することであって、前記感情タイプコードは複数の所定の感情タイプのうちの1つを指定する、選択すること、および、
    前記出力ステートメントに対応する音声を生成することであって、前記生成された音声は前記感情タイプコードによって指定された前記所定の感情タイプを有するものである、生成すること、
    を行うように前記プロセッサによって実行可能であり、
    前記少なくとも1つの事実またはプロファイル入力は、対話型ダイアログシステムを実装するモバイル通信デバイスの使用統計から導出され、前記少なくとも1つの事実またはプロファイル入力は、デジタルアシスタントパーソナリティをさらに備え、
    前記命令は、前記デジタルアシスタントパーソナリティに基づいて前記出力ステートメントを自然言語で生成することであって、前記出力ステートメントは、所定の意味論的コンテンツおよび前記感情タイプコードに関連付けられた指定された所定の感情タイプを有すること、を前記プロセッサによって実行可能である、
    コンピューティングデバイス。
  14. 音声通話およびインターネットアクセスサービスを提供するように構成されたスマートフォンを備える、請求項13に記載のコンピューティングデバイス。
  15. 前記少なくとも1つの事実またはプロファイル入力は、前記スマートフォンを使用するユーザオンラインアクティビティ、ユーザ位置、ユーザのテキストまたは音声通信のコンテンツ、および、前記スマートフォンのカレンダスケジューリング機能を使用して前記ユーザによってスケジューリングされた少なくとも1つのイベントのうちの、少なくとも1つをさらに備える、請求項14に記載のコンピューティングデバイス。
  16. 前記少なくとも1つの事実またはプロファイル入力は、現在のユーザ感情状態、およびオンライン情報リソースのうちの、少なくとも1つをさらに備える、請求項14に記載のコンピューティングデバイス。
  17. コンピューティングデバイスによって実行される方法であって、
    ユーザダイアログ入力に情報的に応じて出力ステートメントを生成すること、
    少なくとも1つの事実またはプロファイル入力に基づいて、前記出力ステートメントに関連付けられた感情タイプコードを選択することであって、前記感情タイプコードは複数の所定の感情タイプのうちの1つを指定する、選択すること、および、
    前記出力ステートメントに対応する音声を生成することであって、前記生成された音声は前記感情タイプコードによって指定された前記所定の感情タイプを有するものである、生成すること、
    を含む、方法であって、
    前記少なくとも1つの事実またはプロファイル入力は、対話型ダイアログシステムを実装するモバイル通信デバイスの使用統計から導出され、前記少なくとも1つの事実またはプロファイル入力は、デジタルアシスタントパーソナリティをさらに備え、
    前記方法は、前記デジタルアシスタントパーソナリティに基づいて前記出力ステートメントを自然言語で生成することであって、前記出力ステートメントは、所定の意味論的コンテンツおよび前記感情タイプコードに関連付けられた指定された所定の感情タイプを有すること、をさらに含む、
    方法。
  18. 前記少なくとも1つの事実またはプロファイル入力は、ユーザ位置を備える、請求項17に記載の方法。
  19. 前記少なくとも1つの事実またはプロファイル入力は、前記ユーザによって構成されるユーザ構成パラメータ、ユーザオンラインアクティビティ、ユーザ位置、ユーザのテキストまたは音声通信のコンテンツ、および、カレンダスケジューリング機能を使用して前記ユーザによってスケジューリングされた少なくとも1つのイベントのうちの、少なくとも1つを備える、請求項18に記載の方法。
  20. 前記少なくとも1つの事実またはプロファイル入力は、現在のユーザ感情状態、およびオンライン情報リソースのうちの、少なくとも1つをさらに備える、請求項18に記載の方法。
JP2017528786A 2014-12-04 2015-12-02 対話型ダイアログシステムのための感情タイプの分類 Active JP6803333B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/561,190 US9786299B2 (en) 2014-12-04 2014-12-04 Emotion type classification for interactive dialog system
US14/561,190 2014-12-04
PCT/US2015/063301 WO2016089929A1 (en) 2014-12-04 2015-12-02 Emotion type classification for interactive dialog system

Publications (3)

Publication Number Publication Date
JP2018503894A JP2018503894A (ja) 2018-02-08
JP2018503894A5 JP2018503894A5 (ja) 2018-12-13
JP6803333B2 true JP6803333B2 (ja) 2020-12-23

Family

ID=55025379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017528786A Active JP6803333B2 (ja) 2014-12-04 2015-12-02 対話型ダイアログシステムのための感情タイプの分類

Country Status (11)

Country Link
US (2) US9786299B2 (ja)
EP (1) EP3227885A1 (ja)
JP (1) JP6803333B2 (ja)
KR (2) KR102457486B1 (ja)
CN (1) CN107003997A (ja)
AU (2) AU2015355097B2 (ja)
BR (1) BR112017010047B1 (ja)
CA (1) CA2967976C (ja)
MX (1) MX2017007317A (ja)
RU (1) RU2705465C2 (ja)
WO (1) WO2016089929A1 (ja)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
US9722965B2 (en) * 2015-01-29 2017-08-01 International Business Machines Corporation Smartphone indicator for conversation nonproductivity
US10884503B2 (en) * 2015-12-07 2021-01-05 Sri International VPA with integrated object recognition and facial expression recognition
US20180358021A1 (en) * 2015-12-23 2018-12-13 Intel Corporation Biometric information for dialog system
US10489509B2 (en) * 2016-03-14 2019-11-26 International Business Machines Corporation Personality based sentiment analysis of textual information written in natural language
US10831802B2 (en) * 2016-04-11 2020-11-10 Facebook, Inc. Techniques to respond to user requests using natural-language machine learning based on example conversations
US10567312B2 (en) 2016-04-11 2020-02-18 Facebook, Inc. Techniques for messaging bot controls based on machine-learning user intent detection
JP6791669B2 (ja) * 2016-07-12 2020-11-25 Supership株式会社 情報処理装置及びプログラム
US11233760B2 (en) 2016-09-21 2022-01-25 Facebook, Inc. Module ranking for a modular inbox
US10356029B2 (en) 2016-09-21 2019-07-16 Facebook, Inc. Methods and systems for presenting modules in an inbox interface
WO2018060993A1 (en) * 2016-09-27 2018-04-05 Faception Ltd. Method and system for personality-weighted emotion analysis
US10217453B2 (en) * 2016-10-14 2019-02-26 Soundhound, Inc. Virtual assistant configured by selection of wake-up phrase
CN106503805B (zh) * 2016-11-14 2019-01-29 合肥工业大学 一种基于机器学习的双模态人人对话情感分析方法
US9934785B1 (en) * 2016-11-30 2018-04-03 Spotify Ab Identification of taste attributes from an audio signal
US11016719B2 (en) * 2016-12-30 2021-05-25 DISH Technologies L.L.C. Systems and methods for aggregating content
US10373278B2 (en) 2017-02-15 2019-08-06 International Business Machines Corporation Annotation of legal documents with case citations
US10452780B2 (en) 2017-02-15 2019-10-22 International Business Machines Corporation Tone analysis of legal documents
US10318799B2 (en) * 2017-02-16 2019-06-11 Wipro Limited Method of predicting an interest of a user and a system thereof
US10558757B2 (en) * 2017-03-11 2020-02-11 International Business Machines Corporation Symbol management
JP2018167339A (ja) * 2017-03-29 2018-11-01 富士通株式会社 発話制御プログラム、情報処理装置及び発話制御方法
US10535344B2 (en) * 2017-06-08 2020-01-14 Microsoft Technology Licensing, Llc Conversational system user experience
CN109146450A (zh) 2017-06-16 2019-01-04 阿里巴巴集团控股有限公司 支付方法、客户端、电子设备、存储介质和服务器
US11188809B2 (en) * 2017-06-27 2021-11-30 International Business Machines Corporation Optimizing personality traits of virtual agents
CN107516533A (zh) * 2017-07-10 2017-12-26 阿里巴巴集团控股有限公司 一种会话信息处理方法、装置、电子设备
US20190065458A1 (en) * 2017-08-22 2019-02-28 Linkedin Corporation Determination of languages spoken by a member of a social network
CN107657017B (zh) * 2017-09-26 2020-11-13 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
CN110121706B (zh) * 2017-10-13 2022-05-03 微软技术许可有限责任公司 提供会话中的响应
CN107945848A (zh) * 2017-11-16 2018-04-20 百度在线网络技术(北京)有限公司 一种健身指导实现方法、装置、设备和介质
CN110301117B (zh) * 2017-11-24 2022-10-21 微软技术许可有限责任公司 用于在会话中提供响应的方法和装置
CN109857352A (zh) * 2017-11-30 2019-06-07 富泰华工业(深圳)有限公司 动画显示方法及人机交互装置
US10636419B2 (en) * 2017-12-06 2020-04-28 Sony Interactive Entertainment Inc. Automatic dialogue design
US10783329B2 (en) * 2017-12-07 2020-09-22 Shanghai Xiaoi Robot Technology Co., Ltd. Method, device and computer readable storage medium for presenting emotion
US10372825B2 (en) 2017-12-18 2019-08-06 International Business Machines Corporation Emotion detection and expression integration in dialog systems
CN110019848A (zh) * 2017-12-22 2019-07-16 深圳市优必选科技有限公司 对话交互方法、装置及机器人
CN108091324B (zh) * 2017-12-22 2021-08-17 北京百度网讯科技有限公司 语气识别方法、装置、电子设备和计算机可读存储介质
CN108009287A (zh) * 2017-12-25 2018-05-08 北京中关村科金技术有限公司 一种基于对话系统的回答数据生成方法以及相关装置
CN108154888A (zh) * 2017-12-26 2018-06-12 四川沐迪圣科技有限公司 一种基于语音特征的可穿戴设备监测心理健康方法
SG11202007234RA (en) * 2018-01-29 2020-08-28 Emergex Llc System and method for facilitating affective-state-based artificial intelligence
CN111819628B (zh) * 2018-02-06 2022-09-20 Vi实验室有限公司 数字个人助理
US10522143B2 (en) * 2018-02-27 2019-12-31 Microsoft Technology Licensing, Llc Empathetic personal virtual digital assistant
CN108597509A (zh) * 2018-03-30 2018-09-28 百度在线网络技术(北京)有限公司 智能语音交互实现方法、装置、计算机设备及存储介质
US10621983B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US10622007B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US20190325866A1 (en) * 2018-04-20 2019-10-24 Spotify Ab Systems and Methods for Enhancing Responsiveness to Utterances Having Detectable Emotion
US11604831B2 (en) * 2018-06-08 2023-03-14 Ntt Docomo, Inc. Interactive device
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
US11132681B2 (en) 2018-07-06 2021-09-28 At&T Intellectual Property I, L.P. Services for entity trust conveyances
US10802872B2 (en) 2018-09-12 2020-10-13 At&T Intellectual Property I, L.P. Task delegation and cooperation for automated assistants
US11354507B2 (en) 2018-09-13 2022-06-07 International Business Machines Corporation Compared sentiment queues
WO2020060151A1 (en) 2018-09-19 2020-03-26 Samsung Electronics Co., Ltd. System and method for providing voice assistant service
US20200099634A1 (en) * 2018-09-20 2020-03-26 XRSpace CO., LTD. Interactive Responding Method and Computer System Using the Same
CN111226194A (zh) * 2018-09-27 2020-06-02 三星电子株式会社 提供交互界面的方法和系统
CN109359181B (zh) * 2018-09-27 2021-11-19 深圳前海微众银行股份有限公司 负面情绪原因识别方法、设备及计算机可读存储介质
CN111048062B (zh) * 2018-10-10 2022-10-04 华为技术有限公司 语音合成方法及设备
US11481186B2 (en) 2018-10-25 2022-10-25 At&T Intellectual Property I, L.P. Automated assistant context and protocol
CN109352666A (zh) * 2018-10-26 2019-02-19 广州华见智能科技有限公司 一种基于机器语音对话的情感发泄方法及系统
CN109493885A (zh) * 2018-11-13 2019-03-19 平安科技(深圳)有限公司 心理状态评估及调节方法、装置及存储介质、服务器
FR3089324A1 (fr) * 2018-11-29 2020-06-05 Orange Procédé de détermination d’un agent conversationnel sur un terminal
DK3664470T3 (da) 2018-12-05 2021-04-19 Sonova Ag Fremskaffelse af feedback om lydstyrken af egen stemme for en bruger af et høreapparat
US11222631B2 (en) * 2018-12-11 2022-01-11 International Business Machines Corporation Performance evaluation using audio and structured feedback
CN111475206B (zh) * 2019-01-04 2023-04-11 优奈柯恩(北京)科技有限公司 用于唤醒可穿戴设备的方法及装置
US11854538B1 (en) * 2019-02-15 2023-12-26 Amazon Technologies, Inc. Sentiment detection in audio data
KR20200113105A (ko) 2019-03-22 2020-10-06 삼성전자주식회사 응답을 제공하는 전자 장치와 이의 동작 방법
CN109977215B (zh) 2019-03-29 2021-06-18 百度在线网络技术(北京)有限公司 基于关联兴趣点的语句推荐方法和装置
WO2020209647A1 (ko) * 2019-04-09 2020-10-15 네오사피엔스 주식회사 사용자 인터페이스를 통해 텍스트에 대한 합성 음성을 생성하는 방법 및 시스템
RU2720359C1 (ru) * 2019-04-16 2020-04-29 Хуавэй Текнолоджиз Ко., Лтд. Способ и оборудование распознавания эмоций в речи
TWI751560B (zh) * 2019-05-20 2022-01-01 仁寶電腦工業股份有限公司 語音轉文字裝置以及語音轉文字方法
WO2020235712A1 (ko) * 2019-05-21 2020-11-26 엘지전자 주식회사 콘텐츠 기반의 스타일을 갖는 텍스트 또는 음성을 생성하는 인공 지능 장치 및 그 방법
CN110287323B (zh) * 2019-06-27 2020-10-23 成都冰鉴信息科技有限公司 一种面向目标的情感分类方法
CN110413788B (zh) * 2019-07-30 2023-01-31 携程计算机技术(上海)有限公司 会话文本的场景类别的预测方法、系统、设备和存储介质
KR20210020656A (ko) * 2019-08-16 2021-02-24 엘지전자 주식회사 인공 지능을 이용한 음성 인식 방법 및 그 장치
CN110705584A (zh) * 2019-08-21 2020-01-17 深圳壹账通智能科技有限公司 情绪识别方法、装置、计算机装置及存储介质
US11587561B2 (en) * 2019-10-25 2023-02-21 Mary Lee Weir Communication system and method of extracting emotion data during translations
WO2021141419A1 (en) * 2020-01-07 2021-07-15 Samsung Electronics Co., Ltd. Method and apparatus for generating customized content based on user intent
JP7248615B2 (ja) * 2020-03-19 2023-03-29 ヤフー株式会社 出力装置、出力方法及び出力プログラム
US11735206B2 (en) * 2020-03-27 2023-08-22 Harman International Industries, Incorporated Emotionally responsive virtual personal assistant
CN112883145B (zh) * 2020-12-24 2022-10-11 浙江万里学院 一种面向中文评论的情感多倾向分类方法
CN112396185B (zh) * 2021-01-21 2021-05-11 中国人民解放军国防科技大学 一种事实验证方法、系统、计算机设备和存储介质
WO2022214616A1 (en) * 2021-04-09 2022-10-13 Interdigital Ce Patent Holdings, Sas Personalizing audio-visual content based on user's interest
CN112989822B (zh) * 2021-04-16 2021-08-27 北京世纪好未来教育科技有限公司 识别对话中句子类别的方法、装置、电子设备和存储介质
CN113791690B (zh) * 2021-09-22 2024-03-29 入微智能科技(南京)有限公司 一种带有实时情绪识别功能的人机交互公共设备
US20230169990A1 (en) * 2021-12-01 2023-06-01 Verizon Patent And Licensing Inc. Emotionally-aware voice response generation method and apparatus
KR20230116605A (ko) * 2022-01-28 2023-08-04 주식회사 마블러스 감성, 집중도, 대화를 통합한 인공지능 기반 상호작용 장치, 방법 및 프로그램
CN116030811B (zh) * 2023-03-22 2023-06-30 广州小鹏汽车科技有限公司 语音交互方法、车辆及计算机可读存储介质

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3799134B2 (ja) * 1997-05-28 2006-07-19 ソニー株式会社 システムおよび通知方法
IL122632A0 (en) * 1997-12-16 1998-08-16 Liberman Amir Apparatus and methods for detecting emotions
US6246672B1 (en) * 1998-04-28 2001-06-12 International Business Machines Corp. Singlecast interactive radio system
US6144938A (en) 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
JP4465730B2 (ja) * 1999-01-20 2010-05-19 日本ビクター株式会社 対話装置
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US6151571A (en) 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
US6598020B1 (en) * 1999-09-10 2003-07-22 International Business Machines Corporation Adaptive emotion and initiative generator for conversational systems
US6757362B1 (en) 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
WO2001072478A1 (fr) 2000-03-31 2001-10-04 Sony Corporation Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure
JP3561211B2 (ja) 2000-06-27 2004-09-02 株式会社東芝 情報処理装置および不揮発性記憶装置の書き換え制御方法
US20020029203A1 (en) * 2000-09-01 2002-03-07 Pelland David M. Electronic personal assistant with personality adaptation
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
WO2002067194A2 (en) 2001-02-20 2002-08-29 I & A Research Inc. System for modeling and simulating emotion states
JP2002304188A (ja) 2001-04-05 2002-10-18 Sony Corp 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
EP1256937B1 (en) * 2001-05-11 2006-11-02 Sony France S.A. Emotion recognition method and device
US20030093280A1 (en) * 2001-07-13 2003-05-15 Pierre-Yves Oudeyer Method and apparatus for synthesising an emotion conveyed on a sound
CN100339885C (zh) * 2002-02-26 2007-09-26 Sap股份公司 智能个人助理
US20030167167A1 (en) 2002-02-26 2003-09-04 Li Gong Intelligent personal assistants
KR20050015584A (ko) * 2003-08-06 2005-02-21 삼성전자주식회사 감정 표현이 가능한 통신 장치 및 방법
KR100680191B1 (ko) * 2003-09-05 2007-02-08 삼성전자주식회사 감정 있는 에이전트를 갖는 사전 행동적 사용자 인터페이스 시스템
US7944448B2 (en) 2005-06-14 2011-05-17 Omron Corporation Apparatus and method for socially intelligent virtual entity
US7983910B2 (en) * 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
US20080096533A1 (en) 2006-10-24 2008-04-24 Kallideas Spa Virtual Assistant With Real-Time Emotions
JP4965322B2 (ja) * 2007-04-17 2012-07-04 日本電信電話株式会社 ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム
CN101474481B (zh) 2009-01-12 2010-07-21 北京科技大学 情感机器人系统
KR101594057B1 (ko) * 2009-08-19 2016-02-15 삼성전자주식회사 텍스트 데이터의 처리 방법 및 장치
US8719277B2 (en) * 2011-08-08 2014-05-06 Google Inc. Sentimental information associated with an object within a media
RU2553413C2 (ru) * 2012-08-29 2015-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") Способ выявления эмоционального состояния человека по голосу
RU2530267C2 (ru) 2012-11-28 2014-10-10 Общество с ограниченной ответственностью "Спиктуит" Способ коммуникации пользователя с информационной диалоговой системой
WO2014113889A1 (en) 2013-01-23 2014-07-31 Persuasive Labs Inc. Method and apparatus for adapting customer interaction based on assessed personality
CN103198827B (zh) * 2013-03-26 2015-06-17 合肥工业大学 基于韵律特征参数和情感参数关联性的语音情感修正方法
KR101504699B1 (ko) * 2013-04-09 2015-03-20 얄리주식회사 유무선 통신 네트워크를 이용한 음성대화방법 및 장치
US20140343947A1 (en) 2013-05-15 2014-11-20 GM Global Technology Operations LLC Methods and systems for managing dialog of speech systems
US8971183B1 (en) * 2013-09-08 2015-03-03 Divyahans Gupta Control signal traffic profile based mobile application access management
US9514748B2 (en) * 2014-01-15 2016-12-06 Microsoft Technology Licensing, Llc Digital personal assistant interaction with impersonations and rich multimedia in responses
US10803850B2 (en) * 2014-09-08 2020-10-13 Microsoft Technology Licensing, Llc Voice generation with predetermined emotion type
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
US9641563B1 (en) * 2015-11-10 2017-05-02 Ricoh Company, Ltd. Electronic meeting intelligence

Also Published As

Publication number Publication date
KR20220147150A (ko) 2022-11-02
BR112017010047A2 (pt) 2018-01-02
RU2017119007A3 (ja) 2019-06-19
KR20170092603A (ko) 2017-08-11
CA2967976C (en) 2022-08-09
US10515655B2 (en) 2019-12-24
KR102632775B1 (ko) 2024-02-01
US20180005646A1 (en) 2018-01-04
AU2020239704B2 (en) 2021-12-16
CN107003997A (zh) 2017-08-01
BR112017010047B1 (pt) 2023-03-14
RU2017119007A (ru) 2018-12-03
CA2967976A1 (en) 2016-06-09
WO2016089929A1 (en) 2016-06-09
US20160163332A1 (en) 2016-06-09
MX2017007317A (es) 2017-08-25
AU2015355097B2 (en) 2020-06-25
AU2015355097A1 (en) 2017-05-25
RU2705465C2 (ru) 2019-11-07
AU2020239704A1 (en) 2020-10-15
EP3227885A1 (en) 2017-10-11
KR102457486B1 (ko) 2022-10-20
US9786299B2 (en) 2017-10-10
JP2018503894A (ja) 2018-02-08

Similar Documents

Publication Publication Date Title
JP6803333B2 (ja) 対話型ダイアログシステムのための感情タイプの分類
US10536402B2 (en) Context-sensitive generation of conversational responses
US10169897B1 (en) Systems and methods for character composition
US10664741B2 (en) Selecting a behavior of a virtual agent
CN110998725B (zh) 在对话中生成响应
US9796095B1 (en) System and method for controlling intelligent animated characters
US11443554B2 (en) Determining and presenting user emotion
US10902735B2 (en) Education reward system and method
WO2022079933A1 (ja) コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
US20220241985A1 (en) Systems and methods to manage conversation interactions between a user and a robot computing device or conversation agent
US20240095491A1 (en) Method and system for personalized multimodal response generation through virtual agents
JP5756969B2 (ja) 3次元フィギアを構成するデータを配信するための方法、システム、サーバ装置、端末装置およびプログラム
US20180253882A1 (en) Generating a personal avatar and morphing the avatar in time
DeMara et al. Towards interactive training with an avatar-based human-computer interface
Feng et al. A platform for building mobile virtual humans
US11929169B2 (en) Personalized sensory feedback
JP2024525119A (ja) インタラクティブな同調離散アバターをリアルタイムで自動生成するシステムおよび方法
CN117959715A (zh) 交互方法、装置、介质及电子设备

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20170721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200826

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200902

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201130

R150 Certificate of patent or registration of utility model

Ref document number: 6803333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250