JP7203865B2 - ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話 - Google Patents

ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話 Download PDF

Info

Publication number
JP7203865B2
JP7203865B2 JP2020562767A JP2020562767A JP7203865B2 JP 7203865 B2 JP7203865 B2 JP 7203865B2 JP 2020562767 A JP2020562767 A JP 2020562767A JP 2020562767 A JP2020562767 A JP 2020562767A JP 7203865 B2 JP7203865 B2 JP 7203865B2
Authority
JP
Japan
Prior art keywords
automated assistant
dialog state
data indicative
client
computing service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020562767A
Other languages
English (en)
Other versions
JP2021523467A (ja
Inventor
ウラス・キラッジ
アダム・コインブラ
アブラハム・リー
ウェイ・ドン
トゥシャン・アマラシリワルデナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2021523467A publication Critical patent/JP2021523467A/ja
Priority to JP2022180485A priority Critical patent/JP2023017956A/ja
Application granted granted Critical
Publication of JP7203865B2 publication Critical patent/JP7203865B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • G06F9/4498Finite state machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Description

人間は、本明細書で「自動化されたアシスタント」と呼ばれる(「チャットボット」、「対話型パーソナルアシスタント」、「インテリジェントパーソナルアシスタント」、「パーソナル音声アシスタント」、「会話エージェント」などとも呼ばれる)対話型ソフトウェアアプリケーションとの人間対コンピュータの対話を行う場合がある。例えば、人間(自動化されたアシスタントと対話するとき、「ユーザ」と呼ばれる場合がある)は、テキストに変換され、次いで処理された発話、および/またはタイプされた自由形式の自然言語入力を含み得る自由形式の自然言語入力を使用して、コマンド、クエリ、および/または要求(本明細書では「クエリ」と総称される)を提供し得る。多くの場合、自動化されたアシスタントは、例えば、事前定義された口頭の呼び出しフレーズを使用して、最初に「呼び出され」なければならない。
自動化されたアシスタントと対話することができる多くのコンピューティングサービス(「ソフトウェアエージェント」または「エージェント」とも呼ばれる)が、存在する。コンピューティングサービスを提供するエンティティは、しばしば、自動化されたアシスタントを提供するエンティティに直接属していないので、これらのコンピューティングサービスは、しばしば、本明細書では「サードパーティ」(または「サードパーティ開発者」)と呼ばれるものによって開発および/または提供される。しかしながら、コンピューティングサービスは、サードパーティによって開発されたものに限定されず、自動化されたアシスタントを実装するのと同じエンティティによって実装され得る。コンピューティングサービスは、様々な異なるユーザ意図を解決するように構成され得るが、その多くは、自動化されたアシスタントによって解決できない場合がある。そのような意図は、もちろん限定はしないが、スマートデバイスを制御または構成すること、タスクを実行するための段階的な指示を受信すること、およびオンラインサービスと対話することに関連する場合がある。したがって、多くの自動化されたアシスタントは、ユーザとサードパーティコンピューティングサービスの両方と同時に対話し、ユーザとサードパーティとの間のメディエータまたは仲介者として効果的に機能する場合がある。
いくつかのサードパーティコンピューティングサービスは、複数の状態、ならびにユーザおよび/または他の場所(例えば、センサ、ウェブサービスなど)から受信された様々な入力に基づいて発生するそれらの状態間の遷移を効果的に定義するダイアログステートマシンに従って動作し得る。ユーザが、サードパーティコンピューティングサービスとの1つまたは複数のダイアログ「ターン」中に、(メディエータとして自動化されたアシスタントを介して)自由形式の自然言語入力を(音声でまたはタイプで)提供すると、サードパーティコンピューティングサービスに関連付けられたダイアログステートマシンは、様々なダイアログ状態間を進む。最終的に、ダイアログステートマシンは、ユーザの意図が解決された状態に達する場合がある。
自動化されたアシスタントが、よりユビキタスになるにつれて、本明細書では「アシスタントデバイス」と呼ばれる自動化されたアシスタントとの対話を容易にするように特別に設計されたコンピューティングデバイスが、より一般的になってきている。多くのアシスタントデバイスは、ユーザが自動化されたアシスタントとのタッチフリーの対話を行うことを可能にする。例えば、アシスタントデバイスは、しばしば、ユーザが入力として音声発話を提供することを可能にするマイクロフォンを含む。加えて、ますます多くのアシスタントデバイスが、現在、表示能力を含む。
したがって、ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話のための技法およびフレームワークについて、本明細書で説明する。より具体的には、しかし排他的にではなく、本明細書で説明したいくつかの実装形態は、ユーザが視覚的/触覚的モダリティなどの、口頭の自由形式の自然言語入力以外の入力モダリティを使用して、サードパーティコンピューティングサービスに関連付けられたダイアログステートマシンを介して進むことを可能にする。本明細書で使用される場合、「口頭の」は、キーボードと対話することによっておよび/または音声発話(音声認識を使用してテキストコンテンツに変換され得る)を提供することによって、ユーザによって提供され得る自由形式の自然言語入力を指す。追加的または代替的に、本明細書で説明したいくつかの実装形態は、ユーザがサードパーティコンピューティングサービスに関連するグラフィカルユーザインターフェースとのタッチレス対話をトリガすることを可能にする。他の変形例が、本明細書では企図されている。ユーザが口頭入力と非口頭入力の両方の組合せを使用してサードパーティサービスと対話することを可能にするメカニズムの提供は、健常者のユーザと幅広い障害を有するユーザの両方によるサードパーティサービスへのアクセスを容易にし得る(および、サービスの特別に適合された変形例の必要性を低減し得る)。これは、ユーザがユーザにとって最も適した方法でサードパーティサービスと対話することをメカニズムが可能にし得るため、なおさらである。
いくつかの実装形態では、自動化されたアシスタントは、クライアント部分とサーバ部分とを含み得る。自動化されたアシスタントのクライアント部分は、「アシスタントアプリ」としてクライアントデバイス(例えば、スマートフォン、スマートウォッチ、アシスタントデバイスなど)上で動作し得る。自動化されたアシスタントのサーバ部分は、本明細書では時には「クラウド」コンピューティングシステムまたは「クラウド」と呼ばれる1つまたは複数のサーバ上で動作し得る。様々な実装形態では、クライアントデバイスは、グラフィカルユーザインターフェース(「GUI」)をレンダリングするために、例えば、自動化されたアシスタントのクライアント部分によって使用されるディスプレイを含み得る。いくつかの実装形態では、GUIは、サードパーティコンピューティングサービスによって提供された基礎となるマークアップ言語(例えば、HTML、XML)に基づいてグラフィックをレンダリングする組み込みウェブブラウザの形態をとり得る。GUIの提供は、音声対話のみを介して可能であり得るよりも効率的な方法でユーザがサードパーティコンピューティングサービスと対話することを可能にし得る。
ユーザが、サードパーティコンピューティングサービスとさらに関わるために自動化されたアシスタントと関わっているいくつかの実装形態では、サードパーティコンピューティングサービスは、口頭ダイアログステートマシンおよび/または視覚的ダイアログステートマシンに従ってユーザと関わり得る。口頭ダイアログステートマシンは、ユーザとコンピューティングサービスとの間の口頭ダイアログを管理し得、口頭ダイアログにおいて、ユーザは、タイプされたおよび/または音声の自由形式の自然言語入力を提供する。視覚的ダイアログステートマシンは、没入型体験の一部としてGUI上にレンダリングされるものを管理し得る。いくつかのそのような実装形態では、口頭ダイアログが特定の状態に達したときに、特定のGUIがレンダリングされるように、および/または視覚的ダイアログステートマシンを特定の視覚的ダイアログ状態に進めるためにユーザが特定の方法でGUIと対話したときに、口頭ダイアログが特定の状態に自動的に進むように、口頭ダイアログステートマシンの1つまたは複数の口頭ダイアログ状態は、視覚的ダイアログステートマシンの1つまたは複数の視覚的ダイアログ状態にリンクされ得る。
いくつかの実装形態では、ユーザは、自動化されたアシスタントのサーバ部分を介して送り込まれた口頭コマンドまたは他のタッチレス入力(ユーザの意図を示す)を使用して、サードパーティコンピューティングサービスによって提供されたGUIとタッチレス会話することができ得る。例えば、ユーザが、スマートホームデバイスの制御を可能にするサードパーティコンピューティングサービスと(自動化されたアシスタントを介して)関わることを想定する。スマートホームデバイスを制御/構成することに関連する様々なオプションが、例えば、GUIの複数のタイル内で、GUI上に提示され得る。(例えば、マウスまたはタッチスクリーンを使用して)タイルのうちの1つを選択することができることに加えて、ユーザは、「私のデバイスを構成しましょう(Let's configure my device)」または「助けが必要です(I need help)」などの口頭コマンドを発することによって、タイルのうちの1つを選択することもできる。これは、ユーザがデバイスを構成することを可能にする、または選択可能なFAQのリストを提供するインターフェースモジュールに進む、GUIとのタッチレス対話をトリガし得る。別の例として、ユーザは、「1画面下にスクロールして(scroll down one screen)」または「次の段落に移動して(move to the next paragraph)」などの口頭コマンドを発することによって、GUIの一部としてレンダリングされた文書をスクロールし得る。自動化されたアシスタントのサーバ部分を介してサードパーティコンピューティングサービスに口頭コマンド/他のタッチレス入力を送り込むことに加えて、サードパーティコンピューティングサービスからクライアントデバイスへのすべてのデータおよびコマンドは、自動化されたアシスタントのサーバ部分を介して送られ得る。自動化されたアシスタントのサーバ部分は、サードパーティコンピューティングサービスから発信された、またはサードパーティコンピューティングサービスを介して受信された不正なメッセージなどが、クライアントデバイスに到達するのを防ぐ可能性があるので、これは、クライアントデバイスのセキュリティを強化するのに役立ち得る。
いくつかの実装形態では、ユーザは、視覚的ダイアログステートマシンと口頭ダイアログステートマシンの両方を介して進むために、サードパーティコンピューティングサービスによって提供されたGUIと対話し得る。例として、ユーザは、特定のオブジェクトにズームインするようにGUIを操作し、「これは、なんですか?(What's this?)」などの口頭クエリを提供し得る。GUIを特定のオブジェクトに焦点を合わせることによって、ユーザはまた、口頭ステートマシンを特定のオブジェクトに焦点が合った状態に進める。したがって、「これは、なんですか?(What's this?)」というクエリ内の「これ(this)」という用語は、特定のオブジェクトに解決され得る。
別の例として、サードパーティコンピューティングサービスが、複数選択式のターンベースのダイアログ(例えば、タスクを実行するための段階的なガイダンスに関連する)を提供することを想定する。特定の質問について、クライアントコンピューティングデバイスにおいてレンダリングされたGUIは、サードパーティコンピューティングサービスの視覚的ダイアログステートマシンの特定の状態に対応し得、複数選択式質問と回答の選択肢とを含み得る。同時に、口頭の自然言語出力が、サードパーティコンピューティングサービスの口頭ダイアログステートマシンに従って提供され得る。口頭の自然言語出力は、例えば、複数選択式質問を音読し得る(場合によっては、同様に回答の選択肢も通過し得る)。いくつかの実装形態では、ユーザは、画面上の回答の選択肢のうちの1つを選択するか、または特定の回答の選択肢を示す音声発話を提供することによって、視覚的ダイアログステートマシンと口頭ダイアログステートマシンの両方を異なるそれぞれの状態に(例えば、次の質問に)進め得る。
本明細書で説明した技法は、様々な技術的利点および利益を生じさせ得る。一例として、自由形式の入力に基づいて解釈することおよび/または意図のマッチングを実行することは、かなりのコンピューティングリソースを拘束する。ユーザが自動化されたアシスタントとの会話を進めるために事前定義されたグラフィカル要素と触覚的に対話することを可能にすることによって、これらのリソースは、解釈/意図のマッチングを実行する必要がないことと、サードパーティコンピューティングサービスに関連付けられたダイアログステートマシンの効率的なトラバーサルを可能にすることとの両方から節約され得る。電力およびコンピューティングリソースのそのような浪費またはその他の非効率的もしくは不必要な使用は、クライアントコンピューティングデバイス自体において、および/または自動化されたアシスタントのサーバ部分を動作する1つもしくは複数のネットワークサーバなどのリモートコンピューティング装置において発生し得る。加えて、リモートコンピューティング装置との不必要な通信は、通信ネットワーク上に望ましくない負荷を引き起こす。別の例として、プラットフォーム非依存型ウェブブラウザを、自動化されたアシスタントのクライアント部分に組み込むことによって、サードパーティ開発者は、それらのコンピューティングサービスに一様な方法で付随するように視覚的コンテンツを提供することができる。これは、メカニズム/プロセスが特定のクライアントデバイス用に特別に構成されることを必要とすることなく、コンピューティングサービスおよび視覚的コンテンツが広範囲のクライアントデバイスにわたって提供されることを可能にし得る。
いくつかの実装形態では、少なくとも1つのクライアントコンピューティングデバイスを含むシステムが、提供される。クライアントコンピューティングデバイスは、ディスプレイを有し、自動化されたアシスタントのクライアント部分を実装する。システムは、自動化されたアシスタントのサーバ部分を実装する1つまたは複数のサーバコンピューティングデバイスをさらに含む。ユーザは、ユーザと、自動化されたアシスタントと、サードパーティコンピューティングサービスとの間の人間対コンピュータのダイアログセッションに参加するためにクライアント部分と対話する。サードパーティコンピューティングサービスは、口頭ダイアログステートマシンと視覚的ダイアログステートマシンとに従ってユーザと関わる。自動化されたアシスタントのクライアント部分は、サードパーティコンピューティングサービスから、自動化されたアシスタントのサーバ部分を経由して、視覚的ダイアログステートマシンの第1の視覚的ダイアログ状態を示すデータを受信するように構成される。自動化されたアシスタントのクライアント部分は、第1の視覚的ダイアログ状態に基づいて、ディスプレイ上に、人間対コンピュータのダイアログセッションに関連するグラフィカルユーザインターフェースをレンダリングするようにさらに構成される。グラフィカルユーザインターフェースは、口頭ステートマシンを、第1の視覚的ダイアログ状態に対応する第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させるように動作可能な少なくとも1つのグラフィカル要素を含む。自動化されたアシスタントのクライアント部分は、ユーザによる少なくとも1つのグラフィカル要素の動作を検出するようにさらに構成される。自動化されたアシスタントのクライアント部分は、自動化されたアシスタントのサーバ部分に、少なくとも1つのグラフィカル要素の動作を示すデータを提供するようにさらに構成される。自動化されたアシスタントのサーバ部分は、少なくとも1つのグラフィカル要素の動作を示すデータを、サードパーティコンピューティングサービスに提供するように構成される。少なくとも1つのグラフィカル要素の動作を示すデータは、サードパーティコンピューティングサービスを、第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させる。
本明細書で開示した技術のこれらおよび他の実装形態は、以下の特徴のうちの1つまたは複数を任意選択で含み得る。
いくつかの実装形態では、自動化されたアシスタントのサーバ部分は、サードパーティコンピューティングサービスから、第2の口頭ダイアログ状態を示すデータを受信することと、自動化されたアシスタントのクライアント部分に、第2の口頭ダイアログ状態を示すデータを提供することとを行うようにさらに構成され得る。いくつかの実装形態では、第2の口頭ダイアログ状態を示すデータは、テキストまたはオーディオデータを含み得る。それらの実装形態のうちのいくつかでは、クライアントデバイスは、第2の口頭ダイアログ状態を示すデータを受信したことに応答して、テキストを音声に変換し、音声を可聴にレンダリングすること、または、オーディオデータを可聴にレンダリングすることを行うようにさらに構成され得る。
いくつかの実装形態では、自動化されたアシスタントのサーバ部分からサードパーティコンピューティングサービスへの、少なくとも1つのグラフィカル要素の動作を示すデータの提供は、サードパーティコンピューティングサービスを、第1の視覚的ダイアログ状態から第2の視覚的ダイアログ状態に遷移させ得る。それらの実装形態のうちのいくつかでは、第2の視覚的ダイアログ状態は、第2の口頭ダイアログ状態に対応し得る。それらの実装形態のうちのいくつかでは、自動化されたアシスタントのクライアント部分は、サードパーティコンピューティングサービスから、自動化されたアシスタントのサーバ部分を経由して、第2の視覚的ダイアログ状態を示すデータを受信することと、第2の視覚的ダイアログ状態に基づいて、ディスプレイ上に、人間対コンピュータのダイアログセッションに関連付けられた更新されたグラフィカルユーザインターフェースをレンダリングすることとを行うようにさらに構成され得る。それらの実装形態のうちのいくつかでは、第2の視覚的ダイアログ状態を示すデータは、クライアントデバイスに、更新されたグラフィカルユーザインターフェースをレンダリングするためにタッチレス対話を自動的に実行させ得る。それらの実装形態のうちのいくつかでは、タッチレス対話は、グラフィカルユーザインターフェースの選択可能要素の動作と、グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、グラフィカルユーザインターフェースの一部に対するズームインとのうちの1つまたは複数を含み得る。
いくつかの実装形態では、サードパーティコンピューティングサービスが第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移した後、自動化されたアシスタントのクライアント部分は、ユーザから、クライアントコンピューティングデバイスの1つまたは複数の入力構成要素において、音声の自由形式の入力を受信することと、自動化されたアシスタントのサーバ部分に、音声の自由形式の入力を示すデータを提供することと、自動化されたアシスタントのサーバ部分から、表示内容を示すデータを受信することとを行うようにさらに構成され得る。自動化されたアシスタントのサーバ部分は、サードパーティコンピューティングサービスに、音声の自由形式の入力を示すデータ、または音声の自由形式の入力を示すデータに基づく追加データを提供したことに基づいて、サードパーティコンピューティングサービスから表示内容を示すデータを取得し得る。サードパーティコンピューティングサービスは、受信したデータまたは追加データに基づいて、かつ第2の口頭ダイアログ状態に遷移したことに基づいて、表示内容を示すデータを生成し得る。自動化されたアシスタントのクライアント部分は、受信した表示内容に基づいて、グラフィカルユーザインターフェースにおけるタッチレス対話をトリガするようにさらに構成され得る。
いくつかの実装形態では、タッチレス対話は、グラフィカルユーザインターフェースの選択可能要素の動作と、グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、グラフィカルユーザインターフェースの一部に対するズームインとのうちの1つまたは複数を含み得る。
いくつかの実装形態では、少なくとも1つのクライアントコンピューティングデバイスと1つまたは複数のサーバコンピューティングデバイスとを含むシステムが、提供される。クライアントコンピューティングデバイスは、ディスプレイを有し、自動化されたアシスタントのクライアント部分を実装する。システムは、自動化されたアシスタントのサーバ部分を実装する1つまたは複数のサーバコンピューティングデバイスをさらに含む。ユーザは、ユーザと、自動化されたアシスタントと、サードパーティコンピューティングサービスとの間の人間対コンピュータのダイアログセッションに参加するためにクライアント部分と対話する。自動化されたアシスタントのクライアント部分は、クライアントコンピューティングデバイスのディスプレイ上に、人間対コンピュータのダイアログセッションに関連するグラフィカルユーザインターフェースをレンダリングするように構成される。自動化されたアシスタントのクライアント部分は、ユーザから、クライアントコンピューティングデバイスの1つまたは複数の入力構成要素において、音声の自由形式の入力を受信するようにさらに構成される。自動化されたアシスタントのクライアント部分は、自動化されたアシスタントのサーバ部分に、音声の自由形式の入力を示すデータを提供するようにさらに構成される。自動化されたアシスタントのクライアント部分は、自動化されたアシスタントのサーバ部分から、表示内容を示すデータを受信するようにさらに構成される。自動化されたアシスタントのクライアント部分は、表示内容に基づいて、ユーザとグラフィカルユーザインターフェースとの間のタッチレス対話をトリガするようにさらに構成される。自動化されたアシスタントのサーバ部分は、音声の自由形式の入力を示すデータに基づいて、ユーザの意図を決定するように構成される。自動化されたアシスタントのサーバ部分は、意図を示すデータを、サードパーティコンピューティングサービスに提供するようにさらに構成される。意図を示すデータは、サードパーティコンピューティングサービスに、解決情報を生成するために意図を解決させる。自動化されたアシスタントのサーバ部分は、意図を示すデータの提供に応答して、サードパーティコンピューティングサービスから表示内容を受信するようにさらに構成される。表示内容は、人間対コンピュータのダイアログセッションに関連してサードパーティコンピューティングサービスのために維持され、ユーザの意図と解決情報のうちの一方または両方に少なくとも部分的に基づいて更新される。
本明細書で開示した技術のこれらおよび他の実装形態は、以下の特徴のうちの1つまたは複数を任意選択で含み得る。
いくつかの実装形態では、グラフィカルユーザインターフェースは、自動化されたアシスタントのクライアント部分に組み込まれたウェブブラウザを含み得る。いくつかの実装形態では、タッチレス対話は、グラフィカルユーザインターフェースの選択可能要素の動作と、グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、グラフィカルユーザインターフェースの一部に対するズームインとのうちの1つまたは複数を含み得る。
いくつかの実装形態では、ディスプレイを有するクライアントデバイスにおいて、自動化されたアシスタントのクライアント部分を実装するステップを含む、1つまたは複数のプロセッサによって実行される方法が、提供される。方法は、1つまたは複数のサーバコンピューティングデバイスにおいて、自動化されたアシスタントのサーバ部分を実装するステップをさらに含む。ユーザは、ユーザと、自動化されたアシスタントと、サードパーティコンピューティングサービスとの間の人間対コンピュータのダイアログセッションに参加するために、クライアント部分と対話する。サードパーティコンピューティングサービスは、口頭ダイアログステートマシンと視覚的ダイアログステートマシンとに従ってユーザと関わる。方法は、クライアント部分において、サードパーティコンピューティングサービスから、自動化されたアシスタントのサーバ部分を経由して、視覚的ダイアログステートマシンの第1の視覚的ダイアログ状態を示すデータを受信するステップをさらに含む。方法は、クライアント部分によって、第1の視覚的ダイアログ状態に基づいて、ディスプレイ上に、人間対コンピュータのダイアログセッションに関連するグラフィカルユーザインターフェースをレンダリングするステップをさらに含む。グラフィカルユーザインターフェースは、口頭ステートマシンを、第1の視覚的ダイアログ状態に対応する第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させるように動作可能な少なくとも1つのグラフィカル要素を含む。方法は、クライアント部分によって、ユーザによる少なくとも1つのグラフィカル要素の動作を検出するステップをさらに含む。方法は、クライアント部分によって、自動化されたアシスタントのサーバ部分に、少なくとも1つのグラフィカル要素の動作を示すデータを提供するステップをさらに含む。方法は、サーバ部分によって、少なくとも1つのグラフィカル要素の動作を示すデータを、サードパーティコンピューティングサービスに提供するステップをさらに含む。少なくとも1つのグラフィカル要素の動作を示すデータは、サードパーティコンピューティングサービスを、第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させる。
本明細書で開示した技術のこれらおよび他の実装形態は、以下の特徴のうちの1つまたは複数を任意選択で含み得る。
いくつかの実装形態では、方法は、サーバ部分によって、サードパーティコンピューティングサービスから、第2の口頭ダイアログ状態を示すデータを受信するステップと、サーバ部分によって、自動化されたアシスタントのクライアント部分に、第2の口頭ダイアログ状態を示すデータを提供するステップとをさらに含み得る。いくつかの実装形態では、自動化されたアシスタントのサーバ部分からサードパーティコンピューティングサービスへの、少なくとも1つのグラフィカル要素の動作を示すデータの提供は、サードパーティコンピューティングサービスを、第1の視覚的ダイアログ状態から第2の視覚的ダイアログ状態に遷移させ得る。
いくつかの実装形態では、1つまたは複数のプロセッサによって少なくとも部分的に実装されたコンピューティングサービスによって、自動化されたアシスタントから、ユーザと自動化されたアシスタントとの間の人間対コンピュータのダイアログセッションの一部として自動化されたアシスタントと通信しているコンピューティングデバイスのユーザの意図を示すデータを受信するステップを含む、1つまたは複数のプロセッサによって実行される方法が、提供される。方法は、解決情報を生成するためにユーザの意図を解決するステップをさらに含む。方法は、人間対コンピュータのダイアログセッションに関連してコンピューティングサービスのために維持された表示内容を更新するステップをさらに含む。更新するステップは、意図と解決情報のうちの一方または両方に少なくとも部分的に基づく。方法は、表示内容を示すデータを自動化されたアシスタントに提供するステップをさらに含む。表示内容を示すデータは、自動化されたアシスタントによってコンピューティングデバイスに提供され、表示内容を示すデータは、コンピューティングデバイス上で実行されているアシスタントアプリケーションに、ユーザとアシスタントアプリケーションのグラフィカルユーザインターフェースとの間のタッチレス対話をトリガさせる。
本明細書で開示した技術のこれらおよび他の実装形態は、以下の特徴のうちの1つまたは複数を任意選択で含み得る。
いくつかの実装形態では、グラフィカルユーザインターフェースは、アシスタントアプリケーション内に組み込まれたウェブブラウザを含み得る。いくつかの実装形態では、タッチレス対話は、グラフィカルユーザインターフェースの選択可能要素の動作、グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、グラフィカルユーザインターフェースの一部に対するズームインとのうちの1つまたは複数を含み得る。それらの実装形態のうちのいくつかでは、ユーザの意図を示すデータは、コンピューティングデバイスにおいてユーザによって提供された音声の自由形式の入力の音声認識出力を含み得る。いくつかの実装形態では、方法は、コンピューティングサービスによって、音声認識出力に基づいてユーザの意図を決定するステップをさらに含み得る。
他の実装形態は、上記および/または本明細書の他の箇所で説明した方法のうちの1つまたは複数などの方法を実行するために、1つまたは複数のプロセッサ(例えば、中央処理装置(CPU)、グラフィック処理ユニット(GPU)、および/またはテンソル処理ユニット(TPU))によって実行可能な命令を記憶する非一時的コンピュータ可読記憶媒体を含み得る。さらに他の実装形態は、上記および/または本明細書の他の箇所で説明した方法のうちの1つまたは複数などの方法を実行するために、記憶された命令を実行するように動作可能な1つまたは複数のプロセッサを含む1つまたは複数のコンピュータのシステムを含み得る。
本明細書でより詳細に説明した前述の概念および追加の概念のすべての組合せは、本明細書で開示した主題の一部であると考えられることが、理解されるべきである。例えば、本開示の終わりに現れる特許請求された主題のすべての組合せは、本明細書で開示した主題の一部であると考えられる。
本明細書で開示した実装形態が実装され得る例示的な環境のブロック図である。 様々な実装形態による、自動化されたアシスタントのクライアント部分において実装され得る構成要素の例を示す図である。 本明細書で説明した技法が1つのシナリオにおいてどのように用いられ得るのかの例を示す図である。 本明細書で説明した技法が1つのシナリオにおいてどのように用いられ得るのかの例を示す図である。 本明細書で説明した技法が別のシナリオにおいてどのように用いられ得るのかの例を示す図である。 本明細書で説明した技法が別のシナリオにおいてどのように用いられ得るのかの例を示す図である。 本明細書で説明した技法がさらに別のシナリオにおいてどのように用いられ得るのかの例を示す図である。 本明細書で開示した実装形態による例示的な方法を示すフローチャートである。 本明細書で開示した実装形態による例示的な方法を示すフローチャートである。 コンピューティングデバイスの例示的なアーキテクチャを示す図である。
ここで図1に注目すると、本明細書で開示した技法が実装され得る例示的な環境が、示されている。例示的な環境は、1つまたは複数のクライアントコンピューティングデバイス106を含む。各クライアントデバイス106は、本明細書では自動化されたアシスタントの「クライアント部分」と呼ばれる場合もある自動化されたアシスタントクライアント108のそれぞれのインスタンスを実行し得る。本明細書では自動化されたアシスタントの「サーバ部分」と集合的に呼ばれる場合もある1つまたは複数のクラウドベースの自動化されたアシスタント構成要素119は、一般に114において示す1つまたは複数のローカルおよび/またはワイドエリアネットワーク(例えば、インターネット)を介してクライアントデバイス106に通信可能に結合された1つまたは複数のコンピューティングシステム(「クラウド」コンピューティングシステムと集合的に呼ばれる)上に実装され得る。
様々な実装形態では、自動化されたアシスタントクライアント108のインスタンスは、1つまたは複数のクラウドベースの自動化されたアシスタント構成要素119とのその対話を経由して、ユーザの観点から、ユーザが人間対コンピュータのダイアログに関わり得る自動化されたアシスタント120の論理インスタンスであるように見えるものを形成し得る。そのような自動化されたアシスタント120の一例が、図1において破線で示されている。したがって、クライアントデバイス106上で実行されている自動化されたアシスタントクライアント108と関わる各ユーザは、事実上、自動化されたアシスタント120のユーザ自体の論理インスタンスと関わり得ることが、理解されるべきである。簡潔さおよび単純さのために、特定のユーザに「サービスする」ものとして本明細書で使用される「自動化されたアシスタント」という用語は、ユーザによって動作されるクライアントデバイス106上で実行されている自動化されたアシスタントクライアント108と、(複数の自動化されたアシスタントクライアント108間で共有され得る)1つまたは複数のクラウドベースの自動化されたアシスタント構成要素119との組合せを指す。いくつかの実装形態では、自動化されたアシスタント120は、ユーザが自動化されたアシスタント120のその特定のインスタンスによって実際に「サービス」されているかに関係なく、任意のユーザからの要求に応答し得ることも、理解されるべきである。
1つまたは複数のクライアントデバイス106は、例えば、デスクトップコンピューティングデバイス、ラップトップコンピューティングデバイス、タブレットコンピューティングデバイス、携帯電話コンピューティングデバイス、ユーザのビークルのコンピューティングデバイス(例えば、ビークル内通信システム、ビークル内エンターテインメントシステム、ビークル内ナビゲーションシステム)、独立型対話式スピーカ(場合によっては、視覚センサを含み得る)、スマートテレビ(または、自動化されたアシスタント能力を有するネットワーク化されたドングルを備えた標準テレビ)などのスマート家電、および/またはコンピューティングデバイスを含むユーザのウェアラブル装置(例えば、コンピューティングデバイスを有するユーザの腕時計、コンピューティングデバイスを有するユーザの眼鏡、仮想または拡張現実コンピューティングデバイス)のうちの1つまたは複数を含み得る。追加のおよび/または代替のクライアントコンピューティングデバイスが、提供され得る。独立型対話式スピーカ(または「スマートスピーカ」)などのいくつかのクライアントデバイス106は、ユーザと自動化されたアシスタント120との間の対話を容易にするように主として設計されたアシスタントデバイスの形態をとり得る。
いくつかの実装形態では、クライアントデバイス106は、必須ではないが、1つまたは複数の視野を有する1つまたは複数の視覚センサ107を備え得る。視覚センサ107は、デジタルカメラ、パッシブ赤外線(「PIR」)センサ、ステレオカメラ、RGBdカメラなどの様々な形態をとり得る。1つまたは複数の視覚センサ107は、クライアントデバイス106が展開されている環境の画像フレーム(静止画またはビデオ)をキャプチャするために、例えば、画像キャプチャモジュール111によって使用され得る。これらの画像フレームは、次いで、画像フレーム内に含まれるユーザが提供した視覚的手がかりを検出するために、例えば、視覚的手がかりモジュール1121によって分析され得る。これらの視覚的手がかりは、限定はしないが、手のジェスチャ、特定の基準点への注視、顔の表情、ユーザによる事前定義された動きなどを含み得る。これらの検出された視覚的手がかりは、自動化されたアシスタント120を呼び出すおよび/または自動化されたアシスタント120に様々なアクションをとらせるなどの、様々な目的のために使用され得る。
本明細書でより詳細に説明したように、自動化されたアシスタント120は、1つまたは複数のクライアントデバイス106のユーザインターフェース入力および出力デバイスを介して、1人または複数のユーザとの人間対コンピュータのダイアログセッションに関わる。いくつかの実装形態では、自動化されたアシスタント120は、クライアントデバイス106のうちの1つの1つまたは複数のユーザインターフェース入力デバイスを介してユーザによって提供されたユーザインターフェース入力に応答して、ユーザとの人間対コンピュータのダイアログセッションに関わり得る。それらの実装形態のうちのいくつかでは、ユーザインターフェース入力は、自動化されたアシスタント120に明示的に向けられる。例えば、ユーザは、自動化されたアシスタント120に、タイプされたテキストを積極的に聞き取るまたは監視することを開始させるために、「オーケー、アシスタント(OK, Assistant)」または「ねえ、アシスタント(Hey, Assistant)」などの所定の呼び出しフレーズを口頭で提供(例えば、タイプする、話す)し得る。追加的または代替的に、いくつかの実装形態では、自動化されたアシスタント120は、単独で、または口頭呼び出しフレーズと組み合わせて、1つまたは複数の検出された視覚的手がかりに基づいて呼び出され得る。
いくつかの実装形態では、自動化されたアシスタント120は、ユーザインターフェース入力が自動化されたアシスタント120に明示的に向けられていない場合であっても、ユーザインターフェース入力に応答して人間対コンピュータのダイアログセッションに関わり得る。例えば、自動化されたアシスタント120は、ユーザインターフェース入力の内容を調査し、ユーザインターフェース入力内に存在している特定の用語に応答して、および/または他の手がかりに基づいて、ダイアログセッションに関わり得る。多くの実装形態では、自動化されたアシスタント120は、ユーザからの発話をテキストに変換するために音声認識を利用し、それに応じて、例えば、検索結果、一般的な情報を提供すること、および/または1つもしくは複数の応答アクション(例えば、メディアを再生すること、ゲームを起動すること、食べ物を注文することなど)をとることによって、テキストに応答し得る。いくつかの実装形態では、自動化されたアシスタント120は、追加的または代替的に、発話をテキストに変換することなく発話に応答することができる。例えば、自動化されたアシスタント120は、音声入力を、埋め込み、(音声入力内に存在するエンティティを示す)エンティティ表現、および/または他の「非テキスト」表現に変換し、そのような非テキスト表現に対して動作することができる。したがって、音声入力から変換されたテキストに基づいて動作するものとして本明細書で説明した実装形態は、追加的および/または代替的に、音声入力に対して直接、および/または音声入力の他の非テキスト表現に対して動作し得る。
クライアントコンピューティングデバイス106、およびクラウドベースの自動化されたアシスタント構成要素119を動作させるコンピューティングデバイスの各々は、データおよびソフトウェアアプライアンスを記憶するための1つまたは複数のメモリと、データにアクセスし、アプリケーションを実行するための1つまたは複数のプロセッサと、ネットワークを介する通信を容易にする他の構成要素とを含み得る。クライアントコンピューティングデバイス106によっておよび/または自動化されたアシスタント120によって実行される動作は、複数のコンピュータシステムにわたって分散され得る。自動化されたアシスタント120は、例えば、ネットワークを介して互いに結合された1つまたは複数の場所における1つまたは複数のコンピュータ上で実行されるコンピュータプログラムとして実装され得る。
上記のように、様々な実装形態では、クライアントコンピューティングデバイス106は、自動化されたアシスタントクライアント108、または自動化されたアシスタント120の「クライアント部分」を動作させ得る。様々な実装形態では、自動化されたアシスタントクライアント108は、スピーチキャプチャモジュール110、前述の画像キャプチャモジュール111、視覚的手がかりモジュール1121、および/または呼び出しモジュール112を含み得る。他の実装形態では、スピーチキャプチャモジュール110、画像キャプチャモジュール111、視覚的手がかりモジュール1121、および/または呼び出しモジュール113の1つまたは複数の態様は、例えば、1つまたは複数のクラウドベースの自動化されたアシスタント構成要素119によって、自動化されたアシスタントクライアント108とは別に実装され得る。例えば、図1において、画像データ内の視覚的手がかりを検出し得るクラウドベースの視覚的手がかりモジュール1122も、存在する。
様々な実装形態では、ハードウェアとソフトウェアとの任意の組合せを使用して実装され得るスピーチキャプチャモジュール110は、ユーザの発話のオーディオ記録をキャプチャするために、マイクロフォン109または他の圧力センサなどのハードウェアとインターフェースし得る。様々な目的のために、様々なタイプの処理が、このオーディオ記録に対して実行され得る。いくつかの実装形態では、ハードウェアまたはソフトウェアの任意の組合せを使用して実装され得る画像キャプチャモジュール111は、視覚センサ107の視野に対応する1つまたは複数の画像フレーム(例えば、デジタル写真)をキャプチャするために、カメラ107とインターフェースするように構成され得る。
様々な実装形態では、視覚的手がかりモジュール1121(および/またはクラウドベースの視覚的手がかりモジュール1122)は、ハードウェアとソフトウェアとの任意の組合せを使用して実装され得、1つまたは複数の画像フレーム内および/またはそれらにわたってキャプチャされた1つまたは複数の視覚的手がかりを検出するために、画像キャプチャモジュール111によって提供された1つまたは複数の画像フレームを分析するように構成され得る。視覚的手がかりモジュール1121は、視覚的手がかりを検出するために様々な技法を用い得る。例えば、図1において、視覚的手がかりモジュール1121は、(クライアントデバイス106と一体であり得、および/または、例えば、クラウド内で、クライアントデバイス106からリモートでホストされ得る)視覚的手がかりモデルデータベース114と通信可能に結合されている。視覚的手がかりモデルデータベース114は、例えば、画像フレーム内の検出されたユーザが提供した視覚的手がかりを示す出力を生成するように訓練された1つまたは複数の人工知能(または機械学習)モデルを含み得る。
スピーチキャプチャモジュール110は、前述のように、例えば、マイクロフォン109を介して、ユーザのスピーチをキャプチャするように構成され得る。追加的または代替的に、いくつかの実装形態では、スピーチキャプチャモジュール110は、例えば、スピーチ-テキスト(「STT」)処理技法を使用して、キャプチャされたオーディオをテキストおよび/または他の表現もしくは埋め込みに変換するようにさらに構成され得る。追加的または代替的に、いくつかの実装形態では、スピーチキャプチャモジュール110は、例えば、1つまたは複数の音声シンセサイザを使用して、テキストをコンピュータ合成音声に変換するように構成され得る。しかしながら、クライアントデバイス106は、コンピューティングリソース(例えば、プロセッササイクル、メモリ、バッテリなど)に関して比較的制約される場合があるので、クライアントデバイス106に対してローカルなスピーチキャプチャモジュール110は、有限数の異なる発話フレーズ、特に、自動化されたアシスタント120を呼び出すフレーズを、テキスト(または、より低次元の埋め込みなどの他の形式)に変換するように構成され得る。他のスピーチ入力は、クラウドベースのテキスト-スピーチ(「TTS」)モジュール116および/またはクラウドベースのSTTモジュール117を含み得るクラウドベースの自動化されたアシスタント構成要素119に送信され得る。
様々な実装形態では、呼び出しモジュール113は、例えば、スピーチキャプチャモジュール110および/または(いくつかの実装形態では、単一のモジュール内で画像キャプチャモジュール111と組み合わされ得る)視覚的手がかりモジュール1121によって提供された出力に基づいて、自動化されたアシスタント120を呼び出すかどうかを決定するように構成され得る。例えば、呼び出しモジュール113は、ユーザの発話が、自動化されたアシスタント120との人間対コンピュータのダイアログセッションを開始すべき呼び出しフレーズとして適格であるかどうかを決定し得る。いくつかの実装形態では、呼び出しモジュール113は、オーディオ記録またはオーディオ記録から抽出された特徴のベクトル(例えば、埋め込み)などの、ユーザの発話を示すデータを、視覚的手がかりモジュール1121によって検出された1つまたは複数の視覚的手がかりと組み合わせて分析し得る。いくつかの実装形態では、音声発話に応答して自動化されたアシスタント120を呼び出すかどうかを決定するために呼び出しモジュール113によって用いられるしきい値は、特定の視覚的手がかりも検出されたときに下げられ得る。その結果、ユーザが、適切な呼び出しフレーズ「オーケー、アシスタント(OK assistant)」とは異なるが、音声学的に多少類似した音声発話を提供した場合であっても、それにもかかわらず、その発話は、視覚的手がかり(例えば、話者による手振り、話者が視覚センサ107を直接見つめるなど)と併せて検出された場合、適切な呼び出しとして受け入れられ得る。
いくつかの実装形態では、発話および/または視覚的手がかりが呼び出しとして適格であるかどうかを決定するために、デバイス上の呼び出しモデルが、呼び出しモジュール113によって使用され得る。そのようなデバイス上の呼び出しモデルは、呼び出しフレーズ/ジェスチャのバリエーションを検出するように訓練され得る。例えば、いくつかの実装形態では、デバイス上の呼び出しモデル(例えば、1つまたは複数のニューラルネットワーク)は、ユーザからの発話のオーディオ記録(または抽出された特徴ベクトル)、ならびに発話と同時にキャプチャされた1つまたは複数の画像フレームおよび/または検出された視覚的手がかりを示すデータを各々が含む訓練例を使用して訓練され得る。
クラウドベースのTTSモジュール116は、テキストデータ(例えば、自動化されたアシスタント120によって定式化された自然言語応答)をコンピュータ生成スピーチ出力に変換するために、クラウドの事実上無制限のリソースを活用するように構成され得る。いくつかの実装形態では、TTSモジュール116は、例えば、1つまたは複数のスピーカを使用して、直接出力されるように、コンピュータ生成スピーチ出力をクライアントデバイス106に提供し得る。他の実装形態では、自動化されたアシスタント120によって生成されたテキストデータ(例えば、自然言語応答)は、スピーチキャプチャモジュール110に提供され得、スピーチキャプチャモジュール110は、次いで、テキストデータを、ローカルに出力されるコンピュータ生成スピーチに変換し得る。
クラウドベースのSTTモジュール117は、スピーチキャプチャモジュール110によってキャプチャされたオーディオデータをテキストに変換するために、クラウドの事実上無制限のリソースを活用するように構成され得、テキストは、次いで、自然言語理解モジュール135に提供され得る。いくつかの実装形態では、クラウドベースのSTTモジュール117は、スピーチのオーディオ記録を1つまたは複数の音素に変換し、次いで、1つまたは複数の音素をテキストに変換し得る。追加的または代替的に、いくつかの実装形態では、STTモジュール117は、状態復号グラフを用い得る。いくつかの実装形態では、STTモジュール117は、ユーザの発話の複数の候補テキスト解釈を生成し得る。いくつかの実装形態では、STTモジュール117は、同時に検出された視覚的手がかりが存在するかどうかに応じて、特定の候補テキスト解釈を他のものよりも高く重み付けまたはバイアスし得る。例えば、2つの候補テキスト解釈が同様の信頼スコアを有すると想定する。従来の自動化されたアシスタント120では、ユーザは、これらの候補テキスト解釈間の曖昧さをなくすように求められ得る。しかしながら、本開示の選択された態様を用いて構成される自動化されたアシスタント120では、1つまたは複数の検出された視覚的手がかりが、「均衡を破る(break the tie)」ために使用され得る。
自動化されたアシスタント120(および特に、クラウドベースの自動化されたアシスタント構成要素119)は、意図照合器(matcher)135と、前述のTTSモジュール116と、前述のSTTモジュール117と、以下でより詳細に説明している他の構成要素とを含み得る。いくつかの実装形態では、モジュールおよび/または自動化されたアシスタント120のモジュールのうちの1つまたは複数は、省略、結合、および/または自動化されたアシスタント120とは別の構成要素内に実装され得る。いくつかの実装形態では、プライバシーを保護するために、自然言語プロセッサ122、TTSモジュール116、STTモジュール117などの、自動化されたアシスタント120の構成要素のうちの1つまたは複数は、(例えば、クラウドを除く)クライアントデバイス106上の少なくともパーツ上に実装され得る。
いくつかの実装形態では、自動化されたアシスタント120は、自動化されたアシスタント120との人間対コンピュータのダイアログセッション中にクライアントデバイス106のうちの1つのユーザによって生成された様々な入力に応答して応答内容を生成する。自動化されたアシスタント120は、ダイアログセッションの一部としてユーザに提示するための応答内容を(例えば、ユーザのクライアントデバイスから分離されている場合、1つまたは複数のネットワークを介して)提供し得る。例えば、自動化されたアシスタント120は、クライアントデバイス106を介して提供された自由形式の自然言語入力に応答して応答内容を生成し得る。本明細書で使用される場合、自由形式の入力は、ユーザによって定式化され、ユーザによる選択のために提示されたオプションのグループに制約されない入力である。
本明細書で使用される場合、「ダイアログセッション」は、ユーザと自動化されたアシスタント120(および、場合によっては、他の人間の参加者)との間の1つまたは複数のメッセージの論理的に自己充足型の交換を含み得る。自動化されたアシスタント120は、セッション間の時間の経過、セッション間のユーザコンテキスト(例えば、場所、スケジュールされた会議の前/中/後など)の変化、ユーザと自動化されたアシスタント間のダイアログ以外のユーザとクライアントデバイスとの間の1つまたは複数の介在する対話(例えば、ユーザがしばらくの間アプリケーションを切り替える、ユーザが独立型の音声起動製品から離れ、後に戻る)の検出、セッション間のクライアントデバイスのロック/スリープ、自動化されたアシスタント120の1つまたは複数のインスタンスとインターフェースするために使用されるクライアントデバイスの変更などの、様々な信号に基づいてユーザとの複数のダイアログセッション間を区別し得る。
意図照合器135は、ユーザによって提供された入力(例えば、音声発話、視覚的手がかりなど)に基づいて、および/またはセンサ信号、オンライン信号(例えば、ウェブサービスから取得されたデータ)などの他の信号などに基づいて、ユーザの意図を決定するように構成され得る。いくつかの実装形態では、意図照合器135は、自然言語プロセッサ122と、前述のクラウドベースの視覚的手がかりモジュール1122とを含み得る。様々な実装形態では、クラウドベースの視覚的手がかりモジュール1122は、クラウドベースの視覚的手がかりモジュール1122が自由になるより多くのリソースを有し得ることを除いて、視覚的手がかりモジュール1121と同様に動作し得る。特に、クラウドベースの視覚的手がかりモジュール1122は、ユーザの意図を決定するために、単独でまたは他の信号と組み合わせて意図照合器135によって使用され得る視覚的手がかりを検出し得る。
自然言語プロセッサ112は、クライアントデバイス106を介してユーザによって生成された自然言語入力を処理するように構成され得、自動化されたアシスタント120の1つまたは複数の他の構成要素によって使用するための注釈付き出力(例えば、テキスト形式)を生成し得る。例えば、自然言語プロセッサ122は、クライアントデバイス106の1つまたは複数のユーザインターフェース入力デバイスを介してユーザによって生成された自然言語自由形式入力を処理し得る。生成された注釈付き出力は、自然言語入力の1つまたは複数の注釈と、自然言語入力の用語のうちの1つまたは複数(例えば、すべて)とを含む。
いくつかの実装形態では、自然言語プロセッサ122は、自然言語入力内の様々なタイプの文法情報を識別し、注釈を付けるように構成される。例えば、自然言語プロセッサ122は、個々の単語を形態素に分離し、および/または形態素に、例えば、それらのクラスで注釈を付け得る形態素モジュールを含み得る。自然言語プロセッサ122は、用語にそれらの文法的役割で注釈を付けるように構成される品詞タグ付け器も含み得る。例えば、品詞タグ付け器は、各用語に、「名詞」、「動詞」、「形容詞」、「代名詞」などのその品詞でタグ付けし得る。また、例えば、いくつかの実装形態では、自然言語プロセッサ122は、追加的および/または代替的に、自然言語入力内の用語間の統語関係(syntactic relationship)を決定するように構成される係り受け解析器(dependency parser)(図示せず)を含み得る。例えば、係り受け解析器は、どの用語が文の他の用語、主語、動詞などを変更するか(例えば、解析木)を決定し得、そのような係り受けの注釈を付け得る。
いくつかの実装形態では、自然言語プロセッサ122は、追加的および/または代替的に、人(例えば、文学のキャラクタ、有名人、公人などを含む)、組織、場所(実在および架空)などへの参照などの、1つまたは複数のセグメント内のエンティティ参照に注釈を付けるように構成されるエンティティタグ付け器(図示せず)を含み得る。いくつかの実装形態では、エンティティに関する情報は、ナレッジグラフ内(図示せず)などの1つまたは複数のデータベース内に記憶され得る。いくつかの実装形態では、ナレッジグラフは、既知のエンティティ(および、場合によっては、エンティティ属性)を表すノード、ならびにノードを接続し、エンティティ間の関係を表すエッジを含み得る。例えば、「バナナ」ノードは、「フルーツ」ノードに(例えば、子供として)接続され得、「フルーツ」ノードは、次に、「農産物」ノードおよび/または「食品」ノードに(例えば、子供として)接続され得る。別の例として、「仮想カフェ(Hypothetical Cafe)」と呼ばれるレストランは、その住所、提供される食品のタイプ、時間、連絡先情報などの属性も含むノードによって表され得る。「仮想カフェ」ノードは、いくつかの実装形態では、(例えば、子供-親関係を表す)エッジによって、「レストラン」ノード、「ビジネス」ノード、レストランが位置する都市および/または州を表すノードなどの、1つまたは複数の他のノードに接続され得る。
自然言語プロセッサ122のエンティティタグ付け器は、(例えば、人などのエンティティクラスへのすべての参照の識別を可能にする)高いレベルの粒度、および/または(例えば、特定の人物などの特定のエンティティへのすべての参照の識別を可能にする)より低いレベルの粒度において、エンティティへの参照に注釈を付け得る。エンティティタグ付け器は、特定のエンティティを解決するために自然言語入力の内容に依存し得、および/または特定のエンティティを解決するためにナレッジグラフもしくは他のエンティティデータベースと任意選択で通信し得る。
いくつかの実装形態では、自然言語プロセッサ122は、追加的および/または代替的に、1つまたは複数の文脈的手がかりに基づいて、同じエンティティへの参照をグループ化または「クラスタ化」するように構成される共参照リゾルバ(coreference resolver)(図示せず)を含み得る。例えば、共参照リゾルバは、「私は、前回そこで食べたときに仮想カフェが好きでした(I liked Hypothetical Cafe last time we ate there)」という自然言語入力内の「そこで(there)」という用語を「仮想カフェ(Hypothetical Cafe)」に解決するために使用され得る。
いくつかの実装形態では、自然言語プロセッサ122の1つまたは複数の構成要素は、自然言語プロセッサ122の1つまたは複数の他の構成要素からの注釈に依存し得る。例えば、いくつかの実装形態では、名前付きエンティティタグ付け器は、特定のエンティティへのすべての言及に注釈を付ける際に、共参照リゾルバおよび/または係り受け解析器からの注釈に依存し得る。また、例えば、いくつかの実装形態では、共参照リゾルバは、同じエンティティへの参照をクラスタ化する際に、係り受け解析器からの注釈に依存し得る。いくつかの実装形態では、特定の自然言語入力を処理する際に、自然言語プロセッサ122の1つまたは複数の構成要素は、1つまたは複数の注釈を決定するために、特定の自然言語入力の外部の関連する以前の入力および/または他の関連するデータを使用し得る。
意図照合器135は、例えば、(自然言語入力の注釈および用語を含み得る)自然言語プロセッサ122からの出力に基づいて、および/または視覚的手がかりモジュール(例えば、1121および/または1122)からの出力に基づいて、ユーザの意図を決定するために様々な技法を使用し得る。いくつかの実装形態では、意図照合器135は、例えば、文法と、視覚的手がかりと、応答アクション(またはより一般的にはインテント)との間の複数のマッピングを含む1つまたは複数のデータベース(図示せず)にアクセスし得る。多くの場合、これらの文法は、時間の経過とともに選択および/または学習され得、ユーザの最も一般的な意図を表し得る。例えば、「再生する<アーティスト>(play<artist>)」という1つの文法は、ユーザによって動作されるクライアントデバイス106上で<アーティスト>(<artist>)による音楽を再生させる応答アクションを呼び出す意図にマッピングされ得る。「[天気|予報]今日([weather|forecast]today)」という別の文法は、「今日の天気は、なんですか?(what's the weather today)」および「今日の予報は、なんですか?(what's the forecast for today?)」などのユーザクエリに一致可能であり得る。
文法に加えて、またはその代わりに、いくつかの実装形態では、意図照合器135は、1つまたは複数の訓練された機械学習モデルを、単独で、または1つもしくは複数の文法および/もしくは視覚的手がかりと組み合わせて用い得る。これらの訓練された機械学習モデルはまた、1つまたは複数のデータベース内に記憶され得、例えば、ユーザの意図および/または任意の検出されたユーザが提供した視覚的手がかりを示すデータを次元が低下した空間に埋め込み、次いで、例えば、ユークリッド距離、コサイン類似度などの技法を使用して、他のどの埋め込み(および、したがって意図)が最も近接しているかを決定することによって、意図を識別するように訓練され得る。
「再生する<アーティスト>(play<artist>)」の例示的な文法に見られるように、いくつかの文法は、スロット値(または「パラメータ」)で満たされ得るスロット(例えば、<アーティスト>(<artist>))を有する。スロット値は、様々な方法で決定され得る。しばしば、ユーザは、スロット値を積極的に提供する。例えば、「<トッピング>ピザを注文して(Order me a <topping> pizza)」という文法について、ユーザは、「ソーセージピザを注文して(order me a sausage pizza)」というフレーズを話す可能性があり得、その場合、スロット<トッピング>(<topping>)は、自動的に満たされる。追加的または代替的に、ユーザがスロット値を積極的に提供することなく、ユーザがスロット値で満たされるべきスロットを含む文法を呼び出した場合、自動化されたアシスタント120は、ユーザからそれらのスロット値を求め得る(例えば、「ピザにどのタイプのクラストを望みますか?(what type of crust do you want on your pizza?)」)。いくつかの実装形態では、スロットは、視覚的手がかりモジュール1121-2によって検出された視覚的手がかりに基づくスロット値で満たされ得る。例えば、ユーザは、クライアントデバイス106の視覚センサ107に3本の指を立てながら、「これだけ多くの猫ボウルを注文して(Order me this many cat bowls)」のようななにかを発することができる。または、ユーザは、特定の映画のDVDケースを持ちながら、「このような映画をもっと見つけて(Find me more movies like this)」のようななにかを発することができる。
いくつかの実装形態では、自動化されたアシスタント120は、ユーザと1つまたは複数のサードパーティコンピューティングサービス140(または「サードパーティエージェント」または「エージェント」)との間の仲介者として機能し得る。これらのサードパーティコンピューティングサービス140は、入力を受信し、応答出力を提供する独立したソフトウェアプロセスであり得る。いくつかのサードパーティコンピューティングサービスは、例えば、クラウドベースの自動化されたアシスタント構成要素119を動作させるものとは別のコンピューティングシステム上で動作してもしなくてもよいサードパーティアプリケーションの形態をとり得る。意図照合器135によって識別され得るユーザ意図の1つの種類は、サードパーティコンピューティングサービス140と関わることである。例えば、自動化されたアシスタント120は、スマートデバイスを制御するためのサービスへのアプリケーションプログラミングインターフェース(「API」)へのアクセスを提供し得る。ユーザは、自動化されたアシスタント120を呼び出し、「暖房をオンにしたい(I'd like to turn the heating on)」などのコマンドを提供し得る。意図照合器135は、サードパーティサービスと関わるように自動化されたアシスタント120をトリガし、それによってユーザの暖房をオンにさせる文法にこのコマンドをマッピングし得る。サードパーティサービスは、暖房をオンにするコマンドを履行する(または「解決する」)ために満たされる必要があるスロットの最小限のリストを、自動化されたアシスタント120に提供し得る。この例では、スロットは、暖房が設定されるべき温度と、暖房がオンにされるべき持続時間とを含み得る。自動化されたアシスタント120は、スロットのためのパラメータを求める自然言語出力を生成し、(クライアントデバイス106を介して)ユーザに提供し得る。
履行モジュール124は、意図照合器135によって出力された予測された/推定された意図、ならびに関連するスロット値(ユーザによって積極的に提供されるか、またはユーザに求められるかにかかわらず)を受信し、意図を履行する(または「解決する」)ように構成され得る。様々な実装形態では、ユーザの意図の履行(または「解決」)は、例えば、履行モジュール124によって、様々な履行情報(「応答」情報または「解決情報」とも呼ばれる)を生成/取得させ得る。以下に説明しているように、履行情報は、いくつかの実装形態では、履行情報に基づいて自然言語出力を生成し得る自然言語生成器(いくつかの図では「NLG」)126に提供され得る。
意図は、様々な方法で満たされ(または「解決され」)得るので、履行(または「解決」)情報は、様々な形態をとり得る。ユーザが「「シャイニング」の屋外ショットはどこで撮影されたのか?(Where were the outdoor shots of ‘The Shining' filmed?)」などの純粋な情報を要求すると想定する。ユーザの意図は、例えば、意図照合器135によって、検索クエリであるとして決定され得る。検索クエリの意図および内容は、履行モジュール124に提供され得、履行モジュール124は、図1に示すように、応答情報のための文書および/または他のデータ源(例えば、ナレッジグラフなど)のコーパスを検索するように構成される1つまたは複数の検索モジュール150と通信し得る。履行モジュール124は、検索クエリを示すデータ(例えば、クエリのテキスト、次元が低下した埋め込みなど)を検索モジュール150に提供し得る。検索モジュール150は、GPS座標などの応答情報、または「オレゴン州、フッド山、ティンバーラインロッジ(Timberline Lodge, Mt. Hood, Oregon)」などの他のより明示的な情報を提供し得る。この応答情報は、履行モジュール124によって生成された履行情報の一部を形成し得る。
追加的または代替的に、履行モジュール124は、例えば、自然言語理解モジュール135から、ユーザによって提供された、または他の手段によって決定されたユーザの意図と任意のスロット値(例えば、ユーザのGPS座標、ユーザ設定など)とを受信し、応答アクションをトリガするように構成され得る。応答アクションは、例えば、商品/サービスを注文すること、タイマを開始すること、リマインダを設定すること、電話呼び出しを開始すること、メディアを再生すること、メッセージを送信することなどを含み得る。いくつかのそのような実装形態では、履行情報は、履行に関連するスロット値、確認応答(場合によっては、所定の応答から選択され得る)などを含み得る。
自然言語生成器126は、様々なソースから取得されたデータに基づいて自然言語出力(例えば、人間のスピーチを模倣するように設計された単語/フレーズ)を生成および/または選択するように構成され得る。いくつかの実装形態では、自然言語生成器126は、入力として、意図の履行に関連する履行情報を受信し、履行情報に基づいて自然言語出力を生成するように構成され得る。追加的または代替的に、自然言語生成器126は、ユーザのための自然言語出力を構成するために使用し得る、サードパーティアプリケーションなどの他のソースからの情報(例えば、必要なスロット)を受信し得る。
図2は、自動化されたアシスタント120のクライアント部分108(図1では、「自動化されたアシスタントクライアント」とも呼ばれる)がどのようにユーザと、自動化されたアシスタント120と、サードパーティコンピューティングサービス140との間のマルチモーダル対話を容易にするように構成され得るかの一例を概略的に示す。図2において、クライアント部分108は、1つまたは複数のライブラリ242を含み、1つまたは複数のライブラリ242は、例えば、自動化されたアシスタント120に固有のライブラリ(例えば、ライブアシスタント(libassistant))、キャストコンパニオンライブラリ(cast companion library)(「CCL」)、および/またはクライアント部分108の没入型エンジン244とのデータ交換を容易にする他のライブラリを含み得る。
没入型エンジン244は、サードパーティコンピューティングサービスと関わるユーザに視覚的出力を提供するために(および、したがって、より没入型のユーザ体験を提供するために)、HTML5(HTML、CSS、およびJavaScriptを含む)、CSSカードなどの様々な異なる技術を実装し得る。様々な実装形態では、没入型エンジン244は、JavaScriptコントローラ246(または他の同様のコントローラ)および組み込みブラウザ248などの様々な構成要素を含み得る。様々な実装形態では、組み込みブラウザ248は、例えば、クライアントデバイス106に関連付けられた画面上で、GUIとしてレンダリングされ得る。GUIは、ユーザと、自動化されたアシスタント120と、サードパーティコンピューティングサービス140とを含む人間対コンピュータのダイアログに関連する情報を含み得る。例えば、いくつかの実装形態では、サードパーティコンピューティングサービス140は、例えば、自動化されたアシスタント120のサーバ部分119を介して、視覚的演出のために没入型エンジン244によって組み込みブラウザ248に提供されるHTML、XML、CSSなどのマークアップ言語データを提供し得る。組み込みブラウザ248は、webview(例えば、Android(登録商標)オペレーティングシステム用、iOS(登録商標)オペレーティングシステム用)、iframesなどの、様々な異なる技術を使用して実装され得る。
図2の矢印に従って、第1に、ユーザは、口頭の自由形式の入力をクライアント部分108に提供し得る。この入力は、タイプまたは発話され得る。後者の場合、発話入力は、テキスト音声認識出力を生成するために分析され得る。いずれの場合も、テキストデータなどの自由形式の入力を示すデータは、クライアント部分108によってサーバ部分119に提供され得る。いくつかの実装形態では、サーバ部分119自体が、このテキストデータに基づいてユーザの意図を決定しようとし得る。追加的または代替的に、いくつかの実装形態では、サーバ部分119は、サードパーティコンピューティングサービス140がユーザの意図を確認することを試みることができるように、テキストデータをサードパーティコンピューティングサービス140に中継し得る。
(サーバ部分119またはサードパーティコンピューティングサービス140のいずれによるかにかかわらず)ユーザの意図が確認されると、サードパーティコンピューティングサービス140は、例えば、応答アクションをとる(例えば、ユーザの暖房をオンにする)ことによって、ユーザの意図を解決し得る。加えて、サードパーティコンピューティングサービス140に関連付けられた1つまたは複数のダイアログステートマシンは、様々な状態間で遷移し得る。例えば、視覚的ダイアログステートマシンは、ある視覚的ダイアログ状態から別の視覚的ダイアログ状態に遷移され得、口頭ダイアログステートマシンは、ある口頭ダイアログ状態から別の口頭ダイアログ状態に遷移され得る。
上記で説明したように、ユーザの意図の解決は、履行情報または解決情報を生成させ得る。この解決情報は、例えば、混合ペイロードの一部として、サードパーティコンピューティングサービス140によってサーバ部分119に提供され得る。解決情報は、自然言語出力を生成するなどの様々なアクションを実行するために、例えば、サーバ部分119によって使用され得る。いくつかの実装形態では、解決情報に加えて、混合ペイロードは、マークアップ源(例えば、HTML、XML)などの遷移された視覚的ダイアログ状態を示すデータ、または特定の方法(例えば、ズームイン/アウト、下方へのスクロール、特定のアイテムに焦点を合わせるなど)で既存のGUIと対話するコマンドも含み得る。特定の方法で既存のGUIと対話するコマンドの提供を通して、サードパーティコンピューティングサービス140は、クライアント部分に既存のGUIとの対話を引き起こすコマンドを実施させることによって、クライアント部分108を制御することができる。
様々な実装形態では、サーバ部分119は、混合ペイロードの少なくとも一部をクライアント部分108に転送し得る。例えば、図2において、サーバ部分119は、遷移された視覚状態を示すデータをクライアント部分108に提供する。クライアント部分108は、例えば、没入型エンジン244を経由して、次いで、受信された視覚状態データに基づいて、組み込みブラウザ248によってレンダリングされたGUIを更新し得る。例えば、混合ペイロードが特定の方法で既存のGUIと対話するコマンドを含む場合、没入型エンジン244は、コマンドを実施させ、結果として、組み込みブラウザ248によってレンダリングされたGUIを更新させることができる。GUIの更新されたビューを表すデータの提供の代わりに、既存のGUIと対話するコマンドを利用することによって、GUIが更新されることを可能にするためにクライアントデバイスとサードパーティコンピューティングサービス140との間で転送される必要があるデータは、低減され得る。
図3および図4は、本明細書で説明した技法が特定のシナリオにおいてどのように用いられ得るかの一例を示す。ユーザ301は、自動化されたアシスタント120と関わるために、独立型の対話式スピーカの形態をとる第1のクライアントデバイス306Aを操作する。特に、第1のクライアントデバイス306Aは、自動化されたアシスタント120のクライアント部分108のインスタンスをインストールされ得る。この例では、第1のクライアントデバイス306Aは、オンボード表示能力を欠いている。しかしながら、それは、スマートテレビの形態における第2のクライアントデバイス306Bとネットワーク通信をしている。いくつかの実装形態では、スマートテレビは、例えば、テレビのUSBまたはHDMIスロットに挿入されているワイヤレス通信機能(例えば、Wi-Fi、Bluetooth)を有する「スマートドングル」によって、「スマート」にされ得る。追加的または代替的に、テレビは、例えば、自動化されたアシスタント120のクライアント部分108の別のインスタンスを動作させることを可能にするオンボードロジックを有することによって、本質的に「スマート」であり得る。いくつかの実装形態では、クライアントデバイス306Aおよび306Bは、例えば、ユーザ301のオンラインプロファイルに関連付けられたクライアントデバイスの同じ調整された「エコシステム」の一部であり得る。いくつかの実装形態では、第1のクライアントデバイス306A上で動作する自動化されたアシスタント120のクライアント部分108のインスタンスは、そのGUIを第2のクライアントデバイス306Bに「キャスト」し得る。例えば、第1のクライアントデバイス306A上で動作するクライアント部分108のインスタンスは、組み込みブラウザ248を第2のクライアントデバイス306Bにキャストし得る。
図3において、ユーザ301は、サーモスタット、または照明スイッチ用の調光器などの電気デバイスの配線を容易にする際に、自動化されたアシスタント120と関わっている。電気デバイスを配線するための可聴的および視覚的ガイダンスは、第1のクライアントデバイス306A上で動作する自動化されたアシスタント120のクライアント部分108と対話することによって、サードパーティコンピューティングサービスによって提供される。自動化されたアシスタント120は、第1のクライアントデバイス306Aを介して音声出力を提供し、ユーザ301に、「あなたの配線構成は、なんですか?(What is your wiring configuration?)」と、潜在的な配線構成のリストからユーザの家における配線構成を選択するように求める。一方、自動化されたアシスタント120は、サードパーティコンピューティングサービスによって提供されたGUIを第2のクライアントデバイス306B上にレンダリングさせた。このGUIは、同じ配線構成の質問と、候補回答選択肢A~Cである一連の潜在的な配線構成とを含む。これらの候補回答選択肢A~Cはまた、第1のクライアントデバイス306Aを介して自動化されたアシスタント120によって読み上げられても読み上げられなくてもよい。ユーザ301は、「2線式ではない(Not two-wire)」という発話を提供することによって、候補回答選択肢Aを排除する。候補回答選択肢Aが正しくないとの決定に応答して、サードパーティコンピューティングサービスは、配線構成に関連付けられた口頭ダイアログステートマシンと視覚的ダイアログステートマシンの両方を更新する。
代替的に、第2のクライアントデバイス306Bがタッチスクリーンを含み、ユーザ301が候補回答選択肢A~Cから正しい配線構成を知っていた場合、ユーザ301は、ユーザが選択した回答をタップすることができる。いくつかの実装形態では、選択された回答は、少なくとも一時的に視覚的に強調され得る。いずれにせよ、ユーザ301による発話は、自動化されたアシスタント120のクライアント部分108およびサーバ部分119に関連して上記で説明した様々な構成要素を使用して記録および処理され得、ユーザ301によって提供された回答を示すデータは、最終的に、サードパーティコンピューティングサービスに提供される。
一方、サードパーティコンピューティングサービスは、その視覚的ダイアログステートマシンの更新された状態に基づいて、視覚的ダイアログ状態データを(例えば、図2を参照して説明した混合ペイロードの一部として)自動化されたアシスタント120のサーバ部分119に提供し得、サーバ部分119は、次に、視覚的ダイアログ状態データを自動化されたアシスタント120のクライアント部分108に提供し得る。自動化されたアシスタント120のクライアント部分108は、視覚的ダイアログ状態データを受信したことに応答して、(例えば、取り消し線または他の同様の視覚的注釈を使用して)排除された回答Aが正しくなかったことの視覚的指示を提供するように、第2のクライアントデバイス306B上にレンダリングされたGUIを更新する。しかしながら、ユーザ301は、候補回答選択肢Aを排除しただけであり、候補回答選択肢B~Cのいずれも選択しなかった。
ここで図4を参照すると、サードパーティコンピューティングサービスは、その視覚的ダイアログステートマシンの更新された状態に基づいて、自動化されたアシスタント120に「ワイヤの1つは、緑色ですか?(Is one of the wires green?)」という音声出力をレンダリングさせる解決データを生成し得る。ユーザ301は、「はい、ワイヤのうちの1つは、緑色です(Yes, one of the wires is green)」という発話を提供することによって応答し得る。サードパーティコンピューティングサービスは、次いで、その口頭ダイアログステートマシンの更新された状態に基づいて、ユーザ301がアース線を有する配線構成を有すると決定し、自動化されたアシスタント120に「あなたの配線構成は、おそらくアースを有する3線式です(Your wiring configuration is probably three-wire with ground)」という音声出力をレンダリングさせる解決データを生成し得る。候補回答選択肢Bがおそらく正しいとの決定に応答して、サードパーティコンピューティングサービスは、それが提供する潜在的な配線構成に関連付けられた口頭ダイアログステートマシンと視覚的ダイアログステートマシンの両方を更新し得る。一方、サードパーティコンピューティングサービスは、その視覚的ダイアログステートマシンの更新された状態に基づいて、視覚的ダイアログ状態データを(例えば、図2を参照して説明した混合ペイロードの一部として)自動化されたアシスタント120のサーバ部分119に提供し得、サーバ部分119は、次に、視覚的ダイアログ状態データを自動化されたアシスタント120のクライアント部分108に提供し得る。自動化されたアシスタント120のクライアント部分108は、視覚的ダイアログ状態データを受信したことに応答して、(例えば、正しい回答を強調するために、太字、下線、斜体、もしくは他のフォント、またはアニメーションを使用して)正しい配線構成がおそらくアースを有する3線構成または候補回答選択肢Bであることの視覚的指示を提供するように、第2のクライアントデバイス306B上にレンダリングされたGUIを更新し得る。
さらに、サードパーティコンピューティングサービスは、その視覚的ダイアログステートマシンの更新された状態に基づいて、電気デバイスを配線するために使用されるアース接続を有する3線を含む配線図の視覚的指示を提供し得る。これは、アースを有する3線構成を配線するためのサードパーティコンピューティングサービスからの段階的な図、アースを有する3線構成を配線するためのサードパーティコンピューティングサービスからのビデオチュートリアルなどを含み得る。
図5および図6は、本明細書で説明した技法が特定のシナリオにおいてどのように用いられ得るかの別の例を示す。図5において、タブレットコンピューティングデバイスの形態をとるクライアントデバイス506は、タッチスクリーン570上に、ユーザがサーモスタットに関連する様々な構成要素および/または構成にアクセスすることができ、それらを監視することができ、それらと対話することができ、それらを保存することができるインターフェースをユーザに提供するサードパーティコンピューティングサービス(図3および図4におけるサーモスタットデバイスの配線構成にも関連するサードパーティコンピューティングサービスなど)に関連するGUIを現在表示している。この例では、GUIは、サードパーティコンピューティングサービスによって提供された様々な構成要素および/または構成に関連し、ユーザがクライアントデバイス506上のサードパーティコンピューティングサービスによって提供されたアクション可能なコンテンツと対話することを可能にする、一連のタイル5561~5566(またはカード)を含む。第1のタイル5561は、ユーザの家のサーモスタットによって検出された現在の温度に関連する。第2のタイル5562は、ユーザの現在のアカウント設定に関連する。第3のタイル5563は、ユーザによるサーモスタットの過去、現在、および予想される将来の使用に関連する。第4のタイル5564は、サーモスタットの動作に関連するサポートについて、ユーザがサードパーティコンピューティングサービスをホストするサードパーティに連絡することを可能にする。第5のタイル5565は、サードパーティコンピューティングサービスによって提供され、ユーザによって対話され得るサーモスタットデバイスの(デバイスが図3および図4において適切に配線された後の)デバイス構成に関連する。
図5において、ユーザは、「一番下のタイルを見てみよう(Let's have a look at the bottom tile)」という発話を提供した。この発話は、ユーザの意図を示すデータがサードパーティコンピューティングサービスに進むまで、前述の自動化されたアシスタント120の様々な構成要素を使用して記録および処理され得る。サードパーティコンピューティングサービスは、それに応じて、その視覚的ダイアログステートマシンとその口頭ダイアログステートマシンとを更新し得る。特に、図6に示すように、視覚的ダイアログステートマシンは、第5のタイル5565をズームイン(すなわち拡大)し、デバイス構成を効率的に視覚的および/または口頭ダイアログステートマシンの焦点にする新しい状態に遷移される。加えて、サードパーティコンピューティングサービスは、タッチスクリーン570上に表示するための複数のデバイス構成オプションを提供し得る。その結果、図6において、ユーザが「一番下の1つをしよう(Let's do the bottom one)」という追加の発話を提供した場合、サードパーティコンピューティングサービスは、「一番下の1つ(bottom one)」という用語を「温度を設定する」デバイス構成であるように解決することができ、現在の温度に関する追加情報を提供し、周囲の室温、屋外の温度、または他のユーザによって頻繁に設定された温度に基づいてユーザのための温度を提案することができる。サードパーティコンピューティングサービスは、クライアントデバイス506を介して、特定の設定温度を聴覚的または触覚的に入力するようにユーザに求め得る。さらに、ユーザは、「保存」、「構成を保存」などの可聴入力を提供することによって、特定のデバイス構成を保存し得る。代替的に、ユーザは、タッチスクリーン570上の「デバイス構成を保存する」をタップすることによって、触覚入力を提供し得る。
本明細書で説明した技法は、サードパーティ開発者によって提供されるコンピューティングサービスまたはエージェントに限定されない。いくつかの実装形態では、本明細書で説明した技法は、自動化されたアシスタント120自体によって、例えば、自動化されたアシスタント120に属している、または自動化されたアシスタント120の一部を形成する「ファーストパーティコンピューティングサービス」として用いられ得る。図7は、本明細書で説明した技法がファーストパーティコンピューティングサービスによってどのように用いられ得るかの例を示す。図7において、クライアントデバイス706は、タッチスクリーンディスプレイ770の形態の表示能力を有する独立型対話式スピーカの形態をとる。この例では、ディスプレイ770は、ユーザ(図示せず)に潜在的に関連する様々な情報を含むGUIをレンダリングする。最も関連性が高いのは、ユーザが45分でJosephのサッカーの迎えに行く必要があるというリマインダである。様々な実装形態では、このリマインダは、例えば、ディスプレイ770上で、および/またはクライアントデバイス706を含むクライアントデバイスの調整されたエコシステムの他のクライアントデバイス上にレンダリングされたカードとして、ユーザに自動的にプッシュされ得る。
このリマインダの下には、「すべてのリマインダを見て下さい(See all reminders)」と読める「アクション可能なテキスト」と本明細書で呼ばれるものがある。様々な実装形態では、ユーザは、例えば、それをタップすることによって、アクション可能なテキストを選択し得、またはユーザは、アクション可能なテキスト、この例では、「すべてのリマインダを見て下さい(see all reminders)」に関連付けられたフレーズを話し得、いずれの場合も、ユーザにユーザのリマインダを示す新しいGUIが、自動化されたアシスタント120によってディスプレイ770上にレンダリングされ得る。ユーザの観点から、このアクション可能なテキストは、ハイパーリンクと同様に動作しているように見え得る。しかしながら、いくつかの実装形態では、ユーザがこのアクション可能なテキストをタップした場合、それは、新しいウェブページをディスプレイ770にロードするためにHTTPコマンドがHTTPサーバに送信されることをトリガしない。むしろ、ユーザのタップを示すデータは、自動化されたアシスタント120のサーバ部分119に提供され得、サーバ部分119は、ユーザのタップを示すデータをコンピューティングサービス(ファーストパーティまたはサードパーティ)に提供し得る。コンピューティングサービスは、データを(例えば、すべてのリマインダを見る意図として)解釈し、それに応じて、例えば、その口頭ダイアログステートマシンおよび/または視覚的ダイアログステートマシンを更新し、サーバ部分119を介して視覚的ダイアログ状態データを自動化されたアシスタント120のクライアント部分108に提供することによって応答し得る。
いくつかの実装形態では、自動化されたアシスタント120は、最初に呼び出しの要求さえしなくても、アクション可能なテキストに対応する任意の発話を「聞く」ように構成され得る。言い換えれば、アクション可能なテキストがディスプレイ上に提示された場合、自動化されたアシスタント120は、従来の呼び出しフレーズ(例えば、「オーケー、アシスタント(OK Assistant)」)と、表示されたアクション可能なテキストに関連する発話の両方を聞き得る。したがって、図7におけるGUIに直面した場合、ユーザは、従来の呼び出しフレーズを使用して自動化されたアシスタント120を呼び出し得、また、「すべてのリマインダを見て下さい(See all reminders)」というアクション可能なテキストを話す(またはタップする)ことによって自動化されたアシスタント120を呼び出し得る。
いくつかの実装形態では、さもなければ自動化されたアシスタント120との音声関与(vocal engagement)によってトリガされ得る他のタスクをトリガするために動作可能な追加のタイルまたはカードが、提供され得る。例えば、第1のタイル7561は、自動化されたアシスタント120に、その口頭ダイアログステートマシンを更新させ、天気を説明する可聴出力を提供させるように動作可能である。ユーザが「来週は、どうですか?(what about next week?)」などの曖昧な質問でフォローアップしたと想定する。口頭ダイアログステートマシンの現在の口頭ダイアログ状態(「天気」の現在の意図が、アクティブである可能性がある)に基づいて、自動化されたアシスタント120は、曖昧なクエリを、「来週の天気は、なんですか?(What's the weather next week)」のようなものに解決し、それに応じて応答し得る。代替的に、「天気を教えて下さい(Tell me the weather)」というフレーズは、ユーザが同じ目標を達成するために話し得る(またはタップし得る)アクション可能なテキストであり得る。
図7における別のカード7562は、例えば、クライアントデバイス706のスピーカ(図示せず)を介して可聴的に、および/またはディスプレイ770上に視覚的にユーザのスケジュールを提示するために、ユーザによって動作可能である。もう一度、「私のスケジュールは、なんですか?(What's on my schedule?)」というテキストは、例えば、引用符で囲まれていることによって、同じ目標を達成するためにユーザが(カード7562をタップする代わりに)話し得るアクション可能なテキストであり得る。いくつかの実装形態では、ユーザが、カード7562をタップした場合、それは、自動化されたアシスタント120によってユーザのスケジュールをディスプレイ770上に表示させ得、一方、ユーザが「私のスケジュールは、なんですか?(What's on my schedule?)」というアクション可能なテキストを話した場合、それは、自動化されたアシスタント120にユーザのスケジュールを可聴的に出力させ得る。
図8は、本明細書で開示した実装形態による例示的な方法800を示すフローチャートである。便宜上、フローチャートの動作について、動作を実行するシステムを参照して説明している。このシステムは、自動化されたアシスタント120を実装するコンピューティングシステムの1つまたは複数の構成要素などの、様々なコンピュータシステムの様々な構成要素を含み得る。さらに、方法800の動作は、特定の順序で示されているが、これは、限定であることを意味していない。1つまたは複数の動作が、並べ替えられ得、省略され得、または追加され得る。いくつかの実装形態では、方法800の動作は、サードパーティコンピューティングサービス140を動作させる1つまたは複数のコンピューティングシステムによって実行され得るが、これは、必須ではない。
ブロック802において、システムは、例えば、1つまたは複数のプロセッサによって少なくとも部分的に実装された(ファーストパーティまたはサードパーティ)コンピューティングサービスにおいて、自動化されたアシスタント(例えば、サーバ部分119)から、ユーザと自動化されたアシスタントとの間の人間対コンピュータのダイアログセッションの一部として自動化されたアシスタントと通信するコンピューティングデバイス(例えば、クライアントデバイス106、306、506、706)のユーザの意図を示すデータを受信し得る。例えば、データは、ユーザによって提供された音声発話に基づいて生成された音声認識出力を含み得る。追加的または代替的に、いくつかの実装形態では、データは、自動化されたアシスタント120のサーバ部分119(特に、意図照合器135)によって決定された意図を含み得る。いくつかの実装形態では、データは、コンピューティングサービスによって要求される場合もされない場合もある1つまたは複数のスロット値を含み得る。実施例として、自動化されたアシスタント120との人間対コンピュータのダイアログセッションに関わっているユーザは、ディスプレイ上の文書を提示され得る。ユーザは、例えば、次のページに、文書を下方へスクロールするコマンドを(音声で、および/または画面上で下方にスワイプすることによって)提供し得る。
ブロック804において、システムは、例えば、コンピューティングサービスを経由して、解決情報を生成するためにユーザの意図を解決し得る。例えば、実施例では、コンピューティングサービスは、例えば、文書の以前表示された部分の下に表示する文書の「次の」部分を決定し得る。コンピューティングサービスは、文書の次の部分がここで表示されるように、クライアントデバイス上で動作する自動化されたアシスタント120のクライアント部分108に、例えば、組み込みブラウザ248においてレンダリングされたGUIを変更させるように設計されたコマンドを生成し得る。
ブロック806において、システムは、例えば、コンピューティングサービスを経由して、人間対コンピュータのダイアログセッションに関連して、コンピューティングサービスのために維持された表示内容または視覚的ダイアログステートマシンを更新し得る。様々な実装形態では、ブロック806の更新は、ブロック802において決定された意図およびブロック804において生成された解決情報のうちの少なくとも1つに少なくとも部分的に基づき得る。
ブロック808において、システムは、例えば、コンピューティングサービスを経由して、更新された表示内容または視覚的ダイアログステートマシンを示すデータを、自動化されたアシスタント120、特にそのサーバ部分119に提供し得る。様々な実装形態では、表示内容を示すデータは、次いで、サーバ部分119によってコンピューティングデバイス(例えば、106、306、506、706)に提供され得る。様々な実装形態では、表示内容を示すデータは、コンピューティングデバイス上で実行されるアシスタントアプリケーション(例えば、クライアント部分108)に、ユーザとアシスタントアプリケーションのグラフィカルユーザインターフェースとの間のタッチレス対話をトリガさせ得る。実施例に戻ると、表示は、ユーザがなにも触れる必要なく、文書の次の部分に「下方にスクロール」するように変更され得る。
図9は、本明細書で開示した実装形態による例示的な方法900を示すフローチャートである。便宜上、フローチャートの動作について、動作を実行するシステムを参照して説明している。このシステムは、自動化されたアシスタント120を実装するコンピューティングシステムの1つまたは複数の構成要素などの、様々なコンピュータシステムの様々な構成要素を含み得る。さらに、方法900の動作は、特定の順序で示されているが、これは、限定であることを意味していない。1つまたは複数の動作が、並べ替えられ得、省略され得、または追加され得る。
ブロック902において、システムは、ディスプレイ(例えば、306B、570、770)を有するクライアントデバイス(例えば、106、306、506、706)において、自動化されたアシスタント120のクライアント部分(108)を実装し得る。ブロック904において、システムは、1つまたは複数のサーバコンピューティングデバイスにおいて、自動化されたアシスタント120のサーバ部分(119)を実装し得る。様々な実装形態では、ユーザは、ユーザと、自動化されたアシスタント120と、サードパーティコンピューティングサービス140との間の人間対コンピュータのダイアログセッションに参加するために、クライアント部分108と対話し得る。様々な実装形態では、サードパーティコンピューティングサービス140は、口頭ダイアログステートマシンおよび視覚的ダイアログステートマシンに従って、ユーザと関わり得る。
ブロック906において、システムは、例えば、クライアント部分108において、自動化されたアシスタント120のサーバ部分119を経由して、サードパーティコンピューティングサービス140から、視覚的ダイアログステートマシンの第1の視覚的ダイアログ状態を示すデータを受信し得る。ブロック908において、クライアント部分は、第1の視覚的ダイアログ状態に基づいて、ディスプレイ上に、人間対コンピュータのダイアログセッションに関連するグラフィカルユーザインターフェースをレンダリングし得る。様々な実装形態では、グラフィカルユーザインターフェースは、口頭ステートマシンを第1の視覚的ダイアログ状態に対応する第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させるように動作可能な少なくとも1つのグラフィカル要素(例えば、ボタン、アクション可能なテキストなど)を含み得る。
ブロック910において、クライアント部分108は、ユーザによる少なくとも1つのグラフィカル要素の動作を検出し得る。例えば、ユーザは、グラフィカル要素をタップするか、またはコマンドを話し得る(例えば、グラフィカル要素と対話するために、アクション可能なテキストに関連するフレーズを発話し得る)。ブロック912において、クライアント部分108は、サーバ部分119に、少なくとも1つのグラフィカル要素(例えば、意図)の動作を示すデータを提供し得る。ブロック914において、サーバ部分119は、少なくとも1つのグラフィカル要素の動作を示すデータをサードパーティコンピューティングサービス140に提供し得る。様々な実装形態では、少なくとも1つのグラフィカル要素の動作を示すデータは、サードパーティコンピューティングサービス140を、第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させ得る。
図10は、本明細書で説明した技法の1つまたは複数の態様を実行するために任意選択で利用され得る例示的なコンピューティングデバイス1010のブロック図である。いくつかの実装形態では、クライアントコンピューティングデバイス、ユーザ制御リソースモジュール130、および/または他の構成要素のうちの1つまたは複数は、例示的なコンピューティングデバイス1010の1つまたは複数の構成要素を備え得る。
コンピューティングデバイス1010は、典型的には、バスサブシステム1012を介していくつかの周辺デバイスと通信する少なくとも1つのプロセッサ1014を含む。これらの周辺デバイスは、例えば、メモリサブシステム1025と、ファイル記憶サブシステム1026とを含む記憶サブシステム1024と、ユーザインターフェース出力デバイス1020と、ユーザインターフェース入力デバイス1022と、ネットワークインターフェースサブシステム1016とを含み得る。入力デバイスおよび出力デバイスは、コンピューティングデバイス1010とのユーザ対話を可能にする。ネットワークインターフェースサブシステム1016は、外部ネットワークへのインターフェースを提供し、他のコンピューティングデバイス内の対応するインターフェースデバイスに結合される。
ユーザインターフェース入力デバイス1022は、キーボード、マウス、トラックボール、タッチパッド、もしくはグラフィックタブレットなどのポインティングデバイス、スキャナ、ディスプレイに組み込まれたタッチスクリーン、音声認識システムなどのオーディオ入力デバイス、マイクロフォン、および/または他のタイプの入力デバイスを含み得る。一般に、「入力デバイス」という用語の使用は、コンピューティングデバイス1010または通信ネットワークに情報を入力するすべての可能なタイプのデバイスおよび方法を含むことを意図している。
ユーザインターフェース出力デバイス1020は、ディスプレイサブシステム、プリンタ、ファックス機、またはオーディオ出力デバイスなどの非視覚的ディスプレイを含み得る。ディスプレイサブシステムは、陰極線管(CRT)、液晶ディスプレイ(LCD)などのフラットパネルデバイス、投影デバイス、または可視画像を作成するための他の何らかのメカニズムを含み得る。ディスプレイサブシステムはまた、オーディオ出力デバイスを介するなどして、非視覚的表示を提供し得る。一般に、「出力デバイス」という用語の使用は、コンピューティングデバイス1010からユーザまたは別のマシンもしくはコンピューティングデバイスに情報を出力するためのすべての可能なタイプのデバイスおよび方法を含むことを意図している。
記憶サブシステム1024は、本明細書で説明したモジュールのうちのいくつかまたのすべての機能を提供するプログラミング構造およびデータ構造を記憶する。例えば、記憶サブシステム1024は、図8~図9の方法の選択された態様を実行するためのロジック、ならびに図1および図2に示す様々な構成要素を実装するためのロジックを含み得る。
これらのソフトウェアモジュールは、一般に、プロセッサ1014によって単独で、または他のプロセッサと組み合わせて実行される。記憶サブシステム1024において使用されるメモリ1025は、プログラム実行中の命令およびデータの記憶のためのメインランダムアクセスメモリ(RAM)1030と、固定命令が記憶されている読み取り専用メモリ(ROM)1032とを含むいくつかのメモリを含むことができる。ファイル記憶サブシステム1026は、プログラムファイルおよびデータファイルのための永続的なストレージを提供することができ、ハードディスクドライブ、関連するリムーバブルメディアを伴うフロッピーディスクドライブ、CD-ROMドライブ、光学ドライブ、またはリムーバブルメディアカートリッジを含み得る。特定の実装形態の機能を実装するモジュールは、ファイル記憶サブシステム1026によって、記憶サブシステム1024内に、またはプロセッサ1014によってアクセス可能な他のマシン内に記憶され得る。
バスサブシステム1012は、コンピューティングデバイス1010の様々な構成要素およびサブシステムを意図されたように互いに通信させるためのメカニズムを提供する。バスサブシステム1012は、単一のバスとして概略的に示されているが、バスサブシステムの代替実装形態は、複数のバスを使用し得る。
コンピューティングデバイス1010は、ワークステーション、サーバ、コンピューティングクラスタ、ブレードサーバ、サーバファーム、または任意の他のデータ処理システムもしくはコンピューティングデバイスを含む様々なタイプのものであり得る。コンピュータおよびネットワークの絶えず変化する性質のために、図10に示すコンピューティングデバイス1010の説明は、いくつかの実装形態を説明する目的のための特定の例としてのみ意図されている。図10に示すコンピューティングデバイスよりも多いまたは少ない構成要素を有するコンピューティングデバイス1010の多くの他の構成が、可能である。
本明細書で説明したシステムが、ユーザに関する個人情報を収集もしくは他の方法で監視するか、または個人情報および/または監視された情報を利用する可能性がある状況では、ユーザは、プログラムまたは特徴がユーザ情報(例えば、ユーザのソーシャルネットワーク、社会的行為もしくは活動、職業、ユーザの好み、またはユーザの現在の地理的位置)を収集するかどうかを制御する機会、またはユーザにより関連性がある可能性があるコンテンツサーバからのコンテンツを受信するかどうかおよび/もしくはどのように受信するかを制御する機会を提供され得る。また、特定のデータは、個人を特定し得る情報が除去されるように、それが記憶または使用される前に1つまたは複数の方法で処理され得る。例えば、ユーザの識別情報は、個人を特定し得る情報がユーザに関して決定され得ないように処理され得、またはユーザの地理的位置は、ユーザの特定の地理的位置が特定され得ないように、地理的位置情報が取得される場所(都市、郵便番号、または州レベルなど)で一般化され得る。したがって、ユーザは、情報がユーザに関してどのように収集および/または使用されるかについて制御し得る。例えば、いくつかの実装形態では、ユーザは、例えば、視覚センサ107を無効にすることによって、視覚的手がかりを検出しようとするアシスタントデバイスをオプトアウトし得る。
いくつかの実装形態が本明細書で説明および例示されているが、機能を実行するため、ならびに/または本明細書で説明した結果および/もしくは利点のうちの1つもしくは複数を取得するための様々な他の手段および/または構造が、利用され得、そのような変更および/または修正の各々が、本明細書で説明した実装形態の範囲内であると見なされる。より一般的には、本明細書で説明したすべてのパラメータ、寸法、材料、および構成は、例示であることを意味し、実際のパラメータ、寸法、材料、および/または構成は、教示が使用される特定の用途に依存する。当業者は、日常的な実験のみを使用して、本明細書で説明する特定の実装形態に対する多くの均等物を認識するか、または確認することができるであろう。したがって、前述の実装形態は、単なる例として提示されており、添付した特許請求の範囲およびその均等物の範囲内で、実装形態は、具体的に説明および特許請求されている以外のように実施され得ることが理解されるべきである。本開示の実装形態は、本明細書で説明した個々の特徴、システム、物品、材料、キット、および/または方法の各々に向けられている。加えて、2つ以上のそのような特徴、システム、物品、材料、キット、および/または方法の任意の組合せは、そのような特徴、システム、物品、材料、キット、および/または方法が相互に矛盾しない場合、本開示の範囲内に含まれる。
106 クライアントデバイス、クライアントコンピューティングデバイス
107 視覚センサ、カメラ
108 自動化されたアシスタントクライアント、クライアント部分
109 マイクロフォン
110 スピーチキャプチャモジュール
1121 視覚的手がかりモジュール
1122 クラウドベースの視覚的手がかりモジュール
113 呼び出しモジュール
114 ローカルおよび/またはワイドエリアネットワーク、視覚的手がかりモデルデータベース
116 クラウドベースのテキスト-スピーチモジュール
117 クラウドベースのSTTモジュール
119 クラウドベースの自動化されたアシスタント構成要素、サーバ部分
120 自動化されたアシスタント
122 自然言語プロセッサ
124 履行モジュール
126 自然言語生成器
135 自然言語理解モジュール、意図照合器
140 サードパーティコンピューティングサービス
150 検索モジュール
242 ライブラリ
244 没入型エンジン
246 JavaScriptコントローラ
248 組み込みブラウザ
301 ユーザ
306 クライアントデバイス、コンピューティングデバイス
306A クライアントデバイス
306B クライアントデバイス、ディスプレイ
506 クライアントデバイス、コンピューティングデバイス
5561 タイル
5562 タイル
5563 タイル
5564 タイル
5565 タイル
570 タッチスクリーン、ディスプレイ
706 クライアントデバイス、コンピューティングデバイス
7561 タイル
7562 カード
770 タッチスクリーンディスプレイ
1010 コンピューティングデバイス
1012 バスサブシステム
1014 プロセッサ
1016 ネットワークインターフェースサブシステム
1020 ユーザインターフェース出力デバイス
1022 ユーザインターフェース入力デバイス
1024 記憶サブシステム
1025 メモリサブシステム、メモリ
1030 メインランダムアクセスメモリ(RAM)
1032 読み取り専用メモリ(ROM)

Claims (23)

  1. システムであって、
    ディスプレイを有する少なくとも1つのクライアントコンピューティングデバイスであって、前記クライアントコンピューティングデバイスが、自動化されたアシスタントのクライアント部分を実行する、少なくとも1つのクライアントコンピューティングデバイスと、
    前記自動化されたアシスタントのサーバ部分を実行する1つまたは複数のサーバコンピューティングデバイスと
    を備え、
    ユーザが、前記ユーザと、前記自動化されたアシスタントと、サードパーティコンピューティングサービスとの間の人間対コンピュータのダイアログセッションに参加するために前記クライアント部分とインタラクションし、
    前記サードパーティコンピューティングサービスが、口頭ダイアログステートマシンと視覚的ダイアログステートマシンとに従って前記ユーザと関わり、
    前記自動化されたアシスタントの前記クライアント部分が、
    前記サードパーティコンピューティングサービスから、前記自動化されたアシスタントの前記サーバ部分を経由して、前記視覚的ダイアログステートマシンの第1の視覚的ダイアログ状態を示すデータを受信することと、
    前記第1の視覚的ダイアログ状態に基づいて、前記ディスプレイ上に、前記人間対コンピュータのダイアログセッションに関連するグラフィカルユーザインターフェースをレンダリングすることであって、前記グラフィカルユーザインターフェースが、前記口頭ダイアログステートマシンを、前記第1の視覚的ダイアログ状態に対応する第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させるように動作可能な少なくとも1つのグラフィカル要素を含む、レンダリングすることと、
    前記ユーザによる前記少なくとも1つのグラフィカル要素の動作を検出することと、
    前記自動化されたアシスタントの前記サーバ部分に、前記少なくとも1つのグラフィカル要素の動作を示すデータを提供することと
    を行うように構成され、
    前記自動化されたアシスタントの前記サーバ部分が、
    前記少なくとも1つのグラフィカル要素の動作を示す前記データを、前記サードパーティコンピューティングサービスに提供することであって、前記少なくとも1つのグラフィカル要素の動作を示す前記データが、前記サードパーティコンピューティングサービスを、前記第1の口頭ダイアログ状態から前記第2の口頭ダイアログ状態に遷移させる、提供することを行うように構成される、
    システム。
  2. 前記自動化されたアシスタントの前記サーバ部分が、
    前記サードパーティコンピューティングサービスから、前記第2の口頭ダイアログ状態を示すデータを受信することと、
    前記自動化されたアシスタントの前記クライアント部分に、前記第2の口頭ダイアログ状態を示す前記データを提供することと
    を行うようにさらに構成される、請求項1に記載のシステム。
  3. 前記第2の口頭ダイアログ状態を示す前記データが、テキストまたはオーディオデータを含み、クライアントデバイスが、前記第2の口頭ダイアログ状態を示す前記データを受信したことに応答して、
    前記テキストを音声に変換し、前記音声を可聴にレンダリングすること、または、
    前記オーディオデータを可聴にレンダリングすること
    を行うようにさらに構成される、請求項1に記載のシステム。
  4. 前記自動化されたアシスタントの前記サーバ部分から前記サードパーティコンピューティングサービスへの、前記少なくとも1つのグラフィカル要素の動作を示す前記データの提供が、前記サードパーティコンピューティングサービスを、前記第1の視覚的ダイアログ状態から第2の視覚的ダイアログ状態に遷移させる、請求項1から3のいずれか一項に記載のシステム。
  5. 前記第2の視覚的ダイアログ状態が、前記第2の口頭ダイアログ状態に対応する、請求項4に記載のシステム。
  6. 前記自動化されたアシスタントの前記クライアント部分が、
    前記サードパーティコンピューティングサービスから、前記自動化されたアシスタントの前記サーバ部分を経由して、前記第2の視覚的ダイアログ状態を示すデータを受信することと、
    前記第2の視覚的ダイアログ状態に基づいて、前記ディスプレイ上に、前記人間対コンピュータのダイアログセッションに関連付けられた更新されたグラフィカルユーザインターフェースをレンダリングすることと
    を行うようにさらに構成される、請求項5に記載のシステム。
  7. 前記第2の視覚的ダイアログ状態を示す前記データが、クライアントデバイスに、前記更新されたグラフィカルユーザインターフェースをレンダリングさせてタッチレスインタラクションを自動的に実行させる、請求項6に記載のシステム。
  8. 前記タッチレスインタラクションが、
    前記グラフィカルユーザインターフェースの選択可能要素の動作と、
    前記グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、
    前記グラフィカルユーザインターフェースの一部に対するズームインと
    のうちの1つまたは複数を含む、請求項7に記載のシステム。
  9. 前記サードパーティコンピューティングサービスが前記第1の口頭ダイアログ状態から前記第2の口頭ダイアログ状態に遷移した後、
    前記自動化されたアシスタントの前記クライアント部分が、
    前記ユーザから、前記クライアントコンピューティングデバイスの1つまたは複数の入力構成要素において、音声の自由形式の入力を受信することと、
    前記自動化されたアシスタントの前記サーバ部分に、前記音声の自由形式の入力を示すデータを提供することと、
    前記自動化されたアシスタントの前記サーバ部分から、表示内容を示すデータを受信することであって、
    前記自動化されたアシスタントの前記サーバ部分が、前記サードパーティコンピューティングサービスに、前記音声の自由形式の入力を示す前記データ、または前記音声の自由形式の入力を示す前記データに基づく追加データを提供したことに基づいて、前記サードパーティコンピューティングサービスから前記表示内容を示す前記データを取得し、
    前記サードパーティコンピューティングサービスが、前記受信したデータまたは追加データに基づいて、かつ第2の口頭ダイアログ状態に前記遷移したことに基づいて、前記表示内容を示す前記データを生成する、
    受信することと、
    前記受信した表示内容に基づいて、前記グラフィカルユーザインターフェースにおけるタッチレスインタラクションをトリガすることと
    を行うようにさらに構成される、請求項1から8のいずれか一項に記載のシステム。
  10. 前記タッチレスインタラクションが、
    前記グラフィカルユーザインターフェースの選択可能要素の動作と、
    前記グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、
    前記グラフィカルユーザインターフェースの一部に対するズームインと
    のうちの1つまたは複数を含む、請求項1から7のいずれか一項を引用する請求項9に記載のシステム。
  11. システムであって
    ディスプレイを有する少なくとも1つのクライアントコンピューティングデバイスであって、前記クライアントコンピューティングデバイスが、自動化されたアシスタントのクライアント部分を実行する、少なくとも1つのクライアントコンピューティングデバイスと、
    前記自動化されたアシスタントのサーバ部分を実行する1つまたは複数のサーバコンピューティングデバイスと
    を備え、
    ユーザが、前記ユーザと、前記自動化されたアシスタントと、サードパーティコンピューティングサービスとの間の人間対コンピュータのダイアログセッションに参加するために前記クライアント部分とインタラクションし、
    前記サードパーティコンピューティングサービスが、口頭ダイアログステートマシンと視覚的ダイアログステートマシンとに従って前記ユーザと関わり、
    前記自動化されたアシスタントの前記クライアント部分が、
    前記クライアントコンピューティングデバイスの前記ディスプレイ上に、前記人間対コンピュータのダイアログセッションに関連するグラフィカルユーザインターフェースをレンダリングすることと、
    前記ユーザから、前記クライアントコンピューティングデバイスの1つまたは複数の入力構成要素において、音声の自由形式の入力を受信することと、
    前記自動化されたアシスタントの前記サーバ部分に、前記音声の自由形式の入力を示すデータを提供することと、
    前記自動化されたアシスタントの前記サーバ部分から、表示内容を示すデータを受信することと、
    前記表示内容に基づいて、前記ユーザと前記グラフィカルユーザインターフェースとの間のタッチレスインタラクションをトリガすることと
    を行うように構成され、
    前記自動化されたアシスタントの前記サーバ部分が、
    前記音声の自由形式の入力を示す前記データに基づいて、前記ユーザの意図を決定することと、
    前記意図を示すデータを、前記サードパーティコンピューティングサービスに提供することであって、前記意図を示す前記データが、前記サードパーティコンピューティングサービスに、解決情報を生成するために前記意図を解決させる、提供することと、
    前記意図を示す前記データの提供に応答して、前記サードパーティコンピューティングサービスから前記表示内容を受信することであって、前記表示内容が、前記人間対コンピュータのダイアログセッションに関連して前記サードパーティコンピューティングサービスのために維持され、前記ユーザの前記意図と前記解決情報のうちの一方または両方に少なくとも部分的に基づいて更新される、受信することと
    を行うように構成される、
    システム。
  12. 前記グラフィカルユーザインターフェースが、前記自動化されたアシスタントの前記クライアント部分に組み込まれたウェブブラウザを備える、請求項11に記載のシステム。
  13. 前記タッチレスインタラクションが、
    前記グラフィカルユーザインターフェースの選択可能要素の動作と、
    前記グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、
    前記グラフィカルユーザインターフェースの一部に対するズームインと
    のうちの1つまたは複数を含む、請求項11または12に記載のシステム。
  14. 1つまたは複数のプロセッサによって実行される方法であって、
    ディスプレイを有するクライアントデバイスにおいて、自動化されたアシスタントのクライアント部分を実行するステップと、
    1つまたは複数のサーバコンピューティングデバイスにおいて、前記自動化されたアシスタントのサーバ部分を実行するステップであって、ユーザが、前記ユーザと、前記自動化されたアシスタントと、サードパーティコンピューティングサービスとの間の人間対コンピュータのダイアログセッションに参加するために、前記クライアント部分とインタラクションし、前記サードパーティコンピューティングサービスが、口頭ダイアログステートマシンと視覚的ダイアログステートマシンとに従って前記ユーザと関わる、ステップと、
    前記クライアント部分において、前記サードパーティコンピューティングサービスから、前記自動化されたアシスタントの前記サーバ部分を経由して、前記視覚的ダイアログステートマシンの第1の視覚的ダイアログ状態を示すデータを受信するステップと、
    前記クライアント部分によって、前記第1の視覚的ダイアログ状態に基づいて、前記ディスプレイ上に、前記人間対コンピュータのダイアログセッションに関連するグラフィカルユーザインターフェースをレンダリングするステップであって、前記グラフィカルユーザインターフェースが、前記口頭ダイアログステートマシンを、前記第1の視覚的ダイアログ状態に対応する第1の口頭ダイアログ状態から第2の口頭ダイアログ状態に遷移させるように動作可能な少なくとも1つのグラフィカル要素を含む、ステップと、
    前記クライアント部分によって、前記ユーザによる前記少なくとも1つのグラフィカル要素の動作を検出するステップと、
    前記クライアント部分によって、前記自動化されたアシスタントの前記サーバ部分に、前記少なくとも1つのグラフィカル要素の動作を示すデータを提供するステップと、
    前記サーバ部分によって、前記少なくとも1つのグラフィカル要素の動作を示す前記データを、前記サードパーティコンピューティングサービスに提供するステップであって、前記少なくとも1つのグラフィカル要素の動作を示す前記データが、前記サードパーティコンピューティングサービスを、前記第1の口頭ダイアログ状態から前記第2の口頭ダイアログ状態に遷移させる、ステップと
    を含む、方法。
  15. 前記サーバ部分によって、前記サードパーティコンピューティングサービスから、前記第2の口頭ダイアログ状態を示すデータを受信するステップと、
    前記サーバ部分によって、前記自動化されたアシスタントの前記クライアント部分に、前記第2の口頭ダイアログ状態を示す前記データを提供するステップと
    をさらに含む、請求項14に記載の方法。
  16. 前記自動化されたアシスタントの前記サーバ部分から前記サードパーティコンピューティングサービスへの、前記少なくとも1つのグラフィカル要素の動作を示す前記データの提供が、前記サードパーティコンピューティングサービスを、前記第1の視覚的ダイアログ状態から第2の視覚的ダイアログ状態に遷移させる、請求項14または15に記載の方法。
  17. 1つまたは複数のプロセッサを使用して実行される方法であって、
    前記1つまたは複数のプロセッサによって少なくとも部分的に実行されたコンピューティングサービスによって、自動化されたアシスタントから、ユーザと前記自動化されたアシスタントとの間の人間対コンピュータのダイアログセッションの一部として前記自動化されたアシスタントと通信しているコンピューティングデバイスの前記ユーザの意図を示すデータを受信するステップであって、前記サードパーティコンピューティングサービスが、口頭ダイアログステートマシンと視覚的ダイアログステートマシンとに従って前記ユーザと関わる、ステップと、
    解決情報を生成するために前記ユーザの前記意図を解決するステップと、
    前記人間対コンピュータのダイアログセッションに関連して前記コンピューティングサービスのために維持された表示内容を更新するステップであって、前記更新するステップが、前記意図と前記解決情報のうちの一方または両方に少なくとも部分的に基づく、ステップと、
    前記表示内容を示すデータを前記自動化されたアシスタントに提供するステップであって、前記表示内容を示す前記データが、前記自動化されたアシスタントによって前記コンピューティングデバイスに提供され、前記表示内容を示す前記データが、前記コンピューティングデバイス上で実行されているアシスタントアプリケーションに、前記ユーザと前記アシスタントアプリケーションのグラフィカルユーザインターフェースとの間のタッチレスインタラクションをトリガさせる、ステップと
    を含む、方法。
  18. 前記グラフィカルユーザインターフェースが、前記アシスタントアプリケーション内に組み込まれたウェブブラウザを備える、請求項17に記載の方法。
  19. 前記タッチレスインタラクションが、
    前記グラフィカルユーザインターフェースの選択可能要素の動作と、
    前記グラフィカルユーザインターフェース内にレンダリングされた文書の特定の位置へのスクロールと、
    前記グラフィカルユーザインターフェースの一部に対するズームインと
    のうちの1つまたは複数を含む、請求項17または18に記載の方法。
  20. 前記ユーザの前記意図を示す前記データが、前記コンピューティングデバイスにおいて前記ユーザによって提供された音声の自由形式の入力の音声認識出力を含む、請求項17から19のいずれか一項に記載の方法。
  21. 前記コンピューティングサービスによって、前記音声認識出力に基づいて前記ユーザの前記意図を決定するステップをさらに含む、請求項20に記載の方法。
  22. 1つまたは複数のプロセッサによる命令の実行に応答して、前記1つまたは複数のプロセ ッサに請求項14から21のいずれか一項に記載の方法を実行させる命令を含む、少なくとも1つの非一時的コンピュータ可読記憶媒体。
  23. 1つまたは複数のプロセッサと、前記1つまたは複数のプロセッサに動作可能に結合されたメモリとを備えるシステムであって、前記メモリが、1つまたは複数のプロセッサによる命令の実行に応答して、前記1つまたは複数のプロセッサに請求項14から21のいずれか一項に記載の方法を実行させる前記命令を記憶する、システム。
JP2020562767A 2018-05-07 2018-05-07 ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話 Active JP7203865B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022180485A JP2023017956A (ja) 2018-05-07 2022-11-10 ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2018/031444 WO2019216875A1 (en) 2018-05-07 2018-05-07 Multi-modal interaction between users, automated assistants, and other computing services

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022180485A Division JP2023017956A (ja) 2018-05-07 2022-11-10 ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話

Publications (2)

Publication Number Publication Date
JP2021523467A JP2021523467A (ja) 2021-09-02
JP7203865B2 true JP7203865B2 (ja) 2023-01-13

Family

ID=62555178

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020562767A Active JP7203865B2 (ja) 2018-05-07 2018-05-07 ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話
JP2022180485A Pending JP2023017956A (ja) 2018-05-07 2022-11-10 ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022180485A Pending JP2023017956A (ja) 2018-05-07 2022-11-10 ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話

Country Status (6)

Country Link
US (2) US10984786B2 (ja)
EP (1) EP3586332A1 (ja)
JP (2) JP7203865B2 (ja)
KR (2) KR102476621B1 (ja)
CN (1) CN112868060A (ja)
WO (1) WO2019216875A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11200893B2 (en) * 2018-05-07 2021-12-14 Google Llc Multi-modal interaction between users, automated assistants, and other computing services
KR102476621B1 (ko) 2018-05-07 2022-12-12 구글 엘엘씨 사용자, 자동화된 어시스턴트 및 컴퓨팅 서비스 간의 다중 모드 상호 작용
JP2022521040A (ja) * 2019-02-25 2022-04-05 フォルシアクラリオン・エレクトロニクス株式会社 ハイブリッド音声対話システム及びハイブリッド音声対話方法
US11615786B2 (en) * 2019-03-05 2023-03-28 Medyug Technology Private Limited System to convert phonemes into phonetics-based words
US20220091707A1 (en) 2020-09-21 2022-03-24 MBTE Holdings Sweden AB Providing enhanced functionality in an interactive electronic technical manual
US11381713B2 (en) 2020-11-10 2022-07-05 Warner Bros. Entertainment Inc. Perfless and cadenceless scanning and digitization of motion picture film
US20220157323A1 (en) * 2020-11-16 2022-05-19 Bank Of America Corporation System and methods for intelligent training of virtual voice assistant
US20220215056A1 (en) * 2021-01-04 2022-07-07 Oracle International Corporation Drill back to original audio clip in virtual assistant initiated lists and reminders
US11929068B2 (en) 2021-02-18 2024-03-12 MBTE Holdings Sweden AB Providing enhanced functionality in an interactive electronic technical manual
CN113297359B (zh) * 2021-04-23 2023-11-28 阿里巴巴新加坡控股有限公司 交互信息的方法以及装置
US11947906B2 (en) 2021-05-19 2024-04-02 MBTE Holdings Sweden AB Providing enhanced functionality in an interactive electronic technical manual
US20230074406A1 (en) * 2021-09-07 2023-03-09 Google Llc Using large language model(s) in generating automated assistant response(s
US20230177255A1 (en) * 2021-12-03 2023-06-08 International Business Machines Corporation Conversational agent counterfactual simulation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318132A (ja) 2001-04-23 2002-10-31 Hitachi Ltd 音声対話型ナビゲーションシステムおよび移動端末装置および音声対話サーバ
US20100094635A1 (en) 2006-12-21 2010-04-15 Juan Jose Bermudez Perez System for Voice-Based Interaction on Web Pages
JP2013517566A (ja) 2010-01-18 2013-05-16 アップル インコーポレイテッド インテリジェント自動アシスタント
JP2013137584A (ja) 2011-12-27 2013-07-11 Toshiba Corp 電子機器、表示方法、およびプログラム
WO2018034028A1 (ja) 2016-08-16 2018-02-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7019749B2 (en) 2001-12-28 2006-03-28 Microsoft Corporation Conversational interface agent
WO2004053836A1 (en) * 2002-12-10 2004-06-24 Kirusa, Inc. Techniques for disambiguating speech input using multimodal interfaces
US8793602B2 (en) 2004-01-15 2014-07-29 The Mathworks, Inc. System and method for scheduling the execution of model components using model events
EP1615124A1 (en) * 2004-07-07 2006-01-11 Alcatel Alsthom Compagnie Generale D'electricite A method for handling a multi-modal dialog
US9436820B1 (en) 2004-08-02 2016-09-06 Cisco Technology, Inc. Controlling access to resources in a network
US9224394B2 (en) * 2009-03-24 2015-12-29 Sirius Xm Connected Vehicle Services Inc Service oriented speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
US7409344B2 (en) 2005-03-08 2008-08-05 Sap Aktiengesellschaft XML based architecture for controlling user interfaces with contextual voice commands
US7885388B2 (en) * 2006-01-17 2011-02-08 General Motors Llc Method and apparatus for initiating communication via a multi-mode system in a vehicle
DE102008051756A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
US8370160B2 (en) * 2007-12-31 2013-02-05 Motorola Mobility Llc Methods and apparatus for implementing distributed multi-modal applications
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8952987B2 (en) 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
US10107887B2 (en) * 2012-04-13 2018-10-23 Qualcomm Incorporated Systems and methods for displaying a user interface
US9223537B2 (en) * 2012-04-18 2015-12-29 Next It Corporation Conversation user interface
US10276157B2 (en) * 2012-10-01 2019-04-30 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US9378065B2 (en) 2013-03-15 2016-06-28 Advanced Elemental Technologies, Inc. Purposeful computing
US9292254B2 (en) 2013-05-15 2016-03-22 Maluuba Inc. Interactive user interface for an intelligent assistant
WO2014197737A1 (en) * 2013-06-08 2014-12-11 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9600227B2 (en) 2013-11-21 2017-03-21 Google Technology Holdings LLC System and method for speech-based navigation and interaction with a device's visible screen elements using a corresponding view hierarchy
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
EP3195307B1 (en) * 2014-09-14 2020-01-29 Google LLC Platform for creating customizable dialog system engines
US10317992B2 (en) * 2014-09-25 2019-06-11 Microsoft Technology Licensing, Llc Eye gaze for spoken language understanding in multi-modal conversational interactions
CN107112016B (zh) * 2015-01-05 2020-12-29 谷歌有限责任公司 多模态状态循环
US10050868B2 (en) 2015-01-16 2018-08-14 Sri International Multimodal help agent for network administrator
US10762143B2 (en) * 2015-02-13 2020-09-01 Microsoft Technology Licensing, Llc Extension of third party application functionality for intent determination
US20170277364A1 (en) 2016-03-22 2017-09-28 Amazon Technologies, Inc. User interface with dynamic refinement of filtered results
US10304444B2 (en) 2016-03-23 2019-05-28 Amazon Technologies, Inc. Fine-grained natural language understanding
WO2017210784A1 (en) * 2016-06-06 2017-12-14 Nureva Inc. Time-correlated touch and speech command input
US20180131642A1 (en) 2016-11-04 2018-05-10 Microsoft Technology Licensing, Llc Conversation runtime
US10311875B2 (en) 2016-12-22 2019-06-04 Soundhound, Inc. Full-duplex utterance processing in a natural language virtual assistant
US10832666B2 (en) 2017-04-19 2020-11-10 Verizon Patent And Licensing Inc. Advanced user interface for voice search and results display
US10796088B2 (en) 2017-04-21 2020-10-06 International Business Machines Corporation Specifying a conversational computer agent and its outcome with a grammar
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US11423879B2 (en) 2017-07-18 2022-08-23 Disney Enterprises, Inc. Verbal cues for high-speed control of a voice-enabled device
US10515625B1 (en) * 2017-08-31 2019-12-24 Amazon Technologies, Inc. Multi-modal natural language processing
CN116679903A (zh) 2017-10-03 2023-09-01 谷歌有限责任公司 车辆环境中的多个数字助理协调
US10453454B2 (en) 2017-10-26 2019-10-22 Hitachi, Ltd. Dialog system with self-learning natural language understanding
US10896457B2 (en) * 2017-12-12 2021-01-19 Amazon Technologies, Inc. Synchronized audiovisual responses to user requests
US20190278562A1 (en) 2018-03-07 2019-09-12 John Hien Tang System and method for voice control of a computing device
WO2019195799A1 (en) * 2018-04-05 2019-10-10 Synaptics Incorporated Context-aware control for smart devices
US10573298B2 (en) 2018-04-16 2020-02-25 Google Llc Automated assistants that accommodate multiple age groups and/or vocabulary levels
US10803860B2 (en) 2018-04-19 2020-10-13 Google Llc Dependency graph conversation modeling for use in conducting human-to-computer dialog sessions with a computer-implemented automated assistant
JP7471279B2 (ja) 2018-05-04 2024-04-19 グーグル エルエルシー 検出された口運動および/または注視に基づく自動化アシスタントの適応
EP3805902B1 (en) 2018-05-04 2023-08-23 Google LLC Selective detection of visual cues for automated assistants
CN112236738A (zh) 2018-05-04 2021-01-15 谷歌有限责任公司 基于检测到的手势和凝视调用自动化助理功能
US11347801B2 (en) 2018-05-07 2022-05-31 Google Llc Multi-modal interaction between users, automated assistants, and other computing services
KR102476621B1 (ko) 2018-05-07 2022-12-12 구글 엘엘씨 사용자, 자동화된 어시스턴트 및 컴퓨팅 서비스 간의 다중 모드 상호 작용
US11200893B2 (en) 2018-05-07 2021-12-14 Google Llc Multi-modal interaction between users, automated assistants, and other computing services
US10628987B2 (en) 2018-05-08 2020-04-21 Google Llc Condensed transitions of graphical elements presented in graphical user interfaces

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318132A (ja) 2001-04-23 2002-10-31 Hitachi Ltd 音声対話型ナビゲーションシステムおよび移動端末装置および音声対話サーバ
US20100094635A1 (en) 2006-12-21 2010-04-15 Juan Jose Bermudez Perez System for Voice-Based Interaction on Web Pages
JP2013517566A (ja) 2010-01-18 2013-05-16 アップル インコーポレイテッド インテリジェント自動アシスタント
JP2013137584A (ja) 2011-12-27 2013-07-11 Toshiba Corp 電子機器、表示方法、およびプログラム
WO2018034028A1 (ja) 2016-08-16 2018-02-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US10984786B2 (en) 2021-04-20
KR20210002599A (ko) 2021-01-08
US11735182B2 (en) 2023-08-22
US20210193146A1 (en) 2021-06-24
JP2021523467A (ja) 2021-09-02
EP3586332A1 (en) 2020-01-01
JP2023017956A (ja) 2023-02-07
KR102476621B1 (ko) 2022-12-12
KR20230003281A (ko) 2023-01-05
WO2019216875A1 (en) 2019-11-14
US20200294497A1 (en) 2020-09-17
CN112868060A (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
JP7203865B2 (ja) ユーザと、自動化されたアシスタントと、他のコンピューティングサービスとの間のマルチモーダル対話
US11347801B2 (en) Multi-modal interaction between users, automated assistants, and other computing services
US11200893B2 (en) Multi-modal interaction between users, automated assistants, and other computing services
JP7418526B2 (ja) 自動アシスタントを起動させるための動的および/またはコンテキスト固有のホットワード
KR102498811B1 (ko) 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
US11775254B2 (en) Analyzing graphical user interfaces to facilitate automatic interaction
KR20210024222A (ko) 캡처된 이미지들과 관련된 메타 데이터 저장
JP7384976B2 (ja) 割込みをかける第2のセッションの終了時に第1の自動アシスタントセッションを自動的に再開するかどうかを決定すること
JP7471371B2 (ja) アシスタントデバイスのディスプレイにレンダリングするコンテンツの選択
US20230343336A1 (en) Multi-modal interaction between users, automated assistants, and other computing services
CN110688011B (zh) 基于多模态客户端设备的模态的动态列表构成

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221110

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221121

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221227

R150 Certificate of patent or registration of utility model

Ref document number: 7203865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150