JP6934092B2 - Initialize conversations with automation agents via selectable graphical elements - Google Patents
Initialize conversations with automation agents via selectable graphical elements Download PDFInfo
- Publication number
- JP6934092B2 JP6934092B2 JP2020117027A JP2020117027A JP6934092B2 JP 6934092 B2 JP6934092 B2 JP 6934092B2 JP 2020117027 A JP2020117027 A JP 2020117027A JP 2020117027 A JP2020117027 A JP 2020117027A JP 6934092 B2 JP6934092 B2 JP 6934092B2
- Authority
- JP
- Japan
- Prior art keywords
- agent module
- user
- application
- selectable element
- automation assistant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 53
- 230000004044 response Effects 0.000 claims description 51
- 230000009471 action Effects 0.000 claims description 41
- 230000003993 interaction Effects 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 claims 1
- 239000003795 chemical substances by application Substances 0.000 description 205
- 235000013305 food Nutrition 0.000 description 40
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 19
- 235000013550 pizza Nutrition 0.000 description 10
- 108091027981 Response element Proteins 0.000 description 8
- 235000021152 breakfast Nutrition 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 235000013361 beverage Nutrition 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
自動化アシスタント(「パーソナルアシスタントモジュール」、「モバイルアシスタント」、または「チャットボット」とも呼ばれる)が、スマートフォン、タブレットコンピュータ、ウェアラブルデバイス、自動車システム、スタンドアロンパーソナルアシスタントデバイスなどの様々なコンピューティングデバイスを介してユーザと対話され得る。自動化アシスタントは、ユーザからの入力(たとえば、タイプおよび/または発話された自然言語入力)を受け取り、応答内容(responsive content)(たとえば、視覚および/または可聴自然言語出力)で応答する。 Automation assistants (also known as "personal assistant modules", "mobile assistants", or "chatbots") are used by users through various computing devices such as smartphones, tablet computers, wearable devices, automotive systems, and stand-alone personal assistant devices. Can be interacted with. The automation assistant receives input from the user (eg, type and / or spoken natural language input) and responds with responsive content (eg, visual and / or audible natural language output).
自動化アシスタントは、様々なローカルおよび/またはサードパーティエージェントとの対話を通じて広範な機能を提供し得る。ユーザが自動化アシスタントを利用して特定の機能を実施するために、多くの場合、ユーザはまず、(たとえば、特定の口頭の語句および/または特定のハードウェア入力を通じて)自動化アシスタントを明示的に起動し、次いで特定の機能に関連する特定の起動語句を与えなければならない。起動語句は、自動化アシスタントを介して、特定の機能を実施し得るエージェントを起動する。しかしながら、ユーザは、自動化アシスタントの様々な機能を知らないことがあり、かつ/または自動化アシスタントを介してそのような機能を起動するための起動語句を知らないことがある。さらに、ユーザは、そのデバイスのうちの1つが照会に回答する(たとえば、タブレットからフライト詳細を取得する)ためにロードされた自動化アシスタントを有さないことがあっても、自動化アシスタントを有する他のデバイスからユーザが回答を取得し得ることを知らないことがある。その結果、ある状況では、ユーザは、特定の機能を実施するためにリソース効率の低い他のアプリケーションを利用することがある。さらに、ユーザが自動化アシスタントを起動する場合であっても、ある状況では、ユーザは、自動化アシスタントを介してどのように特定の機能を実施するかを知るために、自動化アシスタントとの広範なリソース集約的な対話(たとえば、ダイアログターン(dialog turn))に依然として関与する必要があることがある。たとえば、自動化アシスタントが特定の機能の実施を可能にすることができることをユーザが知るためにさえも大量のダイアログターンが必要とされ得る。 Automation assistants can provide a wide range of functionality through interaction with various local and / or third-party agents. In order for a user to utilize an automation assistant to perform a particular function, the user often first explicitly launches the automation assistant (for example, through certain verbal phrases and / or certain hardware inputs). Then you have to give a specific activation phrase related to a specific function. The launch phrase launches an agent that can perform a particular function through an automation assistant. However, the user may be unaware of the various features of the automation assistant and / or the launch phrase for invoking such features through the automation assistant. In addition, the user may not have an automation assistant loaded to answer the query (for example, get flight details from the tablet) on one of its devices, but the other has an automation assistant. You may not know that the user can get an answer from the device. As a result, in some situations, users may utilize other resource-inefficient applications to perform certain functions. In addition, even if the user launches the automation assistant, in some situations the user aggregates extensive resources with the automation assistant to know how to perform a particular function through the automation assistant. You may still need to be involved in a typical dialogue (for example, a dialog turn). For example, a large number of dialog turns may be required even for the user to know that an automation assistant can enable the performance of a particular function.
自動化アシスタントを起動して、アプリケーションに関連するエージェントモジュールと通信するための技法が本明細書において説明される。いくつかの実装は、自動化アシスタントアプリケーションとは別々のアプリケーションの非自動化アシスタントグラフィカルユーザインターフェース内でユーザに選択可能要素を提示することを可能にする。選択可能要素のユーザ選択に応答して、自動化アシスタントは、選択可能要素に対応し、非自動化アシスタントインターフェースを介して提示される内容に関連するエージェントモジュールを起動し得る。それらの実装のうちのいくつかでは、選択可能要素は、シングルタップ、シングルクリック、または他の「単一選択」方式で選択可能である。これらおよび他の方式では、ユーザは、選択可能要素を選択して、非会話型インターフェースから会話型自動化アシスタントインターフェースに遷移し得、(非会話型インターフェース内の内容に関係する)エージェントが自動化アシスタントインターフェース内で起動される。いくつかの実装では、そのような方式で自動化アシスタントインターフェース内でエージェントを起動することによって、エージェントモジュールの機能を実施するためにユーザによって必要とされる入力量が削減され得る。具体的には、最初に自動化アシスタントを起動し、次いで特定のエージェントモジュールまたはエージェントモジュールの機能に関連する特定の起動語句を与える代わりに、エージェントモジュールが、グラフィカルユーザインターフェースに基づいて直接的に起動され得る。グラフィカルユーザインターフェースに関連するエージェントモジュールが、自動化アシスタントを介して直接的に起動され得る。ユーザによって必要とされる入力数が、少なくとも、特定のエージェントモジュールについてのさらなる起動語句(invocation phrase)を必要としないことによって削減される。このようにして、自動化アシスタントによる一般的照会の出力、および特定のエージェントモジュールについてのさらなる起動語句の処理は必要とされない。この入力の削減は、計算資源を節約し、たとえば、器用さの問題のあるユーザなどの様々なユーザに恩恵を与える。さらに、様々な自動化アシスタント機能の発見が促進され得、それによって、さらなる対話のための、潜在的によりリソース効率の高い自動化アシスタントインターフェースの使用が促進される。 Techniques for invoking an automation assistant to communicate with an agent module associated with an application are described herein. Some implementations allow the user to be presented with selectable elements within the non-automated assistant graphical user interface of an application separate from the automated assistant application. In response to the user selection of the selectable element, the automation assistant may launch an agent module that corresponds to the selectable element and is associated with what is presented via the non-automation assistant interface. In some of those implementations, selectable elements are selectable by single tap, single click, or other "single selection" method. In these and other methods, the user can select selectable elements to transition from the non-conversational interface to the conversational automation assistant interface, and the agent (related to the content in the non-conversational interface) is the automation assistant interface. Launched within. In some implementations, launching the agent within the automation assistant interface in such a manner may reduce the amount of input required by the user to perform the functionality of the agent module. Specifically, instead of first launching the automation assistant and then giving a particular agent module or a specific launch phrase related to the function of the agent module, the agent module is launched directly based on the graphical user interface. obtain. Agent modules associated with the graphical user interface can be launched directly through the automation assistant. The number of inputs required by the user is reduced, at least by not requiring additional invocation phrases for a particular agent module. In this way, the automation assistant does not need to output general queries and handle additional launch terms for a particular agent module. This reduction in input saves computational resources and benefits a variety of users, for example, users with dexterity problems. In addition, the discovery of various automation assistant features can be facilitated, thereby facilitating the use of potentially more resource-efficient automation assistant interfaces for further dialogue.
いくつかの実装では、1つまたは複数のプロセッサによって実装される方法が、コンピューティングデバイスの非自動化アシスタントアプリケーションによってレンダリングされたグラフィカルユーザインターフェースでの選択可能要素の選択を受け取ることなどのステップを含むものとして説明される。選択可能要素は、グラフィカルユーザインターフェースに関連するエージェントが、非自動化アシスタントアプリケーションとは別々の自動化アシスタントアプリケーションを介して起動され得ることを示し得る。ステップは、選択可能要素の選択に応答して、自動化アシスタントアプリケーションを介してエージェントを起動することをさらに含み得る。エージェントは、自動化アシスタントアプリケーションを介して起動され得る複数の利用可能なエージェントのうちの1つであり得る。ステップは、エージェントを起動したことに応答して、エージェントから応答内容を受け取ること、および自動化アシスタントインターフェースを介して、自動化アシスタントアプリケーションによって、エージェントから受け取った応答内容に基づく出力を提供することをさらに含み得る。 In some implementations, the method implemented by one or more processors involves steps such as receiving a selection of selectable elements in a graphical user interface rendered by a non-automated assistant application on a computing device. It is explained as. The selectable element may indicate that the agent associated with the graphical user interface can be launched through an automated assistant application that is separate from the non-automated assistant application. The step may further include invoking the agent through the automation assistant application in response to the selection of selectable elements. The agent can be one of several available agents that can be launched through the automation assistant application. The steps further include receiving a response from the agent in response to invoking the agent, and providing output based on the response received from the agent by the automation assistant application via the automation assistant interface. obtain.
他の実装では、1つまたは複数のプロセッサによって実装される方法が、非自動化アシスタントアプリケーションを操作しているコンピューティングデバイスにおいて選択可能要素を表示させることなどのステップを含むものとして説明される。選択可能要素は、非自動化アシスタントアプリケーションに関連するエージェントモジュールを自動化アシスタントに初期化させるように構成され得る。ステップは、選択可能要素の選択を受け取ること、および選択可能要素の選択を受け取ったことに応答して、自動化アシスタントがコンピューティングデバイスにとってアクセス可能であるかどうかを判定することをさらに含み得る。ステップはまた、自動化アシスタントがコンピューティングデバイスにとってアクセス不能であると判定されたとき、選択可能要素に対応するリンクを実行して、デフォルトウェブページに、エージェントモジュールと通信するための発話可能コマンド語句をオープンおよび提示させることをも含み得る。 In other implementations, the method implemented by one or more processors is described as involving steps such as displaying selectable elements on a computing device operating a non-automated assistant application. The selectable element can be configured to initialize the agent module associated with the non-automation assistant application to the automation assistant. The steps may further include receiving a selection of selectable elements and determining whether the automation assistant is accessible to the computing device in response to receiving the selection of selectable elements. The step also performs a link corresponding to the selectable element when the automation assistant determines that it is inaccessible to the computing device, and puts a spoken command phrase on the default web page to communicate with the agent module. It can also include opening and presenting.
さらに別の実装では、非一時的コンピュータ可読媒体が、1つまたは複数のプロセッサによって実行されるとき、ユーザが非自動化アシスタントアプリケーションのアプリケーションインターフェースを閲覧していると判定することを含むステップを1つまたは複数のプロセッサに実施させる命令を記憶するものとして説明される。アプリケーションインターフェースは、自動化アシスタントアプリケーションを介するエージェントモジュールとの通信を初期化するための第1の選択可能要素を含み得る。エージェントモジュールは、非自動化アシスタントアプリケーションに関連するアクションを実施するように構成され得る。ステップは、第1の選択可能要素の選択を受け取ることをさらに含み得る。第1の選択可能要素は、エージェントモジュールを識別するリンクと、アクションを実施するためのパラメータとを含み得る。ステップはまた、会話型インターフェースをユーザに提示させることをも含み得る。会話型インターフェースは、ユーザとエージェントモジュールとの間の媒介となるように自動化アシスタントによって構成され得る。さらに、ステップは、会話型インターフェースにおいて第2の選択可能要素を提供することを含み得る。第2の選択可能要素は、アクションを進めるためのリンク内で識別されるパラメータに基づき得る。 In yet another implementation, one step involves determining that a user is browsing the application interface of a non-automated assistant application when a non-temporary computer-readable medium is run by one or more processors. Alternatively, it is described as storing instructions to be executed by a plurality of processors. The application interface may include a first selectable element for initializing communication with the agent module via the automation assistant application. The agent module can be configured to perform actions related to the non-automated assistant application. The step may further include receiving a selection of the first selectable element. The first selectable element may include a link that identifies the agent module and parameters for performing the action. Steps can also include having the user present a conversational interface. The conversational interface can be configured by an automation assistant to act as an intermediary between the user and the agent module. Further, the steps may include providing a second selectable element in the conversational interface. The second selectable element may be based on the parameters identified within the link to proceed with the action.
さらに、いくつかの実装は、1つまたは複数のコンピューティングデバイスの1つまたは複数のプロセッサを含み、1つまたは複数のプロセッサは、関連するメモリ内に記憶された命令を実行するように動作可能であり、命令は、前述の方法のうちのいずれかを実施させるように構成される。いくつかの実装は、前述の方法のうちのいずれかを実施するように1つまたは複数のプロセッサによって実行可能なコンピュータ命令を記憶する1つまたは複数の非一時的コンピュータ可読記憶媒体をも含む。 In addition, some implementations include one or more processors of one or more computing devices, one or more processors capable of operating to execute instructions stored in the associated memory. The instruction is configured to implement any of the methods described above. Some implementations also include one or more non-temporary computer-readable storage media that store computer instructions that can be executed by one or more processors to perform any of the methods described above.
記載の実装は、自動化アシスタントを使用して、アプリケーションに関連するエージェントモジュールと対話するためのシステム、方法、および装置に関する。一例として、ユーザがクライアントデバイスのウェブブラウザアプリケーションを介してPizza Companyの「ピザを注文」ウェブページにアクセスしたと仮定する。選択されたとき、クライアントデバイスの自動化アシスタントアプリケーションに、「Pizza Company」のエージェントを起動させ、「Pizza Company」のエージェントによって生成された自動化アシスタントインターフェース出力をユーザに提示させるウェブブラウザアプリケーションを介して、選択可能要素が提示され得る。言い換えれば、要素の選択に応答して、自動化アシスタントアプリケーションは、エージェントを起動して、自動化アシスタントインターフェースを介してユーザがエージェントとのダイアログに関与することを可能にし得る。いくつかの実装では、選択可能要素は、ウェブページの内容として含まれ(たとえば、Pizza Companyによるウェブページ内に組み込まれ)得る。さらに、いくつかの実装では、選択可能要素の選択に応答して、ウェブブラウザアプリケーションを介するユーザの対話に基づくインテントおよび/またはインテントパラメータについての値(たとえば、「スロット値」)と共にエージェントが起動され得る。たとえば、ユーザが「ピザを注文」ウェブページと対話して「ラージ1トッピング」ピザを選択した場合、「ピザを注文」インテントと、スロット値「ラージ」および「1トッピング」と共にエージェントが起動され得る。 The implementation described relates to a system, method, and device for interacting with an agent module associated with an application using an automation assistant. As an example, suppose a user visits the Pizza Company's "Order Pizza" web page through a web browser application on a client device. When selected, select through a web browser application that causes the automation assistant application on the client device to launch the "Pizza Company" agent and present the user with the automation assistant interface output generated by the "Pizza Company" agent. Possible elements can be presented. In other words, in response to element selection, the automation assistant application may launch the agent and allow the user to engage in a dialog with the agent through the automation assistant interface. In some implementations, selectable elements can be included as the content of a web page (eg, incorporated within a web page by The Pizza Company). In addition, in some implementations, the agent responds to the selection of selectable elements with values for intents and / or intent parameters based on user interaction through the web browser application (for example, "slot value"). Can be activated. For example, if a user interacts with the Order Pizza web page and selects the Large 1 Topping pizza, the agent is launched with the Order Pizza intent and the slot values Large and 1 Topping. obtain.
図1A〜図1Cは、会話型ユーザインターフェース114がモバイルデバイスのアプリケーション106から活動化されるダイアグラムを示す。具体的には、図1Aは、モバイルデバイスのユーザインターフェース108において表示されるアプリケーション106のダイアグラム100を示す。アプリケーション106は、たとえば、ユーザインターフェースを介してユーザがホテルを予約することを可能にするホテル予約アプリケーションであり得る。モバイルデバイスは、モバイルデバイスの様々な機能を支援するための自動化アシスタントを含み、または別々のデバイスの自動化アシスタントと通信し得る。たとえば、自動化アシスタントは、音声コマンドに応答し、アプリケーション106などのアプリケーションに関連するエージェントモジュールによって使用され得るテキストに音声コマンドを変換し得る。モバイルデバイス104のアプリケーションは、アプリケーション106に関連する機能をユーザが実施するのを支援するように具体的に設計されたエージェントモジュールに関連付けられ得る。いくつかの実装では、自動化アシスタントは、ユーザとの音声またはテキスト会話を初期化し、ユーザとアプリケーション106に関連するエージェントモジュールとの間の媒介として働き得る。しかしながら、ユーザは、自動化アシスタント、またはアプリケーション106に関連するエージェントモジュールについて利用可能な発話可能コマンドを知らないことがあり、それによって、エージェントモジュールと対話するための効率の低い手段がユーザに残される。自動化アシスタントを介してエージェントモジュールと通信するために利用可能な発話可能コマンドをユーザに紹介するために、自動化アシスタントは、第1の選択可能要素112の選択を介して初期化される会話型ユーザインターフェース114を提供し得る。
Figures 1A-1C show a diagram in which the conversational user interface 114 is activated from
第1の選択可能要素112は、ユーザがユーザの自動化アシスタントを使用してアプリケーション106に関連するエージェントモジュールと通信し得ることをユーザに示す語句を含み得る。たとえば、第1の選択可能要素112は、「自動化アシスタントを使用する」という語句を含み得、ユーザがユーザの自動化アシスタントを通じてアプリケーション106に関係する機能、またはエージェントモジュールを実施することができることをユーザ102に通知する。当初、ユーザ102が何らかの発話可能コマンドを知らない場合、ユーザ102は、第1の選択可能要素112を選択し得る、または「自動化アシスタントを使用する」という語句を話し得る。ユーザ102が第1の選択可能要素112を選択したこと、または「自動化アシスタントを使用する」という語句を話したことに応答して、自動化アシスタントは、アプリケーション106に対応するエージェントモジュールを初期化し、起動し得る。第1の選択可能要素112は、エージェントモジュールおよび/またはエージェントモジュールによって実施されるべきコマンドもしくはインテントを具体的には識別するリンクまたはコマンドに関連付けられ得る。いくつかの実装では、リンクは、「http://assistant.url/hotel-agent-module/hotel-booking」などのユニバーサルリソースロケータ(URL)、またはエージェントモジュールを識別する任意のコマンドであり得る。リンクはまた、第1の選択可能要素112を選択する前にユーザによってアプリケーションに提供される任意の情報をも含み得る。たとえば、図1Aに示されるように、ユーザは、ホテル予約のための日付(「3/14」)および客数(「1」)を既に選択していることがある。したがって、リンクは、エージェントモジュールを識別し、日付および客数を含み得る。このようにして、自動化アシスタントは、ホテル予約の進行に関して通知を受け得、指定の日付および客数と共にエージェントを起動し得る。たとえば、エージェントは、「ホテル予約」インテントと、「日付」スロットパラメータについての値「3/14」および「客数」スロットパラメータについての値「1」と共に起動され得る。そのようなリンクの一例は、「http://assistant.url/agent-module/hotel-booking-date_0314_guests_1」であり得る。いくつかの実装では、リンクまたはコマンドは、悪意のあるURL作成者によって引き起こされる損害をなくすために、エージェントがどのように自動化アシスタントから入力を受け取るかについての詳細を隠すための不透明パラメータ(たとえば、「.../date_889293」)を含み得る。
The first
いくつかの実装では、ユーザが第1の選択可能要素112を選択したことに応答して、自動化アシスタントは、リンクおよびリンク内のエージェントモジュール識別子を使用して、エージェントモジュールが自動化アシスタントにとってアクセス可能であるかどうかを判定し得る。エージェントモジュールが自動化アシスタントにとって利用可能である場合、自動化アシスタントはエージェントモジュールを起動し得、任意選択で、エージェントモジュールとのさらなる対話のために利用可能なコマンドをユーザに提示し得る。たとえば、図1Bでは、アプリケーション106に関連するエージェントモジュールが会話型インターフェース114内で起動されており、起動に応答してエージェントモジュールによって生成された応答内容に基づく会話型インターフェース内で、出力(「エージェント:...は何ですか」)が提示される。たとえば、エージェントモジュールは、「ホテル予約」インテントと共に起動され、それに応答して、図1Bに示される出力を提供していることがある。
In some implementations, in response to the user selecting the first
いくつかの実装では、自動化アシスタントは、アプリケーション106に与えられた履歴コマンドの索引にアクセスし得る。自動化アシスタントは、履歴コマンドの索引を使用して、ユーザがエージェントモジュールと対話するための提案を行い得る。対応するエージェントモジュールが識別され、または履歴コマンドが識別されると、自動化アシスタントまたはモバイルデバイス104上の他のアプリケーションは、図1Bのダイアグラム116内で与えられるように、会話型ユーザインターフェース114内でユーザにコマンドのリストを提示し得る。たとえば、提案要素120が、「私の以前の予約の場所」という語句を備え得る。提案要素120が選択された場合、自動化アシスタントは、ユーザが以前にホテルを予約したのと同じ場所のホテルの場所を予約するようにエージェントモジュールに指示し得る。自動化アシスタントは、ユーザとアプリケーション106との間の対話に対応するユーザデータを検索して、以前のホテル予約の場所を決定し得る。あるいは、提案要素122は、「私のカレンダ内の場所」という語句を備え得る。提案要素122が選択された場合、自動化アシスタントは、リンク内に示される日付(「3/14」)の、ユーザのカレンダ内に記憶されるイベントに従ってホテルの場所を予約するようにエージェントモジュールに指示し得る。自動化アシスタントはまた、選択されたときに、ユーザが会話型ユーザインターフェース114内に入力をタイプすることを可能にするテキスト入力要素124と、選択されたときに、ユーザが自動化アシスタントに対する入力を話すことを可能にする音声入力要素132とを提供し得る。このようにして、任意選択で、ユーザは、エージェントモジュールについての提案された入力を選択すること、または自動化アシスタントを介してエージェントモジュールに対するテキストもしくは音声入力を与えることの間から選び得る。次いで、ユーザからの入力が、自動化アシスタントによってエージェントモジュールに与えられ、エージェントモジュールがダイアログを続行するさらなる応答内容を生成することを可能にし得る。
In some implementations, the automation assistant can access the index of historical commands given to
コマンドのリストは、自動化アシスタントとエージェントモジュールとの間の対話を使用して、アプリケーションにおいて開始された動作を進めるためのコマンドを含み得る。コマンドのリストは、エージェントモジュールによって理解される発話可能コマンド、あるいはユーザによって話され、自動化アシスタントまたはモバイルデバイスもしくはリモートデバイス上の他のアプリケーションを使用してテキストに変換され得るテキストコマンドであり得る。たとえば、第1の選択可能要素112に関連するリンクは、自動化アシスタントがどのように入力を受け取り、かつ/または出力を提供するかについてのモダリティ(modality)を識別し得る。モダリティは、テキスト、音声、または入力を受け取り、出力を提供するための任意の他の媒体であり得る。モダリティは、自動化アシスタントに提供されるリンク内で識別され得る。たとえば、リンクは、エージェントモジュール、インテントもしくはアクション、および/またはモダリティ(たとえば、「http://assistant.url/agent-module/hotelbooking-text_modality」)を識別し得る。
The list of commands may contain commands for proceeding with the actions initiated in the application using the interaction between the automation assistant and the agent module. The list of commands can be spoken commands that are understood by the agent module, or text commands that are spoken by the user and can be converted to text using an automation assistant or other application on a mobile device or remote device. For example, the link associated with the first
ユーザが図1Bのダイアグラム116における提案要素120、122、または124のいずれかを選択したことに応答して、図1Cのダイアグラム118に示されるように、会話型ユーザインターフェース114が更新され得る。図1Cの更新後会話型ユーザインターフェース130は、エージェントモジュールからのさらなる応答内容を含み得る。たとえば、自動化アシスタントがホテル予約のついての場所をエージェントモジュールに通信すると、エージェントモジュールは、ホテル予約についての支払いに対応する自動化アシスタントにさらなる応答内容を送り得る。自動化アシスタントは、エージェントモジュールに応答するための任意選択の応答要素をユーザに提示し得る。自動化アシスタントは、エージェントモジュールからの応答内容を使用して、自動化アシスタントにとってアクセス可能なユーザデータを検索し、検索に基づいて、選択可能な応答を生成し得る。たとえば、エージェントモジュールが支払いについて尋ねる照会を自動化アシスタントに提供したので、自動化アシスタントは、支払い情報についてのユーザデータを検索し得る。ユーザがモバイルデバイス上に記憶されたペイメントカードを有していると自動化アシスタントが判定した場合、自動化アシスタントは、「私の記憶されたカードで支払う」という語句を含む応答要素126を提示し得る。いくつかの実装では、自動化アシスタントは、エージェントモジュールとの対話が完了すると、ユーザが何らかの他の機能も実施することを望むと予測し得る。そのようなケースでは、自動化アシスタントは、1つのエージェントモジュール(たとえば、ホテル予約エージェントモジュール)に応答し、他の機能(たとえば、フライトの予約)を完了するための別のエージェントモジュールを起動し得るデュアルエージェント応答要素128をユーザに提示し得る。たとえば、自動化アシスタントは、話され、または選択されたときに、記憶されたカードを使用してホテル予約についてユーザに課金するようにエージェントモジュールに指示し得る、「記憶されたカードで支払い...」という語句を含むデュアルエージェント応答要素128を提供し得る。同時に、自動化アシスタントは、「...私がフライトを予約するのを助けて」という語句をデュアルエージェント応答要素128に提供し得る。ユーザがデュアルエージェント
応答要素128を選択したことに応答して、自動化アシスタントはまた、フライト予約アプリケーションまたはウェブサイトに対応するエージェントモジュールを起動し得る。このようにして、いくつかの動作を実施するためにユーザによって必要とされる入力数が削減され得る。これは、ユーザがモバイルデバイスに効率的に入力を与えることを妨げ得る器用さの問題または他の病気のあるユーザにとって有益であり得る。
The conversational user interface 114 may be updated as shown in Diagram 118 of FIG. 1C in response to the user selecting any of the proposed
図2は、ウェブサイト206に関連するエージェントモジュールと対話するために使用され得る会話型ユーザインターフェース214を示す。モバイルデバイス204上でウェブサイト206をブラウジング中に、ユーザ202は、ウェブサイト206に関連するいくつかの機能が、自動化アシスタントおよび/またはエージェントモジュールによって解釈され得る発話可能コマンドを通じて制御され得ることを知らないことがある。発話可能コマンドにユーザ202をより慣れさせるために、ユーザ202は、本明細書において説明される実装に従って会話型ユーザインターフェース214を提供し得る自動化アシスタントを初期化するように指示され得る。たとえば、ユーザ202は、図2のダイアグラム200に示されるように、食品注文ウェブサイト206をブラウジング中であり得る。ウェブサイト206を閲覧中に、ユーザ202は、モバイルデバイス204のユーザインターフェース208に提示された第1の選択可能要素212を識別し得る。第1の選択可能要素212は、ウェブサイト206に関連するいくつかの機能を実施するためのウェブサイト206に関連するエージェントモジュールと対話するために自動化アシスタントが使用され得ることをユーザ202に示す語句を含み得る。たとえば、第1の選択可能要素212は、図2に示されるように、「自動化アシスタントを使用する」という語句を含み得る。第1の選択可能要素212は、モバイルデバイス204において会話型ユーザインターフェースを開くために自動化アシスタントに提供され得る、URLなどのリンクに関連付けられ得る。たとえば、リンクは、ウェブサイト206に関連する機能(たとえば、食品の注文)を実施するためにユーザ202から発話可能コマンドを受け取るのに適したエージェントモジュールを識別し得る。そのようなリンクは、たとえば、http://assistant.url/food%ordering%agent%moduleという構造を有し、「%」は間隔文字を示し、エージェントモジュールのタイプ(たとえば、「食品注文」)がホスト名の後で識別される。いくつかの実装では、モバイルデバイス204がウェブサイト206に対応するサードパーティアプリケーション(たとえば、食品注文アプリケーション)を含む場合、ユーザ202と食品注文アプリケーションとの間の会話を続行するために、リンクが自動化アシスタントによってサードパーティアプリケーションに転送され得る。そうでない場合、リンクが自動化アシスタントによって受け取られ、モバイルデバイス204または別個のコンピューティングデバイス224において、会話型ユーザインターフェース214が提供され得る。
FIG. 2 shows a conversational user interface 214 that can be used to interact with the agent module associated with
さらに別の例として、ウェブサイト206は食品配送注文ウェブサイトであり得、ユーザは(たとえば、ドロップダウンメニュー、ラジオボタン、フリーフォームテキストを介して)ウェブサイト206と対話して、食品注文についての品目および/または材料(たとえば、ピザについてのトッピング)を選択し得、任意選択で、配送の注文を終了させ、支払いをし得る。ユーザがウェブサイト206との対話を通じて食品注文を部分的に記入した場合、選択された材料のうちの1つまたは複数についての値が自動化アシスタントに送信され、自動化アシスタントがウェブサイト206に関連するエージェントモジュールをそのような値と共に起動することが可能となり(たとえば、そのような値がエージェントモジュールの起動においてエージェントモジュールに送信されるスロット値として含められ)得る。いくつかの実装では、ウェブサイト206をホストするサーバが、自動化アシスタントに渡すためのそのような値を生成し得る。たとえば、選択可能グラフィカル要素についてのリンクが、ユーザによるウェブサイト206との対話に応答して、サーバによって動的に生成され得、したがって、リンクは、そのような値の指示を含む(たとえば、「http://assistant.url/agent-module/order-pizz_toppings=pepperoni-mushroom-peppers」)。たとえば、選択可能なグラフィカル要素に関連するリンクが、ユーザのウェブサイト206との対話に応答して、サーバによって動的に更新され得る。別の例として、サーバは、選択可能なグラフィカル要素の選択に応答して、コマンドを送信し得、コマンドはそのような値を含み、任意選択で、エージェントモジュールをも示す。たとえば、サーバから自動化アシスタントに与えられるコマンドは、ユーザのウェブサイト206との対話を介して、ピザについて選択されたトッピングを含むようにサーバによって調整され得る(たとえば、コマンド「ACTION = com.assistant.toppings_pepperoni-bacon-onion.StartConversation」)。いくつかの実装では、自動化アシスタント自体がウェブサイト206のインターフェースの内容を処理して、そのような値を直接的に決定し得る。たとえば、インターフェースの1つまたは複数のスクリーンショットが処理されて、フィールドのタイトルのテキストおよび/またはフィールドについての選択された値が決定され、そのようなタイトルおよび/または値が利用されて、起動要求と共にエージェントモジュールに渡すための適切な値が決定され得る。ユーザの非自動化アシスタントインターフェースとの対話から導出された値が、関連するエージェントモジュールの起動において利用されるいくつかの実装では、自動化アシスタントインターフェースを通じたそのような値の重複した再入力が削減され(たとえば、解消され)得る。これは、様々なリソースを節約し得る。エージェントモジュールがそのような値と共に起動され得、それによって、そのような値を定義するための自動化アシスタントインターフェースを介するダイアログターンの必要が解消される。
As yet another example,
いくつかの実装では、自動化アシスタントは、ウェブサイト206を閲覧中のモバイルデバイス204において利用可能ではないことがあるが、モバイルデバイス204は、ネットワークを介して、自動化アシスタントを含む別個のコンピューティングデバイス224に接続され得る。この実装では、ユーザ202が第1の選択可能要素212を選択するとき、モバイルデバイス204は、コンピューティングデバイス224において自動化アシスタントを起動するためのリンク(または他の内容)をコンピューティングデバイス224に提供し得る。自動化アシスタントは、リンクを使用してエージェントモジュールを識別し、ウェブサイト206において実行中の現動作のステータスに関係するデータを識別し得る。
In some implementations, the automation assistant may not be available on the
会話型ユーザインターフェース214は、自動化アシスタントを介してエージェントモジュールと対話するための発話可能コマンドに対応する語句を含む複数の異なる選択可能要素を含み得る。語句は、自動化アシスタント処理がウェブサイトの内容を処理した結果、エージェントモジュールもしくはウェブサイトによって自動化アシスタントに与えられる事前構成されたコマンド、および/または自動化アシスタントによって記録された、ユーザのウェブサイトとの履歴対話に基づき得る。たとえば、会話型ユーザインターフェース214での選択可能要素は、「食品配送を注文する」などの語句を含み得、語句は、自動化アシスタントに提供されたリンク内に詳述される注文(または他のコマンド)のステータスに基づき得る。この語句がユーザ202によって話され、自動化アシスタントによってテキストに変換され得る。その後で、テキストが、ウェブサイト206に関連するエージェントモジュールに提供され得る。エージェントモジュールはテキストを受け取り、テキストに従って食品配送を完了し得る。
The conversational user interface 214 may include a plurality of different selectable elements, including words and phrases corresponding to utterable commands for interacting with the agent module via the automation assistant. The phrase is the preconfigured commands given to the automation assistant by the agent module or website as a result of the automation assistant processing processing the contents of the website, and / or the history with the user's website recorded by the automation assistant. Get based on dialogue. For example, selectable elements in the conversational user interface 214 may include a phrase such as "order food delivery," which is an order (or other command) detailed in the link provided to the automation assistant. ) Based on the status. This phrase can be spoken by
いくつかの実装では、リンクは、エージェントモジュールとの対話中に自動化アシスタントを誘導するためのパラメータを含み得る。たとえば、ユーザ202は、第1の選択可能要素212を選択する前に、食品注文ウェブサイト206に少なくとも部分的に記入し得る。ユーザ202によって記入されたウェブサイト206の部分は、配送についての場所、食品の量、および/または飲料注文などの注文データを含み得る。このデータは、第1の選択可能要素212に対応するリンク内に埋め込まれ得る。たとえば、第1の選択可能要素212に対応するリンクは、「http://assistant.url/agent-module/breakfast-order/drink-coffee-location-market-street」であり得る。リンクは、エージェントモジュールによって実施されるべき後続のアクションまたはインテントについてのパラメータを識別するために、自動化アシスタントによって構文解析され得る。たとえば、リンク内で識別されるインテント「breakfast-order」は、インテントが完了され得る前に識別される必要のある複数のパラメータを含み得る。自動化アシスタントは、パラメータ「coffee」および「market street」を使用して、注文の現ステータスをユーザに通知し、注文を完了するための追加の情報(たとえば、「食品代を支払う」)を要求し得る。
In some implementations, the link may contain parameters to guide the automation assistant during the interaction with the agent module. For example,
いくつかの実装では、会話型ユーザインターフェース214において提供される選択可能要素のそれぞれは、ウェブサイト206の内容に従って事前構成され得る。言い換えれば、モバイルデバイス204の自動化アシスタントおよび/またはパーサエンジンは、ウェブサイト206と対話するための選択可能要素および/または発話可能コマンドを生成するために、ウェブサイト206の内容を処理し得る。他の実装では、ウェブサイト206のエージェントモジュールが、モバイルデバイス204またはコンピューティングデバイス224上に記憶され、またはそれにとってアクセス可能であり得る、事前構成されたコマンドおよびパラメータに関連付けられ得る。これらの事前構成されたコマンドおよびパラメータは、自動化アシスタントを介してエージェントモジュールと対話するための発話可能コマンドおよび/または選択可能要素を生成するために、モバイルデバイス204の自動化アシスタントおよび/またはパーサエンジンによって処理され得る。このようにして、ユーザ202は、コマンドを完全にタイプアウトすることに依拠しないことによってウェブサイト206の機能を簡素化するために、ウェブサイト206またはエージェントモジュールと音声で対話できることを知り得る。これは、疲労した、または器用さの問題のあるユーザにとって有益であり得る。
In some implementations, each of the selectable elements provided in the conversational user interface 214 may be preconfigured according to the content of
いくつかの実装では、ウェブサイト206が、複数の異なるエージェントモジュールに関連付けられ得、自動化アシスタントは、ユーザ202の現在の活動および/または以前の活動に従って初期化するのに最も適切なエージェントモジュールを識別し得る。たとえば、ユーザ202は食品注文ウェブサイト206を閲覧中であり得、食品注文ウェブサイト206が、特定のタイプの食品を注文することにそれぞれ特化し得る複数の異なるエージェントモジュールに関連付けられ得る。たとえば、第1のエージェントモジュールは朝食用食品を注文することに特化し得、第2のエージェントモジュールは夕食用食品を注文することに特化し得る。自動化アシスタントは、ユーザ202が朝食用食品を注文することにより関心がある可能性が高いと判定し、「朝食用食品を注文することについてエージェントに話しかける(Talk to an agent about ordering breakfast food)」という発話可能コマンドを含む選択可能要素を提供し得る。自動化アシスタントは、ユーザ202がウェブサイト206を閲覧している時刻、ウェブサイトから朝食用食品を注文した過去の履歴、メッセージおよび/またはカレンダエントリなどのモバイルデバイス204にとってアクセス可能な媒体、ならびに/あるいはユーザ202のアクションを予測するときに使用するのに適した任意の他のデータに基づいて、ユーザ202が朝食用食品を注文する可能性がより高いと判定し得る。ウェブサイトによって提供される選択可能要素は、複数の異なるエージェントモジュールを具体的に識別するリンクに対応し得る。たとえば、選択可能要素は、選択し、初期化するための、自動化アシスタントについてのエージェントモジュールを列挙するコマンドに対応し得る(たとえば、「ACTION=com.assistant.BreakfastAgentModule.StartConversation, com.assistant.LunchAgentModule.StartConversation, OR com.assistant.DinnerAgentModule.StartConversation」)。コマンドは、自動化アシスタントによる受信のためにウェブサイト206において提供され得る。あるいは、選択可能要素は、エージェントモジュールを識別するリンクに対応し得る(たとえば、「http://assistant.url/agentmodules/breakfast-agent_lunch-agent_dinner-agent」)。次いで、リンクまたはコマンドは自動化アシスタントによって受け取られ得、その結果、自動化アシスタントは、ユーザデータの解析に基づいて初期化するのに最も適切なエージェントモジュールを選択し得る。
In some implementations,
いくつかの実装では、自動化アシスタントがモバイルデバイス204からコンピューティングデバイス224において初期化されるとき、自動化アシスタントは、ユーザデータを解析して、コンピューティングデバイス224から別のエージェントが初期化されるべきかどうかを判定し得る。たとえば、自動化アシスタントは、ユーザ202がコンピューティングデバイス224において頻繁にアクセスするムービーウェブサイトに関連するエージェントモジュールを認識し得る。ユーザ202は、第1の選択可能要素212を選択して、食品注文ウェブサイト206に関連するエージェントモジュールと対話するために自動化アシスタントを初期化し得る。同時に、自動化アシスタントはまた、図2に示されるように、ムービーウェブサイトに関連するエージェントモジュールと通信することのオプションをユーザ202に提供し得る。たとえば、自動化アシスタントは、異なるエージェントモジュールまたはウェブサイトについての異なるアクションにそれぞれ関連付けられ得る選択可能要素218および選択可能要素222を同時に提供し得る。このようにして、ユーザは、2つの別々のアクションを達成する単一の自動化アシスタントに2つのコマンド(たとえば、「食品配送を注文し、最後に視聴した映画を開始する」)を順次話すことによって、2つの異なるエージェントモジュールと音声で通信することができる。
In some implementations, when the automation assistant is initialized from
図3は、様々なアプリケーション304および/またはウェブサイトを制御するために利用可能な発話可能コマンドにユーザを慣れさせるために、クライアントデバイス302において会話型インターフェース316を提供するためのシステム300を示す。クライアントデバイス302において動作するアプリケーション304は、ユーザがアプリケーション304に関連する機能を実施することを支援する1つまたは複数のエージェントモジュール310に関連付けられ得る。エージェントモジュール310は、クライアントデバイス302、またはサーバデバイスなどのリモートデバイスに記憶され得る。いくつかの実装では、サーバデバイスは、クライアントデバイス302にとってアクセス可能な1つまたは複数の自動化アシスタントを記憶し得る。自動化アシスタント320は、クライアントデバイス302のマイクロフォンによって記録される音声データを受け取り、クライアントデバイス302のいくつかの特徴を制御し、エージェントモジュール310と対話する目的で音声データを解釈し得る。
FIG. 3 shows a
いくつかの実装では、クライアントデバイス302および/またはサーバデバイスは、クライアントデバイス302において選択可能要素を提供するためのデータを生成し得る選択可能要素エンジン326を含み得る。選択可能要素エンジン326は、ユーザがアプリケーション304および/またはウェブブラウザ314に関連する機能を実施するために自動化アシスタント320を介するエージェントモジュール310との通信を初期化するのを支援する目的で、選択可能要素を生成し得る。たとえば、選択可能要素エンジン326は、ユーザがアプリケーション304を操作しているとき、またはウェブブラウザ314においてウェブサイトを閲覧しているときに通知を受け得る。それに応答して、選択可能要素エンジン326は、クライアントデバイス302のインターフェースにおいて選択されているとき、クライアントデバイス302において会話型インターフェース316を初期化し得る選択可能要素を生成し得る。選択可能要素は、選択可能要素エンジン326によって生成され、または自動化アシスタント320によって提供された語句を含み得る。選択可能要素エンジン326および/または自動化アシスタント320は、アプリケーション304に関連するエージェントモジュール310を認識し、エージェントモジュール310と対話するために自動化アシスタントが使用され得ることを示す選択可能要素についての語句を提供し得る。たとえば、選択可能要素の語句は、会話型インターフェース316をオープンするためにユーザによって話され得る、「自動化アシスタントを使用してアプリケーション機能を実施する」であり得る。あるいは、ユーザは、選択可能要素を選択して会話型インターフェース316をオープンし得る。
In some implementations, the client device 302 and / or the server device may include a
会話型インターフェース316は、ユーザデータ312に基づき得る語句を含む、複数の異なる選択可能要素を含み得る。たとえば、エージェントモジュール310は、ゲーミングアプリケーション304に対応し得、エージェントモジュール310は、ユーザからタイプされたコマンドを受け入れ得る。エージェントモジュール310は、タイプされた事前構成されたコマンド312を受け入れるように製造業者によって設計され得るが、自動化アシスタント320は、ユーザの発話語を、エージェントモジュール310によって理解され得るコマンドに変換するために使用され得る。たとえば、当初、ユーザがゲーミングアプリケーション304をオープンするとき、選択可能要素エンジン326は、ゲーミングアプリケーション304がオープンされたという通知を受け、選択可能要素に「自動化アシスタントを使用する」という語句を提供し得る。その後で、ユーザは、ゲーミングアプリケーション304に対応するエージェントモジュール310と通信するために自動化アシスタント320を初期化する目的で、選択可能要素を選択し、または語句を話し得る。アプリケーション304が、たとえばチェスゲームアプリケーションであるとき、会話型インターフェース316は、チェスの動きに対応する語句を有する複数の異なる選択可能要素を備え得る。語句は、ユーザによって入力された以前のコマンド、エージェントモジュール310から通信されたデータ、および/またはテキスト構文解析エンジン324によって提供された、構文解析されたアプリケーション内容などのユーザデータ312に基づき得る。選択可能要素に対応する動きを選択するために、ユーザは、選択可能要素を選択し、または選択可能要素に位置する語句を話し得る。たとえば、会話型インターフェース316の選択可能要素は、「ポーンを動かす」という語句を含み得る。選択可能要素は、実施されるべきアクション(たとえば、チェスアプリケーションにおいてポーンを動かすこと)を識別するリンクに対応し得、会話型インターフェース316に、アクションを完了するのに利用可能な追加の語句(たとえば、「A5に動かす」)で更新させ得る。次いで、リンクが、アプリケーション304に関連するエージェントモジュール310に提供され得る。
The conversational interface 316 may include a plurality of different selectable elements, including words and phrases that may be based on user data 312. For example, the agent module 310 may correspond to the
いくつかの実装では、ユーザは語句を話し得、クライアントデバイス302によって取り込まれたオーディオデータが、処理のために自動化アシスタント320に提供され得る。たとえば、自動化アシスタント320は、クライアントデバイス302によって取り込まれたオーディオデータを受け取り、オーディオデータをテキストに変換し得る音声-テキストエンジン322を含み得る。テキストは、クライアントデバイス302のマイクロフォンによってオーディオデータが取り込まれていた間のユーザの発話語に対応し得る。自動化アシスタント320はまた、テキストを構文解析し、エージェントモジュール310および/またはウェブブラウザ314において提供されるウェブサイトについての入力パラメータに対応する特定の語または語句を識別し得るテキスト構文解析エンジン324をも含み得る。その後で、自動化アシスタント320は、構文解析されたテキストからリンクまたはコマンドを生成し、処理のためにエージェントモジュールまたはウェブサイトにリンクまたはコマンドを送り得る。たとえば、ユーザがゲーミングアプリケーション304についての会話型インターフェース316において「ポーンを動かす」という語句を見たとき、ユーザは、クライアントデバイス302において「ポーンを動かす」という語句を話し得る。次いで、クライアントデバイス302は、音声のオーディオデータを取り込み、オーディオデータを自動化アシスタント320と共有し得る。次いで、自動化アシスタント320は、音声に対応する、構文解析されたテキストを含むリンクを生成し、エージェントモジュール310またはゲーミングアプリケーション304にリンクを送信する。たとえば、リンクは「http://assistant.url/chess-agent-module/move-pawn」などのURLであり得、URLがエージェントモジュール310によって処理され、アプリケーション304がチェスゲームを進めるのに使用するためのコマンドに変換され得る。リンクはまた、会話型インターフェース316における以前の選択可能要素のうちの少なくとも一部を置き換える新しい選択可能要素を生成するための選択可能要素エンジン326によって使用され得る。
In some implementations, the user can speak and the audio data captured by the client device 302 can be provided to the automation assistant 320 for processing. For example, the automation assistant 320 may include a voice-text engine 322 that can receive audio data captured by client device 302 and convert the audio data to text. The text may correspond to the user's utterance while the audio data was being captured by the microphone of client device 302. Automation Assistant 320 also has a
いくつかの実装では、ユーザがウェブブラウザ314においてウェブサイトを閲覧しており、ウェブサイトがエージェントモジュール310に関連付けられない場合、ユーザには、ウェブサイトと対話するための会話型インターフェース316が依然として提示され得る。たとえば、ユーザは、エージェントモジュール310に関連付けられないホテルウェブサイトを閲覧していることがある。それでも、選択可能要素エンジン326は、クライアントデバイス302に、「自動化アシスタントを使用する」という語句を含む選択可能要素を表示させ得る。このようにして、ユーザは、利用可能なエージェントモジュール310がなくても、発話可能コマンドを受け取るのにホテルウェブサイトが利用可能であるという通知を受け得る。ユーザが選択可能要素を選択し、または「自動化アシスタントを使用する」という語句を話したことに応答して、ウェブブラウザ314は、ユーザに追加の選択可能要素を提示するために会話型インターフェース316をオープンし得る。追加の選択可能要素は、ウェブサイトの内容、ならびに/あるいはメッセージ、カレンダデータ、ブラウザ履歴、注文履歴、運転指示、および/またはユーザ活動に基づく任意の他のデータなどの、アプリケーション304からのデータを含み得るユーザデータ312の内容に基づいて、選択可能要素エンジン326によって生成され得る。選択可能要素は、発話可能コマンドの内容の少なくとも一部を識別するウェブリンクに対応し得、ウェブサイトをホストしているサーバによって処理され得る。次いで、ホテル予約プロセスを進めるために、ウェブリンクがウェブサイトまたはウェブブラウザ314に提供され得る。ユーザが、クリッカブル要素において提示される「イリノイ州のホテルを予約する」という語句を話すことを選ぶ場合、「イリノイ州のホテルを予約する」という発話語句に対応するオーディオデータが、自動化アシスタント320に提供され得る。その後で、自動化アシスタント320は、音声-テキストエンジン322において音声をテキストに変換し、次いでテキスト構文解析エンジン324においてテキストを構文解析し得る。次いで、構文解析されたテキストが、選択可能要素エンジン326においてウェブリンクに変換され、次いで、予約プロセスを進めるためにウェブリンクがウェブサイトまたはウェブブラウ
ザ314に提供され得る。その後で、選択可能要素エンジン326は、エージェントモジュール310から受け取った照会に従って予約プロセスを進めるために、会話型インターフェース316に選択可能要素を再ポピュレートし得る。たとえば、選択可能要素は、「予約日を選択する」、「部屋の大きさを選択する」、および/またはホテルを予約することに関係する任意の他のコマンドなどのコマンドに対応し得る。
In some implementations, if the user is browsing the website in a web browser 314 and the website is not associated with the agent module 310, the user is still presented with a conversational interface 316 to interact with the website. Can be done. For example, a user may be browsing a hotel website that is not associated with Agent Module 310. Nevertheless, the
図4A〜図4Cは、会話型ユーザインターフェースがコンピューティングデバイスのユーザインターフェースにおいて提示されていることを示す。具体的には、図4Aのダイアグラム400は、コンピューティングデバイスのウェブブラウザにおいて提示されたウェブサイトについての第1のユーザインターフェース406を示す。ウェブサイトは、たとえば、ユーザが聴取し得る様々なラジオ局を広告するラジオウェブサイトであり得る。ウェブサイトは、第1のユーザインターフェース406において提示される第1の選択可能要素408を含み得る。第1の選択可能要素408は、ウェブサイトに関連するエージェントモジュールと対話するために自動化アシスタントが使用され得るという指示をユーザに提供し得る。たとえば、第1の選択可能要素408は、自動化アシスタントにコンピューティングデバイスにおいて会話型ユーザインターフェース410をオープンさせるためにユーザによって話され得る、「自動化アシスタントを使用する」という語句を含み得る。ユーザはまた、第1のユーザインターフェース406をタッチすることによって、またはコンピューティングデバイスに何らかの他の選択コマンドを与えることによって第1の選択可能要素408を選択し得る。第1のユーザインターフェース406が選択され、または語句がユーザによって話されたことに応答して、自動化アシスタントは、エージェントモジュールがウェブサイトに関連付けられることを識別するリンクを受け取り得る。自動化アシスタントはまた、照会を実施して、ウェブサイトに関連するアプリケーションがコンピューティングデバイス上に存在するかどうか、それともコンピューティングデバイスにとってアクセス可能かどうかを識別し得る。次いで、自動化アシスタントは、会話型ユーザインターフェース410において結果を提供し得る。
4A-4C show that the conversational user interface is presented in the user interface of the computing device. Specifically, Diagram 400 of FIG. 4A shows a first user interface 406 for a website presented in a web browser of a computing device. A website can be, for example, a radio website that advertises various radio stations that a user can listen to. The website may include a first
図4Bのダイアグラム402の会話型ユーザインターフェース410は、第1のエージェントモジュール部分412および第2のエージェントモジュール部分416を含み得る。第1のエージェントモジュール部分412は、ウェブサイトに関連するエージェントモジュールに関係する会話型ユーザインターフェース410の部分に対応し得る。第2のエージェントモジュール部分416は、ウェブサイトに関連するネイティブアプリケーションに関係する会話型ユーザインターフェース410の部分に対応し得る。たとえば、ラジオウェブサイトはオーディオ聴取ウェブサイトであるので、自動化アシスタントは、コンピューティングデバイス上のオーディオ関連アプリケーションを識別し、オーディオ関連アプリケーションに関連するエージェントと対話するための発話可能コマンドをユーザに提示し得る。ダイアグラム400に示されるように、1つのオーディオ関連アプリケーションはポッドキャストアプリケーションであり得る。しかしながら、いくつかの実装では、関連アプリケーションは、自動化アシスタントアプリケーションを制御する側からは固有のサードパーティアプリケーションであり得る。
The conversational user interface 410 of Diagram 402 of FIG. 4B may include a first
自動化アシスタントは、ウェブサイト(たとえば、ラジオウェブサイト)に関連するエージェントモジュールと、関連アプリケーション(たとえば、ポッドキャストアプリケーション)に関連するエージェントモジュールの両方に関係する選択可能要素を同時に提示し得る。選択可能要素は、ユーザと、ウェブサイトとアプリケーションの両方との間の対話に対応するユーザデータに基づく発話可能コマンド語句を含み得る。たとえば、選択可能要素414の第1のセットが、ユーザがウェブサイトを使用して以前に実施したアクションに対応し得る。「音楽を開始する」という発話可能コマンド語句は、音楽を再生するラジオウェブサイトを開始するためにユーザが前に選択した開始ボタンに対応し得る。自動化アシスタントによって記録された、開始ボタンの以前の選択が、会話型ユーザインターフェース410において選択され、かつ/またはコンピューティングデバイスに対して話され得る選択可能要素に変換され得る。さらに、選択可能要素418の第2のセットが、ポッドキャストアプリケーションなどの関連アプリケーションにおいてユーザによって実施されたアクションに対応し得る。たとえば、ユーザがポッドキャストを開始する以前のアクションが、自動化アシスタントによって記録され得、「ポッドキャストを開始する」という発話可能コマンド語句を含む選択可能要素を提供するための基礎として使用され得る。
The automation assistant may simultaneously present selectable elements related to both the agent module associated with a website (eg, a radio website) and the agent module associated with a related application (eg, a podcast application). Selectable elements may include utterable command phrases based on user data that correspond to the interaction between the user and both the website and the application. For example, a first set of
いくつかの実装では、会話型ユーザインターフェース410は、関連アプリケーションに関連するエージェントモジュールに話しかけることができることをユーザに通知し得る。たとえば、会話型ユーザインターフェース410は、「ポッドキャストエージェントに話しかける」という発話可能コマンド語句を含む選択可能要素を提供し得る。「ポッドキャストエージェントに話しかける」と示される選択可能要素を選択したことに応答して、自動化アシスタントは、会話型ユーザインターフェース410を、ポッドキャストアプリケーションに関係する提案を含む第2のユーザインターフェース426となるように更新し得る。たとえば、第1の更新後インターフェース部分418が、自動化アシスタントまたはポッドキャストアプリケーションに関連するエージェントモジュールによって記録された以前のアクションまたは予測されたアクションに対応する、複数の異なる選択可能要素420を含み得る。さらに、第2の更新後インターフェース部分422が、ポッドキャストアプリケーションを操作中にユーザが以前に実施した履歴アクションに関係するユーザデータに基づいて、自動化アシスタントによって提供され得る。たとえば、ポッドキャストに関係する履歴アクションは、食品配送の注文であり得る。ユーザは、帰宅し、ポッドキャストをオンにし、食品を注文する日課を有し得、したがって、自動化アシスタントは、この日課を認識し、日課をより効率的に完了するための会話型インターフェースを提供し得る。第2の更新後インターフェース部分422において提供される各選択可能要素424がユーザによって選択され、または選択可能要素424の発話可能コマンド語句内で識別されるアクションを実施するために、コンピューティングデバイスに対して口頭で話され得る。さらに、自動化アシスタントは、関連アプリケーションに対応する1つまたは複数のエージェントモジュールを識別し、選択されたときに、自動化アシスタントを介してエージェントモジュールとの会話を初期化し得る選択可能要素424を提供し得る。たとえば、関連アプリケーション(たとえば、食品配送アプリケーション)が、アジア料理エージェントおよびエチオピア料理エージェントに関連付けられ得る。食品配送アプリケーションに関連する、異なるエージェントモジュールのそれぞれが、食品配送アプリケーションのアクションのカテゴリを支援することに特化し得、自動化アシスタントは、ユーザが自動化アシスタントを介してエージェントモジュールとインターフェースすることができることをユーザに通知し得る。
In some implementations, the conversational user interface 410 may notify the user that it can speak to the agent module associated with the associated application. For example, the conversational user interface 410 may provide a selectable element that includes the spoken command phrase "speak to a podcast agent." In response to selecting the selectable element labeled "Talk to Podcast Agent," the Automation Assistant now makes the conversational user interface 410 a
図5は、エージェントモジュールに自動化アシスタントを介して機能を実施させる方法500を示す。方法500は、クライアントデバイス、サーバデバイス、デバイスにおいて動作するモジュールもしくはアプリケーション、および/またはアプリケーションと対話するのに適した任意の他の装置によって実施され得る。方法500は、アプリケーションに関連するエージェントモジュールを識別するリンクの選択をコンピューティングデバイスにおいて受け取るブロック502を含み得る。アプリケーションは、ユーザ入力を通じて操作され得る内容を含むコンピューティングデバイス上の任意のアプリケーションであり得る。たとえば、アプリケーションは、ユーザがアプリケーションを使用してユーザの自宅内の様々なデバイスを制御することを可能にする自宅監視アプリケーションであり得る。リンクは、アプリケーションに関連するエージェントモジュールと対話するために自動化アシスタントが使用され得ることを示す語句を含む選択可能要素であり得る。たとえば、リンクは「自動化アシスタントを使用する」という語句を含み得、リンクを選択すること、または「自動化アシスタントを使用する」という語句を話すことによってリンクが活動化され得る。ブロック504において、自動化アシスタントがコンピューティングデバイスにとってアクセス可能であるかどうかの判定が行われる。自動化アシスタントは、アプリケーションに関連する機能を実施する際にユーザを誘導するために、エージェントモジュールとユーザとの間のインターフェースとして働く別々のアプリケーションまたはモジュールであり得る。自動化アシスタントがコンピューティングデバイスにおいて利用可能である場合、ブロック508において、会話型インターフェースが自動化アシスタントを使用してオープンされ得る。たとえば、会話型インターフェースは、起動されたエージェントモジュールと共にオープンされ得る。たとえば、会話型インターフェースがオープンされ得、エージェントモジュールの起動に応答してエージェントモジュールから受け取った内容に基づく出力を提示し得る。自動化アシスタントがコンピューティングデバイスにとって利用可能ではない場合、ブロック506において、会話型インターフェースがブラウザのデフォルトウェブページにおいてオープンされ得る。ブロック510において、ユーザインターフェース入力が会話型インターフェースにおいて受け取られる。ユーザインターフェース入力は、ユーザによって与えられた、タイプおよび/または発話された入力、ならびに/あるいは会話型インターフェースにおいて提示された選択可能要素の選択であり得る。たとえば、ユーザは、(会話型インターフェースを介して)エージェントモジュールとのダイアログに関与するためにタイプまたは発話された入力を与え得、かつ/またはエージェントモジュールとのダイアログを進めるために提案されたテキスト語句もしくは他の提案された内容を含む、提示された選択可能要素を選択し得る。ブロック512において、さらなる内容が、ブロック510において受け取ったユーザインターフェース入力に基づいてエージェントモジュールに提供される。次いで、エージェントモジュールは、エージェントモジュールに提供されたさらなる内容に基づいて、さらなる応答内容を生成し得る。そのようなさらなる応答内容(またはその変換)が、ユーザとの会話の推進においてユーザに提示するために提供され得、任意選択で、方法はブロック510に戻って、さらなる応答内容に応答してさらなるユーザインターフェース入力を受け取り得る。エージェントモジュールによって生成されるさらなる応答内容は、ブロック510において受け取ったユーザインターフェース入力に依存する。
FIG. 5 shows a
図6は、動作を実施するためのクライアントアプリケーションが存在するかどうかに従って、選択可能要素の選択に応答して実施された動作を制限するための方法600を示す。方法600は、クライアントデバイス、サーバデバイス、デバイスにおいて動作するモジュールもしくはアプリケーション、および/またはアプリケーションと対話するのに適した任意の他の装置によって実施され得る。方法600は、選択可能要素および発話可能コマンド語句を含む会話型ユーザインターフェースをオープンするブロック602を含み得る。会話型ユーザインターフェースは、アプリケーションまたはウェブサイトに関連するエージェントモジュールによって実施され得るアクションに対応する複数の選択可能要素を含み得る。ブロック604において、選択可能要素の選択が受け取られ得る。選択可能要素は、コンピューティングデバイスのタッチインターフェース、コンピューティングデバイスに接続された周辺デバイス、および/またはコンピューティングデバイスのインターフェースにおいて選択可能要素を選択するための任意の他の機構によって選択され得る。ブロック606において、コマンド語句が制限されたアクションに対応するかどうかの判定が行われる。制限されたアクションは、動作中にユーザについてのプライベート情報を使用し得る動作であり得る。たとえば、非自動化アシスタントアプリケーションまたはウェブサイトは食品注文ウェブサイトであり得、選択可能要素は、ユーザに関連する支払い情報を使用して食品を注文する動作に対応し得る。あるいは、非自動化アシスタントアプリケーションまたはウェブサイトはソーシャルメディアウェブサイトであり得、選択可能要素は、ユーザのイメージを公にポストする動作に対応し得る。ブロック606において、コマンド語句が制限されたアクションに対応しない場合、ブロック608において、選択可能要素に対応するコマンドが実施され得る。たとえば、制限されたアクションに対応しないコマンドは、ゲーミングアプリケーション内の機能を実施すること、またはニュースウェブサイトによって提供されるニュース記事にアクセスすることであり得る。そのようなコマンドは、コマンド語句を話すことによって、または選択可能要素を選択することによって実施され得る。コマンド語句が制限されたアクションに対応する場合、ブロック610において、コマンドを実施するためのクライアントアプリケーションが存在するかどうかの判定が行われる。クライアントアプリケーションが存在する場合、ブロック614において、クライアントアプリケーションがコマンドを受け取るようにされる。たとえば、コマンド語句がウェブサイトからの食品を求める注文に対応する場合、クライアントアプリケーションは、ウェブサイトに関連する食品注文アプリケーションであり得る。このようにして、制限されたアクションがクライアントアプリケーションに残され得る。コマンドは、コマンドを実施するためのエージェントモジュールを識別する、URLなどのリンクの形態で、クライアントアプリケーションに提供され得る。たとえば、クライアントアプリケーションが食品注文アプリケーションであるとき、リンクは、たとえば「http://assistant.url/foodwebsite/food%ordering%agent」であり得る。このようにして、クライアントアプリケーションは、「food%ordering%agent」という識別子によって示されるように(%はスペースとして理解され得る)、ユーザが以前に食品ウェブサイトを閲覧しており、食品を注文することに関心があるという通知を受け得る。その後に、食品注文エージェントが初期化され得、会話型ユーザインターフェースが、食品注文を続行するためのコマンド語句に対応する、異なる選択可能要素を含むように更新され得る。あるいは、初期発話可能コマンド語句を実施するためのクライアントアプリケーションが存在しない場合、ブロック612において、コマンドが制限されるという指示が、コンピューティングデバイスにおいて提供され得る。その後に、ユーザは、(会話型ユーザインターフェースではなく)ウェブサイトを通じて注文を手動で続行し得るか、注文を中止する。
FIG. 6 shows
図7は、エージェントモジュールがアクセス可能であるかどうかに従って、自動化アシスタントを介してエージェントモジュールと対話するための方法700を示す。方法700は、クライアントデバイス、サーバデバイス、デバイスにおいて動作するモジュールもしくはアプリケーション、および/またはアプリケーションと対話するのに適した任意の他の装置によって実施され得る。方法700は、非自動化アシスタントアプリケーションに関連する機能を実施するための選択可能要素を会話型ユーザインターフェースにおいて提供するブロック702を含み得る。選択可能要素は、エージェントモジュールを識別し得るリンクもしくはコマンド、エージェントモジュールによって実施されるべきアクションもしくはインテント、および/またはアクションもしくはインテントを実施するときのエージェントモジュールによる使用のためのパラメータに関連付けられ得る。あるいは、選択可能要素は、自動化アシスタントを初期化するためのコマンド呼出しに対応し得る。ブロック704において、選択可能要素の選択が自動化アシスタントによって受け取られ得る。次いで、自動化アシスタントは、選択可能要素に対応するエージェントモジュールを識別し得る。ブロック706において、エージェントモジュールが自動化アシスタントにとってアクセス可能であるかどうかの判定が行われる。エージェントモジュールが自動化アシスタントと同一のデバイス上にロードされ、または自動化アシスタントがエージェントモジュールを含むネットワークデバイスと通信することができるとき、エージェントモジュールは自動化アシスタントにとってアクセス可能であり得る。自動化アシスタントがエージェントモジュールにアクセスすることができる場合、ブロック710において、非自動化アシスタントアプリケーションとの対話を進めるためにエージェントモジュールが初期化され得る。言い換えれば、自動化アシスタントは、ユーザがエージェントモジュールとより効率的に通信するためのインターフェースとして働き得る。しかしながら、エージェントモジュールが自動化アシスタントにとってアクセス可能ではない場合、ブロック712において、選択可能要素に対応するリンクが、自動化アシスタントを介して非自動化アシスタントアプリケーションに関連する機能を実施するための発話可能コマンド語句を伝達するためにデフォルトウェブページにおいてオープンされ得る。このようにして、自動化アシスタントにとってアクセス可能なエージェントモジュールがなくても、非自動化アシスタントアプリケーションとのユーザの対話を進めるための支援がユーザに依然として提供される。
Figure 7 shows
図8は、例示的コンピュータシステム810のブロック図800である。コンピュータシステム810は通常、バスサブシステム812を介していくつかの周辺デバイスと通信する少なくとも1つのプロセッサ814を含む。これらの周辺デバイスは、たとえば、メモリサブシステム825およびファイル記憶サブシステム826を含む記憶サブシステム824と、ユーザインターフェース出力デバイス820と、ユーザインターフェース入力デバイス822と、ネットワークインターフェースサブシステム816とを含み得る。入力および出力デバイスは、コンピュータシステム810とのユーザ対話を可能にする。ネットワークインターフェースサブシステム816は、外部ネットワークに対するインターフェースを提供し、他のコンピュータシステム内の対応するインターフェースデバイスに結合される。
FIG. 8 is a block diagram 800 of an
ユーザインターフェース入力デバイス822は、キーボード、マウス、トラックボール、タッチパッド、またはグラフィックスタブレットなどのポインティングデバイス、スキャナ、ディスプレイ内に組み込まれたタッチスクリーン、音声認識システム、マイクロフォンなどのオーディオ入力デバイス、および/または他のタイプの入力デバイスを含み得る。一般には、「入力デバイス」という用語の使用は、すべての可能なタイプのデバイス、およびコンピュータシステム810内に、または通信ネットワーク上に情報を入力するための方式を含むものとする。
The user
ユーザインターフェース出力デバイス820は、ディスプレイサブシステム、プリンタ、ファックスマシン、またはオーディオ出力デバイスなどの非可視ディスプレイを含み得る。ディスプレイサブシステムは、陰極線管(CRT)、液晶ディスプレイ(LCD)などのフラットパネルデバイス、投影デバイス、または可視イメージを作成するための何らかの他の機構を含み得る。ディスプレイサブシステムはまた、オーディオ出力デバイスを介するような非可視ディスプレイを提供し得る。一般には、「出力デバイス」という用語は、すべての可能なタイプのデバイス、およびコンピュータシステム810からの情報をユーザまたは別のマシンもしくはコンピュータシステムに出力するための方式を含むものとする。
The user
記憶サブシステム824は、本明細書において説明されるモジュールの一部またはすべての機能を提供するプログラミングおよびデータ構成を記憶する。たとえば、記憶サブシステム824は、方法500、600、700の選択された態様を実施し、かつ/あるいは本明細書において説明されるサーバデバイス、クライアントデバイス、データベース、エンジン、および/またはモジュールのうちの1つまたは複数を実装するための論理を含み得る。
The storage subsystem 824 stores programming and data structures that provide some or all of the functionality of the modules described herein. For example, storage subsystem 824 implements selected embodiments of
これらのソフトウェアモジュールは一般に、プロセッサ814単独で、または他のプロセッサと組み合わせて実行される。記憶サブシステム824内で使用されるメモリ825は、プログラム実行中の命令およびデータの記憶のためのメインランダムアクセスメモリ(RAM)830と、固定の命令が記憶される読取り専用メモリ(ROM)832とを含むいくつかのメモリを含み得る。ファイル記憶サブシステム826は、プログラムおよびデータファイルについての永続的記憶を提供し得、ハードディスクドライブ、フロッピーディスクドライブおよび関連する取外し可能媒体、CD-ROMドライブ、光学ドライブ、または取外し可能媒体カートリッジを含み得る。いくつかの実装の機能を実装するモジュールは、ファイル記憶サブシステム826によって記憶サブシステム824内に、またはプロセッサ814によってアクセス可能な他のマシン内に記憶され得る。
These software modules are typically run on
バスサブシステム812は、コンピュータシステム810の様々な構成要素およびサブシステムが所期の通りに互いに通信させるための機構を提供する。バスサブシステム812が単一のバスとして概略的に示されているが、バスサブシステムの代替実装は複数のバスを使用し得る。
コンピュータシステム810は、ワークステーション、サーバ、コンピューティングクラスタ、ブレードサーバ、サーバファーム、または任意の他のデータ処理システムもしくはコンピューティングデバイスを含む様々なタイプのものであり得る。コンピュータおよびネットワークの常に変化する性質のために、図8に示されるコンピュータシステム810の説明は、いくつかの実装を示すための特定の例に過ぎないものとする。図8に示されるコンピューティングデバイスよりも多くの、または少ない構成要素を有する、コンピューティングデバイス810の多くの他の構成が可能である。
The
本明細書において説明されるシステムがユーザについての個人情報を収集し、または個人情報を活用する状況では、プログラムまたは特徴がユーザ情報(たとえば、ユーザのソーシャルネットワーク、社会的行動または活動、職業、ユーザのプリファレンス、ユーザの現在の地理的位置についての情報)を収集するかどうかを制御し、またはユーザにとってより強い関連があり得る内容をサーバから受け取るかどうか、および/またはどのように受け取るかを制御するための機会がユーザに提供され得る。さらに、あるデータは、個人識別可能情報が除去されるように、記憶または使用される前に1つまたは複数の方式で扱われ得る。たとえば、ユーザについて個人識別可能情報が決定され得ないか、またはユーザの特定の地理的位置が決定できないように、地理的位置情報が取得される場合にユーザの地理的位置が一般化され得る(都市、郵便番号、または州レベル)ように、ユーザの識別情報が扱われ得る。したがって、ユーザは、ユーザについてどのように情報が収集および/または使用されるかに関する制御を有し得る。 In situations where the system described herein collects or utilizes personal information about a user, the program or feature may be the user information (eg, the user's social network, social behavior or activity, occupation, user). Controls whether to collect (information about the user's current geographic location), or whether and / or how to receive content from the server that may be more relevant to the user. Opportunities for control may be provided to the user. In addition, some data may be treated in one or more ways before being stored or used so that personally identifiable information is removed. For example, a user's geographic location can be generalized when geolocation information is obtained so that personally identifiable information cannot be determined for the user or a user's specific geographic location cannot be determined (for example). User identification information can be handled, such as at the city, zip code, or state level. Therefore, the user may have control over how information is collected and / or used for the user.
いくつかの実装が本明細書において説明および図示されるが、機能を実施するための、かつ/あるいは結果および/または本明細書において説明される利点のうちの1つまたは複数を取得するための様々な他の手段および/または構造が利用され得、そのような変形形態および/または修正形態のそれぞれが、本明細書において本明細書において説明される実装の範囲内にあると見なされる。より一般には、本明細書において説明されるすべてのパラメータ、寸法、材料、および構成は例示的なものであることを意味し、実際のパラメータ、寸法、材料、および/または構成は、特定の応用例、または本教示がそのために使用される応用例に依存する。定型的な実験だけを使用して、本明細書において説明される特定の実装の多くの均等物を当業者は理解することになり、または確認することができる。したがって、前述の実装は単に例として提示されること、および添付の特許請求の範囲およびその均等物の中で、具体的に説明され、特許請求されるのとは別の方法で実装が実施され得ることを理解されたい。本開示の実装は、それぞれの個々の特徴、本明細書において説明されるシステム、物品、材料、キット、および/または方法を対象とする。さらに、2つ以上のそのような特徴、システム、物品、材料、キット、および/または方法の任意の組合せが、そのような特徴、システム、物品、材料、キット、および/または方法が相互に矛盾しない場合、本開示の範囲内に含まれる。 Although some implementations are described and illustrated herein, to perform a function and / or to obtain one or more of the results and / or the advantages described herein. Various other means and / or structures may be utilized and each such variant and / or modification is considered to be within the scope of implementation described herein herein. More generally, all parameters, dimensions, materials, and configurations described herein are exemplary, and actual parameters, dimensions, materials, and / or configurations are specific applications. It depends on the example, or the application in which this teaching is used. Using only routine experiments, one of ordinary skill in the art will understand or be able to confirm many equivalents of the particular implementation described herein. Therefore, the above implementations are presented merely as an example, and are specifically described and implemented in a manner different from that claimed, within the appended claims and their equivalents. Understand what you get. Implementations of the present disclosure are directed to their respective individual features, the systems, articles, materials, kits, and / or methods described herein. In addition, any combination of two or more such features, systems, articles, materials, kits, and / or methods conflicts with each other such features, systems, articles, materials, kits, and / or methods. If not, it is included within the scope of this disclosure.
204 ノード
100 ダイアグラム
102 ユーザ
104 モバイルデバイス
106 アプリケーション
108 ユーザインターフェース
112 選択可能要素
114 会話型インターフェース
116 ダイアグラム
118 ダイアグラム
120 提案要素
122 提案要素
124 提案要素
126 応答要素
128 応答要素
130 更新後会話型ユーザインターフェース
132 音声入力要素
200 ダイアグラム
202 ユーザ
204 モバイルデバイス
206 ウェブサイト
208 ユーザインターフェース
212 選択可能要素
214 会話型ユーザインターフェース
218 選択可能要素
222 選択可能要素
224 コンピューティングデバイス
300 システム
302 クライアントデバイス
304 アプリケーション
310 エージェントモジュール
312 ユーザデータ
314 ウェブブラウザ
316 会話型インターフェース
320 自動化アシスタント
322 音声-テキストエンジン
324 テキスト構文解析エンジン
326 選択可能要素エンジン
400 ダイアグラム
406 第1のユーザインターフェース
408 第1の選択可能要素
410 会話型ユーザインターフェース
412 第1のエージェントモジュール部分
414 選択可能要素
416 第2のエージェントモジュール部分
418 選択可能要素
420 選択可能要素
422 第2の更新後インターフェース部分
424 選択可能要素
426 第2のユーザインターフェース
810 コンピュータシステム
812 バスサブシステム
814 プロセッサ
816 ネットワークインターフェースサブシステム
820 ユーザインターフェース出力デバイス
822 ユーザインターフェース入力デバイス
824 記憶サブシステム
826 ファイル記憶サブシステム
830 メインランダムアクセスメモリ(RAM)
832 読取り専用メモリ(ROM)
204 nodes
100 diagram
102 users
104 mobile devices
106 application
108 User interface
112 Selectable elements
114 Conversational interface
116 Diagram
118 Diagram
120 Suggested elements
122 Proposed elements
124 Proposed elements
126 Response element
128 Response element
130 Updated conversational user interface
132 Voice input element
200 diagram
202 users
204 mobile device
206 website
208 user interface
212 Selectable elements
214 Conversational user interface
218 Selectable elements
222 Selectable elements
224 Computing device
300 system
302 client device
304 application
310 Agent Module
312 User data
314 web browser
316 Conversational interface
320 Automation Assistant
322 Voice-Text Engine
324 Text parsing engine
326 Selectable Element Engine
400 diagram
406 First user interface
408 First selectable element
410 Conversational user interface
412 First agent module part
414 Selectable elements
416 Second agent module part
418 Selectable elements
420 selectable elements
422 Second updated interface part
424 Selectable elements
426 Second user interface
810 computer system
812 Bus subsystem
814 processor
816 Network Interface Subsystem
820 user interface output device
822 User Interface Input Device
824 Storage Subsystem
826 File storage subsystem
830 Main Random Access Memory (RAM)
832 Read-only memory (ROM)
Claims (20)
非自動化アシスタントアプリケーションのアプリケーションインターフェースをユーザにとってアクセス可能にさせるステップであって、前記アプリケーションインターフェースが、自動化アシスタントアプリケーションを介するエージェントモジュールとの通信を初期化するための第1の選択可能要素を含み、前記エージェントモジュールが、前記非自動化アシスタントアプリケーションに関連するアクションを実施するように構成される、ステップと、A step of making the application interface of a non-automated assistant application accessible to the user, wherein the application interface includes a first selectable element for initializing communication with an agent module through the automated assistant application. A step and a step in which the agent module is configured to perform actions related to the non-automated assistant application.
前記第1の選択可能要素の選択を受け取るステップであって、前記第1の選択可能要素が、前記エージェントモジュールと、前記アクションを実施するときに使用するためのパラメータとを識別するリンクに対応する、ステップと、A step of receiving a selection of the first selectable element, wherein the first selectable element corresponds to a link that identifies the agent module and a parameter to be used when performing the action. , Steps and
前記第1の選択可能要素の前記選択を受け取ったことに応答して、前記自動化アシスタントアプリケーションを介して、会話型インターフェースを前記ユーザに提示させるステップであって、前記会話型インターフェースが、前記ユーザと前記エージェントモジュールとの間の媒介となるように構成される、ステップと、In response to receiving the selection of the first selectable element, the step of causing the user to present a conversational interface via the automation assistant application, wherein the conversational interface is with the user. A step that is configured to act as an intermediary with the agent module.
前記自動化アシスタントアプリケーションを介して、前記会話型インターフェースにおいて第2の選択可能要素を提供するステップであって、前記第2の選択可能要素が、前記アクションの実施を進めるために、前記リンク内で識別される前記パラメータに基づく、ステップとA step of providing a second selectable element in the conversational interface via the automation assistant application, wherein the second selectable element is identified within the link to facilitate the performance of the action. Based on the above parameters
を含む方法。How to include.
前記第2の選択可能要素の前記選択を受け取ったことに応答して、前記リンク内で識別される前記パラメータに割り当てるために、前記エージェントモジュールに前記値を提供するステップとWith the step of providing the agent module with the value to assign to the parameter identified within the link in response to receiving the selection of the second selectable element.
をさらに含む、請求項1に記載の方法。The method of claim 1, further comprising.
前記オーディオデータを受け取ったことに応答して、前記エージェントモジュールに送信するために、前記オーディオデータをテキストデータに変換するステップとWith the step of converting the audio data into text data for transmission to the agent module in response to receiving the audio data.
をさらに含む、請求項4に記載の方法。4. The method of claim 4, further comprising.
コンピューティングデバイスの非自動化アシスタントアプリケーションによってレンダリングされたグラフィカルユーザインターフェースにおける選択可能要素の選択を受け取るステップであって、前記選択可能要素が、前記グラフィカルユーザインターフェースに関連するエージェントモジュールが前記非自動化アシスタントアプリケーションとは別々の自動化アシスタントアプリケーションを介して起動され得ることを示す、ステップと、
前記選択可能要素の前記選択に応答して、
前記自動化アシスタントアプリケーションを介して前記エージェントモジュールを起動するステップであって、前記自動化アシスタントアプリケーションが少なくとも一時的に前記コンピューティングデバイスを介してアクセス可能であるとき、前記エージェントモジュールが、前記自動化アシスタントアプリケーションを介して起動され得る複数の利用可能なエージェントモジュールのうちの1つである、ステップと、
前記エージェントモジュールを起動したことに応答して、前記エージェントモジュールからの応答内容を受け取るステップと、
自動化アシスタントインターフェースを介して前記自動化アシスタントアプリケーションによって、前記エージェントモジュールから受け取った前記応答内容に基づく出力を提供するステップと
を含む方法。 A method implemented by one or more processors
A step that takes accept the selection of the selectable element in a graphical user interface rendered by non-automated assistant application of a computing device, before Symbol selectable element, said graphical user interface to the associated agent module is the non-automated Steps and steps that indicate that they can be launched through an automated assistant application that is separate from the assistant application.
In response to the selection of the selectable element,
Comprising the steps of start the agent module through the automated assistant application, when the automated assistant application is accessible via at least temporarily the computing device, the agent module, the automated assistant application One of the multiple available agent modules that can be launched through the step and
In response to activating the agent module, comprising the steps of taking accept the response content from the agent module,
By the automated assistant application through the automated assistant interface, the method comprising the steps of providing a based rather output to the response content received from the agent modules.
前記自動化アシスタントアプリケーションとのダイアログのモダリティを示すモダリティパラメータを受け取るステップであって、前記出力が、前記モダリティパラメータによって示されるダイアログの前記モダリティを介して提供される、ステップ
をさらに含む、請求項6に記載の方法。 In response to receiving the selection of the selectable element
Comprising: receiving a modality parameter indicating the modalities of a dialog with the previous SL automated assistant application, before SL output, Ru is provided through the modalities of a dialog indicated by said modality parameter, scan Te' flop
The method of claim 6 , further comprising.
前記エージェントモジュールの起動が、前記リンクの内容に基づく、請求項6に記載の方法。The method of claim 6, wherein the agent module is activated based on the content of the link.
前記エージェントモジュールについてのインテントパラメータを含むエージェント内容を受け取るステップであって、前記エージェントモジュールを起動するステップが、前記エージェント内容によって示される前記インテントパラメータと共に前記エージェントモジュールを起動するステップを含む、ステップをさらに含む、請求項6に記載の方法。A step of receiving an agent content including an intent parameter for the agent module, wherein the step of invoking the agent module includes a step of invoking the agent module together with the intent parameter indicated by the agent content. The method of claim 6, further comprising.
前記出力が、前記別個のコンピューティングデバイスによって提供される、請求項6に記載の方法。 The automation assistant application runs on a computing device separate from the non-automation assistant application.
The output is provided by the separate computing device, The method of claim 6.
前記プロンプトを提供することに続いて自然言語入力を受け取るステップと、
前記自然言語入力に基づくさらなる内容を前記エージェントモジュールに提供するステップと、
前記さらなる内容を前記エージェントモジュールに提供したことに応答して、前記エージェントモジュールからさらなる応答内容を受け取るステップと、
前記自動化アシスタントインターフェースを介して、前記エージェントモジュールから受け取った前記さらなる応答内容に基づく追加の出力を前記自動化アシスタントアプリケーションによって提供するステップと
をさらに含む、請求項6に記載の方法。 The output based on the response received from the selected agent module is the prompt
Following the prompting , the step of receiving natural language input,
A step of providing the agent module with additional content based on the natural language input,
A step of receiving further response content from the agent module in response to providing the additional content to the agent module.
Through said automated assistant interface, further comprising the steps of: providing said received from the agent module outputs additional according to a further response content by the automated assistant application, The method of claim 6.
非自動化アシスタントアプリケーションを操作しているコンピューティングデバイスにおいて選択可能要素を表示させるステップであって、前記選択可能要素が、自動化アシスタントに前記非自動化アシスタントアプリケーションに関連するエージェントモジュールを初期化させるように構成される、ステップと、A step of displaying selectable elements on a computing device operating a non-automated assistant application, wherein the selectable elements are configured to cause the automated assistant to initialize an agent module associated with the non-automated assistant application. To be done, steps and
前記選択可能要素の選択を受け取るステップと、The step of receiving the selection of selectable elements and
前記選択可能要素の前記選択を受け取ったことに応答して、In response to receiving the selection of the selectable element
前記自動化アシスタントが前記コンピューティングデバイスにとってアクセス可能であるかどうかを判定するステップと、The step of determining whether the automation assistant is accessible to the computing device, and
前記自動化アシスタントが前記コンピューティングデバイスにとってアクセス可能であると判定されたとき、前記エージェントモジュールと通信するために前記自動化アシスタントを初期化するステップとWith the step of initializing the automation assistant to communicate with the agent module when it is determined that the automation assistant is accessible to the computing device.
を含む方法。How to include.
前記コンピューティングデバイスにおいて別の選択可能要素を表示させるステップであって、前記別の選択可能要素が、前記エージェントモジュールを識別するリンクに対応する、ステップA step of displaying another selectable element in the computing device, wherein the other selectable element corresponds to a link that identifies the agent module.
を含む、請求項16に記載の方法。16. The method of claim 16.
ユーザによって発話され前記コンピューティングデバイスにおいて受け取られたとき、前記自動化アシスタントが、前記発話可能コマンド語句に応答するように構成される、請求項17に記載の方法。17. The method of claim 17, wherein the automation assistant is configured to respond to the spoken command phrase when spoken by a user and received on the computing device.
前記エージェントモジュールに起動要求を送信するステップと、
前記起動要求に応答して、前記エージェントモジュールから応答内容を受け取るステップと、
前記自動化アシスタントに関連するインターフェースを通じて、前記応答内容に基づく出力を提供するステップと
をさらに含む請求項18に記載の方法。 When the automated assistant is judged to be accessible to the computing device,
Sending an activation request to the agent module,
In response to the activation request, receiving a response content from the previous SL agent module,
Through an interface associated with the prior SL automated assistant The method of claim 18, further comprising the step of providing an output based on said response content.
ネットワークを介して、前記自動化アシスタントが前記ネットワーク上の1つまたは複数の別個のコンピューティングデバイスを介してアクセス可能であるかどうかの指示を要求するデータを送信するステップを含む、請求項16に記載の方法。16. A 16. the method of.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/589,645 | 2017-05-08 | ||
US15/589,645 US10237209B2 (en) | 2017-05-08 | 2017-05-08 | Initializing a conversation with an automated agent via selectable graphical element |
JP2019561323A JP6733063B2 (en) | 2017-05-08 | 2018-05-07 | Initializing a conversation with an automation agent via selectable graphical elements |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019561323A Division JP6733063B2 (en) | 2017-05-08 | 2018-05-07 | Initializing a conversation with an automation agent via selectable graphical elements |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020173846A JP2020173846A (en) | 2020-10-22 |
JP6934092B2 true JP6934092B2 (en) | 2021-09-08 |
Family
ID=62236022
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019561323A Active JP6733063B2 (en) | 2017-05-08 | 2018-05-07 | Initializing a conversation with an automation agent via selectable graphical elements |
JP2020117027A Active JP6934092B2 (en) | 2017-05-08 | 2020-07-07 | Initialize conversations with automation agents via selectable graphical elements |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019561323A Active JP6733063B2 (en) | 2017-05-08 | 2018-05-07 | Initializing a conversation with an automation agent via selectable graphical elements |
Country Status (6)
Country | Link |
---|---|
US (3) | US10237209B2 (en) |
EP (2) | EP3494499B1 (en) |
JP (2) | JP6733063B2 (en) |
KR (2) | KR102391387B1 (en) |
CN (2) | CN110622136B (en) |
WO (1) | WO2018208694A1 (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10237209B2 (en) | 2017-05-08 | 2019-03-19 | Google Llc | Initializing a conversation with an automated agent via selectable graphical element |
US10963525B2 (en) * | 2017-07-07 | 2021-03-30 | Avnet, Inc. | Artificial intelligence system for providing relevant content queries across unconnected websites via a conversational environment |
US20190235831A1 (en) * | 2018-01-31 | 2019-08-01 | Amazon Technologies, Inc. | User input processing restriction in a speech processing system |
US11182538B2 (en) * | 2018-08-01 | 2021-11-23 | Microsoft Technology Licensing, Llc | Conversational user interface logic for cross-application ingestion and restructuring of content |
US11681760B2 (en) | 2018-08-01 | 2023-06-20 | Microsoft Technology Licensing, Llc | Cross-application ingestion and restructuring of content |
US11113447B2 (en) | 2018-08-01 | 2021-09-07 | Microsoft Technology Licensing, Llc | Cross-application ingestion and restructuring of slide presentation content |
US11295073B2 (en) | 2018-08-01 | 2022-04-05 | Microsoft Technology Licensing, Llc | Cross-application ingestion and restructuring of spreadsheet content |
CN109584879B (en) * | 2018-11-23 | 2021-07-06 | 华为技术有限公司 | Voice control method and electronic equipment |
US10750019B1 (en) * | 2019-03-29 | 2020-08-18 | Genesys Telecommunications Laboratories, Inc. | System and method for assisting agents via artificial intelligence |
EP3942399B1 (en) * | 2019-05-06 | 2024-04-10 | Google LLC | Automated assistant for generating, in response to a request from a user, application input content using application data from other sources |
WO2020226665A1 (en) * | 2019-05-06 | 2020-11-12 | Google Llc | Selectively activating on-device speech recognition, and using recognized text in selectively activating on-device nlu and/or on-device fulfillment |
CN113544770A (en) * | 2019-05-06 | 2021-10-22 | 谷歌有限责任公司 | Initializing non-assistant background actions by an automated assistant when accessing non-assistant applications |
EP3970000A1 (en) * | 2019-07-19 | 2022-03-23 | Google LLC | Condensed spoken utterances for automated assistant control of an intricate application gui |
JP7440654B2 (en) | 2020-02-28 | 2024-02-28 | グーグル エルエルシー | Interface and mode selection for digital action execution |
KR20220046103A (en) * | 2020-10-07 | 2022-04-14 | 삼성전자주식회사 | Electronic device and method for acquiring parameter of natural language understanding |
US11720325B2 (en) * | 2021-04-16 | 2023-08-08 | Google Llc | Automated assistant performance of a non-assistant application operation(s) in response to a user input that can be limited to a parameter(s) |
WO2023113877A1 (en) * | 2021-12-13 | 2023-06-22 | Google Llc | Selecting between multiple automated assistants based on invocation properties |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002024285A (en) | 2000-06-30 | 2002-01-25 | Sanyo Electric Co Ltd | Method and device for user support |
CN100339885C (en) * | 2002-02-26 | 2007-09-26 | Sap股份公司 | Intelligent personal assistants |
US8001142B2 (en) * | 2003-04-02 | 2011-08-16 | Oracle America, Inc. | Distributed data system with incremental data updates |
US7636786B2 (en) * | 2003-06-19 | 2009-12-22 | International Business Machines Corporation | Facilitating access to a resource of an on-line service |
US7562009B1 (en) | 2005-03-23 | 2009-07-14 | Basis Technology Corporation | Linguistic processing platform, architecture and methods |
DE202005021786U1 (en) * | 2005-12-22 | 2010-02-25 | Epoq Gmbh | Device for agent-optimized operation of a call center |
US7853661B2 (en) * | 2006-01-03 | 2010-12-14 | Microsoft Corporation | Remote access and social networking using presence-based applications |
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
CN101848187A (en) * | 2009-03-25 | 2010-09-29 | 欧阳炳宇 | Embedded agent chat robot and method for constructing application network |
US20110191681A1 (en) * | 2010-02-02 | 2011-08-04 | Dean Stark | Systems and Methods for Human Intelligence Personal Assistance |
US9047259B1 (en) * | 2010-07-21 | 2015-06-02 | Google Inc. | System and method for renaming hyperlinks |
WO2012135218A2 (en) * | 2011-03-31 | 2012-10-04 | Microsoft Corporation | Combined activation for natural user interface systems |
US9087137B2 (en) * | 2011-12-22 | 2015-07-21 | International Business Machines Corporation | Detection of custom parameters in a request URL |
US20130218782A1 (en) * | 2012-02-17 | 2013-08-22 | Infosys Limited | Effective utilization of an integrated self-care portal for an enriched customer experience |
US20150088974A1 (en) | 2012-03-10 | 2015-03-26 | Evado Holdings Pty Ltd | Method and System of Application Development for Multiple Device Client Platforms |
KR101980173B1 (en) * | 2012-03-16 | 2019-05-20 | 삼성전자주식회사 | A collaborative personal assistant system for delegating providing of services supported by third party task providers and method therefor |
US9674331B2 (en) * | 2012-06-08 | 2017-06-06 | Apple Inc. | Transmitting data from an automated assistant to an accessory |
KR20140052155A (en) * | 2012-10-19 | 2014-05-07 | 삼성전자주식회사 | Display apparatus, method for controlling the display apparatus and processor for controlling the display apparatus |
US10176252B2 (en) * | 2012-12-04 | 2019-01-08 | Ntt Docomo, Inc. | Information-processing device, server device, interaction system, and program |
US9672822B2 (en) * | 2013-02-22 | 2017-06-06 | Next It Corporation | Interaction with a portion of a content item through a virtual assistant |
US10504622B2 (en) * | 2013-03-01 | 2019-12-10 | Nuance Communications, Inc. | Virtual medical assistant methods and apparatus |
US10445115B2 (en) * | 2013-04-18 | 2019-10-15 | Verint Americas Inc. | Virtual assistant focused user interfaces |
KR102197560B1 (en) * | 2013-06-07 | 2020-12-31 | 애플 인크. | Intelligent automated assistant |
AU2014275224B2 (en) * | 2013-06-08 | 2017-08-31 | Apple Inc. | Device, method, and graphical user interface for synchronizing two or more displays |
KR101922663B1 (en) * | 2013-06-09 | 2018-11-28 | 애플 인크. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US9639508B2 (en) | 2013-06-14 | 2017-05-02 | Worldmate, Ltd. | Systems and methods for providing a contextual user interface element |
US20140379840A1 (en) * | 2013-06-24 | 2014-12-25 | Akamai Technologies, Inc. | Predictive prefetching of web content |
DE102013213003A1 (en) * | 2013-07-03 | 2015-01-08 | Dr. Johannes Heidenhain Gmbh | Scanning unit for scanning a scale and position measuring device |
US9036807B1 (en) * | 2013-10-25 | 2015-05-19 | Teletech Holdings, Inc. | Method and system for routing messages and connecting users associated with live-connected content |
US9830044B2 (en) * | 2013-12-31 | 2017-11-28 | Next It Corporation | Virtual assistant team customization |
US8995972B1 (en) | 2014-06-05 | 2015-03-31 | Grandios Technologies, Llc | Automatic personal assistance between users devices |
US20160044380A1 (en) * | 2014-06-12 | 2016-02-11 | Bertrand Barrett | Personal helper bot system |
US20160070580A1 (en) * | 2014-09-09 | 2016-03-10 | Microsoft Technology Licensing, Llc | Digital personal assistant remote invocation |
US9571649B2 (en) * | 2014-10-23 | 2017-02-14 | Teletech Holdings, Inc. | Method for connecting users with agents based on user values dynamically determined according to a set of rules or algorithms |
KR20160076201A (en) * | 2014-12-22 | 2016-06-30 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
US9584668B1 (en) * | 2015-03-25 | 2017-02-28 | State Farm Mutual Automobile Insurance Company | Method and system for a scalable computer-telephony integration system |
JP6762963B2 (en) * | 2015-06-02 | 2020-09-30 | ライブパーソン, インコーポレイテッド | Dynamic communication routing based on consistency weighting and routing rules |
CN106325113B (en) * | 2015-06-26 | 2019-03-19 | 北京贝虎机器人技术有限公司 | Robot controls engine and system |
US10257342B2 (en) * | 2016-03-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Validating stateful dynamic links in mobile applications |
US9961205B1 (en) * | 2016-06-21 | 2018-05-01 | Avaya Inc. | Mobility bonding network |
US10395652B2 (en) * | 2016-09-20 | 2019-08-27 | Allstate Insurance Company | Personal information assistant computing system |
US10237209B2 (en) | 2017-05-08 | 2019-03-19 | Google Llc | Initializing a conversation with an automated agent via selectable graphical element |
WO2018231253A1 (en) * | 2017-06-16 | 2018-12-20 | Colorado State University Research Foundation | Satellite loop interactive data explorer in real-time |
-
2017
- 2017-05-08 US US15/589,645 patent/US10237209B2/en active Active
-
2018
- 2018-05-07 KR KR1020207028448A patent/KR102391387B1/en active IP Right Grant
- 2018-05-07 JP JP2019561323A patent/JP6733063B2/en active Active
- 2018-05-07 EP EP18726899.0A patent/EP3494499B1/en active Active
- 2018-05-07 CN CN201880030291.5A patent/CN110622136B/en active Active
- 2018-05-07 CN CN202110200507.1A patent/CN112905284A/en active Pending
- 2018-05-07 KR KR1020197036264A patent/KR102164428B1/en active IP Right Grant
- 2018-05-07 WO PCT/US2018/031448 patent/WO2018208694A1/en unknown
- 2018-05-07 EP EP22212953.8A patent/EP4167084A1/en active Pending
-
2019
- 2019-01-31 US US16/264,083 patent/US11689480B2/en active Active
-
2020
- 2020-07-07 JP JP2020117027A patent/JP6934092B2/en active Active
-
2023
- 2023-06-26 US US18/214,239 patent/US20230336505A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN110622136A (en) | 2019-12-27 |
KR20200006558A (en) | 2020-01-20 |
US10237209B2 (en) | 2019-03-19 |
JP6733063B2 (en) | 2020-07-29 |
US20230336505A1 (en) | 2023-10-19 |
US20190166073A1 (en) | 2019-05-30 |
CN110622136B (en) | 2021-03-16 |
US20180324115A1 (en) | 2018-11-08 |
CN112905284A (en) | 2021-06-04 |
EP3494499B1 (en) | 2023-07-05 |
KR102391387B1 (en) | 2022-04-27 |
EP3494499A1 (en) | 2019-06-12 |
JP2020520507A (en) | 2020-07-09 |
JP2020173846A (en) | 2020-10-22 |
US11689480B2 (en) | 2023-06-27 |
KR102164428B1 (en) | 2020-10-12 |
EP4167084A1 (en) | 2023-04-19 |
WO2018208694A1 (en) | 2018-11-15 |
KR20200117070A (en) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6934092B2 (en) | Initialize conversations with automation agents via selectable graphical elements | |
KR102505597B1 (en) | Voice user interface shortcuts for an assistant application | |
JP6963700B2 (en) | Generating and transmitting call requests to the appropriate third-party agents | |
JP7063932B2 (en) | Appropriate agent automation assistant call | |
EP3639156B1 (en) | Exporting dialog-driven applications to digital communication platforms | |
EP3692455A1 (en) | User-programmable automated assistant | |
EP3545427A1 (en) | Service for developing dialog-driven applications | |
EP3602271B1 (en) | Initializing a conversation with an automated agent via selectable graphical element | |
JP6797212B2 (en) | User Interface of User's Computing Device Automatic launch and adaptation of dialogs with users through devices | |
CN111771189A (en) | System, method and apparatus for providing dynamic automated response at mediation assistance application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200805 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |