JP2019204515A - 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合 - Google Patents

音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合 Download PDF

Info

Publication number
JP2019204515A
JP2019204515A JP2019117476A JP2019117476A JP2019204515A JP 2019204515 A JP2019204515 A JP 2019204515A JP 2019117476 A JP2019117476 A JP 2019117476A JP 2019117476 A JP2019117476 A JP 2019117476A JP 2019204515 A JP2019204515 A JP 2019204515A
Authority
JP
Japan
Prior art keywords
action
data
computing device
data structure
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019117476A
Other languages
English (en)
Other versions
JP6756017B2 (ja
Inventor
ガウラフ・バハヤ
Bhaya Gaurav
ロバート・ステッツ
Stets Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019204515A publication Critical patent/JP2019204515A/ja
Priority to JP2020142494A priority Critical patent/JP6932827B2/ja
Application granted granted Critical
Publication of JP6756017B2 publication Critical patent/JP6756017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3338Query expansion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/63Routing a service request depending on the request content or context

Abstract

【課題】音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合を提供する。【解決手段】自然言語プロセッサ・コンポーネントは、第1のおよび第2の入力オーディオ信号をクライアントコンピューティングデバイスから受信し、各要求および対応するトリガキーワードを識別する。ダイレクト・アクション・APIは、各アクションデータ構造を生成し、各アクションデータ構造を含むそれぞれのデータ送信を構築する。スレッド最適化コンポーネントは第1のデータ送信のデータパケットを取得し、第2のデータ送信のデータパケットを取得し、それぞれのデータ送信の前記データパケットに適用されるヒューリスティック技術に基づいてシーケンス依存性パラメータを決定する。スレッド最適化コンポーネントは、シーケンス依存性パラメータの閾値との比較に基づいて、第1のおよび第2のデータ送信を単一のスレッドにマージする。【選択図】図1

Description

本願は、発明の名称を「音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合」とした2016年12月30日出願の米国特許出願第15/395、725号の優先権の利益を主張し、本明細書に引用によりすべての目的で全体として取り込まれる。
コンピューティングデバイスの間のパケット・ベースのまたは、ネットワークトラフィックデータの過度なネットワーク送信は、コンピューティングデバイスが当該ネットワークトラフィックデータを正しく処理し、当該ネットワークトラフィックデータに関連する動作を完了し、または当該ネットワークトラフィックデータにタイムリーに応答することを不可能としうる。ネットワークトラフィックデータの当該過度なネットワーク送信はまた、応答するコンピューティングデバイスがその処理容量を上回る場合に、データのルーティングを複雑化しまたは当該応答の当該品質を劣化させうる。これは非効率的な帯域幅利用をもたらしうる。コンテンツ・アイテムオブジェクトに対応するネットワーク送信の制御は、コンピューティングデバイスの間のネットワークトラフィックデータのネットワーク送信を開始しうる多数のコンテンツ・アイテムオブジェクトにより複雑化されうる。
少なくとも1つの態様は、シーケンス依存動作を示す複数の音声起動されたオーディオ入力データパケットを結合するためのシステムに関する。データ処理システムにより実行される自然言語プロセッサ・コンポーネントは、データ処理システムのインタフェースを介して、クライアントコンピューティングデバイスのセンサにより検出された第1の入力オーディオ信号を含むデータパケットを受信することができる。当該自然言語プロセッサ・コンポーネントは第1の入力オーディオ信号を解析して第1の要求および第1の要求に対応する第1のトリガキーワードを識別することができる。データ処理システムのダイレクト・アクション・アプリケーション・プログラミング・インタフェース(「API」)は、第1のトリガキーワードに基づいておよび第1の要求に応答して、第1のアクションデータ構造を生成することができる。当該ダイレクト・アクションAPIは第1のアクションデータ構造を含む第1のデータ送信を構築して第1のサービス・プロバイダ・コンピューティング・デバイスおよび当該クライアントコンピューティングデバイスの間の第1の通信セッションを確立することができる、第1の通信セッションのデータパケットは、データ処理システムを介して、当該クライアントコンピューティングデバイスから第1のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる。当該自然言語プロセッサ・コンポーネントは、データ処理システムの当該インタフェースを介して、当該クライアントコンピューティングデバイスの当該センサにより検出された第2の入力オーディオ信号を含むデータパケットを受信し、第2の入力オーディオ信号を解析して、第2の要求および第2の要求に対応する第2のトリガキーワードを識別することができる。当該ダイレクト・アクションAPIは、第2のトリガキーワードに基づいておよび第2の要求に応答して、第2のアクションデータ構造を生成することができる。当該ダイレクト・アクションAPIは第2のアクションデータ構造を含む第2のデータ送信を構築して、第2のサービス・プロバイダ・コンピューティング・デバイスおよび当該クライアントコンピューティングデバイスの間の第2の通信セッションを確立することができる、第2の通信セッションのデータパケットは、データ処理システムを介して当該クライアントコンピューティングデバイスから第2のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる。データ処理システムにより実行されるスレッド最適化コンポーネントは第1のデータ送信のデータパケットを取得することができ第2のデータ送信のデータパケットを取得することができる。当該スレッド最適化コンポーネントは、第1のデータ構造の当該データパケットおよび第2のデータ構造に適用される当該データパケットに適用されるヒューリスティック技術に基づいて、シーケンス依存性パラメータを決定することができる。当該スレッド最適化コンポーネントは、当該シーケンス依存性パラメータの閾値との比較に基づいて、第1のデータ送信を第2のアクションデータ送信とともに単一のスレッドにマージすることができる。
少なくとも1つの態様は、シーケンス依存動作を示す複数の音声起動されたオーディオ入力データ通信を管理する方法に関する。当該方法は、データ処理システムにより実行される自然言語プロセッサ・コンポーネントにより、データ処理システムのインタフェースを介して、クライアントコンピューティングデバイスのセンサにより検出された第1の入力オーディオ信号を含むデータパケットを受信するステップを含むことができる。当該方法は、当該自然言語プロセッサ・コンポーネントにより、第1の入力オーディオ信号から、第1の要求および第1の要求に対応する第1のトリガキーワードを識別するステップを含むことができる。当該方法は、データ処理システムのダイレクト・アクション・アプリケーション・プログラミング・インタフェース(「API」)により、第1のトリガキーワードに基づいておよび第1の要求に応答して、第1のアクションデータ構造を生成するステップを含むことができる。当該方法は第1のサービス・プロバイダ・コンピューティング・デバイスおよび当該クライアントコンピューティングデバイスの間の第1の通信セッションに対する第1のアクションデータ構造を含む第1のデータ送信を構築するステップを含むことができる、第1の通信セッションのデータパケットは、データ処理システムを介して、当該クライアントコンピューティングデバイスから第1のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる。当該方法は、当該自然言語プロセッサ・コンポーネントにより、データ処理システムの当該インタフェースを介して、当該クライアントコンピューティングデバイスの当該センサにより検出された第2の入力オーディオ信号を含むデータパケットを受信し、当該自然言語プロセッサ・コンポーネントにより、第2の入力オーディオ信号を解析して、第2の要求および第2の要求に対応する第2のトリガキーワードを識別するステップを含むことができる。当該方法は、当該ダイレクト・アクションAPIにより、第2のトリガキーワードに基づいておよび第2の要求に応答して、第2のアクションデータ構造を生成するステップを含むことができる。当該方法は第2のサービス・プロバイダ・コンピューティング・デバイスおよび当該クライアントコンピューティングデバイスの間の第2の通信セッションに対する第2のアクションデータ構造を含む第2のデータ送信を構築するステップを含むことができる、第2の通信セッションのデータパケットは、データ処理システムを介して当該クライアントコンピューティングデバイスから第2のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる。当該方法は、データ処理システムにより実行されるスレッド最適化コンポーネントにより、第1のデータ送信のデータ、および第2のデータ送信のデータを取得するステップを含むことができる。当該方法は、第1のデータ送信のデータに適用され第2のデータ送信のデータに適用されるヒューリスティック技術に基づいて、シーケンス依存性パラメータを決定するステップを含むことができる。当該方法は、当該シーケンス依存性パラメータの閾値との比較に基づいて、第1のアクションデータ構造および第2のアクションデータ構造を単一のスレッドに関連付けるステップを含むことができる。
少なくとも1つの態様は、1つまたは複数のデータプロセッサにより実行されたとき、当該1つまたは複数のデータプロセッサにシーケンス依存動作を示す複数の音声起動されたオーディオ入力データ通信を管理するための動作を実施させる命令を格納するコンピュータ可読記憶媒体に関する。当該動作は、データ処理システムにより実行される自然言語プロセッサ・コンポーネントにより、データ処理システムのインタフェースを介して、クライアントコンピューティングデバイスのセンサにより検出された第1の入力オーディオ信号を含むデータパケットを受信するステップを含むことができる。当該動作は、当該自然言語プロセッサ・コンポーネントにより、第1の入力オーディオ信号から、第1の要求および第1の要求に対応する第1のトリガキーワードを識別するステップを含むことができる。当該動作は、データ処理システムのダイレクト・アクション・アプリケーション・プログラミング・インタフェース(「API」)により、第1のトリガキーワードに基づいておよび第1の要求に応答して、第1のアクションデータ構造を生成するステップを含むことができる。当該動作は第1のサービス・プロバイダ・コンピューティング・デバイスおよび当該クライアントコンピューティングデバイスの間の第1の通信セッションに対する第1のアクションデータ構造を含む第1のデータ送信を構築するステップを含むことができる、第1の通信セッションのデータパケットは、データ処理システムを介して、当該クライアントコンピューティングデバイスから第1のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる。当該動作は、当該自然言語プロセッサ・コンポーネントにより、データ処理システムの当該インタフェースを介して、当該クライアントコンピューティングデバイスの当該センサにより検出された第2の入力オーディオ信号を含むデータパケットを受信し、当該自然言語プロセッサ・コンポーネントにより、第2の入力オーディオ信号を解析して、第2の要求および第2の要求に対応する第2のトリガキーワードを識別するステップを含むことができる。当該動作は、当該ダイレクト・アクションAPIにより、第2のトリガキーワードに基づいておよび第2の要求に応答して、第2のアクションデータ構造を生成するステップを含むことができる。当該動作は第2のサービス・プロバイダ・コンピューティング・デバイスおよび当該クライアントコンピューティングデバイスの間の第2の通信セッションに対する第2のアクションデータ構造を含む第2のデータ送信を構築するステップを含むことができ、第2の通信セッションのデータパケットは、データ処理システムを介して当該クライアントコンピューティングデバイスから第2のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる。当該動作は、データ処理システムにより実行されるスレッド最適化コンポーネントにより、第1のデータ送信のデータパケット、および第2のデータ送信のデータパケットを取得するステップを含むことができる。当該動作は、第1のデータ構造の当該データパケットおよび第2のデータ構造に適用される当該データパケットに適用されるヒューリスティック技術に基づいて、シーケンス依存性パラメータを決定するステップを含むことができる。当該動作は、当該シーケンス依存性パラメータに基づいて、第1のアクションデータ構造および第2のアクションデータ構造を単一のスレッドに関連付けるステップを含むことができる。
これらのおよび他の態様および実装を以下で説明する。以上の情報および以下の詳細な説明は様々な態様および実装の例示的な例を含み、クレームした態様および実装の性質と特徴を理解するための概要またはフレームワークを提供する。当該図面は当該様々な態様および実装の例示とさらなる理解を提供し、本明細書に組み込まれ本明細書の一部を構成する。
添付図面は正しい縮尺で描かれていない。当該様々な図面における同じ参照番号および指定は同じ要素を示す。明確さの目的のため、全てのコンポーネントが全ての図面においてラベル付けされていないかもしれない。
音声起動されたコンピュータネットワーク環境におけるシーケンス依存動作を示した複数の音声起動されたオーディオ入力データパケットを結合するっためのシステムを示す図である。 音声起動されたデータパケット・ベースのコンピュータネットワーク環境に対する単一のスレッド構造の機能図である。 スレッドデータ構造生成および音声起動されたデータパケット・ベースのコンピュータネットワーク環境におけるリモートデータ処理システムおよびサービス・プロバイダ・コンピューティング・デバイスの間の通信の機能図である。 シーケンス依存動作を示す複数の音声起動されたオーディオ入力データ通信を管理するための方法を示す図である。 本明細書で説明し図示したシステムおよび方法の要素を実装するために使用されうるコンピュータシステムのための汎用アーキテクチャを示すブロック図である。
以下は、音声起動されたコンピュータネットワーク環境における複数の音声起動されたオーディオ入力データパケットの処理を最適化するための方法、装置、およびシステムの実装に関連する様々な概念のより詳細な説明である。上で導入し以下でさらに詳細に説明する様々な概念を任意の多数の方法で実装してもよい。
本開示のシステムおよび方法は一般に、音声起動されたコンピュータネットワーク環境におけるパケット・ベースの送信を介して複数の音声起動されたパケット(または他のプロトコル)ベースの入力オーディオ信号を最適化または動的に調節するデータ処理システムに関する。データ処理システムは、例えば、情報を入力オーディオ信号から抽出して複数の対応するアクションデータ構造を生成することにより、1つまたは複数のコンピュータネットワーク上のデータパケット送信の効率および有効性を高めることができる。当該アクションデータ構造を、データ処理システムおよび複数の異なるサービス・プロバイダ・コンピューティング・デバイスの間の通信セッション中の送信に対して構築することができる。例えば、異なるアクションデータ構造の当該パケットから、データ処理システムは少なくとも1つのシーケンス依存性パラメータを決定することができる。当該シーケンス依存性パラメータは、当該アクションデータ構造またはそれらの対応するデータ送信により示されるアクションの動作の順序を示すことができる。当該シーケンス依存性パラメータに基づいて、データ処理システムは複数のアクションデータ送信を単一のスレッドにマージまたは結合することができる。
当該単一のスレッドは複数のアクションデータ構造のシーケンス依存動作を含むことができる。データ処理システムは当該単一のスレッドまたはその部分(例えば、少なくとも1つのパケット・ベースのデータ構造)を複数のサービス・プロバイダ・コンピューティング・デバイスに提供して、当該単一のスレッドにより示されるアクションを実現することができる。データ処理システムはまた、当該単一のスレッドまたはその部分を少なくとも1つのコンテンツ・プロバイダ・コンピューティング・デバイスに提供して、当該単一のスレッドに関連付けられたコンテンツ・アイテムを取得することができる。当該サービス・プロバイダ・コンピューティング・デバイスおよび当該コンテンツ・プロバイダ・コンピューティング・デバイスは、データ処理システムを介してまたはデータ処理システムをバイパスして、少なくとも1つのクライアントコンピューティングデバイス(例えば、当該オーディオ入力信号のソース)と通信して、オーディオ出力を描画し、当該スレッドにより示される当該アクションを実現するか、またはコンテンツ・アイテムを当該クライアントコンピューティングデバイスで描画することができる。
複数のアクションデータ構造を単一のスレッドに単一のスレッドマージまたは統合し、当該単一のスレッドにより示されるシーケンス依存動作を識別することで、データ処理システムの処理電力、およびメモリ利用要件が、かかる統合およびシーケンス依存性識別なしに、複数のアクションデータ構造の独立な処理に対して削減される。例えば、独立なアクションデータ構造の動作の非同期なまたはシーケンス外処理は、データ処理システムおよびサービス・プロバイダまたはコンテンツ・プロバイダ・コンピューティング・デバイスの間の確立された通信セッションを介した、タイムリーでない、未熟な、または不要なデータパケット通信を生じさせうる。これは帯域幅を無駄にし、データ処理システムによりならびに当該サービス・プロバイダまたはコンテンツ・プロバイダ・コンピューティング・デバイスによる不要な処理動作を生じさせ、複数のコンピューティングデバイスのコンピューティングリソースを無駄にする。
当該単一のスレッド内の識別されたシーケンス依存動作に基づいて、データ処理システムは1組のシーケンス依存動作の初期動作を一時的にまたは恒久的にスキップでき、代わりに後の時点のまたは最終的な動作に対応する動作に進むことができる。複数のシーケンス依存動作の早期動作に対応するパケットまたは他のプロトコルベースのデータ送信をバイパスすることによって、その代わり、データ処理システムが当該早期段階動作に関連付けられたデータ処理を減らし、遅延させ、または排除できる、動作のシーケンスにおける後の段階動作に対するパケット・ベースのデータ送信に直接に進む。これは、処理電力およびメモリのような他のコンピューティングリソースを節約し、データ処理システムによる電気電力消費および当該コンピュータネットワークを介した当該削減されたデータ送信を減らし、データ処理システムの帯域幅要件および利用を減らす。
本明細書で説明するシステムおよび方法は、第1の入力オーディオ信号を受信するデータ処理システムを含むことができる。第1の入力オーディオ信号から、データ処理システムは第1の要求および当該要求に対応する第1のトリガキーワードを識別することができる。第1のトリガキーワードまたは第1の要求に基づいて、データ処理システムは第1のアクションデータ構造を生成でき、第1のアクションデータ構造を含む第1のデータ送信を構築または準備することができる。第1のデータ送信を、データパケットまたは他のプロトコルベースの送信として、当該クライアントコンピューティングデバイスから少なくとも1つの第1のサービス・プロバイダ・コンピューティング・デバイスに第1の通信セッションの一部としてルーティングすることができる。
データ処理システムは第2の入力オーディオ信号を受信することができる。第2の入力オーディオ信号から、データ処理システムは第2の要求および当該要求に対応する第2のトリガキーワードを識別することができる。第2のトリガキーワードまたは第2の要求に基づいて、データ処理システムは第2のアクションデータ構造を生成でき、第2のアクションデータ構造を含む第2のデータ送信を構築または準備することができる。第2のデータ送信を、データパケットまたは他のプロトコルベースの送信として、当該クライアントコンピューティングデバイスから少なくとも1つの第2のサービス・プロバイダ・コンピューティング・デバイスに第2の通信セッションの一部としてルーティングすることができる。第1のおよび第2のサービス・プロバイダ・コンピューティング・デバイスは、データ処理システムを介して互いに通信しない異なるエンティティに対応することができる。
データ処理システムは、第1のおよび第2の送信のデータパケットを(例えば、第1のおよび第2のデータ構造から)取得でき、少なくとも1つのシーケンス依存性パラメータを決定するための情報を当該データパケットから抽出することができる。当該シーケンス依存性パラメータは、第1のおよび第2のデータ構造のアクションに対する動作のシーケンスを示すことができる。データ処理システムは当該シーケンス依存性パラメータを閾値(例えば、ルール、ポリシ、または値)と比較でき、当該比較に基づいてデータ処理システムは第1のおよび第2のデータ送信(または関連付けられたアクションデータ構造)を単一のスレッドにマージすることができる。当該単一のスレッドは第1のおよび第2の(またはそれ以上)アクションデータ構造のアクションを示すことができ、これらのアクションのシーケンスまたは順序、ならびにシーケンス依存性を示すことができる。この場合、例えば第2のアクションは、第1のアクションが完了した後まで、開始できない(かまたは開始するようにスケジュールされない)。
データ処理システムは、例えばシーケンス依存性に基づいてまたは当該クライアントコンピューティングデバイスから受信された入力に基づいて、当該単一のスレッドの幾つかのアクションに関連する動作を再順序付け、スキップ、または少なくとも一時的にバイパスすることができる。これを、当該バイパスされたアクションに基づいて、当該データ処理動作の少なくとも幾つかを実施する前またはそれを実施せずに、行うことができる。第1のアクションに対する当該処理動作をバイパスすることは、第2のアクションに関連するデータを、当該バイパスがない場合よりも少ないデータ処理および少ない電気電力利用で、識別し、送信し、描画することができる。
図1は、音声起動されたデータパケット(または他のプロトコル)ベースのコンピュータネットワーク環境におけるシーケンス依存動作を有する複数のアクションデータ構造の処理を最適化するための例示的なシステム100を示す。システム100は、例えば音声起動された通信または計画システムの一部として少なくとも1つのデータ処理システム105を含むことができる。データ処理システム105は、少なくとも1つのプロセッサを有する少なくとも1つのサーバを含むことができる。例えば、データ処理システム105は、少なくとも1つのデータセンタまたはサーバ・ファームに配置された複数のサーバを含むことができる。データ処理システム105は、オーディオ入力信号から要求および当該要求に関連付けられたトリガキーワードを決定することができる。当該要求およびトリガキーワードに基づいてデータ処理システム105はアクションデータ構造を生成することができる。当該アクションデータ構造は、当該入力オーディオ信号に対応する少なくとも1つのアクションを示すことができる。データ処理システム105は複数の別々の入力オーディオ信号を受信でき、入力オーディオ信号ごとにそれぞれのデータ構造を生成することができる。データ処理システム105は、各データ構造が、互いにコンピューティングデバイス(例えば、サービス・プロバイダ・コンピューティング・デバイスまたはコンテンツ・プロバイダ・コンピューティング・デバイス)との各通信セッション中に当該データ構造を送信するために、データ送信を構築または準備することができる。データ処理システム105は、当該アクションデータ構造または対応するデータ送信から、1つまたは複数のシーケンス依存性パラメータを決定することができる。当該シーケンス依存性パラメータに基づいて、データ処理システム105は複数のデータ送信(または対応するアクションデータ構造)を単一のスレッドにマージすることができる。当該単一のスレッドは少なくとも2つのアクションデータ構造からのアクション、ならびに動作の順序または当該アクションのシーケンス依存性を示すことができる。
データ処理システム105は、複数の論理的にグループ化されたサーバを含むことができ、分散コンピューティング技術を促進する。サーバの当該論理グループをデータセンタ、サーバ・ファームまたはマシン・ファームと称してもよい。当該サーバは地理的に分散されることができる。データセンタまたはマシン・ファームを単一のエンティティとして管理してもよく、または当該マシン・ファームは複数のマシン・ファームを含むことができる。各マシン・ファーム内の当該サーバは不均一であることができる。当該サーバまたはマシンのうち1つまたは複数が1つまたは複数のタイプのオペレーティング・システムプラットフォームに従って動作することができる。データ処理システム105は、関連付けられた記憶システムとともに1つまたは複数の高密度ラック・システムに格納され、例えばエンタープライズデータセンタに配置された、データセンタ内のサーバを含むことができる。このように統合されたサーバを有するデータ処理システム105は、当該システムのシステム管理可能性、データセキュリティ、当該物理セキュリティ、高性能ネットワーク上にサーバおよび高性能記憶システムを配置することでシステム性能を高めることができる。サーバおよび記憶システムを含むデータ処理システム105コンポーネントの全部または一部の集約と、それらを高度なシステム管理ツールと組み合わせることで、サーバリソースのより効率的な利用が可能となり、電力および処理要件が節約され、帯域幅利用が減る。
データ処理システム105は少なくとも1つの自然言語プロセッサ(NLP)コンポーネント110、少なくとも1つのインタフェース115、少なくとも1つのスレッド最適化コンポーネント120、少なくとも1つのコンテンツ・セレクタ・コンポーネント125、少なくとも1つのオーディオ信号生成器コンポーネント130、少なくとも1つのダイレクト・アクション・アプリケーション・プログラミング・インタフェース(API)135、少なくとも1つのセッションハンドラコンポーネント140、および少なくとも1つのデータ・リポジトリ145を含むことができる。NLPコンポーネント110、インタフェース115、スレッド最適化コンポーネント120、コンテンツ・セレクタ・コンポーネント125、オーディオ信号生成器コンポーネント130、ダイレクト・アクションAPI135、およびセッションハンドラコンポーネント140はそれぞれ、当該少なくとも1つのコンピュータネットワーク165を介してデータ・リポジトリ145および他のコンピューティングデバイス(例えば、クライアントコンピューティングデバイス150、コンテンツ・プロバイダ・コンピューティング・デバイス155、またはサービス・プロバイダ・コンピューティング・デバイス160)と通信するように構成されたプログラム可能論理アレイのような少なくとも1つの処理ユニット、サーバ、仮想サーバ、回路、エンジン、エージェント、機器、または他の論理デバイスを含むことができる。ネットワーク165は、インターネット、ローカル・エリア・ネットワーク、広域ネットワーク、メトロポリタン・ネットワーク、または他の領域ネットワーク、イントラネット、衛星ネットワーク、音声またはデータモバイル電話通信ネットワーク、およびその組合せのような他のコンピュータネットワークのようなコンピュータネットワークを含むことができる。
ネットワーク165は、コンテンツ配置または検索エンジン結果システムに関連付けられるか、または、サードパーティコンテンツ・アイテムをコンテンツ・アイテム配置キャンペーンの一部として含む権利があるディスプレイネットワーク、例えば、インターネット上で利用可能な情報リソースのサブセットを含むかまたは構成することができる。ネットワーク165を、クライアントコンピューティングデバイス150により提供、出力、描画、または表示できるウェブページ、ウェブサイト、ドメイン名、またはユニフォーム・リソース・ロケータのような情報リソースにアクセスするためにデータ処理システム105により使用することができる。例えば、ネットワーク165を介してクライアントコンピューティングデバイス150のユーザは、コンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160により提供された情報またはデータにアクセスすることができる。
ネットワーク165は、例えばポイント・ツー・ポイントネットワーク、ブロードキャストネットワーク、広帯域ネットワーク、ローカル・エリア・ネットワーク、電気通信ネットワーク、データ通信ネットワーク、コンピュータネットワーク、ATM(Asynchronous Transfer Mode))ネットワーク、SONET(Synchronous Optical Network)ネットワーク、SDH(Synchronous Digital Hierarchy)ネットワーク、ワイヤレスネットワークまたは有線ネットワーク、およびその組合せを含むことができる。ネットワーク165は赤外線チャネルまたは衛星帯域のような無線リンクを含むことができる。ネットワーク165のトポロジはバス、星形、またはリング・ネットワークトポロジを含んでもよい。ネットワーク165は高度携帯電話プロトコル(「AMPS」)、時分割多重アクセス(「TDMA」)、符号分割多重アクセス(「CDMA」)、グローバル・システム・フォー・モバイル・コミュニケーション(「GSM(登録商標)」)、汎用パケット無線サービス(「GPRS」)またはユニバーサル・モバイル電気通信システム(「UMTS」)を含む、モバイルデバイスの間で通信するために使用される任意の1つまたは複数のプロトコルを用いた携帯電話ネットワークを含むことができる。様々なタイプのデータが異なるプロトコルを介して送信されてもよい、または同一のタイプのデータが異なるプロトコルを介して送信されてもよい。
クライアントコンピューティングデバイス150、コンテンツ・プロバイダ・コンピューティング・デバイス155、およびサービス・プロバイダ・コンピューティング・デバイス160はそれぞれ、ネットワーク165を介して互いにまたはデータ処理システム105と通信するためのプロセッサを有するコンピューティングデバイスのような少なくとも1つの論理デバイスを含むことができる。クライアントコンピューティングデバイス150、コンテンツ・プロバイダ・コンピューティング・デバイス155、およびサービス・プロバイダ・コンピューティング・デバイス160はそれぞれ、少なくとも1つのデータセンタに配置された少なくとも1つのサーバ、プロセッサまたはメモリ、または複数の計算リソースまたはサーバを含むことができる。クライアントコンピューティングデバイス150、コンテンツ・プロバイダ・コンピューティング・デバイス155、およびサービス・プロバイダ・コンピューティング・デバイス160はそれぞれ少なくとも1つのコンピューティングデバイスのようなデスクトップコンピュータ、ラップトップ、タブレット、携帯情報端末、スマートフォン、ポータブルコンピュータ、サーバ、シン・クライアントコンピュータ、仮想サーバ、または他のコンピューティングデバイスを含むことができる。
クライアントコンピューティングデバイス150は少なくとも1つのセンサ151、少なくとも1つのトランスデューサ152、少なくとも1つのオーディオ・ドライバ153、および少なくとも1つのスピーカ154を含むことができる。センサ151はマイクロフォンまたはオーディオ入力センサを含むことができる。トランスデューサ152は当該オーディオ入力を電子信号を変換することができる。オーディオ・ドライバ153は、オーディオ入力を処理するかまたはオーディオ出力を提供するようにクライアントコンピューティングデバイス150の他のコンポーネントのうちセンサ151、トランスデューサ152またはオーディオ・ドライバ153を制御するために、クライアントコンピューティングデバイス150の1つまたは複数のプロセッサにより実行されるスクリプトまたはプログラムを含むことができる。スピーカ154は当該オーディオ出力信号を送信することができる。
クライアントコンピューティングデバイス150を、音声クエリをオーディオ入力としてクライアントコンピューティングデバイス150(センサ151を介して)に入力し、データ処理システム105(またはコンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160)からクライアントコンピューティングデバイス150に提供できるコンピュータ生成された音声の形でオーディオ出力を受信し、スピーカ154から出力する。当該コンピュータ生成された音声は、実際の人またはコンピュータ生成された言語からの記録を含むことができるエンド・ユーザに関連付けることができる。
コンテンツ・プロバイダ・コンピューティング・デバイス155は、クライアントコンピューティングデバイス150によりオーディオ出力コンテンツ・アイテムとして表示するためのオーディオベースのコンテンツ・アイテムを提供することができる。当該コンテンツ・アイテムは「Would you like me to order you a taxi?」と述べる音声ベースのメッセージのような商品またはサービスの申し出を含むことができる。例えば、コンテンツ・プロバイダ・コンピューティング・デバイス155は、音声ベースのクエリに応答して提供できる一連のオーディオコンテンツ・アイテムを格納するためのメモリを含むことができる。コンテンツ・プロバイダ・コンピューティング・デバイス155はまた、オーディオベースのコンテンツ・アイテム(または他のコンテンツ・アイテム)をデータ処理システム105に提供することができる。それらをデータ・リポジトリ145に格納することができる。データ処理システム105は、オーディオコンポーネントを含み、当該コンテンツ・アイテムをクライアントコンピューティングデバイス150に提供する(または提供するようにコンテンツ・プロバイダ・コンピューティング・デバイス155に指示する)コンテンツ・アイテムを選択することができる。当該オーディオベースのコンテンツ・アイテムは、排他的にオーディオであることができ、または、テキスト、画像、またはビデオデータと組み合わせることができる。当該コンテンツ・アイテムは、描画するときにオーディオ出力または音波を提供する1つまたは複数のオーディオファイルを含むことができる。当該コンテンツ・アイテムはオーディオコンテンツに加えてまたはその代わりに他のコンテンツ(例えば、テキスト、ビデオ、または画像コンテンツ)を含むことができる。例えば、当該コンテンツ・アイテムは、オーディオファイルを含まずオーディオ出力を描画できないテキストまたは画像ファイル、またはその組合せを含むことができる。
サービス・プロバイダ・コンピューティング・デバイス160は、少なくとも1つのサービス・プロバイダ自然言語プロセッサ(NLP)コンポーネント161および少なくとも1つのサービス・プロバイダ・インタフェース162を含むことができる。サービス・プロバイダNLPコンポーネント161(またはサービス・プロバイダ・コンピューティング・デバイス160のダイレクト・アクションAPIのような他のコンポーネント)は、クライアントコンピューティングデバイス150(データ処理システム105を介してまたはデータ処理システム105をバイパスして)と協調して、クライアントコンピューティングデバイス150およびサービス・プロバイダ・コンピューティング・デバイス160の間で行き来するリアルタイム音声またはオーディオベースの会話(例えば、セッション)を生成することができる。例えば、サービス・プロバイダ・インタフェース162はデータメッセージを受信し、または、データメッセージをデータ処理システム105のダイレクト・アクションAPI135に提供することができる。サービス・プロバイダ・コンピューティング・デバイス160およびコンテンツ・プロバイダ・コンピューティング・デバイス155を同一のエンティティに関連付けることができる。例えば、コンテンツ・プロバイダ・コンピューティング・デバイス155は、カーシェア・サービスに対して利用可能なコンテンツ・アイテムを生成、格納、または作成でき、サービス・プロバイダ・コンピューティング・デバイス160は、セッションをクライアントコンピューティングデバイス150とを確立して、タクシーまたは当該カーシェアサービスの車の配送がクライアントコンピューティングデバイス150のエンド・ユーザをピックアップするようにアレンジすることができる。データ処理システム105はまた、ダイレクト・アクションAPI135、NLPコンポーネント110または他のコンポーネントを介して、クライアントコンピューティングデバイス150との当該セッションを確立して、サービス・プロバイダ・コンピューティング・デバイス160を含むかまたはバイパスして、例えばタクシーまたは当該カーシェアサービスの車の配送をアレンジすることができる。
データ・リポジトリ145は1つまたは複数のローカルまたは分散データベースを含むことができ、データベース管理システムを含むことができる。データ・リポジトリ145はコンピュータデータ記憶またはメモリを含むことができ、他のデータのうち1つまたは複数のパラメータ146、1つまたは複数のポリシ147、コンテンツ・データ148、またはテンプレート149を格納することができる。パラメータ146、ポリシ147、およびテンプレート149は、クライアントコンピューティングデバイス150(またはサービス・プロバイダ・コンピューティング・デバイス160)とデータ処理システム105の間の音声ベースのセッションに関するルールのような情報を含むことができる。コンテンツ・データ148は、オーディオ出力に対するコンテンツ・アイテムまたは関連付けられたメタデータ、ならびにクライアントコンピューティングデバイス150との1つまたは複数の通信セッションの一部であることができる入力オーディオメッセージを含むことができる。
データ処理システム105は、入力オーディオ信号をデータ処理システム105のインタフェース115に通信して、当該クライアントコンピューティングデバイスのコンポーネントを駆動して、出力オーディオ信号を描画するアプリのような、クライアントコンピューティングデバイス150にインストールされたアプリケーション、スクリプトまたはプログラムを含むことができる。データ処理システム105はオーディオ入力信号を含むかまたは識別するデータパケットまたは他の信号を受信することができる。例えば、データ処理システム105はNLPコンポーネント110の少なくとも一部を実行して、当該オーディオ入力信号を受信することができる。
NLPコンポーネント110は、当該入力信号を(例えば、データ・リポジトリ145内の)格納された、代表的な組のオーディオ波形と比較し、最も近いマッチを選択することによって、当該オーディオ入力信号を認識されたテキストに変換することができる。当該代表的な波形は多数のユーザにわたって生成され、会話サンプルで補強することができる。当該オーディオ信号を認識されたテキストに変換された後、NLPコンポーネント110は、例えばユーザにわたるトレーニングを介してまたはマニュアル仕様を通じて、データ処理システム105がサービス提供できるアクションに関連付けられる単語に当該テキストをマッチすることができる。
当該オーディオ入力信号は、当該クライアントコンピューティングデバイスのセンサ151(例えば、マイクロフォン)により検出されることができる。トランスデューサ152、オーディオ・ドライバ153、または他のコンポーネントを介して、クライアントコンピューティングデバイス150は当該オーディオ入力信号をデータ処理システム105に(例えば、ネットワーク165を介して)提供することができる。当該オーディオ入力信号を、(例えば、インタフェース115により)受信し、NLPコンポーネント110に提供するか、または、データ・リポジトリ145にコンテンツ・データ148として格納することができる。
システム100は、音声起動されたデータパケット(または他のプロトコル)環境におけるシーケンス依存動作を含むアクションデータ構造の処理を最適化することができる。例えば、データ処理システム105は、音声起動されたアシスタントサービス、音声コマンドデバイス、インテリジェント・パーソナル・アシスタント、知識ナビゲータ、イベント計画、または他のアシスタントプログラムを含むことができるかまたはその一部であることができる。データ処理システム105は、クライアントコンピューティングデバイス150から表示するためのオーディオ出力の1つまたは複数のインスタンスを提供して、この入力オーディオ信号に関連するタスクを実現することができる。当該タスクはサービス・プロバイダ・コンピューティング・デバイス160または他のサードパーティコンピューティングデバイスを含み、例えば、サービス・プロバイダ・コンピューティング・デバイス160または他のサードパーティコンピューティングデバイスと通信して、ディナー予約を行うかまたは映画チケットを購入することができる。例えば、エンド・ユーザは、「OK, I would like to go to go dinner tonight」の入力オーディオ信号をクライアントコンピューティングデバイス150に入力できる。この入力オーディオ信号を、クライアントコンピューティングデバイス150のセンサ151(例えば、マイクロフォン)により検出して、(例えば、トランスデューサ152により)をデータ処理システム105に送信するためのデータパケットまたは他のプロトコルベースの構造に変換することができる。
NLPコンポーネント110は少なくとも1つの第1の入力オーディオ信号を受信または取得することができる。例えば、インタフェース115およびコンピュータネットワーク165を介して、NLPコンポーネント110は第1の入力オーディオ信号をクライアントコンピューティングデバイス150から取得することができる。NLPコンポーネント110は、第1の入力オーディオ信号からデータを抽出し、または、第1の入力オーディオ信号を解析して、少なくとも1つの第1の要求または第1の要求に対応する少なくとも1つの第1のトリガキーワードを識別することができる。第1の要求は、第1の入力オーディオ信号の意図または主題、例えば、ディナーを食べる意図を示すことができる。第1のトリガキーワードは行われる可能性があるアクションのタイプを示すことができる。例えば、NLPコンポーネント110は第1の入力オーディオ信号を解析して、夕方のディナーのために家を出るための少なくとも1つの要求を識別することができる。第1のトリガキーワードは、取るべきアクションを示す少なくとも1つの単語、フレーズ、語源または部分語、または派生物を含むことができる。例えば、当該入力オーディオ信号からのトリガキーワード「go」または「to go to」は輸送に対する必要性を示すことができる。本例では、当該入力オーディオ信号(または識別された要求)は輸送の意図を直接表現しないが、当該トリガキーワードは、輸送が、当該要求により示される少なくとも1つの他のアクションに対する補助またはサブアクションを示す。
NLPコンポーネント110は第2の入力オーディオ信号を受信することができる。例えば、第1のオーディオ入力信号は「OK, I would like to go to go dinner tonight」であることができ、第2のオーディオ入力信号は「OK, I would like to catch a movie later」であることができる。NLPコンポーネント110は、第2の入力オーディオ信号を任意のクライアントコンピューティングデバイス150から、第1の入力オーディオ信号が取得された類似の方式で、例えば、ネットワーク165を介して受信または取得することができる。NLPコンポーネント110は、データを第2の入力オーディオ信号から抽出し、または、第2の入力オーディオ信号を解析して、少なくとも1つの第2の要求または第2の要求に対応する少なくとも1つの第2のトリガキーワードを識別することができる。第2の要求は、第2の入力オーディオ信号の意図または主題、例えば、映画館で映画を観る意図を示すことができる。第2のトリガキーワードは行われる可能性があるアクションのタイプを示すことができる。例えば、NLPコンポーネント110は、第2の入力オーディオ信号を解析して、夕方に映画を観るために家を出る少なくとも1つの要求を識別することができる。第2のトリガキーワードは、取るべきアクションを示す少なくとも1つの単語、フレーズ、語源または部分語、または派生物を含むことができる。例えば、第2の入力オーディオ信号からのトリガキーワード「to catch」は、輸送に対する必要性を、例えば、当該要求により示される少なくとも1つの他のアクションに対する補助またはサブアクションとして、示すことができる。
ダイレクト・アクションAPI135は、プログラムまたはスクリプトを、例えばNLPコンポーネント110、スレッド最適化コンポーネント120、またはコンテンツ・セレクタ・コンポーネント125から実行して、タスクまたはアクションを実施するか、または、入力オーディオ信号に応答してコンテンツ・アイテムを識別することができる。ダイレクト・アクションAPI135はデータ処理システム105により決定されるものとして、指定されたアクションを実行してエンド・ユーザの意図を満たすことができる。その入力で指定されたアクションに依存して、ダイレクト・アクションAPI135は、ユーザ要求を満たすのに必要なパラメータを識別するコードまたはダイアログスクリプトを実行することができる。かかるコードは、例えば、ホーム・オートメーションサービスの名前のようなデータ・リポジトリ145内の追加の情報を検索することができる、またはクライアントコンピューティングデバイス150で描画するためのオーディオ出力を提供して、エンド・ユーザに要求されたタクシーの意図した宛先、観る映画のジャンル、またはディナーに行くレストランのタイプのような質問をすることができる。ダイレクト・アクションAPI135は必要なパラメータを決定し、当該情報をアクションデータ構造にパッケージ化することができる。当該アクションデータ構造は次いで、コンテンツ・セレクタ・コンポーネント125のような別のコンポーネントにまたは満たすべきサービス・プロバイダ・コンピューティング・デバイス160(またはコンテンツ・プロバイダ・コンピューティング・デバイス155)に送信することができる。
データ処理システム105のダイレクト・アクションAPI135は、当該要求または当該トリガキーワードに基づいて、当該スレッドのアクションに対するデータ構造を生成することができる。当該アクションデータ構造を当該要求に応答して生成することができる。当該アクションデータ構造は、サービス・プロバイダ・コンピューティング・デバイス160により送受信されるメッセージに含まれることができる。NLPコンポーネント110により解析された当該要求に基づいて、ダイレクト・アクションAPI135は複数のサービス・プロバイダ・コンピューティング・デバイス160のうちどれに当該メッセージを送信すべきかを判定することができる。
ダイレクト・アクションAPI135は、第1のトリガキーワードに基づいておよび第1の要求に応答して、第1のアクションデータ構造を生成でき、第2のトリガキーワードに基づいておよび第2の要求に応答して第2のアクションデータ構造を生成することができる。例えば、第1の入力オーディオ信号が「go to dinner tonight」を含む場合、NLPコンポーネント110はトリガ単語「tonight」およびディナーの示唆または予約の要求を識別することができる。ダイレクト・アクションAPI135は当該要求を、レストランのサービス・プロバイダ・コンピューティング・デバイス160(またはコンテンツ・プロバイダ・コンピューティング・デバイス155)へのメッセージとして送信するための第1のアクションデータ構造にパッケージ化することができる。第1の入力オーディオ信号は、当該ディナーアクションに付属的な他のアクションを示す他の要求またはトリガキーワードを含むことができる。これらのアクションは第1のアクションデータ構造に含まれることができる。例えば、NLPコンポーネント110は、「OK, I would like to go to go dinner tonight」という、ディナーへの輸送に関する第1の要求または第1のトリガキーワード(追加のアクション)を第1の入力オーディオ信号から識別することができる。
例えば、第2の入力オーディオ信号が「catch a movie later」を含む場合、NLPコンポーネント110は、映画を観る要求をトリガキーワード「catch」または「later」で識別することができる。ダイレクト・アクションAPI135は当該要求を、映画会社または映画館のサービス・プロバイダ・コンピューティング・デバイス160(またはコンテンツ・プロバイダ・コンピューティング・デバイス155)に対するメッセージとして送信するための第2のアクションデータ構造へパッケージ化することができる。第2の入力オーディオ信号は、当該映画アクションに付属的な他のアクションを示す他の第2の要求または第2のトリガキーワードを含むことができる。これらのアクションは第2のアクションデータ構造に含まれることができる。例えば、NLPコンポーネント110は、映画館(追加のアクション)への輸送に関する第1の要求または第1のトリガキーワードを、「OK, I would like to catch a movie later」という第2の入力オーディオ信号から識別することができる。
第1のおよび第2の、または他の任意のアクションデータ構造をまた、コンテンツ・セレクタ・コンポーネント125に渡すことができる。当該アクションデータ構造は、要求に関連付けられた1つまたは複数のアクションを完了するための情報を含むことができる。本例では、当該情報は、レストランまたは映画関心インジケータ、位置情報、レストランまたはレストランのタイプの識別または位置、レストラン予約情報、映画館での映画上映時間、映画館位置情報、またはピックアップ位置および宛先位置を含むことができる。ダイレクト・アクションAPI135は、どのフィールドを当該アクションデータ構造に含めるべきかを判定するためにテンプレート149をリポジトリ145から取り出すことができる。ダイレクト・アクションAPI135は、当該データ構造のフィールドに関する情報を取得するために、コンテンツをリポジトリ145から取り出すことができる。ダイレクト・アクションAPI135は、当該テンプレートからのフィールドをその情報で埋めて、当該データ構造を生成することができる。ダイレクト・アクションAPI135はまた、当該フィールドを入力オーディオ信号またはサードパーティソースからのデータで埋めることができる。テンプレート149を、サービス・プロバイダのカテゴリに対して標準化するか、または、特定のサービス・プロバイダに対して標準化することができる。例えば、乗車共有サービス・プロバイダは以下の標準化されたテンプレート149を使用して当該データ構造{client_device_identifier; authentication_credentials; pick_up_location; destination_location; no_passengers; service_level}を生成することができる。当該データ構造は可変フィールドを含むことができる。当該可変フィールドは、例えば、データ構造の少なくとも1つのアクションにより示されるかまたはそれに関連する識別された複数のアクションのシーケンスまたは順序動作を示すことができる。ダイレクト・アクションAPI135は、可変フィールドを含む当該データ構造のフィールドを埋めることができる。ダイレクト・アクションAPI135は、第1のアクションが終了した後に開始する第2のアクションのようなアクションの間のシーケンス依存性に基づいて、データをデータ構造の1つまたは複数の可変フィールドに埋めることができる。
ダイレクト・アクションAPI135は、アクションデータ構造に対応するデータパケットを含むデータ送信を構築することができる。例えば、当該データ送信は、当該アクションデータ構造のパケット化されたバージョン、例えば、当該データ構造により表された情報を示すヘッダおよびペイロード領域を有するデータパケットを含むことができる。当該データ送信を、データ処理システム105を介して、サービス・プロバイダ・コンピューティング・デバイス160およびクライアントコンピューティングデバイス150の間の少なくとも1つの通信セッションを確立(例えば、参加)するために使用することができる。セッションハンドラコンポーネント140はインタフェース115を介して当該通信セッションを確立または識別することができる。例えば、アクション第1のおよび第2のデータ構造(またはそれらの対応するパケット化されたデータ送信)を単一のスレッドにマージまたは関連付けることに続いて、データ処理システム105は当該データ送信をサービス・プロバイダ・コンピューティング・デバイス160に提供することができる。当該通信セッションの通信の一部として、サービス・プロバイダ・コンピューティング・デバイス160はまた、データ処理システム105を介して、データパケット(または他のデータメッセージ)をクライアントコンピューティングデバイス105から受信することができる。例えば、データ処理システム105は、当該通信セッションの一部として、内向きデータメッセージをクライアントコンピューティングデバイス150から受信し、サービス・プロバイダ・コンピューティング・デバイス160に通すことができる。
スレッド最適化コンポーネント120は、第1のおよび第2の(および他の任意の)データ送信のデータパケットを取得またはそれにアクセスすることができる。例えば、ダイレクト・アクションAPI135は当該送信(例えば、対応するデータパケット)をデータ・リポジトリ145に記憶のために提供することができる。それらを、スレッド最適化コンポーネント120により取り出すことができる。スレッド最適化コンポーネント120はまた、当該データ送信のデータパケット(または他のプロトコルベースの構造)を、データ・リポジトリ145をバイパスしてダイレクト・アクションAPI135(または他のデータ処理システム105コンポーネント)から受信することができる。
スレッド最適化コンポーネント120は、それぞれ複数のアクションデータ構造に対応する複数のデータ送信のデータパケットから情報を解析または抽出することができる。例えば、スレッド最適化コンポーネント120は、少なくとも1つのシーケンス依存性パラメータを決定するために、ヒューリスティック技術を第1のデータ送信のデータパケットに(または対応する第1のデータ構造に)適用し、第2のデータ送信のデータパケットに(または対応する第2のデータ構造に)適用することができる。当該ヒューリスティックまたは他の統計的技術は、当該データ送信により示されるアクションのシーケンス依存性を示す第1のおよび第2のデータ送信(または対応するデータ構造)の中の確実性パターンの閾値量を決定または識別することができる。
当該シーケンス依存性パラメータは、互いに対する動作、時間、またはシーケンス依存性の順序を有するデータ送信(または対応するアクションデータ構造)により表されるアクションの(例えば、閾値レベルまたは他のベンチマークに対する)存在または可能性を示すことができる。当該シーケンス依存動作またはアクションは、当該シーケンス依存性パラメータにより示され、既知の、示唆された、要求された、または特定の順序で発生するアクションの数を含むことができる。例えば、家から映画館に行き、次いで家に戻ることは3つのシーケンス依存動作またはアクションを含むことができる。この例における第1のアクションは家から映画館に移動することを含む。第2のアクションは映画館で映画を観ることを含む。第3のアクションは映画館から家に戻ることを含む。
これらの3つの(およびおそらく他の)アクションを、ダイレクト・アクションAPI135により、入力オーディオ信号「OK, I would like to catch a movie later」に対応する要求またはトリガキーワードから決定することができる。本例では、当該シーケンス内の第2のアクション(映画を観ること)は第1のアクション(家から映画館に行くこと)に続きそれに依存し、第3のアクション(家に戻ること)は第1のアクションおよび第2のアクションに続きそれに依存する。第3のアクションは第2のアクションに続きそれに依存すると考えることができ、そのような意図を表した際、データ処理システム105は同様に、家に戻る前にエンド・ユーザが映画館で映画を観ると判定または予測する。
当該シーケンス依存性パラメータに基づいて、スレッド最適化コンポーネント120は、複数のパケット化されたデータ送信(またはそれらの対応するアクションデータ構造)を単一のスレッドにマージすることができる。当該単一のスレッドは、アクションならびに他のデータ(例えば、メタデータまたはサードパーティデータ)を複数のデータアクション構造から識別するデータを含むことができる。当該単一のスレッドは、パケット化された(または他のプロトコルベースの)形態で、例えば、第1のおよび第2のデータ送信と同一のフォーマットであることができる。当該単一のスレッドはまた、例えば、ダイレクト・アクションAPI135により生成されたデータ構造フォーマット、または少なくとも1つのテンプレート149、ポリシ147、またはパラメータ146のフォーマットであることができる。当該単一のスレッドは、1つまたは複数のデータ送信からのまたは1つまたは複数のアクションデータ構造からのアクションの関連付けまたはリンクを含むかまたは示すことができる。
当該通信セッションを介して当該アクションデータ構造により示されるデータをサービス・プロバイダ・コンピューティング・デバイス160に送信する前に、当該データ送信またはアクションデータ構造を、スレッド最適化コンポーネント120により互いにマージまたは関連付けて、当該単一のスレッドを生成することができる。
本例では、ダイレクト・アクションAPI135または他のデータ処理システム105コンポーネント(例えば、インタフェース115)は当該単一のスレッドにより示されるデータの少なくとも一部を、当該単一のスレッドの合併または生成に続いて、サービス・プロバイダ・コンピューティング・デバイス160に初めて送信することができる。例えば、当該単一のスレッドの生成の前に、データ処理システム105は、第1のまたは第2の(または他の任意の)データ構造に関連付けられたデータを、遅延させ、防止し、差し控え、または送信していなくてもよい。幾つかの例では、独立なデータ構造により示されるデータの少なくとも幾つかを、当該単一のスレッドの生成の前に、データ処理システム105によりそこから、サービス・プロバイダ・コンピューティング・デバイス160に提供することができる。
スレッド最適化コンポーネント120は、当該シーケンス依存性パラメータに基づいて、当該データ送信(または対応するアクションデータ構造)を当該単一のスレッドにマージ、または統合もしくは関連付けることができる。例えば、第1のデータ送信(および第1のデータ構造)は第1の入力オーディオ信号「OK, I would like to go to go dinner tonight」に関連付けられたアクションを表すことができ、第2のデータ送信(および第2のデータ構造)は第2の入力オーディオ信号「OK, I would like to catch a movie later」に関連付けられたアクションを表すことができる。第1のおよび第2の(または他の任意の)入力オーディオ信号は、逐次的(1分未満で互いに続く)であってもよく、別々の時間(例えば、1分より大きい)で互いから分離してもよく、同一のまたは異なるクライアントコンピューティングデバイス150から発生することができる。スレッド最適化コンポーネント120は、この情報を表すデータパケット(または他のデータ)を取得でき、少なくとも1つのシーケンス依存性パラメータを決定することができる。例えば、当該シーケンス依存性パラメータは、映画館から家に戻るアクションが当該映画を観るアクションの後に発生すること、または当該映画を観るアクションがディナーを食べるアクションの後に発生するかと発生すると予測されることを示すことができる。
(任意のデータ構造またはフォーマットでの)単一のスレッドは、一連のアクションのような、1つまたは複数の入力オーディオ信号(または対応するデータ構造またはデータ送信)に対応する1組のシーケンス依存動作を示すことができる。当該スレッドは、第1のアクション、第2のアクション、および第3のアクションのような任意の複数のアクションを含むことができる。例えば、第1の入力オーディオ信号「OK, I would like to go to go dinner tonight」、および第2の入力オーディオ信号「OK, I would like to catch a movie later」の合併は、ディナーおよび映画に参加する関心を示す少なくとも1つの要求、および輸送に対する必要性を示す少なくとも1つのトリガキーワード、例えば、「go」を含むことができる。スレッド最適化コンポーネント120は、当該アクションの間の少なくとも1つのシーケンス、時間的な、または動作依存性の順序を示す少なくとも1つのシーケンス依存性パラメータを識別でき、当該複数の入力オーディオ信号(または対応するテンプレートベースのデータ構造またはパケット/プロトコルベースのデータ送信)を結合するための単一のスレッドを生成することができる。スレッド最適化コンポーネント120は、ディナーアクション(第1のアクション)、映画アクション(第2のアクション)、および家への輸送アクション(第3のアクション)のような少なくとも3つのアクションを示す単一のスレッドを生成することができる。本例では、当該要求または当該トリガキーワードから、スレッド最適化コンポーネント120は、当該3つのアクションを示す複数の別々の入力から単一のスレッドを生成する。当該単一のスレッドは、ディナーアクションへの初期輸送のような他のアクションを含むことができる。
データ処理システム105またはスレッド最適化コンポーネント120のようなそのコンポーネントは、当該スレッドのアクションがシーケンス依存動作であると判定することができる。例えば、当該スレッド最適化コンポーネントは、映画を観る第2のアクションがディナーを食べる第1のアクションに続き、映画館から家に移動する第3のアクションが当該映画を観る第2のアクションの後であると判定することができる。スレッド最適化コンポーネント120は、当該シーケンス依存アクションの順序を決定または推定するために、データ・リポジトリ145内のパラメータ146またはポリシ147にアクセスすることができる。例えば、パラメータ146またはポリシ147は、輸送アクション(例えば、家へのタクシー)がイベントアクション(例えば、映画を観ること)の後に発生しうることを示しうる。
コンテンツ・セレクタ・コンポーネント125は、当該単一のスレッドのアクションの何れかの指示を取得することができる。例えば、スレッド最適化コンポーネント120は、第3の(または他の任意の)アクションを示す当該単一のスレッドの少なくとも一部をコンテンツ・セレクタ・コンポーネント125に直接または間接に(例えば、データ・リポジトリ145を介して)提供することができる。コンテンツ・セレクタ・コンポーネント125はこの情報をデータ・リポジトリ145から取得することができる。当該情報をコンテンツ・データ148の一部として格納することができる。第3のアクションの指示は、コンテンツ・セレクタ・コンポーネント125に、最終目的地への乗車のような、映画館の位置からクライアントコンピューティングデバイス150により決定または示される位置への輸送に対する必要性を知らせることができる。
コンテンツ・セレクタ・コンポーネント125は当該スレッド内の後のアクションの指示を少なくとも1つのより早いアクションの発生の前に取得することができる。例えば、コンテンツ・セレクタ・コンポーネント125は、映画が映画館で上映される(第2のアクション)前に、または入力オーディオ信号をクライアントコンピューティングデバイス150に入力した人がレストランでディナーを食べる(第1のアクション)前に、第3のアクションの指示(例えば、映画館からの乗車に対する必要性)を受信することができる。コンテンツ・セレクタ・コンポーネント125は、当該スレッドの少なくとも1つのアクションの完了の前に、当該スレッドの少なくとも1つのアクションの指示を取得することができる。
当該シーケンス依存スレッド内の少なくとも1つの過去のアクションの発生の前にコンテンツ・セレクタ・コンポーネント125により受信された情報、例えば、第3のアクションの指示から、コンテンツ・セレクタ・コンポーネント125は少なくとも1つのコンテンツ・アイテムを識別することができる。当該コンテンツ・アイテムは第3の(または他の任意の)アクションに応答または関連することができる。例えば、当該コンテンツ・アイテムは、輸送の必要性を示す第3のアクションに応答して、カーシェア会社のオーディオメッセージ提供サービスを含むことができる。コンテンツ・セレクタ・コンポーネント125はデータ・リポジトリ145に問い合わせて、当該コンテンツ・アイテムを、例えば、コンテンツ・データ148から選択または識別することができる。コンテンツ・セレクタ・コンポーネント125はまた、当該コンテンツ・アイテムをコンテンツ・プロバイダ・コンピューティング・デバイス155から選択することができる。例えばデータ処理システム105から受信されたクエリに応答して、コンテンツ・プロバイダ・コンピューティング・デバイス155はコンテンツ・アイテムをクライアントコンピューティングデバイス150による最終出力のためにデータ処理システム105(またはそのコンポーネント)に提供することができる。
オーディオ信号生成器コンポーネント130は、第3の(または他の任意の)アクションに応答して当該コンテンツ・アイテムを含む出力信号を生成または取得することができる。例えば、データ処理システム105は、当該オーディオ信号生成器コンポーネントを実行して、当該コンテンツ・アイテムに対応する出力信号を生成または作成することができる。データ処理システム105のインタフェース115は、コンピュータネットワーク165を介して当該出力信号を含む1つまたは複数のデータパケットを例えば、当該通信セッションの一部としてクライアントコンピューティングデバイス150に提供または送信することができる。インタフェース115は例えば、データパケットを用いて情報を送受信するように設計され、構成され、構築され、または動作することができる。インタフェース115は、ネットワークプロトコルのような1つまたは複数のプロトコルを用いて情報を送受信することができる。インタフェース115は、ハードウェアインタフェース、ソフトウェアインタフェース、有線インタフェース、またはワイヤレスインタフェースを含むことができる。インタフェース115は、或るフォーマットから別のフォーマットへのデータ変換またはデータ・フォーマットを促進することができる。例えば、インタフェース115は、システム100のソフトウェアコンポーネントのような、様々なコンポーネントの間で通信するための定義を含むアプリケーション・プログラミング・インタフェースを含むことができる。
例えばデータ処理システム105は当該出力信号をデータ・リポジトリ145からまたはオーディオ信号生成器コンポーネント130からクライアントコンピューティングデバイス150に提供することができる。データ処理システム105はまた、データパケット送信を介して、コンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160に、当該出力信号をクライアントコンピューティングデバイス150に提供するように指示することができる。当該出力信号を、取得し、生成し、1つまたは複数のデータパケット(または他の通信プロトコル)に変換し、または1つまたは複数のデータパケット(または他の通信プロトコル)としてデータ処理システム105(または他のコンピューティングデバイス)からクライアントコンピューティングデバイス150に送信することができる。
コンテンツ・セレクタ・コンポーネント125は、当該単一のスレッドにより示される1組のシーケンス依存動作における後のアクションにスキップして、当該後のアクションに対応する活動に対する発生の前(および即時の必要性の前)に当該後のアクションに対するコンテンツ・アイテムを選択することができる。例えば、第1の過去のアクションに対するコンテンツ・アイテムを選択する前に第2の後続のアクションに対するコンテンツ・アイテムを選択するために後の順序付けられたアクションにスキップすることで、データ処理システム105は、後続のアクションに対するコンテンツ・アイテムを選択するための過去のアクションに関連する情報を最初に処理する必要がない。これは、さもなければ第2のアクションに対するコンテンツ・アイテムを選択する前に(第1のアクションに対する)コンテンツ・アイテムを選択することに関連付けられるデータ送信のプロセッサ利用、電力消費および帯域幅を減らす。
コンテンツ・セレクタ・コンポーネント125は、当該コンテンツ・アイテムを、(後続のまたは後の)アクションに対してリアルタイムコンテンツ選択プロセスの一部として選択することができる。例えば、当該コンテンツ・アイテムを、当該入力オーディオ信号への直接応答の会話方式でオーディオ出力として送信するために当該クライアントコンピューティングデバイスに提供することができる。当該コンテンツ・アイテムを識別し当該コンテンツ・アイテムをクライアントコンピューティングデバイス150に提供するためのリアルタイムコンテンツ選択プロセスは、当該入力オーディオ信号の時刻から1分以内に発生でき、リアルタイムと考えることができる。
例えばオーディオ信号生成器コンポーネント130により取得または生成され、インタフェース115およびコンピュータネットワーク165を介してクライアントコンピューティングデバイス150に送信された、コンテンツ・プロバイダ・コンピューティング・デバイス155に対応するコンテンツ・アイテム(またはサービス・プロバイダ・コンピューティング・デバイス160に対応するデータ)に対応する出力信号はクライアントコンピューティングデバイス150に、オーディオ・ドライバ153を実行してスピーカ154を駆動し、当該出力信号に対応する音波を生成させることができる。当該音波は、当該コンテンツ・アイテムの単語もしくは当該コンテンツ・アイテムに対応する単語、または、後の(例えば、第2のまたは第3の)アクションに対する他のデータを含むことができる。当該コンテンツ・アイテムに対応する出力信号はまた、当該入力オーディオ信号のソースであるクライアントコンピューティングデバイス150上でまたは異なるクライアントコンピューティングデバイス150(例えば、ウェラブルデバイスのコンピューティングデバイス)上でオーディオ要素なしに描画できるテキストまたは画像メッセージとして描画する、非オーディオ・コンテンツ・アイテムを含むことができる。
データ処理システム105は、当該入力オーディオ信号に対する直接的またはリアルタイムな応答におけるアクションに応答して当該コンテンツ・アイテムまたは他のデータを含む出力信号を提供でき、その結果、データ処理システム105とクライアントコンピューティングデバイス150の間の通信セッションの一部であるコンピュータネットワーク165を介したパケット・ベースのデータ送信は、リアルタイムな人から人への会話の流れと感覚を有する。このパケット・ベースのデータ送信通信セッションはまた、コンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160を含むことができる。
コンテンツ・セレクタ・コンポーネント125は、シーケンス内の任意の過去のアクションに対する任意のコンテンツ・アイテムを選択する前に、シーケンス依存の1組のアクションにおける第2の(または任意の非第1の)アクションに応答して提供されたコンテンツ・アイテムを選択することができる。これは、過去のアクションに対応するデータの少なくとも幾つかを処理する必要性を回避する。これは、第2のコンテンツ・アイテムを、アクションのシーケンスの順序にマッチする順序で当該コンテンツ・アイテムが選択された場合に発生する削減された数の処理動作とともに選択させる。当該過去の(例えば、第1のおよび第2の)アクションに対するコンテンツ・アイテムを、例えば第2のアクションに対するコンテンツ・アイテムの選択の後に選択してもしなくてもよい。
コンテンツ・セレクタ・コンポーネント125は、同一のスレッドの1つまたは複数の要求の主題と異なる主題を示すスレッドの少なくとも1つのトリガキーワードに基づいて、(例えば、第2のアクションに対する)コンテンツ・アイテムを選択することができる。例えば、当該単一のスレッドの当該要求はディナー要求の主題(第1のアクション)、および映画要求の主題(第2のアクション)を示すことができる。この主題は輸送の要求を示さない。しかし、NLPコンポーネント110またはスレッド最適化コンポーネント120(またはダイレクト・アクションAPI135の一部として実行される他のデータ処理システム105コンポーネント)は、トリガキーワード「go」「go to」または「to go to」を識別でき、少なくとも当該トリガキーワードに部分的に基づいて輸送の要求を決定することができる。したがって、データ処理システム105は、当該入力オーディオ信号の主要な要求または主題ではない二次要求である入力オーディオ信号からアクションを推論することができる。
データ処理システム105は当該コンテンツ・アイテムを含む出力信号の送信を防止または遅延することができる。例えば、インタフェース115またはダイレクト・アクションAPI135介して実行されるスクリプトは、トリガ・イベントまで、コンテンツ・アイテムまたは当該単一のスレッドのアクションに対応する出力信号を含むデータパケットの送信を防止することができる。当該トリガ・イベントは、映画のスケジュールされた終了時刻のような、2時間または当該スレッド内のより早いアクションの発生と一致する時間のような、所定の時間期間の期限切れを含むことができる。当該トリガ・イベントはまた、データ処理システム105によりクライアントコンピューティングデバイス150から受信された認証指示を含むことができる。当該認証指示は、当該スレッドに関連付けられた後続のオーディオ入力として発生するが、当該入力オーディオ信号、テキストベースのまたは他の非可聴信号に続いて、データ処理システム105により受信でき、またはクライアントコンピューティングデバイス150によるコンテンツ・アイテムの受信を承認するクライアントコンピューティングデバイス150の設定の指示を含むことができる。
データ処理システム105はまた、当該スレッドの第2のアクションまたは第2のアクションに関連付けられたコンテンツ・アイテムの送信を遅延して、処理の利用を最適化することができる。例えば、データ処理システム105はコンテンツ・アイテム送信をデータセンタ利用のオフピークまたは非ピークの期間まで遅延することができる、これはピーク帯域幅利用、熱出力または冷却要件を減らすことで当該データセンタのより効率的な利用をもたらす。データ処理システム105はまた、データ処理システム105を含むネットワーク165またはデータセンタのデータセンタ利用率または帯域幅メトリックまたは要件に基づいて、車サービスの注文のような、当該コンテンツ・アイテムに関連付けられた変換または他の活動を開始することができる。
当該コンテンツ・アイテムは当該スレッドのアクションに対応でき、コンテンツ・セレクタ・コンポーネント125は、当該スレッドの1つの、複数の、または全てのアクションに対するコンテンツ・アイテムを選択することができる。スレッド最適化コンポーネント120は、アクションのシーケンス依存スレッド、例えば、「ディナー」(第1のアクション)「映画」(第2のアクション)および「映画の場所からの輸送」(第3のアクション)を識別することができる。
例えば、当該単一のスレッドに基づいて、第3のアクションに対するコンテンツ・アイテムを、当該オーディオ入力信号に応答して「Would you like a ride home from the movie theater?」と述べるオーディオ応答として、クライアントコンピューティングデバイス150で描画するために提供することができる。この描画に続いてまたはその前に、データ処理システム105は、コンテンツ・アイテム、例えば、第1のアクション(ディナー)に対する「the Italian restaurant downtown has an opening for 7pm tonight - are you interested?」を選択または提供でき、別のコンテンツ・アイテム、例えば、第2のアクション(映画)に対して「would you like tickets to the 9pm movie at the downtown theater?」を選択または提供することができる。データ処理システム105は、当該入力オーディオ信号に応答して、オーディオ出力コンテンツ・アイテムとしてクライアントコンピューティングデバイス150により描画するためにこれらのコンテンツ・アイテムを提供する(提供するようにコンテンツ・プロバイダ・コンピューティング・デバイス155に指示することを含む)ことができる。データ処理システム105は、インタフェース115を介して、これらのコンテンツ・アイテムを任意の順序で選択しまたはクライアントコンピューティングデバイス150に提供することができる。例えば、第3の(例えば、最後の)アクションに対するコンテンツ・アイテムを、当該スレッドの他のより早いアクションに対応するコンテンツ・アイテムの前に最初に選択または提供することができる。
データ処理システム105は、コンテンツ・アイテム「would you like a ride home from the movie theater?」に対する応答を受信できる。当該応答は、エンド・ユーザによりクライアントコンピューティングデバイス150に入力されデータ処理システム105により受信された入力オーディオ信号、例えば、「yes please」を含むことができる。データ処理システム105またはそのコンポーネント(例えば、スレッド最適化コンポーネント)は当該単一のスレッドの一部として当該応答を含むことができる。この応答に基づいて、ダイレクト・アクションAPI135は、(カーシェア会社のようなコンテンツ・アイテムに関連付けることができる)サービス・プロバイダ・コンピューティング・デバイス160と通信して、映画が終了する時刻に映画館の位置へタクシーまたは相乗り車をオーダすることができる。データ処理システム105は、データ・リポジトリ145から、またはサービス・プロバイダ・コンピューティング・デバイス160またはコンテンツ・プロバイダ・コンピューティング・デバイス155のような他のソースから、クライアントコンピューティングデバイス150とのデータパケット(または他のプロトコル)ベースのデータメッセージ通信の一部として、この位置情報または時刻情報を取得することができる。このオーダ(または他の変換)の確認を、「great, you will have a car waiting for you at 11pm outside the theater」のようなオーディオ出力をクライアントコンピューティングデバイス150に描画させるデータ処理システム105からの出力信号の形で、オーディオ通信としてデータ処理システム105からクライアントコンピューティングデバイス150に提供することができる。データ処理システム105は、ダイレクト・アクションAPI135を介して、サービス・プロバイダ・コンピューティング・デバイス160と通信して車のオーダを確認することができる。
データ処理システム105は、コンテンツ・アイテム(「would you like a ride home from the movie theater?」)に対する応答(例えば、「yes please」)を取得でき、パケット・ベースのデータメッセージを、サービス・プロバイダNPLコンポーネント161(またはサービス・プロバイダ・コンピューティング・デバイスの他のコンポーネント)にルーティングすることができる。このパケット・ベースのデータメッセージは、サービス・プロバイダ・コンピューティング・デバイス160に、変換に影響を及ぼして、例えば、映画館の外での車のピックアップ予約を行わせることができる。この変換、または確認された順序、(または当該スレッドの他の任意のアクションの他の任意の変換)は、当該スレッドの1つまたは複数のアクションの完了の前に、例えば映画の完了の前に、ならびに当該スレッドの1つまたは複数のアクションの完了に続いて、例えば、ディナーに続いて発生することができる。
シーケンス依存スレッド内の第3の最後のアクションに対するコンテンツ・アイテム「would you like a ride home from the movie theater」に対する応答「yes please」のような、当該スレッド内の後続のアクションコンテンツ・アイテムへの応答に基づいて、データ処理システム105は変換またはアクションを開始することができる。これは、エンド・ユーザが当該スレッドに関連付けられた任意のアクティビティを開始する前に、例えば、ディナー前または映画終了前に発生することができる。データ処理システム105のプロセッサは、そのカーシェアサービスからの車をオーダするスクリプトを実行するように、ダイレクト・アクションAPI135を起動することができる。ダイレクト・アクションAPI135は、データ・リポジトリ145からコンテンツ・データ148(またはパラメータ146またはポリシ147)を取得し、ならびにエンド・ユーザ同意によりクライアントコンピューティングデバイス150から受信されたデータを取得して、カーシェアサービスから車を予約するための位置、時間、ユーザアカウント、物流または他の情報を決定することができる。ダイレクト・アクションAPI135を用いて、データ処理システム105はまた、サービス・プロバイダ・コンピューティング・デバイス160と通信して、この例ではカーシェアのピックアップ予約を行うことによって当該変換を完了することができる。
ダイレクト・アクションAPI135は、当該スレッドのアクションを実現するための変換または活動を、当該スレッドに関連付けられた第1の入力オーディオ信号(例えば、「OK, I would like to go to go dinner and then a movie tonight」)のデータ処理システム105による受信から、当該スレッドのアクションの1つの完了に続く閾値時間期間まで(例えば、映画を観る第2のアクションの終了後15分まで)の或る時間期間中の任意の時点で、開始することができる。データ処理システム110はまた、エンド・ユーザが当該スレッドのアクションを完了したこと、例えば、家に戻ったかまたは映画館にもはや居ないことの指示のような、他の因子に基づいてこの時間期間の終了を決定することができる。データ処理システム105はまた、当該スレッドがキャンセルされたまたは休眠であることまたはエンド・ユーザが当該スレッドのアクションをキャンセルまたは完了したことの指示(ネットワーク165を介して送信されたデータメッセージ)を、クライアントコンピューティングデバイス150から取得することができる。
ダイレクト・アクションAPI135は、他の当該スレッドのアクションの完了または完了の時点に基づいて、当該スレッドのアクションを実現するための変換または活動を開始することができる。例えば、データ処理システム105は、商品またはサービス(カーシェアピックアップ)を直接に、または、当該スレッド内の過去のアクションの完了の閾値時間期間内にサービス・プロバイダ・コンピューティング・デバイス160と通信することによって、オーダすることができる。映画(第2のアクション)のスケジュールされたまたは実際の完了の前または後の5分(または他の時間期間)内に、データ処理システム105は、カーシェアサービスを確認またはオーダして、エンド・ユーザを映画館(後続の、第3のアクション)でピックアップするために車を送ることができる。これは、この時間期間内にエンド・ユーザコンピューティングデバイス150から受信された入力がない状態で、または、この時間期間内にエンド・ユーザコンピューティングデバイス150から受信されたプロンプトに応答して、発生することができる。
ダイレクト・アクションAPI135は、当該スレッドのシーケンス依存動作に関連付けられた変換または他の活動を任意の順序で開始することができる。例えば、ダイレクト・アクションAPI135(または他のデータ処理システム105のコンポーネント)は、当該シーケンス内のより早いスレッドに対応する活動を開始する前に(例えば、ディナー予約を行う前にまたは映画のチケットを注文する前に)、最終アクション(例えば、タクシーのオーダのような3つのアクションスレッド内の第3のアクション)に対応する活動を開始することができる。本例ではデータ処理システム105は、後の(例えば、第3の)アクションに対する活動の開始に続いて、より早い(例えば、第2の)アクションに対する活動を開始する。
コンテンツ・セレクタ・コンポーネント125は、複数のコンテンツ選択プロセスから生ずる複数のコンテンツ・アイテムを識別、選択、または取得することができる。当該コンテンツ選択プロセスは、スレッドを含む、データ処理システム105とクライアントコンピューティングデバイス150の間のリアルタイムな、例えば、同一の会話、通信セッション、または一連の通信セッションの一部であることができる。当該会話は、例えば時間または日の期間だけ互いから分離した非同期な通信を含むことができる。当該会話または通信セッションは、第1の入力オーディオ信号の受信から、当該スレッドの最終アクションの推定されたまたは既知の結論、データ処理システム105による当該スレッドの終了の指示の受信までの或る時間期間だけ継続することができる。これを当該スレッドのアクティブ時間期間と称することができる。例えば、3つのアクション(例えば、ディナー、映画、および家への輸送)を有するスレッドに対して、コンテンツ・セレクタ・コンポーネント125はアクションごとに少なくとも1つのコンテンツ・アイテムを選択することができる。コンテンツ・アイテム・セレクタ・コンポーネント125は、アクションごとに異なるコンテンツ選択プロセスからの結果を実行または取得することができる。当該コンテンツ選択プロセスにおいて、コンテンツ・プロバイダ・コンピューティング・デバイス150は、コンテンツ・セレクタ・コンポーネント125による選択のためのコンテンツ・アイテムを説明することができる。少なくとも3つのアクションを有するスレッドに対して、当該コンテンツ・アイテム・セレクタ・コンポーネントは、第1のコンテンツ選択プロセスを介して第1のアクションに対する第1のコンテンツ・アイテムを、第2のコンテンツ選択プロセスを介して第2のアクションに対する第2のコンテンツ・アイテムを、および第3のコンテンツ選択プロセスを介して第3のアクションに対する第3のコンテンツ・アイテムを選択または識別することができる。当該スレッドのアクティブ時間期間中にクライアントコンピューティングデバイス150により描画するためにこれらのコンテンツ・アイテムを提供するデータ処理システム105を、リアルタイムに動作していると考えることができる。本例では当該コンテンツ選択プロセスおよび当該コンテンツ・アイテムの描画はリアルタイムに発生する。
データ処理システム105は、コンテンツ・アイテムに関連付けられたアクションをキャンセルすることができる。例えば、車サービスを注文した後、エンド・ユーザは、映画を観るが、車を家までもっていく代わりに、家まで歩くか、または、映画の後にデザートを食べることを決定するかもしれない。クライアントコンピューティングデバイス150でデータ処理システム105の一部として実行されているアプリまたは他のプログラムは、「cancel my ride home」の入力オーディオ信号を受信することができる。NLPコンポーネント110は、この入力オーディオ信号を、例えば1つまたは複数のパケット・ベースのデータメッセージとして受信でき、この入力オーディオ信号は既存のスレッド(例えば、ディナー、映画、家への輸送)に関し同一の会話または通信の一部であると判定することができる。例えば、NLPコンポーネント110(または他のデータ処理システム105コンポーネント)は、スレッドの過去の、現在の、またはスケジュールされたアクションのような時間データ、位置データおよび既存のスレッドデータをデータ・リポジトリ145のコンテンツ・データ148から評価して、入力オーディオ信号が既存のスレッドに関すると判定することができる。例えば、要求「ride」またはトリガキーワード「cancel」に基づいて、NLPコンポーネント110は、入力オーディオ信号「cancel my ride home」が既存のスレッドの第3のアクションに対応するコンテンツ・アイテム「would you like a ride home from the movie theater?」に関すると判定することができる。ダイレクト・アクションAPI135(または他のコンポーネント)はデータ処理システム105に、インタフェース115を介してサービス・プロバイダ・コンピューティング・デバイス160と通信して、映画の終了時にエンド・ユーザを映画館の外で車を待たせるタクシーまたはカーシェアサービスのオーダをキャンセルさせることができる。
NLPコンポーネント135は、当該スレッドの任意のアクションの完了の前または後に当該スレッドのアクションをキャンセルするためのデータパケットまたは他のプロトコルベースのメッセージを受信することができる。NLPコンポーネント135は、当該スレッドのより早いアクションによりトリガされた時間間隔内に当該スレッドのアクションをキャンセルするためのデータメッセージ(内向きオーディオ信号)を、クライアントコンピューティングデバイス150から受信する(またはデータ・リポジトリ145から取得する)ことができる。例えば、3つのアクション、即ち、ディナー、映画、輸送を有するシーケンス依存スレッド内で、データ処理システム105は、映画が終了する5分(または他の時間期間)以内に当該輸送をキャンセルするデータメッセージを受信することができる。データ処理システム105は、当該スレッドのアクションに関連する製品またはサービスの確認を促すことができる。例えば、第1のアクションおよび第2のアクションの間の時間期間中(例えば、ディナーの後、かつ、映画の前)に、データ処理システム105は、クライアントコンピューティングデバイス150で描画されるとき、「just confirming that you still want a car waiting for you after the movie」と述べるオーディオまたはテキストメッセージを出力するデータメッセージをクライアントコンピューティングデバイス150に送信することができる。データ処理システム105は、例えば、「yes, confirmed」または「no, cancel the car」の応答を受信することができる。この応答を、当該スレッドの一部として含めることができる。ダイレクト・アクションAPI135はスクリプトを実行してこの情報を処理でき、サービス・プロバイダ・コンピューティング・デバイス160と通信して、当該確認またはキャンセルを示すことができる。
とりわけ図1および図2を参照すると、当該シーケンス依存性パラメータに基づいて、スレッド最適化コンポーネント120は少なくとも1つの単一のスレッドデータ構造200を生成することができる。単一のスレッドデータ構造200はパケット・ベースのアーキテクチャ(または他のフォーマット)を含むことができ、少なくとも1つのヘッダ205を含むことができる。ヘッダ205は、データ処理システム105を識別する補完データ、ソースまたは宛先アドレス情報、支配的なプロトコル情報、IPアドレス、フレーム同期データ、サイズデータ、解像度データ、またはアクションデータ構造に関連付けられたメタデータを含むことができる。単一のスレッドデータ構造200のペイロードまたはボディは、少なくとも1つのシーケンス依存性パラメータ210、または少なくとも1つの第1のデータ送信215または少なくとも1つの第2のデータ送信220のような他の情報を含むことができる。単一のスレッドデータ構造200は、1つまたは複数の構造、例えば、各ヘッダ205および第1のデータ送信215または第2のデータ送信220の少なくとも一部を示すペイロードを有する複数のパケットを含むことができる。シーケンス依存性パラメータ215は、第1のデータ送信215または第2のデータ送信220により示される当該複数のアクションからのアクションのシーケンス依存性を示すことができる。
ヘッダ205、シーケンス依存性パラメータ210、第1のデータ送信215、および第2のデータ送信220は、単一のスレッドデータ構造200に含まれてもよいがその必要はない。例えば、単一のスレッドデータ構造200のボディは、第1のデータ送信215(またはその部分)のみを含み、シーケンス依存性パラメータ210または第2のデータ送信220の何れも含まないことができ、または単一のスレッドデータ構造200のボディはシーケンス依存性パラメータ210ならびに第1のデータ送信215および第2のデータ送信220のうち1つまたは複数を含むことができる。単一のスレッドデータ構造200は、データ処理システム105とサービス・プロバイダ・コンピューティング・デバイス160またはコンテンツ・プロバイダ・コンピューティング・デバイス155との間の1つまたは複数のデータ送信の一部として逐次的にまたは並列に別々に送信された1つまたは複数の独立なパケットを含むことができる。ヘッダ205またはシーケンス依存性パラメータ210は、当該別々の送信または別々のデータパケットが同一のバッチ送信、例えば、同一の全体の単一のスレッドデータ構造200に関連付けられると示すことができる。ダイレクト・アクションAPI135は複数の異なる単一のスレッドデータ構造を1つの単一のスレッドデータ構造200にマージまたはリンクすることができる。単一のスレッドデータ構造200は、別個だが互いに関連付けられた複数のパケットまたは複数の異なる構造を含むことができる。
スレッド最適化コンポーネント120は、単一のスレッドデータ構造200の或るアクションを別のアクションに対して優先付けすることができる。当該優先付けはシーケンス依存性パラメータ210により示されることができ、または、ダイレクト・アクションAPI135またはコンテンツ・セレクタ・コンポーネント125に提供される。例えば、スレッド最適化コンポーネント120は、当該単一のスレッドのデータ構造200で示される最初のアクションを優先付けすることができる。当該優先付けに応答して、ダイレクト・アクションAPI135またはコンテンツ・セレクタ・コンポーネント125のような他のコンポーネントは、データ送信(例えば、第1のデータ送信215または第2のデータ送信220の少なくとも一部)を、コンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160に提供して、当該最初のアクションに関連する変換に影響を及ぼすことができる。
とりわけ図3を参照すると、データ処理システム105は第1の入力オーディオ信号305(例えば、「OK, I would like to go to go dinner tonight」)を第1のクライアントコンピューティングデバイス150から受信することができる。データ処理システム105はまた、第2の入力オーディオ信号310(例えば、「OK, I would like to catch a movie later」)を同一のまたは異なるクライアントコンピューティングデバイス150から受信することができる。データ処理システム105は、第1のおよび第2のオーディオ入力信号305、310に対する各アクションデータ構造および対応するデータ送信を生成することができる。スレッド最適化コンポーネント120のようなデータ処理システム105のコンポーネントは、統計的技術またはヒューリスティック技術を第1の入力オーディオ信号305および第2の入力オーディオ信号310に適用して、第1の入力オーディオ信号305および第2の入力オーディオ信号310のアクションからシーケンス依存アクションを示す少なくとも1つのシーケンス依存性パラメータを生成することができる。データ処理システム105は、第1の入力オーディオ信号305および第2の入力オーディオ信号310に対応するデータ送信(例えば、パケット)またはアクションデータ構造をバッチ化またはプールして、バッチ化またはプールされた単一のスレッドデータ構造200を生成することができる。データ処理システム105は、単一のスレッドデータ構造200をサービス・プロバイダ・コンピューティング・デバイス160により処理するためにサービス・プロバイダ・コンピューティング・デバイス160に送信または提供して、例えば第1のおよび第2の入力オーディオ信号305、310に応答して少なくとも1つの車の要約、映画チケットの購入、またはディナー予約を行うことができる。
同一の単一のスレッドデータ構造の一部の異なるインスタンスを異なるコンピューティングデバイスに提供することができる。例えば、単一のスレッド200の全部または一部を、サービス・プロバイダ・コンピューティング・デバイス160に提供して、変換、例えば、カーシェアサービスからの車のオーダに影響を及ぼすことができ、単一のスレッド200の同一のまたは異なる部分を(同時にまたは逐次的に)コンテンツ・プロバイダ・コンピューティング・デバイス155に提供して、別の変換に影響を及ぼす、例えば、レストランに対するコンテンツ・アイテムを取得することができる。
単一のスレッドデータ構造200の受信に応答して、コンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160は、当該単一のスレッドのデータ構造200により定義または示される少なくとも1つの動作を実施することができる。当該動作は、第1のまたは第2の入力オーディオ信号305、310のアクションデータ構造(またはデータ送信)の各アクションのうち1つまたは複数に対応することができる。例えば、当該動作は、車をカーシェアサービスから、サービス・プロバイダ・コンピューティング・デバイス160から受信するステップ、または映画に対するコンテンツ・アイテムを提供するステップを含むことができる。例えば、コンテンツ・プロバイダ・コンピューティング・デバイス155は第1の応答315(例えば、映画に対するコンテンツ・アイテム)をクライアントコンピューティングデバイス150に提供でき、サービス・プロバイダ・コンピューティング・デバイス160は第2の応答320(例えば、車の予約)を同一のまたは異なるクライアントコンピューティングデバイス150に提供することができる。第1のおよび第2の応答315、320は、コンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160からクライアントコンピューティングデバイス150への送信中に、データ処理システム105をバイパスすることができる。応答315、320は、車サービスからの車の予約またはコンテンツ・アイテムの描画のような変換アクションを確認するテキスト、画像、または他のデータメッセージ(オーディオを含む)を含むことができる。データ処理システム105は当該変換の(または応答315、320の)指示を、コンピュータネットワーク165を介してサービス・プロバイダ・コンピューティング・デバイス160、コンテンツ・プロバイダ・コンピューティング・デバイス155、またはクライアントコンピューティングデバイス150から受信することができる。
データ処理システム105により(例えば、スレッド最適化コンポーネント120またはダイレクト・アクションAPI135により)生成された単一のスレッド200は、当該スレッドに対応するアクションの実際の、既知の、スケジュールされた、または推定された時刻を示すことができる。これらの時刻は、とりわけ、映画開始時間、輸送ピックアップ時刻、ディナー予約時刻、またはイベント時刻を含むことができる。当該時刻は、離散的時刻、例えば、午後8:00のディナー予約、または他のアクションに対する相対的な時刻であることができ、例えば、当該アクション‘B’は、アクション‘A’の既知のまたは推定された結論時刻の後15分で開始するようにスケジュールされる。例えば、当該スレッド200は、第1のアクション(例えば、ディナーを食べる)は第2のアクション(例えば映画を観ること)の前に発生するようにスケジュールされることを示すことができる。これらのアクションは、入力オーディオ信号から識別されたデータ構造(またはデータ送信)アクションに対応することができる。ダイレクト・アクションAPI135は第1のアクションの完了を検出することができる。例えば、コンピューティングデバイス150はレストランで支払いを行うためのスクリプトを実行でき、またはダイレクト・アクションAPI135はディナーが90分継続すると推定でき、またはエンド・ユーザはオーディオ入力信号または他のデータメッセージを提供して、第1のアクションが完了するまたは時間ウィンドウの時刻にまたは時間ウィンドウ内に完了するようにスケジュールされたことを示すことができる。第1のアクションの完了(例えば、既知のまたは推定された終了時刻)の検出に応答して、ダイレクト・アクションAPI135は、当該単一のスレッドのデータパケットをサービス・プロバイダ・コンピューティング・デバイス160にまたはコンテンツ・プロバイダ・コンピューティング・デバイス155に送信することに進むことができる。この送信は、既知のまたは推定された第1のアクションの完了に続いて、または既知のまたは推定された第1のアクションの完了の時間ウィンドウ内(例えば、1時間内)に発生することができる。例えば、ディナーの完了時に、ダイレクト・アクションAPI135は、単一のスレッド200の少なくとも一部を、サービス・プロバイダ・コンピューティング・デバイス160に提供して、映画チケットを購入し、またはコンテンツ・プロバイダ・コンピューティング・デバイス155に提供して、映画に対するコンテンツ・アイテムを取得することができる。当該変換(例えば、クライアントコンピューティングデバイス150でのチケットの購入またはコンテンツ・アイテムの描画)の指示を、データ処理システム105にクライアントコンピューティングデバイス150、コンテンツ・プロバイダ・コンピューティング・デバイス155、またはサービス・プロバイダ・コンピューティング・デバイス160から提供することができる。シーケンス依存性パラメータ210は、単一のスレッド200のアクションが発生するようにスケジュールされる順序を示すことができ、例えば、第1のアクションは第2のアクションの前に発生するようにスケジュールされることを示すことができる。
ダイレクト・アクションAPI135は、単一のスレッド200の少なくとも1つのアクションの少なくとも1つのデッドロック条件を識別することができる。デッドロック条件は、最初の、過去のアクションが完了した後に第2のアクションが進むことができないことを示すことができる。例えば、ダイレクト・アクションAPI135は、第1のアクションが映画アクション(映画館で映画を観ること)であり第2のアクションが、映画が終了した後にカーシェアサービスを介して家に輸送することであるとき、デッドロック条件を識別することができる。ダイレクト・アクションAPI135は、映画のスケジュールされた終了時刻のような第1のアクションに関連付けられた時刻まで継続する第2のアクション(例えば、家への乗車)に対するデッドロック条件を決定することができる。ダイレクト・アクションAPI135またはインタフェース115のような他のコンポーネントは、当該デッドロック条件に応答してサービス・プロバイダ・コンピューティング・デバイス(例えば、カーシェアサービス)へのデータ送信の送信を防止することができる。例えば、データ処理システム105またはそのコンポーネントは、当該デッドロック条件の時間期間中の、(例えば、カーシェアサービスの)サービス・プロバイダ・コンピューティング・デバイス160へのアクション(例えば、車の予約)に対するデータ送信のデータパケット(またはデータ構造)の送信を防止することができる。これは、サービス・プロバイダ・コンピューティング・デバイス160が車(または他のサービス)の要求をあまりにも早く受信することを防ぐ。
ダイレクト・アクションAPI135は、当該デッドロック条件が終了したかまたはもはや存在しないことの指示を取得するか、または、そのように判定することができる。例えば、ダイレクト・アクションAPI135は、映画のスケジュールされた終了時刻または他のアクションを決定するために、サービス・プロバイダ・コンピューティング・デバイス160または他のサードパーティコンピューティングデバイスを問い合わせることができる。この時刻に達すると、または、この時刻の前の閾値時間期間(例えば、30分または5分)内に、当該ダイレクト・アクションAPIは当該デッドロック条件を壊し、解放し、または終了させることができる。当該デッドロック条件の期限切れに続いて、データ処理システム105は(例えば、インタフェース105を介して)、サービス・プロバイダ・コンピューティング・デバイス160に、映画の後の家までの乗車のような後続のアクションに対応するデータ送信またはデータ構造のデータを送信することができる。
ダイレクト・アクションAPI135は、当該デッドロック条件を終了するための指示をクライアントコンピューティングデバイス150から受信することができる。例えば、エンド・ユーザは、映画が終了する前に早めに映画から離れることを決定するかもしれず、入力オーディオ信号、例えば、「OK, this movie stinks, I’d like a ride home please」を当該クライアントコンピューティングデバイスに入力することができる。データ処理システム105(例えば、NLPコンポーネント110またはダイレクト・アクションAPI135)は、当該デッドロック条件が切れたことをこの入力オーディオ信号から判定でき、当該後続のアクションに関するデータをサービス・プロバイダ・コンピューティング・デバイス160に送信することができる。当該デッドロック条件の解放に続いて、ダイレクト・アクションAPI135はまた、アクションに関するデータ(例えば、単一のスレッド200のデータ送信またはアクションデータ構造のデータ)をコンテンツ・プロバイダ・コンピューティング・デバイス155に提供して、デッドロックアクション後に関連するコンテンツ・アイテムを取得することができる。当該コンテンツ・アイテムを、データ処理システム105によりまたはコンテンツ・プロバイダ・コンピューティング・デバイス155により、描画するためにクライアントコンピューティングデバイス150に提供することができる。当該コンテンツ・アイテムは、例えば、「Sorry to hear about the movie, would you like to order a car from a car share company?」を示すことができる。コンテンツ・セレクタ・コンポーネント125(またはインタフェース115またはダイレクト・アクションAPI135のような他のコンポーネント)は、デッドロック条件に応答してまたは当該デッドロック条件の解放まで、当該コンテンツ・アイテムの選択、または当該選択されたコンテンツ・アイテムのクライアントコンピューティングデバイス150への送信ブロックすることができる。
ダイレクト・アクションAPI135は、単一のスレッド200により示されるアクションの逐次的な順序を修正することができる。例えば、当該ダイレクト・アクションAPIは、第1の逐次的な順序の指示、例えば、第1のアクション、第1のアクションに続く第2のアクション、および第2のアクションに続く第3のアクション(ディナー、次いで映画、次いで家へ乗車)を決定することができる。ダイレクト・アクションAPI135およびNLPコンポーネント110およびインタフェース115のような他のコンポーネントは当該逐次的な順序を修正する要求を受信することができる。例えば、データ処理システム105は、「OK I’d like to eat dinner after the movie」という入力オーディオ信号を当該クライアントコンピューティングデバイスから受信することができる。ダイレクト・アクションAPI135(またはNLPコンポーネント110)は、このオーディオ入力信号から、当該アクションの逐次的な順序を、例えば、映画、次いでディナー、次いで家へ乗車に修正する要求を取得することができる。この情報から、ダイレクト・アクションAPI135は修正された逐次的な順序を生成でき、その結果第2のアクション(映画を観ること)はこの時点で第1のアクション(ディナーを食べる)の前に発生するようにスケジュールされる。ダイレクト・アクションAPI135またはコンテンツ・セレクタ・コンポーネント125(または他のコンポーネント)はそれに応じて、当該ディナーアクションのコンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160へのデータ送信の前に、映画アクションのデータ送信を送信することに進むことができる。ダイレクト・アクションAPI135はまた、第1の映画アクションの終了時刻に基づいて、当該ディナーアクションに関連する動作を遅延するデッドロック条件を識別または修正することができる。ディナー、映画、および輸送のアクションは例であり、任意の数のエンド・ユーザアクティビティまたは要求がアクションを構成することができる。当該修正は、当該入力オーディオ信号と異なる入力に応答して発生することができる。例えば、午後9時の映画(ディナーの後)に対するチケットが売り切れの場合、データ処理システム105はクライアントコンピューティングデバイス150で描画するためのオーディオ出力を提供して、ディナーの前に映画を観ること(例えば、午後5時のショー)を示唆することができる。
データ処理システム105はオフラインアクションを実施することができる。これは、処理および電気電力要件を節約し、ネットワークトラフィックを減らすかまたはオフピーク時間にシフトすることができる。例えば、単一のスレッド200は、第1のアクションおよび第1のアクションの解像度に依存する第2の後続のアクションを示すことができる。これらのアクションは、この先6か月に発生する3週間の熱帯ビーチバケーションのために飛行機チケット(第1のアクション、今日)を購入し、バケーションの最終日のスキューバレッスン(第2のアクション、6か月以上先)を予約することのように、互いから数日または数週間(またはそれ以上)離れていることができる。ダイレクト・アクションAPI135は、リアルタイムに航空会社エンティティに対応するサービス・プロバイダ・コンピューティング・デバイス160と通信して、当該入力オーディオ信号の受信に応答して当該飛行機チケットをオンラインアクションで購入して変換に影響を及ぼす(?)こと、即ち、当該飛行機チケットの購入ができる。この例における第2のアクションは6か月先のままである。この6か月期間または他の時間ウィンドウにわたって、ダイレクト・アクションAPI135またはコンテンツ・セレクタ・コンポーネント125のような他のコンポーネントは、コンテンツ・アイテムを選択するかまたは第2のアクション(スキューバレッスン)に応答して他の動作を実施することができる。例えば、当該ダイレクト・アクションAPIは、データ・リポジトリ145からまたはスキューバレッスンに関連するサードパーティデータ・リポジトリからこの情報を取得することで、オフラインで取得することができる。当該オフラインアクションはリアルタイムであってもなくてもよく、オフラインアクションはアクションの間の時間分離(例えば、6か月)を必要としない。例えば、データ処理システム105は、当該クライアントコンピューティングデバイスとの通信セッションまたは同期的または非同期な会話の一部として、データ・リポジトリ145からまたはサードパーティデータベースからのアクションに応答して情報をリアルタイムに取得することができる。
図4は、音声起動されたデータパケット・ベースのコンピュータネットワーク環境におけるシーケンス依存動作を示す音声起動されたオーディオ入力データ通信を管理するための方法400を示す。方法400は少なくとも1つの第1のオーディオ入力信号を受信することができる(動作405)。例えば、当該NLPコンポーネントはインタフェース115を介してデータパケットを受信することができる(動作405)。データ処理システム105は、NLPコンポーネント110を実行または起動して、当該ネットワークを介してパケットまたは他のプロトコルベースの送信を少なくとも1つのクライアントコンピューティングデバイス150から受信することができる。当該データパケットは、第1のエンド・ユーザが「OK, I would like to go to go dinner tonight」とクライアントコンピューティングデバイス150、例えば、スマートフォンに言うことのような、第1のクライアントコンピューティングデバイス150のセンサ151により検出された入力オーディオ信号を含むことができるかまたはそれに対応することができる。方法400は当該入力オーディオ信号を解析して、少なくとも1つの第1の要求または少なくとも1つの第1のトリガキーワードを当該入力オーディオ信号から識別することができる(動作410)。例えば、NLPコンポーネント110は当該入力オーディオ信号を解析して、要求(「dinner」に対するエンターテイメント要求)ならびに当該要求に対応または関するトリガキーワード(「to go to」)を識別することができる。方法400は、当該受信された第1のオーディオ入力信号に関連付けられた当該識別された要求またはキーワードに基づいて、少なくとも1つの第1のアクションデータ構造を生成することができる(動作415)。例えば、ダイレクト・アクションAPI135は、タクシーピックアップの要求されたサービス・プロバイダ、またはレストラン推奨のような第1のアクションを示すアクションデータ構造を生成することができる。
方法400は少なくとも1つの第2のオーディオ入力信号を受信することができる(動作420)。例えば、NLPコンポーネント110は、パケットまたは他のプロトコルベースの送信を、ネットワーク165を介して第1の入力オーディオ信号を生成した同一のまたは異なるクライアントコンピューティングデバイス150から受信することができる。当該データパケットは、エンド・ユーザが「OK, I would like to catch a movie later」をクライアントコンピューティングデバイス150に言うことのような、第2のクライアントコンピューティングデバイス150のセンサ151により検出された入力オーディオ信号を含むことができるかまたはそれに対応することができる。方法400は、少なくとも1つの第2の要求または少なくとも1つの第2のトリガキーワードを第2の入力オーディオ信号から識別することができる(動作425)。例えば、NLPコンポーネント110は当該入力オーディオ信号を解析して、要求(「movie」に対するエンターテイメント要求)ならびに当該要求に対応または関するトリガキーワード(「to catch」)を識別することができる。方法400は、要求またはキーワードに基づいて当該受信された第1のオーディオ入力信号に関連付けられた当該識別された少なくとも1つの第2のアクションデータ構造を生成することができる(動作430)。例えば、ダイレクト・アクションAPI135は、タクシーピックアップの位置、要求されたサービス・プロバイダ、または映画情報のような第2のアクションを示すアクションデータ構造を生成することができる。
方法400は、データ送信を当該アクションデータ構造から構築することができる(動作435)。例えば、ダイレクト・アクションAPI135は、第1の入力オーディオ信号に対応する第1のアクションデータ構造から第1のデータ送信を生成でき、第2の入力オーディオ信号に対応する第2のアクションデータ構造から第2のデータ送信を生成することができる。第1のおよび第2の(または他の数の)データ送信を、当該対応するアクションデータ構造から取得された情報をパケット化し、または、広範囲に定義された通信セッション、例えば、データ処理システム105を介したエンド・ユーザコンピューティングデバイス150とコンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160との間のやり取りまたは非同期な会話もしくはデータの送信の一部として送信するための形態に当該アクションデータ構造を変換することで、構築または生成することができる(動作435)。異なるエンティティに対応する複数のサードパーティデバイス(例えば、コンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160)との通信セッションを、共通の通信セッションの一部と考えることができる。通信セッションは、会話方式でクライアントコンピューティングデバイス150と行き来するデータ送信により同期的であることができ、または、休眠期間、例えば、少なくとも1つの時間がデータ送信の間に存在して非同期であることができる。
方法400はデータを当該データ送信から取得することができる(動作440)。例えば、スレッド最適化コンポーネント120は、当該データ送信からの(または当該対応するアクションデータ構造からの)アクションに関する情報にアクセスするかそれを(例えば、データ・リポジトリ145から)取り出すことができる。方法400は少なくとも1つのシーケンス依存性パラメータを決定することができる(動作445)。例えば、アクションの動作の順序またはシーケンス依存性を示す当該データ送信より取得されたデータ(動作440)に基づいて、スレッド最適化コンポーネント120は、少なくとも2つのアクションに対するシーケンス依存性の当該存在を示すシーケンス依存性パラメータを決定することができる。方法400は、1つまたは複数のアクションデータ構造を(直接にまたは対応するデータ送信の関連付けを介して)単一のスレッドデータ構造200に関連付けることができる。例えば、スレッド最適化コンポーネント120(または他のデータ処理システム105コンポーネント)は単一のスレッドデータ構造200を生成することができる(動作450)。例えば、少なくとも2つのシーケンスまたは時間依存動作の指示に基づいて、スレッド最適化コンポーネント120は、第1のおよび第2のデータ送信、第1のおよび第2のアクションデータ構造、またはそれらの関連付けられたアクションを示す少なくとも1つの単一のスレッドデータ構造を生成することができる(動作440)。当該生成された単一のスレッドデータ構造200(動作450)は、アクションの完了を検出するためにダイレクト・アクションAPI135により使用されるデータを含むことができ、その結果データ処理システム105は次いで、異なるアクションに対するデータパケットを、サービス・プロバイダ・コンピューティング・デバイス160にまたはコンテンツ・プロバイダ・コンピューティング・デバイス155に提供することができる。データ処理システム105はまた、当該生成された単一のスレッドデータ構造200のアクションに関連付けられたデッドロック条件を識別することができる(動作450)。単一のスレッドデータ構造200は複数のアクションの逐次的な順序を示すことができ、当該方法は、当該アクションの当該逐次的な順序を変更する修正された逐次的な順序を生成することができる。データ処理システム105は、単一のスレッドデータ構造200の全部または一部を、1つまたは複数のコンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160に提供することができる。
図5は例示的なコンピュータシステム500のブロック図である。当該コンピュータシステムまたはコンピューティングデバイス500は、システム100、またはデータ処理システム105のようなそのコンポーネントを含むことができるかまたはそれを実装するために使用される。当該コンピューティングシステム500は、情報を通信するためのバス505または他の通信コンポーネントおよび情報を処理するためにバス505に接続するためのプロセッサ510または処理回路を含む。当該コンピューティングシステム500はまた、情報を処理するために当該バスに接続された1つまたは複数のプロセッサ510または処理回路を含むことができる。当該コンピューティングシステム500はまた、情報、およびプロセッサ510により実行される命令を格納するためにバス505に接続されたランダム・アクセスメモリ(RAM)または他の動的記憶デバイスのようなメイン・メモリ515を含む。メイン・メモリ515はデータ・リポジトリ145であることができるかまたはそれを含むことができる。メイン・メモリ515をまた、プロセッサ510による命令の実行中に位置情報、一時的変数、または他の中間情報を格納するために使用することができる。当該コンピューティングシステム500はさらに、プロセッサ510のための静的情報および命令を格納するために、バス505に接続される読取専用メモリ(ROM)520または他の静的記憶デバイスを含んでもよい。固体状態デバイス、磁気ディスクまたは光ディスクのような記憶デバイス525、は、永続的に情報および命令を格納するためにバス505に接続されることができる。当該記憶デバイス525は、データ・リポジトリ145を含むことができるかまたはその一部であることができる。
当該コンピューティングシステム500を、バス505を介して、情報をユーザに表示するための、液晶ディスプレイ、またはアクティブ行列ディスプレイのようなディスプレイ535に接続してもよい。英数字および他のキーを含むキーボードのような入力デバイス530、が、情報およびコマンド選択をプロセッサ510に通信するためにバス505に接続されてもよい。当該入力デバイス530はタッチ・スクリーンディスプレイ535を含むことができる。当該入力デバイス530はまた、方向情報およびコマンド選択をプロセッサ510に通信し、当該ディスプレイ535上のカーソル移動を制御するための、マウス、トラックボール、またはカーソル方向キーのようなカーソル・コントロールを含むことができる。当該ディスプレイ535は、例えば、図1のデータ処理システム105、クライアントコンピューティングデバイス150または他のコンポーネントの一部であることができる。
本明細書で説明したプロセス、システムおよび方法、プロセッサ510がメイン・メモリ515に含まれる命令の配置を実行したことに応答して当該コンピューティングシステム500により実装することができる。かかる命令を当該記憶デバイス525のような別のコンピュータ−可読媒体からメイン・メモリ515に読み込むことができる。メイン・メモリ515に含まれる命令の配置の実行は、当該コンピューティングシステム500に本明細書で説明した例示的なプロセスを実施させる。マルチプロセッシング配置における1つまたは複数のプロセッサをまた、メイン・メモリ515に含まれる命令を実行するために使用することができる。ハードワイヤード回路を、本明細書で説明するシステムおよび方法とともにソフトウェア命令の代わりにまたはそれを組み合わせて使用することができる。本明細書で説明したシステムおよび方法はハードウェア回路およびソフトウェアの任意の特定の組合せに限定されない。
例示的なコンピューティングシステムを図5で説明したが、本明細書で説明した動作を含む当該主題を、本明細書で開示した構造およびそれらの構造的均等物を含む他のタイプのデジタル電子回路で、またはコンピュータソフトウェア、ファームウェア、またはハードウェアで、またはそれらの1つまたは複数の組合せで実装することができる。
本明細書で説明するシステムがユーザに関する個人情報を収集するか、または個人情報を利用しうる状況に対して、当該ユーザに個人情報(例えば、ユーザのソーシャルネットワーク、ソーシャルアクションまたはアクティビティ、ユーザの嗜好、またはユーザの位置に関する情報)をプログラムまたは機能が収集しうるかどうかを制御するか、または、当該ユーザにより関連しうるコンテンツサーバまたは他のデータ処理システムからコンテンツを受信するかどうかまたはその方法を制御ための機会を与えてもよい。さらに、特定のデータはそれが格納または使用される前に1つまたは複数の方法で匿名化してもよく、その結果個人的に識別可能な情報がパラメータを生成するときに除去される。例えば、ユーザのアイデンティティを匿名化してもよく、その結果個人的に識別可能な情報を当該ユーザに対して決定できず、またはユーザの特定の位置を決定できないように、ユーザの地理的位置を位置情報が取得される場所で(例えば都市、郵便番号、または状態レベルに)一般化してもよい。したがって、当該ユーザは、どのように情報が当該ユーザに関して収集され当該コンテンツサーバにより使用されるかを制御することができる。
当該主題および本明細書で説明した動作を、本明細書で開示した構造およびそれらの構造的均等物を含むデジタル電子回路で、またはコンピュータソフトウェア、ファームウェア、またはハードウェアで、またはそれらの1つまたは複数の組合せで実装することができる。本明細書で説明した当該主題を、データ処理装置による実行のためにまたは当該装置の動作を制御するために1つまたは複数のコンピュータ記憶媒体で符号化された、1つまたは複数のコンピュータプログラム、例えば、コンピュータプログラム命令の1つまたは複数の回路として実装することができる。代替的にまたは追加として、当該プログラム命令を、人工的に生成された伝播信号、例えば、データ処理装置による実行のために適切な受信器装置に送信するための情報を符号化するために生成されたマシン−生成された電気、光、または電磁気信号で符号化することができる。コンピュータ記憶媒体は、コンピュータ−可読記憶デバイス、コンピュータ−可読記憶基板、ランダムなまたはシリアル・アクセスメモリ・アレイまたはデバイス、またはそれらの1つまたは複数の組合せであることができ、または、それらに含まれることができる。コンピュータ記憶媒体は伝播信号ではないが、コンピュータ記憶媒体は、人工的に生成された伝播信号で符号化されたコンピュータプログラム命令のソースまたは宛先であることができる。当該コンピュータ記憶媒体はまた、1つまたは複数の別々のコンポーネントまたは媒体(例えば、複数のCD、ディスク、または他の記憶デバイス)であることができ、または、それに含まれることができる。本明細書で説明した動作を、1つまたは複数のコンピュータ−可読記憶デバイスに格納されまたは他のソースから受信されたデータに対してデータ処理装置により実施される動作として実装することができる。
「データ処理システム」「コンピューティングデバイス」「コンポーネント」または「データ処理装置」という用語は、例としてプログラム可能プロセッサ、コンピュータ、システム・オン・チップ、または以上のうち複数または組合せを含む、データを処理するための様々な装置、デバイス、およびマシンを包含する。当該装置は、特殊目的論理回路、例えば、FPGA(フィールドプログラム可能ゲート・アレイ)またはASIC(特殊用途向け集積回路)を含むことができる。当該装置はまた、ハードウェアに加えて、着目するコンピュータプログラムに対する実行環境を生成するコード、例えば、プロセッサファームウェア、プロトコル・スタック、データベース管理システム、オペレーティング・システム、クロス・プラットフォームランタイム環境、仮想マシン、またはそれらの1つまたは複数の組合せを構成するコードを含むことができる。当該装置および実行環境は、ウェブサービス、分散コンピューティングおよびグリッド・コンピューティングインフラのような様々な異なるコンピューティングモデルインフラを実現することができる。ダイレクト・アクションAPI135、コンテンツ・セレクタ・コンポーネント125、スレッド最適化コンポーネント120またはNLPコンポーネント110および他のデータ処理システム105コンポーネントは、1つまたは複数のデータ処理装置、システム、コンピューティングデバイス、またはプロセッサを含むかまたは共有ことができる。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリ、スクリプト、またはコードとしても知られる)を、コンパイル型言語またはインタプリタ型言語、宣言型または手続型言語を含む任意の形態のプログラミング言語で書くことができ、スタンドアロンプログラムまたはモジュール、コンポーネント、サブルーチン、オブジェクト、またはコンピューティング環境で使用するのに適した他のユニットを含む任意の形態で展開することができる。コンピュータプログラムはイルシステム内のファイルに対応することができる。コンピュータプログラムを、他のプログラムまたはデータを保持するファイル部分(例えば、マークアップ言語ドキュメントに格納された1つまたは複数のスクリプト)に、着目するプログラム専用の単一のファイルに、または複数の協調ファイルに(例えば、1つまたは複数のモジュール、サブプログラム、またはコード部分を格納するファイル)格納することができる。コンピュータプログラムを、1つのコンピュータ上でまたは1つのサイトに配置されるかまたは複数のサイトにわたって分散され通信ネットワークにより相互接続された複数のコンピュータ上で実行されるように展開することができる。
本明細書で説明した当該プロセスおよび論理フローを、1つまたは複数のプログラム可能プロセッサが、1つまたは複数のコンピュータプログラム(例えば、データ処理システム105のコンポーネント)を実行して、入力データで動作し出力を生成することでアクションを実施することにより、実施することができる。当該プロセスおよび論理フローはまた、特殊目的論理回路、例えば、FPGA(フィールドプログラム可能ゲート・アレイ)またはASIC(特殊用途向け集積回路)により実施でき、装置をまた特殊目的論理回路、例えば、FPGA(フィールドプログラム可能ゲート・アレイ)またはASIC(特殊用途向け集積回路)として実装することができる。コンピュータプログラム命令およびデータを格納するのに適したデバイスは、例として半導体メモリデバイス、例えば、EPROM、EEPROM、およびフラッシュ・メモリデバイスを含むあらゆる形態の非揮発性メモリ、媒体およびメモリデバイス、磁気ディスク、例えば、内部ハードディスクまたは取外し可能ディスク、磁気光ディスク、およびCDROMおよびDVD−ROMディスクを含む。当該プロセッサおよび当該メモリを特殊目的論理回路で補完するかまたはそれに組み込むことができる。
本明細書で説明する主題を、コンピューティングシステムで実装することができるバックエンドコンポーネントを、例えば、データサーバとして含むか、またはミドルウェアコンポーネント、例えば、アプリケーションサーバを含むか、またはフロントエンドコンポーネント、例えば、ユーザがそれを通じて本明細書で説明した当該主題の実装と対話できるグラフィカルユーザインタフェースまたはウェブブラウザを有するクライアントコンピュータ、または1つまたは複数のかかるバックエンド、ミドルウェア、またはフロントエンドコンポーネントの組合せを含む。当該システムの当該コンポーネントはデジタルデータ通信、例えば、通信ネットワークの任意の形態または媒体により相互接続することができる。通信ネットワークの例は、ローカル・エリア・ネットワーク(「LAN」)および広帯域ネットワーク(「WAN」)、インターネットワーク(例えば、インターネット)、およびピア・ツー・ピアネットワーク(例えば、アドホックピア・ツー・ピアネットワーク)を含む。
システム100またはシステム500のような当該コンピューティングシステムはクライアントおよびサーバを含むことができる。クライアントおよびサーバは一般に互いから離れており、一般に通信ネットワークを通じて対話する(例えば、ネットワーク165)。クライアントおよびサーバの関係は、当該各コンピュータで実行され互いにクライアントサーバ関係を有するコンピュータプログラムにより生ずる。幾つかの実装では、サーバはデータ(例えば、コンテンツ・アイテムを表すデータパケット)をクライアントコンピューティングデバイス(例えば、当該クライアントコンピューティングデバイスと対話するユーザにデータを表示し、そこからユーザ入力を受信する目的で)に送信する。当該クライアントコンピューティングデバイスで生成されたデータ(例えば、当該ユーザ対話の結果)は当該サーバで当該クライアントコンピューティングデバイスから受信されることができる(例えば、データ処理システム105によりコンピューティングデバイス150またはコンテンツ・プロバイダ・コンピューティング・デバイス155またはサービス・プロバイダ・コンピューティング・デバイス160から受信される)。
動作を当該図面において特定の順序で説明したが、かかる動作を示した特定の順序でまたは逐次的な順序で実施する必要はなく、全ての図示した動作を実施する必要はない。本明細書で説明した動作を異なる順序で実施することができる。
様々なシステムコンポーネントの分離は全ての実装における分離を要求しないが、当該説明したプログラムコンポーネントを単一のハードウェアまたはソフトウェア製品に含めることができる。例えば、NLPコンポーネント110、コンテンツ・セレクタ・コンポーネント125、またはスレッド最適化コンポーネント120は、単一のコンポーネント、アプリ、またはプログラム、または1つまたは複数の処理回路を有する論理デバイス、またはデータ処理システム105の1つまたは複数のサーバの一部であることができる。
幾つかの例示的な実装を説明したので、以上は、例示的であり限定的ではなく、例として提示されていることは明らかである。特に、本明細書で提示した例の多くは方法の動作またはシステム要素の特定の組合せを含むが、これらの動作およびこれらの要素を他の方法で組み合わせて同一の目的を実現してもよい。1実装と関連して説明した動作、要素および特徴は他の実装または実装における類似の役割から排除されるものではない。
本明細書で使用したフレーズおよび用語は説明の目的のためであり限定として解釈されるべきではない。「〜を含む」、「〜を備える」、「〜を有する」、「〜を包含する」、「〜が関与する」、「〜により特徴付けられる」、「〜の点で特徴付けられる」、およびその本明細書における変形の使用、は、その後に列挙された項目、その均等物、および追加の項目、ならびに排他的にその後に列挙された項目からなる代替的な実装を含むことを意味する。1実装では、本明細書で説明するシステムおよび方法は当該説明した要素、動作、またはコンポーネントの1つ、複数の各組合せ、または全てから成る。
本明細書で単一形で参照されるシステムおよび方法の実装または要素または動作に対する任意の言及は複数のこれらの要素を含む実装を含んでもよく、本明細書の任意の実装または要素または動作への複数形の任意の参照は単一の要素のみを含む実装を含んでもよい。単一形または複数形における参照は本明細書で開示したシステムまたは方法、それらのコンポーネント、動作、または要素を単一のまたは複数の構成に限定しようとするものではない。任意の情報、動作または要素に基づく任意の動作または要素への参照は当該動作または要素は任意の情報、動作、または要素に少なくとも部分的に基づく実装を含んでもよい。
本明細書で開示した任意の実装を他の任意の実装または実施形態と組み合わせてもよく「実装」、「幾つかの実装」、「1実装」等への言及は必ずしも相互に排他的ではなく、当該実装と関連して説明した特定の特徴、構造、または特性が少なくとも1つの実装または実施形態に含まれてもよいを示すことを意図している。本明細書で使用した用語は必ずしも全て同一の実装を参照しない。任意の実装を、他の任意の実装と、包含的にまたは排他的に、本明細書で開示した態様および実装と一貫する任意の方式で結合してもよい。
「または」に対する言及は、「または」を用いて説明された任意の用語が当該説明した用語のうち1つ、複数、および全ての何れかを示しうるように、包含的として解釈してもよい。例えば、「‘A’および‘B’のうち少なくとも1つ」への言及は‘A’のみ、‘B’のみ、ならびに‘A’および‘B’の両方を含むことができる。「〜を備える」または他のオープンな用語と関連して使用されるかかる言及は追加の項目を含むことができる。
当該図面、詳細な説明または任意の請求項における技術的特徴に参照記号が続く場合、当該参照記号は当該図面、詳細な説明、および特許請求の範囲の明瞭性を高めるために含まれている。したがって、当該参照記号もそれがないことも任意のクレーム要素の範囲に対する限定効果を有さない。
本明細書で説明するシステムおよび方法をその特徴から逸脱せずに他の特定の形態で具体化してもよい。例えば、データ処理システム105のコンポーネントは別々のコンポーネントである必要はなく、或るコンポーネントは他のコンポーネントを含むことができる。1つまたは複数のコンピューティングデバイス(例えば、サーバ)のプロセッサはデータ処理システム105のコンポーネントを含むかまたは実行することができる。以上の実装は説明したシステムおよび方法の限定ではなく例示的なものである。本明細書で説明するシステムおよび方法の範囲はしたがって以上の説明ではなく添付の特許請求の範囲により示され、添付の特許請求の範囲の均等物の意味と範囲に入る変更がそこに包含される。
105 データ処理システム
110 自然言語プロセッサ・コンポーネント
115 インタフェース
120 スレッド最適化コンポーネント
125 コンテンツ・セレクタ・コンポーネント
130 オーディオ信号生成器コンポーネント
135 ダイレクト・アクションAPI
140 セッション・ハンドラ
145 データ・リポジトリ
146 パラメータ
147 ポリシ
148 コンテンツ・データ
149 テンプレート
150 クライアント・コンピューティング・デバイス
151 センサ
152 トランスデューサ
153 オーディオ・ドライバ
154 スピーカ
155 コンテンツ・プロバイダ・デバイス
160 サービス・プロバイダ・デバイス
161 サービス・プロバイダの自然言語プロセッサ・コンポーネント
162 サービス・プロバイダ・インタフェース
165 ネットワーク

Claims (20)

  1. 音声ベースのコンピューティング環境においてシーケンス依存動作を行うシステムであって、
    データ処理システムのインタフェースを介して、クライアントコンピューティングデバイスのセンサにより検出された1つまたは複数の入力オーディオ信号を含むデータパケットを受信する、前記データ処理システムにより実行される自然言語プロセッサ・コンポーネントと、
    前記1つまたは複数の入力オーディオ信号を解析して、1つまたは複数の要求および前記1つまたは複数の要求に対応する1つまたは複数のトリガキーワードを識別する、前記自然言語プロセッサ・コンポーネントと、
    前記1つまたは複数のトリガキーワードに基づいておよび前記1つまたは複数の要求に応答して、第1のアクションデータ構造および第2のアクションデータ構造を生成する、前記データ処理システムのダイレクト・アクション・アプリケーション・プログラミング・インタフェース(「API」)と、
    スレッド最適化コンポーネントであって、
    前記第1のアクションデータ構造のデータパケットを取得し、前記第2のアクションデータ構造のデータパケットを取得することと、
    前記第1のアクションデータ構造の前記データパケットおよび前記第2のアクションデータ構造の前記データパケットに適用されるヒューリスティック技術に基づいて、シーケンス依存性パラメータを決定することと、
    前記シーケンス依存性パラメータと閾値との比較に基づいて、前記第1のアクションデータ構造の前記データパケットと前記第2のアクションデータ構造の前記データパケットとを単一のスレッドに結合することと
    をするように前記データ処理システムにより実行される、スレッド最適化コンポーネントと
    を備える、システム。
  2. 前記1つまたは複数のトリガキーワードの第1のトリガキーワードに基づいて前記第1のアクションデータ構造を生成することと、
    第1のサービス・プロバイダ・コンピューティング・デバイスと前記クライアントコンピューティングデバイスとの間の第1の通信セッションを確立するための前記第1のアクションデータ構造を含む第1のデータ送信を構築することであって、前記第1の通信セッションのデータパケットは、前記データ処理システムを介して前記クライアントコンピューティングデバイスから前記第1のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる、ことと
    をする、前記データ処理システムを含み、
    前記単一のスレッドにおける前記第1のデータ送信を含む、請求項1に記載のシステム。
  3. 前記1つまたは複数のトリガキーワードの第1のトリガキーワードに基づいて前記第1のアクションデータ構造を生成し、前記1つまたは複数のトリガキーワードの第2のトリガキーワードに基づいて前記第2のアクションデータ構造を生成することをする、前記データ処理システムを含む、請求項1に記載のシステム。
  4. 第1のサービス・プロバイダ・コンピューティング・デバイスと前記クライアントコンピューティングデバイスとの間の第1の通信セッションを確立するための前記第1のアクションデータ構造を含む第1のデータ送信を構築することと、
    第2のサービス・プロバイダ・コンピューティング・デバイスと前記クライアントコンピューティングデバイスとの間の第2の通信セッションを確立するための前記第2のアクションデータ構造を含む第2のデータ送信を構築することと、
    前記シーケンス依存性パラメータと前記閾値との前記比較に基づいて、前記第1のデータ送信を前記第2のデータ送信とともに前記単一のスレッドにマージすることと
    をする、前記データ処理システムを含む、請求項1に記載のシステム。
  5. 前記第1のアクションデータ構造の第1のアクションの完了を検出することと、
    前記第1のアクションの前記完了に続いて前記単一のスレッドの前記データパケットをサービス・プロバイダ・コンピューティング・デバイスに送信することであって、前記単一のスレッドは、前記第1のアクションが前記第2のアクションデータ構造の第2のアクションの前に発生するようにスケジュールされることを示す、ことと
    をする、前記データ処理システムを含む、請求項1に記載のシステム。
  6. 前記シーケンス依存性パラメータは、前記第1のアクションデータ構造に対応するアクションが前記第2のアクションデータ構造に対応するアクションの前に発生するようにスケジュールされることを示す、請求項1に記載のシステム。
  7. 前記第1のアクションデータ構造に対応する前記アクションに関連付けられた時刻に基づいて前記第2のアクションデータ構造に対応する前記アクションに関連付けられた条件を識別することと、
    前記条件に応答してサービス・プロバイダ・コンピューティング・デバイスへの前記第2のアクションデータ構造の前記データパケットの伝送を防止することと
    をする、前記データ処理システムを含む、請求項1に記載のシステム。
  8. 前記第1のアクションデータ構造に対応する前記アクションに関連付けられた時刻に基づいて前記第2のアクションデータ構造に対応する前記アクションに関連付けられた条件を識別することと、
    前記条件の終了の指示を受信することと、
    前記条件の前記終了に続いて前記第2のアクションデータ構造の前記データパケットをサービス・プロバイダ・コンピューティング・デバイスに送信することと
    を含む、請求項1に記載のシステム。
  9. 前記単一のスレッドは、前記単一のスレッドに対する一連のシーケンス依存アクションを示し、前記一連のシーケンス依存アクションは、第1のアクション、前記第1のアクションに続く第2のアクション、および前記第2のアクションに続く第3のアクションを含む、請求項1に記載のシステム。
  10. 前記第1のアクションデータ構造の実行の前に前記第2のアクションデータ構造のためのコンテンツ・アイテムを識別する、前記データ処理システムを備える、請求項1に記載のシステム。
  11. 前記単一のスレッドに対する一連のシーケンス依存アクションを識別する、前記スレッド最適化コンポーネントに対する、前記データ処理システムを含む、請求項1に記載のシステム。
  12. 音声ベースのコンピューティング環境においてシーケンス依存動作を行う方法であって、
    データ処理システムにより、インタフェースを介して、クライアントコンピューティングデバイスのセンサにより検出された1つまたは複数の入力オーディオ信号を含むデータパケットを受信するステップと、
    前記データ処理システムにより、前記1つまたは複数の入力オーディオ信号を解析して、1つまたは複数の要求および前記1つまたは複数の要求に対応する1つまたは複数のトリガキーワードを識別するステップと、
    前記データ処理システムにより、前記1つまたは複数のトリガキーワードに基づいておよび前記1つまたは複数の要求に応答して、第1のアクションデータ構造および第2のアクションデータ構造を生成するステップと、
    前記データ処理システムにより、前記第1のアクションデータ構造のデータパケットを取得し、前記第2のアクションデータ構造のデータパケットを取得するステップと、
    前記データ処理システムにより、前記第1のアクションデータ構造の前記データパケットおよび前記第2のアクションデータ構造の前記データパケットに適用されるヒューリスティック技術に基づいて、シーケンス依存性パラメータを決定するステップと、
    前記データ処理システムにより、前記シーケンス依存性パラメータと閾値との比較に基づいて、前記第1のアクションデータ構造の前記データパケットと前記第2のアクションデータ構造の前記データパケットとを単一のスレッドに結合するステップと
    を含む、方法。
  13. 前記1つまたは複数のトリガキーワードの第1のトリガキーワードに基づいて前記第1のアクションデータ構造を生成するステップと、
    第1のサービス・プロバイダ・コンピューティング・デバイスと前記クライアントコンピューティングデバイスとの間の第1の通信セッションを確立するための前記第1のアクションデータ構造を含む第1のデータ送信を構築するステップであって、前記第1の通信セッションのデータパケットは、前記データ処理システムを介して前記クライアントコンピューティングデバイスから前記第1のサービス・プロバイダ・コンピューティング・デバイスにルーティングされる、ステップと、
    前記単一のスレッドにおける前記第1のデータ送信を提供するステップと
    を含む、請求項12に記載の方法。
  14. 前記1つまたは複数のトリガキーワードの第1のトリガキーワードに基づいて前記第1のアクションデータ構造を生成し、前記1つまたは複数のトリガキーワードの第2のトリガキーワードに基づいて前記第2のアクションデータ構造を生成するステップを含む、請求項12に記載の方法。
  15. 第1のサービス・プロバイダ・コンピューティング・デバイスと前記クライアントコンピューティングデバイスとの間の第1の通信セッションを確立するための前記第1のアクションデータ構造を含む第1のデータ送信を構築するステップと、
    第2のサービス・プロバイダ・コンピューティング・デバイスと前記クライアントコンピューティングデバイスとの間の第2の通信セッションを確立するための前記第2のアクションデータ構造を含む第2のデータ送信を構築するステップと、
    前記シーケンス依存性パラメータと前記閾値との前記比較に基づいて、前記第1のデータ送信を前記第2のデータ送信とともに前記単一のスレッドに結合するステップと
    を含む、請求項12に記載の方法。
  16. 前記第1のアクションデータ構造の第1のアクションの完了を検出するステップと、
    前記第1のアクションの前記完了に続いて前記単一のスレッドの前記データパケットをサービス・プロバイダ・コンピューティング・デバイスに送信するステップであって、前記単一のスレッドは、前記第1のアクションが第2のアクションの前に発生するようにスケジュールされることを示す、ステップと
    を含む、請求項12に記載の方法。
  17. 前記シーケンス依存性パラメータは、前記第1のアクションデータ構造に対応するアクションが前記第2のアクションデータ構造に対応するアクションの前に発生するようにスケジュールされることを示す、請求項12に記載の方法。
  18. 前記第1のアクションデータ構造に対応する前記アクションに関連付けられた時刻に基づいて前記第2のアクションデータ構造に対応する前記アクションに関連付けられた条件を識別するステップと、
    前記条件に応答してサービス・プロバイダ・コンピューティング・デバイスへの前記第2のアクションデータ構造の前記データパケットの伝送を防止するステップと
    を含む、請求項12に記載の方法。
  19. 前記第1のアクションデータ構造に対応する前記アクションに関連付けられた時刻に基づいて前記第2のアクションデータ構造に対応する前記アクションに関連付けられた条件を識別するステップと、
    前記条件の終了の指示を受信するステップと、
    前記条件の前記終了に続いて前記第2のアクションデータ構造の前記データパケットをサービス・プロバイダ・コンピューティング・デバイスに送信するステップと
    を含む、請求項12に記載の方法。
  20. 前記第1のアクションデータ構造の実行の前に前記第2のアクションデータ構造のためのコンテンツ・アイテムを識別するステップを含む、請求項12に記載の方法。
JP2019117476A 2016-12-30 2019-06-25 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合 Active JP6756017B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020142494A JP6932827B2 (ja) 2016-12-30 2020-08-26 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/395,725 2016-12-30
US15/395,725 US10630751B2 (en) 2016-12-30 2016-12-30 Sequence dependent data message consolidation in a voice activated computer network environment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017556886A Division JP6549250B2 (ja) 2016-12-30 2017-08-31 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020142494A Division JP6932827B2 (ja) 2016-12-30 2020-08-26 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合

Publications (2)

Publication Number Publication Date
JP2019204515A true JP2019204515A (ja) 2019-11-28
JP6756017B2 JP6756017B2 (ja) 2020-09-16

Family

ID=59901584

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017556886A Active JP6549250B2 (ja) 2016-12-30 2017-08-31 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合
JP2019117476A Active JP6756017B2 (ja) 2016-12-30 2019-06-25 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合
JP2020142494A Active JP6932827B2 (ja) 2016-12-30 2020-08-26 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017556886A Active JP6549250B2 (ja) 2016-12-30 2017-08-31 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020142494A Active JP6932827B2 (ja) 2016-12-30 2020-08-26 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合

Country Status (8)

Country Link
US (3) US10630751B2 (ja)
EP (3) EP3360037B1 (ja)
JP (3) JP6549250B2 (ja)
KR (3) KR102327616B1 (ja)
CN (2) CN108604177B (ja)
DE (2) DE212017000053U1 (ja)
GB (1) GB2571918A (ja)
WO (1) WO2018125306A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10431209B2 (en) 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
US10614153B2 (en) * 2013-09-30 2020-04-07 Google Llc Resource size-based content item selection
US9703757B2 (en) 2013-09-30 2017-07-11 Google Inc. Automatically determining a size for a content item for a web page
CN110811115A (zh) * 2018-08-13 2020-02-21 丽宝大数据股份有限公司 电子化妆镜装置及其脚本运行方法
KR102254501B1 (ko) * 2018-10-19 2021-05-21 한양대학교 산학협력단 부분 순서 보장 기반의 입출력 스케줄러 및 그 방법
US10771523B1 (en) * 2019-04-12 2020-09-08 Dish Network L.L.C. Asynchronous real-time media transfer over wireless networks
US10498721B1 (en) * 2019-06-03 2019-12-03 Capital One Services, Llc Multi-device verification via non-audible sound
CN111459451A (zh) * 2020-03-31 2020-07-28 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113380247A (zh) * 2021-06-08 2021-09-10 阿波罗智联(北京)科技有限公司 多音区语音唤醒、识别方法和装置、设备、存储介质
US11671249B1 (en) * 2022-07-25 2023-06-06 Gravystack, Inc. Apparatus for generating an action-based collective

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043959A (ja) * 2003-07-22 2005-02-17 Toshiba Corp スケジューリング方法および情報処理システム
US20080037656A1 (en) * 2006-08-08 2008-02-14 Miska Hannuksela Method, device, and system for multiplexing of video streams
WO2011088053A2 (en) * 2010-01-18 2011-07-21 Apple Inc. Intelligent automated assistant
WO2013080866A1 (ja) * 2011-11-30 2013-06-06 三菱電機株式会社 情報処理システム及び情報処理方法
WO2014014745A2 (en) * 2012-07-15 2014-01-23 Microsoft Corporation Contextual query adjustments using natural action input
US20150066479A1 (en) * 2012-04-20 2015-03-05 Maluuba Inc. Conversational agent
WO2015179510A1 (en) * 2014-05-20 2015-11-26 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
JP2016122183A (ja) * 2014-12-09 2016-07-07 アップル インコーポレイテッド 音声合成における同綴異音異義語の曖昧さの解消
WO2016111881A1 (en) * 2015-01-09 2016-07-14 Microsoft Technology Licensing, Llc Headless task completion within digital personal assistants
WO2016120904A1 (ja) * 2015-01-28 2016-08-04 三菱電機株式会社 意図推定装置及び意図推定方法
US20160308981A1 (en) * 2013-10-29 2016-10-20 Telefonaktiebolaget L M Ericsson (Publ) Control of a chain of services

Family Cites Families (140)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3493441A (en) * 1967-08-25 1970-02-03 Hooker Chemical Corp Detoxification of hexavalent chromium containing coating on a metal surface
US4603430A (en) 1984-09-21 1986-07-29 Hughes Aircraft Company Target discrimination utilizing median filters
DE69318571T2 (de) 1992-12-01 1998-09-17 Microsoft Corp Verfahren und system für die in-ort-wechselwirkung mit eingebetteten objekten
US5812935A (en) 1993-04-17 1998-09-22 Hughes Electronics Cellular system employing base station transmit diversity according to transmission quality level
US5608727A (en) 1995-05-02 1997-03-04 Motorola, Inc. Method and system for management of frequency spectrum among multiple applications on a shared medium
US6119101A (en) 1996-01-17 2000-09-12 Personal Agents, Inc. Intelligent agents for electronic commerce
DE19716445A1 (de) 1997-04-21 1998-10-22 Heidelberger Druckmasch Ag Verfahren zur Verbreiterung von Zeichen
US6529730B1 (en) 1998-05-15 2003-03-04 Conexant Systems, Inc System and method for adaptive multi-rate (AMR) vocoder rate adaption
US6829646B1 (en) 1999-10-13 2004-12-07 L. V. Partners, L.P. Presentation of web page content based upon computer video resolutions
US20010016034A1 (en) * 1998-12-08 2001-08-23 Sukhinder Singh Method and apparatus for obtaining and aggregating off-line user data for re-packaging and presentation to users over a data-packet-network
US7003729B1 (en) 1999-04-20 2006-02-21 I2 Technologies Us, Inc. Method and apparatus for supporting multiple alternative graphical user interfaces in computer-moderated electronic commerce
US6275806B1 (en) 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6684249B1 (en) 2000-05-26 2004-01-27 Sonicbox, Inc. Method and system for adding advertisements over streaming audio based upon a user profile over a world wide area network of computers
FI20001577A (fi) 2000-06-30 2001-12-31 Nokia Mobile Phones Ltd Puheenkoodaus
US6857007B1 (en) 2000-08-30 2005-02-15 Bloomfield Enterprises, Llc Personal digital assistant facilitated communication system
WO2002086864A1 (en) 2001-04-18 2002-10-31 Rutgers, The State University Of New Jersey System and method for adaptive language understanding by computers
EP1449190B1 (en) 2001-05-02 2013-07-10 Bitstream, Inc. Methods, systems, and programming for producing and displaying subpixel-optimized images and digital content including such images
US7219309B2 (en) 2001-05-02 2007-05-15 Bitstream Inc. Innovations for the display of web pages
GB0118294D0 (en) * 2001-07-27 2001-09-19 Ibm Method and system for deadlock detection and avoidance
GB2392595A (en) 2002-08-30 2004-03-03 Hewlett Packard Co Page composition
US20040056894A1 (en) 2002-09-19 2004-03-25 Igor Zaika System and method for describing and instantiating extensible user interfaces
US7296230B2 (en) 2002-11-29 2007-11-13 Nippon Telegraph And Telephone Corporation Linked contents browsing support device, linked contents continuous browsing support device, and method and program therefor, and recording medium therewith
WO2004068320A2 (en) 2003-01-27 2004-08-12 Vincent Wen-Jeng Lue Method and apparatus for adapting web contents to different display area dimensions
US7512876B2 (en) 2003-02-14 2009-03-31 Access Company, Ltd. Browser program for performing table-layout
KR20040076649A (ko) 2003-02-26 2004-09-03 삼성전자주식회사 종횡비별 브라우저 그래픽 표시 장치 및 방법
KR100447526B1 (ko) 2003-03-18 2004-09-08 엔에이치엔(주) 인터넷 사용자의 접속 의도 판단 방법 및 이를 이용한인터넷 상의 광고 방법과 그 시스템
WO2004109557A1 (en) 2003-06-03 2004-12-16 Forbes Holten Norris, Iii Flexible, dynamic menu-based web-page architecture
GB0320278D0 (en) 2003-08-29 2003-10-01 Hewlett Packard Development Co Constrained document layout
US7809843B1 (en) * 2003-09-18 2010-10-05 Intel Corporation Globally unique identification in communications protocols and databases
NO20034724D0 (no) 2003-10-22 2003-10-22 Opera Software Asa Presentasjon av HTML-innhold på en skjermterminal
KR100458461B1 (ko) 2004-03-04 2004-11-26 엔에이치엔(주) 지식 광고 방법 및 지식 광고 시스템
US7853255B2 (en) 2004-04-16 2010-12-14 Broadcom Corporation Digital personal assistance via a broadband access gateway
US20060103667A1 (en) 2004-10-28 2006-05-18 Universal-Ad. Ltd. Method, system and computer readable code for automatic reize of product oriented advertisements
US20060111971A1 (en) 2004-11-24 2006-05-25 Microsoft Corporation System and method for on-line and off-line advertising in content delivered to a display screen
EP1861800A1 (en) 2005-03-09 2007-12-05 Medio Systems, Inc. Method and system of bidding for advertisement placement on computing devices
JP4346571B2 (ja) * 2005-03-16 2009-10-21 富士通株式会社 音声認識システム、音声認識方法、及びコンピュータプログラム
US7730418B2 (en) 2005-05-04 2010-06-01 Workman Nydegger Size to content windows for computer graphics
JP4665639B2 (ja) 2005-07-19 2011-04-06 日本電気株式会社 通信品質監視システム、通信品質監視装置、通信品質劣化箇所特定装置、その装置における方法及びプログラム
JP2007080357A (ja) 2005-09-13 2007-03-29 Toshiba Corp 情報記憶媒体、情報再生方法、情報再生装置
US8195133B2 (en) 2005-09-14 2012-06-05 Jumptap, Inc. Mobile dynamic advertisement creation and placement
FI118779B (fi) 2005-10-07 2008-03-14 Riku Rikkola Kortti, kortin vastaanottolaite ja järjestelmä sähköenergian välittämistä varten
JP2007115293A (ja) 2005-10-17 2007-05-10 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
US7904505B2 (en) 2005-11-02 2011-03-08 At&T Intellectual Property I, L.P. Service to push author-spoken audio content with targeted audio advertising to users
ES2420559T3 (es) 2006-02-10 2013-08-23 Spinvox Limited Un sistema a gran escala, independiente del usuario e independiente del dispositivo de conversión del mensaje vocal a texto
US7606875B2 (en) 2006-03-28 2009-10-20 Microsoft Corporation Detecting serving area of a web resource
CN101055577A (zh) 2006-04-12 2007-10-17 龙搜(北京)科技有限公司 可扩展标记语言集中器
CN101529307B (zh) 2006-11-01 2012-03-28 日本电气株式会社 图像显示设备
US7742922B2 (en) 2006-11-09 2010-06-22 Goller Michael D Speech interface for search engines
US8031857B2 (en) 2006-12-19 2011-10-04 Scenera Technologies, Llc Methods and systems for changing a communication quality of a communication session based on a meaning of speech data
US7877696B2 (en) 2007-01-05 2011-01-25 Eastman Kodak Company Multi-frame display system with semantic image arrangement
US8107960B2 (en) * 2007-01-23 2012-01-31 Toshiba America Research, Inc. Prioritized query
GB2451415B (en) 2007-02-13 2011-08-17 Vodafone Plc Content reproduction in telecommunications systems
US8413070B1 (en) 2007-05-07 2013-04-02 Adobe Systems Incorporated Declarative resizeable list in electronic form
JPWO2008146784A1 (ja) 2007-05-29 2010-08-19 株式会社Access 端末装置、ヒストリ管理方法、およびヒストリ管理の為のコンピュータ使用可能な記憶媒体
US20090085921A1 (en) 2007-10-01 2009-04-02 Lydia Mai Do Populate Web-Based Content Based on Space Availability
US8095865B2 (en) 2007-11-21 2012-01-10 Microsoft Corporation Layout manager
US8555193B2 (en) 2008-01-17 2013-10-08 Google Inc. System for intelligent automated layout and management of interactive windows
US8453051B1 (en) 2008-03-31 2013-05-28 Amazon Technologies, Inc. Dynamic display dependent markup language interface
US20090279108A1 (en) 2008-05-12 2009-11-12 Nagayasu Hoshi Image Processing Apparatus
JP4547638B2 (ja) 2008-05-29 2010-09-22 ソニー株式会社 Webページ表示装置及びWebページ表示方法
US20090300120A1 (en) 2008-06-03 2009-12-03 Contec Innovations Inc. Method and system for producing a presentation message for a mobile device
CA2633177A1 (en) 2008-06-03 2009-12-03 Contec Innovations, Inc. Method and system for producing a presentation message for a mobile device
US9357075B1 (en) 2008-06-05 2016-05-31 Avaya Inc. Conference call quality via a connection-testing phase
US8527339B2 (en) 2008-06-26 2013-09-03 Microsoft Corporation Quality based pricing and ranking for online ads
US8438310B2 (en) 2008-10-01 2013-05-07 Adp Dealer Services, Inc. Systems and methods for configuring a website having a plurality of operational modes
US8938672B2 (en) 2008-11-04 2015-01-20 International Business Machines Corporation Amending the display property of grid elements
US8145561B1 (en) 2009-01-05 2012-03-27 Sprint Communications Company L.P. Phone usage pattern as credit card fraud detection trigger
JP4978629B2 (ja) 2009-01-19 2012-07-18 コニカミノルタビジネステクノロジーズ株式会社 項目設定装置、並びにその制御方法及び制御プログラム
JP5018794B2 (ja) 2009-01-20 2012-09-05 コニカミノルタビジネステクノロジーズ株式会社 印刷ジョブ出力装置、並びにその制御方法及び制御プログラム
JP4760921B2 (ja) 2009-01-28 2011-08-31 コニカミノルタビジネステクノロジーズ株式会社 項目設定装置、並びにその制御方法及び制御プログラム
US8949582B2 (en) * 2009-04-27 2015-02-03 Lsi Corporation Changing a flow identifier of a packet in a multi-thread, multi-flow network processor
US8448074B2 (en) 2009-05-01 2013-05-21 Qualcomm Incorporated Method and apparatus for providing portioned web pages in a graphical user interface
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
JP5299125B2 (ja) 2009-06-30 2013-09-25 富士ゼロックス株式会社 文書処理装置及びプログラム
JP5340088B2 (ja) 2009-09-07 2013-11-13 キヤノン株式会社 情報処理方法及び装置
JP5032543B2 (ja) 2009-09-16 2012-09-26 株式会社東芝 スケジューリング装置、方法及びプログラム
US8402379B2 (en) 2009-09-30 2013-03-19 SAP Portals Israel Limited Dynamic content layout for a user interface display
US9124642B2 (en) 2009-10-16 2015-09-01 Qualcomm Incorporated Adaptively streaming multimedia
WO2011065564A1 (ja) 2009-11-30 2011-06-03 楽天株式会社 オブジェクト表示装置、オブジェクト表示方法、オブジェクト表示制御プログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8626511B2 (en) * 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
US8793598B2 (en) 2010-04-14 2014-07-29 Microsoft Corporation Cross-browser web dialog platform
WO2012002351A1 (ja) 2010-06-29 2012-01-05 楽天株式会社 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理プログラムが記録された記録媒体
KR101731843B1 (ko) 2010-09-02 2017-05-02 삼성전자 주식회사 아이템 디스플레이하는 방법 및 장치
KR101045589B1 (ko) 2010-09-15 2011-07-01 주식회사 유비온 네트워크를 통해 수신한 컨텐츠의 표시장치 및 그 방법
JP2012073863A (ja) 2010-09-29 2012-04-12 Rakuten Inc 広告表示プログラム、広告表示装置、広告表示方法、記録媒体、および、広告表示システム
US20120159314A1 (en) 2010-12-16 2012-06-21 Microsoft Corporation Adaptive content layout
US20120158490A1 (en) 2010-12-16 2012-06-21 Yahoo! Inc. Sponsored search auction mechanism for rich media advertising
US8510237B2 (en) 2011-03-15 2013-08-13 Qualcomm Incorporated Machine learning method to identify independent tasks for parallel layout in web browsers
US20130007602A1 (en) 2011-06-29 2013-01-03 Apple Inc. Fixed layout electronic publications
US9396167B2 (en) 2011-07-21 2016-07-19 Flipboard, Inc. Template-based page layout for hosted social magazines
US8872855B2 (en) 2011-07-21 2014-10-28 Flipboard, Inc. Adjusting orientation of content regions in a page layout
US9020981B2 (en) 2011-09-30 2015-04-28 Comprehend Systems, Inc. Systems and methods for generating schemas that represent multiple data sources
US9760236B2 (en) 2011-10-14 2017-09-12 Georgia Tech Research Corporation View virtualization and transformations for mobile applications
JP5667962B2 (ja) * 2011-11-08 2015-02-12 日本電信電話株式会社 音声認識装置とその方法とプログラム
US9542956B1 (en) 2012-01-09 2017-01-10 Interactive Voice, Inc. Systems and methods for responding to human spoken audio
US20130290395A1 (en) 2012-04-26 2013-10-31 Empire Technology Development Llc Multimedia application rental and billing
US9323443B2 (en) 2012-05-02 2016-04-26 International Business Machines Corporation Drilling of displayed content in a touch screen device
US20130305144A1 (en) 2012-05-09 2013-11-14 Ni Group Limited Method of Publishing Digital Content
US20130305145A1 (en) 2012-05-09 2013-11-14 Ni Group Limited A Method of Publishing Digital Content
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US20140033228A1 (en) 2012-07-25 2014-01-30 Google Inc. Configuring content display dimensions
US9865008B2 (en) 2012-09-20 2018-01-09 Google Llc Determining a configuration of a content item display environment
US20140108941A1 (en) 2012-10-17 2014-04-17 Christopher Stephen Joel Method and Apparatus for Automatically Optimizing the Loading of Images in a Cloud-Based Proxy Service
US9164966B1 (en) 2012-10-24 2015-10-20 Google Inc. Determining sizes of content items
US8977555B2 (en) * 2012-12-20 2015-03-10 Amazon Technologies, Inc. Identification of utterance subjects
US20140180796A1 (en) 2012-12-21 2014-06-26 Sándor Sás Selecting and serving content items of different content item types for a content item slot
KR20140089876A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 대화형 인터페이스 장치 및 그의 제어 방법
JP2016508007A (ja) 2013-02-07 2016-03-10 アップル インコーポレイテッド デジタルアシスタントのためのボイストリガ
US20140258849A1 (en) 2013-03-06 2014-09-11 Google Inc. Automatic Alignment of a Multi-Dimensional Layout
US11233841B2 (en) 2013-03-15 2022-01-25 Yottaa, Inc. Systems and methods for configuration-based optimization by an intermediary
EP2814244A1 (en) 2013-06-11 2014-12-17 Alcatel Lucent A method and a system for improving communication quality of a video conference
US20140372903A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Independent Hit Testing for Touchpad Manipulations and Double-Tap Zooming
US9472206B2 (en) * 2013-06-17 2016-10-18 Google Technology Holdings LLC Privacy mode for always-on voice-activated information assistant
US9483444B2 (en) 2013-07-09 2016-11-01 Flipboard, Inc. Dynamic layout engine for a digital magazine
US10956433B2 (en) * 2013-07-15 2021-03-23 Microsoft Technology Licensing, Llc Performing an operation relative to tabular data based upon voice input
WO2015041711A1 (en) 2013-09-20 2015-03-26 Yottaa, Inc. Systems and methods for managing loading priority or sequencing of fragments of a web object
US9703757B2 (en) 2013-09-30 2017-07-11 Google Inc. Automatically determining a size for a content item for a web page
US10614153B2 (en) 2013-09-30 2020-04-07 Google Llc Resource size-based content item selection
US10431209B2 (en) 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
US9350770B2 (en) 2014-05-30 2016-05-24 Apple Inc. Redundant transmission channels for real-time applications on mobile devices
US9330433B2 (en) * 2014-06-30 2016-05-03 Intel Corporation Data distribution fabric in scalable GPUs
US10108817B2 (en) 2014-09-26 2018-10-23 Microsoft Technology Licensing, Llc Privacy-preserving cookies for personalization without user tracking
KR102342623B1 (ko) 2014-10-01 2021-12-22 엑스브레인, 인크. 음성 및 연결 플랫폼
JP6449039B2 (ja) * 2015-02-10 2019-01-09 ホーチキ株式会社 機器管理装置、機器管理方法、及びプログラム
US20160274864A1 (en) 2015-03-20 2016-09-22 Google Inc. Systems and methods for enabling user voice interaction with a host computing device
US10671796B2 (en) 2015-06-07 2020-06-02 Apple Inc. Article authoring, distribution and rendering architecture
US10331312B2 (en) * 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US20170092278A1 (en) 2015-09-30 2017-03-30 Apple Inc. Speaker recognition
US9747926B2 (en) 2015-10-16 2017-08-29 Google Inc. Hotword recognition
US9928840B2 (en) 2015-10-16 2018-03-27 Google Llc Hotword recognition
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US9940929B2 (en) 2015-12-09 2018-04-10 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition
CN105654950B (zh) 2016-01-28 2019-07-16 百度在线网络技术(北京)有限公司 自适应语音反馈方法和装置
US11477139B2 (en) * 2016-02-25 2022-10-18 Meta Platforms, Inc. Techniques for messaging bot rich communication
US9864732B2 (en) 2016-05-02 2018-01-09 Google Inc. User interfaces that facilitate management of formatting of digital content
CN106033476B (zh) 2016-05-19 2019-07-23 西安交通大学 一种云计算环境中分布式计算模式下的增量式图计算方法
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US20180012595A1 (en) * 2016-07-07 2018-01-11 Intelligently Interactive, Inc. Simple affirmative response operating system
US20180191798A1 (en) 2016-12-30 2018-07-05 Google Inc. Methods and systems for server-side rendering of native content for presentation

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043959A (ja) * 2003-07-22 2005-02-17 Toshiba Corp スケジューリング方法および情報処理システム
US20080037656A1 (en) * 2006-08-08 2008-02-14 Miska Hannuksela Method, device, and system for multiplexing of video streams
WO2011088053A2 (en) * 2010-01-18 2011-07-21 Apple Inc. Intelligent automated assistant
WO2013080866A1 (ja) * 2011-11-30 2013-06-06 三菱電機株式会社 情報処理システム及び情報処理方法
US20150066479A1 (en) * 2012-04-20 2015-03-05 Maluuba Inc. Conversational agent
WO2014014745A2 (en) * 2012-07-15 2014-01-23 Microsoft Corporation Contextual query adjustments using natural action input
US20160308981A1 (en) * 2013-10-29 2016-10-20 Telefonaktiebolaget L M Ericsson (Publ) Control of a chain of services
WO2015179510A1 (en) * 2014-05-20 2015-11-26 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
JP2016122183A (ja) * 2014-12-09 2016-07-07 アップル インコーポレイテッド 音声合成における同綴異音異義語の曖昧さの解消
WO2016111881A1 (en) * 2015-01-09 2016-07-14 Microsoft Technology Licensing, Llc Headless task completion within digital personal assistants
WO2016120904A1 (ja) * 2015-01-28 2016-08-04 三菱電機株式会社 意図推定装置及び意図推定方法

Also Published As

Publication number Publication date
KR20190107765A (ko) 2019-09-20
JP2020198630A (ja) 2020-12-10
KR20180090184A (ko) 2018-08-10
EP3979067A1 (en) 2022-04-06
EP3360037B1 (en) 2019-11-06
EP3360037A1 (en) 2018-08-15
JP6932827B2 (ja) 2021-09-08
CN108604177A (zh) 2018-09-28
DE212017000053U1 (de) 2018-08-27
EP3588268A1 (en) 2020-01-01
KR102327616B1 (ko) 2021-11-17
KR102023148B1 (ko) 2019-09-20
US20210099511A1 (en) 2021-04-01
US10893088B2 (en) 2021-01-12
EP3588268B1 (en) 2021-11-10
KR20210014773A (ko) 2021-02-09
CN113504888A (zh) 2021-10-15
JP2019506641A (ja) 2019-03-07
GB201803011D0 (en) 2018-04-11
CN108604177B (zh) 2021-06-25
US10630751B2 (en) 2020-04-21
KR102213761B1 (ko) 2021-02-08
US20200213382A1 (en) 2020-07-02
DE112017000104T5 (de) 2018-09-13
JP6549250B2 (ja) 2019-07-24
GB2571918A (en) 2019-09-18
JP6756017B2 (ja) 2020-09-16
WO2018125306A1 (en) 2018-07-05
US20180191804A1 (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP6932827B2 (ja) 音声起動されたコンピュータネットワーク環境におけるシーケンス依存データメッセージ統合
KR102015071B1 (ko) 음성 활성 데이터 패킷의 데이터 구조 풀링
US20210097997A1 (en) Sequence dependent operation processing of packet based data message transmissions
JP7471333B2 (ja) 音声起動されたデータ・パケットのデータ構造プーリング

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200826

R150 Certificate of patent or registration of utility model

Ref document number: 6756017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250