JP2019174846A - データ送信のためのフィードバックコントローラ - Google Patents

データ送信のためのフィードバックコントローラ Download PDF

Info

Publication number
JP2019174846A
JP2019174846A JP2019127639A JP2019127639A JP2019174846A JP 2019174846 A JP2019174846 A JP 2019174846A JP 2019127639 A JP2019127639 A JP 2019127639A JP 2019127639 A JP2019127639 A JP 2019127639A JP 2019174846 A JP2019174846 A JP 2019174846A
Authority
JP
Japan
Prior art keywords
content
processors
processing system
data processing
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019127639A
Other languages
English (en)
Other versions
JP6839234B2 (ja
Inventor
ガウラフ・バハヤ
Bhaya Gaurav
ロバート・ステッツ
Stets Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019174846A publication Critical patent/JP2019174846A/ja
Application granted granted Critical
Publication of JP6839234B2 publication Critical patent/JP6839234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/69Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/309Measuring or estimating channel quality parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/53Network services using third party service providers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/22Arrangements for supervision, monitoring or testing
    • H04M3/2236Quality of speech transmission monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4931Directory assistance systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Electromagnetism (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】音声起動されたデータパケット・ベースのコンピュータネットワーク環境におけるデータ送信のためのフィードバック制御システムを提供する。【解決手段】システムは、オーディオ信号を解析して、トリガキーワードおよび要求を識別することができる。前記システムは前記トリガキーワードまたは要求を用いてコンテンツ・アイテムを選択することができる。前記コンテンツ・アイテムを、前記デバイスおよびサードパーティデバイスの間の通信セッションを確立するように構成することができる。前記システムは前記通信セッションを監視して前記通信セッションの特性を測定することができる。前記システムは前記測定された特性に基づいて品質信号を生成することができる。【選択図】図1

Description

本願は、発明の名称を「データ送信のためのフィードバックコントローラ」とした2016年12月30日に出願された米国特許出願番号第15/395、694号の利益を主張し、本明細書に引用によりすべての目的で全体として取り込まれる。
コンピューティングデバイスの間のパケット・ベースのまたは、ネットワークトラフィックデータの過度なネットワーク送信は、コンピューティングデバイスが当該ネットワークトラフィックデータを正しく処理し、当該ネットワークトラフィックデータに関連する動作を完了し、または当該ネットワークトラフィックデータにタイムリーに応答することを不可能としうる。ネットワークトラフィックデータの当該過度なネットワーク送信はまた、応答するコンピューティングデバイスがその処理能力を上回る場合に、データのルーティングを複雑化しまたは当該応答の品質を劣化させうる、これは非効率的な帯域幅利用をもたらしうる。コンテンツ・アイテム・オブジェクトに対応するネットワーク送信の制御は、コンピューティングデバイスの間のネットワークトラフィックデータのネットワーク送信を開始しうる多数のコンテンツ・アイテム・オブジェクトにより複雑化されうる。
本開示は一般に、1つまたは複数のインタフェースまたは1つまたは複数のタイプのコンピュータネットワーク上のデータ送信に対するフィードバックコントローラに関する。例えば、コンピューティングシステムは制限された数のインタフェース、制限されたタイプのインタフェースにアクセスでき、または制限された数の利用可能なインタフェースが所与の時点にあるかもしれない。特定のタイプのインタフェースがより多いコンピューティングリソースまたはバッテリを消費しうるので、システムが現在利用可能なインタフェースに応答して情報を効率的に送信するのは困難であるかもしれない。異種のコンピューティングリソースが音声ベースのコンピューティング環境においてオーディオベースの命令を効率的に処理し、一貫しておよび正確に解析するのは困難であるので、効率的に、信頼性高く、および正確に異種のコンピューティングリソース上で情報を通信するのは困難であるかもしれない。例えば、当該異種のコンピューティングリソースは、同一の音声モデルへのアクセスを有さないかもしれず、または当該オーディオベースの命令を正確かつ一環して解析するのを困難にしうる古いまたは非同期の音声モデルにアクセスするかもしれない。
本開示のシステムおよび方法は一般にデータ送信のためのフィードバックコントローラに関する。データ処理システムは、当該音声ベースの命令を解析し、コンテンツセレクタコンポーネントにより実施されるリアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択するように集約音声に基づいてトレーニングされる音声モデルを用いて、当該音声ベースの入力を処理することができる。データ処理システムは、当該選択されたコンテンツ・アイテムを当該クライアントコンピューティングデバイスに送信して、当該クライアントコンピューティングデバイスおよび当該選択されたコンテンツ・アイテムに関連付けられたサードパーティプロバイダデバイスの間の通信セッションを開始することができる。データ処理システムは当該通信セッションに関する情報を監視または受信して、当該通信セッションの特性を測定し品質信号を生成することができる。データ処理システムは次いで、当該リアルタイムコンテンツ選択プロセスに影響を及ぼすために、当該品質信号に基づいて当該コンテンツセレクタコンポーネントを調節または制御することができる。例えば、当該コンテンツセレクタコンポーネントが低品質通信セッションに関連付けられたコンテンツ・アイテム・オブジェクトを選択するのをブロックまたは防止することは、当該コンテンツ・アイテムを選択し通信セッションを確立するのを許可するのと比べて、無駄なリソース消費を減らすことができる。さらに、バッテリ電力を利用するクライアントデバイスに対して、当該フィードバックモニタコンポーネントはバッテリ利用を節約することができる。
少なくとも1つの態様はコンピュータネットワーク上のデータ送信に対するフィードバック制御システムに関する。当該システムは自然言語プロセッサおよびコンテンツセレクタコンポーネントを実行するデータ処理システムを含むことができる。当該システムはフィードバックモニタコンポーネントを含むことができる。自然言語プロセッサコンポーネントは、データ処理システムのインタフェースを介して、クライアントデバイスのセンサにより検出された入力オーディオ信号を含むデータパケットを受信することができる。自然言語プロセッサコンポーネントは当該入力オーディオ信号を解析して、要求および当該要求に対応するトリガキーワードを識別することができる。データ処理システムは、自然言語プロセッサにより識別された当該トリガキーワードを受信し、当該トリガキーワードに基づいて、リアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択するコンテンツセレクタコンポーネントを含むことができる。当該システムはフィードバックモニタコンポーネントを含むことができる。当該フィードバックモニタコンポーネントは、クライアントデバイスと、当該コンテンツ・アイテムとの対話に応答してクライアントデバイスとの通信セッションを確立した会話アプリケーションプログラミングインタフェースとの間で送信された可聴信号を運搬するデータパケットを受信することができる。当該フィードバックモニタは、当該可聴信号に基づいて当該通信セッションの特性を測定することができる。当該フィードバックモニタコンポーネントは当該測定された特性に基づいて品質信号を生成することができる。当該コンテンツセレクタコンポーネントは当該品質信号に基づいて当該リアルタイム選択プロセスを調節することができる。
少なくとも1つの態様はフィードバック制御システムを用いてコンピュータネットワーク上でデータを送信する方法に関する。当該方法を、少なくとも部分的に、自然言語プロセッサコンポーネントおよびコンテンツセレクタコンポーネントを実行するデータ処理システムにより実施することができる。当該方法を、少なくとも部分的にフィードバックモニタコンポーネントにより実施することができる。当該方法は、自然言語プロセッサコンポーネントが、データ処理システムのインタフェースを介して、クライアントデバイスのセンサにより検出された入力オーディオ信号を含むデータパケットを受信するステップを含むことができる。当該方法は、データ処理システムが当該入力オーディオ信号を解析して、要求および当該要求に対応するトリガキーワードを識別するステップを含むことができる。当該方法は、当該コンテンツセレクタコンポーネントが自然言語プロセッサにより識別された当該トリガキーワードを受信するステップを含むことができる。当該方法は、当該コンテンツセレクタコンポーネントが、当該トリガキーワードに基づいて、リアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択するステップを含むことができる。当該方法は、当該フィードバックモニタコンポーネントが、クライアントデバイスと、当該コンテンツ・アイテムとの対話に応答してクライアントデバイスとの通信セッションを確立した会話アプリケーションプログラミングインタフェースとの間で送信された可聴信号を運搬するデータパケットを受信するステップを含むことができる。当該方法は、当該フィードバックモニタコンポーネントが当該可聴信号に基づいて当該通信セッションの品質を測定するステップを含むことができる。当該方法は、当該フィードバックモニタコンポーネントが当該測定された特性に基づいて品質信号を生成するステップを含むことができる。当該方法は、当該フィードバックモニタコンポーネントが当該品質信号に基づいて当該リアルタイム選択プロセスを調節するステップを含むことができる。
これらのおよび他の態様および実装を以下で説明する。以上の情報および以下の詳細な説明は様々な態様および実装の例示的な例を含み、クレームした態様および実装の性質と特徴を理解するための概要またはフレームワークを提供する。当該図面は当該様々な態様および実装の例示とさらなる理解を提供し、本明細書に組み込まれ本明細書の一部を構成する。
添付図面は正しい縮尺で描かれていない。当該様々な図面における同じ参照番号および指定は同じ要素を示す。明確さの目的のため、全てのコンポーネントが全ての図面においてラベル付けされていないかもしれない。
コンピュータネットワーク上のデータ送信に対するフィードバック制御システムの例示を示す図である。 コンピュータネットワーク上のデータ送信に対するフィードバック制御システムの動作の例示を示す図である。 フィードバック制御システムを用いてデータをコンピュータネットワーク上で送信する方法の例示を示す図である。 本明細書で説明し図示したシステムおよび方法の要素を実装するために使用できるコンピュータシステム向けの汎用アーキテクチャを示すブロック図である。
以下は、およびコンピュータネットワーク上のデータ送信のためのフィードバック制御システムの方法、装置、およびシステムの実装に関連する様々な概念のより詳細な説明である。上で導入し以下でさらに詳細に説明する様々な概念を任意の多数の方法で実装してもよい。
本開示は一般に、1つまたは複数のインタフェースまたは1つまたは複数のタイプのコンピュータネットワーク上のデータ送信に対するフィードバックコントローラに関する。例えば、コンピューティングシステムは制限された数のインタフェース、制限されたタイプのインタフェースにアクセスでき、または制限された数の利用可能なインタフェースが所与の時点にあるかもしれない。特定のタイプのインタフェースがより多いコンピューティングリソースまたはバッテリを消費しうるので、システムが現在利用可能なインタフェースに応答して情報を効率的に送信するのは困難であるかもしれない。異種のコンピューティングリソースが音声ベースのコンピューティング環境においてオーディオベースの命令を効率的に処理し、一貫しておよび正確に解析するのは困難であるので、効率的に、信頼性高く、および正確に異種のコンピューティングリソース上で情報を通信するのは困難であるかもしれない。例えば、当該異種のコンピューティングリソースは、同一の音声モデルへのアクセスを有さないかもしれず、または当該オーディオベースの命令を解析するのを困難にしうる古いまたは非同期の音声モデルにアクセスするかもしれない。
本開示のシステムおよび方法は一般にデータ送信のためのフィードバックコントローラに関する。データ処理システムは、当該音声ベースの命令を解析し、コンテンツセレクタコンポーネントにより実施されるリアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択するように集約音声に基づいてトレーニングされる音声モデルを用いて、当該音声ベースの入力を処理することができる。データ処理システムは、当該選択されたコンテンツ・アイテムを当該クライアントコンピューティングデバイスに送信して、当該クライアントコンピューティングデバイスおよび当該選択されたコンテンツ・アイテムに関連付けられたサードパーティプロバイダデバイスの間の通信セッションを開始することができる。データ処理システムは、当該通信セッションに関する情報を監視または受信して、当該通信セッションの特性を測定し品質信号を生成することができる。データ処理システムは次いで、当該リアルタイムコンテンツ選択プロセスに影響を及ぼすために、当該品質信号に基づいて当該コンテンツセレクタコンポーネントを調節または制御することができる。
図1は、コンピュータネットワーク上のデータ送信のための例示的なフィードバック制御システム100を示す。システム100はコンテンツ選択インフラを含むことができる。システム100はデータ処理システム102を含むことができる。データ処理システム102はネットワーク105を介してコンテンツプロバイダコンピューティングデバイス106、サービスプロバイダコンピューティングデバイス108、またはクライアントコンピューティングデバイス104の1つまたは複数と通信することができる。ネットワーク105は、インターネット、ローカル・エリア・ネットワーク、広域ネットワーク、メトロポリタン・ネットワーク、または他の領域ネットワーク、イントラネット、衛星ネットワーク、および音声またはデータモバイル電話ネットワークのような他の通信ネットワークのようなコンピュータネットワークを含むことができる。ネットワーク105を、ラップトップ、デスクトップ、タブレット、携帯情報端末、スマートフォン、ポータブルコンピュータ、またはスピーカのような少なくとも1つのコンピューティングデバイス104に提供、出力、描画、または表示できる、ウェブページ、ウェブサイト、ドメイン名、またはユニフォーム・リソース・ロケータのような情報リソースにアクセスするために使用することができる。例えば、ネットワーク105を介してコンピューティングデバイス104のユーザは、サービスプロバイダ108またはコンテンツプロバイダ106により提供された情報またはデータにアクセスすることができる。
ネットワーク105は、コンテンツ配置または検索エンジン結果システムに関連付けられるか、または、サードパーティコンテンツ・アイテムをコンテンツ・アイテム配置キャンペーンの一部として含む権利があるディスプレイネットワーク、例えば、インターネット上で利用可能な情報リソースのサブセットを含むかまたは構成することができる。ネットワーク105を、クライアントコンピューティングデバイス104により提供、出力、描画、または表示できるウェブページ、ウェブサイト、ドメイン名、またはユニフォーム・リソース・ロケータのような情報リソースにアクセスするためにデータ処理システム102により使用することができる。例えば、ネットワーク105を介してクライアントコンピューティングデバイス104のユーザは、コンテンツプロバイダコンピューティングデバイス106またはサービスプロバイダコンピューティングデバイス108により提供された情報またはデータにアクセスすることができる。
ネットワーク105は、任意のタイプまたは形態のネットワークであってもよく、ポイント・ツー・ポイントネットワーク、ブロードキャストネットワーク、広帯域ネットワーク、ローカル・エリア・ネットワーク、電気通信ネットワーク、データ通信ネットワーク、コンピュータネットワーク、ATM(Asynchronous Transfer Mode)ネットワーク、SONET(Synchronous Optical Network)ネットワーク、SDH(Synchronous Digital Hierarchy)ネットワーク、ワイヤレスネットワークおよび有線ネットワークのうち何れかを含んでもよい。ネットワーク105は赤外線チャネルまたは衛星帯域のような無線リンクを含んでもよい。ネットワーク105のトポロジはバス、星形、またはリング・ネットワークトポロジを含んでもよい。当該ネットワークは、高度携帯電話プロトコル(「AMPS」)、時分割多重アクセス(「TDMA」)、符号分割多重アクセス(「CDMA」)、グローバル・システム・フォー・モバイル・コミュニケーション(「GSM(登録商標)」)、汎用パケット無線サービス(「GPRS」)またはユニバーサル・モバイル電気通信システム(「UMTS」)を含む、モバイルデバイスの間で通信するために使用される任意の1つまたは複数のプロトコルを用いた携帯電話ネットワークを含んでもよい。様々なタイプのデータが異なるプロトコルを介して送信されてもよい、または同一のタイプのデータが異なるプロトコルを介して送信されてもよい。
システム100は少なくとも1つのデータ処理システム102を含むことができる。データ処理システム102は、ネットワーク105を介して、例えばコンピューティングデバイス104、コンテンツプロバイダデバイス106(コンテンツプロバイダ106)、またはサービスプロバイダデバイス108(またはサービスプロバイダ108)と通信するためのプロセッサを有するコンピューティングデバイスのような少なくとも1つの論理デバイスを含むことができる。データ処理システム102は、少なくとも1つの計算リソース、サーバ、プロセッサまたはメモリを含むことができる。例えば、データ処理システム102は少なくとも1つのデータセンタに配置された複数の計算リソースまたはサーバを含むことができる。データ処理システム102は、複数の、論理的にグループ化されたサーバを含むことができ、分散コンピューティング技術を促進する。サーバの当該論理グループをデータセンタ、サーバ・ファームまたはマシン・ファームと称してもよい。当該サーバはまた、地理的に分散されることができる。データセンタまたはマシン・ファームを単一のエンティティとして管理してもよく、または当該マシン・ファームは複数のマシン・ファームを含むことができる。各マシン・ファーム内の当該サーバは不均一であることができる。即ち、当該サーバまたはマシンのうち1つまたは複数が1つまたは複数のタイプのオペレーティング・システムプラットフォームに従って動作することができる。
当該マシン・ファーム内のサーバを、関連付けられた記憶システムとともに高密度ラック・システムに格納でき、エンタープライズデータセンタに配置することができる。例えば、当該サーバをこのように統合することで当該システムのシステム管理可能性、データセキュリティ、物理セキュリティを高めることができ、高性能ネットワーク上にサーバおよび高性能記憶システムを配置することでシステム性能を高めることができる。サーバおよび記憶システムを含むデータ処理システム102コンポーネントの全部または一部の集約化は、それらを高度なシステム管理ツールと組み合わせることで、サーバリソースのより効率的な利用を可能とし、これは電力および処理要件を節約し帯域幅利用を減らす。
システム100は、少なくとも1つのサービスプロバイダデバイス108を含み、それにアクセスし、または対話することができる。サービスプロバイダデバイス108は、ネットワーク105を介して例えばコンピューティングデバイス104、データ処理システム102、またはコンテンツプロバイダ106と通信するためのプロセッサを有するコンピューティングデバイスのような少なくとも1つの論理デバイスを含むことができる。サービスプロバイダデバイス108は、少なくとも1つの計算リソース、サーバ、プロセッサまたはメモリを含むことができる。例えば、サービスプロバイダデバイス108は少なくとも1つのデータセンタに配置された複数の計算リソースまたはサーバを含むことができる。サービスプロバイダデバイス108はデータ処理システム102の1つまたは複数のコンポーネントまたは機能を含むことができる。
コンテンツプロバイダコンピューティングデバイス106は、クライアントコンピューティングデバイス104により表示するためのオーディオベースのコンテンツ・アイテムを、オーディオ出力コンテンツ・アイテムとして提供することができる。当該コンテンツ・アイテムは「Would you like me to order you a taxi?」と述べる音声ベースのメッセージのような商品またはサービスの申し出を含むことができる。例えば、コンテンツプロバイダコンピューティングデバイス155は、音声ベースのクエリに応答して提供できる一連のオーディオコンテンツ・アイテムを格納するためのメモリを含むことができる。コンテンツプロバイダコンピューティングデバイス106はまた、オーディオベースのコンテンツ・アイテム(または他のコンテンツ・アイテム)をデータ処理システム102に提供することができる。それらをデータリポジトリ124に格納することができる。データ処理システム102は当該オーディオコンテンツ・アイテムを選択し、当該オーディオコンテンツ・アイテムをクライアントコンピューティングデバイス104に提供する(または提供するようにコンテンツプロバイダコンピューティングデバイス104に指示する)ことができる。当該オーディオベースのコンテンツ・アイテムは、排他的にオーディオであることができ、または、テキスト、画像、またはビデオデータと組み合わせることができる。
サービスプロバイダデバイス108はインタフェースを含むことができ、または少なくとも1つのサービスプロバイダ自然言語プロセッサコンポーネント142およびサービスプロバイダインタフェース144と通信することができる。サービスプロバイダコンピューティングデバイス108は、少なくとも1つのサービスプロバイダ自然言語プロセッサ(NLP)コンポーネント142および少なくとも1つのサービスプロバイダインタフェース144を含むことができる。サービスプロバイダNLPコンポーネント142(またはサービスプロバイダコンピューティングデバイス108のダイレクト・アクションAPIのような他のコンポーネント)は、クライアントコンピューティングデバイス104と(データ処理システム102を介してまたはデータ処理システム102をバイパスして)協働して、クライアントコンピューティングデバイス104およびサービスプロバイダコンピューティングデバイス108の間の行き来するリアルタイム音声またはオーディオベースの会話(例えば、セッション)を生成することができる。サービスプロバイダNLP142はデータ処理システム102のNLPコンポーネント112としての1つまたは複数の機能または特徴を含むことができる。例えば、サービスプロバイダインタフェース144はデータメッセージを受信またはデータ処理システム102のダイレクト・アクションAPI116に提供することができる。サービスプロバイダコンピューティングデバイス108およびコンテンツプロバイダコンピューティングデバイス106を同一のエンティティに関連付けることができる。例えば、コンテンツプロバイダコンピューティングデバイス106はカーシェア・サービスに対して利用可能なコンテンツ・アイテムを生成、格納、または作成でき、サービスプロバイダコンピューティングデバイス108はクライアントコンピューティングデバイス106とのセッションを確立してクライアントコンピューティングデバイス104のエンド・ユーザをピックアップするためのタクシーまたはカーシェア・サービスの車の配送をアレンジすることができる。データ処理システム102、ダイレクト・アクションAPI116を介して、NLPコンポーネント112または他のコンポーネントはまた、当該クライアントコンピューティングデバイスとのセッションを確立し、サービスプロバイダコンピューティングデバイス104を含むかまたはバイパスして、例えばタクシーまたは当該カーシェア・サービスの車の配送をアレンジすることができる。
コンピューティングデバイス104は、インタフェースを含むことができ、または少なくとも1つのセンサ134、トランスデューサ136、オーディオドライバ138、またはプリプロセッサ140と通信することができる。センサ134は、例えば、周辺光センサ、近接性センサ、温度センサ、加速度計、ジャイロスコープ、動き検出器、GPSセンサ、位置センサ、マイクロフォン、またはタッチセンサを含むことができる。トランスデューサ136はスピーカまたはマイクロフォンを含むことができる。オーディオドライバ138はソフトウェアインタフェースをハードウェアトランスデューサ136に提供することができる。当該オーディオドライバはデータ処理システム102により提供されたオーディオファイルまたは他の命令を実行して、対応する音波または音波を生成するようにトランスデューサ136を制御することができる。プリプロセッサ140を、キーワードを検出し当該キーワードに基づいてアクションを実施するように構成することができる。プリプロセッサ140は、1つまたは複数の用語をフィルタするか、または、当該用語を、さらなる処理のために当該用語をデータ処理システム102に送信する前に修正することができる。プリプロセッサ140は当該マイクロフォンにより検出されたアナログオーディオ信号をデジタルオーディオ信号に変換し、ネットワーク105を介して、当該デジタルオーディオ信号を運搬する1つまたは複数のデータパケットをデータ処理システム102に送信することができる。幾つかのケースでは、プリプロセッサ140は、かかる送信を実施するための命令を検出したことに応答して、当該入力オーディオ信号の一部または全部を運搬するデータパケットを送信することができる。当該命令は、例えば、当該入力オーディオ信号を含むデータパケットをデータ処理システム102に送信するためのトリガキーワードまたは他のキーワードまたは承認を含むことができる。
クライアントコンピューティングデバイス104をエンド・ユーザに関連付けることができる。当該エンド・ユーザは、(センサ134を介して)音声クエリをオーディオ入力としてクライアントコンピューティングデバイス104に入力し、データ処理システム102(またはコンテンツプロバイダコンピューティングデバイス106またはサービスプロバイダコンピューティングデバイス108)からクライアントコンピューティングデバイス104に、トランスデューサ136(例えば、スピーカ)からの出力を提供できる、コンピュータ生成された音声の形でオーディオ出力を受信する。当該コンピュータ生成された音声は実際の人またはコンピュータ生成された言語からの記録を含むことができる。
データリポジトリ124は1つまたは複数のローカルまたは分散データベースを含むことができ、データベース管理システムを含むことができる。データリポジトリ124はコンピュータデータ記憶またはメモリを含むことができ、他のデータのうち1つまたは複数のパラメータ126、1つまたは複数のポリシ128、コンテンツデータ130、またはテンプレート132を格納することができる。パラメータ126、ポリシ128、およびテンプレート132は、音声ベースのセッションに関するルールクライアントコンピューティングデバイス104およびデータ処理システム102(またはサービスプロバイダコンピューティングデバイス108)の間のような情報を含むことができる。コンテンツデータ130は、オーディオ出力に対するコンテンツ・アイテムまたは関連付けられたメタデータ、ならびにクライアントコンピューティングデバイス104との1つまたは複数の通信セッションの一部でありうる入力オーディオメッセージを含むことができる。
データ処理システム102は少なくとも1つの計算リソースまたはサーバを有するコンテンツ配置システムを含むことができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つのインタフェース110と通信することができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つの自然言語プロセッサコンポーネント112と通信することができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つのダイレクト・アクションアプリケーションプログラミングインタフェース(「API」)116と通信することができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つのセッションハンドラ114と通信することができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つのコンテンツセレクタコンポーネント118と通信することができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つのフィードバックモニタコンポーネント120と通信することができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つのオーディオ信号ジェネレータ122と通信することができる。データ処理システム102は、インタフェースを含むことができ、または少なくとも1つのデータリポジトリ124と通信することができる。少なくとも1つのデータリポジトリ124は、1つまたは複数のデータ構造またはデータベースに、パラメータ126、ポリシ128、コンテンツデータ130、またはテンプレート132を含むかまたは格納することができる。パラメータ126は、例えば、閾値、距離、時間間隔、期間、スコア、または重みを含むことができる。コンテンツデータ130は、例えば、コンテンツキャンペーン情報、コンテンツグループ、コンテンツ選択基準、コンテンツ・アイテム・オブジェクトまたはコンテンツプロバイダ106により提供されたまたはコンテンツ選択を促進するためにデータ処理システムにより取得または決定された他の情報を含むことができる。コンテンツデータ130は、例えば、コンテンツキャンペーンの履歴性能を含むことができる。
インタフェース110、自然言語プロセッサコンポーネント112、セッションハンドラ114、ダイレクト・アクションAPI116、コンテンツセレクタコンポーネント118、フィードバックモニタコンポーネント120、またはオーディオ信号ジェネレータコンポーネント122はそれぞれ、プログラム可能論理アレイエンジンのような少なくとも1つの処理ユニットまたは他の論理デバイス、またはデータベースリポジトリまたはデータベース124と通信するように構成されたモジュールを含むことができる。インタフェース110、自然言語プロセッサコンポーネント112、セッションハンドラ114、ダイレクト・アクションAPI116、コンテンツセレクタコンポーネント118、フィードバックモニタコンポーネント120、オーディオ信号ジェネレータコンポーネント122およびデータリポジトリ124は別々のコンポーネント、単一のコンポーネント、またはデータ処理システム102の一部であることができる。データ処理システム102のようなシステム100およびそのコンポーネント、は1つまたは複数のプロセッサ、論理デバイス、または回路のようなハードウェア要素を含むことができる。
データ処理システム102は複数のコンピューティングデバイス104に関連付けられた匿名コンピュータネットワーク活動情報を取得することができる。コンピューティングデバイス104のユーザは、データ処理システム102を肯定的に認証してユーザのコンピューティングデバイス104に対応するネットワーク活動情報を取得することができる。例えば、データ処理システム102は1つまたは複数のタイプのネットワーク活動情報を取得することに対する同意に関してコンピューティングデバイス104のユーザを促すことができる。コンピューティングデバイス104のユーザのアイデンティティは匿名のままであってもよくコンピューティングデバイス104を、一意な識別子(例えば、データ処理システムまたは当該コンピューティングデバイスのユーザにより提供された当該コンピューティングデバイスの一意な識別子)に関連付けることができる。データ処理システムは各観測を対応する一意な識別子に関連付けることができる。
コンテンツプロバイダ106は電子コンテンツキャンペーンを確立することができる。当該電子コンテンツキャンペーンをコンテンツデータ130としてデータリポジトリ124に格納することができる。電子コンテンツキャンペーンは、共通のテーマに対応する1つまたは複数のコンテンツグループを指すことができる。コンテンツキャンペーンは、コンテンツグループ、コンテンツ・アイテムデータオブジェクト、およびコンテンツ選択基準を含む階層的データ構造を含むことができる。コンテンツキャンペーンを生成するために、コンテンツプロバイダ106は、当該コンテンツキャンペーンのキャンペーンレベルパラメータの値を指定することができる。当該キャンペーンレベルパラメータは、例えば、キャンペーン名、コンテンツ・アイテム・オブジェクトを配置するための好適なコンテンツネットワーク、当該コンテンツキャンペーンに使用されるリソースの値、当該コンテンツキャンペーンの開始日と終了日、当該コンテンツキャンペーンの期間、コンテンツ・アイテム・オブジェクト配置のスケジュール、言語、地理的位置、コンテンツ・アイテム・オブジェクトを提供するコンピューティングデバイスのタイプを含むことができる。幾つかのケースでは、インプレッションは、コンテンツ・アイテム・オブジェクトがそのソース(例えば、データ処理システム102またはコンテンツプロバイダ106)からフェッチされたときを指すことができ、計測可能である。幾つかのケースでは、クリック詐欺の可能性のため、ロボット活動をインプレッションとしてフィルタし除外することができる。したがって、幾つかのケースでは、インプレッションはWebサーバからブラウザからのページ要求への応答の測定値を指すことができる、当該ページ要求はロボット活動およびエラーコードからフィルタされ、コンピューティングデバイス104に表示するためのコンテンツ・アイテム・オブジェクトを描画する機会にできるだけ近いポイントで記録される。幾つかのケースでは、インプレッションは視聴可能または可聴なインプレッションを指すことができる。例えば、当該コンテンツ・アイテム・オブジェクトは、少なくとも部分的に(例えば、20%、30%、30%、40%、50%、60%、70%、またはそれ以上)クライアントコンピューティングデバイス104のディスプレイデバイスで視聴可能、またはコンピューティングデバイス104のスピーカ136を介して可聴である。クリックまたは選択は、可聴インプレッションへの音声応答、マウス・クリック、タッチ対話、ジェスチャ、振動、オーディオ対話、またはキーボードクリックのような当該コンテンツ・アイテム・オブジェクトとのユーザ対話を指すことができる。変換は、ユーザが、当該コンテンツ・アイテム・オブジェクトに関して所望のアクションをとったこと、例えば、製品またはサービスの購入、調査の完了、当該コンテンツ・アイテムに対応する物理的な店の訪問、または電子トランザクションの完了を指すことができる。
コンテンツプロバイダ106はさらに、コンテンツキャンペーンに対する1つまたは複数のコンテンツグループを確立することができる。コンテンツグループは、1つまたは複数のコンテンツ・アイテム・オブジェクトおよびキーワード、単語、用語、フレーズ、地理的位置、コンピューティングデバイスのタイプ、日時、関心、トピック、または垂直線のような対応するコンテンツ選択基準を含む。同一のコンテンツキャンペーンのもとでのコンテンツグループは同一のキャンペーンレベルパラメータを共有できるが、キーワード、(例えば、メイン・コンテンツに対するネガティブなキーワードの存在下で当該コンテンツ・アイテムの配置をブロックする)ネガティブなキーワード、キーワードに対する入札、または当該入札またはコンテンツキャンペーンに関連付けられたパラメータのような特定のコンテンツグループレベルパラメータに対して仕様をカスタマイズしているかもしれない。
新たなコンテンツグループを生成するために、コンテンツプロバイダは、コンテンツグループのコンテンツグループレベルパラメータの値を提供することができる。当該コンテンツグループレベルパラメータは、例えば、コンテンツグループの名前またはコンテンツグループのテーマ、および異なるコンテンツ配置の機会(例えば、自動配置または管理された配置)に対する入札または結果(例えば、クリック、インプレッション、または変換)を含む。コンテンツグループの名前またはコンテンツグループのテーマはコンテンツプロバイダ106が当該コンテンツグループのどのコンテンツ・アイテム・オブジェクトが表示のために選択されるべきかに対するトピックまたは主題をキャプチャするために使用できる、1つまたは複数の用語であることができる。例えば、カー・ディーラーは、それが有する車のブランドごとに異なるコンテンツグループを生成でき、さらに、それが有する車のモデルごとに異なるコンテンツグループを生成してもよい。当該カー・ディーラーが使用できるコンテンツグループテーマの例には、例えば、「Make A sports car」「Make B sports car」、「Make C sedan」、「Make C truck」、「Make C hybrid」、または「Make D hybrid」が含まれる。例示的なコンテンツキャンペーンテーマは「ハイブリッド」であることができ、例えば「Make C hybrid」および「Make D hybrid」の両方に対するコンテンツグループを含む。
コンテンツプロバイダ106は、1つまたは複数のキーワードおよびコンテンツ・アイテム・オブジェクトを各コンテンツグループに提供することができる。キーワードは、当該コンテンツ・アイテム・オブジェクトに関連付けられるかまたは識別された製品またはサービスに関連する用語を含むことができる。キーワードは1つまたは複数の用語またはフレーズを含むことができる。例えば、カー・ディーラーはコンテンツグループまたはコンテンツキャンペーンのためのキーワードとして、「スポーツカー」、「V6エンジン」、「四輪駆動」、「燃料効率」、を含むことができる。幾つかのケースでは、ネガティブなキーワードを、特定の用語またはキーワードに対するコンテンツ配置を回避、防止、ブロック、または無効にするためにコンテンツプロバイダにより指定することができる。コンテンツプロバイダは、コンテンツ・アイテム・オブジェクトを選択するために使用される厳密なマッチ、フレーズマッチ、または広義のマッチのようなマッチングのタイプを指定することができる。
コンテンツプロバイダ106は、コンテンツプロバイダ106により提供されたコンテンツ・アイテム・オブジェクトを選択するためにデータ処理システム102により使用される1つまたは複数のキーワードを提供することができる。コンテンツプロバイダ106は、入札する1つまたは複数のキーワードを識別でき、さらに様々なキーワードに対する入札量を提供することができる。コンテンツプロバイダ106は、コンテンツ・アイテム・オブジェクトを選択するためにデータ処理システム102により使用される追加のコンテンツ選択基準を提供することができる。複数のコンテンツプロバイダ106は同一のまたは異なるキーワードに入札でき、データ処理システム102は、電子メッセージのキーワードの指示を受信したことに応答して、コンテンツ選択プロセスまたは広告オークションを実行することができる。
コンテンツプロバイダ106は、データ処理システム102により選択するための1つまたは複数のコンテンツ・アイテム・オブジェクトを提供することができる。データ処理システム102(例えば、コンテンツセレクタコンポーネント118を介して)はリソース位置、コンテンツスケジュール、最大入札、キーワード、およびコンテンツグループに対して指定された他の選択基準にマッチするコンテンツ配置機会が利用可能になったとき、当該コンテンツ・アイテム・オブジェクトを選択することができる。様々なタイプのコンテンツ・アイテム・オブジェクトは、音声コンテンツ・アイテム、オーディオコンテンツ・アイテム、テキストコンテンツ・アイテム、画像コンテンツ・アイテム、ビデオコンテンツ・アイテム、マルチメディアコンテンツ・アイテム、またはコンテンツ・アイテムリンクのようなコンテンツグループに含まれることができる。コンテンツ・アイテムを選択すると、データ処理システム102は、コンピューティングデバイス104またはコンピューティングデバイス104のディスプレイデバイスに描画するために当該コンテンツ・アイテム・オブジェクトを送信することができる。描画は、当該コンテンツ・アイテムをディスプレイデバイスに表示すること、またはコンピューティングデバイス104のスピーカを介して当該コンテンツ・アイテムを再生することを含むことができる。データ処理システム102は、コンピューティングデバイス104への命令を、当該コンテンツ・アイテムを描画するオブジェクトに提供することができる。データ処理システム102は、オーディオ信号または音波を生成するように、コンピューティングデバイス104、またはコンピューティングデバイス104のオーディオドライバ138に指示することができる。
データ処理システム102は例えば、データパケットを用いて情報を送受信するように設計され、構成され、構築され、または動作するインタフェースコンポーネント110を含むことができる。インタフェース110は、ネットワークプロトコルのような1つまたは複数のプロトコルを用いて情報を送受信することができる。インタフェース110は、ハードウェアインタフェース、ソフトウェアインタフェース、有線インタフェース、またはワイヤレスインタフェースを含むことができる。インタフェース110は、或るフォーマットから別のフォーマットへのデータ変換またはデータ・フォーマットを促進することができる。例えば、インタフェース110は、ソフトウェアコンポーネントのような様々なコンポーネントの間で通信するための定義を含むアプリケーションプログラミングインタフェースを含むことができる。
データ処理システム102は、入力オーディオ信号をデータ処理システム102のインタフェース110に送信し当該クライアントコンピューティングデバイスのコンポーネントを駆動して、出力オーディオ信号を描画するためのアプリのようなクライアントコンピューティングデバイス104にインストールされたアプリケーション、スクリプトまたはプログラムを含むことができる。データ処理システム102はオーディオ入力信号を含むかまたは識別するデータパケットまたは他の信号を受信することができる。例えば、データ処理システム102は、NLPコンポーネント112を実行して、当該オーディオ信号を受信または取得し、当該オーディオ信号を解析することができる。例えば、NLPコンポーネント112は人間とコンピュータの間の対話を提供することができる。NLPコンポーネント112を、自然言語を理解しデータ処理システム102が人間または自然言語入力から意味を導出するための技術で構成することができる。NLPコンポーネント112は、統計的機械学習のような機械学習に基づく技術を含むことができるかまたはそれで構成することができる。NLPコンポーネント112は、決定木、統計的モデル、または確率論的モデルを利用して当該入力オーディオ信号を解析することができる。NLPコンポーネント112は、例えば、名前付きエンティティ認識(例えば、テキストのストリームが与えられると、当該テキスト内のどのアイテムを人または場所のような正確な名前にマップするか、および人、位置、または組織のような、各かかる名前がどんなタイプかを判定する)、自然言語生成(例えば、コンピュータデータベースまたはセマンティックな意図からの情報を理解可能な人間言語に変換する)、自然言語理解(例えば、コンピュータモジュールが操作できる1次論理構造のようなより形式的な表現にテキストを変換する)、マシン変換(例えば、自動的に或る人間の言語から別の人間の言語にテキストを翻訳する)、形態学的セグメンテーション(例えば、単語を独立な形態素に分離し当該形態素のクラスを識別する。これは、考慮されている言語の単語の形態学または構造の複雑性に基づいて困難なものでありうる)、質問回答(例えば、人間の言語の質問への回答を決定する。これは、特定的または制約なしであることができる)、セマンティック処理(例えば、識別された単語を、同様な意味を有する他の単語に関連付けるために単語を識別しその意味を符号化した後に発生しうる処理)のような機能を実施することができる。
NLPコンポーネント112は、入力信号を(例えば、データリポジトリ124に)格納された、代表的な組のオーディオ波形に対して比較し最も近いマッチを選択することで、当該オーディオ入力信号を認識されたテキストに変換する。当該1組のオーディオ波形を、データ処理システム102にアクセス可能なデータリポジトリ124または他のデータベースに格納することができる。当該代表的な波形は大規模な1組のユーザにわたって生成され、次いでユーザからの会話サンプルで補強してもよい。当該オーディオ信号が認識されたテキストに変換された後、NLPコンポーネント112は、当該テキストを、関連付けられた、例えばユーザにわたるトレーニングを介してまたはマニュアル手動を通じて、データ処理システム102がサービス提供できるアクションに関連付けられた単語にマッチする。
オーディオ入力信号はクライアントコンピューティングデバイス104のセンサ134またはトランスデューサ136(例えば、マイクロフォン)により検出されることができる。トランスデューサ136、オーディオドライバ138、または他のコンポーネントを介して、クライアントコンピューティングデバイス104は当該オーディオ入力信号をデータ処理システム102に(例えば、ネットワーク105を介して)提供することができる。それを、(例えば、インタフェース110により)受信でき、NLPコンポーネント112に提供するかまたはデータリポジトリ124に格納することができる。
NLPコンポーネント112は入力オーディオ信号を取得することができる。当該入力オーディオ信号から、NLPコンポーネント112は、少なくとも1つの要求または当該要求に対応する少なくとも1つのトリガキーワードを識別することができる。当該要求は当該入力オーディオ信号の意図または主題を示すことができる。当該トリガキーワードは行われる可能性があるアクションのタイプを示すことができる。例えば、NLPコンポーネント112は当該入力オーディオ信号を解析して、夕方に家を出てディナーおよび映画に参加する少なくとも1つの要求を識別することができる。当該トリガキーワードは、取るべきアクションを示す少なくとも1つの単語、フレーズ、語源または部分語、または派生物を含むことができる。例えば、当該入力オーディオ信号からのトリガキーワード「go」または「to go to」は輸送に対する必要性を示すことができる。本例では、当該入力オーディオ信号(または識別された要求)は輸送の意図を直接表現しないが、当該トリガキーワードは、輸送が当該要求により示される少なくとも1つの他のアクションに対する補完的アクションであることを示す。
NLPコンポーネント112は当該入力オーディオ信号を解析し、識別し、決定し、取り出し、または当該要求および当該トリガキーワードを取得することができる。例えば、NLPコンポーネント112は、セマンティック処理技術を当該入力オーディオ信号に適用して、当該トリガキーワードまたは当該要求を識別することができる。NLPコンポーネント112は、当該セマンティック処理技術を当該入力オーディオ信号に適用して、第1のトリガキーワードおよび第2のトリガキーワードのような1つまたは複数のトリガキーワードを含むトリガ・フレーズを識別することができる。例えば、当該入力オーディオ信号は「I need someone to do my laundry and my dry cleaning」という文章を含むことができる。NLPコンポーネント112は、セマンティック処理技術、または他の自然言語処理技術を、当該文章を含む当該データパケットに適用して、トリガ・フレーズ「do my laundry」および「do my dry cleaning」を識別することができる。NLPコンポーネント112はさらに、洗濯、およびドライ・クリーニングのような複数のトリガキーワードを識別することができる。例えば、NLPコンポーネント112は、当該トリガ・フレーズが当該トリガキーワードおよび第2のトリガキーワードを含むと判定することができる。
NLPコンポーネント112は、入力オーディオ信号をフィルタしてトリガキーワードを識別することができる。例えば、当該入力オーディオ信号を運搬する当該データパケットは「It would be great if I could get someone that could help me go to the airport」を含むことができる。この場合NLPコンポーネント112は、「it」、「would」、「be」、「great」、「if」、「I」、「could」、「get」、「someone」、「that」、「could」、または「help」といった1つまたは複数の用語をフィルタして除去することができる。これらの用語をフィルタして除去することで、NLPコンポーネント112は、「go to the airport」のようなトリガキーワードをより正確におよび信頼性高く識別し、これがタクシーまたは乗車共有サービスの要求であると判定することができる。
幾つかのケースでは、NLPコンポーネントは、入力オーディオ信号を運搬するデータパケットが1つまたは複数の要求を含むと判定することができる。例えば、当該入力オーディオ信号は「I need someone to do my laundry and my dry cleaning」という文章を含むことができる。NLPコンポーネント112はこれが洗濯サービスおよびドライ・クリーニングサービスの要求であると判定することができる。NLPコンポーネント112は、これが、洗濯サービスおよびドライ・クリーニングサービスの両方を提供できるサービスプロバイダに対する単一の要求であると判定することができる。NLPコンポーネント112は、これが2つの要求、即ち、洗濯サービスを実施するサービスプロバイダに対する第1の要求、およびドライ・クリーニングサービスを提供するサービスプロバイダに対する第2の要求であると判定することができる。幾つかのケースでは、NLPコンポーネント112は、当該複数の決定された要求を単一の要求に結合し、当該単一の要求をサービスプロバイダデバイス108に送信することができる。幾つかのケースでは、NLPコンポーネント112は当該独立な要求を各サービスプロバイダデバイス108に送信するか、または別々に両方の要求を同一のサービスプロバイダデバイス108に送信することができる。
データ処理システム102は、トリガキーワードに基づいて、当該要求に応答してアクションデータ構造を生成するように設計され構成されたダイレクト・アクションAPI116を含むことができる。データ処理システム102のプロセッサは、ダイレクト・アクションAPI116を起動して、カーシェア・サービスからの車のようなサービスまたは製品を要求または注文するためのサービスプロバイダデバイス108に対するデータ構造を生成するスクリプトを実行することができる。ダイレクト・アクションAPI116は、データをデータリポジトリ124から取得することができ、ならびにエンド・ユーザの同意によりクライアントコンピューティングデバイス104から受信されたデータを、サービスプロバイダデバイス108がカーシェア・サービスからの車の予約のような動作を実施できるようにするための位置、時間、ユーザアカウント、物流または他の情報を決定するために取得することができる。ダイレクト・アクションAPI116を用いて、データ処理システム102はまた、サービスプロバイダデバイス108と通信して、この例ではカーシェアのピックアップ予約を行うことによって変換を完了することができる。
ダイレクト・アクションAPI116はデータ処理システム102により決定されるように、指定されたアクションを実行してエンド・ユーザの意図を満たすことができる。その入力で指定された当該アクションに依存して、ダイレクト・アクションAPI116は、ユーザ要求を満たすのに必要なパラメータを識別するコードまたはダイアログスクリプトを実行することができる。かかるコードは、例えば、ホーム・オートメーションサービスの名前のようなデータリポジトリ124内の追加の情報を検索でき、またはエンド・ユーザに要求されたタクシーの意図した宛先のような質問をするために、クライアントコンピューティングデバイス104で描画するためのオーディオ出力を提供することができる。ダイレクト・アクションAPI116は必要なパラメータを決定し、当該情報をアクションデータ構造にパッケージ化することができ、当該データ構造を次いで、満たすべきコンテンツセレクタコンポーネント118またはサービスプロバイダコンピューティングデバイス108のような別のコンポーネントに送信することができる。
ダイレクト・アクションAPI116は当該アクションデータ構造を生成または構築するための命令またはコマンドを、NLPコンポーネント112、またはデータ処理システム102の他のコンポーネントから受信することができる。ダイレクト・アクションAPI116はデータリポジトリ124に格納されたテンプレートリポジトリ132からテンプレートを選択するためのアクションのタイプを決定することができる。アクションのタイプは、例えば、サービス、製品、予約、またはチケットを含むことができる。アクションのタイプはさらに、サービスまたは製品のタイプを含むことができる。例えば、サービスのタイプは、カーシェア・サービス、フード・デリバリーサービス、洗濯サービス、メイドサービス、修理サービス、または家庭サービスを含むことができる。製品のタイプは、例えば、衣服、靴、おもちゃ、電子、コンピュータ、ブック、または宝石を含むことができる。予約のタイプは、例えば、ディナー予約またはヘアサロンの予約を含むことができる。チケットのタイプは、例えば、映画チケット、競技場チケット、または飛行機チケットを含むことができる。幾つかのケースでは、サービス、製品、予約またはチケットのタイプを、価格、位置、発送、可用性、または他の属性のタイプに基づいて分類することができる。
ダイレクト・アクションAPI116は、要求のタイプを識別すると、対応するテンプレートにテンプレートリポジトリ132からアクセスすることができる。テンプレートは、ダイレクト・アクションAPI116により(エンド・ユーザをピックアップ位置でピックアップしてエンド・ユーザを目的地に輸送するためにタクシーを回す動作のような)サービスプロバイダデバイス108に要求されたさらなる動作に対して埋めることができる構造化データ・セット内のフィールドを含むことができる。ダイレクト・アクションAPI116は、テンプレートリポジトリ132内で検索を実施して、当該トリガキーワードおよび要求の1つまたは複数の特性にマッチするテンプレートを選択することができる。例えば、当該要求が宛先への車または乗車の要求に対応する場合、データ処理システム102はカーシェア・サービス・テンプレートを選択することができる。当該カーシェア・サービス・テンプレートは、以下のフィールド、即ち、デバイス識別子、ピックアップ位置、目的地、乗客の数、またはサービスのタイプのうち1つまたは複数を含むことができる。ダイレクト・アクションAPI116は当該フィールドを値で埋めることができる。当該フィールドを値で埋めるために、ダイレクト・アクションAPI116は、コンピューティングデバイス104の1つまたは複数のセンサ134またはデバイス104のユーザインタフェースをピングし、そこから情報をポーリングまたは取得することができる。例えば、ダイレクト・アクションAPI116は、GPSセンサのような位置センサを用いて当該ソース位置を検出することができる。ダイレクト・アクションAPI116は、コンピューティングデバイス104のエンド・ユーザに調査、プロンプト、またはクエリを送信することで、さらなる情報を取得することができる。当該ダイレクト・アクションAPIは、データ処理システム102のインタフェース110およびコンピューティングデバイス104のユーザインタフェース(例えば、オーディオインタフェース、音声ベースのユーザインタフェース、ディスプレイ、またはタッチ・スクリーン)を介して、調査、プロンプト、またはクエリを送信することができる。したがって、ダイレクト・アクションAPI116は、当該トリガキーワードまたは当該要求に基づいて当該アクションデータ構造に対するテンプレートを選択し、1つまたは複数のセンサ134により検出されたまたはユーザインタフェースを介して取得された情報で当該テンプレート内の1つまたは複数のフィールドを埋め、サービスプロバイダデバイス108による動作の実施を促進するための当該アクションデータ構造を生成、作成、または構築することができる。
データ処理システム102は、例えば、当該トリガキーワード、要求、サードパーティプロバイダデバイス108、サードパーティプロバイダデバイス108のタイプ、サードパーティプロバイダデバイス108が入るカテゴリ(例えば、タクシーサービス、洗濯サービス、フラワー・サービス、またはフード・デリバリー)、位置、または他のセンサ情報を含む様々な因子のうち1つまたは複数に基づいて当該テンプレートをテンプレートデータ構造132から選択することができる。
当該トリガキーワードに基づいて当該テンプレートを選択するために、データ処理システム102は、(例えば、ダイレクト・アクションAPI116を介して)当該トリガキーワードを用いて検索または他のクエリ動作をテンプレートデータベース132に実施して、当該トリガキーワードにマップまたは対応するテンプレートデータ構造を識別することができる。例えば、テンプレートデータベース132内の各テンプレートを、当該テンプレートが、通信セッションを確立するためにサードパーティプロバイダデバイス108が処理できる当該トリガキーワードに応答してアクションデータ構造を生成するように構成されることを示すための1つまたは複数のトリガキーワードに関連付けることができる。
幾つかのケースでは、データ処理システム102は、当該トリガキーワードに基づいてサードパーティプロバイダデバイス108を識別することができる。サードパーティプロバイダ108を当該トリガキーワードに基づいて識別するために、データ処理システム102は、データリポジトリ124内で検索を実施して、当該トリガキーワードにマップするサードパーティプロバイダデバイス108を識別することができる。例えば、当該トリガキーワードが「ride」または「to go to」を含む場合、データ処理システム102は、(例えば、ダイレクト・アクションAPI116を介して)サードパーティプロバイダデバイス108をタクシーサービス会社Aに対応するとして識別することができる。データ処理システム102は、識別されたサードパーティプロバイダデバイス108を用いて当該テンプレートをテンプレートデータベース132から選択することができる。例えば、テンプレートデータベース132は、通信セッションを確立するためにサードパーティプロバイダデバイス108が処理できる当該トリガキーワードに応答してアクションデータ構造を生成するように構成されたサードパーティプロバイダデバイス108またはエンティティの間のテンプレートに対するマッピングまたは相関関係を含むことができる。幾つかのケースでは、当該テンプレートを、サードパーティプロバイダデバイス108に対して、またはサードパーティプロバイダデバイス108のカテゴリに関してカスタマイズすることができる。データ処理システム102は、サードパーティプロバイダ108に対する当該テンプレートに基づいて当該アクションデータ構造を生成することができる。
当該アクションデータ構造を構築または生成するために、データ処理システム102は、値で埋めるべき当該選択されたテンプレート内の1つまたは複数のフィールドを識別することができる。当該フィールドを、数値、文字列、ユニコード値、ブール論理、二進値、16進値、識別子、位置座標、地理的領域、タイムスタンプ、または他の値で埋めることができる。当該フィールドまたは当該データ構造自体を、データセキュリティを維持するために、暗号化またはマスクすることができる。
当該テンプレート内の当該フィールドを決定すると、データ処理システム102は、当該テンプレートのフィールドを埋めるための当該フィールドに対する値を識別して、当該アクションデータ構造を生成することができる。データ処理システム102は、検索または他のクエリ動作をデータリポジトリ124に実施することで、当該フィールドに対する値を取得し、取り出し、決定し、または識別することができる。
幾つかのケースでは、データ処理システム102は、当該フィールドに対する情報または値がデータリポジトリ124にないと判定することができる。データ処理システム102は、データリポジトリ124に格納された情報または値が古い、陳腐であるか、またはトリガキーワードおよび要求に応答してNLPコンポーネント112により識別されたアクションデータ構造を構築する目的に適していないと判定することができる(例えば、クライアントコンピューティングデバイス104の位置が古い位置であり現在の位置でないかもしれないこと、アカウントが切れているかもしれないこと、当該宛先レストランが新たな位置に移動しているかもしれないこと、物理活動情報、または輸送のモード)。
データ処理システム102が、データ処理システム102のメモリ内で、当該テンプレートの当該フィールドに対する値または情報に対するアクセスを現在有さないと判定した場合、データ処理システム102は当該値または情報を取得することができる。データ処理システム102は、クライアントコンピューティングデバイス104の1つまたは複数の利用可能なセンサを問い合わせまたはポーリングし、クライアントコンピューティングデバイス104のエンド・ユーザに当該情報を促し、またはHTTPプロトコルを用いてオンラインのWebベースのリソースにアクセスすることによって、当該情報を取得することができる。例えば、データ処理システム102は、それがクライアントコンピューティングデバイス104の現在の位置を有さないと判定でき、現在の位置は当該テンプレートの必要とされるフィールドであってもよい。データ処理システム102は、クライアントコンピューティングデバイス104に当該位置情報を問い合わせることができる。データ処理システム102は、全地球測位システムセンサ、WIFI三角測量、携帯電波塔三角測量、Bluetooth(登録商標)ビーコン、IPアドレス、または他の位置検知技術のような1つまたは複数の位置センサ134を用いて当該位置情報を提供するように、クライアントコンピューティングデバイス104に要求することができる。
ダイレクト・アクションAPI116は、当該アクションデータ構造をサードパーティプロバイダデバイス(例えば、サービスプロバイダデバイス108)に送信して、サードパーティプロバイダデバイス108に、会話アプリケーションプログラミングインタフェース(例えば、サービスプロバイダNLPコンポーネント142)を起動してサードパーティプロバイダデバイス108およびクライアントコンピューティングデバイス104の間の通信セッションを確立させることができる。サービスプロバイダデバイス108およびクライアントコンピューティングデバイス1004の間の通信セッションを確立したことに応答して、サービスプロバイダデバイス108は、データパケットをクライアントコンピューティングデバイス104にネットワーク105を介して直接に送信することができる。幾つかのケースでは、サービスプロバイダデバイス108は、データ処理システム102およびネットワーク105を介して、データパケットをクライアントコンピューティングデバイス104に送信することができる。
幾つかのケースでは、サードパーティプロバイダデバイス108は会話API142の少なくとも一部を実行することができる。例えば、サードパーティプロバイダデバイス108は、当該通信セッションの特定の態様またはクエリのタイプを扱うことができる。サードパーティプロバイダデバイス108は、データ処理システム102により実行されるNLPコンポーネント112を利用して、当該通信セッションに関連付けられたオーディオ信号の処理およびクエリに対する応答の生成を促進してもよい。幾つかのケースでは、データ処理システム102はサードパーティプロバイダ108に構成された会話API142を含むことができる。幾つかのケースでは、データ処理システムは、当該クライアントコンピューティングデバイスおよび当該サードパーティプロバイダデバイスの間でデータパケットをルーティングして、当該通信セッションを確立する。データ処理システム102は、サードパーティプロバイダデバイス108から、当該サードパーティプロバイダデバイスがクライアントデバイス104との当該通信セッションを確立したとの指示を受信することができる。当該指示は、クライアントコンピューティングデバイス104の識別子、当該通信セッションが確立されたときに対応するタイムスタンプ、または当該通信セッションに関連付けられた当該アクションデータ構造のような当該通信セッションに関連付けられた他の情報を含むことができる。幾つかのケースでは、データ処理システム102は、当該通信セッションおよびフィードバックモニタコンポーネント120を管理して当該通信セッションの特性を測定するセッションハンドラコンポーネント114を含むことができる。
データ処理システム102は、クライアントデバイス104およびデータ処理システム102の間の通信セッションを確立するために、セッションハンドラコンポーネント114を包含し、実行し、アクセスし、または通信することができる。当該通信セッションは、クライアントデバイス104のセンサ134により検出された入力オーディオ信号、およびデータ処理システム102によりクライアントデバイス104に送信された出力信号を含むクライアントデバイス104およびデータ処理システム102の間の1つまたは複数のデータ送信を指すことができる。データ処理システム102は、当該入力オーディオ信号を受信したことに応答して、(例えば、セッションハンドラコンポーネント114を介して)当該通信セッションを確立することができる。データ処理システム102は当該通信セッションに対する期間を設定することができる。データ処理システム102は当該通信セッションに対して設定された当該期間に対してタイマまたはカウンタを設定することができる。当該タイマの期限切れに応答して、データ処理システム102は当該通信セッションを終了することができる。
当該通信セッションは、クライアントデバイス104が当該セッションを確立するための認証情報または証明書を提供するネットワークベースの通信セッションを指すことができる。幾つかのケースでは、当該通信セッションは、当該セッション中にデータパケットにより運搬されるオーディオ信号のトピックまたはコンテキストを指す。例えば、第1の通信セッションはタクシーサービスに関連する(例えば、キーワード、アクションデータ構造、またはコンテンツ・アイテム・オブジェクトを含む)クライアントデバイス104およびデータ処理システム102の間で送信されたオーディオ信号を指すことができ、第2の通信セッションは洗濯およびドライ・クリーニングサービスに関連するクライアントデバイス104およびデータ処理システム102の間で送信されたオーディオ信号を指すことができる。本例では、データ処理システム102は当該オーディオ信号のコンテキストが異なると(例えば、NLPコンポーネント112を介して)判定し、当該2つの組のオーディオ信号を異なる通信セッションに分離することができる。セッションハンドラ114は、ドライ・クリーニングおよび洗濯サービスに関連する1つまたは複数のオーディオ信号を識別したことに応答して乗車サービスに関連する第1のセッションを終了することができる。したがって、データ処理システム102は、当該オーディオ信号のコンテキストを検出したことに応答して当該ドライ・クリーニングおよび洗濯サービスに関連する当該オーディオ信号に対する第2のセッションを開始または確立することができる。
データ処理システム102は自然言語プロセッサにより識別されたトリガキーワードを受信し、当該トリガキーワードに基づいて、リアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択するためにコンテンツセレクタコンポーネント118を包含、実行、または通信することができる。幾つかのケースでは、ダイレクト・アクションAPI116は当該アクションデータ構造をコンテンツセレクタコンポーネント118に送信して、リアルタイムコンテンツ選択プロセスを実施し、コンテンツプロバイダデバイス106(またはサードパーティプロバイダデバイス108)およびクライアントコンピューティングデバイス104の間の通信セッションを確立することができる。
当該コンテンツ選択プロセスは、サードパーティコンテンツプロバイダ106により提供されたスポンサーされたコンテンツ・アイテム・オブジェクトを選択するステップを指すかまたは含むことができる。当該コンテンツ選択プロセスは、複数のコンテンツプロバイダにより提供されたコンテンツ・アイテムを解析し、処理し、重み付けし、またはマッチして、コンピューティングデバイス104に提供するための1つまたは複数のコンテンツ・アイテムを選択するサービスを含むことができる。当該コンテンツ選択プロセスをリアルタイムまたはオフラインで実施することができる。当該コンテンツ選択プロセスをリアルタイムに実施することは、当該コンテンツ要求がクライアントコンピューティングデバイス104を介して受信されたことに応答して当該コンテンツ選択プロセスを実施するステップを指すことができる。当該リアルタイムコンテンツ選択プロセスを、当該要求を受信する時間間隔(例えば、5秒、10秒、20秒、30秒、1分、2分、3分、5分、10分、または20分)内に実施(例えば、開始または完了)することができる。当該リアルタイムコンテンツ選択プロセスを、クライアントコンピューティングデバイス104との通信セッション中に、または、当該通信セッションが終了した後のある時間間隔内に、実施することができる。
例えば、データ処理システム102は、コンテンツ・アイテム・オブジェクトを選択するように設計、構築、構成、または動作可能なコンテンツセレクタコンポーネント118を含むことができる。音声ベースの環境内で表示するためのコンテンツ・アイテムを選択するために、データ処理システム102は(例えば、NLPコンポーネント112を介して)当該入力オーディオ信号を解析して、キーワード(例えば、トリガキーワード)を識別し、当該キーワードを使用して広いマッチ、厳密なマッチ、またはフレーズマッチに基づいてマッチングコンテンツ・アイテムを選択することができる。例えば、コンテンツセレクタコンポーネント118は候補コンテンツ・アイテムの主題を分析、解析、または処理して、当該候補コンテンツ・アイテムの主題が、クライアントコンピューティングデバイス104のマイクロフォンにより検出された入力オーディオ信号のキーワードまたはフレーズの主題に対応するかどうかを判定することができる。コンテンツセレクタコンポーネント118は、画像処理技術、文字認識技術、自然言語処理技術、またはデータベース検索を用いて、音声、オーディオ、当該候補コンテンツ・アイテムの用語、文字、テキスト、記号、または画像を識別、分析、または認識してもよい。当該候補コンテンツ・アイテムは当該候補コンテンツ・アイテムの主題を示すメタデータを含んでもよく、この場合コンテンツセレクタコンポーネント118は当該メタデータを処理して、当該候補コンテンツ・アイテムの主題が当該入力オーディオ信号に対応するかどうかを判定してもよい。
コンテンツプロバイダ106は、コンテンツ・アイテムを含むコンテンツキャンペーンをセットアップするときに、追加のインジケータを提供してもよい。コンテンツプロバイダ106は、コンテンツセレクタコンポーネント118が当該候補コンテンツ・アイテムに関する情報を用いて検索を実施することで識別しうる情報を当該コンテンツキャンペーンまたはコンテンツグループレベルで提供してもよい。例えば、当該候補コンテンツ・アイテムは一意な識別子を含んでもよく、当該一意な識別子を、コンテンツグループ、コンテンツキャンペーン、またはコンテンツプロバイダにマップしてもよい。コンテンツセレクタコンポーネント118は、データリポジトリ124内のコンテンツキャンペーンデータ構造に格納された情報に基づいて、コンテンツプロバイダ106に関する情報を決定してもよい。
データ処理システム102は、コンピュータネットワークを介して、コンピューティングデバイス104で提示するためのコンテンツに対する要求を受信することができる。データ処理システム102は、クライアントコンピューティングデバイス104のマイクロフォンにより検出された入力オーディオ信号を処理することによって当該要求を識別することができる。当該要求は、当該要求に関連付けられた当該デバイスのタイプ、位置、およびキーワードのような当該要求の選択基準を含むことができる。当該要求は当該アクションデータ構造を含むことができる。
当該要求に応答して、データ処理システム102は、コンテンツ・アイテム・オブジェクトをデータリポジトリ124またはコンテンツプロバイダ106に関連付けられたデータベースから選択し、ネットワーク105を介してコンピューティングデバイス104を介して提供するための当該コンテンツ・アイテムを提供することができる。当該コンテンツ・アイテム・オブジェクトを、サービスプロバイダデバイス108と異なるコンテンツプロバイダデバイス108により提供することができる。当該コンテンツ・アイテムは、当該アクションデータ構造のサービスのタイプと異なるサービスのタイプ(例えば、タクシーサービス対フード・デリバリーサービス)に対応することができる。コンピューティングデバイス104は当該コンテンツ・アイテム・オブジェクトと対話することができる。コンピューティングデバイス104は当該コンテンツ・アイテムへのオーディオ応答を受信することができる。コンピューティングデバイス104は、当該コンテンツ・アイテム・オブジェクトに関連付けられたハイパーリンクまたは他のボタンを選択するための指示を受信することができる。当該指示は、コンピューティングデバイス104に、サービスプロバイダ108を識別し、サービスプロバイダ108にサービスを要求し、サービスを実施し、情報をサービスプロバイダ108に送信し、またはサービスプロバイダデバイス108を問い合わせるようにサービスプロバイダ108に指示させるかまたはそれらを可能とする。
データ処理システム102は、出力信号を生成するためのオーディオ信号ジェネレータコンポーネント122を包含し、実行し、または通信する。当該出力信号は1つまたは複数の部分を含むことができる。例えば、当該出力信号は第1の部分および第2の部分を含むことができる。当該出力信号の第1の部分は当該アクションデータ構造に対応することができる。当該出力信号の第2の部分は、当該リアルタイムコンテンツ選択プロセス中にコンテンツセレクタコンポーネント118により選択されたコンテンツ・アイテムに対応することができる。
オーディオ信号ジェネレータコンポーネント122は、第1のデータ構造に対応する音を有する第1の部分で出力信号を生成することができる。例えば、オーディオ信号ジェネレータコンポーネント122は、ダイレクト・アクションAPI116によりアクションデータ構造のフィールドに埋められた1つまたは複数の値に基づいて当該出力信号の第1の部分を生成することができる。タクシーサービスの例では、当該フィールドに対する値は、例えば、ピックアップ位置に対する123 Main Street、目的地に対する1234 Main Street、乗客の数に関して2、およびサービスのレベルに関してエコノミーを含むことができる。オーディオ信号ジェネレータコンポーネント122は、コンピューティングデバイス104のエンド・ユーザがサービスプロバイダ108へ当該要求を送信することについて先に進みたいことを確認するために、当該出力信号の第1の部分を生成することができる。第1の部分は、以下の出力「Would you like to order an economy car from taxi service provider A to pick two people up at 123 Main Street and drop off at 1234 Main Street?」を含むことができる。
幾つかのケースでは、第1の部分は、サービスプロバイダデバイス108から受信された情報を含むことができる。サービスプロバイダデバイス108から受信された当該情報を、当該アクションデータ構造に対してカスタマイズすることができる。例えば、データ処理システム102は(例えば、ダイレクト・アクションAPI116を介して)動作を実施するようにサービスプロバイダ108に指示する前に、当該アクションデータ構造をサービスプロバイダ108に送信することができる。その代わり、データ処理システム102はサービスプロバイダデバイス108に、初期または予備的処理を当該アクションデータ構造に実施して当該動作に関する予備的情報を生成するように指示することができる。当該タクシーサービスの例において、当該アクションデータ構造に対する当該予備的処理は、当該ピックアップ位置の周囲に配置されたサービス要件のレベルを満たす利用可能なタクシーを識別するステップ、最も近い利用可能なタクシーが当該ピックアップ位置に到達するための時間を推定するステップ、当該目的地への到着時刻を推定するステップ、および当該タクシーサービスに対する価格を推定するステップを含むことができる。当該推定された予備値は、固定された値、様々な条件、または値の範囲に基づいて変化を受ける推定値を含んでもよい。サービスプロバイダデバイス108は、当該予備情報をデータ処理システム102に返すか、または直接ネットワーク104を介してクライアントコンピューティングデバイス104に返すことができる。データ処理システム102は、サービスプロバイダデバイス108からの当該予備的結果を当該出力信号に取り込み、当該出力信号をコンピューティングデバイス104に送信することができる。当該出力信号は、例えば、「Taxi Service Company A can pick you up at 123 Main Street in 10 minutes, and drop you off at 1234 Main Street by 9 AM for $10. Do you want to order this ride?」を含むことができ、これは当該出力信号の第1の部分を形成することができる。
幾つかのケースでは、データ処理システム102は当該出力信号の第2の部分を形成することができる。当該出力信号の第2の部分は、リアルタイムコンテンツ選択プロセス中にコンテンツセレクタコンポーネント118により選択されたコンテンツ・アイテムを含むことができる。第1の部分は第2の部分と異なることができる。例えば、第1の部分は、クライアントコンピューティングデバイス104のセンサ134により検出された入力オーディオ信号を運搬するデータパケットに直接応答するアクションデータ構造に対応する情報を含むことができ、第2の部分は、当該アクションデータ構造に垂直方向に関連しうるか、またはコンテンツプロバイダデバイス106により提供されたスポンサーされたコンテンツを含むコンテンツセレクタコンポーネント104により選択されたコンテンツ・アイテムを含むことができる。例えば、コンピューティングデバイス104のエンド・ユーザはタクシーをタクシーサービス会社Aに要求することができる。データ処理システム102は、タクシーサービス会社Aからのタクシーに関する情報を含むための当該出力信号の第1の部分を生成することができる。しかし、データ処理システム102は、キーワード「taxi service」およびエンド・ユーザが関心があるかもしれないアクションデータ構造に含まれる情報に基づいて選択されたコンテンツ・アイテムを含むための当該出力信号の第2の部分を生成することができる。例えば、第2の部分は、タクシーサービス会社Bのような異なるタクシーサービス会社により提供されたコンテンツ・アイテムまたは情報を含むことができる。ユーザはタクシーサービス会社Bに特段要求していないかもしれないが、データ処理システム102は、ユーザがタクシーサービス会社Bと動作を実施することを選択しうるので、それにもかかわらずタクシーサービス会社Bからのコンテンツ・アイテムを提供してもよい。
データ処理システム102は、ピックアップ時刻、宛先の到着時刻、および乗車の価格を決定するための情報を、当該アクションデータ構造からタクシーサービス会社Bに送信することができる。データ処理システム102は、この情報を受信して、「Taxi Service Company B can pick you up at 123 Main Street in 2 minutes, and drop you off at 1234 Main Street by 8:52 AM for $15. Do you want this ride instead?」のように当該出力信号の第2の部分を生成することができる。コンピューティングデバイス104のエンド・ユーザは次いで、タクシーサービス会社Aにより提供された乗車またはタクシーサービス会社Bにより提供された乗車を選択することができる。
当該出力信号の第2の部分で、タクシーサービス会社Bにより提供されたサービスに対応するスポンサーされたコンテンツ・アイテムを提供する前に、データ処理システム102は、第2の部分が(例えば、コンテンツセレクタコンポーネント118により)リアルタイムコンテンツ選択プロセス中に選択されたコンテンツ・アイテム・オブジェクトに対応するとエンド・ユーザコンピューティングデバイスに通知することができる。しかし、データ処理システム102は、当該通知をコンピューティングデバイス104のエンド・ユーザに提供するための異なるタイプのインタフェースに対して制限されたアクセスを有することができる。例えば、コンピューティングデバイス104はディスプレイデバイスを含まなくてもよく、または、当該ディスプレイデバイスを無効またはターンオフしてもよい。コンピューティングデバイス104の当該ディスプレイデバイスはコンピューティングデバイス104のスピーカより多くのリソースを消費するかもしれず、コンピューティングデバイス104の当該スピーカを用いて当該通知を運搬することと比べて、コンピューティングデバイス104の当該ディスプレイデバイスをターンオンするのはあまり効率的でないかもしれない。したがって、幾つかのケースでは、データ処理システム102は、1つまたは複数のインタフェースまたは1つまたは複数のタイプのコンピュータネットワーク上の情報送信の効率および有効性を高めることができる。例えば、データ処理システム102は、(例えば、オーディオ信号ジェネレータコンポーネント122を介して)、当該コンテンツ・アイテムを含む出力オーディオ信号の部分をモジュール化して、当該出力信号のその部分が当該スポンサーされたコンテンツ・アイテムを含むという指示または通知をエンド・ユーザに提供することができる。
データ処理システム102(は例えば、インタフェース110およびネットワーク105を介して)、オーディオ信号ジェネレータコンポーネント122により生成された出力信号を含むデータパケットを送信することができる。当該出力信号は、クライアントデバイス104のオーディオドライバコンポーネント138またはクライアントデバイス104により実行されるオーディオドライバコンポーネント138に、クライアントデバイス104のスピーカ(例えば、トランスデューサ136)を駆動して当該出力信号に対応する音波を生成させることができる。
データ処理システム102はフィードバックモニタコンポーネント120を含むことができる。フィードバックモニタコンポーネント120は通信セッションの特性を測定するためのハードウェアまたはソフトウェアを含むことができる。フィードバックモニタコンポーネント120は、当該コンテンツ・アイテムとの対話に応答してクライアントデバイスとの通信セッションを確立した、クライアントデバイス(例えば、コンピューティングデバイス104)および会話アプリケーションプログラミングインタフェース(例えば、データ処理システムにより実行されるNLPコンポーネント112またはサービスプロバイダデバイス108、サードパーティプロバイダデバイス、またはコンテンツプロバイダデバイス106により実行されるサービスプロバイダNLPコンポーネント142)の間で送信された可聴信号を運搬するデータパケットを受信することができる。幾つかのケースでは、コンテンツプロバイダデバイス106は、サービスプロバイダNLPコンポーネント142またはNLPコンポーネント112の1つまたは複数の機能またはコンポーネントを含むNLPコンポーネントを実行することができる。サービスプロバイダデバイス108またはコンテンツプロバイダデバイス106により実行されるNLPコンポーネントを、サービスプロバイダデバイス108またはコンテンツプロバイダデバイス106に対してカスタマイズすることができる。NLPコンポーネントをカスタマイズすることで、NLPコンポーネントは、NLPコンポーネントを、NLPコンポーネントおよびクライアントコンピューティングデバイス104の間の削減された往来をもたらすより正確なクエリおよび応答で構成できるので、汎用または標準NLPコンポーネントと比較して帯域幅利用および要求応答を減らすことができる。
フィードバックモニタコンポーネント120は、可聴信号に基づいて通信セッションの特性を測定することができる。フィードバックモニタコンポーネント120は当該測定された特性に基づいて品質信号を生成することができる。当該品質信号は、品質レベル、品質メトリック、品質スコアまたは品質レベルを含むかまたは指すことができる。当該品質信号は、例えば、数値スコア(例えば、0を最低品質および10を最高品質、またはその逆として0乃至10)、文字グレード(例えば、Aを最高品質としてA乃至F)、二進値(例えば、はい/いいえ、良/悪、1/0、高/低)、順位、またはパーセンタイルを含むことができる。当該品質信号は、同一のNLPコンポーネントまたはプロバイダデバイス106または108と通信する複数のクライアントデバイスの間の通信から決定された平均品質信号を含むことができる。
フィードバックモニタコンポーネント120は、様々な測定技術、ヒューリスティック技術、ポリシ、条件、または試験を用いて当該通信セッションの特性を測定することができる。フィードバックモニタコンポーネント120は、クライアントデバイス104およびコンテンツプロバイダデバイス、サードパーティデバイス、サービスプロバイダまたはデータ処理システムの間で送信されたデータパケットを解析して、当該通信セッションの特性を決定することができる。当該品質は、通信されているデータまたは当該データの品質を送信するために使用される通信チャネルの品質を指すことができる。例えば、当該通信チャネルの品質は、信号雑音比、周辺雑音レベル、遅延、ラグ、レイテンシ、ばらつき、エコー、または通話途切れを指すことができる。通信されている当該データの品質は、コンピューティングデバイスのマイクロフォンにより検出されたオーディオ信号に応答しているNLPコンポーネントにより生成された応答の品質を指すことができる。当該データの品質は、NLPコンポーネントがクライアントデバイス104から当該オーディオ信号またはクエリを受信することと応答を送信することの間のNLPコンポーネントの応答性、NLPコンポーネントの精度、またはレイテンシに基づくことができる。
フィードバックモニタコンポーネント120は、背景雑音および当該信号レベルの量を測定して信号雑音(「SNR」)比を決定することにより、当該通信チャネルの品質を決定することができる。フィードバックモニタコンポーネント120は、測定されたまたは決定されたSNRを閾値と比較して、当該品質のレベルを決定することができる。例えば、10dBSNRを良好と考えてもよい。当該閾値を、機械学習モデルを介して(例えば、複数のデバイスからのフィードバックに基づいて)予め決定または決定することができる。
フィードバックモニタコンポーネント120はさらに、クライアントデバイス104およびプロバイダデバイスまたはデータ処理システムの間のピング時間に基づいて通信チャネルの品質を決定することができる。データ処理システムは、当該ピング時間を閾値と比較して、当該品質のレベルを決定することができる。例えば、当該ピング閾値は、20ms、30ms、50ms、100ms、200msまたはそれ以上であることができる。フィードバックモニタコンポーネント120は、オーディオのばらつき(例えば、当該オーディオ内のポーズまたはブレーク、当該オーディオの切り抜き)に基づいて当該通信チャネルの品質を決定することができる。フィードバックモニタコンポーネント120は、低品質レベルを決定するために当該通信チャネル内のエコーを識別することができる。フィードバックモニタコンポーネント120は、或る時間間隔中のNLPコンポーネントに対する通話途切れの数または通話途切れの全通話数との比率を決定し、それを閾値と比較して、当該品質レベルを決定することができる。例えば、当該閾値は、毎時2つの通話途切れ、または100通話ごとの1つの通話途切れであることができる。
フィードバックモニタコンポーネント120は、クライアントコンピューティングデバイス104と通信するNLPコンポーネント(または会話API)により生成された応答の品質に基づいて当該通信セッションの品質を決定することができる。当該応答の品質は、NLPコンポーネントにより提供された当該応答に応答して、例えば、NLPコンポーネントが応答を生成するのにかかった時間、当該応答のテキスト、当該応答の精度、当該応答の関連性、当該応答のセマンティック分析、またはクライアントデバイスのネットワーク活動を含むかまたはそれに基づくことができる。フィードバックモニタコンポーネント120は、NLPコンポーネントが、NLPコンポーネントが当該オーディオ信号をクライアントデバイス104から受信したときに対応するタイムスタンプ、およびNLPが当該応答を送信するときに対応するタイムスタンプを区別することで当該応答を生成するのにかかった時間を決定することができる。フィードバックモニタコンポーネント120は、クライアントデバイスが当該オーディオ信号を送信するときに対応するタイムスタンプおよびクライアントデバイスが当該応答をNLPコンポーネントから受信するときに対応するタイムスタンプを区別することで当該時間を決定することができる。
フィードバックモニタコンポーネント120は当該応答を含むデータパケットを解析することで当該応答の品質を決定することができる。例えば、フィードバックモニタコンポーネント120は、クライアントデバイスから、当該応答のテキスト、当該応答の精度、または当該クエリに対する当該応答の関連性を解析し分析することができる。フィードバックモニタコンポーネント120は、当該クエリを別のNLPコンポーネントに提供することでこの評価を実施でき、当該2つのNLPコンポーネントからの応答を比較することができる。フィードバックモニタコンポーネント120は、当該クエリおよびサードパーティ評価者への応答を提供することでこの評価を実施することができる。フィードバックモニタコンポーネント120は、複数の応答を複数のクライアントデバイスにより提供された複数の同様なクエリと比較することで、当該応答の一貫性を決定することができる。フィードバックモニタコンポーネント120は、クライアントデバイスが同一のクエリを含むオーディオ信号を送信する回数(例えば、当該応答がクライアントデバイスにより送信されたクエリに十分に応答していないことを示す)に基づいて当該応答の品質を決定することができる。
フィードバックモニタコンポーネント120は、クライアントデバイスのネットワーク活動に基づいてNLPにより生成された応答の品質を決定することができる。例えば、NLPコンポーネントは、音声クエリをクライアントデバイスから受信し、当該音声クエリに対する応答を生成し、クライアントデバイスへの応答を運搬するデータパケットを送信することができる。クライアントデバイスは、NLPコンポーネントから応答を受信すると、ネットワーク活動を実施するかまたはネットワーク活動を変更することができる。例えば、クライアントデバイスは通信セッションを終了することができる。これは、NLPコンポーネントが完全にクライアントデバイスに応答したこと、またはNLPがクライアントデバイスに完全に応答するのに失敗し、クライアントデバイスがNLPコンポーネントに関して諦めたことを示すことができる。当該フィードバックモニタコンポーネントは、クライアントデバイスが、NLPコンポーネントにより生成された応答に関連付けられた確信度スコアに基づく良いまたは悪い理由のために通話を終了したと判定することができる。当該確信度スコアを、当該応答を生成するために使用される確率論的または統計的セマンティック分析に関連付けることができる。
フィードバックモニタコンポーネント120は、クライアントデバイスが、クライアントデバイスにより送信されたオーディオ信号の欠如に基づいて通信セッションを終了したと判定することができる。フィードバックモニタコンポーネント120は、クライアントデバイスが、クライアントデバイスにより送信された終了コマンドに基づいて当該通信セッションを終了したと判定することができる。フィードバックモニタコンポーネント120は、クライアントデバイスからの沈黙の量(例えば、オーディオ信号の欠如)に基づいて品質レベルを決定することができる。クライアントデバイスからのSNRが閾値(例えば、6dB、3dB、または0dB)より小さいことに基づいて、オーディオ信号の欠如を識別することができる。当該フィードバックモニタコンポーネントは、当該通信セッションの期間に基づいて当該特性を測定することができる。例えば、閾値より大きい期間は、クライアントデバイスのエンド・ユーザが当該通信セッションに満足していること示すことができる。しかし当該クライアントのユーザが当該通信セッションに関与する不要なまたは望まない拡張された時間量を費やしたかもしれないので、オーディオ信号の増大された振幅、反復されたクエリ、および減少したテンポのような他の特性と結合された長期間は低品質を示してもよい。
NLPコンポーネントは、クライアントデバイスにより送信されたクエリに対するセマンティック分析を実施して、クライアントデバイスが、NLPコンポーネントが生成され応答を提供しているけれども、同一のまたは同様なクエリを反復的に送信すると判定することができる。フィードバックモニタコンポーネント120は、閾値(例えば、2、3、4、5、6、7またはそれ以上)を超える時間間隔(または逐次的に反復されたクエリ)内の反復クエリの数に基づいて、品質レベルが低いと判定することができる。
幾つかのケースでは、フィードバックモニタコンポーネント120は、当該通信セッションの異なる部分(例えば、開始、中央、または終了、または時間間隔)で当該通信セッションの品質を決定することができる。例えば、フィードバックモニタコンポーネント120は、当該通信セッションの第1の部分または第1の時間間隔の品質、および第1の部分または第1の時間間隔に続く当該通信セッション内の第2の部分または第2の時間間隔の品質を決定することができる。フィードバックモニタコンポーネント120は、当該品質を当該2つの部分で比較して、全体の通信セッションの品質を決定することができる。例えば、閾値より大きい当該2つの部分の間の品質の差異は、低品質、一貫しない品質、または信頼できない品質を示すことができる。
幾つかのケースでは、フィードバックモニタコンポーネント120は、当該通信セッションの特性またはその少なくとも一部に基づいて当該品質を決定することができる。当該特性は、例えば、振幅、周波数、テンポ、トーン、およびピッチのうち少なくとも1つを含むことができる。例えば、フィードバックモニタコンポーネント120は、当該クライアントのユーザデバイスの反応または当該クライアントのユーザの感情を決定するために当該特性を使用することができる。例えば、クライアントデバイスにより送信された当該オーディオ信号の振幅がNLPからの各応答の後に増大した場合、当該フィードバックモニタは、エンド・ユーザがNLPコンポーネント生成された応答に対して苛ついていると判定することができる。フィードバックモニタコンポーネント120は、クライアントデバイスにより検出された当該オーディオ信号の振幅を、同一の通信セッションまたは異なる通信セッション中にクライアントデバイスにより受信された閾値または他のオーディオ信号と比較することができる。
フィードバックモニタコンポーネント120は、クライアントデバイスにより検出されたおよびNLPコンポーネントに送信されたオーディオ信号のテンポまたはピッチのような特性に基づいて品質を決定することができる。フィードバックモニタコンポーネント120は、例えば、各NLP応答の後の当該テンポのスローダウン(例えば、時間間隔当たりに話された単語の割合)が、エンド・ユーザが、NLPコンポーネントにより生成された応答に満足しておらず、NLPコンポーネントが当該オーディオ信号をより良く解析し当該応答を改善できるようにより遅く繰り返していると示しうると判定することができる。幾つかのケースでは、増大したまたは一定のテンポが、クライアントデバイスの利用が、NLPにより生成された応答で満足され当該応答における確信度を有することを示すことができる。幾つかのケースでは、クライアントデバイスにより検出されたオーディオ信号のピッチの増大は、NLPからの応答の貧弱な品質または当該応答における確信度の欠如を示すことができる。
幾つかのケースでは、フィードバックモニタコンポーネント120は、品質を測定または決定するためのクエリをクライアントデバイスに送信することができる。例えば、フィードバックモニタコンポーネント120は、通信セッションの品質、NLPコンポーネント、またはプロバイダデバイスに関してエンド・ユーザに調査質問を送信することができる。幾つかのケースでは、フィードバックモニタコンポーネント120は、第1の品質信号が閾値より小さいとフィードバックモニタコンポーネント120が判定したことに応答して当該クエリを生成することができる。例えば、フィードバックモニタコンポーネント120は、クライアントデバイスにより検出された当該オーディオ信号のテンポの減少と組み合わせたクライアントデバイスにより検出された当該オーディオ信号の振幅の増大のような特性を用いて当該品質を測定することに基づいて第1の品質信号を決定することができる。フィードバックモニタコンポーネント120は、振幅およびテンポの結合された特性に基づいて低いレベルの品質を示す品質信号を生成することができる。当該結合特性に基づいて決定された低品質信号に応答して、フィードバックモニタコンポーネント120は、当該通信セッションの品質を暗黙的にまたは明示的に問い合わせる(例えば、NLPコンポーネントにより生成された応答にどれだけ満足していますか?、当該通信セッションにはどれだけ満足していますか?)クエリを生成しクライアントデバイスに送信することができる。別の例では、データ処理システムは、サービスプロバイダ108が当該要求されたサービスを提供できるかどうかに基づいて品質を決定することができる。例えば、エンド・ユーザは製品またはサービスを要求しうるが、サービスプロバイダ108は、彼らがその製品を持っておらずまたはそのサービスを実施できないと述べることで応答する。これは、エンド・ユーザにサービスプロバイダ108に対するフラストレーションを示させることができる。データ処理システム102は、このフラストレーションを識別し、それに応じて品質を割り当てることができる。
幾つかのケースでは、フィードバックモニタコンポーネント120は、複数の電子サーフェスでのネットワーク活動に基づいて特性を測定し、当該複数の電子サーフェスから測定された品質を集約して合計された品質信号を生成することができる。当該合計された品質信号は、平均、重み付き平均、絶対和、または他の結合された品質信号値であることができる。フィードバックモニタコンポーネント120はさらに、当該結合された品質信号値に対する統計値を生成し、または、標準偏差、分散、3シグマ品質、または6シグマ品質の決定のような統計的分析を実施することができる。
フィードバックモニタコンポーネント120は、コンテンツセレクタコンポーネント118により実施されたリアルタイムコンテンツ選択プロセスを調節することができる。当該リアルタイムコンテンツ選択プロセスを調節することは、クライアントデバイス104との通信セッションを確立するために使用されるNLPコンポーネントを実行したコンテンツプロバイダデバイス106またはサービスプロバイダデバイス108またはサードパーティプロバイダデバイス108により提供されたコンテンツ・アイテムを選択するために使用される重みを調節することを指すことができる。例えば、当該コンテンツ・アイテムが低品質通信セッションをもたらしたとき、フィードバックモニタコンポーネント120は、コンテンツ・アイテムが同様なアクションデータ構造または同様なクライアントデバイス104(またはそのアカウントまたはプロフィール)に対して選択されている可能性を減らすために、当該コンテンツ・アイテムを含むコンテンツデータ130の属性またはパラメータを調節することができる。
幾つかのケースでは、フィードバックモニタコンポーネント120は、当該リアルタイム選択プロセスにおいて品質信号が閾値より小さいことに応答して、当該コンテンツ・アイテムをコンテンツセレクタコンポーネント118が選択することを防止またはブロックすることができる。幾つかのケースでは、フィードバックモニタコンポーネント120は、コンテンツセレクタコンポーネント118が、当該リアルタイム選択プロセスにおいて、当該品質信号が閾値以上であることに応答して当該コンテンツ・アイテムを選択することを可能または許可することができる。
図2は、コンピュータネットワーク上のデータ送信に対するフィードバック制御システムの動作の例示である。当該システムは、図1に示すシステム100の1つまたは複数のコンポーネントを含むことができる。システム100は、1つまたは複数のクライアントコンピューティングデバイス104a−nにより実行または提供される1つまたは複数の電子サーフェス202a−nを含むことができる。電子サーフェス202a−nの例はオーディオインタフェース、音声ベースのインタフェース、ディスプレイスクリーン、HTMLコンテンツ・アイテム、マルチメディア、画像、ビデオ、テキストベースのコンテンツ・アイテム、SMS、メッセージングアプリケーション、チャットアプリケーション、または自然言語プロセッサを含むことができる。
動作204で、クライアントコンピューティングデバイス104は、電子サーフェス202からまたはそれを介してフィードバックを示す信号または他の情報データパケットを受信することができる。動作206で、1つまたは複数のクライアントコンピューティングデバイス104a−n、1つまたは複数のサービスプロバイダデバイス108a−n、または1つまたは複数のコンテンツプロバイダデバイス106a−nはデータパケットをフィードバックモニタコンポーネント124に送信することができる。当該データパケットを、クライアントデバイス104およびサービスプロバイダデバイス108またはコンテンツプロバイダデバイス106のうち1つまたは複数の間で確立された当該通信セッションに関連付けることができる。当該データパケットを各デバイスからフィードバックモニタコンポーネント124に送信することができる。
幾つかのケースでは、フィードバックモニタコンポーネント124は、デバイス104、106または108から各デバイスに送信されたデータパケットをインターセプトしてもよい。フィードバックモニタコンポーネント124は、当該インターセプトされたデータパケットを分析し、当該データパケットをその意図した宛先にルーティングまたは転送することができる。したがって、フィードバックモニタコンポーネント124は、クライアントデバイス104およびサービス/サードパーティプロバイダデバイス108またはコンテンツプロバイダデバイス106に対する中間物であることができる。
動作208で、フィードバックモニタコンポーネント124は、当該通信セッションからインターセプトされたまたは受信されたデータパケットをNLPコンポーネント112に送信することができる。動作210で、NLPコンポーネント112は、当該データパケットのセマンティック分析を実施し、それらをフィードバックコンポーネント124に提供し戻すことができる。幾つかのケースでは、NLPコンポーネント112は、通信セッション206からのオーディオ信号に自然言語処理を実施して、プロバイダデバイス106または108により生成されたNLPコンポーネントの応答を比較することができる。フィードバックモニタコンポーネント124は、制御NLPコンポーネント112により生成された応答を比較して、当該サードパーティNLPコンポーネントが比較可能なまたは満足できるレベルで機能しているかどうかを判定することができる。
動作212で、フィードバックモニタコンポーネント124は、通信セッション206に対する品質信号を決定し、コンテンツセレクタコンポーネント118により実施された当該リアルタイムコンテンツ選択プロセスを調節して、次回にコンテンツセレクタコンポーネント118がコンテンツに対する要求を受信したとき、コンテンツセレクタコンポーネント118が通信セッション206に関連付けられたコンテンツ・アイテム(またはコンテンツプロバイダ)を適切に重み付けして、当該コンテンツ・アイテムが選択されている可能性を増大または減少できるようにすることができる。例えば、プロバイダ108が複数の低品質通信セッションに関連付けられる場合、フィードバックモニタコンポーネント124は、プロバイダ108との通信セッションの確立をもたらしうるコンテンツ・アイテムの選択を防止するようにコンテンツセレクタコンポーネント118に指示することができる。
図3は、パケット化されたオーディオ信号の動的変調を実施するための例示的な方法の例示である。方法300を、システム100またはシステム400の1つまたは複数のコンポーネント、システムまたは要素により実施することができる。方法300は、データ処理システムが入力オーディオ信号を受信することを含むことができる(動作305)。データ処理システムは当該入力オーディオ信号をクライアントコンピューティングデバイスから受信することができる。例えば、データ処理システムにより実行される自然言語プロセッサコンポーネントは当該入力オーディオ信号を、データ処理システムのインタフェースを介してクライアントコンピューティングデバイスから受信することができる。データ処理システムは、当該クライアントコンピューティングデバイス(またはクライアントデバイス)のセンサにより検出された入力オーディオ信号を運搬または含むデータパケットを受信することができる。
動作310で、方法300はデータ処理システムが入力オーディオ信号を解析することを含むことができる。自然言語プロセッサコンポーネントは当該入力オーディオ信号を解析して、要求および当該要求に対応するトリガキーワードを識別することができる。例えば、クライアントデバイスにより検出された当該オーディオ信号は、「Okay device, I need a ride from Taxi Service Company A to go to 1234 Main Street」を含むことができる。このオーディオ信号において、当該初期トリガキーワードは「Okay device」を含むことができ、これは、クライアントデバイスが入力オーディオ信号をデータ処理システムに送信することを示すことができる。クライアントデバイスのプリプロセッサは、残りのオーディオ信号をデータ処理システムに送信する前に用語「Okay device」をフィルタして除外することができる。幾つかのケースでは、クライアントデバイスは、追加の用語をフィルタして除外するか、または、さらなる処理のためにキーワードをデータ処理システムに送信することができる。
データ処理システムは当該入力オーディオ信号内のトリガキーワードを識別することができる。当該トリガキーワードは、例えば、「to go to」または「ride」またはこれらの用語の変形を含むことができる。当該トリガキーワードはサービスまたは製品のタイプを示すことができる。データ処理システムは当該入力オーディオ信号内の要求を識別することができる。当該要求を用語「I need」に基づいて決定することができる。当該トリガキーワードおよび要求を、セマンティック処理技術または他の自然言語処理技術を用いて決定することができる。
幾つかのケースでは、データ処理システムはアクションデータ構造を生成することができる。データ処理システムは当該トリガキーワード、要求、サードパーティプロバイダデバイス、または他の情報に基づいて、当該アクションデータ構造を生成することができる。当該アクションデータ構造は当該要求に応答することができる。例えば、当該クライアントコンピューティングデバイスのエンド・ユーザがタクシーをタクシーサービス会社Aに要求した場合、当該アクションデータ構造はタクシーサービス会社Aへタクシーサービスを要求する情報を含むことができる。データ処理システムは、タクシーサービス会社Aに対するテンプレートを選択し、当該テンプレート内のフィールドを値で埋め、タクシーサービス会社Aがタクシー当該クライアントのユーザコンピューティングデバイスに送り、ユーザをピックアップしユーザを当該要求された宛先に輸送できるようにすることができる。
動作315で、データ処理システムはコンテンツ・アイテムを選択することができる。例えば、コンテンツセレクタコンポーネントは、トリガキーワード、要求またはアクションデータ構造を受信し、リアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択することができる。当該選択されたコンテンツ・アイテムはコンテンツプロバイダ、サービスプロバイダ、または他のサードパーティプロバイダに対応することができる。クライアントデバイスは、当該コンテンツ・アイテムと対話して、当該コンテンツ・アイテムのプロバイダまたは当該コンテンツ・アイテムに関連付けられた他のデバイスとの通信セッションを確立することができる。当該コンテンツ・アイテムに関連付けられたデバイスは、NLPのような会話APIを用いてクライアントデバイスと対話することができる。
動作320で、フィードバックモニタコンポーネントは、当該コンテンツ・アイテムとの対話に応答してクライアントデバイスとの通信セッションを確立したクライアントデバイスおよび会話アプリケーションプログラミングインタフェースの間で送信された可聴信号を運搬するデータパケットを受信することができる。動作325で、当該フィードバックモニタコンポーネントは、当該可聴信号に基づいて当該通信セッションの品質または特性を測定し、当該測定された特性に基づいて品質信号を生成することができる。動作330で、当該フィードバックモニタコンポーネントまたはデータ処理システムは当該品質信号に基づいて当該リアルタイム選択プロセスを調節することができる。
図4は例示的なコンピュータシステム400のブロック図である。当該コンピュータシステムまたはコンピューティングデバイス400は、システム100、またはデータ処理システム102のようなそのコンポーネントを含むことができるかまたはそれを実装するために使用される。データ処理システム102はインテリジェント・パーソナル・アシスタントまたは音声ベースのデジタルアシスタントを含むことができる。コンピューティングシステム400は、情報を通信するためのバス405または他の通信コンポーネントおよび情報を処理するためにバス405に接続されるプロセッサ410または処理回路を含む。コンピューティングシステム400はまた1つまたは複数のプロセッサ410または情報を処理するための当該バスに接続される処理回路を含むことができる。コンピューティングシステム400はまた、情報、およびプロセッサ410により実行される命令を格納するためのバス405に接続されたランダム・アクセスメモリ(RAM)または他の動的記憶デバイスのようなメイン・メモリ415を含む。メイン・メモリ415はデータリポジトリ145であることができるかまたはそれを含むことができる。メイン・メモリ415をまた、プロセッサ410による命令の実行中に位置情報、一時的変数、または他の中間情報を格納するために使用することができる。コンピューティングシステム400はさらに、プロセッサ410のための静的情報および命令を格納するためにバス405に接続される読取専用メモリ(ROM)420または他の静的記憶デバイスを含んでもよい。固体状態デバイス、磁気ディスクまたは光ディスクのような記憶デバイス425を、永続的に情報および命令を格納するためにバス405に接続することができる。記憶デバイス425はデータリポジトリ145を含むことができるかまたはその一部であることができる。
コンピューティングシステム400を、情報をユーザに表示するために、バス405を介して、液晶ディスプレイ、またはアクティブ行列ディスプレイのようなディスプレイ435に接続してもよい。英数字および他のキーを含むキーボードのような入力デバイス430を、情報およびコマンド選択をプロセッサ410に通信するためにバス405に接続してもよい。入力デバイス430はタッチ・スクリーンディスプレイ435を含むことができる。入力デバイス430はまた、マウス、トラックボール、またはカーソル方向キーのようなカーソル・コントロールを、プロセッサ410に通信しディスプレイ435上のカーソル移動を制御するための方向情報およびコマンド選択を含むことができる。ディスプレイ435は、例えば、図1のデータ処理システム102の一部、クライアントコンピューティングデバイス150または他のコンポーネントであることができる。
本明細書で説明したプロセス、システムおよび方法を、プロセッサ410がメイン・メモリ415に含まれる命令の配置を実行したことに応答して、コンピューティングシステム400により実装することができる。かかる命令を、記憶デバイス425のような別のコンピュータ可読媒体からメイン・メモリ415に読み込むことができる。メイン・メモリ415に含まれる命令の配置の実行は、コンピューティングシステム400に本明細書で説明した例示的なプロセスを実施させる。マルチプロセッシング配置における1つまたは複数のプロセッサをまた、メイン・メモリ415に含まれる命令を実行するために使用することができる。ハードワイヤード回路を、本明細書で説明するシステムおよび方法とともにソフトウェア命令の代わりにまたはそれを組み合わせて使用することができる。本明細書で説明したシステムおよび方法はハードウェア回路およびソフトウェアの任意の特定の組合せに限定されない。
例示的なコンピューティングシステムを図4で説明したが、本明細書で説明した動作を含む当該主題を、本明細書で開示した構造およびそれらの構造的均等物を含む他のタイプのデジタル電子回路で、またはコンピュータソフトウェア、ファームウェア、またはハードウェアで、またはそれらの1つまたは複数の組合せで実装することができる。
本明細書で説明するシステムがユーザに関する個人情報を収集するか、または個人情報を利用しうる状況に対して、ユーザにプログラムまたは機能が個人情報(例えば、ユーザのソーシャルネットワーク、ソーシャルアクションまたはアクティビティ、ユーザの嗜好、またはユーザの位置に関する情報)を収集しうるかどうか、またはユーザにより関連しうるコンテンツサーバまたは他のデータ処理システムからコンテンツを受信するかどうかまたはその方法を制御するための機会を与えてもよい。さらに、特定のデータはそれが格納または使用される前に1つまたは複数の方法で匿名化してもよく、その結果個人的に識別可能な情報がパラメータを生成するときに除去される。例えば、ユーザのアイデンティティを匿名化してもよく、その結果個人的に識別可能な情報をユーザに対して決定できず、またはユーザの特定の位置を決定できないように、ユーザの地理的位置を位置情報が取得される場所で(例えば都市、郵便番号、または状態レベルに)一般化してもよい。したがって、ユーザは、どのように情報がユーザに関して収集され当該コンテンツサーバにより使用されるかを制御することができる。
当該主題および本明細書で説明した動作を、本明細書で開示した構造およびそれらの構造的均等物を含むデジタル電子回路で、またはコンピュータソフトウェア、ファームウェア、またはドウェアで、またはそれらの1つまたは複数の組合せで実装することができる。本明細書で説明した当該主題を、データ処理装置による実行のためにまたは当該装置の動作を制御するために1つまたは複数のコンピュータ記憶媒体で符号化された、1つまたは複数のコンピュータプログラム、例えば、コンピュータプログラム命令の1つまたは複数の回路として実装することができる。代替的にまたは追加として、当該プログラム命令を、人工的に生成された伝播信号、例えば、データ処理装置による実行のために適切な受信器装置に送信するための情報を符号化するために生成されたマシン生成された電気、光、または電磁気信号で符号化することができる。コンピュータ記憶媒体は、コンピュータ可読記憶デバイス、コンピュータ可読記憶基板、ランダムなまたはシリアル・アクセスメモリ・アレイまたはデバイス、またはそれらの1つまたは複数の組合せであることができ、または、それらに含まれることができる。コンピュータ記憶媒体は伝播信号ではないが、コンピュータ記憶媒体は、人工的に生成された伝播信号で符号化されたコンピュータプログラム命令のソースまたは宛先であることができる。当該コンピュータ記憶媒体はまた、1つまたは複数の別々のコンポーネントまたは媒体(例えば、複数のCD、ディスク、または他の記憶デバイス)であることができ、または、それに含まれることができる。本明細書で説明した動作を、1つまたは複数のコンピュータ可読記憶デバイスに格納されまたは他のソースから受信されたデータに対してデータ処理装置により実施される動作として実装することができる。
「データ処理システム」「コンピューティングデバイス」「コンポーネント」または「データ処理装置」という用語は、例としてプログラム可能プロセッサ、コンピュータ、システム・オン・チップ、または以上のうち複数または組合せを含む、データを処理するための様々な装置、デバイス、およびマシンを包含する。当該装置は、特殊目的論理回路、例えば、FPGA(フィールドプログラム可能ゲート・アレイ)またはASIC(特殊用途向け集積回路)を含むことができる。当該装置はまた、ハードウェアに加えて、着目するコンピュータプログラムに対する実行環境を生成するコード、例えば、プロセッサファームウェア、プロトコル・スタック、データベース管理システム、オペレーティング・システム、クロス・プラットフォームランタイム環境、仮想マシン、またはそれらの1つまたは複数の組合せを構成するコードを含むことができる。当該装置および実行環境は、ウェブサービス、分散コンピューティングおよびグリッド・コンピューティングインフラのような様々な異なるコンピューティングモデルインフラを実現することができる。例えば、ダイレクト・アクションAPI116、コンテンツセレクタコンポーネント118、またはNLPコンポーネント112および他のデータ処理システム102コンポーネントは、1つまたは複数のデータ処理装置、システム、コンピューティングデバイス、またはプロセッサを含むかまたは共有ことができる。
Aコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、アプリ、スクリプト、またはコードとしても知られる)を、コンパイル型言語またはインタプリタ型言語、宣言型または手続型言語を含む任意の形態のプログラミング言語で書くことができ、スタンドアロンプログラムまたはモジュール、コンポーネント、サブルーチン、オブジェクト、またはコンピューティング環境で使用するのに適した他のユニットを含む任意の形態で展開することができる。コンピュータプログラムはイルシステム内のファイルに対応することができる。コンピュータプログラムを、他のプログラムまたはデータを保持するファイル部分(例えば、マークアップ言語ドキュメントに格納された1つまたは複数のスクリプト)に、着目するプログラム専用の単一のファイルに、または複数の協調ファイルに(例えば、1つまたは複数のモジュール、サブプログラム、またはコード部分を格納するファイル)格納することができる。コンピュータプログラムを、1つのコンピュータ上でまたは1つのサイトに配置されるかまたは複数のサイトにわたって分散され通信ネットワークにより相互接続された複数のコンピュータ上で実行されるように展開することができる。
本明細書で説明した当該プロセスおよび論理フローを、入力データで動作し出力を生成することによって、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラム可能プロセッサ(例えば、データ処理システム102のコンポーネント)により実施して、アクションを実施することができる。当該プロセスおよび論理フローはまた、特殊目的論理回路、例えば、FPGA(フィールドプログラム可能ゲート・アレイ)またはASIC(特殊用途向け集積回路)により実施でき、装置をまた特殊目的論理回路、例えば、FPGA(フィールドプログラム可能ゲート・アレイ)またはASIC(特殊用途向け集積回路)として実装することができる。コンピュータプログラム命令およびデータを格納するのに適したデバイス、例として半導体メモリデバイス、例えば、EPROM、EEPROM、およびフラッシュ・メモリデバイスを含むあらゆる形態の非揮発性メモリ、媒体およびメモリデバイス、磁気ディスク、例えば、内部ハードディスクまたは取外し可能ディスク、磁気光ディスク、およびCDROMおよびDVD−ROMディスクを含む。当該プロセッサおよび当該メモリを特殊目的論理回路で補完するかまたはそれに組み込むことができる。
本明細書で説明する主題を、バックエンドコンポーネントを、例えば、データサーバとして含むか、またはミドルウェアコンポーネント、例えば、アプリケーションサーバを含むか、またはフロントエンドコンポーネント、例えば、ユーザがそれを通じて本明細書で説明した当該主題の実装と対話できるグラフィカルユーザインタフェースまたはウェブブラウザを有するクライアントコンピュータ、または1つまたは複数のかかるバックエンド、ミドルウェア、またはフロントエンドコンポーネントの組合せを含むコンピューティングシステムで実装することができる。当該システムの当該コンポーネントはデジタルデータ通信、例えば、通信ネットワークの任意の形態または媒体により相互接続することができる。通信ネットワークの例は、ローカル・エリア・ネットワーク(「LAN」)および広帯域ネットワーク(「WAN」)、インターネットワーク(例えば、インターネット)、およびピア・ツー・ピアネットワーク(例えば、アドホックピア・ツー・ピアネットワーク)を含む。
システム100またはシステム400のようなコンピューティングシステムはクライアントおよびサーバを含むことができる。クライアントおよびサーバは一般に互いから離れており、一般に通信ネットワークを通じて対話する(例えば、ネットワーク165)。クライアントおよびサーバの関係は、当該各コンピュータで実行され互いにクライアントサーバ関係を有するコンピュータプログラムにより生ずる。幾つかの実装では、サーバは、(例えば、データを表示し、ユーザ入力をクライアントデバイスと対話するユーザから受信する目的で)データ(例えば、コンテンツ・アイテムを表すデータパケット)をクライアントデバイスに送信する。クライアントデバイスで生成されたデータ(例えば、ユーザ対話の結果)はクライアントデバイスから当該サーバでから受信されることができる(例えば、コンピューティングデバイス150またはコンテンツプロバイダコンピューティングデバイス155またはサービスプロバイダコンピューティングデバイス160からデータ処理システム102により受信される)。
動作を当該図面において特定の順序で説明したが、かかる動作を示した特定の順序でまたは逐次的な順序で実施する必要はなく、全ての図示した動作を実施する必要はない。本明細書で説明した動作を異なる順序で実施することができる。
様々なシステムコンポーネントの分離は全ての実装における分離を要求しないが、当該説明したプログラムコンポーネントを単一のハードウェアまたはソフトウェア製品に含めることができる。例えば、NLPコンポーネント110またはコンテンツセレクタコンポーネント125は、単一のコンポーネント、アプリ、またはプログラム、または1つまたは複数の処理回路を有する論理デバイス、またはデータ処理システム102の1つまたは複数のサーバの一部であることができる。
幾つかの例示的な実装を説明したので、以上は、例示的であり限定的ではなく、例として提示されていることは明らかである。特に、本明細書で提示した例の多くは方法の動作またはシステム要素の特定の組合せを含むが、これらの動作およびこれらの要素を他の方法で組み合わせて同一の目的を実現してもよい。1実装と関連して説明した動作、要素および特徴は他の実装または実装における類似の役割から排除されるものではない。
本明細書で使用したフレーズおよび用語は説明の目的のためであり限定として解釈されるべきではない。「〜を含む」、「〜を備える」、「〜を有する」、「〜を包含する」、「〜が関与する」、「〜により特徴付けられる」、「〜の点で特徴付けられる」、およびその本明細書における変形の使用、は、その後に列挙された項目、その均等物、および追加の項目、ならびに排他的にその後に列挙された項目からなる代替的な実装を含むことを意味する。1実装では、本明細書で説明するシステムおよび方法は当該説明した要素、動作、またはコンポーネントの1つ、複数の各組合せ、または全てから成る。
本明細書で単一形で参照されるシステムおよび方法の実装または要素または動作に対する任意の言及は複数のこれらの要素を含む実装を含んでもよく、本明細書の任意の実装または要素または動作への複数形の任意の参照は単一の要素のみを含む実装を含んでもよい。単一形または複数形における参照は本明細書で開示したシステムまたは方法、それらのコンポーネント、動作、または要素を単一のまたは複数の構成に限定しようとするものではない。任意の情報、動作または要素に基づく任意の動作または要素への参照は当該動作または要素は任意の情報、動作、または要素に少なくとも部分的に基づく実装を含んでもよい。
本明細書で開示した任意の実装を任意の他の実装または実施形態と組み合わせてもよく「実装」、「幾つかの実装」、「1実装」等への言及は必ずしも相互に排他的ではなく、当該実装と関連して説明した特定の特徴、構造、または特性が少なくとも1つの実装または実施形態に含まれてもよいを示すことを意図している。本明細書で使用した用語は必ずしも全て同一の実装を参照しない。任意の実装を、任意の他の実装と、包含的にまたは排他的に、本明細書で開示した態様および実装と一貫する任意の方式で結合してもよい。
「または」に対する言及は、「または」を用いて説明された任意の用語が当該説明した用語のうち1つ、複数、および全ての何れかを示しうるように、包含的として解釈してもよい。例えば、「‘A’および‘B’のうち少なくとも1つ」への言及は‘A’のみ、‘B’のみ、ならびに‘A’および‘B’の両方を含むことができる。「〜を備える」または他のオープンな用語と関連して使用されるかかる言及は追加の項目を含むことができる。
当該図面、詳細な説明または任意の請求項における技術的特徴に参照記号が続く場合、当該参照記号は当該図面、詳細な説明、および特許請求の範囲の明瞭性を高めるために含まれている。したがって、当該参照記号もそれがないことも任意のクレーム要素の範囲に対する限定効果を有さない。
本明細書で説明するシステムおよび方法をその特徴から逸脱せずに他の特定の形態で具体化してもよい。例えば、データ処理システム102は、第2のアクション210が完了するかまたはまさに始まろうとすることを示す第2のアクション210からのデータのような、当該スレッド200のアクションの当該シーケンスにおける過去のアクションからのデータに少なくとも部分的に基づいて、後続のアクションに対して(例えば、第3のアクション215に対して)コンテンツ・アイテムを選択することができる。以上の実装は説明したシステムおよび方法の限定ではなく例示的なものである。本明細書で説明するシステムおよび方法の範囲はしたがって以上の説明ではなく添付の特許請求の範囲により示され、添付の特許請求の範囲の均等物の意味と範囲に入る変更がそこに包含される。
102 データ処理システム
104 コンピューティングデバイス
105 ネットワーク
106 コンテンツプロバイダデバイス
108 サービス・プロバイダ・デバイス
110 インタフェース
112 自然言語プロセッサコンポーネント
114 セッション・ハンドラ・コンポーネント
116 ダイレクト・アクションAPI
118 コンテンツセレクタコンポーネント
120 フィードバック監視コンポーネント
122 オーディオ信号生成器コンポーネント
124 データリポジトリ
126 パラメータ
128 ポリシ
130 コンテンツ・データ
132 テンプレート
134 センサ
136 トランスデューサ
138 オーディオドライバ
140 プリプロセッサ
142 サービス・プロバイダの自然言語プロセッサコンポーネント
144 サービス・プロバイダ・インタフェース

Claims (20)

  1. コンピュータネットワークを介したデータ送信のためのシステムであって、
    クライアントデバイスのセンサにより検出された入力オーディオ信号を含むデータパケットをインタフェースを介して受信し、
    前記入力オーディオ信号を解析して、要求および前記要求に対応するトリガキーワードを識別し、
    前記入力オーディオ信号、前記要求、前記トリガキーワードのうちの少なくとも1つに基づいて、通信セッションの特性を測定し、
    前記測定された特性に基づいて品質信号を生成し、
    前記品質信号に基づいてリアルタイムコンテンツ選択プロセスを調整し、
    前記要求およびトリガキーワードに応答して、前記品質信号に基づき調整された前記リアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択する
    ための1つまたは複数のプロセッサを備える、システム。
  2. 前記測定された特性に基づいて前記コンテンツ・アイテムを選択するための前記1つまたは複数のプロセッサを備える、請求項1に記載のシステム。
  3. 前記測定された特性に基づいて前記コンテンツ・アイテムを選択するための前記1つまたは複数のプロセッサを備え、前記測定された特性が振幅を含む、請求項1に記載のシステム。
  4. 前記測定された特性に基づいて前記コンテンツ・アイテムを選択するための前記1つまたは複数のプロセッサを備え、前記測定された特性が周波数を含む、請求項1に記載のシステム。
  5. サードパーティプロバイダデバイスが、会話アプリケーションプログラミングインタフェースを実行して前記クライアントデバイスとの前記通信セッションを確立する、請求項1に記載のシステム。
  6. 前記データパケットを解析して可聴信号の欠如を決定し、
    前記入力オーディオ信号の欠如に基づいて低いレベルの品質を示す前記品質信号を生成する
    ための前記1つまたは複数のプロセッサを備える、請求項1に記載のシステム。
  7. 前記入力オーディオ信号の第1の特性を第1の時間間隔で決定し、前記入力オーディオ信号の第2の特性を前記第1の時間間隔に続く第2の時間間隔で決定し、
    前記第1の特性および前記第2の特性の比較に基づいて前記特性を測定する
    ための前記1つまたは複数のプロセッサを備える、請求項1に記載のシステム。
  8. 複数の音声ベースのクエリを前記クライアントデバイスに送信し、
    前記複数の音声ベースのクエリへの応答に基づいて前記特性を測定する
    ための前記1つまたは複数のプロセッサを備える、請求項1に記載のシステム。
  9. 前記通信セッションの期間に基づいて前記特性を測定するための前記1つまたは複数のプロセッサを備える、請求項1に記載のシステム。
  10. 前記リアルタイムコンテンツ選択プロセスにおいて、前記品質信号が閾値以上であることに応答して前記コンテンツ・アイテムを選択するための請求項1に記載のシステム。
  11. コンピュータネットワークを介したデータ送信のための方法であって、
    1つまたは複数のプロセッサによって、クライアントデバイスのセンサにより検出された入力オーディオ信号を含むデータパケットをインタフェースを介して受信するステップと、
    前記1つまたは複数のプロセッサによって、前記入力オーディオ信号を解析して、要求および前記要求に対応するトリガキーワードを識別するステップと、
    前記1つまたは複数のプロセッサによって、前記入力オーディオ信号、前記要求、前記トリガキーワードのうちの少なくとも1つに基づいて、通信セッションの特性を測定するステップと、
    前記1つまたは複数のプロセッサによって、前記測定された特性に基づいて品質信号を生成するステップと、
    前記1つまたは複数のプロセッサによって、前記品質信号に基づいてリアルタイムコンテンツ選択プロセスを調整するステップと、
    前記1つまたは複数のプロセッサによって、前記要求およびトリガキーワードに応答して、前記品質信号に基づき調整された前記リアルタイムコンテンツ選択プロセスを介してコンテンツ・アイテムを選択するステップと
    を含む、方法。
  12. 前記1つまたは複数のプロセッサによって、前記測定された特性に基づいて前記コンテンツ・アイテムを選択するステップを含む、請求項11に記載の方法。
  13. 前記1つまたは複数のプロセッサによって、前記測定された特性に基づいて前記コンテンツ・アイテムを選択するステップであって、前記測定された特性が振幅を含む、ステップを含む、請求項11に記載の方法。
  14. 前記1つまたは複数のプロセッサによって、前記測定された特性に基づいて前記コンテンツ・アイテムを選択するステップであって、前記測定された特性が周波数を含む、ステップを含む、請求項11に記載の方法。
  15. サードパーティプロバイダデバイスが、会話アプリケーションプログラミングインタフェースを実行して前記クライアントデバイスとの前記通信セッションを確立する、請求項11に記載の方法。
  16. 前記1つまたは複数のプロセッサによって、前記データパケットを解析して可聴信号の欠如を決定するステップと、
    前記1つまたは複数のプロセッサによって、前記入力オーディオ信号の欠如に基づいて低いレベルの品質を示す前記品質信号を生成するステップと
    を含む、請求項11に記載の方法。
  17. 前記1つまたは複数のプロセッサによって、前記入力オーディオ信号の第1の特性を第1の時間間隔で決定し、前記入力オーディオ信号の第2の特性を前記第1の時間間隔に続く第2の時間間隔で決定するステップと、
    前記1つまたは複数のプロセッサによって、前記第1の特性および前記第2の特性の比較に基づいて前記特性を測定するステップと
    を含む、請求項11に記載の方法。
  18. 前記1つまたは複数のプロセッサによって、複数の音声ベースのクエリを前記クライアントデバイスに送信するステップと、
    前記1つまたは複数のプロセッサによって、前記複数の音声ベースのクエリへの応答に基づいて前記特性を測定するステップと
    を含む、請求項11に記載の方法。
  19. 前記1つまたは複数のプロセッサによって、前記通信セッションの期間に基づいて前記特性を測定するステップを含む、請求項11に記載の方法。
  20. 前記1つまたは複数のプロセッサによって、前記リアルタイムコンテンツ選択プロセスにおいて、前記品質信号が閾値以上であることに応答して前記コンテンツ・アイテムを選択するステップを含む、請求項11に記載の方法。
JP2019127639A 2016-12-30 2019-07-09 データ送信のためのフィードバックコントローラ Active JP6839234B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/395,694 US10431209B2 (en) 2016-12-30 2016-12-30 Feedback controller for data transmissions
US15/395,694 2016-12-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017556911A Division JP6556865B2 (ja) 2016-12-30 2017-08-31 データ送信のためのフィードバックコントローラ

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021019789A Division JP7044916B2 (ja) 2016-12-30 2021-02-10 データ送信のためのフィードバックコントローラ

Publications (2)

Publication Number Publication Date
JP2019174846A true JP2019174846A (ja) 2019-10-10
JP6839234B2 JP6839234B2 (ja) 2021-03-03

Family

ID=59923556

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017556911A Active JP6556865B2 (ja) 2016-12-30 2017-08-31 データ送信のためのフィードバックコントローラ
JP2019127639A Active JP6839234B2 (ja) 2016-12-30 2019-07-09 データ送信のためのフィードバックコントローラ
JP2021019789A Active JP7044916B2 (ja) 2016-12-30 2021-02-10 データ送信のためのフィードバックコントローラ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017556911A Active JP6556865B2 (ja) 2016-12-30 2017-08-31 データ送信のためのフィードバックコントローラ

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021019789A Active JP7044916B2 (ja) 2016-12-30 2021-02-10 データ送信のためのフィードバックコントローラ

Country Status (9)

Country Link
US (3) US10431209B2 (ja)
EP (2) EP4149097A1 (ja)
JP (3) JP6556865B2 (ja)
KR (3) KR102040783B1 (ja)
CN (2) CN108605076B (ja)
AU (2) AU2017386098B2 (ja)
DE (2) DE112017000131T5 (ja)
GB (1) GB2564921B (ja)
WO (1) WO2018125303A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10630751B2 (en) 2016-12-30 2020-04-21 Google Llc Sequence dependent data message consolidation in a voice activated computer network environment
US10956485B2 (en) 2011-08-31 2021-03-23 Google Llc Retargeting in a search environment
US9703757B2 (en) 2013-09-30 2017-07-11 Google Inc. Automatically determining a size for a content item for a web page
US10614153B2 (en) 2013-09-30 2020-04-07 Google Llc Resource size-based content item selection
US10431209B2 (en) * 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
US10929081B1 (en) * 2017-06-06 2021-02-23 United Services Automobile Association (Usaa) Context management for multiple devices
US20220394126A1 (en) * 2017-12-29 2022-12-08 Trysit Nitidharmatut Simultaneous Voice and Data Content Driven Commercial Data Platform
US11553082B2 (en) * 2017-12-29 2023-01-10 Trysit Nitidharmatut Simultaneous voice and data content driven commercial data platform
EP3596599A1 (en) 2018-05-07 2020-01-22 Google LLC Activation of remote devices in a networked system
US11100933B2 (en) * 2019-04-17 2021-08-24 Tempus Labs, Inc. Collaborative artificial intelligence method and system
CN111738007B (zh) * 2020-07-03 2021-04-13 北京邮电大学 一种基于序列生成对抗网络的中文命名实体识别数据增强算法
CN114065976A (zh) * 2020-07-29 2022-02-18 宝马股份公司 基于自然语言输入的用车服务预订方法和系统
US20220334899A1 (en) * 2021-04-14 2022-10-20 Nvidia Corporation Application programming interface to monitor resource usage

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275601A (ja) * 2004-03-23 2005-10-06 Fujitsu Ltd 音声による情報検索システム
JP2014153715A (ja) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd 音声対話機能を備えた携帯端末機及びその音声対話方法

Family Cites Families (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4603430A (en) 1984-09-21 1986-07-29 Hughes Aircraft Company Target discrimination utilizing median filters
EP0820008A3 (en) 1992-12-01 2006-05-24 Microsoft Corporation A method and system for in-place interaction with embedded objects
US5812935A (en) * 1993-04-17 1998-09-22 Hughes Electronics Cellular system employing base station transmit diversity according to transmission quality level
US5608727A (en) * 1995-05-02 1997-03-04 Motorola, Inc. Method and system for management of frequency spectrum among multiple applications on a shared medium
US6119101A (en) 1996-01-17 2000-09-12 Personal Agents, Inc. Intelligent agents for electronic commerce
DE19716445A1 (de) 1997-04-21 1998-10-22 Heidelberger Druckmasch Ag Verfahren zur Verbreiterung von Zeichen
US6529730B1 (en) * 1998-05-15 2003-03-04 Conexant Systems, Inc System and method for adaptive multi-rate (AMR) vocoder rate adaption
US6829646B1 (en) 1999-10-13 2004-12-07 L. V. Partners, L.P. Presentation of web page content based upon computer video resolutions
US20010016034A1 (en) 1998-12-08 2001-08-23 Sukhinder Singh Method and apparatus for obtaining and aggregating off-line user data for re-packaging and presentation to users over a data-packet-network
US7003729B1 (en) 1999-04-20 2006-02-21 I2 Technologies Us, Inc. Method and apparatus for supporting multiple alternative graphical user interfaces in computer-moderated electronic commerce
US6275806B1 (en) 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6684249B1 (en) 2000-05-26 2004-01-27 Sonicbox, Inc. Method and system for adding advertisements over streaming audio based upon a user profile over a world wide area network of computers
FI20001577A (fi) * 2000-06-30 2001-12-31 Nokia Mobile Phones Ltd Puheenkoodaus
US6857007B1 (en) 2000-08-30 2005-02-15 Bloomfield Enterprises, Llc Personal digital assistant facilitated communication system
WO2002086864A1 (en) * 2001-04-18 2002-10-31 Rutgers, The State University Of New Jersey System and method for adaptive language understanding by computers
US7219309B2 (en) 2001-05-02 2007-05-15 Bitstream Inc. Innovations for the display of web pages
EP1449190B1 (en) 2001-05-02 2013-07-10 Bitstream, Inc. Methods, systems, and programming for producing and displaying subpixel-optimized images and digital content including such images
GB0118294D0 (en) 2001-07-27 2001-09-19 Ibm Method and system for deadlock detection and avoidance
GB2392595A (en) 2002-08-30 2004-03-03 Hewlett Packard Co Page composition
US20040056894A1 (en) 2002-09-19 2004-03-25 Igor Zaika System and method for describing and instantiating extensible user interfaces
US7296230B2 (en) 2002-11-29 2007-11-13 Nippon Telegraph And Telephone Corporation Linked contents browsing support device, linked contents continuous browsing support device, and method and program therefor, and recording medium therewith
WO2004068320A2 (en) 2003-01-27 2004-08-12 Vincent Wen-Jeng Lue Method and apparatus for adapting web contents to different display area dimensions
EP1593057B1 (en) 2003-02-14 2011-09-28 Access Co., Ltd. Browser program for performing table-layout
KR20040076649A (ko) 2003-02-26 2004-09-03 삼성전자주식회사 종횡비별 브라우저 그래픽 표시 장치 및 방법
KR100447526B1 (ko) 2003-03-18 2004-09-08 엔에이치엔(주) 인터넷 사용자의 접속 의도 판단 방법 및 이를 이용한인터넷 상의 광고 방법과 그 시스템
GB2418509A (en) 2003-06-03 2006-03-29 Forbes Holton Norris Iii Flexible, dynamic menu-based web-page architecture
JP3920818B2 (ja) 2003-07-22 2007-05-30 株式会社東芝 スケジューリング方法および情報処理システム
GB0320278D0 (en) 2003-08-29 2003-10-01 Hewlett Packard Development Co Constrained document layout
US7809843B1 (en) 2003-09-18 2010-10-05 Intel Corporation Globally unique identification in communications protocols and databases
NO20034724D0 (no) 2003-10-22 2003-10-22 Opera Software Asa Presentasjon av HTML-innhold på en skjermterminal
US7930206B2 (en) 2003-11-03 2011-04-19 Google Inc. System and method for enabling an advertisement to follow the user to additional web pages
KR100458461B1 (ko) 2004-03-04 2004-11-26 엔에이치엔(주) 지식 광고 방법 및 지식 광고 시스템
US7853255B2 (en) 2004-04-16 2010-12-14 Broadcom Corporation Digital personal assistance via a broadband access gateway
US20060103667A1 (en) 2004-10-28 2006-05-18 Universal-Ad. Ltd. Method, system and computer readable code for automatic reize of product oriented advertisements
US20060111971A1 (en) 2004-11-24 2006-05-25 Microsoft Corporation System and method for on-line and off-line advertising in content delivered to a display screen
EP1861800A1 (en) 2005-03-09 2007-12-05 Medio Systems, Inc. Method and system of bidding for advertisement placement on computing devices
US7730418B2 (en) 2005-05-04 2010-06-01 Workman Nydegger Size to content windows for computer graphics
JP4851447B2 (ja) * 2005-06-09 2012-01-11 株式会社エイ・ジー・アイ ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム
JP4665639B2 (ja) * 2005-07-19 2011-04-06 日本電気株式会社 通信品質監視システム、通信品質監視装置、通信品質劣化箇所特定装置、その装置における方法及びプログラム
JP2007080357A (ja) 2005-09-13 2007-03-29 Toshiba Corp 情報記憶媒体、情報再生方法、情報再生装置
US8195133B2 (en) 2005-09-14 2012-06-05 Jumptap, Inc. Mobile dynamic advertisement creation and placement
FI118779B (fi) 2005-10-07 2008-03-14 Riku Rikkola Kortti, kortin vastaanottolaite ja järjestelmä sähköenergian välittämistä varten
JP2007115293A (ja) 2005-10-17 2007-05-10 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
US7904505B2 (en) 2005-11-02 2011-03-08 At&T Intellectual Property I, L.P. Service to push author-spoken audio content with targeted audio advertising to users
ES2420559T3 (es) 2006-02-10 2013-08-23 Spinvox Limited Un sistema a gran escala, independiente del usuario e independiente del dispositivo de conversión del mensaje vocal a texto
US7606875B2 (en) 2006-03-28 2009-10-20 Microsoft Corporation Detecting serving area of a web resource
CN101055577A (zh) 2006-04-12 2007-10-17 龙搜(北京)科技有限公司 可扩展标记语言集中器
US8582663B2 (en) 2006-08-08 2013-11-12 Core Wireless Licensing S.A.R.L. Method, device, and system for multiplexing of video streams
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
CN101506874B (zh) * 2006-09-13 2011-12-07 日本电信电话株式会社 情感检测方法、情感检测装置
WO2008053862A1 (fr) 2006-11-01 2008-05-08 Nec Corporation Dispositif d'affichage d'image
US7742922B2 (en) * 2006-11-09 2010-06-22 Goller Michael D Speech interface for search engines
US8031857B2 (en) * 2006-12-19 2011-10-04 Scenera Technologies, Llc Methods and systems for changing a communication quality of a communication session based on a meaning of speech data
US7877696B2 (en) 2007-01-05 2011-01-25 Eastman Kodak Company Multi-frame display system with semantic image arrangement
US8107960B2 (en) 2007-01-23 2012-01-31 Toshiba America Research, Inc. Prioritized query
GB2451415B (en) 2007-02-13 2011-08-17 Vodafone Plc Content reproduction in telecommunications systems
US8413070B1 (en) 2007-05-07 2013-04-02 Adobe Systems Incorporated Declarative resizeable list in electronic form
US8756523B2 (en) 2007-05-29 2014-06-17 Access Co., Ltd. Terminal, history management method, and computer usable storage medium for history management
US20090085921A1 (en) 2007-10-01 2009-04-02 Lydia Mai Do Populate Web-Based Content Based on Space Availability
US8095865B2 (en) 2007-11-21 2012-01-10 Microsoft Corporation Layout manager
US8555193B2 (en) 2008-01-17 2013-10-08 Google Inc. System for intelligent automated layout and management of interactive windows
WO2009114634A1 (en) 2008-03-11 2009-09-17 Hongguag Bi Ad matching system and method thereof
US8453051B1 (en) 2008-03-31 2013-05-28 Amazon Technologies, Inc. Dynamic display dependent markup language interface
US20090279108A1 (en) 2008-05-12 2009-11-12 Nagayasu Hoshi Image Processing Apparatus
JP4547638B2 (ja) 2008-05-29 2010-09-22 ソニー株式会社 Webページ表示装置及びWebページ表示方法
US20090300120A1 (en) 2008-06-03 2009-12-03 Contec Innovations Inc. Method and system for producing a presentation message for a mobile device
CA2633177A1 (en) 2008-06-03 2009-12-03 Contec Innovations, Inc. Method and system for producing a presentation message for a mobile device
US9357075B1 (en) * 2008-06-05 2016-05-31 Avaya Inc. Conference call quality via a connection-testing phase
US8527339B2 (en) 2008-06-26 2013-09-03 Microsoft Corporation Quality based pricing and ranking for online ads
US8706547B2 (en) 2008-08-29 2014-04-22 Google Inc. Dynamic pricing for content presentations
US8438310B2 (en) 2008-10-01 2013-05-07 Adp Dealer Services, Inc. Systems and methods for configuring a website having a plurality of operational modes
US8938672B2 (en) 2008-11-04 2015-01-20 International Business Machines Corporation Amending the display property of grid elements
CN101437032B (zh) * 2008-12-19 2011-11-16 重庆邮电大学 基于sip协议的voip语音质量监测系统及检测方法
US8145561B1 (en) 2009-01-05 2012-03-27 Sprint Communications Company L.P. Phone usage pattern as credit card fraud detection trigger
JP4978629B2 (ja) 2009-01-19 2012-07-18 コニカミノルタビジネステクノロジーズ株式会社 項目設定装置、並びにその制御方法及び制御プログラム
JP5018794B2 (ja) 2009-01-20 2012-09-05 コニカミノルタビジネステクノロジーズ株式会社 印刷ジョブ出力装置、並びにその制御方法及び制御プログラム
JP4760921B2 (ja) 2009-01-28 2011-08-31 コニカミノルタビジネステクノロジーズ株式会社 項目設定装置、並びにその制御方法及び制御プログラム
US20100198694A1 (en) 2009-01-30 2010-08-05 Google Inc. Advertisement Slot Configuration
US8949582B2 (en) 2009-04-27 2015-02-03 Lsi Corporation Changing a flow identifier of a packet in a multi-thread, multi-flow network processor
US8448074B2 (en) 2009-05-01 2013-05-21 Qualcomm Incorporated Method and apparatus for providing portioned web pages in a graphical user interface
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
JP5299125B2 (ja) 2009-06-30 2013-09-25 富士ゼロックス株式会社 文書処理装置及びプログラム
JP5340088B2 (ja) 2009-09-07 2013-11-13 キヤノン株式会社 情報処理方法及び装置
JP5032543B2 (ja) 2009-09-16 2012-09-26 株式会社東芝 スケジューリング装置、方法及びプログラム
US8402379B2 (en) 2009-09-30 2013-03-19 SAP Portals Israel Limited Dynamic content layout for a user interface display
US9124642B2 (en) * 2009-10-16 2015-09-01 Qualcomm Incorporated Adaptively streaming multimedia
CN102043788A (zh) * 2009-10-21 2011-05-04 北京金石智博科技发展有限公司 基于内容比对的视频检索系统
CN102082879B (zh) * 2009-11-27 2014-07-30 华为技术有限公司 呼叫中心语音检测的方法、装置及系统
JP5186047B2 (ja) 2009-11-30 2013-04-17 楽天株式会社 オブジェクト表示装置、オブジェクト表示方法、オブジェクト表示制御プログラム、及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8428759B2 (en) * 2010-03-26 2013-04-23 Google Inc. Predictive pre-recording of audio for voice input
US8793598B2 (en) 2010-04-14 2014-07-29 Microsoft Corporation Cross-browser web dialog platform
US10467655B1 (en) 2010-04-15 2019-11-05 Quantcast Corporation Protected audience selection
US20110271194A1 (en) 2010-04-29 2011-11-03 Google Inc. Voice ad interactions as ad conversions
US9560206B2 (en) * 2010-04-30 2017-01-31 American Teleconferencing Services, Ltd. Real-time speech-to-text conversion in an audio conference session
KR101577508B1 (ko) 2010-06-29 2015-12-15 라쿠텐 인코포레이티드 정보 처리 장치, 정보 처리 방법, 및 정보 처리 프로그램이 기록된 기록 매체
KR101731843B1 (ko) 2010-09-02 2017-05-02 삼성전자 주식회사 아이템 디스플레이하는 방법 및 장치
KR101045589B1 (ko) 2010-09-15 2011-07-01 주식회사 유비온 네트워크를 통해 수신한 컨텐츠의 표시장치 및 그 방법
JP2012073863A (ja) 2010-09-29 2012-04-12 Rakuten Inc 広告表示プログラム、広告表示装置、広告表示方法、記録媒体、および、広告表示システム
WO2012082924A2 (en) 2010-12-14 2012-06-21 Soorena Salari Apparatus, system, and method for a micro commerce ad
US20120159314A1 (en) 2010-12-16 2012-06-21 Microsoft Corporation Adaptive content layout
US20120158490A1 (en) 2010-12-16 2012-06-21 Yahoo! Inc. Sponsored search auction mechanism for rich media advertising
US8510237B2 (en) 2011-03-15 2013-08-13 Qualcomm Incorporated Machine learning method to identify independent tasks for parallel layout in web browsers
US20130007602A1 (en) 2011-06-29 2013-01-03 Apple Inc. Fixed layout electronic publications
US8872855B2 (en) 2011-07-21 2014-10-28 Flipboard, Inc. Adjusting orientation of content regions in a page layout
US9396167B2 (en) 2011-07-21 2016-07-19 Flipboard, Inc. Template-based page layout for hosted social magazines
US10630751B2 (en) 2016-12-30 2020-04-21 Google Llc Sequence dependent data message consolidation in a voice activated computer network environment
US9020981B2 (en) 2011-09-30 2015-04-28 Comprehend Systems, Inc. Systems and methods for generating schemas that represent multiple data sources
US9760236B2 (en) 2011-10-14 2017-09-12 Georgia Tech Research Corporation View virtualization and transformations for mobile applications
US9542956B1 (en) 2012-01-09 2017-01-10 Interactive Voice, Inc. Systems and methods for responding to human spoken audio
US9575963B2 (en) 2012-04-20 2017-02-21 Maluuba Inc. Conversational agent
KR101813750B1 (ko) * 2012-04-26 2017-12-29 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 멀티미디어 애플리케이션 렌탈 및 과금
US9323443B2 (en) 2012-05-02 2016-04-26 International Business Machines Corporation Drilling of displayed content in a touch screen device
US20130305144A1 (en) 2012-05-09 2013-11-14 Ni Group Limited Method of Publishing Digital Content
US20130305145A1 (en) 2012-05-09 2013-11-14 Ni Group Limited A Method of Publishing Digital Content
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10607250B2 (en) 2012-06-04 2020-03-31 Facebook, Inc. Advertisement selection and pricing using discounts based on placement
US20140019462A1 (en) 2012-07-15 2014-01-16 Microsoft Corporation Contextual query adjustments using natural action input
US20140033228A1 (en) 2012-07-25 2014-01-30 Google Inc. Configuring content display dimensions
US9865008B2 (en) 2012-09-20 2018-01-09 Google Llc Determining a configuration of a content item display environment
US9183319B2 (en) 2012-10-17 2015-11-10 Cloudflare, Inc. Method and apparatus for automatically optimizing the loading of images in a cloud-based proxy service
US9164966B1 (en) 2012-10-24 2015-10-20 Google Inc. Determining sizes of content items
CN103873706B (zh) * 2012-12-18 2016-12-28 北京裕丰大通科技有限公司 动态智能语音识别ivr服务系统
JP6028556B2 (ja) * 2012-12-19 2016-11-16 富士通株式会社 対話制御方法及び対話制御用コンピュータプログラム
US20140180796A1 (en) 2012-12-21 2014-06-26 Sándor Sás Selecting and serving content items of different content item types for a content item slot
KR20140089876A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 대화형 인터페이스 장치 및 그의 제어 방법
CN103093752A (zh) * 2013-01-16 2013-05-08 华南理工大学 一种基于手机语音的情感分析方法及其系统
KR20140094336A (ko) * 2013-01-22 2014-07-30 삼성전자주식회사 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
US20140258849A1 (en) 2013-03-06 2014-09-11 Google Inc. Automatic Alignment of a Multi-Dimensional Layout
US11233841B2 (en) 2013-03-15 2022-01-25 Yottaa, Inc. Systems and methods for configuration-based optimization by an intermediary
US20140337127A1 (en) 2013-04-23 2014-11-13 Brightcove, Inc. Client bridge
US20140324582A1 (en) * 2013-04-30 2014-10-30 Google Inc. Social network enhanced content items responsive to search queries
EP2814244A1 (en) * 2013-06-11 2014-12-17 Alcatel Lucent A method and a system for improving communication quality of a video conference
US9483444B2 (en) 2013-07-09 2016-11-01 Flipboard, Inc. Dynamic layout engine for a digital magazine
US20150088970A1 (en) 2013-09-20 2015-03-26 Yottaa Inc. Systems and methods for managing loading priority or sequencing of fragments of a web object
US10431209B2 (en) * 2016-12-30 2019-10-01 Google Llc Feedback controller for data transmissions
US10614153B2 (en) 2013-09-30 2020-04-07 Google Llc Resource size-based content item selection
US9703757B2 (en) 2013-09-30 2017-07-11 Google Inc. Automatically determining a size for a content item for a web page
EP3063923B1 (en) 2013-10-29 2019-10-16 Telefonaktiebolaget LM Ericsson (publ) Control of a chain of services
US20150278370A1 (en) * 2014-04-01 2015-10-01 Microsoft Corporation Task completion for natural language input
US10726831B2 (en) 2014-05-20 2020-07-28 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
US9350770B2 (en) * 2014-05-30 2016-05-24 Apple Inc. Redundant transmission channels for real-time applications on mobile devices
US9330433B2 (en) 2014-06-30 2016-05-03 Intel Corporation Data distribution fabric in scalable GPUs
US10108817B2 (en) 2014-09-26 2018-10-23 Microsoft Technology Licensing, Llc Privacy-preserving cookies for personalization without user tracking
JP6671379B2 (ja) 2014-10-01 2020-03-25 エクスブレイン・インコーポレーテッド 音声および接続プラットフォーム
US9959129B2 (en) 2015-01-09 2018-05-01 Microsoft Technology Licensing, Llc Headless task completion within digital personal assistants
US20160274864A1 (en) 2015-03-20 2016-09-22 Google Inc. Systems and methods for enabling user voice interaction with a host computing device
US10380227B2 (en) 2015-06-07 2019-08-13 Apple Inc. Generating layout for content presentation structures
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US20170092278A1 (en) 2015-09-30 2017-03-30 Apple Inc. Speaker recognition
US9928840B2 (en) 2015-10-16 2018-03-27 Google Llc Hotword recognition
US9747926B2 (en) 2015-10-16 2017-08-29 Google Inc. Hotword recognition
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US9940929B2 (en) 2015-12-09 2018-04-10 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition
CN105654950B (zh) * 2016-01-28 2019-07-16 百度在线网络技术(北京)有限公司 自适应语音反馈方法和装置
US11477139B2 (en) 2016-02-25 2022-10-18 Meta Platforms, Inc. Techniques for messaging bot rich communication
US9864732B2 (en) 2016-05-02 2018-01-09 Google Inc. User interfaces that facilitate management of formatting of digital content
CN106033476B (zh) 2016-05-19 2019-07-23 西安交通大学 一种云计算环境中分布式计算模式下的增量式图计算方法
CN106055662A (zh) * 2016-06-02 2016-10-26 竹间智能科技(上海)有限公司 基于情感的智能对话方法及系统
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US20180012595A1 (en) 2016-07-07 2018-01-11 Intelligently Interactive, Inc. Simple affirmative response operating system
US20180191798A1 (en) 2016-12-30 2018-07-05 Google Inc. Methods and systems for server-side rendering of native content for presentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005275601A (ja) * 2004-03-23 2005-10-06 Fujitsu Ltd 音声による情報検索システム
JP2014153715A (ja) * 2013-02-07 2014-08-25 Samsung Electronics Co Ltd 音声対話機能を備えた携帯端末機及びその音声対話方法

Also Published As

Publication number Publication date
KR102415921B1 (ko) 2022-07-01
EP3360313B1 (en) 2022-10-05
JP7044916B2 (ja) 2022-03-30
JP2019507397A (ja) 2019-03-14
CN108605076B (zh) 2021-02-05
WO2018125303A1 (en) 2018-07-05
AU2017386098B2 (en) 2020-07-16
GB2564921A (en) 2019-01-30
DE112017000131T5 (de) 2018-09-13
KR20190124822A (ko) 2019-11-05
US20180190271A1 (en) 2018-07-05
US10431209B2 (en) 2019-10-01
JP6839234B2 (ja) 2021-03-03
GB2564921B (en) 2021-11-03
EP4149097A1 (en) 2023-03-15
US20190371306A1 (en) 2019-12-05
US11475886B2 (en) 2022-10-18
JP2021089758A (ja) 2021-06-10
KR102040783B1 (ko) 2019-11-06
CN108605076A (zh) 2018-09-28
KR20210012049A (ko) 2021-02-02
CN112967716A (zh) 2021-06-15
AU2017386098A1 (en) 2019-05-30
GB201802156D0 (en) 2018-03-28
US10643608B2 (en) 2020-05-05
US20200251103A1 (en) 2020-08-06
AU2020256315B2 (en) 2022-02-24
DE212017000030U1 (de) 2019-07-03
EP3360313A1 (en) 2018-08-15
KR20180092823A (ko) 2018-08-20
KR102208990B1 (ko) 2021-01-28
AU2020256315A1 (en) 2020-11-12
JP6556865B2 (ja) 2019-08-07

Similar Documents

Publication Publication Date Title
JP7044916B2 (ja) データ送信のためのフィードバックコントローラ
US11627065B2 (en) Selective sensor polling
JP7163253B2 (ja) オーディオベースのデータ構造生成

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210212

R150 Certificate of patent or registration of utility model

Ref document number: 6839234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250