JP6977103B2 - パケット化されたオーディオ信号の変調 - Google Patents
パケット化されたオーディオ信号の変調 Download PDFInfo
- Publication number
- JP6977103B2 JP6977103B2 JP2020083875A JP2020083875A JP6977103B2 JP 6977103 B2 JP6977103 B2 JP 6977103B2 JP 2020083875 A JP2020083875 A JP 2020083875A JP 2020083875 A JP2020083875 A JP 2020083875A JP 6977103 B2 JP6977103 B2 JP 6977103B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- content item
- processing system
- data processing
- output signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims description 186
- 238000012545 processing Methods 0.000 claims description 299
- 238000000034 method Methods 0.000 claims description 89
- 230000000694 effects Effects 0.000 claims description 47
- 230000004044 response Effects 0.000 claims description 30
- 230000007704 transition Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims 2
- 230000009471 action Effects 0.000 description 82
- 238000004891 communication Methods 0.000 description 64
- 230000008569 process Effects 0.000 description 35
- 239000011295 pitch Substances 0.000 description 31
- 230000005540 biological transmission Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 11
- 238000005108 dry cleaning Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000013515 script Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1069—Session establishment or de-establishment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/40—Network security protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440236—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4622—Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
- Telephonic Communication Services (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Description
る。コンテンツデータ130は、たとえば、コンテンツキャンペーンの過去の実績を含み得る。
グデバイス104のスピーカ136を介して聴き取れる。クリックまたは選択は、聴き取れる印象への音声応答、マウスクリック、タッチインタラクション、ジェスチャー、シェイク、オーディオインタラクション、またはキーボードクリックなどの、コンテンツアイテムオブジェクトとのユーザインタラクションを指すものとしてよい。変換は、ユーザがコンテンツアイテムオブジェクトに関して所望のアクションを実行すること、たとえば、製品もしくはサービスを購入すること、調査を完遂すること、コンテンツアイテムに対応する実店舗を訪問すること、または電子取引を完遂することを指すものとしてよい。
ある場合も限定的でない場合もある)、意味処理(たとえば、単語を識別し、その意味を符号化し、識別された単語を類似の意味を有する他の単語に関係付けた後に行われ得る処理)などの機能を実行することができる。
タ処理システム102は、変調された出力信号をクライアントコンピューティングデバイス104にストリーミングして、出力信号を再生することをクライアントコンピューティングデバイス104に行わせることができる。
102 データ処理システム
104 クライアントコンピューティングデバイス
105 ネットワーク
106 コンテンツプロバイダコンピューティングデバイス
108 サービスプロバイダコンピューティングデバイス
110 インターフェース
112 NLPコンポーネント
114 セッションハンドラ
116 ダイレクトアクションAPI
118 コンテンツセレクタコンポーネント
120 ポリシーエンジン
122 オーディオ信号発生器
124 データリポジトリ
126 パラメータ
128 ポリシー
130 コンテンツデータ
132 テンプレート
134 センサ
136 トランスデューサ
138 オーディオドライバ
140 プリプロセッサ
142 サービスプロバイダ自然言語プロセッサコンポーネント
144 サービスプロバイダインターフェース
150 コンピューティングデバイス
155 コンテンツプロバイダコンピューティングデバイス
160 サービスプロバイダコンピューティングデバイス
165 ネットワーク
200 スレッド
210 第2のアクション
215 第3のアクション
325 第1の通信セッション
500 システム
505 バス
510 プロセッサ
515 メインメモリ
520 リードオンリーメモリ(ROM)
535 ディスプレイ
535 タッチスクリーンディスプレイ
Claims (14)
- パケット化されたオーディオ信号を変調するためのシステムであって、
データ処理システムを備え、前記データ処理システムが、
前記データ処理システムのインターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信することと、
前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別することと、
前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別することと、
前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定することと、
前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用することであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、適用することと、
前記第1のオーディオ変調により前記出力信号を生成することと、
前記出力信号を含むデータパケットを送信することであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、送信することと、
前記ネットワーク活動の種類の遷移または前記コンテンツアイテムの種類の変更に基づいて、前記第1のオーディオ変調を選択するか否かを判定することと
を行うために、1つまたは複数のプロセッサを備える、システム。 - パケット化されたオーディオ信号を変調するためのシステムであって、
データ処理システムを備え、前記データ処理システムが、
前記データ処理システムのインターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信することと、
前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別することと、
前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別することと、
前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定することと、
前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用することであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、適用することと、
前記第1のオーディオ変調により前記出力信号を生成することと、
前記出力信号を含むデータパケットを送信することであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、送信することと、
ネットワーク活動の以前の種類からネットワーク活動の前記種類への遷移を検出することであって、ネットワーク活動の前記以前の種類が前記既定のオーディオ変調に対応する、検出することと、
前記遷移の検出に応答して、前記既定のオーディオ変調から前記第1のオーディオ変調に切り替えることと
を行うために、1つまたは複数のプロセッサを備える、システム。 - パケット化されたオーディオ信号を変調するためのシステムであって、
データ処理システムを備え、前記データ処理システムが、
前記データ処理システムのインターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信することと、
前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別することと、
前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別することと、
前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定することと、
前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用することであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、適用することと、
前記第1のオーディオ変調により前記出力信号を生成することと、
前記出力信号を含むデータパケットを送信することであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、送信することと、
後続のコンテンツアイテムを識別することと、
前記後続のコンテンツアイテムの種類が前記コンテンツアイテムの前記種類に対応すると決定することと、
前記後続のコンテンツアイテムの種類が前記コンテンツアイテムの種類に対応することに基づき、前記コンテンツアイテムに使用される前記第1のオーディオ変調を選択することと
を行うために、1つまたは複数のプロセッサを備える、システム。 - パケット化されたオーディオ信号を変調するためのシステムであって、
データ処理システムを備え、前記データ処理システムが、
前記データ処理システムのインターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信することと、
前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別することと、
前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別することと、
前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定することと、
前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用することであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、適用することと、
前記第1のオーディオ変調により前記出力信号を生成することと、
前記出力信号を含むデータパケットを送信することであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、送信することと、
前記クライアントデバイスの前記センサにより検出された前記入力オーディオ信号の特性に基づき、前記第1のオーディオ変調を選択することと
を行うために、1つまたは複数のプロセッサを備える、システム。 - パケット化されたオーディオ信号を変調するためのシステムであって、
データ処理システムを備え、前記データ処理システムが、
前記データ処理システムのインターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信することと、
前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別することと、
前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別することと、
前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定することと、
前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用することであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、適用することと、
前記第1のオーディオ変調により前記出力信号を生成することと、
前記出力信号を含むデータパケットを送信することであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、送信することと、
第2のコンテンツアイテムを識別することであって、前記第2のコンテンツアイテムは前記第1のコンテンツアイテムの後続コンテンツアイテムである、識別することと、
前記第2のコンテンツアイテムの種類が前記コンテンツアイテムの前記種類と異なると
決定することと、
前記第2のコンテンツアイテムの種類が前記コンテンツアイテムの前記種類と異なることに基づき、前記第2のコンテンツアイテムに使用するために第2のオーディオ変調を選択することと
を行うために、1つまたは複数のプロセッサを備える、システム。 - パケット化されたオーディオ信号を変調するためのシステムであって、
データ処理システムを備え、前記データ処理システムが、
前記データ処理システムのインターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信することと、
前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別することと、
前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別することと、
前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定することと、
前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用することであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、適用することと、
前記第1のオーディオ変調により前記出力信号を生成することと、
前記出力信号を含むデータパケットを送信することであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、送信することと、
複数のコンテンツアイテムを識別することと、
前記コンテンツアイテムのために使用される第1のオーディオ変調とは異なる、前記複数のコンテンツアイテムのための1つまたは複数のオーディオ変調を選択することと、
前記複数のコンテンツアイテムに後続する第2のコンテンツアイテムを識別することと、
ポリシーに基づき、前記コンテンツアイテムに使用された前記第1のオーディオ変調を前記第2のコンテンツアイテムのために選択することと
を行うために、1つまたは複数のプロセッサを備える、システム。 - パケット化されたオーディオ信号を変調するためのシステムであって、
データ処理システムを備え、前記データ処理システムが、
前記データ処理システムのインターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信することと、
前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別することと、
前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別することと、
前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定することと、
前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用することであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、適用することと、
前記第1のオーディオ変調により前記出力信号を生成することと、
前記出力信号を含むデータパケットを送信することであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、送信することと、
第2の要求に応答して第2のコンテンツアイテムを識別することと、
ポリシーに基づいて、サービスの要求のうちの1つに対応する前記第2のコンテンツアイテムに基づく第2のオーディオ変調、またはコンテンツの要求に対応する前記第2のコンテンツアイテムに基づく第3のオーディオ変調を選択することと
を行うために、1つまたは複数のプロセッサを備える、システム。 - パケット化されたオーディオ信号を変調する方法であって、
少なくとも1つのプロセッサを備えるデータ処理システムによって、インターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信するステップと、
前記データ処理システムによって、前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別するステップと、
前記データ処理システムによって、前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別するステップと、
前記データ処理システムによって、前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定するステップと、
前記データ処理システムによって、前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用するステップであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、ステップと、
前記データ処理システムによって、前記第1のオーディオ変調により前記出力信号を生成するステップと、
前記出力信号を含むデータパケットを送信するステップであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、ステップと
前記ネットワーク活動の種類の遷移または前記コンテンツアイテムの種類の変更に基づいて、前記第1のオーディオ変調を選択するか否かを判定するステップと
を含む、方法。 - パケット化されたオーディオ信号を変調する方法であって、
少なくとも1つのプロセッサを備えるデータ処理システムによって、インターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信するステップと、
前記データ処理システムによって、前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別するステップと、
前記データ処理システムによって、前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別するステップと、
前記データ処理システムによって、前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定するステップと、
前記データ処理システムによって、前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用するステップであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、ステップと、
前記データ処理システムによって、前記第1のオーディオ変調により前記出力信号を生成するステップと、
前記出力信号を含むデータパケットを送信するステップであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、ステップと、
ネットワーク活動の以前の種類からネットワーク活動の前記種類への遷移を検出するステップであって、ネットワーク活動の前記以前の種類が前記既定のオーディオ変調に対応する、ステップと、
前記遷移の検出に応答して、前記既定のオーディオ変調から前記第1のオーディオ変調に切り替えるステップと
を含む方法。 - パケット化されたオーディオ信号を変調する方法であって、
少なくとも1つのプロセッサを備えるデータ処理システムによって、インターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信するステップと、
前記データ処理システムによって、前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別するステップと、
前記データ処理システムによって、前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別するステップと、
前記データ処理システムによって、前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定するステップと、
前記データ処理システムによって、前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用するステップであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、ステップと、
前記データ処理システムによって、前記第1のオーディオ変調により前記出力信号を生成するステップと、
前記出力信号を含むデータパケットを送信するステップであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、ステップと、
後続のコンテンツアイテムを識別するステップと、
前記後続のコンテンツアイテムが前記コンテンツアイテムの前記種類に対応すると決定するステップと、
前記後続のコンテンツアイテムの種類が前記コンテンツアイテムの種類に対応することに基づき、前記コンテンツアイテムに使用される前記第1のオーディオ変調を選択するステップと
を含む方法。 - パケット化されたオーディオ信号を変調する方法であって、
少なくとも1つのプロセッサを備えるデータ処理システムによって、インターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信するステップと、
前記データ処理システムによって、前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別するステップと、
前記データ処理システムによって、前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別するステップと、
前記データ処理システムによって、前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定するステップと、
前記データ処理システムによって、前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用するステップであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、ステップと、
前記データ処理システムによって、前記第1のオーディオ変調により前記出力信号を生成するステップと、
前記出力信号を含むデータパケットを送信するステップであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、ステップと、
前記クライアントデバイスの前記センサにより検出された前記入力オーディオ信号の特性に基づき、前記入力オーディオ信号を選択するステップと
を含む方法。 - パケット化されたオーディオ信号を変調する方法であって、
少なくとも1つのプロセッサを備えるデータ処理システムによって、インターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信するステップと、
前記データ処理システムによって、前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別するステップと、
前記データ処理システムによって、前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別するステップと、
前記データ処理システムによって、前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定するステップと、
前記データ処理システムによって、前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用するステップであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、ステップと、
前記データ処理システムによって、前記第1のオーディオ変調により前記出力信号を生成するステップと、
前記出力信号を含むデータパケットを送信するステップであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、ステップと、
第2のコンテンツアイテムを識別するステップであって、前記第2のコンテンツアイテムは前記第1のコンテンツアイテムの後続コンテントアイテムである、ステップと、
前記第2のコンテンツアイテムの種類が前記コンテンツアイテムの前記種類と異なると決定するステップと、
前記第2のコンテンツアイテムの種類が前記コンテンツアイテムの前記種類と異なることに基づき、前記第2のコンテンツアイテムに使用するために第2のオーディオ変調を選択するステップと
を含む方法。 - パケット化されたオーディオ信号を変調する方法であって、
少なくとも1つのプロセッサを備えるデータ処理システムによって、インターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信するステップと、
前記データ処理システムによって、前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別するステップと、
前記データ処理システムによって、前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別するステップと、
前記データ処理システムによって、前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定するステップと、
前記データ処理システムによって、前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用するステップであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、ステップと、
前記データ処理システムによって、前記第1のオーディオ変調により前記出力信号を生成するステップと、
前記出力信号を含むデータパケットを送信するステップであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、ステップと、
複数のコンテンツアイテムを識別するステップと、
前記コンテンツアイテムのために使用される第1のオーディオ変調とは異なる、前記複数のコンテンツアイテムのための1つまたは複数のオーディオ変調を選択するステップと、
前記複数のコンテンツアイテムに後続する第2のコンテンツアイテムを識別するステップと、
ポリシーに基づき、前記コンテンツアイテムに使用された前記第1のオーディオ変調を前記第2のコンテンツアイテムのために選択するステップと
を含む方法。 - パケット化されたオーディオ信号を変調する方法であって、
少なくとも1つのプロセッサを備えるデータ処理システムによって、インターフェースを介して、クライアントデバイスのセンサによって検出された入力オーディオ信号を含むデータパケットを受信するステップと、
前記データ処理システムによって、前記入力オーディオ信号を解析し、要求、および前記要求に対応するトリガーキーワードを識別するステップと、
前記データ処理システムによって、前記トリガーキーワードに基づき、サードパーティプロバイダデバイスに関連付けられるコンテンツアイテムを識別するステップと、
前記データ処理システムによって、前記コンテンツアイテムまたは前記トリガーキーワードの種類に基づき、ネットワーク活動の種類を決定するステップと、
前記データ処理システムによって、前記ネットワーク活動の種類に基づき、第1のオーディオ変調を選択し、前記コンテンツアイテムに対応する出力信号に適用するステップであって、前記第1のオーディオ変調が既定のオーディオ変調と異なる、ステップと、
前記データ処理システムによって、前記第1のオーディオ変調により前記出力信号を生成するステップと、
前記出力信号を含むデータパケットを送信するステップであって、前記出力信号が、前記クライアントデバイスによって実行されるオーディオドライバコンポーネントに、前記第1のオーディオ変調により生成された前記出力信号に対応する音響波を生成するために前記クライアントデバイスのスピーカを駆動させる、ステップと、
第2の要求に応答して第2のコンテンツアイテムを識別するステップと、
ポリシーに基づいて、サービスの要求のうちの1つに対応する前記第2のコンテンツアイテムに基づく第2のオーディオ変調、またはコンテンツの要求に対応する前記第2のコンテンツアイテムに基づく第3のオーディオ変調を選択するステップと
を含む方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/395,660 US10347247B2 (en) | 2016-12-30 | 2016-12-30 | Modulation of packetized audio signals |
US15/395,660 | 2016-12-30 | ||
JP2017556901A JP6704937B2 (ja) | 2016-12-30 | 2017-08-31 | パケット化されたオーディオ信号の変調 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556901A Division JP6704937B2 (ja) | 2016-12-30 | 2017-08-31 | パケット化されたオーディオ信号の変調 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020129145A JP2020129145A (ja) | 2020-08-27 |
JP6977103B2 true JP6977103B2 (ja) | 2021-12-08 |
Family
ID=59901582
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556901A Active JP6704937B2 (ja) | 2016-12-30 | 2017-08-31 | パケット化されたオーディオ信号の変調 |
JP2020083875A Active JP6977103B2 (ja) | 2016-12-30 | 2020-05-12 | パケット化されたオーディオ信号の変調 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017556901A Active JP6704937B2 (ja) | 2016-12-30 | 2017-08-31 | パケット化されたオーディオ信号の変調 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10347247B2 (ja) |
EP (2) | EP4181118A1 (ja) |
JP (2) | JP6704937B2 (ja) |
KR (2) | KR102058131B1 (ja) |
CN (1) | CN109074802B (ja) |
AU (2) | AU2017386097B9 (ja) |
DE (2) | DE212017000032U1 (ja) |
GB (2) | GB2565175B (ja) |
WO (1) | WO2018125302A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11295738B2 (en) * | 2016-12-30 | 2022-04-05 | Google, Llc | Modulation of packetized audio signals |
US10347247B2 (en) * | 2016-12-30 | 2019-07-09 | Google Llc | Modulation of packetized audio signals |
US10489400B2 (en) * | 2017-03-03 | 2019-11-26 | International Business Machines Corporation | Question pre-processing in a question and answer system |
JP2018159759A (ja) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | 音声処理装置、音声処理方法およびプログラム |
US11393451B1 (en) * | 2017-03-29 | 2022-07-19 | Amazon Technologies, Inc. | Linked content in voice user interface |
US10614487B1 (en) * | 2017-06-04 | 2020-04-07 | Instreamatic, Inc. | Server for enabling voice-responsive content as part of a media stream to an end user on a remote device |
US11282407B2 (en) | 2017-06-12 | 2022-03-22 | Harmony Helper, LLC | Teaching vocal harmonies |
US10249209B2 (en) | 2017-06-12 | 2019-04-02 | Harmony Helper, LLC | Real-time pitch detection for creating, practicing and sharing of musical harmonies |
EP4060476A3 (en) * | 2017-06-13 | 2022-09-28 | Google LLC | Establishment of audio-based network sessions with non-registered resources |
US10868846B2 (en) * | 2017-08-16 | 2020-12-15 | AdsWizz Inc. | Delivering tailored audio segments within live audio streams |
US10503468B2 (en) | 2017-12-08 | 2019-12-10 | Amazon Technologies, Inc. | Voice enabling applications |
US11182122B2 (en) * | 2017-12-08 | 2021-11-23 | Amazon Technologies, Inc. | Voice control of computing devices |
US11113372B2 (en) * | 2018-04-25 | 2021-09-07 | Google Llc | Delayed two-factor authentication in a networked environment |
KR102638579B1 (ko) | 2018-04-25 | 2024-02-21 | 구글 엘엘씨 | 네트워크 환경에서 지연된 2-팩터 인증 |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7590538B2 (en) | 1999-08-31 | 2009-09-15 | Accenture Llp | Voice recognition system for navigating on the internet |
US6275806B1 (en) | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US6684249B1 (en) * | 2000-05-26 | 2004-01-27 | Sonicbox, Inc. | Method and system for adding advertisements over streaming audio based upon a user profile over a world wide area network of computers |
JP2001338218A (ja) * | 2000-05-29 | 2001-12-07 | Isao:Kk | 広告システム、広告方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US6857007B1 (en) | 2000-08-30 | 2005-02-15 | Bloomfield Enterprises, Llc | Personal digital assistant facilitated communication system |
US7573986B2 (en) * | 2001-07-18 | 2009-08-11 | Enterprise Integration Group, Inc. | Method and system for interjecting comments to improve information presentation in spoken user interfaces |
US7869998B1 (en) * | 2002-04-23 | 2011-01-11 | At&T Intellectual Property Ii, L.P. | Voice-enabled dialog system |
US8301436B2 (en) * | 2003-05-29 | 2012-10-30 | Microsoft Corporation | Semantic object synchronous understanding for highly interactive interface |
US20040260551A1 (en) * | 2003-06-19 | 2004-12-23 | International Business Machines Corporation | System and method for configuring voice readers using semantic analysis |
US20050050093A1 (en) * | 2003-08-29 | 2005-03-03 | International Business Machines Corporation | Customized selection of a voice file for a web page |
US7881934B2 (en) * | 2003-09-12 | 2011-02-01 | Toyota Infotechnology Center Co., Ltd. | Method and system for adjusting the voice prompt of an interactive system based upon the user's state |
US8583439B1 (en) * | 2004-01-12 | 2013-11-12 | Verizon Services Corp. | Enhanced interface for use with speech recognition |
US20050169283A1 (en) * | 2004-01-30 | 2005-08-04 | Lucent Technologies Inc. | Internet access through conventional telephones |
US7853255B2 (en) | 2004-04-16 | 2010-12-14 | Broadcom Corporation | Digital personal assistance via a broadband access gateway |
GB0416720D0 (en) * | 2004-07-27 | 2004-09-01 | British Telecomm | Method and system for voice over IP streaming optimisation |
US7742911B2 (en) * | 2004-10-12 | 2010-06-22 | At&T Intellectual Property Ii, L.P. | Apparatus and method for spoken language understanding by using semantic role labeling |
JP2006174277A (ja) | 2004-12-17 | 2006-06-29 | Casio Hitachi Mobile Communications Co Ltd | 携帯端末、ステレオ再生方法およびステレオ再生プログラム |
JP4623637B2 (ja) * | 2005-01-25 | 2011-02-02 | Kddi株式会社 | 広告表示確認システム |
JP2006244431A (ja) * | 2005-02-28 | 2006-09-14 | Ibix Corp | ネットワーク検索エンジンのアクセス促進システム |
US20060277567A1 (en) * | 2005-06-07 | 2006-12-07 | Kinnear D S | System and method for targeting audio advertisements |
US8195133B2 (en) | 2005-09-14 | 2012-06-05 | Jumptap, Inc. | Mobile dynamic advertisement creation and placement |
US7904505B2 (en) | 2005-11-02 | 2011-03-08 | At&T Intellectual Property I, L.P. | Service to push author-spoken audio content with targeted audio advertising to users |
CA2641853C (en) | 2006-02-10 | 2016-02-02 | Spinvox Limited | A mass-scale, user-independent, device-independent, voice messaging system |
WO2008008730A2 (en) | 2006-07-08 | 2008-01-17 | Personics Holdings Inc. | Personal audio assistant device and method |
US8244589B2 (en) * | 2006-08-29 | 2012-08-14 | Daevid Vincent | Personalized audio controlled shopping information service for a mobile device |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
JP5220297B2 (ja) * | 2006-10-17 | 2013-06-26 | ヤフー株式会社 | キーワードと条件に基づく広告配信方法 |
WO2008092085A2 (en) * | 2007-01-25 | 2008-07-31 | Eliza Corporation | Systems and techniques for producing spoken voice prompts |
US20110054899A1 (en) | 2007-03-07 | 2011-03-03 | Phillips Michael S | Command and control utilizing content information in a mobile voice-to-speech application |
KR101322486B1 (ko) * | 2007-06-28 | 2013-10-25 | 주식회사 케이티 | 범용 대화서비스 장치 및 그 방법 |
US20090030901A1 (en) * | 2007-07-23 | 2009-01-29 | Agere Systems Inc. | Systems and methods for fax based directed communications |
US20100010817A1 (en) | 2008-07-08 | 2010-01-14 | Veeru Ramaswamy | System and Method for Improving the Performance of Speech Analytics and Word-Spotting Systems |
CN101346005A (zh) * | 2008-08-19 | 2009-01-14 | 中兴通讯股份有限公司 | 全速率语音的处理方法及装置 |
DE102008052912A1 (de) | 2008-10-23 | 2010-05-06 | Abb Technology Ag | Feldgerät, insbesondere Durchflussmessgerät |
US8145561B1 (en) | 2009-01-05 | 2012-03-27 | Sprint Communications Company L.P. | Phone usage pattern as credit card fraud detection trigger |
US8428758B2 (en) | 2009-02-16 | 2013-04-23 | Apple Inc. | Dynamic audio ducking |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8355910B2 (en) * | 2010-03-30 | 2013-01-15 | The Nielsen Company (Us), Llc | Methods and apparatus for audio watermarking a substantially silent media content presentation |
JP5175908B2 (ja) * | 2010-09-14 | 2013-04-03 | 株式会社東芝 | 情報処理装置及びプログラム |
US9454962B2 (en) * | 2011-05-12 | 2016-09-27 | Microsoft Technology Licensing, Llc | Sentence simplification for spoken language understanding |
TW201322034A (zh) | 2011-11-23 | 2013-06-01 | Inst Information Industry | 結合搜尋引擎服務的廣告播放系統及方法 |
US10319363B2 (en) * | 2012-02-17 | 2019-06-11 | Microsoft Technology Licensing, Llc | Audio human interactive proof based on text-to-speech and semantics |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9275411B2 (en) * | 2012-05-23 | 2016-03-01 | Google Inc. | Customized voice action system |
US9619812B2 (en) * | 2012-08-28 | 2017-04-11 | Nuance Communications, Inc. | Systems and methods for engaging an audience in a conversational advertisement |
KR20240132105A (ko) | 2013-02-07 | 2024-09-02 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
KR102228455B1 (ko) * | 2013-08-05 | 2021-03-16 | 삼성전자주식회사 | 대화의 소재를 제공하는 장치, 서버 및 방법 |
JP6193395B2 (ja) * | 2013-11-11 | 2017-09-06 | 株式会社東芝 | 電子透かし検出装置、方法及びプログラム |
TW201528803A (zh) * | 2014-01-10 | 2015-07-16 | Waystorm Co Ltd | 行動廣告推送系統及其操作行動電子裝置的方法 |
US9183831B2 (en) * | 2014-03-27 | 2015-11-10 | International Business Machines Corporation | Text-to-speech for digital literature |
IN2014CH01843A (ja) * | 2014-04-07 | 2015-10-09 | Ncr Corp | |
EP2945356A1 (en) * | 2014-05-13 | 2015-11-18 | Thomson Licensing | Method of and apparatus for replacing telephone on-hold music |
US10789041B2 (en) * | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US20170092278A1 (en) | 2015-09-30 | 2017-03-30 | Apple Inc. | Speaker recognition |
US9928840B2 (en) | 2015-10-16 | 2018-03-27 | Google Llc | Hotword recognition |
US9747926B2 (en) | 2015-10-16 | 2017-08-29 | Google Inc. | Hotword recognition |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
CN109844855B (zh) * | 2016-10-03 | 2023-12-05 | 谷歌有限责任公司 | 任务的多重计算代理执行 |
US10347247B2 (en) * | 2016-12-30 | 2019-07-09 | Google Llc | Modulation of packetized audio signals |
US11295738B2 (en) * | 2016-12-30 | 2022-04-05 | Google, Llc | Modulation of packetized audio signals |
US10395650B2 (en) * | 2017-06-05 | 2019-08-27 | Google Llc | Recorded media hotword trigger suppression |
-
2016
- 2016-12-30 US US15/395,660 patent/US10347247B2/en active Active
-
2017
- 2017-08-31 KR KR1020177031462A patent/KR102058131B1/ko active IP Right Grant
- 2017-08-31 EP EP22214770.4A patent/EP4181118A1/en active Pending
- 2017-08-31 CN CN201780001555.XA patent/CN109074802B/zh active Active
- 2017-08-31 GB GB1803881.0A patent/GB2565175B/en active Active
- 2017-08-31 JP JP2017556901A patent/JP6704937B2/ja active Active
- 2017-08-31 GB GB2204298.0A patent/GB2605281B/en active Active
- 2017-08-31 AU AU2017386097A patent/AU2017386097B9/en active Active
- 2017-08-31 DE DE212017000032.5U patent/DE212017000032U1/de active Active
- 2017-08-31 DE DE112017000139.0T patent/DE112017000139T5/de active Pending
- 2017-08-31 WO PCT/US2017/049758 patent/WO2018125302A1/en active Application Filing
- 2017-08-31 EP EP17768898.3A patent/EP3360128B1/en active Active
- 2017-08-31 KR KR1020197037009A patent/KR102345614B1/ko active IP Right Grant
-
2019
- 2019-06-20 US US16/447,718 patent/US11482216B2/en active Active
-
2020
- 2020-05-07 AU AU2020203038A patent/AU2020203038B2/en active Active
- 2020-05-12 JP JP2020083875A patent/JP6977103B2/ja active Active
-
2022
- 2022-10-24 US US17/971,997 patent/US11948572B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
GB202204298D0 (en) | 2022-05-11 |
AU2020203038A1 (en) | 2020-05-28 |
US20230111040A1 (en) | 2023-04-13 |
AU2020203038B2 (en) | 2021-07-01 |
KR102058131B1 (ko) | 2019-12-20 |
AU2017386097B2 (en) | 2020-03-05 |
EP3360128B1 (en) | 2023-05-10 |
KR20190141031A (ko) | 2019-12-20 |
DE112017000139T5 (de) | 2018-10-31 |
GB2565175B (en) | 2022-05-18 |
WO2018125302A1 (en) | 2018-07-05 |
DE212017000032U1 (de) | 2019-07-10 |
AU2017386097B9 (en) | 2020-03-12 |
JP2020129145A (ja) | 2020-08-27 |
JP2019506627A (ja) | 2019-03-07 |
GB2605281A (en) | 2022-09-28 |
JP6704937B2 (ja) | 2020-06-03 |
GB201803881D0 (en) | 2018-04-25 |
AU2017386097A1 (en) | 2019-05-23 |
US10347247B2 (en) | 2019-07-09 |
GB2605281B (en) | 2023-05-03 |
KR20180091707A (ko) | 2018-08-16 |
CN109074802A (zh) | 2018-12-21 |
CN109074802B (zh) | 2023-08-08 |
US11482216B2 (en) | 2022-10-25 |
EP4181118A1 (en) | 2023-05-17 |
KR102345614B1 (ko) | 2021-12-30 |
US20180190275A1 (en) | 2018-07-05 |
US11948572B2 (en) | 2024-04-02 |
US20190304462A1 (en) | 2019-10-03 |
GB2565175A (en) | 2019-02-06 |
EP3360128A1 (en) | 2018-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6977103B2 (ja) | パケット化されたオーディオ信号の変調 | |
JP6828124B2 (ja) | 選択的センサポーリング | |
US11949733B2 (en) | Audio-based data structure generation | |
US11295738B2 (en) | Modulation of packetized audio signals | |
US11837230B2 (en) | Network source identification via audio signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6977103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |