JP7152196B2 - 音声エージェントの進行 - Google Patents
音声エージェントの進行 Download PDFInfo
- Publication number
- JP7152196B2 JP7152196B2 JP2018111596A JP2018111596A JP7152196B2 JP 7152196 B2 JP7152196 B2 JP 7152196B2 JP 2018111596 A JP2018111596 A JP 2018111596A JP 2018111596 A JP2018111596 A JP 2018111596A JP 7152196 B2 JP7152196 B2 JP 7152196B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- agent
- voice agent
- signal strength
- question
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 claims description 106
- 238000000034 method Methods 0.000 claims description 77
- 238000004891 communication Methods 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 33
- 230000005540 biological transmission Effects 0.000 claims description 11
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 description 555
- 230000004913 activation Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/523—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing with call distribution or queueing
- H04M3/5237—Interconnection arrangements between ACD systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5183—Call or contact centers with computer-telephony arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5183—Call or contact centers with computer-telephony arrangements
- H04M3/5191—Call or contact centers with computer-telephony arrangements interacting with the Internet
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Marketing (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
Description
例えば、本願は以下の項目を提供する。
(項目1)
音声エージェントであって、
オーディオセンサと、
通信インターフェースと、
プロセッサと、
上記プロセッサによって実行可能な指示を貯蔵するメモリデバイスであって、
上記オーディオセンサを介して、音声入力に対応する第1のオーディオデータを検出すること、ならびに、
音声エージェントネットワークの少なくとも1つの他の音声エージェントが、上記音声入力に対応する第2の音声データを検出していることを判定することに応じて、
上記第1の音声データが検出される信号強度を判定すること、
上記信号強度を、上記少なくとも1つの他の音声エージェントから受信された上記第2の音声データの報告された信号強度と比較すること、及び、
上記第1の音声データの上記信号強度を、上記少なくとも1つの他の音声エージェントから受信された上記第2の音声データの上記報告された信号強度と比較することに基づき、上記第1の音声データと上記検出された音声データとの上記信号強度の、1つまたは複数の通知を、選択的に送信すること、を行うように、実行可能な指示を貯蔵する上記メモリデバイスと、を備えた、上記音声エージェント。
(項目2)
上記指示が、少なくとも1つの他の音声エージェントが、別の音声エージェントからの上記音声入力と関連づけられた第1の声紋を受信することにより、上記音声入力に対応する音声データを検出していることを判定するように、さらに実行可能であり、上記音声データの第2の声紋を判定し、上記第2の声紋を上記第1の声紋と比較して、上記第2の声紋が上記第1の声紋にマッチすることを判定する、上記項目に記載の音声エージェント。
(項目3)
上記指示が、上記音声データが検出される現在の信号強度よりも高い、上記少なくとも1つの他の音声エージェントの選択された音声エージェントからの第3の音声データの、報告された信号強度を受信するのに応じて、上記検出された音声データの送信を停止するように、さらに実行可能である、上記項目のいずれか一項に記載の音声エージェント。
(項目4)
上記指示が、上記音声入力の終了の通知を検出することと、上記音声入力の上記終了の上記通知の検出に応じて、少なくとも上記音声エージェントネットワークのネットワークデバイスに、上記音声入力の上記終了を示すメッセージを選択的に送信すること、をさらに実行可能である、上記項目のいずれか一項に記載の音声エージェント。
(項目5)
上記メッセージを選択的に送信することが、上記音声入力の上記終了の上記通知を検出した際に、上記音声エージェントが検出された音声データを送信している場合、上記メッセージを送信することと、上記音声入力の上記終了の上記通知を検出した際に、上記音声エージェントが検出された音声データを送信していない場合、上記メッセージを送信しないことと、を含んでいる、上記項目のいずれか一項に記載の音声エージェント。
(項目6)
出力デバイスをさらに備え、上記指示が、上記音声入力の上記終了の上記通知を検出した際に、上記音声エージェントが検出された音声データを送信しているかに基づき、上記出力デバイスを介して、上記音声入力に対する応答を、選択的に受信及び出力するようにさらに実行可能である、上記項目のいずれか一項に記載の音声エージェント。
(項目7)
上記指示が、上記音声入力に対応する上記音声データの検出を開始することと、上記音声エージェントネットワークの他の音声エージェントの各々に対し、予め規定された起動ワードの検出に応じて上記音声データが検出される信号強度を報告することと、をするようにさらに実行可能である、上記項目のいずれか一項に記載の音声エージェント。
(項目8)
上記指示が、上記音声エージェントネットワークに結合した上記音声エージェントに応じて、アナウンスメッセージを送信するようにさらに実行可能である、上記項目のいずれか一項に記載の音声エージェント。
(項目9)
上記信号強度の通知と、上記検出された音声データとの1つまたは複数を選択的に送信することが、マスター音声エージェントとしてアサインされるのに応じて、少なくとも上記音声エージェントネットワークのネットワークデバイスに、上記検出された音声データ、及び、上記信号強度の上記通知を送信することと、上記信号強度が、上記少なくとも1つの他の音声エージェントの上記報告された信号強度より高いことと、上記音声エージェントが現在、上記マスター音声エージェントとしてアサインされていないこととの判定に応じて、少なくとも上記音声エージェントネットワークのネットワークデバイスに、上記信号強度の上記通知のみを送信することと、を含んでいる、上記項目のいずれか一項に記載の音声エージェント。
(項目10)
複数の音声エージェントを含む音声エージェントネットワークにおける音声入力の検出の制御方法であって、
上記複数の音声エージェントの第1の音声エージェントにおいて、第1の信号強度における音声入力に対応する第1の音声データを検出することと、
上記第1の信号強度が、上記音声エージェントネットワーク内の他の音声エージェントの各々から報告された、受信した信号強度より高いことの判定に応じて、上記第1の音声エージェントをマスター音声エージェントとしてアサインすることと、
上記第1の音声エージェントから、上記第1の音声データと、上記第1の音声エージェントが上記マスター音声エージェントとしてアサインされている間に上記第1の音声データが検出される、継続的にアップデートされる信号強度の報告とを含むストリームを送信することと、
上記複数の音声エージェントの第2の音声エージェントが、上記第1の音声エージェントから現在報告されている信号強度よりも高い信号強度において、上記音声入力に対応する第2の音声データを検出することの通知を受信するのに応じて、上記第2の音声エージェントを上記マスター音声エージェントとしてアサインし、上記第1の音声エージェントにおける上記ストリームの上記送信を停止することと、を含む、上記制御方法。
(項目11)
上記第1の音声エージェントから、上記音声入力を識別する声紋を送信することをさらに含む、上記項目に記載の方法。
(項目12)
上記現在の信号強度が、上記第2の音声エージェントから受信した、最後に報告された信号強度より高いことの判定にのみ応じて、上記第2の音声エージェントが上記マスター音声エージェントとしてアサインされている間に、上記第1の音声エージェントから、上記音声入力に対応する検出された音声データの上記現在の信号強度の報告を送信することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目13)
上記第1の音声エージェントが上記マスター音声エージェントとしてアサインされている間に、上記音声入力の終了の通知を検出することと、上記音声入力の上記終了の上記通知の検出に応じて、上記音声入力の上記終了を示すメッセージを遠位のデバイスに送信することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目14)
上記音声入力が音声による質問を含み、上記遠位のデバイスが質問応答サーバを含み、上記方法がさらに、上記第1の音声エージェントにおいて、上記音声による質問に対する応答を受信することと、上記第1の音声エージェントの出力デバイスを介して、上記音声による質問に対する上記応答を出力することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目15)
音声エージェントネットワークであって、
複数の音声エージェントと、
上記複数の音声エージェント、及び、質問応答サーバに通信するように結合されたネットワークデバイスと、
上記第1の上記複数の音声エージェントの第1の音声エージェントであって、上記第1の音声エージェントのプロセッサにより、
第1の信号強度及び第1の信号の品質で、音声による質問に対応する第1の音声データを検出することと、
上記第1の信号強度と上記第1の信号の品質との一方または両方が、上記音声エージェントネットワーク内の他の音声エージェントの各々から報告された、受信した信号強度と信号の品質とのそれぞれより高いことの判定に応じて、マスター音声エージェントとしてのアサインを受信することと、
上記第1の音声データと、上記第1の音声エージェントが上記マスター音声エージェントとしてアサインされている間に上記第1の音声データが検出される、継続的にアップデートされる信号強度、及び/または、継続的にアップデートされる信号の品質の報告とを含むストリームを送信することと、
上記複数の音声エージェントの第2の音声エージェントが、上記第1の音声エージェントから現在報告されている信号強度と信号の品質とのそれぞれよりも高い第2の信号強度と第2の信号の品質との一方または両方において、上記音声による質問に対応する第2の音声データを検出することの通知を受信するのに応じて、上記第2の音声エージェントを上記マスター音声エージェントとしてアサインし、上記第1の音声エージェントにおける上記ストリームの上記送信を停止することと、
をするように実行可能である指示を貯蔵するメモリデバイスを含む、第1の音声エージェントと、を備えた、上記音声エージェントネットワーク。
(項目16)
上記指示が、上記第1の音声エージェントから、上記音声による質問を識別する声紋を送信するようにさらに実行可能である、上記項目に記載の音声エージェントネットワーク。
(項目17)
上記指示が、上記現在の信号強度が、上記第2の音声エージェントから受信した、最後に報告された信号強度より高いことの判定にのみ応じて、上記第2の音声エージェントが上記マスター音声エージェントとしてアサインされている間に、上記第1の音声エージェントから、上記音声による質問に対応する検出された音声データの上記現在の信号強度の報告を送信するように、さらに実行可能である、上記項目のいずれか一項に記載の音声エージェントネットワーク。
(項目18)
上記指示が、上記第1の音声エージェントが上記マスター音声エージェントとしてアサインされている間に、上記音声入力の終了の通知を検出することと、上記音声による質問の上記終了の上記通知の検出に応じて、上記質問応答サーバに進行させるために、上記音声による質問の上記終了を示すメッセージを上記ネットワークデバイスに送信することと、をするようにさらに実行可能である、上記項目のいずれか一項に記載の音声エージェントネットワーク。
(項目19)
上記指示が、上記第1の音声エージェントにおいて、上記音声による質問に対する応答を受信することと、上記第1の音声エージェントの出力デバイスを介して、上記音声による質問に対する上記応答を出力することと、をするようにさらに実行可能である、上記項目のいずれか一項に記載の音声エージェントネットワーク。
(項目20)
上記指示が、上記音声エージェントネットワークに結合した上記第1の音声エージェントに応じて、アナウンスメッセージを送信するようにさらに実行可能である、上記項目のいずれか一項に記載の音声エージェントネットワーク。
(摘要)
実施例は、複数の音声エージェントを含む音声エージェントネットワークにおける音声入力検出の制御のために開示される。例示的音声エージェントは、オーディオセンサと、通信インターフェースと、プロセッサと、プロセッサによって実行可能な指示を貯蔵するメモリデバイスであって、オーディオセンサを介して、音声入力に対応するオーディオデータを検出すること、ならびに、音声エージェントネットワークの少なくとも1つの他の音声エージェントが、音声入力に対応する音声データを検出していることを判定することに応じて、音声データが検出される信号強度を判定すること、信号強度を、少なくとも1つの他の音声エージェントから報告された信号強度と比較すること、及び、信号強度を、少なくとも1つの他の音声エージェントから報告された信号強度と比較することに基づき、信号強度と検出された音声データとの、1つまたは複数の通知を、選択的に送信すること、を行うように、実行可能な指示を貯蔵するメモリデバイスと、を含んでいる。
Claims (18)
- 音声エージェントであって、
オーディオセンサと、
通信インターフェースと、
プロセッサと、
メモリデバイスであって、前記メモリデバイスは、
前記オーディオセンサを介して、音声入力に対応する第1の音声データを検出すること、ならびに、
音声エージェントネットワークの少なくとも1つの他の音声エージェントが、前記音声入力に対応する第2の音声データを検出していることを判定することに応じて、
前記第1の音声データが検出される信号強度を判定すること、
前記信号強度を、前記少なくとも1つの他の音声エージェントから受信された前記第2の音声データの報告された信号強度と比較すること、及び、
前記第1の音声データの前記信号強度が、前記少なくとも1つの他の音声エージェントから受信された前記第2の音声データの前記報告された信号強度よりも高い場合、前記第1の音声データの前記信号強度の通知を送信すること、を行うように、前記プロセッサによって実行可能な指示を貯蔵する、メモリデバイスと、を備えた、音声エージェント。 - 前記指示が、少なくとも1つの他の音声エージェントが、別の音声エージェントからの前記音声入力と関連づけられた第1の声紋を受信することにより、前記音声入力に対応する音声データを検出していることを判定するように、さらに実行可能であり、前記音声データの第2の声紋を判定し、前記第2の声紋を前記第1の声紋と比較して、前記第2の声紋が前記第1の声紋にマッチすることを判定する、請求項1に記載の音声エージェント。
- 前記指示が、前記音声入力の終了の通知を検出することと、前記音声入力の前記終了の前記通知の検出に応じて、少なくとも前記音声エージェントネットワークのネットワークデバイスに、前記音声入力の前記終了を示すメッセージを送信すること、をさらに実行可能である、請求項1に記載の音声エージェント。
- 前記メッセージを送信することが、前記音声入力の前記終了の前記通知を検出した際に、前記音声エージェントが検出された第1の音声データを送信している場合、前記メッセージを送信することと、前記音声入力の前記終了の前記通知を検出した際に、前記音声エージェントが検出された第1の音声データを送信していない場合、前記メッセージを送信しないことと、を含んでいる、請求項3に記載の音声エージェント。
- 出力デバイスをさらに備え、前記指示が、前記音声入力の前記終了の前記通知を検出した際に、前記音声エージェントが検出された第1の音声データを送信しているかに基づき、前記出力デバイスを介して、前記音声入力に対する応答を、受信及び出力するようにさらに実行可能である、請求項3に記載の音声エージェント。
- 前記指示が、前記音声入力に対応する前記第1の音声データの検出を開始することと、前記音声エージェントネットワークの他の音声エージェントの各々に対し、予め規定された起動ワードの検出に応じて前記第1の音声データが検出される信号強度を報告することと、をするようにさらに実行可能である、請求項1に記載の音声エージェント。
- 前記指示が、前記音声エージェントネットワークに結合した前記音声エージェントに応じて、アナウンスメッセージを送信するようにさらに実行可能である、請求項1に記載の音声エージェント。
- 複数の音声エージェントを含む音声エージェントネットワークにおける音声入力の検出を制御する方法であって、
前記複数の音声エージェントの第1の音声エージェントにおいて、第1の信号強度における音声入力に対応する第1の音声データを検出することと、
前記第1の信号強度が、前記音声エージェントネットワーク内の他の音声エージェントの各々から報告された、受信した信号強度より高いことの判定に応じて、前記第1の音声エージェントをマスター音声エージェントとしてアサインすることと、
前記第1の音声エージェントから、前記第1の音声エージェントが前記マスター音声エージェントとしてアサインされている間に前記第1の音声データが検出される際に、(i)前記第1の音声データと(ii)継続的にアップデートされる信号強度の報告とを含むストリームを送信することと、
前記複数の音声エージェントの第2の音声エージェントが、前記第1の音声エージェントから現在報告されている信号強度よりも高い信号強度において、前記音声入力に対応する第2の音声データを検出することの通知を受信するのに応じて、前記第2の音声エージェントを前記マスター音声エージェントとしてアサインし、前記第1の音声エージェントにおける前記ストリームの前記送信を停止することと、を含む、方法。 - 前記第1の音声エージェントから、前記音声入力を識別する声紋を送信することをさらに含む、請求項8に記載の方法。
- 前記現在の信号強度が、前記第2の音声エージェントから受信した、最後に報告された信号強度より高いことの判定にのみ応じて、前記第2の音声エージェントが前記マスター音声エージェントとしてアサインされている間に、前記第1の音声エージェントから、前記音声入力に対応する検出された第1の音声データの前記現在の信号強度の報告を送信することをさらに含む、請求項8に記載の方法。
- 前記第1の音声エージェントが前記マスター音声エージェントとしてアサインされている間に、前記音声入力の終了の通知を検出することと、前記音声入力の前記終了の前記通知の検出に応じて、前記音声入力の前記終了を示すメッセージを遠位のデバイスに送信することと、をさらに含む、請求項8に記載の方法。
- 前記音声入力が音声による質問を含み、前記遠位のデバイスが質問応答サーバを含み、前記方法がさらに、前記第1の音声エージェントにおいて、前記音声による質問に対する応答を受信することと、前記第1の音声エージェントの出力デバイスを介して、前記音声による質問に対する前記応答を出力することと、をさらに含む、請求項11に記載の方法。
- 音声エージェントネットワークであって、
複数の音声エージェントと、
前記複数の音声エージェント、及び、質問応答サーバに通信するように結合されたネットワークデバイスと、
メモリデバイスを含む前記複数の音声エージェントの第1の音声エージェントであって、前記メモリデバイスは、
第1の信号強度及び第1の信号の品質で、音声による質問に対応する第1の音声データを検出することと、
前記第1の信号強度と前記第1の信号の品質との一方または両方が、前記音声エージェントネットワーク内の他の音声エージェントの各々から報告された、受信した信号強度と信号の品質とのそれぞれより高いことの判定に応じて、マスター音声エージェントとしてのアサインを受信することと、
前記第1の音声エージェントが前記マスター音声エージェントとしてアサインされている間に前記第1の音声データが検出される際に、(i)前記第1の音声データと(ii)継続的にアップデートされる信号強度及び/または継続的にアップデートされる信号の品質の報告とを含むストリームを送信することと、
前記複数の音声エージェントの第2の音声エージェントが、前記第1の音声エージェントから現在報告されている信号強度と信号の品質とのそれぞれよりも高い第2の信号強度と第2の信号の品質との一方または両方において、前記音声による質問に対応する第2の音声データを検出することの通知を受信するのに応じて、前記第2の音声エージェントを前記マスター音声エージェントとしてアサインし、前記第1の音声エージェントにおける前記ストリームの前記送信を停止することと、
を行うように前記第1の音声エージェントのプロセッサによって実行可能である指示を貯蔵する、第1の音声エージェントと、を備えた、音声エージェントネットワーク。 - 前記指示が、前記第1の音声エージェントから、前記音声による質問を識別する声紋を送信するようにさらに実行可能である、請求項13に記載の音声エージェントネットワーク。
- 前記指示が、前記現在の信号強度が、前記第2の音声エージェントから受信した、最後に報告された信号強度より高いことの判定にのみ応じて、前記第2の音声エージェントが前記マスター音声エージェントとしてアサインされている間に、前記第1の音声エージェントから、前記音声による質問に対応する検出された第1の音声データの前記現在の信号強度の報告を送信するように、さらに実行可能である、請求項13に記載の音声エージェントネットワーク。
- 前記指示が、前記第1の音声エージェントが前記マスター音声エージェントとしてアサインされている間に、前記音声による質問の終了の通知を検出することと、前記音声による質問の前記終了の前記通知の検出に応じて、前記質問応答サーバに進行させるために、音声入力の終了を示すメッセージを前記ネットワークデバイスに送信することと、をするようにさらに実行可能である、請求項13に記載の音声エージェントネットワーク。
- 前記指示が、前記第1の音声エージェントにおいて、前記音声による質問に対する応答を受信することと、前記第1の音声エージェントの出力デバイスを介して、前記音声による質問に対する前記応答を出力することと、をするようにさらに実行可能である、請求項16に記載の音声エージェントネットワーク。
- 前記指示が、前記音声エージェントネットワークに結合した前記第1の音声エージェントに応じて、アナウンスメッセージを送信するようにさらに実行可能である、請求項13に記載の音声エージェントネットワーク。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/621,678 | 2017-06-13 | ||
US15/621,678 US10069976B1 (en) | 2017-06-13 | 2017-06-13 | Voice agent forwarding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003190A JP2019003190A (ja) | 2019-01-10 |
JP7152196B2 true JP7152196B2 (ja) | 2022-10-12 |
Family
ID=62245146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018111596A Active JP7152196B2 (ja) | 2017-06-13 | 2018-06-12 | 音声エージェントの進行 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10069976B1 (ja) |
EP (2) | EP3800635B1 (ja) |
JP (1) | JP7152196B2 (ja) |
KR (1) | KR20180135817A (ja) |
CN (1) | CN109087637B (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190130898A1 (en) * | 2017-11-02 | 2019-05-02 | GM Global Technology Operations LLC | Wake-up-word detection |
CN107895573B (zh) * | 2017-11-15 | 2021-08-24 | 百度在线网络技术(北京)有限公司 | 用于识别信息的方法及装置 |
US11250840B1 (en) * | 2018-04-09 | 2022-02-15 | Perceive Corporation | Machine-trained network detecting context-sensitive wake expressions for a digital assistant |
US10649727B1 (en) * | 2018-05-14 | 2020-05-12 | Amazon Technologies, Inc. | Wake word detection configuration |
KR20200044175A (ko) * | 2018-10-05 | 2020-04-29 | 삼성전자주식회사 | 전자 장치 및 그의 비서 서비스 제공 방법 |
CN109448725A (zh) * | 2019-01-11 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 一种语音交互设备唤醒方法、装置、设备及存储介质 |
JP7266418B2 (ja) * | 2019-02-14 | 2023-04-28 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
EP3726856B1 (en) | 2019-04-17 | 2022-11-16 | Oticon A/s | A hearing device comprising a keyword detector and an own voice detector |
CN110033775A (zh) * | 2019-05-07 | 2019-07-19 | 百度在线网络技术(北京)有限公司 | 多音区唤醒交互方法、装置及存储介质 |
JPWO2020235141A1 (ja) * | 2019-05-17 | 2020-11-26 | ||
KR102245953B1 (ko) * | 2019-06-05 | 2021-04-28 | 엘지전자 주식회사 | 복수의 전자기기의 제어방법 |
CN110246501B (zh) * | 2019-07-02 | 2022-02-01 | 思必驰科技股份有限公司 | 用于会议记录的语音识别方法及系统 |
US10839060B1 (en) * | 2019-08-27 | 2020-11-17 | Capital One Services, Llc | Techniques for multi-voice speech recognition commands |
EP4037328A4 (en) * | 2019-09-27 | 2023-08-30 | LG Electronics Inc. | ARTIFICIAL INTELLIGENCE DISPLAY DEVICE AND SYSTEM |
US11164563B2 (en) * | 2019-12-17 | 2021-11-02 | Motorola Solutions, Inc. | Wake word based on acoustic analysis |
CN111601004A (zh) * | 2020-05-18 | 2020-08-28 | 海能达通信股份有限公司 | 一种呼叫处理方法、装置及系统 |
US11893985B2 (en) | 2021-01-15 | 2024-02-06 | Harman International Industries, Incorporated | Systems and methods for voice exchange beacon devices |
US11620993B2 (en) * | 2021-06-09 | 2023-04-04 | Merlyn Mind, Inc. | Multimodal intent entity resolver |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080120104A1 (en) | 2005-02-04 | 2008-05-22 | Alexandre Ferrieux | Method of Transmitting End-of-Speech Marks in a Speech Recognition System |
US20170025124A1 (en) | 2014-10-09 | 2017-01-26 | Google Inc. | Device Leadership Negotiation Among Voice Interface Devices |
WO2017044629A1 (en) | 2015-09-11 | 2017-03-16 | Amazon Technologies, Inc. | Arbitration between voice-enabled devices |
US20170090864A1 (en) | 2015-09-28 | 2017-03-30 | Amazon Technologies, Inc. | Mediation of wakeword response for multiple devices |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070112563A1 (en) * | 2005-11-17 | 2007-05-17 | Microsoft Corporation | Determination of audio device quality |
US8219394B2 (en) * | 2010-01-20 | 2012-07-10 | Microsoft Corporation | Adaptive ambient sound suppression and speech tracking |
KR20130133629A (ko) * | 2012-05-29 | 2013-12-09 | 삼성전자주식회사 | 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법 |
US20150117674A1 (en) * | 2013-10-24 | 2015-04-30 | Samsung Electronics Company, Ltd. | Dynamic audio input filtering for multi-device systems |
US9424841B2 (en) * | 2014-10-09 | 2016-08-23 | Google Inc. | Hotword detection on multiple devices |
US20170351330A1 (en) * | 2016-06-06 | 2017-12-07 | John C. Gordon | Communicating Information Via A Computer-Implemented Agent |
-
2017
- 2017-06-13 US US15/621,678 patent/US10069976B1/en active Active
-
2018
- 2018-05-14 EP EP20210333.9A patent/EP3800635B1/en active Active
- 2018-05-14 EP EP18172059.0A patent/EP3416164B1/en active Active
- 2018-06-12 CN CN201810599592.1A patent/CN109087637B/zh active Active
- 2018-06-12 JP JP2018111596A patent/JP7152196B2/ja active Active
- 2018-06-12 KR KR1020180067609A patent/KR20180135817A/ko unknown
- 2018-07-30 US US16/048,923 patent/US10298768B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080120104A1 (en) | 2005-02-04 | 2008-05-22 | Alexandre Ferrieux | Method of Transmitting End-of-Speech Marks in a Speech Recognition System |
US20170025124A1 (en) | 2014-10-09 | 2017-01-26 | Google Inc. | Device Leadership Negotiation Among Voice Interface Devices |
WO2017044629A1 (en) | 2015-09-11 | 2017-03-16 | Amazon Technologies, Inc. | Arbitration between voice-enabled devices |
US20170090864A1 (en) | 2015-09-28 | 2017-03-30 | Amazon Technologies, Inc. | Mediation of wakeword response for multiple devices |
Also Published As
Publication number | Publication date |
---|---|
KR20180135817A (ko) | 2018-12-21 |
JP2019003190A (ja) | 2019-01-10 |
EP3800635B1 (en) | 2022-11-16 |
CN109087637A (zh) | 2018-12-25 |
EP3800635A1 (en) | 2021-04-07 |
US20180359364A1 (en) | 2018-12-13 |
CN109087637B (zh) | 2023-09-19 |
US10069976B1 (en) | 2018-09-04 |
EP3416164B1 (en) | 2020-12-09 |
EP3416164A1 (en) | 2018-12-19 |
US10298768B2 (en) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7152196B2 (ja) | 音声エージェントの進行 | |
KR102098136B1 (ko) | 응답을 제공하기 위한 디바이스 선택 | |
US10904665B2 (en) | Selection of master device for synchronized audio | |
US11908445B2 (en) | Conversation-aware proactive notifications for a voice interface device | |
US11563854B1 (en) | Selecting user device during communications session | |
US9583102B2 (en) | Method of controlling interactive system, method of controlling server, server, and interactive device | |
US20170330566A1 (en) | Distributed Volume Control for Speech Recognition | |
US20190196779A1 (en) | Intelligent personal assistant interface system | |
US11914921B2 (en) | Synchronous sounds for audio assistant on devices | |
KR20200089728A (ko) | 디지털 음성 어시스턴트 컴퓨팅 디바이스들 사이에서 신호 프로세싱 조정 | |
US20220358921A1 (en) | Speech processing for multiple inputs | |
CN110383236A (zh) | 对主装置进行选择以实现同步音频 | |
US11783833B2 (en) | Multi-device output management based on speech characteristics | |
US20220007484A1 (en) | Adapting a lighting control interface based on an analysis of conversational input | |
US12002469B2 (en) | Multi-device output management based on speech characteristics | |
US11741969B1 (en) | Controlled access to device data | |
US20220230634A1 (en) | Systems and methods for voice exchange beacon devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7152196 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |