JP7167357B2 - 自動通話システム - Google Patents

自動通話システム Download PDF

Info

Publication number
JP7167357B2
JP7167357B2 JP2021544219A JP2021544219A JP7167357B2 JP 7167357 B2 JP7167357 B2 JP 7167357B2 JP 2021544219 A JP2021544219 A JP 2021544219A JP 2021544219 A JP2021544219 A JP 2021544219A JP 7167357 B2 JP7167357 B2 JP 7167357B2
Authority
JP
Japan
Prior art keywords
user
bot
utterance
call
user utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021544219A
Other languages
English (en)
Other versions
JP2022532008A (ja
Inventor
アザフ・アハロニ
エイアル・セガリス
ヤニフ・レヴィアタン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2022532008A publication Critical patent/JP2022532008A/ja
Priority to JP2022165657A priority Critical patent/JP7463469B2/ja
Application granted granted Critical
Publication of JP7167357B2 publication Critical patent/JP7167357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L15/222Barge in, i.e. overridable guidance for interrupting prompts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5158Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with automated outdialling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/16Sequence circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/39Electronic components, circuits, software, systems or apparatus used in telephone systems using speech synthesis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details

Description

関連出願の相互参照
2016年6月13日に出願した米国特許出願第62/349,396号および2017年6月13日に出願した米国特許出願第15/621,869号の内容は、参照によりその全体が組み込まれる。
本明細書は、自然言語処理に関する。
ユーザは、人間の対話なしでは容易に取得されないタイプの情報を収集する必要がある場合がある。例えば、複数の事業所または組織からのデータを検証または収集するために、ユーザは、情報を収集するために事業所または組織の各々に電話をかける必要がある場合がある。ウェブ検索エンジンは、サービスまたは事業所のための連絡先情報を提供することによってそのようなタスクでユーザを支援することができるが、ユーザは、依然として自分自身でタスクを完了するためにサービスまたは事業所に電話をかけなければならない。
複数の事業所または組織から収集された情報のデータベースを維持するために、人間のオペレータは、データを収集するために多数の事業所への自動通話を開始することができるが、通話先(例えば、同じ料理を提供する特定の町のすべてのレストラン)を選択し、電話をかけることは、手動で実行する場合、時間がかかる可能性がある。さらに、いつ電話をかけるか、または電話をかけるかどうかを決定することは、一般に、検証、更新、または補足情報の必要性を確認するために、既存のデータの人間の分析を必要とする。
ユーザは、予約を行う、またはサービスを採用するなどのタスクを実行することを望む場合もある。しかしながら、一般に、ユーザが所望のタスクを完了するために対話しなければならない人が存在する。例えば、ユーザは、ウェブサイトを持たない小さいレストランにおいて予約を行うために、ホステスに電話をかけて話をする必要がある場合がある。場合によっては、ユーザが自分で電話をかけたとしても、ユーザは、しばしば限られたユーザの応答のセットのみを受け付ける自動連絡網に遭遇する場合がある。
いくつかの実装形態は、電話通話を開始し、ユーザとの電話での会話を行うためにボットを使用することに向けられている。ボットは、電話通話中に合成音声を提供している間、割り込まれる場合がある。割り込みは、複数の異なる割り込みタイプのうちの1つに分類することができ、ボットは、割り込みタイプに基づいて割り込みに反応することができる。いくつかの実装形態は、第1のユーザが電話での会話中に第2のユーザによって保留にされたと判定し、第1のユーザが電話を切ったとの判定に応答して、電話通話をアクティブ状態に維持することに向けられている。第1のユーザには、第2のユーザが通話に再参加したときに通知することができ、第1のユーザに関連付けられたボットは、第2のユーザが電話通話に再参加したことを第1のユーザに通知することができる。
いくつかの実装形態において、1つまたは複数のプロセッサによって実装される方法が提供され、方法は、電話通話を開始し、電話での会話を行うように構成されたボットを使用してユーザとの電話通話を開始するステップと、ユーザの対応するコンピューティングデバイスにおける出力のために、ボットの合成音声を提供するステップとを含む。方法は、ボットの合成音声を提供している間、ユーザから、ボットの合成音声に割り込むユーザ発話を受信するステップと、合成音声に割り込むユーザ発話の受信に応答して、受信したユーザ発話を、複数の異なるタイプの割り込みのうちの所与のタイプの割り込みとして分類するステップと、所与のタイプの割り込みに基づいて、ユーザの対応するコンピューティングデバイスにおける出力のために、ボットの合成音声を提供し続けるかどうかを決定するステップとをさらに含む。
本明細書で開示されている技術のこれらおよび他の実装形態は、以下の特徴のうちの1つまたは複数をオプションで含むことができる。
いくつかの実装形態において、所与のタイプの割り込みは、無意味な割り込みである。受信したユーザ発話を無意味な割り込みとして分類するステップは、受信したユーザ発話が、背景雑音、肯定の単語もしくは句、またはフィラー単語もしくは句のうちの1つまたは複数を含むことを判定するために、受信したユーザ発話に対応するオーディオデータまたは受信したユーザ発話に対応するトランスクリプションを処理するステップと、受信したユーザ発話が、背景雑音、肯定の単語もしくは句、またはフィラー単語もしくは句のうちの1つまたは複数を含むと判定したことに基づいて、受信したユーザ発話を無意味な割り込みとして分類するステップとを含む。
それらの実装形態のいくつかのバージョンにおいて、ボットの合成音声を提供し続けるかどうかを決定するステップは、受信したユーザ発話を無意味な割り込みとして分類したことに基づいて、ボットの合成音声を提供し続けると判定するステップを含む。
いくつかの実装形態において、所与のタイプの割り込みは、重要ではない意味のある割り込みである。受信したユーザ発話を重要ではない意味のある割り込みとして分類するステップは、ボットによって知られており、まだ提供されていない情報に対する要求を、受信したユーザ発話が含むことを判定するために、受信したユーザ発話に対応するオーディオデータまたは受信したユーザ発話に対応するトランスクリプションを処理するステップと、ボットによって知られており、まだ提供されていない情報に対する要求を受信したユーザ発話が含むと判定したことに基づいて、受信したユーザ発話を重要ではない意味のある割り込みとして分類するステップとを含む。
それらの実装形態のいくつかのバージョンにおいて、ボットの合成音声を提供し続けるかどうかを決定するステップは、ユーザ発話を重要ではない意味のある割り込みとして分類したことに基づいて、出力のためにボットの合成音声を提供することを中止するための、合成音声の残りの部分における時間的ポイントを決定するステップと、合成音声の残りの部分が受信した発話に応答するかどうかを判定するステップと、残りの部分が受信したユーザ発話に応答しないとの判定に応答して、出力のために、受信したユーザ発話に応答した、まだ提供されていない合成音声の追加部分を提供するステップと、出力のために、合成音声の追加部分を提供した後、出力のために、時間的ポイントからボットの合成音声の残りの部分を提供し続けるステップとを含む。
それらの実装形態のいくつかのさらなるバージョンにおいて、方法は、残りの部分が受信したユーザ発話に応答するとの判定に応答して、出力のために、時間的ポイントからボットの合成音声の残りの部分を提供し続けるステップをさらに含む。
いくつかの実装形態において、所与のタイプの割り込みは、重要な意味のある割り込みである。受信したユーザ発話を重要な意味のある割り込みとして分類するステップは、受信したユーザ発話が、ボットが合成音声を繰り返すことに対する要求、またはボットを保留にする要求を含むことを判定するために、受信したユーザ発話に対応するオーディオデータまたは受信したユーザ発話に対応するトランスクリプションを処理するステップと、受信したユーザ発話が、ボットが合成音声を繰り返すことに対する要求、またはボットを保留にする要求を含むと判定したことに基づいて、受信したユーザ発話を重要ではない意味のある割り込みとして分類するステップとを含む。
それらの実装形態のいくつかのバージョンにおいて、ボットの合成音声を提供し続けるかどうかを決定するステップは、出力のために、ボットの合成音声の現在の単語または用語の残りの部分を提供するステップと、出力のために、現在の単語または用語の残りの部分を提供した後に、出力のために、ボットの合成音声を提供することを中止するステップとを含む。
いくつかの実装形態において、受信したユーザ発話を所与のタイプの割り込みとして分類するステップは、所与のタイプの割り込みを判定するために、機械学習モデルを使用して、受信したユーザ発話に対応するオーディオデータまたは受信したユーザ発話に対応するトランスクリプションを処理するステップを含む。
それらの実装形態のいくつかのバージョンにおいて、方法は、複数のトレーニングインスタンスを使用して機械学習モデルをトレーニングするステップをさらに含む。トレーニングインスタンスの各々は、トレーニングインスタンス入力と、対応するトレーニングインスタンス出力とを含み、各トレーニングインスタンス入力は、割り込み発話に対応するトレーニングオーディオデータまたは割り込み発話に対応するトランスクリプションを含み、各対応するトレーニングインスタンス出力は、割り込み発話内に含まれる割り込みのタイプに対応するグラウンドトゥルースラベルを含む。それらの実装形態のいくつかのさらなるバージョンにおいて、機械学習モデルを使用して、受信したユーザ発話に対応するオーディオデータまたは受信したユーザ発話に対応するトランスクリプションを処理するステップは、ユーザ発話がオーディオデータまたはトランスクリプションとともに受信されたときに出力されている合成音声を処理するステップをさらに含む。
いくつかの実装形態において、受信したユーザ発話を所与のタイプの割り込みとして分類するステップは、受信したユーザ発話のトークンを、複数の異なる割り込みタイプの各々に関連付けられた1つまたは複数の用語と一致させる1つまたは複数のルールを使用し、受信したユーザ発話に対応するオーディオデータまたは受信したユーザ発話に対応するトランスクリプションを処理するステップを含む。
いくつかの実装形態において、ボットを使用してユーザとの電話通話を開始するステップは、電話通話を開始するために、ボットに関連付けられた所与のユーザからユーザ入力を受信することに応答する。それらの実装形態のいくつかのバージョンにおいて、電話通話を開始するためのユーザ入力は、ユーザの対応するコンピューティングデバイスにおける出力のために提供される合成音声内に含まれるべきである情報ポイントを含む。
いくつかの実装形態において、1つまたは複数のプロセッサによって実装される方法が提供され、方法は、第1のユーザおよび第2のユーザが電話通話に関与していることを判定するステップを含む。第1のユーザは、対応する第1のコンピューティングデバイスに関連付けられており、第2のユーザは、対応する第2のコンピューティングデバイスに関連付けられている。方法は、第2のユーザが第1のユーザを保留にしたことを判定するステップと、第1のユーザが対応する第1のコンピューティングデバイスを切ったことを判定するステップと、第1のユーザが対応する第1のデバイスを切ったとの判定に応答して、第1のユーザが保留にされている間、電話通話をアクティブ状態に維持するステップと、第2のユーザが電話通話に再参加したかどうかを判定するステップとをさらに含む。方法は、第2のユーザが電話通話に再参加したと判定したことに応答して、第2のユーザとの電話通話を継続するために、第1のユーザの対応する第1のコンピューティングデバイスに関連付けられたボットを使用するステップと、対応する第1のコンピューティングデバイスにおける出力のために、第1のユーザが電話通話に再参加するための通知を提供するステップと、第1のユーザが電話通話に再参加したことを判定するステップと、第1のユーザが電話通話に再参加したとの判定に応答して、第2のユーザとボットとの間の電話での会話を中止するステップとをさらに含む。
本明細書で開示されている技術のこれらおよび他の実装形態は、以下の特徴のうちの1つまたは複数をオプションで含むことができる。
いくつかの実装形態において、第2のユーザとの電話通話を継続するために、第1のユーザの対応する第1のコンピューティングデバイスに関連付けられたボットを使用するステップは、第1のユーザが電話通話におけるアクティブな参加者ではないことを示すボットの合成音声を生成するステップと、第2のユーザの対応する第2のコンピューティングデバイスにおける出力のために、ボットの合成音声を提供するステップとを含む。
いくつかの実装形態において、方法は、第1のユーザが電話通話に再参加する前に、第2のユーザからユーザ発話を受信するステップと、ユーザ発話のトランスクリプションを生成するステップと、ユーザ発話のトランスクリプションを、第1のユーザが電話通話に再参加するための通知内に含めるステップとをさらに含む。
いくつかの実装形態において、電話通話をアクティブ状態に維持するステップは、対応する第1のコンピューティングデバイスの1つまたは複数のマイクロフォンをミュートするステップと、対応する第1のコンピューティングデバイスと対応する第2のコンピューティングデバイスとの間の電話接続を維持するステップとを含む。
加えて、いくつかの実装形態は、1つまたは複数のコンピューティングデバイスの1つまたは複数のプロセッサ(例えば、中央処理装置(CPU)、グラフィカル処理ユニット(GPU)、および/またはテンソル処理ユニット(TPU))を含み、1つまたは複数のプロセッサは、関連するメモリ内に記憶された命令を実行するように動作可能であり、命令は、前述の方法のいずれかの実行を引き起こすように構成される。いくつかの実装形態は、前述の方法のいずれかを実行するために1つまたは複数のプロセッサによって実行可能なコンピュータ命令を記憶する1つまたは複数の非一時的コンピュータ可読記憶媒体も含む。いくつかの実装形態は、前述の方法を実行するために1つまたは複数のプロセッサによって実行可能な命令を含むコンピュータプログラム製品も含む。
本明細書でより詳細に説明する前述の概念および追加の概念のすべての組合せは、本明細書で開示されている主題の一部であると考えられることが理解されるべきである。例えば、本開示の終わりに現れる特許請求された主題のすべての組合せは、本明細書で開示されている主題の一部であると考えられる。
上記の説明は、本明細書で開示されているいくつかの実装形態のみの概要として提供されている。それらの実装形態、および他の実装形態について、本明細書でさらに詳細に説明する。
ユーザおよび通話開始システムのボットが電話での会話を行っている間にユーザから受信した割り込みを処理するための例示的なシステムを示す図である。 あるユーザが保留中である電話通話を監視し、他のユーザが電話通話に再参加したときに保留中のユーザに通知する例示的なシステムを示す図である。 ユーザおよび通話開始システムのボットが電話での会話を行っている間にユーザから受信した割り込みを処理するための例示的なシステムのフローチャートである。 あるユーザが保留中である電話通話を監視し、他のユーザが通話に再参加したときに保留中のユーザに通知するための例示的なプロセスのフローチャートである。 コンピューティングデバイスおよびモバイルコンピューティングデバイスの例を示す図である。
様々な図面中の同じ参照番号および名称は、同じ要素を示す。
図1は、人間の代表者102および通話開始システム104のボットが電話での会話を行っている間に代表者102から受信した割り込みを処理するための例示的なシステム100を示す。簡単に、以下でより詳細に説明するように、通話開始システム104は、電話通話を行う(例えば、ユーザの代わりに補助通話(assisted call)を開始する)ことによって、ユーザのためのタスクを実行している。代表者102は、ユーザの代わりに電話通話に応答し、通話開始システム104のボットとの電話での会話を行う。電話通話中に、代表者102は、ボットに割り込む場合がある(例えば、補助通話中)。ボットは、割り込みを識別し、割り込みを複数の異なる割り込みタイプのうちの1つに分類し、割り込みのタイプに基づいてユーザの代わりに電話での会話を継続することができる。
図1に示すように、ユーザは、デジタルアシスタントが翌日の午後7時に2人分Burger Palaceの予約を行うことを要求することによって、デジタルアシスタントと対話してもよい。Burger Palaceは、デジタルアシスタントが予約を要求することができるオンラインポータルを持たない小さいレストランである場合がある。代わりに、将来の顧客は、予約を行うためにBurger Palaceに電話をかけなければならない。この場合、デジタルアシスタントは、通話開始システム104がユーザの代わりにレストランとの電話通話を開始し、予約を行うことを要求する。図1に示すシステム100は、ネットワーク(例えば、LAN、WAN、WiFi、Bluetooth、および/または他のネットワーク)上のサーバによって実装されるものとして示されているが、それは、例のためのものであり、限定することを意図したものではないことが理解されるべきである。例えば、システム100は、補助通話を開始したユーザのコンピューティングデバイスにおいてローカルに実装することができ、ならびに/またはネットワーク上に分散された方法でコンピューティングデバイスおよびサーバによって実装することができる。
デジタルアシスタントは、ユーザによって提供された要求内に含まれるデータを通話開始システム104に提供することができる。情報は、予約の要求された日時(例えば、明日の午後7時)と、要求された事業所(例えば、Burger Palace)と、パーティ内の人数(例えば、2人)とを含んでもよい。レストランの予約以外の要求について、情報は、要求されたサービス提供者(例えば、航空会社、公益事業提供者、および/または任意の他のサービス提供者)の名前、サービス提供者に対する要求の説明(例えば、サービス/予約を行う/変更する/中止する)、および/またはユーザの代わりにタスクを実行する際に代表者102によって求められる可能性がある任意の他の情報を含んでもよい。通話開始システム104は、このデータの情報ポイント106として記憶してもよい。情報ポイント106は、例えば、通話開始システム104が電話通話中に代表者102に提供すべき情報、または通話開始システム104が、代表者102が電話通話中に提供することを要求すべき情報を含む。
例えば、通話開始システム104がBurger Palaceとの電話通話を開始すると仮定し、代表者102が電話108に応答すると仮定する。さらに、代表者102が「Thank you for calling Burger Palace. How can I help you?(Burger Palaceにお電話していただきありがとうございます。どのようなご用件でしょうか。)」という発話110を話すと仮定する。通話開始システム104のボットは、発話110を検出し、発話110のオーディオデータを音声認識器112に提供することができる。音声認識器112は、発話110のトランスクリプションを生成し、発話110のトランスクリプションをトランスクリプション生成器114に提供することができる。
トランスクリプション生成器114は、代表者102の発話110に応答するトランスクリプションを生成することができる。さらに、トランスクリプション生成器114は、情報ポイント106のうちの1つに含まれる情報を提供することが代表者102の発話110に対する適切な応答であるかどうかを判定するために、情報ポイント106にアクセスしてもよい。情報ポイント106のうちの1つに含まれる情報が代表者102の発話110に対する適切な応答であるかどうかを判定するために、トランスクリプション生成器114は、ルールベースの手法および/または機械学習ベースの手法を含む、様々な技法を使用してもよい。いくつかの実装形態において、トランスクリプション生成器114は、代表者102の発話110のトランスクリプション内のキーワードまたは句を識別してもよい。トランスクリプション生成器114は、代表者102の発話110のトランスクリプションをトークン化し、トークン化された用語の中からキーワードを識別してもよい。トランスクリプション生成器114は、次いで、代表者102の発話110の主題を決定するために、それらのキーワードまたは句を使用してもよい。トランスクリプション生成器114は、応答のトランスクリプションを生成するために、代表者102の発話110の主題を使用してもよい。
いくつかの実装形態において、トランスクリプション生成器114は、代表者102の発話110の主題および/または適切な応答を決定するために、機械学習を使用してトレーニングされたモデルを使用する。通話開始システム104は、以前の会話のログを含むトレーニングデータにアクセスしてもよい。以前の会話は、レストラン事業所、航空事業所、政府機関などの事業所もしくは組織のタイプに固有のもの、および/または他の事業所もしくは組織に固有の会話であってもよい。対応する会話内の発話の各々は、キーワードラベルを含む場合がある。キーワードラベルは、発話内の用語、発話内の用語の意味的表現、および/または発話もしくはそのトランスクリプションに注釈を付けるための他のタイプのラベルを含むことができる。通話開始システム104は、発話をキャプチャするオーディオデータ(および/またはそのトランスクリプション)が機械学習モデル全体の入力として適用されたときに発話のキーワードを識別するために機械学習モデルをトレーニングするためにトレーニングデータを使用することができる。いくつかの追加のおよび/または代替の実装形態において、通話開始システム104は、発話をキャプチャするオーディオデータ(および/またはそのトランスクリプション)が機械学習モデル全体の入力として適用されたときに適切な応答のためのキーワードを生成するために機械学習モデルをトレーニングするためにトレーニングデータを使用することができる。
トランスクリプション生成器114は、情報ポイント106と組み合わせて発話110に対する適切な応答を生成するために、これらの機械学習モデルおよび/またはルールベースの手法の任意の組合せを使用してもよい。より具体的には、トランスクリプション生成器114は、適切な応答を生成するために機械学習モデルを使用し、現在の会話に固有である可能性がある任意の詳細を埋めるために情報ポイント106を使用してもよい。図1に示すように、トランスクリプション生成器114は、トランスクリプション生成器114が情報ポイント106のうちの1つまたは複数を適用する応答シェルを生成するために、代表者102の発話110のトランスクリプションを分析することができる。例えば、トランスクリプション生成器114は、「I'd like to <blank>(<空所>にしたい)」などの応答シェルを生成してもよい。トランスクリプション生成器114は、要求されたタスク(例えば、予約を行う)と、日時(例えば、明日の午後7時)と、パーティサイズ(例えば、2人)とを含む情報ポイント106で空所内を埋めてもよい。この例では、トランスクリプション生成器114は、代表者102の発話110のトランスクリプションを処理することに応答して、「I'd like to make a reservation for two people tomorrow at 7pm(明日午後7時に2人分の予約をしたい)」のトランスクリプションを生成することができる。
トランスクリプション生成器114は、代表者102の発話110に応答するトランスクリプション生成器114によって生成されたトランスクリプションを音声合成器116に提供することができる。音声合成器116は、代表者102の発話110に応答する受信したトランスクリプションに対応するオーディオデータを含む合成音声を生成することができる。いくつかの実装形態において、音声合成器116は、合成音声をいくつかの異なる音声で出力するように構成されてもよい。例えば、音声合成器116は、予約を要求したユーザに似た音声、デジタルアシスタント用の予約された音声、トランスクリプション生成器114が適切な応答を生成することができない場合にボットを引き継いでもよいオペレータの音声、または予約を要求したユーザによって選択された、もしくは通話開始システム104によって選択された別の音声で、合成音声(または会話中のその一部)を出力するように構成されてもよい。
通話開始システム104は、代表者102の発話110の受信に応答して、音声合成器116によって生成された「I'd like to make a reservation for two people tomorrow at 7pm(明日午後7時に2人分の予約をしたい)」の合成音声118を出力することができる。この時点で、トランスクリプション生成器114は、ボットがその情報を合成音声118の一部として代表者102に提供したので、提供された日時122、要求された予約124、および提供されたパーティサイズ126の情報ポイント106を、満たされたとしてマークしてもよい。さらに、図1の例において、代表者102は、電話108を介して合成音声118を聞き、発話120に応答すると仮定する。発話102の検出に応答して、通話開始システム104は、発話110に関して上記で説明したのと同じまたは同様の方法において、代表者102の発話120のトランスクリプションを生成するために音声認識器112を使用し、適切な応答のトランスクリプションを生成するためにトランスクリプション生成器114を使用する。
この例では、トランスクリプション生成器114は、代表者102がすでに提供されている情報を要求していると判定する。トランスクリプション生成器114は、発話120のトランスクリプションが「what time(何時)」および「how many people(何人)」などのキーワードまたは句を含むと判定してもよい。トランスクリプション生成器114は、これらの2つの句が、合成音声118内に含まれた、提供された日時122および提供されたパーティサイズ126の情報ポイント106に対応すると判定してもよい。それにもかかわらず、トランスクリプション生成器114は、これらの特定の情報ポイント106を代表者102に再び提供するために、別のトランスクリプションを生成することができる。例えば、トランスクリプション生成器114は、発話112を受信したことに応答して「The reservation should be for two people at 7pm(予約は、午後7時に2人分必要です)」のトランスクリプションを生成してもよい。さらに、トランスクリプション生成器114は、このトランスクリプションを音声合成器116に提供することができる。
音声合成器116は、発話120に応答して生成されたトランスクリプションに対応するオーディオデータを含む合成音声128を生成することができる。さらに、通話開始システム104は、代表者102の発話120の受信に応答して音声合成器116によって生成された「The reservation should be for two people at 7pm(予約は、午後7時に2人分必要です)」の合成音声128を出力することができる。さらに、図1の例において、代表者102は、電話108を介して合成音声128を聞き、合成音声128を出力する途中で、代表者102は、割り込み、「Oh I'm sorry, you already said two people at 7pm(ああ、ごめんなさい、あなたはすでに午後7時に2人と言いました)」の発話113を話すと仮定する。
割り込み検出器132は、割り込みが発生したかどうかを判定するために、代表者102からの入力オーディオデータおよび/またはその対応するトランスクリプションを継続的に分析していてもよい。割り込み検出器132は、入力オーディオデータの信号強度をしきい値と比較することができる。通話開始システム104が合成音声を出力している間に、入力オーディオの信号強度が特定のしきい値を超える(例えば周辺雑音レベルを超える)場合、割り込み検出器132は、割り込みが発生したと判定してもよい。いくつかの実装形態において、割り込み検出器132は、音声認識器112によって生成された発話130のトランスクリプション、および/または発話130のエネルギーレベルを分析してもよい。この例では、音声認識器112が発話130のトランスクリプションを生成することができる場合、通話開始システム104は、代表者102または別の人が話しており、電話108がその音声を検出していると判定してもよく、割り込み検出器132は、割り込みが存在すると判定してもよい。この技法を使用することによって、割り込み検出器132は、背景雑音のみが存在する場合、誰かが背景で話している場合、または代表者102がボットに対して話していないことを示す可能性が高い、代表者102が低い音量で話している場合、割り込みを識別しない場合がある。
例えば、発話130の対応するオーディオデータの信号強度が55デシベルであると仮定し、しきい値が40デシベルであると仮定する。この例では、音声認識器112は、信号強度(例えば、55デシベル)がしきい値(例えば、40デシベル)を満たすことに基づいて、代表者102の発話130のトランスクリプションを生成することができる。音声認識器112が発話130を検出したこと、および/または発話130の対応するオーディオデータの信号強度がしきい値を満たすことに応答して、トランスクリプションを生成したことに基づいて、割り込み検出器132は、発話130が会話中の割り込み発話(以下、「割り込み発話130」と呼ぶ)であると判定することができる。
割り込み分類器136は、割り込みを、複数の異なる割り込みタイプ138からの所与のタイプの割り込みとして分類することができる。割り込みタイプ138は、相互に排他的とすることができ、例えば、無意味な割り込み、重要ではない意味のある割り込み、重要な意味のある割り込み、および/または他のタイプの割り込みを含むことができる。無意味な割り込みは、通話開始システム104が会話のコースを変更する必要のない割り込みであってもよい。例えば、割り込み検出器132によって検出された所与の割り込みは、検出された割り込みが背景雑音、ささやき、背景の会話を含むか、または代表者102が「right(正しい)」、「ok(オーケー)」、「uh-huh(うん)」、または他の同様の肯定/フィラー単語および/もしくは句などの単語を使用することによってボットが言っていることを確認していると判定された場合、無意味な割り込みとして分類することができる。別の例として、割り込み検出器132によって検出された所与の割り込みは、代表者102がボットの言ったことを繰り返していると判定された場合、無意味な割り込みとして分類することができる。例えば、ボットが「I'd like to make a reservation for two people tomorrow(明日2人分の予約をしたいです)」と言うと仮定し、さらに、ボットが言い終わって「at 7pm(午後7時に)」と言う前に、代表者102が「two people, tomorrow(明日2人分)」と言うと仮定する。この例では、代表者102がボットが言ったことを繰り返すので、割り込み分類器136は、割り込みを無意味な割り込みとして分類することができる。
重要ではない意味のある割り込みは、通話開始システム104が会話のコースを変更する必要があるが、ボットがすぐに話すのを停止することを必要としない割り込みであってもよい。例えば、割り込み検出器132によって検出された所与の割り込みは、検出された割り込みがまだ提供されていない情報ポイント106に対する要求を含むと判定された場合、重要ではない割り込みとして分類することができる。例えば、ボットが「I'd like to make a reservation for two people tomorrow(明日2人分の予約をしたい)」と言うと仮定し、さらに、ボットが言い終わり、「at 7pm(午後7時に)」と言う前に、代表者102が「at what time?(何時に)」と言うと仮定する。この例では、代表者102がボットに知られている情報(例えば、提供された日時122)を要求しているので、割り込み分類器136は、割り込みを重要ではない割り込みとして分類し、割り込みを一時停止することなく「7PM(午後7時)」の合成音声を出力することができる。いくつかの実装形態において、重要ではない意味のある割り込みを検出した後、ボットは、合成音声のすべてを出力する前に合成音声の自然な一時停止に到達する場合があり、合成音声の残りを出力することを停止する場合がある。例えば、割り込み検出器132によって検出された所与の割り込みは、検出された割り込みが「excuse me(すみません)」、「please repeat(繰り返してください)」、「slow down(ゆっくりお願いします)」、ならびに/またはボットが先行する合成音声を明確化するか、または再び述べることを要求する他の単語および/もしくは句を代表者102が述べていることを含むと判定された場合、意味のない割り込みとして分類することができる。例えば、ボットが「I'd like to make a reservation for two people tomorrow(明日2人分の予約をしたい)」と言うと仮定し、さらに、ボットが言い終わり、「at 7pm(午後7時に)」と言う前に、代表者102が「pardon me(失礼します)」と言うと仮定する。この例では、代表者102がボットに合成音声を再出力することを要求しているので、割り込み分類器136は、割り込みを重要ではない割り込みとして分類することができ、ボットは、合成音声を再び出力する前に、合成音声の残りの部分を出力し終えることができる。
重要な意味のある割り込みは、通話開始システム104が会話のコースを変更することを必要とし、ボットがすぐに話すのをやめることを必要とする割り込みであってもよい。いくつかの実装形態において、重要な意味のある割り込みが検出された後、ボットは、ボットが現在話している単語を終了し、次いで、合成音声の残りの部分を出力することを停止してもよい。例えば、ボットが「I'd like to make a reservation for two people tomorrow(明日2人分の予約をしたい)」と言うと仮定し、さらに、ボットが言い終わり、「at 7pm(午後7時に)」と言う前に、代表者102が「please hold(お待ちください)」「stop talking(話すのをやめてください)」、「wait, wait, wait(待って、待って、待って)」、ならびに/またはボットが合成音声の出力を停止すべきことを示す他の同様の単語および/もしくは句を言うと仮定する。この例では、代表者102は、ボットが合成音声の提供を停止することを要求しているので、割り込み分類器136は、割り込みを重要な意味のある割り込みとして分類することができる。したがって、代表者102が割り込み発話を話し終えた後、ボットは、適切なアクション(例えば、会話を終了する、合成音声の出力を停止する、最近出力された合成音声を繰り返す、および/または検出された割り込みに応答する他のアクション)で割り込み発話に応答してもよい。
割り込み分類器136は、様々な分類技法を使用して、検出された割り込みを分類してもよい。いくつかの実装形態において、割り込み分類器136は、代表者102の割り込み発話を割り込みタイプ136のうちの1つとして分類するために、1つまたは複数の機械学習モデルを使用して代表者102の割り込み発話を処理することができる。通話開始システム104は、トレーニングインスタンスを使用して1つまたは複数の機械学習モデルをトレーニングすることができる。トレーニングインスタンスの各々は、トレーニングインスタンス入力と、対応するトレーニングインスタンス出力とを含むことができる。トレーニングインスタンス入力は、割り込み発話をキャプチャするオーディオデータ(および/またはそのトランスクリプション)を含むことができ、対応するトレーニングインスタンス出力は、割り込み発話の分類に対応するグラウンドトゥルースラベル(例えば、無意味な割り込み、重要ではない意味のある割り込み、重要な意味のある割り込み、および/または他のタイプの割り込み)を含むことができる。例えば、第1のトレーニングインスタンス入力は、「wait, I can't hear you(待ってください、聞こえません)」の発話をキャプチャするオーディオデータ(および/またはそのトランスクリプション)を含むことができ、第1のトレーニングインスタンス出力は、重要な意味のある割り込みに対応するグラウンドトゥルースラベルを含むことができる。さらに、第2のトレーニングインスタンス入力は、「tomorrow at(明日)」の発話をキャプチャするオーディオデータ(および/またはそのトランスクリプション)を含むことができ、第1のトレーニングインスタンス出力は、無意味な割り込みに対応するグラウンドトゥルースラベルを含むことができる。いくつかの実装形態において、トレーニングインスタンス入力は、割り込み発話が検出されたときに出力されていた合成音声の合成音声をキャプチャするオーディオデータ(および/またはそのトランスクリプション)をさらに含んでもよい。
いくつかの追加および/または代替の実装形態において、割り込み分類器136は、代表者102の割り込み発話を割り込みタイプ136のうちの1つとして分類するために、1つまたは複数のルールを使用して代表者102の割り込み発話を処理することができる。それらの実装形態のいくつかのバージョンにおいて、割り込み分類器136は、割り込み発話をトークン化し、トークンを様々な用語のグループと比較してもよい。トークンが第1のグループの用語を含む場合、割り込み分類器136は、割り込みを重要な意味のある割り込みとして分類してもよい。さらに、トークンが第1のグループ内に含まれる用語とは異なる第2のグループからの用語を含む場合、割り込み分類器136は、割り込みを重要ではない意味のある割り込みとして分類してもよい。さらに、トークンが第1のグループと第2のグループの両方の用語とは異なる第3のグループの用語を含む場合、割り込み分類器136は、割り込みを無意味な割り込みとして分類してもよい。割り込みを分類するためのこの段階的な手法を使用することによって、所与の割り込みを無意味な割り込みではなく重要ではない意味のある割り込みとして分類することによって引き起こされる会話における追加の一時停止は、通話開始システム104と代表者の両方が会話の交換された主題を処理することを可能にし、それによって、迅速かつ効率的な方法で会話を終了することができるので、割り込み分類器136は、割り込みを分類し過ぎて失敗する傾向にある場合がある。様々な実装形態において、割り込み分類器136は、割り込みの用語が第1または第2の用語のグループのいずれにも含まれない場合、割り込みを無意味な割り込みとして分類してもよいので、割り込み分類器136は、第3の用語のグループを使用しなくてもよい。さらに、様々な実装形態において、割り込み分類器136は、割り込みの用語が第1、第2、または第3の用語のグループ内にない場合、割り込みがないと判定してもよい。
それらの実装形態のいくつかのバージョンにおいて、割り込み分類器136がトークンと比較するグループの各々における用語は、固定されてもよいが、それらの実装形態の他のバージョンにおいて、トークンは、電話での会話に応じて変化してもよい。例えば、第1の用語のグループは、「stop talking(話すのをやめてください)」および「can't hear(聞こえません)」を含んでもよく、第2の用語のグループは、「excuse me(すいません)」、「I'm sorry(ごめんなさい)」、および/または合成音声内に含まれる用語と意味的に類似した用語を含んでもよい。合成音声内に含まれる用語と意味的に類似した用語は、情報ポイント106と意味的に類似した用語を含んでもよい。例えば、図1に示す情報ポイント106は、「two people(2人)」、「7pm(午後7時)」、および「tomorrow(明日)」などの、ユーザに提供された情報を含むことができる。この例では、第2のグループの意味的に類似した用語は、(「two people(2人)」に対して)「three people(3人)」、(「7pm(午後7時)」に対して)「8pm(午後8時)」、および(「tomorrow(明日)」に対して)「next week(来週)」を含んでもよい。このように、割り込みの用語が、代表者102がボットを誤解したことを示唆する任意の意味的に類似した用語を含む場合、割り込み分類器136は、割り込みを重要ではない意味のある割り込みとして分類してもよい。第3の用語のグループは、「right(正しい)」、「uh-huh(うん)」、および/または代表者102が情報ポイント106内に含まれる情報(例えば、「two people(2人)」、「7pm(午後7時)」、および「tomorrow(明日)」)を理解していることに適合する他のフィラー/肯定用語などの用語を含んでもよい。
さらに、図1に示す例において、代表者102は、ボットが合成音声128の「for two(2人分)」を言った後に、割り込み発話130を話し始めることがある。割り込み検出器132は、音声認識器112が割り込み発話130内の音声を認識したことに基づいて、および/または割り込み発話130に対応するオーディオデータのエネルギーレベルが上記で論じたようにしきい値を超えていることに基づいて割り込みを検出してもよい。割り込み分類器136は、割り込み発話130および/またはボットの合成音声128のトランスクリプション最初の部分を、トレーニングされた機械学習モデルおよび/またはルールベースのモデル全体の入力として適用してもよい。最初の部分は、割り込み発話130の「oh, I'm sorry,(ああ、ごめんなさい)」を含む場合がある。割り込み分類器136が機械学習モデルを利用する実装形態において、割り込み分類器136は、割り込み発話130(およびオプションで割り込み発話130の直前の合成音声128)に対応するオーディオデータを処理することに基づいて、割り込み発話130内に含まれる割り込みが重要ではない意味のある割り込みであると分類してもよい。割り込み分類器136が1つまたは複数のルールを含む実装形態において、割り込み分類器136は、割り込み発話130の最初の部分をトークン化してもよく、トークンは、「oh(ああ)」および「I'm sorry(ごめんなさい)」という用語を含む場合がある。さらに、割り込み分類器136は、音声認識器が追加の単語をトランスクリプションするときに、割り込み発話130をトークン化し続けてもよい。「oh(ああ)」および「I'm sorry(ごめんなさい)」という用語は、第1のグループ内のどの用語とも一致しない場合があるが、「I'm sorry(ごめんなさい)」という用語は、第2のグループ内の用語と一致する場合がある。この場合、割り込み分類器136は、図1に示す割り込みを重要ではない意味のある割り込みとして分類してもよい。
割り込みが分類されると、一時停止挿入器142は、ボットが合成音声を出力することを停止すべきかどうか、および/またはいつ停止すべきかを識別することができる。例えば、割り込みが無意味な割り込みである場合、一時停止挿入器142は、ボットの合成音声内に一時停止を挿入する必要がないと判定し、割り込みが発生しなかったかのようにボットが合成音声を出力し続けてもよいと判定してもよい。別の例として、割り込みが重要な意味のある割り込みである場合、一時停止挿入器142は、ボットが現在の単語および/または句を出力することを完了したときに、合成音声内に一時停止が挿入される必要があると判定してもよい。この例では、一時停止挿入器142は、代表者102に出力されるべき音声合成器116への用語および/または単語を提供することを停止するために、トランスクリプション生成器114に指示を提供することができる。さらに、トランスクリプション生成器114は、代表者102が割り込み発話130を話すことを完了するまで、音声合成器116に追加のトランスクリプションを提供する必要はない。
一時停止挿入器142から一時停止命令を受信すると、トランスクリプション生成器114は、情報ポイント106が代表者に提供されたかどうかを示すために、情報ポイント106を更新してもよい。例えば、トランスクリプション生成器114は、情報ポイント106の所与の情報ポイントを含む合成音声の出力後に、所与の情報ポイントを満たされたものとして更新してもよい。図1の例では、トランスクリプション生成器114は、提供された日時122、要求された予約124、および提供されたパーティサイズ126に関する情報ポイントを、ボットがそれらの情報ポイント106を含む合成音声をすでに出力しているので、それらが満たされていることを示すように更新してもよい。特に、それらの情報ポイント106は、それらが満たされていることを示すように更新されるが、代表者102によって要求された場合、および/または代表者102による誤解がある場合、ボットは、それらの情報ポイント106を依然として繰り返してもよいが、それらの情報ポイント106は、ボットによって2回自発的に提供されなくてもよい。
上記のように、図1の例において、割り込み分類器136は、割り込みを重要ではない意味のある割り込みとして分類する。この例では、一時停止識別器142は、自然な一時停止(すなわち、割り込み発話130が検出されたときに出力されている合成音声における一時停止)のための合成音声128内の位置を決定してもよい。自然な一時停止は、文の終わり、前置詞句の終わり、前置詞句の前、接続詞の前、および/または話者が自然に一時停止する可能性がある音声の任意の他の同様の部分であってもよい。一時停止識別器142は、合成音声128内の「for two people(2人分)」という前置詞句の後(すなわち、発話120に応答する「at 7pm(午後7時に)」の部分を提供する前)の自然な一時停止位置を識別してもよい。さらに、一時停止挿入器142は、発話120に対する応答のトランスクリプションを音声合成器116に提供することを停止するようにトランスクリプション生成器114に指示してもよい。
さらに、図1に示すように、ボットは、「for two people(2人分)」を出力した後、合成音声128を出力することを停止してもよく、代表者102は、割り込み発話130を話し続けてもよい。音声認識器112は、割り込み発話130の残りの部分をトランスクリプションすることができ、トランスクリプション生成器114は、「Oh, I'm sorry, you already said two people at 7pm(ああ、ごめんなさい、あなたはすでに午後7時に2人と言いました)」の割り込み発話130のトランスクリプションを受信することができる。さらに、トランスクリプション生成器114は、「that's correct(その通りです)」というトランスクリプションを生成することによって、割り込み発話130に対する応答を生成することができ、音声合成器116は、「That's correct(その通りです)」の合成音声144を生成することができる。通話開始システム104は、次いで、合成音声144を代表者の電話108に送信することができる。
通話開始システム104が合成音声144を代表者102の電話108に送信した後、通話開始システム104は、割り込みが完了したと判定してもよい。この時点で、トランスクリプション生成器114は、情報ポイント106のすべてが満たされているかどうかを判定することができる。そうである場合、トランスクリプション生成器114は、電話通話を完了するためにさらなるトランスクリプションを生成することができる。割り込み後に依然として不完全なままである情報ポイント106が存在する場合、トランスクリプション生成器114は、不完全な情報ポイントの情報を代表者102に提供するトランスクリプションを生成することができ、音声合成器116は、トランスクリプションに対応する合成音声を生成することができ、合成音声は、代表者102の電話108において出力することができる。
図1の例において、代表者102は、「Great, I made the reservation. See you tomorrow.(よかった、予約しました。明日会いましょう。)」の発話146を話すことによって、合成音声144に応答する。音声認識器は、発話146に対して音声認識を実行することができ、音声認識器112は、発話146のトランスクリプションをトランスクリプション生成器114に提供することができ、トランスクリプション生成器114は、情報ポイント106が満たされていると判定することができる。情報ポイント106のすべてが満たされているとの判定に応答して、および/または(例えば、発話146内に含まれる認識されたテキストに基づいて)代表者が電話通話を終了しているとの判定に応答して、トランスクリプション生成器114は、電話通話を終了するためにトランスクリプションを生成することができる。トランスクリプション生成器114は、トランスクリプションを音声合成器116に提供することができる。通話開始システム104は、合成された発話(例えば、「Thank you, see you tomorrow(ありがとうございました、明日お会いしましょう)」)を電話108に送信し、電話通話を終了する。
いくつかの実装形態において、トランスクリプション生成器114は、割り込み発話130が検出される前に、電話での会話を合成音声128の主題に戻してもよい。この場合、トランスクリプション生成器114は、合成音声128の任意の不完全な情報ポイント106(例えば、「7pm(午後7時)」)を完了するトランスクリプションを生成し、満たされていない情報ポイント106に基づいて、さらなる合成音声を生成してもよい。トランスクリプション生成器114は、トランスクリプションを音声合成器116に提供することができる。通話開始システム104は、合成音声を電話108に送信する。例えば、割り込み発話130が「you already said two people(あなたはすでに2人と言いました)」のみを示し、「7pm(午後7時)」を含む以前の合成音声118を認識しなかった場合、合成音声144は、提供された日時122を含む合成音声(例えば、「That's correct, and 7pm(その通り、午後7時)」)も含んでもよい。
通話開始システム104の様々な実装形態において、ボットは、ユーザの代わりにボットと会話を行うことに同意することを代表者102に要求する合成音声を、代表者102の電話108において出力させることができる。いくつかの実装形態において、ボットは、代表者102が補助通話に応答したときに、合成音声を出力させることができる。例えば、代表者102の発話110の検出に応答して、ボットは、「Hello, this is bot calling on behalf of John Doe, do you consent to monitoring of this call(こんにちは、こちらはJohn Doeの代わりに通話しているボットですが、この通話を監視することに同意しますか)」という合成音声を発生させることができる。ボットが代表者102から同意を受け取った場合、ボットは、次いで、合成音声118を出力することができる。しかしながら、ボットが代表者102から同意を受け取らなかった場合、ボットは、補助通話を終了することができ、代表者102が補助通話に同意しなかったことをユーザに通知することができる。
図2は、第1のユーザ202と第2のユーザ204との間の電話通話を監視する例示的なシステム200を示す。例えば、電話通話の第1のユーザ202は、保留中である場合があり、システム200は、第2のユーザ204が電話通話に再参加したときに、保留中の第1のユーザ202に通知することができる。簡単に、以下でより詳細に説明するように、第1のユーザ202は、第2のユーザ204を通話してもよく、第2のユーザ204は、第1のユーザ202を保留にしてもよい。第1のユーザ202は、保留に応答して、電話206を切ってもよい。通話監視システム210は、第1のユーザ202が保留中に電話206を切ったことを検出するために、電話通話を監視することができる。第1のユーザ202は、電話206を切るが、通話監視システム210は、第1のユーザ206が電話206を切ったことに応答して電話通話をアクティブ状態に維持することができ、第2のユーザ204が電話通話に再参加したときに第1のユーザ202に通知することができる。さらに、図2に示すシステム200は、ネットワーク(例えば、LAN、WAN、Bluetooth、および/または他のネットワーク)上のサーバによって実装されるものとして示されているが、それは、例のためのものであり、限定することを意図したものではないことが理解されるべきである。例えば、システム200は、第1のユーザ202のコンピューティングデバイスにおいてローカルに実装することができ、ならびに/またはネットワーク上に分散された方法で第1のユーザ202のコンピューティングデバイスおよびサーバによって実装することができる。
第1のユーザ202は、通話監視システム210がユーザ202の電話通話を監視することを可能にするために、電話206における通話設定を構成することができる。図2に示すように、第1のユーザ202が、対応するコンピューティングデバイス(例えば、電話206)を使用して第2のユーザ204に電話通話を行い、通話監視システム210が有効にされていると仮定する。この例では、通話監視システム210は、第1のユーザ202と第2のユーザ204との間の電話通話を監視することができる。電話通話の最初の部分の間、電話206は、電話206が電話208に接続されている第1の状態226にあってもよい。さらに、第2のユーザ204が電話208を使用して電話通話に応答し、「Thank you for calling Cable Company. How may I direct your call(Cable Companyにお電話していただきありがとうございます。お電話をどのようにおつなぎいたしましょうか)」という発話212を話すと仮定し、第1のユーザ202が第2のユーザ204に「I'd like to cancel my account(私のアカウントをキャンセルしたい)」という発話214で応答し、第2のユーザ204が第1のユーザ202に「Thank you, please hold(ありがとうございます、お待ちください)」という発話216で応答すると仮定する。
第1のユーザ202と第2のユーザ204との間のこの交換中に、通話監視システム210は、電話通話を監視することができ、第1のユーザ202と第2のユーザ204の両方の発話212、214、および216に対して音声認識を実行するために、音声認識器244を使用することができる。通話監視システム210は、電話通話の主題を判定するために、発話212、214、および216の対応するトランスクリプションを分析することができる。さらに、通話監視システム210は、電話通話の主題および/または電話通話の他の詳細を情報ポイント248内に記憶することができる。この例では、通話監視システム210は、「cancel account for cable company(ケーブル会社のアカウントをキャンセルする)」という情報ポイントを記憶することができ、第1のユーザ202が第2のユーザ204からケーブルアカウントがキャンセルされたことの確認を受信する前に通話が保留にされたので、この情報ポイントを最初は満たされていないとラベル付けすることができる。
通話監視システム210の通話モニタ236は、保留検出器238を含むことができる。保留検出器238は、第2のユーザ204が第1のユーザ202を保留にしたことを判定することができる。保留検出器238は、例えば、第1のユーザ202が保留にされていることを明示する第2のユーザ204からの発話(例えば、発話216内の「please hold(保留にしてください)」)を検出したことに基づいて、無音のしきい値持続時間を検出した(例えば、第1のユーザ202または第2のユーザ204の発話が30秒、45秒、および/または他の持続時間の間検出されない)ことに基づいて、別のボットが第2のユーザの代わりに通話を引き継いだことを(例えば、信号エネルギー、音声識別などに基づいて)検出したことに基づいて、第1のユーザ202が保留にされたことを示す通話に関連するメタデータを検出したことに基づいて、および/または通話が保留にされたことを判定するための他の技法に基づいて、第2のユーザ204が第1のユーザ202を保留にしたことを判定することができる。この時点で、通話監視システム210は、ユーザが電話を切ろうとした場合であっても、通話をアクティブ状態に維持することができる。
図2に示すように、第1のユーザ202は、保留で待ちたくないので、電話206が第1の状態226にある間に電話206を切ろうとする。特に、第1のユーザ202が電話206を切ったとしても、通話監視システム210は、通話が完全に切断されるのを防止することができる。むしろ、通話監視システム210は、電話206を第1の状態226(例えば、接続されている)から第2の状態228(例えば、ミュート)に遷移させることができる。第2の状態228において、第1のユーザ202と第2のユーザ204との間の通話は、アクティブのままであるが、電話206のマイクロフォンは、ミュートされている。電話206は、バックグラウンドにおいてアクティブな電話通話が存在することを示し、マイクロフォンがミュートされていることも示してもよい。第1のユーザ202は、通話監視システム210が電話通話を第2の状態228に維持している間、他の活動を実行するために電話206を使用することができる場合がある。いくつかの実装形態において、第1のユーザ202は、電話が第1の状態226または第2の状態228にある間に、通話監視システム210に通話を完全に切断させる(例えば、発話された、タッチされた、および/またはタイプされた)追加の入力を提供することができる。
いくつかの実装形態において、通話監視システム210は、第1のユーザ202が電話206を第1の状態226(例えば、接続されている)から第2の状態228(例えば、ミュート)に遷移させるために電話206を切ろうとすることを必要としない場合がある。むしろ、保留検出器238は、第2のユーザ204が第1のユーザ202を保留にしたと判定することができ、それに応答して、通話モニタ236は、電話206を第1の状態226(例えば、接続されている)から第2の状態228(例えば、ミュート)に自動的に遷移させることができ、それによって、電話通話をアクティブ状態に維持する。アクティブ状態は、例えば、第1のユーザ202の電話206がネットワーク(ボイスオーバインターネットプロトコル(VoIP)、公衆交換電話網(PSTN)、および/または他の電話通信プロトコル)を介して第2のユーザ204の電話208との通信を維持していることとすることができる。
図2に示すように、第2のユーザ204が電話通話に再参加すると仮定する。この時点で、保留検出器238は、第1のユーザ202がもはや保留にされていないと判定し、保留検出器238は、第1のユーザ202がもはや保留にされていないことの指示を通知生成器242に提供することができる。この例では、通知生成器242は、電話206に、第1のユーザ228がもはや保留にされていないことを示す第1のユーザ202のための可聴通知234を(視覚的通知に加えて、またはその代わりに)出力させる(例えば、電話206は、着信のように振動する/鳴る(ring)、電話206は、着信通知のように振動する/鳴る(ding)、電話206は、電話206のディスプレイ上に視覚的通知をレンダリングさせる、など)。いくつかの追加のおよび/または代替の実装形態において、通知生成器242は、第1のユーザ202が電話206を使用していると判定してもよい。この場合、通知生成器242は、(可聴通知に加えて、またはその代わりに)電話206のディスプレイ上に視覚的通知を提示することができる。
第2のユーザ204が電話通話に再参加するとき、第2のユーザ204が「Hello, I understand you want to cancel your account(こんにちは、あなたが自分のアカウントをキャンセルしたいことを了解しました)」という発話220を話すと仮定する。いくつかの実装形態において、図2に示すように、第1のユーザ202は、通知234を受信したことに応答して通話にまだ再参加していない場合がある。この場合、通話監視システム210のボットは、第1のユーザ202が電話通話に再参加するのを待っている間に、第2のユーザ204の電話208に出力するために、「Hello, sorry. She will be right back(こんにちは、ごめんなさい。彼女はすぐに戻ってきます)」という合成音声218を生成してもよい。通話監視システム210は、図1に関して上記でより詳細に説明したのと同様の方法において、合成音声を生成することができる。例えば、音声認識器244は、音声認識器244を使用して、第2のユーザ204の発話220に対して音声認識を実行することができ、トランスクリプション生成器240は、発話220に応答するトランスクリプションを生成することができ、音声合成器246は、発話に応答するトランスクリプションに対応するオーディオデータを含む合成音声を生成することができ、通話監視システムは、合成音声を第2のユーザの電話208において出力させることができる。それらの実装形態のいくつかのバージョンにおいて、通話監視システム210は、第2のユーザ204の発話220のトランスクリプションを視覚的にレンダリングさせることができ、および/または第2のユーザ204の発話220をキャプチャするオーディオデータを第1のユーザの電話206において聴覚的にレンダリングさせることができる。
いくつかの実装形態において、第2のユーザ204の発話220に応答するトランスクリプションは、通知234が第1のユーザ202に出力されたことを示すことができ、および/または第1のユーザ202が電話通話にすぐに戻ることを示すことができる。上記のように、トランスクリプション生成器240は、「Hello, sorry. She will be right back(こんにちは、ごめんなさい。彼女はすぐに戻ってきます)」というトランスクリプションを生成し、トランスクリプションを音声合成器246に提供することができ、音声合成器246は、合成音声218に対応するオーディオデータ224を含む合成音声を生成することができる。通話監視システム210は、オーディオデータ224を電話208に直接送信することができ、または電話208に送信するために電話206に送信することができる。
いくつかの実装形態において、トランスクリプション生成器240は、音声合成器246に提供されるトランスクリプションを生成するために、第2のユーザ204の発話220のトランスクリプションと、電話通話の情報ポイント248とを使用してもよい。この例では、トランスクリプション生成器240は、Cable Companyとのアカウントをキャンセルすることに関連する詳細を含む情報ポイント248にアクセスしてもよい。別の例として、トランスクリプション生成器240は、「Hello, sorry, she is looking for her account information and will be right back(こんにちは、ごめんなさい。彼女は自分のアカウント情報を探しており、すぐに戻ってきます)」というトランスクリプションを生成し、トランスクリプションを音声合成器246に提供することができ、音声合成器246は、合成音声に対応するオーディオデータを含む合成音声を生成することができる。再び、通話監視システム210は、オーディオデータを電話208に送信するか、または電話208に送信するために電話206に送信することができる。
いくつかの実装形態において、通話監視システム210は、第1のユーザ202が通話に再参加するまで、第1のユーザの代わりに第2のユーザ204との会話を継続することができる。トランスクリプション生成器240は、電話206において検出された第2のユーザ204の追加の情報ポイントおよび/または追加の発話に関連するトランスクリプションを生成するために、図1に記載のものと同様の技術を使用してもよい。この場合、トランスクリプション生成器240は、第1のユーザ202が第2のユーザ204との会話を継続する準備ができていないことを示すトランスクリプションを生成してもよい。例えば、トランスクリプション生成器240は、「Hello, sorry. I'm still looking for my account information(こんにちは、ごめんなさい。まだ自分のアカウント情報を探しています)」または「Hello. Please give me a moment while my computer boots up(こんにちは。私のコンピュータが起動するまでしばらくお待ちください)」というトランスクリプションを生成してもよい。それらの実装形態のいくつかのバージョンにおいて、ボットは、第1のユーザ202のユーザプロファイルにアクセスし、ユーザプロファイル内に含まれる情報(例えば、第1のユーザ202のアドレス、第1のユーザ202の名前、ケーブル会社に関連付けられた第1のユーザ202のアカウント番号など)を提供することができる。
いくつかの追加のおよび/または代替の実装形態において、ボットは、第1のユーザがしきい値持続時間内に通話に再参加しない場合、第2のユーザ204を保留にし、および/または電話通話を終了してもよい。しきい値持続時間は、固定または動的であってもよい。しきい値持続時間が動的である実装形態において、しきい値持続時間は、第1のユーザ202と電話206との対話に基づいてもよい。例えば、第1のユーザ202が30秒間通知234と対話しない場合、ボットは、第2のユーザ204を保留にしてもよい。この例では、第1のユーザ202が、第2のユーザ204が保留にされてから60秒以内に通話に再参加しない場合、ボットは、通話が終了されるべきであると判定してもよい。別の例として、第1のユーザ202が通知234と対話するが、通話にまだ再参加していない場合、ボットは、60秒後に第2のユーザ204を保留にしてもよい。この例では、第1のユーザ202が、第2のユーザ204が保留にされてからさらに60秒以内に通話に再参加しない場合、ボットは、通話が終了されるべきであると判定してもよい。
図2に示すように、第1のユーザ202が通知234を受信したことに応答して電話通話に再参加し、「Hi, I'm here(こんにちは、私はここにいます)」という発話222を話すと仮定する。第1のユーザ202が通話に再参加すると、電話206は、第2の状態228(例えば、「ミュート」)から第3の状態230(例えば、「接続された」または「再接続された」)に遷移することができ、第3の状態230では、電話206は、電話通話に接続されたままであり、第1のユーザ202の電話206のマイクロフォンは、ミュートされていない。通話監視システム210および通話モニタ236は、電話通話を監視することに戻ることができる。
いくつかの追加のおよび/または代替の実装形態において、図2には示されていないが、通話監視システム210は、第1のユーザ202が第2のユーザ204の発話220の検出前(または検出中)に通知234を受信したことに応答して通話に再参加したと判定することができる。通話監視システム210は、例えば、電話206が第2の状態228から第3の状態230に遷移したと判定したことに基づいて、音声識別を使用して電話206において検出された音声発話が第1のユーザ202に対応すると判定したこと(およびオプションで、音声発話が第2のユーザ204の発話220に応答していると判定したこと)に基づいて、および/または第1のユーザ202が通話に再参加したことを判定するために他の技法を使用して、第2のユーザ202の発話220の検出前(または検出中)に第1のユーザ202が通話に再参加したことを判定することができる。それらの実装形態のいくつかのバージョンにおいて、通話監視システム210は、ボットが合成音声218を生成する必要がない、および/または第2のユーザ204との会話に関与する必要がないと判定することができる。例えば、第1のユーザ202が通知234を受信してすぐに、第2のユーザ204が発話220を話している間に電話通話に再参加すると仮定する。この例では、第1のユーザ202がすでに通話に再参加しているので、通話監視システム210は、第2のユーザ204との会話に関与するためにボットを呼び出さなくてもよい。それらの実装形態のいくつかのさらなるバージョンにおいて、通話監視システム210は、第1のユーザ202が第2のユーザ204の発話220の全体を認識することを確実にするために、依然として第2のユーザ204の発話220のトランスクリプションを第1のユーザ202の電話206上に視覚的にレンダリングさせてもよい。
通話監視システム210の様々な実装形態において、ボットは、第1のユーザ202と第2のユーザ204との間の会話がボットによって監視されることに同意するように第2のユーザ204に要求する合成音声を発生させることができる。いくつかの実装形態において、ボットは、第2のユーザ204が通話に応答したときに、合成音声を出力させることができる。例えば、第2のユーザの発話212を検出したことに応答して、ボットは、「Hello, do you consent to the bot joining this call(こんにちは、ボットがこの呼出に参加することに同意しますか)」という合成音声をレンダリングさせることができる。ボットが第2のユーザ204から同意を受け取った場合、ボットは、会話に参加することができる。しかしながら、ボットが第2のユーザ204から同意を受け取らない場合、ボットは、通話に参加しない場合がある。ボットが第2のユーザ204から通話に参加することの同意を受け取らない場合であっても、ボットは、依然として通話を監視することができる。例えば、ボットは、音声活動を検出するようにトレーニングされた音声活動検出器(VAD)、特定の単語および/または句(例えば、「Hello(こんにちは)」、「I'm sorry for wait(お待たせして申し訳ありません)」など)を検出するようにトレーニングされたホットワード検出器を使用して、第2のユーザ204が通話に再参加したかどうか、および/または第2のユーザ204が通話に再参加したことを判定するために、依然として通話を監視してもよい。しかしながら、ボットは、第2のユーザ204の任意の発話を処理するために音声認識器244を使用しなくてもよい。
図3Aは、(例えば、図1に関して上記でより詳細に説明したように)ユーザおよび通話開始システムのボットが電話での会話に関与している間にユーザ(または代表者)から受信した割り込みを処理するための例示的なプロセス300aのフローチャートである。一般に、プロセス300aは、コンピューティングデバイスの対応するユーザに関連付けられたボットを使用して、ユーザ(または代表者)との電話での会話を開始することができる。電話での会話中、ユーザ(または代表者)は、ボットが合成音声を出力している間にボットに割り込んでもよい。ボットは、割り込みを処理するための適切な方法を決定するために、割り込みを識別および分類することができる。割り込みを処理した後、ボットは、割り込みの前に話し合っていた主題に会話を戻すか、または会話を進めることができる。簡略にするために、プロセス300aの動作について、1つまたは複数のプロセッサを含むシステム(例えば、図1のシステム100)によって実行されるものとして説明する。システムは、例えば、サーバ、ボットに関連付けられた対応するユーザのコンピューティングデバイス、および/またはそれらの組合せによって実装することができる。
ブロック310aにおいて、システムは、電話通話を開始し、ボットを使用して電話での会話を行うように構成された通話開始システムによって、ユーザとの電話通話を開始する。システムは、所与のユーザの対応するコンピューティングデバイスにおいて、所与のユーザの代わりに通話を開始することを要求する(例えば、発話された、タイプされた、および/またはタッチされた)ユーザ入力の検出に応答して、通話を開始することができる。ボットは、対応するコンピューティングデバイスの所与のユーザの代わりにユーザとの会話に関与することができる。いくつかの実装形態において、ボットは、ユーザとの電話通話を開始する前に、所与のユーザから情報を求めることができる。例えば、所与のユーザが「Make a reservation at Burger Palace(Burger Palaceの予約を行ってください)」というユーザ入力を提供した場合、ボットは、ボットに予約を行うことを要求した所与のユーザに、日時情報とパーティサイズ情報とを求めることができる。ユーザは、会話中に関与している事業所または代理店に関連付けられた別のボットまたは人間の代表者とすることができる。上記の例を続けると、ユーザは、Burger Palaceに関連付けられた別のボットまたは人間の従業員とすることができる。ユーザとの通話を開始することについて、本明細書で(例えば、図1に関して)より詳細に説明している。
ブロック320aにおいて、システムは、通話開始システムによる出力のために、ボットの合成音声を提供する。合成音声は、例えば、通話の開始時にユーザが会話中にボットが関与することに同意することに対する要求、通話を開始するためにユーザ入力を提供した所与のユーザの代わりに実行されるべきタスクに関連する情報、および/またはボットとユーザとの間の会話を促進するための他の合成音声に対応するオーディオデータを含むことができる。合成音声は、合成音声がユーザによって聴覚的に知覚され得るように、ユーザに関連付けられたコンピューティングデバイスのスピーカを介して出力することができる。合成音声を提供することについて、本明細書で(例えば、図1に関して)より詳細に説明している。
ブロック330aにおいて、出力のためにボットの合成音声を提供している間、システムは、ユーザから、通話開始システムによって、ユーザ発話を受信する。システムは、ボットが合成音声を出力している間も、ユーザの発話を継続的に監視することができる。言い換えると、システムは、ボットがユーザに関連付けられたコンピューティングデバイスにおいて合成音声を出力している間、ユーザの発話を検出することができる。ボットが合成音声を出力している間にユーザ発話を受信することについて、本明細書で(例えば、図1に関して)より詳細に説明している。
ブロック340aにおいて、出力のためにボットの合成音声を提供している間に、ユーザ発話とボットの合成音声の出力された部分とに基づいて、システムは、出力のためにボットの合成音声を提供することを継続するか、または出力のためにボットの合成音声を提供することを中止するかを決定する。システムは、ブロック330aにおいて受信したユーザ発話を複数の異なるタイプの割り込み(例えば、無意味な割り込み、重要ではない意味のある割り込み、重要な意味のある割り込み、および/または他のタイプの割り込み)のうちの1つに分類することができる。さらに、システムは、ユーザ発話の分類に基づいて、合成音声の提供を継続するかまたは中止するかを決定することができる。システムは、機械学習モデルおよび/または1つもしくは複数のルールを使用して、ブロック330aにおいて受信したユーザ発話(およびオプションで合成音声)を処理することに基づいて、ユーザ発話を複数の異なるタイプの割り込みのうちの1つに分類することができる。さらに、システムは、ブロック330aにおいてユーザ発話を受信する前に、ボットに会話を合成音声内に含まれる主題に戻させることができ、ユーザ発話がブロック330aにおいて受信されなかったかのように、会話を継続することができ、および/またはブロック330aにおいて受信したユーザ発話に応答する合成音声をさらに生じさせるために会話の方向を変更することができる。ユーザ発話を複数の異なる割り込みタイプのうちの1つに分類し、合成音声の提供を中止するかどうかを決定することについて、本明細書で(例えば、図1に関して)より詳細に説明している。
図3Bは、あるユーザが保留中である電話通話を監視し、他のユーザが通話に再参加したときに保留中のユーザに通知するための例示的なプロセスのフローチャートである。一般に、プロセス300bは、2人のユーザ間の電話での会話を監視する。ユーザのうちの一方は、他のユーザを保留にする。待機する代わりに、保留中のユーザは、電話を切ろうとする。プロセス300bは、電話通話をアクティブ状態に維持し、他のユーザが通話に再参加したときに保留中のユーザに通知する。プロセス300bは、保留中だったユーザが通話に戻るのを待っている間、再参加したユーザとの会話を行うためにボットを使用してもよい。簡略にするために、プロセス300bの動作について、1つまたは複数のプロセッサを含むシステム(例えば、図2のシステム200)によって実行されるものとして説明する。システムは、例えば、サーバ、ボットに関連付けられた対応するユーザのコンピューティングデバイス、および/またはそれらの組合せによって実装することができる。
ブロック310bにおいて、システムは、第1のユーザおよび第2のユーザが電話通話に関与していると判定する。システムは、第1のユーザに関連付けられた対応する第1の電話の状態に基づいて、第1のユーザおよび第2のユーザが電話通話に関与していると判定することができる。対応する第1の電話の状態は、例えば、第1のユーザおよび第2のユーザが電話通信プロトコル(例えば、VoIP、PSTN、および/または他のプロトコル)を使用して接続されていることを示すことができる。第1のユーザおよび第2のユーザが電話通話に関与していると判定することについて、本明細書で(例えば、図2に関して)より詳細に説明している。
ブロック320bにおいて、システムは、第2のユーザが第1のユーザを保留にしたと判定する。システムは、会話のユーザ発話を処理することに基づいて、第2のユーザが第1のユーザを保留にしたと判定することができる。例えば、システムは、会話のユーザ発話に対応するオーディオデータのストリームを処理することができる。(例えば、音声認識器を使用して)オーディオデータのストリームを処理することに基づいて、システムは、オーディオデータのストリームに対応する認識されたテキストが、第2のユーザが第1のユーザを保留にしたことを示すと判定することができる。例えば、システムは、第2のユーザが、「Please hold(保留にしてください)」、「Will you please hold while I transfer your call(通話を転送する間、保留にしてください)」、および/または第2のユーザが第1のユーザを保留にしたことを示す他の句を述べたことを判定するために、会話のユーザ発話を処理することができる。第2のユーザが第1のユーザを保留にしたと判定することについて、本明細書で(例えば、図2に関して)より詳細に説明している。
ブロック330bにおいて、システムは、第1のユーザが対応する第1の電話を切ったと判定する。システムは、第1のユーザが電話通話を終了するために対応する第1の電話においてユーザ入力を提供したと判定したことに基づいて、第1のユーザが対応する第1の電話を切ったと判定することができる。例えば、システムは、選択されると電話通話を終了させるボタン(例えば、物理ボタン、および/またはグラフィカルユーザインターフェース上のソフトボタン)に向けられたユーザ入力に基づいて、第1のユーザが対応する第1の電話をロック状態にしたことに基づいて、および/または対応する第1の電話との他の対話に基づいて、第1のユーザが対応する第1の入力を切ったと判定することができる。第1のユーザが対応する第1の電話を切ったと判定することについて、本明細書で(例えば、図2に関して)より詳細に説明している。
ブロック340bにおいて、第1のユーザが対応する第1の電話を切ったと判定したことに基づいて、第1のユーザが保留にされている間、システムは、電話通話をアクティブ状態に維持する。システムは、対応する第1の電話を第1の状態から第2の状態に遷移させることによって、電話通話のアクティブ状態を維持することができる。第2の状態において、対応する第1のコンピューティングデバイスのマイクロフォンをミュートすることができ、第1のユーザは、システムがバックグラウンドにおいて第2のユーザの対応する第2の電話との電話接続を維持している間、対応する第1の電話と対話することができる。対応する第1の電話をアクティブ状態に維持することについて、本明細書で(例えば、図2に関して)より詳細に説明している。
ブロック350bにおいて、システムは、第2のユーザが電話通話に再参加したと判定する。システムは、第2のユーザが通話に再参加したことを判定することができる。いくつかの実装形態において、システムは、第2のユーザのさらなるユーザ発話を検出したことに基づいて、第2のユーザが通話に再参加したと判定することができる。システムは、第2のユーザが通話に再参加したことを判定するために、音声活動検出器、音声認識器、および/または他の構成要素を使用することができる。それらの実装形態のいくつかのバージョンにおいて、システムは、音声識別を使用して、ユーザ発話が(すなわち、音楽が再生されている間に対応するオーディオデータ、対話型音声応答(IVR)システムのものに対応するオーディオデータなどとは対照的に)第2のユーザからのものであると判定することができる。第2のユーザが電話通話に再参加したと判定することについて、本明細書で(例えば、図2に関して)より詳細に説明している。特に、ブロック340bとブロック350bとの間に切れ目がある。この切れ目は、システムが、ブロック350bにおいて第2のユーザが電話通話に再参加することを積極的に監視しながら、ブロック340bにおいて電話通話のアクティブ状態を維持することができることを示す。
ブロック360bにおいて、第2のユーザが電話通話に再参加したと判定したことに基づいて、システムは、第2のユーザと、人間との電話での会話を行うように構成されたボットとの間の電話での会話を行う。システムは、第2のユーザが電話通話に再参加したときにユーザ発話を提供したと判定したことに応答して、ボットに合成音声を出力させることができる。いくつかの実装形態において、システムは、第1のユーザがまだ電話通話に再参加していないと判定したことに応答して、ボットに合成音声を出力させるだけである。合成音声は、ボットが会話におけるアクティブな参加者であり、第1のユーザの代わりであることを示すことができる。いくつかの追加のおよび/または代替の実装形態において、ボットは、電話通話中に第2のユーザに伝達されるべき情報ポイント(例えば、名前情報、アドレス情報、アカウント情報、および/または第1のユーザに関連付けられた他の情報)を含む合成音声を出力することができる。ボットと第2のユーザとの間で電話での会話を行うことについて、本明細書で(例えば、図2に関して)より詳細に説明している。
ブロック370bにおいて、第2のユーザとボットとの間で電話での会話を行っている間、システムは、対応する第1の電話への出力のために、第1のユーザが電話通話に再参加するための通知を提供する。第1のユーザのための通知は、第2のユーザが通話に再参加したことを示すことができ、例えば、対応する第1の電話においてレンダリングされる可聴および/または視覚的通知を含むことができる。さらに、ブロック360bにおいて出力される合成音声は、第1のユーザが、第2のユーザが電話通話に再参加したことを通知されたことを示すことができる。いくつかの実装形態において、通知は、第2のユーザが電話通話に再参加した後の第2のユーザのユーザ発話および/またはボットの合成音声のトランスクリプション(および/またはそれに対応するオーディオデータ)をさらに含むことができる。第1のユーザが電話通話に再参加するための通知を提供することについて、本明細書で(例えば、図2に関して)より詳細に説明している。
ブロック380bにおいて、システムは、第1のユーザが電話通話に再参加したと判定する。システムは、対応する第1の電話が第2の状態から、第1のユーザがここで会話におけるアクティブな参加者であることを示す第3の状態に遷移したことに基づいて、第1のユーザが電話通話に再参加したと判定することができる。第1のユーザが電話通話に再参加したと判定することについて、本明細書で(例えば、図2に関して)より詳細に説明している。
ブロック390bにおいて、第1のユーザが電話通話に再参加したと判定したことに基づいて、システムは、第2のユーザとボットとの間で電話での会話を行うことを中止する。ボットは、第1のユーザが電話通話に再参加したとの判定に応答して、電話での会話を行うことを停止することができる。いくつかの実装形態において、第1のユーザが通話に再参加したときにボットが合成音声を出力している場合、ボットは、(例えば一時停止挿入器142に関して図1で論じたのと同様に)合成音声の出力を終了したとき、および/または合成音声における自然な一時停止に達したときに、合成音声を提供することを中止することができる。電話での会話を行うことを中止することについて、本明細書で(例えば、図2に関して)より詳細に説明している。
図4は、ここで説明されている技法を実装するために使用することができるコンピューティングデバイス400およびモバイルコンピューティングデバイス450の例を示す。コンピューティングデバイス400は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを意図している。モバイルコンピューティングデバイス450は、携帯情報端末、携帯電話、スマートフォン、および他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すことを意図している。ここに示す構成要素、それらの接続および関係、ならびにそれらの機能は、単なる例であることを意味しており、限定であることを意味していない。
コンピューティングデバイス400は、プロセッサ402と、メモリ404と、記憶デバイス406と、メモリ404および複数の高速拡張ポート410に接続する高速インターフェース408と、低速拡張ポート414および記憶デバイス406に接続する低速インターフェース412とを含む。プロセッサ402、メモリ404、記憶デバイス406、高速インターフェース408、高速拡張ポート410、および低速インターフェース412の各々は、様々なバスを使用して相互接続され、一般的なマザーボード上に取り付けられるか、または必要に応じて他の方法で取り付けられてもよい。プロセッサ402は、高速インターフェース408に結合されたディスプレイ416などの外部入力/出力デバイス上にGUIのためのグラフィカル情報を表示するために、メモリ404内または記憶デバイス406上に記憶された命令を含む、コンピューティングデバイス400内で実行するための命令を処理することができる。他の実装形態において、必要に応じて、複数のメモリおよびメモリのタイプとともに、複数のプロセッサおよび/または複数のバスが使用されてもよい。また、(例えば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)複数のコンピューティングデバイスが接続され、各デバイスが必要な動作の一部を提供してもよい。
メモリ404は、コンピューティングデバイス400内の情報を記憶する。いくつかの実装形態において、メモリ404は、揮発性メモリユニットである。いくつかの実装形態において、メモリ404は、不揮発性メモリユニットである。メモリ404は、磁気ディスクまたは光ディスクなどの別の形態のコンピュータ可読媒体であってもよい。
記憶デバイス406は、コンピューティングデバイス400のための大容量ストレージを提供することができる。いくつかの実装形態において、記憶デバイス406は、フロッピーディスクデバイス、ハードディスクデバイス、光ディスクデバイス、もしくはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、またはストレージエリアネットワークもしくは他の構成においてデバイスを含むデバイスのアレイなどのコンピュータ可読媒体であるか、またはそれらを含んでもよい。命令は、情報キャリア内に記憶することができる。命令は、1つまたは複数の処理デバイス(例えば、プロセッサ402)によって実行されると、上記で説明した方法などの1つまたは複数の方法を実行する。命令は、コンピュータまたは機械可読媒体(例えば、メモリ404、記憶デバイス406、またはプロセッサ402上のメモリ)などの1つまたは複数の記憶デバイスによって記憶することもできる。
高速インターフェース408は、コンピューティングデバイス400のための帯域集約的な動作を管理し、低速インターフェース412は、より低い帯域集約的な動作を管理する。そのような機能の割り当ては、単なる例である。いくつかの実装形態において、高速インターフェース408は、メモリ404、(例えば、グラフィックプロセッサまたはアクセラレータを介して)ディスプレイ416、および様々な拡張カード(図示せず)を受け入れてもよい高速拡張ポート410に結合される。実装形態において、低速インターフェース412は、記憶デバイス406および低速拡張ポート414に結合される。様々な通信ポート(例えば、USB、Bluetooth、イーサネット、ワイヤレスイーサネット)を含んでもよい低速拡張ポート414は、キーボード、ポインティングデバイス、スキャナ、または、例えば、ネットワークアダプタを介してスイッチもしくはルータなどのネットワーキングデバイスなどの、1つまたは複数の入力/出力デバイスに結合されてもよい。
コンピューティングデバイス400は、図に示すように、いくつかの異なる形態において実装されてもよい。例えば、標準的なサーバ420として実装されてもよく、またはそのようなサーバのグループにおいて複数回実装されてもよい。加えて、それは、ラップトップコンピュータ422のようなパーソナルコンピュータにおいて実装されてもよい。それはまた、ラックサーバシステム424の一部として実装されてもよい。代替的には、コンピューティングデバイス400からの構成要素は、モバイルコンピューティングデバイス450などのモバイルデバイス(図示せず)内の他の構成要素と組み合わされてもよい。そのようなデバイスの各々は、コンピューティングデバイス400およびモバイルコンピューティングデバイス450のうちの1つまたは複数を含んでもよく、システム全体は、互いに通信する複数のコンピューティングデバイスから構成されてもよい。
モバイルコンピューティングデバイス450は、数ある構成要素の中で、プロセッサ452と、メモリ464と、ディスプレイ454などの入力/出力デバイスと、通信インターフェース466と、トランシーバ468とを含む。モバイルコンピューティングデバイス450はまた、追加のストレージを提供するために、マイクロドライブまたは他のデバイスなどの記憶デバイスを設けてもよい。プロセッサ452、メモリ464、ディスプレイ454、通信インターフェース466、およびトランシーバ468の各々は、様々なバスを使用して相互接続され、構成要素のうちのいくつかは、一般的なマザーボード上に取り付けられるか、または必要に応じて他の方法で取り付けられてもよい。
プロセッサ452は、メモリ464内に記憶された命令を含む、モバイルコンピューティングデバイス450内の命令を実行することができる。プロセッサ452は、別個の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実装されてもよい。プロセッサ452は、例えば、ユーザインターフェースの制御、モバイルコンピューティングデバイス450によって実行されるアプリケーション、およびモバイルコンピューティングデバイス450によるワイヤレス通信などの、モバイルコンピューティングデバイス450の他の構成要素の調整を提供してもよい。
プロセッサ452は、ディスプレイ454に結合された制御インターフェース458およびディスプレイインターフェース456を介してユーザと通信してもよい。ディスプレイ454は、例えば、TFT(薄膜トランジスタ液晶ディスプレイ)ディスプレイ、もしくはOLED(有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であってもよい。ディスプレイインターフェース456は、グラフィカル情報および他の情報をユーザに提示するためにディスプレイ454を駆動するための適切な回路を備えてもよい。制御インターフェース458は、ユーザからコマンドを受信し、それらをプロセッサ452に提出するために変換してもよい。加えて、外部インターフェース462は、他のデバイスとモバイルコンピューティングデバイス450との近距離通信を可能にするように、プロセッサ452との通信を提供してもよい。外部インターフェース462は、例えば、いくつかの実装形態では有線通信、または他の実装形態ではワイヤレス通信を提供してもよく、また、複数のインターフェースが使用されてもよい。
メモリ464は、モバイルコンピューティングデバイス450内の情報を記憶する。メモリ464は、コンピュータ可読媒体、揮発性メモリユニット、または不揮発性メモリユニットのうちの1つまたは複数として実装することができる。また、拡張メモリ474が設けられ、例えば、SIMM(シングルインラインメモリモジュール)カードインターフェースを含んでもよい拡張メモリインターフェース472を介して、モバイルコンピューティングデバイス450に接続されてもよい。拡張メモリ474は、モバイルコンピューティング450のための追加の記憶空間を提供してもよく、またはモバイルコンピューティングデバイス450のためのアプリケーションもしくは他の情報を記憶してもよい。具体的には、拡張メモリ474は、上記で説明したプロセスを実行または補足するための命令を含んでもよく、また、安全な情報を含んでもよい。したがって、例えば、拡張メモリ474は、モバイルコンピューティングデバイス450のためのセキュリティモジュールとして設けられてもよく、モバイルコンピューティングデバイス450の安全な使用を可能にする命令でプログラムされてもよい。加えて、安全なアプリケーションが、識別情報をハッキングできない方法でSIMMカード上に配置するなどして、追加情報とともにSIMMカードを介して提供されてもよい。
メモリは、例えば、上記で論じたように、フラッシュメモリおよび/またはNVRAMメモリ(不揮発性ランダムアクセスメモリ)を含んでもよい。いくつかの実装形態において、命令は、情報キャリア内に記憶される。命令は、1つまたは複数の処理デバイス(例えば、プロセッサ452)によって実行されると、上記で説明した方法などの1つまたは複数の方法を実行する。命令はまた、1つまたは複数のコンピュータまたは機械可読媒体(例えば、メモリ464、拡張メモリ474、またはプロセッサ452上のメモリ)などの1つまたは複数の記憶デバイスによって記憶することもできる。いくつかの実装形態において、命令は、例えば、トランシーバ468または外部インターフェース462を介して、伝搬信号において受信することができる。
モバイルコンピューティングデバイス450は、必要に応じてデジタル信号処理回路を含んでもよい通信インターフェース466を介してワイヤレスで通信してもよい。通信インターフェース466は、とりわけ、GSM音声通話(汎欧州デジタル移動電話方式)、SMS(ショートメッセージサービス)、EMS(拡張メッセージングサービス)、もしくはMMSメッセージング(マルチメディアメッセージングサービス)、CDMA(符号分割多元接続)、TDMA(時分割多元接続)、PDC(パーソナルデジタルセルラ)、WCDMA(登録商標)(広帯域符号分割多元接続)、CDMA2000、またはGPRS(汎用パケット無線サービス)などの、様々なモードまたはプロトコルの下での通信を提供してもよい。そのような通信は、例えば、無線周波数を使用するトランシーバ468を介して発生してもよい。加えて、Bluetooth、WiFi、または他のそのようなトランシーバ(図示せず)などを使用して、短距離通信が発生してもよい。加えて、GPS(全地球測位システム)レシーバモジュール470は、追加のナビゲーションおよび位置関連のワイヤレスデータをモバイルコンピューティングデバイス450に提供してもよく、このワイヤレスデータは、モバイルコンピューティングデバイス450上で実行されるアプリケーションによって適宜使用されてもよい。
モバイルコンピューティングデバイス450はまた、オーディオコーデック460を使用して聴覚的に通信してもよく、オーディオコーデック460は、ユーザから発話情報を受信し、それを使用可能なデジタル情報に変換してもよい。オーディオコーデック460は、同様に、例えば、モバイルコンピューティングデバイス450のハンドセット内のスピーカを介するなどして、ユーザのための可聴音を生成してもよい。そのような音は、音声電話通話からの音を含んでもよく、録音された音(例えば、音声メッセージ、音楽ファイルなど)を含んでもよく、また、モバイルコンピューティングデバイス450上で動作するアプリケーションによって生成された音を含んでもよい。
モバイルコンピューティングデバイス450は、図に示すように、いくつかの異なる形態において実装されてもよい。例えば、モバイルコンピューティングデバイス450は、携帯電話480として実装されてもよい。モバイルコンピューティングデバイス450はまた、スマートフォン482、携帯情報端末、または他の同様のモバイルデバイスの一部として実装されてもよい。
本明細書で説明されているシステムおよび技法の様々な実装形態は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せにおいて実現することができる。これらの様々な実装形態は、記憶システムからデータおよび命令を受信し、記憶システムにデータおよび命令を送信するように結合された、専用または汎用であってもよい少なくとも1つのプログラム可能なプロセッサと、少なくとも1つの入力デバイスと、少なくとも1つの出力デバイスとを含むプログラム可能なシステム上で実行可能および/または解釈可能な1つまたは複数のコンピュータプログラムにおける実装形態を含むことができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られる)は、プログラム可能なプロセッサのための機械命令を含み、高水準の手続き型および/もしくはオブジェクト指向プログラミング言語において、ならびに/またはアセンブリ/機械語において実装することができる。本明細書で使用されている場合、機械可読媒体およびコンピュータ可読媒体という用語は、機械可読信号として機械命令を受信する機械可読媒体を含む、機械命令および/またはデータをプログラム可能プロセッサに提供するために使用される任意のコンピュータプログラム製品、装置、および/またはデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指す。機械可読信号という用語は、機械命令および/またはデータをプログラム可能なプロセッサに提供するために使用される任意の信号を指す。
ユーザとの対話を提供するために、本明細書で説明されているシステムおよび技法は、情報をユーザに表示するためのディスプレイデバイス(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、ユーザが入力をコンピュータに提供することができるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを有するコンピュータ上に実装することができる。同様にユーザとの対話を提供するために他の種類のデバイスを使用することができ、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚的フィードバック、聴覚的フィードバック、または触覚的フィードバック)とすることができ、ユーザからの入力は、音響、音声、または触覚入力を含む任意の形式において受信することができる。
本明細書で説明されているシステムおよび技法は、バックエンド構成要素(例えば、データサーバとして)を含むコンピューティングシステム、またはミドルウェア構成要素(例えば、アプリケーションサーバ)を含むコンピューティングシステム、またはフロントエンド構成要素(例えば、ユーザが本明細書で説明されているシステムおよび技法の実装形態と対話することができるグラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータ)を含むコンピューティングシステム、またはそのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムにおいて実装することができる。システムの構成要素は、任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、およびインターネットを含む。いくつかの実装形態において、本明細書で説明されているシステムおよび技法は、音声認識および他の処理がデバイス上で直接実行される組み込みシステム上に実装することができる。
コンピューティングシステムは、クライアントとサーバとを含むことができる。クライアントおよびサーバは、一般に、互いに離れた場所にあり、通常、通信ネットワークを介して対話する。クライアントおよびサーバの関係は、それぞれのコンピュータ上で実行され、互いにクライアント~サーバの関係を有するコンピュータプログラムによって生じる。
いくつかの実装形態について上記で詳細に説明したが、他の変更が可能である。例えば、クライアントアプリケーションについて、デリゲート(delegate)にアクセスするものとして説明したが、他の実装形態において、デリゲートは、1つまたは複数のサーバ上で実行されるアプリケーションなどの、1つまたは複数のプロセッサによって実装される他のアプリケーションによって使用されてもよい。加えて、図に示す論理フローは、所望の結果を達成するために、示されている特定の順序、または連続した順序を必要としない。加えて、他のアクションが提供されてもよく、または説明したフローからアクションが削除されてもよく、説明したシステムに他の構成要素が追加されてもよく、または説明したシステムから削除されてもよい。したがって、他の実装形態は、添付の特許請求の範囲内にある。
100 システム
102 代表者
104 通話開始システム
106 情報ポイント
108 電話
110 発話
112 音声認識器
114 トランスクリプション生成器
116 音声合成器
118 合成音声
120 発話
122 提供された日時
124 要求された予約
126 提供されたパーティサイズ
128 合成音声
130 発話、割り込み発話
132 割り込み検出器
136 割り込み分類器
138 割り込みタイプ
142 一時停止挿入器
144 合成音声
146 発話
200 システム
202 第1のユーザ
204 第2のユーザ
206 電話
208 電話
210 通話監視システム
212 発話
214 発話
216 発話
218 合成音声
220 発話
222 発話
224 オーディオデータ
226 第1の状態
228 第2の状態
230 第3の状態
234 通知
236 通話モニタ
238 保留検出器
240 トランスクリプション生成器
242 通知生成器
244 音声認識器
246 音声合成器
248 情報ポイント
400 コンピューティングデバイス
402 プロセッサ
404 メモリ
406 記憶デバイス
408 高速インターフェース
410 高速拡張ポート
412 低速インターフェース
414 低速拡張ポート
416 ディスプレイ
420 サーバ
422 ラップトップコンピュータ
424 ラックサーバシステム
450 モバイルコンピューティングデバイス
452 プロセッサ
454 ディスプレイ
456 ディスプレイインターフェース
458 制御インターフェース
460 オーディオコーデック
462 外部インターフェース
464 メモリ
466 通信インターフェース
468 トランシーバ
470 GPS(全地球測位システム)レシーバモジュール
472 拡張メモリインターフェース
474 拡張メモリ
480 携帯電話
482 スマートフォン

Claims (15)

1つまたは複数のプロセッサによって実装される方法であって、
ボットを使用してユーザとの電話通話を開始するステップであって、前記ボットが、電話通話を開始し、電話での会話を行うように構成されている、ステップと、
前記ユーザの対応するコンピューティングデバイスにおける出力のために、前記ボットの合成音声を提供するステップと、
前記ボットの前記合成音声を提供している間、
前記ユーザから、前記ボットの前記合成音声に割り込むユーザ発話を受信するステップと、
前記合成音声に割り込む前記ユーザ発話の受信に応答して、前記受信したユーザ発話を所与のタイプの割り込みとして分類するステップであって、前記所与のタイプの割り込みが、複数の異なるタイプの割り込みのうちの1つであ前記複数の異なるタイプの割り込みが、無意味な割り込み、重要ではない意味のある割り込み、および重要な意味のある割り込みを少なくとも含む、ステップと、
(1)前記ユーザ発話を前記無意味な割り込みとして分類することに基づいて、前記ユーザの前記対応するコンピューティングデバイスにおける出力のために、前記ボットの前記合成音声を提供し続けること、
(2)前記ユーザ発話を前記重要ではない意味のある割り込みとして分類することに基づいて、出力のために、前記受信したユーザ発話に応答した、まだ提供されていない前記合成音声の追加部分を提供することを開始すること、または出力のために、前記ボットの前記合成音声の残りの部分を提供し続けること、あるいは、
(3)前記ユーザ発話を前記重要な意味のある割り込みとして分類することに基づいて、前記ユーザの前記対応するコンピューティングデバイスにおける出力のために、前記ボットの前記合成音声を提供することを中止すること
を決定するステップと
を含む、方法。
前記所与のタイプの割り込みが前記無意味な割り込みであり、前記受信したユーザ発話を前記無意味な割り込みとして分類するステップが、
前記受信したユーザ発話が、背景雑音、肯定の単語もしくは句、またはフィラー単語もしくは句のうちの1つまたは複数を含むことを判定するために、前記受信したユーザ発話に対応するオーディオデータまたは前記受信したユーザ発話に対応するトランスクリプションを処理するステップと、
前記受信したユーザ発話が、背景雑音、肯定の単語もしくは句、またはフィラー単語もしくは句のうちの1つまたは複数を含むと判定したことに基づいて、前記受信したユーザ発話を前記無意味な割り込みとして分類するステップと
を含む、
請求項1に記載の方法。
前記所与のタイプの割り込みが前記重要ではない意味のある割り込みであり、前記受信したユーザ発話を前記重要ではない意味のある割り込みとして分類するステップが、
前記ボットによって知られており、まだ提供されていない情報に対する要求を前記受信したユーザ発話が含むことを判定するために、前記受信したユーザ発話に対応するオーディオデータまたは前記受信したユーザ発話に対応するトランスクリプションを処理するステップと、
前記ボットによって知られており、まだ提供されていない前記情報に対する前記要求を前記受信したユーザ発話が含むと判定したことに基づいて、前記受信したユーザ発話を前記重要ではない意味のある割り込みとして分類するステップと
を含む、
請求項1に記載の方法。
前記受信したユーザ発話に応答した前記ボットの前記合成音声の前記追加部分を提供することを開始することを決定することは、
出力のために前記ボットの前記合成音声を提供することを中止するための、前記合成音声の前記残りの部分における時間的ポイントを決定することと、
前記合成音声の前記残りの部分が前記受信した発話に応答するかどうかを判定することと、
前記残りの部分が前記受信したユーザ発話に応答しないとの判定に応答して、
出力のために、前記受信したユーザ発話に応答した、まだ提供されていない前記合成音声の前記追加部分を提供することを開始することと、
出力のために、前記合成音声の前記追加部分を提供した後、出力のために、前記時間的ポイントから前記ボットの前記合成音声の前記残りの部分を提供し続けること
を含む、
請求項3に記載の方法。
前記残りの部分が前記受信したユーザ発話に応答するとの判定に応答して、
出力のために、前記時間的ポイントから前記ボットの前記合成音声の前記残りの部分を提供し続けるステップをさらに含む、
請求項4に記載の方法。
前記所与のタイプの割り込みが前記重要な意味のある割り込みであり、前記受信したユーザ発話を前記重要な意味のある割り込みとして分類するステップが、
前記受信したユーザ発話が、前記ボットが前記合成音声を繰り返すことに対する要求、または前記ボットを保留にする要求を含むことを判定するために、前記受信したユーザ発話に対応するオーディオデータまたは前記受信したユーザ発話に対応するトランスクリプションを処理するステップと、
前記受信したユーザ発話が、前記ボットが前記合成音声を繰り返すことに対する前記要求、または前記ボットを保留にする前記要求を含むと判定したことに基づいて、前記受信したユーザ発話を前記重要ではない意味のある割り込みとして分類するステップと
を含む、
請求項1に記載の方法。
前記ボットの前記合成音声を提供することを中止すると決定するステップが、
出力のために、前記ボットの前記合成音声の現在の単語または用語の残りの部分を提供するステップと、
出力のために、前記現在の単語または用語の前記残りの部分を提供した後に、出力のために、前記ボットの前記合成音声を提供することを中止するステップと
を含む、
請求項6に記載の方法。
前記受信したユーザ発話を前記所与のタイプの割り込みとして分類するステップが、
前記所与のタイプの割り込みを判定するために、機械学習モデルを使用して、前記受信したユーザ発話に対応するオーディオデータまたは前記受信したユーザ発話に対応するトランスクリプションを処理するステップを含む、
請求項1に記載の方法。
複数のトレーニングインスタンスを使用して前記機械学習モデルをトレーニングするステップをさらに含み、前記トレーニングインスタンスの各々が、トレーニングインスタンス入力と、対応するトレーニングインスタンス出力とを含み、
各トレーニングインスタンス入力が、割り込み発話に対応するトレーニングオーディオデータまたは前記割り込み発話に対応するトランスクリプションを含み、
各対応するトレーニングインスタンス出力が、前記割り込み発話内に含まれる割り込みの前記タイプに対応するグラウンドトゥルースラベルを含む、
請求項8に記載の方法。
前記機械学習モデルを使用して、前記受信したユーザ発話に対応する前記オーディオデータまたは前記受信したユーザ発話に対応する前記トランスクリプションを処理するステップが、前記ユーザ発話が前記オーディオデータまたは前記トランスクリプションとともに受信されたときに出力されている前記合成音声を処理するステップをさらに含む、請求項8に記載の方法。
前記受信したユーザ発話を前記所与のタイプの割り込みとして分類するステップが、
前記受信したユーザ発話のトークンを、前記複数の異なる割り込みタイプの各々に関連付けられた1つまたは複数の用語と一致させる1つまたは複数のルールを使用して、前記受信したユーザ発話に対応するオーディオデータまたは前記受信したユーザ発話に対応するトランスクリプションを処理するステップを含む、
請求項1に記載の方法。
前記ボットを使用して前記ユーザとの前記電話通話を開始するステップが、前記電話通話を開始するために、前記ボットに関連付けられた所与のユーザからユーザ入力を受信することに応答する、請求項1に記載の方法。
前記電話通話を開始するための前記ユーザ入力が、前記ユーザの前記対応するコンピューティングデバイスにおける出力のために提供される前記合成音声内に含まれるべきである情報ポイントを含む、請求項12に記載の方法。
1つまたは複数のコンピュータと、
前記1つまたは複数のコンピュータによって実行されたときに、前記1つまたは複数のコンピュータに請求項1から13のいずれか一項に記載の方法を実行させるように動作可能な命令を記憶した1つまたは複数の記憶デバイスと
を備えるシステム。
1つまたは複数のコンピュータによって実行可能であり、実行時に、前記1つまたは複数のコンピュータに請求項1から13のいずれか一項に記載の方法を実行させる命令を備えるソフトウェアを記憶した非一時的なコンピュータ可読記録媒体。
JP2021544219A 2019-05-06 2020-05-05 自動通話システム Active JP7167357B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022165657A JP7463469B2 (ja) 2019-05-06 2022-10-14 自動通話システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962843660P 2019-05-06 2019-05-06
US62/843,660 2019-05-06
PCT/US2020/031507 WO2020227313A1 (en) 2019-05-06 2020-05-05 Automated calling system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022165657A Division JP7463469B2 (ja) 2019-05-06 2022-10-14 自動通話システム

Publications (2)

Publication Number Publication Date
JP2022532008A JP2022532008A (ja) 2022-07-13
JP7167357B2 true JP7167357B2 (ja) 2022-11-08

Family

ID=70969011

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021544219A Active JP7167357B2 (ja) 2019-05-06 2020-05-05 自動通話システム
JP2022165657A Active JP7463469B2 (ja) 2019-05-06 2022-10-14 自動通話システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022165657A Active JP7463469B2 (ja) 2019-05-06 2022-10-14 自動通話システム

Country Status (6)

Country Link
US (2) US11468893B2 (ja)
EP (1) EP3924962A1 (ja)
JP (2) JP7167357B2 (ja)
KR (1) KR20210114480A (ja)
CN (1) CN113424513A (ja)
WO (1) WO2020227313A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908450B2 (en) * 2020-05-26 2024-02-20 Servicenow, Inc. Dynamic translation for a conversation
CN114328867A (zh) * 2021-12-24 2022-04-12 零犀(北京)科技有限公司 一种人机对话中智能打断的方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030083874A1 (en) 2001-10-26 2003-05-01 Crane Matthew D. Non-target barge-in detection
US20170358296A1 (en) 2016-06-13 2017-12-14 Google Inc. Escalation to a human operator

Family Cites Families (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5315636A (en) 1991-06-28 1994-05-24 Network Access Corporation Personal telecommunications system
US5815566A (en) 1991-10-10 1998-09-29 Executone Information Systems, Inc. Apparatus and method for dynamic inbound/outbound call management and for scheduling appointments
US5333133A (en) * 1992-04-28 1994-07-26 Teloquent Communications Corporation Call processing control system
JPH11500277A (ja) * 1995-02-15 1999-01-06 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 音声活性度検出
US5946378A (en) * 1996-07-26 1999-08-31 Ag Communication Systems Corporation Information on hold telephony service
US6377567B1 (en) 1997-07-16 2002-04-23 Mci Communications Corporation System and method for distributing data collected from call center services
US6304653B1 (en) 1998-12-04 2001-10-16 At&T Corp. Method and apparatus for intelligent data network call setup
US7792773B2 (en) 2002-10-23 2010-09-07 Genesys Telecommunications Laboratories, Inc. Method and system for enabling automated and real-time discovery of skills available to agents and systems in a multimedia communications network
US6731725B1 (en) 1999-06-28 2004-05-04 Keith A. Merwin Computerized system for the receipt, recordation, scheduling and redelivery of telephone messages
US6922465B1 (en) 1999-10-14 2005-07-26 Gte Mobilnet Incorporated Method and system for reporting events in telecommunication networks
GB9928011D0 (en) 1999-11-27 2000-01-26 Ibm Voice processing system
US7539656B2 (en) 2000-03-06 2009-05-26 Consona Crm Inc. System and method for providing an intelligent multi-step dialog with a user
US6757362B1 (en) 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
CA2310187A1 (en) 2000-06-02 2001-12-02 Daniel Wilk Method and system for call holding
US6574595B1 (en) * 2000-07-11 2003-06-03 Lucent Technologies Inc. Method and apparatus for recognition-based barge-in detection in the context of subword-based automatic speech recognition
WO2002019317A1 (en) 2000-09-01 2002-03-07 Eliza Corporation Sppech recognition method and system to determine the status of an outbound telephone call
US7299259B2 (en) 2000-11-08 2007-11-20 Genesys Telecommunications Laboratories, Inc. Method and apparatus for intelligent routing of instant messaging presence protocol (IMPP) events among a group of customer service representatives
US20030009530A1 (en) 2000-11-08 2003-01-09 Laurent Philonenko Instant message presence protocol for facilitating communication center activity
AU2002344786A1 (en) 2001-06-18 2003-01-02 Jeffrey L. Crandell Apparatus, systems and methods for managing incoming and outgoing communication
US7609829B2 (en) 2001-07-03 2009-10-27 Apptera, Inc. Multi-platform capable inference engine and universal grammar language adapter for intelligent voice application execution
US7362854B2 (en) 2001-09-28 2008-04-22 Gateway Inc. Portable electronic device having integrated telephony and calendar functions
US6771746B2 (en) 2002-05-16 2004-08-03 Rockwell Electronic Commerce Technologies, Llc Method and apparatus for agent optimization using speech synthesis and recognition
CA2429171C (en) 2002-06-27 2016-05-17 Yi Tang Voice controlled business scheduling system and method
US20040213384A1 (en) 2003-04-23 2004-10-28 Alles Harold Gene Remote access, control, and support of home automation system
US20050147227A1 (en) 2003-12-31 2005-07-07 France Telecom, S.A. Method and system for alerting call participant of a change in a call hold status
WO2005067595A2 (en) 2004-01-05 2005-07-28 Tools For Health, Inc. System for remote control of an automated call system
ATE415684T1 (de) * 2004-01-29 2008-12-15 Harman Becker Automotive Sys Verfahren und system zur sprachdialogschnittstelle
US7697026B2 (en) 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US7084758B1 (en) 2004-03-19 2006-08-01 Advanced Micro Devices, Inc. Location-based reminders
US7933260B2 (en) 2004-06-29 2011-04-26 Damaka, Inc. System and method for routing and communicating in a heterogeneous network environment
US7965829B2 (en) * 2004-07-30 2011-06-21 At&T Intellectual Property I, L.P. Subscriber alterable call transfer service
US7646858B2 (en) 2004-08-06 2010-01-12 Powerphone, Inc. Protocol builder for a call handling system
US8185399B2 (en) 2005-01-05 2012-05-22 At&T Intellectual Property Ii, L.P. System and method of providing an automated data-collection in spoken dialog systems
US20060215824A1 (en) 2005-03-28 2006-09-28 David Mitby System and method for handling a voice prompted conversation
US7869583B2 (en) 2005-08-05 2011-01-11 International Business Machines Corporation Real time meeting setup service
EP1855451A4 (en) 2005-08-22 2009-06-17 Panasonic Corp PORTABLE COMMUNICATION TERMINAL
US20070047711A1 (en) * 2005-08-31 2007-03-01 Cynthia Florkey Personalized on-hold music
CN101449569A (zh) 2005-12-06 2009-06-03 丹尼尔·J·辛普森 交互式自然语言呼叫系统
US7587031B1 (en) * 2005-12-22 2009-09-08 Nortel Networks Limited Forced hold call handling in a VoP environment
JP4197344B2 (ja) 2006-02-20 2008-12-17 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声対話システム
JP2008015439A (ja) 2006-07-07 2008-01-24 Takashi I 音声認識システム
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7974610B2 (en) * 2006-11-17 2011-07-05 Comverse Ltd. Persistence of interrupted calls
US20080158000A1 (en) 2006-12-28 2008-07-03 Mattrazzo Daniel C Autodetect of user presence using a sensor
US20080181371A1 (en) * 2007-01-30 2008-07-31 Eliza Corporation Systems and Methods for Producing Build Calls
JP4311458B2 (ja) 2007-02-27 2009-08-12 ブラザー工業株式会社 コントロール配置情報設定装置及びコンピュータプログラム
US8022807B2 (en) 2007-06-15 2011-09-20 Alarm.Com Incorporated Alarm system with two-way voice
US8774387B2 (en) 2007-06-20 2014-07-08 At&T Intellectual Property Ii, Lp System and method for avoiding hold times on a telephone call
US20090022293A1 (en) 2007-07-18 2009-01-22 Routt Karen E Telecommunications System for Monitoring and for Enabling a Communication Chain between Care Givers and Benefactors and for Providing Alert Notification to Designated Recipients
US9591086B2 (en) 2007-07-25 2017-03-07 Yahoo! Inc. Display of information in electronic communications
US8676273B1 (en) 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
US7945456B2 (en) 2007-10-01 2011-05-17 American Well Corporation Documenting remote engagements
US20090089100A1 (en) 2007-10-01 2009-04-02 Valeriy Nenov Clinical information system
US8000971B2 (en) * 2007-10-31 2011-08-16 At&T Intellectual Property I, L.P. Discriminative training of multi-state barge-in models for speech processing
WO2009067719A2 (en) 2007-11-23 2009-05-28 Foncloud, Inc. Method for determining the on-hold status in a call
JP5189858B2 (ja) 2008-03-03 2013-04-24 アルパイン株式会社 音声認識装置
US7734029B2 (en) 2008-03-17 2010-06-08 Transcend Products, Llc Apparatus, system, and method for automated call initiation
US9008628B2 (en) 2008-05-19 2015-04-14 Tbm, Llc Interactive voice access and notification system
US20140279050A1 (en) 2008-05-21 2014-09-18 The Delfin Project, Inc. Dynamic chatbot
US20110170681A1 (en) * 2008-09-08 2011-07-14 Ryan Kole On hold call back telephone feature
US9003300B2 (en) 2008-10-03 2015-04-07 International Business Machines Corporation Voice response unit proxy utilizing dynamic web interaction
US8644488B2 (en) 2008-10-27 2014-02-04 Nuance Communications, Inc. System and method for automatically generating adaptive interaction logs from customer interaction text
US8943394B2 (en) 2008-11-19 2015-01-27 Robert Bosch Gmbh System and method for interacting with live agents in an automated call center
US20100228590A1 (en) 2009-03-03 2010-09-09 International Business Machines Corporation Context-aware electronic social networking
US8363818B2 (en) 2009-05-29 2013-01-29 Apple Inc. On-hold call monitoring systems and methods
US8611876B2 (en) 2009-10-15 2013-12-17 Larry Miller Configurable phone with interactive voice response engine
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8903073B2 (en) 2011-07-20 2014-12-02 Zvi Or-Bach Systems and methods for visual presentation and selection of IVR menu
US20110270687A1 (en) 2010-04-30 2011-11-03 Bazaz Gaurav Apparatus and method for controlled delivery of direct marketing messages
US8619965B1 (en) 2010-05-07 2013-12-31 Abraham & Son On-hold processing for telephonic systems
JP5549506B2 (ja) 2010-09-28 2014-07-16 富士通株式会社 音声認識装置及び音声認識方法
US8938058B2 (en) 2010-10-21 2015-01-20 Micro Macro Assets Llc System and method for providing sales and marketing acceleration and effectiveness
EP2630781B1 (en) 2010-10-21 2018-06-20 Micro Macro Assets LLC System and method for maximizing efficiency of call transfer speed
US20120109759A1 (en) 2010-10-27 2012-05-03 Yaron Oren Speech recognition system platform
US8520504B2 (en) 2010-12-10 2013-08-27 Cable Television Laboratories, Inc. Method and system of controlling state devices operable to support calls between endpoints
US8660543B2 (en) 2010-12-21 2014-02-25 Verizon Patent And Licensing Inc. Call management system
US8612233B2 (en) 2011-01-05 2013-12-17 International Business Machines Corporation Expert conversation builder
US20120271676A1 (en) 2011-04-25 2012-10-25 Murali Aravamudan System and method for an intelligent personal timeline assistant
EP2720614A1 (en) 2011-06-16 2014-04-23 Koninklijke Philips N.V. Spatial sampling improvement for list-mode pet acquisition using planned table/gantry movement
US8572264B2 (en) 2011-07-15 2013-10-29 American Express Travel Related Services Company, Inc. Systems and methods for state awareness across communication channels and statefully transitioning between communication channels
US20130060587A1 (en) 2011-09-02 2013-03-07 International Business Machines Corporation Determining best time to reach customers in a multi-channel world ensuring right party contact and increasing interaction likelihood
US20130090098A1 (en) 2011-10-10 2013-04-11 Arvind Gidwani Systems and methods for dialing into interactive voice systems with minimal user interaction
US9088650B2 (en) 2011-11-29 2015-07-21 Impact Dialing, Inc. Predictive dialing based on simulation
US20140200928A1 (en) 2011-12-15 2014-07-17 Advance Response, LLC. Methods and apparatus for automated web portal and voice system data aggregation
US8594297B2 (en) 2011-12-27 2013-11-26 Avaya Inc. System and method for enhanced call routing
US9033781B2 (en) 2011-12-30 2015-05-19 Mindforce Consulting, Llc Designing a real sports companion match-play crowdsourcing electronic game
US20140310365A1 (en) 2012-01-31 2014-10-16 Global Relay Communications Inc. System and Method for Tracking Messages in a Messaging Service
KR20130099423A (ko) 2012-02-29 2013-09-06 주식회사 예스피치 전문 상담원 안내 시스템 및 방법
US9990914B2 (en) * 2012-06-28 2018-06-05 Talkler Labs, LLC System and method for dynamically interacting with a mobile communication device by series of similar sequential barge in signals to interrupt audio playback
KR101959296B1 (ko) 2012-07-23 2019-03-18 삼성전자 주식회사 휴대단말의 통화 연결 방법 및 장치
KR101909141B1 (ko) 2012-07-27 2018-10-17 엘지전자 주식회사 전자기기 및 전자기기의 제어방법
JP6025037B2 (ja) 2012-10-25 2016-11-16 パナソニックIpマネジメント株式会社 音声エージェント装置、及びその制御方法
US20140122618A1 (en) 2012-10-26 2014-05-01 Xiaojiang Duan User-aided learning chatbot system and method
CN103795877A (zh) 2012-10-29 2014-05-14 殷程 智能语音
WO2014074119A1 (en) 2012-11-12 2014-05-15 ENORCOM Corporation Automated mobile system
KR101821358B1 (ko) 2013-01-22 2018-01-25 네이버 주식회사 다자간 메신저 서비스를 제공하는 방법 및 시스템
US9282157B2 (en) 2013-03-12 2016-03-08 Microsoft Technology Licensing, Llc Intermediary API for providing presence data to requesting clients
KR101543366B1 (ko) 2013-04-05 2015-08-11 포인트아이 주식회사 고객 감정 지수를 이용한 호 또는 상담원 평가 방법 및 장치
US9619298B2 (en) 2013-04-17 2017-04-11 Empire Technology Development Llc Scheduling computing tasks for multi-processor systems based on resource requirements
US9049274B2 (en) 2013-05-03 2015-06-02 James Siminoff System and method for automatic call scheduling
JP6180022B2 (ja) 2013-09-27 2017-08-16 株式会社日本総合研究所 コールセンタ応答制御システム及びその応答制御方法
US10075592B2 (en) 2013-11-19 2018-09-11 Gen3Ventures, LLC Intelligent call lead generation
US9189742B2 (en) 2013-11-20 2015-11-17 Justin London Adaptive virtual intelligent agent
US20150163610A1 (en) 2013-12-11 2015-06-11 Qualcomm Incorporated Audio keyword based control of media output
US9380159B2 (en) 2013-12-30 2016-06-28 Vonage America Inc. Method and system for informing a user that a call is no longer on hold
US10469663B2 (en) 2014-03-25 2019-11-05 Intellisist, Inc. Computer-implemented system and method for protecting sensitive information within a call center in real time
WO2015153761A2 (en) 2014-04-02 2015-10-08 University Of Rochester Macrocyclic peptidomimetics for alpha-helix mimicry
US10104225B2 (en) 2014-04-02 2018-10-16 Softbank Corp. Communication system and communication method
US9754284B2 (en) 2014-05-22 2017-09-05 Excalibur Ip, Llc System and method for event triggered search results
US10104178B2 (en) 2014-05-27 2018-10-16 Genesys Telecommunications Laboratories, Inc. System for managing communications activated by a trigger event
US20150347399A1 (en) 2014-05-27 2015-12-03 Microsoft Technology Licensing, Llc In-Call Translation
CN112102824A (zh) 2014-06-06 2020-12-18 谷歌有限责任公司 基于环境的主动聊天信息系统
US9473628B2 (en) 2014-07-17 2016-10-18 Verizon Patent And Licensing Inc. Method and system for providing communication hold status management
US9516167B2 (en) 2014-07-24 2016-12-06 Genesys Telecommunications Laboratories, Inc. Media channel management apparatus for network communications sessions
US9407762B2 (en) 2014-10-10 2016-08-02 Bank Of America Corporation Providing enhanced user authentication functionalities
CN105592237B (zh) 2014-10-24 2019-02-05 中国移动通信集团公司 一种会话切换的方法、装置及智能客服机器人
WO2016081373A1 (en) 2014-11-18 2016-05-26 Globally Tele-Connected, Llc System, maethod and computer program product for contact information backup and recovery
US10291776B2 (en) * 2015-01-06 2019-05-14 Cyara Solutions Pty Ltd Interactive voice response system crawler
US10091356B2 (en) 2015-01-06 2018-10-02 Cyara Solutions Pty Ltd Interactive voice response system crawler
US10250759B2 (en) 2015-01-16 2019-04-02 Ntt Docomo, Inc. Communication terminal device, outgoing call control method, and program
KR102217220B1 (ko) 2015-02-02 2021-02-18 삼성전자주식회사 통화 예약을 수행하는 전자 장치 및 방법
US20160277569A1 (en) 2015-03-16 2016-09-22 Tsemed Pitronot Ltd System and method for coordinating calls between two or more communication devices
CN106303102A (zh) * 2015-06-25 2017-01-04 阿里巴巴集团控股有限公司 自动化外呼方法、装置及系统
US9473637B1 (en) 2015-07-28 2016-10-18 Xerox Corporation Learning generation templates from dialog transcripts
US20170039194A1 (en) 2015-08-03 2017-02-09 EDCO Health Information Soultions, Inc. System and method for bundling digitized electronic records
US20170061091A1 (en) 2015-08-26 2017-03-02 Uptake Technologies, Inc. Indication of Outreach Options for Healthcare Facility to Facilitate Patient Actions
US20170177298A1 (en) 2015-12-22 2017-06-22 International Business Machines Corporation Interacting with a processing stsyem using interactive menu and non-verbal sound inputs
US20170289332A1 (en) 2016-03-30 2017-10-05 Tal Lavian Systems and Methods for Visual Presentation and Selection of IVR Menu
US10827064B2 (en) 2016-06-13 2020-11-03 Google Llc Automated call requests with status updates
US10593349B2 (en) 2016-06-16 2020-03-17 The George Washington University Emotional interaction apparatus
US20180133900A1 (en) 2016-11-15 2018-05-17 JIBO, Inc. Embodied dialog and embodied speech authoring tools for use with an expressive social robot
WO2018195875A1 (en) 2017-04-27 2018-11-01 Microsoft Technology Licensing, Llc Generating question-answer pairs for automated chatting
JP7273473B2 (ja) 2017-08-31 2023-05-15 Line株式会社 個人スケジュールおよびライフスタイルを反映した人工知能のコンタクト制御
CN109040485B (zh) * 2018-08-30 2020-08-28 山东高速股份有限公司 一种基于自然语言处理的高速服务热线智能全景语音导航系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030083874A1 (en) 2001-10-26 2003-05-01 Crane Matthew D. Non-target barge-in detection
US20170358296A1 (en) 2016-06-13 2017-12-14 Google Inc. Escalation to a human operator

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Nigel Crook et. al.,"Generating context-sensitive ECA responses to user barge-in interruptions",Journal on Multimodal User Interfaces,2012年

Also Published As

Publication number Publication date
KR20210114480A (ko) 2021-09-23
EP3924962A1 (en) 2021-12-22
JP7463469B2 (ja) 2024-04-08
JP2023002650A (ja) 2023-01-10
US20210335365A1 (en) 2021-10-28
US11468893B2 (en) 2022-10-11
CN113424513A (zh) 2021-09-21
US20230005482A1 (en) 2023-01-05
WO2020227313A1 (en) 2020-11-12
JP2022532008A (ja) 2022-07-13

Similar Documents

Publication Publication Date Title
US11521618B2 (en) Collaborative voice controlled devices
US10311872B2 (en) Utterance classifier
US20160293157A1 (en) Contextual Voice Action History
JP7463469B2 (ja) 自動通話システム
JP7136868B2 (ja) 話者ダイアライゼーション
CN107622768B (zh) 音频截剪器
EP4091161A1 (en) Synthesized speech audio data generated on behalf of human participant in conversation
US11676582B2 (en) Detecting conversations with computing devices
US20230395066A1 (en) Hot-word free pre-emption of automated assistant response presentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R150 Certificate of patent or registration of utility model

Ref document number: 7167357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150