JP2018181330A - 複数のインテリジェントパーソナルアシスタントサービスに対する管理レイヤ - Google Patents

複数のインテリジェントパーソナルアシスタントサービスに対する管理レイヤ Download PDF

Info

Publication number
JP2018181330A
JP2018181330A JP2018073256A JP2018073256A JP2018181330A JP 2018181330 A JP2018181330 A JP 2018181330A JP 2018073256 A JP2018073256 A JP 2018073256A JP 2018073256 A JP2018073256 A JP 2018073256A JP 2018181330 A JP2018181330 A JP 2018181330A
Authority
JP
Japan
Prior art keywords
ipa
audio signal
additional
processors
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018073256A
Other languages
English (en)
Other versions
JP7083270B2 (ja
Inventor
マン キム ソン
Seon Man Kim
マン キム ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman International Industries Inc
Original Assignee
Harman International Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman International Industries Inc filed Critical Harman International Industries Inc
Publication of JP2018181330A publication Critical patent/JP2018181330A/ja
Application granted granted Critical
Publication of JP7083270B2 publication Critical patent/JP7083270B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】複数のインテリジェントパーソナルアシスタント(IPA)サービスから起動するIPAサービスを選択するIPA管理アプリケーションを提供する。【解決手段】IPA管理アプリケーションは、ユーザの口頭発話に応じて生成された第1の音声信号を受信するステップ401と、第1の音声信号を解析し起動フレーズを検出するステップ402と、検出された起動フレーズを基に、IPAサービスを選択するステップ405と、第1の音声信号からクエリコンテンツを抽出するステップ406と、クエリコンテンツを基に、第2の音声信号を生成するステップ407と、第2の音声信号を前記IPAに送信するステップ408と、を含む。【選択図】図4

Description

本発明の実施形態は、概して、インテリジェントパーソナルアシスタントサービスに関し、より詳細には、複数のインテリジェントパーソナルアシスタントサービスに対する管理レイヤに関する。
インテリジェントパーソナルアシスタント(IPA)は、ユーザが提供する口頭入力を基に、ユーザに対してタスクまたはサービスを行うことができるソフトウェアエージェントまたは他のアプリケーションである。IPAは、発話要求を基にユーザに対して特定のタスクを行うことができ、これにより、ユーザは、タッチスクリーン、キーボード、マウスまたは他の入力デバイスを介して手動入力を提供する必要性がなくなる。例えば、ユーザは、IPAを介して様々なオンラインソースから情報(例えば、天気、交通状況、ニュース、株価、ユーザのスケジュール、小売価格等)にアクセスすることができる。さらに、ユーザは、IPAによって情報ベースのタスク(例えば、電子メール、カレンダイベント、ファイル、やることリスト及びその他の管理)を完了することができる。
近年、Microsoft Cortana(商標)、Apple Siri(商標)、Google Home(商標)及びAmazon Alexa(商標)など、様々な種類のIPAが消費者に広く使用されている。しかしながら、消費者が利用できるIPAサービスの数が増加するにつれ、問題が起こる可能性がある。具体的には、現在、ユーザは複数のIPAサービスでサブスクリプションを有することができる一方、スマートフォンまたはスマートスピーカなどの単一のデバイスから各IPAにアクセスする利便性には問題が起こる可能性がある。
現在、ユーザは、それぞれ異なるIPAサービスにアクセスするために、一般的には異なるデバイスが必要であり、これは冗長かつ面倒である。例えば、ユーザは1つのデバイスを介して1つの質問を第1のIPAサービスに送り、次いで、別のデバイスを介して別の(または同じ)質問を第2のIPAサービスに送るということが単にできない。これは、第1及び第2のIPAサービスからの応答を受信すると、デバイスが互いに干渉する傾向があるためである。むしろ、ユーザは1つのIPAサービスに1つの質問を尋ね、次いで、その応答を待った後、別のIPAサービスに質問を尋ねることしかできない。その結果、ユーザは、複数の人間アシスタントとの同時対話に近い自然かつ便利なユーザ体験を享受することができない。
代替的には、一部のスマートデバイスは複数のIPAサービスをサポートするように構成され得る。しかしながら、係るデバイスでは、単一のIPAサービスをデフォルトサービスとして構成する必要がある。その結果、他のIPAサービスにアクセスするには、ユーザはデバイスを再構築してデフォルトのIPAサービスを修正する必要がある。異なるデフォルトのIPAサービスに切り替えることは面倒かつ時間がかかるため、ユーザはさらに、複数のIPAサービスと対話する場合に、係る手法により自然かつ便利なユーザ体験を享受することができない。
したがって、複数のIPAサービスを単一のデバイスで管理するための改良された技法は有益となる。
様々な実施形態は、非一時的なコンピュータ可読媒体を説明し、非一時的なコンピュータ可読媒体は1つ以上のプロセッサによる実行時に、第1の音声信号内の起動フレーズを検出することと、起動フレーズを基に、一群の候補インテリジェントパーソナルアシスタント(IPA)に含まれるIPAを選択することと、第1の音声信号からクエリコンテンツを抽出することと、クエリコンテンツを基に、第2の音声信号を生成することと、第2の音声信号をIPAに送信することとのステップ群を行うことにより、複数のインテリジェントパーソナルアシスタント(IPA)アプリケーションとの対話を管理するよう、1つ以上のプロセッサを構成する命令を含む。
開示される実施形態の少なくとも1つの利点は、IPAサービスが互いに干渉することなく、ユーザが単一のスマートデバイスを介して1つの音声コマンドを複数のIPAに発行し、特定の順序で各IPAからの応答を受信できることである。さらなる利点は、ユーザが、従来技法で可能なものより会話型かつ自然な構文を使用して複数のIPAのうちの1つ以上に音声コマンドを送ることができることである。
様々な実施形態の上記の特徴が詳細に理解できる方法で、上に簡潔に要約した様々な実施形態のより具体的な説明は実施形態を参照して行うことができ、その一部を添付の図面に例示する。しかしながら、添付の図面は典型的な実施形態を例示するにすぎず、様々な実施形態が他の同等に有効な実施形態を認め得るため、その範囲を限定するものとみなすべきではないことに留意されたい。
例えば、本願は、以下の項目を提供する。
(項目1)
1つ以上のプロセッサによる実行時に、
第1の音声信号内の起動フレーズを検出することと、
上記起動フレーズを基に、一群の候補のインテリジェントパーソナルアシスタント(IPA)に含まれるIPAを選択することと、
上記第1の音声信号からクエリコンテンツを抽出することと、
上記クエリコンテンツを基に、第2の音声信号を生成することと、
上記第2の音声信号を上記IPAに送信することと
のステップ群を行う音声認識を行うように上記1つ以上のプロセッサを構成する命令を含む、非一時的なコンピュータ可読記憶媒体。
(項目2)
1つ以上のプロセッサによる実行時に、
上記第1の音声信号の追加の起動フレーズを検出することと、
上記追加の起動フレーズを基に、上記一群の候補のIPAに含まれている追加のIPAを選択することと
のステップ群を行うように上記1つ以上のプロセッサを構成する命令をさらに備える、上記項目に記載の非一時的なコンピュータ可読媒体。
(項目3)
1つ以上のプロセッサによる実行時に、上記第2の音声信号を上記追加のIPAに送信するステップを行うように上記1つ以上のプロセッサを構成する命令をさらに備える、上記項目のいずれか一項に記載の非一時的なコンピュータ可読媒体。
(項目4)
1つ以上のプロセッサによる実行時に、
上記追加の起動フレーズに関連する上記第1の音声信号から追加のクエリコンテンツを抽出することと、
上記追加のクエリコンテンツを基に、第3の音声入力を生成することと、
上記第3の音声入力を上記追加のIPAに送信することと
のステップ群を行うように上記1つ以上のプロセッサを構成する命令をさらに備える、上記項目のいずれか一項に記載の非一時的なコンピュータ可読媒体。
(項目5)
1つ以上のプロセッサによる実行時に、
上記IPAから第1の応答音声信号を受信することと、
上記第1の応答音声信号を再生させることと、
上記第1の応答音声信号の再生中に、上記一群の候補のIPAに含まれる追加のIPAから第2の応答音声信号を受信することと、
上記第1の応答音声信号の再生が完了した後、上記第2の応答音声信号の再生を開始することと
のステップ群を行うように上記1つ以上のプロセッサを構成する命令をさらに備える、上記項目のいずれか一項に記載の非一時的なコンピュータ可読媒体。
(項目6)
上記第1の応答音声信号は、上記第2の音声信号の送信に応じて受信される、上記項目のいずれか一項に記載の非一時的なコンピュータ可読媒体。
(項目7)
1つ以上のプロセッサによる実行時に、
上記IPAから第1の応答音声信号を受信することと、
上記第1の応答音声信号を記憶することと、
上記第1の応答音声信号を記憶した後に、上記一群の候補のIPAに含まれる追加のIPAから第2の応答音声信号を受信することと、
上記第1の応答音声信号の再生を開始させる前に、上記第2の応答音声信号の再生を開始させることと
のステップ群を行うように上記1つ以上のプロセッサを構成する命令をさらに備える、上記項目のいずれか一項に記載の非一時的なコンピュータ可読媒体。
(項目8)
1つ以上のプロセッサによる実行時に、
上記第1の音声信号の変更リスナコマンドを検出することと、
上記変更リスナコマンドを基に、追加のIPAを決定することと、
上記第2の音声信号を上記追加のIPAに送信することと
のステップ群を行うように上記1つ以上のプロセッサを構成する命令をさらに備える、上記項目のいずれか一項に記載の非一時的なコンピュータ可読媒体。
(項目9)
変更リスナコマンドを検出することは、上記起動フレーズを発したユーザが音声コマンドを上記一群の候補のIPAに含まれる第2のIPAに向けていることを示すワードまたはフレーズを検出すること備える、上記項目のいずれか一項に記載の非一時的なコンピュータ可読媒体。
(項目10)
インテリジェントパーソナルアシスタント(IPA)管理アプリケーションを記憶するメモリと、
上記メモリに結合される1つ以上のプロセッサであり、上記IPA管理アプリケーションの実行時に、
第1の音声信号内の起動フレーズを検出し、
上記起動フレーズを基に、一群の候補のインテリジェントパーソナルアシスタント(IPA)に含まれるIPAを選択し、
上記第1の音声信号からクエリコンテンツを抽出し、
上記クエリコンテンツを基に、第2の音声信号を生成し、
上記第2の音声信号を上記IPAに送信するように構成される、上記1つ以上のプロセッサと
を備える、システム。
(項目11)
上記1つ以上のプロセッサはさらに、
上記第1の音声信号の変更リスナコマンドを検出することと、
上記変更リスナコマンドを基に、追加のIPAを決定することと、
上記第1の音声信号から追加のクエリコンテンツを抽出することと、
上記追加のクエリコンテンツを基に、第3の音声信号を生成することと、
上記第3の音声信号を上記第2のIPAに送信することと
のステップ群を行うように構成される、上記項目に記載のシステム。
(項目12)
上記追加のクエリコンテンツは音声コマンドを含む、上記項目のいずれか一項に記載のシステム。
(項目13)
上記変更リスナコマンドを基に、上記追加のIPAを決定することは、前回発行された音声コマンド、前回発行された音声クエリ及びどのプロセスがIPAによって現在制御されているかのうちの少なくとも1つを基に、上記追加のIPAを決定することを備える、上記項目のいずれか一項に記載のシステム。
(項目14)
上記前回発行された音声コマンドを基に上記追加のIPAを決定することは、上記追加のIPAが、第2の音声信号を介して上記前回発行された音声コマンドを受信したIPAであることを決定することを備える、上記項目のいずれか一項に記載のシステム。
(項目15)
どのプロセスが上記IPAサービスによって現在制御されているかを基に上記追加のIPAを決定することは、上記追加のIPAが上記プロセスを制御していると決定することを備える、上記項目のいずれか一項に記載のシステム。
(項目16)
上記1つ以上のプロセッサはさらに、
上記第1の音声信号の追加の起動フレーズを検出することと、
上記追加の起動フレーズを基に、上記一群の候補のIPAに含まれる追加のIPAを選択することと
のステップ群を行うように構成される、上記項目のいずれか一項に記載のシステム。
(項目17)
上記1つ以上のプロセッサはさらに、上記第2の音声信号を上記追加のIPAに送信するステップを行うように構成される、上記項目のいずれか一項に記載のシステム。
(項目18)
上記1つ以上のプロセッサはさらに、
上記追加の起動フレーズに関連する上記第1の音声信号から追加のクエリコンテンツを抽出することと、
上記追加のクエリコンテンツを基に、第3の音声入力を生成することと、
上記第3の音声入力を上記追加のIPAに送信することと
のステップ群を行うように構成される、上記項目のいずれか一項に記載のシステム。
(項目19)
第1の音声信号内の起動フレーズを検出することと、
上記起動フレーズを基に、一群の候補のインテリジェントパーソナルアシスタント(IPA)に含まれるIPAを選択することと、
上記第1の音声信号からクエリコンテンツを抽出することと、
上記クエリコンテンツを基に、第2の音声信号を生成することと、
上記第2の音声信号を上記IPAに送信することと
を備える、音声認識を行う方法。
(項目20)
上記第1の音声信号の追加の起動フレーズを検出することと、
上記追加の起動フレーズを基に、上記一群の候補のIPAに含まれる追加のIPAを選択することと
をさらに備える、上記項目に記載の方法。
(摘要)
音声認識をマルチデバイスシステムで行うことは、口頭発話に応じて第1のマイクにより生成された第1の音声信号、及び口頭発話に応じて第2のマイクにより生成された第2の音声信号を受信し、第1の音声信号を一時的セグメントの第1のシーケンスに分割し、第2の音声信号を一時的セグメントの第2のシーケンスに分割し、第1のシーケンスの第1の一時的セグメントに関連する音エネルギーレベルと、第2のシーケンスの第1の一時的セグメントに関連する音エネルギーレベルとを比較し、比較を基に、音声認識音声信号の第1の一時的セグメントとして、第1のシーケンスの第1の一時的セグメント及び第2のシーケンスの第1の一時的セグメントのうちの1つを選択し、音声認識音声信号に音声認識を行うことを含む。
様々な実施形態の1つ以上の態様を実施するように構成される、インテリジェントパーソナルアシスタント(IPA)管理システムを例示する模式図である。 本開示の1つ以上の態様を実施するように構成される、スマートデバイスを例示する。 本開示の様々な実施形態による、図1のIPA管理アプリケーションの動作図である。 本開示の様々な実施形態による、音声認識を行うための方法ステップのフローチャートを説明する。 本開示の様々な実施形態による、複数のIPAサービスからの応答を管理するための方法ステップのフローチャートを説明する。
明確にするために、適用可能な場合、図面間で共通の同一要素を示すために同一の参照番号を使用する。1つの実施形態の特徴は、さらなる説明を伴うことなく、他の実施形態に組み込まれ得ると考えられる。
図1は、様々な実施形態の1つ以上の態様を実装するように構成された、インテリジェントパーソナルアシスタント(IPA)管理システム100を例示する模式図である。IPA管理システム100は、スマートデバイス120、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160を含み、全ては通信ネットワーク105を介して互いに通信可能に接続されている。さらに、口頭発話91を介してユーザ要求を生成するユーザ90が図1に示されている。いくつかの実施形態では、マルチデバイスIPAシステム100は、図1に例示した3つのIPAサービスより多いまたは少ないIPAサービスを含む。
通信ネットワーク105は、任意の技術的に実現可能な種類の通信ネットワークであってよく、スマートデバイス120、第1のIPAサービス140、第2のIPAサービス150、第3のIPAサービス160及び/またはウェブサーバもしくは別のネットワークに接続されたコンピューティングデバイスなどの他の実体もしくはデバイスの間でデータを交換することができる。例えば、通信ネットワーク105は、特に、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、ワイヤレス(WiFi)ネットワーク、ワイヤレスパーソナルエリアネットワーク(WPAN)(Bluetooth(登録商標)ネットワークなど)及び/またはインターネットを含み得る。ゆえに、いくつかの実施形態では、通信ネットワーク105は、WiFiルータなどの、図1に図示しない1つ以上の追加のネットワークデバイスを含み得る。
第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160のそれぞれは、特に、Microsoft Cortana(商標)、Apple Siri(商標)、Google Home(商標)またはAmazon Alexa(商標)などの様々な市販IPAサービスであってよい。したがって、各IPAサービスはスマートデバイス(スマートデバイス120など)からクエリコンテンツを受信し、クエリに対して作用し、ユーザの質問に対する回答または要求アクションの完了確認などの適切な応答を提供するように構成され得る。一般的に、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160によって受信されるクエリコンテンツは、音声データまたはテキストのいずれかの形態であってよい。同様に、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160によって提供されるスマートデバイス120に対する応答は、音声データまたはテキストのいずれかの形態であってよい。
スマートデバイス120は、IPAと互換性のあるコンピューティングデバイスであり、ユーザからの特定の音声コマンドを受信し、係るコマンドに含まれるクエリコンテンツを第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160のうちの1つ以上に適宜送り、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160から受信した応答を管理するように構成される。ゆえに、スマートデバイス120はIPAサービス管理レイヤにより構成される。そのため、スマートデバイス120はIPA管理アプリケーション130、第1のIPAクライアント121、第2のIPAクライアント122及び第3のIPAクライアント123を含む。IPA管理アプリケーション130は以下により詳細に説明する。第1のIPAクライアント121は、第1のIPAサービス140との間のデータの送受信を行うように構成され、第2のIPAクライアント122は、第2のIPAサービス150との間のデータの送受信を行うように構成され、第3のIPAクライアント123は、第3のIPAサービス160との間のデータの送受信を行うように構成される。いくつかの実施形態では、第1のIPAクライアント121の機能性は第1のIPAサービス140のアプリケーションプログラムインターフェース(API)に基づき、第2のIPAクライアント122の機能性は第2のIPAサービス150のAPIに基づき、第3のIPAクライアント123の機能性は第3のIPAサービス160のAPIに基づく。例えば、いくつかの実施形態では、上に説明したIPAクライアントのうちの1つは、IPAサービスにより定義されたAPIに従って、対応するIPAサービスと相互作用する可能性がある。
動作中、IPA管理アプリケーション130は、口頭発話91の受信に応じて、例えば、マイク126を介して、生成された音声信号101を検出し、音声信号101が、「OK、Google」、「こんにちは、Siri」、「ねえ、Alexa」等などの起動フレーズを含むかどうか判断する。1つ以上の起動フレーズが音声信号101に検出される場合、IPA管理アプリケーション130は音声信号から質問などのクエリコンテンツを抽出し、特定のタスク等を行うように命令し、クエリコンテンツを送信すべきIPAサービスを決定する。追加的には、IPA管理アプリケーション130は、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160からの応答を受信し、例えば、スピーカ125によって再生される音声信号102を介して、スマートデバイス120に係る応答のそれぞれを連続的に再生させるように構成される。ゆえに、ユーザ90は、単一のスマートデバイスを介して異なるIPAサービスに一連の音声コマンドを発行することができ、様々なIPAサービスからの応答の再生は、ユーザ90がそれぞれを個別に聞くことができるよう管理される。
スマートデバイス120は、任意のスタンドアロン型コンピューティングデバイスであってよく、通信ネットワーク105を介して通信し、IPA管理アプリケーション130及びIPA管理アプリケーション130に関連するアプリケーションを実行するように動作可能である。スマートデバイス120としての使用に適したコンピューティングデバイスの例は、スマートスピーカ、スマートフォン、ホームオートメーションハブ、電子式タブレット、ノートパソコン、デスクトップパソコン及びその他を含むが、これらに限定されない。代替的または追加的には、スマートデバイス120は、通信ネットワーク105を介して通信するように動作可能であり、電子デバイス、民生機器または他の装置であり、ビデオゲームコンソール、セットトップコンソール、デジタルビデオレコーダ、ホームオートメーションデバイス及びその他を非限定的に含む装置に内蔵されるコンピューティングデバイスであり得る。図2に関連してスマートデバイス120の1つの実施形態を以下に説明する。
図2は、本開示の1つ以上の態様を実施するように構成された、スマートデバイス120を例示する。したがって、スマートデバイス120は、IPA管理アプリケーション130、第1のIPAクライアント121、第2のIPAクライアント122及び第3のIPAクライアント123のうちの1つ以上を実装するように構成され、それぞれはメモリ210に常駐し得る。いくつかの実施形態では、IPA管理アプリケーション130は、起動フレーズ検出モジュール231、音声データ分割モジュール232、クエリ処理モジュール233及びIPA通信管理モジュール234のうちの1つ以上を含み得る。スマートデバイス120はさらに、例えば、1つ以上のIPAサービスから受信した応答音声信号を音エネルギーに変換することによって、スピーカ126に音を生成させるように構成される。本明細書に説明するコンピューティングデバイスは例示的なものであり、任意の他の技術的に実現可能な構成が本発明の範囲内に該当することに留意されたい。
図示の通り、スマートデバイス120は、処理ユニット250、入出力(I/O)デバイス280に結合された入出力(I/O)デバイスインターフェース260、メモリ210、ストレージ215(例えば、フラッシュドライブまたはハードディスクドライブ)及びネットワークインターフェース270を接続する相互接続(バス)240を含むが、これらに限定されない。処理ユニット250は、中央処理装置(CPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、任意の他の種類の処理装置またはデジタルシグナルプロセッサ(DSP)と協働して動作するように構成されるCPUなどの様々な処理装置の組み合わせとして実装される任意の適切なプロセッサであり得る。例えば、いくつかの実施形態では、処理ユニット250はCPU及びDSPを含む。一般的に、処理ユニット250は、IPA管理アプリケーション130、起動フレーズ検出モジュール231、音声データ分割モジュール232、クエリ処理モジュール233、IPA通信管理モジュール234、第1のIPAクライアント121、第2のIPAクライアント122及び第3のIPAクライアント123を含む、データ処理及び/またはソフトウェアアプリケーションの実行が可能な技術的に実現可能なハードウェアユニットのいずれかであってよい。さらに、本開示の文脈では、スマートデバイス120に示されるコンピューティング要素は、物理的なコンピューティングシステム(例えば、データセンタのシステム)に対応し得るか、またはコンピューティングクラウド内で実行する仮想コンピューティングインスタンスであり得る。係る実施形態では、起動フレーズ検出モジュール231、音声データ分割モジュール232及び/またはクエリ処理モジュール233などがIPA管理アプリケーション130の動作中に行う音声認識は、コンピューティングクラウドまたはサーバ内で実行する仮想コンピューティングインスタンス上で動作する音声認識アプリケーションを介して実施され得る。
入出力デバイス280は、キーボード、マウス、タッチ感度画面、マイク126及びその他などの入力を提供できるデバイス、ならびにスピーカ125及びディスプレイ画面などの出力を提供できるデバイスを含み得る。ディスプレイ画面は、コンピュータモニタ、ビデオディスプレイ画面、携帯型デバイスに内蔵されるディスプレイ装置または任意の他の技術的に実現可能なディスプレイ画面であり得る。マイク126は、口頭発話91などの音エネルギーを、音声信号101などの音声信号に変換するように構成される。スピーカ125は、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160のうちの1つ以上からの応答音声信号などの音声信号を、音エネルギーに変換するように構成される。
入出力デバイス280は、入力の受信及び出力の提供の両方が可能な追加のデバイスを含んでよく、例えば、タッチスクリーン、ユニバーサルシリアルバス(USB)ポート及びその他などである。係る入出力デバイス280は、様々な種類の入力をスマートデバイス120のエンドユーザから受信し、さらに、表示されたデジタル画像またはデジタルビデオなどの様々な種類の出力をスマートデバイス120のエンドユーザに提供するように構成され得る。いくつかの実施形態では、入出力デバイス280のうちの1つ以上は、スマートデバイス120を通信ネットワーク105に結合するように構成される。
入出力インターフェース260は、入出力デバイス280と処理ユニット250との通信を可能にする。入出力インターフェースは、一般的に、入出力デバイス280に対応し、処理ユニット250によって生成されたアドレスを解釈するための必須ロジックを含む。入出力インターフェース260はさらに、処理ユニット250と入出力デバイス280との間のハンドシェイキングを実施すること及び/または入出力デバイス280に関連する割り込みを生成することを行うように構成され得る。入出力インターフェース260は、技術的に実現可能な任意のCPU、ASIC、FPGA及び任意の他の種類の処理ユニットまたはデバイスとして実装され得る。
ネットワークインターフェース270は、処理ユニット250を通信ネットワーク105に接続するコンピュータハードウェア構成要素である。ネットワークインターフェース270は、スタンドアロン型のカード、プロセッサまたは他のハードウェアデバイスとしてスマートデバイス120に実装され得る。通信ネットワーク105がWiFiネットワークまたはWPANを含む実施形態では、ネットワークインターフェース270は好適なワイヤレス送受信機を含む。代替的または追加的には、ネットワークインターフェース270は、セルラ方式通信機能、衛星電話通信機能、ワイヤレスWAN通信機能または通信ネットワーク105またはマルチデバイスIPAシステム100に含まれる他のコンピューティングデバイス200と通信可能な他の種類の通信機能を有するように構成され得る。
メモリ210は、ランダムアクセスメモリ(RAM)モジュール、フラッシュメモリユニットまたは任意の他の種類のメモリユニットもしくはそれらの組み合わせを含み得る。処理ユニット250、入力デバイスインターフェース260及びネットワークインターフェース270は、メモリ210に対するデータの読み出し及び書き込みを行うように構成される。メモリ210は、IPA管理アプリケーション130、起動フレーズ検出モジュール231、音声データ分割モジュール232、クエリ処理モジュール233、IPA通信管理モジュール234、第1のIPAクライアント121、第2のIPAクライアント122及び第3のIPAクライアント123を含む、プロセッサ250により実行可能な様々なソフトウェアプログラム及び当該ソフトウェアプログラムに関連するアプリケーションデータを含む。図3に関連して、起動フレーズ検出モジュール231、音声データ分割モジュール232、クエリ処理モジュール233及びIPA通信管理モジュール234を以下に説明する。
追加的には、メモリ210は、図2に図示する通り、起動フレーズのコーパス211及び/または変更リスナコマンドのコーパス212を含み得る。代替的または追加的には、起動フレーズのコーパス211及び/または変更リスナコマンドのコーパス212はストレージ215に記憶され得る。
起動フレーズのコーパス211は、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160のそれぞれに関連する呼び出しワードまたはウェークワードの一部または全てを含む。係る起動フレーズは、一般的に、第1のIPAサービス140、第2のIPAサービス150または第3のIPAサービス160のうちの1つ以上の名前に加え、任意には1つ以上の追加のワードまたはフレーズを含む。例は、「ねぇ、Google」、「Alexa」、「やあ、Siri」、「こんにちは、SiriとAlexa」等を含むが、これらに限定されない。
変更リスナコマンドのコーパス212は、1つのリスナ、つまり、1つのIPAサービスから、別のリスナ、つまり、別のIPAサービスへの変更に関連するワード、フレーズまたはセンテンスを含む。ゆえに、変更リスナコマンドのコーパス212に含まれる変更リスナコマンドは、一般的に、第1のIPAサービス140、第2のIPAサービス150または第3のIPAサービス160のうちの1つの名前に加え、人間のユーザが、音声コマンドの対象を、あるIPAサービスからその名前に関連するIPAサービスに変更していることを示す追加のワードまたはフレーズを含む。いくつかの実施形態では、IPA管理アプリケーション130によって受信された前回の音声コマンドの文脈では、変更リスナコマンドは、現在、変更リスナコマンドで名前を挙げたIPAサービスも前回の音声コマンドの対象であることを示すフレーズを含み得る。例えば、変更リスナコマンドとして認識され得るフレーズは、「あなたはどう、Google」、「どう思う、Siri?」、「あなたは、Alexa?」等を含むが、これらに限定されない。
図2に例示する実施形態では、メモリ210及びストレージ215はスマートデバイス120に内蔵される物理的な構成要素として例示されている。他の実施形態では、メモリ210及び/またはストレージ215はコンピューティングクラウドなどの、分散コンピューティング環境に含まれ得る。
図3は、本開示の様々な実施形態による、IPA管理アプリケーション130の動作図である。図3に例示する実施形態では、IPA管理アプリケーション130は、起動フレーズ検出モジュール231、音声データ分割モジュール232、クエリ処理モジュール233及びIPA通信管理モジュール234を含む。追加的には、IPA管理アプリケーション130は、第1のIPAクライアント121、第2のIPAクライアント122及び第3のIPAクライアント123を介して、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160とそれぞれ通信する。
起動フレーズ検出モジュール231は、マイク126から受信される音声信号101に含まれる起動フレーズを検出するように構成される。したがって、起動フレーズ検出モジュール231は、任意の技術的に実現可能な音声認識アルゴリズムまたは音声をテキストに変換するためのアルゴリズムを含み得る。起動フレーズ検出モジュール231によって検出される起動フレーズは、任意の呼び出しワードもしくはウェークワード、または起動フレーズのコーパス211に含まれる他のワード、フレーズもしくはセンテンスを含むことがあり、例えば、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160のそれぞれに関連する名前などである。起動フレーズ検出モジュール231が音声信号101の1つ以上の起動フレーズを検出した場合、図示の通り、起動フレーズ検出モジュール231は音声信号101を音声データ分割モジュール232に送信する。
いくつかの実施形態では、起動フレーズ検出モジュール231はさらに、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160のうちどれが音声信号101で言及されているかを判断するように構成される。係る実施形態では、起動フレーズ検出モジュール231は、図示の通り、音声信号101と共にメタデータ301を音声データ分割モジュール232に送信する。メタデータ301は、音声信号101で検出されたどの起動フレーズが、起動フレーズを含まない音声信号101のどの部分に関連するかを示す。追加的には、メタデータ301は、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160のうちどれが音声信号101で言及されているかを示し得る。代替的には、音声データ分割モジュール232は、どのIPAサービスが音声信号101で言及されているかを判断するように構成され得る。
音声データ分割モジュール232は、起動フレーズ検出モジュール231から音声信号101を受信し、音声信号101に含まれる任意の起動フレーズをクエリコンテンツから分離するように構成される。クエリコンテンツは、起動フレーズの一部として認識されていない音声信号101で検出されたワード及び/またはフレーズを含む。音声データ分割モジュール232は、次いで、クエリコンテンツ302をクエリ処理モジュール233に送信する。いくつかの実施形態では、音声データ分割モジュール232は、クエリ処理モジュール233に送信する前に、まずクエリコンテンツ302をテキストに変換し、一方、他の実施形態では、音声データ分割モジュール232は、クエリコンテンツ302を、音声信号101の起動フレーズを考慮しない部分(複数可)として送信する。ゆえに、クエリコンテンツ302は、テキストベースのデータを含んでよく、及び/または1つ以上の音声信号を含んでよい。起動フレーズは音声信号101内の複数のポイントで発生することがあり、必ずしも音声信号101の最初または最後にあるわけではないため、音声データ分割232は、クエリコンテンツ302を、音声信号101から抽出した複数の音声信号としてクエリ処理モジュール233に送信することがあることに留意されたい。
いくつかの実施形態では、音声データ分割モジュール232はさらに、クエリコンテンツ302と共に、メタデータ303をクエリ処理モジュール233に送信する。メタデータ303は、音声信号101で検出された1つ以上の起動フレーズを基に、クエリコンテンツ302の各部分を特定のターゲットIPAサービスに関連させる。例えば、ユーザ90が、「ねえ、Google、サンフランシスコの天気はどう?」などの単純なクエリを単一のIPAサービスに発行する場合、メタデータ303は、「サンフランシスコの天気はどう?」というクエリコンテンツの送信先がGoogle Home(商標)のIPAサービスであることを示す。別の例では、ユーザ90が、「ねえ、GoogleとAlexa、サンフランシスコの天気はどう?」などの同じクエリを複数のIPAサービスに発行する場合、メタデータ303は、「サンフランシスコの天気はどう?」というクエリコンテンツの送信先がそれぞれ、Google Home(商標)のIPAサービス及びAmazon Alexa(商標)のIPAサービスであることを示す。さらに別の例では、ユーザ90が、「ねえ、Google、私の今日のスケジュールは何、Siri、私のプレイリストから何か音楽を再生して」などの異なるクエリまたはコマンドを異なるIPAサービスに発行する場合、メタデータ303は、「私の今日のスケジュールは何」というクエリコンテンツの送信先がGoogle Home(商標)のIPAサービスであり、「私のプレイリストから何か音楽を再生して」というクエリコンテンツの送信先がApple Siri(商標)であることを示す。ゆえに、係る実施形態では、メタデータ303のコンテンツは、一般的に、音声信号101に含まれるコマンド及び/またはクエリの複雑性に応じて変わる。
クエリ処理モジュール233は、図示の通り、クエリコンテンツ302を基に、1つ以上のIPAサービスに対して音声入力304を作成し、音声入力304及びメタデータ305をIPA管理モジュール234に送信するように構成される。具体的には、クエリ処理モジュール233は、クエリコンテンツ302を基に、メタデータ303のクエリコンテンツを受信する対象となる各IPAサービスに対して音声入力304を生成する。いくつかの実施形態では、音声入力304は、クエリコンテンツを受信する対象となる一部または全てのIPAサービスに送信される音声信号またはファイルであり、例えば、wavまたはmpegファイルである。例えば、いくつかの実施形態では、音声入力304を生成するために、クエリ処理モジュール233は、音声信号101の適切な部分、つまり、特定のIPAサービスに関連するクエリコンテンツ302を含む音声信号101の一部を抽出するように構成される。音声信号101が複数のIPAサービスのそれぞれに対して異なるクエリまたはコマンドを含む場合、音声入力304は、異なるIPAサービスのそれぞれに対する異なる音声信号またはファイルを含む。メタデータ305は、どの音声入力304がどのIPAサービスに関連するかを示し、これにより、IPA管理モジュール234は、音声入力304に含まれる1つ以上の音声信号またはファイルを適切にルーティングすることができる。
追加的には、いくつかの実施形態では、クエリ処理モジュール233は、クエリコンテンツ302に含まれる変更リスナコマンドを検出し、どのリスナ(つまり、どのIPAサービス)に対して、ユーザ90が前回発行したクエリまたはコマンドを送ろうとしているかを判断し、それに応じてメタデータ305を修正するように構成される。ゆえに、係る実施形態では、メタデータ305はさらに、どの音声入力304が、変更リスナコマンドが間接的に言及するIPAサービスに関連するかを示す。係る実施形態では、クエリ処理モジュール233は、一般的に、クエリコンテンツ302を解析するときに、変更リスナコマンドのコーパス212に依存する。変更リスナコマンドのコーパス212は候補となるターゲットワードまたはフレーズの比較的限られたセットであり、クエリ処理モジュール233から発生する音声認識は、一般的に、正確である可能性が高い。
変更リスナコマンドがクエリ処理モジュール233によって認識される1つの実施形態では、ユーザ90は、同じクエリまたはコマンドが複数のIPAサービスを対象とする複合要求を行うことがあるが、従来のIPA音声認識が現在対応可能なものよりも会話型の構文、例えば、「ねえ、Google、サンフランシスコの天気はどう?Alexaはどう思う?」を使用する。この例では、クエリ処理モジュール233は、呼び出しワード「Alexa」を認識するように構成され、変更リスナコマンドである「どう思う?」はこの呼び出しワードに関連する。呼び出しワードであるAlexaが、変更リスナコマンドのコーパス212に含まれる変更リスナコマンドに関連すると認識することに応じて、クエリ処理モジュール233は、Google Home(商標)のIPAサービスに送信すべき音声入力304がクエリ「サンフランシスコの天気はどう?」を含み、Amazon Alexa(商標)のIPAサービスに送信すべき音声入力304が、ユーザ90が直近で発行したクエリ、つまり、クエリ「サンフランシスコの天気はどう?」を含むことを示すよう、メタデータ305を修正する。その結果、複数のIPAサービスを対象としているが、ユーザ90からの複雑な口頭発話に含まれているクエリまたはコマンドを、やはり適切なIPAサービスに送ることができる。
変更リスナコマンドがクエリ処理モジュール233によって認識される別の実施形態では、クエリ処理モジュール233は、起動フレーズに直接的に関連しない音声コマンドまたはクエリが、ユーザ90によって前回発行された音声コマンドに関連することを判断するように構成される。つまり、係る実施形態では、クエリ処理モジュール233は、特定のクエリまたは音声コマンドに対する起動フレーズの不足部分を変更リスナコマンドとして解釈するように構成され、変更リスナコマンドは、音声コマンドまたはクエリを行うことができるIPAサービスを言及する。係る実施形態では、クエリ処理モジュール233は、係る関連しない音声コマンドまたはクエリの対象となるIPAサービスを文脈的に判断するように構成される。ゆえに、前回発行された音声コマンド及び/もしくはクエリを基に、ならびに/またはどのプロセスが特定のIPAサービスによって現在制御されているかを基に、クエリ処理モジュール233は、どのIPAサービスに、起動フレーズに関連しないクエリコンテンツ302の音声コマンドまたはクエリを送るかを判断することができる。
例えば、「Siri、私のプレイリストから何か再生して」など、ユーザ90が特定のタスクに関する音声コマンドを特定のIPAサービスに前回発行した場合、ユーザは、「停止」、「音楽の再生を停止して」、「音量を下げて」、「この曲の名前は何?」等の、クエリ処理モジュール233が起動フレーズに関連しないと認識する音声コマンドまたはクエリを後続的に発行し得る。係る例では、クエリ処理モジュール233は、係る関連しないコマンドまたはクエリが意図する対象はApple Siri(商標)であると文脈的に判断する。この判断に応じて、クエリ処理モジュール233は、関連しない音声コマンドを含む特定の音声入力304を生成し、特定の音声入力304をApple Siri(商標)のIPAサービスに送信すべきことを示すよう、メタデータ305を修正する。その結果、ユーザ90が発行し、起動フレーズに関連しないクエリまたは音声コマンドは、クエリ処理モジュール233が行う文脈判断を基に、やはり適切なIPAサービスに送ることができる。係る関連しないクエリまたは音声コマンドは、検出可能な起動フレーズに関連する1つ以上のクエリまたは音声コマンドを含むより複雑な口頭発話91に含まれ得ることに留意されたい。
IPA通信管理モジュール234は、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160との相互作用を管理するように構成される。具体的には、IPA通信管理モジュール234は、メタデータ305を基に、適切な音声入力304を第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160のうちの1つ以上に送信する。図示の通り、適切な音声入力304は、第1の第1のIPAクライアント121を介して第1のIPAサービス140に送信され、第2のIPAクライアント122を介して第2のIPAサービス150に送信され、第3のIPAクライアント123を介して第3のIPAサービス160に送信される。音声入力304は、その特定のIPAサービスの要件に応じて、音ファイルもしくは他の音データとして、またはテキストベースのデータとして、適切なIPAサービスに送信され得る。
追加的には、IPA通信モジュール234は、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160のうちの1つ以上から受信した任意の応答音声信号306を管理するように構成される。応答音声信号306は、IPA通信管理モジュール234からの音声入力304に応じて、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160のうちの1つ以上によって生成される。ゆえに、複数のIPAサービスがIPA通信管理モジュール234から音声入力304を受信する場合、IPA通信管理モジュール234によって複数の応答音声信号306が同時にまたは重複時期に受信される可能性が高い。IPA通信管理モジュール234は、したがって、受信される各応答音声信号306がスピーカ125を介してユーザ90に再生される順序を管理する。
いくつかの実施形態では、IPA通信モジュール234は、送信元となるIPAサービスが音声信号101の起動フレーズ及び/または変更リスナコマンドで言及されていた順序で、複数の応答音声信号306の再生を順序付けるように構成される。他の実施形態では、IPA通信モジュール234は、複数の応答音声信号306が受信される順序で、複数の応答音声信号306の再生を順序付けるように構成される。さらに他の実施形態では、IPA通信モジュール234がデフォルトの再生順序を実施してよく、この場合、事前定義されたIPAサービスの順序を使用して、複数の応答音声信号306を再生する順序を決定する。係る実施形態では、事前定義された順序は、ユーザが選択したIPAサービスの順序となり得る。
第1のIPAサービス140、第2のIPAサービス150または第3のIPAサービス160のうちの1つ以上がテキストベースのデータとして応答音声信号306を返送する実施形態では、IPA通信モジュール234は、係るテキストベースのデータを、スピーカ125が再生可能な音声信号に変換するように構成される。IPA通信モジュール234は、技術的に実現可能なあらゆるテキスト・トゥ・スピーチアプリケーションまたは他の人間の発話の人工生成を利用して、係る変換を完了することができる。
要約すると、ユーザ90がスマートデバイス120と会話型かつ自然な方法で対話する場合、様々なクエリ及び/またはコマンドが単一の音声信号101に含まれることがあり、それぞれを個別に抽出し、次いで、適切なIPAサービスにルーティングすることができる。さらに、例えば、各IPAサービスから受信した音声ファイルを保存することによって、これらのIPAサービスが返送する複数の応答を管理し、これにより、複数の応答を後続的に連続して再生することができる。
図4は、本開示の様々な実施形態による、音声認識を行うための方法ステップのフローチャートを説明する。ステップ方法は図1〜図3のシステムに関して説明するが、当業者であれば、あらゆる順序で方法ステップを行うように構成されるあらゆるシステムが、様々な実施形態の範囲内に該当することを理解するであろう。
図示の通り、方法400は、ステップ401で開始し、ステップ401では、IPA管理アプリケーション130は、ユーザ90からの口頭発話91に応じて生成された音声信号を受信する。例えば、1つの実施形態では、IPA管理アプリケーション130はマイク126から音声信号101を受信する。
ステップ402では、IPA管理アプリケーション130は起動フレーズに対して音声信号101を解析する。例えば、ステップ402は、起動フレーズ検出モジュール231によって行われてよい。いくつかの実施形態では、ステップ402では、IPA管理アプリケーション130は起動フレーズのコーパス211と共に音声認識アルゴリズムを利用する。起動フレーズのコーパス211に含まれる様々な起動フレーズは一群の候補のIPAサービスに関連付けられ、この群はIPA管理アプリケーション130が対話するように構成されるIPAサービス、つまり、第1のIPAサービス140、第2のIPAサービス150及び第3のIPAサービス160を含むことに留意されたい。いくつかの実施形態では、IPA管理アプリケーション130はさらに、ステップ402で、変更リスナコマンドのコーパス212を利用する。係る実施形態では、IPA管理アプリケーション130は、音声信号101において、1つのIPAサービスに関連する少なくとも1つの起動フレーズを発したユーザが、音声コマンドの対象を別のIPAサービスに切り替えていることを検出することができる。
いくつかの実施形態では、IPA管理アプリケーション130はさらに、第1のIPAサービス140、第2のIPAサービス150及び/または第3のIPAサービス160のうちのどれが、ステップ402で検出された起動フレーズ(複数可)に言及されているかを判断する。
ステップ403では、IPA管理アプリケーション130は、何らかの起動フレーズ(または変更リスナコマンド)が音声信号101に含まれるかどうかを判定する。含まれない場合、方法400はステップ410に進んで終了し、含む場合、方法400はステップ404に進む。
ステップ404では、IPA管理アプリケーション130は、音声信号101のクエリコンテンツを、ステップ402で検出された起動フレーズ(複数可)から分離する。例えば、ステップ404は、音声分割モジュール214によって行われてよい。
ステップ405では、IPA管理アプリケーション130は、ステップ402で検出された起動フレーズのうちの1つが言及するIPAサービスを選択する。一般的に、IPAサービスは、IPA管理アプリケーション130が対話するように構成される一群の候補のIPAサービスに含まれる。
ステップ406では、IPA管理アプリケーション130は、どのクエリコンテンツ302がステップ405で選択されたIPAサービスに関連するか判断する。例えば、ステップ406は、クエリ処理モジュール234によって行われてよい。
ステップ407では、IPA管理アプリケーション130は、ステップ405で選択されたIPAサービスに対して音声入力304を生成する。いくつかの実施形態では、ステップ407では、IPA管理はさらに、ステップ407で生成された音声入力を選択されたIPAサービスに送信すべきことを示すメタデータ305を生成する。
ステップ408では、IPA管理アプリケーション130は、ステップ407で生成された音声入力304を、メタデータ305で示された適切なIPAサービスに送信する。いくつかの実施形態では、音声入力304は、第1のIPAクライアント121、第2のIPAクライアント121または第3のIPAクライアント123のうちの1つを介して適切なIPAサービスに送信される。これは、当該IPAサービスに対応するIPAクライアントが、必須プロトコルを介してIPAサービスへデータを送信し、IPAサービスからデータを受信するように構成されるためである。
ステップ409では、IPAサービスまたはクエリコンテンツ302と関連しなかった他の起動フレーズが存在するかどうかを判定する。存在する場合、方法400はステップ405に戻り、存在する場合、方法400はステップ410に進んで終了する。
図5は、本開示の様々な実施形態による、複数のIPAサービスからの応答を管理するための方法ステップのフローチャートを説明する。ステップ方法は図1〜図4のシステムに関して説明するが、当業者であれば、あらゆる順序で方法ステップを行うように構成されるあらゆるシステムが、様々な実施形態の範囲内に該当することを理解するであろう。
ステップ501では、IPA管理アプリケーション130は、第1のIPAサービス140、第2のIPAサービス150または第3のIPAサービス160のうちの1つなどのIPAサービスから応答音声信号306を受信する。応答音声信号306は、例えば、スマートデバイスにより再生される音声ファイルまたはスマートデバイスによる再生のために音声信号に変換されるテキストベースファイルであってよい。応答音声信号306は音声信号への応答を含み、音声信号は、音声コマンド、クエリまたはIPA管理アプリケーション130によって前回受信された音声信号101などの他のクエリコンテンツを含む。具体的には、ステップ501で受信された応答音声信号306は、音声コマンド、クエリまたは前回受信された音声信号101に含まれる他のクエリコンテンツに応答する。
ステップ502では、IPA管理アプリケーション130は、音声コマンド、クエリまたは音声信号101の他のクエリコンテンツに応答する他の音声信号が見込まれるかどうかを判定する。見込まれる場合、方法500はステップ503に進み、見込まれない場合、方法500はステップ504に進む。
ステップ503では、IPA管理アプリケーション130はステップ501で受信した応答音声信号306を、例えば、メモリ210及び/またはストレージ215に記憶する。方法500は、次いで、ステップ501に戻る。
ステップ504では、IPA管理アプリケーション130は、ステップ501の反復で受信された応答音声信号306を選択する。いくつかの実施形態では、選択された特定の応答音声信号306は特定の再生順序に基づく。例えば、いくつかの実施形態では、IPA管理アプリケーション130は、前回受信された音声信号101の起動フレーズ及び/または変更リスナコマンドによって言及されたIPAサービスの順序を基に、応答音声信号306を選択する。他の実施形態では、IPA管理アプリケーション130は、複数の応答音声信号306が受信される順序を基に、応答音声信号306を選択する。他の実施形態では、IPA管理アプリケーション130は、ユーザが選択した再生順序など、デフォルトの再生順序を基に、応答音声信号306を選択する。
ステップ505では、IPA管理アプリケーション130は、504で選択した応答音声信号306を再生する。いくつかの実施形態では、IPA管理アプリケーション130はまず、応答音声信号306を再生可能にするために、選択された応答音声信号306に含まれるテキストベースデータを音声データ形式に変換する。
ステップ506では、IPA管理アプリケーション130は、ユーザ90に再生する他の応答音声信号306が存在するかどうかを判断する。存在する場合、方法500はステップ505に戻り、存在しない場合、方法500はステップ507に進んで終了する。
要約すると、様々な実施形態は、ユーザが音声コマンドを利用し、単一のスマートデバイスから複数のIPAサービスにアクセスすることが可能な技法を説明している。起動フレーズは、ユーザの音声コマンドに応じて生成された音声信号で検出され、クエリコンテンツは検出された起動フレーズから分離される。各起動フレーズは次いで、特定のクエリコンテンツに関連付けられ、当該クエリコンテンツは起動フレーズに関連するIPAサービスに送信される。
開示された実施形態の少なくとも1つの利点は、ユーザが単一のスマートデバイスを介して1つの音声コマンドを複数のIPAに発行し、それぞれの応答を特定の順序で再生できることである。さらなる利点は、ユーザが、係る音声コマンドを、従来技法で可能なものより自然かつ会話型の構文で発行できることである。
様々な実施形態の説明を例示の目的で提示してきたが、それらが網羅的であること、または開示された実施形態に限定されることを意図するものではない。当業者には、説明した実施形態の範囲及び趣旨から逸脱することなく、多数の修正形態及び変形形態が明らかであろう。
本実施形態の態様は、システム、方法またはコンピュータプログラム製品として具現化されてよい。したがって、本開示の態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)またはソフトウェア及びハードウェアの態様を組み合わせる実施形態の形態をとり得、これら全ては、本明細書において全体として「モジュール」または「システム」と呼ばれ得る。さらに、本開示の態様は、コンピュータ可読プログラムコードを内蔵した1つ以上のコンピュータ可読媒体(複数可)に具体化されたコンピュータプログラム製品の形態をとり得る。
1つ以上のコンピュータ可読媒体(複数可)の任意の組み合わせを利用してよい。コンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体であってよい。コンピュータ可読記憶媒体は、例えば、電子、磁気、光、電磁、赤外線、または半導体システム、装置もしくはデバイス、あるいは前述の任意の適切な組み合わせであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)として、以下、すなわち、1つ以上の配線を有する電子接続、携帯型コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読み出し専用メモリ(CD−ROM)、光学ストレージデバイス、磁気ストレージデバイスまたは前述の任意の適切な組み合わせが含まれる。本明細書の文脈において、コンピュータ可読記憶媒体は、命令実行システム、装置またはデバイスによって、あるいはこれらと連携して、使用プログラムを包含または記憶できる任意の有形媒体であってよい。
本開示の態様は、本開示の実施形態による方法、装置(システム)及びコンピュータプログラム製品のフローチャート図及び/またはブロック図を参照して上記に説明される。フローチャート図及び/またはブロック図の各ブロック、ならびにフローチャート図及び/またはブロック図のブロックの組み合わせは、コンピュータプログラム命令によって実施できることが理解されるだろう。コンピュータプログラム命令は、機械を製造するために、汎用コンピュータのプロセッサ、専用コンピュータのプロセッサまたは他のプログラム可能データ処理装置のプロセッサに提供され得、その結果、コンピュータのプロセッサまたは他のプログラム可能データ処理装置を介して実行する命令が、フローチャート及び/またはブロック図のブロックに特定された機能/行為を実装することができる。係るプロセッサは、汎用プロセッサ、専用プロセッサ、特定用途向けプロセッサまたはフィールドプログラマブルプロセッサもしくはゲートアレイであり得るが、これらに限定されない。
図面内のフローチャート及びブロック図は、本開示の様々な実施形態によるシステム、方法及びコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性及び操作を例示する。この点に関して、フローチャートまたはブロック図の各ブロックは、特定の論理的機能(複数可)を実装するための1つ以上の実行可能命令を備える、モジュール、セグメントまたはコードの一部を表し得る。また、いくつかの代替的な実装形態では、ブロックに記載された機能が、図面に記載された順序とは異なる順序で発生し得る点にも留意されたい。例えば、連続して示される2つのブロックは、実際には、実質的に同時に実行されてよく、ときには、含まれる機能によって、ブロックが逆の順序で実行されてよい。また、ブロック図及び/またはフローチャート図の各ブロック、ならびにブロック図及び/またはフローチャート図のブロックの組み合わせは、指定された機能または動作を実行する専用ハードウェアベースのシステム、あるいは専用ハードウェアとコンピュータ命令との組み合わせによって実装されることがある点にも留意されたい。
前述は本開示の実施形態に関するものであるが、本開示の他の実施形態及び追加の実施形態は、その基本的な範囲から逸脱することなく考案され得、その範囲は以下の特許請求の範囲によって決定される。

Claims (15)

  1. 1つ以上のプロセッサによる実行時に、
    第1の音声信号内の起動フレーズを検出することと、
    前記起動フレーズを基に、一群の候補のインテリジェントパーソナルアシスタント(IPA)に含まれるIPAを選択することと、
    前記第1の音声信号からクエリコンテンツを抽出することと、
    前記クエリコンテンツを基に、第2の音声信号を生成することと、
    前記第2の音声信号を前記IPAに送信することと
    のステップ群を行う音声認識を行うように前記1つ以上のプロセッサを構成する命令を含む、非一時的なコンピュータ可読記憶媒体。
  2. 1つ以上のプロセッサによる実行時に、
    前記第1の音声信号の追加の起動フレーズを検出することと、
    前記追加の起動フレーズを基に、前記一群の候補のIPAに含まれている追加のIPAを選択することと
    のステップ群を行うように前記1つ以上のプロセッサを構成する命令をさらに備える、請求項1に記載の非一時的なコンピュータ可読媒体。
  3. 1つ以上のプロセッサによる実行時に、前記第2の音声信号を前記追加のIPAに送信するステップを行うように前記1つ以上のプロセッサを構成する命令をさらに備える、請求項2に記載の非一時的なコンピュータ可読媒体。
  4. 1つ以上のプロセッサによる実行時に、
    前記追加の起動フレーズに関連する前記第1の音声信号から追加のクエリコンテンツを抽出することと、
    前記追加のクエリコンテンツを基に、第3の音声入力を生成することと、
    前記第3の音声入力を前記追加のIPAに送信することと
    のステップ群を行うように前記1つ以上のプロセッサを構成する命令をさらに備える、請求項2に記載の非一時的なコンピュータ可読媒体。
  5. 1つ以上のプロセッサによる実行時に、
    前記IPAから第1の応答音声信号を受信することと、
    前記第1の応答音声信号を再生させることと、
    前記第1の応答音声信号の再生中に、前記一群の候補のIPAに含まれる追加のIPAから第2の応答音声信号を受信することと、
    前記第1の応答音声信号の再生が完了した後、前記第2の応答音声信号の再生を開始することと
    のステップ群を行うように前記1つ以上のプロセッサを構成する命令をさらに備える、請求項1に記載の非一時的なコンピュータ可読媒体。
  6. 前記第1の応答音声信号は、前記第2の音声信号の送信に応じて受信される、請求項5に記載の非一時的なコンピュータ可読媒体。
  7. 1つ以上のプロセッサによる実行時に、
    前記IPAから第1の応答音声信号を受信することと、
    前記第1の応答音声信号を記憶することと、
    前記第1の応答音声信号を記憶した後に、前記一群の候補のIPAに含まれる追加のIPAから第2の応答音声信号を受信することと、
    前記第1の応答音声信号の再生を開始させる前に、前記第2の応答音声信号の再生を開始させることと
    のステップ群を行うように前記1つ以上のプロセッサを構成する命令をさらに備える、請求項1に記載の非一時的なコンピュータ可読媒体。
  8. 1つ以上のプロセッサによる実行時に、
    前記第1の音声信号の変更リスナコマンドを検出することと、
    前記変更リスナコマンドを基に、追加のIPAを決定することと、
    前記第2の音声信号を前記追加のIPAに送信することと
    のステップ群を行うように前記1つ以上のプロセッサを構成する命令をさらに備える、請求項1に記載の非一時的なコンピュータ可読媒体。
  9. 変更リスナコマンドを検出することは、前記起動フレーズを発したユーザが音声コマンドを前記一群の候補のIPAに含まれる第2のIPAに向けていることを示すワードまたはフレーズを検出すること備える、請求項8に記載の非一時的なコンピュータ可読媒体。
  10. インテリジェントパーソナルアシスタント(IPA)管理アプリケーションを記憶するメモリと、
    前記メモリに結合される1つ以上のプロセッサであり、前記IPA管理アプリケーションの実行時に、
    第1の音声信号内の起動フレーズを検出し、
    前記起動フレーズを基に、一群の候補のインテリジェントパーソナルアシスタント(IPA)に含まれるIPAを選択し、
    前記第1の音声信号からクエリコンテンツを抽出し、
    前記クエリコンテンツを基に、第2の音声信号を生成し、
    前記第2の音声信号を前記IPAに送信するように構成される、前記1つ以上のプロセッサと
    を備える、システム。
  11. 前記1つ以上のプロセッサはさらに、
    前記第1の音声信号の変更リスナコマンドを検出することと、
    前記変更リスナコマンドを基に、追加のIPAを決定することと、
    前記第1の音声信号から追加のクエリコンテンツを抽出することと、
    前記追加のクエリコンテンツを基に、第3の音声信号を生成することと、
    前記第3の音声信号を前記第2のIPAに送信することと
    のステップ群を行うように構成される、請求項10に記載のシステム。
  12. 前記変更リスナコマンドを基に、前記追加のIPAを決定することは、前回発行された音声コマンド、前回発行された音声クエリ及びどのプロセスがIPAによって現在制御されているかのうちの少なくとも1つを基に、前記追加のIPAを決定することを備える、請求項11に記載のシステム。
  13. 前記前回発行された音声コマンドを基に前記追加のIPAを決定することは、前記追加のIPAが、第2の音声信号を介して前記前回発行された音声コマンドを受信したIPAであることを決定することを備える、請求項12に記載のシステム。
  14. どのプロセスが前記IPAサービスによって現在制御されているかを基に前記追加のIPAを決定することは、前記追加のIPAが前記プロセスを制御していると決定することを備える、請求項12に記載のシステム。
  15. 第1の音声信号内の起動フレーズを検出することと、
    前記起動フレーズを基に、一群の候補のインテリジェントパーソナルアシスタント(IPA)に含まれるIPAを選択することと、
    前記第1の音声信号からクエリコンテンツを抽出することと、
    前記クエリコンテンツを基に、第2の音声信号を生成することと、
    前記第2の音声信号を前記IPAに送信することと
    を備える、音声認識を行う方法。
JP2018073256A 2017-04-13 2018-04-05 複数のインテリジェントパーソナルアシスタントサービスに対する管理レイヤ Active JP7083270B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/487,347 2017-04-13
US15/487,347 US10748531B2 (en) 2017-04-13 2017-04-13 Management layer for multiple intelligent personal assistant services

Publications (2)

Publication Number Publication Date
JP2018181330A true JP2018181330A (ja) 2018-11-15
JP7083270B2 JP7083270B2 (ja) 2022-06-10

Family

ID=62063288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018073256A Active JP7083270B2 (ja) 2017-04-13 2018-04-05 複数のインテリジェントパーソナルアシスタントサービスに対する管理レイヤ

Country Status (4)

Country Link
US (1) US10748531B2 (ja)
EP (1) EP3389044B1 (ja)
JP (1) JP7083270B2 (ja)
KR (2) KR20180115628A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144274A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020154082A (ja) * 2019-03-19 2020-09-24 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2021004950A (ja) * 2019-06-25 2021-01-14 株式会社デンソーテン 情報処理装置、情報処理システムおよび情報処理方法
JP2021117296A (ja) * 2020-01-23 2021-08-10 トヨタ自動車株式会社 エージェントシステム、端末装置およびエージェントプログラム
JP2021117308A (ja) * 2020-01-23 2021-08-10 トヨタ自動車株式会社 情報処理システム、情報処理装置、及びプログラム
JP2022534648A (ja) * 2019-10-24 2022-08-03 株式会社ユニオンプレイス 個人化された仮想秘書を提供する装置

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9691378B1 (en) * 2015-11-05 2017-06-27 Amazon Technologies, Inc. Methods and devices for selectively ignoring captured audio data
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US9772817B2 (en) 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10565191B2 (en) * 2017-06-05 2020-02-18 International Business Machines Corporation Cognitive program suite for a cognitive device and a mobile device
CN107564532A (zh) * 2017-07-05 2018-01-09 百度在线网络技术(北京)有限公司 电子设备的唤醒方法、装置、设备及计算机可读存储介质
BR112019002636A2 (pt) * 2017-08-02 2019-05-28 Panasonic Ip Man Co Ltd aparelho de processamento de informação, sistema de reconhecimento de fala e método de processamento de informação
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
KR102384643B1 (ko) * 2017-08-17 2022-04-08 엘지전자 주식회사 전자 장치 및 그 제어 방법
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
DE102018200088B3 (de) * 2018-01-04 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
JP7119218B2 (ja) * 2018-05-03 2022-08-16 グーグル エルエルシー オーディオクエリのオーバーラップ処理の協調
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US11069358B1 (en) * 2018-05-31 2021-07-20 Amazon Technologies, Inc. Remote initiation of commands for user devices
US11437029B2 (en) 2018-06-05 2022-09-06 Voicify, LLC Voice application platform
US10803865B2 (en) * 2018-06-05 2020-10-13 Voicify, LLC Voice application platform
US10636425B2 (en) 2018-06-05 2020-04-28 Voicify, LLC Voice application platform
US10235999B1 (en) 2018-06-05 2019-03-19 Voicify, LLC Voice application platform
US10681460B2 (en) * 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
KR20200034430A (ko) * 2018-09-21 2020-03-31 삼성전자주식회사 전자 장치, 시스템 및 음성 인식 서비스 이용 방법
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) * 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
FR3089035A1 (fr) * 2018-11-27 2020-05-29 Psa Automobiles Sa Procédé d’activation sélective d’assistants personnels virtuels dans un véhicule automobile
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US10602276B1 (en) * 2019-02-06 2020-03-24 Harman International Industries, Incorporated Intelligent personal assistant
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
JP7274901B2 (ja) * 2019-03-25 2023-05-17 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
WO2020213758A1 (ko) * 2019-04-17 2020-10-22 엘지전자 주식회사 음성으로 상호작용하는 인공 지능 장치 및 그 방법
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11189279B2 (en) * 2019-05-22 2021-11-30 Microsoft Technology Licensing, Llc Activation management for multiple voice assistants
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
CN110474973B (zh) * 2019-08-08 2022-02-08 三星电子(中国)研发中心 一种多设备共享智能引擎的方法、系统和设备
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
KR20210064594A (ko) 2019-11-26 2021-06-03 삼성전자주식회사 전자장치 및 그 제어방법
EP3836582B1 (en) * 2019-12-09 2024-01-31 Google LLC Relay device for voice commands to be processed by a voice assistant, voice assistant and wireless network
US11200900B2 (en) * 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US20210210099A1 (en) * 2020-01-06 2021-07-08 Soundhound, Inc. Multi Device Proxy
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
KR20210123633A (ko) * 2020-04-03 2021-10-14 삼성전자주식회사 음성 명령에 대응하는 태스크를 수행하는 전자 장치 및 그 동작 방법
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
KR20210147678A (ko) * 2020-05-29 2021-12-07 엘지전자 주식회사 인공 지능 장치
US11893984B1 (en) * 2020-06-22 2024-02-06 Amazon Technologies, Inc. Speech processing system
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
KR20220037846A (ko) * 2020-09-18 2022-03-25 삼성전자주식회사 음성 인식을 수행하기 위한 전자 장치를 식별하기 위한 전자 장치 및 그 동작 방법
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11790908B2 (en) * 2021-02-09 2023-10-17 International Business Machines Corporation Extended reality based voice command device management
CN114187895B (zh) * 2021-12-17 2024-09-24 海尔优家智能科技(北京)有限公司 语音识别方法、装置、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095383A (ja) * 2014-11-14 2016-05-26 株式会社ATR−Trek 音声認識クライアント装置及びサーバ型音声認識装置
JP2016151608A (ja) * 2015-02-16 2016-08-22 アルパイン株式会社 電子装置、情報端末システム、音声認識機能の起動プログラムおよび音声認識機能の起動方法
JP2019533182A (ja) * 2016-08-05 2019-11-14 ソノズ インコーポレイテッド 複数の音声サービス

Family Cites Families (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174299B2 (en) * 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
US6446076B1 (en) * 1998-11-12 2002-09-03 Accenture Llp. Voice interactive web-based agent system responsive to a user location for prioritizing and formatting information
DE19910236A1 (de) * 1999-03-09 2000-09-21 Philips Corp Intellectual Pty Verfahren zur Spracherkennung
US6526380B1 (en) * 1999-03-26 2003-02-25 Koninklijke Philips Electronics N.V. Speech recognition system having parallel large vocabulary recognition engines
US7058573B1 (en) * 1999-04-20 2006-06-06 Nuance Communications Inc. Speech recognition system to selectively utilize different speech recognition techniques over multiple speech recognition passes
US6542868B1 (en) * 1999-09-23 2003-04-01 International Business Machines Corporation Audio notification management system
US7330815B1 (en) * 1999-10-04 2008-02-12 Globalenglish Corporation Method and system for network-based speech recognition
US7016835B2 (en) * 1999-10-29 2006-03-21 International Business Machines Corporation Speech and signal digitization by using recognition metrics to select from multiple techniques
US6397186B1 (en) * 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
US20020055844A1 (en) * 2000-02-25 2002-05-09 L'esperance Lauren Speech user interface for portable personal devices
JP2002132803A (ja) * 2000-10-24 2002-05-10 Sanyo Electric Co Ltd ユーザ支援システム
US6996525B2 (en) * 2001-06-15 2006-02-07 Intel Corporation Selecting one of multiple speech recognizers in a system based on performance predections resulting from experience
US7369997B2 (en) * 2001-08-01 2008-05-06 Microsoft Corporation Controlling speech recognition functionality in a computing device
JP2003143256A (ja) * 2001-10-30 2003-05-16 Nec Corp 端末装置と通信制御方法
US7490039B1 (en) * 2001-12-13 2009-02-10 Cisco Technology, Inc. Text to speech system and method having interactive spelling capabilities
US6996526B2 (en) * 2002-01-02 2006-02-07 International Business Machines Corporation Method and apparatus for transcribing speech when a plurality of speakers are participating
US6834265B2 (en) * 2002-12-13 2004-12-21 Motorola, Inc. Method and apparatus for selective speech recognition
DE10341305A1 (de) * 2003-09-05 2005-03-31 Daimlerchrysler Ag Intelligente Nutzeradaption bei Dialogsystemen
US7917364B2 (en) * 2003-09-23 2011-03-29 Hewlett-Packard Development Company, L.P. System and method using multiple automated speech recognition engines
US20050131685A1 (en) * 2003-11-14 2005-06-16 Voice Signal Technologies, Inc. Installing language modules in a mobile communication device
US7340395B2 (en) * 2004-04-23 2008-03-04 Sap Aktiengesellschaft Multiple speech recognition engines
US7366921B2 (en) * 2004-04-23 2008-04-29 Hewlett-Packard Development Company, L.P. Selecting input/output devices to control power consumption of a computer system
US20070016401A1 (en) * 2004-08-12 2007-01-18 Farzad Ehsani Speech-to-speech translation system with user-modifiable paraphrasing grammars
US7865362B2 (en) * 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US9305548B2 (en) * 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8589161B2 (en) * 2008-05-27 2013-11-19 Voicebox Technologies, Inc. System and method for an integrated, multi-modal, multi-device natural language voice services environment
US10276170B2 (en) * 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8731939B1 (en) 2010-08-06 2014-05-20 Google Inc. Routing queries based on carrier phrase registration
US9332319B2 (en) * 2010-09-27 2016-05-03 Unisys Corporation Amalgamating multimedia transcripts for closed captioning from a plurality of text to speech conversions
JP5259020B2 (ja) * 2010-10-01 2013-08-07 三菱電機株式会社 音声認識装置
US8606581B1 (en) * 2010-12-14 2013-12-10 Nuance Communications, Inc. Multi-pass speech recognition
US8296142B2 (en) * 2011-01-21 2012-10-23 Google Inc. Speech recognition using dock context
JP6317111B2 (ja) * 2011-02-22 2018-04-25 スピーク・ウィズ・ミー・インコーポレイテッドSpeak With Me,Inc. ハイブリッド型クライアントサーバ音声認識
US20130073293A1 (en) * 2011-09-20 2013-03-21 Lg Electronics Inc. Electronic device and method for controlling the same
US8768707B2 (en) * 2011-09-27 2014-07-01 Sensory Incorporated Background speech recognition assistant using speaker verification
US8452597B2 (en) 2011-09-30 2013-05-28 Google Inc. Systems and methods for continual speech recognition and detection in mobile computing devices
US9729631B2 (en) * 2011-09-30 2017-08-08 Apple Inc. Asynchronous data manipulation
JP6019604B2 (ja) * 2012-02-14 2016-11-02 日本電気株式会社 音声認識装置、音声認識方法、及びプログラム
JP5957269B2 (ja) * 2012-04-09 2016-07-27 クラリオン株式会社 音声認識サーバ統合装置および音声認識サーバ統合方法
SG11201406477UA (en) * 2012-04-10 2014-11-27 Tencent Tech Shenzhen Co Ltd Method for monitoring and manging battery charge level and apparatus for performing the same
US9117449B2 (en) * 2012-04-26 2015-08-25 Nuance Communications, Inc. Embedded system for construction of small footprint speech recognition with user-definable constraints
US9093076B2 (en) * 2012-04-30 2015-07-28 2236008 Ontario Inc. Multipass ASR controlling multiple applications
US9997069B2 (en) * 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9142215B2 (en) * 2012-06-15 2015-09-22 Cypress Semiconductor Corporation Power-efficient voice activation
JP6155592B2 (ja) * 2012-10-02 2017-07-05 株式会社デンソー 音声認識システム
WO2014055076A1 (en) * 2012-10-04 2014-04-10 Nuance Communications, Inc. Improved hybrid controller for asr
US9959865B2 (en) * 2012-11-13 2018-05-01 Beijing Lenovo Software Ltd. Information processing method with voice recognition
WO2014142702A1 (en) 2013-03-15 2014-09-18 Obschestvo S Ogranichennoy Otvetstvennostiyu "Speaktoit" Selective speech recognition for chat and digital personal assistant systems
DE102013001219B4 (de) * 2013-01-25 2019-08-29 Inodyn Newmedia Gmbh Verfahren und System zur Sprachaktivierung eines Software-Agenten aus einem Standby-Modus
US11393461B2 (en) * 2013-03-12 2022-07-19 Cerence Operating Company Methods and apparatus for detecting a voice command
US9112984B2 (en) * 2013-03-12 2015-08-18 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US10572476B2 (en) * 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US9875494B2 (en) * 2013-04-16 2018-01-23 Sri International Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant
EP2801974A3 (en) * 2013-05-09 2015-02-18 DSP Group Ltd. Low power activation of a voice activated device
EP3937002A1 (en) * 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
EP2821943A1 (en) * 2013-07-03 2015-01-07 Accenture Global Services Limited Query response device
US9305554B2 (en) * 2013-07-17 2016-04-05 Samsung Electronics Co., Ltd. Multi-level speech recognition
EP3040985B1 (en) * 2013-08-26 2023-08-23 Samsung Electronics Co., Ltd. Electronic device and method for voice recognition
US9508345B1 (en) 2013-09-24 2016-11-29 Knowles Electronics, Llc Continuous voice sensing
US9307080B1 (en) * 2013-09-27 2016-04-05 Angel.Com Incorporated Dynamic call control
US9245527B2 (en) * 2013-10-11 2016-01-26 Apple Inc. Speech recognition wake-up of a handheld portable electronic device
US20150112690A1 (en) * 2013-10-22 2015-04-23 Nvidia Corporation Low power always-on voice trigger architecture
US8990079B1 (en) * 2013-12-15 2015-03-24 Zanavox Automatic calibration of command-detection thresholds
US9804820B2 (en) * 2013-12-16 2017-10-31 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
CN105723451B (zh) * 2013-12-20 2020-02-28 英特尔公司 从低功率始终侦听模式到高功率语音识别模式的转换
US9589564B2 (en) * 2014-02-05 2017-03-07 Google Inc. Multiple speech locale-specific hotword classifiers for selection of a speech locale
WO2015126095A1 (ko) * 2014-02-21 2015-08-27 삼성전자 주식회사 전자 장치
WO2015149216A1 (en) * 2014-03-31 2015-10-08 Intel Corporation Location aware power management scheme for always-on- always-listen voice recognition system
TWI566107B (zh) * 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US20150364129A1 (en) * 2014-06-17 2015-12-17 Google Inc. Language Identification
KR102223728B1 (ko) * 2014-06-20 2021-03-05 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102208477B1 (ko) * 2014-06-30 2021-01-27 삼성전자주식회사 마이크 운용 방법 및 이를 지원하는 전자 장치
US10235996B2 (en) * 2014-10-01 2019-03-19 XBrain, Inc. Voice and connection platform
US9502032B2 (en) * 2014-10-08 2016-11-22 Google Inc. Dynamically biasing language models
US9318107B1 (en) * 2014-10-09 2016-04-19 Google Inc. Hotword detection on multiple devices
US9741344B2 (en) * 2014-10-20 2017-08-22 Vocalzoom Systems Ltd. System and method for operating devices using voice commands
US9911415B2 (en) * 2014-12-19 2018-03-06 Lenovo (Singapore) Pte. Ltd. Executing a voice command during voice input
KR102387567B1 (ko) * 2015-01-19 2022-04-18 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
US9653079B2 (en) * 2015-02-12 2017-05-16 Apple Inc. Clock switching in always-on component
US10482184B2 (en) * 2015-03-08 2019-11-19 Google Llc Context-based natural language processing
US9721566B2 (en) * 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) * 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9865265B2 (en) * 2015-06-06 2018-01-09 Apple Inc. Multi-microphone speech recognition systems and related techniques
US10026399B2 (en) * 2015-09-11 2018-07-17 Amazon Technologies, Inc. Arbitration between voice-enabled devices
US9875081B2 (en) * 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
US9996316B2 (en) * 2015-09-28 2018-06-12 Amazon Technologies, Inc. Mediation of wakeword response for multiple devices
US11587559B2 (en) * 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US9965024B2 (en) * 2015-12-01 2018-05-08 International Business Machines Corporation Overriding feature to unblock contacts in a portable device during an energy saving mode of the portable device
WO2017100167A1 (en) * 2015-12-06 2017-06-15 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
DK179415B1 (en) * 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US20180025731A1 (en) * 2016-07-21 2018-01-25 Andrew Lovitt Cascading Specialized Recognition Engines Based on a Recognition Policy
US10567579B2 (en) * 2016-08-24 2020-02-18 Vonage Business Inc. Systems and methods for providing integrated computerized personal assistant services in telephony communications
US10685656B2 (en) * 2016-08-31 2020-06-16 Bose Corporation Accessing multiple virtual personal assistants (VPA) from a single device
US11042541B2 (en) * 2016-10-03 2021-06-22 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
US11663535B2 (en) * 2016-10-03 2023-05-30 Google Llc Multi computational agent performance of tasks
US10217453B2 (en) * 2016-10-14 2019-02-26 Soundhound, Inc. Virtual assistant configured by selection of wake-up phrase
US10950230B2 (en) * 2016-10-28 2021-03-16 Panasonic Intellectual Property Corporation Of America Information processing device and information processing method
US10559309B2 (en) * 2016-12-22 2020-02-11 Google Llc Collaborative voice controlled devices
US10224031B2 (en) * 2016-12-30 2019-03-05 Google Llc Generating and transmitting invocation request to appropriate third-party agent
US10679608B2 (en) * 2016-12-30 2020-06-09 Google Llc Conversation-aware proactive notifications for a voice interface device
US11164570B2 (en) * 2017-01-17 2021-11-02 Ford Global Technologies, Llc Voice assistant tracking and activation
CN114067794A (zh) * 2017-02-07 2022-02-18 路创技术有限责任公司 基于音频的负载控制系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095383A (ja) * 2014-11-14 2016-05-26 株式会社ATR−Trek 音声認識クライアント装置及びサーバ型音声認識装置
JP2016151608A (ja) * 2015-02-16 2016-08-22 アルパイン株式会社 電子装置、情報端末システム、音声認識機能の起動プログラムおよび音声認識機能の起動方法
JP2019533182A (ja) * 2016-08-05 2019-11-14 ソノズ インコーポレイテッド 複数の音声サービス

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144274A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN111667824A (zh) * 2019-03-07 2020-09-15 本田技研工业株式会社 智能体装置、智能体装置的控制方法及存储介质
JP2020154082A (ja) * 2019-03-19 2020-09-24 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP7280074B2 (ja) 2019-03-19 2023-05-23 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2021004950A (ja) * 2019-06-25 2021-01-14 株式会社デンソーテン 情報処理装置、情報処理システムおよび情報処理方法
JP2022534648A (ja) * 2019-10-24 2022-08-03 株式会社ユニオンプレイス 個人化された仮想秘書を提供する装置
JP7372693B2 (ja) 2019-10-24 2023-11-01 株式会社ユニオンプレイス 個人化された仮想秘書を提供する装置
JP2021117296A (ja) * 2020-01-23 2021-08-10 トヨタ自動車株式会社 エージェントシステム、端末装置およびエージェントプログラム
JP2021117308A (ja) * 2020-01-23 2021-08-10 トヨタ自動車株式会社 情報処理システム、情報処理装置、及びプログラム
JP7264071B2 (ja) 2020-01-23 2023-04-25 トヨタ自動車株式会社 情報処理システム、情報処理装置、及びプログラム

Also Published As

Publication number Publication date
KR20180115628A (ko) 2018-10-23
US10748531B2 (en) 2020-08-18
KR20230169052A (ko) 2023-12-15
KR102660922B1 (ko) 2024-04-25
JP7083270B2 (ja) 2022-06-10
EP3389044A1 (en) 2018-10-17
EP3389044B1 (en) 2019-12-11
US20180301147A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP7083270B2 (ja) 複数のインテリジェントパーソナルアシスタントサービスに対する管理レイヤ
KR102475904B1 (ko) 다중-장치 시스템에서의 음성 명령 실행
CN110018735B (zh) 智能个人助理接口系统
US11822857B2 (en) Architecture for a hub configured to control a second device while a connection to a remote system is unavailable
KR102429436B1 (ko) 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법
JP6553736B2 (ja) 音声対応電子デバイスにおける選択的オフライン対応の音声アクションのためのデータのローカル維持
JP6272901B2 (ja) 発話対象の識別
JP6549715B2 (ja) 音声ベースシステムにおけるアプリケーションフォーカス
US9983849B2 (en) Voice command-driven database
CN107430855B (zh) 在支持语音的电子设备中对语音转文本模型的场境敏感动态更新
JP6125088B2 (ja) 複数のデバイス上でコンテンツを提供すること
JP2020079921A (ja) 音声インタラクション実現方法、装置、コンピュータデバイス及びプログラム
US10135950B2 (en) Creating a cinematic storytelling experience using network-addressable devices
US20180012595A1 (en) Simple affirmative response operating system
US10997963B1 (en) Voice based interaction based on context-based directives
CN116888664A (zh) 在单个话语中组合设备或助理专用热词
CN116802602A (zh) 热词组
US10693944B1 (en) Media-player initialization optimization
US11275555B1 (en) Resolving a device prompt
US11875786B2 (en) Natural language recognition assistant which handles information in data sessions
EP3704848A1 (en) Automated playback and redistribution of internet streaming content with automatic retrieval of user credentials
US20240205628A1 (en) Spatial Audio for Device Assistants

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220531

R150 Certificate of patent or registration of utility model

Ref document number: 7083270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150