JP2019091332A - 音声認識システム、電子機器、及び、サーバー - Google Patents

音声認識システム、電子機器、及び、サーバー Download PDF

Info

Publication number
JP2019091332A
JP2019091332A JP2017220659A JP2017220659A JP2019091332A JP 2019091332 A JP2019091332 A JP 2019091332A JP 2017220659 A JP2017220659 A JP 2017220659A JP 2017220659 A JP2017220659 A JP 2017220659A JP 2019091332 A JP2019091332 A JP 2019091332A
Authority
JP
Japan
Prior art keywords
command
application
electronic device
manager
command manager
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017220659A
Other languages
English (en)
Inventor
近藤 裕介
Yusuke Kondo
裕介 近藤
伸也 日月
Shinya Tachimori
伸也 日月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Onkyo Corp
Original Assignee
Onkyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Onkyo Corp filed Critical Onkyo Corp
Priority to JP2017220659A priority Critical patent/JP2019091332A/ja
Publication of JP2019091332A publication Critical patent/JP2019091332A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】帯域負荷がかかってしまうこと、即時性、オフラインで利用できない等の問題を解決すること。【解決手段】コマンドマネージャーは、マイクに入力される音声を、サーバーに送信する。また、コマンドマネージャーは、サーバーから送信される、サーバーに送信した音声に基づくコマンドを受信する。また、コマンドマネージャーは、受信したコマンドに基づいて、コマンドを送信するアプリケーションを決定する。また、コマンドマネージャーは、決定したアプリケーションにコマンドを送信する。アプリケーションは、コマンドマネージャーから送信されるコマンドを処理する。【選択図】図4

Description

本発明は、音声認識システム、並びに、音声認識システムを構成する電子機器、及び、サーバーに関する。
マイクとスピーカーとを備え、ユーザーからの発話音声の操作を受け付ける機能を有する電子機器がある。図5は、電子機器を含む音声認識システムを示す図である。電子機器は、ユーザーの発話音声を外部のサーバーに送信する。サーバーは、発話音声をテキスト化し、文章理解(NLU:Natural Language Understanding)を行う。サーバーは、文章理解後、適切なコマンドに割り当て(ドメイン)、コマンドに該当するアプリケーションを実行する。電子機器は、ユーザーの要求に応じて、アプリケーション上で外部のサーバーと接続し、適切な情報を取り出す。例えば、ユーザーが「今日の大阪の天気は?」と発話した場合、サーバーは、今日の大阪の天気の情報をテキストデータとして取り出す。サーバーは、取り出したテキストデータ、例えば、「今日の大阪の天気は、晴れです。」というテキストデータを音声に変換し、電子機器に送信する。電子機器は、サーバーから送信された音声をスピーカーから出力することで、ユーザーの要求に対しての応答を行う。特許文献1には、ユーザーが天気、目的地(最寄りのレストラン等)の情報を要求している例が示されている。
従来の音声認識システムの構成では、アプリケーションの拡大性、実装性を考慮し、図5に示すように、サーバー側でのみアプリケーションを実装する設計としている。
特開2014−179067号公報
図5に示す例では、音声の内容により、実行したいアプリケーションがサーバー(クラウド)側で実装されている。サーバー側でアプリケーションを設計することで、電子機器のプラットフォームに依存せずに、アプリケーションを実行できるという利点がある。しかしながら、電子機器のセンシング情報がリアルタイムで必要なアプリケーションは、常に、電子機器とアプリケーションとを接続しておく必要がある。このため、帯域負荷がかかってしまうこと、即時性、オフラインで利用できない等の問題がある。
本発明の目的は、上記問題を解決することである。
第1の発明の電子機器は、コマンドマネージャーと、アプリケーションと、を有し、前記コマンドマネージャーと、前記アプリケーションと、に従って動作する制御部を備え、前記制御部は、前記コマンドマネージャーに従って、入力される音声を、サーバーに送信し、前記サーバーから送信される、前記サーバーに送信した音声に基づくコマンドを受信し、受信したコマンドに基づいて、コマンドを送信する前記アプリケーションを決定し、決定した前記アプリケーションにコマンドを送信し、前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドを処理することを特徴とする。
本発明では、制御部は、内部のアプリケーションに従って、コマンドマネージャーから送信されるコマンドを処理する。これにより、外部のアプリケーションに接続することなく、処理を実行することができるため、帯域負荷がかかることがない。また、即時に処理を実行可能である。また、オフラインでも利用可能である。また、電子機器にアプリケーションを設けることで、電子機器のセンシング情報を随時利用することができる。また、電子機器にコマンドマネージャーを設けることで、他のアプリケーションが、テキスト変換、音声入力を意識せず、且つ、他のアプリケーションの機能を利用することができる。
第2の発明の電子機器は、第1の発明の電子機器において、前記制御部は、前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドに基づいて、外部のサービスから情報を取得することを特徴とする。
第3の発明の電子機器は、第2の発明の電子機器において、前記制御部は、前記アプリケーションに従って、取得した情報を前記コマンドマネージャーに送信することを特徴とする。
第4の発明の電子機器は、第3の発明の電子機器において、前記制御部は、前記コマンドマネージャーに従って、前記アプリケーションから送信される情報に含まれるテキストを、テキスト・音声変換により、音声に変換することを特徴とする。
第5の発明の電子機器は、第4の発明の電子機器において、スピーカーをさらに備え、前記制御部は、前記コマンドマネージャーに従って、音声を前記スピーカーに出力することを特徴とする。
第6の発明の電子機器は、第1〜第5のいずれかの発明の電子機器において、マイクをさらに備え、前記制御部は、前記コマンドマネージャーに従って、前記マイクに入力される音声を、前記サーバーに送信することを特徴とする。
第7の発明の電子機器は、第1〜第6のいずれかの発明の電子機器において、前記アプリケーションは、複数のアプリケーションを含み、前記制御部は、前記アプリーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドを、前記コマンドマネージャーに送信することを特徴とする。
本発明では、制御部は、アプリケーションに従って、コマンドマネージャーから送信されるコマンドを処理できない場合、他のアプリケーションにコマンドを処理させるためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、他のアプリケーションにコマンドを処理させるため、そのアプリケーションにコマンドを送信する。このように、本発明では、アプリケーション間の連携をとることができる。
第8の発明の電子機器は、第7の発明の電子機器において、前記制御部は、前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドに、処理の対象となるパラメータを付加して、前記コマンドマネージャーに送信することを特徴とする。
第9の発明の電子機器は、第1〜第8のいずれかの発明の電子機器において、前記アプリケーションは、予定を管理するための予定アプリケーションと、ナビゲーションを行うためのナビゲーションアプリケーションと、を含み、前記制御部は、前記予定アプリケーションに従って、前記コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、前記ナビゲーションアプリケーションが目的地を設定するためのコマンドを、前記コマンドマネージャーに送信することを特徴とする。
本発明では、制御部は、予定アプリケーションに従って、コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、ナビゲーションアプリケーションが目的地を設定するためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、ナビケーションアプリケーションに目的地を設定させるため、ナビゲーションアプリケーションにコマンドを送信する。このように、本発明では、予定アプリケーションとナビゲーションアプリケーションとの間で連携をとることができる。
第10の発明の電子機器は、第9の発明の電子機器において、前記制御部は、前記予定アプリケーションに従って、目的地に関するコマンドを受信した場合、前記ナビゲーションアプリが目的地を設定するためのコマンドに、パラメータとして、目的地を付加して、前記コマンドマネージャーに送信することを特徴とする。
第11の発明のサーバーは、電子機器から送信される音声データをテキストに変換し、変換したテキストに基づいて、文章理解を行い、文章理解に基づいて、コマンドに変換し、変換したコマンドを前記電子機器に送信する。
第12の発明の音声認識システムは、第1〜第10のいずれかの発明の電子機器と、第11の発明のサーバーと、を備えることを特徴とする。
本発明によれば、帯域負荷がかかることがない。また、即時に処理を実行可能である。また、オフラインでも利用可能である。
本発明の実施形態に係る音声認識システムの構成を示すブロック図である。 複数のアプリケーションを示す図である。 音声認識システムの動作を示すシーケンス図である。 音声認識システムにおいて、音声認識を行う具体例を説明するためのシーケンス図である。 電子機器を含む音声認識システムを示す図である。
以下、本発明の実施形態について説明する。図1は、本実施形態に係る音声認識システムの構成を示すブロック図である。音声認識システム1は、電子機器2と、クラウドサーバー3と、サービス/データ4と、を備える。
電子機器2は、図示しないが、SoC(System on Chip)(制御部)と、マイクと、スピーカーと、を備える。また、電子機器2は、コマンドマネージャーと、アプリケーションと、を有する。SoCは、コマンドマネージャー、アプリケーションに従って、処理を実行する。ここで、SoCは、コマンドマネージャー、アプリケーションに従って、処理を実行するが、以下では、単に、コマンドマネージャー、アプリケーションが処理を実行する、と記載する。マイクは、外部の音声を集音する。スピーカーは、音声データに基づいて、音声を出力する。
コマンドマネージャーは、マイクが集音した音声データをクラウドサーバー3に送信する。外部のクラウドサーバー3は、電子機器2から送信された音声データをテキストに変換する。クラウドサーバー3は、テキストに基づいて、文章理解を行う。クラウドサーバー3は、文章理解に基づいて、コマンドに変換する。クラウドサーバー3は、変換したコマンドを電子機器2に送信する。
コマンドマネージャーは、クラウドサーバー3から送信されるコマンドを受信する。コマンドマネージャーは、受信したコマンドに基づいて、コマンドを送信するアプリケーションを決定する。コマンドが天気に関するコマンドであれば、コマンドマネージャーは、天気コマンドを送信するアプリケーションを、天気アプリケーションに決定する。また、コマンドが予定に関するコマンドであれば、コマンドマネージャーは、予定コマンドを送信するアプリケーションを、予定アプリケーションに決定する。コマンドマネージャーは、決定したアプリケーションにコマンドを送信する。このように、コマンドマネージャーは、アプリケーションに対して、割り当てられたコマンドを送信する。
アプリケーションは、コマンドマネージャーから送信されるコマンドを処理する。具体的には、アプリケーションは、コマンドに基づいて、外部のサービス/データ4から情報を取得する。例えば、天気アプリケーションは、天気サービスから、天気情報を取得する。アプリケーションは、取得した情報をコマンドマネージャーに送信する。コマンドマネージャーは、アプリケーションから送信される情報に含まれるテキストを、テキスト・音声変換により、音声データに変換する。コマンドマネージャーは、変換した音声データをスピーカーに出力する。スピーカーは、出力された音声データに基づいて、音声を出力する。ここで、サービス/データ4は、上記のように、天気の情報を有する天気サービス、料理のレシピの情報を有する料理サービス、予定の情報を有する予定サービス等である。
アプリケーションは、図2に示すように、複数のアプリケーションを含む。例えば、アプリケーションは、天気を知らせるための天気アプリケーション、予定を管理するための予定アプリケーション、ナビゲーションを行うためのナビ(ナビゲーション)アプリケーション、料理をアシストするための料理アプリケーション、音楽を再生するための音楽アプリケーション等である。コマンドマネージャーは、図2に示すように、複数のアプリケーションを管理している。
上述のとおり、図3に示すように、コマンドマネージャーは、マイクが集音した音声データをクラウドサーバー3に送信する。クラウドサーバー3は、電子機器2にコマンドを送信する。コマンドマネージャーは、コマンドを適切なアプリケーションに送信する。アプリケーションは、コマンドに応じて、コマンドマネージャーにレスポンスする。コマンドマネージャーは、アプリケーションからレスポンスされる情報に含まれるテキストを音声に変換し、スピーカーに出力する。アプリケーションからのレスポンスには、アプリケーションから発話したいテキストデータ(SPEECH_TEXT)、聞き返したい場合のフラグ(AUTO_LISTEN)、アプリケーションから異なるアプリケーションに問い合わせる場合の履歴情報(APP_CONTEXT)が用意されている。
音声認識システム1において、音声認識を行う具体例を、図4に示すシーケンス図に基づいて説明する。まず、ユーザーが、「今日の予定は?」と発話したとする。コマンドマネージャーは、ユーザーが発話した音声「今日の予定は?」をクラウドサーバーに送信する。クラウドサーバー3は、「今日の予定は?」に基づいて、コマンド「REMINDER_SCHEDULE」を電子機器2に送信する。
コマンドマネージャーは、クラウドサーバー3から送信されるコマンド「REMINDER_SCHEDULE」を受信する。コマンドマネージャーは、受信したコマンド「REMINDER_SCHEDULE」に基づいて、コマンドを送信するアプリケーションを決定する。コマンド「REMINDER_SCHEDULE」は、予定アプリケーションのコマンドであるから、コマンドマネージャーは、コマンドを送信するアプリケーションを予定アプリケーションに決定する。コマンドマネージャーは、「今日の予定は?」が変換されたコマンド「REMINDER_SCHEDULE」を予定アプリケーションに送信する。予定アプリケーションは、コマンドマネージャーから送信されるコマンド「REMINDER_SCHEDULE」を受信する。
予定アプリケーションは、コマンド「REMINDER_SCHEDULE」に基づいて、予定サービスから今日の予定の情報を取得する。予定アプリケーションは、「SPEECH_TEXT」に「15時から東京駅で会食です。目的地に設定しますか?」と設定し、「AUTO_LISTEN」をオンにし、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、ユーザーに対して質問をすることができる。
コマンドマネージャーは、音声・テキスト変換により、音声データ「15時から東京駅で会食です。目的地に設定しますか?」を取得する。コマンドマネージャーは、取得した音声データをスピーカーに出力する。スピーカーは、音声データに基づいて、音声「15時から東京駅で会食です。目的地に設定しますか?」を出力する。
次に、ユーザーが、「はい。」と回答したとする。マイクは、音声「はい。」を集音する。コマンドマネージャーは、マイクが集音した音声データ「はい。」をクラウドサーバーに送信する。クラウドサーバー3は、「はい。」に基づいて、コマンド「DIALOG_YES」を電子機器2に送信する。コマンドマネージャーは、クラウドサーバー3から送信されるコマンド「DIALOG_YES」を受信する。コマンドマネージャーは、受信したコマンド「DIALOG_YES」を予定アプリケーションに送信する。予定アプリケーションは、コマンドマネージャーから送信されるコマンド「DIALOG_YES」を受信し、目的地を「東京駅」に設定する処理を行う。
ここで、予定アプリケーションは、目的地を設定する機能を有していない。このため、予定アプリケーションは、コマンドマネージャーに、「Action」として、「NAVI_SET_DESTINATION」(目的地を設定するためのコマンド)を送信し、「parameter」に「東京駅」(パラメータ)を設定する。ここで、図4に示す「Lifespan」は、コマンドの記憶できる上限で、5の場合、5回、コマンドマネージャーがやり取りすると、履歴情報(APP_CONTEXT)が消える。このように、アプリケーションは、コマンドマネージャーから送信されるコマンドを処理できない場合、他のアプリケーションにコマンドを処理させるためのコマンドに、処理の対象となるパラメータを付加して、コマンドマネージャーに送信する。
コマンドマネージャーは、コマンド「NAVI_SET_DESTINATION」が、ナビアプリケーションのコマンドであることが分かるため、「Input_Context」と「Output_Context」とに、アプリケーション情報(予定アプリケーション、ナビアプリケーション)を付加し、ナビアプリケーションに送信する。ナビアプリケーションは、「SPEECH_TEXT」に「東京駅に目的地を設定しました。」と設定し、「AUTO_LISTEN」をオフにし、コマンドマネージャーに送信する。
コマンドマネージャーは、音声・テキスト変換により、音声データ「東京駅を目的地に設定しました。」を取得する。コマンドマネージャーは、取得した音声データをスピーカーに出力する。スピーカーは、音声データに基づいて、音声「東京駅を目的地に設定しました。」を出力する。
以上説明したように、本実施形態では、電子機器2に実装されたアプリケーションは、コマンドマネージャーから送信されるコマンドを処理する。これにより、外部のアプリケーションに接続することなく、処理を実行することができるため、帯域負荷がかかることがない。また、即時に処理を実行可能である。また、オフラインでも利用可能である。また、電子機器2にアプリケーションを設けることで、電子機器2のセンシング情報を随時利用することができる。また、電子機器2にコマンドマネージャーを設けることで、他のアプリケーションが、テキスト変換、音声入力を意識せず、且つ、他のアプリケーションの機能を利用することができる。
また、本実施形態では、アプリケーションは、コマンドマネージャーから送信されるコマンドを処理できない場合、他のアプリケーションにコマンドを処理させるためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、他のアプリケーションにコマンドを処理させるため、そのアプリケーションにコマンドを送信する。このように、本実施形態では、アプリケーション間の連携をとることができる。
また、本実施形態では、予定アプリケーションは、コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、ナビゲーションアプリケーションが目的地を設定するためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、ナビケーションアプリケーションに目的地を設定させるため、ナビゲーションアプリケーションにコマンドを送信する。このように、本実施形態では、予定アプリケーションとナビゲーションアプリケーションとの間で連携をとることができる。
以上、本発明の実施形態について説明したが、本発明を適用可能な形態は、上述の実施形態には限られるものではなく、以下に例示するように、本発明の趣旨を逸脱しない範囲で適宜変更を加えることが可能である。
上述の実施形態においては、電子機器2のみにアプリケーションが実装されている構成を例示した。これに限らず、クラウドサーバー3にもアプリケーションが実装されていてもよい。
本発明は、音声認識システム、並びに、音声認識システムを構成する電子機器、及び、サーバーに好適に採用され得る。
1 音声認識システム
2 電子機器
3 クラウドサーバー
4 サービス/データ

Claims (12)

  1. コマンドマネージャーと、アプリケーションと、を有し、
    前記コマンドマネージャーと、前記アプリケーションと、に従って動作する制御部を備え、
    前記制御部は、
    前記コマンドマネージャーに従って、
    入力される音声を、サーバーに送信し、
    前記サーバーから送信される、前記サーバーに送信した音声に基づくコマンドを受信し、
    受信したコマンドに基づいて、コマンドを送信する前記アプリケーションを決定し、
    決定した前記アプリケーションにコマンドを送信し、
    前記アプリケーションに従って、
    前記コマンドマネージャーから送信されるコマンドを処理することを特徴とする電子機器。
  2. 前記制御部は、
    前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドに基づいて、外部のサービスから情報を取得することを特徴とする請求項1に記載の電子機器。
  3. 前記制御部は、
    前記アプリケーションに従って、取得した情報を前記コマンドマネージャーに送信することを特徴とする請求項2に記載の電子機器。
  4. 前記制御部は、
    前記コマンドマネージャーに従って、前記アプリケーションから送信される情報に含まれるテキストを、テキスト・音声変換により、音声に変換することを特徴とする請求項3に記載の電子機器。
  5. スピーカーをさらに備え、
    前記制御部は、
    前記コマンドマネージャーに従って、音声を前記スピーカーに出力することを特徴とする請求項4に記載の電子機器。
  6. マイクをさらに備え、
    前記制御部は、
    前記コマンドマネージャーに従って、
    前記マイクに入力される音声を、前記サーバーに送信することを特徴とする請求項1〜5のいずれか1項に記載の電子機器。
  7. 前記アプリケーションは、複数のアプリケーションを含み、
    前記制御部は、
    前記アプリーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドを、前記コマンドマネージャーに送信することを特徴とする請求項1〜6のいずれか1項に記載の電子機器。
  8. 前記制御部は、
    前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドに、処理の対象となるパラメータを付加して、前記コマンドマネージャーに送信することを特徴とする請求項7に記載の電子機器。
  9. 前記アプリケーションは、予定を管理するための予定アプリケーションと、ナビゲーションを行うためのナビゲーションアプリケーションと、を含み、
    前記制御部は、
    前記予定アプリケーションに従って、前記コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、前記ナビゲーションアプリケーションが目的地を設定するためのコマンドを、前記コマンドマネージャーに送信することを特徴とする請求項1〜8のいずれか1項に記載の電子機器。
  10. 前記制御部は、
    前記予定アプリケーションに従って、目的地に関するコマンドを受信した場合、前記ナビゲーションアプリが目的地を設定するためのコマンドに、パラメータとして、目的地を付加して、前記コマンドマネージャーに送信することを特徴とする請求項9に記載の電子機器。
  11. 電子機器から送信される音声データをテキストに変換し、
    変換したテキストに基づいて、文章理解を行い、
    文章理解に基づいて、コマンドに変換し、
    変換したコマンドを前記電子機器に送信することを特徴とするサーバー。
  12. 請求項1〜10のいずれか1項に記載の電子機器と、
    請求項7に記載のサーバーと、
    を備えることを特徴とする音声認識システム。
JP2017220659A 2017-11-16 2017-11-16 音声認識システム、電子機器、及び、サーバー Pending JP2019091332A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220659A JP2019091332A (ja) 2017-11-16 2017-11-16 音声認識システム、電子機器、及び、サーバー

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220659A JP2019091332A (ja) 2017-11-16 2017-11-16 音声認識システム、電子機器、及び、サーバー

Publications (1)

Publication Number Publication Date
JP2019091332A true JP2019091332A (ja) 2019-06-13

Family

ID=66836480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220659A Pending JP2019091332A (ja) 2017-11-16 2017-11-16 音声認識システム、電子機器、及び、サーバー

Country Status (1)

Country Link
JP (1) JP2019091332A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022177164A1 (ko) * 2021-02-19 2022-08-25 삼성전자주식회사 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법
US11862160B2 (en) 2020-10-27 2024-01-02 Seiko Epson Corporation Control method for display system, and display system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11862160B2 (en) 2020-10-27 2024-01-02 Seiko Epson Corporation Control method for display system, and display system
WO2022177164A1 (ko) * 2021-02-19 2022-08-25 삼성전자주식회사 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법

Similar Documents

Publication Publication Date Title
US11468889B1 (en) Speech recognition services
US8117036B2 (en) Non-disruptive side conversation information retrieval
EP3084633B1 (en) Attribute-based audio channel arbitration
CN107004411B (zh) 话音应用架构
US11949818B1 (en) Selecting user device during communications session
EP3444813B1 (en) User-guided arbitration of speech processing results
KR20190075800A (ko) 지능형 개인 보조 인터페이스 시스템
US9293134B1 (en) Source-specific speech interactions
JP5616390B2 (ja) 応答生成装置、応答生成方法および応答生成プログラム
JP2016114744A (ja) 電子機器制御システム、端末装置、及び、サーバー
JP2019091332A (ja) 音声認識システム、電子機器、及び、サーバー
US10002611B1 (en) Asynchronous audio messaging
KR20110080096A (ko) 확장 도메인을 이용한 대화 시스템 및 그 자연어 인식 방법
WO2018198791A1 (ja) 信号処理装置および方法、並びにプログラム
US10964318B2 (en) Dialogue management
KR20200024511A (ko) 대화 에이전트의 동작 방법 및 그 장치
EP3444812B1 (en) Automatic speech recognition system, corresponding method and computer-readable medium
JP2018018053A (ja) 端末装置、翻訳方法、及び、翻訳プログラム
CN111754974B (zh) 信息处理方法、装置、设备和计算机存储介质
US20190189119A1 (en) Electronic device
JP2020119043A (ja) 音声翻訳システムおよび音声翻訳方法
JP6386690B1 (ja) 音声データ最適化システム
JP6389348B1 (ja) 音声データ最適化システム
WO2019174604A1 (zh) 电子设备及电子设备控制方法
EP3502868A1 (en) Intelligent personal assistant interface system