JP2019091332A - 音声認識システム、電子機器、及び、サーバー - Google Patents
音声認識システム、電子機器、及び、サーバー Download PDFInfo
- Publication number
- JP2019091332A JP2019091332A JP2017220659A JP2017220659A JP2019091332A JP 2019091332 A JP2019091332 A JP 2019091332A JP 2017220659 A JP2017220659 A JP 2017220659A JP 2017220659 A JP2017220659 A JP 2017220659A JP 2019091332 A JP2019091332 A JP 2019091332A
- Authority
- JP
- Japan
- Prior art keywords
- command
- application
- electronic device
- manager
- command manager
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】帯域負荷がかかってしまうこと、即時性、オフラインで利用できない等の問題を解決すること。【解決手段】コマンドマネージャーは、マイクに入力される音声を、サーバーに送信する。また、コマンドマネージャーは、サーバーから送信される、サーバーに送信した音声に基づくコマンドを受信する。また、コマンドマネージャーは、受信したコマンドに基づいて、コマンドを送信するアプリケーションを決定する。また、コマンドマネージャーは、決定したアプリケーションにコマンドを送信する。アプリケーションは、コマンドマネージャーから送信されるコマンドを処理する。【選択図】図4
Description
本発明は、音声認識システム、並びに、音声認識システムを構成する電子機器、及び、サーバーに関する。
マイクとスピーカーとを備え、ユーザーからの発話音声の操作を受け付ける機能を有する電子機器がある。図5は、電子機器を含む音声認識システムを示す図である。電子機器は、ユーザーの発話音声を外部のサーバーに送信する。サーバーは、発話音声をテキスト化し、文章理解(NLU:Natural Language Understanding)を行う。サーバーは、文章理解後、適切なコマンドに割り当て(ドメイン)、コマンドに該当するアプリケーションを実行する。電子機器は、ユーザーの要求に応じて、アプリケーション上で外部のサーバーと接続し、適切な情報を取り出す。例えば、ユーザーが「今日の大阪の天気は?」と発話した場合、サーバーは、今日の大阪の天気の情報をテキストデータとして取り出す。サーバーは、取り出したテキストデータ、例えば、「今日の大阪の天気は、晴れです。」というテキストデータを音声に変換し、電子機器に送信する。電子機器は、サーバーから送信された音声をスピーカーから出力することで、ユーザーの要求に対しての応答を行う。特許文献1には、ユーザーが天気、目的地(最寄りのレストラン等)の情報を要求している例が示されている。
従来の音声認識システムの構成では、アプリケーションの拡大性、実装性を考慮し、図5に示すように、サーバー側でのみアプリケーションを実装する設計としている。
図5に示す例では、音声の内容により、実行したいアプリケーションがサーバー(クラウド)側で実装されている。サーバー側でアプリケーションを設計することで、電子機器のプラットフォームに依存せずに、アプリケーションを実行できるという利点がある。しかしながら、電子機器のセンシング情報がリアルタイムで必要なアプリケーションは、常に、電子機器とアプリケーションとを接続しておく必要がある。このため、帯域負荷がかかってしまうこと、即時性、オフラインで利用できない等の問題がある。
本発明の目的は、上記問題を解決することである。
第1の発明の電子機器は、コマンドマネージャーと、アプリケーションと、を有し、前記コマンドマネージャーと、前記アプリケーションと、に従って動作する制御部を備え、前記制御部は、前記コマンドマネージャーに従って、入力される音声を、サーバーに送信し、前記サーバーから送信される、前記サーバーに送信した音声に基づくコマンドを受信し、受信したコマンドに基づいて、コマンドを送信する前記アプリケーションを決定し、決定した前記アプリケーションにコマンドを送信し、前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドを処理することを特徴とする。
本発明では、制御部は、内部のアプリケーションに従って、コマンドマネージャーから送信されるコマンドを処理する。これにより、外部のアプリケーションに接続することなく、処理を実行することができるため、帯域負荷がかかることがない。また、即時に処理を実行可能である。また、オフラインでも利用可能である。また、電子機器にアプリケーションを設けることで、電子機器のセンシング情報を随時利用することができる。また、電子機器にコマンドマネージャーを設けることで、他のアプリケーションが、テキスト変換、音声入力を意識せず、且つ、他のアプリケーションの機能を利用することができる。
第2の発明の電子機器は、第1の発明の電子機器において、前記制御部は、前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドに基づいて、外部のサービスから情報を取得することを特徴とする。
第3の発明の電子機器は、第2の発明の電子機器において、前記制御部は、前記アプリケーションに従って、取得した情報を前記コマンドマネージャーに送信することを特徴とする。
第4の発明の電子機器は、第3の発明の電子機器において、前記制御部は、前記コマンドマネージャーに従って、前記アプリケーションから送信される情報に含まれるテキストを、テキスト・音声変換により、音声に変換することを特徴とする。
第5の発明の電子機器は、第4の発明の電子機器において、スピーカーをさらに備え、前記制御部は、前記コマンドマネージャーに従って、音声を前記スピーカーに出力することを特徴とする。
第6の発明の電子機器は、第1〜第5のいずれかの発明の電子機器において、マイクをさらに備え、前記制御部は、前記コマンドマネージャーに従って、前記マイクに入力される音声を、前記サーバーに送信することを特徴とする。
第7の発明の電子機器は、第1〜第6のいずれかの発明の電子機器において、前記アプリケーションは、複数のアプリケーションを含み、前記制御部は、前記アプリーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドを、前記コマンドマネージャーに送信することを特徴とする。
本発明では、制御部は、アプリケーションに従って、コマンドマネージャーから送信されるコマンドを処理できない場合、他のアプリケーションにコマンドを処理させるためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、他のアプリケーションにコマンドを処理させるため、そのアプリケーションにコマンドを送信する。このように、本発明では、アプリケーション間の連携をとることができる。
第8の発明の電子機器は、第7の発明の電子機器において、前記制御部は、前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドに、処理の対象となるパラメータを付加して、前記コマンドマネージャーに送信することを特徴とする。
第9の発明の電子機器は、第1〜第8のいずれかの発明の電子機器において、前記アプリケーションは、予定を管理するための予定アプリケーションと、ナビゲーションを行うためのナビゲーションアプリケーションと、を含み、前記制御部は、前記予定アプリケーションに従って、前記コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、前記ナビゲーションアプリケーションが目的地を設定するためのコマンドを、前記コマンドマネージャーに送信することを特徴とする。
本発明では、制御部は、予定アプリケーションに従って、コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、ナビゲーションアプリケーションが目的地を設定するためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、ナビケーションアプリケーションに目的地を設定させるため、ナビゲーションアプリケーションにコマンドを送信する。このように、本発明では、予定アプリケーションとナビゲーションアプリケーションとの間で連携をとることができる。
第10の発明の電子機器は、第9の発明の電子機器において、前記制御部は、前記予定アプリケーションに従って、目的地に関するコマンドを受信した場合、前記ナビゲーションアプリが目的地を設定するためのコマンドに、パラメータとして、目的地を付加して、前記コマンドマネージャーに送信することを特徴とする。
第11の発明のサーバーは、電子機器から送信される音声データをテキストに変換し、変換したテキストに基づいて、文章理解を行い、文章理解に基づいて、コマンドに変換し、変換したコマンドを前記電子機器に送信する。
第12の発明の音声認識システムは、第1〜第10のいずれかの発明の電子機器と、第11の発明のサーバーと、を備えることを特徴とする。
本発明によれば、帯域負荷がかかることがない。また、即時に処理を実行可能である。また、オフラインでも利用可能である。
以下、本発明の実施形態について説明する。図1は、本実施形態に係る音声認識システムの構成を示すブロック図である。音声認識システム1は、電子機器2と、クラウドサーバー3と、サービス/データ4と、を備える。
電子機器2は、図示しないが、SoC(System on Chip)(制御部)と、マイクと、スピーカーと、を備える。また、電子機器2は、コマンドマネージャーと、アプリケーションと、を有する。SoCは、コマンドマネージャー、アプリケーションに従って、処理を実行する。ここで、SoCは、コマンドマネージャー、アプリケーションに従って、処理を実行するが、以下では、単に、コマンドマネージャー、アプリケーションが処理を実行する、と記載する。マイクは、外部の音声を集音する。スピーカーは、音声データに基づいて、音声を出力する。
コマンドマネージャーは、マイクが集音した音声データをクラウドサーバー3に送信する。外部のクラウドサーバー3は、電子機器2から送信された音声データをテキストに変換する。クラウドサーバー3は、テキストに基づいて、文章理解を行う。クラウドサーバー3は、文章理解に基づいて、コマンドに変換する。クラウドサーバー3は、変換したコマンドを電子機器2に送信する。
コマンドマネージャーは、クラウドサーバー3から送信されるコマンドを受信する。コマンドマネージャーは、受信したコマンドに基づいて、コマンドを送信するアプリケーションを決定する。コマンドが天気に関するコマンドであれば、コマンドマネージャーは、天気コマンドを送信するアプリケーションを、天気アプリケーションに決定する。また、コマンドが予定に関するコマンドであれば、コマンドマネージャーは、予定コマンドを送信するアプリケーションを、予定アプリケーションに決定する。コマンドマネージャーは、決定したアプリケーションにコマンドを送信する。このように、コマンドマネージャーは、アプリケーションに対して、割り当てられたコマンドを送信する。
アプリケーションは、コマンドマネージャーから送信されるコマンドを処理する。具体的には、アプリケーションは、コマンドに基づいて、外部のサービス/データ4から情報を取得する。例えば、天気アプリケーションは、天気サービスから、天気情報を取得する。アプリケーションは、取得した情報をコマンドマネージャーに送信する。コマンドマネージャーは、アプリケーションから送信される情報に含まれるテキストを、テキスト・音声変換により、音声データに変換する。コマンドマネージャーは、変換した音声データをスピーカーに出力する。スピーカーは、出力された音声データに基づいて、音声を出力する。ここで、サービス/データ4は、上記のように、天気の情報を有する天気サービス、料理のレシピの情報を有する料理サービス、予定の情報を有する予定サービス等である。
アプリケーションは、図2に示すように、複数のアプリケーションを含む。例えば、アプリケーションは、天気を知らせるための天気アプリケーション、予定を管理するための予定アプリケーション、ナビゲーションを行うためのナビ(ナビゲーション)アプリケーション、料理をアシストするための料理アプリケーション、音楽を再生するための音楽アプリケーション等である。コマンドマネージャーは、図2に示すように、複数のアプリケーションを管理している。
上述のとおり、図3に示すように、コマンドマネージャーは、マイクが集音した音声データをクラウドサーバー3に送信する。クラウドサーバー3は、電子機器2にコマンドを送信する。コマンドマネージャーは、コマンドを適切なアプリケーションに送信する。アプリケーションは、コマンドに応じて、コマンドマネージャーにレスポンスする。コマンドマネージャーは、アプリケーションからレスポンスされる情報に含まれるテキストを音声に変換し、スピーカーに出力する。アプリケーションからのレスポンスには、アプリケーションから発話したいテキストデータ(SPEECH_TEXT)、聞き返したい場合のフラグ(AUTO_LISTEN)、アプリケーションから異なるアプリケーションに問い合わせる場合の履歴情報(APP_CONTEXT)が用意されている。
音声認識システム1において、音声認識を行う具体例を、図4に示すシーケンス図に基づいて説明する。まず、ユーザーが、「今日の予定は?」と発話したとする。コマンドマネージャーは、ユーザーが発話した音声「今日の予定は?」をクラウドサーバーに送信する。クラウドサーバー3は、「今日の予定は?」に基づいて、コマンド「REMINDER_SCHEDULE」を電子機器2に送信する。
コマンドマネージャーは、クラウドサーバー3から送信されるコマンド「REMINDER_SCHEDULE」を受信する。コマンドマネージャーは、受信したコマンド「REMINDER_SCHEDULE」に基づいて、コマンドを送信するアプリケーションを決定する。コマンド「REMINDER_SCHEDULE」は、予定アプリケーションのコマンドであるから、コマンドマネージャーは、コマンドを送信するアプリケーションを予定アプリケーションに決定する。コマンドマネージャーは、「今日の予定は?」が変換されたコマンド「REMINDER_SCHEDULE」を予定アプリケーションに送信する。予定アプリケーションは、コマンドマネージャーから送信されるコマンド「REMINDER_SCHEDULE」を受信する。
予定アプリケーションは、コマンド「REMINDER_SCHEDULE」に基づいて、予定サービスから今日の予定の情報を取得する。予定アプリケーションは、「SPEECH_TEXT」に「15時から東京駅で会食です。目的地に設定しますか?」と設定し、「AUTO_LISTEN」をオンにし、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、ユーザーに対して質問をすることができる。
コマンドマネージャーは、音声・テキスト変換により、音声データ「15時から東京駅で会食です。目的地に設定しますか?」を取得する。コマンドマネージャーは、取得した音声データをスピーカーに出力する。スピーカーは、音声データに基づいて、音声「15時から東京駅で会食です。目的地に設定しますか?」を出力する。
次に、ユーザーが、「はい。」と回答したとする。マイクは、音声「はい。」を集音する。コマンドマネージャーは、マイクが集音した音声データ「はい。」をクラウドサーバーに送信する。クラウドサーバー3は、「はい。」に基づいて、コマンド「DIALOG_YES」を電子機器2に送信する。コマンドマネージャーは、クラウドサーバー3から送信されるコマンド「DIALOG_YES」を受信する。コマンドマネージャーは、受信したコマンド「DIALOG_YES」を予定アプリケーションに送信する。予定アプリケーションは、コマンドマネージャーから送信されるコマンド「DIALOG_YES」を受信し、目的地を「東京駅」に設定する処理を行う。
ここで、予定アプリケーションは、目的地を設定する機能を有していない。このため、予定アプリケーションは、コマンドマネージャーに、「Action」として、「NAVI_SET_DESTINATION」(目的地を設定するためのコマンド)を送信し、「parameter」に「東京駅」(パラメータ)を設定する。ここで、図4に示す「Lifespan」は、コマンドの記憶できる上限で、5の場合、5回、コマンドマネージャーがやり取りすると、履歴情報(APP_CONTEXT)が消える。このように、アプリケーションは、コマンドマネージャーから送信されるコマンドを処理できない場合、他のアプリケーションにコマンドを処理させるためのコマンドに、処理の対象となるパラメータを付加して、コマンドマネージャーに送信する。
コマンドマネージャーは、コマンド「NAVI_SET_DESTINATION」が、ナビアプリケーションのコマンドであることが分かるため、「Input_Context」と「Output_Context」とに、アプリケーション情報(予定アプリケーション、ナビアプリケーション)を付加し、ナビアプリケーションに送信する。ナビアプリケーションは、「SPEECH_TEXT」に「東京駅に目的地を設定しました。」と設定し、「AUTO_LISTEN」をオフにし、コマンドマネージャーに送信する。
コマンドマネージャーは、音声・テキスト変換により、音声データ「東京駅を目的地に設定しました。」を取得する。コマンドマネージャーは、取得した音声データをスピーカーに出力する。スピーカーは、音声データに基づいて、音声「東京駅を目的地に設定しました。」を出力する。
以上説明したように、本実施形態では、電子機器2に実装されたアプリケーションは、コマンドマネージャーから送信されるコマンドを処理する。これにより、外部のアプリケーションに接続することなく、処理を実行することができるため、帯域負荷がかかることがない。また、即時に処理を実行可能である。また、オフラインでも利用可能である。また、電子機器2にアプリケーションを設けることで、電子機器2のセンシング情報を随時利用することができる。また、電子機器2にコマンドマネージャーを設けることで、他のアプリケーションが、テキスト変換、音声入力を意識せず、且つ、他のアプリケーションの機能を利用することができる。
また、本実施形態では、アプリケーションは、コマンドマネージャーから送信されるコマンドを処理できない場合、他のアプリケーションにコマンドを処理させるためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、他のアプリケーションにコマンドを処理させるため、そのアプリケーションにコマンドを送信する。このように、本実施形態では、アプリケーション間の連携をとることができる。
また、本実施形態では、予定アプリケーションは、コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、ナビゲーションアプリケーションが目的地を設定するためのコマンドを、コマンドマネージャーに送信する。これにより、コマンドマネージャーは、ナビケーションアプリケーションに目的地を設定させるため、ナビゲーションアプリケーションにコマンドを送信する。このように、本実施形態では、予定アプリケーションとナビゲーションアプリケーションとの間で連携をとることができる。
以上、本発明の実施形態について説明したが、本発明を適用可能な形態は、上述の実施形態には限られるものではなく、以下に例示するように、本発明の趣旨を逸脱しない範囲で適宜変更を加えることが可能である。
上述の実施形態においては、電子機器2のみにアプリケーションが実装されている構成を例示した。これに限らず、クラウドサーバー3にもアプリケーションが実装されていてもよい。
本発明は、音声認識システム、並びに、音声認識システムを構成する電子機器、及び、サーバーに好適に採用され得る。
1 音声認識システム
2 電子機器
3 クラウドサーバー
4 サービス/データ
2 電子機器
3 クラウドサーバー
4 サービス/データ
Claims (12)
- コマンドマネージャーと、アプリケーションと、を有し、
前記コマンドマネージャーと、前記アプリケーションと、に従って動作する制御部を備え、
前記制御部は、
前記コマンドマネージャーに従って、
入力される音声を、サーバーに送信し、
前記サーバーから送信される、前記サーバーに送信した音声に基づくコマンドを受信し、
受信したコマンドに基づいて、コマンドを送信する前記アプリケーションを決定し、
決定した前記アプリケーションにコマンドを送信し、
前記アプリケーションに従って、
前記コマンドマネージャーから送信されるコマンドを処理することを特徴とする電子機器。 - 前記制御部は、
前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドに基づいて、外部のサービスから情報を取得することを特徴とする請求項1に記載の電子機器。 - 前記制御部は、
前記アプリケーションに従って、取得した情報を前記コマンドマネージャーに送信することを特徴とする請求項2に記載の電子機器。 - 前記制御部は、
前記コマンドマネージャーに従って、前記アプリケーションから送信される情報に含まれるテキストを、テキスト・音声変換により、音声に変換することを特徴とする請求項3に記載の電子機器。 - スピーカーをさらに備え、
前記制御部は、
前記コマンドマネージャーに従って、音声を前記スピーカーに出力することを特徴とする請求項4に記載の電子機器。 - マイクをさらに備え、
前記制御部は、
前記コマンドマネージャーに従って、
前記マイクに入力される音声を、前記サーバーに送信することを特徴とする請求項1〜5のいずれか1項に記載の電子機器。 - 前記アプリケーションは、複数のアプリケーションを含み、
前記制御部は、
前記アプリーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドを、前記コマンドマネージャーに送信することを特徴とする請求項1〜6のいずれか1項に記載の電子機器。 - 前記制御部は、
前記アプリケーションに従って、前記コマンドマネージャーから送信されるコマンドを処理できない場合、他の前記アプリケーションにコマンドを処理させるためのコマンドに、処理の対象となるパラメータを付加して、前記コマンドマネージャーに送信することを特徴とする請求項7に記載の電子機器。 - 前記アプリケーションは、予定を管理するための予定アプリケーションと、ナビゲーションを行うためのナビゲーションアプリケーションと、を含み、
前記制御部は、
前記予定アプリケーションに従って、前記コマンドマネージャーから送信される目的地に関するコマンドを受信した場合、前記ナビゲーションアプリケーションが目的地を設定するためのコマンドを、前記コマンドマネージャーに送信することを特徴とする請求項1〜8のいずれか1項に記載の電子機器。 - 前記制御部は、
前記予定アプリケーションに従って、目的地に関するコマンドを受信した場合、前記ナビゲーションアプリが目的地を設定するためのコマンドに、パラメータとして、目的地を付加して、前記コマンドマネージャーに送信することを特徴とする請求項9に記載の電子機器。 - 電子機器から送信される音声データをテキストに変換し、
変換したテキストに基づいて、文章理解を行い、
文章理解に基づいて、コマンドに変換し、
変換したコマンドを前記電子機器に送信することを特徴とするサーバー。 - 請求項1〜10のいずれか1項に記載の電子機器と、
請求項7に記載のサーバーと、
を備えることを特徴とする音声認識システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220659A JP2019091332A (ja) | 2017-11-16 | 2017-11-16 | 音声認識システム、電子機器、及び、サーバー |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220659A JP2019091332A (ja) | 2017-11-16 | 2017-11-16 | 音声認識システム、電子機器、及び、サーバー |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019091332A true JP2019091332A (ja) | 2019-06-13 |
Family
ID=66836480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017220659A Pending JP2019091332A (ja) | 2017-11-16 | 2017-11-16 | 音声認識システム、電子機器、及び、サーバー |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019091332A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022177164A1 (ko) * | 2021-02-19 | 2022-08-25 | 삼성전자주식회사 | 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법 |
US11862160B2 (en) | 2020-10-27 | 2024-01-02 | Seiko Epson Corporation | Control method for display system, and display system |
-
2017
- 2017-11-16 JP JP2017220659A patent/JP2019091332A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11862160B2 (en) | 2020-10-27 | 2024-01-02 | Seiko Epson Corporation | Control method for display system, and display system |
WO2022177164A1 (ko) * | 2021-02-19 | 2022-08-25 | 삼성전자주식회사 | 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11468889B1 (en) | Speech recognition services | |
US8117036B2 (en) | Non-disruptive side conversation information retrieval | |
EP3084633B1 (en) | Attribute-based audio channel arbitration | |
CN107004411B (zh) | 话音应用架构 | |
US11949818B1 (en) | Selecting user device during communications session | |
EP3444813B1 (en) | User-guided arbitration of speech processing results | |
KR20190075800A (ko) | 지능형 개인 보조 인터페이스 시스템 | |
US9293134B1 (en) | Source-specific speech interactions | |
JP5616390B2 (ja) | 応答生成装置、応答生成方法および応答生成プログラム | |
JP2016114744A (ja) | 電子機器制御システム、端末装置、及び、サーバー | |
JP2019091332A (ja) | 音声認識システム、電子機器、及び、サーバー | |
US10002611B1 (en) | Asynchronous audio messaging | |
KR20110080096A (ko) | 확장 도메인을 이용한 대화 시스템 및 그 자연어 인식 방법 | |
WO2018198791A1 (ja) | 信号処理装置および方法、並びにプログラム | |
US10964318B2 (en) | Dialogue management | |
KR20200024511A (ko) | 대화 에이전트의 동작 방법 및 그 장치 | |
EP3444812B1 (en) | Automatic speech recognition system, corresponding method and computer-readable medium | |
JP2018018053A (ja) | 端末装置、翻訳方法、及び、翻訳プログラム | |
CN111754974B (zh) | 信息处理方法、装置、设备和计算机存储介质 | |
US20190189119A1 (en) | Electronic device | |
JP2020119043A (ja) | 音声翻訳システムおよび音声翻訳方法 | |
JP6386690B1 (ja) | 音声データ最適化システム | |
JP6389348B1 (ja) | 音声データ最適化システム | |
WO2019174604A1 (zh) | 电子设备及电子设备控制方法 | |
EP3502868A1 (en) | Intelligent personal assistant interface system |