JP2019195221A - 音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体 - Google Patents

音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2019195221A
JP2019195221A JP2019132233A JP2019132233A JP2019195221A JP 2019195221 A JP2019195221 A JP 2019195221A JP 2019132233 A JP2019132233 A JP 2019132233A JP 2019132233 A JP2019132233 A JP 2019132233A JP 2019195221 A JP2019195221 A JP 2019195221A
Authority
JP
Japan
Prior art keywords
terminal device
user
information
mode
application program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019132233A
Other languages
English (en)
Other versions
JP7227866B2 (ja
Inventor
玉樹 曹
yu shu Cao
玉樹 曹
慶 司
Qing Si
慶 司
清龍 賀
qing long He
清龍 賀
向東 薛
Xiang Dong Xue
向東 薛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2019195221A publication Critical patent/JP2019195221A/ja
Application granted granted Critical
Publication of JP7227866B2 publication Critical patent/JP7227866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • H04L67/025Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザに柔軟で、利便性の高い音声サービスを提供する。【解決手段】音声インタラクション方法は、モード制御コマンドを取得するステップ201と、モード制御コマンドに応じて、端末機器を第1のモードから第2のモードに切り替えるステップ202と、端末機器が第2のモードにある場合、ユーザの音声情報を取得するステップ203と、音声情報に応じて、サーバからユーザの所望する目標情報を取得するステップ204と、目標情報に対応するオーディオ情報を再生するステップ205と、を含む。【選択図】図2

Description

本発明の実施例は、コンピュータ技術の分野に関し、詳しく言えば、音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体に関する。
人工知能技術の爆発的な発展及び音声技術の漸進的な成熟に伴い、対話ストリームを主とする人間型対話インタラクションは既に新たな革新的インタラクションの一つになり、主流となるスマート機器のインタラクションモードはタッチインタラクションからタッチと対話を並行するインタラクションモードへと変わりつつある。
現在、スマートスピーカーはユーザがインターネットにアクセスするためのツールになり、ユーザがスマートスピーカーによって歌を選択したり、オンラインショップで買い物したり、天気の状況を把握したりなどできるが、スマートスピーカーが重く嵩むため、ユーザが持ち歩くことはできない。そのため随時使用できるわけではなく、ユーザに柔軟で、利便性の高い音声サービスを提供することができない。
本発明の実施例は音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体を提供し、ユーザに柔軟で、利便性の高い音声サービスを提供する。
第1の態様によれば、本発明の実施例にて提供される音声インタラクション方法は、モード制御コマンドを取得するステップと、前記モード制御コマンドに応じて、端末機器を第1のモードから第2のモードに切り替えるステップと、前記端末機器が前記第2のモードにある場合、ユーザの音声情報を取得するステップと、前記音声情報に応じて、サーバから前記ユーザの所望する目標情報を取得するステップと、前記目標情報に対応するオーディオ情報を再生するステップと、を含む。
第2の態様によれば、本発明の実施例にて提供される音声インタラクション方法は、第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得するステップと、前記端末機器が第2のモードにある場合、前記端末機器から送信されたユーザ音声情報に応じて、前記ユーザの所望する目標情報を確定するステップと、前記端末機器が前記目標情報に対応するオーディオ情報を再生するように前記目標情報を前記端末機器に送信するステップと、を含む。
第3の態様によれば、本発明の実施例にて提供される端末機器は、メモリと、プロセッサと、前記メモリに記憶されているコンピュータプログラムとを含む端末機器であって、前記コンピュータプログラムが前記プロセッサにより実行されて、モード制御コマンドを取得し、前記モード制御コマンドに応じて、前記端末機器を第1のモードから第2のモードに切り替え、前記端末機器が前記第2のモードにある場合、ユーザの音声情報を取得し、前記音声情報に応じて、サーバから前記ユーザの所望する目標情報を取得し、前記目標情報に対応するオーディオ情報を再生する操作を実行するように構成されている。
第4の態様によれば、本発明の実施例にて提供されるサーバは、メモリと、プロセッサと、通信インタフェースと、前記メモリに記憶されているコンピュータプログラムとを含むサーバであって、前記コンピュータプログラムが前記プロセッサにより実行されて、第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得し、前記端末機器が第2のモードにある場合、前記端末機器から送信されたユーザ音声情報に応じて、前記ユーザの所望する目標情報を確定し、前記端末機器が前記目標情報に対応するオーディオ情報を再生するように前記通信インタフェースによって前記目標情報を前記端末機器に送信するという操作を実行するように構成されている。
第5の態様によれば、本発明の実施例にて提供されるコンピュータ読み取り可能な記憶媒体は、第1の態様又は第2の態様に記載の方法を実現するようにプロセッサに実行されるコンピュータプログラムが記憶されている。
第6の態様によれば、本発明の実施例にて提供される端末機器は、モード制御コマンドを取得するための第1の取得モジュールと、前記モード制御コマンドに応じて、端末機器を第1のモードから第2のモードに切り替えるためのモード切り替えモジュールと、前記端末機器が前記第2のモードにある場合、ユーザの音声情報を取得するための第2の取得モジュールと、前記音声情報に応じて、サーバから前記ユーザの所望する目標情報を取得するための第3の取得モジュールと、前記目標情報に対応するオーディオ情報を再生するための再生モジュールと、を含む。
第7の態様によれば、本発明の実施例にて提供されるサーバは、第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得するための取得モジュールと、前記端末機器が第2のモードにある場合、前記端末機器から送信されたユーザ音声情報に応じて、前記ユーザの所望する目標情報を確定するための確定モジュールと、前記端末機器が前記目標情報に対応するオーディオ情報を再生するように前記目標情報を前記端末機器に送信するための送信モジュールと、を含む。
本発明の実施例に係る音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体は、端末機器を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えることで、端末機器が遠距離音声インタラクションモードにある場合、ユーザの音声情報を取得し、且つ音声情報に応じて、サーバからユーザの所望する目標情報を取得し、端末機器により音声手段で目標情報を再生する。端末機器、例えば携帯電話、タブレットコンピュータなどのユーザ端末が遠距離音声インタラクションモードではディスプレイ付きのスマートスピーカーに変わり、近距離音声インタラクションモードでは常用の携帯電話又はタブレットコンピュータとなる。このような端末機器はユーザにとっては持ち歩きに便利であり、ユーザがいつでもどこでも端末機器の遠距離音声インタラクション機能を使用でき、これによりユーザに柔軟で、利便性の高い音声サービスを提供する。
以下の図面によって、本開示の明確な実施例を示し、さらに詳しい説明は後述する。これらの図面及び文字による説明は、いずれかの形態によって本開示の構想の範囲を制限するためのものではなく、特定の実施例を参照することにより当業者に本開示の概念を説明するためのものである。
本発明の実施例に係るアプリケーションシーンの概略図である。 本発明の実施例に係る音声インタラクション方法のフローチャートである。 本発明の実施例に係る別のアプリケーションシーンの概略図である。 本発明の実施例に係る別のアプリケーションシーンの概略図である。 本発明の実施例に係る別のアプリケーションシーンの概略図である。 本発明の実施例に係る別のアプリケーションシーンの概略図である。 本発明の別の実施例に係る音声インタラクション方法のフローチャートである。 本発明の別の実施例に係るページ切り替えの概略図である。 本発明の別の実施例に係る音声インタラクション方法のフローチャートである。 本発明の別の実施例に係る音声インタラクション方法のフローチャートである。 本発明の実施例に係る音声インタラクション方法のフローチャートである。 本発明の別の実施例に係る音声インタラクション方法のフローチャートである。 本発明の別の実施例に係るリモートサーバ内の機能モジュールの概略図である。 本発明の実施例に係る端末機器の構造概略図である。 本発明の実施例に係るサーバの構造概略図である。 本発明の実施例に係る端末機器の構造概略図である。 本発明の実施例に係るサーバの構造概略図である。
ここで例示的な実施例を詳細に説明すべく、その一例が図面に示される。以下の図面に関する説明において、特に明記されない場合、異なる図面における同一の数字は同一又は類似の要素を示す。以下の例示的な実施例において説明する実施形態は、本開示内容と一致する全ての実施形態ではない。逆に、それらは付帯する請求項に詳述されるような、本開示の一部の態様と一致する装置及び方法の例にすぎない。
本発明が提供する音声インタラクション方法は、図1に示される通信システムに適用され得る。図1に示すように、通信システムは、端末機器11と、サーバ12と、を含む。端末機器11は具体的には携帯電話、タブレットコンピュータなどのユーザ端末であってよい。
本発明が提供する音声インタラクション方法は、従来技術に存在する上記のような技術的問題を解決するためである。
以下では、具体的な実施例を挙げて本発明の技術的解決手段及び本願の技術的解決手段を用いてどのように上記技術的問題を解決するかについて詳細に説明する。以下のこれらの具体的な実施例を互いに組み合わせてもよく、同じ又は類似の概念又は過程についていくつかの実施例では繰り返し説明しない。以下、図面を参照しながら、本発明の実施例について説明する。
図2は本発明の実施例に係る音声インタラクション方法のフローチャートである。本発明の実施例は従来技術に存在する上記のような技術的問題に対して、音声インタラクション方法を提供し、その方法の具体的なステップは以下のとおりである。
ステップ201では、モード制御コマンドを取得する。
本実施例に係る音声インタラクション方法の実行主体は、端末機器でよく、端末機器は具体的には携帯電話、タブレットコンピュータなどのユーザ端末でよい。図3に示すように、端末機器31は、同時に第1のモード及び第2のモードをサポートし、そのうち、第1のモードは具体的には携帯電話、タブレットコンピュータなどのユーザ端末の元の動作モードでよく、第2のモードは携帯電話、タブレットコンピュータなどのユーザ端末に外付け機器を接続した後にユーザ端末にスマートスピーカー機能を持たせるときの動作モードである。本実施例では、第1のモードは近距離音声インタラクションモードを含み、第2のモードは遠距離音声インタラクションモードを含む。いわゆる近距離音声インタラクションモードとは、ユーザが端末機器31から比較的近い範囲で、例えば、ユーザが端末機器31から0.5メートルの範囲内で音声インタラクションを行い、端末機器31がユーザから各方向に発せられた音声情報を認識できるモードである。いわゆる遠距離音声インタラクションモードとは、ユーザが端末機器31から比較的遠い範囲で音声インタラクションを行うことができ、例えば、ユーザが端末機器31から3〜5メートルの範囲内で端末機器31と音声インタラクションを行うモードである。本実施例では、ユーザは端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えるように制御でき、或いは、端末機器31を遠距離音声インタラクションモードから近距離音声インタラクションモードに切り替えるように制御できる。ここで、端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えることを例として、切り替えの手段は具体的には端末機器31がモード制御コマンドを取得し、且つモード制御コマンドに応じて端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替える手段であってよい。
選択的に、モード制御コマンドを取得するステップは以下のいくつかの実行可能な実現形態を含む。
1つの実行可能な実現形態としては、ユーザによる端末機器におけるアプリケーションプログラムに対する操作を検出し、且つ操作に応じてモード制御コマンドを生成する。
図3に示すように、端末機器31に複数種類のアプリケーションプログラムがインストールされており、端末機器31のユーザインタフェースに複数のアプリケーションプログラムのアイコンを表示し、そのうちのアプリケーションプログラム32は端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えるように制御するために用いられてよく、アプリケーションプログラム32は具体的には端末機器31のユーザを設定するためのアプリケーションプログラムであり得、ユーザはクリックしてアプリケーションプログラム32に進んだ後、対応する音声インタラクションモード設定を選択し、例えば、遠距離音声インタラクションモードの機能キーをオンにし、又は近距離音声インタラクションモードの機能キーをオフにする。端末機器31がユーザによるアプリケーションプログラム32に対する操作、及びユーザによる遠距離音声インタラクションモードに対する設定操作を検出した後、ユーザの操作に応じてモード制御コマンドを生成する。
別の実行可能な実現形態としては、端末機器に外付け機器が接続されているか否かを検出し、端末機器に外付け機器が接続されている場合、モード制御コマンドを生成する。
例えば、端末機器31は、様々なタイプの外付け機器と接続することも可能である。選択的に、外付け機器は充電スタンド、スピーカー、イヤホン、携帯電話ホルダのうちの少なくとも1種を含む。ここでは概略的な説明にすぎず、外付け機器の具体的なタイプを限定するものではなく、端末機器31と外付け機器との間の接続形態を限定するものでもない。選択的に、端末機器31と外付け機器は例えばユニバーサルシリアルバス(Universal Serial Bus、USB)インタフェース、3.5mmオーディオインタフェース、Lightingインタフェースなどの有線形態で接続され、或いは、端末機器31と外付け機器は例えばブルートゥース(登録商標)、ワイヤレスファイデリティ(Wireless−Fidelity、wifi)などの無線形態で接続される。
図4に示すように、端末機器31が充電スタンド41に接続されると、端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えるようにトリガできる。具体的には、端末機器31は端末機器31が外付け機器例えば充電スタンド41に接続されているか否かをリアルタイムで検出し、端末機器31は端末機器31が充電スタンド41に接続されていることを検出した場合、モード制御コマンドを生成する。
ステップ202では、モード制御コマンドに応じて、端末機器を第1のモードから第2のモードに切り替える。
具体的には、端末機器31はモード制御コマンドに応じて、端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替える。遠距離音声インタラクションモードでは、ユーザは比較的遠い距離範囲内で端末機器31と音声インタラクションを行うことができる。つまり、端末機器31が近距離音声インタラクションモードにある場合、端末機器31は元の携帯電話又はタブレットコンピュータの機能を実現する。端末機器31が遠距離音声インタラクションモードにある場合、端末機器31はスマートスピーカーの機能を実現することができる。
選択的に、端末機器が近距離音声パス及び遠距離音声パスを含み、端末機器を第1のモードから第2のモードに切り替えるステップは、近距離音声パスをオフにし、且つ遠距離音声パスをオンにすることを含む。
本実施例では、端末機器31の駆動層に近距離音声パス及び遠距離音声パスが設置され、近距離音声パス及び遠距離音声パスが互いに分離し、互いに独立する音声パスであり、端末機器31が近距離音声インタラクションモードにある場合、端末機器31は近距離音声パスによって音声情報処理を行う。端末機器31が遠距離音声インタラクションモードにある場合、端末機器31は遠距離音声パスによって音声情報処理を行う。本実施例では、遠距離音声パスはリニア2mic、4mic、又は6micの音声情報処理をサポートできる。ユーザがユーザインタフェースにおいてアプリケーションプログラムによって端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えるように設定する場合、端末機器31の駆動層は具体的には近距離音声パスをオフにし、遠距離音声パスをオンにすることができる。或いは、端末機器31が外付け機器に接続されて端末機器31を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えるようにトリガするとき、端末機器31の駆動層は具体的には近距離音声パスをオフにし、遠距離音声パスをオンにすることができる。
ステップ203では、端末機器が第2のモードにある場合、ユーザの音声情報を取得する。
図3に示すように、端末機器31が遠距離音声インタラクションモードにある場合、端末機器31はユーザの音声情報をリアルタイムで収集し、且つ遠距離音声パスによって音声情報処理を行うことができる。
選択的に、ユーザの音声情報を取得するステップは、外付け機器によってユーザの音声情報を収集することを含む。
図4に示すように、端末機器31が外付け機器例えば充電スタンドに接続されている場合、充電スタンドにマイクが装着されていると、充電スタンドのマイクによってユーザの音声情報を収集し、さらに充電スタンドによりユーザの音声情報を端末機器31に伝送することができる。
ステップ204では、音声情報に応じて、サーバからユーザの所望する目標情報を取得する。
端末機器31がユーザの音声情報を取得した後、音声情報をリモートサーバに送信し、リモートサーバにより意味解析を実行し、ユーザの所望する目標情報を確定でき、例えば、端末機器31が収集した音声情報が「張学友の歌を再生する」である場合、端末機器31が音声情報をリモートサーバに送信した後、リモートサーバは歌曲類オーディオ情報がユーザの所望する目標情報であり、歌手が張学友であることがオーディオ情報の満たすべき条件であると確定し、リモートサーバはデータベースから要件を満たすオーディオ情報を取得し、且つオーディオ情報を端末機器31に送信する。
他の実施例では、音声情報に応じて、サーバからユーザの所望する目標情報を取得するステップは、遠距離音声パスによって音声情報を処理し、ユーザの所望する目標情報を確定することと、サーバからユーザの所望する目標情報を取得することと、を含む。
図4に示すように、端末機器31が充電スタンド41に接続され、端末機器31が遠距離音声インタラクションモードに進み、ユーザ42が端末機器31から遠く離れる箇所で「張学友の歌を再生する」と言うと、充電スタンド41がユーザ42の音声情報を収集し、且つ音声情報を端末機器31に伝送し、端末機器31が遠距離音声パスによって音声情報を処理し、歌曲類オーディオ情報がユーザの所望する目標情報であり、歌手が張学友であることがオーディオ情報の満たすべき条件であると確定し、端末機器31は目標情報に対応する例えばオーディオ情報、歌手が張学友であるという情報などの特徴情報をリモートサーバ43に送信し、リモートサーバ43によりデータベースから要件を満たす目標情報を取得し、且つ目標情報を端末機器31に送信する。
ステップ205では、目標情報に対応するオーディオ情報を再生する。
端末機器31がリモートサーバ43から配信された目標情報を受信した後、目標情報に対応するオーディオ情報を再生する。例えば、張学友の歌を再生する。
選択的に、目標情報に対応するオーディオ情報を再生するステップは、外付け機器によって目標情報に対応するオーディオ情報を再生することを含む。
図4に示すように、充電スタンド41にまたスピーカーが装着されてもよく、端末機器31がリモートサーバ43から配信されたユーザの所望するオーディオ情報例えば音楽を受信すると、端末機器13は充電スタンド41によって音楽例えば張学友の歌を再生することができる。
なお、ここでは概略的な説明にすぎず、ユーザと端末機器の具体的な音声インタラクションコンテンツを限定するものではなく、リモートサーバ43から配信された目標情報の具体的なフォーマットを限定するものでもなく、目標情報は具体的にはテキスト情報、オーディオ情報、ビデオ情報、画像情報のうちの少なくとも1種でもよい。例えば、図4に示すように、ユーザ42が遠距離内で「今日の天気はどう」と言うと、端末機器13がユーザの音声情報を検出した後、音声情報をリモートサーバ43に送信し、リモートサーバ43がユーザの所在位置に応じて、ユーザの現在位置の天気情報を確定し、且つ天気情報を端末機器13に配信し、端末機器13が天気情報を再生すると同時に、端末機器13の画面に文字様態で天気情報を表示することもできる。さらに例えば、リモートサーバ43はユーザの家庭内のスマートホームを制御することもでき、例えば、ユーザの居間内のライトはモノのインターネットにおけるスマートホームに属し、図4に示すように、ユーザ42が遠距離内で「居間のライトを点灯してください」と言うと、端末機器13がユーザの音声情報を検出した後、音声情報をリモートサーバ43に送信し、リモートサーバ43が音声情報に応じてライトを制御する制御コマンドを生成し、且つモノのインターネットによってユーザの居間内のライトに制御コマンドを送信し、ユーザの居間内のライトを点灯するように制御する。
他の実施例では、リモートサーバ43は第三者サーバ又は他の端末機器によって提供されたメディア情報を受信することもできる。図5に示すように、他のユーザの端末機器51がローカルに記憶又は録画されたメディア情報例えば筝演奏ビデオをリモートサーバ43に送信し、リモートサーバ43がメディア情報をデータベースに記憶できる。例えば、ユーザ42が端末機器13に「筝ビデオを再生する」と言うと、端末機器13が音声情報をリモートサーバ43に送信し、リモートサーバ43が端末機器51から受信した筝演奏ビデオを端末機器13に送信でき、端末機器13が筝演奏ビデオを再生する。さらに或いは、図6に示すように、リモートサーバ43は第三者サーバ61から送信されたメディア情報を受信することもでき、例えば、第三者サーバ61は例えば画像情報、ビデオ情報、オーディオ情報などの最新の娯楽情報をリモートサーバ43に送信する。ユーザ42が端末機器13に「娯楽情報を再生する」と言うと、端末機器13が音声情報をリモートサーバ43に送信し、リモートサーバ43が第三者サーバ61から受信した最新の娯楽情報を端末機器13に送信でき、端末機器13が娯楽情報を再生し、例えば、端末機器13が娯楽情報を充電スタンド41に伝送し、充電スタンド41のスピーカーにより娯楽情報を再生する。
本発明の実施例は、端末機器を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えることで、端末機器が遠距離音声インタラクションモードにある場合、ユーザの音声情報を取得し、且つ音声情報に応じて、サーバからユーザの所望する目標情報を取得し、端末機器により音声形態で目標情報を再生し、端末機器例えば携帯電話、タブレットコンピュータなどのユーザ端末が遠距離音声インタラクションモードでディスプレイ付きのスマートスピーカーに変わることができ、近距離音声インタラクションモードで常用の携帯電話又はタブレットコンピュータであり、端末機器がユーザにとっては持ち歩きに便利であり、ユーザがいつでもどこでも端末機器の遠距離音声インタラクション機能を使用でき、これによりユーザに柔軟で、便利な音声サービスを提供する。
図7は本発明の別の実施例に係る音声インタラクション方法のフローチャートである。上記実施例に加えて、本実施例に係る音声インタラクション方法はさらにステップ701と、ステップ702と、を含む。
ステップ701では、端末機器が第1のモードにある場合、端末機器が第1のインタフェースを表示するように制御する。
図8に示すように、端末機器が近距離音声インタラクションモードにある場合、端末機器は第1のインタフェース81を表示し、第1のインタフェース81は具体的には端末機器の元のシステムデスクトップでもよく、システムデスクトップに複数の異なるアプリケーションプログラムのアイコンが表示されている。
ステップ702では、端末機器が第1のモードから第2のモードに切り替えられる場合、端末機器が第2のインタフェースを表示するように制御する。
図3に示すように、ユーザがクリックしてアプリケーションプログラム32に進み、且つ遠距離音声インタラクションモードの機能キーをオンにするか、又は近距離音声インタラクションモードの機能キーをオフにするとき、端末機器31は近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えられる。
或いは、図4に示すように、端末機器31が外付け機器に接続されると、端末機器31が近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えられるようにトリガする。
本実施例では、端末機器31が近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えられるとき、端末機器31の画面に第2のインタフェース82を表示し、第2のインタフェース82が遠距離音声インタラクションモードに対応するシステムデスクトップであってよく、選択的に、第2のインタフェース82に第三者アプリケーションプログラムアイコンを有さず、ユーザが主に音声インタラクションモードによって端末機器31とインタラクションする。選択的に、第2のインタフェース82は遠距離音声インタラクションモードを終了するキーを表示してよく、ユーザがキーをクリックするとき、端末機器31は遠距離音声インタラクションモードから近距離音声インタラクションモードに切り替えられると同時に、端末機器31が表示したインタフェースは第2のインタフェース82から第1のインタフェース81に切り替えられる。或いは、図4に示すように、端末機器13が外付け機器から分離するとき、端末機器31が遠距離音声インタラクションモードから近距離音声インタラクションモードに切り替えられるようにトリガすると同時に、端末機器31が表示したインタフェースは第2のインタフェース82から第1のインタフェース81に切り替えられる。
本実施例では、端末機器31が遠距離音声インタラクションモードにある場合、端末機器13がユーザと音声インタラクションを行うとき、端末機器13はユーザの音声情報に応じて、ユーザの声紋情報を認識することもでき、声紋情報はユーザの認識情報として用いることができ、選択的に、端末機器13は複数の家族メンバーが使用することをサポートでき、具体的には、端末機器13は各家族メンバーの声紋情報を予め記憶することができ、端末機器13が音声情報を収集したとき、まず音声情報に対応する声紋情報を認識し、且つ声紋情報がある家族メンバーの声紋情報であるか否かを判断し、そうであれば、端末機器13はさらに家族メンバーと音声インタラクションを行い、さらに、端末機器13は家族メンバーの声紋情報に応じて、家族メンバーの家庭におけるキャラクタを確定でき、端末機器13は声紋情報が子供の声紋情報であると確定する場合、端末機器13はまた対応する子供モードを起動でき、例えば、子供が端末機器13を用いて音声インタラクションを行う時間を制限する。端末機器13は声紋情報が最大の権限を有する家族メンバーの声紋情報であると確定する場合、端末機器13はまた対応する権限モードを起動でき、例えば、他の家族メンバーが端末機器13と音声インタラクションを行うとき、毎回端末機器13を覚醒させることができるキーワードを言う必要があり、最大の権限を有する家族メンバーが端末機器13と音声インタラクションを行うとき、キーワードを言う必要がなく、直接ユーザのニーズを言うだけでよい。例えば、同様に娯楽情報を再生するとき、他の家族メンバーは「小度、小度、娯楽情報を再生してください」と言う必要があるが、最大の権限を有する家族メンバーは「娯楽情報を再生してください」と言うだけでよく、ただし、「小度、小度」はすなわち端末機器13を覚醒させるキーワードである。本実施例に係る子供モード及び権限モードは端末機器13が遠距離音声インタラクションモードにあるときの特定の用途にすぎず、遠距離音声インタラクションモードと並行しているモードではないことが理解されることができる。
本発明の実施例は端末機器が近距離音声インタラクションモードにあるとき、端末機器が第1のインタフェースを表示するように制御し、端末機器が近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えられるとき、端末機器が第2のインタフェースを表示するように制御することで、第2のインタフェースで、ユーザにスマート音声インタラクション体験を提供する。
図9は本発明の別の実施例に係る音声インタラクション方法のフローチャートである。上記実施例から明らかなように、端末機器31は近距離音声インタラクションモードで第1のインタフェース81を表示し、遠距離音声インタラクションモードで第2のインタフェース82を表示でき、第1のインタフェース81に各種の異なるアプリケーションプログラムアイコンが表示されているため、端末機器31が近距離音声インタラクションモードにある場合、端末機器31は異なるアプリケーションプログラムのインタラクションインタフェースを表示でき、端末機器31が遠距離音声インタラクションモードにある場合、端末機器31が異なるアプリケーションプログラムのインタラクションインタフェースを表示できるか否かは、本実施例に係る方法によって実現され得る。本実施例に係る音声インタラクション方法はさらにステップ901と、ステップ902と、ステップ903と、を含む。
ステップ901では、非ユーザートリガーのアプリケーションプログラムを起動するか又は終了するように制御するためのアプリケーションプログラム制御コマンドを取得する。
選択的に、端末機器31が近距離音声インタラクションモードにあるとき、ユーザは端末機器31内のアプリケーションプログラムの起動又は終了形態を制御でき、例えば、ユーザは、端末機器31が遠距離音声インタラクションモードにあるとき、非ユーザートリガーのアプリケーションプログラムを起動するか又は終了するように設定できる。ここでは具体的な設定手段を限定せず、音声手段で設定してもよく、またアプリケーションプログラムを操作する手段で設定してもよい。選択的に、ユーザが対応して設定した後、端末機器13は対応するアプリケーションプログラム制御コマンドを生成し、例えば、ユーザは、端末機器31が遠距離音声インタラクションモードにあるとき、非ユーザートリガーのアプリケーションプログラムを起動するように設定する場合、アプリケーションプログラム制御コマンドは非ユーザートリガーのアプリケーションプログラムを起動するように制御するために用いられる。ユーザは、端末機器31が遠距離音声インタラクションモードにあるとき、非ユーザートリガーのアプリケーションプログラムを終了するように設定する場合、アプリケーションプログラム制御コマンドは非ユーザートリガーのアプリケーションプログラムを終了するように制御するために用いられる。
ステップ902では、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを起動するように制御するために用いられる場合、端末機器が第2のモードにあり且つアプリケーションプログラムが起動されたとき、第2のインタフェースにアプリケーションプログラムに対応するユーザインタフェースを表示する。
例えば、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを起動するように制御するために用いられる場合、端末機器31が遠距離音声インタラクションモードにあるとき、端末機器31は第2のインタフェース82を表示し、このとき、端末機器31の近距離音声インタラクションモードでのいずれかのアプリケーションプログラム例えばウィーチャットがインスタント通信メッセージを受信すると、端末機器31は第2のインタフェース82にインスタント通信メッセージに対応する例えばタスクバー、通知バー、ポップアップボックスなどの提示情報を表示でき、ユーザが提示情報をクリックするとき、端末機器31は第2のインタフェース82からウィーチャットユーザインタフェースにジャンプすることができる。
ステップ903では、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを終了するように制御するために用いられる場合、端末機器が第2のモードにあり且つアプリケーションプログラムが起動されたとき、第2のインタフェースにアプリケーションプログラムに対応するユーザインタフェースを表示しない。
例えば、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを終了するように制御するために用いられる場合、端末機器31が遠距離音声インタラクションモードにあるとき、端末機器31は第2のインタフェース82を表示し、このとき、端末機器31の近距離音声インタラクションモードでのいずれかのアプリケーションプログラム例えばウィーチャットがインスタント通信メッセージを受信したが、第2のインタフェース82に何らかの提示情報を表示せず、端末機器31が第2のインタフェース82を表示するとき、近距離音声インタラクションモードでのアプリケーションプログラムをマスクできることに相当する。
また、他の実施例では、ユーザはまた、端末機器31が遠距離音声インタラクションモードにあるとき、アプリケーションプログラムに対応するタスクバー、通知バー、ポップアップボックスなどのみを表示し、他のアプリケーションプログラムに対応するタスクバー、通知バー、ポップアップボックスなどを表示しないように、あるアプリケーションプログラムを設定することができる。
本発明の実施例では、ユーザは非ユーザートリガーのアプリケーションプログラムを起動するか又は終了するように制御でき、ユーザが非ユーザートリガーのアプリケーションプログラムを起動するように制御する場合、端末機器が遠距離音声インタラクションモードにあるとき、端末機器31の近距離音声インタラクションモードでのアプリケーションプログラムは起動可能であり、且つアプリケーションプログラムに対応するタスクバー、通知バー、ポップアップボックスなどはいずれも画面に表示可能であり、これによりユーザはアプリケーションプログラムのメッセージをリアルタイムで受信できる。ユーザが非ユーザートリガーのアプリケーションプログラムを終了するように制御する場合、端末機器が遠距離音声インタラクションモードにあるとき、端末機器31の近距離音声インタラクションモードでのアプリケーションプログラムは起動不能になり、且つアプリケーションプログラムに対応するタスクバー、通知バー、ポップアップボックスなどはいずれも画面に表示されず、ユーザの遠距離音声インタラクションモードでの音声インタラクションが遮断されることを回避する。
図10は本発明の別の実施例に係る音声インタラクション方法のフローチャートである。上記実施例に加えて、本実施例に係る音声インタラクション方法はさらにステップ1001と、ステップ1002と、を含む。
ステップ1001では、端末機器が第2のモードにある場合、サーバからリアルタイムで送信されたプッシュメッセージを受信する。
本実施例では、端末機器が近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えられ、すなわち端末機器が表示したインタフェースが図8に示される第1のインタフェース81から第2のインタフェース82に切り替えられたとき、リモートサーバは端末機器にプッシュメッセージをリアルタイムで送信し、プッシュメッセージはリモートサーバがランダムに確定するものであってもよく、またリモートサーバが最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて生成するものであってもよい。
本実施例はプッシュメッセージの具体的な形式及び数を限定せず、例えば、プッシュメッセージは文字情報、画像情報、ビデオ情報、オーディオ情報のうちの少なくとも1種であってもよい。
ステップ1002では、端末機器にプッシュメッセージを表示する。
端末機器がリモートサーバから配信されたプッシュメッセージを受信した後、第2のインタフェース82にプッシュメッセージをリアルタイムで表示し、例えば、プッシュメッセージが具体的にはデスクトップ背景及び文字情報であってよく、リモートサーバが毎回異なるデスクトップ背景及び文字情報を配信し、文字情報が現在最新のホットスポットメッセージ、天気情報、ニュースなどのリアルタイムメッセージであり得る。具体的には、端末機器はプッシュメッセージを順番に表示できる。端末機器がプッシュメッセージをリアルタイムで表示する過程で、端末機器がユーザの音声情報を検出すると、上記実施例に係る方法にしたがって音声情報をリモートサーバに送信し、リモートサーバによりユーザの所望する目標情報を確定し、或いは、端末機器は音声情報に応じてユーザの所望する目標情報を確定し、且つ目標情報を取得するように要求する要求メッセージをリモートサーバに送信する。端末機器がリモートサーバから配信された目標情報を受信したとき、端末機器は前述のプッシュメッセージの表示を一時停止し、且つ目標情報を再生し、目標情報の再生が終了した後、端末機器は一時停止した前述のプッシュメッセージの表示を再開する。本実施例では、端末機器及びリモートサーバはネットワークの持続接続を維持し、リモートサーバから配信された最新のプッシュメッセージをリアルタイムで取得することができる。
本発明の実施例は端末機器が遠距離音声インタラクションモードにあるとき、サーバからリアルタイムで送信されたプッシュメッセージを受信し、且つ端末機器にプッシュメッセージを表示することで、ユーザが遠距離音声インタラクションモードで端末機器と遠距離音声インタラクションを行うことができるだけでなく、またサーバから配信されたプッシュメッセージをリアルタイムで閲覧でき、ユーザにより多くのネットワークコンサルティングを知ってもらうことに便利である。
図11は本発明の実施例に係る音声インタラクション方法のフローチャートである。本発明の実施例は従来技術に存在する上記のような技術的問題に対して、音声インタラクション方法を提供し、その方法の具体的なステップは以下のとおりである。ステップ1101では、第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得する。ステップ1102では、端末機器が第2のモードにある場合、端末機器から送信されたユーザ音声情報に応じて、ユーザの所望する目標情報を確定する。ステップ1103では、端末機器が目標情報に対応するオーディオ情報を再生するように目標情報を端末機器に送信する。
本実施例に係る音声インタラクション方法の実行主体は、サーバであってもよく、サーバは具体的には上記実施例に係るリモートサーバであってよい。本実施例に係る方法の実現形態及び具体的な原理はいずれも上記実施例と一致するので、ここでは説明を省略する。
本発明の実施例は、端末機器を近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えることで、端末機器が遠距離音声インタラクションモードにある場合、ユーザの音声情報を取得し、且つ音声情報に応じて、サーバからユーザの所望する目標情報を取得し、端末機器により音声手段で目標情報を再生し、端末機器例えば携帯電話、タブレットコンピュータなどのユーザ端末が遠距離音声インタラクションモードでディスプレイ付きのスマートスピーカーに変わることができ、近距離音声インタラクションモードで常用の携帯電話又はタブレットコンピュータであり、端末機器がユーザにとっては持ち歩きに便利であり、ユーザがいつでもどこでも端末機器の遠距離音声インタラクション機能を使用でき、これによりユーザに柔軟で、便利な音声サービスを提供する。
図12は本発明の別の実施例に係る音声インタラクション方法のフローチャートである。上記実施例に加えて、本実施例に係る音声インタラクション方法はさらにステップ1201と、ステップ1202と、を含む。
ステップ1201では、端末機器が第2のモードにある場合、プッシュメッセージを生成する。
本実施例では、端末機器が近距離音声インタラクションモードから遠距離音声インタラクションモードに切り替えられ、すなわち端末機器が表示したインタフェースが図8に示される第1のインタフェース81から第2のインタフェース82に切り替えられたとき、リモートサーバは端末機器にプッシュメッセージをリアルタイムで送信し、プッシュメッセージはリモートサーバがランダムに確定するものであってよく、またリモートサーバが最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて生成するものであってもよい。
選択的に、プッシュメッセージを生成するステップは、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、プッシュメッセージを生成することを含む。
選択的に、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、プッシュメッセージを生成するステップは、ユーザ履歴記録情報に応じてユーザ行動情報を予測することと、ユーザ行動情報に応じて、複数の推薦コンテンツを取得することと、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報に応じて、プッシュメッセージを確定することと、を含む。
選択的に、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報に応じて、プッシュメッセージを確定するステップは、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報をソートし、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報のソート結果を得ることと、ソート結果に応じて、プッシュメッセージを確定することと、を含む。
本実施例では、リモートサーバは図13に示されるユーザ行動解析モジュールと、スマート行動予測モジュールと、ソート処理モジュールと、運営解析モジュールと、を含んでよく、そのうち、ユーザ行動解析モジュールはユーザ履歴記録情報を解析することに用いられ、ユーザ履歴記録情報が具体的にはユーザ履歴音声情報でよく、ユーザ履歴音声情報に応じてユーザが履歴的に申請した目標情報を確定でき、また、端末機器13がリモートサーバから配信された目標情報を受信した後、端末機器13はまたユーザがクリックして目標情報を閲覧したか否かを検出でき、ユーザがクリックして目標情報を閲覧しないと、端末機器13はユーザがクリックして閲覧しない記録情報をリモートサーバに送信してもよく、ユーザ行動解析モジュールはユーザがどの目標情報を再生したか、どの目標情報を再生しないかを確定でき、ユーザ行動解析モジュールはユーザが再生した目標情報及び再生しない目標情報に応じてユーザ行動情報を予測し、例えば、ユーザが取得しようとする情報タイプを予測し、情報タイプが例えば冒険タイプである。ユーザ行動解析モジュールは予測したユーザ行動情報をスマート行動予測モジュールに送信し、スマート行動予測モジュールは情報タイプ例えば冒険タイプに応じて、データベースから複数の推薦コンテンツ例えば複数の冒険タイプのビデオ情報、例えばビデオ情報A、ビデオ情報B、ビデオ情報Cを取得し、同時に、スマート行動予測モジュールはまたビデオ情報A、ビデオ情報B、ビデオ情報Cのそれぞれの重み係数を算出でき、重み係数はスマート行動予測モジュールがユーザの閲覧したビデオ記録、及びビデオ情報がクリックされた回数などの要因に応じて確定されてよい。さらに、スマート行動予測モジュールは複数の推薦コンテンツ例えばビデオ情報A、ビデオ情報B、ビデオ情報C、及び各ビデオ情報に対応する重み係数をソート処理モジュールに送信し、ソート処理モジュールはスマート行動予測モジュールから送信されたビデオ情報A、ビデオ情報B、ビデオ情報Cを受信するだけでなく、同時にまた運営解析モジュールから送信された最新のリアルタイムホットスポット情報及び最新のリアルタイムホットスポット情報に対応する重み係数を受信し、ソート処理モジュールは重み係数に応じて、ビデオ情報A、ビデオ情報B、ビデオ情報C及び最新のリアルタイムホットスポット情報をソートし、なお、ここでは概略的な説明にすぎず、運営解析モジュールがソート処理モジュールに送信した最新のリアルタイムホットスポット情報の数を限定するものではない。リモートサーバはソート処理モジュールによるビデオ情報A、ビデオ情報B、ビデオ情報C及び最新のリアルタイムホットスポット情報に対するソート結果に応じて、端末機器にプッシュメッセージを配信できる。リモートサーバはソート結果にしたがって順次プッシュする場合があり、リモートサーバはソート結果から重み係数の高い情報を切り出して端末機器にプッシュする場合もある。
ステップ1202では、端末機器にプッシュメッセージをリアルタイムで送信する。
本発明の実施例はサーバが最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、プッシュメッセージを生成することで、プッシュメッセージがユーザのニーズにより適合し、ユーザの体験を向上させる。
図14は本発明の実施例に係る端末機器の構造概略図である。本発明の実施例に係る端末機器は音声インタラクション方法の実施例に係る処理フローを実行でき、図14に示すように、端末機器140は、メモリ141と、プロセッサ142と、コンピュータプログラムと、通信インタフェース143と、を含み、そのうち、コンピュータプログラムはメモリ141に記憶されており、且つプロセッサ142により、モード制御コマンドを取得し、モード制御コマンドに応じて、端末機器を第1のモードから第2のモードに切り替え、端末機器が第2のモードにある場合、ユーザの音声情報を取得し、音声情報に応じて、サーバからユーザの所望する目標情報を取得し、目標情報に対応するオーディオ情報を再生するという操作を実行するように配置されている。
選択的に、プロセッサ142がモード制御コマンドを取得するとき、具体的には、ユーザによる端末機器におけるアプリケーションプログラムに対する操作を検出し、且つ操作に応じてモード制御コマンドを生成することと、端末機器に外付け機器が接続されているか否かを検出し、端末機器に外付け機器が接続されている場合、モード制御コマンドを生成することとのうちの少なくとも1種に用いられる。
選択的に、外付け機器は充電スタンド、スピーカー、イヤホン、携帯電話ホルダのうちの少なくとも1種を含む。
選択的に、プロセッサ142は、ユーザの音声情報を取得するとき、具体的には、外付け機器によってユーザの音声情報を収集することに用いられ、プロセッサ142は、目標情報に対応するオーディオ情報を再生するとき、具体的には、外付け機器によって目標情報に対応するオーディオ情報を再生することに用いられる。
選択的に、端末機器が近距離音声パス及び遠距離音声パスを含み、プロセッサ142は、端末機器を第1のモードから第2のモードに切り替えるとき、具体的には、近距離音声パスをオフにし、且つ遠距離音声パスをオンにすることに用いられ、プロセッサ142は、音声情報に応じて、サーバからユーザの所望する目標情報を取得するとき、具体的には、遠距離音声パスによって音声情報を処理し、ユーザの所望する目標情報を確定し、サーバからユーザの所望する目標情報を取得することに用いられる。
選択的に、プロセッサ142はさらに、端末機器が第1のモードにある場合、端末機器が第1のインタフェースを表示するように制御し、端末機器が第1のモードから第2のモードに切り替えられる場合、端末機器が第2のインタフェースを表示するように制御する。
選択的に、プロセッサ142はさらに、非ユーザートリガーのアプリケーションプログラムを起動するか又は終了するように制御するためのアプリケーションプログラム制御コマンドを取得し、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを起動するように制御するために用いられる場合、端末機器が第2のモードにあり且つアプリケーションプログラムが起動されたとき、第2のインタフェースにアプリケーションプログラムに対応するユーザインタフェースを表示し、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを終了するように制御するために用いられる場合、端末機器が第2のモードにあり且つアプリケーションプログラムが起動されたとき、第2のインタフェースにアプリケーションプログラムに対応するユーザインタフェースを表示しない。
選択的に、プロセッサ142はさらに、端末機器が第2のモードにある場合、通信インタフェース143によってサーバからリアルタイムで送信されたプッシュメッセージを受信し、端末機器にプッシュメッセージを表示することに用いられる。
図14に示される実施例の端末機器は上記方法の実施例の技術的解決手段を実行するために用いることができ、その実現原理及び技術的効果が類似するため、ここでは説明を省略する。
図15は本発明の実施例に係るサーバの構造概略図である。サーバは具体的には上記実施例に係るリモートサーバでよい。本発明の実施例に係るサーバは音声インタラクション方法の実施例に係る処理フローを実行でき、図15に示すように、サーバ150は、メモリ151と、プロセッサ152と、コンピュータプログラムと、通信インタフェース153と、を含み、そのうち、コンピュータプログラムはメモリ151に記憶されており、且つプロセッサ152により、第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得し、端末機器が第2のモードにある場合、端末機器から送信されたユーザ音声情報に応じて、ユーザの所望する目標情報を確定し、端末機器が目標情報に対応するオーディオ情報を再生するように通信インタフェース153によって目標情報を端末機器に送信するという操作を実行するように配置されている。
選択的に、プロセッサ152はさらに、端末機器が第2のモードにある場合、プッシュメッセージを生成し、通信インタフェースによって端末機器にプッシュメッセージをリアルタイムで送信することに用いられる。
選択的に、プロセッサ152は、プッシュメッセージを生成するとき、具体的には、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、プッシュメッセージを生成することに用いられる。
選択的に、プロセッサ152は、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、プッシュメッセージを生成するとき、具体的には、ユーザ履歴記録情報に応じてユーザ行動情報を予測し、ユーザ行動情報に応じて、複数の推薦コンテンツを取得し、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報に応じて、プッシュメッセージを確定することに用いられる。
選択的に、プロセッサ152は、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報に応じて、プッシュメッセージを確定するとき、具体的には、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報をソートし、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報のソート結果を得て、ソート結果に応じて、プッシュメッセージを確定することに用いられる。
図15に示される実施例のサーバは上記方法の実施例の技術的解決手段を実行するために用いることができ、その実現原理及び技術的効果が類似するため、ここでは説明を省略する。
また、本実施例は、上記実施例に係る音声インタラクション方法を実現するようにプロセッサに実行されるコンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供する。
図16は本発明の実施例に係る端末機器の構造概略図である。本発明の実施例に係る端末機器は音声インタラクション方法の実施例に係る処理フローを実行でき、図16に示すように、端末機器160は、モード制御コマンドを取得するための第1の取得モジュール161と、モード制御コマンドに応じて、端末機器を第1のモードから第2のモードに切り替えるためのモード切り替えモジュール162と、端末機器が第2のモードにある場合、ユーザの音声情報を取得するための第2の取得モジュール163と、音声情報に応じて、サーバからユーザの所望する目標情報を取得するための第3の取得モジュール164と、目標情報に対応するオーディオ情報を再生するための再生モジュール165と、を含む。
選択的に、第1の取得モジュール161がモード制御コマンドを取得するとき、具体的には、
ユーザによる端末機器におけるアプリケーションプログラムに対する操作を検出し、且つ操作に応じてモード制御コマンドを生成することと、
端末機器に外付け機器が接続されているか否かを検出し、端末機器に外付け機器が接続されている場合、モード制御コマンドを生成することとのうちの少なくとも1種に用いられる。
選択的に、外付け機器は充電スタンド、スピーカー、イヤホン、携帯電話ホルダのうちの少なくとも1種を含む。
選択的に、第2の取得モジュール163は、ユーザの音声情報を取得するとき、具体的には、外付け機器によってユーザの音声情報を収集することに用いられ、再生モジュール165は、目標情報に対応するオーディオ情報を再生するとき、具体的には、外付け機器によって目標情報に対応するオーディオ情報を再生することに用いられる。
選択的に、端末機器が近距離音声パス及び遠距離音声パスを含み、モード切り替えモジュール162は、端末機器を第1のモードから第2のモードに切り替えるとき、具体的には、近距離音声パスをオフにし、且つ遠距離音声パスをオンにすることに用いられ、第3の取得モジュール164は、音声情報に応じて、サーバからユーザの所望する目標情報を取得するとき、具体的には、遠距離音声パスによって音声情報を処理し、ユーザの所望する目標情報を確定し、サーバからユーザの所望する目標情報を取得することに用いられる。
選択的に、端末機器はさらに、端末機器が第1のモードにある場合、端末機器が第1のインタフェースを表示するように制御し、端末機器が第1のモードから第2のモードに切り替えられる場合、端末機器が第2のインタフェースを表示するように制御するための制御モジュール166を含む。
選択的に、第1の取得モジュール161はさらに、非ユーザートリガーのアプリケーションプログラムを起動するか又は終了するように制御するためのアプリケーションプログラム制御コマンドを取得することに用いられ、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを起動するように制御するために用いられる場合、端末機器が第2のモードにあり且つアプリケーションプログラムが起動されたとき、第2のインタフェースにアプリケーションプログラムに対応するユーザインタフェースを表示し、アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを終了するように制御するために用いられる場合、端末機器が第2のモードにあり且つアプリケーションプログラムが起動されたとき、第2のインタフェースにアプリケーションプログラムに対応するユーザインタフェースを表示しない。
選択的に、端末機器はさらに、端末機器が第2のモードにある場合、サーバからリアルタイムで送信されたプッシュメッセージを受信し、端末機器にプッシュメッセージを表示するための受信モジュール167を含む。
図16に示される実施例の端末機器は上記方法の実施例の技術的解決手段を実行するために用いることができ、その実現原理及び技術的効果が類似するため、ここでは説明を省略する。
図17は本発明の実施例に係るサーバの構造概略図である。サーバは具体的には上記実施例に係るリモートサーバでよい。本発明の実施例に係るサーバは音声インタラクション方法の実施例に係る処理フローを実行でき、図17に示すように、サーバ170は、第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得するための取得モジュール171と、端末機器が第2のモードにある場合、端末機器から送信されたユーザ音声情報に応じて、ユーザの所望する目標情報を確定するための確定モジュール172と、端末機器が目標情報に対応するオーディオ情報を再生するように目標情報を端末機器に送信するための送信モジュール173と、を含む。
選択的に、サーバはさらに端末機器が第2のモードにある場合、プッシュメッセージを生成するためのプッシュメッセージ生成モジュール174を含み、送信モジュール173はさらに端末機器にプッシュメッセージをリアルタイムで送信することに用いられる。本実施例では、プッシュメッセージ生成モジュール174は具体的には図13に示されるユーザ行動解析モジュールと、スマート行動予測モジュールと、ソート処理モジュールと、運営解析モジュールと、を含んでよく、具体的な原理についてここでは説明を省略する。
選択的に、プッシュメッセージ生成モジュール174は、プッシュメッセージを生成するとき、具体的には、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、プッシュメッセージを生成することに用いられる。
選択的に、プッシュメッセージ生成モジュール174は、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、プッシュメッセージを生成するとき、具体的には、ユーザ履歴記録情報に応じてユーザ行動情報を予測し、ユーザ行動情報に応じて、複数の推薦コンテンツを取得し、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報に応じて、プッシュメッセージを確定することに用いられる。
選択的に、プッシュメッセージ生成モジュール174は、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報に応じて、プッシュメッセージを確定するとき、具体的には、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報をソートし、複数の推薦コンテンツ及び最新のリアルタイムホットスポット情報のソート結果を得て、ソート結果に応じて、プッシュメッセージを確定することに用いられる。
図17に示される実施例のサーバは上記方法の実施例の技術的解決手段を実行するために用いることができ、その実現原理及び技術的効果が類似するため、ここでは説明を省略する。
本発明によって提供されるいくつかの実施例において、理解すべきは、指摘する装置及び方法は、他の形態でも実現できることである。例えば、以上で説明した装置の実施例は単なる概略的なものであり、例えば、ユニットの区分は、単なる論理機能の区分であって、実際に実現する際には別の区分手段が可能であり、例えば複数のユニット又はアセンブリを組み合わせるか、又は他のシステムに集積でき、又はいくつかの特徴を無視するか、又は実行しないようにすることができる。また、表示又は討論する相互間の結合、又は直接結合、又は通信接続は、いくつかのインタフェース、装置、又はユニットによる間接結合、又は通信接続であってもよく、電気、機械、又は他の形式であってもよい。
分離部品として説明したユニットは、物理的に分離しても、或いは分離しなくてもよく、ユニットとして表示する部品は物理ユニットであっても、又は物理ユニットでなくてもよく、すなわち同一の場所に位置してもよく、又は複数のネットワークユニットに配置してもよい。実際の必要に応じて、その一部又は全てのユニットを選択して、本実施例の手段の目的を実現することができる。
また、本発明の各実施例における各機能ユニットは、同一の処理ユニットに集積されてもよく、各ユニットは独立して物理的に存在してもよく、2つ、或いは2つ以上のユニットを1つのユニットに集積してもよい。集積した上記ユニットは、ハードウェアの形式で実現でき、ハードウェアとソフトウェア機能ユニットを組み合わせる形式による実現も可能である。
集積した上記ユニットは、ソフトウェア機能ユニットの形式で実現し、コンピュータ読み取り可能な記憶媒体に記憶できる。上記ソフトウェア機能ユニットは記憶媒体に記憶され、それはコンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器などであってよい)又はプロセッサ(processor)が、本発明の各実施例における方法のステップの一部を実行するための複数のコマンドを含む。前述した記憶媒体は、プログラムコードを記憶できるUディスク、モバイルハードディスク、読み出し専用メモリ(Read−Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクなどの各種の媒体を含む。
当業者であれば明らかに認識できるように、説明を容易且つ簡潔にするために、上記各機能モジュールの区分のみを例に説明しており、実際の応用において、必要に応じて上記機能の配分を異なる機能モジュールで達成することができ、すなわち装置の内部構造を異なる機能モジュールに区分し、それによって以上で説明された全て又は一部の機能を完了する。上記説明する装置の具体的な動作過程は、前述の方法の実施例における対応する過程を参照することができ、ここでは説明を省略する。
最後に説明すべきこととして、以上の各実施例は本発明の実施例の技術的解決手段の説明にすぎず、それを限定するものではない。前述した各実施例を参照して本発明の実施例について詳細に説明したが、当業者には明らかなように、依然として前述した各実施例に記載の技術的解決手段を変更し、又は技術的特徴の一部又は全てについて等価の置換を行うことができる。これらの変更又は等価の置換は、対応する技術的解決手段の本質を本発明の実施例の技術的解決手段の範囲から逸脱させるものではない。

Claims (27)

  1. モード制御コマンドを取得するステップと、
    前記モード制御コマンドに応じて、端末機器を第1のモードから第2のモードに切り替えるステップと、
    前記端末機器が前記第2のモードにある場合、ユーザの音声情報を取得するステップと、
    前記音声情報に応じて、サーバから前記ユーザの所望する目標情報を取得するステップと、
    前記目標情報に対応するオーディオ情報を再生するステップと、を含むことを特徴とする音声インタラクション方法。
  2. 前記モード制御コマンドを取得するステップは、
    ユーザによる前記端末機器におけるアプリケーションプログラムに対する操作を検出し、且つ前記操作に応じて前記モード制御コマンドを生成することと、
    前記端末機器に外付け機器が接続されているか否かを検出し、前記端末機器に外付け機器が接続されている場合、前記モード制御コマンドを生成することとのうちの少なくとも1つを含むことを特徴とする請求項1に記載の音声インタラクション方法。
  3. 前記外付け機器は充電スタンド、スピーカー、イヤホン、携帯電話ホルダのうちの少なくとも1つを含むことを特徴とする請求項2に記載の音声インタラクション方法。
  4. 前記ユーザの音声情報を取得するステップは、前記外付け機器によって前記ユーザの音声情報を収集することを含み、
    前記目標情報に対応するオーディオ情報を再生するステップは、前記外付け機器によって前記目標情報に対応するオーディオ情報を再生することを含むことを特徴とする請求項3に記載の音声インタラクション方法。
  5. 前記端末機器が近距離音声パス及び遠距離音声パスを含み、
    前記端末機器を第1のモードから第2のモードに切り替えるステップは、前記近距離音声パスをオフにし、且つ前記遠距離音声パスをオンにすることを含み、
    前記音声情報に応じて、サーバから前記ユーザの所望する目標情報を取得するステップは、
    前記遠距離音声パスによって前記音声情報を処理し、前記ユーザの所望する目標情報を確定することと、
    前記サーバから前記ユーザの所望する目標情報を取得することと、を含むことを特徴とする請求項1〜4のいずれか一項に記載の音声インタラクション方法。
  6. 前記端末機器が第1のモードにある場合、前記端末機器が第1のインタフェースを表示するように制御するステップと、
    前記端末機器が前記第1のモードから前記第2のモードに切り替えられる場合、前記端末機器が第2のインタフェースを表示するように制御するステップと、をさらに含むことを特徴とする請求項1〜4のいずれか一項に記載の音声インタラクション方法。
  7. 非ユーザートリガーのアプリケーションプログラムを起動するか又は終了するように制御するためのアプリケーションプログラム制御コマンドを取得するステップと、
    前記アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを起動するように制御するために用いられる場合、前記端末機器が前記第2のモードにあり且つ前記アプリケーションプログラムが起動されたとき、前記第2のインタフェースに前記アプリケーションプログラムに対応するユーザインタフェースを表示するステップと、
    前記アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを終了するように制御するために用いられる場合、前記端末機器が前記第2のモードにあり且つ前記アプリケーションプログラムが起動されたとき、前記第2のインタフェースに前記アプリケーションプログラムに対応するユーザインタフェースを表示しないステップと、をさらに含むことを特徴とする請求項6に記載の音声インタラクション方法。
  8. 前記端末機器が前記第2のモードにある場合、サーバからリアルタイムで送信されたプッシュメッセージを受信するステップと、
    前記端末機器に前記プッシュメッセージを表示するステップと、をさらに含むことを特徴とする請求項1〜7のいずれか一項に記載の音声インタラクション方法。
  9. 第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得するステップと、
    前記端末機器が第2のモードにある場合、前記端末機器から送信されたユーザ音声情報に応じて、前記ユーザの所望する目標情報を確定するステップと、
    前記端末機器が前記目標情報に対応するオーディオ情報を再生するように前記目標情報を前記端末機器に送信するステップと、を含むことを特徴とする音声インタラクション方法。
  10. 前記端末機器が第2のモードにある場合、プッシュメッセージを生成するステップと、
    前記端末機器に前記プッシュメッセージをリアルタイムで送信するステップと、を含むことを特徴とする請求項9に記載の音声インタラクション方法。
  11. 前記プッシュメッセージを生成するステップは、
    最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、前記プッシュメッセージを生成することを含むことを特徴とする請求項10に記載の音声インタラクション方法。
  12. 前記最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、前記プッシュメッセージを生成することは、
    前記ユーザ履歴記録情報に応じてユーザ行動情報を予測することと、
    前記ユーザ行動情報に応じて、複数の推薦コンテンツを取得することと、
    前記複数の推薦コンテンツ及び前記最新のリアルタイムホットスポット情報に応じて、前記プッシュメッセージを確定することと、を含むことを特徴とする請求項11に記載の音声インタラクション方法。
  13. 前記複数の推薦コンテンツ及び前記最新のリアルタイムホットスポット情報に応じて、前記プッシュメッセージを確定することは、
    前記複数の推薦コンテンツ及び前記最新のリアルタイムホットスポット情報をソートしてソート結果を得ることと、
    前記ソート結果に応じて、前記プッシュメッセージを確定することと、を含むことを特徴とする請求項12に記載の音声インタラクション方法。
  14. メモリと、プロセッサと、前記メモリに記憶されているコンピュータプログラムとを含む端末機器であって、
    前記コンピュータプログラムが前記プロセッサにより実行されて、
    モード制御コマンドを取得し、
    前記モード制御コマンドに応じて、前記端末機器を第1のモードから第2のモードに切り替え、
    前記端末機器が前記第2のモードにある場合、ユーザの音声情報を取得し、
    前記音声情報に応じて、サーバから前記ユーザの所望する目標情報を取得し、
    前記目標情報に対応するオーディオ情報を再生する操作を実行するように構成されていることを特徴とする端末機器。
  15. 前記プロセッサが、前記モード制御コマンドを取得するとき、
    ユーザによる前記端末機器におけるアプリケーションプログラムに対する操作を検出し、且つ前記操作に応じて前記モード制御コマンドを生成することと、
    前記端末機器に外付け機器が接続されているか否かを検出し、前記端末機器に外付け機器が接続されている場合、前記モード制御コマンドを生成することとのうちの少なくとも1つに用いられることを特徴とする請求項14に記載の端末機器。
  16. 前記外付け機器は充電スタンド、スピーカー、イヤホン、携帯電話ホルダのうちの少なくとも1つを含むことを特徴とする請求項15に記載の端末機器。
  17. 前記プロセッサは、ユーザの音声情報を取得するとき、前記外付け機器によって前記ユーザの音声情報を収集することに用いられ、
    前記プロセッサは、前記目標情報に対応するオーディオ情報を再生するとき、前記外付け機器によって前記目標情報に対応するオーディオ情報を再生することに用いられることを特徴とする請求項16に記載の端末機器。
  18. 前記端末機器が近距離音声パス及び遠距離音声パスを含み、
    前記プロセッサは、前記端末機器を第1のモードから第2のモードに切り替えるとき、前記近距離音声パスをオフにし、且つ前記遠距離音声パスをオンにすることに用いられ、
    前記プロセッサは、前記音声情報に応じて、サーバから前記ユーザの所望する目標情報を取得するとき、前記遠距離音声パスによって前記音声情報を処理し、前記ユーザの所望する目標情報を確定し、サーバから前記ユーザの所望する目標情報を取得することに用いられることを特徴とする請求項14〜17のいずれか1項に記載の端末機器。
  19. 前記プロセッサはさらに、
    前記端末機器が第1のモードにある場合、前記端末機器が第1のインタフェースを表示するように制御し、
    前記端末機器が前記第1のモードから前記第2のモードに切り替えられる場合、前記端末機器が第2のインタフェースを表示するように制御することに用いられることを特徴とする請求項14〜17のいずれか1項に記載の端末機器。
  20. 前記プロセッサはさらに、
    非ユーザートリガーのアプリケーションプログラムを起動するか又は終了するように制御するためのアプリケーションプログラム制御コマンドを取得し、
    前記アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを起動するように制御するために用いられる場合、前記端末機器が前記第2のモードにあり且つ前記アプリケーションプログラムが起動されたとき、前記第2のインタフェースに前記アプリケーションプログラムに対応するユーザインタフェースを表示し、
    前記アプリケーションプログラム制御コマンドが非ユーザートリガーのアプリケーションプログラムを終了するように制御するために用いられる場合、前記端末機器が前記第2のモードにあり且つ前記アプリケーションプログラムが起動されたとき、前記第2のインタフェースに前記アプリケーションプログラムに対応するユーザインタフェースを表示しないことを特徴とする請求項19に記載の端末機器。
  21. 通信インタフェースをさらに含み、
    前記プロセッサはさらに、
    前記端末機器が前記第2のモードにある場合、前記通信インタフェースによってサーバからリアルタイムで送信されたプッシュメッセージを受信し、前記端末機器に前記プッシュメッセージを表示することに用いられることを特徴とする請求項14〜20のいずれか1項に記載の端末機器。
  22. メモリと、プロセッサと、通信インターフェースと、前記メモリに記憶されているコンピュータプログラムとを含むサーバであって、
    前記コンピュータプログラムが前記プロセッサにより実行されて、
    第1のモード及び第2のモードを含む端末機器の現在の音声インタラクションモードを取得し、
    前記端末機器が第2のモードにある場合、前記端末機器から送信されたユーザ音声情報に応じて、前記ユーザの所望する目標情報を確定し、
    前記端末機器が前記目標情報に対応するオーディオ情報を再生するように前記通信インタフェースによって前記目標情報を前記端末機器に送信するという操作を実行するように構成されていることを特徴とするサーバ。
  23. 前記プロセッサはさらに、前記端末機器が第2のモードにある場合、プッシュメッセージを生成し、前記通信インタフェースによって前記端末機器に前記プッシュメッセージをリアルタイムで送信することに用いられることを特徴とする請求項22に記載のサーバ。
  24. 前記プロセッサは、プッシュメッセージを生成するとき、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、前記プッシュメッセージを生成することに用いられることを特徴とする請求項23に記載のサーバ。
  25. 前記プロセッサは、最新のリアルタイムホットスポット情報、ユーザ履歴記録情報及びユーザ画像のうちの少なくとも1つに応じて、前記プッシュメッセージを生成するとき、
    前記ユーザ履歴記録情報に応じてユーザ行動情報を予測し、
    前記ユーザ行動情報に応じて、複数の推薦コンテンツを取得し、
    前記複数の推薦コンテンツ及び前記最新のリアルタイムホットスポット情報に応じて、前記プッシュメッセージを確定することに用いられることを特徴とする請求項24に記載のサーバ。
  26. 前記プロセッサは、前記複数の推薦コンテンツ及び前記最新のリアルタイムホットスポット情報に応じて、前記プッシュメッセージを確定するとき、
    前記複数の推薦コンテンツ及び前記最新のリアルタイムホットスポット情報をソートしてソート結果を得て、前記ソート結果に応じて、前記プッシュメッセージを確定することに用いられることを特徴とする請求項25に記載のサーバ。
  27. 請求項1〜13のいずれか1項に記載の方法を実現するようにプロセッサに実行されるコンピュータプログラムが記憶されていることを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2019132233A 2018-09-30 2019-07-17 音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体 Active JP7227866B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811159559.3 2018-09-30
CN201811159559.3A CN109243444B (zh) 2018-09-30 2018-09-30 语音交互方法、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2019195221A true JP2019195221A (ja) 2019-11-07
JP7227866B2 JP7227866B2 (ja) 2023-02-22

Family

ID=65054808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132233A Active JP7227866B2 (ja) 2018-09-30 2019-07-17 音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体

Country Status (3)

Country Link
US (1) US11282519B2 (ja)
JP (1) JP7227866B2 (ja)
CN (1) CN109243444B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109243444B (zh) * 2018-09-30 2021-06-01 百度在线网络技术(北京)有限公司 语音交互方法、设备及计算机可读存储介质
CN109949809B (zh) * 2019-03-27 2021-07-06 维沃移动通信有限公司 一种语音控制方法及终端设备
CN112017652A (zh) * 2019-05-31 2020-12-01 华为技术有限公司 一种交互方法和终端设备
CN112071312B (zh) * 2019-06-10 2024-03-29 海信视像科技股份有限公司 一种语音控制方法及显示设备
CN110491387B (zh) * 2019-08-23 2022-03-29 三星电子(中国)研发中心 一种基于多个终端的交互服务实现方法和系统
CN112581949B (zh) * 2019-09-29 2023-09-01 深圳市万普拉斯科技有限公司 设备控制方法、装置、电子设备及可读存储介质
CN111161741B (zh) * 2019-12-19 2023-06-27 五八有限公司 一种个性化信息识别方法、装置、电子设备及存储介质
CN113377322A (zh) * 2020-03-09 2021-09-10 阿里巴巴集团控股有限公司 页面直达处理方法、装置及电子设备
CN111665732A (zh) * 2020-06-11 2020-09-15 安吉县广播电视网络有限公司 一种智慧家居语音装置以及语音系统
CN112860331B (zh) * 2021-03-19 2023-11-10 Vidaa美国公司 一种显示设备及语音交互的提示方法
CN115776581A (zh) * 2022-11-03 2023-03-10 深圳创维-Rgb电子有限公司 基于电视的信息处理方法、装置、系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069141A (ja) * 1998-08-26 2000-03-03 Uniden Corp 音声認識機能付き電話機
JP2001345929A (ja) * 2000-06-06 2001-12-14 Nec Shizuoka Ltd 携帯電話とオプション機器との接続方法
JP2004282332A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Ind Co Ltd 電話装置
JP2014010449A (ja) * 2012-06-27 2014-01-20 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置の制御方法および対話型システム
JP2017016683A (ja) * 2011-09-30 2017-01-19 アップル インコーポレイテッド ハンズフリーインタラクションに対するユーザインターフェースの自動適合化

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US7006881B1 (en) * 1991-12-23 2006-02-28 Steven Hoffberg Media recording device with remote graphic user interface
US6349290B1 (en) * 1998-06-30 2002-02-19 Citibank, N.A. Automated system and method for customized and personalized presentation of products and services of a financial institution
US7904187B2 (en) * 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US20090018826A1 (en) 2007-07-13 2009-01-15 Berlin Andrew A Methods, Systems and Devices for Speech Transduction
US8509180B2 (en) 2008-05-02 2013-08-13 Qualcomm Incorporated Method and apparatus for efficient handover in LTE
US8131267B2 (en) * 2008-05-19 2012-03-06 Tbm, Llc Interactive voice access and retrieval of information
US20130212478A1 (en) * 2012-02-15 2013-08-15 Tvg, Llc Audio navigation of an electronic interface
KR102060661B1 (ko) * 2013-07-19 2020-02-11 삼성전자주식회사 통신 방법 및 이를 위한 디바이스
US9167333B2 (en) * 2013-10-18 2015-10-20 Plantronics, Inc. Headset dictation mode
CN105227656B (zh) * 2015-09-28 2018-09-07 百度在线网络技术(北京)有限公司 基于语音识别的信息推送方法和装置
JP2017146437A (ja) * 2016-02-17 2017-08-24 本田技研工業株式会社 音声入力処理装置
CN107105322A (zh) * 2017-05-23 2017-08-29 深圳市鑫益嘉科技股份有限公司 一种多媒体智能推送机器人及推送方法
CN108039172A (zh) * 2017-12-01 2018-05-15 Tcl通力电子(惠州)有限公司 智能蓝牙音箱语音交互方法、智能蓝牙音箱及存储介质
CN108038737A (zh) * 2017-12-26 2018-05-15 西安Tcl软件开发有限公司 广告信息推送控制方法、终端和计算机可读存储介质
CN108428452B (zh) * 2018-03-14 2019-12-13 百度在线网络技术(北京)有限公司 终端支架和远场语音交互系统
CN109243444B (zh) * 2018-09-30 2021-06-01 百度在线网络技术(北京)有限公司 语音交互方法、设备及计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069141A (ja) * 1998-08-26 2000-03-03 Uniden Corp 音声認識機能付き電話機
JP2001345929A (ja) * 2000-06-06 2001-12-14 Nec Shizuoka Ltd 携帯電話とオプション機器との接続方法
JP2004282332A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Ind Co Ltd 電話装置
JP2017016683A (ja) * 2011-09-30 2017-01-19 アップル インコーポレイテッド ハンズフリーインタラクションに対するユーザインターフェースの自動適合化
JP2014010449A (ja) * 2012-06-27 2014-01-20 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置の制御方法および対話型システム

Also Published As

Publication number Publication date
CN109243444A (zh) 2019-01-18
US20190333513A1 (en) 2019-10-31
JP7227866B2 (ja) 2023-02-22
CN109243444B (zh) 2021-06-01
US11282519B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
JP7227866B2 (ja) 音声インタラクション方法、端末機器、サーバ及びコンピュータ読み取り可能な記憶媒体
KR102660922B1 (ko) 복수의 지능형 개인 비서 서비스를 위한 관리 계층
CN105893459B (zh) 媒体内容回放系统和方法
US9516081B2 (en) Reduced latency electronic content system
KR101900319B1 (ko) 서비스 연동 수행 방법과 이를 위한 시스템
US20170289202A1 (en) Interactive online music experience
CN105893457B (zh) 媒体内容回放系统和方法
CN113613046B (zh) 管理回放组
KR101494569B1 (ko) 미디어 컨텍스트 정보
US8841986B2 (en) Consumer interactive music system
KR102087010B1 (ko) 무선 통신에 기반한 데이터 송수신 방법 및 장치
CN103634559A (zh) 用于基于消息收发器的视频通话服务的移动设备和方法
KR20220108163A (ko) 음성 명령 추천을 제공하기 위한 시스템 및 방법
CN110474973B (zh) 一种多设备共享智能引擎的方法、系统和设备
CN109104662A (zh) 指令执行方法、操作响应方法、终端及耳机设备
KR102592833B1 (ko) 차량의 음성 인식 기능 연동 제어 시스템 및 방법
US20220232276A1 (en) Remotely Controlling Playback Devices
CN103098449A (zh) 用户设备,服务器和操作条件设定系统
JP7243639B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20130116650A (ko) 광고 컨텐츠를 효율적으로 재생하기 위한 장치 및 방법
Kirk et al. A location-aware, service-based audio system
WO2016069286A1 (en) Application level audio connection and streaming
KR20150106565A (ko) 메신저 서비스 시스템, 그 시스템에서 프레즌스 정보를 이용한 인스턴트 메시지 서비스 방법 및 장치
JP2019091444A (ja) スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体
JP2019161374A (ja) 端末装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210707

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210831

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210907

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211112

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20211116

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211207

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220104

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220111

C19 Decision taken to dismiss amendment

Free format text: JAPANESE INTERMEDIATE CODE: C19

Effective date: 20220125

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220426

C272 Notice of ex officio correction

Free format text: JAPANESE INTERMEDIATE CODE: C272

Effective date: 20220426

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221004

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20221130

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221208

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221220

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230117

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230210

R150 Certificate of patent or registration of utility model

Ref document number: 7227866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150