JP2020042784A - インテリジェント端末操作用の方法及び装置 - Google Patents

インテリジェント端末操作用の方法及び装置 Download PDF

Info

Publication number
JP2020042784A
JP2020042784A JP2019129431A JP2019129431A JP2020042784A JP 2020042784 A JP2020042784 A JP 2020042784A JP 2019129431 A JP2019129431 A JP 2019129431A JP 2019129431 A JP2019129431 A JP 2019129431A JP 2020042784 A JP2020042784 A JP 2020042784A
Authority
JP
Japan
Prior art keywords
command
user
history
text command
record
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019129431A
Other languages
English (en)
Inventor
チン ション
Qin Xiong
チン ション
ガオフェイ チェン
Gaofei Cheng
ガオフェイ チェン
レイレイ ガオ
Lei Lei Gao
レイレイ ガオ
フェイ ワン
Fei Wang
フェイ ワン
ユエ リュウ
Yue Liu
ユエ リュウ
ウェンリン ドン
Wenlin Dong
ウェンリン ドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020042784A publication Critical patent/JP2020042784A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/083Recognition networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】インテリジェント端末の操作において、ユーザーが完璧な音声指令を入力しなくても知的にユーザ指令を捕捉することができる方法、装置、サーバー及び媒体を提供する。【解決手段】インテリジェント端末操作用の方法は、現在入力のユーザー音声指令を現在テキスト指令に解析するステップ201と、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索するステップ202と、検索された履歴テキスト指令レコードを解析してユーザー意図を得るステップ203と、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信するステップ204と、リソースライブラリから返された応答及びユーザー意図に基づいて、動作コンポーネントに動作の実行を指示するステップ205と、を含む。【選択図】図2

Description

発明の詳細な説明
[技術分野]
本願はコンピュータの技術分野に関しており、詳細にはコンピュータネットワークの技術分野に関して、特にインテリジェント端末操作用の方法及び装置に関する。
[背景技術]
音声インテリジェントデバイスが発展しつつあることに伴って、音声インタラクションがどのようにユーザーの要求をよりよく満たすのかは、難しい課題になる。
目下、音声操作技術は、依然として、言った内容がそのまま読み取られるとの発展段階にあり、リソースライブラリサーバーは、ユーザーが今回言った指令のみを解析し、その解析結果に対応する最終の実行指令をインテリジェントデバイス側に返し、且つ、インテリジェントデバイスで実行命令に従う操作を実行させることである。
しかし、現在、メディアリソースは、名称が理解しにくい場合や、名称が長すぎる場合があるが、ユーザーは、テレビドラマの『お前のために、僕は、******たいと願っている』を見ようとする場合、インテリジェントデバイスから正しい応答を取得し得るために、このドラマを見る度に、インテリジェントデバイスに向かって、「『お前のために、僕は、******たいと願っている』を見たい」と言う必要がある。これは、ユーザーにとって不便である。
本願実施例は、インテリジェント端末操作用の方法及び装置を提供する。
第1の態様では、本願の実施例はインテリジェント端末操作用の方法を提供しており、この方法は、現在入力のユーザー音声指令を現在テキスト指令に解析することと、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索することと、検索された履歴テキスト指令レコードを解析してユーザー意図を得ること、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信することと、リソースライブラリから返された応答及びユーザー意図に基づいて、動作コンポーネントに動作の実行を指示することと、を含む。
ある実施例において、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索することは、現在テキスト指令について単語分割を行って、現在テキスト指令の対応した単語列を得ることと、単語列と、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットにおける各履歴テキスト指令レコードとの類似度を算出することと、類似度の高い順で、類似度が最も高い履歴テキスト指令レコードを、検索された履歴テキスト指令レコードとして取得すること、を含む。
幾つかの実施例において、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索することは、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最大マッチングアルゴリズムにより現在テキスト指令にマッチした履歴テキスト指令レコードを検索すること、を含む。
幾つかの実施例において、履歴ユーザー音声指令は、所定の履歴期間内に記憶されたユーザー音声指令である。
幾つかの実施例において、リソースライブラリから返された応答及びユーザー意図に基づいて、動作コンポーネントに動作の実行を指示することは、もしリソースライブラリから返された応答が、指令が正しく解析されなかったことを表していれば、指令が正しく解析されなかったことをユーザーに提示し、もしリソースライブラリから返された応答が、指令が正しく解析されたことを表していれば、解析された正しい指令に基づいて、ユーザーに対してユーザー意図が示された操作を実行すること、を含む。
第2の様態では、本願の実施例は、インテリジェント端末操作用の装置を提供しており、該装置は、現在入力のユーザー音声指令を現在テキスト指令を解析するように構成されたテキスト解析ユニットと、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索するように構成されたレコード検索ユニットと、検索された履歴テキスト指令レコードを解析してユーザー意図を得るように構成された意図解析ユニットと、ユーザー意図に基づいて生成されたニットと、リソースライブラリから返された応答及びユーザー意図に基づいて、動作コンポーネントに動作の実行を指示するように構成された動作実行ユニットと、を含む。
幾つかの実施例において、レコード検索ユニットは、更に、現在テキスト指令について単語分割を行って現在テキスト指令に対応する単語列を得て、単語列と、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットにおける各履歴テキスト指令レコードとの類似度を算出し、類似度の高い順で、類似度が最も高い履歴テキスト指令レコードを、検索された履歴テキスト指令レコードとして取得する、ように構成された。
幾つかの実施例において、レコード検索ユニットは、更に、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最大マッチングアルゴリズムにより、現在テキスト指令にマッチした履歴テキスト指令レコードを検索する、ように構成された。
幾つかの実施例において、レコード検索ユニットにおける履歴ユーザー音声指令は、所定の履歴期間内に記憶されたユーザー音声指令である。
幾つかの実施例において、動作実行ユニットは、さらに、もしリソースライブラリから返された応答が、指令を正しく解析されなかったことを表していれば、指令が正しく解析されなかったことをユーザーに提示し、もしリソースライブラリから返された応答が、指令が正しく解析されたことを表していれば、解析された正しい指令に基づいて、ユーザーに対してユーザー意図の示された操作を実行する。
第3の様態では、本願の実施例は、機器であって、一つまたは複数のプロセッサーと、一つまたは複数のプログラムが記憶されている記憶装置とを含み、一つまたは複数のプログラムが一つまたは複数のプロセッサーに実行されると、一つまたは複数のプロセッサーに上記いずれか一つの実施例に記載の方法を実現させる機器を提供する。
第4の様態では、本願の実施例が、コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体であって、該プログラムはプロセッサーに実行されると、上記いずれか一つの実施例に記載の方法を実現させるコンピュータ読み取り可能な媒体を提供する。
本願の実施例の提供するインテリジェント端末操作用の方法及び装置は、まず、現在入力のユーザー音声指令を現在テキスト指令に解析し、次に、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索し、次に、検索された履歴テキスト指令レコードを解析してユーザー意図を得て、次に、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信し、最後に、リソースライブラリから返された応答に基づいて、ユーザー意図が示された操作の実行を動作コンポーネントに指示する。この過程において、ユーザーが完璧な音声指令を入力しなくても知的にユーザー指令を補足することができ、且つ更に補足されたユーザー指令のクラウドでの最新の分析結果に基づいて、ユーザーに情報をプッシュすることにより、ユーザーが音声インテリジェントデバイスを使用する時のコストが低下し、インテリジェントデバイスに対するユーザー体験が向上し、インテリジェント音声技術の評判を向上させることができ、人工知能(AI)に関する技術の製品化の達成を促進することができる。
図面を参照してなされた非限定的な実施例に対する詳細な記述により、本発明の他の特徴、目的及び利点は一層明らかになる。
本発明が適用可能な例示的なシステムアーキテクチャ図である。 本願実施例に係るインテリジェント端末操作用の方法の一実施例のフローチャートである。 本願実施例に係るインテリジェント端末操作用の方法の一つの適用シナリオの模式図である。 本願実施例に係るインテリジェント端末操作用の方法の他の実施例のフローチャートである。 本願実施例に係るインテリジェント端末操作用装置の一実施例の概略構造図である。 本願実施例に係るサーバーを達成するためのコンピュータシステムの概略構造図である。
以下、図面及び実施例を参照しながら本願を更に詳細に説明する。言うまでもなく、ここで記述される具体的な実施例は、かかる発明を説明するためのものに過ぎず、本発明を限定するものではない。なお、説明の便宜上、図面に発明と関係する部分のみが示されている。
なお、矛盾を生じない限り、本願における実施例及び実施例における特徴を互いに組み合わせることができる。以下、図面を参照しながら実施例に基づいて本願を詳細に説明する。
図1の示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104及びサーバー105、106を含んでもよい。ネットワーク104は、端末装置101、102、103と、サーバー105、106との間に、通信リンクを提供する媒体であってもよい。ネットワーク104は、例えば有線、無線通信リンクまたは光ファイバーケーブル等、様々な類別を含んでもよい。
ユーザー110は、端末装置101、102、103を利用してネットワーク10を介してサーバー105、106とインタラクションすることにより、情報等を受送信することができる。端末装置101、102、103には、例えばビデオキャプチャアプリケーション、ビデオ再生アプリケーション、インスタントコミュニケーションツール、電子メールクライアント、ソーシャルプラットフォームソフトウェア、検索エンジンアプリ、ショッピングアプリ等、様々な通信クライアントアプリケーションがインストールされてもよい。
端末装置101、102、103は、表示画面を備える様々な電子機器でもよく、インテリジェントフォン、タブレット、電子書籍リーダー、MP3プレーヤー(Moving Picture Experts Group Audio Layer III、Motion Picture Expert compresses standard audio layers 3)、MP4(Moving Picture Experts Group Audio Layer IV、Motion Picture Expert compresses standard audio layers 4) プレーヤー、ラップトップポータブルコンピュータ及びデスクトップコンピュータ等を含んでもよいが、これらに限られない。
サーバー105や106は、例えば端末装置101、102、103をサポートするバックグラウンドサーバーなどのような、様々なサービスを提供するサーバーであってもよい。バックグラウンドサーバーは、端末から提出された数据に対して分析、記憶または演算等の処理を行い、その分析、記憶または演算された結果を端末装置にプッシュすることができる。
なお、実際には、本願実施例によるインテリジェント端末操作用の方法は、普通、サーバー105、106により実行されており、それに応じて、インテリジェント端末操作用の装置は、普通、サーバー105、106に設けられている。しかし、端末装置の性能はこの方法の実行条件またはこの設備の構成条件を満たす場合に、本願実施例によるインテリジェント端末操作用の方法は、端末装置101、102、103により実行されてもよく、インテリジェント端末操作用の装置は、端末装置101、102、103に設けられてもよい。
図1における端末、ネットワーク及びサーバーの数は、例示的なものと理解すべきである。実際の必要に応じて任意の数の端末、ネットワーク及びサーバーを備えてもよい。
図2を引き続き参照すると、本願に係るインテリジェント端末操作用の方法の一実施例であるフロー200が示されている。該インテリジェント端末操作用の方法は、以下のステップを含む。
ステップ201において、現在入力のユーザー音声指令を現在テキスト指令に解析する。
本実施例において、前記インテリジェント端末操作用の方法が実行される電子機器(例えば図1の示すようなサーバーまたは端末)は、マイクアレイによりファーフィールド音声を取得し、又はマイクによりニアフィールド音声を取得することにより、ユーザーから入力されたユーザー音声指令を取得することができ、その後、ユーザー音声インタラクション指令を現在テキスト指令に変換するとともに、幾つかの既知のエラーを訂正して調整することができる。
具体的な例において、現在入力のユーザー音声指令は「『お前のために、僕は、』を見たい」であってもよい。すると、このユーザー音声指令を現在テキスト指令である「『お前のために、僕は、』を見たい」として解析することができる。
本実施例の幾つかの選択可能な実施形態において、履歴ユーザー音声指令は所定の履歴期間内に記憶されたユーザー音声指令である。
本実施形態において、現在入力のユーザー音声指令を履歴テキスト指令レコードセットに記憶してもよい。この履歴テキスト指令レコードセットは、予定の履歴期間内に入力されたユーザー音声指令を格納可能である。例えば、一ヶ月、一週間または一日内に入力されたユーザー音声指令を格納しても良い。
ステップ202において、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索する。
本実施例において、ステップ201で得られた現在テキスト指令を入力として、マッチングアルゴリズムにより、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、音声が補足された履歴テキスト指令レコードであって、最もマッチした履歴テキスト指令レコードを特定することができる。
具体的な実例において、現在テキスト指令が「『お前のために、僕は、』を見たい」であり、履歴ユーザー音声指令セットにおける対応する履歴テキスト指令レコードセットの中から検索した最もマッチした音声補足された履歴テキスト指令レコードが「『お前のために、僕は、******たいと願っている』をみたい」である。
本実施例の一つの選択可能な実施形態において、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索することは、現在テキスト指令に対して単語分割を行って、現在テキスト指令の対応する単語列を得ること、単語列と履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットにおける各履歴テキスト指令レコードとの類似度を算出すること、類似度の高い順で、類似度の最も高い履歴テキスト指令レコードを、検索された履歴テキスト指令レコードとして取得すること、を含む。
本実施形態において、単語分割とは、現在テキスト指令を別々の単語に分割して、単語列を得ることである。履歴ユーザー音声指令レコードセットに対応する履歴テキスト指令レコードセットについて、単語列を、各履歴テキスト指令レコードと比較して、それらの類似度を得るとともに、類似度の高い順で、類似度が最も高い履歴テキスト指令レコードを、検索された履歴テキスト指令レコードとして取得することができる。
ステップ203において、検索された履歴テキスト指令レコードを解析してユーザー意図を得る。
本実施例において、補足された履歴テキスト指令レコードを解析してユーザー意図を得ることができる。解析という操作は、ローカルまたはクラウドサーバーにて行うことができる。例えば、補足された指令を解析サーバーに送信して解析することにより、解析サーバーから返された最新の解析結果を得ることができる。
解析の時に、音声が補足された履歴テキスト指令レコードに対して単語分割や語義理解などの処理を実行することで、ユーザーが表現したい意図、及びユーザーが認識してもらいたい主体を、的確に得ることができる。
一つの具体的な実例において、検索された履歴テキスト指令レコードである「『お前のために、僕は、******たいと願っている』をみたい」について、単語分割や語義理解を行ってユーザーが表現したい意図における主語の「僕」、意欲単語の「たい」、動作の「見」及び対象名称の「お前のために、僕は、*******たいと願っている」を得る。
ここの解析結果は、最新の解析結果であると理解すべきである。解析の時に使用される解析データベースまたは解析辞書は継続して更新しつつあるものなので、同じ履歴テキスト指令レコードに対しても、同じ履歴テキスト指令レコードへの解析が、異なる解析結果を得ることもある。例えば、更新中の映画の場合、「『***』を見たい」とは、新上映になったばかりの『***第2部』を指すことも可能である。
ステップ204において、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信する。
本実施例において、ステップ203にてユーザー意図を解析した後、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信することができる。言うまでもなく、このリソースライブラリは、クラウド側に備えられてもよいし、ローカル側に備えられてもよい。仮にこのリソースライブラリ及び前記解析操作を実行するモジュールはともにクラウド側に設けられている場合に、このリソースライブラリ及び前記解析操作を実行するモジュールは、同じサーバーに設けられてもよいが、異なるサーバーに設けられてもよい。
ある具体的な実例において、リソースライブラリに、「『お前のために、僕は、******たいと願っている』を見たい」というユーザー意図に基づいて生じた「僕は、******たいと願っている」を取得するための要求を送信することができる。
ステップ205において、リソースライブラリから返された応答及びユーザー意図に基づいて、動作コンポーネントに対し動作の実行を指示する。
本実施例において、リソースライブラリに返された応答は、指令を正しく解析したものであるか否かに応じて、次の操作を決定することができる。もし、指令が正しく解析されなかった場合に、指令が正しく解析されなかったことをユーザーに提示可能であり、もし、指令が既に正しく解析された場合に、応答により返されたリソースがユーザーに要求されたリソースであり、この場合に、ユーザーに対してユーザー意図によって示された操作を実行することができる。
一つの具体的な例において、リソースライブラリにより返された応答である『僕は、******たいと願っている』の最新のリソースを得た後、ユーザー意図における「たい」「見」、「僕は、******たいと願っている」との内容に基づいて、この最新のリソースの『僕は、******たいと願っている』を再生することができる。
本願の上記実施例におけるインテリジェント端末操作用の方法は、まず、現在入力のユーザー音声指令を現在テキスト指令に解析し、次に履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索し、次に、検索した履歴テキスト指令レコードを解析してユーザー意図を得て、次に、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信し、最後に、リソースライブラリから返された応答に基づいて、動作コンポーネントに対し、ユーザー意図に示された操作の実行を指示する。この過程において、ユーザーが完璧な音声指令を入力しなくても知的にユーザー指令を補足することができ、更に補足されたユーザー指令の最新の解析結果に基づいて、情報をユーザーにプッシュすることができ、ユーザーが音声インテリジェントデバイスを利用する時のコストが低下し、インテリジェントデバイスのユーザー体験が改善され、インテリジェント音声技術の評価を向上させることができ、AI技術の製品化の達成を促進することができる。
図3を引き続き参照して、本願に係るインテリジェント端末操作用の方法の例示的な適用シナリオを説明する。
図3に、本願に係るインテリジェント端末操作用の方法の一つの適用シナリオの模式フローチャートが示されている。
図3の示すように、インテリジェント端末操作用の方法300は、電子機器310に実行される方法であって、
まず、現在入力のユーザー音声指令301を現在テキスト指令302に解析すること、
次に、履歴ユーザー音声指令303に対応する履歴テキスト指令レコード304の中から、現在テキスト指令302にマッチした履歴テキスト指令レコード305を検索すること、
そして、検索された履歴テキスト指令レコード305を解析して、ユーザー意図306を得ること、
その後、ユーザー意図に基づいて生成されたユーザー要求307をリソースライブラリに送信すること、
最後に、リソースライブラリから返された応答308に基づいて、動作コンポーネントに対しユーザー意図が示された操作309の実行を指示すること、を含んでもよい。
言うまでもなく、前記図3に示すインテリジェント端末操作用の方法の適用シナリオは、インテリジェント端末操作用の方法を例示的に記述するためのものに過ぎず、この方法に対する限定ではない。例えば、前記図3に示される各ステップには、更により詳細な実現方法を使用することができる。
更に、図4を参照して、本願に係るインテリジェント端末操作用の方法の一実施例のフローを示している。
図4に示すように、このインテリジェント端末操作用の方法400は、以下ステップを有する。
ステップ401において、現在入力のユーザー音声指令を現在テキスト指令に解析する。
本実施例において、上記インテリジェント端末操作用の方法が実行されている電子機器(例えば図1に示すサーバーまたは端末)は、マイクアレイを通じてファーフィールド音声を取得し、或いは、マイクを通じてニアフィールド音声を取得することにより、ユーザーが入力したユーザー音声指令を取得することが可能であり、その後、ユーザー音声インタラクション指令を現在テキスト指令に変換し、幾つかの既知のエラーを訂正し調整することが可能である。
一つ具体的な実例において、現在入力のユーザー音声指令が「『お前のために』を見たい」であってもよく、この場合には、このユーザー音声指令を現在テキスト指令の「『お前のために』を見たい」に解析することができる。
本実施例の選択可能な実施形態の一部において、履歴ユーザー音声指令が所定の履歴期間内に記憶されたユーザー音声指令である。
本実施形態において、現在入力のユーザー音声指令を履歴テキスト指令レコードセットに記憶することができる。この履歴テキスト指令レコードセットは、予定の履歴期間内に入力されたユーザー音声指令を記憶できる。例えば、一ヶ月、一週間または一日内に入力されたユーザー音声指令を記憶することができる。
ステップ402において、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最大マッチングアルゴリズムにより、現在テキスト指令にマッチした履歴テキスト指令レコードを検索する。
本実施例において、ステップ401にて得られた現在テキスト指令を入力とし、最大マッチングアルゴリズムにより、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最もマッチした音声補足された履歴テキスト指令レコードを検索することができる。
ここでの最大マッチングアルゴリズムは、おもに最大マッチングアルゴリズム(Forward Maximum Matching Algorithm)、逆最大マッチングアルゴリズム(Reversion Maximum Match Algorithm)、双方向マッチングアルゴリズム等を含む。それらの主な原理は、全て、分割により単一ストリングを得て、そして、それをシソーラスと照合し、一つ単語であればそれを記録し、そうではないと、一つの字しか残されないまで、一つの字を増加または減少し、照合を引き続き行う。もしこの単一ストリングは分割できなければ、それを登録されないものとして取り扱う。最大マッチング原則とは、シソーラスの中から最も長いマッチした文字列を一つ単語して検索することである。例えば、「私はABCDEFGで生まれた」、最大マッチング原則に従い単語分割を行うと、単語分割結果は「私」、「AB」、「CD」、「EFG」、 「で」、 「生まれた」とのものではなくて、「私」、「ABCDEFG」 「で」、「生まれた」、とのものになる。
一つ具体的な実例において、現在テキスト指令が「『お前のために』を見たい」であると、最大マッチングアルゴリズムにより、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から検出された最もマッチした音声補足された履歴テキスト指令レコードは「『お前のために、僕は、******たいと願っている』を見たい」である。
ステップ403において、検索された履歴テキスト指令レコードを解析して、ユーザー意図を得る。
本実施例において、補足された履歴テキスト指令レコードを解析して、ユーザー意図を得ることができる。解析との操作は、ローカルサーバーにて行うことができるし、クラウドサーバーにて行うこともできる。例えば、補足された指令を解析サーバーに送信して解析し、解析サーバーから返された最新の解析結果を得ることができる。
解析の時、音声補足された履歴テキスト指令レコードに対して単語分割や語義理解等を行って、ユーザーが表現したい意図及びユーザーが認識してもらいたい主体を的確に得ることができる。
一つ具体的な例において、検索された履歴テキスト指令レコードである「『お前のために、僕は、******たいと願っている』をみたい」について、単語分割や語義理解等を行って、ユーザーが表現したい意図における主語の「僕」、意欲単語の「たい」、動作の「見」及び対象名称の「お前のために、僕は、******たいと願っている」を得ることができる。
言うまでもなく、ここでの解析結果は最新の解析結果である。解析の時に使用される解析データベースまたは解析辞書は引き続き更新しつつあるものなので、同じ履歴テキスト指令レコードについても、同じ履歴テキスト指令レコードに関する解析が、異なる解析結果を得ることもある。例えば、更新中の映画の場合、「『***』を見たい」とは、新上映の『***第2部』を見たいことを指すことが可能である。
ステップ404において、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信する。
本実施例において、ステップ403にてユーザー意図を解析してから、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信することが可能である。言うまでもなく、このリソースライブラリは、クラウドに備えられてもよいし、ローカルに備えられてもよい。もし、このリソースライブラリと上記解析操作が実行されるモジュールは、ともにクラウドに設けられる場合、このリソースライブラリ及び前記解析操作が実行されるモジュールは、同じサーバーに設けられてもよいし、異なるサーバーに設けられてもよい。
一つ具体的な実例において、ユーザー意図である「『お前のために、僕は、******たいと願っている』を見たい」に基づいて生成された、『僕は、******たいと願っている』を取得するための要求をリソースライブラリに送信することができる。
ステップ405において、リソースライブラリに返された応答及びユーザー意図に基づいて、動作コンポーネントに対し動作の実行を指示する。
本実施例において、リソースライブラリに返された応答は、指令を正しく解析したものであるか否かに応じて、次の操作を決定することができる。もし、指令が正しく解析されなかった場合に、指令が正しく解析されなかったことをユーザーに提示することができ、もし、指令が正しく解析された場合に、応答により返されたリソースは、ユーザーが要求したリソースであり、この場合に、ユーザーに対してユーザー意図に示された操作を実行することができる。
一つ具体的な実例において、リソースライブラリから返された応答である『僕は、******たいと願っている』という最新のリソースを得た後、ユーザー意図における「僕」、「見」、「たい」、「僕は、******たいと願っている」に応じて、この最新のリソースである『僕は、***たいと願っている』を再生することができる。
本願の上記実施例に係るインテリジェント端末操作用の方法は、まず、現在入力のユーザー音声指令を現在テキスト指令に解析し、次に、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最大マッチングアルゴリズムにより現在テキスト指令にマッチした履歴テキスト指令レコードを検索し、次に、検索された履歴テキスト指令レコードを解析してユーザー意図を得て、次に、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信し、最後に、リソースライブラリから返された応答に基づいて、コンポーネントに対しユーザー意図に示された操作の実行を指示する。この過程では、ユーザーが完璧な音声指令を入力しなくても、最大マッチングアルゴリズムによりユーザー指令を知的に補足して、補足されたユーザー指令の完備性を向上させることができる。更に、補足されたユーザー指令の最新の解析結果に応じて、情報をユーザーにプッシュすることにより、ユーザーが音声インテリジェントデバイスを使用する時のコストは低下し、インテリジェントデバイスのユーザー体験が改善され、インテリジェント音声の評価を向上させることができ、AI技術の製品化の達成を促進することができる。
更に図5を参照して説明すると、上記各図に示す方法の実施形態として、本願は、インテリジェント端末操作用の装置の一実施例を提供し、この装置実施例は、図1〜図4に示す方法実施例と対応するものであり、様々な電子機器に適用することが可能である。
図5に示すように、本実施例に係るインテリジェント端末操作用の装置500は、現在入力のユーザー音声指令を現在テキスト指令に解析するように構成されたテキスト解析ユニット510と、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索するように構成されたレコード検索ユニット520と、検索された履歴テキスト指令レコードを解析してユーザー意図を得るように構成された意図解析ユニット530と、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信するように構成された要求送信ユニット540、リソースライブラリから返された応答及びユーザー意図に基づいて、動作ポーネントに動作の実行を指示するように構成された動作実行ユニット550とを含んでもよい。
本実施例に係るある選択可能な実施形態において、レコード検索ユニット520は、さらに、現在テキスト指令に対して単語分割を行って、現在テキスト指令に対応する単語列を得て、単語列と履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットにおける各履歴テキスト指令レコードとの類似度を算出し、類似度の高い順で、類似度が最も高い履歴テキスト指令レコードを検索された履歴テキスト指令レコードとして取得する、ように構成された。
本実施例の幾つかの選択可能な実施形態において、レコード検索ユニット520は、更に、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最大マッチングアルゴリズムにより、現在テキスト指令にマッチした履歴テキスト指令レコードを検索する、ように構成された。
本実施例の幾つかの選択可能な実施形態において、レコード検索ユニット520における履歴ユーザー音声指令は、予定の履歴期間内に記憶されたユーザー音声指令である。
本実施例の幾つかの選択可能な実施形態において、動作実行ユニット550は、もし、リソースライブラリから返された応答が、指令が正しく解析されないことを示していれば、指令が正しく解析されなかったことをユーザーに提示する一方、リソースライブラリから返された応答が、指令が正しく解析されたことを示していれば、解析された正しい指令に応じて、ユーザーに対して、ユーザー意図が示された操作を実行する、ように構成された。
言うまでもなく、装置500に対して記載される各ユニットは、図1〜図4を参照して記述された方法における各ステップに対応し得る。そこで、前文において方法について記述された操作及び特徴は、同様に装置500及び含まれるユニットに適用可能であるので、ここでは繰り返して説明しない。
以下、本願の実施例のサーバーを実現したコンピュータシステム600の概略構造図を示す図6を参照する。図6に示す端末装置またはサーバーは、ただ一つの実例に過ぎず、本願実施例の機能及び適用可能な範囲に対する如何なる限定ともならない。
図6に示すように、コンピュータシステム600は、中央処理ユニット(CPU)601を含む。この中央処理ユニット(CPU)は、読み取り専用メモリ(ROM)602に記憶されたプログラム、または記憶部分608からランダムアクセスメモリ(RAM)603にロードされたプログラムに従い、様々な適宜の動作及び処理を実行可能である。RAM603に、さらに、システム600の操作に必要な様々なプログラム及びデータが記憶されている。CPU601、ROM602及びRAM603は、バス604を通じて互いに接続される。入力/出力(I/O)インターフェース605も、バス604に接続される。
キーボードやマウス等を含む入力部分606と、例えばブラウン管(CRT)や液晶ディスプレイ(LCD)等及びスピーカー等を含む出力部分607と、ハードディスク等を含む記憶部分608と、例えばLANカードやモデム等のネットワークインターフェースカードを含む通信部分609との上記部材は、I/Oインターフェース605に接続される。通信部分609は、例えばインターネットのようなネットワークを介して通信処理を実行する。ドライブ610も、更に、必要に応じて、I/Oインターフェースに接続される。例えばディスク、光ディスク、光磁気ディスク、半導体メモリ等のリムーバブルメディア611は、それから読み取られたコンピュータプログラムが必要に応じて便利に記憶部分608にインストールされるために、必要に応じてドライブ610に取り付けられる。
特に、本開示の実施例によれば、フローチャートを参照して説明された前記過程は、コンピュータソフトウェアプログラムとして実現可能である。例えば、本開示の実施例は、コンピュータプログラムプロダクトであって、コンピュータ読み取り可能な媒体上に搭載され、フローチャートに示す方法を実行するためのプログラムコードを有するコンピュータプログラムを有するコンピュータプログラムプロダクトを含む。このような実施例において、このコンピュータプログラムを、通信部分609によりネットワークからダウンロードし、インストールするか、及び/またはリムーバブルメディア611にからインストールすることができる。このコンピュータプログラムが中央処理ユニット(CPU)601に実行されると、本願に係る方法に限定された前記機能を実行する。なお、本願に記載のコンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体であってもよいし、コンピュータ読み取り可能な記憶媒体であってもよいし、更に前記両者の任意の組合せであってもよい。コンピュータ読み取り可能な記憶媒体は、例えば電気、磁気、光学、電磁気、赤外線、または半導体システムおよび装置または機器、または以上の任意の組合せであってもよいが、これらに限られない。コンピュータ読み取り可能な記憶媒体の更に具体的な例として、一つまたは複数のワイヤーを備える電気接続、ラップトップディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)、光記憶装置、磁気記憶装置、またはこれらの任意の適当な組合せが挙げられるが、これらに限られない。本願において、コンピュータ読み取り可能な記憶媒体は、プログラムを含有、記憶する如何なる有形の媒体であってもよい。このプログラムは、指令実行システム、装置またはデバイスに使用されてもよいが、この指令実行システム、装置または機器と組み合わせて使用されてもよい。しかも、本願において、コンピュータ読み取り可能な信号媒体は、ベースバンド中で伝送されるか、またはキャリアーの一部として伝送される、コンピュータ読み取り可能なプログラムコードを搭載したデータ信号を含んでもよい。このように伝送されるデータ信号は、多種の形式とする可能であり、例えば、電磁信号、光信号または前記任意の適当な組合せであってもよいが、これらに限られたものではない。コンピュータ読み取り可能な信号媒体は、更にコンピュータ読み取り可能な記憶媒体以外の如何なるコンピュータ読み取り可能な媒体でもよい。このコンピュータ読み取り可能な媒体は、指令実行システム、装置または機器によって使用されるプログラム、或いは指令実行システム、装置または機器と組み合わせて使用できるプログラムを送信、伝送またはやり取りすることができる。コンピュータ読み取り可能な媒体に包含されたプログラムコードは、如何なる適当な媒体により送信されてもよく、有線、無線、ケーブル、RF等、または前記任意の適当な組合せが挙げられるが、これらに限られない。
図面におけるフローチャート及びブロック図は、本願の各種類の実施例におけるシステム、方法、及びコンピュータプログラムプロダクトに基づいて実現可能なアーキテクチャ、機能、及び操作を示す。この点から言えば、フローチャート及びブロック図における各ブロックは、一つのモジュール、プログラムセグメント、またはコードの一部を表すことができ、該モジュール、プログラムセグメント、またはコードの一部は、所定の論理的機能を実行するための実行可能な指令を一つまたは複数有する。更に、言うまでもなく、選択肢としての実施態様には、ブロック内のマーク付けられた機能は、図に示された順番と異なる順番で実行してもよい。例えば、連続して示された二つのブロックは、実際に、実質的に並行して実行されてもよいが、全く逆な順番で実行されてもよく、これは、かかる機能によって決まる。なお、ブロック図及び/またはフローチャートにおける各ブロック、及びブロック図及び/またはフローチャートにおけるブロックの組合せは、所定の機能または操作を実行するための専用ハードウェアに基づくシステムにより実現されてもよいし、専用ハードウェアとコンピュータ指令との組合せによりも実現されてもよい。
本願実施例に説明されたユニットは、ソフトウェアという方式で実現することができるし、ハードウェアの方式で実現することもできる。説明されたユニットは、プロセッサーに設置されてもよく、例えば、下記のように記載されても良い。プロセッサーであって、テキスト解析ユニットやレコード検索ユニットや意図解析ユニットや要求送信ユニット及び動作実行ユニットを備える。そのうち、これらのユニットの名称は、ある状況ではこのユニットそのものに対する限定とならず、例えば、テキスト解析ユニットを、「現在入力のユーザー音声指令を現在テキスト指令に解析するユニット」と記載することもできる。
他の局面として、本願は、コンピュータ読み取り可能な媒体を更に提出する。該コンピュータ読み取り可能な媒体は、前記実施例に記載の装置に含まれるものであってよいが、この装置に取り付けられずに独立に存在するものであってもよい。前記コンピュータ読み取り可能な媒体は、一つまたは複数のプログラムを搭載しており、前記一つまたは複数のプログラムがこの装置により実行されると、この装置に、現在入力のユーザー音声指令を現在テキスト指令に解析し、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、現在テキスト指令にマッチした履歴テキスト指令レコードを検索し、検索された履歴テキスト指令レコードを解析してユーザー意図を得て、ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信し、リソースライブラリから返された応答及びユーザー意図に基づいて、動作コンポーネントに、動作の実行を指示することを、実行させる。
上述した内容は、単に本願に係る望ましい実施例及び利用された技術原理に対応する説明に過ぎない。当業者にとって、本願に係る技術案の保護範囲は、上記技術特徴の特定の組合せによる技術案に限られず、更に、上記発明構想から逸脱しない限りに、上記技術特徴またはこれらに同等する特徴を任意に組み合わせてなる他の技術方案をも含むことは、言うまでもない。例えば、上記特徴と本願(これに限られない)の開示した機能と類似する技術特徴を置換して組み合わせてなる技術案も含まれる。

Claims (12)

  1. インテリジェント端末操作用の方法であって、
    現在入力のユーザー音声指令を現在テキスト指令に解析することと、
    履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセット中から、前記現在テキスト指令にマッチした履歴テキスト指令レコードを検索することと、
    検索された履歴テキスト指令レコードを解析して、ユーザー意図を得ることと、
    前記ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信することと、
    前記リソースライブラリから返された応答及び前記ユーザー意図に基づいて、動作ポーネントに動作の実行を指示することと、
    を含む、インテリジェント端末操作用の方法。
  2. 履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中で、前記現在テキスト指令にマッチした履歴テキスト指令レコードを検索することは、
    前記現在テキスト指令に対して単語分割を行って、現在テキスト指令の対応する単語列を得ることと、
    前記単語列と、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットにおける各履歴テキスト指令レコードとの類似度を算出することと、
    類似度の高い順で、類似度が最も高い履歴テキスト指令レコードを検索された履歴テキスト指令レコードとして取得することと、
    を含む、請求項1に記載の方法。
  3. 履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、前記現在テキスト指令にマッチした履歴テキスト指令レコードを検索することは、
    履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最大マッチングアルゴリズムにより前記現在テキスト指令にマッチした履歴テキスト指令レコードを検索すること、
    を含む、請求項1に記載の方法。
  4. 前記履歴ユーザー音声指令は、所定の履歴期間内に記憶されたユーザー音声指令である、請求項1に記載の方法。
  5. 前記リソースライブラリから返された応答及び前記ユーザー意図に基づいて、動作コンポーネントに動作の実行を指示することは、
    もし前記リソースライブラリから返された応答が、指令が正しく解析されなかったことを表していれば、指令が正しく解析されなかったことをユーザーに提示することと、
    もし前記リソースライブラリから返された応答が、指令を正しく解析されたことを表していれば、解析された正しい指令に応じて、ユーザーに対して前記ユーザー意図に示された操作を実行することと、
    を含む、請求項1ないし4のいずれか一項に記載の方法。
  6. インテリジェント端末操作用の装置であって、
    現在入力のユーザー音声指令を現在テキスト指令に解析するように構成されるテキスト解析ユニットと、
    履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、前記現在テキスト指令にマッチした履歴テキスト指令レコードを検索するように構成されたレコード検索ユニットと、
    検索された履歴テキスト指令レコードを解析してユーザー意図を得るように構成された意図解析ユニットと、
    前記ユーザー意図に基づいて生成されたユーザー要求をリソースライブラリに送信するように構成された要求送信ユニットと、
    前記リソースライブラリから返された応答及び前記ユーザー意図に基づいて動作コンポーネントに動作の実行を指示するように構成された動作実行ユニットと、
    を含む、インテリジェント端末操作用の装置。
  7. 前記レコード検索ユニットは、更に、
    前記現在テキスト指令に対して単語分割を行って、現在テキスト指令の対応する単語列を得て、
    前記単語列と、履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットにおける各履歴テキスト指令レコードとの類似度を算出し、
    類似度の高い順で、類似度が最も高い履歴テキスト指令レコードを検索された履歴テキスト指令レコードとして取得する、
    ように構成された、請求項6に記載の装置。
  8. 前記レコード検索ユニットは、更に、
    履歴ユーザー音声指令セットに対応する履歴テキスト指令レコードセットの中から、最大マッチングアルゴリズムにより前記現在テキスト指令にマッチした履歴テキスト指令レコードを検索するように構成された、請求項6に記載の装置。
  9. 前記レコード検索ユニットにおける前記履歴ユーザー音声指令は予定の履歴期間内に記憶されたユーザー音声指令である、請求項6前記的装置。
  10. 前記動作実行ユニットは、更に、
    もし前記リソースライブラリから返された応答が、指令が正しく解析されなかったことを表していれば、指令を正しく解析されなかったことをユーザーに提示して、
    もし前記リソースライブラリから返された応答が、指令を正しく解析されたことを表していれば、解析された正しい指令に応じて、ユーザーに対して前記ユーザー意図に示された操作を実行する、
    ように構成された、請求項6ないし9いずれか一項に記載の装置。
  11. サーバーであって、
    一つまたは複数のプロセッサーと、
    一つまたは複数のプログラムが記憶される記憶装置と、を含み、
    前記一つまたは複数のプログラムが前記一つまたは複数のプロセッサーに実行されると、前記一つまたは複数のプロセッサーに請求項1〜5のうちの何れか一項に記載の方法を実現させる、サーバー。
  12. コンピュータプログラムが記憶されているコンピュータ読み取り可能な媒体であって、
    該プログラムがプロセッサーにより実行されると、請求項1〜5のいずれか一項の方法を実現させる、コンピュータ読み取り可能な媒体。
JP2019129431A 2018-09-10 2019-07-11 インテリジェント端末操作用の方法及び装置 Pending JP2020042784A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811053045.X 2018-09-10
CN201811053045.XA CN109036425B (zh) 2018-09-10 2018-09-10 用于操作智能终端的方法和装置

Publications (1)

Publication Number Publication Date
JP2020042784A true JP2020042784A (ja) 2020-03-19

Family

ID=64621108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129431A Pending JP2020042784A (ja) 2018-09-10 2019-07-11 インテリジェント端末操作用の方法及び装置

Country Status (3)

Country Link
US (1) US11308942B2 (ja)
JP (1) JP2020042784A (ja)
CN (1) CN109036425B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866609B (zh) * 2019-04-08 2022-12-13 百度(美国)有限责任公司 用于生成视频的方法和装置
CN110162292B (zh) * 2019-04-15 2021-03-19 创新先进技术有限公司 语音播报方法及装置
US10990939B2 (en) 2019-04-15 2021-04-27 Advanced New Technologies Co., Ltd. Method and device for voice broadcast
CN110334242B (zh) * 2019-07-10 2022-03-04 北京奇艺世纪科技有限公司 一种语音指令建议信息的生成方法、装置及电子设备
EP4002087A4 (en) * 2019-07-19 2023-04-12 LG Electronics Inc. DISPLAY DEVICE AND ARTIFICIAL INTELLIGENCE SERVER CAPABLE OF CONTROLLING A HOME APPLIANCE VIA A USER'S VOICE
CN110619874B (zh) * 2019-08-30 2020-10-23 珠海格力电器股份有限公司 语音控制方法、装置、计算机设备和存储介质
CN110784384B (zh) * 2019-10-16 2021-11-02 杭州九阳小家电有限公司 一种家电语音技能的生成方法及智能家电
CN111147905A (zh) * 2019-12-31 2020-05-12 深圳Tcl数字技术有限公司 媒体资源查找方法、电视机、存储介质及装置
CN111310059B (zh) * 2020-04-01 2023-11-21 东软睿驰汽车技术(沈阳)有限公司 基于聚合资源的用户意图定位方法和装置
CN111694813A (zh) * 2020-05-08 2020-09-22 北京明略软件系统有限公司 一种数据源管理方法和装置
CN111581623B (zh) * 2020-05-09 2023-12-19 深圳物控智联科技有限公司 智能数据交互方法、装置、电子设备及存储介质
CN111986676A (zh) * 2020-08-24 2020-11-24 北京中亦安图科技股份有限公司 智能流程控制方法、装置、电子设备及存储介质
CN113407771B (zh) * 2021-05-14 2024-05-17 深圳市广电信义科技有限公司 监控调度方法、系统、装置及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362223A (ja) * 2003-06-04 2004-12-24 Hitachi Ltd 情報マイニングシステム
JP2009087345A (ja) * 2007-09-30 2009-04-23 Nec (China) Co Ltd 自然言語ベースのサービス選択システムおよび方法、サービスクエリシステムおよび方法
JP2014106927A (ja) * 2012-11-29 2014-06-09 Toyota Motor Corp 情報処理システム
JP2015060391A (ja) * 2013-09-18 2015-03-30 株式会社Nttドコモ ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、端末装置、プログラム、システムおよび方法
JP2015527683A (ja) * 2012-09-19 2015-09-17 アップル インコーポレイテッド 音声ベースのメディア検索
US20170236513A1 (en) * 2016-02-12 2017-08-17 Samsung Electronics Co., Ltd. Method and electronic device for performing voice based actions

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4781631B2 (ja) * 2004-02-19 2011-09-28 日本電信電話株式会社 リソース情報検索方法および装置
WO2008011454A2 (en) * 2006-07-18 2008-01-24 Chacha Search, Inc. Anonymous search system using human searchers
US9229946B2 (en) * 2010-08-23 2016-01-05 Nokia Technologies Oy Method and apparatus for processing search request for a partitioned index
US9767807B2 (en) * 2011-03-30 2017-09-19 Ack3 Bionetics Pte Limited Digital voice signature of transactions
US9342626B1 (en) * 2013-06-22 2016-05-17 Google Inc. Query suggestions based on entity collections of one or more past queries
JP2015138147A (ja) * 2014-01-22 2015-07-30 シャープ株式会社 サーバ、対話装置、対話システム、対話方法および対話プログラム
US20160140232A1 (en) * 2014-11-18 2016-05-19 Radialpoint Safecare Inc. System and Method of Expanding a Search Query
CN105094315B (zh) * 2015-06-25 2018-03-06 百度在线网络技术(北京)有限公司 基于人工智能的人机智能聊天的方法和装置
US10108702B2 (en) * 2015-08-24 2018-10-23 International Business Machines Corporation Topic shift detector
KR20180107147A (ko) * 2016-01-12 2018-10-01 베리톤, 인크. 다변수 서치용 사용자 인터페이스
CN107589826B (zh) * 2016-07-07 2019-11-05 苏州狗尾草智能科技有限公司 基于知识图谱的人机交互方法及系统
CN106250369B (zh) * 2016-07-28 2019-08-06 海信集团有限公司 语音交互方法、装置和终端
US10546066B2 (en) * 2016-08-31 2020-01-28 Microsoft Technology Licensing, Llc End-to-end learning of dialogue agents for information access
US11170005B2 (en) * 2016-10-04 2021-11-09 Verizon Media Inc. Online ranking of queries for sponsored search
US10991037B1 (en) * 2018-02-13 2021-04-27 Facebook, Inc. Analyzing tracking requests generated by client devices based on metadata describing web page of a third party website
US10874947B2 (en) * 2018-03-23 2020-12-29 Sony Interactive Entertainment LLC Connecting a player to expert help in real-time during game play of a gaming application
CN110661896B (zh) * 2018-06-29 2021-06-22 网宿科技股份有限公司 一种确定数据流的映射地址的方法及服务器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362223A (ja) * 2003-06-04 2004-12-24 Hitachi Ltd 情報マイニングシステム
JP2009087345A (ja) * 2007-09-30 2009-04-23 Nec (China) Co Ltd 自然言語ベースのサービス選択システムおよび方法、サービスクエリシステムおよび方法
JP2015527683A (ja) * 2012-09-19 2015-09-17 アップル インコーポレイテッド 音声ベースのメディア検索
JP2014106927A (ja) * 2012-11-29 2014-06-09 Toyota Motor Corp 情報処理システム
JP2015060391A (ja) * 2013-09-18 2015-03-30 株式会社Nttドコモ ユーザのデータ入力に応じて情報提供を行うためのサーバ装置、端末装置、プログラム、システムおよび方法
US20170236513A1 (en) * 2016-02-12 2017-08-17 Samsung Electronics Co., Ltd. Method and electronic device for performing voice based actions

Also Published As

Publication number Publication date
US11308942B2 (en) 2022-04-19
CN109036425A (zh) 2018-12-18
US20200082814A1 (en) 2020-03-12
CN109036425B (zh) 2019-12-24

Similar Documents

Publication Publication Date Title
JP2020042784A (ja) インテリジェント端末操作用の方法及び装置
US11043206B2 (en) Systems and methods for crowdsourced actions and commands
US10795939B2 (en) Query method and apparatus
US20170199936A1 (en) Methods and systems for search engines selection & optimization
US20200012675A1 (en) Method and apparatus for processing voice request
US20160259856A1 (en) Consolidating and formatting search results
CN110321544B (zh) 用于生成信息的方法和装置
CN109858045B (zh) 机器翻译方法和装置
US10872108B2 (en) Method and apparatus for updating multimedia playlist
WO2021203918A1 (zh) 用于处理模型参数的方法和装置
CN111340220A (zh) 用于训练预测模型的方法和装置
WO2024099171A1 (zh) 视频生成方法和装置
CN111338944A (zh) 远程过程调用rpc接口测试方法、装置、介质及设备
CN112182255A (zh) 用于存储媒体文件和用于检索媒体文件的方法和装置
CN111078849B (zh) 用于输出信息的方法和装置
WO2022115291A1 (en) Method and system for over-prediction in neural networks
CN110866031B (zh) 数据库访问路径的优化方法、装置、计算设备以及介质
CN110399459B (zh) 在线文档的搜索方法、装置、终端、服务器及存储介质
CN108509442B (zh) 搜索方法和装置、服务器以及计算机可读存储介质
CN110971983B (zh) 一种视频答疑方法、设备和存储介质
CN112148848A (zh) 一种问答处理方法及装置
CN110765357A (zh) 在线文档的搜索方法、装置、设备及存储介质
EP4036812B1 (en) Fpga implementation of low latency architecture of xgboost for inference and method therefor
CN115905490A (zh) 人机交互对话方法、装置以及设备
US10877964B2 (en) Methods and systems to facilitate the generation of responses to verbal queries

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210426

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220628