JP2019091444A - スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体 - Google Patents

スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP2019091444A
JP2019091444A JP2018210599A JP2018210599A JP2019091444A JP 2019091444 A JP2019091444 A JP 2019091444A JP 2018210599 A JP2018210599 A JP 2018210599A JP 2018210599 A JP2018210599 A JP 2018210599A JP 2019091444 A JP2019091444 A JP 2019091444A
Authority
JP
Japan
Prior art keywords
feedback term
order feedback
post
intention
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018210599A
Other languages
English (en)
Other versions
JP6944920B2 (ja
Inventor
ザン,メンミン
Mengmeng Zhang
ザン,ガン
Gang Zhang
ワン,リ
Li Wan
リウ,ジア
Jia Liu
ジャン,シャンタオ
Xiangtao Jiang
スー,ラン
Ran Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2019091444A publication Critical patent/JP2019091444A/ja
Application granted granted Critical
Publication of JP6944920B2 publication Critical patent/JP6944920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体を提供して、スマートインタラクティブのスマート化程度及び豊富さを向上し、ユーザ操作を簡単化する。【解決手段】既にユーザへ返信した前序帰還項に対して意図識別を行い、前序帰還項の意図に基づいて、続けてユーザへ後序帰還項を返信する。本発明は、既にユーザへ返信した前序帰還項に対して意図識別を行うステップ101と、該意図に対応する後序帰還項のタイプを確定するステップ102と、後序帰還項の実体を取得するステップ103と、後序帰還項の実体及び後序帰還項のタイプを利用して、後序帰還項を確定するステップ104と、ユーザへ確定された後序帰還項を返信するステップ105と、で構成される。【選択図】図1

Description

本発明は、コンピュータ応用技術分野に関するものであり、特にスマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体に関するものである。
移動ネットワーク及びクラウドエンド計算の飛躍な発展に従って、スマートアシスタント類アプリケーション、特に音声アシスタントが既に複数の種類のタイプのユーザ設備、例えば携帯電話、スマートテレビ、スマートサウンドボックス等に応用されている。それは、スマート会話及び即時応答のスマートインタラクティブによって、ユーザへユーザの取得したい様々な情報を返信し、更にアプリケーションを設置し、他のユーザ設備等を制御する。
現在のスマートアシスタントは、ユーザqueryを取得した後に、ユーザへ単一の帰還項を返信する。例えば、ユーザが「マンチェスター・ユナイテッドの最新の試合はいつですか」とのqueryを入力した時に、スマートアシスタントは「マンチェスター・ユナイテッドの最新の試合は、2017年11月2日の05:00に行い、相手がアーセナルです」を返信する。ユーザが後続の操作をしたい或いは後続の情報を取得したければ、更にqueryを入力する必要がある。また、例えば、ユーザが「おはよう」とのqueryを入力すると、スマートアシスタントに返信された帰還項が、当日の天気情報である。一般的に、ユーザが当日の道路交通状況の情報を更に獲得したくなり、この時、「今日の道路交通状況如何」とのqueryを続けて入力する必要がある。明らかに、スマート化及び豊富さが乏しく、操作が煩雑である。
そこで、本発明は、スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体を提供して、スマートインタラクティブのスマート化程度及び豊富さを向上し、ユーザ操作を簡単化する。
具体的な技術案は、以下のようである。
本発明に係るスマートインタラクティブの処理方法は、
既にユーザへ返信した前序帰還項に対して意図識別を行うこと、
前記前序帰還項の意図に基づいて、続けてユーザへ後序帰還項を返信すること、を含む。
本発明の1つの具体的な実施の形態によると、
前記前序帰還項の意図に基づいて、ユーザへ後序帰還項を返信することは、
該意図に対応する後序帰還項のタイプを確定すること、
後序帰還項の実体を取得すること、
前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、ユーザへ返信する後序帰還項を確定すること、を含む。
本発明の1つの具体的な実施の形態によると、
前記既にユーザへ返信した前序帰還項に対して意図識別を行うことは、
前記前序帰還項からキーワードを抽出し、該キーワードに基づき前記前序帰還項の意図を確定すること、或いは、
前記前序帰還項に対して語意分析を行い、前記前序帰還項の意図を確定すること、或いは、
前記前序帰還項を予め設定されたテンプレートにマッチングし、マッチングしたテンプレートに対応する意図を前記前序帰還項の意図として確定すること、或いは、
予め訓練して得られた機器学習モデルを利用し、前記前序帰還項に対して意図分析を行い、前記前序帰還項の意図を得ること、を含む。
本発明の1つの具体的な実施の形態によると、
前記該意図に対応する後序帰還項のタイプを確定することは、
予め設定された意図と後序帰還項のタイプとの対応関係に基づき、識別された意図に対応する後序帰還項のタイプを確定すること、を含む。
本発明の1つの具体的な実施の形態によると、
前記対応関係は前序帰還項のタイプを更に含み、
該方法は、前記既にユーザへ返信した前序帰還項のタイプを確定すること、を更に含み、
前記予め設定された意図と後序帰還項のタイプとの対応関係に基づき、識別された意図に対応する後序帰還項のタイプを確定することは、
前記前序帰還項のタイプ及び前序帰還項の意図に基づいて前記対応関係を問い合わせ、対応する後序帰還項のタイプを確定すること、を含む。
本発明の1つの具体的な実施の形態によると、
前記該意図に対応する後序帰還項のタイプを確定する前に、
前記前序帰還項の意図信頼度が予め設けられた信頼度に関する要求を満足するかを判断し、満足すれば、前記該意図に対応する後序帰還項のタイプを確定することを続けて実行すること、を更に含む。
本発明の1つの具体的な実施の形態によると、
識別された意図に対応する後序帰還項のタイプを確定する時に、更に前記ユーザの環境情報に基づく。
本発明の1つの具体的な実施の形態によると、
前記ユーザの環境情報は、システム時間、ユーザ設備タイプ及びユーザ設備動作の中の少なくとも1つを含む。
本発明の1つの具体的な実施の形態によると、
前記後序帰還項の実体を取得することは、
前記前序帰還項から抽出された実体を後序帰還項の実体とすること、或いは、
ユーザデータ或いはユーザ環境情報から実体を取得して後序帰還項の実体とすること、を含む。
本発明の1つの具体的な実施の形態によると、
前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、後序帰還項を確定することは、
前記後序帰還項の実体及び前記後序帰還項のタイプを利用して検索項を構造すること、
前記検索項に対応する垂直検索結果を取得して前記後序帰還項とすること、を含む。
本発明の1つの具体的な実施の形態によると、
前記後序帰還項の実体及び前記後序帰還項のタイプを利用して検索項を構造することは、
前記後序帰還項のタイプに対応するテンプレートを確定すること、
前記後序帰還項の実体を確定されたテンプレートに記入して、検索項を得ること、含む。
本発明の1つの具体的な実施の形態によると、
前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、後序帰還項を確定することは、
前記後序帰還項の実体と前記後序帰還項のタイプを利用して制御指令を生成すること、
前記制御指令を前記後序帰還項のタイプに対応するアプリケーションプログラム或いはユーザ設備に送信すること、を含む。
本発明の1つの具体的な実施の形態によると、
前記ユーザへ後序帰還項を返信することは、
直接に前記ユーザへ確定された後序帰還項を返信すること、或いは、
ユーザからの返信に基づいて、ユーザへ確定された後序帰還項を返信するかを確定することを、含む。
本発明の1つの具体的な実施の形態によると、
既にユーザへ返信した前序帰還項と前記ユーザへ返信する後序帰還項との間に、タンデムスピーチを返信し、
前記タンデムスピーチは、一般的な単語、余白、符号、光と影或いはオーディオを含む。
本発明の1つの具体的な実施の形態によると、
前記後序帰還項は、
テキスト、オーディオ、ビデオ、画像、リンク、及びアプリケーションプログラム又はユーザ設備に対する制御イベントを含む。
本発明に係るスマートインタラクティブの処理装置は、
既にユーザへ返信した前序帰還項に対して意図識別を行う意図識別手段と、
前記前序帰還項の意図に基づいて、ユーザへ後序帰還項を返信する後序帰還手段と、を含む。
本発明の1つの具体的な実施の形態によると、
前記後序帰還手段は、
前記前序帰還項の意図に基づいて、該意図に対応する後序帰還項のタイプを確定するタイプ確定手段と、
後序帰還項の実体を取得する実体取得手段と、
前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、後序帰還項を確定する帰還項確定手段と、
前記ユーザへ確定された後序帰還項を返信する帰還項返信手段と、を含む。
本発明の1つの具体的な実施の形態によると、
前記意図識別手段は、
前記前序帰還項からキーワードを抽出し、該キーワードに基づき前記前序帰還項の意図を確定すること、或いは、
前記前序帰還項に対して語意分析を行い、前記前序帰還項の意図を確定すること、或いは、
前記前序帰還項を予め設定されたテンプレートにマッチングし、マッチングしたテンプレートに対応する意図を前記前序帰還項の意図として確定すること、或いは、
予め訓練して得られた機器学習モデルを利用し、前記前序帰還項に対して意図分析を行い、前記前序帰還項の意図を得ること、を具体的に実行する。
本発明の1つの具体的な実施の形態によると、
前記タイプ確定手段は、
予め設定された意図と後序帰還項のタイプとの対応関係に基づき、識別された意図に対応する後序帰還項のタイプを確定すること、を具体的に実行する。
本発明の1つの具体的な実施の形態によると、
前記タイプ確定手段は、識別された意図に対応する後序帰還項のタイプを確定する時に、更に前記ユーザの環境情報に基づく。
本発明の1つの具体的な実施の形態によると、
前記実体取得手段は、
前記前序帰還項から抽出された実体を後序帰還項の実体とすること、或いは、
ユーザデータ或いはユーザ環境情報から実体を取得して後序帰還項の実体とすること、を具体的に実行する。
本発明の1つの具体的な実施の形態によると、
前記帰還項確定手段は、
前記後序帰還項の実体と前記後序帰還項のタイプを利用して検索項を構造し、前記検索項に対応する垂直検索結果を取得して前記後序帰還項とすること、或いは、
前記後序帰還項の実体と前記後序帰還項のタイプを利用して制御指令を生成し、前記制御指令を前記後序帰還項のタイプに対応するアプリケーションプログラム或いはユーザ設備に送信すること、を具体的に実行する。
本発明の1つの具体的な実施の形態によると、
前記後序帰還手段は、
直接に前記ユーザへ確定された後序帰還項を返信すること、或いは、
ユーザからの返信に基づいて、ユーザへ確定された後序帰還項を返信するかを確定すること、を具体的に実行する。
本発明の1つの具体的な実施の形態によると、
前記後序帰還手段は、既にユーザへ返信した前序帰還項と前記ユーザへ返信する後序帰還項との間に、タンデムスピーチを帰還し、
前記タンデムスピーチは、一般的な単語、余白、符号、光と影或いはオーディオを含む。
本発明に係る設備は、
1つ又は複数のプログラムを記憶する記憶装置と、を含み、
前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行される時に、前記1つ又は複数のプロセッサに上記方法を実現させる。
本発明に係るコンピュータ実行可能な指令を含む記憶媒体は、前記コンピュータ実行可能な指令がコンピュータプロセッサによって実行される時に、上記方法を実行する。
以上の技術案から分かるように、本発明は、前序帰還項の意図に基づいて続けてユーザへ後序帰還項を返信することで、ユーザの後続の意図を推測し、ユーザが操作しなくても続けてユーザへそれの獲得したい後序帰還項を返信することができ、更にスマート化及び豊富となり、ユーザ操作を簡単化する。
本発明の実施例に係る方法フローチャートである。 本発明の実施例に係る装置構成図である。 本発明の実施形態を実現することに適する、例示的なコンピュータシステム/サーバ012の図面を示す。
本発明の目的、技術案及び利点をより明確で簡潔させるために、以下、図面を参照して実施例を挙げて、本発明に係る技術案を更に説明する。
本発明の実施例で使用される用語は、特定の実施例を説明するためのものだけで、本発明を限定するものではない。本発明の実施例と特許請求の範囲に使用されている単数の「1つ」、「前記」和「該」は、コンテキストが他の意味を明確に示していない限り、複数形を含むことも意図する。
理解されるべきことは、本願で使用される用語「及び/或いは」は、関連対象の関連関係を記述ものだけで、3つの関係があり、例えば、A及び/或いはBは、Aが単独で存在し、AとBが同時に存在し、Bが単独で存在するという3つの場合を表す。また、本願の符号「/」は、一般に、コンテキストが「或いは」の関係であることを示す。
コンテキストによって、本願で使用される「…と」という用語は、「…時」、「…場合に」、「確定されたことに応じて」或いは「検出されたことに応じて」と解釈され得る。類似に、コンテキストによって、フレーズ「確定すると」、「(記載の条件或いはイベントが)検出すると」は、「確定された時」、「確定されたことに応じて」、「(記載の条件或いはイベントが)検出すると」或いは「(記載の条件或いはイベントが)検出されたことに応じて」と解釈され得る。
本発明の基本的な中心は、既にユーザへ返信した前序帰還項に対して意図識別を行い、前序帰還項の意図に基づいて、続けてユーザへ後序帰還項を返信することである。従って、ユーザの後続の意図を推測し、ユーザが操作しなくても続けてユーザへそれの獲得したい後序帰還項を返信することができる。以下、実施例を参照して、本発明に係る方法を詳細に説明する。
図1は、本発明の実施例に係る方法フローチャートであり、図1に示すように、該方法は、以下のステップを含むことができる。
101において、既にユーザへ返信した前序帰還項に対して意図識別を行う。
本ステップにおいて、既にユーザへ返信した前序帰還項は、既にユーザへ返信した最新の1つの帰還項であってもよく、ユーザのあるqueryに基づいて既にユーザへ返信した全ての帰還項であってもよい。前者の場合に、既にユーザへ返信した最新の1つの帰還項に対して意図識別を行う。後者の場合に、既にユーザへ返信した全ての帰還項に対して全体の意図識別を行う。
1つの例として、ユーザが「陳奕迅」とのqueryを入力したら、該queryに基づいてユーザへ帰還項「陳奕迅百科」を返信し、「陳奕迅の百科」を前序帰還項として本発明のフローを実行して、後序帰還項である「陳奕迅の音楽リスト」を確定することができる。そして、「陳奕迅の音楽リスト」を前序帰還項として本発明のフローを実行し、続けて後序帰還項を確定してもよく、「陳奕迅の百科」と「陳奕迅の音楽リスト」とを共に前序帰還項として、本発明のフローを実行して、続けて後序帰還項を確定してもよい。
具体的に、前序帰還項に対して意図識別を行う時に、複数の種類の方式を採用することができ、現在既に比較的に成熟した意図識別方式がある。以下、幾つかの実現方式を説明するが、以下の幾つかの実現方式中の少なくとも1つに限定されない。
第1の方式:前序帰還項からキーワードを抽出し、キーワードに基づいて前序帰還項の意図を確定する。
このような方式において、予め様々な意図タイプに対応するキーワードを設定することができ、例えばキーワード「試合」に対応する意図が「試合結果を取得する」である。前序帰還項からキーワードを抽出した後に、キーワードに基づいて前序帰還項の意図を確定することができる。ただし、1つの意図タイプは、1つ或いは複数のキーワードに対応することができる。
第2の方式:前序帰還項に対して語意分析を行い、前序帰還項の意図を確定する。
予め語意と意図との対応関係を定義し、前序帰還項に対して語意分析を行った後に、語意に対応する意図を前序帰還項の意図として確定することができる。本発明の実施例は、語意分析の具体的な方式を制限しない。
第3の方式:前序帰還項と予め設定されたテンプレートとをマッチングし、マッチングしたテンプレートに対応する意図を前序帰還項の意図として確定する。
予め各意図に対して対応するテンプレートを設定することができ、例えばテンプレート「 の試合は 開始」に対して設定する意図が「喚起設定」である。前序帰還項が「マンチェスター・ユナイテッドとアーセナルの試合は2017年11月20日午後8時に開始」であると、該前序帰還項が上記テンプレートにマッチングし、その意図が「喚起設定」であると確定する。
第4の方式:予め訓練して得られた機器学習モデルを利用し、前序帰還項に対して意図分析を行い、前序帰還項の意図を得る。
予め意図を標注した各帰還項を訓練サンプルとして、機器学習モデルを訓練することができる。訓練して得られた機器学習モデルを利用して前序帰還項に対して意図識別を行い、前序帰還項の意図を得る。
102において、該意図に対応する後序帰還項のタイプを確定する。
本ステップにおいて、予め各意図に対応する後序帰還項のタイプを設定することができる。例えば「試合結果を取得する」との意図に対応する後序帰還項のタイプが、「試合結果の垂直検索結果」或いは「試合結果のニュース」である。更に例えば「喚起設定」との意図に対応する後序帰還項のタイプが、「目覚ましイベントを制御する」等である。
上記意図と後序帰還項のタイプとの対応関係は、予め人手で設定してもよく、機器学習の方式を採用して予め設定してもよい。
また、後序帰還項のタイプを確定する時に、前序帰還項の意図以外に、更に前序帰還項のタイプ及び/或いは前序帰還項の意図の信頼度を結合してもよい。
例えば、予め確立した対応関係は、前序帰還項のタイプ、意図に対応する後序帰還項のタイプであることができる。即ち、前序帰還項のタイプ及び意図が同時に符合した時に、対応する後序帰還項のタイプを確定できる。
更に例えば、前序帰還項の意図が一定の信頼度要求を満足すれば、該意図に対応する後序帰還項のタイプを確定できる。信頼度が低ければ、続けて後序帰還項を返信しない、即ち後序帰還項を確定する必要がない。
また、後序帰還項のタイプを確定する時に、更にユーザの環境情報を考量することができる。
ただし、環境情報は、システム時間、ユーザ設備タイプ及びユーザ設備動作等の少なくとも1つを含むことができる。例えば、前序帰還項が「マンチェスター・ユナイテッドとアーセナルの試合は2017年11月20日午後8時に開始」であると、当前のシステム時間が既に試合時間2017年11月20日午後8時以降であれば、後序帰還項は「喚起設定」であるべきではない。更に例えば、前序帰還項が「宋小寶」であると、当前設備タイプがスマートテレビ又は携帯電話等のディスプレイスクリーンを有する設備であれば、対応する後序帰還項を「宋小寶コメディービデオ」と確定することができる。更に例えば、ユーザ設備動作が機関車の始動であると、ユーザへ例えば道路交通状況情報、天気情報、交通規制情報、違反実況等の相関帰還項を返信することができる。
103において、後序帰還項の実体を取得する。
本ステップにおいて後序帰還項を取得する実体方式は、次の2つを採用することができるが、それらに限定されない。
第1の方式:前序帰還項から実体を代入する。即ち、前序帰還項から抽出した実体を後序帰還項の実体として、例えば前序帰還項が「今日の天気」であると、その中の「今日」との実体を後序帰還項の実体とすることができる。更に例えば、前序帰還項が「マンチェスター・ユナイテッドとアーセナルの試合は2017年11月20日午後8時に開始」であると、その中の「2017年11月20日午後8時」との実体を後序帰還項の実体とすることができる。また、ある場合に、前序帰還項から抽出した実体に対してスティッチング処理を行った後に、後序帰還項の実体とすることができる。
第2の方式:ユーザデータ或いはユーザ環境情報から実体を代入する。即ち、ユーザデータ或いはユーザ環境情報から実体を取得して後序帰還項の実体とする。例えば、後序帰還項が「道路交通状況情報」であると確定すると、ユーザデータからユーザ住宅及び会社のアドレスを抽出して道路交通状況情報を返信してもよく、ユーザ環境情報からユーザの当前の測位アドレスを取得して、道路交通状況情報を返信してもよい。
104において、後序帰還項の実体及び後序帰還項のタイプを利用して、後序帰還項を確定する。
本ステップにおいて後序帰還項を確定する方式は、以下の2つの方式を含むことができるが、それらに限定されない。
第1の方式:後序帰還項の実体と後序帰還項のタイプを利用して検索項を構造し、検索項に対応する垂直検索結果を取得して後序帰還項とする。
ただし、検索項を構造する時に、後序帰還項のタイプに対応するテンプレートを確定し、後序帰還項の実体を確定されたテンプレートに記入して、検索項を得ることができる。
例えば、前序帰還項が「今日の天気」であると、「今日」との実体をテンプレート「 交通規制」に記入して、検索項として「今日規制」を得ることができる。そして、「今日規制」との検索項を利用して垂直検索を行い、「今日規制」の検索結果が「今日最後数の2,7が規制」であることを得て、それを後序帰還項とする。
更に例えば、前序帰還項が「陳奕迅百科」であると、「陳奕迅」との実体をテンプレート「 の歌」に記入して、「陳奕迅の歌」との検索項を得ることができる。そして、「陳奕迅の歌」との検索項を利用して垂直検索を行い、「陳奕迅の歌」の検索結果が陳奕迅の歌に関するリンクリスト、或いは陳奕迅の歌に関するオーディオ資源を得る。
第2の方式:後序帰還項の実体と後序帰還項のタイプを利用して、制御指令を生成し、制御指令を後序帰還項のタイプに対応するアプリケーションプログラム或いはユーザ設備に送信する。
例えば、前序帰還項が「マンチェスター・ユナイテッドとアーセナルの試合は2017年11月20日午後8時に開始」であると、その中の「2017年11月20日午後8時」との実体と「喚起設定」を結合して、「2017年11月20日午後8時の喚起」との制御指令を生成し、そして、目覚まし或いは喚起類のアプリケーションプログラムへ送信し、或いは目覚まし設備へ送信する。
105において、ユーザへ確定された後序帰還項を返信する。
ユーザへ確定された後序帰還項を返信する時に、直接にユーザへ返信してもよく、ユーザからの返信に基づいてユーザへ返信するかを確定してもよい。例えば、仮に「2017年11月20日午後8時の喚起」との後序帰還項を生成したら、ユーザに対して該喚起を設定するかを提示し、ユーザが設定を選択すると、喚起設定を行い、喚起設定の成功を返信することができる。更に例えば、「陳奕迅の歌の資源」との後序帰還項を生成したら、ユーザに対して該歌の資源を再生するかを提示し、ユーザが再生を選択すると、ユーザへ該陳奕迅の歌の資源を再生することができる。
本発明の実施例に係った上記後序帰還項は、テキスト、オーディオ、ビデオ、画像、リンク、アプリケーションプログラム或いはユーザ設備に対する制御イベントを含むことができるが、これに限定されない。
また、前序帰還項とユーザへ返信する後序帰還項との間に、タンデムスピーチが存在することができ、該タンデムスピーチを前後の2つの帰還項の間の過渡とすることができる。ただし、該タンデムスピーチは、若干の一般的な単語、例えば「次に」、「そして」、「次の帰還項」等であることができる。
タンデムスピーチは余白であってもよく、即ち前序帰還項と後序帰還項との間は余白であってもよい。
タンデムスピーチは若干の符号であってもよく、このような場合は、携帯電話、スマートテレビ等のスクリーンを有する設備に適し、例えば前後の2つの帰還項の間に「〜〜〜〜〜〜〜」を採用して区画することができる。
タンデムスピーチは若干の光と影であってもよく、このような場合は、任意タイプのユーザ設備に適しており、該設備の光源、例えばLED等によって、一定の光と影を生成する。例えば前後の2つの帰還項の間に、LED等によって特定色の絞りを生成して、前後の2つの帰還項に対して区画を行うことができる。
タンデムスピーチは若干のオーディオであってもよく、このような場合は、携帯電話、スマートサウンドボックス、スマートテレビ等のスピーカを有する設備に適し、例えば前後の2つの帰還項の間に例えば「ピンポン」等の短いオーディオを採用して区画することができる。
以上は、本発明に係る方法の詳細な説明であり、上記方法の実行主体はスマートインタラクティブの処理装置であることができ、該装置は、ユーザ設備におけるアプリケーションに位置することができ、或いはユーザ設備のアプリケーションにおけるインレット或いはソフトウェア開発キット(Software Development Kit,SDK)等の機能手段に位置することもでき、本発明の実施例はこれを限定しない。以下、実施例を挙げて、本発明に係る装置を詳細に説明する。
図2は、本発明の実施例に係る装置構成図であり、該装置は、スマートアシスタント類アプリケーションに設けることができ、図2に示すように、該装置は、意図識別手段00と後序帰還手段10とを含む。ただし、各構成手段の主な機能が、以下とおりである。
意図識別手段00は、既にユーザへ返信した前序帰還項に対して意図識別を行う。
既にユーザへ返信した前序帰還項は、既にユーザへ返信した最新の1つの帰還項であってもよく、ユーザのあるqueryに基づいて既にユーザへ返信した全ての帰還項であってもよい。前者の場合に、既にユーザへ返信した最新の1つの帰還項に対して意図識別を行う。後者の場合に、既にユーザへ返信した全ての帰還項に対して全体の意図識別を行う。
具体的に、意図識別手段00は、以下のような方式を採用して、既にユーザへ返信した前序帰還項に対して意図識別を行うことができるが、それらに限定されない。
第1の方式:前序帰還項からキーワードを抽出し、該キーワードに基づいて前序帰還項の意図を確定する。
このような方式において、予め様々な意図タイプに対応するキーワードを設定することができる。前序帰還項からキーワードを抽出した後に、キーワードに基づいて前序帰還項の意図を確定することができる。ただし、1つの意図タイプは、1つ或いは複数のキーワードに対応することができる。
第2の方式:前序帰還項に対して語意分析を行い、前序帰還項の意図を確定する。
予め語意と意図との対応関係を定義し、前序帰還項に対して語意分析を行った後に、語意に対応する意図を前序帰還項の意図として確定することができる。本発明の実施例は、語意分析の具体的な方式を制限しない。
第3の方式:前序帰還項と予め設定されたテンプレートとをマッチングし、マッチングしたテンプレートに対応する意図を前序帰還項の意図として確定する。
第4の方式:予め訓練して得られた機器学習モデルを利用し、前序帰還項に対して意図分析を行い、前序帰還項の意図を得る。
予め意図を標注した各帰還項を訓練サンプルとして、機器学習モデルを訓練することができる。訓練して得られた機器学習モデルを利用して前序帰還項に対して意図識別を行い、前序帰還項の意図を得る。
後序帰還手段10は、前序帰還項の意図に基づいてユーザへ後序帰還項を返信する。
具体的に、後序帰還手段10は、タイプ確定手段11、実体取得手段12、帰還項確定手段13及び帰還項返信手段14を含むことができる。
ただし、タイプ確定手段11は、前序帰還項の意図に基づいて該意図に対応する後序帰還項のタイプを確定する。
具体的に、タイプ確定手段11は、予め設定された意図と後序帰還項のタイプとの対応関係に基づき、識別された意図に対応する後序帰還項のタイプを確定することができる。
上記意図と後序帰還項のタイプとの対応関係は、予め人手で設定してもよく、機器学習の方式を採用して予め設定してもよい。
また、タイプ確定手段11は、後序帰還項のタイプを確定する時に、前序帰還項の意図以外に、更に前序帰還項のタイプ及び/或いは前序帰還項の意図の信頼度を結合してもよい。
例えば、予め確立した対応関係は、前序帰還項のタイプ、意図に対応する後序帰還項のタイプであることができる。即ち、前序帰還項のタイプ及び意図が同時に符合した時に、対応する後序帰還項のタイプを確定できる。
更に例えば、前序帰還項の意図が一定の信頼度要求を満足すれば、該意図に対応する後序帰還項のタイプを確定できる。信頼度が低ければ、続けて後序帰還項を返信しない、即ち後序帰還項を確定する必要がない。
また、タイプ確定手段11は、後序帰還項のタイプを確定する時に、更にユーザの環境情報を考量することができる。ただし、環境情報は、システム時間、ユーザ設備タイプ及びユーザ設備動作等の少なくとも1つを含むことができる。
実体取得手段12は、後序帰還項の実体を取得する。
具体的に、実体取得手段12は、前序帰還項から抽出した実体を後序帰還項の実体とすることができ、或いは、ユーザデータ或いはユーザ環境情報から実体を取得して後序帰還項の実体とすることができる。
帰還項確定手段13は、後序帰還項の実体及び後序帰還項のタイプを利用して、後序帰還項を確定するために用いられる。
ただし、帰還項確定手段13が後序帰還項を確定する方式は、以下の2つの方式を含むことができるが、それらに限定されない。
第1の方式:後序帰還項の実体と後序帰還項のタイプを利用して検索項を構造し、検索項に対応する垂直検索結果を取得して後序帰還項とする。
ただし、検索項を構造する時に、後序帰還項のタイプに対応するテンプレートを確定し、後序帰還項の実体を確定されたテンプレートに記入して、検索項を得ることができる。
第2の方式:後序帰還項の実体と後序帰還項のタイプを利用して、制御指令を生成し、制御指令を後序帰還項のタイプに対応するアプリケーションプログラム或いはユーザ設備に送信する。
帰還項返信手段14は、ユーザへ確定された後序帰還項を返信する。
帰還項返信手段14は、直接にユーザへ確定された後序帰還項を返信してもよく、ユーザからの返信に基づいてユーザへ返信するかを確定してもよい。
本発明の実施例に関する上記後序帰還項は、テキスト、オーディオ、ビデオ、画像、リンク、アプリケーションプログラム或いはユーザ設備に対する制御イベントを含むことができるが、これに限定されない。
また、帰還項返信手段14は、既にユーザへ返信した前序帰還項とユーザへ返信する後序帰還項との間に、タンデムスピーチを帰還することができる。
ただし、該タンデムスピーチは、若干の一般的な単語、例えば「次に」、「そして」、「次の帰還項」等であることができる。
タンデムスピーチは余白であってもよく、即ち前序帰還項と後序帰還項との間は余白であってもよい。
タンデムスピーチは若干の符号であってもよく、このような場合は、携帯電話、スマートテレビ等のスクリーンを有する設備に適し、例えば前後の2つの帰還項の間に「〜〜〜〜〜〜〜」を採用して区画することができる。
タンデムスピーチは若干の光と影であってもよく、このような場合は、任意タイプのユーザ設備に適しており、該設備の光源、例えばLED等によって、一定の光と影を生成する。例えば前後の2つの帰還項の間に、LED等によって特定色の絞りを生成して、前後の2つの帰還項に対して区画を行うことができる。
タンデムスピーチは若干のオーディオであってもよく、このような場合は、携帯電話、スマートサウンドボックス、スマートテレビ等のスピーカを有する設備に適し、例えば前後の2つの帰還項の間に例えば「ピンポン」等の短いオーディオを採用して区画することができる。
2つの例子を挙げる。
ユーザがスマートサウンドボックスによって「マンチェスター・ユナイテッドの最新の試合はいつですか」とのqueryを入力した時に、スマートアシスタントは、「マンチェスター・ユナイテッドの最新の試合は、2017年11月2日の05:00に行い、相手がアーセナルです」との帰還項を返信し、該帰還項を前序帰還項とし、そして、本発明に係った方式を採用して後序帰還項が「2017年11月2日05:00の試合喚起」であると確定し、スマートアシスタントは、ユーザへ該喚起設定を行うかの提示情報を返信し、ユーザが設定を選択したら、「2017年11月2日05:00の試合喚起を設置する」との制御指令を生成してスマート目覚ましに送信することで、喚起設定を行う。ユーザが人手で喚起設定を行う必要がなく、明らかに、更にスマート化となり、ユーザーの操作が簡単化される。
ユーザが車載スマートアシスタントによって「おはよう」とのqueryを入力した時に、スマートアシスタントの返信する帰還項が「今日の天気」であり、即ち今日の天気の情報である。「今日の天気」を前序帰還項とし、発明に係った方式を採用して後序帰還項が「今日の道路交通状況」であると確定し、自動的に当前時間がユーザ出勤時間であることを取得して、自動的にユーザ住宅から会社までの道路交通状況情報を検索してユーザに返信することができる。ユーザが今日の道路交通状況を取得するためのqueryを入力し、人手で出発地及び目的地を設定する必要がなく、明らかに、更にスマート化となり、ユーザーの操作が簡素化される。
ユーザが携帯電話によって「陳奕迅」を入力した時に、スマートアシスタントにて返信される帰還項が「陳奕迅百科」であり、該帰還項を前序帰還項とし、本発明に係った方式を採用して後序帰還項が「陳奕迅の歌」であると確定し、自動的に陳奕迅の人気歌を検索してユーザに返信する。ユーザは、人手で陳奕迅の歌を検索する必要がなく、直接に該歌の再生を選択することができ、明らかに、更にスマート化となり、更に豊富となり、ユーザーの操作が簡素化される。
図3は、本発明の実施形態を実現するために適応する例示的なコンピュータシステム/サーバ012のブロック図を示す。図3に示すコンピュータシステム/サーバ012は、1つの例だけであり、本発明の実施例の機能及び使用範囲を制限していない。
図3に示すように、コンピュータシステム/サーバ012は、汎用演算設備の形態で表現される。コンピュータシステム/サーバ012の構成要素には、1つ又は複数のプロセッサ又は処理ユニット016と、システムメモリ028と、異なるシステム構成要素(システムメモリ028と処理ユニット016とを含む)を接続するためのバス018を含んでいるが、これに限定されない。
バス018は、複数種類のバス構成の中の1つ又は複数の種類を示し、メモリバス又はメモリコントローラ、周辺バス、グラフィック加速ポート、プロセッサ又は複数種類のバス構成でのいずれかのバス構成を使用したローカルバスを含む。例えば、それらの架構には、工業標準架構(ISA)バス、マイクロチャンネル架構(MAC)バス、増強型ISAバス、ビデオ電子規格協会(VESA)ローカルバス及び周辺コンポーネント接続(PCI)バスを含んでいるが、これに限定されない。
コンピュータシステム/サーバ012には、典型的には複数の種類のコンピュータシステム読取り可能な媒体を含む。それらの媒体は、コンピュータシステム/サーバ012にアクセスされて使用可能な任意な媒体であり、揮発性の媒体と不揮発性の媒体や移動可能な媒体と移動不可な媒体を含む。
メモリ028には、揮発性メモリ形式のコンピュータシステム読取り可能な媒体、例えばランダムアクセスメモリ(RAM)030及び/又はキャッシュメモリ032を含むことができる。コンピュータシステム/サーバ012には、更に他の移動可能/移動不可なコンピュータシステム記憶媒体や揮発性/不揮発性のコンピュータシステム記憶媒体を含むことができる。例として、ストレジ034は、移動不可能な不揮発性磁媒体を読み書くために用いられる(図3に示していないが、常に「ハードディスクドライブ」とも呼ばれる)。図3に示していないが、移動可能な不揮発性磁気ディスク(例えば「フレキシブルディスク」)に対して読み書きを行うための磁気ディスクドライブ、及び移動可能な不揮発性光ディスク(例えばCD−ROM、DVD−ROM又は他の光媒体)に対して読み書きを行うための光ディスクドライブを提供できる。このような場合に、ドライブは、それぞれ1つ又は複数のデータ媒体インターフェースによってバス018に接続される。メモリ028には少なくとも1つのプログラム製品を含み、該プログラム製品には1組の(例えば少なくとも1つの)プログラムモジュールを含み、それらのプログラムモジュールは、本発明の各実施例の機能を実行するように配置される。
1組の(少なくとも1つの)プログラムモジュール042を含むプログラム/実用ツール040は、例えばメモリ028に記憶され、このようなプログラムモジュール042には、オペレーティングシステム、1つの又は複数のアプリケーションプログラム、他のプログラムモジュール及びプログラムデータを含んでいるが、これに限定しておらず、それらの例示での1つ又はある組み合にはネットワーク環境の実現を含む可能性がある。プログラムモジュール042は、常に本発明に記載されている実施例における機能及び/又は方法を実行する。
コンピュータシステム/サーバ012は、1つ又は複数の周辺設備014(例えばキーボード、ポインティングデバイス、ディスプレイ024等)と通信を行ってもよく、本発明において、コンピュータシステム/サーバ012は外部レーダ設備と通信を行い、ユーザと該コンピュータシステム/サーバ012とのインタラクティブを実現することができる1つ又は複数の設備と通信を行ってもよく、及び/又は該コンピュータシステム/サーバ012と1つ又は複数の他の演算設備との通信を実現することができるいずれかの設備(例えばネットワークカード、モデム等)と通信を行っても良い。このような通信は入力/出力(I/O)インターフェース022によって行うことができる。そして、コンピュータシステム/サーバ012は、ネットワークアダプタ020によって、1つ又は複数のネットワーク(例えばローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)及び/又は公衆回線網、例えばインターネット)と通信を行っても良い。図に示すように、ネットワークアダプタ020は、バス018によって、コンピュータシステム/サーバ012の他のモジュールと通信を行う。当然のことながら、図3に示していないが、コンピュータシステム/サーバ012と連携して他のハードウェア及び/又はソフトウェアモジュールを使用することができ、マイクロコード、設備ドライブ、冗長処理手段、外部磁気ディスクドライブアレイ、RAIDシステム、磁気テープドライブ及びデータバックアップストレジ等を含むが、これに限定されない。
プロセッサ016は、メモリ028に記憶されているプログラムを実行することで、様々な機能応用及びデータ処理、例えば本発明に記載されている実施例における方法フローを実現する。
上記のコンピュータプログラムは、コンピュータ記憶媒体に設けることができ、即ち該コンピュータ記憶媒体にコンピュータプログラムが記憶されており、該プログラムが1つ又は複数のコンピュータに実行される時に、1つ又は複数のコンピュータに本発明の上記の実施例に記載されている方法フロー及び/又は装置操作を実行させる。例えば、上記1つ或いは複数のプロセッサによって本発明の実施例における方法フローを実行する。
時間と技術の発達に伴い、メディアの意味もますます広がり、コンピュータプログラムの伝送方式も、具体的なメディアに限らず、ネットワーク等から直接ダウンロードすることもできる。1つ又は複数のコンピューター読み取り可能な媒体の任意な組合を採用しても良い。コンピューター読み取り可能な媒体は、コンピューター読み取り可能な信号媒体又はコンピューター読み取り可能な記憶媒体である。コンピューター読み取り可能な記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、又は半導体のシステム、装置又はデバイス、或いは上記ものの任意な組合であるが、これに限定されない。コンピューター読み取り可能な記憶媒体の更なる具体的な例(網羅していないリスト)には、1つ又は複数のワイヤを具備する電気的な接続、携帯式コンピュータ磁気ディスク、ハードディクス、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュ)、光ファイバー、携帯式コンパクト磁気ディスクリードオンリーメモリ(CD−ROM)、光メモリ部材、磁気メモリ部材、又は上記ものの任意で適当な組合を含む。本願において、コンピューター読み取り可能な記憶媒体は、プログラムを含む又は記憶する任意な有形媒体であってもよく、該プログラムは、命令実行システム、装置又はデバイスに使用される又はそれらと連携して使用されるができる。
コンピューター読み取り可能な信号媒体には、ベースバンドにおいて伝搬されるデータ信号或いはキャリアの一部として伝搬されるデータ信号を含み、それにコンピューター読み取り可能なプログラムコードが載っている。このような伝搬されるデータ信号は、複数種類の形態を採用でき、電磁気信号、光信号又はそれらの任意で適当な組合を含んでいるが、これに限定されない。コンピューター読み取り可能な信号媒体は、コンピューター読み取り可能な記憶媒体以外の任意なコンピューター読み取り可能な媒体であってもよく、該コンピューター読み取り可能な媒体は、命令実行システム、装置又はデバイスによって使用される又はそれと連携して使用されるプログラムを送信、伝搬又は転送できる。
コンピューター読み取り可能な媒体に記憶されたプログラムコードは、任意で適正な媒体によって転送されてもよく、無線、電線、光ケーブル、RF等、又は上記ものの任意で適当な組合が含まれているが、これに限定されない。
1つ又は複数の種類のプログラミング言語又はそれらの組合で、本発明の操作を実行するためのコンピュータプログラムコードを編集することができ、前記プログラミング言語には、オブジェクト向けのプログラミング言語、例えばJava、Smalltalk、C++が含まれ、通常のプロシージャ向けプログラミング言語、例えば「C」言葉又は類似しているプログラミング言語も含まれる。プログラムコードは、完全的にユーザコンピュータに実行されてもよく、部分的にユーザコンピュータに実行されてもよく、1つの独立のソフトウェアパッケージとして実行されてもよく、部分的にユーザコンピュータに実行され且つ部分的に遠隔コンピュータに実行されてもよく、又は完全的に遠隔コンピュータ又はサーバに実行されてもよい。遠隔コンピュータに係る場合に、遠隔コンピュータは、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークを介して、ユーザコンピュータ、又は、外部コンピュータに接続できる(例えば、インターネットサービス事業者を利用してインターネットを介して接続できる)。
本発明における幾つかの実施例において、開示されたデバイス、装置と方法は、他の方法で開示され得ることを理解されたい。例えば、上述した装置は単なる例示に過ぎず、例えば、前記手段の分割は、論理的な機能分割のみであり、実際には、別の方法で分割することもできる。
以上は、本発明の好ましい実施例のみであり、本発明を制限しなく、本発明の精神および原則の範囲内で行われた変更、同等の置換、改善等は、全て本発明の請求の範囲に含めるべきである。

Claims (26)

  1. スマートインタラクティブの処理方法であって、
    既にユーザへ返信した前序帰還項に対して意図識別を行うこと、
    前記前序帰還項の意図に基づいて、続けてユーザへ後序帰還項を返信すること、を含む
    ことを特徴とするスマートインタラクティブの処理方法。
  2. 前記前序帰還項の意図に基づいて、ユーザへ後序帰還項を返信することは、
    該意図に対応する後序帰還項のタイプを確定すること、
    後序帰還項の実体を取得すること、
    前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、ユーザへ返信する後序帰還項を確定すること、を含む
    ことを特徴とする請求項1に記載のスマートインタラクティブの処理方法。
  3. 前記既にユーザへ返信した前序帰還項に対して意図識別を行うことは、
    前記前序帰還項からキーワードを抽出し、該キーワードに基づき前記前序帰還項の意図を確定すること、或いは、
    前記前序帰還項に対して語意分析を行い、前記前序帰還項の意図を確定すること、或いは、
    前記前序帰還項を予め設定されたテンプレートにマッチングし、マッチングしたテンプレートに対応する意図を前記前序帰還項の意図として確定すること、或いは、
    予め訓練して得られた機器学習モデルを利用し、前記前序帰還項に対して意図分析を行い、前記前序帰還項の意図を得ること、を含む
    ことを特徴とする請求項1に記載のスマートインタラクティブの処理方法。
  4. 前記該意図に対応する後序帰還項のタイプを確定することは、
    予め設定された意図と後序帰還項のタイプとの対応関係に基づき、識別された意図に対応する後序帰還項のタイプを確定すること、を含む
    ことを特徴とする請求項2に記載のスマートインタラクティブの処理方法。
  5. 前記対応関係は前序帰還項のタイプを更に含み、
    該方法は、前記既にユーザへ返信した前序帰還項のタイプを確定すること、を更に含み、
    前記予め設定された意図と後序帰還項のタイプとの対応関係に基づき、識別された意図に対応する後序帰還項のタイプを確定することは、
    前記前序帰還項のタイプ及び前序帰還項の意図に基づいて前記対応関係を問い合わせ、対応する後序帰還項のタイプを確定すること、を含む
    ことを特徴とする請求項4に記載のスマートインタラクティブの処理方法。
  6. 前記該意図に対応する後序帰還項のタイプを確定する前に、
    前記前序帰還項の意図信頼度が予め設けられた信頼度に関する要求を満足するかを判断し、満足すれば、前記該意図に対応する後序帰還項のタイプを確定することを続けて実行すること、を更に含む
    ことを特徴とする請求項4に記載のスマートインタラクティブの処理方法。
  7. 識別された意図に対応する後序帰還項のタイプを確定する時に、更に前記ユーザの環境情報に基づく
    ことを特徴とする請求項4に記載のスマートインタラクティブの処理方法。
  8. 前記ユーザの環境情報は、システム時間、ユーザ設備タイプ及びユーザ設備動作の中の少なくとも1つを含む
    ことを特徴とする請求項7に記載のスマートインタラクティブの処理方法。
  9. 前記後序帰還項の実体を取得することは、
    前記前序帰還項から抽出された実体を後序帰還項の実体とすること、或いは、
    ユーザデータ或いはユーザ環境情報から実体を取得して後序帰還項の実体とすること、を含む
    ことを特徴とする請求項2に記載のスマートインタラクティブの処理方法。
  10. 前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、後序帰還項を確定することは、
    前記後序帰還項の実体及び前記後序帰還項のタイプを利用して検索項を構造すること、
    前記検索項に対応する垂直検索結果を取得して前記後序帰還項とすること、を含む
    ことを特徴とする請求項2に記載のスマートインタラクティブの処理方法。
  11. 前記後序帰還項の実体及び前記後序帰還項のタイプを利用して検索項を構造することは、
    前記後序帰還項のタイプに対応するテンプレートを確定すること、
    前記後序帰還項の実体を確定されたテンプレートに記入して、検索項を得ること、含む
    ことを特徴とする請求項10に記載のスマートインタラクティブの処理方法。
  12. 前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、後序帰還項を確定することは、
    前記後序帰還項の実体と前記後序帰還項のタイプを利用して制御指令を生成すること、
    前記制御指令を前記後序帰還項のタイプに対応するアプリケーションプログラム或いはユーザ設備に送信すること、を含む
    ことを特徴とする請求項2に記載のスマートインタラクティブの処理方法。
  13. 前記ユーザへ後序帰還項を返信することは、
    直接に前記ユーザへ確定された後序帰還項を返信すること、或いは、
    ユーザからの返信に基づいて、ユーザへ確定された後序帰還項を返信するかを確定することを、含む
    ことを特徴とする請求項1に記載のスマートインタラクティブの処理方法。
  14. 既にユーザへ返信した前序帰還項と前記ユーザへ返信する後序帰還項との間に、タンデムスピーチを返信し、
    前記タンデムスピーチは、一般的な単語、余白、符号、光と影或いはオーディオを含む
    ことを特徴とする請求項1に記載のスマートインタラクティブの処理方法。
  15. 前記後序帰還項は、
    テキスト、オーディオ、ビデオ、画像、リンク、及びアプリケーションプログラム又はユーザ設備に対する制御イベントを含む
    ことを特徴とする請求項1に記載のスマートインタラクティブの処理方法。
  16. スマートインタラクティブの処理装置であって、
    既にユーザへ返信した前序帰還項に対して意図識別を行う意図識別手段と、
    前記前序帰還項の意図に基づいて、ユーザへ後序帰還項を返信する後序帰還手段と、を含む
    ことを特徴とするスマートインタラクティブの処理装置。
  17. 前記後序帰還手段は、
    前記前序帰還項の意図に基づいて、該意図に対応する後序帰還項のタイプを確定するタイプ確定手段と、
    後序帰還項の実体を取得する実体取得手段と、
    前記後序帰還項の実体及び前記後序帰還項のタイプを利用して、後序帰還項を確定する帰還項確定手段と、
    前記ユーザへ確定された後序帰還項を返信する帰還項返信手段と、を含む
    ことを特徴とする請求項16に記載のスマートインタラクティブの処理装置。
  18. 前記意図識別手段は、
    前記前序帰還項からキーワードを抽出し、該キーワードに基づき前記前序帰還項の意図を確定すること、或いは、
    前記前序帰還項に対して語意分析を行い、前記前序帰還項の意図を確定すること、或いは、
    前記前序帰還項を予め設定されたテンプレートにマッチングし、マッチングしたテンプレートに対応する意図を前記前序帰還項の意図として確定すること、或いは、
    予め訓練して得られた機器学習モデルを利用し、前記前序帰還項に対して意図分析を行い、前記前序帰還項の意図を得ること、を具体的に実行する
    ことを特徴とする請求項16に記載のスマートインタラクティブの処理装置。
  19. 前記タイプ確定手段は、
    予め設定された意図と後序帰還項のタイプとの対応関係に基づき、識別された意図に対応する後序帰還項のタイプを確定すること、を具体的に実行する
    ことを特徴とする請求項17に記載のスマートインタラクティブの処理装置。
  20. 前記タイプ確定手段は、識別された意図に対応する後序帰還項のタイプを確定する時に、更に前記ユーザの環境情報に基づく
    ことを特徴とする請求項19に記載のスマートインタラクティブの処理装置。
  21. 前記実体取得手段は、
    前記前序帰還項から抽出された実体を後序帰還項の実体とすること、或いは、
    ユーザデータ或いはユーザ環境情報から実体を取得して後序帰還項の実体とすること、を具体的に実行する
    ことを特徴とする請求項17に記載のスマートインタラクティブの処理装置。
  22. 前記帰還項確定手段は、
    前記後序帰還項の実体と前記後序帰還項のタイプを利用して検索項を構造し、前記検索項に対応する垂直検索結果を取得して前記後序帰還項とすること、或いは、
    前記後序帰還項の実体と前記後序帰還項のタイプを利用して制御指令を生成し、前記制御指令を前記後序帰還項のタイプに対応するアプリケーションプログラム或いはユーザ設備に送信すること、を具体的に実行する
    ことを特徴とする請求項17に記載のスマートインタラクティブの処理装置。
  23. 前記後序帰還手段は、
    直接に前記ユーザへ確定された後序帰還項を返信すること、或いは、
    ユーザからの返信に基づいて、ユーザへ確定された後序帰還項を返信するかを確定すること、を具体的に実行する
    ことを特徴とする請求項16に記載のスマートインタラクティブの処理装置。
  24. 前記後序帰還手段は、既にユーザへ返信した前序帰還項と前記ユーザへ返信する後序帰還項との間に、タンデムスピーチを帰還し、
    前記タンデムスピーチは、一般的な単語、余白、符号、光と影或いはオーディオを含む
    ことを特徴とする請求項16に記載のスマートインタラクティブの処理装置。
  25. 設備であって、
    1つ又は複数のプロセッサと
    1つ又は複数のプログラムを記憶する記憶装置と、を含み、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行される時に、前記1つ又は複数のプロセッサに請求項1乃至15中のいずれか1項に記載の方法を実現させる
    ことを特徴とする設備。
  26. コンピュータ実行可能な指令を含む記憶媒体であって、
    前記コンピュータ実行可能な指令がコンピュータプロセッサによって実行される時に、請求項1乃至15のいずれか1項に記載の方法を実行する
    ことを特徴とする記憶媒体。
JP2018210599A 2017-11-16 2018-11-08 スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体 Active JP6944920B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201711138632.4A CN107967308B (zh) 2017-11-16 2017-11-16 一种智能交互的处理方法、装置、设备和计算机存储介质
CN201711138632.4 2017-11-16

Publications (2)

Publication Number Publication Date
JP2019091444A true JP2019091444A (ja) 2019-06-13
JP6944920B2 JP6944920B2 (ja) 2021-10-06

Family

ID=62001097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018210599A Active JP6944920B2 (ja) 2017-11-16 2018-11-08 スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体

Country Status (3)

Country Link
US (1) US11308948B2 (ja)
JP (1) JP6944920B2 (ja)
CN (1) CN107967308B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111930904A (zh) * 2020-07-08 2020-11-13 联想(北京)有限公司 信息应答方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163171A (ja) * 2000-11-28 2002-06-07 Sanyo Electric Co Ltd ユーザ支援装置およびシステム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7693720B2 (en) * 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
US8073681B2 (en) * 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US10276170B2 (en) * 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8423392B2 (en) * 2010-04-01 2013-04-16 Google Inc. Trusted participants of social network providing answers to questions through on-line conversations
US9875494B2 (en) * 2013-04-16 2018-01-23 Sri International Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant
US9189742B2 (en) * 2013-11-20 2015-11-17 Justin London Adaptive virtual intelligent agent
US20200143115A1 (en) * 2015-01-23 2020-05-07 Conversica, Inc. Systems and methods for improved automated conversations
US10418032B1 (en) * 2015-04-10 2019-09-17 Soundhound, Inc. System and methods for a virtual assistant to manage and use context in a natural language dialog
CN106202085B (zh) * 2015-04-30 2019-08-20 阿里巴巴集团控股有限公司 依据特定主题进行信息搜集的方法、装置及电子设备
US10255921B2 (en) * 2015-07-31 2019-04-09 Google Llc Managing dialog data providers
CN105068661B (zh) * 2015-09-07 2018-09-07 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法和系统
CN105138671A (zh) * 2015-09-07 2015-12-09 百度在线网络技术(北京)有限公司 基于人工智能的人机交互的交互引导方法和装置
CN105426436B (zh) * 2015-11-05 2019-10-15 百度在线网络技术(北京)有限公司 基于人工智能机器人的信息提供方法和装置
CN105512228B (zh) * 2015-11-30 2018-12-25 北京光年无限科技有限公司 一种基于智能机器人的双向问答数据处理方法和系统
CN108833595B (zh) * 2015-12-24 2021-06-29 上海智臻智能网络科技股份有限公司 用于在线客服服务的计算机可读存储介质
CN106126516A (zh) * 2016-05-31 2016-11-16 刘华英 人机交互方法和系统
CN107015964B (zh) * 2017-03-22 2021-10-19 北京光年无限科技有限公司 面向智能机器人开发的自定义意图实现方法及装置
CN107133345B (zh) * 2017-05-22 2020-11-06 北京百度网讯科技有限公司 基于人工智能的交互方法和装置
US10817578B2 (en) * 2017-08-16 2020-10-27 Wipro Limited Method and system for providing context based adaptive response to user interactions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163171A (ja) * 2000-11-28 2002-06-07 Sanyo Electric Co Ltd ユーザ支援装置およびシステム

Also Published As

Publication number Publication date
US11308948B2 (en) 2022-04-19
CN107967308A (zh) 2018-04-27
JP6944920B2 (ja) 2021-10-06
US20190147871A1 (en) 2019-05-16
CN107967308B (zh) 2021-04-23

Similar Documents

Publication Publication Date Title
US10650816B2 (en) Performing tasks and returning audio and visual feedbacks based on voice command
CN109658932B (zh) 一种设备控制方法、装置、设备及介质
JP6713034B2 (ja) スマートテレビの音声インタラクティブフィードバック方法、システム及びコンピュータプログラム
US20210243045A1 (en) Online document sharing method and apparatus, electronic device, and storage medium
US11282519B2 (en) Voice interaction method, device and computer readable storage medium
US10311877B2 (en) Performing tasks and returning audio and visual answers based on voice command
WO2021244110A1 (zh) 作品生成和编辑方法、装置、终端、服务器和系统
JP2020527753A (ja) ビューに基づく音声インタラクション方法、装置、サーバ、端末及び媒体
WO2020078300A1 (zh) 一种终端投屏的控制方法和终端
US20210286867A1 (en) Voice user interface display method and conference terminal
JP2019046468A (ja) インターフェイススマートインタラクティブ制御方法、装置、システム及びプログラム
JP2021010156A (ja) 情報を生成する方法および装置
CN103442130A (zh) 语音操控方法、移动终端装置及语音操控系统
US11270690B2 (en) Method and apparatus for waking up device
CN104282302A (zh) 用于识别语音和文本的设备和方法
CN110235087A (zh) 一种实现语音控制的方法和终端
WO2019128829A1 (zh) 动作执行方法、装置、存储介质及电子装置
CN113672748B (zh) 多媒体信息播放方法及装置
JP2021197153A (ja) ワードスロットを識別するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
KR20210001082A (ko) 사용자 발화를 처리하는 전자 장치와 그 동작 방법
JP7375089B2 (ja) 音声応答速度確定方法、装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム
WO2021098175A1 (zh) 录制语音包功能的引导方法、装置、设备和计算机存储介质
JP6944920B2 (ja) スマートインタラクティブの処理方法、装置、設備及びコンピュータ記憶媒体
CN111539203A (zh) 一种用于自然语言内容标题消歧的方法、设备和系统
CN112309387A (zh) 用于处理信息的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210203

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20210212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210506

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210511

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210512

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6944920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250