JP2022003537A - 対話意図の認識方法及び装置、電子機器並びに記憶媒体 - Google Patents

対話意図の認識方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP2022003537A
JP2022003537A JP2021145446A JP2021145446A JP2022003537A JP 2022003537 A JP2022003537 A JP 2022003537A JP 2021145446 A JP2021145446 A JP 2021145446A JP 2021145446 A JP2021145446 A JP 2021145446A JP 2022003537 A JP2022003537 A JP 2022003537A
Authority
JP
Japan
Prior art keywords
support
sample
sentence
word
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021145446A
Other languages
English (en)
Other versions
JP7309798B2 (ja
Inventor
ホンジェ グオ,
Hongjie Guo
ホンヤン チャン,
Hongyang Zhang
ツェンユ ジャオ,
Zhenyu Jiao
シュウキ スン,
Shuqi Sun
ユエ チャン,
Yue Chang
ティンティン リー,
Tingting Li
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022003537A publication Critical patent/JP2022003537A/ja
Application granted granted Critical
Publication of JP7309798B2 publication Critical patent/JP7309798B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • G06V30/19093Proximity measures, i.e. similarity or distance measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding

Abstract

【課題】対話意図の認識モデルのサポート文の規模に対する依存度を低減させ、少量のサポート文に基づいて認識することによる過剰適合現象を回避し、対話意図の認識結果の正確率を確保し、対話意図の認識プロセスにおける信頼性を向上させる対話意図の認識方法、認識装置、電子機器、記憶媒体及びプログラムを提供する。【解決手段】方法は、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得し、サンプル文及びサポート文を事前トレーニング済みの意図認識モデルに入力し、意図認識モデルはサンプル文及びサポート文に基づいてサンプル文に対応するサンプル文ベクトル及びサポート文に対応するカテゴリベクトルを生成し、サンプル文ベクトルとカテゴリベクトルとの間のマッチング度を計算し、複数のマッチング度に基づいてサンプル文の予測意図カテゴリを取得する。【選択図】図1

Description

本出願の実施例は、全体としてデータ処理の技術分野に関し、より具体的には、人工知能、深層学習などの機械学習の技術分野に関する。
近年、対話分野の関連技術が興ってきたに伴い、対話意図の認識も重要な研究方向の1つになってきている。対話意図の認識プロセスにおいて、通常、対話意図認識の基礎としてタグ付けデータに依存している。
しかしながら、従来技術における対話意図の認識方法は、特に現実的な対話シナリオのコールドブート段階では、タグ付けデータの規模が非常に小さいため、過剰適合(Overfitting)現象が非常に発生しやすいことにより、対話意図の認識結果の非常に低い正確率をいきおい引き起こすことになる。そのため、対話意図の認識結果の正確率をいかに向上させるかは重要な研究方向の1つとなっている。
本出願は、対話意図の認識方法及び装置、電子機器並びに記憶媒体を提供する。
第1の態様によれば、対話意図の認識方法を提供し、この認識方法は、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得するステップと、前記サンプル文及び前記サポート文を事前トレーニング済みの意図認識モデルに入力し、前記意図認識モデルは前記サンプル文及び前記サポート文に基づいて前記サンプル文に対応するサンプル文ベクトル及び前記サポート文に対応するカテゴリベクトルを生成し、前記サンプル文ベクトルと前記カテゴリベクトルとのマッチング度を計算し、複数の前記マッチング度に基づいて前記サンプル文の予測意図カテゴリを取得するステップと、を含む。
第2の態様によれば、対話意図の認識装置を提供し、この装置は、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得するための取得モジュールと、前記サンプル文及び前記サポート文を事前トレーニング済みの意図認識モデルに入力し、前記意図認識モデルは前記サンプル文及び前記サポート文に基づいて前記サンプル文に対応するサンプル文ベクトル及び前記サポート文に対応するカテゴリベクトルを生成し、前記サンプル文ベクトルと前記カテゴリベクトルとのマッチング度を計算し、複数の前記マッチング度に基づいて前記サンプル文の予測意図カテゴリを取得するための生成モジュールと、を備える。
第3の態様によれば、電子機器を提供し、この電子機器は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリとを備え、ここで、前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶しており、前記命令は、少なくとも1つのプロセッサが本出願の第1の態様に記載された対話意図の認識方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は前記コンピュータに本出願の第1の態様に記載の対話意図の認識方法を実行させるために用いられる。
第5の態様によれば、コンピュータプログラムを含むコンピュータプログラム製品であって、前記コンピュータプログラムがプロセッサによって実行されると、本出願の第1の態様に記載された対話意図の認識方法のステップが実現されることを特徴とするコンピュータプログラム製品を提供する。
第6の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに本出願の第1の態様に記載の対話意図の認識方法を実行させる。
この部分に記載されている内容は、本出願の実施例の肝心な、又は重要な特徴を特定することを意図しておらず、本出願の範囲を限定するものでもないことを理解すべきである。本出願の他の特徴は、以下の明細書を通じて容易に理解される。
図面は、本技術案をよりよく理解するために用いられ、本出願を限定するものではない。
本出願の第1の実施例による概略図である。 サポート文を複数の異なるカテゴリに分ける概略図である。 本出願の第2の実施例による概略図である。 特徴抽出処理プロセスの概略図である。 本出願の第3の実施例による概略図である。 本出願の第4の実施例による概略図である。 本出願の第5の実施例による概略図である。 サンプル単語ベクトル系列の生成プロセスの概略図である。 本出願の第6の実施例による概略図である。 本出願の第7の実施例による概略図である。 本出願の第8の実施例による概略図である。 本出願の第9の実施例による概略図である。 カテゴリベクトルの取得プロセスの概略図である。 ベクトルペアの採点プロセスの概略図である。 本出願の第9の実施例による概略図である。 本出願の実施例の対話意図の認識方法を実現するための対話意図の認識装置のブロック図である。 本出願の実施例の対話意図の認識方法を実現するための対話意図の認識装置のブロック図である。 本出願の実施例の対話意図の認識を実現するための電子機器のブロック図である。
以下、図面を参照しながら、本出願の例示的な実施例について説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすく且つ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
以下、本出願の解決手段に係る技術分野について簡単に説明する。
AI(Artificial Intelligence、人工知能)は、コンピュータが人間の思惟過程とインテリジェントな挙動(例えば学習、推論、考え、計画など)を模擬するように研究している学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能のハードウェア技術は、一般的に、コンピュータビジョン技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、知識マップ技術などのいくつかの面を含む。
DL(Deep Learning、深層学習)は、サンプルデータの内在的ルール及び表示レベルを学習するものであり、これらの学習過程において取得された情報は、文字、画像及び音声などのデータの解釈に大きく寄与するものである。その最終目標は、ロボットが人間のように解析と学習能力を持つことができ、文字、画像及び音声などのデータを認識できるようにすることである。深層学習は複雑な機械学習アルゴリズムであり、音声と画像認識の面において果たした効果は、従来の関連技術をはるかに超える。
ML(Machine Learing、機械学習)は、多分野をまたがっている学科であり、確率論、統計学、近似論、凸解析、計算複雑性理論など、多くの学科に関する。コンピュータが新たな知識又は技能を取得し、既存の知識構造を再構築して自己の性能を絶えず改善させるために、どのように人間の学習挙動を模擬又は実現するかについて専門に研究している。それは人工知能のコアであり、コンピュータをインテリジェントにする根本的方法である。
以下、図面を参照しながら、本出願の実施例の対話意図の認識方法及び装置、電子機器並びに記憶媒体を説明する。
図1は本出願の第1の実施例による概略図である。なお、ここで、本出願の実施例の対話意図の認識方法の実行主体は対話意図の認識装置であり、対話意図の認識装置は、具体的にはハードウェア機器、又はハードウェア機器におけるソフトウェアなどであってもよい。ここで、ハードウェア機器は、例えば端末機器、サーバなどである。図1に示すように、本実施例にて提供される対話意図の認識方法は、以下のステップS101〜S102を含む。
S101、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得する。
本出願の実施例では、意図カテゴリ予測対象のサンプル文が既存のある対話意図に属するか否かを判断するプロセスにより、対話意図の認識を実現することができる。すなわち、意図カテゴリ予測対象のサンプル文が、その中の1つの意図カテゴリがタグ付けされたサポート文に属するか否かを判断するプロセスにより、対話意図の認識を実現することができる。
ここで、意図カテゴリ予測対象のサンプル文は、入力されたいずれかの意図カテゴリがタグ付けされていない文であってもよい。
ここで、意図カテゴリがタグ付けされたサポート文は、意図カテゴリタグを持ついずれかの文であってもよい。なお、図2に示すように、サポート文は既存のタグに基づいて複数の異なるカテゴリに分けることができる。
S102、サンプル文及びサポート文を事前トレーニング済みの意図認識モデルに入力し、意図認識モデルはサンプル文及びサポート文に基づいてサンプル文に対応するサンプル文ベクトル及びサポート文に対応するカテゴリベクトルを生成し、サンプル文ベクトルとカテゴリベクトルとのマッチング度を計算し、複数のマッチング度に基づいてサンプル文の予測意図カテゴリを取得する。
なお、対話意図の認識は、本質的には分類タスクである。一般的な意図認識モデルは主に以下の2つの種類を含み、1つの種類は、分類思想に基づく意図認識モデルであり、すなわち、意図カテゴリ予測対象のサンプル文をモデルに入力し、モデルがサンプル文に対応する意図タグを直接与えるものであり、もう1つの種類は、マッチング思想に基づく意図認識モデルであり、すなわち、入力されたサンプル文と意図カテゴリがタグ付けされた各サポート文で文ペア(Pair Wise)を構成し、いくつかの文ペアを取得し、続いて各文ペアを意図認識モデルに入力し、モデルが文ペアのマッチングスコアを与え、スコアが最も高い文ペアを選択し、さらに文ペアにおける意図カテゴリがタグ付けされたサポート文に対応する意図カテゴリをサンプル文の予測意図カテゴリとするものである。
しかしながら、大量の文にタグを付けるには時間も労力も費やすため、対話意図の認識プロセスにおいて、意図カテゴリがタグ付けされたサポート文は、通常、少量のサンプルである。すなわち、対話意図の認識プロセスにおいて、通常、少量のサポート文に基づいて、少数ショット学習(Few Shot Learning)を行う必要がある。
従来技術では、少数ショット学習には一般的に「ドメインシフト」(Domain Shift)という問題が存在する。ソースドメインとターゲットドメインのデータ分布が大きく異なる場合、既に学習した知識を新たなドメインに適用することができず、少数ショット学習の効果が好ましくない場合は多い。
これにより、本出願では、「ドメインシフト」の問題を緩和し、少数ショット学習による過剰適合(Overfitting)現象を回避し、さらに対話意図の認識結果の正確率を低下させるために、本出願にて提供される対話意図の認識方式は、少サンプルに基づくDL(Deep Learning、深層学習)技術を対話意図の認識に適用し、マッチング思想に基づく意図認識モデルのサポート文の規模に対する依存度を低下させることができる。
ここで、過剰適合現象とは、一致する仮定を得るために、仮定が過度に厳しくなるようにさせる現象である。
本出願にて提供される意図認識モデルは、従来のマッチング思想に基づく意図認識モデルとは異なり、意図カテゴリと意図カテゴリ予測対象のサンプル文とのベクトルペアを構築し、各ベクトルペアのスコアを計算し、スコアが最も高い意図カテゴリを選択することにより、サンプル文の予測意図カテゴリを取得することができる。任意選択的に、取得したサンプル文及びサポート文を入力として、事前トレーニング済みの意図認識モデルに入力すると、サンプル文の予測意図カテゴリを取得することができる。
本出願の実施例の対話意図の認識方法によれば、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得し、サンプル文及びサポート文を事前トレーニング済みの意図認識モデルに入力し、意図認識モデルはサンプル文及びサポート文に基づいてサンプル文に対応するサンプル文ベクトル及びサポート文に対応するカテゴリベクトルを生成し、サンプル文ベクトルとカテゴリベクトルとの間のマッチング度を計算し、さらに、複数のマッチング度に基づいてサンプル文の予測意図カテゴリを取得することができる。これにより、本出願は少数ショット学習技術と組み合わせて、意図認識モデルのサポート文の規模に対する依存度を低減させ、少量の意図カテゴリがタグ付けされたサポート文による過剰適合現象を回避し、対話意図の認識結果の正確率を確保し、対話意図の認識を高速に行う能力を向上させ、対話意図の認識プロセスにおける信頼性及び効率を向上させる。
なお、本出願では、サンプル文及びサポート文に基づいてサポート文に対応するカテゴリベクトルを生成しようとする場合、特徴抽出と、カテゴリベクトル生成処理と組み合わせて、サポート文に対応するカテゴリベクトルを生成することができる。
図3は本出願の第2の実施例による概略図である。図3に示すように、前の実施例を基にして、サンプル文及びサポート文に基づいてサポート文に対応するカテゴリベクトルを生成するプロセスは、以下のステップS301〜S302を含む。
S301、サンプル文及びサポート文に基づいてサポート文に対応するサポート文ベクトルを生成する。
なお、ML(Machine Learning、機械学習)において、特徴学習又は表現学習は特徴を学習する技術の集合であり、すなわちメタデータを、機械によって学習して効果的に開発することができる形式に変換する。本出願の実施例では、表現学習技術を適用した特徴抽出処理と組み合わせて、自然言語テキストを系列化し、続いてディープネットワークモデルを経由し、テキストのベクトル表現、すなわちサポート文に対応するサポート文ベクトルを取得することができる。
図4に示すように、特徴抽出処理は、主に、入力層処理と、プレゼンテーション層処理とを含む。
ここで、入力層は、複数種の粒度の特徴から構成される。入力層は、単語分割、品詞タグ付け及び名前付きエンティティ認識を含み、さらにベクトルマッピングを行うことにより、混合特徴の単語ベクトルを得ることができる。本出願の実施例では、入力層は複数種の異なる特徴を用い、意図認識モデルに複数種の異なる事前情報を提供することができる。
ここで、プレゼンテーション層は、主に文エンコーダ(Query Encoder)及び複数種類の注意メカニズム(Attention Mechanism)から構成される。本出願の実施例では、文エンコーダは文の浅い層意味特徴から深層意味情報を抽出して、文をベクトル化し、文ベクトルを得ることができる。
なお、本出願において文エンコーダの具体的な型式の選択について限定せず、実際の状況に応じて設定することができる。任意選択的に、一般的なLSTM(Long Short Term Memory、長・短期記憶ネットワーク)に基づくモデルを用いて文エンコーダとすることができる。
S302、サポート文ベクトルに基づいてサポート文に対応するカテゴリベクトルを生成する。
なお、サポート文は既存のタグに基づいて複数の異なるカテゴリに分けることができ、カテゴリごとに不確定数の文を有する。カテゴリベクトルとは、同じタグの特徴ベクトルからなるベクトルであり、特徴ベクトルの加重和を用いて表すことができる。
本出願の実施例の対話意図の認識方法によれば、サンプル文及びサポート文に基づいてサポート文に対応するサポート文ベクトルを生成し、サポート文ベクトルに基づいてサポート文に対応するカテゴリベクトルを生成することにより、複数種の注意メカニズム及び事前に基づく計量方法の導入には、ドメインシフトの問題を緩和し、新たなドメインデータにおける意図認識モデルの効果を向上させ、さらに対話意図の認識プロセスにおける信頼性及び効率を向上させることができる。
本出願の実施例では、サンプル文及びサポート文に基づいてサポート文に対応するサポート文ベクトルを生成した後、サポート文ベクトルに基づいて、サポート文に対応する特徴ベクトルの加重和を取得して、対応するカテゴリベクトルとすることができる。
可能な実現形態として、図5に示すように、前の実施例を基にして、上記ステップS301における、サンプル文及びサポート文に基づいてサポート文に対応するサポートベクトルを生成するプロセスは、以下のステップS501〜S506を含む。
S501、サンプル文に基づいて対応するサンプル単語ベクトル系列を生成する。
任意選択的に、サンプル文に対して単語分割処理、品詞タグ付け及び名前付きエンティティ認識を行うことにより、サンプル文に対応するサンプル単語ベクトル系列を生成することができる。
S502、サポート文に基づいて対応するサポート単語ベクトル系列を生成する。
任意選択的に、サポート文に対して単語分割処理、品詞タグ付け及び名前付きエンティティ認識を行うことにより、サポート文に対応するサポート単語ベクトル系列を生成することができる。
S503、サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、サンプル文のサンプル単語の出力隠れ状態を取得する。
本出願の実施例では、サンプル単語ベクトル系列を入力とし、例えばLSTMモデルのような再帰型ニューラルネットワークによる時系列モデルに入力し、サンプル文のサンプル単語の出力隠れ状態を取得することができる。
任意選択的に、サンプル単語系列をLSTMモデルに入力し、正規化されたサンプル単語系列を隠れ層に入力することにより、サンプル文のサンプル単語の出力隠れ状態を取得することができる。
S504、サポート単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、サポート文のサポート単語の出力隠れ状態を取得する。
本出願の実施例では、サポート単語ベクトル系列を入力とし、例えばLSTMモデルのような再帰型ニューラルネットワークによる時系列モデルに入力し、サポート文のサポート単語の出力隠れ状態を取得することができる。
任意選択的に、サポート単語系列をLSTMモデルに入力し、正規化されたサポート単語系列を隠れ層に入力することにより、サポート文のサポート単語の出力隠れ状態を取得することができる。
S505、サンプル単語の出力隠れ状態及びサポート単語の出力隠れ状態に基づいて、サポート文に対応する出力ベクトル系列を生成する。
本出願の実施例では、文間注意メカニズム(Inter Sentence Attention Mechanism)をサンプル文とサポート文との間に適用し、サンプル文とサポート文との間の影響を取得することができる。
例えば、サンプル文Qは、q個の単語から構成され、サポート文Sは、s個の単語から構成される。LSTM経過後、サンプル文Qの各単語の出力隠れ状態はh_q,iであり、サポート文Sの各単語の出力隠れ状態はh_s,iである。
任意選択的に、コサイン距離を類似度計算式とすることに基づいて、サンプル文Qと、サポート文Sにおける各単語の出力隠れ状態の類似度を取得して、q*sの類似度行列Aを得ることができる。
さらに、サンプル文Qにおけるi番目の単語の出力ベクトル、及びサポート文Sにおけるj番目の単語の出力ベクトルについて、以下の式により、サンプル文に対応する出力ベクトル系列、及びサポート文に対応する出力ベクトル系列を生成することができる。
Figure 2022003537
ここで、a_ijは、サンプル文Qのi番目の単語と、サポート文Sのj番目の単語との間の出力隠れ状態類似度である。
S506、サポート文に対応する出力ベクトル系列に基づいてサポート文ベクトルを生成する。
本出願の実施例では、プレゼンテーション層に統計に基づく注意メカニズム(Statistics Attention Mechanism)を導入し、サポート文に対応する出力ベクトル系列に対して重み付けを順に行い、系列ベクトルを文ベクトルに変換して、サポート文ベクトルを生成することができる。
可能な実現形態として、図6に示すように、前の実施例を基にして、上記ステップS101における、サンプル文及びサポート文に基づいてサンプル文に対応するサンプル文ベクトルを生成するプロセスは、以下のステップS601〜S606を含む。
S601、サンプル文に基づいて対応するサンプル単語ベクトル系列を生成する。
S602、サポート文に基づいて対応するサポート単語ベクトル系列を生成する。
S603、サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、サンプル文のサンプル単語の出力隠れ状態を取得する。
S604、サポート単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、サポート文のサポート単語の出力隠れ状態を取得する。
S605、サンプル単語の出力隠れ状態及びサポート単語の出力隠れ状態に基づいて、サポート文に対応する出力ベクトル系列を生成する。
このステップS601〜S605は上記実施例におけるステップS501〜S505と同じであり、ここでは重複する説明を省略する。
S606、サンプル文に対応する出力ベクトル系列に基づいてサンプル文ベクトルを生成する。
本出願の実施例では、プレゼンテーション層に統計に基づく注意メカニズムを導入し、サンプル文に対応する出力ベクトル系列に対して重み付けを順に行い、系列ベクトルを文ベクトルに変換して、サンプル文ベクトルを生成することができる。
本出願の実施例の対話意図の認識方法によれば、サンプル文に基づいて対応するサンプル単語ベクトル系列を生成し、サポート文に基づいて対応するサポート単語ベクトル系列を生成し、続いてサンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、サンプル文のサンプル単語の出力隠れ状態を取得して、サポート単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、サポート文のサポート単語の出力隠れ状態を取得して、サンプル単語の出力隠れ状態及びサポート単語の出力隠れ状態に基づいて、サンプル文に対応する出力ベクトル系列及びサポート文に対応する出力ベクトル系列を生成し、さらに、サンプル文に対応する出力ベクトル系列に基づいてサンプル文ベクトルを生成し、サポート文に対応する出力ベクトル系列に基づいてサポート文ベクトルを生成することにより、本出願はサンプル文Q及びサポート文Sの出力列ベクトルをそれぞれ表示し、2つの文の間にインタラクションを加え、インタラクション情報を溶け込み、さらに対話意図の認識プロセスにおける信頼性及び効率を向上させる。
なお、本出願では、入力層処理は入力されたサンプル文及びサポート文をそれぞれ処理し、混合特徴の単語ベクトル系列を得ることができる。
以下、サンプル文及びサポート文について、単語ベクトル系列の生成プロセスをそれぞれ解釈しかつ説明する。
サンプル文について、可能な実現形態として、図7に示すように、前の実施例を基にして、上記ステップS501における、サンプル文に基づいて対応するサンプル単語ベクトル系列を生成するプロセスは、以下のステップS701〜S704を含む。
S701、サンプル文に対して単語分割処理を行い、複数のサンプル単語を取得する。
任意選択的に、予め設定された単語分割処理ルールに従って、サンプル文に対して単語分割処理を行い、複数のサンプル単語を取得することができる。ここで、予め設定された単語分割処理ルールは実際の状況に応じて設定することができる。ここで、予め設定された単語分割処理ルールに従って、サンプル文に対して単語分割処理を行う具体的な方式は従来技術であり、ここで重複する説明を省略する。
例えば、サンプル文Qについて、予め設定された単語分割ルールに従って、サンプル文Qをq個の単語に分割することができる。
S702、サンプル単語に対して品詞タグ付けを行い、サンプル単語の品詞を取得する。
任意選択的に、サンプル単語を事前トレーニング済みの品詞タグ付けモデルに入力して、サンプル単語の品詞を取得する。ここで、サンプル単語を事前トレーニング済みの品詞タグ付けモデルに入力してサンプル単語に対して品詞タグ付けを行う具体的な方式は従来技術であり、ここで重複する説明を省略する。
S703、サンプル単語に対して名前付きエンティティ認識を行い、サンプル単語の名前付きエンティティを取得する。
任意選択的に、サンプル単語を事前トレーニング済みの名前付きエンティティ認識モデルに入力して、サンプル単語の名前付きエンティティを取得する。ここで、サンプル単語を事前トレーニング済みのサンプル単語の名前付きエンティティモデルに入力してサンプル単語に対してサンプル単語の名前付きエンティティを行う具体的な方式は従来技術であり、ここで重複する説明を省略する。
S704、サンプル単語、サンプル単語の品詞及びサンプル単語の名前付きエンティティに基づいて、サンプル文に対応するサンプル単語ベクトル系列を生成する。
なお、各単語は1つの単語ベクトルに対応し、各文は1つの単語ベクトル系列に対応する。これにより、本出願の実施例では、図8に示すように、サンプル単語、サンプル単語の品詞及びサンプル単語の名前付きエンティティを取得した後、サンプル単語、サンプル単語の品詞及びサンプル単語の名前付きエンティティに基づいて、ベクトルマッピングを行って混合特徴のサンプル文に対応するサンプル単語ベクトル系列を得ることができる。
サポート文について、可能な実現形態として、図9に示すように、前の実施例を基にして、上記ステップS502における、サポート文に基づいて対応するサポート単語ベクトル系列を生成するプロセスは、以下のステップS901〜S904を含む。
S901、サポート文に対して単語分割処理を行い、複数のサポート単語を取得する。
任意選択的に、予め設定された単語分割処理ルールに従って、サポート文に対して単語分割処理を行い、複数のサポート単語を取得することができる。ここで、予め設定された単語分割処理ルールは実際の状況に応じて設定することができる。ここで、予め設定された単語分割処理ルールに従って、サポート文に対して単語分割処理を行う具体的な方式は従来技術であり、ここで重複する説明を省略する。
例えば、サポート文Sについて、予め設定された単語分割ルールに従って、サポート文Sをs個の単語に分割することができる。
S902、サポート単語に対して品詞タグ付けを行い、サポート単語の品詞を取得する。
任意選択的に、サポート単語を事前トレーニング済みの品詞タグ付けモデルに入力して、サポート単語の品詞を取得する。ここで、サポート単語を事前トレーニング済みの品詞タグ付けモデルに入力してサポート単語に対して品詞タグ付けを行う具体的な方式は従来技術であり、ここで重複する説明を省略する。
S903、サポート単語に対して名前付きエンティティ認識を行い、サポート単語の名前付きエンティティを取得する。
任意選択的に、サポート単語を事前トレーニング済みの名前付きエンティティ認識モデルに入力して、サポート単語の名前付きエンティティを取得する。ここで、サポート単語を事前トレーニング済みのサンプル単語の名前付きエンティティモデルに入力してサポート単語に対してサポート単語の名前付きエンティティを行う具体的な方式は従来技術であり、ここで重複する説明を省略する。
S904、サポート単語、サポート単語の品詞及びサポート単語の名前付きエンティティに基づいて、サポート文に対応するサポート単語ベクトル系列を生成する。
本出願の実施例では、サポート単語、サポート単語の品詞及びサポート単語の名前付きエンティティを取得した後、サポート単語、サポート単語の品詞及びサポート単語の名前付きエンティティに基づいて、ベクトルマッピングを行って混合特徴のサポート文に対応するサポート単語ベクトル系列を得ることができる。
本出願の実施例の対話意図の認識方法によれば、入力されたサンプル文及びサポート文に対して、単語分割処理をそれぞれ行い、単語分割により得られた単語ごとに品詞タグ付け及び名前付きエンティティ認識を行い、さらに前述した2種類の特徴に対してベクトルマッピングを行うことにより、混合特徴の単語ベクトル系列を得ることができる。
なお、本出願では、統計に基づく注意メカニズムにより、系列ベクトルに基づいて文ベクトルを得ることができる。
以下、サンプル文及びサポート文について、文ベクトルの生成プロセスをそれぞれ解釈しかつ説明する。
サンプル文について、可能な実現形態として、図10に示すように、前の実施例を基にして、上記ステップS606における、サンプル文に対応する出力ベクトル系列に基づいてサンプル文ベクトルを生成するプロセスは、以下のステップS1001〜S1003を含む。
S1001、コーパスにおけるサンプル文のサンプル単語の出現頻度及びサンプル逆文書頻度を取得する。
本出願の実施例では、メタトレーニング段階の大規模な言語材料を統計して、コーパスにおけるサンプル文のサンプル単語の出現頻度(TF)及びサンプル逆文書頻度(IDF)を取得することができる。ここで、TFはコーパスを対象とする単語の出現頻度であり、文章を対象とする単語の出現頻度ではない。
任意選択的に、以下の式により、コーパスにおけるサンプル単語の出現回数をコーパスの単語合計数で割って、TFサンプルを取得することができる。
Figure 2022003537
任意選択的に、以下の式により、10を底数とするコーパスにおける文合計数と、コーパスにおける、このサンプル単語が出現する文数との商の対数を、IDFサンプルとすることができる。
Figure 2022003537
S1002、サンプル単語の出現頻度及びサンプル逆文書頻度に基づいてサンプル単語に対応する出力ベクトルの重みを生成する。
なお、裾の重い分布の原則に基づいて、コーパスにおいて出現する頻度が少ない単語は、より大きい情報エントロピーを有することが多く、意味に対する影響がより大きく、出現する頻度が高い単語は、虚詞など、実際の意味がないタイプであることが多く、意味に対する影響が少ない。これから分かるように、コーパスにおける単語のTFが小さいほど、単語の影響が大きくなる。同様に、1つの単語が多くの文に出現する場合は、この単語の情報エントロピーがより大きいことを示す。これから分かるように、単語の文書頻度が小さいほど、IDFが大きくなり、影響も大きくなる。
本出願の実施例では、完全接続層処理を用いて、統計情報のTFサンプル及びIDFサンプルを組み合わせることにより、統計情報に基づくサンプル単語に対応する出力ベクトルの重みを得ることができ、任意選択的に、以下の式により重みを取得することができる。
Importanceサンプル=tanh(W1*TFサンプル+W2*IDFサンプル+b)
ここで、パラメータW1、W2及びbはいずれもトレーニングにより決定することができる。
S1003、サンプル文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、サンプル文ベクトルを生成する。
本出願の実施例では、サンプル文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、系列に対して重み付けを順に行って、サンプル文ベクトルを生成することができる。
サンプル文について、可能な実現形態として、図11に示すように、前の実施例を基にして、上記ステップS506における、サポート文に対応する出力ベクトル系列に基づいてサポート文ベクトルを生成するプロセスは、以下のステップS1101〜S1103を含む。
S1101、コーパスにおけるサポート文のサポート単語の出現頻度及びサポート逆文書頻度を取得する。
任意選択的に、以下の式により、コーパスにおけるサポート単語の出現回数をコーパスの単語合計数で割って、TFサポートを取得することができる。
Figure 2022003537
任意選択的に、以下の式により、10を底数とするコーパスにおける文合計数と、コーパスにおける、このサポート単語が出現する文数との商の対数を、IDFサポートとすることができる。
Figure 2022003537
S1102、サポート単語の出現頻度及びサポート逆文書頻度に基づいてサポート単語に対応する出力ベクトルの重みを生成する。
本出願の実施例では、完全接続層処理を用いて、統計情報のTFサポート及びIDFサポートを組み合わせることにより、統計情報に基づくサポート単語に対応する出力ベクトルの重みを得ることができ、任意選択的に、以下の式により重みを取得することができる。
Importanceサポート=tanh(W1*TFサポート+W2*IDFサポート+b)
S1103、サポート文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、サポート文ベクトルを生成する。
本出願の実施例では、サポート文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、系列に対して重み付けを順に行って、サポート文ベクトルを生成することができる。
本出願の実施例の対話意図の認識方法によれば、サンプル文の各単語のTF、IDF、及びサポート文の各単語のTF、IDFを計算し、TF、IDF、及び重み計算式に基づいて、系列ベクトルに対応する重みを得て、さらに系列に対して重み付けを順に行うことにより、サンプル文及びサポート文の文ベクトルをそれぞれ得ることができる。これにより、本出願は統計に基づく注意メカニズムを用い、系列ベクトルに基づいて文ベクトルを得て、統計情報を溶け込み、それにより、よりよく符号化して文ベクトルを得ることができ、さらに対話意図の認識プロセスにおける信頼性及び効率を向上させる。
さらに、本出願では、サポート文ベクトルに基づいてサポート文に対応するカテゴリベクトルを生成しようとする場合、同一のタグ付け意図カテゴリのサポート文ベクトルに基づいて、このタグ付け意図カテゴリに対応するカテゴリベクトルを生成することができる。
可能な実現形態として、図12に示すように、前の実施例を基にして、上記ステップS302における、サンプル文に対応する出力ベクトル系列に基づいてサンプル文ベクトルを生成するプロセスは、以下のステップS1201〜S1202を含む。
S1201、同一のタグ付け意図カテゴリのサポート文ベクトルを取得する。
なお、データはタグ付け意図に応じて複数のタグ付け意図カテゴリに分けることができるため、カテゴリごとに不確定数のサポート文が対応する。これにより、本出願の実施例では、特徴抽出処理により、各文は1つの対応する特徴ベクトルを得て、このような場合、同一のタグ付け意図カテゴリのサポート文ベクトルを取得することができる。
S1202、同一のタグ付け意図カテゴリのサポート文ベクトルに基づいてこのタグ付け意図カテゴリに対応するカテゴリベクトルを生成する。
本出願の実施例では、カテゴリベクトルの生成プロセスに注意層を導入し、注意層により、各文の特徴ベクトルの重みを得ることができる。図13に示すように、入力サンプルと各カテゴリサンプルベクトルとのコサイン類似度を計算することにより、各カテゴリサンプルベクトルの重みを得ることができる。さらに、同一のタグ付け意図カテゴリのサポート文ベクトルの重み付け表現に基づいて、このタグ付け意図カテゴリに対応するカテゴリベクトルを取得することができる。
本出願の実施例の対話意図の認識方法によれば、同一のタグ付け意図カテゴリのサポート文ベクトルを取得し、同一のタグ付け意図カテゴリのサポート文ベクトルに基づいてこのタグ付け意図カテゴリに対応するカテゴリベクトルを生成することができる。これにより、本出願はカテゴリベクトル生成プロセスに注意層を導入し、類似度計算により、異なるタグ付け意図カテゴリに対応するカテゴリベクトルを正確に取得することができ、さらに対話意図の認識プロセスにおける信頼性及び効率を向上させる。
なお、本出願では、複数のマッチング度に基づいてサンプル文の予測意図カテゴリを取得しようとする場合、予め設定された決定ポリシに従って予測意図カテゴリを決定することができる。ここで、予め設定された決定ポリシは、実際の状況に応じて設定することができる。
可能な実現形態として、カテゴリベクトル及びサンプル文の文ベクトルを採点することにより、サンプル文とサポート文との間のマッチング度を計算し、さらに複数のマッチング度のうち最も高いマッチング度に対応するカテゴリベクトルのタグ付け意図カテゴリを、サンプル文の予測意図カテゴリとして決定することができる。
任意選択的に、カテゴリベクトル及びサンプル文の文ベクトルを得た後、各ベクトルペアの間のスコアを取得することができ、スコアは0から1の間である。各タスクにはn個のタグ付け意図カテゴリのサポート文が含まれる。
さらに、カテゴリベクトル生成処理を行うことにより、n個のカテゴリベクトルを得ることができ、さらにn個のベクトルペアを得ることができ、このような場合に、ベクトルペアごとにモデル推定及び採点を行うことができ、さらに複数のマッチング度のうち最も高いマッチング度に対応するカテゴリベクトルのタグ付け意図カテゴリを、サンプル文の予測意図カテゴリとして決定することができる。
なお、本出願では、ベクトルペアを採点する具体的な方式について限定せず、実際の状況に応じて設定することができる。
任意選択的に、図14に示すように、ベクトルペアを採点しようとする場合、4種類の類似度計算方式を用い、前記4種類の類似度計算式に対して重み付け統合を行って、ベクトルペアを採点する結果を得ることができる。
以下、4種類の類似度計算方式についてそれぞれ説明する。
完全接続層に基づく類似度計算方式について、サンプル文の文ベクトルとカテゴリベクトルをスティッチングし、完全接続層を経由するとともに、Sigmod活性化関数を用い、サンプル文の文ベクトルとカテゴリベクトルとの間の類似度を得ることができる。
任意選択的に、類似度S1は以下の式により取得することができる。
Figure 2022003537
ここで、パラメータWはトレーニングにより決定することができ、Qはサンプル文の文ベクトルを表し、Cはカテゴリベクトルを表す。
コサイン距離に基づく類似度計算方式について、コサイン距離計算式を用いてサンプル文の文ベクトルとカテゴリベクトルとの間の類似度を計算することができる。
任意選択的に、類似度S2は以下の式により取得することができる。
Figure 2022003537
ユークリッド距離に基づく類似度計算方式について、ユークリッド距離計算式を用いて、サンプル文の文ベクトルとカテゴリベクトルとの間の類似度を計算することができる。また、数値爆発を防止するために、活性化関数を加えてユークリッド距離値を拡大縮小することができる。
任意選択的に、類似度S3は以下の式により取得することができる。
Figure 2022003537
バイリニア層に基づく類似度計算方式について、中間のパラメータ行列を導入することで、サンプル文の文ベクトルQとカテゴリベクトルSとの間にインタラクションを発生させ、それにより類似度スコアを得ることができる。
任意選択的に、類似度S3は以下の式により取得することができる。
Figure 2022003537
さらに、完全接続層を導入し、以下の式により、複数の異なる類似度スコアに対して重み付け統合処理を行うことができる。
Figure 2022003537
本出願の実施例の対話意図の認識方法によれば、カテゴリベクトル及びサンプル文の文ベクトルを採点することにより、サンプル文とサポート文との間のマッチング度を計算し、さらに複数のマッチング度のうち最も高いマッチング度に対応するカテゴリベクトルのタグ付け意図カテゴリを、サンプル文の予測意図カテゴリとして決定することができ、予測意図カテゴリの正確率を確保し、さらに対話意図の認識プロセスにおける信頼性及び効率を向上させる。
なお、本出願では、意図認識モデルは事前トレーニング済みのものである。ここで、本出願の実施例では、図15に示すように、以下の方式により意図認識モデルを予め作成することができる。
S1501、意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得する。
ここで、第1のトレーニング文及び第2のトレーニング文は、後続するモデルのトレーニングを行うように、予め収集することができる。ここで、第2のトレーニング文の数は予め設定することができ、例えば100個の第2のトレーニング文を取得する。
S1502、第1のトレーニング文及び第2のトレーニング文をトレーニング対象の意図認識モデルに入力し、第1のトレーニング文に対応する予測意図カテゴリを取得する。
本出願の実施例では、第1のトレーニング文及び第2のトレーニング文を入力とし、トレーニング対象の意図認識モデルに入力することができ、モデルは第1のトレーニング文に対応する予測意図カテゴリを出力することができる。
S1503、第1のトレーニング文に対応する予測意図カテゴリと第1のトレーニング文に対応するタグ付け意図カテゴリとの差が予め設定されたトレーニング終了条件に合致するまで、第1のトレーニング文に対応する予測意図カテゴリと第1のトレーニング文に対応するタグ付け意図カテゴリとの差に基づいて、トレーニング対象の意図認識モデルのモデルパラメータを調整し、意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップに戻り、最終回のモデルパラメータが調整されたトレーニング対象の意図認識モデルをトレーニング済みの意図認識モデルとして決定する。
ここで、予め設定されたトレーニング終了条件は実際の状況に応じて設定することができる。
なお、モデルの面では、本出願における意図認識モデルに係るトレーニング文及びトレーニング文に対応する予測意図カテゴリは相対的に閉じた幾何であり、前期のデータが十分に用意されれば、トレーニング文とトレーニング文に対応する予測意図カテゴリの集合は相対的に完全な集合であり、トレーニング文とトレーニング文に対応する予測意図カテゴリの完全性を保証する。モデルトレーニングの実行可能性:モデルにおける各ステップの入出力の物理的な意味及び依存関係が明確であり、そしてこのような依存関係をモデリング可能な成熟した解決手段が多く、したがって、モデルはトレーニング可能であり、且つ収束可能であることが期待されている。
上記のいくつかの実施例にて提供される対話意図の認識方法に対応して、本出願の一実施例は対話意図の認識装置をさらに提供し、本出願の実施例にて提供される対話意図の認識装置は上記のいくつかの実施例にて提供される対話意図の認識方法に対応するため、対話意図の認識方法の実施例形態は本実施例にて提供される対話意図の認識装置にも適用し、本実施例では詳細な説明を省略する。
図16は本出願の一実施例による対話意図の認識装置の概略構造図である。
図16に示すように、この対話意図の認識装置1600は、第1の取得モジュール1610及び生成モジュール1620を備える。ここで、第1の取得モジュール1610は、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得するために用いられ、生成モジュール1620は、前記サンプル文及び前記サポート文を事前トレーニング済みの意図認識モデルに入力し、前記意図認識モデルは前記サンプル文及び前記サポート文に基づいて前記サンプル文に対応するサンプル文ベクトル及び前記サポート文に対応するカテゴリベクトルを生成し、前記サンプル文ベクトルと前記カテゴリベクトルとのマッチング度を計算し、複数の前記マッチング度に基づいて前記サンプル文の予測意図カテゴリを取得するために用いられる。
図17は本出願の別の実施例による対話意図の認識装置の概略構造図である。
図17に示すように、この対話意図の認識装置1700は、第1の取得モジュール1710及び生成モジュール1720を備える。ここで、生成モジュール1720は、前記サンプル文及び前記サポート文に基づいて前記サポート文に対応するサポート文ベクトルを生成するための第1の生成サブモジュール1721と、前記サポート文ベクトルに基づいて前記サポート文に対応する前記カテゴリベクトルを生成するための第2の生成サブモジュール1722と、を備える。
任意選択的に、第1の生成サブモジュール1721は、前記サンプル文に基づいて対応するサンプル単語ベクトル系列を生成するための第1の生成ユニット17211と、前記サポート文に基づいて対応するサポート単語ベクトル系列を生成するための第2の生成ユニット17212と、前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、前記サンプル文のサンプル単語の出力隠れ状態を取得するための第1の入力ユニット17213と、前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力し、前記サポート文のサポート単語の出力隠れ状態を取得するための第2の入力ユニット17214と、前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サポート文に対応する出力ベクトル系列を生成するための第3の生成ユニット17215と、前記サポート文に対応する出力ベクトル系列に基づいて前記サポート文ベクトルを生成するための第1の出力ユニット17216と、を備える。
任意選択的に、生成モジュール1720は第3の生成サブモジュール1723をさらに備え、第3の生成サブモジュール1723は、前記サンプル文に基づいて対応するサンプル単語ベクトル系列を生成するための第4の生成ユニット17231と、前記サポート文に基づいて対応するサポート単語ベクトル系列を生成するための第5の生成ユニット17232と、前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力し、前記サンプル文のサンプル単語の出力隠れ状態を取得するための第3の入力ユニット17233と、前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力し、前記サポート文のサポート単語の出力隠れ状態を取得するための第4の入力ユニット17234と、前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サンプル文に対応する出力ベクトル系列を生成するための第6の生成ユニット17235と、前記サンプル文に対応する出力ベクトル系列に基づいて前記サンプル文ベクトルを生成するための第2の出力ユニット17236と、を備える。
さらに、第1の生成ユニット17211及び第4の生成ユニット17231は、さらに、前記サンプル文に対して単語分割処理を行い、複数の前記サンプル単語を取得して、前記サンプル単語に対して品詞タグ付けを行い、サンプル単語の品詞を取得して、前記サンプル単語に対して名前付きエンティティ認識を行い、サンプル単語の名前付きエンティティを取得して、前記サンプル単語、前記サンプル単語の品詞及び前記サンプル単語の名前付きエンティティに基づいて、前記サンプル文に対応する前記サンプル単語ベクトル系列を生成するために用いられる。
さらに、第2の生成ユニット17212及び第5の生成ユニット17232は、さらに、前記サポート文に対して単語分割処理を行い、複数の前記サポート単語を取得して、前記サポート単語に対して品詞タグ付けを行い、サポート単語の品詞を取得して、前記サポート単語に対して名前付きエンティティ認識を行い、サポート単語の名前付きエンティティを取得して、前記サポート単語、前記サポート単語の品詞及び前記サポート単語の名前付きエンティティに基づいて、前記サポート文に対応する前記サポート単語ベクトル系列を生成するために用いられる。
さらに、第2の出力ユニット17236は、コーパスにおける前記サンプル文の前記サンプル単語の出現頻度及びサンプル逆文書頻度を取得し、前記サンプル単語の出現頻度及び前記サンプル逆文書頻度に基づいて前記サンプル単語に対応する出力ベクトルの重みを生成し、前記サンプル文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サンプル文ベクトルを生成するために用いられる。
任意選択的に、第1の出力ユニット17216は、さらに、コーパスにおける前記サポート文の前記サポート単語の出現頻度及びサポート逆文書頻度を取得し、前記サポート単語の出現頻度及び前記サポート逆文書頻度に基づいて前記サポート単語に対応する出力ベクトルの重みを生成し、前記サポート文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サポート文ベクトルを生成するために用いられる。
さらに、第2の生成ユニット17212は、同一のタグ付け意図カテゴリの前記サポート文ベクトルを取得するための第1の取得サブユニット172121と、同一のタグ付け意図カテゴリの前記サポート文ベクトルに基づいてこのタグ付け意図カテゴリに対応する前記カテゴリベクトルを生成するための第1の生成サブユニット172122と、を備える。
さらに、生成モジュール1720は、複数の前記マッチング度のうち最も高いマッチング度に対応する前記カテゴリベクトルのタグ付け意図カテゴリを、前記サンプル文の予測意図カテゴリとして決定するための決定サブモジュール1724を備える。
さらに、対話意図の認識装置1700は、意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するための第2の取得モジュール1730と、前記第1のトレーニング文及び前記第2のトレーニング文をトレーニング対象の意図認識モデルに入力し、前記第1のトレーニング文に対応する予測意図カテゴリを取得するための入力モジュール1740と、前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差が予め設定されたトレーニング終了条件に合致するまで、前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差に基づいて、前記トレーニング対象の意図認識モデルのモデルパラメータを調整し、意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップに戻り、最終回のモデルパラメータが調整された前記トレーニング対象の意図認識モデルを前記トレーニング済みの意図認識モデルとして決定するための決定モジュール1750と、を備える。
なお、第1の取得モジュール1710及び生成モジュール1720は、第1の取得モジュール1610及び生成モジュール1620と同じ機能及び構造を有する。
本出願の実施例による対話意図の認識方法は、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得し、サンプル文及びサポート文を事前トレーニング済みの意図認識モデルに入力し、意図認識モデルはサンプル文及びサポート文に基づいてサンプル文に対応するサンプル文ベクトル及びサポート文に対応するカテゴリベクトルを生成し、サンプル文ベクトルとカテゴリベクトルとの間のマッチング度を計算し、さらに、複数のマッチング度に基づいてサンプル文の予測意図カテゴリを取得する。これにより、本出願は少数ショット学習技術と組み合わせて、意図認識モデルのサポート文の規模に対する依存度を低減させ、少量の意図カテゴリがタグ付けされたサポート文による過剰適合現象を回避し、対話における意図認識結果の正確率を確保し、対話意図の認識を高速に行う能力を向上させ、対話意図の認識プロセスにおける信頼性及び効率を向上させる。
本出願の実施例によれば、本出願は電子機器及び読み取り可能な記憶媒体をさらに提供する。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される対話意図の認識方法を実行させる。
図18に示すように、本出願の実施例の対話意図の認識による電子機器のブロック図である。電子機器は、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルディジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ及び他の適切なコンピュータなど、様々な形態のデジタルコンピュータを表すことを意図する。電子機器はさらに、例えば、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス及び他の同様のコンピューティング装置など、様々な形態の移動体装置を表すことができる。本明細書に示されるコンポーネント、それらの接続及び関係、並びにそれらの機能は、単なる例であり、本明細書に記載及び/又は請求される本出願の実施を限定することを意図しない。
図18に示すように、この電子機器は、1つ又は複数のプロセッサ1810と、メモリ1820と、各コンポーネントを接続するためのインタフェースであって、高速インタフェースと低速インタフェースを備えるものとを備える。各コンポーネントは異なるバスによって相互接続され、共通のマザーボード上に実装されてもよく、又は必要に応じて他の方式で実装されてもよい。プロセッサは、電子機器内で実行される、GUIのグラフィックス情報を外部入力/出力装置(例えば、インタフェースに結合された表示機器)上に表示させるようにメモリ内又はメモリ上に記憶された命令を含む命令を処理することができる。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリとともに使用することができる。また、それぞれの機器が必要な操作の一部を提供する(例えば、サーバアレイ、ブレードサーバ群、又はマルチプロセッサシステムとする)複数の電子機器を接続することができる。図18において、1つのプロセッサ1810を例とする。
メモリ1820は、本出願にて提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリは、少なくとも1つのプロセッサが本出願にて提供される対話意図の認識方法を実行するように、前記少なくとも1つのプロセッサによって実行可能な命令を記憶している。本出願の非一時的なコンピュータ読み取り可能な記憶媒体は、本出願にて提供される対話意図の認識方法をコンピュータに実行させるためのコンピュータ命令を記憶する。
非一時的なコンピュータ読み取り可能な記憶媒体として、メモリ1820は、例えば本出願の実施例における対話意図の認識方法に対応するプログラム命令/モジュール(例えば、図16に示す第1の取得モジュール1610及び生成モジュール1620)のような非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するために用いることができる。プロセッサ1810は、メモリ1820に記憶された非一時的なソフトウェアプログラム、命令及びモジュールを実行することにより、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施例における対話意図の認識方法を実現する。
メモリ1820は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶可能なプログラム記憶領域と、測位電子機器の利用に応じて作成されるデータなどを記憶可能なデータ記憶領域とを含むことができる。さらに、メモリ1820は、高速ランダムアクセスメモリを備えることができ、さらに、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュメモリ、又は他の非一時的なソリッドステート記憶装置のような非一時的なメモリを備えることができる。いくつかの実施例では、メモリ1820は、任意選択的に、プロセッサ1810に対して遠隔に設置されるメモリを備え、これらの遠隔メモリはネットワークを介して測位電子機器に接続することができる。上記ネットワークの例はインターネット、企業イントラネット、ローカルエリアネットワーク、移動体通信ネットワーク及びこれらの組み合わせを含むが、これらに限定されない。
対話意図の認識の電子機器は、さらに、入力装置1830と出力装置1840を備えることができる。プロセッサ1810とメモリ1820と入力装置1830と出力装置1840はバス又は他の方式により接続することができ、図18においてバスにより接続することを例とする。
入力装置1830は入力された数字又は文字情報を受信し、測位電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成することができ、例えばタッチパネル、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置が挙げられる。出力装置1840は、表示機器、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)などを備えることができる。この表示機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを備えるが、これらに限定されない。いくつかの実施形態では、表示機器はタッチパネルであってもよい。
ここで説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラム内で実施されることを含むことができ、この1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラマブルシステム上で実行及び/又は解釈することができ、このプログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、この記憶システム、この少なくとも1つの入力装置、及びこの少なくとも1つの出力装置にデータ及び命令を送信することができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高度プロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械語でこれらのコンピュータプログラムを実行することができる。本明細書で使用される「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、プログラマブルプロセッサに機械命令及び/又はデータを提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジック装置(PLD))を指し、機械読み取り可能な信号としての機械命令を受信する機械読み取り可能な媒体を含む。用語の「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されるシステム及び技術をコンピュータ上で実施することができ、このコンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)やLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)であって、ユーザがこのキーボード及びこのポインティングデバイスによりコンピュータに入力を提供可能なものと、を有する。他の種類の装置は、ユーザとのインタラクションを提供するために用いることもでき、例えば、ユーザに提供されるフィードバックは、任意の形態の感知フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、また、任意の形態(音響入力、音声入力、又は触覚入力を含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、このグラフィカルユーザインタフェース又はこのウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションできる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントとの任意のグループみ合わせを備えるコンピューティングシステムで実施される。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークとを含む。
コンピュータシステムは、クライアントとサーバとを備えることができる。クライアントとサーバは、一般的に、互いに離れており、通常、通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、且つ互いにクライアント−サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバ側はクラウドサーバであってもよく、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおけるホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」、又は略称「VPS」)において存在する、管理の難易度が高く、業務拡張性が低いという欠点を解決するためのものである。サーバは分散システムのサーバ、又はブロックチェーンと結び付けたサーバであってもよい。
本出願は、コンピュータプログラム製品であって、前記コンピュータプログラム製品におけるプロセッサが実行すると、以上説明したような対話意図の認識方法を実現するコンピュータプログラム製品をさらに提供する。
本出願の実施例による対話意図の認識方法は、意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得し、サンプル文及びサポート文を事前トレーニング済みの意図認識モデルに入力し、意図認識モデルはサンプル文及びサポート文に基づいてサンプル文に対応するサンプル文ベクトル及びサポート文に対応するカテゴリベクトルを生成し、サンプル文ベクトルとカテゴリベクトルとの間のマッチング度を計算し、さらに、複数のマッチング度に基づいてサンプル文の予測意図カテゴリを取得する。これにより、本出願は少数ショット学習技術と組み合わせて、意図認識モデルのサポート文の規模に対する依存度を低減させ、少量の意図カテゴリがタグ付けされたサポート文による過剰適合現象を回避し、対話における意図認識結果の正確率を確保し、対話意図の認識を高速に行う能力を向上させ、対話意図の認識プロセスにおける信頼性及び効率を向上させる。
以上に示される様々な形態のフローを使用して、ステップを新たに順序付け、追加、又は削除することが可能であることを理解すべきである。例えば、本出願に記載されている各ステップは、並列に実行してもよいし、順次実行してもよいし、異なる順序で実行してもよいが、本出願に開示されている技術案が所望する結果を実現することができる限り、本明細書ではこれに限定されない。
上記の具体的な実施形態は、本出願の保護範囲を限定するものではない。当業者であれば、設計要件と他の要因によって、様々な修正、グループみ合わせ、サブコンビネーション、及び代替を行うことができることを理解すべきである。本出願の精神及び原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (26)

  1. 意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得するステップと、
    前記サンプル文及び前記サポート文を事前トレーニング済みの意図認識モデルに入力し、前記意図認識モデルが前記サンプル文及び前記サポート文に基づいて前記サンプル文に対応するサンプル文ベクトル及び前記サポート文に対応するカテゴリベクトルを生成し、前記サンプル文ベクトルと前記カテゴリベクトルとのマッチング度を計算し、複数の前記マッチング度に基づいて、前記サンプル文の予測意図カテゴリを取得するステップと、
    を含む、対話意図の認識方法。
  2. 前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するカテゴリベクトルを生成するステップが、
    前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するサポート文ベクトルを生成するステップと、
    前記サポート文ベクトルに基づいて、前記サポート文に対応する前記カテゴリベクトルを生成するステップと、
    を含む請求項1に記載の認識方法。
  3. 前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するサポート文ベクトルを生成するステップが、
    前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するステップと、
    前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するステップと、
    前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するステップと、
    前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するステップと、
    前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サンプル文に対応する出力ベクトル系列を生成するステップと、
    前記サポート文に対応する出力ベクトル系列に基づいて、前記サポート文ベクトルを生成するステップと、
    を含む請求項2に記載の認識方法。
  4. 前記サンプル文及び前記サポート文に基づいて、前記サンプル文に対応するサンプル文ベクトルを生成するステップが、
    前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するステップと、
    前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するステップと、
    前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するステップと、
    前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するステップと、
    前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サンプル文に対応する出力ベクトル系列を生成するステップと、
    前記サンプル文に対応する出力ベクトル系列に基づいて、前記サンプル文ベクトルを生成するステップと、
    を含む請求項1に記載の認識方法。
  5. 前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するステップが、
    前記サンプル文に対して単語分割処理を行って、複数の前記サンプル単語を取得するステップと、
    前記サンプル単語に対して品詞タグ付けを行って、サンプル単語の品詞を取得するステップと、
    前記サンプル単語に対して名前付きエンティティ認識を行って、サンプル単語の名前付きエンティティを取得するステップと、
    前記サンプル単語、前記サンプル単語の品詞及び前記サンプル単語の名前付きエンティティに基づいて、前記サンプル文に対応する前記サンプル単語ベクトル系列を生成するステップと、
    を含む請求項3又は4に記載の認識方法。
  6. 前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するステップが、
    前記サポート文に対して単語分割処理を行って、複数の前記サポート単語を取得するステップと、
    前記サポート単語に対して品詞タグ付けを行って、サポート単語の品詞を取得するステップと、
    前記サポート単語に対して名前付きエンティティ認識を行って、サポート単語の名前付きエンティティを取得するステップと、
    前記サポート単語、前記サポート単語の品詞及び前記サポート単語の名前付きエンティティに基づいて、前記サポート文に対応する前記サポート単語ベクトル系列を生成するステップと、
    を含む請求項3又は4に記載の認識方法。
  7. 前記サンプル文に対応する出力ベクトル系列に基づいて、前記サンプル文ベクトルを生成するステップが、
    コーパスにおける前記サンプル文の前記サンプル単語の出現頻度及びサンプル逆文書頻度を取得するステップと、
    前記サンプル単語の出現頻度及び前記サンプル逆文書頻度に基づいて、前記サンプル単語に対応する出力ベクトルの重みを生成するステップと、
    前記サンプル文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サンプル文ベクトルを生成するステップと、
    を含む請求項4に記載の認識方法。
  8. 前記サポート文に対応する出力ベクトル系列に基づいて、前記サポート文ベクトルを生成するステップが、
    コーパスにおける前記サポート文の前記サポート単語の出現頻度及びサポート逆文書頻度を取得するステップと、
    前記サポート単語の出現頻度及び前記サポート逆文書頻度に基づいて、前記サポート単語に対応する出力ベクトルの重みを生成するステップと、
    前記サポート文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サポート文ベクトルを生成するステップと、
    を含む請求項3に記載の認識方法。
  9. 前記サポート文ベクトルに基づいて、前記サポート文に対応する前記カテゴリベクトルを生成するステップが、
    同一のタグ付け意図カテゴリの前記サポート文ベクトルを取得するステップと、
    同一のタグ付け意図カテゴリの前記サポート文ベクトルに基づいて、このタグ付け意図カテゴリに対応する前記カテゴリベクトルを生成するステップと、
    を含む請求項2に記載の認識方法。
  10. 前記複数の前記マッチング度に基づいて、前記サンプル文の予測意図カテゴリを取得するステップが、
    複数の前記マッチング度のうち最も高いマッチング度に対応する前記カテゴリベクトルのタグ付け意図カテゴリを、前記サンプル文の予測意図カテゴリとして決定するステップを含む請求項1に記載の認識方法。
  11. 意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップと、
    前記第1のトレーニング文及び前記第2のトレーニング文をトレーニング対象の意図認識モデルに入力して、前記第1のトレーニング文に対応する予測意図カテゴリを取得するステップと、
    前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差が予め設定されたトレーニング終了条件に合致するまで、前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差に基づいて、前記トレーニング対象の意図認識モデルのモデルパラメータを調整し、前記意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップに戻り、最終回のモデルパラメータが調整された前記トレーニング対象の意図認識モデルを前記トレーニング済みの意図認識モデルとして決定するステップと、
    を含む請求項1に記載の認識方法。
  12. 意図カテゴリ予測対象のサンプル文及び複数の意図カテゴリがタグ付けされたサポート文を取得するための第1の取得モジュールと、
    前記サンプル文及び前記サポート文を事前トレーニング済みの意図認識モデルに入力し、前記意図認識モデルが前記サンプル文及び前記サポート文に基づいて前記サンプル文に対応するサンプル文ベクトル及び前記サポート文に対応するカテゴリベクトルを生成し、前記サンプル文ベクトルと前記カテゴリベクトルとのマッチング度を計算し、複数の前記マッチング度に基づいて、前記サンプル文の予測意図カテゴリを取得するための生成モジュールと、
    を備える、対話意図の認識装置。
  13. 前記生成モジュールが、
    前記サンプル文及び前記サポート文に基づいて、前記サポート文に対応するサポート文ベクトルを生成するための第1の生成サブモジュールと、
    前記サポート文ベクトルに基づいて、前記サポート文に対応する前記カテゴリベクトルを生成するための第2の生成サブモジュールと、
    を備える請求項12に記載の認識装置。
  14. 前記第1の生成サブモジュールが、
    前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するための第1の生成ユニットと、
    前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するための第2の生成ユニットと、
    前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するための第1の入力ユニットと、
    前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するための第2の入力ユニットと、
    前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サポート文に対応する出力ベクトル系列を生成するための第3の生成ユニットと、
    前記サポート文に対応する出力ベクトル系列に基づいて、前記サポート文ベクトルを生成するための第1の出力ユニットと、
    を備える請求項13に記載の認識装置。
  15. 前記生成モジュールが、第3の生成サブモジュールを備え、
    前記第3の生成サブモジュールが、
    前記サンプル文に基づいて、対応するサンプル単語ベクトル系列を生成するための第4の生成ユニットと、
    前記サポート文に基づいて、対応するサポート単語ベクトル系列を生成するための第5の生成ユニットと、
    前記サンプル単語ベクトル系列を再帰型ニューラルネットワークによる時系列モデルに入力して、前記サンプル文のサンプル単語の出力隠れ状態を取得するための第3の入力ユニットと、
    前記サポート単語ベクトル系列を前記再帰型ニューラルネットワークによる時系列モデルに入力して、前記サポート文のサポート単語の出力隠れ状態を取得するための第4の入力ユニットと、
    前記サンプル単語の出力隠れ状態及び前記サポート単語の出力隠れ状態に基づいて、前記サンプル文に対応する出力ベクトル系列を生成するための第6の生成ユニットと、
    前記サンプル文に対応する出力ベクトル系列に基づいて、前記サンプル文ベクトルを生成するための第2の出力ユニットと、
    を備える請求項12に記載の認識装置。
  16. 前記第1の生成ユニット及び前記第4の生成ユニットが、
    前記サンプル文に対して単語分割処理を行って、複数の前記サンプル単語を取得し、
    前記サンプル単語に対して品詞タグ付けを行って、サンプル単語の品詞を取得し、
    前記サンプル単語に対して名前付きエンティティ認識を行って、サンプル単語の名前付きエンティティを取得し、
    前記サンプル単語、前記サンプル単語の品詞及び前記サンプル単語の名前付きエンティティに基づいて、前記サンプル文に対応する前記サンプル単語ベクトル系列を生成する請求項14又は15に記載の認識装置。
  17. 前記第2の生成ユニット及び前記第5の生成ユニットが、
    前記サポート文に対して単語分割処理を行って、複数の前記サポート単語を取得し、
    前記サポート単語に対して品詞タグ付けを行って、サポート単語の品詞を取得し、
    前記サポート単語に対して名前付きエンティティ認識を行って、サポート単語の名前付きエンティティを取得し、
    前記サポート単語、前記サポート単語の品詞及び前記サポート単語の名前付きエンティティに基づいて、前記サポート文に対応する前記サポート単語ベクトル系列を生成する請求項14又は15に記載の認識装置。
  18. 前記第2の出力ユニットが、
    コーパスにおける前記サンプル文の前記サンプル単語のサンプル単語の出現頻度及びサンプル逆文書頻度を取得し、
    前記サンプル単語の出現頻度及び前記サンプル逆文書頻度に基づいて、前記サンプル単語に対応する出力ベクトルの重みを生成し、
    前記サンプル文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サンプル文ベクトルを生成する請求項15に記載の認識装置。
  19. 前記第1の出力ユニットが、
    コーパスにおける前記サポート文の前記サポート単語のサポート単語の出現頻度及びサポート逆文書頻度を取得し、
    前記サポート単語の出現頻度及び前記サポート逆文書頻度に基づいて、前記サポート単語に対応する出力ベクトルの重みを生成し、
    前記サポート文に対応する出力ベクトル系列内の出力ベクトル及び対応する重みに基づいて、前記サポート文ベクトルを生成する請求項15に記載の認識装置。
  20. 前記第2の生成ユニットが、
    同一のタグ付け意図カテゴリの前記サポート文ベクトルを取得するための第1の取得サブユニットと、
    同一のタグ付け意図カテゴリの前記サポート文ベクトルに基づいて、このタグ付け意図カテゴリに対応する前記カテゴリベクトルを生成するための第1の生成サブユニットと、
    を備える請求項14に記載の認識装置。
  21. 前記生成モジュールが、
    複数の前記マッチング度のうち最も高いマッチング度に対応する前記カテゴリベクトルのタグ付け意図カテゴリを、前記サンプル文の予測意図カテゴリとして決定するための決定サブモジュールを備える請求項12に記載の認識装置。
  22. 意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するための第2の取得モジュールと、
    前記第1のトレーニング文及び前記第2のトレーニング文をトレーニング対象の意図認識モデルに入力して、前記第1のトレーニング文に対応する予測意図カテゴリを取得するための入力モジュールと、
    前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差が予め設定されたトレーニング終了条件に合致するまで、前記第1のトレーニング文に対応する予測意図カテゴリと前記第1のトレーニング文に対応するタグ付け意図カテゴリとの差に基づいて、前記トレーニング対象の意図認識モデルのモデルパラメータを調整し、前記意図カテゴリがタグ付けされた第1のトレーニング文及び複数の第2のトレーニング文を取得するステップに戻り、最終回のモデルパラメータが調整された前記トレーニング対象の意図認識モデルを前記トレーニング済みの意図認識モデルとして決定するための決定モジュールと、
    を備える請求項12に記載の認識装置。
  23. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から11のいずれか一項に記載の対話意図の認識方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  24. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から11のいずれか一項に記載の対話意図の認識方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。
  25. コンピュータプログラムを備えるコンピュータプログラム製品であって、
    前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から11のいずれか一項に記載の方法のステップが実現されるコンピュータプログラム製品。
  26. コンピュータに請求項1〜11のいずれか一項に記載の対話意図の認識方法を実行させるコンピュータプログラム。
JP2021145446A 2020-12-09 2021-09-07 対話意図の認識方法及び装置、電子機器並びに記憶媒体 Active JP7309798B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011449389.XA CN112560505A (zh) 2020-12-09 2020-12-09 一种对话意图的识别方法、装置、电子设备及存储介质
CN202011449389.X 2020-12-09

Publications (2)

Publication Number Publication Date
JP2022003537A true JP2022003537A (ja) 2022-01-11
JP7309798B2 JP7309798B2 (ja) 2023-07-18

Family

ID=75061591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021145446A Active JP7309798B2 (ja) 2020-12-09 2021-09-07 対話意図の認識方法及び装置、電子機器並びに記憶媒体

Country Status (3)

Country Link
US (1) US20220044081A1 (ja)
JP (1) JP7309798B2 (ja)
CN (1) CN112560505A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115906835A (zh) * 2022-11-23 2023-04-04 之江实验室 一种基于聚类和对比学习的中文问句文本表示学习的方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112989003B (zh) * 2021-04-01 2023-04-18 网易(杭州)网络有限公司 意图识别方法、装置、处理设备及介质
CN113723111B (zh) * 2021-09-04 2023-11-14 中国科学院新疆理化技术研究所 一种小样本意图识别方法、装置、设备及存储介质
CN114676689A (zh) * 2022-03-09 2022-06-28 青岛海尔科技有限公司 语句文本的识别方法和装置、存储介质及电子装置
CN117151107A (zh) * 2022-05-24 2023-12-01 中国电信股份有限公司 一种意图识别方法、装置、存储介质和电子设备
CN116542256B (zh) * 2023-07-05 2024-02-06 广东数业智能科技有限公司 一种融合对话上下文信息的自然语言理解方法与装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018528458A (ja) * 2015-12-04 2018-09-27 三菱電機株式会社 発話を処理する方法
JP2019204268A (ja) * 2018-05-23 2019-11-28 株式会社日立製作所 ニューラルネットワークを用いた情報処理方法、システムおよびその構築システム
US20200097563A1 (en) * 2018-09-21 2020-03-26 Salesforce.Com, Inc. Intent classification system
JP2020521210A (ja) * 2017-10-31 2020-07-16 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法及び端末、コンピュータ記憶媒体
JP2020123331A (ja) * 2019-01-29 2020-08-13 株式会社リコー 意図識別方法、装置、及びコンピュータ読み取り可能な記憶媒体
JP2020187282A (ja) * 2019-05-16 2020-11-19 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100174539A1 (en) * 2009-01-06 2010-07-08 Qualcomm Incorporated Method and apparatus for vector quantization codebook search
CN107562816B (zh) * 2017-08-16 2021-02-09 苏州狗尾草智能科技有限公司 用户意图自动识别方法及装置
CN108628974B (zh) * 2018-04-25 2023-04-18 平安科技(深圳)有限公司 舆情信息分类方法、装置、计算机设备和存储介质
CN111767737A (zh) * 2019-05-30 2020-10-13 北京京东尚科信息技术有限公司 文本意图相似度确定方法、装置、电子设备和存储介质
KR20190098928A (ko) * 2019-08-05 2019-08-23 엘지전자 주식회사 음성 인식 방법 및 장치
CN111178537B (zh) * 2019-12-09 2023-11-17 华为云计算技术有限公司 一种特征提取模型训练方法及设备
CN111860580B (zh) * 2020-06-09 2024-02-20 北京百度网讯科技有限公司 识别模型获取及类别识别方法、装置及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018528458A (ja) * 2015-12-04 2018-09-27 三菱電機株式会社 発話を処理する方法
JP2020521210A (ja) * 2017-10-31 2020-07-16 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法及び端末、コンピュータ記憶媒体
JP2019204268A (ja) * 2018-05-23 2019-11-28 株式会社日立製作所 ニューラルネットワークを用いた情報処理方法、システムおよびその構築システム
US20200097563A1 (en) * 2018-09-21 2020-03-26 Salesforce.Com, Inc. Intent classification system
JP2020123331A (ja) * 2019-01-29 2020-08-13 株式会社リコー 意図識別方法、装置、及びコンピュータ読み取り可能な記憶媒体
JP2020187282A (ja) * 2019-05-16 2020-11-19 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115906835A (zh) * 2022-11-23 2023-04-04 之江实验室 一种基于聚类和对比学习的中文问句文本表示学习的方法
CN115906835B (zh) * 2022-11-23 2024-02-20 之江实验室 一种基于聚类和对比学习的中文问句文本表示学习的方法

Also Published As

Publication number Publication date
JP7309798B2 (ja) 2023-07-18
CN112560505A (zh) 2021-03-26
US20220044081A1 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
JP7309798B2 (ja) 対話意図の認識方法及び装置、電子機器並びに記憶媒体
JP7283009B2 (ja) 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体
US20220004714A1 (en) Event extraction method and apparatus, and storage medium
CN112560479B (zh) 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备
JP7264866B2 (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
CN111143576A (zh) 一种面向事件的动态知识图谱构建方法和装置
KR20210040851A (ko) 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체
KR102565673B1 (ko) 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체
JP7108675B2 (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN112507715A (zh) 确定实体之间关联关系的方法、装置、设备和存储介质
KR20210040319A (ko) 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
KR101754473B1 (ko) 문서를 이미지 기반 컨텐츠로 요약하여 제공하는 방법 및 시스템
CN111259671B (zh) 文本实体的语义描述处理方法、装置及设备
CN111931500B (zh) 搜索信息的处理方法、装置
CN111326251B (zh) 一种问诊问题输出方法、装置以及电子设备
CN111274397B (zh) 建立实体关系检测模型的方法以及装置
US11321370B2 (en) Method for generating question answering robot and computer device
JP7295200B2 (ja) 汎化処理方法、装置、デバイス、コンピュータ記憶媒体及びプログラム
CN112507101A (zh) 一种建立预训练语言模型的方法和装置
RU2712101C2 (ru) Предсказание вероятности появления строки с использованием последовательности векторов
JP2021192289A (ja) 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体
US20230306205A1 (en) System and method for personalized conversational agents travelling through space and time
JP2022028897A (ja) 文章翻訳方法、装置、電子機器及び記憶媒体
WO2022228127A1 (zh) 要素文本处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7309798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150