JP7370033B2 - セマンティック認識方法 - Google Patents

セマンティック認識方法 Download PDF

Info

Publication number
JP7370033B2
JP7370033B2 JP2022512826A JP2022512826A JP7370033B2 JP 7370033 B2 JP7370033 B2 JP 7370033B2 JP 2022512826 A JP2022512826 A JP 2022512826A JP 2022512826 A JP2022512826 A JP 2022512826A JP 7370033 B2 JP7370033 B2 JP 7370033B2
Authority
JP
Japan
Prior art keywords
intention
semantic
text
model
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022512826A
Other languages
English (en)
Other versions
JP2023522502A (ja
Inventor
暉 張
吉媛 李
海涛 趙
雁飛 孫
洪波 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Publication of JP2023522502A publication Critical patent/JP2023522502A/ja
Application granted granted Critical
Publication of JP7370033B2 publication Critical patent/JP7370033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本願は、自然言語処理の分野に関し、特に、マンマシン対話システムにおける自然言語のセマンティック解析方法に関する。
本願は2021年3月26日に中国特許庁に提出され、出願番号が202110325369Xであり、出願の名称が「クラスタ事前解析に基づく多意図・セマンティックスロット複合認識方法」である中国特許出願の優先権を主張しており、そのすべての内容は引用によって本願に組み込まれている。
人工知能の急速な発展に伴い、多くの応用シーンにおけるデバイスの知能性に対する要求はますます増加している。知能性の要求を満たすためには、良好なヒューマンコンピュータインタラクションが不可欠である。現在、ヒューマンコンピュータインタラクションの方式は多様化しているが、その中で最も便利な方式は自然言語を使用することに越したことはない。そのため、自然言語を利用したヒューマンコンピュータインタラクションを実現する要望もますます高まっている。これにより、マンマシン対話システムは学術界と産業界から広く注目され、非常に広範な応用シーンを有する。
マンマシン対話システムの実現には自然言語のセマンティック解析技術が不可欠である。セマンティック解析の良し悪しは、ヒューマンコンピュータインタラクションの効果に直接影響する。自然言語の複雑性、抽象性や言葉の多義性などにより、自然言語のセマンティック解析が難しくなっている。現在、セマンティック解析は意図認識とセマンティックスロットフィリングとの2つの基本的なサブタスクに分けられている。この2つのサブタスクに対して、従来の研究方法は、この2つのタスクを独立した2つの問題として解決し、その後2つのタスクの結果を結合することである。
本願の各例示的な実施例は、
現在のユーザが入力した意図テキストをリアルタイムで取得し、BERTモデルを用いて前記意図テキストをベクトル化して意図テキストベクトルを得るステップS101と、
クラスタ事前解析に基づいて多意図認識モデルを構築し、前記意図テキストベクトルから前記ユーザの複数の意図を認識するステップS102と、
Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、認識された前記複数の意図を用いて前記セマンティックスロットフィリングモデルのセマンティックスロットをフィリングするステップS103と、
前記BERTモデル、前記多意図認識モデル及び前記セマンティックスロットフィリングモデルからなる複合モデルに対して最適化訓練を行い、最適化訓練済みの複合モデルを用いて前記複合モデルに入力されたテキストを認識するステップS104とを含むセマンティック認識方法を提供する。
一実施例では、前記クラスタ事前解析に基づいて前記多意図認識モデルを構築し、前記ユーザの複数の意図を認識する前記ステップは、
K-meansクラスタリングアルゴリズムを用いて、入力された前記意図テキストベクトルを単一意図カテゴリの意図テキストベクトルと多意図カテゴリの意図テキストベクトルとに分ける第1段階と、
前記単一意図カテゴリの意図テキストベクトルを、前記複数の意図を認識するためにsoftmax分類器によって分類し、前記複数の意図の意図テキストベクトルを、前記複数の意図を認識するためにsigmoid分類器によって分類する第2段階とを含む。
一実施例では、前記K-meansクラスタリングアルゴリズムにおける距離関数は、以下の通りであり、
Figure 0007370033000001
一実施例では、ステップS104における前記複合モデルの最適化訓練は、
訓練テキストを用いて前記BERTモデル及び前記多意図認識モデルを訓練し、前記BERTモデル及び前記多意図認識モデルのパラメータを更新するステップ(1)と、
(1)における前記多意図認識モデルの出力をSlot-Gatedに伝送し、(1)で更新されたBERTモデルとセマンティックスロットフィリングモデルを(1)と同じ訓練テキストを用いて訓練し、BERTモデル及びセマンティックスロットフィリングモデルのパラメータを更新するステップ(2)と、
訓練目標を達成するまで(1)と(2)を反復実行するステップ(3)とを含む。
一実施例では、前記多意図認識モデルの
Figure 0007370033000002
ここで、kは意図テキストのカテゴリを表し、前記意図テキストが複数の意図を含む場合にkは1であり、意図テキストが単一意図である場合にkは0であり、
Figure 0007370033000003
Tは訓練テキストの数である。
一実施例では、前記セマンティックスロットフィリングモデルの
Figure 0007370033000004
Tは訓練テキスト数であり、Mは訓練テキストシーケンス長を表す。
本願で採用された以上の技術案は、従来技術と比較して、以下の技術的効果を有する。
本願では、意図認識とセマンティックスロットフィリングとの関連性を十分に考慮して、複合認識モデルを構築し、2つのセマンティック解析サブタスクを1つのタスクに統合し、BERTの基礎となるセマンティック特徴を共有する。次に、Slot-Gated関連付けゲートを用いて意図-セマンティックスロット複合特徴ベクトルを生成し、これをセマンティックスロットフィリングタスクに用いる。セマンティックスロットフィリングのタスクでは、BiLSTMを用いてテキストの語順特徴をキャプチャし、文脈セマンティック情報を取得し、CRFをデコーダとして、ラベル前後の依存関係を考慮することで、セマンティックスロットラベル付けをより合理的にする。さらに、複合モデル全体の性能を向上させるために、多意図認識過程において、ユーザの入力意図の不確実性に対して、意図の数を判断するためにクラスタ事前解析に基づくアルゴリズムを提案している。このアルゴリズムでは、従来のセマンティック類似度の測定方法を改良して、新しい測定方式を提案し、新しい測定方式は意図テキスト間の類似度をより効果的に測定し、意図数の判断の正確度を高め、アルゴリズムのロバスト性を向上させることができる。セマンティック解析の能力を高めるために、意図セマンティック情報を十分に利用してセマンティックスロットフィリングを指導し、反復の思想に基づいて、段階的反復訓練方式を提案し、意図とセマンティックスロットとの相互関係を十分に利用することができ、セマンティックスロットフィリングの正確性を高めると同時に、多意図認識モデルの正確性を高め、それによってセマンティック解析の効果を高める。
本願の目的、技術案及び技術的効果をより明確にするために、本願は以下の図面を提供して説明する。
本願の一実施例の複合モデリング方法の全体的な構造のブロック図である。 本願の一実施例のクラスタ事前解析に基づく多意図認識のフローチャートである。 本願の一実施例のセマンティックスロット認識モデルの構造図である。 本願の一実施例の複合認識モデルの段階的反復訓練方式の模式図である。
本願の目的、技術案及び利点をより明確かつ明瞭にするために、以下、図面及び実施例を参照して、本願についてさらに詳細に説明する。なお、本明細書に記載された特定の実施例は、本願を解釈するためのものに過ぎず、本願を限定するものではない。
以上のように、従来の研究方法は、意図認識とセマンティックスロットフィリングとの2つのタスクを独立した2つの問題として解決し、その後、2つのタスクの結果を結合することである。
しかし、本発明者らは、意図認識がユーザニーズのタイプに対する判断であり、セマンティックスロットフィリングがユーザニーズを具体化することであることを発見した。したがって、ユーザの意図と認識対象のスロットビットとは強く相関しており、意図認識の目的はセマンティックスロットフィリングをより良く行うことである。一方、従来の単独モデリング方法では、2つのタスク間の関連性を十分に考慮していないため、セマンティック情報を有効に利用することができなかった。さらに、マンマシン対話システムでは、ユーザが入力する意図テキストには1つの意図だけが含まれるのではない可能性があり、複数の意図が現れる可能性もあるという多意図認識の問題に直面する場合が多い。現在、意図認識問題の研究は主に単一意図の認識に集中しているが、多意図認識は単一意図認識に比べて認識がより複雑であるだけでなく、セマンティック理解の程度がより高く要求される。
したがって、本発明者らは、マンマシン対話システムにおけるセマンティック解析の問題に対して、従来技術に基づいて多意図認識とセマンティックスロットフィリングを効果的に解決する複合モデリング方法をどのように提案するかが、当業者が早急に解決すべき問題の1つであることを発見した。
図1に示すように、本願の一実施例は、クラスタ事前解析に基づく多意図・セマンティックスロット複合認識方法を開示し、ステップS101~ステップS104を含む。
ステップS101において、現在のユーザが入力した多意図テキストをリアルタイムで取得して、前処理を行う。
ステップS102において、クラスタ事前解析に基づいてユーザの複数の意図を認識するために多意図認識モデルを構築する。
ステップS103において、Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、意図認識の結果を十分に利用してセマンティックスロットフィリングを指導する。
ステップS104において、構築された多意図認識・マンティックスロットフィリング複合モデルを最適化する。
ここで、現在のユーザが入力した多意図テキストを前処理することは、ニューラルネットワークモデルに入力してセマンティック特徴抽出を行いやすくするために、多意図テキストをベクトル化することである。本願の実施例のベクトル化方法は、まず、同分野の大量テキスト(例えば、中国語、英語や他の様々な言語テキスト)教師なしデータを用いてBERT(Bidirectional Encoder Representations from Transformer)モデルを訓練することである。次に、得られたBERT事前訓練モデルを用いて多意図テキストをベクトル化することである。
上記ステップS102におけるクラスタ事前解析に基づく多意図認識モデルの構築の目的は、セマンティックスロットフィリングに用いることである。多意図認識の正否はセマンティックスロットフィリングに直接影響する。
多意図認識の精度を向上させるために、ユーザが入力した意図の不確実性に対して、本願の実施例では、意図認識に先立って意図テキストを解析して、意図が単一意図であるか多意図であるかを判断するクラスタ事前解析に基づく方法を提案する。図2に示すように、クラスタ事前解析方法に基づく意図認識には以下のステップが含まれる。
意図認識全体は2つの段階に分けられる。
まず、第1段階では、K-meansクラスタリングアルゴリズムを用いて入力された意図テキストのカテゴリを判断する。
一般には、意図は主に単一意図と多意図の2種類に分けられるので、K-meansクラスタリングアルゴリズムのクラスタリング中心Kは2つである。
第2段階では、入力された意図テキストを、判断された意図の個数に応じてそれぞれ分類する。
意図テキストに複数の意図が含まれていると判断された場合、多意図分類器を用いて分類を行う。すなわち、BERT事前訓練モデルの後に完全接続層が追加される。完全接続層の各ノードは、1つ上の層のすべてのノードに接続されて、先に抽出されたセマンティック特徴を融合する。次に、BERTモデルが出力した意図テキストベクトルを、sigmoid分類器に入力し、分類器によってラベルごとに二次分類を行い、複数の意図ラベルを出力する。ラベル予測の計算式は以下のとおりである。
Figure 0007370033000005
ここで、yは予測確率、Wは意図認識の重み、Cは意図テキストベクトル、bは意図認識のバイアスである。
意図テキストが単一意図であると判断された場合、softmax分類器を用いて、BERT出力の最初のフラグが([CLS])である文ベクトルCを分類器に直接入力して分類し、予測される意図ラベルが次の式により得られる。
Figure 0007370033000006
ここで、yは予測確率、Wは意図認識の重み、Cは意図テキストベクトル、bは意図認識のバイアスである。
K-meansクラスタリングアルゴリズムを用いて多意図テキストを事前解析する過程では、意図テキスト間のセマンティックの類似度を判断する必要がある。セマンティックの類似度の測定は、クラスタリングの結果の正確性に極めて重要である。テキストのセマンティックの類似度の測定では、コサイン類似度を計算するのが一般的な方法である。余弦類似度は、空間内の2つのベクトル間の差異を表すことができる。しかし、コサイン類似度は絶対値に敏感ではなく、同一方向での差異を測定することはできない。一方、ユークリッド距離(Euclidean Metric)は類似度を計算する際、絶対的な数値に敏感であり、同じ方向での差異をよく測定することができる。したがって、本願では、コサイン類似度とユークリッド距離に基づいて、両者の特徴を組み合わせて、次に示すような新しい測定方法を提案する。
Figure 0007370033000007
データオブジェクト間の類似度が小さいことを示す。この方法を使用すると、テキスト間の類似度をよりよく測定することができる。
上記ステップS103におけるフィリング過程では、Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、意図認識の結果を十分に利用してセマンティックスロットフィリングを指導する。
図3には、意図認識タスクをセマンティックスロットフィリングタスクに関連付けることができるSlot-Gated関連付けゲート機構が示されている。すなわち、意図認識の意図ベクトルとセマンティックスロットフィリングのための意図テキストベクトルとを重み付け加算する。次に、関数tanhを活性化することにより、意図‐セマンティックスロット複合特徴ベクトルgを得る。意図‐セマンティックスロット複合特徴ベクトルgの計算方法は、次のとおりである。
Figure 0007370033000008
v及びWはそれぞれ訓練可能なベクトルと行列である。
意図-セマンティックスロット複合特徴ベクトルgを算出した後、意図-セマンティックスロット複合特徴ベクトルgを、BiLSTM(Bi-directional Long Short-Term Memory)ニューラルネットワークに入力することにより、テキストの語順特徴を抽出し、深いレベルの文脈セマンティック情報をキャプチャする。次に、BiLSTMネットワークの後ろに線形層(Linear Layer)を追加し、ニューラルネットワークの出力ベクトルの次元をマッピングし、セマンティックスロット復号に用いる。最後にCRF(Conditional Random Field)復号層を復号ユニットとして、シーケンス中の各語に対応するスロットラベルを出力する。計算方法は次のとおりである。
Figure 0007370033000009
隠された状態のベクトルである。図3においてB-timeはtimeスロットラベルの開始マーク、I-timeはtimeスロットラベルの後続マークである。
上記のステップS104では、構築された多意図認識・セマンティックスロットフィリング複合モデルを最適化する。
図4に示すように、複合認識モデルの性能は2つのサブタスクによって共同で決定される。多意図認識とセマンティックスロットフィリングの複合確率は以下のように示す。
Figure 0007370033000010
図4に示す複合モデル訓練では、訓練の目標は多意図認識とセマンティックスロットフィリングを出力する複合確率を最大化することである。セマンティック解析の能力を向上させるために、セマンティックスロットフィリングに意図セマンティック情報を十分に利用して、複合認識モデルを最適化する。モデル訓練の際に、従来の複数のタスク損失関数を単純に加算するような方式を変更する。反復の思想に基づいて、多意図認識とセマンティックスロットフィリングを複合する段階的反復訓練方式を提案している。図4に示すように、まず、訓練データを複合認識モデルに入力する。訓練の際には、まず、多意図認識モデルを1ラウンド訓練する。逆伝播により多意図認識モデルパラメータ及び基礎となるBERTモデルパラメータを更新する。次に、更新されたモデルを用いて、多意図認識結果のセマンティック特徴をSlot-Gated関連付けゲートに伝送する。Slot-Gated関連付けゲートにより意図のセマンティック特徴と更新されたBERTモデルを用いて生成されたセマンティックスロット特徴とを融合し、意図-セマンティックスロット複合特徴ベクトルを生成する。生成された意図-セマンティックスロット複合特徴ベクトルを、セマンティックスロットフィリングモデルの訓練に用いる。訓練の際には、逆伝播によりセマンティックスロットフィリングモデルのパラメータ及び基礎となるBERTモデルのパラメータを更新する。最適になるまで訓練を繰り返す。
多意図認識とセマンティックスロットフィリングの2つのタスクは、訓練時にBERTモデルの基礎パラメータを共有し、すなわち、1つのモデルを訓練するときに別のモデルの訓練結果で基礎モデルの初期化を行う。一方、上流タスクはそれぞれ訓練を行い、同時に意図認識の結果はセマンティックスロットフィリングタスクに伝送される。セマンティックスロットフィリングの精度を向上させつつ、多意図認識モデルの精度を向上させる。
損失関数は、モデルパラメータの更新に非常に重要である。損失関数の選択が不合理であれば、モデルが強くても最後の結果はよくない。
複合認識モデルにおける
Figure 0007370033000011
Figure 0007370033000012
jは訓練テキスト中のあるテキスト、Tは多意図認識の訓練テキスト数である。
複合認識モデルでは、セマンティックスロットは
Figure 0007370033000013
はセマンティックスロットフィリングの訓練テキスト数を表し、Mは訓練テキストシーケンス長を表す。
図4において、W11、W12は多意図認識の重みを表し、Ws1、Ws2はセマンティックスロットフィリングの重みを表す。
なお、図1~図4のフローチャートにおける各ステップは、矢印で示される順序で順次表示されているが、必ずしもこれらのステップが矢印で示される順序で順次実行されるわけではない。本願の実施例に明示的に記載されていない限り、これらのステップの実行には厳密な順序制限がなく、これらのステップは他の順序で実行されてもよい。さらに、図1~図4のステップの少なくとも一部は、複数のサブステップ又は複数の段階を含んでもよく、これらのサブステップ又は段階は、必ずしも同じ時点で実行を完了するのではなく、異なる時点で実行されてもよく、これらのサブステップ又は段階の実行順序は、必ずしも順次ではなく、他のステップ又は他のステップのサブステップ又は段階の少なくとも一部と順番に又は交互に実行されてもよい。
本願は、クラスタ事前解析に基づく多意図・セマンティックスロット複合認識システムをさらに提供し、このシステムは、メモリと、プロセッサとを含み、前記メモリにはコンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されると、上述の多意図・セマンティックスロット複合認識方法が実現される。
本願は、プロセッサによって実行されると、上述した多意図・セマンティックスロット複合認識方法のステップを実施するコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体をさらに提供する。このコンピュータ読み取り可能な記憶媒体は、USBメモリ、リムーバブルハードディスク、読み取り専用メモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクなど、プログラムコードを記憶することができる様々な媒体を含んでもよい。
当業者が理解できるように、上記の実施例の方法におけるプロセスの全部又は一部の実施は、コンピュータプログラムを介して関連するハードウェアに指示して達成させてもよく、前記コンピュータプログラムは非揮発性コンピュータ読み取り可能な記憶媒体に記憶されてもよく、このコンピュータプログラムが実行されるときに、上記の各方法の実施例のプロセスを含んでもよい。ここで、本願による各実施例で使用されるメモリ、記憶、データベースや他の媒体の任意の参照は、いずれも不揮発性及び/又は揮発性メモリを含んでもよい。不揮発性メモリには、読み取り専用メモリ(ROM)、プログラマブルROM(PROM)、電気的にプログラム可能なROM(EPROM)、電気的に消去可能なプログラマブルROM(EEPROM)、又はフラッシュメモリが含まれてもよい。揮発性メモリには、ランダムアクセスメモリ(RAM)又は外部キャッシュメモリが含まれてもよい。限定的なものではなく、説明的なものとして、RAMは、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、拡張SDRAM(ESDRAM)、同期リンク(Synchlink)DRAM(SLDRAM)、メモリバス(Rambus)ダイレクトRAM(RDRAM)、ダイレクトメモリバスダイナミックRAM(DRDRAM)やメモリバスダイナミックRAM(RDRAM)などのさまざまな形態で得られる。
以上の実施例の各技術的特徴は任意の組み合わせを行うことができ、説明を簡潔にするために、以上の実施例における各技術的特徴の可能なすべての組み合わせについて説明していないが、これらの技術的特徴の組み合わせに矛盾がない限り、すべて本明細書に記載された範囲であると考えるべきである。
以上の前記実施例は、本願のいくつかの実施形態を示しただけであり、その説明は比較的に具体的かつ詳細であるが、それによって発明特許の範囲を制限するものとして理解できない。なお、当業者にとっては、本願の概念を逸脱することなく、いくつかの変形や改良を行うことができ、これらは全て本願の保護範囲に属する。したがって、本願の特許の保護範囲は、添付の特許請求の範囲を基準とすべきである。

Claims (7)

  1. コンピュータが実行するセマンティック認識方法であって、
    現在のユーザが入力した意図テキストをリアルタイムで取得し、BERTモデルを用いて前記意図テキストをベクトル化して意図テキストベクトルを得るステップS101と、
    クラスタ事前解析に基づいて多意図認識モデルを構築し、前記意図テキストベクトルから前記ユーザの複数の意図を認識するステップS102と、
    前記ステップS102は、K-meansクラスタリングアルゴリズムを用いて、入力された前記意図テキストベクトルを単一の意図を持つ単一意図テキストベクトルと、複数の意図を持つ複数意図テキストベクトルとに分ける第1段階と、
    前記単一意図テキストベクトルを、その単一の意図を認識するためにsoftmax分類器によって分類し、前記複数意図テキストベクトルを、その複数の意図を認識するためにsigmoid分類器によって分類する第2段階とを含み、
    Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、認識された前記複数の意図を用いて前記BiLSTM-CRFセマンティックスロットフィリングモデルのセマンティックスロットをフィリングするステップS103と、
    前記ステップS103においては、 意図テキストに複数の意図が含まれていると判断された場合、sigmoid分類器に入力し、分類器によってラベルごとに二次分類を行い、複数の意図ラベルを出力し、ラベル予測の計算式は以下のとおりであり、
    Figure 0007370033000014
    ここで、y は予測確率、W は意図認識の重み、Cは意図テキストベクトル、b は意図認識のバイアスであること、
    意図テキストが単一意図であると判断された場合、softmax分類器を用いて、BERT出力の最初のフラグが([CLS])である文ベクトルCを分類器に直接入力して分類し、予測される意図ラベルが次の式により得られ、
    Figure 0007370033000015
    ここで、y は意図ラベルの予測確率、W は意図認識の重み、Cは意図テキストベクトル、b は意図認識のバイアスであり、
    意図認識の意図ベクトルとセマンティックスロットフィリングのための意図テキストベクトルとを重み付け加算し、関数tanhを活性化することにより、意図-セマンティックスロット複合特徴ベクトルgを得て、前記意図-セマンティックスロット複合特徴ベクトルgの計算方法は、次のとおりであり、
    Figure 0007370033000016
    ここで、c i S はセマンティックスロットベクトルを表し、c は意図ラベルベクトルを表し、c i S 及びW・c は次元が同じであり、v及びWはそれぞれ訓練可能なベクトルと行列であり、
    前記意図-セマンティックスロット複合特徴ベクトルgを算出した後、前記意図-セマンティックスロット複合特徴ベクトルgを、BiLSTM(Bi-directional Long Short-Term Memory)ニューラルネットワークに入力することにより、テキストの語順特徴を抽出し、深いレベルの文脈セマンティック情報をキャプチャし、BiLSTMネットワークの後ろに線形層(Linear Layer)を追加し、ニューラルネットワークの出力ベクトルの次元をマッピングし、セマンティックスロット復号に用いて、CRF(Conditional Random Field)復号層を復号ユニットとして、シーケンス中の各語に対応するスロットラベルを出力し、その計算方法は次のとおりであり、
    Figure 0007370033000017
    ここで、y i S は入力テキストシーケンス中のi番目の語のセマンティックスロット予測出力を表し、W S hy は重み行列、h i は隠された状態のベクトルであり、
    前記BERTモデル、前記多意図認識モデル及び前記BiLSTM-CRFセマンティックスロットフィリングモデルからなる複合モデルに対して最適化訓練を行い、最適化訓練済みの複合モデルを用いて前記複合モデルに入力されたテキストを認識するステップS104とを含む、ことを特徴とするコンピュータが実行するセマンティック認識方法。
  2. 前記K-meansクラスタリングアルゴリズムにおける距離関数は、以下の通りであり、
    Figure 0007370033000018
    ことを特徴とする請求項に記載のコンピュータが実行するセマンティック認識方法。
  3. ステップS104における前記複合モデルの最適化訓練は、
    訓練テキストを用いて前記BERTモデル及び前記多意図認識モデルを訓練し、前記BERTモデル及び前記多意図認識モデルのパラメータを更新するステップ(1)と、
    (1)における前記多意図認識モデルの出力をSlot-Gatedに伝送し、(1)で更新されたBERTモデルとセマンティックスロットフィリングモデルを(1)と同じ訓練テキストを用いて訓練し、BERTモデル及びセマンティックスロットフィリングモデルのパラメータを更新するステップ(2)と、
    訓練目標を達成するまで(1)と(2)を反復実行するステップ(3)とを含む、ことを特徴とする請求項1に記載のコンピュータが実行するセマンティック認識方法。
  4. 前記多意図認識モデルの
    Figure 0007370033000019
    ここで、kは意図テキストのカテゴリを表し、前記意図テキストが複数の意図を含む場合にkは1であり、意図テキストが単一意図である場合にkは0であり、
    Figure 0007370033000020
    Tは訓練テキストの数である、ことを特徴とする請求項に記載のコンピュータが実行するセマンティック認識方法。
  5. 前記セマンティックスロットフィリングモデルの
    Figure 0007370033000021
    Tは訓練テキスト数であり、Mは訓練テキストシーケンス長を表す、ことを特徴とする請求項に記載のコンピュータが実行するセマンティック認識方法。
  6. プロセッサによって実行されると請求項1~のいずれか1項に記載の方法を実現するコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体。
  7. メモリと、プロセッサとを含み、前記メモリにはコンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されると、請求項1~のいずれか1項に記載の方法が実現されるセマンティック認識システム。
JP2022512826A 2021-03-26 2021-04-29 セマンティック認識方法 Active JP7370033B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110325369.X 2021-03-26
CN202110325369.XA CN113204952B (zh) 2021-03-26 2021-03-26 一种基于聚类预分析的多意图与语义槽联合识别方法
PCT/CN2021/091024 WO2022198750A1 (zh) 2021-03-26 2021-04-29 语义识别方法

Publications (2)

Publication Number Publication Date
JP2023522502A JP2023522502A (ja) 2023-05-31
JP7370033B2 true JP7370033B2 (ja) 2023-10-27

Family

ID=77025737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022512826A Active JP7370033B2 (ja) 2021-03-26 2021-04-29 セマンティック認識方法

Country Status (3)

Country Link
JP (1) JP7370033B2 (ja)
CN (1) CN113204952B (ja)
WO (1) WO2022198750A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887237A (zh) * 2021-09-29 2022-01-04 平安普惠企业管理有限公司 多意图文本的槽位预测方法、装置及计算机设备
CN114372474A (zh) * 2021-12-30 2022-04-19 思必驰科技股份有限公司 抽象标签转移建模方法、语义理解系统及电子设备
CN115292463B (zh) * 2022-08-08 2023-05-12 云南大学 一种基于信息抽取的联合多意图检测和重叠槽填充的方法
CN115359786A (zh) * 2022-08-19 2022-11-18 思必驰科技股份有限公司 多意图语义理解模型训练和使用方法以及装置
CN115273849B (zh) * 2022-09-27 2022-12-27 北京宝兰德软件股份有限公司 一种关于音频数据的意图识别方法及装置
CN116795886B (zh) * 2023-07-13 2024-03-08 杭州逍邦网络科技有限公司 用于销售数据的数据分析引擎及方法
CN117435738B (zh) * 2023-12-19 2024-04-16 中国人民解放军国防科技大学 一种基于深度学习的文本多意图分析方法与系统
CN117435716B (zh) * 2023-12-20 2024-06-11 国网浙江省电力有限公司宁波供电公司 电网人机交互终端的数据处理方法及系统
CN117765949B (zh) * 2024-02-22 2024-05-24 青岛海尔科技有限公司 一种基于语义依存分析的语句多意图识别方法及装置
CN117909508B (zh) * 2024-03-20 2024-07-02 成都赛力斯科技有限公司 意图识别方法、模型训练方法、装置、设备及存储介质
CN118037362B (zh) * 2024-04-12 2024-07-05 中国传媒大学 基于用户多意图对比的序列推荐方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008476A (zh) 2019-04-10 2019-07-12 出门问问信息科技有限公司 语义解析方法、装置、设备及存储介质
CN112035626A (zh) 2020-07-06 2020-12-04 北海淇诚信息科技有限公司 一种大规模意图的快速识别方法、装置和电子设备
CN112183062A (zh) 2020-09-28 2021-01-05 云知声智能科技股份有限公司 一种基于交替解码的口语理解方法、电子设备和存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020163627A1 (en) * 2019-02-07 2020-08-13 Clinc, Inc. Systems and methods for machine learning-based multi-intent segmentation and classification
CN110321418B (zh) * 2019-06-06 2021-06-15 华中师范大学 一种基于深度学习的领域、意图识别和槽填充方法
CN111767408B (zh) * 2020-05-27 2023-06-09 青岛大学 一种基于多种神经网络集成的因果事理图谱构建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008476A (zh) 2019-04-10 2019-07-12 出门问问信息科技有限公司 语义解析方法、装置、设备及存储介质
CN112035626A (zh) 2020-07-06 2020-12-04 北海淇诚信息科技有限公司 一种大规模意图的快速识别方法、装置和电子设备
CN112183062A (zh) 2020-09-28 2021-01-05 云知声智能科技股份有限公司 一种基于交替解码的口语理解方法、电子设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Rashmi Gangadharaiah, Balakrishnan Narayanaswamy,Joint Multiple Intent Detection and Slot Labeling for Goal-Oriented Dialog,Proceedings of NAACL-HLT 2019,Association for Computational Linguistics,2019年06月07日,pp. 564~569,[online],[令和 5年 5月24日検索],インターネット <URL:https://aclanthology.org/N19-1055.pdf>

Also Published As

Publication number Publication date
WO2022198750A1 (zh) 2022-09-29
CN113204952A (zh) 2021-08-03
CN113204952B (zh) 2023-09-15
JP2023522502A (ja) 2023-05-31

Similar Documents

Publication Publication Date Title
JP7370033B2 (ja) セマンティック認識方法
Zhou et al. A C-LSTM neural network for text classification
Zhong et al. From shallow feature learning to deep learning: Benefits from the width and depth of deep architectures
CN112925516B (zh) 用上下文信息进行槽填充
US11941366B2 (en) Context-based multi-turn dialogue method and storage medium
CN110969020B (zh) 基于cnn和注意力机制的中文命名实体识别方法、系统及介质
CN111783462A (zh) 基于双神经网络融合的中文命名实体识别模型及方法
CN110263325B (zh) 中文分词系统
Abro et al. Multi-turn intent determination and slot filling with neural networks and regular expressions
CN112306494A (zh) 一种基于卷积和循环神经网络的代码分类及聚类方法
CN115599901B (zh) 基于语义提示的机器问答方法、装置、设备及存储介质
CN113987187A (zh) 基于多标签嵌入的舆情文本分类方法、系统、终端及介质
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN115600597A (zh) 基于注意力机制和词内语义融合的命名实体识别方法、装置、系统及存储介质
CN111723572B (zh) 基于CNN卷积层和BiLSTM的中文短文本相关性度量方法
Aggarwal et al. Recurrent neural networks
CN114742016B (zh) 一种基于多粒度实体异构图的篇章级事件抽取方法及装置
Pal et al. R-GRU: Regularized gated recurrent unit for handwritten mathematical expression recognition
CN111309849B (zh) 一种基于联合学习模型的细粒度数值信息抽取方法
CN116756605A (zh) 一种基于ernie_cn-gru语步自动识别方法、系统、设备及介质
CN115964497A (zh) 一种融合注意力机制与卷积神经网络的事件抽取方法
CN114881038A (zh) 基于跨度和注意力机制的中文实体与关系抽取方法及装置
CN114510569A (zh) 基于ChineseBERT模型和注意力机制的化工突发事件新闻分类方法
Huang et al. SegCTC: Offline handwritten Chinese text recognition via better fusion between explicit and implicit segmentation
Ambili et al. Siamese Neural Network Model for Recognizing Optically Processed Devanagari Hindi Script

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7370033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150