JP7370033B2 - セマンティック認識方法 - Google Patents
セマンティック認識方法 Download PDFInfo
- Publication number
- JP7370033B2 JP7370033B2 JP2022512826A JP2022512826A JP7370033B2 JP 7370033 B2 JP7370033 B2 JP 7370033B2 JP 2022512826 A JP2022512826 A JP 2022512826A JP 2022512826 A JP2022512826 A JP 2022512826A JP 7370033 B2 JP7370033 B2 JP 7370033B2
- Authority
- JP
- Japan
- Prior art keywords
- intention
- semantic
- text
- model
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
現在のユーザが入力した意図テキストをリアルタイムで取得し、BERTモデルを用いて前記意図テキストをベクトル化して意図テキストベクトルを得るステップS101と、
クラスタ事前解析に基づいて多意図認識モデルを構築し、前記意図テキストベクトルから前記ユーザの複数の意図を認識するステップS102と、
Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、認識された前記複数の意図を用いて前記セマンティックスロットフィリングモデルのセマンティックスロットをフィリングするステップS103と、
前記BERTモデル、前記多意図認識モデル及び前記セマンティックスロットフィリングモデルからなる複合モデルに対して最適化訓練を行い、最適化訓練済みの複合モデルを用いて前記複合モデルに入力されたテキストを認識するステップS104とを含むセマンティック認識方法を提供する。
K-meansクラスタリングアルゴリズムを用いて、入力された前記意図テキストベクトルを単一意図カテゴリの意図テキストベクトルと多意図カテゴリの意図テキストベクトルとに分ける第1段階と、
前記単一意図カテゴリの意図テキストベクトルを、前記複数の意図を認識するためにsoftmax分類器によって分類し、前記複数の意図の意図テキストベクトルを、前記複数の意図を認識するためにsigmoid分類器によって分類する第2段階とを含む。
訓練テキストを用いて前記BERTモデル及び前記多意図認識モデルを訓練し、前記BERTモデル及び前記多意図認識モデルのパラメータを更新するステップ(1)と、
(1)における前記多意図認識モデルの出力をSlot-Gatedに伝送し、(1)で更新されたBERTモデルとセマンティックスロットフィリングモデルを(1)と同じ訓練テキストを用いて訓練し、BERTモデル及びセマンティックスロットフィリングモデルのパラメータを更新するステップ(2)と、
訓練目標を達成するまで(1)と(2)を反復実行するステップ(3)とを含む。
ステップS101において、現在のユーザが入力した多意図テキストをリアルタイムで取得して、前処理を行う。
ステップS102において、クラスタ事前解析に基づいてユーザの複数の意図を認識するために多意図認識モデルを構築する。
ステップS103において、Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、意図認識の結果を十分に利用してセマンティックスロットフィリングを指導する。
ステップS104において、構築された多意図認識・マンティックスロットフィリング複合モデルを最適化する。
Claims (7)
- コンピュータが実行するセマンティック認識方法であって、
現在のユーザが入力した意図テキストをリアルタイムで取得し、BERTモデルを用いて前記意図テキストをベクトル化して意図テキストベクトルを得るステップS101と、
クラスタ事前解析に基づいて多意図認識モデルを構築し、前記意図テキストベクトルから前記ユーザの複数の意図を認識するステップS102と、
前記ステップS102は、K-meansクラスタリングアルゴリズムを用いて、入力された前記意図テキストベクトルを単一の意図を持つ単一意図テキストベクトルと、複数の意図を持つ複数意図テキストベクトルとに分ける第1段階と、
前記単一意図テキストベクトルを、その単一の意図を認識するためにsoftmax分類器によって分類し、前記複数意図テキストベクトルを、その複数の意図を認識するためにsigmoid分類器によって分類する第2段階とを含み、
Slot-Gated関連付けゲート機構に基づいてBiLSTM-CRFセマンティックスロットフィリングモデルを構築し、認識された前記複数の意図を用いて前記BiLSTM-CRFセマンティックスロットフィリングモデルのセマンティックスロットをフィリングするステップS103と、
前記ステップS103においては、 意図テキストに複数の意図が含まれていると判断された場合、sigmoid分類器に入力し、分類器によってラベルごとに二次分類を行い、複数の意図ラベルを出力し、ラベル予測の計算式は以下のとおりであり、
意図テキストが単一意図であると判断された場合、softmax分類器を用いて、BERT出力の最初のフラグが([CLS])である文ベクトルCを分類器に直接入力して分類し、予測される意図ラベルが次の式により得られ、
意図認識の意図ベクトルとセマンティックスロットフィリングのための意図テキストベクトルとを重み付け加算し、関数tanhを活性化することにより、意図-セマンティックスロット複合特徴ベクトルgを得て、前記意図-セマンティックスロット複合特徴ベクトルgの計算方法は、次のとおりであり、
前記意図-セマンティックスロット複合特徴ベクトルgを算出した後、前記意図-セマンティックスロット複合特徴ベクトルgを、BiLSTM(Bi-directional Long Short-Term Memory)ニューラルネットワークに入力することにより、テキストの語順特徴を抽出し、深いレベルの文脈セマンティック情報をキャプチャし、BiLSTMネットワークの後ろに線形層(Linear Layer)を追加し、ニューラルネットワークの出力ベクトルの次元をマッピングし、セマンティックスロット復号に用いて、CRF(Conditional Random Field)復号層を復号ユニットとして、シーケンス中の各語に対応するスロットラベルを出力し、その計算方法は次のとおりであり、
前記BERTモデル、前記多意図認識モデル及び前記BiLSTM-CRFセマンティックスロットフィリングモデルからなる複合モデルに対して最適化訓練を行い、最適化訓練済みの複合モデルを用いて前記複合モデルに入力されたテキストを認識するステップS104とを含む、ことを特徴とするコンピュータが実行するセマンティック認識方法。 - ステップS104における前記複合モデルの最適化訓練は、
訓練テキストを用いて前記BERTモデル及び前記多意図認識モデルを訓練し、前記BERTモデル及び前記多意図認識モデルのパラメータを更新するステップ(1)と、
(1)における前記多意図認識モデルの出力をSlot-Gatedに伝送し、(1)で更新されたBERTモデルとセマンティックスロットフィリングモデルを(1)と同じ訓練テキストを用いて訓練し、BERTモデル及びセマンティックスロットフィリングモデルのパラメータを更新するステップ(2)と、
訓練目標を達成するまで(1)と(2)を反復実行するステップ(3)とを含む、ことを特徴とする請求項1に記載のコンピュータが実行するセマンティック認識方法。 - プロセッサによって実行されると請求項1~5のいずれか1項に記載の方法を実現するコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体。
- メモリと、プロセッサとを含み、前記メモリにはコンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されると、請求項1~5のいずれか1項に記載の方法が実現されるセマンティック認識システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110325369.X | 2021-03-26 | ||
CN202110325369.XA CN113204952B (zh) | 2021-03-26 | 2021-03-26 | 一种基于聚类预分析的多意图与语义槽联合识别方法 |
PCT/CN2021/091024 WO2022198750A1 (zh) | 2021-03-26 | 2021-04-29 | 语义识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023522502A JP2023522502A (ja) | 2023-05-31 |
JP7370033B2 true JP7370033B2 (ja) | 2023-10-27 |
Family
ID=77025737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022512826A Active JP7370033B2 (ja) | 2021-03-26 | 2021-04-29 | セマンティック認識方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7370033B2 (ja) |
CN (1) | CN113204952B (ja) |
WO (1) | WO2022198750A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887237A (zh) * | 2021-09-29 | 2022-01-04 | 平安普惠企业管理有限公司 | 多意图文本的槽位预测方法、装置及计算机设备 |
CN114372474A (zh) * | 2021-12-30 | 2022-04-19 | 思必驰科技股份有限公司 | 抽象标签转移建模方法、语义理解系统及电子设备 |
CN115292463B (zh) * | 2022-08-08 | 2023-05-12 | 云南大学 | 一种基于信息抽取的联合多意图检测和重叠槽填充的方法 |
CN115359786A (zh) * | 2022-08-19 | 2022-11-18 | 思必驰科技股份有限公司 | 多意图语义理解模型训练和使用方法以及装置 |
CN115273849B (zh) * | 2022-09-27 | 2022-12-27 | 北京宝兰德软件股份有限公司 | 一种关于音频数据的意图识别方法及装置 |
CN116795886B (zh) * | 2023-07-13 | 2024-03-08 | 杭州逍邦网络科技有限公司 | 用于销售数据的数据分析引擎及方法 |
CN117435738B (zh) * | 2023-12-19 | 2024-04-16 | 中国人民解放军国防科技大学 | 一种基于深度学习的文本多意图分析方法与系统 |
CN117435716B (zh) * | 2023-12-20 | 2024-06-11 | 国网浙江省电力有限公司宁波供电公司 | 电网人机交互终端的数据处理方法及系统 |
CN117765949B (zh) * | 2024-02-22 | 2024-05-24 | 青岛海尔科技有限公司 | 一种基于语义依存分析的语句多意图识别方法及装置 |
CN117909508B (zh) * | 2024-03-20 | 2024-07-02 | 成都赛力斯科技有限公司 | 意图识别方法、模型训练方法、装置、设备及存储介质 |
CN118037362B (zh) * | 2024-04-12 | 2024-07-05 | 中国传媒大学 | 基于用户多意图对比的序列推荐方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008476A (zh) | 2019-04-10 | 2019-07-12 | 出门问问信息科技有限公司 | 语义解析方法、装置、设备及存储介质 |
CN112035626A (zh) | 2020-07-06 | 2020-12-04 | 北海淇诚信息科技有限公司 | 一种大规模意图的快速识别方法、装置和电子设备 |
CN112183062A (zh) | 2020-09-28 | 2021-01-05 | 云知声智能科技股份有限公司 | 一种基于交替解码的口语理解方法、电子设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020163627A1 (en) * | 2019-02-07 | 2020-08-13 | Clinc, Inc. | Systems and methods for machine learning-based multi-intent segmentation and classification |
CN110321418B (zh) * | 2019-06-06 | 2021-06-15 | 华中师范大学 | 一种基于深度学习的领域、意图识别和槽填充方法 |
CN111767408B (zh) * | 2020-05-27 | 2023-06-09 | 青岛大学 | 一种基于多种神经网络集成的因果事理图谱构建方法 |
-
2021
- 2021-03-26 CN CN202110325369.XA patent/CN113204952B/zh active Active
- 2021-04-29 JP JP2022512826A patent/JP7370033B2/ja active Active
- 2021-04-29 WO PCT/CN2021/091024 patent/WO2022198750A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008476A (zh) | 2019-04-10 | 2019-07-12 | 出门问问信息科技有限公司 | 语义解析方法、装置、设备及存储介质 |
CN112035626A (zh) | 2020-07-06 | 2020-12-04 | 北海淇诚信息科技有限公司 | 一种大规模意图的快速识别方法、装置和电子设备 |
CN112183062A (zh) | 2020-09-28 | 2021-01-05 | 云知声智能科技股份有限公司 | 一种基于交替解码的口语理解方法、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
Rashmi Gangadharaiah, Balakrishnan Narayanaswamy,Joint Multiple Intent Detection and Slot Labeling for Goal-Oriented Dialog,Proceedings of NAACL-HLT 2019,Association for Computational Linguistics,2019年06月07日,pp. 564~569,[online],[令和 5年 5月24日検索],インターネット <URL:https://aclanthology.org/N19-1055.pdf> |
Also Published As
Publication number | Publication date |
---|---|
WO2022198750A1 (zh) | 2022-09-29 |
CN113204952A (zh) | 2021-08-03 |
CN113204952B (zh) | 2023-09-15 |
JP2023522502A (ja) | 2023-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7370033B2 (ja) | セマンティック認識方法 | |
Zhou et al. | A C-LSTM neural network for text classification | |
Zhong et al. | From shallow feature learning to deep learning: Benefits from the width and depth of deep architectures | |
CN112925516B (zh) | 用上下文信息进行槽填充 | |
US11941366B2 (en) | Context-based multi-turn dialogue method and storage medium | |
CN110969020B (zh) | 基于cnn和注意力机制的中文命名实体识别方法、系统及介质 | |
CN111783462A (zh) | 基于双神经网络融合的中文命名实体识别模型及方法 | |
CN110263325B (zh) | 中文分词系统 | |
Abro et al. | Multi-turn intent determination and slot filling with neural networks and regular expressions | |
CN112306494A (zh) | 一种基于卷积和循环神经网络的代码分类及聚类方法 | |
CN115599901B (zh) | 基于语义提示的机器问答方法、装置、设备及存储介质 | |
CN113987187A (zh) | 基于多标签嵌入的舆情文本分类方法、系统、终端及介质 | |
CN111145914B (zh) | 一种确定肺癌临床病种库文本实体的方法及装置 | |
CN115600597A (zh) | 基于注意力机制和词内语义融合的命名实体识别方法、装置、系统及存储介质 | |
CN111723572B (zh) | 基于CNN卷积层和BiLSTM的中文短文本相关性度量方法 | |
Aggarwal et al. | Recurrent neural networks | |
CN114742016B (zh) | 一种基于多粒度实体异构图的篇章级事件抽取方法及装置 | |
Pal et al. | R-GRU: Regularized gated recurrent unit for handwritten mathematical expression recognition | |
CN111309849B (zh) | 一种基于联合学习模型的细粒度数值信息抽取方法 | |
CN116756605A (zh) | 一种基于ernie_cn-gru语步自动识别方法、系统、设备及介质 | |
CN115964497A (zh) | 一种融合注意力机制与卷积神经网络的事件抽取方法 | |
CN114881038A (zh) | 基于跨度和注意力机制的中文实体与关系抽取方法及装置 | |
CN114510569A (zh) | 基于ChineseBERT模型和注意力机制的化工突发事件新闻分类方法 | |
Huang et al. | SegCTC: Offline handwritten Chinese text recognition via better fusion between explicit and implicit segmentation | |
Ambili et al. | Siamese Neural Network Model for Recognizing Optically Processed Devanagari Hindi Script |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231009 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7370033 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |