CN112765993A - 语义解析方法、系统、设备及可读存储介质 - Google Patents
语义解析方法、系统、设备及可读存储介质 Download PDFInfo
- Publication number
- CN112765993A CN112765993A CN202110073434.4A CN202110073434A CN112765993A CN 112765993 A CN112765993 A CN 112765993A CN 202110073434 A CN202110073434 A CN 202110073434A CN 112765993 A CN112765993 A CN 112765993A
- Authority
- CN
- China
- Prior art keywords
- data
- processed
- semantic
- deep learning
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 39
- 238000013136 deep learning model Methods 0.000 claims abstract description 22
- 238000004140 cleaning Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 18
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 241000288105 Grus Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本申请公开了一种语义解析方法、系统、设备及可读存储介质。该语义解析方法包括如下步骤:步骤1:对待处理数据进行采集和清洗;步骤2:构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;步骤3:匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;步骤4:在数据库中匹配出符合所述语义逻辑的解析数据,并输出该解析数据。本申请能够解析口语化的问句、将其转化为数据库语言、并匹配出符合其意图的数据。
Description
技术领域
本申请属于语言处理技术领域,具体来说涉及一种语义解析方法、系统、设备及可读存储介质。
背景技术
目前,公安领域已初步建立了以大数据为基础的、基本涵盖其业务场景的应用体系,并在实际使用过程中产生了海量的业务数据。这些数据对于公安的研判、日常工作起着至关重要的作用。但是,现有的语义解析方法无法满足从海量的数据源中精准查找到匹配信息的服务诉求。因此,如何开发出一种新型的语义解析方法,以克服上述问题是本领域技术人员需要研究的方向。
发明内容:
本发明的目的在于提供一种语义解析方法,能够解析口语化的问句、将其转化为数据库语言、并匹配出符合其意图的数据。
一种语义解析方法,其包括如下步骤:
步骤1:对待处理数据进行采集和清洗;
步骤2:构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;
步骤3:匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;
步骤4:在数据库中匹配出符合所述语义逻辑的解析数据,并输出该解析数据。
优选的是,上述语义解析方法中:所述步骤1包括如下步骤:
步骤11:采集待处理数据;
步骤12:基于python或ETL工具在待处理数据中去除重复值;
步骤13:基于python或ETL工具在待处理数据中去除异常值;
步骤14:基于python或ETL工具在待处理数据中去除无用值处理;
步骤15:构建映射表,建立数据分类与映射表的对应关系。
优选的是,上述语义解析方法中:步骤2所述深度学习模型包括串行的BERT模型和双向GRU模型;
所述深度学习模型的目标函数为:
学习的最终目标是最大化p(y|x),所述p(yr|x)为意图识别所对应的损失函数,采用交叉熵损失函数对整句进行分类;所述为实体识别对应的损失函数,采用交叉熵损失函数对单个字进行抽取的识别。目标函数采取乘积形式将意图识别和实体识别两部分结合,保障了学习过程中模型不仅需要最大化意图识别准确性,同时需要最大化实体识别的准确性。
为实现上述语义分析方法,本申请还公开了一种语义解析系统,其技术方案如下:
一种语义解析系统,包括:预处理模块,学习模块,映射模块和解析模块;
所述预处理模块用于对待处理数据进行采集和清洗;
所述学习模块用于构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;
所述映射模块用于匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;
所述解析模块用于在数据库中匹配出符合所述语义逻辑的解析数据,并输出该解析数据。
本申请还公开了一种电子设备,其包括:处理器和存储器,所述存储器用于存储程序;所述处理器和存储器连接,用于调用存储于所述存储器中的程序、执行上述语义解析方法。
本申请还进一步公开了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,所述计算机程序被计算机运行时执行上述语义解析方法。
与现有技术相比,本申请的技术方案具有以下优点:
BERT模型通过自编码的方式,在更新每个字向量的时候,在自身向量信息中融入其它字的向量信息,并作加权平均,使得每个字不仅包含其本身的语义信息,并通过学习包含上下文的语义信息,从而在不同语境中呈现不同的语义信息。同时,针对中文语句具有序列性的特点,引入可以保留序列信息的GRU模型对BERT模型的输出做更深层次的编码。同时,为缓解时长依赖问题采用双向GRU模型,即正向反向各做一次GRU,并将正向与反向的结果进行拼接作为最终的输出结果。同时,通过针对串行的BERT模型和双向GRU模型设置特定的损失函数,在编码过程中将意图识别和实体识别的损失进行一体化结合并在同一个模型中进行学习,避免了对意图识别和实体识别在串行结合后可能产生的误差传播问题。本发明采用深度学习的方式解析非结构化自然语言问句,最终能够使得公安能够从海量的数据源中更加便捷、精准、快速的匹配到符合其意图的相关数据。
附图说明
下面结合附图与具体实施方式对本申请作进一步详细的说明:
图1为本发明中语义解析方法的工作流程图;
图2为本发明中语义解析系统的模块框图;
图3为本发明中电子设备的模块框图。
具体实施方式
为了更清楚地说明本申请的技术方案,下面将结合各个实施例作进一步描述。
如图1所示为实施例1:
一种语义解析方法,其包括如下步骤:
步骤1:对待处理数据进行采集和清洗;
具体的,所述对待处理数据进行采集和清洗包括如下步骤:
步骤11:采集待处理数据;
步骤12:对待处理数据做去除重复值处理;
步骤13:对待处理数据做去除异常值处理;
步骤14:对待处理数据做去除无用值处理;
步骤15:构建映射表,并建立数据分类与映射表的对应关系
步骤2:构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;
其中,所述深度学习模型包括串行的BERT模型和双向GRU模型;
所述深度学习模型的目标函数为:
学习的最终目标是最大化p(y|x),所述p(yr|x)为意图识别所对应的损失函数,采用交叉熵损失函数对整句进行分类;所述为实体识别对应的损失函数,采用交叉熵损失函数对单个字进行抽取的识别。目标函数采取乘积形式将意图识别和实体识别两部分结合,保障了学习过程中模型不仅需要最大化意图识别准确性,同时需要最大化实体识别的准确性。
其中,对身份证、手机号等特殊的要素,由于其具备强烈的规律信息,采用模式匹配的方式进行识别。具体来说:通过搜集要素规律,制定符合规律的相关规则,从而抽取出符合相关规则的要素类型。
步骤3:匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;
步骤4:在数据库中匹配出符合所述语义逻辑的解析数据,并输出该解析数据。
实施例2:对自然语言问句进行语义解析。
首先进行数据采集,采集到的数据有:“上海的失踪人口”,“上海的失踪人口”,“你好”,“美国失踪人口”。利用python等工具对采集到的数据进行去重、去异常、去无用值后,抽出“上海的失踪人口”作为有用样本,并将其归类到失踪人口表。
经过BERT模型将所得有用样本中的字翻译成向量E0,E1,...,E6。并通过BERT模型将所述E0,E1,...,E6编码为T0,T1,...,T6。此处E0,E1,...,E6和T0,T1,...,T6均为768维的数字向量。
具体的:所述BERT模型包含embedding层和transformer层。embedding层对输入的问句,分别将其进行词向量、位置编码和句子编码映射,并将三者向量按位相加后喂入transformer层中;在进入transformer层后,首先经过self-attention,对每个字向量进行编码,再经过残差网络与批归一化,第二步经过前馈神经网络加残差网络与批归一化;将第一、二步循环12次后,输出T0,T1,...,T6。
经过双向GRU模型,将T0,T1,...,T6编码为M0,M1,...,M6。
其中,对于第t个输入xt与其前一个记忆单元ht-1,其更新方式如下:
zt=σ(Wz·[ht-1,xt]),
rt=σ(Wr·[ht-1,xt]),
其中,W为经过学习后的神经元参数矩阵。
同时,为实现将意图识别和实体识别一体化学习,本次发明将模型的目标函数修改为如下格式:
学习的最终目标是最大化p(y|x),所述p(yr|x)为意图识别所对应的损失函数,采用交叉熵损失函数对整句进行分类;所述为实体识别对应的损失函数,采用交叉熵损失函数对单个字进行抽取的识别。目标函数采取乘积形式将意图识别和实体识别两部分结合,保障了学习过程中模型不仅需要最大化意图识别准确性,同时需要最大化实体识别的准确性。
对M0,M1,...,M6分两部分进行,一部分是拼接后经过前馈神经网络对问句进行分类,将问句映射到‘失踪人口表’;另一部分是直接对M0,M1,...,M6进行分类,生成每个字的类别,从而抽取出其中所包含的要素。
资源映射:
对有用样本“上海的失踪人口”中抽取出的‘地点’:‘上海’,将其映射为‘失踪地点’:‘上海’
生成逻辑表达式,输出的逻辑表达式为:(失踪地址:上海)in失踪人口表;
失踪人口表内容如下:
姓名 | 出生日期 | 籍贯 | 失踪地点 |
张三 | 1999/01/01 | 上海 | 上海市徐汇区 |
李四 | 1999/01/01 | 北京 | 上海市松江区 |
王五 | 1999/01/01 | 南京 | 北京市 |
赵六 | 1999/01/01 | 上海 | 深圳 |
最终导出的查询结果为:
人员1:{姓名:张三,出生日期:1999/01/01,籍贯:上海,失踪地点:上海市徐汇区}
人员2:{姓名:李四,出生日期:1999/01/01,籍贯:上海,失踪地点:上海市徐汇区}
如图2所示为实施例3:
一种语义解析系统,包括:预处理模块1,学习模块2,映射模块3和解析模块4。
所述预处理模块1用于对待处理数据进行采集和清洗;所述学习模块2用于构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;所述映射模块3用于匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;所述解析模块4用于在数据库中匹配出符合所述语义逻辑的解析数据,并输出该解析数据。
如图3所示为实施例4:
一种电子设备,可以是但不限于个人电脑、平板电脑等设备。
该电子设备100包括:处理器110和存储器120。
应当注意,图3所示电子设备100的组件和结构只是示例性的,而非限制性的,根据需要,电子设备100也可以具有其他组件和结构。
处理器110、存储器120以及其他可能出现于电子设备100中的组件相互间直接或间接地电性连接,以实现数据的传输或交互。例如,处理器110、存储器120相互之间可通过一条或多条通讯总线或信号线实现电性连接。
存储器120用于存储如前文所述语义解析方法所对应的程序或者前文出现的语义解析系统。可选的,当存储器120内存储有语义解析系统时,该系统包括至少一个可以以软件或固件形式存储于存储器120中的软件功能模块。可选的,该软件功能模块也可以固化在电子设备100的操作系统中。
处理器110用于调用存储于所述存储器中的程序、执行前文所述语义解析方法。例如:步骤1:对待处理数据进行采集和清洗;步骤2:构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;步骤3:匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;步骤4:在数据库中匹配出符合所述语义逻辑的逻辑表达式,并输出该逻辑表达式。本申请任一实施例所揭示的方法都可应用于处理器110中、或者由处理器110实现。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。本申请所提供的上述各实施例中,所述系统和方法,也可以通过其它的方式实现。以上所描述的系统实施例仅仅是示意性的,例如,附图中的流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。同时,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,所述语义解析方法若以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器、随机存取存储器、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施例,但本申请的保护范围并不局限于此,任何熟悉本领域技术的技术人员在本申请公开的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。本申请的保护范围以权利要求书的保护范围为准。
Claims (6)
1.一种语义解析方法,其特征在于,包括如下步骤:
步骤1:对待处理数据进行采集和清洗;
步骤2:构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;
步骤3:匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;
步骤4:在数据库中匹配出符合所述语义逻辑的解析数据,并输出该解析数据。
2.如权利要求1所述语义解析方法,其特征在于:所述步骤1包括如下步骤:
步骤11:采集待处理数据;
步骤12:基于python或ETL工具在待处理数据中去除重复值;
步骤13:基于python或ETL工具在待处理数据中去除异常值;
步骤14:基于python或ETL工具在待处理数据中去除无用值处理;
步骤15:构建映射表,建立数据分类与映射表的对应关系。
4.一种语义解析系统,其特征在于,包括:预处理模块,学习模块,映射模块和解析模块;
所述预处理模块用于对待处理数据进行采集和清洗;
所述学习模块用于构建深度学习模型,将待处理数据输入该深度学习模型中,在待处理数据中提取要素,并取得待处理数据的数据类别;
所述映射模块用于匹配对应于数据类别的映射表,将提取的要素输入该映射表中映射,取得对应于待处理数据的语义逻辑;
所述解析模块用于在数据库中匹配出符合所述语义逻辑的解析数据,并输出该解析数据。
5.一种电子设备,其特征在于:包括处理器和存储器,所述存储器用于存储程序;所述处理器和存储器连接,用于调用存储于所述存储器中的程序、执行如权利要求1—3任一项所述语义解析方法。
6.一种计算机可读存储介质,其特征在于:该计算机可读存储介质中存储有计算机程序,所述计算机程序被计算机运行时执行如权利要求1—3中任一项所述语义解析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110073434.4A CN112765993A (zh) | 2021-01-20 | 2021-01-20 | 语义解析方法、系统、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110073434.4A CN112765993A (zh) | 2021-01-20 | 2021-01-20 | 语义解析方法、系统、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112765993A true CN112765993A (zh) | 2021-05-07 |
Family
ID=75703295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110073434.4A Pending CN112765993A (zh) | 2021-01-20 | 2021-01-20 | 语义解析方法、系统、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112765993A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114707478A (zh) * | 2022-06-06 | 2022-07-05 | 飞腾信息技术有限公司 | 映射表生成方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376847A (zh) * | 2018-08-31 | 2019-02-22 | 深圳壹账通智能科技有限公司 | 用户意图识别方法、装置、终端及计算机可读存储介质 |
CN109670024A (zh) * | 2018-12-17 | 2019-04-23 | 北京百度网讯科技有限公司 | 逻辑表达式确定方法、装置、设备和介质 |
CN110245229A (zh) * | 2019-04-30 | 2019-09-17 | 中山大学 | 一种基于数据增强的深度学习主题情感分类方法 |
CN110807332A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、语义处理方法、装置及存储介质 |
CN111125331A (zh) * | 2019-12-20 | 2020-05-08 | 京东方科技集团股份有限公司 | 语义识别方法、装置、电子设备及计算机可读存储介质 |
CN111382253A (zh) * | 2020-03-02 | 2020-07-07 | 苏州思必驰信息科技有限公司 | 语义解析方法及语义解析器 |
US20200334326A1 (en) * | 2019-04-18 | 2020-10-22 | Microsoft Technology Licensing, Llc | Architectures for modeling comment and edit relations |
CN111831911A (zh) * | 2020-07-16 | 2020-10-27 | 北京奇艺世纪科技有限公司 | 查询信息的处理方法、装置、存储介质和电子装置 |
-
2021
- 2021-01-20 CN CN202110073434.4A patent/CN112765993A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376847A (zh) * | 2018-08-31 | 2019-02-22 | 深圳壹账通智能科技有限公司 | 用户意图识别方法、装置、终端及计算机可读存储介质 |
CN109670024A (zh) * | 2018-12-17 | 2019-04-23 | 北京百度网讯科技有限公司 | 逻辑表达式确定方法、装置、设备和介质 |
US20200334326A1 (en) * | 2019-04-18 | 2020-10-22 | Microsoft Technology Licensing, Llc | Architectures for modeling comment and edit relations |
CN110245229A (zh) * | 2019-04-30 | 2019-09-17 | 中山大学 | 一种基于数据增强的深度学习主题情感分类方法 |
CN110807332A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、语义处理方法、装置及存储介质 |
CN111125331A (zh) * | 2019-12-20 | 2020-05-08 | 京东方科技集团股份有限公司 | 语义识别方法、装置、电子设备及计算机可读存储介质 |
CN111382253A (zh) * | 2020-03-02 | 2020-07-07 | 苏州思必驰信息科技有限公司 | 语义解析方法及语义解析器 |
CN111831911A (zh) * | 2020-07-16 | 2020-10-27 | 北京奇艺世纪科技有限公司 | 查询信息的处理方法、装置、存储介质和电子装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114707478A (zh) * | 2022-06-06 | 2022-07-05 | 飞腾信息技术有限公司 | 映射表生成方法、装置、设备及存储介质 |
CN114707478B (zh) * | 2022-06-06 | 2022-09-02 | 飞腾信息技术有限公司 | 映射表生成方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111597351A (zh) | 可视化文档图谱构建方法 | |
US10824816B2 (en) | Semantic parsing method and apparatus | |
CN111222305A (zh) | 一种信息结构化方法和装置 | |
CN110019758B (zh) | 一种核心要素提取方法、装置及电子设备 | |
CN111143394B (zh) | 知识数据处理方法、装置、介质及电子设备 | |
EP4361843A1 (en) | Neural network searching method and related device | |
CN116562270A (zh) | 一种支持多模态输入的自然语言处理系统及其方法 | |
CN112241458A (zh) | 文本的知识结构化处理方法、装置、设备和可读存储介质 | |
CN113051384B (zh) | 基于对话的用户画像抽取方法及相关装置 | |
CN112765993A (zh) | 语义解析方法、系统、设备及可读存储介质 | |
CN111783425B (zh) | 基于句法分析模型的意图识别方法及相关装置 | |
CN115115432A (zh) | 基于人工智能的产品信息推荐方法及装置 | |
CN116010545A (zh) | 一种数据处理方法、装置及设备 | |
CN115618415A (zh) | 敏感数据识别方法、装置、电子设备和存储介质 | |
CN111199170B (zh) | 配方文件识别方法及装置、电子设备、存储介质 | |
CN111859896B (zh) | 配方文档检测方法、装置、计算机可读介质及电子设备 | |
CN114067362A (zh) | 基于神经网络模型的手语识别方法、装置、设备及介质 | |
CN112613315A (zh) | 一种文本知识自动抽取方法、装置、设备及存储介质 | |
EP3570188A1 (en) | Generating an executable code based on a document | |
CN117235137B (zh) | 一种基于向量数据库的职业信息查询方法及装置 | |
CN117009532B (zh) | 语义类型识别方法、装置、计算机可读介质及电子设备 | |
CN111402012B (zh) | 一种基于迁移学习的电商缺陷产品识别方法 | |
CN113590768B (zh) | 一种文本关联度模型的训练方法及装置、问答方法及装置 | |
CN114064903A (zh) | 股东类型识别模型的训练方法、股东类型识别方法及其装置 | |
WO2022227196A1 (zh) | 一种数据分析方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |