CN112925887A - 交互方法和装置、电子设备、存储介质、文本识别方法 - Google Patents
交互方法和装置、电子设备、存储介质、文本识别方法 Download PDFInfo
- Publication number
- CN112925887A CN112925887A CN201911235183.4A CN201911235183A CN112925887A CN 112925887 A CN112925887 A CN 112925887A CN 201911235183 A CN201911235183 A CN 201911235183A CN 112925887 A CN112925887 A CN 112925887A
- Authority
- CN
- China
- Prior art keywords
- recognition result
- named entity
- model
- text
- entity recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000003993 interaction Effects 0.000 title claims abstract description 77
- 239000013598 vector Substances 0.000 claims abstract description 95
- 230000004044 response Effects 0.000 claims abstract description 69
- 230000002452 interceptive effect Effects 0.000 claims abstract description 40
- 230000011218 segmentation Effects 0.000 claims description 90
- 238000012549 training Methods 0.000 claims description 49
- 238000013527 convolutional neural network Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 34
- 230000015654 memory Effects 0.000 claims description 21
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000012360 testing method Methods 0.000 description 8
- 238000002372 labelling Methods 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000007418 data mining Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Animal Behavior & Ethology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本公开提供一种交互方法和装置、电子设备、存储介质、文本识别方法、终端设备、车辆、服务器。包括:接收对象发送的交互请求,将文本转换为字符向量,根据字符向量和预设的识别模型生成命名实体识别结果和分词识别结果,根据命名实体识别结果和分词识别结果确定针对文本的回应信息,向对象反馈回应信息,通过将字符向量输入至预设的识别模型,以便生成命名实体识别结果和分词识别结果,即确定两个分支的识别结果,在现有技术中,仅确定一个分支的识别结果,而在本公开中,通过将字符向量输入至识别模型,一方面输出命名实体识别结果,另一方面还输出分词识别结果,基于两方面的输出结果确定回应信息,以确保回应信息的高可靠性。
Description
技术领域
本公开涉及互联网技术领域,进一步涉及数据处理技术领域,尤其涉及一种交互方法和装置、电子设备、存储介质、文本识别方法、终端设备、车辆、服务器。
背景技术
随着互联网和人工智能技术的发展,交互技术成为技术发展的焦点。在基于交互过程中,需要对交互请求中的信息进行抽取。
在现有技术中,采用N-gram模型实现对交互请求中的信息的抽取,其中,N-gram是大词汇连续语音识别中的一种语言模型。该模型利用上下文中相邻词间的搭配信息, 在需要把连续无空格的拼音、笔划,或代表字母或笔划的数字,转换成字符串(即句子) 时,可以计算出具有最大概率的句子,从而实现到字词的自动转换,无需用户手动选 择,避开了许多字词对应一个相同的拼音(或笔划串,或数字串)的重码问题。
发明人在实现本公开的过程中,发现至少存在交互的精确度不高的问题。
发明内容
本公开提供一种交互方法和装置、电子设备、存储介质、文本识别方法、终端设备、车辆、服务器,用以解决现有技术中交互的精确度不高的问题。
一方面,本公开实施例提供一种交互方法,所述方法包括:
接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
将所述文本转换为字符向量;
根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果;
根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的回应信息;
向所述对象反馈所述回应信息。
在一可选实施例中,确定所述识别模型的方法包括:
将预设的待训练文本转换为待训练字符向量;
将所述待训练字符向量输入至初始命名实体识别模型,生成训练命名实体识别结果;
将所述待训练字符向量输入至初始分词识别模型,生成训练分词识别结果;
获取为所述待训练字符向量分配的真实命名实体识别结果,并获取为所述待训练字符 向量分配的真实分词识别结果;
根据所述训练命名实体识别结果、所述训练分词识别结果、所述真实命名实体识别结 果、所述真实分词识别结果、所述初始命名实体识别模型和所述初始分词识别模型生成所 述识别模型。
在一可选实施例中,所述根据所述训练命名实体识别结果、所述训练分词识别结果、 所述真实命名实体识别结果、所述真实分词识别结果、所述初始命名实体识别模型和所述 初始分词识别模型生成所述识别模型包括:
根据所述训练命名实体识别结果和所述真实命名实体识别结果对所述初始命名实体 识别模型的参数进行调整,得到目标命名实体识别模型;
根据所述训练分词识别结果和所述真实分词识别结果对所述初始分词识别模型的参 数进行调整,得到目标分词识别模型;
根据所述目标命名实体识别模型和所述目标分词识别模型生成所述识别模型。
在一可选实施例中,所述初始命名实体识别模型包括卷积神经网络CNN模型,所述将所述待训练字符向量输入至初始命名实体识别模型,生成训练命名实体识别结果包括:
将所述待训练字符向量输入至所述卷积神经网络CNN模型,生成所述训练命名实体 识别结果。
在一可选实施例中,所述初始命名实体识别模型包括卷积神经网络CNN模型和CRF模型,所述将所述待训练字符向量输入至所述初始命名实体识别模型,生成训练命名实体识别结果包括:
将经过所述卷积神经网络CNN模型处理后的待训练字符向量输入至所述CRF模型,生成所述训练命名实体识别结果。
在一可选实施例中,所述初始命名实体识别模型包括卷积神经网络CNN模型、 Bi-LSTM模型和CRF模型,所述将所述待训练字符向量输入至初始命名实体识别模型, 生成训练命名实体识别结果包括:
将依次经过所述卷积神经网络CNN模型和所述Bi-LSTM模型处理后的待训练字符向 量输入至所述CRF模型,生成所述训练命名实体识别结果。
在一可选实施例中,所述根据所述命名实体识别结果和所述分词识别结果确定针对所 述文本的回应信息包括:
根据所述命名实体识别结果和所述分词识别结果确定所述文本的识别结果;
查询与所述文本识别结果对应的数据;
根据所述数据对所述识别结果进行标注,生成所述回应信息。
另一个方面,本公开实施例还提供了一种终端设备,所述终端设备包括:
接收器,用于接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
处理器,用于将所述文本转换为字符向量,根据所述字符向量和预设的识别模型生成 命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果确定 针对所述文本的回应信息;
显示器,用于对所述回应信息进行显示。
在本公开实施例中,终端设备包括接收器、处理器和显示器,通过处理器将文本转换 为字符向量,并结合识别模型生成回应信息,以实现识别准确率高,且交互可靠性强的终 端设备。
在一可选实施例中,所述终端设备还包括:
扬声器,用于对所述回应信息进行播报。
另一个方面,本公开实施例还提供了一种车辆,所述车辆包括如上任一实施例所述的 终端设备。
在本公开实施例中,车辆包括上述任一实施例所述的终端设备,在实现提高交互的准 确性与可靠性时,还可提高驾驶车辆过程中的安全性的技术效果。
另一个方面,本公开实施例还提供了一种服务器,所述服务器包括:
输入端,用于接收接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
处理端,用于将所述文本转换为字符向量,根据所述字符向量和预设的识别模型生成 命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果确定 针对所述文本的回应信息;
输出端,用于向所述对象输出所述回应信息。
在本公开实施例中,服务器包括输入端、处理端和输出端,通过处理端将文本转换为 字符向量,并结合识别模型生成回应信息,以实现识别准确率高,且交互可靠性强的服务 器。
另一个方面,本公开实施例还提供了一种交互装置,所述交互装置包括:
终端设备,用于将用户输入的交互请求发送至服务器,所述交互请求中携带用于交互 的文本;
所述服务器用于,将所述文本转换为字符向量,根据所述字符向量和预设的识别模型 生成命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果 确定针对所述文本的回应信息,向所述终端设备反馈所述回应信息;
所述终端设备还用于,对所述回应信息进行显示,和/或对所述回应信息进行播报。
在本公开实施例中,交互装置可以包括接收输入请求和反馈回应信息的终端设备,还 可以包括用于对交互请求进行处理的服务器,以实现提高交互的可靠性的技术效果。
另一个方面,本公开实施例还提供了一种电子设备,包括:存储器,处理器;
所述存储器用于存储所述处理器可执行指令的存储器;
其中,当执行所述存储器中的指令时,所述处理器被配置为实现如上任一实施例所述 的方法。
另一个方面,本公开实施例还提供了一种计算机可读存储介质,所述计算机可读存储 介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如上任一实 施例所述的方法。
另一个方面,本公开实施例还提供了一种文本识别方法,所述方法包括:
将接收到的文本转换为字符向量;
根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果;
根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的识别结果。
在本公开实施例中,通过将字符向量输入至识别模型,一方面输出命名实体识别结果, 另一方面还输出分词识别结果,基于两方面的输出结果确定回应信息,以确保回应信息的 高可靠性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1为本公开实施例的交互方法的场景示意图;
图1A为本公开实施例的交互方法的逻辑处理的示意图;
图1B为本公开实施例的交互应用软件的结构示意图;
图2为本公开另一实施例的交互方法的场景示意图;
图3为本公开实施例的交互方法的流程示意图;
图4为本公开实施例的确定识别模型的方法的流程示意图;
图5为本公开实施例的根据训练命名实体识别结果、训练分词识别结果、真实命名实体识别结果、真实分词识别结果、初始命名实体识别模型和初始分词识别模型生 成识别模型的方法的流程示意图;
图6为本公开实施例的识别原理的示意图;
图7为本公开实施例的根据命名实体识别结果和分词识别结果确定针对文本的回应信息的方法的流程示意图;
图8为本公开实施例的终端设备的结构示意图;
图9为本公开实施例的服务器的结构示意图;
图10为本公开实施例的电子设备的结构示意图;
附图标记:10、用户,20、用户终端,30、服务器,40、机器人1、接收器,2、 处理器,3、显示器,4、扬声器,11、输入端,12、处理端、13、输出端。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实 施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性 实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅 是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供的交互方法,可以适用于如图1所示的场景。
在如图1所示的应用场景中,用户10可以通过用户终端20向服务器30发送交互 请求,由服务器30基于交互请求确定回应信息,并将回应信息推送至用户终端20, 以便用户终端20向用户10展示回应信息。
其中,交互请求可以为针对气候的查询的请求,也可以为针对地名(包括景点和饮食等)的查询的请求,还可以是针对知识的查询的请求等等。
另,值得说明的是,本公开实施例提供的交互方法可以应用于电子地图产品中,也可以应用于导航产品中等等,也可以基于本公开实施例提供的交互方法创建交互应 用软件,用户10可以通过下载该并注册交互应用软件对相关内容进行查询。
例如,用户10在用户终端20上输入“北京大学附近餐馆”的交互请求,服务器 30通过本公开实施例提供的方法确定回应信息(如,北京大学[116.2343,34.2323]餐 饮[typecode:100]距离[3km]),并将回应信息推送至用户终端20,由用户终端20对 回应信息进行显示。
可以理解的是,用户10也可以通过语音的方式向用户终端20发起交互,相应地,用户终端20也可以通过语音的方式向用户10反馈回应信息。
基于上述示例和图1A可知,服务器30对“北京大学附近餐馆”的交互请求进行 分词、权重、词性和专有名词处理,得到“词语”:北京大学[0.4]附近[0.1]餐馆[0.5]; 对“北京大学[0.4]附近[0.1]餐馆[0.5]l”进行成分识别归一化、改写和扩展处理,得到 “短语”:北京大学/Location餐饮/Type;对“北京大学/Location餐饮/Type”进行结 构主体泛化处理,得到“语义”:北京大学经纬度周边检索餐饮类型;对“北京大学 经纬度周边检索餐饮类型”进行意图概念处理,得到“意图”:北京大学[116.2343, 34.2323]餐饮[typecode:100]距离[3km]。
其中,交互应用软件可以包括底层、任务层和应用层,结构示意图可参见图1B。
结合图1B可知,底层是交互应用软件的基础,可包括标注数据模块、数据挖掘 模块和深度学习模块。
现结合图1B对图1A对应的示例的实现原理进行详细阐述,其中:
标注数据模块用于,从交互日志中获取标注数据;或者,采用人工标注方式对交互数据进行标注,得到标注数据;或者,通过对交互日志的数据进行置换等得到扩展 后的标注数据;或者,通过对交互日志的数据进行置换等得到扩展后的数据,对扩展 后数据进行标注,得到标注数据。如,标注数据包括上述示例中的“北京大学”。
数据挖掘模块,用于对标注数据进行挖掘以提高识别模型的准确率。
在一可选实施例中,可在数据挖掘模块中设置匹配算法,以便通过匹配算法对标注数据进行挖掘。如,对标注数据“北京大学”进行挖掘,得到“清华大学”等。
深度学习模块,用于在得到标注数据后,通过网络模型对标注数据进行学习训练,以便得到识别模块,其中,深度学习模块的学习训练过程可参见后文中确定识别模型 的方法,此处不再赘述。
任务层包括:分词模块(也可称为词性标注模块),成分分析模块(也可称为句 法分析模块),实体识别模块,主题模型模块和语义表示模块。
其中,分词模块,用于对获取到的交互数据进行分词处理和词性标注处理。如, 对“北京大学附近餐馆”进行分词处理和词性标注处理,分词处理结果可以包括“北 京大学、附近和餐馆”,词性标注处理结果可以包括“名词和形容词”。
成分分析模块,用于分析交互数据的句子组成成分,以及句法之间相互依赖关系分析。基于上述示例,由成分分析模块对“北京大学附近餐馆”进行处理,得到“词 语”:北京大学[0.4]附近[0.1]餐馆[0.5]。
实体识别模块,用于对交互语句的语义进行表示并匹配,语义表示模块可通过One-hot和奇异值分解实现,还可以通过深度学习中的Word2Vec、FastText、Elmon 和Bert等实现。基于上述示例,由实体识别模块对北京大学[0.4]附近[0.1]餐馆[0.5]进 行处理,得到“短语”:北京大学/Location餐饮/Type。
主题模型模块,用于将不同的交互请求归类到不同的主题中,不同的交互请求也可以分类成不同的类别,即进行结构主体泛化处理。基于上述示例,由主题模型模块 对北京大学/Location餐饮/Type进行处理,得到“语义”:北京大学经纬度周边检索 餐饮类型。
语义表示模块,用于对“北京大学经纬度周边检索餐饮类型”进行意图概念处理,得到“意图”:北京大学[116.2343,34.2323]餐饮[typecode:100]距离[3km]。
在一可选实施例中,语义表示模块将“意图”发送至搜索系统,以便搜索系统将“意图”组成搜索语句,并进行搜索,得到搜索结果。
应用层包括:智能客服模块、对话助手模块和知识图谱模块。
其中,智能客服模块,用于接收搜索系统反馈的搜索结果,并将搜索结果反馈至用户终端。
对话助手模块,用于接收搜索系统反馈的搜索结果,并将搜索结果以语音的形式反馈至用户。
知识图谱模块,用于接收搜索系统反馈的搜索结果,并将搜索结果进行存储,以便后续进行调用。
在一可选实施例中,本公开实施例提供的交互方法还可以应用于人机交互的应用场景中,示例性应用场景可参阅图2。
如图2所示,用户10通过语音的方式与机器人40进行交互。例如,用户10通过 语音的方式向机器人40发送交互请求,机器人40执行本公开实施例提供的交互方法 确定回应信息,并以语音的方式将回应信息反馈给用户10。
当然,在该应用场景中,可在机器人40上设置输入输出装置(或者可在机器人 40上设置外接端口,将输入输出装置通过外接端口与机器人40相连接),用户10在 输入输出装置上输入用于交互的文本,并触发交互请求,机器人40执行本公开实施例 提供的交互方法确定回应信息,并将回应信息在输入输出装置上显示。
下面以一可选实施例对本公开的技术方案以及本申请的技术方案如何解决上述技 术问题进行详细说明。下面这几个实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本公开的实施例进行描述。
方法实施例:
一个方面,本公开实施例提供了一种适用于上述场景的交互方法。
请参阅图3,图3为本公开实施例的交互方法的流程示意图。
如图3所示,该方法包括:
S101:接收对象发送的交互请求,交互请求中携带用于交互的文本。
在一可选实施例中,执行本公开实施例的交互方法的主体为基于交互装置,该装置可以为服务器,也可以为智能设备,也可以为交互设备(如机器人等)等等。
结合图1和图2所示的应用场景可知,在本公开实施例中,对象可以为用户,也 可以为用户终端,用户终端包括但不限于手机、iPad、智能手表、智能手环和笔记本。
当对象为用户,交互对象为机器人时,则用户向机器人发送用于指示进行交互请求的语音指令,该语音指令中携带用于交互的文本。
当对象用户终端,交互对象为服务器时,则用户在用户终端上输入用于交互的文本,并触发交互请求;或者,用户向用户终端发起用于指示进行交互请求的语音指令, 该语音指令中携带用于交互的文本,用户终端将语音指令进行转换,转换为文本信息, 并将文本信息发送至服务器。
S102:将文本转换为字符向量。
在该步骤中,对文本进行格式转换,以便将文本转换为字符向量。
在一可选实施例中,通过热独码的方式将文本转换为字符向量。独热码(one-hotcode),一般来说,有多少个状态就有多少比特,而且只有一个比特为1,其他全为0 的一种码制,可以采用八位或者十六位状态的独热码。
但是,需要说明的是,还可以采用其它转换的方式,如二进制编和格雷码等,本 公开实施例对转换的方式不做限定。
S103:根据字符向量和预设的识别模型生成命名实体识别结果和分词识别结果。
在该步骤中,将字符向量输入至预设的识别模型,一方面输出命名实体识别结果,另一方面输出分词识别结果。
当然,在一可选实施例中,交互装置将命名实体识别结果和分词结果反馈至对象,对象对命名实体识别结果和分词结果进行确认,若对象对命名实体识别结果和分词结果进行了确认(即对象对命名实体识别结果和分词结果表示满意),则执行S104;若对象不认 可命名实体识别结果和分词结果,则对象可向交互装置发送反馈信息,交互装置接收对象 发送的反馈信息,并基于反馈信息对命名实体识别结果和分词结果进行调整。
S104:根据命名实体识别结果和分词识别结果确定针对文本的回应信息。
在现有技术中,是通过将文本输入至CRF(Conditional Random Field,条件随机场 算法)等模型中,输出识别结果,并基于该识别结果生成回应信息。
但是,由于文本的字与字之间分割不明确,确定边界很困难,尤其是中文的文本,中文不像英文一样有明显的字特征,例如:大小写、缩写、形态等,英文句子有明显 的分隔符。且中文里的汉字可以有多种解释,例如:“拳王阿里是个传奇”、“西藏 阿里美不胜收”、“杭州阿里吸引很多人才”,三个文本中的每一个“阿里”都代表 不同含义,分别为人物、地点、公司名称。在本公开实施例中,根据命名实体识别结 果和分词识别结果确定回应信息,可确保回应信息的可靠性和精确性。
S105:向对象反馈回应信息。
基于上述示例可知,在该步骤中,服务器向用户终端反馈回应信息,用户终端通过语 音的方式或者在终端界面显示的方式向用户反馈回应信息;或者,机器人通过语音的方式 或者在输入输出设备上显示的方式向用户反馈回应信息。
以上实施提对交互方法进行了说明,通过接收对象发送的交互请求,交互请求中携 带用于交互的文本,将文本转换为字符向量,根据字符向量和预设的识别模型生成命名实 体识别结果和分词识别结果,根据命名实体识别结果和分词识别结果确定针对文本的回应 信息,向对象反馈回应信息,通过将字符向量输入至预设的识别模型,以便生成命名实体 识别结果和分词识别结果,即确定两个分支的识别结果,在现有技术中,仅确定一个分支 的识别结果,而在本公开实施例中,通过将字符向量输入至识别模型,一方面输出命名实体识别结果,另一方面还输出分词识别结果,基于两方面的输出结果确定回应信 息,以确保回应信息的高可靠性。下面,结合图4至图7对本公开实施例的交互方法 做进一步说明:
请参阅图4,图4为本公开实施例的确定识别模型的方法的流程示意图。
如图4所示,该方法包括:
S01:将预设的待训练文本转换为待训练字符向量。
例如,从各文本中选取待训练文本,并将待训练文本转换为待训练字符向量。
同理,在该步骤中,亦可以采用热独码的方式进行转换。
且,可以根据待训练文本进行衍生数据的处理,即确定与待训练文本的相似的文本,并将该相似的文本添加至待训练文本中。如,待训练文本中包括“北京大学在北 京”,进行衍生处理后,得到新的文本“清华大学在北京”,并将“清华大学在北京” 的文本添加至待训练文本中。
S02:将待训练字符向量输入至初始命名实体识别模型,生成训练命名实体识别结果。
其中,初始命名实体识别模型为用于对待训练字符向量进行识别,且输出训练命名实体识别结果的模型。也就是说,但凡能对待训练字符进行识别,得到相应测试结 果,且该测试结果为训练命名实体识别结果的模型均可以称为初始命名实体识别模型。
S03:将待训练字符向量输入至初始分词识别模型,生成训练分词识别结果。
同理,初始分词识别模型为用于对待训练字符向量进行识别,且输出训练分词识别结果的模型。也就是说,能对待训练字符进行识别,得到相应测试结果,且该测试 结果为训练分词识别结果的模型均可以称为初始分词识别模型。
在一可选实施例中,初始分词识别模型可采用隐马尔科夫模型(HMM)。
S04:获取为待训练字符向量分配的真实命名实体识别结果,并获取为待训练字符向量分配的真实分词识别结果。
可以理解的是,在进行训练之前,可以为待训练字符向量分配真实结果,以便将测试结果与真实结果进行比对,从而进行对相关模型的参数进行调整,以确保最终训 练得到的模型的稳定性和可靠性。
S05:根据训练命名实体识别结果、训练分词识别结果、真实命名实体识别结果、真实分词识别结果、初始命名实体识别模型和初始分词识别模型生成识别模型。
结合图5可知,在一可选实施例中,S05包括:
S051:根据训练命名实体识别结果和真实命名实体识别结果对初始命名实体识别模型的参数进行调整,得到目标命名实体识别模型。
S052:根据训练分词识别结果和真实分词识别结果对初始分词识别模型的参数进行调整,得到目标分词识别模型。
在参数调整过程中,参数调整的幅度可以基于测试值与真实值之间的差异。一般而言,测试结果与真实结果之间的差异越大,则参数的调整幅度就越大;测试结果与 真实结果之间的差异越小,则参数的调整幅度就越小。
S053:根据目标命名实体识别模型和目标分词识别模型生成识别模型。
也就是说,在本公开实施例中,识别模型至少包括两部分,一部分为目标命名实体识别模型,另一部分为目标分词识别模型。本公开实施例通过训练同时包括命名实体 识别模型和分词识别模型的识别模型,能够避免现有技术中识别结果不准确,导致回 应信息不精确的技术问题,实现了提高识别的准确性,且提高了回应信息的可靠性和 稳定性,进而提高用户的交互体验。
在一可选实施例中,初始命名实体识别模型包括卷积神经网络CNN模型,S02包括:
将待训练字符向量输入至卷积神经网络CNN模型,生成训练命名实体识别结果。
其中,CNN卷积神经网络模型是一种深度学习模型,包括至少两层级联的卷积层、顶端的全连接层(Fully Connected Layers,FC)和软最大化函数(Softmax)组成,可选的,每一层卷积层后包括一层池化层。
在一可选实施例中,初始命名实体识别模型包括卷积神经网络CNN模型和CRF模型,S02包括:
将经过卷积神经网络CNN模型处理后的待训练字符向量输入至CRF模型,生成 训练命名实体识别结果。
其中,CRF模型是一种判别式概率模型,是随机场的一种,常用于标注或分析序 列资料,如自然语言文字或是生物序列。
在该实施例中,先将待训练字符向量输入至卷积神经网络CNN模型,由卷积神经网络CNN模型对待训练字符向量进行卷积处理后,将卷积处理后的待训练字符向量输 入至CRF模型,CRF模型输出训练命名实体识别结果。
在一可选实施例中,初始命名实体识别模型包括卷积神经网络CNN模型、Bi-LSTM模型和CRF模型,S02包括:
将依次经过CNN卷积神经网络模型和Bi-LSTM模型处理后的待训练字符向量输 入至CRF模型,生成训练命名实体识别结果。
其中,LSTM(Long Short-Term Memory,长短期记忆)模型:是一种时间递归神经网络模型,可有效解决传统循环神经网络模型长路径依赖的问题,Bi-LSTM模型:双 向LSTM模型,可以充分考虑文本中的上下文词与词之间的关系,充分利用了双向信 息。
在该步骤中,将待训练字符向量输入至卷积神经网络CNN模型,由卷积神经网络CNN模型对待训练字符向量进行卷积处理,并将经过卷积处理的待训练字符向量输入 至Bi-LSTM模型,由Bi-LSTM模型对接收到的字符向量进行双向信息识别处理,并 将经过双向信息识别处理后的字符向量输入至CRF模型,由CRF模型进行识别后输 出训练命名实体识别结果。
现结合图6对本实施例的识别原理进行详细的阐述,例如:
将“北京大学在北京”转换为字符向量,记为:padding、x1、x2、x3、x4、x5、 x6、x7、x8、padding。
第一支路可以包括:
将字符向量输入至卷积神经网络CNN模型,由卷积神经网络CNN模型对字符向量进行卷积处理,得到卷积层向量,记为:c1、c2、c3、c4、c5、c6、c7。
将卷积层向量输入至Bi-LSTM模型,由Bi-LSTM模型对卷积层向量进行双向信息处理。Bi-LSTM模型通过加入部分当前输入信息,最终整合到当前状态并产生输出状态。例如:Bi-LSTM模型的输入层的数据会经过向前和向后两个方向推算,最后输出的隐含状态再进行concat,再作为下一层的输入。
将Bi-LSTM模型的输出向量(记为h1、h2、h3、h4、h5、h6、h7)输入至CRF模型。 在CRF模型中,可以利用BIO标注来对文本中的所有命名实体(人名、组织名、地点、时 间等)进行标注,从而可以得到多个B和I的类别,如B-ORG、I-ORG、B-PERS、I-PERS 等,其中,PERS对应的实体类型为人名,ORG对应的实体类型为组织名。在本公开实施 例中,输出为B-ORG、I-ORG、I-ORG、I-ORG、O、B-LOC、I-LOC。
第二支路可以包括:
将字符向量输入至分词网络模型,并输出分词识别结果。如图6所示,在本公开 实施例中,输出为:B、I、I、I、B、B、I。
通过结合第一支路的输出结果和第二支路的输出结果确定对“北京大学在北京”的识 别结果。
结合图7可知,在一可选实施例中,S104可进一步包括:
S1041:根据命名实体识别结果和分词识别结果确定文本的识别结果。
S1042:查询与文本识别结果对应的数据。
基于上述示例可知,该步骤包括查询北京大学的位置数据(可以为经纬度等), 以及餐馆与北京大学的距离数据等等。
S1043:根据数据对识别结果进行标注,生成回应信息。
产品实施例:
根据本公开实施例的另一个方面,本公开实施例还提供了一种终端设备。
请参阅图8,图8为本公开实施例的终端设备的结构示意图。
如图8所示,该终端设备包括:
接收器1,用于接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
处理器2,用于将所述文本转换为字符向量,根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识 别结果确定针对所述文本的回应信息;
显示器3,用于对所述回应信息进行显示。
结合图8可知,在一些实施例中,所述终端设备还包括:
扬声器4,用于对所述回应信息进行播报。
根据本公开实施例的另一个方面,本公开实施例还提供了一种终端设备。
在一可选实施例中,终端设备包括但不限于手机、iPad、智能手表和智能手环、车载 终端。
根据本公开实施例的另一个方面,本公开实施例还提供了一种车辆,所述车辆包括上 述任一实施例所述的终端设备。
在一可选实施例中,终端设备与车载终端一体合成。
根据本公开实施例的另一个方面,本公开实施例还提供了一种服务器。
请参阅图9,图9为本公开实施例的服务器的结构示意图。
如图9所示,该服务器包括:
输入端11,用于接收接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
处理端12,用于将所述文本转换为字符向量,根据所述字符向量和预设的识别模型生 成命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果确 定针对所述文本的回应信息;
输出端13,用于向所述对象输出所述回应信息。
根据本公开实施例的另一个方面,本公开实施例还提供了一种交互装置,所述交互装 置包括:
终端设备,用于将用户输入的交互请求发送至服务器,所述交互请求中携带用于交互 的文本;
所述服务器用于,将所述文本转换为字符向量,根据所述字符向量和预设的识别模型 生成命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果 确定针对所述文本的回应信息,向所述终端设备反馈所述回应信息;
所述终端设备还用于,对所述回应信息进行显示,和/或对所述回应信息进行播报。
根据本公开实施例的另一个方面,本公开实施例还提供了一种电子设备,包括:存储 器,处理器;
存储器用于存储处理器可执行指令的存储器;
其中,当执行存储器中的指令时,处理器被配置为实现如上任一实施例所述的方法。
请参阅图10,图10为本公开实施例的电子设备的结构示意图。
如图10所示,该电子设备包括存储器和处理器,该电子设备还可以包括通信接口和 总线,其中,处理器、通信接口和存储器通过总线连接;处理器用于执行存储器中存储的可执行模块,例如计算机程序。
其中,存储器可能包含高速随机存取存储器(RAM,Random Access Memory),也可能 还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个 通信接口可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以 使用互联网,广域网,本地网,城域网等。
总线可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。
其中,存储器用于存储程序,处理器在接收到执行指令后,执行程序,前述本公开实 施例任一实施例揭示的方法可以应用于处理器中,或者由处理器实现。
处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的 各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器 可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器 (Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignalProcessing,简称 DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现成可编程门阵 列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体 管逻辑器件、分立硬件组件。结合本公开实施例所公开的方法的步骤可以直接体现为硬件 译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可 以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、 寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息, 结合其硬件完成上述方法的步骤。
根据本公开实施例的另一个方面,本公开实施例还提供了一种计算机可读存储介质, 计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于 实现如上任一实施例所述的方法。
根据本公开实施例的另一个方面,本公开实施例还提供了一种文本识别方法,该方法 包括:
S1:将接收到的文本转换为字符向量;
S2:根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果;
S3:根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的识别结果。
读者应理解,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“示例”、或“一些示例”等的描述意指结合该实施例或示例描述的特征、结构或 者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表 述不必针对的是相同的实施例或示例。而且,描述的特征、结构或者特点可以在任一个或 多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人 员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和 组合。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和 单元的工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它 的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件 可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元 上。可以根据实际的需要选择其中的部分或者全部单元来实现本公开实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各 个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元 既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存 储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对 现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来, 该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以 是个人计算机,服务器,或者网络设备等)执行本公开各个实施例方法的全部或部分步骤。 而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码 的介质。
还应理解,在本公开各实施例中,上述各过程的序号的大小并不意味着执行顺序的先 后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构 成任何限定。
以上,仅为本公开的实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术 领域的技术人员在本公开揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修 改或替换都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保 护范围为准。
Claims (15)
1.一种交互方法,其特征在于,所述方法包括:
接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
将所述文本转换为字符向量;
根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果;
根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的回应信息;
向所述对象反馈所述回应信息。
2.根据权利要求1所述的方法,其特征在于,确定所述识别模型的方法包括:
将预设的待训练文本转换为待训练字符向量;
将所述待训练字符向量输入至初始命名实体识别模型,生成训练命名实体识别结果;
将所述待训练字符向量输入至初始分词识别模型,生成训练分词识别结果;
获取为所述待训练字符向量分配的真实命名实体识别结果,并获取为所述待训练字符向量分配的真实分词识别结果;
根据所述训练命名实体识别结果、所述训练分词识别结果、所述真实命名实体识别结果、所述真实分词识别结果、所述初始命名实体识别模型和所述初始分词识别模型生成所述识别模型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述训练命名实体识别结果、所述训练分词识别结果、所述真实命名实体识别结果、所述真实分词识别结果、所述初始命名实体识别模型和所述初始分词识别模型生成所述识别模型包括:
根据所述训练命名实体识别结果和所述真实命名实体识别结果对所述初始命名实体识别模型的参数进行调整,得到目标命名实体识别模型;
根据所述训练分词识别结果和所述真实分词识别结果对所述初始分词识别模型的参数进行调整,得到目标分词识别模型;
根据所述目标命名实体识别模型和所述目标分词识别模型生成所述识别模型。
4.根据权利要求2或3所述的方法,其特征在于,所述初始命名实体识别模型包括卷积神经网络CNN模型,所述将所述待训练字符向量输入至初始命名实体识别模型,生成训练命名实体识别结果包括:
将所述待训练字符向量输入至所述卷积神经网络CNN模型,生成所述训练命名实体识别结果。
5.根据权利要求2或3所述的方法,其特征在于,所述初始命名实体识别模型包括卷积神经网络CNN模型和CRF模型,所述将所述待训练字符向量输入至所述初始命名实体识别模型,生成训练命名实体识别结果包括:
将经过所述卷积神经网络CNN模型处理后的待训练字符向量输入至所述CRF模型,生成所述训练命名实体识别结果。
6.根据权利要求2或3所述的方法,其特征在于,所述初始命名实体识别模型包括卷积神经网络CNN模型、Bi-LSTM模型和CRF模型,所述将所述待训练字符向量输入至初始命名实体识别模型,生成训练命名实体识别结果包括:
将依次经过所述卷积神经网络CNN模型和所述Bi-LSTM模型处理后的待训练字符向量输入至所述CRF模型,生成所述训练命名实体识别结果。
7.根据权利要求1至3中任一项所述的方法,其特征在于,所述根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的回应信息包括:
根据所述命名实体识别结果和所述分词识别结果确定所述文本的识别结果;
查询与所述文本识别结果对应的数据;
根据所述数据对所述识别结果进行标注,生成所述回应信息。
8.一种终端设备,其特征在于,所述终端设备包括:
接收器,用于接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
处理器,用于将所述文本转换为字符向量,根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的回应信息;
显示器,用于对所述回应信息进行显示。
9.根据权利要求8所述的终端设备,其特征在于,所述终端设备还包括:
扬声器,用于对所述回应信息进行播报。
10.一种车辆,其特征在于,所述车辆包括如权利要求8或9所述的终端设备。
11.一种服务器,其特征在于,所述服务器包括:
输入端,用于接收接收对象发送的交互请求,所述交互请求中携带用于交互的文本;
处理端,用于将所述文本转换为字符向量,根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的回应信息;
输出端,用于向所述对象输出所述回应信息。
12.一种交互装置,其特征在于,所述交互装置包括:
终端设备,用于将用户输入的交互请求发送至服务器,所述交互请求中携带用于交互的文本;
所述服务器用于,将所述文本转换为字符向量,根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果,根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的回应信息,向所述终端设备反馈所述回应信息;
所述终端设备还用于,对所述回应信息进行显示,和/或对所述回应信息进行播报。
13.一种电子设备,包括:存储器,处理器;
所述存储器用于存储所述处理器可执行指令的存储器;
其中,当执行所述存储器中的指令时,所述处理器被配置为实现如权利要求1至7中任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至7中任一项所述的方法。
15.一种文本识别方法,其特征在于,所述方法包括:
将接收到的文本转换为字符向量;
根据所述字符向量和预设的识别模型生成命名实体识别结果和分词识别结果;
根据所述命名实体识别结果和所述分词识别结果确定针对所述文本的识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911235183.4A CN112925887A (zh) | 2019-12-05 | 2019-12-05 | 交互方法和装置、电子设备、存储介质、文本识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911235183.4A CN112925887A (zh) | 2019-12-05 | 2019-12-05 | 交互方法和装置、电子设备、存储介质、文本识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112925887A true CN112925887A (zh) | 2021-06-08 |
Family
ID=76160967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911235183.4A Pending CN112925887A (zh) | 2019-12-05 | 2019-12-05 | 交互方法和装置、电子设备、存储介质、文本识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112925887A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN109255119A (zh) * | 2018-07-18 | 2019-01-22 | 五邑大学 | 一种基于分词和命名实体识别的多任务深度神经网络的句子主干分析方法及系统 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
CN110502621A (zh) * | 2019-07-03 | 2019-11-26 | 平安科技(深圳)有限公司 | 问答方法、问答装置、计算机设备及存储介质 |
-
2019
- 2019-12-05 CN CN201911235183.4A patent/CN112925887A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536679A (zh) * | 2018-04-13 | 2018-09-14 | 腾讯科技(成都)有限公司 | 命名实体识别方法、装置、设备及计算机可读存储介质 |
CN109255119A (zh) * | 2018-07-18 | 2019-01-22 | 五邑大学 | 一种基于分词和命名实体识别的多任务深度神经网络的句子主干分析方法及系统 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
CN110502621A (zh) * | 2019-07-03 | 2019-11-26 | 平安科技(深圳)有限公司 | 问答方法、问答装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108287858B (zh) | 自然语言的语义提取方法及装置 | |
JP6923332B2 (ja) | 自動通訳方法及び装置 | |
US12008336B2 (en) | Multimodal translation method, apparatus, electronic device and computer-readable storage medium | |
CN111523306A (zh) | 文本的纠错方法、装置和系统 | |
CN110019745A (zh) | 具有自学习自然语言理解的对话系统 | |
KR102046486B1 (ko) | 정보 입력 방법 | |
CN110162770A (zh) | 一种词扩展方法、装置、设备及介质 | |
CN111967224A (zh) | 对话文本的处理方法、装置、电子设备及存储介质 | |
CN107844470B (zh) | 一种语音数据处理方法及其设备 | |
US11514916B2 (en) | Server that supports speech recognition of device, and operation method of the server | |
CN114596861A (zh) | 针对问题和回答的显示装置和方法 | |
CN105229728A (zh) | 多识别器语音识别 | |
CN110910903B (zh) | 语音情绪识别方法、装置、设备及计算机可读存储介质 | |
CN111192570B (zh) | 语言模型训练方法、系统、移动终端及存储介质 | |
CN112199473A (zh) | 一种知识问答系统中的多轮对话方法与装置 | |
CN111488468A (zh) | 地理信息知识点抽取方法、装置、存储介质及计算机设备 | |
CN113051384A (zh) | 基于对话的用户画像抽取方法及相关装置 | |
CN111523532A (zh) | 一种矫正ocr文字识别错误的方法及终端设备 | |
CN116522905B (zh) | 文本纠错方法、装置、设备、可读存储介质及程序产品 | |
US20190279623A1 (en) | Method for speech recognition dictation and correction by spelling input, system and storage medium | |
CN112527967A (zh) | 文本匹配方法、装置、终端和存储介质 | |
US10600405B2 (en) | Speech signal processing method and speech signal processing apparatus | |
CN112925887A (zh) | 交互方法和装置、电子设备、存储介质、文本识别方法 | |
CN110728137B (zh) | 用于分词的方法和装置 | |
CN111626059B (zh) | 一种信息处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |