CN114048298A - 意图理解方法、装置、设备及介质 - Google Patents
意图理解方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114048298A CN114048298A CN202111392473.7A CN202111392473A CN114048298A CN 114048298 A CN114048298 A CN 114048298A CN 202111392473 A CN202111392473 A CN 202111392473A CN 114048298 A CN114048298 A CN 114048298A
- Authority
- CN
- China
- Prior art keywords
- intention
- entity
- passenger
- processed
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 51
- 238000012549 training Methods 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 6
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000007418 data mining Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 230000011218 segmentation Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 11
- 230000000246 remedial effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 6
- 230000018109 developmental process Effects 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 238000009223 counseling Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000037213 diet Effects 0.000 description 3
- 235000005911 diet Nutrition 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011022 operating instruction Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005067 remediation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2216/00—Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
- G06F2216/03—Data mining
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Algebra (AREA)
- Human Computer Interaction (AREA)
- Computational Mathematics (AREA)
- Evolutionary Computation (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种意图理解方法、装置、设备及介质,该方法包括:对获取旅客的待处理自然语句;对待处理自然语句进行实体抽取和意图识别,得到待处理自然语句的实体和多种意图类型信息;获取旅客的当前位置和待办出行事项,基于当前位置、待办出行事项和实体,从多种意图类型信息中选择符合旅客意愿的意图决策结果;从预设的问答服务模型库中,确定与意图决策结果以及实体相匹配的答案。该方案对采集到的旅客实时的自然语句进行数据挖掘,深度理解出旅客的意图决策结果,并能够确定出与意图决策结果相匹配的答案,从而为旅客提供准确性较高的信息服务,提高了特殊旅客的机场服务质量。
Description
技术领域
本发明一般涉及信息处理技术领域,具体涉及一种意图理解方法、装置、设备及介质。
背景技术
随着民航技术的快速发展,其为越来越多的人们的出行带来了极大的便利,其中,旅客在机场出行过程中,对于自然语言的意图理解是机场智能化场景中必不可少的一环,能够使得旅客通过人机交互设备针对语言语句或文本语言进行人机交互,从而辅助该旅客完成相应的操作需求。
目前,相关技术中通过传统的机器学习和深度学习等分类方法对旅客问题进行意图识别,但是由于机场环境复杂、旅客语言表达不精准,导致机器人等设备无法快速精准地识别出旅客的真正意图,从而降低了服务质量。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种意图理解方法、装置、设备及介质。
第一方面,本发明提供了一种意图理解方法,该方法包括:
获取旅客的待处理自然语句;
对所述待处理自然语句进行实体抽取和意图识别,得到所述待处理自然语句的实体和多种意图类型信息;
获取旅客的当前位置和待办出行事项,基于所述当前位置、所述待办出行事项和所述实体,从所述多种意图类型信息中选择符合所述旅客意愿的意图决策结果;
从预设的问答服务模型库中,确定与所述意图决策结果以及所述实体相匹配的答案。
第二方面,本申请实施例提供了一种意图理解装置,该装置包括:
预处理模块,用于对获取的旅客的待处理自然语句进行预处理,得到处理后的结果;
第一确定模块,用于对所述待处理自然语句进行实体抽取和意图识别,得到所述待处理自然语句的实体和多种意图类型信息;
第二确定模块,用于获取旅客的当前位置和待办出行事项,基于所述当前位置和所述待办出行事项,从所述多种意图类型信息中选择符合所述旅客意愿的意图决策结果;
第三确定模块,用于从预设的问答服务模型库中,确定与所述意图决策结果以及所述实体相匹配的答案。
第三方面,本申请实施例提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述所述意图理解方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序用于实现如第一方面所述的意图理解方法。
综上所述,本申请实施例提供的意图理解方法、装置、设备及介质,通过对获取的旅客的待处理自然语句,并对待处理自然语句进行实体抽取和意图识别,得到待处理自然语句的实体和多种意图类型信息,然后获取旅客的当前位置和待办出行事项,基于当前位置、待办出行事项和实体,从多种意图类型信息中选择符合旅客意图的意图决策结果,并从预设的问答服务模型库中,确定与意图决策结果以及实体相匹配的答案。该方案对采集到的旅客实时的自然语句进行数据挖掘,深度理解出旅客的意图决策结果,并能够确定出与意图决策结果相匹配的答案,从而为旅客提供准确性较高的信息服务,提高了特殊旅客的机场服务质量。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的意图理解的实施环境的架构示意图;
图2为本申请实施例提供的意图理解方法的流程示意图;
图3为本申请实施例提供的语法格式的示意图;
图4为本申请实施例提供的确定处理后的结果方法的流程示意图;
图5为本申请实施例提供的确定的分词的结果示意图;
图6为本申请实施例提供的编码处理的结构示意图;
图7为本申请实施例提供的python环境中实现词向量编码的示意图;
图8为本申请实施例提供的联合识别模型的结构示意图;
图9为本申请实施例提供的语义槽填充模型的训练结构示意图;
图10为本申请实施例提供的实体抽取和意图识别结果的示意图;
图11为本申请实施例提供的查找相匹配的答案的流程示意图;
图12为本发明实施例提供的意图理解装置的结构示意图;
图13为本发明实施例提供的计算机设备的结构示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合;并且,基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
可以理解,旅客在机场出行过程中,为了提高机场服务的效率,对自然语言的意图理解显得尤为重要,其中,意图识别可以视为一种分类问题。相关技术中通过传统的基于规则学习、机器学习灯传统分类和深度学习分类方法对旅客问题进行意图识别,首先通过人工提取问题的特征,然后使用分类器进行训练,最后使用训练好的分类器进行意图识别,但是传统的分类方法需要手动提取特征,当数据集发生变化时,需要重新设计,通常会导致诸如特征设计和选择的问题,无法深层次提取语义特征,从而耗费大量人力。随着深度学习的发展,出现了循环神经网络(RNN)、长短时记忆网络(LSTM)、双向长短时记忆网络(BLSTM)等方法,然而该方法需要耗费大量时间和训练语料。
基于上述缺陷,本发明实施例提供了一种意图理解方法,通过对获取的旅客的待处理自然语句,并对待处理自然语句进行实体抽取和意图识别,得到待处理自然语句的实体和多种意图类型信息,然后获取旅客的当前位置和待办出行事项,基于当前位置、待办出行事项和实体,从多种意图类型信息中选择符合旅客意图的意图决策结果,并从预设的问答服务模型库中,确定与意图决策结果以及实体相匹配的答案。该方案对采集到的旅客实时的自然语句进行数据挖掘,深度理解出旅客的意图决策结果,并能够确定出与意图决策结果相匹配的答案,从而为旅客提供准确性较高的信息服务,提高了特殊旅客的机场服务质量。
图1是本申请实施例提供的一种意图理解方法的实施环境架构图。如图1所示,该实施环境架构包括:终端100和服务器200。
终端100可以是智能电视、智能电视机顶盒等智能家居设备,或者终端100可以是智能手机、平板电脑以及电子书阅读器等移动式便携终端,或者,该终端100可以是智能眼镜、智能手表等智能可穿戴设备,本实施例对此不进行具体限定。
服务器200可以是一台服务器,也可以是由若干台服务器构成的服务器集群,或者服务器200可以包含一个或多个虚拟化平台,或者服务器200可以是一个云计算服务中心。
其中,服务器200可以是为上述终端100中安装的AI应用提供后台服务的服务器设备。
终端100与服务器200之间通过有线或无线网络建立通信连接。可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan AreaNetwork,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合。
为了便于理解和说明,下面通过图2至图13详细阐述本申请实施例提供的意图理解方法、装置、设备及介质。
需要说明的是,下述法实施例的执行主体可以是意图理解装置,该装置可以通过软件、硬件或者软硬件结合的方式实现成为终端设备的部分或者全部。下述方法实施例的执行主体以服务器为例来进行说明。
图2为本发明实施例提供的意图理解方法的流程示意图,如图2所示,该方法包括:
S101、获取旅客的待处理自然语句。
具体的,可以通过接收旅客输入的操作指令,该操作指令可以是用户通过语音操作生成的,也可以是通过触控操作生成的,然后响应于该操作指令获取旅客的待处理自然语句。
需要说明的是,可以预先构建意图类别库,以为自然语言的学习提供基础训练数据,具体可以通过与机场工作人员和功能障碍旅客进行用户调研,枚举出旅客在航空出行过程中可能产生的问题意图,并对问题意图进行归类,可以得到意图类别库,以下为示出为意图类别库中部分意图类型信息:
(1)购票意图:买张明天到成都的机票、下午3点到重庆的票。
(2)查询意图:查询航班信息、交通接驳信息查询。
(3)值机意图:在哪里办理登记牌?怎么值机?
(4)支付意图:怎么支付呢?用支付宝。
(5)托运意图:请问在哪里托运?电脑可以托运吗?
(6)问路意图:请问A12登记口怎么走?请问厕所在哪儿?
(7)服务意图:我需要帮助、我想办身份证。
(8)安检意图:在哪里安检?钥匙需要拿出来吗?
本实施例中可以针对意图识别库中的关键词设计各种可能的服务需求语料,从而为下一步自然语言的学习提供基础训练数据,可选的,为了有足够多的用于算法训练的预料样本,可以采用Chatito工具的DSL语言实现样本的生成,其语法格式如图3所示。
需要说明的是,上述图3中“%[consign_for_shipment]”表示意图为consign_for_shipment。
“@[package]”表示为这是一个实体标识,实体为package。
“~[action]、~[start]、~[question]”表示为各类短语句。
“*[90%]~[start]~[action]@[package]”表示这个当前组合语句占比整个语料文件的90%。
“*[10%]~[question]”表示question这个语句占比整个语料文件的10%。
本实施例中可以通过Chatito工具生成语料中可自动标识出意图、语句、以及对应的实体值。
可选的,在上述实施例的基础上,如图4所示,图4为本申请实施例提供的确定处理后的结果方法的流程示意图,该方法包括:
S201、对待处理自然语句进行分词处理,得到多个单词。
S202、对多个单词进行编码处理,得到每个单词对应的词向量。
S203、将词向量作为处理后的结果。
具体的,可以对待处理自然语句通过分词和词向量编码等处理,得到处理后的结果。其中,可以采用JIEBA分词器对待处理自然语句进行分词处理,从而得到分词后的结果。示例性地,待处理自然语句为“Where can I check my suitcase”,即“请问在哪里托运行李箱”,对其进行分词处理后,得到的分词后的结果为“Where/check/suitcase”,即“请问/在/哪里/托运/行李箱”,该分词后的结果,即多个单词可以参见图5所示。
在得到分词后的结果后,可以先将其视为标记序列,在处理前需要将标记序列转换为对应的词向量,对多个单词进行编码处理,得到词向量,请参见图6所示,可以将多个单词输入(Bidirectional Encoder Representations from Transformers,BERT)模型进行编码处理,从而输出对应的词向量,如“查询”一词的词向量编码可以参见图7所示。其中,上述BERT模型是一个Word2Vec(词转换为词向量)模型,刷新了NLP(自然语言处理)领域的11个方向的精度。可以理解的是,上述分词处理和编码处理均可以通过pathon环境中实现。
S102、对待处理自然语句进行实体抽取和意图识别,得到待处理自然语句的实体和多种意图类型信息。
其中,在对待处理自然语句进行实体抽取和意图识别的过程中,可以将待处理自然语句输入预先训练好的联合识别模型,得到待处理自然语句的实体和意图类型信息,联合识别模型用于对待处理自然语句进行实体抽取和意图识别。
本实施例中,上述联合识别模型可以可以是DIET联合识别模型,该DIET联合识别模型可以包括掩码语言模型(masked language modelling task,简称MLM)、语义槽识别模型、意图识别模型等三种算法模型,该三种算法模型相互独立,语义槽识别模型可以是条件随机场(CRF)语义槽识别模型,意图识别模型可以是基于Transformer的意图识别模型,上述模型结构可以参见图8所示。
可以理解的是,可以将上述处理后的结果输入掩码语言模型,得到输出结果,并将输出结果同步地输入到语义槽识别模型和意图识别模型,得到待处理自然语句的实体和意图类型信息,语义槽识别模型用于对待处理自然语句进行实体抽取,输出待处理自然语句的实体,意图识别模型用于对待处理自然语句进行意图识别,输出意图类型信息。
其中,上述联合识别模型通过如下步骤构建:先获取历史语料数据,将历史语料数据分为训练集和验证集,并利用训练集对待构建的掩码语言模型、语义槽识别模型和意图识别模型进行训练,得到待验证的掩码语言模型、语义槽识别模型和意图识别模型,然后利用验证集中对待验证的掩码语言模型、语义槽识别模型和意图识别模型,按照损失函数最小化对待验证的掩码语言模型、语义槽识别模型和意图识别模型进行优化处理,得到掩码语言模型、语义槽识别模型和意图识别模型,并基于掩码语言模型、语义槽识别模型和意图识别模型,确定联合识别模型。
上述损失函数为第一损失函数、第二损失函数和第三损失函数相加的和值,第一损失函数为待验证的掩码语言模型对应的损失函数,第二损失函数为待验证的语义槽识别模型对应的损失函数,第三损失函数为待验证的意图识别模型对应的损失函数。
需要说明的是,上述掩码语言模型在训练时添加了一个额外的训练目标来预测随机掩码的输入token的值(随机掩码输入序列中15%的token)。
例如,假设输入的语句为为"my dog is hairy",会随机选择15%的token进行掩码(mask),假设这里选到了第四个token位置被掩码掉,也就是对hairy进行掩码,那么掩码过程如下:
1)70%的概率,用__MASK__的向量替换目标token,即:
"my dog is hairy"-->"my dog is__MASK__"
2)10%的概率,用随机的token替换,即:
″my dog is hairy″-->″my dog is apple″
3)20%的概率,不改变目标单词,即:
″my dog is hairy″-->″my dog is hairy″
可以理解的是,采用掩码后,transformer就不知道会让其预测哪个单词,或者说不知道哪个单词会被随机单词给替换掉,那么它就得保持每个输入token的上下文表征分布。也就是说如果模型学习到了要预测的单词是什么,那么就会丢失对上下文信息的学习,而如果模型训练过程中无法学习到哪个单词会被预测,那么就必须通过学习上下文的信息来判断出需要预测的单词,这样的模型才具有对句子的特征表示能力。另外,由于随机替换相对句子中的所有tokens的发生概率只有1.5%即(15%的10%),所以并不会影响到模型的语言理解能力。
在对掩码语言模型进行训练的过程中,产生的第一损失函数可以通过如下公式表示:
上述所有的掩码词汇ytokenn在经过transformer处理后将得到aMASK。
其中:而hMASK=E(aMASK),hMASK表示aMASK在经过词嵌入后得到的向量空间;htoken=E(ytoken),同理htoken表示掩码词汇在经过词嵌入后得到的向量空间,其中h∈IR20.表示一组负样本。
需要说明的是,上述掩码语言模型可以采用python开发环境,利用TensorFlow平台里定义的损失函数方法,进行掩码语言模型中损失值的计算。
进一步地,上述语义槽识别模型可以为条件随机场CRF)语义槽识别模型,其中,条件随机场(CRF)在2001年由Lafferty等人提出,是一种遵循马尔可夫性的概率图模型。CRF在马尔可夫随机场的基础上加一些观察值(特征),在给定一组输入变量的条件下,对输出变量的条件概率分布进行建模;CRF在中文分词、命名实体识别、序列标注等问题上都得到了较好的结果。
其中,条件随机场(CRF)在序列标注问题上也已经取得了很好的效果,自然语言的语义槽填充任务可以看作为序列标注问题,即为每一个输入语句中的字或词标记与槽填充任务相关的标签,从标签中推断相应的槽值,例如,机场问路语句标记如下:
问句:请问 厕所 怎么 走
标记:O B O O
由上述问句可知,用户想要询问去厕所的路线,首先将语句进行了基于词的切分,然后采用BIO标记法对词进行了标注,提取问句中目的地作为槽信息,本句中提取的目的地为“厕所”。
请参见图9所示,图9为本申请实施例提供的语义槽识别模型的训练结构示意图,该语义槽识别模型的训练过程采用英文输入举例,就是在输入ping pong这个短语的时候,分词会拆成ping和pong两个token,再将这两个token进行词向量编码得到词向量,然后在经过一个前馈层(Feed-forward)处理后以适配Transformer尺寸;再经过transformer处理后输入到CRF;CRF根据实体以及对应的标签序列进行预测训练,得到实体的损失值;然后将损失值加入到transformer中进行多次训练,经过梯度下降后得到最匹配的模型参数,从而构建出语义槽填充模型,其中,当且仅当损失值最小时,语义槽识别模型模型为最匹配。
其中,上述模型训练过程中产生的第二损失函数可以通过如下公式表示:
LE=LCRF(a,yentty)
其中,a表示输入词汇在经过transformer后得到的输出序列,yentity是CRF根据输出序列a中的标记层进行预测得到的实体序列。LCRF(·)表示CRF的第二损失函数。
需要说明的是,上述语义槽识别模型可以采用python开发环境,利用TensorFlow平台里定义的损失函数方法,进行语义槽识别模型中损失值的计算。
进一步地,上述意图识别模型可以是基于Transformer的意图识别模型,该模型是一个意图分类器,用于识别用户语句的意图。首先输入内容经过一个前馈层(Feed-forward)处理后,进行transformer及词嵌入处理,将处理后的结果与意图的词嵌入输出进行相似度计算,并得到损失值,然后将损失值加入到transformer中进行多次训练,当且仅当损失值最小时,模型匹配完成。
其中,上述模型训练过程中产生的第三损失函数可以通过如下公式表示:
上述__CLS__词汇在经过transformer后会得到输出aCLS,其中而hCLS=E(aCLS),hCLS表示aCLS在经过词嵌入后得到的向量空间;同理hintent=E(yintent),hintent表示意图yintent在经过词嵌入后得到的向量空间,其中h∈IR20;表示一组负样本集。
需要说明的是,上述意图识别模型可以采用python开发环境,利用TensorFlow平台里定义的损失函数方法,进行意图识别模型中损失值的计算。
进一步地,上述DIET联合识别模型在实现语义理解过程中,总的损失函数为上述掩码语言模型、语义槽识别模型和意图识别模型三个模型的损失函数相加,可以通过如下公式表示:
Ltotal=LI+LE+LM
其中,LI表示意图识别模型的第一损失函数,LE表示语义槽识别模型的第二损失函数,LM表示掩码语言模型的第三损失函数。
需要说明的是,上述联合识别模型可以采用python开发环境,利用TensorFlow平台里定义的损失函数方法,进行联合识别模型中损失值的计算。
示例性地,模拟了包含问路、托运、值机、转机、退票等共计11种意图,以及包含登机口、行李箱、厕所等的语义槽位,并采用DSL语言以及正则表达式生成测试数据。经过上述联合识别模型的计算,可以得到如下结果:“对于语料请问在哪里托运行李箱”的实体抽取和意图识别,可以参见如图10所示,
由此可以看出从语料“对于语料请问在哪里托运行李箱”中可识别出语义槽为“行李箱”,可信度最高的意图识别是“托运”(consign_for_shipment)。
本实施例中通过采用掩码语言模型、语义槽识别模型和意图识别模型,能够实现自然语言中的实体抽取与意图识别,结合不同上下文语境,可有效挖掘出旅客的真实含义,达到准确理解旅客意图的目的。
S103、获取旅客的当前位置和待办出行事项,基于当前位置、待办出行事项和实体,从多种意图类型信息中选择符合旅客意图的意图决策结果。
具体的,可以获取旅客的当前位置和待办出行事项,然后根据旅客的当前位置确定旅客当前所在区域,其中,每个区域对应至少一个意图类型,然后基于旅客当前所在区域对应的意图类型、待办出行事项对应的意图类型和实体对应的意图类型,从多种意图类型信息中选择一种最符合旅客意愿的意图类型,作为最终的意图决策结果。
其中,基于旅客当前所在区域可能确定出一种或多种意图类型,基于待办出行事项可能确定出一种或多种意图类型,基于实体也可能确定出一种或多种意图类型。
作为一种可实现方式,可基于旅客当前所在区域对应的意图类型、待办出行事项对应的意图类型、实体对应的意图类型以及联合识别模型输出的多种意图类型,统计各种意图类型出现的次数,将出现次数最多的意图类型作为最终的意图决策结果。
作为另一种可实现方式,可为每个参与意图决策的指标分配权重,例如旅客当前所在区域的权重为w1,待办出行事项的权重为w2,实体的权重为w3,联合识别模型对应的权重为w4。每个指标对应的意图类型可表示为n维向量,其中n等于设置的意图类型的种类数量,n维向量中的每个维度对应一种意图类型,每个维度的取值表示属于对应意图类型的概率,例如旅客当前所在区域对应的意图类型表示为(p1,p2……pn),待办出行事项对应的意图类型表示为(q1,q2……qn),实体对应的意图类型表示为(o1,o2……on),其中,每个维度的取值可以用0或1表示,0表示不属于对应的意图类型,1表示属于对应的意图类型;对于联合识别模型而言,可直接使用联合识别模型中的意图识别模型输出的各意图类型的概率(r1,r2……rn)。将上述四项指标进行加权求和,得到向量w1*(p1,p2……pn)+w2*(q1,q2……qn)+w3*(o1,o2……on)+w4*(r1,r2……rn),将该向量中概率最高的意图类型作为最终的意图决策结果。具体实施时,可结合大量旅客数据,通过主成分分析法、贝叶斯分类器等方式,确定各指标对意图决策结果的影响程度,结合各指标的影响程度、实际应用需求和经验等确定每个指标对应的权重取值。
上述可能的待办出行事项可以通过获取旅客当前已办理的旅客出行相关数据,并基于旅客已办理的旅客出行相关数据和航空出行事项办理流程确定得到,然后确定待办出行事项对应的意图类型。并基于旅客的当前位置确定旅客当前的所在区域,确定旅客当前所在区域对应的意图类型,其中,每个区域对应至少一个意图类型。并基于实体,按照预设的实体与意图决策结果之间的对应关系,确定实体对应的意图类型。然后基于旅客当前所在区域对应的意图类型、待办出行事项对应的意图类型和实体对应的意图类型,从多种意图类型信息中选择最贴近旅客意愿的意图类型,作为最终的意图决策结果。
可选的,基于旅客的当前位置可以判断出旅客所在区域,该区域例如可以是值机区域、安检区域、候机区域等。例如可以将语料“请问在哪里托运行李箱”通过语义槽识别模型提取到实体为“行李箱”,然后基于预设的实体与意图决策结果之间的对应关系,确定出可能存在的意图类型信息为托运意图。
可选的,上述意图类型信息可以包括但不限于以下一种或多种:购票意图、查询意图、值机意图、支付意图、托运意图、问路意图、服务意图、安检意图、退票意图、转机意图、改签意图等。
例如,旅客已经办理完值机和行李托运,下一步的待办出行数据为安检,此时旅客问“下一步去哪?”,可推测旅客的真实意图为安检意图。又如,旅客已经在候机区域,就不可能出现值机意图。又如,根据旅客位置判断旅客已经离开行李托运柜台,通知用户返回查看行李是否成功托运的信息。
此外,例如当对待处理自然语言进行实体抽取后得到的实体为“行李”时,可以理解为存在“寄存行李”、“托运行李”、“提取行李”等可能的多种意图类型信息,还可以通过旅客目前所处场景及上下文含义(如果有上下文),第一时间生成最为可能的理解。可选的,可以获取旅客的当前位置,根据预设的位置与场景之间的对应关系确定旅客目标所处场景;还可以在旅客允许的情况下通过摄像头获取旅客目前所处场景。例如旅客询问”行李在哪?”,进行实体抽取后得到实体为“行李”,且确定出旅客目前所处场景可以为出发场景或到达场景或其它场景等,其中,出发场景可以理解为“托运”行李;到达场景可以理解为“提取”和“寄存”行李等。可选的,机场还包括的其他场景:急救场景、应急疏散场景、紧急找人、失物招领、行李超规等场景。
S104、从预设的问答服务模型库中,确定与意图决策结果以及实体相匹配的答案。
需要说明的是,可以预先梳理旅客在航空出行中可能的意图问题,根据意图问题整理对应的答案,构建问答库,然后根据问答库构建问答服务模型库。其中,每种意图类型对应一个问答库,该问答服务模型库中包括多个问答库。
具体的,请参见图11所示,可以基于预设的问答服务模型库,查找与意图决策结果对应的问答库,并从问答库中查找是否存在与意图决策结果以及实体相匹配的答案,若存在,将确定意图决策结果以及实体相匹配的答案;若问答库中不存在与意图决策结果以及实体相匹配的答案,则发起人工客服接入请求,并基于人工客服的输入操作,以获取与意图决策结果以及实体相匹配的答案。可选的,上述发起人工客服接入请求可以采用语音通知的提示方式,也可以采用屏幕显示的提示方式。上述人工客服的输入操作可以是人工通过语音的方式或触屏输入的方式输入正确的答案,并根据待处理自然语句对应的问题与基于输入操作获取的相匹配的答案构建新的问答模型,以增加至问答库中,进而增加到问答服务模型库中,从而随着问答库的不断扩充,使得用户的服务满意度越来越高。
进一步地,可以基于旅客的当前位置、下一步待办事项和最晚登机时间,判断是否有误机的可能,例如可以根据待办事项确定对应的待到达位置,然后根据当前位置和待到达位置计算完成所有待办事项的所需时间,并与最晚登机时间进行比较,当所需时间大于最晚登机时间时,判断存在误机的可能,否则不存在误机的可能;若存在误机的可能,则触发对应的应急流程,从应急流程对应的问答库中选择与意图决策结果以及实体相匹配的答案,从而提高所给出的答案的匹配度,提高问答服务质量。
进一步地,在给出答案时,还可以基于旅客当前位置和登机口信息,计算出最优的登机路径,引导旅客快速完成登机。其中,登机路径包括登记前需办理的事项和每一项待办事项对应的最优行走路径。
需要说明的是,旅客在机场执行不同环节时,所设计的出行相关数据不同,以下为示例的几种不同场景的出行相关数据:
例如旅客在安检环节中临时出现开包检查通知,需要旅客退出安检,此时服务器会根据开包检查对应的处理流程向旅客的终端推送进行开包检查的相关通知信息,例如开包间位置、开包原因和注意事项等,旅客收到开包检查的通知后,可先去行李开包间进行开包检查,工作人员会将开包检查结果及时反馈给服务器。服务器根据开包检查结果、旅客登机前还未办理的事项、旅客当前位置以及登机口位置,预测旅客到达登机口的时间,并与最晚登机时间进行比较,如果存在误机的可能,则触发应急流程,例如提示旅客走绿色通道,同时服务器可向旅客终端发放绿色通行证,方便工作人员对持有绿色通行证的旅客开放绿色通道,或者向旅客提供航班改签的相关信息,如误机如何改签、改签的时间节点及地点。如果开包检查结果正常且不存在误机的可能,则按正常流程提示旅客返回安检区域进行安检。
在旅客登机前,如果旅客乘坐的航班出现登机口临时变更的情况,则服务器会根据登机口变更对应的处理流程向旅客的终端推送登机口临时变更的相关通知信息,例如包括当前登机口位置、变更登机口位置、变更的登机口是否为远机位、远机位的最便捷路径等,旅客在收到登机口临时变更的通知后,可以去对应的变更登机口待机,服务器获取旅客的当前位置,并根据旅客登机前还未办理的事项、旅客当前位置以及变更登记口的位置,确定当前登机口与变更登机口之间的距离,预测旅客到达变更登机口的时间,并与最晚登机时间进行比较,如果存在误机的可能,则触发应急流程,例如提示旅客走绿色通道,同时服务器可向旅客终端发放绿色通行证,方便工作人员对持有绿色通行证的旅客开放绿色通道,或者向旅客提供航班改签的相关信息,如误机如何改签、改签的时间节点及地点。
又如,当旅客通过安检后到达登机口待机时,突然发现登机牌遗失,发起求助,此时服务器会根据求助对应的处理流程向旅客的终端推送关于求助的相关通知信息,例如可以提示用户选择人工服务方式和机器服务方式。其中,当旅客选择人工服务方式时,服务器可以获取旅客的当前位置,搜索距离旅客最近的咨询台位置并发送最近咨询台位置至旅客的终端,以使得旅客前往最近咨询台进行人工咨询求助,例如可以通过人工求助广播站进行广播登机牌丢失启示,或者执行其它补救措施,如快速补办登机牌或发送绿色通行证等。当旅客选择机器服务方式时,服务器可以获取旅客的当前位置,向旅客的终端推送如何处理登机牌遗失问题的相关通知信息,例如包括广播站位置、找不到登机牌的补救措施、执行补救措施的位置、补救时间等,旅客可以选择前往广播站进行广播求助,也可以选择直接前往执行补救措施的位置进行补救,工作人员会将求助结果及时反馈给服务器,服务器根据求助结果、补救时间、旅客的当前位置以及执行补救措施的位置,预测旅客到达登机口的时间,并与最晚登机时间进行比较,如果存在误机的可能,则触发对应的应急流程。
具体实施时,服务器可获取旅客登机前还未办理的事项,获得每个事项对应的平均办理时长,并计算总办理时长,同时基于机场地图获取每个事项对应的办理位置,根据旅客当前位置、每个事项对应的办理位置以及登机口位置,计算旅客达到登机口所需的行走路程和行走时间,基于总办理时长和行走时间,确定旅客到达登机口的时间。或者,针对每一种场景,可以预先训练一个预测是否会误机的预测模型,以开包检查的场景为例,预测模型的输入是开包检查结果、旅客登机前还未办理的事项、旅客当前位置、登机口位置以及航班的最晚登机时间等数据,输出是是否误机的判断结果,可基于大量已有的旅客数据训练该预测模型,用训练好的模型预测旅客发生误机的可能。
本申请实施例提供的意图理解方法、装置、设备及介质,通过对获取的旅客的待处理自然语句,并对待处理自然语句进行实体抽取和意图识别,得到待处理自然语句的实体和多种意图类型信息,然后获取旅客的当前位置和待办出行事项,基于当前位置、待办出行事项和实体,从多种意图类型信息中选择符合旅客意图的意图决策结果。该方案对采集到的旅客实时的自然语句进行数据挖掘,深度理解出旅客的意图决策结果,并能够确定出与意图决策结果相匹配的答案,从而为旅客提供准确性较高的信息服务,提高了特殊旅客的机场服务质量。
应当注意,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,流程图中描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
另一方面,图12为本发明实施例提供的意图理解装置的结构示意图。
如图12所示,该装置可以实现如图2-3所示的方法,该装置可以包括:
获取模块10,用于获取旅客的待处理自然语句;
第一确定模块20,用于对待处理自然语句进行实体抽取和意图识别,得到待处理自然语句的实体和多种意图类型信息;
第二确定模块30,用于获取旅客的当前位置和待办出行事项,基于当前位置、待办出行事项和实体,从多种种意图类型信息中选择符合旅客意愿的意图决策结果;
第三确定模块40,用于从预设的问答服务模型库中,确定与意图决策结果以及实体相匹配的答案。
可选地,第一确定模块20,具体用于:
将待处理自然语句输入掩码语言模型,得到输出结果,掩码语言模型用于对待处理自然语句进行掩码处理;
将输出结果同步地输入到语义槽识别模型和意图识别模型,得到待处理自然语句的实体和意图类型信息,语义槽识别模型用于对待处理自然语句进行实体抽取,输出待处理自然语句的实体,意图识别模型用于对待处理自然语句进行意图识别,输出意图类型信息。
可选地,掩码语言模型、语义槽识别模型和意图识别模型通过如下步骤构建:
获取历史语料数据,将历史语料数据分为训练集和验证集;
利用训练集对待构建的掩码语言模型、语义槽识别模型和意图识别模型进行训练,得到待验证的掩码语言模型、语义槽识别模型和意图识别模型;
利用验证集中对待验证的掩码语言模型、语义槽识别模型和意图识别模型,按照损失函数最小化对待验证的掩码语言模型、语义槽识别模型和意图识别模型进行优化处理,得到掩码语言模型、语义槽识别模型和意图识别模型;损失函数为第一损失函数、第二损失函数和第三损失函数相加的和值,第一损失函数为待验证的掩码语言模型对应的损失函数,第二损失函数为待验证的语义槽识别模型对应的损失函数,第三损失函数为待验证的意图识别模型对应的损失函数。
可选地,第二确定模块30,具体用于:
基于旅客的当前位置确定旅客当前的所在区域,其中,每个区域对应至少一个意图类型;
基于旅客当前所在区域对应的意图类型、待办出行事项对应的意图类型和实体对应的意图类型,从多种意图类型信息中选择一种最符合旅客意愿的意图决策结果。
基于所在区域与待办出行数据中当前已经办理的航空出行数据,推测旅客的下一步流程内容及可能的待办事项,以及基于实体,按照预设的实体与意图决策结果之间的对应关系,从多种意图类型信息中选择一种最符合旅客意愿的意图决策结果。
可选地,第三确定模块40,具体用于:
基于预设的问答服务模型库,查找与意图决策结果对应的问答库;
从意图决策结果对应的问答库中问答库中查找与意图决策结果以及实体相匹配的答案.
可选地,第三确定模块40,具体用于:
若问答库中不存在与意图决策结果以及实体相匹配的答案,则发起人工客服接入请求;
基于人工客服的输入操作,获取与意图决策结果以及实体相匹配的答案。
可选地,第三确定模块40,具体用于:
根据待处理自然语句对应的问题与基于输入操作获取的相匹配的答案构建新的问答模型;
将新的问答模型增加到问答服务模型库中。
本实施例提供的意图理解装置,可以执行上述方法的实施例,其实现原理和技术效果类似,在此不再赘述。
图13为本发明实施例提供的一种计算机设备的结构示意图。如图13所示,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机系统700的结构示意图。
如图13所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM703中,还存储有系统700操作所需的各种程序和数据。CPU701、ROM702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口706也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口706。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考图2描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行图2的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,前述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,例如,可以描述为:一种处理器包括获取模块、第一确定模块、第二确定模块和第三确定模块。其中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定,例如,获取模块还可以被描述为“用于获取的旅客的待处理自然语句”。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中前述装置中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,前述程序被一个或者一个以上的处理器用来执行描述于本申请的意图理解方法。
综上所述,本申请实施例提供的意图理解方法、装置、设备及介质,通过对获取的旅客的待处理自然语句,并对待处理自然语句进行实体抽取和意图识别,得到待处理自然语句的实体和多种意图类型信息,然后获取旅客的当前位置和待办出行事项,基于当前位置、待办出行事项和实体,从多种意图类型信息中选择符合旅客意图的意图决策结果,并从预设的问答服务模型库中,确定与意图决策结果以及实体相匹配的答案。该方案对采集到的旅客实时的自然语句进行数据挖掘,深度理解出旅客的意图决策结果,并能够确定出与意图决策结果相匹配的答案,从而为旅客提供准确性较高的信息服务,提高了特殊旅客的机场服务质量。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种意图理解方法,其特征在于,所述方法包括:
获取旅客的待处理自然语句;
对所述待处理自然语句进行实体抽取和意图识别,得到所述待处理自然语句的实体和多种意图类型信息;
获取旅客的当前位置和待办出行事项,基于所述当前位置、所述待办出行事项和所述实体,从所述多种意图类型信息中选择符合所述旅客意愿的意图决策结果;
从预设的问答服务模型库中,确定与所述意图决策结果以及所述实体相匹配的答案。
2.根据权利要求1所述的方法,其特征在于,对所述待处理自然语句进行实体抽取和意图识别,得到所述待处理自然语句的实体和多种意图类型信息,包括:
将所述待处理自然语句输入掩码语言模型,得到输出结果,所述掩码语言模型用于对所述待处理自然语句进行掩码处理;
将所述输出结果同步地输入到语义槽识别模型和意图识别模型,得到所述待处理自然语句的实体和意图类型信息,所述语义槽识别模型用于对所述待处理自然语句进行实体抽取,输出所述待处理自然语句的实体,所述意图识别模型用于对所述待处理自然语句进行意图识别,输出所述意图类型信息。
3.根据权利要求2所述的方法,其特征在于,所述掩码语言模型、所述语义槽识别模型和所述意图识别模型通过如下步骤构建:
获取历史语料数据,将所述历史语料数据分为训练集和验证集;
利用所述训练集对待构建的掩码语言模型、语义槽识别模型和意图识别模型进行训练,得到待验证的掩码语言模型、语义槽识别模型和意图识别模型;
利用所述验证集中对所述待验证的掩码语言模型、语义槽识别模型和意图识别模型,按照损失函数最小化对所述待验证的掩码语言模型、语义槽识别模型和意图识别模型进行优化处理,得到掩码语言模型、语义槽识别模型和意图识别模型;所述损失函数为第一损失函数、第二损失函数和第三损失函数相加的和值,所述第一损失函数为待验证的掩码语言模型对应的损失函数,所述第二损失函数为待验证的语义槽识别模型对应的损失函数,所述第三损失函数为待验证的意图识别模型对应的损失函数。
4.根据权利要求1所述的方法,其特征在于,基于所述当前位置、所述待办出行事项和所述实体,从所述多种意图类型信息中选择符合所述旅客意愿的意图决策结果,包括:
基于旅客的当前位置确定所述旅客当前所在区域,其中,每个区域对应至少一个意图类型;
基于所述旅客当前所在区域对应的意图类型、所述待办出行事项对应的意图类型和所述实体对应的意图类型,从所述多种意图类型信息中选择一种最符合所述旅客意愿的意图决策结果。
5.根据权利要求1所述的方法,其特征在于,从预设的问答服务模型库中,确定与所述意图决策结果以及所述实体相匹配的答案,包括:
基于预设的问答服务模型库,查找与所述意图决策结果对应的问答库;
从所述意图决策结果对应的问答库中查找与所述意图决策结果以及所述实体相匹配的答案。
6.根据权利要求5所述的方法,其特征在于,在从多种意图类型信息中选择符合所述旅客意愿的意图决策结果之后,所述方法还包括:
若所述问答库中不存在与所述意图决策结果以及所述实体相匹配的答案,则发起人工客服接入请求;
基于人工客服的输入操作,获取与所述意图决策结果以及所述实体相匹配的答案。
7.根据权利要求6所述的方法,其特征在于,在基于人工客服的输入操作,获取与所述意图决策结果以及所述实体相匹配的答案之后,所述方法还包括;
根据所述待处理自然语句对应的问题与基于所述输入操作获取的相匹配的答案构建新的问答模型;
将所述新的问答模型增加到所述问答服务模型库中。
8.一种意图理解装置,其特征在于,所述装置包括:
预处理模块,用于获取的旅客的待处理自然语句;
第一确定模块,用于对所述待处理自然语句进行实体抽取和意图识别,得到所述待处理自然语句的实体和多种意图类型信息;
第二确定模块,用于获取旅客的当前位置和待办出行事项,基于所述当前位置和所述待办出行事项,从所述多种意图类型信息中选择符合所述旅客意愿的意图决策结果;
第三确定模块,用于从预设的问答服务模型库中,确定与所述意图决策结果以及所述实体相匹配的答案。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序用于被处理器执行时实现权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111392473.7A CN114048298B (zh) | 2021-11-23 | 2021-11-23 | 意图理解方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111392473.7A CN114048298B (zh) | 2021-11-23 | 2021-11-23 | 意图理解方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114048298A true CN114048298A (zh) | 2022-02-15 |
CN114048298B CN114048298B (zh) | 2024-05-31 |
Family
ID=80210404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111392473.7A Active CN114048298B (zh) | 2021-11-23 | 2021-11-23 | 意图理解方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114048298B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522393A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备和存储介质 |
CN111324717A (zh) * | 2020-02-24 | 2020-06-23 | 武汉大学 | 一种面向开放域问答的基于机器阅读理解的答案获取方法及系统 |
CN111353029A (zh) * | 2020-02-22 | 2020-06-30 | 杭州电子科技大学 | 一种基于语义匹配的多轮对话口语理解方法 |
CN112100351A (zh) * | 2020-09-11 | 2020-12-18 | 陕西师范大学 | 一种通过问题生成数据集构建智能问答系统的方法及设备 |
WO2021189921A1 (zh) * | 2020-10-19 | 2021-09-30 | 平安科技(深圳)有限公司 | 医疗领域多轮对话智能问答方法、装置和计算机设备 |
-
2021
- 2021-11-23 CN CN202111392473.7A patent/CN114048298B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522393A (zh) * | 2018-10-11 | 2019-03-26 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备和存储介质 |
CN111353029A (zh) * | 2020-02-22 | 2020-06-30 | 杭州电子科技大学 | 一种基于语义匹配的多轮对话口语理解方法 |
CN111324717A (zh) * | 2020-02-24 | 2020-06-23 | 武汉大学 | 一种面向开放域问答的基于机器阅读理解的答案获取方法及系统 |
CN112100351A (zh) * | 2020-09-11 | 2020-12-18 | 陕西师范大学 | 一种通过问题生成数据集构建智能问答系统的方法及设备 |
WO2021189921A1 (zh) * | 2020-10-19 | 2021-09-30 | 平安科技(深圳)有限公司 | 医疗领域多轮对话智能问答方法、装置和计算机设备 |
Non-Patent Citations (2)
Title |
---|
刘中原;张博锋;潘建国;王洋;: "基于用户本体模型的文本信息过滤方法研究", 计算机应用与软件, no. 05, 15 May 2009 (2009-05-15) * |
陈小宾;葛新伟;林鸿飞;: "基于语义计算的公交移动问答系统", 计算机工程与科学, no. 10, 15 October 2008 (2008-10-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN114048298B (zh) | 2024-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109145219B (zh) | 基于互联网文本挖掘的兴趣点有效性判断方法和装置 | |
Rastogi et al. | Multi-task learning for joint language understanding and dialogue state tracking | |
CN111026842A (zh) | 自然语言处理方法、自然语言处理装置及智能问答系统 | |
Min et al. | Dialogue state induction using neural latent variable models | |
CN113627447A (zh) | 标签识别方法、装置、计算机设备、存储介质及程序产品 | |
CN112633007B (zh) | 一种语义理解模型构建方法及装置、语义理解方法及装置 | |
CN109670050A (zh) | 一种实体关系预测方法及装置 | |
CN112817561A (zh) | 软件需求文档的事务类功能点结构化抽取方法及系统 | |
CN109582788A (zh) | 垃圾评论训练、识别方法、装置、设备及可读存储介质 | |
CN113157859A (zh) | 一种基于上位概念信息的事件检测方法 | |
CN109739965A (zh) | 跨领域对话策略的迁移方法及装置、设备、可读存储介质 | |
CN111538809A (zh) | 一种语音服务质量检测方法、模型训练方法及装置 | |
CN116226785A (zh) | 目标对象识别方法、多模态识别模型的训练方法和装置 | |
CN108536781B (zh) | 一种社交网络情绪焦点的挖掘方法及系统 | |
CN116629338A (zh) | 一种模型数据的处理方法、相关装置、设备以及存储介质 | |
CN115017425B (zh) | 地点检索方法、装置、电子设备以及存储介质 | |
CN116975267A (zh) | 一种信息处理方法、装置及计算机设备、介质、产品 | |
CN113486174B (zh) | 模型训练、阅读理解方法、装置、电子设备及存储介质 | |
CN115114419A (zh) | 问答处理方法、装置、电子设备和计算机可读介质 | |
CN114048298B (zh) | 意图理解方法、装置、设备及介质 | |
CN113705207A (zh) | 语法错误识别方法及装置 | |
Cohen et al. | Understanding the representational power of neural retrieval models using NLP tasks | |
CN113627197B (zh) | 文本的意图识别方法、装置、设备及存储介质 | |
CN113935328B (zh) | 文本摘要生成方法、装置、电子设备及存储介质 | |
CN114722817B (zh) | 事件处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |