CN110263139A - 车辆、车机设备及其基于神经网络的文本意图识别方法 - Google Patents

车辆、车机设备及其基于神经网络的文本意图识别方法 Download PDF

Info

Publication number
CN110263139A
CN110263139A CN201910498789.0A CN201910498789A CN110263139A CN 110263139 A CN110263139 A CN 110263139A CN 201910498789 A CN201910498789 A CN 201910498789A CN 110263139 A CN110263139 A CN 110263139A
Authority
CN
China
Prior art keywords
neural network
vector
text information
text
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910498789.0A
Other languages
English (en)
Inventor
朱亚杰
黄海荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei Ecarx Technology Co Ltd
Original Assignee
Hubei Ecarx Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei Ecarx Technology Co Ltd filed Critical Hubei Ecarx Technology Co Ltd
Priority to CN201910498789.0A priority Critical patent/CN110263139A/zh
Publication of CN110263139A publication Critical patent/CN110263139A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供一种车辆、车机设备及其基于神经网络的文本意图识别方法,神经网络获取输入的语言文本信息,根据预设置的占位符类型和字符长度对所述语言文本信息进行处理,对所述语言文本信息进行字符向量化处理,以得到每个字符的向量,对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵,采用预设置的池化窗口对所述卷积矩阵进行池化处理,将经过池化处理的卷积矩阵中的负数值元素进行转换,拼接所述卷积矩阵以得到目标向量,丢弃拼接后的目标向量中的部分元素,神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图。通过上述方式,本申请能够快速准确地识别中文短文本意图。

Description

车辆、车机设备及其基于神经网络的文本意图识别方法
技术领域
本申请涉及语言识别技术领域,具体涉及一种基于神经网络的文本意图识别方法,以及应用所述基于神经网络的文本意图识别方法的车机设备和车辆。
背景技术
随着人工智能相关技术的更新迭代及快速发展,人机(人类与智能机器)之间的交互技术也取得了很大的进展,比如在汽车行业,人机多轮交互对话系统可以为车主提供顺畅和高效的人机互动。
人机多轮交互对话系统操作简单,可提升车主在车内生活的便利性,同时,由于用户不再需要手动参与操作控制,所以不会分心、分神甚至转移视线去操作车辆,而只需要通过语音对话进行语音控制,这能够显著地增强车辆行驶中的安全性。
一般而言,人机多轮对话系统包括语音识别(ASR)技术、自然语言理解(NLU)技术、对话管理(DM)技术、自然语言生成(NLG)技术和语音合成(TTS)技术几个主要部分,各个部分的技术相互之间是紧密相连的,特别而言,针对中文短文本意图的识别技术是该人机多轮对话系统能够实现自然语言理解的关键核心部分。
但是,现有技术对于识别中文短文本意图的准确性以及识别速度都有待提高。
发明内容
本申请的目的在于,提供一种车辆、车机设备及其基于神经网络的文本意图识别方法,能够快速准确地识别中文短文本意图,便于人机多轮对话系统的自然语言理解。
为解决上述技术问题,本申请提供一种基于神经网络的文本意图识别方法,作为其中一种实施方式,所述基于神经网络的文本意图识别方法包括:
神经网络获取输入的语言文本信息;
根据预设置的占位符类型和字符长度对所述语言文本信息进行处理;
对所述语言文本信息进行字符向量化处理,以得到每个字符的向量;
对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵;
采用预设置的池化窗口对所述卷积矩阵进行池化处理;
将经过池化处理的卷积矩阵中的负数值元素进行转换;
拼接所述卷积矩阵以得到目标向量;
丢弃拼接后的目标向量中的部分元素;
神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图。
作为其中一种实施方式,所述神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图的步骤,还包括:
对识别得到的至少多个文本意图进行损失值和/或准确率计算,以得到每个文本意图类别的概率;
利用预训练得到的预测意图类别概率与实际意图类别的交叉熵处理得到用于输出的最终意图。
作为其中一种实施方式,所述将经过池化处理的卷积矩阵中的负数值元素进行转换的步骤,具体包括:
采用RELU激活函数将卷积矩阵中的负数值元素转换为零,并保持其他元素不变。
作为其中一种实施方式,所述根据预设置的占位符类型和字符长度对所述语言文本信息进行处理的步骤,具体包括:
根据预设置的与自然语言特征相匹配的占位符类型和字符长度对所述语言文本信息进行处理。
作为其中一种实施方式,所述占位符类型为输入int25~输入int35、输出float25~输出float 35,所述字符长度为60字节~80字节。
作为其中一种实施方式,所述对所述语言文本信息进行字符向量化处理,以得到每个字符的向量的步骤中,每个字符的向量的维度为25~35之间。
作为其中一种实施方式,所述对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵的步骤,具体包括:
采用卷积核为3*32*128、4*32*128和5*32*128,偏置为1*128对所述语言文本信息进行卷积处理以得到75*1*128、74*1*128和73*1*128的三类卷积矩阵,其中,卷积核的3、4和5表示自然语言中每个词的字符个数。
作为其中一种实施方式:
所述采用预设置的池化窗口对所述卷积矩阵进行池化处理的步骤,具体包括:采用预设置的大小分别为75*1*128、74*1*128和73*1*128的池化窗口对三类卷积矩阵进行最大池化处理,以形成三个1*128的向量;
所述拼接所述卷积矩阵以得到目标向量的步骤,具体包括:拼接卷积矩阵的三个1*128的向量以形成一个1*384的向量;
所述丢弃拼接后的目标向量中的部分元素的步骤,具体包括:运用dropout_prob函数随机丢弃拼接后的目标向量中的一半元素;
所述神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图的步骤,具体包括:神经网络运用公式argmax(y)和y=x*w+b计算以识别得到与所述语言文本信息对应的文本意图,其中,输入值x=n*384,权重w=384*m,偏置b=1*m计算m个文本意图的分数y,n为所述语言文本信息中的n句话或n个语言文本信息,m为预设值的m种意图类别,argmax(y)函数为求最大得分的意图类别。
为解决上述技术问题,本申请还提供一种车机设备,作为其中一种实施方式,所述车机设备配置有处理器,所述处理器用于执行计算机程序,以实现如上所述的基于神经网络的文本意图识别方法。
为解决上述技术问题,本申请还提供一种车辆,作为其中一种实施方式,所述车辆配置有如上所述的车机设备,以通过所述车机设备进行人车之间的多轮语音交互。
本申请车辆、车机设备及其基于神经网络的文本意图识别方法,神经网络获取输入的语言文本信息,根据预设置的占位符类型和字符长度对所述语言文本信息进行处理,对所述语言文本信息进行字符向量化处理,以得到每个字符的向量,对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵,采用预设置的池化窗口对所述卷积矩阵进行池化处理,将经过池化处理的卷积矩阵中的负数值元素进行转换,拼接所述卷积矩阵以得到目标向量,丢弃拼接后的目标向量中的部分元素,神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图。通过上述方式,本申请能够快速准确地识别中文短文本意图,便于人机多轮对话系统的自然语言理解。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本申请基于神经网络的文本意图识别方法一实施方式的流程示意图。
图2为本申请实现文本意图识别方法的神经网络一实施方式的实现方式示意图。
图3A是本申请另一实施方式的神经网络的部分的层结构及其部分计算的网络系数。
图3B是图2所示的神经网络的部分的层结构及其部分计算的网络系数。
图4是本申请车机设备一实施例的模块示意图。
具体实施方式
为更进一步阐述本申请为达成预定申请目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本申请车辆、车机设备及其用于文本意图识别的神经网络结构的具体实施方式、方法、步骤、特征及其效果,详细说明如下。
有关本申请的前述及其他技术内容、特点及功效,在以下配合参考图式的较佳实施例的详细说明中将可清楚呈现。通过具体实施方式的说明,当可对本申请为达成预定目的所采取的技术手段及效果得以更加深入且具体的了解,然而所附图式仅是提供参考与说明之用,并非用来对本申请加以限制。
请参阅图1,图1为本申请基于神经网络的文本意图识别方法一实施方式的流程示意图。
在本实施方式中,所述基于神经网络的文本意图识别方法包括但不限于如下几个步骤。
步骤S101,神经网络获取输入的语言文本信息;
步骤S102,根据预设置的占位符类型和字符长度对所述语言文本信息进行处理;
步骤S103,对所述语言文本信息进行字符向量化处理,以得到每个字符的向量;
步骤S104,对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵;
步骤S105,采用预设置的池化窗口对所述卷积矩阵进行池化处理;
步骤S106,将经过池化处理的卷积矩阵中的负数值元素进行转换;
步骤S107,拼接所述卷积矩阵以得到目标向量;
步骤S108,丢弃拼接后的目标向量中的部分元素;
步骤S109,神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图。
需要说明的是,本实施方式所述神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图的步骤,还可以包括:对识别得到的至少多个文本意图进行损失值和/或准确率计算,以得到每个文本意图类别的概率;利用预训练得到的预测意图类别概率与实际意图类别的交叉熵处理得到用于输出的最终意图。
在本实施方式中,所述将经过池化处理的卷积矩阵中的负数值元素进行转换的步骤,具体包括:采用RELU激活函数将卷积矩阵中的负数值元素转换为零,并保持其他元素不变。
其中,RELU(Rectified linear unit)激活函数指的是本申请的神经网络中,使用的修正线性单元作为神经网络的神经元的激活函数。
值得一提的是,本实施方式所述根据预设置的占位符类型和字符长度对所述语言文本信息进行处理的步骤,具体可以包括:根据预设置的与自然语言特征相匹配的占位符类型和字符长度对所述语言文本信息进行处理。
需要说明的是,本实施方式所述占位符类型为输入int25~输入int35、输出float25~输出float 35,所述字符长度为60字节~80字节。其中,占位符类型指的是神经网络的变量类型。
在本实施方式中,所述对所述语言文本信息进行字符向量化处理,以得到每个字符的向量的步骤中,每个字符的向量的维度为25~35之间。
容易说明的是,人类的一般自然语言中,一般3-5个词能够构成最简单的句子,并能表达很精简的意思,针对这种情况,如图2所示,所述对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵的步骤,具体包括:采用卷积核为3*32*128、4*32*128和5*32*128,偏置为1*128对所述语言文本信息进行卷积处理以得到75*1*128、74*1*128和73*1*128的三类卷积矩阵,其中,卷积核的3、4和5表示自然语言中每个词的字符个数。
其中,在图2中,“?”指的是样本数,“*”指的是连接,如“?*37”意思是有任意个样本,每个样本有37个字符。
当然,在其他实施方式中,针对不同国家的语言,可以设置不同的卷积核字符个数。
请继续参阅图2,本实施方式所述采用预设置的池化窗口对所述卷积矩阵进行池化处理的步骤,具体包括:采用预设置的大小分别为75*1*128、74*1*128和73*1*128的池化窗口对三类卷积矩阵进行最大池化处理,以形成三个1*128的向量。
其中,对应地,所述拼接所述卷积矩阵以得到目标向量的步骤,具体包括:拼接卷积矩阵的三个1*128的向量以形成一个1*384的向量。
进一步而言,所述丢弃拼接后的目标向量中的部分元素的步骤,具体包括:运用dropout_prob函数随机丢弃拼接后的目标向量中的一半元素。
需要说明的是,本实施方式所述dropout_prob函数指的是随机概率性丢弃函数。
值得说明的是,本实施方式所述神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图的步骤,具体包括:神经网络运用公式argmax(y)和y=x*w+b计算以识别得到与所述语言文本信息对应的文本意图,其中,输入值x=n*384,权重w=384*m,偏置b=1*m计算m个文本意图的分数y,n为所述语言文本信息中的n句话或n个语言文本信息,m为预设值的m种意图类别,argmax(y)函数为求最大得分的意图类别。
其中,在本实施方式中,argmax(y)函数用于求多个输入y值中最大y值并作为输出,然后求得该最大y值对应的x值。
请结合图2参阅图3A和图3B,图3A是本申请另一实施方式的神经网络的部分的层结构及其部分计算的网络系数,图3B是图2所示的神经网络的部分的层结构及其部分计算的网络系数,相比之下,图3B即图2所示实施例的神经网络能够更加快速准确地识别中文短文本意图,便于人机多轮对话系统的自然语言理解。
请详细参阅图2,显示了本申请神经网络其中具体的计算过程,作为其中一种实施方式,所述神经网络可以包括预处理模块、输入层、嵌入层、卷积层和池化层。
需要首先说明的是,所述预处理模块,用于对输入样本的文本文件进行预处理,所述文本文件包括第一数量的语料和第二数量的意图;
所述输入层预定义输入/输出的占位符类型和输入语句字符的最大长度;
所述嵌入层用于对语句字符进行预训练以形成字符向量表;
所述卷积层,用于通过卷积核把语句字符的字符向量表偏置卷积形成75*1*128、74*1*128和73*1*128的矩阵;
所述池化层,用于通过75*1*128、74*1*128和73*1*128的池化窗口将卷积层形成的矩阵进行最大池化,以形成1*128的向量。
在本实施方式中,所述神经网络还包括激活层,用于将池化层形成的1*128的向量中为负数值的元素转换为0,以稀疏网络并减少网络参数的依存关系。
此外,本实施方式所述神经网络还包括拼接层,用于将激活层进行转换处理后的1*128的向量拼接成一1*384的向量。
如图所示,本实施方式所述神经网络还包括Dropout层(丢失信息层),用于将拼接的1*384的向量中的部分元素随机丢弃并置为0。
需要说明的是,本实施方式所述神经网络还包括全连接层,用于运用公式y=x*w+b,输入值x=n*384,权重w=384*37,偏置b=1*第二数量计算第二数量个意图的分数y并运用公式argmax(y)获得意图;其中,输入值中的n指n个样本或者说n句话,权重指每个样本的权重,偏置是将加权后的样本偏置,以通过y=w*x+b得到每个类别的得分,再运用agrmax(y)取得最大得分的类别,而获得样本的类别。
需要说明的是,本实施方式所述神经网络还包括输出层,用于对全连接层输出的意图类别计算损失值和准确率。
值得一提的是,本实施方式所述输出层对全连接层输出的意图计算损失值和准确率的公式包括:
Hy′(y)=-∑y′l1og(yi)--式2
其中,Yi是预测样本的每个意图类别概率,Yi’是样本实际意图类别,式1用于求样本预测每个意图类别概率,式2用于求样本预测的意图类别与实际意图类别的差距,Xi是指样本的每个意图类别得分,Hy’(y)为样本预测的意图类别与实际意图类别的交叉熵。
具体而言,本实施方式的优选实施例中,所述第一数量为1671721,所述第二数量为37;所述输入语句字符的最大长度为77,输入的所述占位符类型为int32,输出的占位符类型为float32;所述字符向量表包括6450个字符、且每个字符向量维度为32;所述卷积核为3*32*128、4*32*128和5*32*128,其中,3、4、5为字节长度。
进一步而言,Droptout层用于通过dropout_prob函数将拼接的1*384的向量中的部分元素随机丢弃并置为0,将要保留的元素转换为保留元素乘以(1-dropout_prob)的倒数。
本实施方式能够快速准确地识别中文短文本意图,便于人机多轮对话系统的自然语言理解。
请继续参阅图2,下面将结合具体实施例进行举例说明。
步骤(一),预处理。输入一个文本文件,该文件有1671721条语料、37个意图并且每条语料格式类似于“_label_music播放音乐双截棍”,‘_label_music’是输出,‘播放音乐双截棍’是输入,将所有输入基于空格字符分割化,例如‘播放音乐双截棍’转换为‘播放音乐双截棍’、所有输出one-hot化,例如‘__label__music’转换为[0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0]并形成输入和输出列表,输入列表指所有输入转换后的列表,输出列表指所有输出转换后的列表。
步骤(二),输入层。定义输入input_x占位符类型为int32和输入语句字符最大长度为77,定义输出input_y占位符类型为float32例如0.0,1.0,2.0,3.0,4.0,5.0,6.0,7.0,8.0,9.0,10.0,11.0,12.0,13.0,14.0,15.0,16.0,17.0,18.0,19.0,20.0,21.0,22.0,23.0,24.0,25.0,26.0,27.0,28.0,29.0,30.0,31.0,32.0,33.0,34.0,35.0,36.0和输出类别种类数为37分别为'空调控制','应用控制','人物与百科','计算','车辆控制','违章查询','日期时间','汇率换算','航班查询',敏感词,'闲聊',集外,'全局','酒店查询','限行','音乐','导航与路况','网络电台','新闻','电话','通讯录','诗歌','周边','收音机','提醒闹钟','餐厅','屏幕','搜索','智能家居','短信','声音控制','股票查询','笑话故事','火车票查询','翻译','单位换算',天气',定义dropout_prob占位符类型为float32,训练时dropout_prob值为0.5和推理时dropout_prob值为0,该变量在前向传播的时候,让某个神经元的激活值以一定的概率dropout_prob停止工作,这样可以使模型泛化性更强和可以比较有效的缓解过拟合的发生,在一定程度上达到正则化的效果,因为不会太依赖某些局部的特征。
步骤(三),嵌入层。通过TensorFlow的嵌入层预训练形成字符向量表,该表包含6450个字符,每个字符向量维度为32。
其中,32个维度代表一个字,具体每个维度是什么是抽象的,不能具体说明。嵌入层的作用是把字符向量化,能够得到每个字符的向量。
步骤(四),卷积层。通过卷积核3*32*128、4*32*128和5*32*128,偏置1*128对输入语句卷积形成75*1*128、74*1*128和73*1*128三类矩阵。
其中,卷积层的输入是输入语料,不过每句话的字符都已经过嵌入层向量化处理,卷积层形成的三类矩阵是不同卷积核卷积的三个矩阵。
步骤(五),池化层。通过池化窗口大小分别为75*1*128、74*1*128和73*1*128将三类卷积矩阵进行最大池化,形成3个1*128的向量。
步骤(六),激活层。通过RElu激活函数将池化后的三类矩阵中为负数值转换为0,其他保持不变。
需要说明的是,本实施方式的负数指三个矩阵中元素为负数的变为0,将负数转换为0的作用是ReLu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生,同时节省计算量。
步骤(七),拼接层。拼接relu后的3个矩阵为一个1*384的向量。
步骤(八),Dropout层。运用dropout_prob函数随机丢弃全连接层输入矩阵的某些元素,将要丢弃的元素置0,将要保留的元素转换为保留元素乘以(1-dropout_prob)的倒数;
Droptout层的输入是拼接层拼接后的向量,经过拼接后将每句话转换为1行384维的向量,n句话可转换成n行384维的向量。
在对神经网络训练时,dropout_prob=0.5指的是把拼接后的矩阵随机一半的元素为0,在模型推理时,dropout_prob=0指的是把拼接后的矩阵所有元素都保留为原来的值。
步骤(九),全连接层。运用公式y=x*w+b,输入值x=n*384,权重w=384*37,偏置b=1*37计算37个意图的分数y并运用公式argmax(y)获得意图;
其中,输入值中的n指n个样本或者说n句话,权重指每个样本的权重,偏置是将加权后的样本偏置,经过全连接层y=w*x+b能够得到每个类别的得分,再运用agrmax(y)取得最大得分的类别,因而,获得样本的类别。
步骤(十)输出层。运用上述式1和式2计算损失值和准确率。
本申请实施例可以用于对TextCNN中文短文本意图进行快速识别。
请参阅图4,本申请提供一种车机设备,所述车机设备配置有处理器40,所述处理器40用于执行计算机程序,以实现如图1及其实施方式所述的基于神经网络的文本意图识别方法。
同时,本申请还提供一种车辆,所述车辆配置有如图4所述的车机设备,以通过所述车机设备进行人车之间的多轮语音交互。
值得一提的是,本实施方式车辆可以实现5G通讯网络技术,可以是一个面向场景化的技术,本申请利用5G技术对车辆(特别是智能网联汽车)起到关键的支持作用,其同时实现连接人、连接物或连接车辆,其具体可以采用下述三个典型应用场景组成。
第一个是eMBB(Enhance Mobile Broadband,增强移动宽带),使用户体验速率在0.1~1gpbs,峰值速率在10gbps,流量密度在10Tbps/km2
第二个超可靠低时延通信,本申请可以实现的主要指标是端到端的时间延迟为ms(毫秒)级别;可靠性接近100%;
第三个是mMTC(海量机器类通信),本申请可以实现的主要指标是连接数密度,每平方公里连接100万个其他终端,106/km2
通过上述方式,本申请利用5G技术的超可靠、低时延时的特点,结合比如雷达和摄像头等就可以给车辆提供显示的能力,可以跟车辆实现互动,同时利用5G技术的交互式感知功能,用户可以对外界环境做一个输出,不光能探测到状态,还可以做一些反馈等。进一步而言,本申请还可以应用到自动驾驶的协同里面,比如车辆之间进行协作式避碰,车辆编队等,以进行车速整体编队通行,提高通行效率。
此外,本申请还可以利用5G技术实现通信增强自动驾驶感知能力,并且可以满足车内乘客对AR(增强现实)/VR(虚拟现实)、游戏、电影、移动办公等车载信息娱乐,以及高精度的需求。本申请可以实现厘米级别的3D高精度定位地图的下载量在3~4Gb/km,正常车辆限速120km/h(千米/时)下每秒钟地图的数据量为90Mbps~120Mbps(兆比特每秒),同时还可以支持融合车载传感器信息的局部地图实时重构,以及危险态势建模与分析等。
需要说明的是,本申请还可以应用到自动驾驶层面,利用5G技术可以协助对城市固定路线车辆实现部分智能云控制,对园区、港口的无人驾驶车辆实现基于云的运营优化以及特定条件下的远程显示、控制。
在本申请中,上述系统和方法,均可以使用到具备车辆TBOX的车辆系统中,即车辆为可以具备车辆TBOX的车辆系统,其还可以连接到车辆的CAN总线上。
在本实施方式中,CAN可以包括三条网络通道CAN_1、CAN_2和CAN_3,车辆还可以设置一条以太网网络通道,其中三条CAN网络通道可以通过两个车联网网关与以太网网络通道相连接,举例而言,其中CAN_1网络通道包括混合动力总成系统,其中CAN_2网络通道包括运行保障系统,其中CAN_3网络通道包括电力测功机系统,以太网网络通道包括高级管理系统,所述的高级管理系统包括作为节点连接在以太网网络通道上的人-车-路模拟系统和综合信息采集单元,所述的CAN_1网络通道、CAN_2网络通道与以太网网络通道的车联网网关可以集成在综合信息采集单元中;CAN_3网络通道与以太网网络通道的车联网网关可以集成在人-车-路模拟系统中。
进一步而言,所述的CAN_1网络通道连接的节点有:发动机ECU、电机MCU、电池BMS、自动变速器TCU以及混合动力控制器HCU;CAN_2网络通道连接的节点有:台架测控系统、油门传感器组、功率分析仪、瞬时油耗仪、直流电源柜、发动机水温控制系统、发动机机油温度控制系统、电机水温控制系统以及发动机中冷温度控制系统;CAN_3网络通道连接的节点有:电力测功机控制器。
优选的所述的CAN_1网络通道的速率为250Kbps,采用J1939协议;CAN_2网络通道的速率为500Kbps,采用CANopen协议;CAN_3网络通道的速率为1Mbps,采用CANopen协议;以太网网络通道的速率为10/100Mbps,采用TCP/IP协议。
在本实施方式中,所述车联网网关支持5G技术的V2X车联网网络,其还可以配备有IEEE802.3接口、DSPI接口、eSCI接口、CAN接口、MLB接口、LIN接口和/或I2C接口。
在本实施方式中,比如,IEEE802.3接口可以用于连接无线路由器,为整车提供WIFI网络;DSPI(提供者管理器组件)接口用于连接蓝牙适配器和NFC(近距离无线通讯)适配器,可以提供蓝牙连接和NFC连接;eSCI接口用于连接4G/5G模块,与互联网通讯;CAN接口用于连接车辆CAN总线;MLB接口用于连接车内的MOST(面向媒体的系统传输)总线,LIN接口用于连接车内LIN(局域互联网络)总线;IC接口用于连接DSRC(专用短程通讯)模块和指纹识别模块。此外,本申请可以通过采用MPC5668G芯片对各个不同协议进行相互转换,将不同的网络进行融合。
此外,本实施方式车辆TBOX系统,Telematics-BOX,简称车载TBOX或远程信息处理器。
本实施方式Telematics为远距离通信的电信(Telecommunications)与信息科学(Informatics)的合成,其定义为通过内置在车辆上的计算机系统、无线通信技术、卫星导航装置、交换文字、语音等信息的互联网技术而提供信息的服务系统。简单的说就通过无线网络将车辆接入互联网(车联网系统),为车主提供驾驶、生活所必需的各种信息。
此外,本实施方式Telematics是无线通信技术、卫星导航系统、网络通信技术和车载电脑的综合,当车辆行驶当中出现故障时,通过无线通信连接服务中心,进行远程车辆诊断,内置在发动机上的计算机可以记录车辆主要部件的状态,并随时为维修人员提供准确的故障位置和原因。通过用户通讯终端接收信息并查看交通地图、路况介绍、交通信息、安全与治安服务以及娱乐信息服务等,另外,本实施方式的车辆还可以在后座设置电子游戏和网络应用。不难理解,本实施方式通过Telematics提供服务,可以方便用户了解交通信息、临近停车场的车位状况,确认当前位置,还可以与家中的网络服务器连接,及时了解家中的电器运转情况、安全情况以及客人来访情况等等。
本实施方式车辆还可设置ADAS(Advanced Driver Assistant System,先进驾驶辅助系统),其可以利用安装于车辆上的上述各种传感器,在第一时间收集车内外的环境数据,进行静、动态物体的辨识、侦测与追踪等技术上的处理,从而能够让驾驶者在最快的时间察觉可能发生的危险,以引起注意和提高安全性。对应地,本申请ADAS还可以采用雷达、激光和超声波等传感器,可以探测光、热、压力或其它用于监测车辆状态的变量,通常位于车辆的前后保险杠、侧视镜、驾驶杆内部或者挡风玻璃上。不难看出,上述ADAS功能所使用的各种智能硬件,均可以通过以太网链路的方式接入V2X车联网网络实现通信连接、交互。
本实施方式车辆的主机可包括适当的逻辑器件、电路和/或代码以用于实现OSI模型(Open System Interconnection,开放式通信系统互联参考模型)上面五层的运行和/或功能操作。因此,主机会生成用于网络传输的数据包和/或对这些数据包进行处理,并且还会对从网络接受到的数据包进行处理。同时,主机可通过执行相应指令和/或运行一种或多种应用程序来为本地用户和/或一个或多个远程用户或网络节点提供服务。在本申请的不同实施方式中,主机可采用一种或多种安全协议。
在本申请中,用于实现V2X车联网网络的网络连接可以为交换机,其可以具有AVB功能(Audio Video Bridging,满足IEEE802.1的标准集合),和/或包括有一条或多条非屏蔽双绞线,每一端可以具有8P8C模块连接器。
在一优选实施方式中,V2X车联网网络中具体可以包括车身控制模块BCM、动力总线P-CAN、车身总线I-CAN、组合仪表CMIC、底盘控制装置和车身控制装置。
在本实施方式中,车身控制模块BCM可以集成车联网网关的功能,进行不同网段,即动力总线P-CAN和车身总线I-CAN之间的信号转换及报文转发等,例如,挂接在动力总线上的控制器如需要与挂接在车身总线I-CAN上的控制器进行通信,则要经过车身控制模块BCM进行两者之间的信号转换及转发等。
动力总线P-CAN和车身总线I-CAN分别与车身控制模块BCM相连。
组合仪表CMIC与动力总线P-CAN相连,且组合仪表CMIC与车身总线I-CAN相连。优选地,本实施方式的组合仪表CMIC与不同的总线,如动力总线P-CAN和车身总线I-CAN均相连,当组合仪表CMIC需要获取挂接在任意总线上的控制器信息时,均无需通过车身控制模块BCM进行信号转换以及报文转发,因此,可减轻网关压力、减少网络负载,且提高组合仪表CMIC获取信息的速度。
底盘控制装置与动力总线P-CAN相连。车身控制装置与车身总线I-CAN相连。在一些示例中,底盘控制装置和车身控制装置可分别向动力总线P-CAN和车身总线I-CAN上进行信息等数据广播,以便挂接在动力总线P-CAN或车身总线I-CAN上的其它车载控制器等设备获取该广播的信息,从而实现不同控制器等车载设备之间的通信。
此外,本实施方式车辆的V2X车联网网络,可以使用两条CAN总线,即动力总线P-CAN和车身总线I-CAN,将车身控制模块BCM作为网关,将组合仪表CMIC与动力总线P-CAN和车身总线I-CAN均相连的结构,可以省去了传统方式中组合仪表CMIC挂接在两条总线上的一条上时的底盘控制装置或车身控制装置的信息通过网关转发给组合仪表CMIC的操作,由此,减轻了车身控制模块BCM作为网关的压力,减少了网络负载,且更加方便将多条总线,如动力总线P-CAN和车身总线I-CAN上挂接的车载设备的信息发送至组合仪表CMIC上进行显示、信息传输实时性强。
此外,本申请还提供一种计算机可读存储介质,其用于存储计算机程序,所述计算机程序被处理器执行时,用于实现图1及其实施方式所述的基于神经网络的文本意图识别方法的步骤。
以上所述,仅是本申请的较佳实施例而已,并非对本申请作任何形式上的限制,虽然本申请已以较佳实施例揭露如上,然而并非用以限定本申请,任何熟悉本专业的技术人员,在不脱离本申请技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本申请技术方案内容,依据本申请的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本申请技术方案的范围内。

Claims (10)

1.一种基于神经网络的文本意图识别方法,其特征在于,所述基于神经网络的文本意图识别方法包括:
神经网络获取输入的语言文本信息;
根据预设置的占位符类型和字符长度对所述语言文本信息进行处理;
对所述语言文本信息进行字符向量化处理,以得到每个字符的向量;
对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵;
采用预设置的池化窗口对所述卷积矩阵进行池化处理;
将经过池化处理的卷积矩阵中的负数值元素进行转换;
拼接所述卷积矩阵以得到目标向量;
丢弃拼接后的目标向量中的部分元素;
神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图。
2.根据权利要求1所述的基于神经网络的文本意图识别方法,其特征在于,所述神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图的步骤,还包括:
对识别得到的至少多个文本意图进行损失值和/或准确率计算,以得到每个文本意图类别的概率;
利用预训练得到的预测意图类别概率与实际意图类别的交叉熵处理得到用于输出的最终意图。
3.根据权利要求1所述的基于神经网络的文本意图识别方法,其特征在于,所述将经过池化处理的卷积矩阵中的负数值元素进行转换的步骤,具体包括:
采用RELU激活函数将卷积矩阵中的负数值元素转换为零,并保持其他元素不变。
4.根据权利要求1-3任一项所述的基于神经网络的文本意图识别方法,其特征在于,所述根据预设置的占位符类型和字符长度对所述语言文本信息进行处理的步骤,具体包括:
根据预设置的与自然语言特征相匹配的占位符类型和字符长度对所述语言文本信息进行处理。
5.根据权利要求4所述的基于神经网络的文本意图识别方法,其特征在于,所述占位符类型为输入int25~输入int35、输出float25~输出float35,所述字符长度为60字节~80字节。
6.根据权利要求5所述的基于神经网络的文本意图识别方法,其特征在于,所述对所述语言文本信息进行字符向量化处理,以得到每个字符的向量的步骤中,每个字符的向量的维度为25~35之间。
7.根据权利要求6所述的基于神经网络的文本意图识别方法,其特征在于,所述对经过字符向量化处理的所述语言文本信息进行卷积处理以得到卷积矩阵的步骤,具体包括:
采用卷积核为3*32*128、4*32*128和5*32*128,偏置为1*128对所述语言文本信息进行卷积处理以得到75*1*128、74*1*128和73*1*128的三类卷积矩阵,其中,卷积核的3、4和5表示自然语言中每个词的字符个数。
8.根据权利要求7所述的基于神经网络的文本意图识别方法,其特征在于:
所述采用预设置的池化窗口对所述卷积矩阵进行池化处理的步骤,具体包括:采用预设置的大小分别为75*1*128、74*1*128和73*1*128的池化窗口对三类卷积矩阵进行最大池化处理,以形成三个1*128的向量;
所述拼接所述卷积矩阵以得到目标向量的步骤,具体包括:拼接卷积矩阵的三个1*128的向量以形成一个1*384的向量;
所述丢弃拼接后的目标向量中的部分元素的步骤,具体包括:运用dropout_prob函数随机丢弃拼接后的目标向量中的一半元素;
所述神经网络对所述目标向量进行计算以识别得到与所述语言文本信息对应的文本意图的步骤,具体包括:神经网络运用公式argmax(y)和y=x*w+b计算以识别得到与所述语言文本信息对应的文本意图,其中,输入值x=n*384,权重w=384*m,偏置b=1*m计算m个文本意图的分数y,n为所述语言文本信息中的n句话或n个语言文本信息,m为预设值的m种意图类别,argmax(y)函数为求最大得分的意图类别。
9.一种车机设备,其特征在于,所述车机设备配置有处理器,所述处理器用于执行计算机程序,以实现如权利要求1-8任一项所述的基于神经网络的文本意图识别方法。
10.一种车辆,其特征在于,所述车辆配置有如权利要求9所述的车机设备,以通过所述车机设备进行人车之间的多轮语音交互。
CN201910498789.0A 2019-06-10 2019-06-10 车辆、车机设备及其基于神经网络的文本意图识别方法 Pending CN110263139A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910498789.0A CN110263139A (zh) 2019-06-10 2019-06-10 车辆、车机设备及其基于神经网络的文本意图识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910498789.0A CN110263139A (zh) 2019-06-10 2019-06-10 车辆、车机设备及其基于神经网络的文本意图识别方法

Publications (1)

Publication Number Publication Date
CN110263139A true CN110263139A (zh) 2019-09-20

Family

ID=67917446

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910498789.0A Pending CN110263139A (zh) 2019-06-10 2019-06-10 车辆、车机设备及其基于神经网络的文本意图识别方法

Country Status (1)

Country Link
CN (1) CN110263139A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144596A (zh) * 2019-12-10 2020-05-12 上海博泰悦臻电子设备制造有限公司 智能交通工具、智能出行规划装置及方法
CN112069837A (zh) * 2020-09-17 2020-12-11 湖北亿咖通科技有限公司 一种基于神经网络的自然语言处理方法和电子设备
CN114154493A (zh) * 2022-01-28 2022-03-08 北京芯盾时代科技有限公司 一种短信类别的识别方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法
WO2019059191A1 (ja) * 2017-09-20 2019-03-28 国立大学法人東京工業大学 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
CN109829153A (zh) * 2019-01-04 2019-05-31 平安科技(深圳)有限公司 基于卷积神经网络的意图识别方法、装置、设备及介质
CN109857860A (zh) * 2019-01-04 2019-06-07 平安科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107038480A (zh) * 2017-05-12 2017-08-11 东华大学 一种基于卷积神经网络的文本情感分类方法
WO2019059191A1 (ja) * 2017-09-20 2019-03-28 国立大学法人東京工業大学 ニューラルネットワーク回路装置、ニューラルネットワーク、ニューラルネットワーク処理方法およびニューラルネットワークの実行プログラム
CN109829153A (zh) * 2019-01-04 2019-05-31 平安科技(深圳)有限公司 基于卷积神经网络的意图识别方法、装置、设备及介质
CN109857860A (zh) * 2019-01-04 2019-06-07 平安科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘娇 等: "人机对话系统中意图识别方法综述", 《计算机工程与应用》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144596A (zh) * 2019-12-10 2020-05-12 上海博泰悦臻电子设备制造有限公司 智能交通工具、智能出行规划装置及方法
CN112069837A (zh) * 2020-09-17 2020-12-11 湖北亿咖通科技有限公司 一种基于神经网络的自然语言处理方法和电子设备
WO2022057406A1 (zh) * 2020-09-17 2022-03-24 湖北亿咖通科技有限公司 一种基于神经网络的自然语言处理方法和电子设备
CN114154493A (zh) * 2022-01-28 2022-03-08 北京芯盾时代科技有限公司 一种短信类别的识别方法及装置

Similar Documents

Publication Publication Date Title
EP3996346B1 (en) Message pushing method, storage medium, and server
CN112100383B (zh) 一种面向多任务语言模型的元-知识微调方法及平台
CN110263139A (zh) 车辆、车机设备及其基于神经网络的文本意图识别方法
CN109291929A (zh) 用于自动驾驶系统的深度集成融合架构
CN108346430A (zh) 对话系统、具有对话系统的车辆以及对话处理方法
CN110008879A (zh) 车载个性化音视频内容推送方法及装置
CN110503948A (zh) 对话系统和对话处理方法
CN109115236A (zh) 车辆、车机设备及其基于条件触发的行程自动导航方法
CN110576808A (zh) 车辆、车机设备及其基于人工智能的场景信息推送方法
CN110970029A (zh) 车辆、车机设备及基于语音语义识别的车载语音交互方法
CN115123143B (zh) 车辆个性化迎宾方法、系统、车辆及介质
CN110503947A (zh) 对话系统、包括其的车辆和对话处理方法
CN110920388B (zh) 车辆、车机设备及基于环境因素的车机设备风格调节方法
CN113954855B (zh) 一种汽车驾驶模式自适应匹配方法
CN111669708A (zh) 车辆、车机设备及其基于车联网紧急情况的应急导航方法
CN111196124B (zh) 车内环境调控方法、装置、电子设备和存储介质
CN115859219A (zh) 多模态交互方法、装置、设备及存储介质
CN116483305A (zh) 智能网联汽车数字虚拟人应用系统及其使用方法、车辆
CN116680601A (zh) 边缘交通对象预测方法、装置、设备和存储介质
CN104655143A (zh) 利用车载信息系统服务器端的运行路径提供装置及方法
CN108983773A (zh) 车辆、车机设备、用户通讯终端及其行程自动规划方法
CN110986995A (zh) 车辆、车机设备及其基于车机导航的天气预报方法
CN111210540A (zh) 车辆、车机设备及其人机交互方法
CN111024106A (zh) 车辆、导航装置及其综合式导航规划方法
CN108809817A (zh) 车载即时聊天的车辆、车机设备、云服务器及通信方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190920

RJ01 Rejection of invention patent application after publication