具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
如图1所示,本发明的实施例提供一种基于语义理解的搜索方法,该方法可以应用于搜索引擎、语音助手、对话机器人等,该方法包括:
S10、预先采用无监督自适应训练方法训练语义理解模型;语义理解模型能够基于用户的输入内容来确定用户的真实意图,从而通过预先训练得到语义理解模型用于识别用户搜索的意图,能够推荐更加符合用户意图的搜索结果。
S20、根据用户输入内容确定用于输入至所述语义理解模型的文本内容;其中用户输入内容可以是语音输入内容、文字输入内容和图片输入内容中的至少一种。如果采用语音输入内容,则需要进行一次语音识别转换,将音频转换为文本,作为自然语言输入内容。
S30、所述语义理解模型基于所述文本内容确定用户搜索意图;
语义理解过程包括将各文本中的句子表示为词序列,预测词序列中的每一个词的语义槽标签得到语义槽序列,本发明中,将口语语义理解看成是一个词序列标注问题,即把用户说的句子看成是一个词序列w=(w1,w2,...,wN),其中N是句子长度(即词的个数),语义理解目标是预测词序列中每一个词的语义槽并得到语义槽序列s=(s1,s2,...,sN),其中语义槽是一些特定的概念或者属性,比如“中转城市”、“歌曲名称”等。该方法采用双向神经网络(BLSTM,Bidirectional Long Short Term Memory network)对词序列标注过程进行建模。
BLSTM模型对输入句子的编码过程可以表示为:
其中是BLSTM中的反向隐向量,是BLSTM中的正向隐向量,是词wi的词向量,是向量拼接操作。BLSTM将词序列编码为隐向量序列:(h1...hT)=BLSTMΘ(w1...wT)。
在无监督自适应学习中,本发明设定了四套BLSTM参数,分别为:
BLSTMΘtag:用于生成专属于语义解析任务的隐向量;
BLSTMΘtscp:用于生成专属于正确文本输入重现任务的隐向量;
BLSTMΘasr:用于生成专属于识别文本输入重现任务的隐向量;
BLSTMΘshd:用于生成任务共享(不相关)的隐向量;
语义解析任务:将BLSTMΘtag和BLSTMΘshd输出的隐向量拼接,过一个线性网络层,预测每一个词的语义槽标签;
输入重现任务(双向语言模型):将BLSTMΘtscp(或者BLSTMΘasr)和BLSTMΘshd输出的隐向量拼接,用正向隐向量预测下一个词(正向语言模型),用反向隐向量预测上一个词(反向语言模型);
对抗学习任务:将BLSTMΘshd隐向量输入一个线性网络层进行分类,随机地分配一个任务类别,让BLSTMΘshd变得任务不可分(任务不相关)。
最后使用的时候,把识别文本输入到BLSTMΘtag和BLSTMΘshd以及“语义解析”模型中,获取识别文本的语义信息。
S40、确定相应于所述用户搜索意图的搜索结果推送给用户,其中,搜索结果是相应于用户搜索意图的众多结果中的打分最高的多个结果,优选的多个结果的个数不大于三。
本发明实施例由于通过引入语义理解模型来确定用户进行搜索的真实意图,从而能够获取真正是用户想要的搜索结果,避免了传统搜索方法为用户推荐过多内容,且掺杂众多不符合用户意图的内容(这些内容需要用户通过浏览过滤掉);因此,降低了用户获取想要的搜索结果的时间成本、精力成本,提升了用户体验。此外,由于所确定的符合用户真实意图的搜索结果数量并不多,能够更好的适应现在的移动互联网和物联网中的小屏终端上进行呈现。另外,对于具有语音交互功能的无屏设备,用户可以使用语音输入进行搜索,该无屏设备通过语音识别和语义理解等得到符合用户意图的有限搜索结果并以语音的形式播报给用户。
用户在使用采用了本发明实施例中所涉及的搜索方法的产品(例如,搜索引擎)时,一种具体的实施例如下:
第一步,用户输入内容可以是语音输入内容、文字输入内容和图片输入内容中的至少一种。如果采用语音输入内容,则需要进行一次语音识别转换,将音频转换为文本,作为自然语言输入内容。
第二步,将第一步中的输入内容交给语义理解模型来进行解析,在语义理解中,分为两类处理方法,这两类综合使用来进行语义理解。一种方法是基于规则匹配的语义理解,即人工对大量的自然语言或基于正则匹配的自然语言进行标注,得到丰富的自然语言理解语料,而后,将自然语言输入至系统中,进行规则匹配,以便明晰用户的真实意图和想法。另一种方法是将基于大量的语料库,进行基于统计的语义理解,基于统计的语义理解需要大量的原始语料作为积累和训练素材,基于统计的语义理解能够更加全面的理解用户的意图,并且能够更加灵活多变的相应需求,覆盖范围更广。
第三步,语义理解将用户的需求处理后,给出自然语言理解的结果,其中包括用户的真实意图,已经以及用户意图需要进入的独立领域等信息,同时也有带上这些相关因子的权重和置信度。
第四步,将自然语义理解的内容给到搜索引擎进行内容检索,在上述指定的领域内精确检索,并返回更加精准和简短的结果,一方面满足更加精确,一方面满足更加简短精巧。
第五步,将搜索引擎返回的内容(字段/内容/图片/音视频等信息),进行结构化呈现,可以为API形式返回,也可以是直接可视化呈现结果,最终到达发起搜索请求的用户面前。
而现有技术中为了解决所存在的缺陷通常会采用这样的做法:设法提高检索召回的算法效率,使规则匹配和概率匹配更加精准,覆盖更多更准的结果。
发明人之所以能够做出本发明创造,主要是因为其在做语音对话管理过程中,充分认识到语义理解对用户意图识别准确性的重要性。因为语音对话是一个力求精准的而且是路径很短的对话,所以,务必要求用户的请求能够更加精准简短的返回给用户,而不是长篇大论或翻了好几页也不知道结果在哪里。充分认识到这个问题后,会充分优化搜索引擎的方案,增加深度的语义理解这一部分,会采用基于规则匹配的标注形式的语义理解,也会采用统计形式的语义理解,而且也积累了大量的不同领域的分类标注数据,可供机器学习和调取使用。
本发明通过这样几种方式来解决上述缺陷:优化搜索引擎方案,采用更优秀的搜索引擎技术方案,提高内容的匹配率、召回率和准确率;在搜索引擎方案中增加语义理解,这些对自然语义理解有两种重要的方式,一种是使用基于大量规则标注的语料来进行自然语言理解,识别到用户的真正意图,以便进行搜索内容的匹配,一种是基于统计的自然语义理解,即根据大量的已标注的语料库进行自然语言理解的统计训练,这种好处在于不需要根据标注的内容来进行理解,更大的提高的理解范围和灵活度;在重点的垂直领域做内容搜索的深耕,当理解到用户真正意图后,进入垂直领域,我们会做好领域的内容建设,将召回结果更优的呈现在用户的面前,尽可能减少交互次数和检索路径。
如图2所示,本发明的基于语义理解的搜索方法的另一个实施例中,所述预先采用无监督自适应训练方法训练语义理解模型包括:
S11、对用户语音数据的正确文本进行语义标注以生成带语义标注的正确文本;
S12、将所述用户语音数据输入语音识别系统进行识别以得到识别文本;
S13、将所述正确文本、所述带语义标注的正确文本和所述识别文本随机地输入语义理解模型以对所述语义理解模型进行无监督自适应训练。
在本实施例中,语义理解训练系统可以对用户语音数据对应的正确文本进行语义标注,从而可以得到带语义标注的正确文本。例如可以采用人工标注,或者是开发者在开发自己的语音软件时自己输入语音和正确文本并对正确文本进行标注。之后,语义理解训练系统将用户语音数据输入至语音识别系统识别,从而可以得到识别文本,识别文本都是和语音识别系统挂钩的,识别能力强,识别出来的文本就能更接近正确文本,或者直接识别出来的就是正确文本,这种情况相对比较少。最后,语义理解训练系统将正确文本、带语义标注的正确文本和识别文本随机地输入至语义理解模型进行无监督自适应训练,由于随机地无监督自适应训练,无需对识别文本进行语义标注,可以使语义理解模型能够摆脱对识别文本的语义标注的依赖,从而将在正确文本上的语义标注迁移到识别文本上,实现对语音识别错误的鲁棒性。
如图3所示,为本发明的基于语义理解的搜索方法中的训练语义理解模型的一种实施例,包括:
S12′、响应于语音识别系统更新,将用户语音数据再次输入至更新后的语音识别系统进行识别以得到更新后的识别文本;
S13′、带语义标注的正确文本和更新后的识别文本随机地输入语义理解模型以对语义理解模型进行无监督自适应训练。
在本实施例中,语义理解训练系统响应于语音识别系统的更新,将用户语音数据再次输入至更新后的语音识别系统中,从而可以得到更新后的识别文本。之后,语义理解训练系统重新将正确文本、带语义标注的正确文本和更新后的识别文本随机地输入语义理解模型进行无监督自适应训练。从而语义理解训练系统能够响应于语音识别系统的更新,自动地对语义理解模型进行更新,无需对更新后的识别文本进行语义标注,而正确文本上的语义标注也无需随着语音识别系统的更新重新标注,一次正确文本上的语义标注可以持续使用,极大地节省人力物力。
如图4所示,为本发明的基于语义理解的搜索方法中步骤S13的一种实施例,具体地,将所述正确文本、所述带语义标注的正确文本和所述识别文本随机地输入语义理解模型以对所述语义理解模型进行无监督自适应训练包括:
S131、为语义解析任务、正确文本输入重现任务和识别文本输入重现任务设置共享参数;
S132、随机地向语义理解模型中的各任务输入带语义标注的正确文本、正确文本和识别文本中的任意一种,使各任务的共享参数之间对抗学习,以强化语义理解模型的语义理解能力。
在本实施例中,语义理解模型中设置有:对应于带语义标注的正确文本的语义解析任务、对应于正确文本的正确文本输入重现任务和对应于识别文本的识别文本输入重现任务。语义理解训练系统为各任务设置共享参数,之后通过随机地向各任务输入各文本中的任意一种,使各任务的共享参数之间进行对抗学习,从而可以使共享参数更加地任务不相关,也能通过对抗学习将带语义标注的正确文本上的语义标注迁移到识别文本上,从而强化语义理解模型语义理解能力和对于语音识别错误的鲁棒性。
在一些实施例中,当所述用户输入内容为语音输入内容时,所述根据用户输入内容确定用于输入至所述语义理解模型的文本内容包括:将所述语音输入内容输入至语音识别模型以得到相应的文本内容。
为了避免语音识别中噪声影响的问题,本发明中语音识别模型进行特征提取时采用以下方法:利用小波变换将语音信号进行小波子带分解;根据人耳的听觉掩蔽效应,由谱压缩的技术,将小波变换后的子带语音信号进行压缩以提取对应的语音特征。发明人通过MATLAB软件建立实验平台,仿真实验结果表明语音特征可以在噪声环境下得到较高的识别率。新的特征参数即充分利用了小波的抗噪声特性,又有效地降低了语音识别中的训练环境和识别环境的适配,具有高抗噪的特性。
在本发明的一些实施例中,语义标记的正确文本被用于语义理解任务。正确文本和识别文本被用于无监督任务(例如语言建模)。语义理解任务与无监督任务共享一部分参数,以便它可以从正确文本迁移到识别文本上。此外,使用对抗训练技巧来强制共享参数与任务无关。
我们是第一个研究无需对识别文本进行标注的语义理解的无监督ASR错误自适应问题的。这对于部署商业对话系统可能是有用的。我们针对SLU中的ASR错误自适应问题提出了一种利用成对的正确文本和识别文本进行对抗自适应的方法。实验结果表明,我们的方法显著优于强基线。
无监督ASR错误自适应:以下,给出了无监督ASR错误自适应的细节。这种方法只需要语义理解的带语义标注的正确文本和与ASR错误自适应的识别文本配对的原始正确文本,从而避免识别文本上的注释。本方法中使用的相应数据源如下所示:
·tag:带语义标注的正确文本。
·tscp:正确文本。
·asr:由ASR系统提供的识别文本。
BLSTM参数
我们使用双向LSTM(BLSTM)模型作为输入的参数。设ew表示每个单词w的单词嵌入,表示向量级联操作。参数读取输入句子w=(w1,w2,...,wT)并产生BLSTM的T隐藏状态:
其中是BLSTM中向后传递的隐向量,是BLSTM中正向传递的隐向量,fl和fr分别是向后和向前传递的LSTM单元。
我们将整个操作写为映射BLSTMΘ:
(h1...hT)=BLSTMΘ(w1...wT)
无监督自适应学习:在无监督ASR错误自适应中,我们利用正确文本上的SLU标注而不是识别文本。我们使得语义理解和无监督重建任务的参数不同。所以我们有四个BLSTM参数:
·Θtag:产生特定于语义理解任务的隐向量。
·Θtscp:产生特定于正确文本输入重现的隐向量。
本发明实施例提出的方法的体系结构包括三个任务:正确文本侧语义理解、正确文本侧和识别文本侧的输入重现。该框架包含四个用于特征学习的BLSTM参数,其中一个参数由三个任务共享,而其他参数对于每个任务是私有的。
·Θasr:产生特定于识别文本输入重现的隐向量。
·Θshd:产生任务不变隐向量。
词向量在这些参数中共享。现在我们为ASR错误自适应定义三个损失函数:(1)语义理解,(2)输入重现(无监督),(3)对抗学习。
带标注的正确文本侧损失:最重要的目标是最大限度地减少带标注的正确文本上的语义理解错误。令w=(w1...wT)为用y=(y1...yT)标注的正确文本。我们产生:
然后我们定义第i个单词的语义理解y的概率为:
其中Wtag和btag分别是输出层的加权矩阵和偏置向量。设Ωtag表示{Wtag,btag}。标记损失函数由负对数似然性给出。
输入重现损失:我们还通过以无监督方式重建编码句子来进行特征学习。通过为正确文本和识别文本增加输入重现任务,强制BLSTM参数在参数空间中闭合。Kim等人使用完全重新生成输入句子的基于注意力的序列到序列(S2S)。相反,我们建议使用双向语言建模(BLM)来生成输入句子,这样更有效率。
设w=(w1...wT)为数据源d∈{TSCP,ASR}中的句子。有了相关的参数,我们有:
级联向量被馈入简单的前馈神经网络(FFN),只有一层预测最后一个单词,被送入另一个FFN来预测下一个单词。我们使用Ωrec来表示这两个FFN的参数。重建损失由负对数似然值给出:
其中d∈{tscp,asr},w0是句子开始标记<s>,wT+1是句子结束标记</s>。
对抗学习任务损失:直觉是我们拥有的任务不变特征越多,在识别文本侧解码时越容易受益于正确文本侧训练。继以前的工作,我们使用随机预测训练强制共享参数任务不变。这种对抗训练方法使得共享的BLSTM参数通过与上述输入重现任务相结合而成为ASR错误稳健的。
设w=(w1,...,wT)是数据源{tag,tscp,asr}中的句子。使用共享参数,我们有隐藏的状态:
其中被馈送到作为单层FFN的任务分类器中。设Ωadv表示这个分类器的参数。因此,对抗损失可以表述为:
其中ti以相等的概率被设置为tag、tscp、asr。
联合目标函数:对于无监督ASR错误自适应,我们优化:
L1=Ltag(Θtag,Θshd,Ωtag)+Lrec(Θtscp,Θshd,Ωrec)+Lrec(Θasr,Θshd,Ωrec)+Ladv(Θshd,Ωadv),
在解码阶段,我们使用识别文本中的参数Θtag和语义理解器Ωtag来预测语义理解序列。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作合并,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
如图5所示,本发明的实施例还提供一种基于语义理解的搜索系统500,包括:
模型训练程序模块510,用于预先采用无监督自适应训练方法训练语义理解模型;
文本内容确定程序模块520,用于根据用户输入内容确定用于输入至所述语义理解模型的文本内容;
意图确定程序模块530,用于采用所述语义理解模型基于所述文本内容确定用户搜索意图;
搜索结果确定程序模块540,用于确定相应于所述用户搜索意图的搜索结果推送给用户。
如图6所示,本发明的基于语义理解的搜索系统中,所述模型训练程序模块510包括:
标注程序单元511,用于对用户语音数据的正确文本进行语义标注以生成带语义标注的正确文本;
识别程序单元512,用于将所述用户语音数据输入语音识别系统进行识别以得到识别文本;
训练程序单元513,用于将所述正确文本、所述带语义标注的正确文本和所述识别文本随机地输入语义理解模型以对所述语义理解模型进行无监督自适应训练。
在一些实施例中,所述用户输入内容为语音输入内容和/或文字输入内容和/或图片输入内容。
在一些实施例中,当所述用户输入内容为语音输入内容时,所述根据用户输入内容确定用于输入至所述语义理解模型的文本内容包括:
将所述语音输入内容输入至语音识别模型以得到相应的文本内容。
在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项基于语义理解的搜索方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行基于语义理解的搜索方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时能够实现基于语义理解的搜索方法。
上述本发明实施例的基于语义理解的搜索系统可用于执行本发明实施例的基于语义理解的搜索方法,并相应的达到上述本发明实施例的实现基于语义理解的搜索方法所达到的技术效果,这里不再赘述。本发明实施例中可以通过硬件处理器(hardwareprocessor)来实现相关功能模块。
图7是本申请另一实施例提供的执行基于语义理解的搜索方法的电子设备的硬件结构示意图,如图7所示,该设备包括:
一个或多个处理器710以及存储器720,图7中以一个处理器710为例。
执行基于语义理解的搜索方法的设备还可以包括:输入装置730和输出装置740。
处理器710、存储器720、输入装置730和输出装置740可以通过总线或者其他方式连接,图7中以通过总线连接为例。
存储器720作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的基于语义理解的搜索方法对应的程序指令/模块。处理器710通过运行存储在存储器720中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例基于语义理解的搜索方法。
存储器720可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于语义理解的搜索装置的使用所创建的数据等。此外,存储器720可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器720可选包括相对于处理器710远程设置的存储器,这些远程存储器可以通过网络连接至基于语义理解的搜索装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置730可接收输入的数字或字符信息,以及产生与基于语义理解的搜索装置的用户设置以及功能控制有关的信号。输出装置740可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器720中,当被所述一个或者多个处理器710执行时,执行上述任意方法实施例中的基于语义理解的搜索方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。