CN112652298A - 语音识别方法、装置、电子设备和存储介质 - Google Patents
语音识别方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112652298A CN112652298A CN202011460451.5A CN202011460451A CN112652298A CN 112652298 A CN112652298 A CN 112652298A CN 202011460451 A CN202011460451 A CN 202011460451A CN 112652298 A CN112652298 A CN 112652298A
- Authority
- CN
- China
- Prior art keywords
- interest point
- candidate
- recognition result
- position information
- matching degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000015654 memory Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 13
- 239000000126 substance Substances 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 22
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000003058 natural language processing Methods 0.000 abstract description 5
- 238000013135 deep learning Methods 0.000 abstract description 4
- 230000000875 corresponding effect Effects 0.000 description 80
- 230000006870 function Effects 0.000 description 11
- 230000003993 interaction Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种语音识别方法、装置、电子设备和存储介质,涉及自然语言处理、物联网、大数据、语音技术、知识图谱、深度学习等人工智能技术领域。具体实现方案为:对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度;在所述候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息;查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息;根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度、及每个所述候选识别结果对应的置信度,从所述各个候选识别结果中选取目标识别结果。本申请可以有效提高语音识别的准确性,给用户带来良好的使用感。
Description
技术领域
本申请涉及计算机技术领域,具体涉及自然语言处理、物联网、大数据、语音技术、知识图谱、深度学习等人工智能技术领域,尤其涉及一种语音识别方法、装置、电子设备和存储介质。
背景技术
随着计算机技术的蓬勃发展,人工智能技术也得到了迅速发展,智能电视、智能音箱、智能助手等智能设备也获得了越来越广泛的使用。语音识别,作为智能电视、智能音箱及智能助手等设备中必不可少的一部分,如何快速、准确的进行语音识别,显得至关重要。
发明内容
本申请提供一种语音识别方法、装置、电子设备和存储介质。
根据本申请的一方面,提供了一种方法,包括:
对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度;
在所述候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息;
查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息;
根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度、及每个所述候选识别结果对应的置信度,从所述各个候选识别结果中选取目标识别结果。
根据本申请的另一方面,提供了一种装置,包括:
识别模块,用于对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度;
第一获取模块,用于在所述候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息;
第二获取模块,用于查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息;
选取模块,用于根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度、及每个所述候选识别结果对应的置信度,从所述各个候选识别结果中选取目标识别结果。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述一方面实施例所述的语音识别方法。
根据本申请另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其上存储有计算机程序,所述计算机指令用于使所述计算机执行上述一方面实施例所述的语音识别方法。
根据本申请另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现一方面实施例所述的语音识别方法。
本申请提供的语音识别的方法、装置、电子设备及存储介质,存在如下有益效果:
先对获取的语音数据进行语音识别,以获取各个候选识别结果以及分别对应的置信度,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后在预设的兴趣点列表中查找与候选识别结果中包含的第一兴趣点关联的第二位置信息,从而可以根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度、及每个候选识别结果对应的置信度,确定最终的目标识别结果。由此,在进行语音识别时,若语音数据中包含兴趣点、则基于终端当前所在的位置对候选识别结果进行筛选,以确定出最符合用户期望的识别结果,从而提高了语音识别的准确性,能够给用户带来良好的使用感。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请一实施例提供的一种语音识别方法的流程示意图;
图2为本申请另一实施例提供的一种语音识别方法的流程示意图;
图3为本申请又一实施例提供的一种语音识别方法的流程示意图;
图4为本申请一实施例提供的一种语音识别装置的结构示意图;
图5为本申请另一实施例提供的一种语音识别装置的结构示意图;
图6为根据本申请实施例的语音识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习、深度学习、大数据处理技术、知识图谱技术等几大方向。
自然语言处理是用计算机来处理、理解以及运用人类语言(如中文、英文等),它是计算机科学与语言学的交叉学科,又常被称为计算语言学。由于自然语言是人类区别于其他动物的根本标志。没有语言,人类的思维也就无从谈起,所以自然语言处理体现了人工智能的最高任务与境界,也就是说,只有当计算机具备了处理自然语言的能力时,机器才算实现了真正的智能。
物联网起源于传媒领域,是信息科技产业的第三次革命。物联网是指通过信息传感设备,按约定的协议,将任何物体与网络相连接,物体通过信息传播媒介进行信息交换和通信,以实现智能化识别、定位、跟踪、监管等功能。在物联网应用中有三项关键技术,分别是感知层、网络传输层和应用层。
大数据技术是指通过多种渠道实现对大量数据的采集,并通过使用云计算技术来实现对数据的深度挖掘和分析,确保能够及时的找出数据之间的规律和特点,总结和归纳出数据所存在的价值。大数据技术对于了解数据特征,预测发展趋势具有十分重要的意义。
语音技术在计算机领域中的关键技术有自动语音识别技术(ASR)和语音合成技术(TTS)。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式,语音比其他的交互方式有更多的优势。
知识图谱本质上是语义网络,是一种基于图的数据结构,由节点和边组成。在知识图谱中,每个节点表示现实世界中存在的实体,每条边为实体与实体之间的关系。通俗地讲,知识图谱就是把所有不同种类的信息连接在一起而得到的一个关系网络,知识图谱提供了从“关系”的角度去分析问题的能力。
深度学习是指多层的人工神经网络和训练它的方法。一层神经网络会把大量矩阵数字作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出。通过合适的矩阵数量,多层组织链接一起,形成神经网络“大脑”进行精准复杂的处理,就像人们识别物体标注图片一样。
下面参考附图描述本申请实施例的语音识别方法、装置、电子设备和存储介质。
图1为本申请实施例提供的一种语音识别方法的流程示意图。
本申请实施例的语音识别方法,可由本申请实施例提供的语音识别装置执行,该装置可配置于电子设备中。为方便说明,本申请以下各实施例中该语音识别装置,均简称为“生成装置”。
如图1所示,该语音识别方法包括:
步骤101,对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度。
候选识别结果,为对用户输入的语音数据进行语音识别后,生成装置获取到的识别结果,本申请对此不做限定。因后续还需要对该识别结果进行相关操作以确定最终输出结果,从而称其为候选识别结果。
举例来说,用户输入的语音数据可能为“GuXianXiang”,候选识别结果对应的可能为“故仙乡”、“固献乡”、“故县乡”,各个候选识别结果对应的置信度依次为0.45、0.4、0.35。
需要说明的是,上述示例只是举例说明,不能作为对本申请候选识别结果的限定。
步骤102,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息。
其中,兴趣点,也可以称作信息点,在地理信息系统中,一个兴趣点可以是一栋房子、一个商铺、一个邮筒、一个公交站等。
本申请实施例中,第一兴趣点,为与用户输入的语音数据相关的信息,比如位置、地点、名称等,本申请对此不做限定。
终端,为生成装置所在的终端,它可以为任一可接收语音数据的终端设备,比如手机、智能手表、平板电脑等,本申请对此不做限定。
第一位置信息,可以包含终端所在的城市、省份、街道名称和/或门牌号码等信息,本申请对此不做限定。
可以理解的是,当候选识别结果中包含有第一兴趣点时,表明当前用户的交互需求与位置有关,在这种交互需求下,位置信息可能会直接影响识别结果的准确性,因此本申请实施例中进一步获取终端所在的第一位置信息。
举例来说,用户输入的语音数据为“GuXianXiang”,候选识别结果分别为“故仙乡”、“固献乡”、“故县乡”,对应的各第一兴趣点分别为“故仙乡”、“固献乡”、“故县乡”,此时,为了使输出的识别结果更加准确,可以进一步获取终端当前所在的位置信息。
需要说明的是,上述示例只是举例说明,不能作为对本申请实施例中第一兴趣点的限定。
步骤103,查询预设的兴趣点列表,以获取与每个候选识别结果中包含的第一兴趣点关联的第二位置信息。
其中,兴趣点列表,为预先存储好的、包含各种兴趣点信息的列表,其中可以包括各个兴趣点以及各个兴趣点所在的位置,比如兴趣点所在的城市、省份、街道名称和/或门牌号码等信息,本申请对此不做限定。
另外,在存储兴趣点列表数据时,可以对同一类兴趣点做归一化处理,以使其在列表中具有相同的形式,或者对称呼不全、信息不全的兴趣点,进行相应的称谓扩展,或者也可以对兴趣点数据进行聚类统计分析、垂类挖掘,从而使其在列表中具有统一的形式。
第二位置信息,为在兴趣点列表中,与候选识别结果中包含的第一兴趣点有关的位置信息。
举例来说,用户输入的语音数据为“GuXianXiang”,候选识别结果分别为“故仙乡”、“固献乡”、“故县乡”,对应的各第一兴趣点分别为“故仙乡”、“固献乡”、“故县乡”,在兴趣点列表查找与各个第一兴趣点关联的内容,可以得到“河北沧州故仙乡”、“河北邢台固献乡”、“山西长治故县乡”,相应的第二位置信息分别为“河北沧州”、“河北邢台”、“山西长治”。
需要说明的是,上述示例只是举例说明,不能作为对本申请实施例中兴趣点列表的限定。
步骤104,根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度、及每个候选识别结果对应的置信度,从各个候选识别结果中选取目标识别结果。
其中,目标识别结果,为生成装置、最终输出的识别结果。可以理解的是,置信度越高,对应的候选识别结果越准确、可靠。
举例来说,用户输入的语音数据可能为“GuXianXiang”,生成装置对该语音信息进行识别,获取到3个候选识别结果,分别为“故仙乡”、“固献乡”、“故县乡”,对应的置信度分别为0.45、0.4、0.35,各候选识别结果对应的第一兴趣点依次为“故仙乡”、“固献乡”、“故县乡”,。另外,可知获取到的第一位置信息为“邢台市”,在兴趣点列表中查找与每个候选识别结果中包含的第一兴趣点关联的第二位置信息,可以得到以下相关的内容:“河北沧州故仙乡”,“河北邢台固献乡”,“山西长治故县乡”。根据查找的内容可知第二个候选识别结果“固献乡”对应的第二位置信息为“河北邢台”,其与第一位置信息的匹配度最高,“故仙乡”对应的第二位置信息与第一位置信息同属河北省但属不同的市,其与第一位置信息的匹配度一般,“故县乡”对应的第二位置信息与第一位置信息位于不同的省份,其与第一位置信息的匹配度最低。
可以理解的是,候选识别结果与第一位置信息匹配度越高,表明该候选识别结果距离用户越近、越符合用户期望,从而结合各候选识别结果的置信度以及相应的匹配度,可知“固献乡”与用户同在“邢台市”,距离用户最近,该候选识别结果作为输出最符合用户期望,最能解决用户问题,从而可将“固献乡”作为最终的目标识别结果。
需要说明的是,上述示例只是举例说明,不能作为对本申请实施例中目标识别结果的限定。
本申请实施例中,先对获取的语音数据进行语音识别,以获取各个候选识别结果以及分别对应的置信度,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后在预设的兴趣点列表中查找与候选识别结果中包含的第一兴趣点关联的第二位置信息,从而可以根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度、及每个候选识别结果对应的置信度,确定最终的目标识别结果。由此,在进行语音识别时,若语音数据中包含兴趣点、则基于终端当前所在的位置对识别结果进行筛选,以确定出最符合用户期望的识别结果,从而提高了语音识别的准确性,能够给用户带来良好的使用感。
上述实施例,通过在语音数据中包含兴趣点时,获取第一位置信息以及查找候选识别结果中包含第一兴趣点的第二位置信息,进而根据第一位置信息、第二位置信息以及每个候选识别结果对应的置信度,即可确定出目标识别结果。为了尽可能地提高语音识别的准确性,可以通过确定第一兴趣点与每个第二兴趣点的匹配度,进而获取相应的第二位置信息。下面结合图2对进一步确定第一兴趣点与每个第二兴趣点的匹配度以获取相应的第二位置信息这一过程做详细说明。
图2为本申请另一实施例提供的一种语音识别方法的流程示意图。
步骤201,对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度。
步骤202,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息。
步骤203,查询预设的兴趣点列表,以确定每个候选识别结果中包含的第一兴趣点与兴趣点列表中每个第二兴趣点间的匹配度。
举例来说,用户输入的语音数据可能为“GuXianXiang”,获取到3个候选识别结果,分别为“故仙乡”、“固献乡”、“故县乡”,各候选识别结果对应的第一兴趣点依次为“故仙乡”、“固献乡”、“故县乡”,将各第一兴趣点依次与兴趣点列表中每个第二兴趣点分别进行匹配,确定各自的匹配度。
需要说明的是,上述示例只是举例说明,不能作为对本申请实施例中确定第一兴趣点与第二兴趣点匹配度的限定。
步骤204,根据第一兴趣点与每个第二兴趣点间的匹配度,确定每个第一兴趣点对应的目标第二兴趣点。
其中,目标第二兴趣点,为在兴趣点列表中、与第一兴趣点匹配度最高的第二兴趣点。
可以理解的是,第一兴趣点与第二兴趣点间的匹配度越高,表明第二兴趣点与第一兴趣点越吻合,从而可以对各个匹配度数值进行排序,将匹配度最大的第二兴趣点确定为该第一兴趣点对应的目标第二兴趣点。
步骤205,获取目标第二兴趣点对应的第二位置信息。
其中,第二位置信息,为在兴趣点列表中、与所确定的目标第二兴趣点对应的位置信息。
比如,第一兴趣点为“故仙乡”,将其依次与兴趣点列表中每个第二兴趣点进行匹配,经过匹配度比较后,得到匹配度最大的第二兴趣点为“河北沧州故仙乡”,则“河北沧州故仙乡”即为目标第二兴趣点,由此可知该目标第二兴趣点位于河北沧州,从而获取到的目标第二兴趣点对应的第二位置信息为“河北沧州”。
步骤206,根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度,将每个候选识别结果对应的置信度进行修正,以确定每个候选识别结果对应的修正后的置信度。
其中,根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度,对每个候选识别结果对应的置信度进行修正时,可以有多种修正方法,比如可以将候选识别结果对应的置信度与该匹配度进行相乘、或者也可以将该置信度与该匹配度进行相加、或者将二者进行权重相加。
举例来说,通过将候选识别结果对应的置信度和第一位置信息与每个候选识别结果关联的第二位置信息的匹配度相乘以修正置信度。比如,候选识别结果对应的置信度分别为0.45、0.4、0.35,第一位置信息与每个候选识别结果关联的第二位置信息的匹配度分别为0.4、0.5、0.3,将二者进行相乘,从而得到修正后的每个候选识别结果对应的置信度分别为0.18、0.2、0.105。
或者,将各个候选识别结果对应的置信度和第一位置信息与每个候选识别结果关联的第二位置信息的匹配度对应相加。比如,候选识别结果对应的置信度分别为0.45、0.4、0.35,第一位置信息与每个候选识别结果关联的第二位置信息的匹配度分别为0.4、0.5、0.3,将二者进行相加,以对置信度进行修正,则修正后的每个候选识别结果对应的置信度分别为0.85、0.9、0.65。
或者,将各个候选识别结果对应的置信度和第一位置信息与每个候选识别结果关联的第二位置信息的匹配度进行权重相加。比如,候选识别结果对应的置信度分别为0.45、0.4、0.35,第一位置信息与每个候选识别结果关联的第二位置信息的匹配度分别为0.4、0.5、0.3,置信度与权重对应的权重分别为0.4、0.6,将其进行权重相加,则修正后的每个候选识别结果对应的置信度分别为0.42、0.46、0.32.
需要说明的是,上述示例只是举例说明,不能作为对本申请实施例中置信度修正的限定。
步骤207,根据每个候选识别结果对应的修正后的置信度,从各个候选识别结果中选取目标识别结果。
其中,置信度越高,对应的候选识别结果越准确。
举例来说,候选识别结果分别为“故仙乡”、“固献乡”、“故县乡”,修正后的各个候选识别结果对应的置信度分别为0.18、0.2、0.105,其中置信度最大为0.2,则可将0.2对应的候选识别结果“固献乡”作为目标识别结果。
或者,候选识别结果分别为“故仙乡”、“固献乡”、“故县乡”,修正后的各个候选识别结果对应的置信度分别为0.85、0.9、0.65,则可将0.9对应的候选识别结果“固献乡”确定为目标识别结果。
需要说明的是,上述示例只是举例说明,不能作为对本申请实施例中目标识别结果的限定。
本申请实施例中,先对获取的语音数据进行语音识别,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后确定每个候选识别结果中包含的第一兴趣点与兴趣点列表中每个第二兴趣点间的匹配度,进而根据匹配度确定第二位置信息,之后再根据第一位置信息与第二位置信息的匹配度,对每个候选识别结果对应的置信度进行修正,从而根据修正后的置信度选取目标识别结果。即,在进行语音识别时,若语音数据中包含兴趣点,可以根据第一兴趣点与兴趣点列表中的第二兴趣点的匹配度确定第二位置信息,进而根据第一位置信息与第二位置信息的匹配度对各候选识别结果的置信度进行修正,从而确定出满足用户需求的识别结果,进一步提高了语音识别的准确性,可以给予用户良好的使用体验。
上述实施例,在查询兴趣点列表时,先确定每个候选识别结果中包含的第一兴趣点与兴趣点列表中每个第二兴趣点间的匹配度,再根据此匹配度确定目标第二兴趣点并获取相应的第二位置信息。在另一种可能的实现形式中,可以先获取兴趣点列表中与第一位置信息关联的各候选第二兴趣点,之后再确定相应的第二位置信息,下面结合图3,对先获取与第一位置信息关联的各候选第二兴趣点,再确定第二位置信息这一过程做详细说明。
图3为本申请又一实施例提供的一种语音识别方法的流程示意图。
步骤301,对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度。
步骤302,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息。
步骤303,查询预设的兴趣点列表,以获取与第一位置信息关联的各候选第二兴趣点。
其中,候选第二兴趣点,为兴趣点列表中、与第一位置信息关联的各第二兴趣点。
举例来说,若终端当前所在的第一位置信息为“邢台市”,在预设的兴趣点列表中,查找并获取与“邢台市”关联的各候选第二兴趣点。
步骤304,计算第一兴趣点与每个候选第二兴趣点间的匹配度。
比如说,第一兴趣点为“GuXianXiang”,通过查询预设的兴趣点列表,获取到3个候选第二兴趣点,分别计算第一兴趣点与每个候选第二兴趣点的匹配度。
步骤305,获取与第一兴趣点间的匹配度大于阈值、且匹配度最高的候选第二兴趣点的第二位置信息。
其中,阈值,为预先设定的一个数值,该数值可能为0.5,也可能为0.7,也可能为0.9,本申请对此不做限定。
举例来说,第一兴趣点与各个候选第二兴趣点的匹配度依次为0.85、0.73、0.71、0.68、0.5,阈值为0.7,其中,匹配度大于0.7的分别为0.85、0.73、0.71,最高匹配度为0.85,从而获取0.85对应的第二候选兴趣点的第二位置信息。
步骤306,根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度,将每个候选识别结果对应的置信度进行修正,以确定每个候选识别结果对应的修正后的置信度。
步骤307,根据每个候选识别结果对应的修正后的置信度,从各个候选识别结果中选取目标识别结果。
需要说明的是,若对语音数据进行语音识别后,获取到的各候选识别结果中未包含兴趣点时,则根据各个候选识别结果对应的置信度,确定目标识别结果。
举例来说,若语音数据为“XiaLouWan”,获取到的各候选识别结果分别为“下楼玩”、“下楼晚”、“夏楼玩”,对应的置信度为0.85、0.7、0.6,其中各候选识别结果都没有包含兴趣点,则根据各候选识别结果对应的置信度,选取置信度最高的“下楼玩”作为目标识别结果。
需要说明的是,上述各示例只是举例说明,不能作为对本申请实施例中的限定。
本申请实施例中,先对获取的语音数据进行语音识别,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后通过查找兴趣点列表,获取与第一位置信息关联的各候选第二兴趣点,并根据第一兴趣点与各个候选第二兴趣点间的匹配度,获取相应的第二位置信息,从而根据第一位置信息与第二位置信息的匹配度对置信度进行修正,以确定最终的目标识别结果。即,在进行语音识别时,若语音数据中包含兴趣点,根据第一兴趣点与由第一位置信息所得到的候选第二兴趣点的匹配度确定第二位置信息,进而对各候选识别结果的置信度进行修正,进一步提高了语音识别的准确性,能够最大限度地满足用户需求,给用户带来良好的使用感。
为了实现上述实施例,本申请实施例还提出一种语音识别装置。图4为本申请实施例提供的一种语音识别装置的结构示意图。
如图4所示,该语音识别装置400包括:识别模块410、第一获取模块420、第二获取模块430、及选取模块440。
其中,识别模块410,用于对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度。
第一获取模块420,用于在所述候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息。
第二获取模块430,用于查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息。
选取模块440,用于根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度、及每个所述候选识别结果对应的置信度,从所述各个候选识别结果中选取目标识别结果。
需要说明的是,本申请实施例中的上述各模块的功能及具体实现原理,可参照上述各方法实施例,此处不再赘述。
本申请实施例的语音识别装置,先对获取的语音数据进行语音识别,以获取各个候选识别结果以及分别对应的置信度,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后在预设的兴趣点列表中查找与候选识别结果中包含的第一兴趣点关联的第二位置信息,从而可以根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度、及每个候选识别结果对应的置信度,确定最终的目标识别结果。由此,在进行语音识别时,若语音数据中包含兴趣点、则基于终端当前所在的位置对识别结果进行筛选,以确定出最符合用户期望的识别结果,从而提高了语音识别的准确性,能够给用户带来良好的使用感。
图5为本申请另一实施例提供的一种语音识别装置的结构示意图。
如图5所示,该语音识别装置500包括:识别模块510、第一获取模块520、第二获取模块530、选取模块540及确定模块550。
其中,识别模块510,用于对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度。
可以理解的是,本实施例中的识别模块510,与上述实施例中的识别模块410,可以具有相同的功能和结构。
第一获取模块520,用于在所述候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息。
可以理解的是,本实施例中的第一获取模块520,与上述实施例中的第一获取模块420,可以具有相同的功能和结构。
第二获取模块530,具体用于查询所述预设的兴趣点列表,以确定每个所述候选识别结果中包含的第一兴趣点与所述兴趣点列表中每个第二兴趣点间的匹配度;根据所述第一兴趣点与每个第二兴趣点间的匹配度,确定每个所述第一兴趣点对应的目标第二兴趣点;以及获取所述目标第二兴趣点对应的第二位置信息。
在一种可能的实现形式中,第二获取模块530,还可具体用于查询所述预设的兴趣点列表,以获取与所述第一位置信息关联的各候选第二兴趣点;计算所述第一兴趣点与每个所述候选第二兴趣点间的匹配度;获取与所述第一兴趣点间的匹配度大于阈值、且匹配度最高的候选第二兴趣点的第二位置信息。
可以理解的是,本实施例中的第二获取模块530,与上述实施例中的第二获取模块430,可以具有相同的功能和结构。
选取模块540,具体用于所述根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度,将每个所述候选识别结果对应的置信度进行修正,以确定每个所述候选识别结果对应的修正后的置信度;根据每个所述候选识别结果对应的修正后的置信度,从所述各个候选识别结果中选取目标识别结果。
可以理解的是,本实施例中的选取模块540,与上述实施例中的选取模块440,可以具有相同的功能和结构。
确定模块550,用于所述候选识别结果中未包含兴趣点的情况下,根据所述各个候选识别结果对应的置信度,确定目标识别结果。
需要说明的是,本申请实施例中的上述各模块的功能及具体实现原理,可参照上述各方法实施例,此处不再赘述。
本申请实施例的语音识别装置,先对获取的语音数据进行语音识别,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后确定每个候选识别结果中包含的第一兴趣点与兴趣点列表中每个第二兴趣点间的匹配度,进而根据匹配度确定第二位置信息,之后再根据第一位置信息与第二位置信息的匹配度,对每个候选识别结果对应的置信度进行修正,从而根据修正后的置信度选取目标识别结果。即,在进行语音识别时,若语音数据中包含兴趣点,可以根据第一兴趣点与第二兴趣点的匹配度确定第二位置信息,进而根据匹配度对各候选识别结果的置信度进行修正,从而确定出满足用户需求的识别结果,进一步提高了语音识别的准确性,可以给予用户良好的使用体验。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的语音识别方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音识别方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音识别方法对应的程序指令/模块(例如,附图4所示的识别模块410、第一获取模块420、第二获取模块430及选取模块440)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音识别方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据语音识别电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至语音识别方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
语音识别方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与语音识别方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS(VirtualPrivate Server,虚拟专用服务器)服务中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本申请实施例的技术方案,先对获取的语音数据进行语音识别,以获取各个候选识别结果以及分别对应的置信度,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后在预设的兴趣点列表中查找与候选识别结果中包含的第一兴趣点关联的第二位置信息,从而可以根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度、及每个候选识别结果对应的置信度,确定最终的目标识别结果。由此,在进行语音识别时,若语音数据中包含兴趣点、则基于终端当前所在的位置对识别结果进行筛选,以确定出最符合用户期望的识别结果,从而提高了语音识别的准确性,能够给用户带来良好的使用感。
本申请实施例还提供了一种计算机程序产品。该计算机程序产品包括计算机程序,计算机程序被处理器执行时能够实现如上述任一实施例所述的语音识别方法。
当计算机程序被执行时,存在如下有益效果:
先对获取的语音数据进行语音识别,以获取各个候选识别结果以及分别对应的置信度,在候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息,之后在预设的兴趣点列表中查找与候选识别结果中包含的第一兴趣点关联的第二位置信息,从而可以根据第一位置信息与每个候选识别结果关联的第二位置信息的匹配度、及每个候选识别结果对应的置信度,确定最终的目标识别结果。由此,在进行语音识别时,若语音数据中包含兴趣点、则基于终端当前所在的位置对识别结果进行筛选,以确定出最符合用户期望的识别结果,从而提高了语音识别的准确性,能够给用户带来良好的使用感。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (13)
1.一种语音识别方法,包括:
对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度;
在所述候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息;
查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息;
根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度、及每个所述候选识别结果对应的置信度,从所述各个候选识别结果中选取目标识别结果。
2.如权利要求1所述的方法,其中,所述查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息,包括:
查询所述预设的兴趣点列表,以确定每个所述候选识别结果中包含的第一兴趣点与所述兴趣点列表中每个第二兴趣点间的匹配度;
根据所述第一兴趣点与每个第二兴趣点间的匹配度,确定每个所述第一兴趣点对应的目标第二兴趣点;
获取所述目标第二兴趣点对应的第二位置信息。
3.如权利要求1所述的方法,其中,所述查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息,包括:
查询所述预设的兴趣点列表,以获取与所述第一位置信息关联的各候选第二兴趣点;
计算所述第一兴趣点与每个所述候选第二兴趣点间的匹配度;
获取与所述第一兴趣点间的匹配度大于阈值、且匹配度最高的候选第二兴趣点的第二位置信息。
4.如权利要求1所述的方法,其中,所述根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度、及每个所述候选识别结果对应的置信度,从所述各个候选识别结果中选取目标识别结果,包括:
所述根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度,将每个所述候选识别结果对应的置信度进行修正,以确定每个所述候选识别结果对应的修正后的置信度;
根据每个所述候选识别结果对应的修正后的置信度,从所述各个候选识别结果中选取目标识别结果。
5.如权利要求1-4任一所述的方法,其中,还包括:
在所述候选识别结果中未包含兴趣点的情况下,根据所述各个候选识别结果对应的置信度,确定目标识别结果。
6.一种语音识别装置,其中,包括:
识别模块,用于对获取的语音数据进行识别,以获取各个候选识别结果及分别对应的置信度;
第一获取模块,用于在所述候选识别结果中包含第一兴趣点的情况下,获取终端当前所在的第一位置信息;
第二获取模块,用于查询预设的兴趣点列表,以获取与每个所述候选识别结果中包含的第一兴趣点关联的第二位置信息;
选取模块,用于根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度、及每个所述候选识别结果对应的置信度,从所述各个候选识别结果中选取目标识别结果。
7.如权利要求6所述的装置,其中,所述第二获取模块,具体用于:
查询所述预设的兴趣点列表,以确定每个所述候选识别结果中包含的第一兴趣点与所述兴趣点列表中每个第二兴趣点间的匹配度;
根据所述第一兴趣点与每个第二兴趣点间的匹配度,确定每个所述第一兴趣点对应的目标第二兴趣点;
获取所述目标第二兴趣点对应的第二位置信息。
8.如权利要求6所述的装置,其中,所述第二获取模块,还具体用于:
查询所述预设的兴趣点列表,以获取与所述第一位置信息关联的各候选第二兴趣点;
计算所述第一兴趣点与每个所述候选第二兴趣点间的匹配度;
获取与所述第一兴趣点间的匹配度大于阈值、且匹配度最高的候选第二兴趣点的第二位置信息。
9.如权利要求6所述的装置,其中,所述选取模块,具体用于:
所述根据所述第一位置信息与每个所述候选识别结果关联的第二位置信息的匹配度,将每个所述候选识别结果对应的置信度进行修正,以确定每个所述候选识别结果对应的修正后的置信度;
根据每个所述候选识别结果对应的修正后的置信度,从所述各个候选识别结果中选取目标识别结果。
10.如权利要求6-9所述的装置,其中,还包括:
确定模块,用于所述候选识别结果中未包含兴趣点的情况下,根据所述各个候选识别结果对应的置信度,确定目标识别结果。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的语音识别方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的语音识别方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011460451.5A CN112652298A (zh) | 2020-12-11 | 2020-12-11 | 语音识别方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011460451.5A CN112652298A (zh) | 2020-12-11 | 2020-12-11 | 语音识别方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112652298A true CN112652298A (zh) | 2021-04-13 |
Family
ID=75354737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011460451.5A Pending CN112652298A (zh) | 2020-12-11 | 2020-12-11 | 语音识别方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112652298A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114639378A (zh) * | 2022-02-28 | 2022-06-17 | 中国第一汽车股份有限公司 | 语音识别方法、装置、电子设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050080632A1 (en) * | 2002-09-25 | 2005-04-14 | Norikazu Endo | Method and system for speech recognition using grammar weighted based upon location information |
US20130297321A1 (en) * | 2012-05-03 | 2013-11-07 | Antoine Raux | Landmark-based location belief tracking for voice-controlled navigation system |
CN106776763A (zh) * | 2016-11-22 | 2017-05-31 | 北京云知声信息技术有限公司 | 目的地搜索方法及装置 |
CN110310631A (zh) * | 2019-06-28 | 2019-10-08 | 北京百度网讯科技有限公司 | 语音识别方法、装置、服务器和存储介质 |
CN111814069A (zh) * | 2019-09-17 | 2020-10-23 | 北京嘀嘀无限科技发展有限公司 | 信息处理方法、装置、存储介质以及电子设备 |
CN111859060A (zh) * | 2020-01-10 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种信息查询方法、装置、电子设备和可读存储介质 |
-
2020
- 2020-12-11 CN CN202011460451.5A patent/CN112652298A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050080632A1 (en) * | 2002-09-25 | 2005-04-14 | Norikazu Endo | Method and system for speech recognition using grammar weighted based upon location information |
US20130297321A1 (en) * | 2012-05-03 | 2013-11-07 | Antoine Raux | Landmark-based location belief tracking for voice-controlled navigation system |
CN106776763A (zh) * | 2016-11-22 | 2017-05-31 | 北京云知声信息技术有限公司 | 目的地搜索方法及装置 |
CN110310631A (zh) * | 2019-06-28 | 2019-10-08 | 北京百度网讯科技有限公司 | 语音识别方法、装置、服务器和存储介质 |
CN111814069A (zh) * | 2019-09-17 | 2020-10-23 | 北京嘀嘀无限科技发展有限公司 | 信息处理方法、装置、存储介质以及电子设备 |
CN111859060A (zh) * | 2020-01-10 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种信息查询方法、装置、电子设备和可读存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114639378A (zh) * | 2022-02-28 | 2022-06-17 | 中国第一汽车股份有限公司 | 语音识别方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102484617B1 (ko) | 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN111767359B (zh) | 兴趣点分类方法、装置、设备以及存储介质 | |
CN111259671B (zh) | 文本实体的语义描述处理方法、装置及设备 | |
US20210312172A1 (en) | Human body identification method, electronic device and storage medium | |
CN111625635A (zh) | 问答处理、语言模型的训练方法、装置、设备及存储介质 | |
CN111831813B (zh) | 对话生成方法、装置、电子设备及介质 | |
CN113094550A (zh) | 视频检索方法、装置、设备和介质 | |
CN111931067A (zh) | 兴趣点推荐方法、装置、设备和介质 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN111862987B (zh) | 语音识别方法和装置 | |
JP2021111334A (ja) | 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器 | |
WO2023065731A1 (zh) | 目标地图模型的训练方法、定位方法及相关装置 | |
CN111832613B (zh) | 模型训练方法、装置、电子设备和存储介质 | |
CN111078878A (zh) | 文本处理方法、装置、设备及计算机可读存储介质 | |
CN110543558A (zh) | 问题匹配方法、装置、设备和介质 | |
CN111611990A (zh) | 用于识别图像中表格的方法和装置 | |
CN110795593A (zh) | 语音包的推荐方法、装置、电子设备和存储介质 | |
CN112541362B (zh) | 一种泛化处理的方法、装置、设备和计算机存储介质 | |
US20220036085A1 (en) | Video event recognition method, electronic device and storage medium | |
CN111666292A (zh) | 用于检索地理位置的相似度模型建立方法和装置 | |
CN111680600A (zh) | 人脸识别模型处理方法、装置、设备和存储介质 | |
CN111737430A (zh) | 实体链接方法、装置、设备以及存储介质 | |
CN111309872A (zh) | 搜索处理方法、装置及设备 | |
CN112328896B (zh) | 用于输出信息的方法、装置、电子设备和介质 | |
CN114547244A (zh) | 用于确定信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210413 |