CN112634881A - 一种基于科技成果数据库的语音智能识别方法及系统 - Google Patents

一种基于科技成果数据库的语音智能识别方法及系统 Download PDF

Info

Publication number
CN112634881A
CN112634881A CN202011604102.6A CN202011604102A CN112634881A CN 112634881 A CN112634881 A CN 112634881A CN 202011604102 A CN202011604102 A CN 202011604102A CN 112634881 A CN112634881 A CN 112634881A
Authority
CN
China
Prior art keywords
shielding
data
voice
service
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011604102.6A
Other languages
English (en)
Other versions
CN112634881B (zh
Inventor
王梦杰
胡建敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Bochuang Future Technology Transfer Co.,Ltd.
Original Assignee
Guangzhou Doctor Information Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Doctor Information Technology Research Institute Co ltd filed Critical Guangzhou Doctor Information Technology Research Institute Co ltd
Priority to CN202011604102.6A priority Critical patent/CN112634881B/zh
Publication of CN112634881A publication Critical patent/CN112634881A/zh
Application granted granted Critical
Publication of CN112634881B publication Critical patent/CN112634881B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及科技成果数据库技术领域,涉及一种基于科技成果数据库的语音智能识别方法及系统。本发明通过对上述目标用户终端在当前时刻发送的语音信息进行语义聚类处理以获得并各个目标用户终端在当前时刻发送的语音信息的多个对象语义集合以及各个对象语义集合,从而可以对目标用户终端所发送的语音信息的对象语义集合关系进行深度挖掘分析,对海量的基于对象语义集合关系的语音信息大数据进行有效地挖掘利用,拓展目标用户终端的语音识别过滤屏蔽应用的业务场景,并由此得到语音屏蔽推送信息,不断提高语音推送屏蔽的精度,从而有效解决现有技术中的语音屏蔽功能较为低效的缺陷,达到提高语音屏蔽精度的目的。

Description

一种基于科技成果数据库的语音智能识别方法及系统
技术领域
本发明涉及科技成果数据库技术领域,具体而言,涉及一种基于科技成果数据库的语音智能识别方法及系统。
背景技术
科技成果转化是需要系统性的以追求各要素之间的相关性来提升大数据对接匹配效率,实现大规模的成功对接转化合作的运作体系。基于科技成果转化所形成的区域创新系统,以加强政府对区域科技创新管理为基本要求,以企业创新数据、园区载体信息数据、政府统计数据等为基础,开发、建设科技创新全要素大数据管理平台,协助地方政府对区域内科技创新要素实施精细化管理,推动区域科技创新生态化、持续化发展。随着区域创新系统的智能化升级,需要对区域创新系统移动端进行智能语音识别输入与智能语音通话畅聊。但是,如何对区域创新系统移动端中的智能语音识别输入与智能语音通话畅聊成为当前亟待解决的技术难题。在语音识别输入或智能语音通话畅聊过程中,部分用户或多或少会不经意的携带些不雅的口头禅或脏话语句,从而对说话人产生一个不良的印。针对于这种情况,虽然说话人自身也想纠正这个问题,但是由于长期习惯或者没有人在旁边提醒,所以很难矫正该问题。现有语音识别输入或智能语音通话畅聊虽然也有相关的屏蔽功能,但对语音中的语义数据利用较为单一,主要集中在语义的实时传输,并未对语义之间关联关系进行深度挖掘分析,使得现有的语音屏蔽功能较为低效,该语音屏蔽功能技术还有待进一步改进。
发明内容
有鉴于此,本发明的目的在于提供一种基于科技成果数据库的语音智能识别方法以解决现有技术中的语音屏蔽功能较为低效的缺陷。
根据本发明的第一方面,提供一种基于科技成果数据库的语音智能识别方法,应用于服务器,所述方法包括:
接收各个目标用户终端在当前时刻发送的语音信息;
对所述目标用户终端在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端;
根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息,且确定向各个对象语义集合匹配的目标用户终端执行匹配的语音屏蔽推送信息;
接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新。
在第一方面的一种可能的实现方式中,所述对所述目标用户终端在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端的步骤,包括:
接收所述目标用户终端在当前时刻发送的目标语音信息;
提取所述各个目标用户终端的目标语音信息的语音词义特征数据;
将各个所述语音词义特征数据,依次与剩余的各个目标用户终端的目标语音信息的目标语音词义特征数据进行近似度匹配,获得初始近似度匹配数据,基于至少完成一个所述目标语音词义特征数据均近似度匹配的前提下,获得至少一个初始近似度匹配数据;所述初始近似度匹配数据表征语音词义特征数据与目标语音词义特征数据之间的近似度节点;
基于至少一个所述初始近似度匹配数据的编码前提下,获得与各个语音词义特征数据相匹配的近似度匹配数据;其中,所述近似度匹配数据表征存在的与语音词义特征数据近似度匹配的目标语音词义特征数据,所述近似度匹配数据与各个所述语音词义特征数据相匹配;
基于至少一个所述语音词义特征数据,提取所述近似度匹配数据表征存在近似度匹配的目标语音词义特征数据的语音词义特征数据,获得近似度匹配语音词义特征数据;
基于所述近似度匹配数据,于至少一个所述目标语音词义特征数据,获取与所述近似度匹配语音词义特征数据近似度匹配的目标语音词义特征数据,表征近似度匹配目标语音词义特征数据;
基于至少一个所述语音词义特征数据,对除所述近似度匹配语音词义特征数据之外的语音词义特征数据进行编码,获取特征编码初始数组;
基于至少一个所述目标语音词义特征数据,对除所述近似度匹配目标语音词义特征数据之外的目标语音词义特征数据进行编码,获取特征编码目标数组;
融合于所述特征编码初始数组与所述特征编码目标数组,获得各个所述语音词义特征数据依次与剩余的各个目标用户终端的目标语音信息的目标语音信息之间的参考组合特征数据;
将参考组合特征数据近似的语音信息作为一个对象语义集合,以获取多个对象语义集合,且得到各个对象语义集合下的每个语音词义特征数据的目标用户终端。
在第一方面的一种可能的实现方式中,所述根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息的步骤,包括:
获取所述各个对象语义集合所对应的语义数组特征内与当前更新的对象推送屏蔽服务关联的对象服务屏蔽词义数据,根据所述当前更新的对象推送屏蔽服务中获取所述对象服务屏蔽词义数据的词义屏蔽标签数据;
根据所述对象服务屏蔽词义数据被注记与所述对象推送屏蔽服务匹配的更新屏蔽标签服务匹配的更新匹配标签,获取所述词义屏蔽标签数据中的对象推送屏蔽服务特征,所述对象推送屏蔽服务特征含有推送屏蔽服务特征一以及推送屏蔽服务特征二,所述推送屏蔽服务特征一为所述更新屏蔽标签服务包含的与所述对象推送屏蔽服务匹配的更新匹配屏蔽标签数集匹配到的被动屏蔽词义数据,所述推送屏蔽服务特征二为所述更新匹配屏蔽标签数集匹配到的主动屏蔽词义数据,根据调整后的更新匹配屏蔽标签数集实时调整迭代预设服务屏蔽词义数据;
从所述对象推送屏蔽服务特征中,获取所述对象服务屏蔽词义数据的对象更新屏蔽元素,获取所述对象更新屏蔽元素匹配的经由屏蔽节点的信息库入库权限数据及匹配的屏蔽服务权限协议;
获取所述信息库入库权限数据中的当前入库权限授权数据匹配的授权节点的屏蔽服务权限协议签字信息,更新所述信息库入库权限数据中的当前入库权限授权数据,于更新后的所述信息库入库权限数据中获取所述对象更新屏蔽元素匹配的经由屏蔽节点的语音屏蔽推送信息。
在第一方面的一种可能的实现方式中,获取所述词义屏蔽标签数据中的对象推送屏蔽服务特征的步骤,包括:
根据所述更新匹配屏蔽标签数集于所述词义屏蔽标签数据中获取匹配的服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽信息与更新屏蔽规则;
于所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽信息中获取所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性;
依据所述更新屏蔽规则,于所述服务屏蔽词义数据的每个屏蔽数集中归类为主动屏蔽词义数集与被动屏蔽词义数集;
于所述更新屏蔽规则与所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述主动屏蔽词义数集与被动屏蔽词义数集对应的更新屏蔽规则;
根据所述主动屏蔽词义数集与被动屏蔽词义数集对应的更新屏蔽规则,获取所述对象推送屏蔽服务特征。
在第一方面的一种可能的实现方式中,所述更新屏蔽规则包括至少两项屏蔽过滤策略的语音语义行为特征数据;
于所述更新屏蔽规则与所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述主动屏蔽词义数集与被动屏蔽词义数集对应的更新屏蔽规则的步骤,包括:
于所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述服务屏蔽词义数据的每个屏蔽数集的语音语义行为特征归属列表;
于所述更新屏蔽规则与所述更新屏蔽规则包括至少两项屏蔽过滤策略的语音语义行为特征数据,获取每一所述主动屏蔽词义数集与被动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率;
于每一被动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率与每一所述主动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率,获取所述服务屏蔽词义数据的每个屏蔽数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的第一语音语义频率图谱;
根据所述语音语义行为特征归属列表,对所述语音语义行为特征归属列表与所述第一语音语义频率图谱的语音语义行为特征核算结果进行遍历获得所述服务屏蔽词义数据的每个屏蔽数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的第二语音语义频率图谱,直至遍历量超过预设量或所述第二语音语义频率图谱中各个语音语义行为特征频率的频率值低于预设频率值;其中,于每次遍历前,对于每一被动屏蔽词义数集,恢复上一次遍历获得的语音语义行为特征核算结果中的含有的该被动屏蔽词义数集匹配的语音语义行为特征频率为所述第一语音语义频率图谱中含有的、该被动屏蔽词义数集匹配的语音语义行为特征频率,将语音语义行为特征频率最大的屏蔽过滤策略的语音语义行为特征数据作为该被动屏蔽词义数集匹配的语音语义行为特征数据;
对于每一主动屏蔽词义数集,根据第二语音语义频率图谱中该主动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率,将语音语义行为特征频率最大的屏蔽过滤策略的语音语义行为特征数据作为该主动屏蔽词义数集匹配的语音语义行为特征数据;
根据所述被动屏蔽词义数集与所述主动屏蔽词义数集中各自匹配的语音语义行为特征数据获得匹配的更新屏蔽规则。
在第一方面的一种可能的实现方式中,所述从所述对象推送屏蔽服务特征中,获取所述对象服务屏蔽词义数据的对象更新屏蔽元素的步骤,包括:
根据所述推送屏蔽服务特征一和推送屏蔽服务特征二,确定所述对象服务屏蔽词义数据依次匹配的屏蔽喜好行为分布一及屏蔽喜好行为分布二;
获取所述屏蔽喜好行为分布一与屏蔽喜好行为分布二之间的重合分布,以获取所述重合分布的推送屏蔽服务特征,并按功能性将所述推送屏蔽服务特征划分多个区分服务特征;
将所述多个区分服务特征依次转换成被动屏蔽推荐项目数据集与主动屏蔽推荐项目数据集,从所述被动屏蔽推荐项目数据集的被动屏蔽推荐项目数据中提取被动屏蔽描述向量,从所述主动屏蔽推荐项目数据集的主动屏蔽推荐项目数据中提取主动屏蔽描述向量;
于所述被动屏蔽描述向量与所述主动屏蔽描述向量融合得到融合屏蔽描述向量,并根据融合屏蔽描述向量获取所述对象服务屏蔽词义数据的对象更新屏蔽元素。
在第一方面的一种可能的实现方式中,获取所述对象更新屏蔽元素匹配的经由屏蔽节点的信息库入库权限数据及匹配的屏蔽服务权限协议,包括:
获取所述对象更新屏蔽元素匹配的经由屏蔽节点的信息库的入库接口配置,并根据所述入库接口配置获取匹配的信息库入库权限数据;
确定所述经由屏蔽节点的推送屏蔽服务特征的访问模式,并确定所述经由屏蔽节点下的多个信息库的访问机制数据信息;
对所述访问机制数据信息与预配置的各个屏蔽服务权限协议的访问模式进行访问参数核算,获取对所述各个屏蔽服务权限协议的多个第一访问参数核算结果,所述各个屏蔽服务权限协议的访问模式是在配置过程中确定的该屏蔽服务权限协议匹配的预设的被动屏蔽词义数据与主动屏蔽词义数据的访问模式;
通过所述多个第一访问参数核算结果,获得所述对象更新屏蔽元素匹配的屏蔽服务权限协议;
所述各个屏蔽服务权限协议通过以下方式配置获取:
确定预设的配置数组中各个虚拟位置访问指令匹配的预设的虚拟位置访问特征的各个虚拟位置访问控件以形成虚拟位置访问控件数组;
依次选中所述虚拟位置访问控制数组中的各个虚拟位置访问控件以作为当前虚拟位置访问控件,并依据所述虚拟位置访问控件创建一个屏蔽服务权限协议,然后计算当前虚拟位置访问控件与所述屏蔽服务权限协议的协议访问参数之间的访问属性,以获取多个第二访问参数数量作为第二访问参数核算结果;
将第二访问参数核算结果中符合预设访问参数条件时匹配的屏蔽服务权限协议作为所述当前虚拟位置访问控件所属的屏蔽服务权限协议,并将所述当前虚拟位置访问控件加入至所述当前虚拟位置访问控件所属的屏蔽服务权限协议中;
若所述第二访问参数核算结果不满足预设访问参数条件,则创建一个屏蔽服务权限协议,该屏蔽服务权限协议的协议访问参数设为当前虚拟位置访问控件,重新核算所述屏蔽服务权限协议的协议服务参数并在对所述虚拟位置访问控件数组中的各个虚拟位置访问控件进行合并后,将各个屏蔽服务权限协议的协议访问参数作为每个屏蔽服务权限协议匹配的预设的虚拟位置访问特征的访问模式。
在第一方面的一种可能的实现方式中,获取所述信息库入库权限数据中的当前入库权限授权数据匹配的授权节点的屏蔽服务权限协议签字信息,更新所述信息库入库权限数据中的当前入库权限授权数据的步骤,包括:
根据所述屏蔽服务权限协议获取多个虚拟位置访问子接口及所述多个虚拟位置访问子接口中每个虚拟位置访问子接口的接口参数数据更新信息;
根据所述每个虚拟位置访问子接口的接口参数数据更新信息和所述每个虚拟位置访问子接口预设的接口配置参数数据,确定所述每个虚拟位置访问子接口的接口目标参数数据,所述接口目标参数数据包括接口配置参数数据及匹配的各个虚拟位置访问子接口的接口参数数据;
利用所述每个虚拟位置访问子接口的接口参数数据更新信息和所述每个虚拟位置访问子接口的接口目标参数数据,对所述信息库入库权限数据中的当前入库权限授权数据相匹配的授权节点的待更新状态部分进行屏蔽服务权限协议签字信息处理后,更新所述信息库入库权限数据中的当前入库权限授权数据。
在第一方面的一种可能的实现方式中,所述接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新的步骤,包括:
根据接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据中的划分为感兴趣目标与非感兴趣目标,对所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征进行更新划分为感兴趣目标与非感兴趣目标,对所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征进行更新;其更新方式包括有增加所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征中与感兴趣目标匹配的特征向量的权重参数并减少所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征中与非感兴趣目标匹配的特征向量的权重参数。
根据本发明的第二方面,提供一种基于科技成果数据库的语音智能识别系统,应用于服务器,所述系统包括:
语音接收模块,用于接收各个目标用户终端在当前时刻发送的语音信息;
语义聚类模块,用于对所述目标用户终端在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端;
语音推送屏蔽模块,用于根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息,且确定向各个对象语义集合匹配的目标用户终端执行匹配的语音屏蔽推送信息;
迭代更新模块,用于接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新。
本发明通过对上述目标用户终端在当前时刻发送的语音信息进行语义聚类处理以获得并各个目标用户终端在当前时刻发送的语音信息的多个对象语义集合以及各个对象语义集合,从而可以对目标用户终端所发送的语音信息的对象语义集合关系进行深度挖掘分析,对海量的基于对象语义集合关系的语音信息大数据进行有效地挖掘利用,拓展目标用户终端的语音识别过滤屏蔽应用的业务场景,并由此得到语音屏蔽推送信息,同时还可以通过语音屏蔽推送信息的回执数据反馈信息对语音屏蔽推送信息进行更个性化的优化迭代更新,不断提高语音推送屏蔽的精度,从而有效解决现有技术中的语音屏蔽功能较为低效的缺陷,达到提高语音屏蔽精度的目的。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例所提供的基于科技成果数据库的语音智能识别系统的应用场景示意图;
图2示出了本发明实施例所提供的基于科技成果数据库的语音智能识别方法的流程示意图;
图3示出了本发明实施例所提供的基于科技成果数据库的语音智能识别系统的功能模块示意图;
图4示出了本发明实施例所提供的用于执行上述的基于科技成果数据库的语音智能识别方法的服务器的组件结构示意图。
具体实施方式
下面结合说明书附图对本发明进行具体说明,方法实施例中的具体操作方法也可以应用于装置实施例或系统实施例中。
图1是本发明一种实施例提供的基于科技成果数据库的语音智能识别系统10的交互示意图。基于科技成果数据库的语音智能识别系统10可以包括科技成果数据库服务器100以及与所述科技成果数据库服务器100通信连接的目标用户终端200。图1所示的基于科技成果数据库的语音智能识别系统10仅为一种可行的示例,在其它可行的实施例中,该基于科技成果数据库的语音智能识别系统10也可以仅包括图1所示组成部分的其中一部分或者还可以包括其它的组成部分。
本实施例中,基于科技成果数据库的语音智能识别系统10中的科技成果数据库服务器100和目标用户终端200可以通过配合执行以下方法实施例所描述的基于科技成果数据库的语音智能识别方法,具体科技成果数据库服务器100和目标用户终端200的执行步骤部分可以参照以下方法实施例的详细描述。
为了解决前述背景技术中的技术问题,图2为本发明实施例提供的基于科技成果数据库的语音智能识别方法的流程示意图,本实施例提供的基于科技成果数据库的语音智能识别方法可以由图1中所示的科技成果数据库服务器100执行,下面对该基于科技成果数据库的语音智能识别方法进行详细介绍。
步骤S110,接收各个目标用户终端200在当前时刻发送的语音信息。
步骤S120,按照预设时间段区间对每个目标用户终端200在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端200。
步骤S130,根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息,且确定向各个对象语义集合匹配的目标用户终端200执行匹配的语音屏蔽推送信息。
步骤S140,接收各个目标用户终端200对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端200对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新。
本实施例中,目标用户终端200可以是手机,其包括有语音收发模块,如麦克风,或者与其余的具有语音收发功能的组件通信连接,用于实时接收记录语音信息数据并不断形成语音信息大数据后传输至科技成果数据库服务器100。
本实施例中,语音屏蔽推送信息可以是目标用户终端200在例如消费场景、娱乐场景、气愤场景、喜悦场景或日常交往场景等场景所发送的语音中进行语音屏蔽推送的语音屏蔽推送信息,具体不作限定。
基于上述步骤,本实施例通过通过对上述目标用户终端在当前时刻发送的语音信息进行语义聚类处理以获得并各个目标用户终端在当前时刻发送的语音信息的多个对象语义集合以及各个对象语义集合,从而可以对目标用户终端所发送的语音信息的对象语义集合关系进行深度挖掘分析,对海量的基于对象语义集合关系的语音信息大数据进行有效地挖掘利用,拓展目标用户终端的语音识别过滤屏蔽应用的业务场景,并由此得到语音屏蔽推送信息,同时还可以通过语音屏蔽推送信息的回执数据反馈信息对语音屏蔽推送信息进行更个性化的优化迭代更新,不断提高语音推送屏蔽的精度,从而有效解决现有技术中的语音屏蔽功能较为低效的缺陷,达到提高语音屏蔽精度的目的。在一种可能的实现方式中,对于步骤S120,在语义聚类过程中,可以通过以下示例性的子步骤来实现,详细描述如下。
子步骤S121,接收所述目标用户终端200在当前时刻发送的语音信息在预设时间段区间的目标语音信息。
子步骤S122,提取所述各个目标用户终端200的目标语音信息的语音词义特征数据,将各个所述语音词义特征数据,依次与剩余的各个目标用户终端200的目标语音信息的目标语音词义特征数据进行近似度匹配,获得初始近似度匹配数据,基于至少完成一个所述目标语音词义特征数据均近似度匹配的前提下,获得至少一个初始近似度匹配数据。所述初始近似度匹配数据表征语音词义特征数据与目标语音词义特征数据之间的近似度节点。
子步骤S123,基于至少一个所述初始近似度匹配数据的编码前提下,获得与各个语音词义特征数据相匹配的近似度匹配数据。
其中,所述近似度匹配数据表征存在的与语音词义特征数据近似度匹配的目标语音词义特征数据,所述近似度匹配数据与各个所述语音词义特征数据相匹配。
子步骤S124,基于至少一个所述语音词义特征数据,提取所述近似度匹配数据表征存在近似度匹配的目标语音词义特征数据的语音词义特征数据,获得近似度匹配语音词义特征数据。
子步骤S125,基于所述近似度匹配数据,于至少一个所述目标语音词义特征数据,获取与所述近似度匹配语音词义特征数据近似度匹配的目标语音词义特征数据,表征近似度匹配目标语音词义特征数据。
子步骤S126,基于至少一个所述语音词义特征数据,对除所述近似度匹配语音词义特征数据之外的语音词义特征数据进行编码,获取特征编码初始数组。
子步骤S127,基于至少一个所述目标语音词义特征数据,对除所述近似度匹配目标语音词义特征数据之外的目标语音词义特征数据进行编码,获取特征编码目标数组。
子步骤S128,融合于所述特征编码初始数组与所述特征编码目标数组,获得各个所述语音词义特征数据依次与剩余的各个目标用户终端200的目标语音信息的目标语音词义特征数据之间的参考组合特征数据。
子步骤S129,将参考组合特征数据近似的语音信息作为一个对象语义集合,以获取多个对象语义集合,且得到各个对象语义集合下的每个语音词义特征数据的目标用户终端200。
在一种可能的实现方式中,对于步骤S130,在语音屏蔽推送过程中,可以通过以下示例性的子步骤来实现,详细描述如下。
子步骤S131,获取所述各个对象语义集合所对应的语义数组特征内与当前更新的对象推送屏蔽服务关联的对象服务屏蔽词义数据,根据所述当前更新的对象推送屏蔽服务中获取所述对象服务屏蔽词义数据的词义屏蔽标签数据。
子步骤S132,根据所述对象服务屏蔽词义数据被注记与所述对象推送屏蔽服务匹配的更新屏蔽标签服务匹配的更新匹配标签,获取所述词义屏蔽标签数据中的对象推送屏蔽服务特征。
子步骤S133,根据对象推送屏蔽服务特征,确定对象服务屏蔽词义数据的对象更新屏蔽元素,并确定匹配的经由屏蔽节点的信息库入库权限数据及匹配的屏蔽服务权限协议。
子步骤S134,获取所述信息库入库权限数据中的当前入库权限授权数据匹配的授权节点的屏蔽服务权限协议签字信息,更新所述信息库入库权限数据中的当前入库权限授权数据。
本实施例中,所述对象推送屏蔽服务特征含有推送屏蔽服务特征一以及推送屏蔽服务特征二,所述推送屏蔽服务特征一为所述更新屏蔽标签服务包含的与所述对象推送屏蔽服务匹配的更新匹配屏蔽标签数集匹配到的被动屏蔽词义数据,所述推送屏蔽服务特征二为所述更新匹配屏蔽标签数集匹配到的主动屏蔽词义数据,根据调整后的更新匹配屏蔽标签数集实时调整迭代预设服务屏蔽词义数据。
例如,被动屏蔽词义数集可以是指针对用户的被动屏蔽推荐生成的词义数集,主动屏蔽词义数集可以是指针对用户的主动屏蔽设置生成的词义数集,被动屏蔽词义数集与主动屏蔽词义数集通常是关联订阅的;例如当用户主动屏蔽A词义数集时,在使用过程中通常都会通过更新用户在调用主动屏蔽A词义数集的过程中被动屏蔽推荐生成的被动屏蔽B词义数集。
在一种可能的实施方式中,针对步骤S132,可以通过以下子步骤S1321-S1325进一步实现,具体描述如下。
子步骤S1321,根据所述更新匹配屏蔽标签数集于所述词义屏蔽标签数据中获取匹配的服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽信息与更新屏蔽规则。
本实施例中,词义更新屏蔽信息可以是指每个屏蔽数集在进行屏蔽确认过程中产生的确认信息,例如更新屏蔽词义数集的屏蔽登记记录、屏蔽发起记录、屏蔽更新记录等。更新屏蔽规则可以是指更新屏蔽词义数集在被调用过程中调用行为的访问模式。
子步骤S1322,于所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽信息中获取所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性。
子步骤S1323,依据所述更新屏蔽规则,于所述服务屏蔽词义数据的每个屏蔽数集中归类为主动屏蔽词义数集与被动屏蔽词义数集。
子步骤S1324,于所述更新屏蔽规则与所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述主动屏蔽词义数集与被动屏蔽词义数集对应的更新屏蔽规则。
例如,所述更新屏蔽规则可以包括至少两项屏蔽过滤策略的语音语义行为特征数据。由此,可以于所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述服务屏蔽词义数据的每个屏蔽数集的语音语义行为特征归属列表,于所述更新屏蔽规则与所述更新屏蔽规则包括至少两项屏蔽过滤策略的语音语义行为特征数据,获取每一所述主动屏蔽词义数集与被动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率。
在此基础上,本实施例可以于每一被动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率与每一所述主动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率,获取所述服务屏蔽词义数据的每个屏蔽数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的第一语音语义频率图谱。接下来,根据所述语音语义行为特征归属列表,对所述语音语义行为特征归属列表与所述第一语音语义频率图谱的语音语义行为特征核算结果进行遍历获得所述服务屏蔽词义数据的每个屏蔽数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的第二语音语义频率图谱,直至遍历量超过预设量或所述第二语音语义频率图谱中各个语音语义行为特征频率的频率值低于预设频率值。其中,于每次遍历前,对于每一被动屏蔽词义数集,恢复上一次遍历获得的语音语义行为特征核算结果中的含有的该被动屏蔽词义数集匹配的语音语义行为特征频率为所述第一语音语义频率图谱中含有的、该被动屏蔽词义数集匹配的语音语义行为特征频率,将语音语义行为特征频率最大的屏蔽过滤策略的语音语义行为特征数据作为该被动屏蔽词义数集匹配的语音语义行为特征数据。
而后,可以对于每一主动屏蔽词义数集,根据第二语音语义频率图谱中该主动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率,将语音语义行为特征频率最大的屏蔽过滤策略的语音语义行为特征数据作为该主动屏蔽词义数集匹配的语音语义行为特征数据,根据所述被动屏蔽词义数集与所述主动屏蔽词义数集中各自匹配的语音语义行为特征数据获得匹配的更新屏蔽规则。
子步骤S1325,根据所述被动屏蔽词义数集与所述主动屏蔽词义数集中各自匹配的更新屏蔽规则,确定对象推送屏蔽服务特征。
基于上述设计,本实施例在确定对象推送屏蔽服务特征的过程中,通过有效结合被动屏蔽词义数据和主动屏蔽词义数据,便于后续针对性地进行更新屏蔽词义数集的体验优化,减少更新屏蔽词义数集出现异常的概率。在一种可能的实施方式中,针对步骤S1330,请结合参阅图4,可以通过以下子步骤S1331-S1334实现,具体描述如下。
子步骤S1331,根据所述推送屏蔽服务特征一和推送屏蔽服务特征二,确定所述对象服务屏蔽词义数据依次匹配的屏蔽喜好行为分布一及屏蔽喜好行为分布二。
子步骤S1332,获取所述屏蔽喜好行为分布一与屏蔽喜好行为分布二之间的重合分布,以获取所述重合分布的推送屏蔽服务特征,并按功能性将所述推送屏蔽服务特征划分多个区分服务特征。
子步骤S1333,将所述多个区分服务特征依次转换成被动屏蔽推荐项目数据集与主动屏蔽推荐项目数据集,从所述被动屏蔽推荐项目数据集的被动屏蔽推荐项目数据中提取被动屏蔽描述向量,从所述主动屏蔽推荐项目数据集的主动屏蔽推荐项目数据中提取主动屏蔽描述向量。
子步骤S1334,于所述被动屏蔽描述向量与所述主动屏蔽描述向量融合得到融合屏蔽描述向量,并根据融合屏蔽描述向量获取所述对象服务屏蔽词义数据的对象更新屏蔽元素。
通过上述步骤,本发明通过结合被动屏蔽推荐项目数据集与主动屏蔽推荐项目数据集的融合屏蔽描述向量进行权衡来确定对象服务屏蔽词义数据的对象更新屏蔽元素,可以更准确完整地确定所有的对象服务屏蔽词义数据的对象更新屏蔽元素。
在一种可能的实施方式中,仍旧针对步骤S1330,可以通过以下子步骤 S1335-S1338实现,具体描述如下。
子步骤S1335,获取所述对象更新屏蔽元素匹配的经由屏蔽节点的信息库的入库接口配置,并根据所述入库接口配置获取匹配的信息库入库权限数据。
子步骤S1336,确定所述经由屏蔽节点的推送屏蔽服务特征的访问模式,并确定所述经由屏蔽节点下的多个信息库的访问机制数据信息。
子步骤S1337,对所述访问机制数据信息与预配置的各个屏蔽服务权限协议的访问模式进行访问参数核算,获取对所述各个屏蔽服务权限协议的多个第一访问参数核算结果,所述各个屏蔽服务权限协议的访问模式是在配置过程中确定的该屏蔽服务权限协议匹配的预设的被动屏蔽词义数据与主动屏蔽词义数据的访问模式。
子步骤S1338,通过所述多个第一访问参数核算结果,获得所述对象更新屏蔽元素匹配的屏蔽服务权限协议。
其中,作为一种可能的示例,各个服务协议可以采用如下方式配置获得,具体描述如下。
首先,确定预设的配置数组中各个虚拟位置访问指令匹配的预设的虚拟位置访问特征的各个虚拟位置访问控件以形成虚拟位置访问控件数组,然后依次选中所述虚拟位置访问控制数组中的各个虚拟位置访问控件以作为当前虚拟位置访问控件,并依据所述虚拟位置访问控件创建一个屏蔽服务权限协议,然后计算当前虚拟位置访问控件与所述屏蔽服务权限协议的协议访问参数之间的访问属性,以获取多个第二访问参数数量作为第二访问参数核算结果。
接下来,判断每个第二访问参数数量是否小于预设阈值,如果小于预设阈值则确定第二访问参数核算结果满足预设的访问参数条件,如果不小于预设阈值则确定第二访问参数核算结果不满足预设的访问参数条件,由此可以将第二访问参数核算结果中符合预设访问参数条件时匹配的屏蔽服务权限协议作为所述当前虚拟位置访问控件所属的屏蔽服务权限协议,并将所述当前虚拟位置访问控件加入至所述当前虚拟位置访问控件所属的屏蔽服务权限协议中。
又例如,若所述第二访问参数核算结果不满足预设访问参数条件,则创建一个屏蔽服务权限协议,该屏蔽服务权限协议的协议访问参数设为当前虚拟位置访问控件,重新核算所述屏蔽服务权限协议的协议服务参数并在对所述虚拟位置访问控件数组中的各个虚拟位置访问控件进行合并后,将各个屏蔽服务权限协议的协议访问参数作为每个屏蔽服务权限协议匹配的预设的虚拟位置访问特征的访问模式。
在一种可能的实施方式中,针对步骤S1340,可以通过以下子步骤 S1341-S1343实现,具体描述如下。
子步骤S1341,根据所述屏蔽服务权限协议获取多个虚拟位置访问子接口及所述多个虚拟位置访问子接口中每个虚拟位置访问子接口的接口参数数据更新信息。
子步骤S1342,根据所述每个虚拟位置访问子接口的接口参数数据更新信息和所述每个虚拟位置访问子接口预设的接口配置参数数据,确定所述每个虚拟位置访问子接口的接口目标参数数据。
本实施例中,所述接口目标参数数据包括接口配置参数数据及匹配的各个虚拟位置访问子接口的接口参数数据。
子步骤S1343,利用所述每个虚拟位置访问子接口的接口参数数据更新信息和所述每个虚拟位置访问子接口的接口目标参数数据,对所述信息库入库权限数据中的当前入库权限授权数据相匹配的授权节点的待更新状态部分进行屏蔽服务权限协议签字信息处理后,更新所述信息库入库权限数据中的当前入库权限授权数据。
基于上述方法,本发明通过结合被动屏蔽词义数据和主动屏蔽词义数据进行更新屏蔽词义数集的接口参数数据更新管理可以便于后续针对性进行更新屏蔽词义数集的体验优化。
进一步地,在一种可能的实现方式中,针对步骤S140,可以根据接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据中的感兴趣目标与非感兴趣目标,对所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征进行更新。
例如,更新的方式可以包括:增加所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征中与感兴趣目标匹配的特征向量的权重参数并减少所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征中与非感兴趣目标匹配的特征向量的权重参数。值得说明的是,具体增加的权重参数和减小权重参数可以基于实际设计需求进行灵活设计,在此不作具体限定,也不在本发明实施例旨在重点描述的范围内。
基于同一发明构思,请参阅图3,示出了本发明实施例提供的基于科技成果数据库的语音智能识别系统300的功能模块示意图,本实施例可以根据上述方法实施例对基于科技成果数据库的语音智能识别系统300进行功能模块的划分。例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。比如,在采用对应各个功能划分各个功能模块的情况下,图3示出的基于科技成果数据库的语音智能识别系统300只是一种系统示意图。其中,基于科技成果数据库的语音智能识别系统300可以包括语音接收模块310、语义聚类模块320、语音推送屏蔽模块330以及迭代更新模块340,下面分别对该基于科技成果数据库的语音智能识别系统300的各个功能模块的功能进行详细阐述。
语音接收模块310,用于接收各个目标用户终端200在当前时刻发送的语音信息。可以理解,该语音接收模块310可以用于执行上述步骤S110,关于该语音接收模块310的详细实现方式可以参照上述对步骤S110有关的内容。
语义聚类模块320,用于对所述目标用户终端200在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端200。可以理解,该语义聚类模块320可以用于执行上述步骤S120,关于该语义聚类模块320的详细实现方式可以参照上述对步骤S120有关的内容。
语音推送屏蔽模块330,用于根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息,且确定向各个对象语义集合匹配的目标用户终端200执行匹配的语音屏蔽推送信息。可以理解,该语音推送屏蔽模块330可以用于执行上述步骤S130,关于该语音推送屏蔽模块330的详细实现方式可以参照上述对步骤S130有关的内容。
迭代更新模块340,用于接收各个目标用户终端200对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端200对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新。可以理解,该迭代更新模块340可以用于执行上述步骤S140,关于该迭代更新模块340的详细实现方式可以参照上述对步骤S140有关的内容。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,语音接收模块310可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上语音接收模块310的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所描述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(application specific integrated circuit,ASIC),或,一个或多个微处理器(digital signal processor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(centralprocessing unit,CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,SOC)的形式实现。
图4示出了本发明实施例提供的用于实现上述的控制设备的科技成果数据库服务器100的硬件结构示意图,如图4所示,科技成果数据库服务器100可包括处理器110、机器可读存储介质120、总线130以及收发器140。
在具体实现过程中,至少一个处理器110执行所述机器可读存储介质120存储的计算机执行指令(例如图3中所示的基于科技成果数据库的语音智能识别系统300包括的语音接收模块310、语义聚类模块320、语音推送屏蔽模块330以及迭代更新模块340),使得处理器110可以执行如上方法实施例的基于科技成果数据库的语音智能识别方法,其中,处理器110、机器可读存储介质120以及收发器140通过总线130连接,处理器110可以用于控制收发器140的收发动作,从而可以与前述的目标用户终端200进行数据收发。
处理器110的具体实现过程可参见上述科技成果数据库服务器100执行的各个方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
在上述的图4所示的实施例中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,DSP)、专用集成电路(英文:ApplicationSpecificIntegrated Circuit,ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
机器可读存储介质120可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器。
总线130可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral Component Interconnect,PCI)总线或扩展工业标准体系结构(Extended Industry Standard Architecture,EISA)总线等。总线130可以分为地址总线、数据总线、控制总线等。为便于表示,本发明附图中的总线并不限定仅有一根总线或一种类型的总线。
此外,本发明实施例还提供一种可读存储介质,所述可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上基于科技成果数据库的语音智能识别方法。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本领域技术人员可能会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一种可能的实现方式”、“一种可能的示例”、和/或“示例性地”意指与本说明书至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一种可能的实现方式”、“一种可能的示例”、和/或“示例性地”并不一定是指同一实施例。此外,本说明书的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本说明书的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本说明书的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本说明书的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。
计算机存储介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。该传播信号可能有多种表现形式,包括电磁形式、光形式等,或合适的组合形式。计算机存储介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机存储介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、RF、或类似介质,或任何上述介质的组合。
本说明书各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化编程语言如C语言、Visual Basic、Fortran 2003、Perl、COBOL 2002、PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或服务器上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。
此外,除非权利要求中明确说明,本说明书所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本说明书流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本说明书披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本说明书实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
需要说明的是,如果本说明书初始材料中的描述、定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的原则。其他的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介绍和描述的实施例。

Claims (10)

1.一种基于科技成果数据库的语音智能识别方法,其特征在于,应用于科技成果数据库服务器,所述科技成果数据库服务器分别与多个客户终端电性连接;所述方法包括:
接收各个目标用户终端在当前时刻发送的语音信息;其中,所述目标用户终端为所述多个客户终端中的任意一个;
对所述目标用户终端在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端;
根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息,且确定向各个对象语义集合匹配的目标用户终端执行匹配的语音屏蔽推送信息;
接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新。
2.根据权利要求1所述的基于科技成果数据库的语音智能识别方法,其特征在于,所述对所述目标用户终端在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端的步骤,包括:
接收所述目标用户终端在当前时刻发送的目标语音信息;
提取所述各个目标用户终端的目标语音信息的语音词义特征数据;
将各个所述语音词义特征数据,依次与剩余的各个目标用户终端的目标语音信息的目标语音词义特征数据进行近似度匹配,获得初始近似度匹配数据,基于至少完成一个所述目标语音词义特征数据均近似度匹配的前提下,获得至少一个初始近似度匹配数据;所述初始近似度匹配数据表征语音词义特征数据与目标语音词义特征数据之间的近似度节点;
基于至少一个所述初始近似度匹配数据的编码前提下,获得与各个语音词义特征数据相匹配的近似度匹配数据;其中,所述近似度匹配数据表征存在的与语音词义特征数据近似度匹配的目标语音词义特征数据,所述近似度匹配数据与各个所述语音词义特征数据相匹配;
基于至少一个所述语音词义特征数据,提取所述近似度匹配数据表征存在近似度匹配的目标语音词义特征数据的语音词义特征数据,获得近似度匹配语音词义特征数据;
基于所述近似度匹配数据,于至少一个所述目标语音词义特征数据,获取与所述近似度匹配语音词义特征数据近似度匹配的目标语音词义特征数据,表征近似度匹配目标语音词义特征数据;
基于至少一个所述语音词义特征数据,对除所述近似度匹配语音词义特征数据之外的语音词义特征数据进行编码,获取特征编码初始数组;
基于至少一个所述目标语音词义特征数据,对除所述近似度匹配目标语音词义特征数据之外的目标语音词义特征数据进行编码,获取特征编码目标数组;
融合于所述特征编码初始数组与所述特征编码目标数组,获得各个所述语音词义特征数据依次与剩余的各个目标用户终端的目标语音信息的目标语音词义特征数据之间的参考组合特征数据;
将参考组合特征数据近似的语音信息作为一个对象语义集合,以获取多个对象语义集合,且得到各个对象语义集合下的每个语音词义特征数据的目标用户终端。
3.根据权利要求1所述的基于科技成果数据库的语音智能识别方法,其特征在于,所述根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息的步骤,包括:
获取所述各个对象语义集合所对应的语义数组特征内与当前更新的对象推送屏蔽服务关联的对象服务屏蔽词义数据,根据所述当前更新的对象推送屏蔽服务中获取所述对象服务屏蔽词义数据的词义屏蔽标签数据;
根据所述对象服务屏蔽词义数据被注记与所述对象推送屏蔽服务匹配的更新屏蔽标签服务匹配的更新匹配标签,获取所述词义屏蔽标签数据中的对象推送屏蔽服务特征,所述对象推送屏蔽服务特征含有推送屏蔽服务特征一以及推送屏蔽服务特征二,所述推送屏蔽服务特征一为所述更新屏蔽标签服务包含的与所述对象推送屏蔽服务匹配的更新匹配屏蔽标签数集匹配到的被动屏蔽词义数据,所述推送屏蔽服务特征二为所述更新匹配屏蔽标签数集匹配到的主动屏蔽词义数据,根据调整后的更新匹配屏蔽标签数集实时调整迭代预设服务屏蔽词义数据;
从所述对象推送屏蔽服务特征中,获取所述对象服务屏蔽词义数据的对象更新屏蔽元素,获取所述对象更新屏蔽元素匹配的经由屏蔽节点的信息库入库权限数据及匹配的屏蔽服务权限协议;
获取所述信息库入库权限数据中的当前入库权限授权数据匹配的授权节点的屏蔽服务权限协议签字信息,更新所述信息库入库权限数据中的当前入库权限授权数据,于更新后的所述信息库入库权限数据中获取所述对象更新屏蔽元素匹配的经由屏蔽节点的语音屏蔽推送信息。
4.根据权利要求3所述的基于科技成果数据库的语音智能识别方法,其特征在于,获取所述词义屏蔽标签数据中的对象推送屏蔽服务特征的步骤,包括:
根据所述更新匹配屏蔽标签数集于所述词义屏蔽标签数据中获取匹配的服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽信息与更新屏蔽规则;
于所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽信息中获取所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性;
依据所述更新屏蔽规则,于所述服务屏蔽词义数据的每个屏蔽数集中归类为主动屏蔽词义数集与被动屏蔽词义数集;
于所述更新屏蔽规则与所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述主动屏蔽词义数集与被动屏蔽词义数集对应的更新屏蔽规则;
根据所述主动屏蔽词义数集与被动屏蔽词义数集对应的更新屏蔽规则,获取所述对象推送屏蔽服务特征。
5.根据权利要求4所述的基于科技成果数据库的语音智能识别方法,其特征在于,所述更新屏蔽规则包括至少两项屏蔽过滤策略的语音语义行为特征数据;
于所述更新屏蔽规则与所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述主动屏蔽词义数集与被动屏蔽词义数集对应的更新屏蔽规则的步骤,包括:
于所述服务屏蔽词义数据的每个屏蔽数集的词义更新屏蔽属性,获取所述服务屏蔽词义数据的每个屏蔽数集的语音语义行为特征归属列表;
于所述更新屏蔽规则与所述更新屏蔽规则包括至少两项屏蔽过滤策略的语音语义行为特征数据,获取每一所述主动屏蔽词义数集与被动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率;
于每一被动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率与每一所述主动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率,获取所述服务屏蔽词义数据的每个屏蔽数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的第一语音语义频率图谱;
根据所述语音语义行为特征归属列表,对所述语音语义行为特征归属列表与所述第一语音语义频率图谱的语音语义行为特征核算结果进行遍历获得所述服务屏蔽词义数据的每个屏蔽数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的第二语音语义频率图谱,直至遍历量超过预设量或所述第二语音语义频率图谱中各个语音语义行为特征频率的频率值低于预设频率值;其中,于每次遍历前,对于每一被动屏蔽词义数集,恢复上一次遍历获得的语音语义行为特征核算结果中的含有的该被动屏蔽词义数集匹配的语音语义行为特征频率为所述第一语音语义频率图谱中含有的、该被动屏蔽词义数集匹配的语音语义行为特征频率,将语音语义行为特征频率最大的屏蔽过滤策略的语音语义行为特征数据作为该被动屏蔽词义数集匹配的语音语义行为特征数据;
对于每一主动屏蔽词义数集,根据第二语音语义频率图谱中该主动屏蔽词义数集匹配于每一屏蔽过滤策略的语音语义行为特征数据的语音语义行为特征频率,将语音语义行为特征频率最大的屏蔽过滤策略的语音语义行为特征数据作为该主动屏蔽词义数集匹配的语音语义行为特征数据;
根据所述被动屏蔽词义数集与所述主动屏蔽词义数集中各自匹配的语音语义行为特征数据获得匹配的更新屏蔽规则。
6.根据权利要求3所述的基于科技成果数据库的语音智能识别方法,其特征在于,所述从所述对象推送屏蔽服务特征中,获取所述对象服务屏蔽词义数据的对象更新屏蔽元素的步骤,包括:
根据所述推送屏蔽服务特征一和推送屏蔽服务特征二,确定所述对象服务屏蔽词义数据依次匹配的屏蔽喜好行为分布一及屏蔽喜好行为分布二;
获取所述屏蔽喜好行为分布一与屏蔽喜好行为分布二之间的重合分布,以获取所述重合分布的推送屏蔽服务特征,并按功能性将所述推送屏蔽服务特征划分多个区分服务特征;
将所述多个区分服务特征依次转换成被动屏蔽推荐项目数据集与主动屏蔽推荐项目数据集,从所述被动屏蔽推荐项目数据集的被动屏蔽推荐项目数据中提取被动屏蔽描述向量,从所述主动屏蔽推荐项目数据集的主动屏蔽推荐项目数据中提取主动屏蔽描述向量;
于所述被动屏蔽描述向量与所述主动屏蔽描述向量融合得到
融合屏蔽描述向量,并根据融合屏蔽描述向量获取所述对象服务屏蔽词义数据的对象更新屏蔽元素。
7.根据权利要求3所述的基于科技成果数据库的语音智能识别方法,其特征在于,获取所述对象更新屏蔽元素匹配的经由屏蔽节点的信息库入库权限数据及匹配的屏蔽服务权限协议,包括:
获取所述对象更新屏蔽元素匹配的经由屏蔽节点的信息库的入库接口配置,并根据所述入库接口配置获取匹配的信息库入库权限数据;
确定所述经由屏蔽节点的推送屏蔽服务特征的访问模式,并确定所述经由屏蔽节点下的多个信息库的访问机制数据信息;
对所述访问机制数据信息与预配置的各个屏蔽服务权限协议的访问模式进行访问参数核算,获取对所述各个屏蔽服务权限协议的多个第一访问参数核算结果,所述各个屏蔽服务权限协议的访问模式是在配置过程中确定的该屏蔽服务权限协议匹配的预设的被动屏蔽词义数据与主动屏蔽词义数据的访问模式;
通过所述多个第一访问参数核算结果,获得所述对象更新屏蔽元素匹配的屏蔽服务权限协议;
所述各个屏蔽服务权限协议通过以下方式配置获取:
确定预设的配置数组中各个虚拟位置访问指令匹配的预设的虚拟位置访问特征的各个虚拟位置访问控件以形成虚拟位置访问控件数组;
依次选中所述虚拟位置访问控制数组中的各个虚拟位置访问控件以作为当前虚拟位置访问控件,并依据所述虚拟位置访问控件创建一个屏蔽服务权限协议,然后计算当前虚拟位置访问控件与所述屏蔽服务权限协议的协议访问参数之间的访问属性,以获取多个第二访问参数数量作为第二访问参数核算结果;
将第二访问参数核算结果中符合预设访问参数条件时匹配的屏蔽服务权限协议作为所述当前虚拟位置访问控件所属的屏蔽服务权限协议,并将所述当前虚拟位置访问控件加入至所述当前虚拟位置访问控件所属的屏蔽服务权限协议中;
若所述第二访问参数核算结果不满足预设访问参数条件,则创建一个屏蔽服务权限协议,该屏蔽服务权限协议的协议访问参数设为当前虚拟位置访问控件,重新核算所述屏蔽服务权限协议的协议服务参数并在对所述虚拟位置访问控件数组中的各个虚拟位置访问控件进行合并后,将各个屏蔽服务权限协议的协议访问参数作为每个屏蔽服务权限协议匹配的预设的虚拟位置访问特征的访问模式。
8.根据权利要求3所述的基于科技成果数据库的语音智能识别方法,其特征在于,获取所述信息库入库权限数据中的当前入库权限授权数据匹配的授权节点的屏蔽服务权限协议签字信息,更新所述信息库入库权限数据中的当前入库权限授权数据的步骤,包括:
根据所述屏蔽服务权限协议获取多个虚拟位置访问子接口及所述多个虚拟位置访问子接口中每个虚拟位置访问子接口的接口参数数据更新信息;
根据所述每个虚拟位置访问子接口的接口参数数据更新信息和所述每个虚拟位置访问子接口预设的接口配置参数数据,确定所述每个虚拟位置访问子接口的接口目标参数数据,所述接口目标参数数据包括接口配置参数数据及匹配的各个虚拟位置访问子接口的接口参数数据;
利用所述每个虚拟位置访问子接口的接口参数数据更新信息和所述每个虚拟位置访问子接口的接口目标参数数据,对所述信息库入库权限数据中的当前入库权限授权数据相匹配的授权节点的待更新状态部分进行屏蔽服务权限协议签字信息处理后,更新所述信息库入库权限数据中的当前入库权限授权数据。
9.根据权利要求1-8中任意一项所述的基于科技成果数据库的语音智能识别方法,其特征在于,所述接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新的步骤,包括:
根据接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据中的划分为感兴趣目标与非感兴趣目标,对所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征进行更新划分为感兴趣目标与非感兴趣目标,对所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征进行更新;其更新方式包括有增加所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征中与感兴趣目标匹配的特征向量的权重参数并减少所述目标用户终端的语音屏蔽推送信息的语音推送屏蔽数据特征中与非感兴趣目标匹配的特征向量的权重参数。
10.一种基于科技成果数据库的语音智能识别系统,其特征在于,应用于服务器,所述系统包括:
语音接收模块,用于接收各个目标用户终端在当前时刻发送的语音信息;
语义聚类模块,用于对所述目标用户终端在当前时刻发送的语音信息进行语义聚类处理,获取多个对象语义集合以及各个对象语义集合对应的目标用户终端;
语音推送屏蔽模块,用于根据各个对象语义集合所对应的语义数组特征确定各个对象语义集合相匹配的语音屏蔽推送信息,且确定向各个对象语义集合匹配的目标用户终端执行匹配的语音屏蔽推送信息;
迭代更新模块,用于接收各个目标用户终端对所执行的语音屏蔽推送信息的回执数据,且根据所述回执数据对所述目标用户终端对所执行的语音屏蔽推送信息的语音推送屏蔽数据特征实时迭代更新。
CN202011604102.6A 2020-12-30 2020-12-30 一种基于科技成果数据库的语音智能识别方法及系统 Active CN112634881B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011604102.6A CN112634881B (zh) 2020-12-30 2020-12-30 一种基于科技成果数据库的语音智能识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011604102.6A CN112634881B (zh) 2020-12-30 2020-12-30 一种基于科技成果数据库的语音智能识别方法及系统

Publications (2)

Publication Number Publication Date
CN112634881A true CN112634881A (zh) 2021-04-09
CN112634881B CN112634881B (zh) 2023-08-11

Family

ID=75287515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011604102.6A Active CN112634881B (zh) 2020-12-30 2020-12-30 一种基于科技成果数据库的语音智能识别方法及系统

Country Status (1)

Country Link
CN (1) CN112634881B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117994887A (zh) * 2024-03-29 2024-05-07 一智科技(成都)有限公司 一种闸机系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110020649A (ko) * 2009-08-24 2011-03-03 부산대학교 산학협력단 변형 비속어 필터링을 위한 비속어 필터링 시스템 및 방법
CN103455485A (zh) * 2012-05-28 2013-12-18 中兴通讯股份有限公司 自动更新用户兴趣模型方法及装置
CN105006230A (zh) * 2015-06-10 2015-10-28 合肥工业大学 一种面向非特定人的语音敏感信息检测和过滤方法
CN106161203A (zh) * 2015-04-28 2016-11-23 阿里巴巴集团控股有限公司 群组消息处理方法及装置
US20200005773A1 (en) * 2017-11-28 2020-01-02 International Business Machines Corporation Filtering data in an audio stream
CN111901554A (zh) * 2020-07-27 2020-11-06 中国平安人寿保险股份有限公司 基于语义聚类的通话通道构建方法、装置和计算机设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110020649A (ko) * 2009-08-24 2011-03-03 부산대학교 산학협력단 변형 비속어 필터링을 위한 비속어 필터링 시스템 및 방법
CN103455485A (zh) * 2012-05-28 2013-12-18 中兴通讯股份有限公司 自动更新用户兴趣模型方法及装置
CN106161203A (zh) * 2015-04-28 2016-11-23 阿里巴巴集团控股有限公司 群组消息处理方法及装置
CN105006230A (zh) * 2015-06-10 2015-10-28 合肥工业大学 一种面向非特定人的语音敏感信息检测和过滤方法
US20200005773A1 (en) * 2017-11-28 2020-01-02 International Business Machines Corporation Filtering data in an audio stream
CN111901554A (zh) * 2020-07-27 2020-11-06 中国平安人寿保险股份有限公司 基于语义聚类的通话通道构建方法、装置和计算机设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117994887A (zh) * 2024-03-29 2024-05-07 一智科技(成都)有限公司 一种闸机系统

Also Published As

Publication number Publication date
CN112634881B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
US11195532B2 (en) Handling multiple intents in utterances
US11775572B2 (en) Directed acyclic graph based framework for training models
US11694032B2 (en) Template-based intent classification for chatbots
CN111639168B (zh) 一种多轮对话的处理方法、装置、电子设备及存储介质
US11538468B2 (en) Using semantic frames for intent classification
CN112671886B (zh) 基于边缘计算和人工智能的信息推送方法及大数据服务器
US11928430B2 (en) Detecting unrelated utterances in a chatbot system
CN112182098B (zh) 基于云计算和大数据的信息推送方法及信息推送服务器
US20240095454A1 (en) Context tag integration with named entity recognition models
CN111931063B (zh) 基于区块链和人工智能的信息推送处理方法及云服务平台
US12026468B2 (en) Out-of-domain data augmentation for natural language processing
WO2019196238A1 (zh) 一种语音识别方法、终端设备及计算机可读存储介质
US20230100508A1 (en) Fusion of word embeddings and word scores for text classification
US20230205999A1 (en) Gazetteer integration for neural named entity recognition
US20220229991A1 (en) Multi-feature balancing for natural language processors
CN111368145A (zh) 一种知识图谱的创建方法、创建系统及终端设备
CN111949891B (zh) 一种基于车辆轨迹聚类的个性化信息推荐方法及系统
CN112634881A (zh) 一种基于科技成果数据库的语音智能识别方法及系统
US20230161963A1 (en) System and techniques for handling long text for pre-trained language models
CN116149632A (zh) 业务逻辑定制方法和装置、计算机设备、存储介质
CN116050375B (zh) 政策文件相似度比较方法、装置、系统及电子设备
CN115496069A (zh) 一种基于社交网络的语义决策方法和系统
CN117648331A (zh) Sql语句生成方法、装置、服务器及介质
WO2023091436A1 (en) System and techniques for handling long text for pre-trained language models
CN118071125A (zh) 基于警务大模型的任务处理方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231206

Address after: Floor 1, 2, and 4, Building 7, No. 101, No. 288 Guoxin Avenue, Pengzhen, Shuangliu District, Chengdu City, Sichuan Province, 610000 (A11-7-101)

Patentee after: Sichuan Bochuang Future Technology Transfer Co.,Ltd.

Address before: No.203 Kezhu Road, Science City, Guangzhou hi tech Industrial Development Zone, Guangdong 510000

Patentee before: GUANGZHOU DOCTOR INFORMATION TECHNOLOGY RESEARCH INSTITUTE Co.,Ltd.