CN111883177B - 基于深度学习的语音关键信息分离方法 - Google Patents

基于深度学习的语音关键信息分离方法 Download PDF

Info

Publication number
CN111883177B
CN111883177B CN202010681349.1A CN202010681349A CN111883177B CN 111883177 B CN111883177 B CN 111883177B CN 202010681349 A CN202010681349 A CN 202010681349A CN 111883177 B CN111883177 B CN 111883177B
Authority
CN
China
Prior art keywords
voice
information
voice information
vector
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010681349.1A
Other languages
English (en)
Other versions
CN111883177A (zh
Inventor
张建国
叶家艺
茅剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xizhong Technology Co ltd
Xiamen Herocheer Electronic Technology Co ltd
Xiamen Xiquan Sports Technology Co ltd
Original Assignee
Shanghai Xizhong Technology Co ltd
Xiamen Xiquan Sports Technology Co ltd
Xiamen Herocheer Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xizhong Technology Co ltd, Xiamen Xiquan Sports Technology Co ltd, Xiamen Herocheer Electronic Technology Co ltd filed Critical Shanghai Xizhong Technology Co ltd
Priority to CN202010681349.1A priority Critical patent/CN111883177B/zh
Publication of CN111883177A publication Critical patent/CN111883177A/zh
Application granted granted Critical
Publication of CN111883177B publication Critical patent/CN111883177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开的是基于深度学习的语音关键信息分离方法,包括以下步骤:CNN训练→语音信息标定→语音信息特征聚类→语音信息分离。本发明基于深度学习和聚类的人工智能方法,可以在尽可能减少人工干预的情况下,自动分离语音信号中关键语音信号。在此过程中,并不涉及语义分析,可避免传统语音分离处理流程中的累积误差,也可将本方法作为传统方法预处理手段,进一步提升语音分离效果。

Description

基于深度学习的语音关键信息分离方法
技术领域
本发明涉及语音处理技术,具体的说是指基于深度学习的语音关键信息分离方法。
背景技术
语音作为关键的多媒体数据,在信息表达、存储、人机交互中有着重要作用,语音信号中包含着丰富的信息,语音信息检索是目前的重要研究热点。
目前的语音智能检索,常用手段为关键词检索、句子检索、文档检索。现有的检索手段大多依赖语音中的语义分析,检索方法步骤繁多,流程复杂,导致误差累积,准确率下降。
发明内容
本发明提供的是基于深度学习的语音关键信息分离方法,其主要目的在于克服现有语音检索方法步骤繁多、流程复杂,导致误差累积,准确率下降的问题。
为了解决上述的技术问题,本发明采用如下的技术方案:
基于深度学习的语音关键信息分离方法,包括以下步骤:
S1、CNN训练:将语音信号样本集作为训练数据,以待测关键信息为标签,利用CNN卷积神经网络对语音信号样本集进行训练,以获取一个语音信息分类模型,训练后获取的语音信息分类模型可以区分出不同语音信号中是否包含需要关注的关键信息;
S2、语音信息标定:基于训练好的语音信息分类模型,将待测语音信号经过语音信息分类模型,采用反向梯度激活平均算法及特征加权激活映射算法,在语音信号中自动标定所关注的信息;
S3、语音信息特征聚类:将待测的同类语音信号均通过语音信息标定算法分别生成语音信息标定向量,从而形成语音信息标定向量集;然后对语音信息标定向量集采用密度聚类方法,计算出聚类质心向量,即该类别语音信息典型特征分布向量;最后利用统计分析方法,计算语音信息典型特征分布向量中相邻峰值跃迁幅度,找出峰值跃迁幅度最大的两个峰值,计算语音信息分离阈值;
S4、语音信息分离:将目标语音信号序列与语音信息标定序列对齐,基于深度学习进行语音信号标定的过程中,生成语音信息标定序列时,采用插值填充的方法将语音信息标定序列拉伸至与原目标语音信号的相同长度,并将二者对齐;然后根据语音信息典型特征聚类计算得到的分离阈值,结合语音信息标定序列,设计滤波器,对目标语音信号逐点进行分离,将语音信号分离为包含所检索关键信息的关键语音信号和背景信号。
所述CNN卷积神经网络包括多个卷积层、多个池化层及全连接层,每个卷积层对应一个池化层,每个卷积层包括依次信号连接的一维卷积核Conv1D、批标准化层BN及ReLU激活层,所述ReLU激活层与对应的池化层信号连接,所述多个卷积层和多个池化层按照卷积层→池化层的重复顺序排布,所述全连接层与最后一个池化层连接。
所述反向梯度激活平均算法用于计算待测信号中语音信息特征分布,其计算公式为该计算公式中,定义的变量如下:
(1)K—语音信息特征向量个数(通道数);
(2)Z—语音信息特征向量的长度;
(3)C—语音信息的类别个数;
(4)Ak—第k个语音信息特征向量;
(5)—第k个语音信息特征向量中第i个特征的值;
(6)yc—语音信息类别c的分类得分;
(7)—第k个特征向量的权重;
所述特征加权激活映射算法用于计算语音信息特征标定向量,其计算公式为:该计算公式中,定义的变量如下:
—第s个语音信号关于分类c的语音信息标定向量;
至此,得到的语音信息初始标定向量的长度为Z,即特征向量Ak的长度,由于经过CNN卷积神经网络的逐层抽取,初始分布向量的长度小于被测语音信号长度,为了能从被测语音信号中准确标定出信息所在区域,还需要将初始分布向量等比例拉伸至被测语音信号的尺寸,如下式:为最终的语音信息标定结果。
由上述对本发明的描述可知,和现有技术相比,本发明具有如下优点:本发明基于深度学习和聚类的人工智能方法,可以在尽可能减少人工干预的情况下,自动分离语音信号中关键语音信号。在此过程中,并不涉及语义分析,可避免传统语音分离处理流程中的累积误差,也可将本方法作为传统方法预处理手段,进一步提升语音分离效果。
附图说明
图1为本发明的分离流程图。
图2为本发明的语音信息分离效果图。
图3为本发明的语音信息标定算法流程图。
图4为本发明CNN卷积神经网络的系统框图。
具体实施方式
参照图1至图4,基于深度学习的语音关键信息分离方法,包括以下步骤:
S1、CNN训练:将语音信号样本集作为训练数据,以待测关键信息为标签,利用CNN卷积神经网络对语音信号样本集进行训练,以获取一个语音信息分类模型,训练后获取的语音信息分类模型可以区分出不同语音信号中是否包含需要关注的关键信息,如判定一段语音中是否存在“身份证”相关信息。
S2、语音信息标定:基于训练好的语音信息分类模型,将待测语音信号经过语音信息分类模型,采用反向梯度激活平均算法及特征加权激活映射算法,在语音信号中自动标定所关注的信息。
S3、语音信息特征聚类:将待测的同类语音信号,如包含“身份证”信息的所有语音样本集,均通过语音信息标定算法分别生成语音信息标定向量,从而形成语音信息标定向量集;然后对语音信息标定向量集采用密度聚类方法,计算出聚类质心向量,即该类别语音信息典型特征分布向量;最后利用统计分析方法,计算语音信息典型特征分布向量中相邻峰值跃迁幅度,找出峰值跃迁幅度最大的两个峰值,计算语音信息分离阈值。
S4、语音信息分离:将目标语音信号序列与语音信息标定序列对齐,基于深度学习进行语音信号标定的过程中,生成语音信息标定序列时,采用插值填充的方法将语音信息标定序列拉伸至与原目标语音信号的相同长度,并将二者对齐;然后根据语音信息典型特征聚类计算得到的分离阈值,结合语音信息标定序列,设计滤波器,对目标语音信号逐点进行分离,将语音信号分离为包含所检索关键信息的关键语音信号和背景信号。
在步骤S1中,所述CNN卷积神经网络包括多个卷积层、多个池化层及全连接层,每个卷积层对应一个池化层,每个卷积层包括依次信号连接的一维卷积核Conv1D、批标准化层BN及ReLU激活层,所述ReLU激活层与对应的池化层信号连接,所述多个卷积层和多个池化层按照卷积层→池化层的重复顺序排布,所述全连接层与最后一个池化层连接。
所述CNN卷积神经网络的卷积层使用专门设计的一维卷积核Conv1D,并加入了批标准化(Batch Normalization,BN),改善ReLU激活的性能,进一步防止梯度消失,从而提升语音信息分类模型的训练效果。所述池化层使用最大池化(Max pooling)。
在步骤S2中,所述反向梯度激活平均算法用于计算待测信号中语音信息特征分布,其计算公式为该计算公式中,定义的变量如下:
(1)K—语音信息特征向量个数(通道数);本方法用到的语音信息特征向量,来自于待测语音信号。待测语音信号通过语音信息分类模型的逐层特征提取之后,由最后一个池化层输出。选取最后一个池化层的原因是,该层最接近全连接层,经过之前的CNN卷积神经网络逐层运算之后,该层输出的特征向量具有最好的语音信息特征。之后的全连接层(FC)不再继续提取特征,仅是加权计算语音信息的分类得分而已。在本实例中,K=256。
(2)Z—语音信息特征向量的长度;在本实例中,Z=4096。
(3)C—语音信息的类别个数;为训练好的语音信息分类模型可以分类的个数,C的数值根据实际情况设置,可以支持多分类。
(4)Ak—第k个语音信息特征向量;由待测语音信号输入语音信息分类模型逐层计算至最后一个池化层输出而得,k=1,2,…K。
(5)—第k个语音信息特征向量中第i个特征的值;其取值为i=1,2,…Z。
(6)yc—语音信息类别c的分类得分;由待测语音信号输入语音信息分类模型逐层计算得到,c=1,2,…C。
(7)—第k个特征向量的权重;其为计算待测信号中语音信息特征分布的重要参数。
上述反向梯度激活平均运算的意义在于,通过对全连接层反向求导,获取第k个特性向量Ak中的每个特征值对于最终信息分类预测结果的影响力权重,综合各特征值的权重得到特征向量的整体权重。/>可以反映出Ak对语音信号中隐藏信息的分类结果的影响力。
在语音信息检测的实践中,不同程度地出现语音信息特征消失的情况。经过分析发现,其原因在于反向梯度计算的过程中出现的负梯度,即权重/>为负值,使得后续加权计算语音信息特征初始分布向量时,抵消了正值权重带来的积极结果,最终导致语音信息特征消失。
因此,本发明对反向梯度激活平均运算结果进行了ReLU激活操作,只保留正梯度,过滤带来不利影响的负梯度。
所述特征加权激活映射算法用于计算语音信息特征标定向量,其计算公式为:该计算公式中,定义的变量如下:
—第s个语音信号关于分类c的语音信息标定向量;利用上述计算得到的/>对当前待测的语音信号的特征向量Ak进行加权处理,得到语音信息初始标定向量。这里又用到了ReLU函数,其作用是,只保留对类别c有正向影响的非负特征值,过滤那些可能为负的特征值,避免不利影响。
至此,得到的语音信息初始标定向量的长度为Z,即特征向量Ak的长度,由于经过CNN卷积神经网络的逐层抽取,初始分布向量的长度小于被测语音信号长度,为了能从被测语音信号中准确标定出信息所在区域,还需要将初始分布向量等比例拉伸至被测语音信号的尺寸,如下式:为最终的语音信息标定结果。
在步骤S3中,语音信息分离阈值的计算方法如下:
V—红黑分离阈值;
F—语音信息典型特征分布向量;
F[i],F[i+1]—语音信息典型特征分布向量中相邻峰值;
伪代码:
在步骤S4中,语音信息分离的输入、输出及伪代码描述如下:
·输入
S—语音信号
Ls—S的语音信息标定序列向量
V—语音信息分离阈值
·输出
Sr—关键语音信号
Sb—背景信号
·伪代码
分离的效果示例如图2所示,图中右上角的关键语音信号就是从待测信号中分离出来的,包含有“身份证”关键信息的信号分量,该信号分量可以作为后续语义分析,智能语音应答的数据支持。
本方法脱离语义分析的传统框架,直接针对语音信号开展信息检索并分离其中关键信息。通过深度学习,自动标定语音信号中的信息,实现关键信息的智能检索,方法简洁有效,可以提升检索效率。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。

Claims (2)

1.基于深度学习的语音关键信息分离方法,其特征在于:包括以下步骤:
S1、CNN训练:将语音信号样本集作为训练数据,以待测关键信息为标签,利用CNN卷积神经网络对语音信号样本集进行训练,以获取一个语音信息分类模型,训练后获取的语音信息分类模型可以区分出不同语音信号中是否包含需要关注的关键信息;
S2、语音信息标定:基于训练好的语音信息分类模型,将待测语音信号经过语音信息分类模型,采用反向梯度激活平均算法及特征加权激活映射算法,在语音信号中自动标定所关注的信息;
所述反向梯度激活平均算法用于计算待测信号中语音信息特征分布,其计算公式为该计算公式中,定义的变量如下:
(1)K—语音信息特征向量个数(通道数);
(2)Z—语音信息特征向量的长度;
(3)C—语音信息的类别个数;
(4)Ak—第k个语音信息特征向量;
(5)—第k个语音信息特征向量中第i个特征的值;
(6)yc—语音信息类别c的分类得分;
(7)—第k个特征向量的权重;
所述特征加权激活映射算法用于计算语音信息特征标定向量,其计算公式为:该计算公式中,定义的变量如下:
—第s个语音信号关于分类c的语音信息标定向量;
至此,得到的语音信息初始标定向量的长度为Z,即特征向量Ak的长度,由于经过CNN卷积神经网络的逐层抽取,初始分布向量的长度小于被测语音信号长度,为了能从被测语音信号中准确标定出信息所在区域,还需要将初始分布向量等比例拉伸至被测语音信号的尺寸,如下式: 为最终的语音信息标定结果;
S3、语音信息特征聚类:将待测的同类别语音信号均通过语音信息标定算法分别生成语音信息标定向量,从而形成语音信息标定向量集;然后对语音信息标定向量集采用密度聚类方法,计算出聚类质心向量,即该类别语音信息典型特征分布向量;最后利用统计分析方法,计算语音信息典型特征分布向量中相邻峰值跃迁幅度,找出峰值跃迁幅度最大的两个峰值,计算语音信息分离阈值,所述待测的同类别语音信号是指具有相同关注信息类别的待测语音信号;
S4、语音信息分离:将待测语音信号序列与语音信息标定序列对齐,基于深度学习进行语音信号标定的过程中,生成语音信息标定序列时,采用插值填充的方法将语音信息标定序列拉伸至与原目标语音信号的相同长度,并将二者对齐;然后根据语音信息典型特征聚类计算得到的分离阈值,结合语音信息标定序列,设计滤波器,对待测语音信号逐点进行分离,将待测语音信号分离为包含所检索关键信息的关键语音信号和背景信号。
2.如权利要求1所述的基于深度学习的语音关键信息分离方法,其特征在于:所述CNN卷积神经网络包括多个卷积层、多个池化层及全连接层,每个卷积层对应一个池化层,每个卷积层包括依次信号连接的一维卷积核Conv1D、批标准化层BN及ReLU激活层,所述ReLU激活层与对应的池化层信号连接,所述多个卷积层和多个池化层按照卷积层→池化层的重复顺序排布,所述全连接层与最后一个池化层连接。
CN202010681349.1A 2020-07-15 2020-07-15 基于深度学习的语音关键信息分离方法 Active CN111883177B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010681349.1A CN111883177B (zh) 2020-07-15 2020-07-15 基于深度学习的语音关键信息分离方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010681349.1A CN111883177B (zh) 2020-07-15 2020-07-15 基于深度学习的语音关键信息分离方法

Publications (2)

Publication Number Publication Date
CN111883177A CN111883177A (zh) 2020-11-03
CN111883177B true CN111883177B (zh) 2023-08-04

Family

ID=73154487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010681349.1A Active CN111883177B (zh) 2020-07-15 2020-07-15 基于深度学习的语音关键信息分离方法

Country Status (1)

Country Link
CN (1) CN111883177B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113241092A (zh) * 2021-06-15 2021-08-10 新疆大学 基于双注意力机制和多阶段混合卷积网络声源分离方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104575544A (zh) * 2008-10-24 2015-04-29 尼尔森(美国)有限公司 从媒体提取标识信息的方法和装置
CN109858482A (zh) * 2019-01-16 2019-06-07 创新奇智(重庆)科技有限公司 一种图像关键区域检测方法及其系统、终端设备
CN109859770A (zh) * 2019-01-04 2019-06-07 平安科技(深圳)有限公司 音乐分离方法、装置及计算机可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373672B2 (en) * 2016-06-14 2022-06-28 The Trustees Of Columbia University In The City Of New York Systems and methods for speech separation and neural decoding of attentional selection in multi-speaker environments
US10642846B2 (en) * 2017-10-13 2020-05-05 Microsoft Technology Licensing, Llc Using a generative adversarial network for query-keyword matching

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104575544A (zh) * 2008-10-24 2015-04-29 尼尔森(美国)有限公司 从媒体提取标识信息的方法和装置
CN109859770A (zh) * 2019-01-04 2019-06-07 平安科技(深圳)有限公司 音乐分离方法、装置及计算机可读存储介质
CN109858482A (zh) * 2019-01-16 2019-06-07 创新奇智(重庆)科技有限公司 一种图像关键区域检测方法及其系统、终端设备

Also Published As

Publication number Publication date
CN111883177A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
CN111680706B (zh) 一种基于编码和解码结构的双通道输出轮廓检测方法
CN113220919B (zh) 一种大坝缺陷图像文本跨模态检索方法及模型
CN106228980B (zh) 数据处理方法和装置
CN110188047B (zh) 一种基于双通道卷积神经网络的重复缺陷报告检测方法
CN109934269B (zh) 一种电磁信号的开集识别方法和装置
CN107562938A (zh) 一种法院智能审判方法
CN110097096B (zh) 一种基于tf-idf矩阵和胶囊网络的文本分类方法
CN116167010B (zh) 具有智能迁移学习能力的电力系统异常事件快速识别方法
CN111128128B (zh) 一种基于互补模型评分融合的语音关键词检测方法
CN104978569B (zh) 一种基于稀疏表示的增量人脸识别方法
CN111461025A (zh) 一种自主进化的零样本学习的信号识别方法
CN106528527A (zh) 未登录词的识别方法及识别系统
CN109800309A (zh) 课堂话语类型分类方法及装置
CN111984790B (zh) 一种实体关系抽取方法
CN112949288B (zh) 一种基于字符序列的文本检错方法
CN111883177B (zh) 基于深度学习的语音关键信息分离方法
CN115064154A (zh) 混合语言语音识别模型的生成方法及装置
CN114357206A (zh) 基于语义分析的教育类视频彩色字幕生成方法及系统
CN116738332A (zh) 一种结合注意力机制的飞行器多尺度信号分类识别与故障检测方法
CN110289004B (zh) 一种基于深度学习的人工合成声纹检测系统及方法
CN115588112A (zh) 一种基于rfef-yolo目标检测方法
CN117235137B (zh) 一种基于向量数据库的职业信息查询方法及装置
CN111833856B (zh) 基于深度学习的语音关键信息标定方法
CN112489689B (zh) 基于多尺度差异对抗的跨数据库语音情感识别方法及装置
CN116977834B (zh) 一种开放条件下分布内外图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230711

Address after: Room 621, South Building, torch Plaza, No. 56-58, torch garden, torch hi tech Zone, Xiamen City, Fujian Province, 361000

Applicant after: XIAMEN HEROCHEER ELECTRONIC TECHNOLOGY CO.,LTD.

Applicant after: Shanghai Xizhong Technology Co.,Ltd.

Applicant after: Xiamen Xiquan Sports Technology Co.,Ltd.

Address before: Room 621, South Building, torch Plaza, No. 56-58, torch garden, torch hi tech Zone, Xiamen City, Fujian Province, 361000

Applicant before: XIAMEN HEROCHEER ELECTRONIC TECHNOLOGY CO.,LTD.

GR01 Patent grant
GR01 Patent grant