CN116910244A - 用于多模态数据的文本分类方法及装置、制冷设备、介质 - Google Patents
用于多模态数据的文本分类方法及装置、制冷设备、介质 Download PDFInfo
- Publication number
- CN116910244A CN116910244A CN202310694668.XA CN202310694668A CN116910244A CN 116910244 A CN116910244 A CN 116910244A CN 202310694668 A CN202310694668 A CN 202310694668A CN 116910244 A CN116910244 A CN 116910244A
- Authority
- CN
- China
- Prior art keywords
- data
- text
- image
- voice
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000005057 refrigeration Methods 0.000 title claims abstract description 10
- 239000013598 vector Substances 0.000 claims abstract description 106
- 238000012545 processing Methods 0.000 claims abstract description 62
- 238000007781 pre-processing Methods 0.000 claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 17
- 238000007689 inspection Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 12
- 238000003062 neural network model Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 10
- 238000013508 migration Methods 0.000 claims description 9
- 230000005012 migration Effects 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000009792 diffusion process Methods 0.000 claims description 6
- 238000004821 distillation Methods 0.000 claims description 6
- 238000013140 knowledge distillation Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000012163 sequencing technique Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及数据处理技术领域,公开一种用于多模态数据的文本分类方法,包括:根据多模态数据,获得文本信息、语音信息以及图像信息;根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量;对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。本申请能够获得高质量的短文本,提升多模态数据短文本提取的有效性。本申请还公开一种用于多模态数据的文本分类装置及制冷设备、介质。
Description
技术领域
本申请涉及数据处理技术领域,例如涉及一种用于多模态数据的文本分类方法及装置、制冷设备、介质。
背景技术
目前,随着多模态语音降噪技术、语音识别技术和信号处理技术的快速发展,从多模态数据中提取出用以实现交互的语音或者文本成为工业界的研究热点。在智能家居场景下,针对用户交互场景,智能认知与感知存在交互慢和反馈信息错误率高的问题,影响用户的产品体验。因此,如何从多模态数据中提取获得高质量的短文本,成为当前亟需解决的技术难题。
相关技术公开一种基于多模态深度学习的文本分类方法,包括:S01,获取实时音视频数据和历史音视频数据。S02,对实时音视频数据和历史音视频数据进行预处理,获取有效的语音数据和视频数据。S03,转写有效语音数据为语音文本数据。S04,获取有效视频数据中局部区域的视频图像,并转写视频图像为图像文本数据。S05,根据语音文本数据和图像文本数据,获得该文本数据的上下文信息和文本语义特征的权重信息。S06,将上下文信息和权重信息经全连接层组合后,输出至分类器计算得分得到分类结果信息,并判断音视频数据生成文本的类型信息。S07,输出生成文本的类别信息。
在实现本公开实施例的过程中,发现相关技术中至少存在如下问题:
相关技术选取实时音视频数据和历史音视频数据作为参考数据,通过参考数据生成交互场景的文本。虽然实时音视频数据和历史音视频数据包含有文本特征,但是,多模态数据的数据来源不限于音视频数据。如此,仅采用音视频数据作为文本提取的参考数据,无法充分挖掘出多模态数据中其他数据来源的短文本特征,影响短文本提取的有效性。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
为了对披露的实施例的一些方面有基本的理解,下面给出了简单的概括。所述概括不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围,而是作为后面的详细说明的序言。
本公开实施例提供了一种用于多模态数据的文本分类方法、装置、制冷设备和介质,以解决提升多模态数据短文本提取的有效性。
在一些实施例中,所述方法包括:根据多模态数据,获得文本信息、语音信息以及图像信息;根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量;对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
在一些实施例中,所述根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量,包括:对语音信息进行预处理,获得有效语音数据以及有效视频数据;对有效语音数据进行语音识别处理,获得语音文本特征向量;根据有效视频数据以及图像信息,获得图像文本特征向量。
在一些实施例中,所述根据有效视频数据以及图像信息,获得图像文本特征向量,包括:对有效视频数据进行帧提取处理,获得第二图像数据;对图像信息进行过滤处理,获得第一图像数据;对第一图像数据以及第二图像数据进行图像合成处理,获得图像数据;输入图像数据至第一深度神经网络模型进行模型训练,获得图像文本特征向量。
在一些实施例中,所述第一深度神经网络模型包括迁移与蒸馏扩散深度融合模型。
在一些实施例中,所述对有效语音数据进行语音识别处理,获得语音文本特征向量,包括:输入有效语音数据至编码器进行语音编码,获得语音编码数据;输入语音编码数据至解码器进行语音解码,获得语音文本特征向量。
在一些实施例中,所述所述对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据,包括:提取文本信息、语音文本特征向量以及图像文本特征向量各自的短文本信息;汇集文本信息、语音文本特征向量以及图像文本特征向量各自的短文本信息,获得短文本数据。
在一些实施例中,所述方法还包括:对短文本数据进行数据标注处理,获得待质检数据;在待质检数据满足质检要求的情况下,利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据;利用Focal Loss损失函数对目标短文本特征数据进行短文本分类处理,获得目标短文本数据。
在一些实施例中,按照以下方式训练Bert模型:以基准网络参数对初始Bert模型进行模型训练,获得模型训练后的网络参数以及排序信息;根据模型训练后的网络参数以及排序信息,确定网络参数的目标数量;利用目标数量的网络参数训练初始Bert模型,获得已训练完成的Bert模型。
在一些实施例中,所述利用目标数量的网络参数训练初始Bert模型,获得已训练完成的Bert模型,包括:利用目标数量的网络参数训练初始Bert模型,获得基准Bert模型;利用知识蒸馏技术将教师网络模型迁移至学生网络模型,获得基准学生网络模型。
在一些实施例中,所述利用知识蒸馏技术将教师网络模型迁移至学生网络模型,获得基准学生网络模型之后,还包括:获得基准学生网络模型的所有编码器的层数以及各编码器的权重;根据所有编码器的层数以及各编码器的权重,确定编码器的目标层数;利用目标层数的编码器训练基准学生网络模型,获得已训练完成的Bert模型。
在一些实施例中,所述装置,包括:语音预处理单元,被配置为对多模态数据相关联的语音信息进行预处理,获得有效语音数据;模型训练单元,被配置为利用第一深度神经网络模型对图像数据进行模型训练,获得图像文本特征向量;语音识别单元,被配置为对有效语音数据进行语音识别处理,获得语音文本特征向量;文本预处理单元,被配置为对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
在一些实施例中,所述语音预处理单元还被配置为对音视频信息进行预处理,获得有效视频数据,所述装置还包括:图像帧提取单元,被配置为对有效视频数据进行帧提取处理,获得第二图像数据;图像过滤单元,被配置为对图像信息进行过滤处理,获得第一图像数据;图像融合单元,被配置为对第一图像数据以及第二图像数据进行图像合成处理,获得图像数据。
在一些实施例中,所述装置还包括:数据标注单元,被配置为对短文本数据进行数据标注处理,获得待质检数据;数据质检单元,被配置为在待质检数据满足质检要求的情况下,利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据;文本分类单元,被配置为利用Focal Loss损失函数对目标短文本特征数据进行短文本分类处理,获得目标短文本数据。
在一些实施例中,所述装置包括:处理器和存储有程序指令的存储器,所述处理器被配置为在运行所述程序指令时,执行如前述的用于多模态数据的文本分类方法。
在一些实施例中,所述制冷设备,包括:设备本体;如前述的用于多模态数据的文本分类装置,被安装于所述设备本体。
在一些实施例中,所述存储介质,存储有程序指令,所述程序指令在运行时,执行如前述的用于多模态数据的文本分类方法。
本公开实施例提供的用于多模态数据的文本分类方法、装置、制冷设备和存储介质,可以实现以下技术效果:
本公开实施例根据多模态数据获得文本信息、语音信息和图像信息。再根据语音信息和图像信息,获得语音文本特征向量和图像文本特征向量,以分别利用语音文本特征向量和图像文本特征向量体现出语音和图像各自的文本特征。最后,对文本信息、语音文本特征向量以及图像文本特征向量进行预处理获得短文本数据。如此,通过将同时携带有文本特征的语音文本特征向量和图像文本特征向量与文本信息进行预处理,本公开实施例能够从多模态数据中提取出不同数据来源的短文本特征,从而获得高质量的短文本,进而提升多模态数据短文本提取的有效性。
以上的总体描述和下文中的描述仅是示例性和解释性的,不用于限制本申请。
附图说明
一个或多个实施例通过与之对应的附图进行示例性说明,这些示例性说明和附图并不构成对实施例的限定,附图中具有相同参考数字标号的元件示为类似的元件,附图不构成比例限制,并且其中:
图1是本公开实施例提供的用于多模态数据的文本分类装置的示意图;
图2是本公开实施例提供的一个用于多模态数据的文本分类方法的示意图;
图3是本公开实施例提供的另一个用于多模态数据的文本分类方法的示意图;
图4是本公开实施例提供的另一个用于多模态数据的文本分类方法的示意图;
图5是本公开实施例提供的另一个用于多模态数据的文本分类方法的示意图;
图6是本公开实施例提供的另一个用于多模态数据的文本分类方法的示意图;
图7是本公开实施例的一个应用示意图;
图8是本公开实施例提供的一个用于多模态数据的文本分类装置的示意图;
图9是本公开实施例提供的另一个用于多模态数据的文本分类装置的示意图;
图10是本公开实施例提供的一个制冷设备的示意图。
附图标记:
10:语音预处理单元;20:图像过滤单元;
30:语音识别单元;40:图像帧提取单元;
50:图像融合单元;60:模型训练单元;
70:文本预处理单元;80:数据标注单元;
90:数据质检单元;100:文本分类单元。
具体实施方式
为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,一个或多个实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
本公开实施例的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开实施例的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含。
除非另有说明,术语“多个”表示两个或两个以上。
本公开实施例中,字符“/”表示前后对象是一种“或”的关系。例如,A/B表示:A或B。
术语“和/或”是一种描述对象的关联关系,表示可以存在三种关系。例如,A和/或B,表示:A或B,或,A和B这三种关系。
术语“对应”可以指的是一种关联关系或绑定关系,A与B相对应指的是A与B之间是一种关联关系或绑定关系。
结合图1和图8所示,本公开实施例提供一种用于多模态数据的文本分类装置,包括语音预处理单元10、模型训练单元60、语音识别单元30以及文本预处理单元70。语音预处理单元10,被配置为对多模态数据相关联的语音信息进行预处理,获得有效语音数据。模型训练单元60,被配置为利用第一深度神经网络模型对图像数据进行模型训练,获得图像文本特征向量。语音识别单元30,被配置为对有效语音数据进行语音识别处理,获得语音文本特征向量。文本预处理单元70,被配置为对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
可选地,语音预处理单元10还被配置为对音视频信息进行预处理,获得有效视频数据。用于多模态数据的文本分类系统还包括图像帧提取单元40、图像过滤单元20以及图像融合单元50。图像帧提取单元40,被配置为对有效视频数据进行帧提取处理,获得第二图像数据。图像过滤单元20,被配置为对图像信息进行过滤处理,获得第一图像数据。图像融合单元50,被配置为对第一图像数据以及第二图像数据进行图像合成处理,获得图像数据。
可选地,用于多模态数据的文本分类系统还包括数据标注单元80、数据质检单元90以及文本分类单元100。数据标注单元80,被配置为对短文本数据进行数据标注处理,获得待质检数据。数据质检单元90,被配置为在待质检数据满足质检要求的情况下,利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据。文本分类单元100,被配置为利用Focal Loss损失函数对目标短文本特征数据进行短文本分类处理,获得目标短文本数据。
基于上述用于多模态数据的文本分类系统,结合图2所示,本公开实施例提供一种用于多模态数据的文本分类方法,包括:
S01,处理器根据多模态数据,获得文本信息、语音信息以及图像信息。
该步骤中,多模态数据的类型包括文本信息、语音信息以及图像信息中的部分或者全部。处理器按照以下方式获得多模态数据:处理器通过人机交互模式获取多模态数据。人机交互模式包括但不限于蓝牙、wifi(Wireless Fidelity,无线保真)、Internet(因特网)、Web(World Wide Web,万维网)、麦克风阵列、拾音器以及软件。其中,软件包括APP(Application,应用程序)、信息采集工具以及触屏中的一个或者多个。
S02,处理器根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量。
S03,处理器对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
采用本公开实施例提供的用于多模态数据的文本分类方法,本公开实施例根据多模态数据获得文本信息、语音信息和图像信息。再根据语音信息和图像信息,获得语音文本特征向量和图像文本特征向量,以分别利用语音文本特征向量和图像文本特征向量体现出语音和图像各自的文本特征。最后,对文本信息、语音文本特征向量以及图像文本特征向量进行预处理获得短文本数据。如此,通过将同时携带有文本特征的语音文本特征向量和图像文本特征向量与文本信息进行预处理,能够从多模态数据中提取出不同数据来源的短文本特征,从而获得高质量的短文本,进而提升多模态数据短文本提取的有效性。
可选地,处理器按照以下方式从多模态数据中提取获得文本信息:处理器从多模态数据中获得初始文本数据。处理器对初始文本数据进行文本预处理,获得文本信息。其中,文本预处理包括分词、词形归一化以及删除停用词。
可选地,结合图3所示,处理器根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量,包括:
S11,处理器对语音信息进行预处理,获得有效语音数据以及有效视频数据。
该步骤中,处理器对语音信息进行预处理,获得有效语音数据以及有效视频数据,包括:
处理器对多模态数据依次进行数据清洗以及格式转换处理,提取有效声音数据。处理器对有效声音数据进行语音视频分离处理,获得语音预处理数据以及有效视频数据。处理器对语音预处理数据进行有效时长处理,获得有效语音数据。如此,通过进行数据清洗以及格式转换处理,能够去除多模态数据中的部分干扰并统一数据格式,获得有效声音数据。通过对有效声音数据进行语音视频分离处理可将语音预处理数据和有效视频数据进行分离,获得语音预处理数据。通过对语音预处理数据进行有效时长处理,能够有效处理或者消除空语音以及背景音等。其中,背景音包括机器运行阶段的机器声音。在实际应用中,处理器可通过数据处理工具或者数据处理脚本对多模态数据进行数据清洗、格式转换处理以及语音视频分离处理。
S12,处理器对有效语音数据进行语音识别处理,获得语音文本特征向量。
该步骤中,处理器对有效语音数据进行语音识别处理,获得语音文本特征向量,包括:处理器输入有效语音数据至第一编码器进行编码处理,获得语音编码数据。处理器利用第二深度神经网络模型对语音编码数据进行特征提取,获得语音文本特征向量。可选地,第一编码器为Wav2VEC编码器。第二深度神经网络配置有多头注意力机制。如此,通过采用配置多头注意力机制的第二深度神经网络,实现语音编码数据的向量空间的映射,并,提取出语音所涵盖的语义、语法和语境特征,并通过语音文本特征向量予以体现
S13,处理器根据有效视频数据以及图像信息,获得图像文本特征向量。
这样,本公开实施例通过对语音信息进行预处理,可从语音信息中提取出有效语音数据和有效视频数据,降低多模态数据中的干扰并实现数据格式的统一。此外,可有效地消除空语音和背景音。提升有效语音数据和有效视频数据识别的有效性。在此基础上,本公开实施例再对有效语音数据进行语音识别处理,获得语音文本特征向量。有利于从语音中充分挖掘语音文本特征。并根据有效视频数据以及图像信息,获得图像文本特征向量,有利于从图像中充分挖掘图像文本特征。
可选地,结合图4所示,处理器根据有效视频数据以及图像信息,获得图像文本特征向量,包括:
S21,处理器对有效视频数据进行帧提取处理,获得第二图像数据。
S22,处理器对图像信息进行过滤处理,获得第一图像数据。
S23,处理器对第一图像数据以及第二图像数据进行图像合成处理,获得图像数据。
S24,处理器输入图像数据至第一深度神经网络模型进行模型训练,获得图像文本特征向量。
这样,本公开实施例先通过对有效视频数据进行帧提取以从视频数据中提取出第二图像数据,并对图像信息进行过滤处理以从图像信息中提取出第一图像数据。再对第一图像数据和第二图像数据进行图像合成处理以将第一图像数据和第二图像进行有效的融合,生成图像数据。最后,将融合获得的图像数据输入至第一深度神经网络模型进行模型训练,有利于从图像数据中准确地识别语义特征。
可选地,第一深度神经网络模型包括迁移与蒸馏扩散深度融合模型。
其中,迁移与蒸馏扩散深度融合模型表示利用迁移学习,采用预先训练好的复杂模型的输出作为监督信号去训练一简单的网络模型。通常情况下,复杂模型被称为教师模型。简单的网络模型被称为学生模型。
这样,通过选用迁移与蒸馏扩散深度融合模型作为第一深度神经网络模型,可利用该模型的时空以及长距离依赖特性,将教师模型引入时间与空间连续的学生模型,更有利于从图像数据中挖掘出丰富的语义特征,进一步提升图像文本特征向量的有效性。
可选地,处理器对有效语音数据进行语音识别处理,获得语音文本特征向量,包括:
输入有效语音数据至编码器进行语音编码,获得语音编码数据。
输入语音编码数据至解码器进行语音解码,获得语音文本特征向量。
这样,本公开实施例通过输入有效语音数据至编码器进行语音编码,使得编码所获得的语音编码数据不会损失有用语音数据,有利于后续的语音文本特征的提取。
可选地,处理器输入有效语音数据至编码器进行语音编码,获得语音编码数据,包括:处理器利用Wav2VEC编码器对有效语音数据进行编码处理,获得语音编码数据。这样,通过采用Wav2VEC编码器对有效语音数据进行编码,能够增强冗余语音数据的消除效果,从而获得更为纯净的语音编码数据。
可选地,处理器输入语音编码数据至解码器进行语音解码,获得语音文本特征向量,包括:处理器输入语音编码信号至Transformer网络模型进行解码处理,获得语音文本特征向量。这样,利用Transformer网络模型对语音编码信号进行解码处理,能够进一步增强冗余语音数据的消除效果,从而充分提取出语音文本特征。
可选地,处理器对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据,包括:
处理器提取文本信息、语音文本特征向量以及图像文本特征向量各自的短文本信息。
处理器汇集文本信息、语音文本特征向量以及图像文本特征向量各自的短文本信息,获得短文本数据。
这样,本公开实施例通过从文本信息、语音文本特征向量和图像文本特征向量中分别提取出各自的短文本信息,再汇集上述不同数据来源的短文本信息。实现不同数据来源的短文本特征的有效提取,有利于获得高质量的短文本,从而提升多模态数据短文本提取的有效性。
结合图5所示,本公开实施例还提供一种用于多模态数据的文本分类方法,包括:
S31,处理器根据多模态数据,获得文本信息、语音信息以及图像信息。
S32,处理器根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量。
S33,处理器对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
S34,处理器对短文本数据进行数据标注处理,获得待质检数据。
该步骤中,处理器对短文本数据进行数据标注处理,获得待质检数据,包括:处理器对短文本数据标注槽位以及元数据属性标签,获得待质检数据。如此,为后续的数据质检提供依据。
S35,处理器在待质检数据满足质检要求的情况下,利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据。
该步骤中,处理器按照以下方式确定待之间数据满足质检要求:元数据属性标签以及食材属性标签正确且错误率小于或者等于2%。
S36,处理器利用Focal Loss损失函数对目标短文本特征进行短文本分类处理,获得目标短文本数据。
采用本公开实施例提供的用于多模态数据的文本分类方法,本公开实施例在获得短文本数据后,依次进行数据标注以及数据质检,并在满足质检要求时,利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据,从而有利于从待质检数据中提取出包含丰富短文本特征的短文本特征数据。由于短文本特征数据存在类型不均衡的问题,影响短文本分类处理的分类准确率。为此,本公开实施例利用Focal Loss损失函数对目标短文本特征进行短文本分类处理,以降低因短文本特征数据的类型不均衡而对短文本分类处理的准确率产生的影响,进一步保证短文本的质量。
可选地,处理器利用Focal Loss损失函数对目标短文本特征进行短文本分类处理,获得目标短文本数据,包括:处理器利用Focal Loss损失函数对目标短文本特征数据进行短文本分类处理,获得短文本分类数据。处理器对短文本分类数据进行数据增强处理,获得目标短文本数据。这样,通过对短文本分类数据进行数据增强处理,能够扩充有限的短文本分类数据集,提升Bert模型的训练效果,增强模型的泛化能力。
可选地,结合图6所示,处理器按照以下方式训练Bert模型:
S41,处理器以基准网络参数对初始Bert模型进行模型训练,获得模型训练后的网络参数以及排序信息。
S42,处理器根据模型训练后的网络参数以及排序信息,确定网络参数的目标数量。
该步骤中,处理器根据模型训练后的网络参数以及排序信息,确定网络参数的目标数量,包括:处理器根据排序信息,选取排序前α的网络参数的数量为目标数量。处理器计算N=α×N0。0.5≤α≤0.8。其中,N0表示网络参数的总数量。N表示网络参数的目标数量。α表示第一权重值。优选的,α=0.75。
S43,处理器利用目标数量的网络参数训练初始Bert模型,获得已训练完成的Bert模型。
这样,针对初始Bert模型进行网络参数的数量的截取,实现对初始Bert模型的微调,保留了模型权重高的网络层数与网络参数,能够减小模型对内存空间的占用。
可选地,处理器按照以下方式获得基准网络参数:
处理器从目标短文本数据中提取获得训练数据。
处理器利用训练数据对初始Bert模型进行模型训练,获得基准网络参数。
这样,有利于提升基准网络参数的准确性,提升Bert模型的训练效果。
可选地,处理器利用目标数量的网络参数训练初始Bert模型,获得已训练完成的Bert模型,包括:
处理器利用目标数量的网络参数训练初始Bert模型,获得基准Bert模型。处理器利用知识蒸馏技术将教师网络模型迁移至学生网络模型,获得基准学生网络模型。其中,基准Bert模型为教师网络模型。基准学生网络模型为已训练完成的Bert模型。如此,通过教师网络模型至学生网络模型的迁移,以利用大模型指导小模型进行模型训练,所获得的基准学生网络模型具有与教师网络模型相当的性能,同时,大幅降低网络参数的数量,实现模型的压缩与加速。
可选地,处理器利用知识蒸馏技术将教师网络模型迁移至学生网络模型,获得基准学生网络模型之后,还包括:处理器获得基准学生网络模型的所有编码器的层数以及各编码器的权重。处理器根据所有编码器的层数以及各编码器的权重,确定编码器的目标层数。处理器利用目标层数的编码器训练基准学生网络模型,获得已训练完成的Bert模型。
这样,经过裁剪后的Bert模型的编码器层数有所降低,能减小模型对内存空间的占用,提高Bert模型的模型训练的效率。
可选地,处理器根据所有编码器的层数以及各编码器的权重,确定编码器的目标层数,包括:处理器按照权重大小对所有编码器的权重进行降序排列。处理器从降序排列的权重中,选取排序前β位的编码器的层数为目标层数。处理器计算M=β×M0。0.5≤β≤0.8。其中,M0表示所有编码器的层数。M表示编码器的目标层数。β表示第二权重值。优选的,β=0.75。
在实际应用中,如图7所示,用于多模态数据的文本分类方法包括以下步骤:
S101:处理器采集多模态数据。
S102:处理器对多模态数据进行数据清洗,获得语音信息、文本信息和图像信息。
S103:处理器对语音信息进行进行预处理,获得有效语音数据以及有效视频数据。
S1041:处理器输入有效语音数据依次经Wav2编码器、Transformer解码器,获得语音文本特征向量。
S1042:处理器对有效视频数据进行图像帧提取,获得第二目标图像。
S1043:处理器对图像信息进行图像过滤,获得第一目标图像。
S1044:处理器对第二目标图像和第一目标图像进行图像合成,获得图像数据。
S1045:处理器输入图像数据至迁移与蒸馏扩散深度融合模型,进行向量空间的映射处理,以从图像数据中提取出来图像文本特征向量。
S105:处理器对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
S106:处理器对短文本数据进行数据标注处理,获得待质检数据。
S107:处理器判断待质检数据是否满足质检要求,若是,则执行S108,否则,执行S109。
S108:处理器将待质检数据作为文本分类结果进行输出。
S109:处理器利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据。
S110:处理器利用Focal Loss损失函数对目标短文本特征进行短文本分类处理,获得目标短文本数据,并将目标短文本数据作为文本分类结果进行输出。
结合图9所示,本公开实施例提供一种用于多模态数据的文本分类装置300,包括处理器(processor)400和存储器(memory)401。可选地,该装置还可以包括通信接口(Communication Interface)402和总线403。其中,处理器400、通信接口402、存储器401可以通过总线403完成相互间的通信。通信接口402可以用于信息传输。处理器400可以调用存储器401中的逻辑指令,以执行上述实施例的用于多模态数据的文本分类方法。
此外,上述的存储器401中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器401作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令/模块。处理器400通过运行存储在存储器401中的程序指令/模块,从而执行功能应用以及数据处理,即实现上述实施例中用于多模态数据的文本分类方法。
存储器401可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器401可以包括高速随机存取存储器,还可以包括非易失性存储器。
结合图10所示,本公开实施例提供了一种制冷设备600,包括:设备本体,以及上述的用于多模态数据的文本分类装置200(300)。用于多模态数据的文本分类装置200(300)被安装于设备本体。这里所表述的安装关系,并不仅限于在产品内部放置,还包括了与产品的其他元器件的安装连接,包括但不限于物理连接、电性连接或者信号传输连接等。本领域技术人员可以理解的是,用于多模态数据的文本分类装置200(300)可以适配于可行的产品主体,进而实现其他可行的实施例。
本公开实施例提供了一种计算机可读存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为执行上述用于多模态数据的文本分类方法。
上述的计算机可读存储介质可以是暂态计算机可读存储介质,也可以是非暂态计算机可读存储介质。
本公开实施例的技术方案可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括一个或多个指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开实施例所述方法的全部或部分步骤。而前述的存储介质可以是非暂态存储介质,包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
以上描述和附图充分地示出了本公开的实施例,以使本领域的技术人员能够实践它们。其他实施例可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施例的部分和特征可以被包括在或替换其他实施例的部分和特征。而且,本申请中使用的用词仅用于描述实施例并且不用于限制权利要求。如在实施例以及权利要求的描述中使用的,除非上下文清楚地表明,否则单数形式的“一个”(a)、“一个”(an)和“所述”(the)旨在同样包括复数形式。类似地,如在本申请中所使用的术语“和/或”是指包含一个或一个以上相关联的列出的任何以及所有可能的组合。另外,当用于本申请中时,术语“包括”(comprise)及其变型“包括”(comprises)和/或包括(comprising)等指陈述的特征、整体、步骤、操作、元素,和/或组件的存在,但不排除一个或一个以上其它特征、整体、步骤、操作、元素、组件和/或这些的分组的存在或添加。在没有更多限制的情况下,由语句“包括一个…”限定的要素,并不排除在包括所述要素的过程、方法或者设备中还存在另外的相同要素。本文中,每个实施例重点说明的可以是与其他实施例的不同之处,各个实施例之间相同相似部分可以互相参见。对于实施例公开的方法、产品等而言,如果其与实施例公开的方法部分相对应,那么相关之处可以参见方法部分的描述。
本领域技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,可以取决于技术方案的特定应用和设计约束条件。所述技术人员可以对每个特定的应用来使用不同方法以实现所描述的功能,但是这种实现不应认为超出本公开实施例的范围。所述技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本文所披露的实施例中,所揭露的方法、产品(包括但不限于装置、设备等),可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,可以仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例。另外,在本公开实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
附图中的流程图和框图显示了根据本公开实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。在附图中的流程图和框图所对应的描述中,不同的方框所对应的操作或步骤也可以以不同于描述中所披露的顺序发生,有时不同的操作或步骤之间不存在特定的顺序。例如,两个连续的操作或步骤实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这可以依所涉及的功能而定。框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
Claims (16)
1.一种用于多模态数据的文本分类方法,其特征在于,包括:
根据多模态数据,获得文本信息、语音信息以及图像信息;
根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量;
对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
2.根据权利要求1所述的方法,其特征在于,所述根据语音信息以及图像信息,获得语音文本特征向量以及图像文本特征向量,包括:
对语音信息进行预处理,获得有效语音数据以及有效视频数据;
对有效语音数据进行语音识别处理,获得语音文本特征向量;
根据有效视频数据以及图像信息,获得图像文本特征向量。
3.根据权利要求2所述的方法,其特征在于,所述根据有效视频数据以及图像信息,获得图像文本特征向量,包括:
对有效视频数据进行帧提取处理,获得第二图像数据;
对图像信息进行过滤处理,获得第一图像数据;
对第一图像数据以及第二图像数据进行图像合成处理,获得图像数据;
输入图像数据至第一深度神经网络模型进行模型训练,获得图像文本特征向量。
4.根据权利要求3所述的方法,其特征在于,所述第一深度神经网络模型包括迁移与蒸馏扩散深度融合模型。
5.根据权利要求2所述的方法,其特征在于,所述对有效语音数据进行语音识别处理,获得语音文本特征向量,包括:
输入有效语音数据至编码器进行语音编码,获得语音编码数据;
输入语音编码数据至解码器进行语音解码,获得语音文本特征向量。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据,包括:
提取文本信息、语音文本特征向量以及图像文本特征向量各自的短文本信息;
汇集文本信息、语音文本特征向量以及图像文本特征向量各自的短文本信息,获得短文本数据。
7.根据权利要求1至5任一项所述的方法,其特征在于,还包括:
对短文本数据进行数据标注处理,获得待质检数据;
在待质检数据满足质检要求的情况下,利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据;
利用FocalLoss损失函数对目标短文本特征数据进行短文本分类处理,获得目标短文本数据。
8.根据权利要求7所述的方法,其特征在于,按照以下方式训练Bert模型:
以基准网络参数对初始Bert模型进行模型训练,获得模型训练后的网络参数以及排序信息;
根据模型训练后的网络参数以及排序信息,确定网络参数的目标数量;
利用目标数量的网络参数训练初始Bert模型,获得已训练完成的Bert模型。
9.根据权利要求8所述的方法,其特征在于,所述利用目标数量的网络参数训练初始Bert模型,获得已训练完成的Bert模型,包括:
利用目标数量的网络参数训练初始Bert模型,获得基准Bert模型;
利用知识蒸馏技术将教师网络模型迁移至学生网络模型,获得基准学生网络模型。
10.根据权利要求9所述的方法,其特征在于,所述利用知识蒸馏技术将教师网络模型迁移至学生网络模型,获得基准学生网络模型之后,还包括:
获得基准学生网络模型的所有编码器的层数以及各编码器的权重;
根据所有编码器的层数以及各编码器的权重,确定编码器的目标层数;
利用目标层数的编码器训练基准学生网络模型,获得已训练完成的Bert模型。
11.一种用于多模态数据的文本分类装置,其特征在于,包括:
语音预处理单元,被配置为对多模态数据相关联的语音信息进行预处理,获得有效语音数据;
模型训练单元,被配置为利用第一深度神经网络模型对图像数据进行模型训练,获得图像文本特征向量;
语音识别单元,被配置为对有效语音数据进行语音识别处理,获得语音文本特征向量;
文本预处理单元,被配置为对文本信息、语音文本特征向量以及图像文本特征向量进行文本预处理,获得短文本数据。
12.根据权利要求11所述的装置,其特征在于,所述语音预处理单元还被配置为对音视频信息进行预处理,获得有效视频数据,所述装置还包括:
图像帧提取单元,被配置为对有效视频数据进行帧提取处理,获得第二图像数据;
图像过滤单元,被配置为对图像信息进行过滤处理,获得第一图像数据;
图像融合单元,被配置为对第一图像数据以及第二图像数据进行图像合成处理,获得图像数据。
13.根据权利要求11所述的装置,其特征在于,所述装置还包括:
数据标注单元,被配置为对短文本数据进行数据标注处理,获得待质检数据;
数据质检单元,被配置为在待质检数据满足质检要求的情况下,利用已训练完成的Bert模型对待质检数据进行文本特征提取,获得目标短文本特征数据;
文本分类单元,被配置为利用FocalLoss损失函数对目标短文本特征数据进行短文本分类处理,获得目标短文本数据。
14.一种用于多模态数据的文本分类装置,包括处理器和存储有程序指令的存储器,其特征在于,所述处理器被配置为在运行所述程序指令时,执行如权利要求1至10任一项所述的用于多模态数据的文本分类方法。
15.一种制冷设备,其特征在于,包括:
设备本体;
如权利要求11至14任一项所述的用于多模态数据文本分类装置,被安装于所述设备本体。
16.一种存储介质,存储有程序指令,其特征在于,所述程序指令在运行时,执行如权利要求1至10任一项所述的用于多模态数据的文本分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310694668.XA CN116910244A (zh) | 2023-06-12 | 2023-06-12 | 用于多模态数据的文本分类方法及装置、制冷设备、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310694668.XA CN116910244A (zh) | 2023-06-12 | 2023-06-12 | 用于多模态数据的文本分类方法及装置、制冷设备、介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116910244A true CN116910244A (zh) | 2023-10-20 |
Family
ID=88363754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310694668.XA Pending CN116910244A (zh) | 2023-06-12 | 2023-06-12 | 用于多模态数据的文本分类方法及装置、制冷设备、介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116910244A (zh) |
-
2023
- 2023-06-12 CN CN202310694668.XA patent/CN116910244A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Speech emotion recognition with dual-sequence LSTM architecture | |
CN113408385A (zh) | 一种音视频多模态情感分类方法及系统 | |
CN107220235A (zh) | 基于人工智能的语音识别纠错方法、装置及存储介质 | |
JP2022536189A (ja) | オリジナル音声の声紋を認識する方法、装置、設備および記憶媒体 | |
CN112668559A (zh) | 一种多模态信息融合的短视频情感判定装置及方法 | |
CN114333852A (zh) | 一种多说话人语音人声分离方法、终端设备及存储介质 | |
CN112768070A (zh) | 一种基于对话交流的精神健康评测方法和系统 | |
CN114598933B (zh) | 一种视频内容处理方法、系统、终端及存储介质 | |
CN111653270B (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
CN113053361A (zh) | 语音识别方法、模型训练方法、装置、设备及介质 | |
CN116758451A (zh) | 基于多尺度和全局交叉注意力的视听情感识别方法及系统 | |
KR100842310B1 (ko) | 동영상 데이터들을 서로 동일성이 있는 동영상데이터들끼리 클러스터링하는 방법 및 시스템 | |
CN116910244A (zh) | 用于多模态数据的文本分类方法及装置、制冷设备、介质 | |
CN114360491B (zh) | 语音合成方法、装置、电子设备及计算机可读存储介质 | |
CN115691539A (zh) | 基于视觉导引的两阶段语音分离方法及系统 | |
Stappen et al. | MuSe 2020--The First International Multimodal Sentiment Analysis in Real-life Media Challenge and Workshop | |
CN116956209A (zh) | 用于多模态数据的文本提取方法及装置、制冷设备、介质 | |
CN113450824A (zh) | 一种基于多尺度视频特征融合的语音唇读方法及系统 | |
Liu et al. | End-to-End Chinese Lip-Reading Recognition Based on Multi-modal Fusion | |
CN112653916A (zh) | 一种音视频同步优化的方法及设备 | |
KR20200097446A (ko) | 멀티모달 컨텐츠 제공 시스템 및 방법, 이를 위한 컨텐츠 인덱싱 장치 | |
CN117292437B (zh) | 一种唇语识别方法、装置、芯片及终端 | |
CN117315679A (zh) | 用于多模态数据的文本提示方法及装置、家电设备、介质 | |
CN116741196A (zh) | 用于语音降噪识别的方法及装置、制冷设备、存储介质 | |
CN111914777B (zh) | 一种跨模态识别机器人指令的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |