CN117576267A - 基于llm和ann的数字人生成方法及其在云视频的应用 - Google Patents
基于llm和ann的数字人生成方法及其在云视频的应用 Download PDFInfo
- Publication number
- CN117576267A CN117576267A CN202410057692.7A CN202410057692A CN117576267A CN 117576267 A CN117576267 A CN 117576267A CN 202410057692 A CN202410057692 A CN 202410057692A CN 117576267 A CN117576267 A CN 117576267A
- Authority
- CN
- China
- Prior art keywords
- feature
- data
- optimization
- optimized
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 119
- 238000005457 optimization Methods 0.000 claims abstract description 194
- 238000005516 engineering process Methods 0.000 claims abstract description 113
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 96
- 238000012545 processing Methods 0.000 claims abstract description 79
- 238000000926 separation method Methods 0.000 claims abstract description 65
- 238000000605 extraction Methods 0.000 claims abstract description 32
- 230000000750 progressive effect Effects 0.000 claims abstract description 18
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 238000003708 edge detection Methods 0.000 claims abstract description 12
- 238000013507 mapping Methods 0.000 claims description 120
- 238000013528 artificial neural network Methods 0.000 claims description 99
- 238000004458 analytical method Methods 0.000 claims description 68
- 230000004927 fusion Effects 0.000 claims description 61
- 230000003993 interaction Effects 0.000 claims description 43
- 230000014509 gene expression Effects 0.000 claims description 41
- 230000010354 integration Effects 0.000 claims description 37
- 230000008449 language Effects 0.000 claims description 29
- 238000013135 deep learning Methods 0.000 claims description 28
- 230000007246 mechanism Effects 0.000 claims description 28
- 238000011156 evaluation Methods 0.000 claims description 26
- 238000012544 monitoring process Methods 0.000 claims description 25
- 230000008451 emotion Effects 0.000 claims description 23
- 238000003909 pattern recognition Methods 0.000 claims description 22
- 230000000007 visual effect Effects 0.000 claims description 20
- 230000002068 genetic effect Effects 0.000 claims description 18
- 238000003058 natural language processing Methods 0.000 claims description 18
- 238000002922 simulated annealing Methods 0.000 claims description 16
- 230000009467 reduction Effects 0.000 claims description 15
- 238000012880 independent component analysis Methods 0.000 claims description 14
- 238000000513 principal component analysis Methods 0.000 claims description 14
- 125000004122 cyclic group Chemical group 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 13
- 238000005065 mining Methods 0.000 claims description 13
- 238000012098 association analyses Methods 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 9
- 238000010219 correlation analysis Methods 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000007670 refining Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 230000002596 correlated effect Effects 0.000 claims description 4
- 238000013144 data compression Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 4
- 238000005206 flow analysis Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 238000012482 interaction analysis Methods 0.000 claims description 4
- 230000005856 abnormality Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 3
- 238000013486 operation strategy Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 36
- 230000009471 action Effects 0.000 description 7
- 241000282412 Homo Species 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000010353 genetic engineering Methods 0.000 description 2
- 238000010921 in-depth analysis Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012097 association analysis method Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000002301 combined effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physiology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Acoustics & Sound (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及人工智能技术领域,具体为基于LLM和ANN的数字人生成方法及其在云视频的应用,包括以下步骤:基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测算法分析视频帧的特征,自动识别出关键帧,并筛除非关键帧,进行视频数据处理和关键帧的优化处理,生成关键帧数据集。本发明中,通过渐进式关键帧优化技术和基于子空间学习的特征分离算法能够更加高效和准确地从大规模或多源异构数据中提取关键信息,通过自动化特征提取与优化算法的应用,本发明在处理复杂环境下的人体姿态估计方面显著提高了准确性和运算效率,此外,还包括针对数据预处理的优化措施,更有效地处理各种噪声和异常值,提高生成数字人的质量。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及基于LLM和ANN的数字人生成方法及其在云视频的应用。
背景技术
人工智能技术领域致力于开发能够理解、解释和利用视觉数据的系统和算法。通过运用深度学习、机器学习、图像处理等技术,这一领域不断推进计算机对视觉信息的理解,包括物体识别、场景理解、人体姿态估计等。特别地,人工智能的子领域,如语音处理和自然语言理解,也在数字人生成中发挥着重要作用。
其中,基于LLM和ANN的数字人生成方法是一种结合了大型语言模型(LLM)和人工神经网络(ANN)的技术,旨在创建逼真的数字人物形象,目的是生成能够模仿真实人类语言和表情的数字角色,通过视频和音频数据采集、处理及同步,结合人体关键点信息和语音特征,数字人生成方法在提高数字角色的真实感和互动性方面取得了显著进展,它在娱乐、教育、客户服务等多个领域具有广泛的应用潜力,该方法通过以下手段达成:首先,利用摄像头和音频设备采集视频和音频信息,然后,使用OpenPose算法从视频中提取人体关键点信息,并对音频信息进行处理,提取语音特征,接着,通过数据同步和标注,确保视频和音频数据的一致性,在数据预处理阶段,进行数据清洗和标准化,紧接着,利用人工神经网络模型结合关键点信息和语音特征进行数字人物的生成,确保生成的数字人物在视觉和听觉上具有高度一致性和真实感,最后,通过联合训练技术优化模型,以实现更加精确和逼真的数字人生成。
虽然现有技术在数字人生成方面取得了显著的进展,特别是在增强数字角色的真实感和互动性方面,但仍面临如下不足,尽管可以从视频和音频数据中提取丰富的信息,但在数据处理和同步方面,现有方法难以有效处理大规模或多源异构数据的不一致性和同步误差,尽管利用了如OpenPose的先进算法从视频中提取人体关键点信息,但在复杂环境下的人体姿态估计方面,现有方法难以达到所需的准确性和运算效率,此外,虽然数据预处理阶段包括了数据清洗和标准化步骤,但这些过程难以充分处理所有类型的噪声和异常值,影响最终生成数字人的质量,在利用人工神经网络模型结合关键点信息和语音特征进行数字人物的生成方面,尽管能在一定程度上模拟人类的语言和表情,但在模拟复杂的人类表情和微妙的情感变化方面,现有方法难以实现高度的自然度和连贯性,最后,尽管通过联合训练技术优化模型以实现更精确和逼真的数字人生成,但现有方法在适应新环境和场景方面存在局限,且需要大量的训练数据和计算资源,使得在实时互动和快速适应新环境方面难以满足需求。
发明内容
本发明的目的是解决现有技术中存在的缺点,而提出的基于LLM和ANN的数字人生成方法及其在云视频的应用。
为了实现上述目的,本发明采用了如下技术方案:基于LLM和ANN的数字人生成方法,包括以下步骤:
S1:基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测算法分析视频帧的特征,自动识别出关键帧,并筛除非关键帧,进行视频数据处理和关键帧的优化处理,生成关键帧数据集;
S2:基于所述关键帧数据集,采用基于子空间学习的特征分离算法,通过独立成分分析进行统计独立性分析,分离混合信号源,再通过主成分分析进行数据维度调整并突出关键特征,生成特征分离数据集;
S3:基于所述特征分离数据集,采用自动化特征提取与优化算法,通过遗传算法和模拟退火技术,在多维参数空间中寻找匹配的解决方案同时避免局部匹配解决方案情况出现,进行参数调整和优化,生成优化特征参数集;
S4:基于所述优化特征参数集,采用基于流形学习的特征映射优化技术,通过非线性降维算法分析数据的内在几何结构,捕获特征间的相互作用,进行映射优化处理,生成映射优化后的特征集;
S5:基于所述特征分离数据集、优化特征参数集和映射优化后的特征集,采用异构数据集成与优化框架,通过深度学习融合技术和协同过滤算法,对多类数据特征进行匹配和关联分析,进行数据源间的同步和整合,生成多源特征融合数据集;
S6:基于所述多源特征融合数据集,采用数据驱动的实时优化策略,通过性能指标监控和异常检测方法,对模型性能的连续评估和分析,进行ANN模型的实时监控和调整,采用基于反射网络的性能调优机制,通过动态调整神经网络的层级和节点数量,根据处理需求优化网络结构,并进行性能调整,生成优化后的ANN模型;
S7:基于所述优化后的ANN模型,采用深度学习和自然语言处理技术,通过循环神经网络和注意力机制法,执行模式识别和语义关系挖掘,对所述多源特征融合数据集进行语义分析和提升,结合所述优化后的ANN模型进行数字人的初步生成,再结合LLM模型优化数字人在语言交互和情感表达方面的自然度和准确性,生成成型的数字人。
作为本发明的进一步方案,所述关键帧数据集包括动态变化多的帧、多视觉内容的帧、情节转折点的帧,所述特征分离数据集包括从原始数据中分离出的统计独立的特征、经过维度优化的关键特征,所述优化特征参数集包括特征权重、模型超参数、优化目标函数的参数,所述映射优化后的特征集包括经过几何结构优化的特征映射、数据内在相互作用突出的特征,所述多源特征融合数据集包括视频内容的视觉特征、音频数据的声音特征、文本数据的语义特征,所述优化后的ANN模型包括具有改进的网络层级结构、优化的节点数量、调整后的网络参数。
作为本发明的进一步方案,基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测算法分析视频帧的特征,自动识别出关键帧,并筛除非关键帧,进行视频数据处理和关键帧的优化处理,生成关键帧数据集的步骤具体为:
S101:基于捕获的视频数据,采用渐进式关键帧优化技术,通过深度学习驱动的帧间差异分析和动态内容评估,分析视频帧的特征,并辨别关键视觉元素,生成初步关键帧候选集;
S102:基于所述初步关键帧候选集,采用关键帧精选算法,结合视觉内容分析和帧重要性评估,识别并保留具有代表性和多信息的帧,生成优化后的关键帧集合;
S103:基于所述优化后的关键帧集合,采用帧间比对算法,通过图像相似度度量和内容重复性分析,剔除内容相似和重复的帧,优化关键帧的独特性和覆盖范围,生成简化后的关键帧集;
S104:基于所述简化后的关键帧集,采用数据压缩和格式优化技术,通过编码效率优化和存储格式标准化,对数据进行处理和格式调整,优化存储和处理效率,生成关键帧数据集。
作为本发明的进一步方案,基于所述关键帧数据集,采用基于子空间学习的特征分离算法,通过独立成分分析进行统计独立性分析,分离混合信号源,再通过主成分分析进行数据维度调整并突出关键特征,生成特征分离数据集的步骤具体为:
S201:基于所述关键帧数据集,采用基于子空间学习的特征分离算法,通过信号源分离和统计特征提取,进行独立成分分析,分离和提取关键信息,生成初步特征分离数据集;
S202:基于所述初步特征分离数据集,采用主成分分析,结合数据降维和关键特征提取策略,进行数据的维度优化,突出和保留关键信息,生成特征提取后的数据集;
S203:基于所述特征提取后的数据集,采用非线性特征映射技术,通过核方法和特征空间转换,优化特征的表达力和区分能力,生成第一特征映射数据集;
S204:基于所述第一特征映射数据集,采用统计独立性分析,通过信号独立度量和特征分布评估,验证数据集中具有独立性和信息量的特征,生成特征分离数据集。
作为本发明的进一步方案,基于所述特征分离数据集,采用自动化特征提取与优化算法,通过遗传算法和模拟退火技术,在多维参数空间中寻找匹配的解决方案同时避免局部匹配解决方案情况出现,进行参数调整和优化,生成优化特征参数集的步骤具体为:
S301:基于所述特征分离数据集,采用遗传算法,结合种群初始化、适应度评估和遗传操作策略,寻找初始的解决方案,生成初步调整的特征参数集;
S302:基于所述初步调整的特征参数集,采用模拟退火技术,通过参数空间搜索和能量最小化的方法,避免局部最优解,并分析全局配置,生成全局搜索后的特征参数集;
S303:基于所述全局搜索后的特征参数集,采用特征关联性分析,通过相关性度量和特征协同优化的策略,促进特征间的协同,并优化解决方案的效能,生成协同特征改进的参数集;
S304:基于所述协同特征改进的参数集,采用参数调整和优化,通过多参数调节和效能最大化策略,调校多项参数,优化最终特征的精确度和处理效率,生成优化特征参数集。
作为本发明的进一步方案,基于所述优化特征参数集,采用基于流形学习的特征映射优化技术,通过非线性降维算法分析数据的内在几何结构,捕获特征间的相互作用,进行映射优化处理,生成映射优化后的特征集的步骤具体为:
S401:基于所述优化特征参数集,采用流形学习技术,通过多层次映射和拓扑结构分析,分析数据的内在几何结构,捕获特征间的相互作用,生成初步映射优化特征集;
S402:基于所述初步映射优化特征集,采用多维尺度分析,通过空间距离保持和全局结构映射技术,保持数据中的原始距离关系,优化特征空间的全局结构,生成第二特征映射数据集;
S403:基于所述第二特征映射数据集,采用局部线性嵌入算法,通过邻域特征重构和局部空间线性化技术,重构局部邻域信息,优化特征映射的精确度和鲁棒性,生成细化的映射优化特征集;
S404:基于所述细化的映射优化特征集,采用等度量映射技术,通过数据点间测地线保持和低维空间映射技术,保持数据点间的测地线距离,优化映射空间的几何连续性,生成映射优化后的特征集。
作为本发明的进一步方案,基于所述特征分离数据集、优化特征参数集和映射优化后的特征集,采用异构数据集成与优化框架,通过深度学习融合技术和协同过滤算法,对多类数据特征进行匹配和关联分析,进行数据源间的同步和整合,生成多源特征融合数据集的步骤具体为:
S501:基于所述特征分离数据集、优化特征参数集和映射优化后的特征集,采用数据集成技术,通过数据对齐和异构融合,进行数据源的初步整合,生成初步综合特征数据集;
S502:基于所述初步综合特征数据集,采用数据融合算法,通过特征匹配和关联分析,优化数据特征间的关联和同步,生成关联后的综合特征数据集;
S503:基于所述关联后的综合特征数据集,采用模式识别技术,通过特征识别和数据融合,细化和整合特征数据,生成细化后的综合特征数据集;
S504:基于所述细化后的综合特征数据集,采用数据融合框架,通过综合性数据处理和优化策略,进行数据源间的同步和整合,生成多源特征融合数据集。
作为本发明的进一步方案,基于所述多源特征融合数据集,采用数据驱动的实时优化策略,通过性能指标监控和异常检测方法,对模型性能的连续评估和分析,进行ANN模型的实时监控和调整,采用基于反射网络的性能调优机制,通过动态调整神经网络的层级和节点数量,根据处理需求优化网络结构,并进行性能调整,生成优化后的ANN模型的步骤具体为:
S601:基于所述多源特征融合数据集,采用数据驱动的实时优化策略,通过基于时间序列的性能指标监控和动态数据流分析,进行ANN模型的连续性能评估和实时监控,生成初步监控的ANN模型;
S602:基于所述初步监控的ANN模型,采用机器学习驱动的异常检测方法,通过采用基于聚类和偏差分析的模式识别,对ANN模型的性能进行调整和异常响应,生成调整后的ANN模型;
S603:基于所述调整后的ANN模型,采用基于反射网络的性能调优机制,通过动态调整策略,包括自适应层级调整和节点重配置,优化网络结构和处理需求,生成结构改进的ANN模型;
S604:基于所述结构改进的ANN模型,采用性能调整策略,通过集成多参数评估和细粒度调优方法,进行ANN模型的综合性能优化和参数调整,生成优化后的ANN模型。
作为本发明的进一步方案,基于所述优化后的ANN模型,采用深度学习和自然语言处理技术,通过循环神经网络和注意力机制法,执行模式识别和语义关系挖掘,对所述多源特征融合数据集进行语义分析和提升,结合所述优化后的ANN模型进行数字人的初步生成,再结合LLM模型优化数字人在语言交互和情感表达方面的自然度和准确性,生成成型的数字人的步骤具体为:
S701:基于所述优化后的ANN模型,采用结合深度学习和自然语言处理的复合技术,通过循环神经网络和注意力机制的融合应用,进行综合特征数据集的模式识别和语义关系挖掘,生成语义分析提升的特征集;
S702:基于所述语义分析提升的特征集和优化后的ANN模型,采用模型融合和特征同步技术,进行数字人的初步构建和特征整合,生成初步生成的数字人模型;
S703:基于所述初步生成的数字人模型,采用自然语言处理技术,通过集成语言交互分析和情感表达优化,调整数字人的交互能力和表达自然度,生成交互优化的数字人模型;
S704:基于所述交互优化的数字人模型,结合LLM技术,通过综合语义理解和上下文关联分析方法,优化语言交互的自然度和情感表达的准确性,进行数字人模型的最后优化,生成成型的数字人。
基于LLM和ANN的数字人生成方法在云视频的应用,包括以下步骤:
步骤一:基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测和帧间差异分析,识别和提取多动态变化的关键帧,生成云视频关键帧集;
步骤二:基于所述云视频关键帧集,采用子空间学习的特征分离算法,通过独立成分分析分离混合信号源,并通过主成分分析对数据进行维度调整,突出关键特征,生成云视频特征映射集;
步骤三:基于所述云视频特征映射集,采用自动化特征提取与优化算法,结合遗传算法和模拟退火技术,在多维参数空间中寻找匹配的参数解,生成云视频特征参数优化集;
步骤四:基于所述云视频特征参数优化集,采用流形学习的特征映射优化技术,通过非线性降维算法分析数据内在几何结构,捕获特征间相互作用,生成云视频几何映射集;
步骤五:基于所述云视频特征映射集、云视频特征参数优化集和云视频几何映射集,采用异构数据集成框架,通过深度学习融合技术和协同过滤算法,整合多类数据特征,生成云视频综合特征集;
步骤六:基于所述云视频综合特征集,采用数据驱动的实时优化策略,通过性能监控和异常检测方法,对ANN模型进行调整,生成云视频优化ANN模型;
步骤七:基于所述云视频优化ANN模型,采用深度学习和自然语言处理技术,通过结合循环神经网络和注意力机制,进行模式识别和语义挖掘,生成云视频语义分析集;
步骤八:基于所述云视频语义分析集,采用LLM技术,通过语义理解增强和上下文关联分析,优化数字人的语言交互和情感表达,生成云视频数字人。
与现有技术相比,本发明的优点和积极效果在于:
本发明中,通过渐进式关键帧优化技术和基于子空间学习的特征分离算法能够更加高效和准确地从大规模或多源异构数据中提取关键信息,提升了数据处理和同步的效率和准确性,其次,通过自动化特征提取与优化算法的应用,本发明在处理复杂环境下的人体姿态估计方面显著提高了准确性和运算效率,此外,还包括针对数据预处理的优化措施,更有效地处理各种噪声和异常值,从而提高最终生成数字人的质量,在利用人工神经网络模型结合关键点信息和语音特征进行数字人物的生成方面,本发明通过结合基于流形学习的特征映射优化技术,使得数字人在模拟复杂的人类表情和情感变化方面表现得更加自然和连贯,最后,异构数据集成与优化框架和基于反射网络的性能调优机制的应用,提升了模型在新环境和场景下的适应性,降低了对大量训练数据和计算资源的需求,这些优化措施共同作用,显著提高了数字人生成的整体质量,增强了其在实时互动和适应新环境方面的能力。
附图说明
图1为本发明基于LLM和ANN的数字人生成方法的工作流程示意图;
图2为本发明步骤S1的细化流程图;
图3为本发明步骤S2的细化流程图;
图4为本发明步骤S3的细化流程图;
图5为本发明步骤S4的细化流程图;
图6为本发明步骤S5的细化流程图;
图7为本发明步骤S6的细化流程图;
图8为本发明步骤S7的细化流程图;
图9为本发明基于LLM和ANN的数字人生成方法在云视频的应用的工作流程示意图。
具体实施方式
为了使本发明的目的、技术方案及其优点更加清楚明白,以下结合附图及其实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
实施例一
请参阅图1,本发明提供一种技术方案:基于LLM和ANN的数字人生成方法,包括以下步骤:
S1:基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测算法分析视频帧的特征,自动识别出关键帧,并筛除非关键帧,进行视频数据处理和关键帧的优化处理,生成关键帧数据集;
S2:基于关键帧数据集,采用基于子空间学习的特征分离算法,通过独立成分分析进行统计独立性分析,分离混合信号源,再通过主成分分析进行数据维度调整并突出关键特征,生成特征分离数据集;
S3:基于特征分离数据集,采用自动化特征提取与优化算法,通过遗传算法和模拟退火技术,在多维参数空间中寻找匹配的解决方案同时避免局部匹配解决方案情况出现,进行参数调整和优化,生成优化特征参数集;
S4:基于优化特征参数集,采用基于流形学习的特征映射优化技术,通过非线性降维算法分析数据的内在几何结构,捕获特征间的相互作用,进行映射优化处理,生成映射优化后的特征集;
S5:基于特征分离数据集、优化特征参数集和映射优化后的特征集,采用异构数据集成与优化框架,通过深度学习融合技术和协同过滤算法,对多类数据特征进行匹配和关联分析,进行数据源间的同步和整合,生成多源特征融合数据集;
S6:基于多源特征融合数据集,采用数据驱动的实时优化策略,通过性能指标监控和异常检测方法,对模型性能的连续评估和分析,进行ANN模型的实时监控和调整,采用基于反射网络的性能调优机制,通过动态调整神经网络的层级和节点数量,根据处理需求优化网络结构,并进行性能调整,生成优化后的ANN模型;
S7:基于优化后的ANN模型,采用深度学习和自然语言处理技术,通过循环神经网络和注意力机制法,执行模式识别和语义关系挖掘,对多源特征融合数据集进行语义分析和提升,结合优化后的ANN模型进行数字人的初步生成,再结合LLM模型优化数字人在语言交互和情感表达方面的自然度和准确性,生成成型的数字人。
关键帧数据集包括动态变化多的帧、多视觉内容的帧、情节转折点的帧,特征分离数据集包括从原始数据中分离出的统计独立的特征、经过维度优化的关键特征,优化特征参数集包括特征权重、模型超参数、优化目标函数的参数,映射优化后的特征集包括经过几何结构优化的特征映射、数据内在相互作用突出的特征,多源特征融合数据集包括视频内容的视觉特征、音频数据的声音特征、文本数据的语义特征,优化后的ANN模型包括具有改进的网络层级结构、优化的节点数量、调整后的网络参数。
采用渐进式关键帧优化技术结合卷积神经网络的边缘检测算法,使得从视频数据中提取关键帧变得更加高效和精确。这种方法特别适用于处理动态变化多的帧、多视觉内容的帧和情节转折点的帧,大幅减少了数据处理的冗余,降低了存储和计算资源的需求。通过这种优化,生成的数字人能更好地反映视频内容的核心信息和情感表达,提高了数字人物的真实感和互动性。
基于子空间学习的特征分离算法,如独立成分分析和主成分分析,有效地从原始数据中分离出统计独立和关键的特征。这一步骤对于处理非线性关系和增强数字人在情感表达和语言自然度方面的准确性至关重要。这意味着数字人能更准确地模拟真实人类的情感反应和语言表达,从而在娱乐、教育和客户服务等应用中提供更加自然和吸引人的交互体验。
自动化特征提取与优化算法的应用,特别是结合遗传算法和模拟退火技术,允许系统在多维参数空间中高效地寻找最佳解决方案。这不仅避免了局部最优解的问题,而且通过优化特征权重、模型超参数和优化目标函数的参数,显著提升了数字人生成的整体质量和自然度。
基于流形学习的特征映射优化技术进一步增强了数字人的视觉表现。通过非线性降维算法分析数据的内在几何结构,该技术能够有效地捕获特征间的相互作用,生成具有几何结构优化特征映射的映射优化后的特征集。这为捕捉人类行为和表情的复杂特征,如微妙的肢体语言或面部表情的变化,提供了强大工具。
异构数据集成与优化框架确保了从不同数据源(如视频、音频、文本)提取的特征能够高效地整合和同步。这种整合不仅提升了数据处理的效率和质量,而且保证了数字人在视觉、听觉和语言上的一致性和高度真实感。在此基础上,利用数据驱动的实时优化策略和基于反射网络的性能调优机制,数字人生成过程中的ANN模型能够实时监控和调整,优化网络结构以适应不同的处理需求,从而提升了模型的性能和适应性。
请参阅图2,基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测算法分析视频帧的特征,自动识别出关键帧,并筛除非关键帧,进行视频数据处理和关键帧的优化处理,生成关键帧数据集的步骤具体为:
S101:基于捕获的视频数据,采用渐进式关键帧优化技术,通过深度学习驱动的帧间差异分析和动态内容评估,分析视频帧的特征,并辨别关键视觉元素,生成初步关键帧候选集;
S102:基于初步关键帧候选集,采用关键帧精选算法,结合视觉内容分析和帧重要性评估,识别并保留具有代表性和多信息的帧,生成优化后的关键帧集合;
S103:基于优化后的关键帧集合,采用帧间比对算法,通过图像相似度度量和内容重复性分析,剔除内容相似和重复的帧,优化关键帧的独特性和覆盖范围,生成简化后的关键帧集;
S104:基于简化后的关键帧集,采用数据压缩和格式优化技术,通过编码效率优化和存储格式标准化,对数据进行处理和格式调整,优化存储和处理效率,生成关键帧数据集。
在S101步骤中,基于捕获的视频数据,运用渐进式关键帧优化技术。这一技术通过深度学习驱动的帧间差异分析和动态内容评估,细致分析视频帧的特征。在这个过程中,卷积神经网络边缘检测算法被用来辨别关键视觉元素,如人物动作、表情变化等。通过这种算法,系统能够生成初步的关键帧候选集。这个集合包含了视频中变化最显著、信息最丰富的帧,为后续步骤提供了重要的原始材料。这种方法的应用提高了视频分析的效率和精准度,确保了关键信息的捕获。
在S102步骤中,在初步关键帧候选集的基础上,采用关键帧精选算法进行进一步处理。这一算法结合了视觉内容分析和帧重要性评估,旨在从候选集中识别并保留具有代表性和信息丰富的帧。在此过程中,系统综合考虑了帧内的视觉元素、动态变化和情节重要性,从而生成了优化后的关键帧集合。这一步骤的实施不仅提升了数据集的质量,而且有效降低了后续处理的复杂度和数据量,确保了数字人生成过程中关键信息的完整性和准确性。
在S103步骤中,对优化后的关键帧集合执行帧间比对算法。此算法通过图像相似度度量和内容重复性分析,剔除那些内容相似和重复的帧。这一操作的核心在于优化关键帧的独特性和覆盖范围,确保每一帧都能提供独特的视觉信息,避免了冗余数据的处理。这种方法的应用使得数据集更加精炼,有助于后续步骤更高效地处理和分析数据,同时也为提高数字人生成的真实感和互动性打下了坚实的基础。
在S104步骤中,针对简化后的关键帧集进行数据压缩和格式优化处理。通过编码效率优化和存储格式标准化,系统不仅提高了数据的存储和处理效率,而且保持了数据质量。这一步骤对于处理大规模视频数据尤为关键,它能显著降低存储空间的需求,同时加快后续处理步骤的速度。最终生成的关键帧数据集既紧凑又高效,为整个数字人生成流程的顺利进行奠定了基础。
请参阅图3,基于关键帧数据集,采用基于子空间学习的特征分离算法,通过独立成分分析进行统计独立性分析,分离混合信号源,再通过主成分分析进行数据维度调整并突出关键特征,生成特征分离数据集的步骤具体为:
S201:基于关键帧数据集,采用基于子空间学习的特征分离算法,通过信号源分离和统计特征提取,进行独立成分分析,分离和提取关键信息,生成初步特征分离数据集;
S202:基于初步特征分离数据集,采用主成分分析,结合数据降维和关键特征提取策略,进行数据的维度优化,突出和保留关键信息,生成特征提取后的数据集;
S203:基于特征提取后的数据集,采用非线性特征映射技术,通过核方法和特征空间转换,优化特征的表达力和区分能力,生成第一特征映射数据集;
S204:基于第一特征映射数据集,采用统计独立性分析,通过信号独立度量和特征分布评估,验证数据集中具有独立性和信息量的特征,生成特征分离数据集。
在S201步骤中,通过基于子空间学习的特征分离算法,系统针对关键帧数据集进行了深入处理。独立成分分析被用于执行信号源分离和统计特征提取。此过程的核心在于从复杂的视频数据中分离出关键的信息元素,例如人物的表情动作、场景变化等。通过这种分析,系统能够有效地识别和分离数据中的独立信号源,生成了初步特征分离数据集。这个数据集突出了视频中的关键信息,为后续的更深层次分析提供了坚实的基础。这种方法的应用增强了数据处理的精度和深度,为创建更加逼真和自然的数字人提供了关键的信息支持。
在S202步骤中,系统基于初步特征分离数据集,进一步执行主成分分析。这个过程结合了数据降维和关键特征提取策略,旨在优化数据的维度并突出关键信息。主成分分析在这里发挥着重要作用,它通过减少数据维度,同时保留数据中最重要的变化特征,有效地简化了数据结构,同时确保了关键信息的完整性。生成的特征提取后的数据集不仅更加紧凑,而且更加聚焦于影响数字人生成的核心特征。这一步骤的实施大幅提高了数据处理的效率和质量,为生成高质量的数字人打下了坚实基础。
在S203步骤中,系统采用非线性特征映射技术,对特征提取后的数据集进行进一步的处理。这个步骤中,核方法和特征空间转换技术被应用于优化特征的表达力和区分能力。非线性特征映射技术在处理复杂的人类行为和表情特征方面尤为有效,它能够揭示数据中隐藏的结构和模式,从而更加准确地捕捉人物的微妙表情和动作。生成的改进特征映射数据集在数字人生成过程中起到了关键作用,它不仅提高了特征表达的准确性,而且增强了数字人的自然度和真实感。
在S204步骤中,基于第一特征映射数据集,系统执行了统计独立性分析。这个步骤通过信号独立度量和特征分布评估来验证数据集中具有独立性和丰富信息量的特征。这种分析确保了最终特征分离数据集中的信息是独立且有意义的,对于提高数字人生成的质量至关重要。这个数据集为后续步骤提供了高质量的输入,确保了数字人在视觉和听觉上的高度一致性和真实感。通过这种细致的统计独立性分析,系统有效地提升了数字人生成过程中数据处理的准确性和深度。
请参阅图4,基于特征分离数据集,采用自动化特征提取与优化算法,通过遗传算法和模拟退火技术,在多维参数空间中寻找匹配的解决方案同时避免局部匹配解决方案情况出现,进行参数调整和优化,生成优化特征参数集的步骤具体为:
S301:基于特征分离数据集,采用遗传算法,结合种群初始化、适应度评估和遗传操作策略,寻找初始的解决方案,生成初步调整的特征参数集;
S302:基于初步调整的特征参数集,采用模拟退火技术,通过参数空间搜索和能量最小化的方法,避免局部最优解,并分析全局配置,生成全局搜索后的特征参数集;
S303:基于全局搜索后的特征参数集,采用特征关联性分析,通过相关性度量和特征协同优化的策略,促进特征间的协同,并优化解决方案的效能,生成协同特征改进的参数集;
S304:基于协同特征改进的参数集,采用参数调整和优化,通过多参数调节和效能最大化策略,调校多项参数,优化最终特征的精确度和处理效率,生成优化特征参数集。
在S301步骤中,通过遗传算法对特征分离数据集进行处理,寻求初始的解决方案。此过程涉及种群初始化、适应度评估以及遗传操作策略。种群初始化确定了搜索空间的初始点,适应度评估则根据预定的性能指标评价每个解的质量。遗传操作,包括交叉和变异,确保了解空间的全面分析。通过这些步骤,系统能够在高维参数空间中有效地识别并调整影响数字人生成质量的关键参数,生成初步调整的特征参数集。这一集合为后续的优化工作奠定了基础,确保了整个数字人生成流程的高效性和精准性。
在S302步骤中,模拟退火技术被应用于初步调整的特征参数集,进一步细化优化过程。模拟退火技术通过参数空间搜索和能量最小化的方法来避免局部最优解,分析更加全面的全局配置。这个过程模仿物理过程中的退火,通过逐渐降低系统温度,使得解空间中的搜寻逐渐专注于全局最优解。这种方法的运用大大提高了寻找最佳参数配置的可能性,生成了全局搜索后的特征参数集,为高质量数字人的生成提供了更加精细的参数配置。
在S303步骤中,特征关联性分析被用来进一步提升特征参数集的优化水平。这个步骤通过相关性度量和特征协同优化策略,促进了不同特征间的协同作用。此过程确保了特征集中各个参数之间的最佳协调,从而提升了解决方案的整体效能。生成的协同特征改进的参数集反映了特征间相互依赖和互补的关系,进一步提高了数字人在各个方面的表现,如动作的自然性、表情的真实感等。
在S304步骤中,对协同特征改进的参数集进行了最终的参数调整和优化。通过多参数调节和效能最大化策略,系统在保持高效性的同时,最大化了特征处理的精确度。这一步骤确保了所有相关参数都被细致调校,使得成型的数字人生成过程在视觉效果、动作自然度和表情真实感等方面达到了最佳状态。优化特征参数集的生成标志着特征处理工作的成功完成,为接下来的数字人生成步骤提供了强大的数据支持。
请参阅图5,基于优化特征参数集,采用基于流形学习的特征映射优化技术,通过非线性降维算法分析数据的内在几何结构,捕获特征间的相互作用,进行映射优化处理,生成映射优化后的特征集的步骤具体为:
S401:基于优化特征参数集,采用流形学习技术,通过多层次映射和拓扑结构分析,分析数据的内在几何结构,捕获特征间的相互作用,生成初步映射优化特征集;
S402:基于初步映射优化特征集,采用多维尺度分析,通过空间距离保持和全局结构映射技术,保持数据中的原始距离关系,优化特征空间的全局结构,生成第二特征映射数据集;
S403:基于第二特征映射数据集,采用局部线性嵌入算法,通过邻域特征重构和局部空间线性化技术,重构局部邻域信息,优化特征映射的精确度和鲁棒性,生成细化的映射优化特征集;
S404:基于细化的映射优化特征集,采用等度量映射技术,通过数据点间测地线保持和低维空间映射技术,保持数据点间的测地线距离,优化映射空间的几何连续性,生成映射优化后的特征集。
在S401步骤中,通过流形学习技术对优化特征参数集进行处理。这个过程中,多层次映射和拓扑结构分析被用于分析数据的内在几何结构。流形学习技术能够揭示在高维数据中隐藏的低维结构,这对于捕获特征间复杂的相互作用至关重要。通过这种技术,系统能够生成初步映射优化特征集,这个集合捕捉了数据的关键几何特征和内在联系,为后续的优化处理提供了基础。此步骤显著提高了数据特征的表达能力,为生成高质量的数字人提供了关键的结构信息。
在S402步骤中,系统采用多维尺度分析处理初步映射优化特征集。这一技术专注于保持数据中原始的空间距离关系,并优化特征空间的全局结构。通过这种方式,系统能够确保特征映射过程中数据的真实性和一致性,生成的改进映射优化特征集更加精准地反映了原始数据的结构和特点。这一步骤在确保数字人的真实性和一致性方面起着至关重要的作用,保障了数字人生成过程的精确度和可靠性。
在S403步骤中,系统利用局部线性嵌入算法进一步优化映射优化特征集。该算法通过重构局部邻域信息和局部空间线性化技术,增强了特征映射的精确度和鲁棒性。这种方法尤其有效于处理复杂和高度变化的特征,如人脸表情或身体动作。生成的再次优化映射优化特征集在数字人生成过程中提供了更加细致和精准的特征表示,为实现更加自然和逼真的数字人交互体验奠定了基础。
在S404步骤中,系统应用等度量映射技术对细化的映射优化特征集进行最终处理。这个步骤通过保持数据点间的测地线距离和低维空间映射技术,确保了映射空间的几何连续性。这种方法的应用意味着映射优化后的特征集能够更加真实地反映原始数据的几何和拓扑特性,为数字人生成提供了高度准确和连续的特征表示。此步骤的成功实施对于生成真实感强、细节丰富的数字人至关重要,确保了数字人在视觉和行为上的高度一致性和自然度。
请参阅图6,基于特征分离数据集、优化特征参数集和映射优化后的特征集,采用异构数据集成与优化框架,通过深度学习融合技术和协同过滤算法,对多类数据特征进行匹配和关联分析,进行数据源间的同步和整合,生成多源特征融合数据集的步骤具体为:
S501:基于特征分离数据集、优化特征参数集和映射优化后的特征集,采用数据集成技术,通过数据对齐和异构融合,进行数据源的初步整合,生成初步综合特征数据集;
S502:基于初步综合特征数据集,采用数据融合算法,通过特征匹配和关联分析,优化数据特征间的关联和同步,生成关联后的综合特征数据集;
S503:基于关联后的综合特征数据集,采用模式识别技术,通过特征识别和数据融合,细化和整合特征数据,生成细化后的综合特征数据集;
S504:基于细化后的综合特征数据集,采用数据融合框架,通过综合性数据处理和优化策略,进行数据源间的同步和整合,生成多源特征融合数据集。
在S501步骤中,通过数据集成技术,实现了特征分离数据集、优化特征参数集和映射优化后的特征集的初步整合。这个过程重点在于数据对齐和异构融合,确保不同来源的数据集能够有效结合,形成一个统一的初步综合特征数据集。数据对齐关注于不同数据集中相似特征的匹配,而异构融合则处理不同数据类型的整合问题。此步骤的成功执行为后续的深入分析和优化提供了一个坚实的基础,使得数据集成更加完善,确保了后续处理的高效性和准确性。
在S502步骤中,系统采用数据融合算法进一步处理初步综合特征数据集。此阶段通过特征匹配和关联分析来优化数据特征间的关联和同步。这一步骤的核心在于确保不同数据源中相似或相关的特征能够有效地结合,从而提升数据集的整体质量和一致性。生成的改进综合特征数据集在精确度和完整性方面都有显著提升,这对于后续数字人生成中的细节表现至关重要,保证了数字人的真实性和互动性。
在S503步骤中,系统运用模式识别技术对关联后的综合特征数据集进行处理。这个步骤集中于特征识别和数据融合,进一步细化和整合特征数据。模式识别技术在这里发挥着重要作用,它能够识别并强化数据中的关键模式,如人物的行为习惯或表情特征。生成的细化后的综合特征数据集在数字人生成过程中提供了更加精确和丰富的特征信息,确保了数字人在行为和表情上的自然度和逼真性。
在S504步骤中,通过数据融合框架,对细化后的综合特征数据集进行最终处理,实现数据源间的全面同步和整合。这一步骤通过综合性数据处理和优化策略,确保了不同数据源的信息能够在最终的综合特征数据集中高效、准确地结合。最终生成的综合特征数据集为数字人生成提供了一个全面、精确的特征基础,使得最终生成的数字人在多个方面都能展现出高度的真实性和自然度。此步骤的成功实施标志着数据集成和优化过程的完整性,为创建高质量的数字人打下了坚实的基础。
请参阅图7,基于多源特征融合数据集,采用数据驱动的实时优化策略,通过性能指标监控和异常检测方法,对模型性能的连续评估和分析,进行ANN模型的实时监控和调整,采用基于反射网络的性能调优机制,通过动态调整神经网络的层级和节点数量,根据处理需求优化网络结构,并进行性能调整,生成优化后的ANN模型的步骤具体为:
S601:基于多源特征融合数据集,采用数据驱动的实时优化策略,通过基于时间序列的性能指标监控和动态数据流分析,进行ANN模型的连续性能评估和实时监控,生成初步监控的ANN模型;
S602:基于初步监控的ANN模型,采用机器学习驱动的异常检测方法,通过采用基于聚类和偏差分析的模式识别,对ANN模型的性能进行调整和异常响应,生成调整后的ANN模型;
S603:基于调整后的ANN模型,采用基于反射网络的性能调优机制,通过动态调整策略,包括自适应层级调整和节点重配置,优化网络结构和处理需求,生成结构改进的ANN模型;
S604:基于结构改进的ANN模型,采用性能调整策略,通过集成多参数评估和细粒度调优方法,进行ANN模型的综合性能优化和参数调整,生成优化后的ANN模型。
在S601步骤中,系统采用数据驱动的实时优化策略对多源特征融合数据集进行处理,实现ANN模型的连续性能评估和实时监控。这一过程通过基于时间序列的性能指标监控和动态数据流分析来执行。在此阶段,系统不断监测并评估ANN模型的性能参数,如响应时间、处理效率和准确度等。这种持续的监控确保了模型能够在各种数据和场景下保持最佳性能。生成的初步监控的ANN模型为后续的调整和优化提供了详实的性能数据,这对于确保模型的稳定性和可靠性至关重要。
在S602步骤中,系统基于初步监控的ANN模型,应用机器学习驱动的异常检测方法进行深入分析和调整。这一过程采用基于聚类和偏差分析的模式识别技术,以识别并响应模型性能中的任何异常情况。通过这种方法,系统能够及时发现并纠正影响模型性能的问题,确保了ANN模型的稳定运行和高效处理能力。生成的调整后的ANN模型在处理复杂数据和任务时展现出更高的鲁棒性和可靠性。
在S603步骤中,基于调整后的ANN模型,系统运用基于反射网络的性能调优机制进一步优化模型结构。这个步骤涉及动态调整策略,包括自适应层级调整和节点重配置。这种机制允许ANN模型根据不同的数据特点和处理需求,灵活调整其网络结构。这样的动态调整不仅提高了处理效率,还增强了模型在处理多样化任务时的适应性。生成的结构改进的ANN模型能够更加高效地处理各类数据,展现出更好的性能和灵活性。
在S604步骤中,系统对结构改进的ANN模型执行综合性能优化和参数调整。这一过程集成了多参数评估和细粒度调优方法,旨在实现ANN模型性能的全面优化。通过这些调整,模型在各个方面都得到了显著提升,包括处理速度、准确性和响应能力。生成的优化后的ANN模型为数字人生成提供了一个高效且精确的计算平台,确保了数字人在各种场景下都能展现出高度的真实感和自然度。此步骤的成功实施为整个数字人生成流程提供了强大的技术支持。
请参阅图8,基于优化后的ANN模型,采用深度学习和自然语言处理技术,通过循环神经网络和注意力机制法,执行模式识别和语义关系挖掘,对多源特征融合数据集进行语义分析和提升,结合优化后的ANN模型进行数字人的初步生成,再结合LLM模型优化数字人在语言交互和情感表达方面的自然度和准确性,生成成型的数字人的步骤具体为:
S701:基于优化后的ANN模型,采用结合深度学习和自然语言处理的复合技术,通过循环神经网络和注意力机制的融合应用,进行综合特征数据集的模式识别和语义关系挖掘,生成语义分析提升的特征集;
S702:基于语义分析提升的特征集和优化后的ANN模型,采用模型融合和特征同步技术,进行数字人的初步构建和特征整合,生成初步生成的数字人模型;
S703:基于初步生成的数字人模型,采用自然语言处理技术,通过集成语言交互分析和情感表达优化,调整数字人的交互能力和表达自然度,生成交互优化的数字人模型;
S704:基于交互优化的数字人模型,结合LLM技术,通过综合语义理解和上下文关联分析方法,优化语言交互的自然度和情感表达的准确性,进行数字人模型的最后优化,生成成型的数字人。
在S701步骤中,通过结合深度学习和自然语言处理技术,特别是循环神经网络和注意力机制,对优化后的ANN模型和综合特征数据集进行深入分析。循环神经网络在处理时间序列数据,如语音或文本时表现出色,而注意力机制则能够提高模型对关键信息的聚焦能力。这一步骤的核心在于模式识别和语义关系挖掘,旨在从数据集中提取有意义的模式和深层语义联系。生成的语义分析提升的特征集包含了丰富的语义信息,为数字人的真实感和互动性提供了坚实的基础。这种方法的运用大大提高了数字人在理解和回应用户时的准确性和自然度。
在S702步骤中,采用模型融合和特征同步技术,结合语义分析提升的特征集和优化后的ANN模型,进行数字人的初步构建。这一步骤的关键在于整合多维度特征(包括视觉、听觉和语义信息)以及模型的优化输出,以实现数字人的初步生成。通过综合不同特征和数据源,生成的数字人模型在表情、动作和语言交互方面展现出更高的一致性和自然度。此阶段的成功实施是创建逼真数字人的关键一步,确保了数字人在用户交互中的逼真表现。
在S703步骤中,系统利用自然语言处理技术对初步生成的数字人模型进行优化。这一过程集中于集成语言交互分析和情感表达优化,旨在提升数字人的交互能力和表达自然度。此步骤特别关注于提高数字人的语言理解和表达能力,使其能够更自然、流畅地与用户交流,同时更准确地传达情感和意图。生成的交互优化的数字人模型在用户互动中能够展现出更加人性化的交流能力,提升了用户体验和满意度。
在S704步骤中,结合LLM技术,对交互优化的数字人模型进行最后的优化。此步骤通过综合语义理解和上下文关联分析方法,进一步提升了数字人在语言交互和情感表达方面的自然度和准确性。LLM技术的应用使得数字人能够更深入地理解用户的意图和情感,并在交流中展现出更加复杂和细腻的反应。这一步骤的成功实施为数字人提供了强大的语言处理能力,生成的最终数字人不仅在视觉上逼真,而且在语言交互上高度自然和智能,为用户提供了前所未有的交互体验。
请参阅图9,基于LLM和ANN的数字人生成方法在云视频的应用,包括以下步骤:
步骤一:基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测和帧间差异分析,识别和提取多动态变化的关键帧,生成云视频关键帧集;
步骤二:基于云视频关键帧集,采用子空间学习的特征分离算法,通过独立成分分析分离混合信号源,并通过主成分分析对数据进行维度调整,突出关键特征,生成云视频特征映射集;
步骤三:基于云视频特征映射集,采用自动化特征提取与优化算法,结合遗传算法和模拟退火技术,在多维参数空间中寻找匹配的参数解,生成云视频特征参数优化集;
步骤四:基于云视频特征参数优化集,采用流形学习的特征映射优化技术,通过非线性降维算法分析数据内在几何结构,捕获特征间相互作用,生成云视频几何映射集;
步骤五:基于云视频特征映射集、云视频特征参数优化集和云视频几何映射集,采用异构数据集成框架,通过深度学习融合技术和协同过滤算法,整合多类数据特征,生成云视频综合特征集;
步骤六:基于云视频综合特征集,采用数据驱动的实时优化策略,通过性能监控和异常检测方法,对ANN模型进行调整,生成云视频优化ANN模型;
步骤七:基于云视频优化ANN模型,采用深度学习和自然语言处理技术,通过结合循环神经网络和注意力机制,进行模式识别和语义挖掘,生成云视频语义分析集;
步骤八:基于云视频语义分析集,采用LLM技术,通过语义理解增强和上下文关联分析,优化数字人的语言交互和情感表达,生成云视频数字人。
通过渐进式关键帧优化技术,该方法能够从大量的云视频数据中高效提取出动态变化显著的关键帧,大幅提高了数据处理的效率和关键信息的捕获能力。这种优化不仅减少了存储和计算资源的需求,也为后续的特征提取和分析奠定了基础。
在特征分离和映射方面,该方法采用的子空间学习算法和非线性降维技术能够深入挖掘视频数据中的内在特征和几何结构,更好地捕获人物动作和表情的微妙变化。这不仅提升了特征提取的精度,也为生成更加自然和逼真的数字人提供了必要的信息支持。
自动化特征提取与优化算法的应用,特别是结合了遗传算法和模拟退火技术,极大地提高了参数优化过程的效率和准确性。这意味着数字人生成过程中的关键参数可以被更加精确地调整,从而提高生成数字人的质量和适应性。
通过异构数据集成框架的运用,该方法能够有效整合来自不同源的数据,如视觉、听觉和文本信息,为数字人的全面表达提供了丰富的数据基础。这种综合性数据处理不仅提高了数据的利用率,也使得生成的数字人能够在多方面更好地模拟真实人类。
在性能监控和优化方面,实时优化策略和性能调优机制的应用确保了ANN模型能够持续在最佳状态下运行,这对于维持数字人生成过程的连续性和稳定性至关重要。
深度学习和自然语言处理技术的结合,尤其是循环神经网络和注意力机制的应用,以及LLM技术的引入,极大地提升了数字人在语言交互和情感表达方面的自然度和准确性。这意味着生成的数字人不仅在视觉上逼真,而且能够与用户进行更加自然和富有情感的交流。
以上,仅是本发明的较佳实施例而已,并非对本发明作其他形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其他领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (10)
1.基于LLM和ANN的数字人生成方法,其特征在于,包括以下步骤:
基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测算法分析视频帧的特征,自动识别出关键帧,并筛除非关键帧,进行视频数据处理和关键帧的优化处理,生成关键帧数据集;
基于所述关键帧数据集,采用基于子空间学习的特征分离算法,通过独立成分分析进行统计独立性分析,分离混合信号源,再通过主成分分析进行数据维度调整并突出关键特征,生成特征分离数据集;
基于所述特征分离数据集,采用自动化特征提取与优化算法,通过遗传算法和模拟退火技术,在多维参数空间中寻找匹配的解决方案同时避免局部匹配解决方案情况出现,进行参数调整和优化,生成优化特征参数集;
基于所述优化特征参数集,采用基于流形学习的特征映射优化技术,通过非线性降维算法分析数据的内在几何结构,捕获特征间的相互作用,进行映射优化处理,生成映射优化后的特征集;
基于所述特征分离数据集、优化特征参数集和映射优化后的特征集,采用异构数据集成与优化框架,通过深度学习融合技术和协同过滤算法,对多类数据特征进行匹配和关联分析,进行数据源间的同步和整合,生成多源特征融合数据集;
基于所述多源特征融合数据集,采用数据驱动的实时优化策略,通过性能指标监控和异常检测方法,对模型性能的连续评估和分析,进行ANN模型的实时监控和调整,采用基于反射网络的性能调优机制,通过动态调整神经网络的层级和节点数量,根据处理需求优化网络结构,并进行性能调整,生成优化后的ANN模型;
基于所述优化后的ANN模型,采用深度学习和自然语言处理技术,通过循环神经网络和注意力机制法,执行模式识别和语义关系挖掘,对所述多源特征融合数据集进行语义分析和提升,结合所述优化后的ANN模型进行数字人的初步生成,再结合LLM模型优化数字人在语言交互和情感表达方面的自然度和准确性,生成成型的数字人。
2.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:所述关键帧数据集包括动态变化多的帧、多视觉内容的帧、情节转折点的帧,所述特征分离数据集包括从原始数据中分离出的统计独立的特征、经过维度优化的关键特征,所述优化特征参数集包括特征权重、模型超参数、优化目标函数的参数,所述映射优化后的特征集包括经过几何结构优化的特征映射、数据内在相互作用突出的特征,所述多源特征融合数据集包括视频内容的视觉特征、音频数据的声音特征、文本数据的语义特征,所述优化后的ANN模型包括具有改进的网络层级结构、优化的节点数量、调整后的网络参数。
3.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测算法分析视频帧的特征,自动识别出关键帧,并筛除非关键帧,进行视频数据处理和关键帧的优化处理,生成关键帧数据集的步骤具体为:
基于捕获的视频数据,采用渐进式关键帧优化技术,通过深度学习驱动的帧间差异分析和动态内容评估,分析视频帧的特征,并辨别关键视觉元素,生成初步关键帧候选集;
基于所述初步关键帧候选集,采用关键帧精选算法,结合视觉内容分析和帧重要性评估,识别并保留具有代表性和多信息的帧,生成优化后的关键帧集合;
基于所述优化后的关键帧集合,采用帧间比对算法,通过图像相似度度量和内容重复性分析,剔除内容相似和重复的帧,优化关键帧的独特性和覆盖范围,生成简化后的关键帧集;
基于所述简化后的关键帧集,采用数据压缩和格式优化技术,通过编码效率优化和存储格式标准化,对数据进行处理和格式调整,优化存储和处理效率,生成关键帧数据集。
4.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:基于所述关键帧数据集,采用基于子空间学习的特征分离算法,通过独立成分分析进行统计独立性分析,分离混合信号源,再通过主成分分析进行数据维度调整并突出关键特征,生成特征分离数据集的步骤具体为:
基于所述关键帧数据集,采用基于子空间学习的特征分离算法,通过信号源分离和统计特征提取,进行独立成分分析,分离和提取关键信息,生成初步特征分离数据集;
基于所述初步特征分离数据集,采用主成分分析,结合数据降维和关键特征提取策略,进行数据的维度优化,突出和保留关键信息,生成特征提取后的数据集;
基于所述特征提取后的数据集,采用非线性特征映射技术,通过核方法和特征空间转换,优化特征的表达力和区分能力,生成第一特征映射数据集;
基于所述第一特征映射数据集,采用统计独立性分析,通过信号独立度量和特征分布评估,验证数据集中具有独立性和信息量的特征,生成特征分离数据集。
5.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:基于所述特征分离数据集,采用自动化特征提取与优化算法,通过遗传算法和模拟退火技术,在多维参数空间中寻找匹配的解决方案同时避免局部匹配解决方案情况出现,进行参数调整和优化,生成优化特征参数集的步骤具体为:
基于所述特征分离数据集,采用遗传算法,结合种群初始化、适应度评估和遗传操作策略,寻找初始的解决方案,生成初步调整的特征参数集;
基于所述初步调整的特征参数集,采用模拟退火技术,通过参数空间搜索和能量最小化的方法,避免局部最优解,并分析全局配置,生成全局搜索后的特征参数集;
基于所述全局搜索后的特征参数集,采用特征关联性分析,通过相关性度量和特征协同优化的策略,促进特征间的协同,并优化解决方案的效能,生成协同特征改进的参数集;
基于所述协同特征改进的参数集,采用参数调整和优化,通过多参数调节和效能最大化策略,调校多项参数,优化最终特征的精确度和处理效率,生成优化特征参数集。
6.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:基于所述优化特征参数集,采用基于流形学习的特征映射优化技术,通过非线性降维算法分析数据的内在几何结构,捕获特征间的相互作用,进行映射优化处理,生成映射优化后的特征集的步骤具体为:
基于所述优化特征参数集,采用流形学习技术,通过多层次映射和拓扑结构分析,分析数据的内在几何结构,捕获特征间的相互作用,生成初步映射优化特征集;
基于所述初步映射优化特征集,采用多维尺度分析,通过空间距离保持和全局结构映射技术,保持数据中的原始距离关系,优化特征空间的全局结构,生成第二特征映射数据集;
基于所述第二特征映射数据集,采用局部线性嵌入算法,通过邻域特征重构和局部空间线性化技术,重构局部邻域信息,优化特征映射的精确度和鲁棒性,生成细化的映射优化特征集;
基于所述细化的映射优化特征集,采用等度量映射技术,通过数据点间测地线保持和低维空间映射技术,保持数据点间的测地线距离,优化映射空间的几何连续性,生成映射优化后的特征集。
7.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:基于所述特征分离数据集、优化特征参数集和映射优化后的特征集,采用异构数据集成与优化框架,通过深度学习融合技术和协同过滤算法,对多类数据特征进行匹配和关联分析,进行数据源间的同步和整合,生成多源特征融合数据集的步骤具体为:
基于所述特征分离数据集、优化特征参数集和映射优化后的特征集,采用数据集成技术,通过数据对齐和异构融合,进行数据源的初步整合,生成初步综合特征数据集;
基于所述初步综合特征数据集,采用数据融合算法,通过特征匹配和关联分析,优化数据特征间的关联和同步,生成关联后的综合特征数据集;
基于所述关联后的综合特征数据集,采用模式识别技术,通过特征识别和数据融合,细化和整合特征数据,生成细化后的综合特征数据集;
基于所述细化后的综合特征数据集,采用数据融合框架,通过综合性数据处理和优化策略,进行数据源间的同步和整合,生成多源特征融合数据集。
8.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:基于所述多源特征融合数据集,采用数据驱动的实时优化策略,通过性能指标监控和异常检测方法,对模型性能的连续评估和分析,进行ANN模型的实时监控和调整,采用基于反射网络的性能调优机制,通过动态调整神经网络的层级和节点数量,根据处理需求优化网络结构,并进行性能调整,生成优化后的ANN模型的步骤具体为:
基于所述多源特征融合数据集,采用数据驱动的实时优化策略,通过基于时间序列的性能指标监控和动态数据流分析,进行ANN模型的连续性能评估和实时监控,生成初步监控的ANN模型;
基于所述初步监控的ANN模型,采用机器学习驱动的异常检测方法,通过采用基于聚类和偏差分析的模式识别,对ANN模型的性能进行调整和异常响应,生成调整后的ANN模型;
基于所述调整后的ANN模型,采用基于反射网络的性能调优机制,通过动态调整策略,包括自适应层级调整和节点重配置,优化网络结构和处理需求,生成结构改进的ANN模型;
基于所述结构改进的ANN模型,采用性能调整策略,通过集成多参数评估和细粒度调优方法,进行ANN模型的综合性能优化和参数调整,生成优化后的ANN模型。
9.根据权利要求1所述的基于LLM和ANN的数字人生成方法,其特征在于:基于所述优化后的ANN模型,采用深度学习和自然语言处理技术,通过循环神经网络和注意力机制法,执行模式识别和语义关系挖掘,对所述多源特征融合数据集进行语义分析和提升,结合所述优化后的ANN模型进行数字人的初步生成,再结合LLM模型优化数字人在语言交互和情感表达方面的自然度和准确性,生成成型的数字人的步骤具体为:
基于所述优化后的ANN模型,采用结合深度学习和自然语言处理的复合技术,通过循环神经网络和注意力机制的融合应用,进行综合特征数据集的模式识别和语义关系挖掘,生成语义分析提升的特征集;
基于所述语义分析提升的特征集和优化后的ANN模型,采用模型融合和特征同步技术,进行数字人的初步构建和特征整合,生成初步生成的数字人模型;
基于所述初步生成的数字人模型,采用自然语言处理技术,通过集成语言交互分析和情感表达优化,调整数字人的交互能力和表达自然度,生成交互优化的数字人模型;
基于所述交互优化的数字人模型,结合LLM技术,通过综合语义理解和上下文关联分析方法,优化语言交互的自然度和情感表达的准确性,进行数字人模型的最后优化,生成成型的数字人。
10.基于LLM和ANN的数字人生成方法在云视频的应用,其特征在于,包括以下步骤:
基于捕获的视频数据,采用渐进式关键帧优化技术,通过卷积神经网络的边缘检测和帧间差异分析,识别和提取多动态变化的关键帧,生成云视频关键帧集;
基于所述云视频关键帧集,采用子空间学习的特征分离算法,通过独立成分分析分离混合信号源,并通过主成分分析对数据进行维度调整,突出关键特征,生成云视频特征映射集;
基于所述云视频特征映射集,采用自动化特征提取与优化算法,结合遗传算法和模拟退火技术,在多维参数空间中寻找匹配的参数解,生成云视频特征参数优化集;
基于所述云视频特征参数优化集,采用流形学习的特征映射优化技术,通过非线性降维算法分析数据内在几何结构,捕获特征间相互作用,生成云视频几何映射集;
基于所述云视频特征映射集、云视频特征参数优化集和云视频几何映射集,采用异构数据集成框架,通过深度学习融合技术和协同过滤算法,整合多类数据特征,生成云视频综合特征集;
基于所述云视频综合特征集,采用数据驱动的实时优化策略,通过性能监控和异常检测方法,对ANN模型进行调整,生成云视频优化ANN模型;
基于所述云视频优化ANN模型,采用深度学习和自然语言处理技术,通过结合循环神经网络和注意力机制,进行模式识别和语义挖掘,生成云视频语义分析集;
基于所述云视频语义分析集,采用LLM技术,通过语义理解增强和上下文关联分析,优化数字人的语言交互和情感表达,生成云视频数字人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410057692.7A CN117576267B (zh) | 2024-01-16 | 2024-01-16 | 基于llm和ann的数字人生成方法及其在云视频的应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410057692.7A CN117576267B (zh) | 2024-01-16 | 2024-01-16 | 基于llm和ann的数字人生成方法及其在云视频的应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117576267A true CN117576267A (zh) | 2024-02-20 |
CN117576267B CN117576267B (zh) | 2024-04-12 |
Family
ID=89895904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410057692.7A Active CN117576267B (zh) | 2024-01-16 | 2024-01-16 | 基于llm和ann的数字人生成方法及其在云视频的应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117576267B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118093836A (zh) * | 2024-04-23 | 2024-05-28 | 湘江实验室 | 一种基于大语言模型的在线问答提示词优化生成方法 |
CN118312608A (zh) * | 2024-06-11 | 2024-07-09 | 山东齐鲁壹点传媒有限公司 | 一种基于ann和llm的广告语义检索模型的建立方法 |
CN118331073A (zh) * | 2024-06-13 | 2024-07-12 | 无锡佳能工程机械有限公司 | 基于沥青加热设备的智能电气控制系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114863533A (zh) * | 2022-05-18 | 2022-08-05 | 京东科技控股股份有限公司 | 数字人生成方法和装置及存储介质 |
CN115797606A (zh) * | 2023-02-07 | 2023-03-14 | 合肥孪生宇宙科技有限公司 | 基于深度学习的3d虚拟数字人交互动作生成方法及系统 |
CN117376502A (zh) * | 2023-12-07 | 2024-01-09 | 翔飞(天津)智能科技有限公司 | 一种基于ai技术的视频制作系统 |
-
2024
- 2024-01-16 CN CN202410057692.7A patent/CN117576267B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114863533A (zh) * | 2022-05-18 | 2022-08-05 | 京东科技控股股份有限公司 | 数字人生成方法和装置及存储介质 |
WO2023221684A1 (zh) * | 2022-05-18 | 2023-11-23 | 京东科技控股股份有限公司 | 数字人生成方法和装置及存储介质 |
CN115797606A (zh) * | 2023-02-07 | 2023-03-14 | 合肥孪生宇宙科技有限公司 | 基于深度学习的3d虚拟数字人交互动作生成方法及系统 |
CN117376502A (zh) * | 2023-12-07 | 2024-01-09 | 翔飞(天津)智能科技有限公司 | 一种基于ai技术的视频制作系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118093836A (zh) * | 2024-04-23 | 2024-05-28 | 湘江实验室 | 一种基于大语言模型的在线问答提示词优化生成方法 |
CN118312608A (zh) * | 2024-06-11 | 2024-07-09 | 山东齐鲁壹点传媒有限公司 | 一种基于ann和llm的广告语义检索模型的建立方法 |
CN118331073A (zh) * | 2024-06-13 | 2024-07-12 | 无锡佳能工程机械有限公司 | 基于沥青加热设备的智能电气控制系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117576267B (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111341341B (zh) | 音频分离网络的训练方法、音频分离方法、装置及介质 | |
CN117576267B (zh) | 基于llm和ann的数字人生成方法及其在云视频的应用 | |
CN112541529A (zh) | 表情与姿态融合的双模态教学评价方法、设备及存储介质 | |
CN112307975B (zh) | 融合语音与微表情的多模态情感识别方法及系统 | |
CN112949281A (zh) | 一种图神经网络的增量社交事件检测方法 | |
CN111046148A (zh) | 智能交互系统及智能客服机器人 | |
CN112580362A (zh) | 一种基于文本语义监督的视觉行为识别方法、系统及计算机可读介质 | |
CN115953521B (zh) | 远程数字人渲染方法、装置及系统 | |
CN115064020A (zh) | 基于数字孪生技术的智慧教学方法、系统及存储介质 | |
CN116758451A (zh) | 基于多尺度和全局交叉注意力的视听情感识别方法及系统 | |
CN117573904A (zh) | 基于识别分析的多媒体教学资源知识图谱生成方法及系统 | |
CN117880566B (zh) | 一种基于人工智能的数字人直播交互方法及系统 | |
CN113657272B (zh) | 一种基于缺失数据补全的微视频分类方法及系统 | |
CN118132820A (zh) | 一种多模态视频内容分析方法及分析系统 | |
CN117292031A (zh) | 一种3d虚拟数字人唇形动画生成模型训练方法及装置 | |
Chen et al. | Self-supervised video representation learning by serial restoration with elastic complexity | |
CN114579869B (zh) | 模型训练方法以及相关产品 | |
CN116167015A (zh) | 一种基于联合交叉注意力机制的维度情感分析方法 | |
CN112966084B (zh) | 基于知识图谱的答案查询方法、装置、设备及存储介质 | |
Cho | Designing smart cities: Security issues | |
CN114581829A (zh) | 基于强化学习的连续手语识别方法、电子设备和存储介质 | |
CN116821361B (zh) | 一种面向人机交互的社交知识图谱推理更新方法及装置 | |
CN118093936B (zh) | 视频标签处理方法、装置、计算机设备和存储介质 | |
CN118260380B (zh) | 多媒体情景互动数据的处理方法及系统 | |
CN118627537A (zh) | 一种基于人工智能生成拟人模型的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |