CN117558055B - 一种基于多模态的肌肤作业控制方法 - Google Patents

一种基于多模态的肌肤作业控制方法 Download PDF

Info

Publication number
CN117558055B
CN117558055B CN202311845675.1A CN202311845675A CN117558055B CN 117558055 B CN117558055 B CN 117558055B CN 202311845675 A CN202311845675 A CN 202311845675A CN 117558055 B CN117558055 B CN 117558055B
Authority
CN
China
Prior art keywords
historical
voice information
model
deep learning
laser wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311845675.1A
Other languages
English (en)
Other versions
CN117558055A (zh
Inventor
王永江
徐合邦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Zhongke Medical Cosmetic Instrument Co ltd
Original Assignee
Guangzhou Zhongke Medical Cosmetic Instrument Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Zhongke Medical Cosmetic Instrument Co ltd filed Critical Guangzhou Zhongke Medical Cosmetic Instrument Co ltd
Priority to CN202311845675.1A priority Critical patent/CN117558055B/zh
Publication of CN117558055A publication Critical patent/CN117558055A/zh
Application granted granted Critical
Publication of CN117558055B publication Critical patent/CN117558055B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本申请涉及图像处理领域,尤其涉及一种基于多模态的肌肤作业控制方法,方法包括步骤:统计带有标签的激光波长数据及采集的历史面部图像、历史语音信息生成肌肤作业数据集;提取历史语音信息的语音特征;构建深度学习模型并根据深度学习模型将历史面部图像划分为多个区域,提取区域中历史面部图像的图像特征,将图像特征与语音特征融合生成融合特征;根据肌肤作业数据集训练深度学习模型获得最优模型;响应于实时面部图像及实时语音信息被获取,根据最优模型控制每个区域的激光波长。本申请结合语音和图像数据,根据人体肌肤的区域设置最佳激光波长,提高肌肤作业的效果及智能化。

Description

一种基于多模态的肌肤作业控制方法
技术领域
本申请涉及图像处理领域,尤其涉及一种基于多模态的肌肤作业控制方法。
背景技术
肌肤作业是指针对肌肤护理过程中所涉及的各种任务和问题,采用不同的方法和策略进行解决的过程。肌肤作业的目的是为了维护和改善肌肤状况,以达到保湿、美白、抗衰老及修复等功效。
多模态是指通过不同的传感器或数据来源获得的来自多个模式(例如文本、图像、音频、视频等)的信息。这种综合利用不同模态信息的方法,可以提供更丰富、更全面的数据信息,帮助进行更准确、更复杂的分析、处理与应用。多模态在肌肤作业的应用中,多模态数据可以包括肌肤图像、声音检测、化学成分数据等,结合这些不同类型的数据可以提供更全面的肌肤分析与护理方案。
现有技术中,专利公开号为CN113887332A的专利申请文件公开了一种基于多模态融合的肌肤作业安全监测方法,该方法通过图像数据、肌肤操作仪器输出的力数据及语音数据对肌肤作业过程的安全进行监测。
然而人体肌肤有复杂的生物力学特性,当肌肤作业的作业装置端以一定姿态施加某一波长的激光在肌肤表面运动时,不同波长的激光对肌肤的效果不同,需要考虑人体肌肤不同位置的特征,给不同位置设置最佳的激光波长进行肌肤作业,现有技术未能对不同肌肤作业区域进行智能的激光波长控制,智能化较低。
发明内容
为了在肌肤作业中,根据人体肌肤不同位置的特征,给不同位置设置最佳激光波长,本申请提供一种基于多模态的肌肤作业控制方法。
本申请提供一种基于多模态的肌肤作业控制方法,包括步骤:对激光波长数据设置标签,激光波长数据中的每个激光波长对应至少一个波长功能;统计带有标签的激光波长数据及采集的历史面部图像、历史语音信息生成肌肤作业数据集;根据预设的神经网络模型,提取历史语音信息的语音特征;构建深度学习模型,根据深度学习模型将历史面部图像划分为多个区域,深度学习模型中设置有编码层及全连接层,编码层提取历史面部图像的图像特征并将图像特征与语音特征融合生成融合特征,融合特征输入全连接层,全连接层输出每个区域的激光波长数据及标签;根据肌肤作业数据集训练所述深度学习模型获得最优模型,损失函数为:,其中,/>表示损失函数,/>表示/>区域的标签值,/>表示/>区域的预测值,/>表示/>区域的预测值,/>表示区域的总数,/>表示预设的权重系数,/>表示/>区域的融合特征,/>表示/>区域的融合特征,/>表示预设的常数;响应于实时面部图像及实时语音信息被获取,根据最优模型控制每个区域的激光波长。
可选的,所述历史面部图像包括历史热力图和历史彩色图。
可选的,根据肌肤作业数据集训练所述深度学习模型获得最优模型,包括步骤:在深度学习模型中输入划分区域后的历史热力图、历史彩色图及语音信息,输出每个区域的激光波长数据及标签;计算损失函数,根据损失函数使用梯度下降算法更新模型参数,完成一次迭代训练;进行多次迭代训练,根据损失函数的梯度反向传播更新深度学习模型的参数;响应于迭代次数大于预设的训练次数阈值或损失函数值小于预设的损失函数阈值时,完成训练,生成最优模型。
可选的,所述神经网络模型为BERT模型或LSTM模型。
本申请具有以下技术效果:
1、根据历史数据对采集到的用户面部图像进行区域划分,结合用户在肌肤作业过程中的语音反馈以及不同的激光波长,构建深度学习模型,对用户面部图像使用编码层提取图像特征,提取用户语音反馈中的语音特征,将图像特征与语音特征融合为融合特征,融合特征经过全连接层后,输出不同区域的激光波长,训练深度学习模型,模型训练完毕后生成最优模型,使用最优模型对肌肤作业过程进行激光波长控制,在不同的区域使用最佳波长的激光进行肌肤作业。
2、考虑人体肌肤不同位置的特征,给不同区域设置最佳的激光波长进行肌肤作业,提高用户生理和心理感知的舒适程度,增加了肌肤作业过程中的舒适性和智能性,提高了肌肤作业的效果。
附图说明
通过参考附图阅读下文的详细描述,本申请示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本申请的若干实施方式,并且相同或对应的标号表示相同或对应的部分。
图1是本申请实施例一种基于多模态的肌肤作业控制方法的方法流程图。
图2是本申请实施例一种基于多模态的肌肤作业控制方法中步骤S5的方法流程图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应当理解,当本申请的权利要求、说明书及附图使用术语“第一”、“第二”等时,其仅是用于区别不同对象,而不是用于描述特定顺序。本申请的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
本申请实施例公开一种基于多模态的肌肤作业控制方法,参照图1,包括步骤S1-步骤S6,具体如下:
S1:对激光波长数据设置标签,激光波长数据中的每个波长对应至少一个波长功能。
激光波长数据包含多种波长的激光,每种波长的激光对应至少一个波长功能,波长功能可以是保湿、淡化皱纹等。
如激光波长为532纳米的激光可以用于减少皮肤表面的色素沉积、雀斑、黄褐斑等,激光波长为582纳米的激光可以用于减缓血管性皮肤病变。激光波长为离散值,对激光波长设置标签为:0、1、2……。
S2:统计带有标签的激光波长数据及采集的历史面部图像、历史语音信息生成肌肤作业数据集。
历史面部图像包括历史热力图和历史彩色图。
本申请使用CMOS(Complementary Metal-Oxide-Semiconductor,互补金属氧化物半导体)相机拍摄肌肤作业时用户面部的彩色图像,彩色图像为RGB(Red, Green, Blue,红绿蓝)图像。
历史热力图通过热成像仪捕获面部热辐射信息。热成像仪的热成像技术可以检测面部皮肤的温度分布,从而反映出面部肌肉的活跃程度。
获取采集的历史数据,历史热力图为采集的历史数据中,操作人员对用户进行面部的初步按摩后,使用热成像仪获取肌肤作业时用户面部的热力图。
历史语音信息为采集的历史数据中使用声音传感器采集的用户在进行肌肤作业时用户语音信息及肌肤作业的设备语音信息。通过分析这些历史语音数据,可以了解用户在接受肌肤作业时的情绪状态、反馈和态度。同时,也可以对肌肤作业设备的语音导航、提示和反馈进行分析。
S3:根据预设的神经网络模型,提取历史语音信息的语音特征。
神经网络模型为BERT(Bidirectional Encoder Representations fromTransformers,基于变换器的双向编码器)模型或LSTM(Long Short-Term Memory,长短期记忆网络)模型。
在一个实施例中,历史语音信息包括用户语音信息及设备语音信息,用户语音信息及设备语音信息通过LSTM模型,提取语音特征,以去除与肌肤作业无关的语音信息,语音特征为文本的形式存储。用户语音信息的语音特征可以是,有疼痛感、脸部舒适、有灼烧感等,设备语音信息可以是时间播报语音、档位播报语音等。
S4:构建深度学习模型,根据深度学习模型将历史面部图像划分为多个区域,深度学习模型中设置有编码层及全连接层,编码层提取历史面部图像的图像特征并将图像特征与语音特征融合生成融合特征,融合特征输入全连接层,全连接层输出每个区域的激光波长数据及标签。
在一个实施例中,肌肤作业的设备可以设置多个按摩棒,输入的历史面部图像后,可以对历史面部图像按照每个按摩棒的工作范围进行区域划分,也可以根据实际使用情况,由用户设定区域划分的范围。
划分区域后,将每个区域的历史面部图像输入编码层的图像编码器中,得到图像特征。
S5:根据肌肤作业数据集训练所述深度学习模型获得最优模型。
损失函数为:
,其中,/>表示损失函数,/>表示/>区域的标签值,/>表示/>区域的预测值,/>表示/>区域的预测值,/>表示区域的总数,/>表示预设的权重系数,/>表示/>区域的融合特征,/>表示/>区域的融合特征,/>表示预设的常数。
表示每个区域内不同激光波长的分类损失,激光波长在本申请中为离散值,/>是为了约束,使相同的融合特征对应相同的激光波长。不同融合特征和不同激光波长之间的关系为正相关或负相关,但是无论是正相关还是负相关,不同特征和不同激光波长的比值为定值,即/>为定值,训练使其负值等于/>。/>中的0.01是为了防止分母等于0。
该损失函数即约束了深度学习模型分类的同时,还约束了激光波长与融合特征的关系,保证融合特征对应激光波长分类正确的同时,不同的融合特征对应不同的波长,相同的融合特征对应相同的波长。
至此,深度学习模型构建完毕,该深度学习模型能够根据不同肌肤的区域所需要激光波长不同,
对深度学习模型进行训练,参照图2,包括步骤S50包括步骤S50-步骤S53,具体如下:
S50:在深度学习模型中输入划分区域后的历史热力图、历史彩色图及语音信息,输出每个区域的激光波长数据及标签。
S51:计算损失函数,根据损失函数使用梯度下降算法更新模型参数,完成一次迭代训练。
S52:进行多次迭代训练,根据损失函数的梯度反向传播更新深度学习模型的参数。
使用肌肤作业数据集输入深度学习模型,进行多次迭代训练,输出每个区域的标签概率值,根据损失函数进行梯度反向传播,本申请使用的反向传播算法为:SGD(Stochastic Gradient Descent,随机梯度下降)算法或ADAM(Adaptive MomentEstimation,自适应矩估计)算法。
S53:响应于迭代次数大于预设的训练次数阈值或损失函数值小于预设的损失函数阈值时,完成训练,生成最优模型。
训练次数阈值设置为100次,损失函数阈值设置为0.001。
当深度学习模型的迭代次数达到训练次数阈值或模型的损失函数值小于损失函数阈值时,完成训练。
S6:响应于实时面部图像及实时语音信息被获取,根据最优模型控制每个区域的激光波长。
在新用户进行肌肤作业时,通过上述CMOS相机及热成像仪获取新用户的实时面部图像,通过上述声音传感器采集实时语音信息。实时面部图像与历史面部图像的图像类型相同,只是采集的时间不同,被采集的用户可能相同也可能不同。实时语音信息与历史语音信息的语音信息类型也相同,只是采集的时间不同,被采集的用户可能相同也可能不同。
将新用户的实时面部图像与实时语音信息输入到最优模型,实时的控制每个区域激光波长,例如在眼周的皱纹处设置激光波长为1064纳米激光,以达到淡化皱纹的目的,在面部非眼周的区域使用激光波长为1550纳米的激光,以达到保湿的目的。
本申请实施例一种基于多模态的肌肤作业控制方法的实施原理为:
根据历史数据对采集到的用户面部图像进行区域划分,结合用户在肌肤作业过程中的语音反馈以及不同的激光波长,构建深度学习模型,对用户面部图像使用编码层提取图像特征,提取用户语音反馈中的语音特征,将图像特征与语音特征融合为融合特征,融合特征经过全连接层后,输出不同区域的激光波长,训练深度学习模型,模型训练完毕后生成最优模型,使用最优模型对肌肤作业过程进行激光波长控制,在不同的区域使用最佳波长的激光进行肌肤作业,提高肌肤作业的效果及智能化。
本申请考虑人体肌肤不同位置的特征,给不同区域设置最佳的激光波长进行肌肤作业,提高用户生理和心理感知的舒适程度,增加了肌肤作业过程中的舒适性和智能性,提高了肌肤作业的效果。
虽然本说明书已经示出和描述了本申请的多个实施例,但对于本领域技术人员显而易见的是,这样的实施例只是以示例的方式提供的。本领域技术人员会在不偏离本申请思想和精神的情况下想到许多更改、改变和替代的方式。应当理解的是在实践本申请的过程中,可以采用对本文所描述的本申请实施例的各种替代方案。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。

Claims (3)

1.基于多模态的肌肤作业控制方法,其特征在于,包括步骤:
对激光波长数据设置标签,激光波长数据中的每个激光波长对应至少一个波长功能;
统计带有标签的激光波长数据及采集的历史面部图像、历史语音信息生成肌肤作业数据集;
根据预设的神经网络模型,提取历史语音信息的语音特征;
构建深度学习模型,根据深度学习模型将历史面部图像划分为多个区域,深度学习模型中设置有编码层及全连接层,编码层提取历史面部图像的图像特征并将图像特征与语音特征融合生成融合特征,融合特征输入全连接层,全连接层输出每个区域的激光波长数据及标签;
根据肌肤作业数据集训练所述深度学习模型获得最优模型,训练过程中的损失函数为:
,其中,/>表示损失函数,/>表示/>区域的标签值,/>表示/>区域的预测值,/>表示/>区域的预测值,/>表示区域的总数,/>表示预设的权重系数,/>表示/>区域的融合特征,/>表示/>区域的融合特征,/>表示预设的常数;
响应于实时面部图像及实时语音信息被获取,根据最优模型控制每个区域的激光波长;
根据肌肤作业数据集训练所述深度学习模型获得最优模型,包括步骤:
在深度学习模型中输入划分区域后的历史热力图、历史彩色图及语音信息,输出每个区域的激光波长数据及标签;
计算损失函数,根据损失函数使用梯度下降算法更新模型参数,完成一次迭代训练;
进行多次迭代训练,根据损失函数的梯度反向传播更新深度学习模型的参数;
响应于迭代训练的次数大于预设的训练次数阈值或损失函数值小于预设的损失函数阈值时,完成训练,生成最优模型;
历史语音信息为采集的历史数据中使用声音传感器采集的用户在进行肌肤作业时用户语音信息及肌肤作业的设备语音信息;历史语音信息包括用户语音信息及设备语音信息,用户语音信息及设备语音信息通过神经网络模型,提取语音特征,以去除与肌肤作业无关的语音信息,语音特征为文本的形式存储。
2.根据权利要求1所述的基于多模态的肌肤作业控制方法,其特征在于,所述历史面部图像包括历史热力图和历史彩色图。
3.根据权利要求1所述的基于多模态的肌肤作业控制方法,其特征在于,所述神经网络模型为BERT模型或LSTM模型。
CN202311845675.1A 2023-12-29 2023-12-29 一种基于多模态的肌肤作业控制方法 Active CN117558055B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311845675.1A CN117558055B (zh) 2023-12-29 2023-12-29 一种基于多模态的肌肤作业控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311845675.1A CN117558055B (zh) 2023-12-29 2023-12-29 一种基于多模态的肌肤作业控制方法

Publications (2)

Publication Number Publication Date
CN117558055A CN117558055A (zh) 2024-02-13
CN117558055B true CN117558055B (zh) 2024-03-08

Family

ID=89818720

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311845675.1A Active CN117558055B (zh) 2023-12-29 2023-12-29 一种基于多模态的肌肤作业控制方法

Country Status (1)

Country Link
CN (1) CN117558055B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021428A (zh) * 2019-04-03 2019-07-16 北京大学第三医院(北京大学第三临床医学院) 一种利用神经网络提高激光祛斑效果的方法
CN112912026A (zh) * 2018-10-11 2021-06-04 鲁美斯有限公司 美容激光美容的皮肤治疗过程的实时监测
CN113255802A (zh) * 2021-06-02 2021-08-13 北京美丽年华文化有限公司 一种基于红外激光的智能嫩肤系统
CN114613492A (zh) * 2022-03-14 2022-06-10 重庆大学 一种多模态激光干眼治疗仪波长控制方法
CN115668387A (zh) * 2020-03-17 2023-01-31 鲁美斯Be有限公司 用于为美容皮肤处理单元确定最佳操作参数集的方法和系统
CN116725487A (zh) * 2023-06-07 2023-09-12 中南大学湘雅三医院 激光美容诊疗区域识别系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11309081B2 (en) * 2010-10-13 2022-04-19 Gholam A. Peyman Telemedicine system with dynamic imaging
US11747205B2 (en) * 2019-02-27 2023-09-05 Deep Smart Light Ltd. Noninvasive, multispectral-fluorescence characterization of biological tissues with machine/deep learning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112912026A (zh) * 2018-10-11 2021-06-04 鲁美斯有限公司 美容激光美容的皮肤治疗过程的实时监测
CN110021428A (zh) * 2019-04-03 2019-07-16 北京大学第三医院(北京大学第三临床医学院) 一种利用神经网络提高激光祛斑效果的方法
CN115668387A (zh) * 2020-03-17 2023-01-31 鲁美斯Be有限公司 用于为美容皮肤处理单元确定最佳操作参数集的方法和系统
CN113255802A (zh) * 2021-06-02 2021-08-13 北京美丽年华文化有限公司 一种基于红外激光的智能嫩肤系统
CN114613492A (zh) * 2022-03-14 2022-06-10 重庆大学 一种多模态激光干眼治疗仪波长控制方法
CN116725487A (zh) * 2023-06-07 2023-09-12 中南大学湘雅三医院 激光美容诊疗区域识别系统

Also Published As

Publication number Publication date
CN117558055A (zh) 2024-02-13

Similar Documents

Publication Publication Date Title
CN111476200B (zh) 基于生成对抗网络的人脸去识别化生成方法
US20080240489A1 (en) Feature Change Image Creation Method, Feature Change Image Creation Device, and Feature Change Image Creation Program
JP2022513858A (ja) 顔画像生成用のデータ処理方法、データ処理機器、コンピュータプログラム、及びコンピュータ機器
CN115601772B (zh) 一种基于多模态学习的美学质量评价模型和方法
CN113657380B (zh) 融合多模态注意力机制的图像美学质量评价方法
US11127181B2 (en) Avatar facial expression generating system and method of avatar facial expression generation
CN111178130A (zh) 一种基于深度学习的人脸识别方法、系统和可读存储介质
CN114724224A (zh) 一种用于医疗护理机器人的多模态情感识别方法
CN113782190A (zh) 基于多级时空特征和混合注意力网络的抑郁症诊断方法
CN116012300A (zh) 融合局部和全局图像特征的多模态图像美学质量评价方法
JP5651385B2 (ja) 顔評価方法
CN117558055B (zh) 一种基于多模态的肌肤作业控制方法
CN116311472A (zh) 基于多层次图卷积网络的微表情识别方法及装置
CN115268531B (zh) 一种智能浴缸的水流调温控制方法、装置、设备及存储介质
JP2573126B2 (ja) 表情のコード化及び情緒の判別装置
CN116109739A (zh) 基于人脸表情生成动物表情动画方法、装置、设备及介质
Yue et al. Perceptual quality assessment of retouched face images
EP4163867A1 (en) Decision program, decision device, and decision method
CN110555401B (zh) 一种基于表情识别的自适应情感表达系统及方法
Mishra et al. Environment descriptor for the visually impaired
CN116758402B (zh) 图像人物关系识别方法、系统、设备及存储介质
CN113838218B (zh) 一种感知环境的语音驱动虚拟人姿态合成方法
CN117115312B (zh) 一种语音驱动面部动画方法、装置、设备及介质
JP2006041804A (ja) 肌色補正装置および方法並びにプログラム
CN117808924B (zh) 一种图像生成方法、系统、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant