CN114842522A - 应用于美容医疗的人工智能辅助评估方法 - Google Patents

应用于美容医疗的人工智能辅助评估方法 Download PDF

Info

Publication number
CN114842522A
CN114842522A CN202210051288.XA CN202210051288A CN114842522A CN 114842522 A CN114842522 A CN 114842522A CN 202210051288 A CN202210051288 A CN 202210051288A CN 114842522 A CN114842522 A CN 114842522A
Authority
CN
China
Prior art keywords
facial
artificial intelligence
face
medical
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210051288.XA
Other languages
English (en)
Inventor
李至伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN114842522A publication Critical patent/CN114842522A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • G16H20/17ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients delivered via infusion or injection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/40ICT specially adapted for the handling or processing of medical references relating to drugs, e.g. their side effects or intended usage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Toxicology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Quality & Reliability (AREA)
  • Surgery (AREA)
  • Urology & Nephrology (AREA)

Abstract

本发明涉及一种应用于美容医疗的人工智能辅助评估方法与辅助评估系统,其应用于一人工智能辨识分析模块。其中,经由执行一人工智能人脸表情评估模块而产生一受测者的一实时人脸表情评估结果,且输入该实时人脸表情评估结果至该人工智能辨识分析模块,并选择搭配一医疗知识规则模块及一美容医疗辅助评估结果历史数据库中的至少一者,以执行一人工智能辨识分析程序。之后,该人工智能辨识分析模块产生并输出一实时美容医疗辅助评估结果。如此一来,便能依据该实时美容医疗辅助评估结果以执行一美容医疗行为,而达到个人化美感的治疗成效。

Description

应用于美容医疗的人工智能辅助评估方法
技术领域
本发明涉及一种人工智能(Artificial Intelligence,AI)辅助评估方法与辅助评估系统,尤其一种以人工智能技术取得一实时人脸表情评估结果为基础,并应用于美容医疗的人工智能辅助评估方法以及运用该方法的人工智能辅助评估系统。
背景技术
现今流行的美容医疗风气,特别是脸部方面的微整型美容医疗,已广为各龄层的人士所喜爱与接受。
其中,进行脸部微整型美容医疗的治疗方式,主要是依靠医师自身的医学专业技术与知识,以一般性或常态化的标准程序进行处理,或再略加上一些医师自身执业经验的个别判断。
然而在实际操作上,因其通常欠缺深度的客制化考虑,以至于常会出现实际美容后的治疗结果与事先预期的治疗效果之间存在着或多或少的期待落差;其中,特别是针对脸部的微表情,因属于长时间的表情习惯所累积形成的肌肉微动作,此种潜在的脸部肌肉变化是很不容易被人的肉眼于短时间内观察出来,以至于常会使得实际美容后的治疗结果与事先预期的治疗效果之间,存在着不小的差异。
甚至,有部分实际美容医疗后的治疗结果,因医师自身错误的个别判断,而导致术后产生更劣质的治疗成效,从而造成更多的医疗治疗纠纷与医疗治疗上的缺失。
在此,如何针对个人化的美容医疗需求,提出更多与更好的协助处理方法与工具,即为当前美容医疗业界的所欲解决的技术课题;基此,申请人曾以中国发明专利申请号:CN202010388355.8,提出了一种应用于美容医疗的人工智能辅助评估方法与辅助评估系统的技术解决方案,以达到解决前述现有技术问题的初步目的。
且,为进一步优化相关技术内容,申请人现至少针对前述技术方案中如何取得实时人脸表情评估结果的过程方法,再进一步地改良,并提出如本发明实施例所述的优化解决手段。
发明内容
本发明的主要目的,提供一种可针对个人化的美容医疗需求,提出一种以人工智能技术取得的实时人脸表情评估结果为基础的美容医疗的人工智能(AI)辅助评估方法以及运用该方法的辅助评估系统,以进一步优化前述的现有技术。
本发明的实施概念,主要是利用人工智能人脸表情评估模块,先取得个人化的实时人脸表情评估结果,之后,再依据前述个人化的实时人脸表情评估结果,执行人工智能辨识分析程序,并结合医疗知识规则模块中的功能性医学解剖规则以及动态性医学解剖规则与美容医疗辅助评估结果历史数据库后,从而提供实时美容医疗辅助评估结果,达到可提供专属且实时的个人化的美容医疗辅助建议。
为达上述目的,本发明一实施例提供一种应用于美容医疗的人工智能辅助评估方法,至少包括下列步骤:(a)提供一受测者的一实时人脸表情评估结果;以及(b)基于搭配一医疗知识规则模块及一美容医疗辅助评估结果历史数据库中的至少一者,以针对该实时人脸表情评估结果执行一人工智能美容医疗辨识分析程序,并产生输出一实时美容医疗辅助评估结果;其中,该步骤(a)至少包括下列步骤:(a1)执行一人工智能影像侦测程序,以取得该受测者的一实时脸部影像;(a2)基于该实时脸部影像,以执行一人工智能影像校准与特征撷取程序,并藉以取得一脸部表面与几何特征信息;(a3)基于该脸部表面与该几何特征信息,以执行一人工智能脸部动作编码程序,并藉以取得多个脸部动作编码信息;以及(a4)基于该多个脸部动作编码信息,以执行一人工智能脸部情绪辨识程序,并藉以取得对应于该实时脸部影像的多个情绪指标的比例分布与组合信息,并形成该实时人脸表情评估结果。
较佳地,该步骤(b)之后还包括下列步骤:(c)反馈并储存该实时美容医疗辅助评估结果至该医疗知识规则模块、及该美容医疗辅助评估结果历史数据库中的至少一者。
较佳地,该实时美容医疗辅助评估结果至少包括:该受测者的一评估治疗部位结果的组合与优选顺序,或该评估治疗部位结果的组合与优选顺序以及一注射填充剂种类与剂量。
较佳地,该医疗知识规则模块还包括一功能性医学解剖规则以及一动态性医学解剖规则。
较佳地,应用于该人工智能影像侦测程序的人工智能机器学习法,包括属于边界侦测算法类型的一哈尔特征结合自适应增强的机器学习法,或以一方向梯度直方图配合支持向量机的机器学习法。
较佳地,在该步骤(a2)中的该人工智能影像校准与特征撷取程序至少包括下列步骤:(a21)基于该实时脸部影像,以执行一人工智能脸部关键点标识程序,并以此取得一脸部关键点标识信息;(a22)基于该脸部关键点标识信息,以执行一脸部影像校准程序,并以此取得一正规化的脸部影像信息;以及(a23)基于该脸部关键点标识信息与该正规化的脸部影像信息,以执行一脸部影像特征撷取程序,并以此取得该脸部影像表面与该几何特征信息。
较佳地,在执行该人工智能脸部关键点标识程序之前,先行通过一定数量的训练数据集,并以一机器学习方式进行该人工智能脸部关键点标识程序中的一脸部关键点标识模型的人工智能训练。
较佳地,该脸部影像校准程序至少包括以一仿射变换技术消除该脸部关键点标识信息中因姿势不同所带来的误差,以及使脸部影像的大小与呈现方式统一化,以此取得该正规化的脸部影像信息。
较佳地,该脸部影像特征撷取程序至少包括一脸部影像表面特征撷取程序与一脸部影像几何特征撷取程序;其中,该脸部影像表面特征撷取程序包括执行以一方向梯度直方图取得多维度的向量数据,并结合进行一主成分分析以降低向量数据量及保留一脸部影像表面特征信息,而该脸部影像几何特征撷取程序包括基于该脸部关键点标识信息,以取得一脸部影像几何特征信息。
较佳地,在执行该人工智能脸部动作编码程序之前,先行通过以一定数量的训练数据集与一脸部动作编码系统,并以一机器学习方式进行该人工智能脸部动作编码程序中的一脸部动作编码模型的人工智能训练。
较佳地,该脸部动作编码模型的人工智能训练包括在一静态表情及/或一动态表情的不同情境下的该脸部动作编码模型的训练,以分别取得一静态脸部动作编码信息及/或一动态脸部动作编码信息。
较佳地,在执行该人工智能脸部情绪辨识程序之前,先行以包括至少以一情绪正负向性、一情绪唤起度与该多个情绪指标参数,结合该脸部动作编码系统,并以另一机器学习方式进行该人工智能脸部情绪辨识程序中的一脸部情绪辨识模型的人工智能训练。
较佳地,该美容医疗辅助评估结果历史数据库包括多个历史美容医疗辅助评估结果;其中,每一历史美容医疗辅助评估结果至少包括:历来的一受测者名称与一基本资料、一历史人脸表情评估结果、一个人脸部特征、该医疗知识规则模块中的一功能性医学解剖规则以及一动态性医学解剖规则、一评估治疗部位结果的组合与优选顺序以及一注射填充剂的种类与剂量。
较佳地,该个人脸部特征包括一习惯表情的静态纹路特征、一静态轮廓线特征或一肤质特征。
较佳地,在执行该人工智能美容医疗辨识分析程序之前,先行以该多个历史美容医疗辅助评估结果,并以一人工神经网络算法及一深度学习算法中的至少一者,进行该人工智能美容医疗辨识分析程序的人工智能训练。
本发明另一实施例提供一种应用于美容医疗的人工智能辅助评估辅助评估系统,至少包括:一人工智能人脸表情评估模块,提供一受测者的一实时人脸表情评估结果;一人工智能美容医疗辨识分析模块,连接于该人工智能人脸表情评估模块;以及一输出输入模块,连接于该人工智能美容医疗辨识分析模块,其用于输入该受测者的一基本数据及/或一个人脸部特征,并输出至该人工智能美容医疗辨识分析模块中;其中,该人工智能美容医疗辨识分析模块用于接收该受测者的该基本资料及/或该个人脸部特征中的至少一者,以及该实时人脸表情评估结果,并依据所连接的一医疗知识规则模块及一美容医疗辅助评估结果历史数据库中的至少一者,以执行一人工智能美容医疗辨识分析程序,且产生并输出一实时美容医疗辅助评估结果至该输出输入模块中。
较佳地,该人工智能辨识分析模块反馈并储存该实时美容辅助评估结果至该医疗知识规则模块、及该美容医疗辅助评估结果历史数据库中的至少一者。
较佳地,该实时美容医疗辅助评估结果至少包括该受测者的一评估治疗部位结果的组合与优选顺序,或该评估治疗部位结果的组合与优选顺序以及一注射填充剂种类与剂量。
较佳地,该医疗知识规则模块还包括一功能性医学解剖规则以及一动态性医学解剖规则。
较佳地,该人工智能人脸表情评估模块包括:一人工智能影像侦测单元,用于执行一人工智能影像侦测程序,以取得该受测者的一实时脸部影像;一人工智能影像校准与特征撷取组合单元,连接于该人工智能影像侦测单元,该人工智能影像校准与特征撷取组合单元,用于基于该实时脸部影像,以执行一人工智能影像校准与特征撷取程序,并以此取得一脸部表面与几何特征信息;一人工智能脸部动作编码单元,连接于该人工智能影像校准与特征撷取组合单元,该人工智能脸部动作编码单元用于基于该脸部表面与该几何特征信息,以执行一人工智能脸部动作编码程序,并以此取得多个脸部动作编码信息;以及一人工智能脸部情绪辨识单元,连接于该人工智能脸部动作编码单元,该人工智能脸部情绪辨识单元用于基于该多个脸部动作编码信息,以执行一人工智能脸部情绪辨识程序,并以此取得对应于该实时脸部影像的多个情绪指标的比例分布与组合信息,并形成该实时人脸表情评估结果。
较佳地,应用于该人工智能影像侦测程序的人工智能机器学习法,包括属于边界侦测算法类型的一哈尔特征结合自适应增强的机器学习法,或以一方向梯度直方图配合支持向量机的机器学习法。
较佳地,在执行该人工智能脸部动作编码程序之前,先行通过以一定数量的训练数据集与一脸部动作编码系统,并以一机器学习方式进行该人工智能脸部动作编码程序中的一脸部动作编码模型的人工智能训练。
较佳地,该脸部动作编码模型的人工智能训练包括在一静态表情及/或一动态表情的不同情境下的该脸部动作编码模型的训练,以分别取得一静态脸部动作编码信息及/或一动态脸部动作编码信息。
较佳地,在执行该人工智能脸部情绪辨识程序之前,先行以包括至少以一情绪正负向性、一情绪唤起度与该多个情绪指标参数,结合该脸部动作编码系统,并以另一机器学习方式进行该人工智能脸部情绪辨识程序中的一脸部情绪辨识模型的人工智能训练。
较佳地,该人工智能影像校准与特征撷取组合单元包括:一脸部关键点标识单元,连接于该人工智能影像侦测单元,该脸部关键点标识单元用于执行一人工智能脸部关键点标识程序,并以此取得一脸部关键点标识信息;一脸部校准与遮蔽单元,连接于该脸部关键点标识单元,该脸部校准与遮蔽单元用于基于该脸部关键点标识信息,以执行一脸部影像校准程序,并以此取得一正规化的脸部影像信息;以及一脸部特征撷取单元,连接于该脸部校准与遮蔽单元,该脸部特征撷取单元用于基于该脸部关键点标识信息与该正规化的脸部影像信息,以执行一脸部影像特征撷取程序,并以此取得该脸部影像表面与几何特征信息。
较佳地,在执行该人工智能脸部关键点标识程序之前,先行通过以一定数量的训练数据集,并以一机器学习方式进行该人工智能脸部关键点标识程序中的一脸部关键点标识模型的人工智能训练。
较佳地,该脸部影像特征撷取程序至少包括一脸部影像表面特征撷取程序与一脸部影像几何特征撷取程序;其中,该脸部影像表面特征撷取程序包括执行以一方向梯度直方图取得多维度的向量数据,并结合进行一主成分分析以降低向量数据量及保留一脸部影像表面特征信息,而该脸部影像几何特征撷取程序包括基于该脸部关键点标识信息,以取得一脸部影像几何特征信息。
较佳地,该美容医疗辅助评估结果历史数据库包括多个历史美容医疗辅助评估结果;其中,每一历史美容医疗辅助评估结果至少包括:历来的一受测者名称与一基本资料、一历史人脸表情评估结果、一个人脸部特征、该医疗知识规则模块中的一功能性医学解剖规则以及一动态性医学解剖规则、一评估治疗部位结果的组合与优选顺序以及一注射填充剂的种类与剂量。
较佳地,该个人脸部特征包括一习惯表情的静态纹路特征、一静态轮廓线特征或一肤质特征。
较佳地,在执行该人工智能美容医疗辨识分析程序之前,先行以该多个历史美容医疗辅助评估结果,并以一人工神经网络算法及一深度学习算法中的至少一者,进行该人工智能美容医疗辨识分析程序的人工智能训练。
较佳地,基于该人工智能人脸表情评估模块、该人工智能辨识分析模块以及该输入输出模块而组装形成一电子装置;其中,该电子装置为一手持式智能行动装置、一个人计算机或一独立运作的智能装置。
较佳地,该电子装置以一无线传输方式及一有线传输方式中的至少一者连接于该美容医疗辅助评估结果历史数据库及该医疗知识规则模块中的至少一者。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的人工智能辅助评估系统的概念示意图。
图2A为图1所示的人工智能影像侦测单元的概念示意图。
图2B为从标记有脸部关键点标识信息的角度呈现配合图1所示的人工智能脸部动作编码单元的实施例示意图。
图2C为从人体解剖角度呈现配合图1所示的人工智能脸部动作编码单元的实施例示意图。
图2D为在执行图1中人工智能脸部动作编码单元之前,在一静态表情及一动态表情的不同情境下针对脸部动作编码模型进行人工智能训练的实施例示意图。
图2E为配合本发明实施例图1中人工智能脸部情绪辨识单元,以结合情绪理论进行定量分析每一脸部动作编码信息所对应的脸部肌肉群于不同情绪表情时的作动强度的实施例示意图。
图3为配合本发明实施例图1中美容医疗辅助评估结果历史数据库的实施例示意图。
图4为本发明实施例提供的人工智能辅助评估方法的实施流程步骤概念示意图。
图5A至图5F为应用本发明实施例提供的人工智能辅助评估方法及辅助评估系统的一实施例示意图。
图6为应用本发明实施例提供的人工智能辅助评估方法及辅助评估系统的第二实施例示意图。
图7为应用本发明实施例提供的人工智能辅助评估方法及辅助评估系统的第三较佳实施示意图。
主要元件符号说明:
100为人工智能辅助评估系统;110为人工智能人脸表情评估模块;111为人工智能脸部动作编码单元;112为人工智能情绪分析及脸部辨识单元;120为人工智能美容医疗辨识分析模块;121为人工智能美容医疗辨识分析程序;130为医疗知识规则模块;131为功能性医学解剖规则;132为动态性医学解剖规则;140为美容医疗辅助评估结果历史数据库;141为历史的美容医疗辅助评估结果1-N;150为输出输入模块;160为电子装置;20为矩形(或正方形)方框;21为脸部关键点标识信息;A为实时人脸表情评估结果;A’为历史人脸表情评估结果;A31-A33为情绪指标组合;AU1-AUn为静态脸部动作编码信息;A1为多个静态脸部动作编码信息的组合;22、AU1’-AUn’为动态脸部动作编码信息;A2为多个动态脸部动作编码信息的组合;B为基本数据;B1为性别;B2为年龄;C1、C2为评估治疗部位结果的组合与优选顺序的优选组合;P为个人脸部特征;P1、P1’为习惯表情的静态纹路特征;P2、P2’为静态轮廓线特征;P3、P3’为肤质特征;D为注射填充剂的种类;U为注射填充剂的剂量;R1、R11-R14为功能性医学解剖规则的多个医疗规则;R2、R21-R24为动态性医学解剖规则的多个医疗规则;S1-S8为人工智能辅助评估方法的流程步骤。
具体实施方式
以下对提出实施例进行详细说明,实施例仅用于作为范例说明,并不会限缩本发明欲保护的范围。此外,实施例中的图式省略不必要或以通常技术即可完成的组件,以清楚显示本发明的技术特点。以下,以本发明的较佳实施例并配合图式作进一步说明。
请参阅图1,其为本发明实施中的人工智能辅助评估系统的较佳实施例示意图。
如图1所示,本发明实施例以人脸表情为基础,并应用于美容医疗的人工智能辅助评估系统100包括:人工智能人脸表情评估模块110、人工智能美容医疗辨识分析模块120、医疗知识规则模块130、美容医疗辅助评估结果历史数据库140以及输出输入模块150。
其中,人工智能人脸表情评估模块110至少包括:人工智能影像侦测单元111、人工智能影像校准与特征撷取组合单元112、人工智能脸部动作编码单元113以及人工智能脸部情绪辨识单元114;其中优选的,人工智能影像校准与特征撷取组合单元112还包括:脸部关键点标识单元1121、脸部校准与遮蔽单元1122以及脸部特征撷取单元1123。
另外,医疗知识规则模块130至少包括:功能性医学解剖规则131以及动态性医学解剖规则132;其中,功能性医学解剖规则131以及动态性医学解剖规132分别包括有多个不同的医疗规则R1、R2,并将在后续图3中详述。
至于美容医疗辅助评估结果历史数据库140,至少包括多个美容医疗辅助评估结果1-N(141),也即,具有美容医疗辅助评估结果历史数据库140中具有N笔历史纪录的历史的美容医疗辅助评估结果1-N(141)。
再者,输出输入模块150用于接收输入或输出多种信息,例如:接收输入受测者的基本数据B1-B2及/或个人脸部特征P1-P3,并输入至人工智能美容医疗辨识分析模块120中;或,输出自人工智能美容医疗辨识分析模块120所接收的一实时美容医疗辅助评估结果,且其至少包括有评估治疗部位结果的组合与优选顺序的优选组合C1-C2,及/或注射填充剂的种类D与注射填充剂的剂量U。
其中,基本资料B1-B2可分别指涉受测者的性别及年龄等参数信息;个人脸部特征P1-P3则可用于分别指涉受测者的习惯表情的静态纹路特征P1、静态轮廓线特征P2或肤质特征P3等参数信息;另外,个人脸部特征P1’-P3’,则为选择由人工智能人脸表情评估模块110直接提供受测者的另一个人脸部特征参数信息。
当然,前述所揭露的受测者的基本资料B1-B2及/或个人脸部特征P1-P3(或P1’-P3’),或优选组合C1-C2及/或注射填充剂的种类D与注射填充剂的剂量U,或多个医疗规则R1、R2等等各项与美容医疗辅助评估结果相关的参数信息的数量或类型,皆仅为方便说明后续配合图3所示该美容医疗辅助评估结果历史数据库的一较佳实施概念示意图而所安排的例示,本发明实施例并不以此为限。
再者,人工智能人脸表情评估模块110、人工智能美容医疗辨识分析模块120以及输出输入模块150可组装形成为一电子装置160,电子装置160可为手持式智能行动装置、个人计算机(PC)或独立运作(stand-alone)的智能装置。举例来说,电子装置160可为平板计算机、智能行动装置、笔记本电脑、桌面计算机、独立单独运作的智能装置或独立单独运作的智能模块,其中该智能装置或该智能模块可组装或分离于一医疗装置中(图未示出)。
并且,电子装置160以无线传输方式及/或有线传输方式,连接于美容医疗辅助评估结果历史数据库140及/或医疗知识规则模块130。举例来说,美容医疗辅助评估结果历史数据库140及/或医疗知识规则模块130可储存在云端储存平台中,而电子装置160可经由各种区域/广域网连接于该云端储存平台(图未示出)。
再请参阅图1中的人工智能人脸表情评估模块110,其为本发明实施例的实施重点,并请配合图2A~图2E及图3所示。其中,人工智能影像侦测单元111用于执行一人工智能影像侦测程序,并于进行一影像撷取动作(例如,以一摄像装置(图未示出)进行拍摄)后,即可取得受测者的一实时脸部影像;人工智能影像校准与特征撷取组合单元112连接于该人工智能影像侦测单元111,人工智能影像校准与特征撷取组合单元112,用于基于该实时脸部影像,以执行一人工智能影像校准与特征撷取程序,并以此取得一脸部表面与几何特征信息;而人工智能脸部动作编码单元113连接于该人工智能影像校准与特征撷取组合单元112,人工智能脸部动作编码单元113用于基于该脸部表面与几何特征信息,以执行一人工智能脸部动作编码程序,并以此取得相对应的多个脸部动作编码信息;以及人工智能脸部情绪辨识单元114连接于该人工智能脸部动作编码单元113,该人工智能脸部情绪辨识单元114用于基于该多个脸部动作编码信息(例如,如图3中标示的静态脸部动作编码信息AU1-AUn,以及动态脸部动作编码信息AU1’-AUn’),以执行一人工智能脸部情绪辨识程序,并以此取得对应于该实时脸部影像的多个情绪指标(例如,如图3中标示的情绪指标A31-A33)的比例分布与组合信息,并形成该实时人脸表情评估结果A。
其中,应用于该人工智能影像侦测程序的人工智能机器学习法,例如包括可为属于边界侦测算法类型的一哈尔特征(Haar-like features)结合自适应增强的机器学习法,或可为以一方向梯度直方图(Histogram of Oriented Gradients,HOG)配合支持向量机(Support Vector Machine,SVM)的机器学习法,但本发明实施例并不以此为限。
请配合参阅图2A,其为配合本发明实施例图1中该人工智能影像侦测单元111的一较佳实施概念示意图;其中,一矩形(或正方形)方框20,用于标示围绕所侦测到的脸部影像,以方便后续人工智能影像校准与特征撷取组合单元112可加以进行运用。
另外,在执行该人工智能脸部动作编码程序之前,先行通过以一定数量的训练数据集与一脸部动作编码系统(Facial Action Coding System,FACS),并以一机器学习(Machine Learning)方式进行该人工智能脸部动作编码程序中的一脸部动作编码模型的人工智能训练;其中该脸部动作编码模型的训练包括在一静态表情及/或一动态表情的不同情境下的该脸部动作编码模型的训练,以分别取得一静态脸部动作编码信息(例如,如图3中标示的静态脸部动作编码信息AU1-AUn)及/或一动态脸部动作编码信息(例如,如图3中标示的动态脸部动作编码信息AU1’-AUn’)。
另一较佳做法,在实际执行人工智能人脸表情评估模块110中的人工智能脸部动作编码单元113的过程中,也可在面对新的受试者时,可要求其分别在一静态表情及/或一动态表情的不同情境下进行测试,以同步取得该新的受试者的静态脸部动作编码信息AU1-AUn与动态脸部动作编码信息AU1’-AUn’,以供后续人工智能美容医疗辨识分析模块120进行更精确的辨识分析,与可储存至美容医疗辅助评估结果历史数据库140。
当然,请配合参阅图2B,其为从标记有脸部关键点标识信息的角度21呈现配合本发明实施例图1中该人工智能脸部动作编码单元113的一较佳实施概念示意图,且其中,此图中的脸部动作编码信息为一呈现笑脸的动态脸部动作编码信息21。另外,图2C则为从人体解剖角度呈现配合本发明实施例图1中该人工智能脸部动作编码单元113的一较佳实施概念示意图。
如图2C所示,可将眉头处的皱眉肌定义为脸部动作编码信息AU4(Face ActionUnit 4),或将可能使口角下垂的降口角肌(depressor anguli oris)及颏肌(mentails)分别定义为脸部动作编码信息AU15(Face Action Unit 15)及脸部动作编码信息AU17(FaceAction Unit 17)。
再请配合参阅图2D,其为在执行本发明实施例图1中该人工智能脸部动作编码单元113之前,在一静态表情及一动态表情的不同情境下针对该脸部动作编码模型进行人工智能训练,以分别取得一静态脸部动作编码信息及/或一动态脸部动作编码信息的一较佳实施概念示意图。
其中,如图2D的左侧图所示者,用于观察受测者处于一静止状态下或使其脸部处于放松的状态下录制一段短片时的多个静态脸部动作编码信息(例如,AU1、AU4、AU15),此举用于察觉及分析出受测者的一些相关联的特定脸部肌肉群在处于静止状态的呈现情况,以及观察是否在静止状态下会不自觉地施力或作动;另外,如图2D的右侧所示者,为受测者的多个动态脸部动作编码信息(例如,AU1’、AU4’、AU15’,但图未示出),其可依据不同情绪而动态呈现出不同人脸表情(例如可为:悲伤情绪或更多其他生气表情、大笑表情等等不同的情绪),并据以观察此些相关联的特定脸部肌肉群的动态变化。
再则,其中在执行人工智能脸部情绪辨识程序之前,先行以包括至少以一情绪正负向性(Emotional Valance)、一情绪唤起度(Emotional Arousal)与该多个情绪指标(例如,如图3中标示的情绪指标A31-A33)等参数,结合前述脸部动作编码系统(FACS),并以另一机器学习(Machine Learning)方式进行该人工智能脸部情绪辨识程序中的一脸部情绪辨识模型的人工智能训练。
请配合参阅图2E,其为配合本发明实施例图1中人工智能脸部情绪辨识单元114,以结合情绪理论进行定量分析每一脸部动作编码信息所对应的脸部肌肉群在不同情绪表情时的动作强度的一较佳实施概念示意图。例如,本发明实施例的人工智能人脸表情评估模块110,可例如将人脸情绪表情区分为7大类定义,其中除了中性(Neutral)表情之外,还包括:开心(Happy)、悲伤(Sad)、生气(Angry)、惊讶(Surprise)、恐惧(Fear/Scared)、恶心(Disgusted)等6类表情定义,以形成各种情绪指标,且本发明实施例不以此为限。
其中,可应用结合于在人工智能脸部情绪辨识程序中的情绪理论,至少包括有Lisa Feldman Barrett所提出的「情绪向度理论」(Dimensional Theories of Emotion),或由Paul Ekman所提出的「情绪间断理论」(Discrete Theories of Emotion),本发明实施例也不以此为限。
进一步地,本发明实施例前述人工智能影像校准与特征撷取组合单元112还可包括:脸部关键点标识单元1121连接于人工智能影像侦测单元111,该脸部关键点标识单元1121用于执行一人工智能脸部关键点标识程序,并以此取得一脸部关键点标识信息;一脸部校准与遮蔽单元1122,连接于该脸部关键点标识单元1121,该脸部校准与遮蔽单元1122用于基于该脸部关键点标识信息,以执行一脸部影像校准程序,并以此取得一正规化的脸部影像信息;以及一脸部特征撷取单元1123连接于该脸部校准与遮蔽单元,该脸部特征撷取单元1123用于基于该脸部关键点标识信息与该正规化的脸部影像信息,以执行一脸部影像特征撷取程序,并以此取得该脸部影像表面与几何特征信息。
较佳地,在执行该人工智能脸部关键点标识程序之前,先行通过以一定数量的训练数据集,并以一机器学习(Machine Learning)方式进行该人工智能脸部关键点标识程序中的一脸部关键点标识模型的人工智能训练。
另一较佳作法,其中该脸部影像特征撷取程序至少包括一脸部影像表面特征撷取程序与一脸部影像几何特征撷取程序;其中,该脸部影像表面特征撷取程序包括执行以一方向梯度直方图(Histogram of Oriented Gradients,HOG)取得多维度的向量数据,并结合进行一主成分分析(Principal Component Analysis,PCA)以降低向量数据量及保留重要的一脸部影像表面特征信息,而该脸部影像几何特征撷取程序包括基于该脸部关键点标识信息,以取得一脸部影像几何特征信息。
再请参阅图1,人工智能美容医疗辨识分析模块120在执行该人工智能美容医疗辨识分析程序之前,先行以该多个历史美容医疗辅助评估结果1-N(141),并以一人工神经网络算法及一深度学习算法中的至少一者,进行该人工智能美容医疗辨识分析程序的人工智能训练,但本发明实施例并不以此为限。
请参阅图3,其中该美容医疗辅助评估结果历史数据库140包括多个历史美容医疗辅助评估结果1-N(141);其中,该每一历史美容医疗辅助评估结果至少包括:历来的一受测者名称与一基本资料B、一历史人脸表情评估结果A’、一个人脸部特征P、该医疗知识规则模块130中的一功能性医学解剖规则131以及一动态性医学解剖规则132中的多个医疗规则R1、R2、一评估治疗部位结果的组合与优选顺序的优选组合C1-C2以及一注射填充剂的种类D与剂量U。
在实际应用时,基本数据B可包括性别B1及年龄B2;历史人脸表情评估结果A’至少包括:静态脸部动作编码信息的组合A1、动态脸部动作编码信息的组合A2以及多个情绪指标组合A31-A33;其中,静态脸部动作编码信息的组合A1可为受测者无任何情绪时的多个静态脸部动作编码信息AU1-AUn的各个静态参数值;动态脸部动作编码信息的组合A2可为受测者依据不同情绪而产生的多个动态脸部动作编码信息AU1’-AUn’的各个动态参数值,而情绪指标组合A31-A33可例如包括:属于负面情绪指标的害怕指标A31、生气指标A32及鄙视指标A33,及/或可包括属于正面情绪指标的开心指标A31、感动指标A32及满足指标A33。
再者,个人脸部特征P可包括习惯表情的静态纹路特征P1、静态轮廓线特征P2或肤质特征P3;其中,个人脸部特征P1-P3可由人脸表情评估模块110及输入输出模块150中的至少一者而提供。
至于功能性医学解剖规则231的医疗规则R1,例如包括各个脸部肌肉群基于不同情绪表情的拉伸程度规则、张力程度规则R11-R14;又,动态性医学解剖规则232的医疗规则R2,例如包括各个脸部肌肉群之间基于不同情绪表情的连动规则、收缩规则R21-R24。
最后,优选组合C1-C2可例如为受测者欲治疗部位的多个静态脸部动作编码信息AU1-AUn(或多个动态脸部动作编码信息AU1’-AUn’)中的一者或及其组合;注射填充剂的种类D可包括:水凝胶剂类W、肉毒杆菌素剂类X、透明质酸剂类Y以及胶原蛋白剂类Z。其中,水凝胶剂类W、透明质酸剂类Y以及胶原蛋白剂类Z,除了可减少人脸表情的静态纹路,从而减少负面情绪指标组合(悲伤指标、生气指标等)之外,还能增加正面情绪指标组合(开心指标、满足指标等)。
当然,在本实施例中,前述历史的美容医疗辅助评估结果1-N(141)可依据实际美容医疗的治疗目标需求而调整,不应以本例为限制。且,前述的美容医疗辅助评估结果1-N(141)的内容可为熟悉本技术的人士进行各种均等的变更或设计,可依据受测者的美容医疗实际需求进而调整设计为适应的实施态样。
参见图4,其为本发明实施例发明概念中的人工智能辅助评估方法的一较佳实施流程步骤概念示意图,其至少包括下列步骤,并请参阅图1至图3所示:
开始;
步骤S1:执行一人工智能影像侦测程序,以取得一受测者的一实时脸部影像;
步骤S2:基于该实时脸部影像,以执行一人工智能脸部关键点标识程序,并以此取得一脸部关键点标识信息;
步骤S3:基于该脸部关键点标识信息,以执行一脸部影像校准程序,并以此取得一正规化的脸部影像信息;
步骤S4:基于该脸部关键点标识信息与该正规化的脸部影像信息,以执行一脸部影像特征撷取程序,并以此取得该脸部影像表面与几何特征信息;
步骤S5:基于该脸部表面与该几何特征信息,以执行一人工智能脸部动作编码程序,并以此取得多个脸部动作编码信息;
步骤S6:基于该多个脸部动作编码信息,以执行一人工智能脸部情绪辨识程序,并以此取得对应于该实时脸部影像的多个情绪指标的比例分布与组合信息,并形成一实时人脸表情评估结果A;
步骤S7:基于搭配一医疗知识规则模块及一美容医疗辅助评估结果历史数据库中的至少一者,以针对该实时人脸表情评估结果A执行一人工智能美容医疗辨识分析程序,并产生输出一实时美容医疗辅助评估结果;以及
步骤S8:反馈并储存该实时美容医疗辅助评估结果至该医疗知识规则模块及该美容医疗辅助评估结果历史数据库中的至少一者;
结束。
再则,将以后述多个较佳实施概念说明,如何基于本发明实施例的人工智能辅助评估方法及其系统,而进行美容医疗行为。其中,下列该多个较佳实施例的主要治疗目标需求为改善受测者1-3的脸部表情的负面情绪指标组合,且基于减少或改善基于负面表情情绪而造成的负面情绪指标组合,从而提升个人魅力与人际关系。
举例来说,该多个较佳实施例的主要治疗目的为减少或改善不自觉的皱眉或嘴角下垂的人脸表情,以减少常给人生气或严肃的感觉,甚至减少负面的微表情,且还可在其他较佳实施例中,进一步在正面情绪指标组合的部分加强,而达到更优质、精确且个人化美感的美容医疗效果。
请参阅图5A至图5F,其为应用本发明实施例发明概念中的人工智能辅助评估方法及辅助评估系统的第一较佳实施概念示意图。
以图5A至图5F的内容,并搭配图1至图4所示为例,基于人工智能人脸表情评估模块110而侦测受测者1的多个静态脸部动作编码信息AU1-AUn,且可依据每一静态脸部动作编码信息AU1-AUn的一侦测结果与另一静态脸部动作编码信息AU1-AUn的另一侦测结果之间的表情变化,而得致动态脸部动作编码信息AU1’-AUn’(图未示出),并据以形成实时人脸表情评估结果A;也即,实时人脸表情评估结果A依据静态脸部动作编码信息的组合A1及动态脸部动作编码信息的组合A2而产生的每一情绪指标的比例结果而组合形成。
如图5A所示,受测者可能会不自觉地皱眉,或是因为老化关系而导致嘴角下垂,将该多个静态脸部动作编码信息AU1-AUn所造成的微表情都记录下来,并综合形成静态脸部动作编码信息的组合A1。
此外,如图5B所示,动态脸部动作编码信息的组合A2为受测者1依据不同情绪而呈现出不同人脸表情,例如:生气表情、大笑表情等。
接着,人工智能脸部情绪分析辨识单元114进一步定量分析每一脸部动作编码信息的脸部肌肉群在不同情绪表情时的作动强度(包括前述的静态脸部动作编码信息的组合A1与动态脸部动作编码信息的组合A2),而提供更精准的动态参数值,以作为情绪指标组合A31-A33、评估治疗部位结果的组合与优选顺序的优选组合C1-C2,以及注射填充剂的种类D与填充剂的剂量U的治疗参考。
再则,如图5C及图5D所示,受测者1的多个情绪指标组合A31-A33分别为悲伤指标为35.2%、生气指标为14.1%、害怕指标为17.7%,以及依据该多个情绪指标组合A31-A33所对应的每一脸部动作编码信息AU1-AUn的相关信息。
另一方面,人脸表情评估模块110还可搭配人脸三维(3D)仿真单元与肤质检测单元,而进一步提供个人脸部特征P的习惯表情的静态纹路特征P1、静态轮廓线特征P2或肤质特征P3等(图未示出)。
接着,如图5E所示,输入实时人脸表情评估结果A至人工智能美容医疗辨识分析模块120中,或人工智能美容医疗辨识分析模块120主动接收实时人脸表情评估结果A,并选择是否搭配医疗知识规则模块130及美容医疗辅助评估结果历史数据库140中的至少一者,以执行人工智能美容医疗辨识分析程序121。之后,产生并输出受测者1的实时美容医疗辅助评估结果,其中该实时美容医疗辅助评估结果至少包括评估治疗部位结果的组合与优选顺序的优选组合C1-C2,以及注射填充剂的种类D与填充剂的剂量U。
以此实施例来说,针对脸部动作编码信息AU1有关的肌肉群(内侧额肌,InnerFrontalis),施以肉毒杆菌素Botulinum Toxin 8s.U.,以及针对脸部动作编码信息AU15有关的肌肉群(降口角肌,depressor anguli oris)与脸部动作编码信息A17有关的肌肉群(颏肌,mentails),施以Botulinum Toxin DAO 4s.U.与Mentalis 4s.U的美容医疗辅助评估结果建议。
如此一来,请参阅图5F所示,比较受测者1的脸部表情在实施治疗之前、一周后与三周后的实时人脸表情评估结果,自其中可以发现受测者1脸部的悲伤指标系从35.2%经过至一周治疗后直接降至为0%;另外,对于受测者1脸部的生气指标的变化而言,其自治疗前的14.1%经过至一周治疗后降至为7.8%,甚且在实施肉毒杆菌治疗后三周,脸部的生气指标将可完全降至0%。
另一方面,针对悲伤指标的美容医疗辅助评估结果建议,通过本发明实施例的实施运作也可给出另一种治疗参考指引路径:例如,当出现悲伤指标占总情绪指标组合(总表情)的10%以上时,且脸部动作编码单元中的脸部动作编码信息AU1、脸部动作编码信息AU4、脸部动作编码信息AU15皆出现增强(即占比提高)时,建议可在相对应的肌肉群位置处注射肉毒杆菌素Botulinum Toxin A type;当然,本发明实施例可通过采用更多的个案数据(美容医疗辅助评估结果)与进行多次人工智能深度学习/训练程序,而显然提出更佳的治疗建议方案,不以上述的美容医疗辅助评估结果为限。
再者,请参阅图6,其为应用本发明实施例发明概念中的人工智能辅助评估方法及辅助评估系统的第二较佳实施概念示意图。
如图6所示,基于人工智能人脸表情评估模块110而侦测受测者2的多个静态脸部动作编码信息AU1-AUn(及动态脸部动作编码信息AU1’-AUn’(图未示出)),从而提供实时人脸表情评估结果A,依此得知受测者2的多个情绪指标组合中的中性指标为26.3%为最高的,接着悲伤指标为13.9%为次高的,且同时美容医疗辅助评估结果中,其建议优选治疗部位的顺序为,主要造成悲伤指标的脸部动作编码信息AU1,其被归类于内侧眉头上扬(InnerBrow Raiser)。
基此,再将前述实时人脸表情评估结果A结合医疗知识规则模块130与美容医疗辅助评估结果历史数据库140,即可得知,通过功能性医学解剖规则以及动态性医学解剖规则能指引出与前述脸部动作编码信息AU1高度相关且连动的肌肉群所在位置,之后,便可进一步提供用于进行个人化美容医疗的实时美容医疗辅助评估结果,例如:针对与脸部动作编码信息AU1有关的肌肉群(内侧额肌,Inner Frontalis),施以肉毒素Toxin 8s.U.的治疗参考建议。
如此一来,比较受测者2的脸部表情在实施治疗之前、一周后与三周后的实时人脸表情评估结果,自其中可以发现受测者2脸部的悲伤指标从13.9%经过至一周治疗后直接降至为8.4%,甚且在实施肉毒杆菌治疗后三周,脸部的悲伤指标将可完全降至为0%。简言之,通过本发明实施例应用于美容医疗的人工智能辅助评估方法及其系统,其所能得到的美容医疗治疗成效确实是十分显著。
之后,请参阅图7,其为应用本发明实施例发明概念中的人工智能辅助评估方法及辅助评估系统的第三较佳实施概念示意图。
如图7所示,基于人工智能人脸表情评估模块110而侦测受测者3的多个脸部动作编码信息AU1-AUn(及动态脸部动作编码信息AU1’-AUn’(图未示出)),从而提供实时人脸表情评估结果A,依此可得知,不论是哪一种性别或年龄的人类生气表情,大致都与前述脸部动作编码信息AU15与脸部动作编码信息AU17的肌肉群有关;且比较受测者3的脸部表情在实施治疗之前、一周后与三周后的人脸表情评估结果,自其中可以发现受测者3脸部的生气指标,经过三周的治疗后已有很明显的改善。
也就是说,针对生气指标的美容医疗辅助评估结果建议,通过本发明实施例的实施运作可给出另一种治疗参考指引路径,例如:当出现生气指标为10%以上,且脸部动作编码单元中的脸部动作编码信息AU15与脸部动作编码信息AU17皆出现增强(即占比提高)时,建议可在相对应的肌肉群(降口角肌与颏肌)位置处注射肉毒杆菌素Botulinum Toxin Atype。
然而,针对上述的较佳实施例,并对照于当前仅以医师个人判断的美容医疗治疗建议作法后,即可得知,现有技术中实际操作确实易受限于医师个人经验与刻板印象的影响,以致不能够全盘客观的考虑,进而存有漏失每个人微表情的差异的重大缺失。
详细来说,治疗目标为减少生气指标,医师往往使用肉毒杆菌素去减少皱眉肌的动作,而忽略每个人生气表情的肌肉动作其实微有差异,少数人可能嘴角同时往下,或下巴肌肉会收缩上扬,也有人抬眉肌内侧有些动作,而这些肌肉的牵动有可能只有部分是肉眼可见的,因此易造成肌肉牵动过度细微而不易察觉,从而产生治疗上的盲点与误区,进而造成反效果的医疗成效与不必要的医疗纠纷。
举例来说,于图5A至图5F中的受测者1,如改为当前医师个人判断的美容医疗治疗建议为,其主要治疗部位将会集中为脸部动作编码信息AU15与脸部动作编码信息AU17,其中,医师遗漏生气指标的脸部动作编码信息AU1,而使美容医疗治疗效果不佳(图未示出)。
其次,在图6中的受测者2,以当前医师个人判断的美容医疗治疗建议为,通常主要治疗部位为脸部动作编码信息AU2,其判断依据为受测者2之眼轮匝肌引起眼睛下垂,而造成悲伤指标。然而,执行美容医疗行为后,比较受测者2的脸部表情在实施治疗之前、一周后与三周后的实时人脸表情评估结果,自其中可以发现受测者2脸部的悲伤指标,系从6.8%经过至一周治疗后直接降至为5.1%,但在实施肉毒杆菌治疗后三周的悲伤指标却回复至6.7%,其原因在于医师错误判断受测者2的治疗部位,而导致美容医疗治疗效果不佳,从而无法有效地改善悲伤指标(图未示出)。
最后,在图7中的受测者3,如改以当前医师个人判断的美容医疗治疗建议为,则通常主要治疗部位为于脸部动作编码信息AU17处注射肉毒杆菌素abobotulinumtoxin A共4剂量(Units)。然而,执行美容医疗行为后,比较受测者3的脸部表情在实施治疗之前、一周后与三周后的实时人脸表情评估结果,自其中可以发现受测者3脸部的生气指标,从10.9%经过至一周治疗后直接降至为5.9%,但在实施肉毒杆菌治疗后三周的生气指标却升至13.9%,其原因在于医师不但遗漏判断受测者3的治疗部位(脸部动作编码信息AU15),且注射肉毒杆菌素abobotulinumtoxin A在脸部动作编码信息AU17的剂量不足够,而导致非但无法改善受测者的人脸表情,反而还造成生气指标提升的反效果(图未示出)。
其中,相较于本发明实施例的应用于美容医疗的人工智能辅助评估方法及其系统,其基于人工智能人脸表情评估模块110提供受测者高质量的实时人脸表情评估结果A,再通过人工智能美容医疗辨识分析模块120选择搭配医疗知识规则模块中的多个医疗规则与美容医疗辅助评估结果历史数据库,以执行人工智能辨识分析程序,从而产生并输出美容医疗辅助评估结果,其中美容医疗辅助评估结果至少包括受测者的评估治疗部位结果的组合与优选顺序及/或注射填充剂种类与剂量。如此一来,本发明实施例不但能精准地分析评估出正确及完整的治疗部位,且也能准确地提供注射填充剂的种类与剂量,从而达到个人化美感的美容医疗治疗效果。
除此之外,本发明实施例还可进行加强正面情绪指标组合的美容医疗行为,或,针对人脸老化的治疗部位做预防性改善的美容治疗建议,例如:人脸肌肉松弛后会造成嘴角下垂,因而可能产生生气指标的面相等。
另一方面,本发明实施例的方法与系统可应用于多种美容医疗或美学领域,还能作为美容医疗手术前后的治疗效果的判断依据,也可应用于医疗教学领域,作为培训医师以进修或改善先前治疗时的盲点与误区。
本发明在上文中已以较佳实施例揭露,熟悉本项技术者应理解的是,该实施例仅用于描绘本发明,而不应解读为限制本发明的范围。应注意的是,举凡与该实施例等效的变化与置换,均应设为涵盖于本发明的范畴内。因此,本发明的保护范围当以下文的申请专利范围所界定者为准。

Claims (32)

1.一种应用于美容医疗的人工智能辅助评估方法,其特征在于,至少包括下列步骤:
(a)提供一受测者的一实时人脸表情评估结果;以及
(b)基于搭配一医疗知识规则模块及一美容医疗辅助评估结果历史数据库中的至少一者,以针对该实时人脸表情评估结果执行一人工智能美容医疗辨识分析程序,并产生输出一实时美容医疗辅助评估结果;
其中,该步骤(a)至少包括下列步骤:
(a1)执行一人工智能影像侦测程序,以取得该受测者的一实时脸部影像;
(a2)基于该实时脸部影像,以执行一人工智能影像校准与特征撷取程序,并藉以取得一脸部表面与几何特征信息;
(a3)基于该脸部表面与该几何特征信息,以执行一人工智能脸部动作编码程序,并藉以取得多个脸部动作编码信息;以及
(a4)基于该多个脸部动作编码信息,以执行一人工智能脸部情绪辨识程序,并藉以取得对应于该实时脸部影像的多个情绪指标的比例分布与组合信息,并形成该实时人脸表情评估结果。
2.如权利要求1所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,该步骤(b)之后还包括下列步骤:
(c)反馈并储存该实时美容医疗辅助评估结果至该医疗知识规则模块、及该美容医疗辅助评估结果历史数据库中的至少一者。
3.如权利要求1所述的应用于美容医疗的人工智能辅助评估方法,该实时美容医疗辅助评估结果至少包括:
该受测者的一评估治疗部位结果的组合与优选顺序,或该评估治疗部位结果的组合与优选顺序以及一注射填充剂种类与剂量。
4.如权利要求1所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,该医疗知识规则模块还包括一功能性医学解剖规则以及一动态性医学解剖规则。
5.如权利要求1所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,应用于该人工智能影像侦测程序的人工智能机器学习法,包括属于边界侦测算法类型的一哈尔特征结合自适应增强的机器学习法,或以一方向梯度直方图配合支持向量机的机器学习法。
6.如权利要求1所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,在该步骤(a2)中的该人工智能影像校准与特征撷取程序至少包括下列步骤:
(a21)基于该实时脸部影像,以执行一人工智能脸部关键点标识程序,并以此取得一脸部关键点标识信息;
(a22)基于该脸部关键点标识信息,以执行一脸部影像校准程序,并以此取得一正规化的脸部影像信息;以及
(a23)基于该脸部关键点标识信息与该正规化的脸部影像信息,以执行一脸部影像特征撷取程序,并以此取得该脸部影像表面与该几何特征信息。
7.如权利要求6所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,在执行该人工智能脸部关键点标识程序之前,先行通过一定数量的训练数据集,并以一机器学习方式进行该人工智能脸部关键点标识程序中的一脸部关键点标识模型的人工智能训练。
8.如权利要求1所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,该脸部影像校准程序至少包括以一仿射变换技术消除该脸部关键点标识信息中因姿势不同所带来的误差,以及使脸部影像的大小与呈现方式统一化,以此取得该正规化的脸部影像信息。
9.如权利要求6所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,该脸部影像特征撷取程序至少包括一脸部影像表面特征撷取程序与一脸部影像几何特征撷取程序;
其中,该脸部影像表面特征撷取程序包括执行以一方向梯度直方图取得多维度的向量数据,并结合进行一主成分分析以降低向量数据量及保留一脸部影像表面特征信息,而该脸部影像几何特征撷取程序包括基于该脸部关键点标识信息,以取得一脸部影像几何特征信息。
10.如权利要求6所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,在执行该人工智能脸部动作编码程序之前,先行通过以一定数量的训练数据集与一脸部动作编码系统,并以一机器学习方式进行该人工智能脸部动作编码程序中的一脸部动作编码模型的人工智能训练。
11.如权利要求10所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,该脸部动作编码模型的人工智能训练包括在一静态表情及/或一动态表情的不同情境下的该脸部动作编码模型的训练,以分别取得一静态脸部动作编码信息及/或一动态脸部动作编码信息。
12.如权利要求10所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,在执行该人工智能脸部情绪辨识程序之前,先行以包括至少以一情绪正负向性、一情绪唤起度与该多个情绪指标参数,结合该脸部动作编码系统,并以另一机器学习方式进行该人工智能脸部情绪辨识程序中的一脸部情绪辨识模型的人工智能训练。
13.如权利要求6所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,该美容医疗辅助评估结果历史数据库包括多个历史美容医疗辅助评估结果;其中,每一历史美容医疗辅助评估结果至少包括:历来的一受测者名称与一基本资料、一历史人脸表情评估结果、一个人脸部特征、该医疗知识规则模块中的一功能性医学解剖规则以及一动态性医学解剖规则、一评估治疗部位结果的组合与优选顺序以及一注射填充剂的种类与剂量。
14.如权利要求13所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,该个人脸部特征包括一习惯表情的静态纹路特征、一静态轮廓线特征或一肤质特征。
15.如权利要求13所述的应用于美容医疗的人工智能辅助评估方法,其特征在于,在执行该人工智能美容医疗辨识分析程序之前,先行以该多个历史美容医疗辅助评估结果,并以一人工神经网络算法及一深度学习算法中的至少一者,进行该人工智能美容医疗辨识分析程序的人工智能训练。
16.一种应用于美容医疗的人工智能辅助评估系统,其特征在于,至少包括:
一人工智能人脸表情评估模块,提供一受测者的一实时人脸表情评估结果;
一人工智能美容医疗辨识分析模块,连接于该人工智能人脸表情评估模块;以及
一输出输入模块,连接于该人工智能美容医疗辨识分析模块,其用于输入该受测者的一基本数据及/或一个人脸部特征,并输出至该人工智能美容医疗辨识分析模块中;
其中,该人工智能美容医疗辨识分析模块用于接收该受测者的该基本资料及/或该个人脸部特征中的至少一者,以及该实时人脸表情评估结果,并依据所连接的一医疗知识规则模块及一美容医疗辅助评估结果历史数据库中的至少一者,以执行一人工智能美容医疗辨识分析程序,且产生并输出一实时美容医疗辅助评估结果至该输出输入模块中。
17.如权利要求16所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该人工智能辨识分析模块反馈并储存该实时美容辅助评估结果至该医疗知识规则模块、及该美容医疗辅助评估结果历史数据库中的至少一者。
18.如权利要求16所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该实时美容医疗辅助评估结果至少包括该受测者的一评估治疗部位结果的组合与优选顺序,或该评估治疗部位结果的组合与优选顺序以及一注射填充剂种类与剂量。
19.如权利要求16所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该医疗知识规则模块还包括一功能性医学解剖规则以及一动态性医学解剖规则。
20.如权利要求16所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该人工智能人脸表情评估模块包括:
一人工智能影像侦测单元,用于执行一人工智能影像侦测程序,以取得该受测者的一实时脸部影像;
一人工智能影像校准与特征撷取组合单元,连接于该人工智能影像侦测单元,该人工智能影像校准与特征撷取组合单元,用于基于该实时脸部影像,以执行一人工智能影像校准与特征撷取程序,并以此取得一脸部表面与几何特征信息;
一人工智能脸部动作编码单元,连接于该人工智能影像校准与特征撷取组合单元,该人工智能脸部动作编码单元用于基于该脸部表面与该几何特征信息,以执行一人工智能脸部动作编码程序,并以此取得多个脸部动作编码信息;以及
一人工智能脸部情绪辨识单元,连接于该人工智能脸部动作编码单元,该人工智能脸部情绪辨识单元用于基于该多个脸部动作编码信息,以执行一人工智能脸部情绪辨识程序,并以此取得对应于该实时脸部影像的多个情绪指标的比例分布与组合信息,并形成该实时人脸表情评估结果。
21.如权利要求20所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,应用于该人工智能影像侦测程序的人工智能机器学习法,包括属于边界侦测算法类型的一哈尔特征结合自适应增强的机器学习法,或以一方向梯度直方图配合支持向量机的机器学习法。
22.如权利要求20所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,在执行该人工智能脸部动作编码程序之前,先行通过以一定数量的训练数据集与一脸部动作编码系统,并以一机器学习方式进行该人工智能脸部动作编码程序中的一脸部动作编码模型的人工智能训练。
23.如权利要求22所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该脸部动作编码模型的人工智能训练包括在一静态表情及/或一动态表情的不同情境下的该脸部动作编码模型的训练,以分别取得一静态脸部动作编码信息及/或一动态脸部动作编码信息。
24.如权利要求22所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,在执行该人工智能脸部情绪辨识程序之前,先行以包括至少以一情绪正负向性、一情绪唤起度与该多个情绪指标参数,结合该脸部动作编码系统,并以另一机器学习方式进行该人工智能脸部情绪辨识程序中的一脸部情绪辨识模型的人工智能训练。
25.如权利要求20所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该人工智能影像校准与特征撷取组合单元包括:
一脸部关键点标识单元,连接于该人工智能影像侦测单元,该脸部关键点标识单元用于执行一人工智能脸部关键点标识程序,并以此取得一脸部关键点标识信息;
一脸部校准与遮蔽单元,连接于该脸部关键点标识单元,该脸部校准与遮蔽单元用于基于该脸部关键点标识信息,以执行一脸部影像校准程序,并以此取得一正规化的脸部影像信息;以及
一脸部特征撷取单元,连接于该脸部校准与遮蔽单元,该脸部特征撷取单元用于基于该脸部关键点标识信息与该正规化的脸部影像信息,以执行一脸部影像特征撷取程序,并以此取得该脸部影像表面与几何特征信息。
26.如权利要求25所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,在执行该人工智能脸部关键点标识程序之前,先行通过以一定数量的训练数据集,并以一机器学习方式进行该人工智能脸部关键点标识程序中的一脸部关键点标识模型的人工智能训练。
27.如权利要求25所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该脸部影像特征撷取程序至少包括一脸部影像表面特征撷取程序与一脸部影像几何特征撷取程序;其中,该脸部影像表面特征撷取程序包括执行以一方向梯度直方图取得多维度的向量数据,并结合进行一主成分分析以降低向量数据量及保留一脸部影像表面特征信息,而该脸部影像几何特征撷取程序包括基于该脸部关键点标识信息,以取得一脸部影像几何特征信息。
28.如权利要求25所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该美容医疗辅助评估结果历史数据库包括多个历史美容医疗辅助评估结果;其中,每一历史美容医疗辅助评估结果至少包括:历来的一受测者名称与一基本资料、一历史人脸表情评估结果、一个人脸部特征、该医疗知识规则模块中的一功能性医学解剖规则以及一动态性医学解剖规则、一评估治疗部位结果的组合与优选顺序以及一注射填充剂的种类与剂量。
29.如权利要求28所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该个人脸部特征包括一习惯表情的静态纹路特征、一静态轮廓线特征或一肤质特征。
30.如权利要求28所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,在执行该人工智能美容医疗辨识分析程序之前,先行以该多个历史美容医疗辅助评估结果,并以一人工神经网络算法及一深度学习算法中的至少一者,进行该人工智能美容医疗辨识分析程序的人工智能训练。
31.如权利要求16所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,基于该人工智能人脸表情评估模块、该人工智能辨识分析模块以及该输入输出模块而组装形成一电子装置;其中,该电子装置为一手持式智能行动装置、一个人计算机或一独立运作的智能装置。
32.如权利要求31所述的应用于美容医疗的人工智能辅助评估系统,其特征在于,该电子装置以一无线传输方式及一有线传输方式中的至少一者连接于该美容医疗辅助评估结果历史数据库及该医疗知识规则模块中的至少一者。
CN202210051288.XA 2021-01-15 2022-01-17 应用于美容医疗的人工智能辅助评估方法 Pending CN114842522A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163137767P 2021-01-15 2021-01-15
US63/137,767 2021-01-15

Publications (1)

Publication Number Publication Date
CN114842522A true CN114842522A (zh) 2022-08-02

Family

ID=82406360

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210051288.XA Pending CN114842522A (zh) 2021-01-15 2022-01-17 应用于美容医疗的人工智能辅助评估方法

Country Status (3)

Country Link
US (1) US20220230471A1 (zh)
CN (1) CN114842522A (zh)
TW (1) TW202238618A (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090230A1 (ja) * 2022-10-27 2024-05-02 株式会社資生堂 情報処理装置、情報処理方法及びプログラム
CN116458945B (zh) * 2023-04-25 2024-01-16 杭州整形医院有限公司 一种儿童面部美容缝合路线的智能引导系统及方法

Also Published As

Publication number Publication date
TW202238618A (zh) 2022-10-01
US20220230471A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
Roether et al. Critical features for the perception of emotion from gait
Lanitis A survey of the effects of aging on biometric identity verification
CN110147729A (zh) 用户情绪识别方法、装置、计算机设备及存储介质
CN114842522A (zh) 应用于美容医疗的人工智能辅助评估方法
Tsai et al. Human face aging with guided prediction and detail synthesis
Murtaza et al. Facial expression detection using six facial expressions hexagon (SFEH) model
Desrosiers et al. Analyzing of facial paralysis by shape analysis of 3D face sequences
Hu et al. Detecting depression based on facial cues elicited by emotional stimuli in video
Lee Detection and recognition of facial emotion using bezier curves
Joshi An automated framework for depression analysis
Anwar et al. Real time intention recognition
TWI646438B (zh) 情緒偵測系統及方法
US20220101655A1 (en) System and method of facial analysis
Mantri et al. Cumulative video analysis based smart framework for detection of depression disorders
TWI756681B (zh) 運用於美容醫療之人工智慧輔助評估方法及其系統
CN109697413B (zh) 基于头部姿态的人格分析方法、系统和存储介质
Ujir 3D facial expression classification using a statistical model of surface normals and a modular approach
Zhang et al. Facial multi-characteristics and applications
Al-Dahoud The computational face for facial emotion analysis: Computer based emotion analysis from the face
Bigand et al. Animating virtual signers: The issue of gestural anonymization
Ghent et al. A computational model of facial expression
CN114494601B (zh) 基于人脸图像的三维人脸检索正畸矫正和疗效模拟系统
KR102536648B1 (ko) 시각 인공지능 활용 안면 근육 분석에 기초한 주사 위치 및 투여량 추정 시스템 및 그 방법
Ugail et al. Computational Techniques for Human Smile Analysis
Ferrari et al. A 3DMM-Based Framework for Deformation Measurement in Face Rehabilitation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination