CN117292097A - Ar试穿互动体验方法及系统 - Google Patents
Ar试穿互动体验方法及系统 Download PDFInfo
- Publication number
- CN117292097A CN117292097A CN202311574022.4A CN202311574022A CN117292097A CN 117292097 A CN117292097 A CN 117292097A CN 202311574022 A CN202311574022 A CN 202311574022A CN 117292097 A CN117292097 A CN 117292097A
- Authority
- CN
- China
- Prior art keywords
- user
- model
- virtual
- module
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000000694 effects Effects 0.000 claims abstract description 85
- 238000005516 engineering process Methods 0.000 claims abstract description 68
- 230000001815 facial effect Effects 0.000 claims abstract description 49
- 230000003993 interaction Effects 0.000 claims abstract description 41
- 238000004458 analytical method Methods 0.000 claims abstract description 36
- 230000008451 emotion Effects 0.000 claims abstract description 22
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 17
- 230000008447 perception Effects 0.000 claims abstract description 8
- 238000005286 illumination Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 17
- 238000004088 simulation Methods 0.000 claims description 13
- 238000003058 natural language processing Methods 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 11
- 239000003086 colorant Substances 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 6
- 210000000988 bone and bone Anatomy 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000007405 data analysis Methods 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012423 maintenance Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims description 3
- 238000010845 search algorithm Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 5
- 230000037237 body shape Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003997 social interaction Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000036314 physical performance Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出一种AR试穿互动体验方法及系统,包括以下步骤:基于深度相机技术,采用OpenPose骨骼追踪算法,对用户的身体姿势进行实时捕捉,获取用户的骨骼结构和关节角度信息,生成用户的三维骨骼模型,利用深度相机和OpenPose算法,实时创建用户的三维骨骼模型,卷积神经网络分析用户的面部特征并结合购物与社交数据以确定性别、年龄及情绪和时尚偏好,三维模型匹配算法从虚拟库中选取并通过虚拟试穿引擎与用户模型融合,形变模型和有限元分析调整试穿效果,环境感知模块结合传感器数据和光线追踪技术优化虚拟模型以适应各种环境,用户互动界面通过手势和语音控制实现个性化操作,支持多用户以AR技术进行远程协作共享体验。
Description
技术领域
本发明涉及AR技术领域,尤其涉及AR试穿互动体验方法及系统。
背景技术
AR是一种技术,它将虚拟信息与现实世界中的物体、场景或环境相融合,以提供更丰富、沉浸式的用户体验。这种技术通过智能设备(如智能手机、AR眼镜、平板电脑)的摄像头或传感器来捕捉现实世界的信息,并将虚拟图像、音频或数据叠加在用户的视野中,AR技术旨在改善用户的感知和互动,使其能够更好地理解和探索物理世界,并与虚拟元素进行互动。
AR试穿互动体验是增强现实的一个具体应用,它通常用于试穿虚拟衣物、眼镜、首饰或其他时尚物品,以及评估它们在用户身上的效果,这一技术的主要目的是让用户在虚拟世界中“试穿”不同的物品,以便更好地了解它们是否适合自己的需求和喜好,通过AR试穿互动体验,用户可以实时查看虚拟物品与其自身的搭配效果,而无需实际穿戴或购买物品。
为了实现AR试穿互动体验,通常会利用摄像头捕捉用户的图像,然后使用计算机视觉和图像处理技术将虚拟物品精确地叠加在用户身体上,这需要高度准确的物体追踪、光照模拟和实时渲染等技术,以确保虚拟物品与用户的实际环境和外观相协调,此外,用户通常可以通过手势、触摸屏幕或声音命令来与虚拟物品进行互动,例如旋转、缩放或更改其属性,以更好地满足他们的需求。
现有的AR试穿技术通常局限于较为基础的虚拟试穿体验,缺乏深度捕捉和面部分析的复杂算法,因此难以精确地捕捉用户的动态姿势和表情,导致虚拟试穿效果与用户的实际体型和表情反馈不匹配,此外,它们往往缺少考虑环境因素,使得虚拟试穿效果在不同光照和背景条件下显得不自然,也缺少有效的用户互动和个性化推荐系统,限制了用户体验的个性化和参与度,多用户交互和协作也不常见,这限制了社交购物的潜力和在线购物的互动性。
发明内容
本发明的目的是解决现有技术中存在的缺点,而提出的AR试穿互动体验方法及系统。
为了实现上述目的,本发明采用了如下技术方案:AR试穿互动体验方法,包括以下步骤:
S1:基于深度相机技术,采用OpenPose骨骼追踪算法,对用户的身体姿势进行实时捕捉,获取用户的骨骼结构和关节角度信息,生成用户的三维骨骼模型;
S2:基于所述三维骨骼模型,应用卷积神经网络算法,分析用户的面部特征,以推测其性别、年龄和情感,结合用户历史购物记录和社交媒体数据,使用自然语言处理技术分析用户的时尚偏好,生成用户的面部特征模型;
S3:基于所述面部特征模型,借助虚拟衣物数据库和三维模型匹配算法,通过最近邻搜索或三维网格匹配,根据用户的骨骼结构和时尚偏好,从虚拟衣物数据库中选择匹配的虚拟衣物,生成虚拟衣物模型;
S4:通过虚拟试穿引擎,将所述虚拟衣物模型与用户的骨骼模型相融合,使用形变模型和有限元分析进行调整,生成虚拟试穿效果;
S5:基于所述虚拟试穿效果,结合环境感知传感器数据,基于光线传感器和温度传感器,采用光线追踪算法,模拟多环境下的光照和阴影,调整虚拟试穿效果,生成自适应虚拟试穿模型;
S6:基于所述自适应虚拟试穿模型,启用用户互动界面,用户通过手势识别和语音命令与虚拟衣服进行互动,具体为调整颜色、旋转或更改样式,系统实时反馈并生成互动操作模型;
S7:基于所述互动操作模型和自适应虚拟试穿模型,借助AR技术,允许多用户的远程协作,实时共享AR体验;
所述三维骨骼模型包括骨骼节点坐标、骨骼长度和关节角度,所述面部特征模型包括性别、年龄、情感,以及用户的时尚风格偏好,所述虚拟衣物模型包括三维模型、颜色、纹理和风格,所述虚拟试穿效果包括虚拟衣物的形状、大小、位置和纹理,所述自适应虚拟试穿模型包括对光线、阴影和背景的适应性调整,所述互动操作模型包括用户的互动指令和对虚拟衣物的调整。
作为本发明的进一步方案,基于深度相机技术,采用OpenPose骨骼追踪算法,对用户的身体姿势进行实时捕捉,获取用户的骨骼结构和关节角度信息,生成用户三维骨骼模型的步骤具体为:
S101:借助深度相机技术,采用深度图像采集算法,获取用户的实时深度图像数据,生成用户的深度图像;
S102:基于所述深度图像,采用RGB图像采集算法,获取用户的实时RGB彩色图像数据,生成用户的RGB图像;
S103:基于所述深度图像和RGB图像,实时捕捉用户的身体姿势,获取用户的骨骼结构和关节角度信息,采用三维建模算法,生成用户的三维骨骼模型。
作为本发明的进一步方案,基于所述三维骨骼模型,应用卷积神经网络算法,分析用户的面部特征,以推测其性别、年龄和情感,结合用户历史购物记录和社交媒体数据,使用自然语言处理技术分析用户的时尚偏好,生成用户的面部特征模型的步骤具体为:
S201:基于所述三维骨骼模型,提取用户的面部特征点坐标,包括眼睛、鼻子和嘴巴,生成用户的面部特征点坐标;
S202:基于所述面部特征点坐标,采用卷积神经网络算法,分析用户的面部特征,生成用户的性别、年龄和情感信息;
S203:获取用户的历史购物记录、社交媒体信息和时尚风格信息,结合所述性别、年龄和情感信息,采用自然语言处理技术,生成用户的历史数据,分析用户的时尚偏好。
作为本发明的进一步方案,基于所述面部特征模型,借助虚拟衣物数据库和三维模型匹配算法,通过最近邻搜索或三维网格匹配,根据用户的骨骼结构和时尚偏好,从虚拟衣物数据库中选择匹配的虚拟衣物,生成虚拟衣物模型的步骤具体为:
S301:基于所述用户的三维骨骼模型,运用三维模型匹配算法,测量用户的身体尺寸和形态,生成用户身体特征数据;
S302:基于所述身体特征数据和用户的时尚偏好,采用近邻搜索算法筛选出与用户特征相匹配的虚拟衣物,生成候选虚拟衣物列表;
S303:从所述候选虚拟衣物列表中,运用三维网格匹配技术细化搜索,生成匹配虚拟衣物数据;
S304:对所述匹配虚拟衣物数据进行渲染和细节调整,生成虚拟衣物模型。
作为本发明的进一步方案,通过虚拟试穿引擎,将所述虚拟衣物模型与用户的骨骼模型相融合,使用形变模型和有限元分析进行调整,生成虚拟试穿效果的步骤具体为:
S401:基于所述历史数据和三维骨骼模型,利用虚拟试穿引擎,将用户的三维骨骼模型与虚拟衣物模型融合,生成虚拟试穿模型;
S402:基于所述虚拟试穿模型,应用形变模型算法,根据用户的骨骼结构,调整虚拟衣物的形状和位置,生成初步虚拟试穿效果;
S403:基于所述初步虚拟试穿效果,运用有限元分析技术,模拟虚拟衣物材质的物理行为,生成有限元分析后的虚拟试穿效果;
S404:根据所述用户的时尚偏好,调整虚拟衣物的纹理、颜色和风格,结合有限元分析后的虚拟试穿效果,生成纹理调整后的虚拟试穿效果。
作为本发明的进一步方案,基于所述虚拟试穿效果,结合环境感知传感器数据,基于光线传感器和温度传感器,采用光线追踪算法,模拟多环境下的光照和阴影,调整虚拟试穿效果,生成自适应虚拟试穿模型的步骤具体为:
S501:基于所述纹理调整后的虚拟试穿效果并借助光线传感器和温度传感器,采用光感知算法,捕捉当前环境的光线强度和光线分布,以及获取当前环境的温度数据,从而生成光线传感器和温度传感器数据;
S502:以所述光线传感器和温度传感器数据为输入,模拟多环境下的光照和阴影效果,生成模拟的光照和阴影信息;
S503:借助所述光照和阴影信息,根据光线追踪算法的输出,调整并生成自适应虚拟试穿模型。
作为本发明的进一步方案,基于所述自适应虚拟试穿模型,启用用户互动界面,用户通过手势识别和语音命令与虚拟衣服进行互动,具体为调整颜色、旋转或更改样式,系统实时反馈并生成互动操作模型的步骤具体为:
S601:基于所述自适应虚拟试穿模型,借助用户互动界面,使用深度相机技术和手势识别算法捕捉用户手势,生成用户手势识别数据;
S602:通过语音识别引擎,识别用户的语音命令和指令,生成用户语音命令识别结果;
S603:根据所述手势识别数据和语音命令识别结果,结合自适应虚拟试穿模型,调整虚拟衣服的颜色、旋转或样式,实时反馈用户的操作,以及虚拟试穿效果的变化,生成互动操作模型。
作为本发明的进一步方案,基于所述互动操作模型和自适应虚拟试穿模型,借助AR技术,允许多用户的远程协作,实时共享AR体验的步骤具体为:
S701:基于所述互动操作模型和自适应虚拟试穿模型,借助AR技术,建立多用户AR协作环境,生成多用户AR协作模型;
S702:基于所述多用户AR协作模型,获取远程用户身份验证信息,实施权限控制机制,生成用户信息模型;
S703:基于所述用户信息模型,借助AR云服务器,将用户的反馈和虚拟试穿效果关联,通过时间戳机制进行同步。
AR试穿互动体验系统,所述AR试穿互动体验系统用于执行上述AR试穿互动体验方法,所述系统包括深度捕捉模块、面部分析模块、虚拟试穿模块、环境感知模块、互动控制模块、多用户远程协作模块、用户信息模块、AR云服务模块。
作为本发明的进一步方案,所述深度捕捉模块基于深度相机技术,获取并生成用户的深度图像和RGB彩色实时图像,实时捕捉身体姿势,获取骨骼及关节信息,生成三维骨骼模型;
所述面部分析模块基于深度图像、RGB图像及三维骨骼模型,提取面部特征点坐标,通过卷积神经网络算法分析特征点,进行性别、年龄和情感信息的推测,生成用户历史数据;
所述虚拟试穿模块基于三维骨骼模型与历史数据,通过虚拟试穿引擎与衣物模型融合,创建初步的试穿效果,通过形变模型和有限元分析技术,生成纹理调整后的虚拟试穿效果;
所述环境感知模块基于纹理调整后的虚拟试穿效果,通过光线和温度传感器数据,采用光感知算法,模拟多环境下的光照和阴影效果,调整并生成自适应虚拟试穿模型;
所述互动控制模块基于自适应虚拟试穿模型,利用用户互动界面,采用深度相机技术和手势识别算法捕捉手势,并通过语音识别引擎识别语音命令和指令,生成互动操作模型;
所述多用户远程协作模块基于自适应虚拟试穿模型和互动操作模型,借助AR技术建立多用户AR协作环境,并生成多用户AR协作模型;
所述用户信息模块基于多用户AR协作模型,收集远程用户的身份验证信息,并实施权限控制,生成用户信息模型;
所述AR云服务模块基于用户信息模型,利用AR云服务器将用户反馈和虚拟试穿效果进行关联,并通过时间戳机制进行数据同步。
作为本发明的进一步方案,所述深度捕捉模块包括深度图像采集子模块、RGB图像采集子模块、姿态识别子模块和三维建模子模块;
所述面部分析模块包括特征点提取子模块、数据分析处理子模块、生物统计信息推断子模块和历史数据生成子模块;
所述虚拟试穿模块包括融合引擎子模块、形变模拟子模块、物理行为模拟子模块和个性化调整子模块;
所述环境感知模块包括环境数据采集子模块、光照模拟子模块、阴影效果处理子模块和自适应调整子模块;
所述互动控制模块包括手势识别子模块、语音指令处理子模块、互动响应子模块和用户界面交互子模块;
所述多用户远程协作模块包括AR协作环境构建子模块、实时数据同步子模块、远程通信接口子模块和协作行为管理子模块;
所述用户信息模块包括身份认证子模块、权限控制子模块、用户配置子模块和安全管理子模块;
所述AR云服务模块包括数据关联处理子模块、时间戳同步子模块、云存储管理子模块和云服务维护子模块。
与现有技术相比,本发明的优点和积极效果在于:
本发明中,在改进后的AR试穿互动体验方法引入了一系列高级技术,包括OpenPose骨骼追踪、卷积神经网络、自然语言处理、光线追踪算法以及AR技术,为用户提供了一个高度沉浸和交互式的虚拟试穿体验,优点体现在其能够实时捕捉和分析用户的身体姿势和面部特征,以更精准地推断用户的个人属性和时尚偏好,此外,结合环境感知技术调整虚拟试穿效果,使其适应不同光照和温度条件,增强了虚拟试穿的真实感,互动控制和多用户远程协作功能则极大地扩展了用户参与度,允许远程用户共同体验和协作。
附图说明
图1为本发明的工作流程示意图;
图2为本发明的S1细化流程图;
图3为本发明的S2细化流程图;
图4为本发明的S3细化流程图;
图5为本发明的S4细化流程图;
图6为本发明的S5细化流程图;
图7为本发明的S6细化流程图;
图8为本发明的S7细化流程图;
图9为本发明的系统流程图;
图10为本发明的系统框架示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
实施例一
请参阅图1,本发明提供一种技术方案:AR试穿互动体验方法,包括以下步骤:
S1:基于深度相机技术,采用OpenPose骨骼追踪算法,对用户的身体姿势进行实时捕捉,获取用户的骨骼结构和关节角度信息,生成用户的三维骨骼模型;
S2:基于三维骨骼模型,应用卷积神经网络算法,分析用户的面部特征,以推测其性别、年龄和情感,结合用户历史购物记录和社交媒体数据,使用自然语言处理技术分析用户的时尚偏好,生成用户的面部特征模型;
S3:基于面部特征模型,借助虚拟衣物数据库和三维模型匹配算法,通过最近邻搜索或三维网格匹配,根据用户的骨骼结构和时尚偏好,从虚拟衣物数据库中选择匹配的虚拟衣物,生成虚拟衣物模型;
S4:通过虚拟试穿引擎,将虚拟衣物模型与用户的骨骼模型相融合,使用形变模型和有限元分析进行调整,生成虚拟试穿效果;
S5:基于虚拟试穿效果,结合环境感知传感器数据,基于光线传感器和温度传感器,采用光线追踪算法,模拟多环境下的光照和阴影,调整虚拟试穿效果,生成自适应虚拟试穿模型;
S6:基于自适应虚拟试穿模型,启用用户互动界面,用户通过手势识别和语音命令与虚拟衣服进行互动,具体为调整颜色、旋转或更改样式,系统实时反馈并生成互动操作模型;
S7:基于互动操作模型和自适应虚拟试穿模型,借助AR技术,允许多用户的远程协作,实时共享AR体验;
三维骨骼模型包括骨骼节点坐标、骨骼长度和关节角度,面部特征模型包括性别、年龄、情感,以及用户的时尚风格偏好,虚拟衣物模型包括三维模型、颜色、纹理和风格,虚拟试穿效果包括虚拟衣物的形状、大小、位置和纹理,自适应虚拟试穿模型包括对光线、阴影和背景的适应性调整,互动操作模型包括用户的互动指令和对虚拟衣物的调整。
本发明提出的AR试穿互动体验方法,通过结合先进的深度相机技术和OpenPose骨骼追踪算法,能够实时精确地捕捉用户的动作和姿态,创建精细的三维骨骼模型,极大提升了虚拟试穿的准确性和互动性,卷积神经网络和自然语言处理技术的应用进一步分析用户面部特征与个人偏好,为用户提供个性化的服装推荐,增强用户满意度并潜在提升转化率,智能匹配算法的使用从虚拟衣物库中精准筛选,结合形变模型和有限元分析调整虚拟衣物的物理表现,实现了极高的真实感,环境感知技术则确保了虚拟试穿效果在不同光照条件下的逼真性,提升了体验的自然度,用户通过手势和语音命令与系统互动,增加了虚拟试穿的趣味性和易用性,而多用户远程协作功能通过AR技术将个体体验转变为社交互动,扩展了体验的社交维度。
请参阅图2,基于深度相机技术,采用OpenPose骨骼追踪算法,对用户的身体姿势进行实时捕捉,获得用户的骨骼结构和关节角度信息,生成用户三维骨骼模型的步骤具体为:
S101:借助深度相机技术,采用深度图像采集算法,获取用户的实时深度图像数据,生成用户的深度图像;
S102:基于深度图像,采用RGB图像采集算法,获取用户的实时RGB彩色图像数据,生成用户的RGB图像;
S103:基于深度图像和RGB图像,实时捕捉用户的身体姿势,获取用户的骨骼结构和关节角度信息,采用三维建模算法,生成用户的三维骨骼模型。
在S101步骤中,利用深度相机技术配合深度图像采集算法,实时捕获用户的深度信息,从而生成深度图像,这一步骤是捕捉用户三维形态的基础,确保了后续步骤能够在正确的空间几何关系上进行,在S102步骤中,系统通过RGB图像采集算法并行捕获用户的彩色图像数据,生成高质量的RGB图像,这为捕捉用户的外观特征和衣着颜色提供了必要的视觉信息,在S103步骤中,系统综合利用深度图像和RGB图像,通过OpenPose骨骼追踪算法实时捕捉用户的动态姿势,获取精确的骨骼结构和关节角度信息,应用三维建模算法,根据捕捉到的数据精确构建出用户的三维骨骼模型,为虚拟试穿提供了精确的个体化模型基础,整个过程实现了从用户形态捕捉到三维建模的无缝对接,为用户提供了一个真实感强和交互性高的虚拟试穿体验。
请参阅图3,基于三维骨骼模型,应用卷积神经网络算法,分析用户的面部特征,以推测其性别、年龄和情感,结合用户历史购物记录和社交媒体数据,使用自然语言处理技术分析用户的时尚偏好,生成用户的面部特征模型的步骤具体为:
S201:基于三维骨骼模型,提取用户的面部特征点坐标,包括眼睛、鼻子和嘴巴,生成用户的面部特征点坐标;
S202:基于面部特征点坐标,采用卷积神经网络算法,分析用户的面部特征,生成用户的性别、年龄和情感信息;
S203:获取用户的历史购物记录、社交媒体信息和时尚风格信息,结合性别、年龄和情感信息,采用自然语言处理技术,生成用户的历史数据,分析用户的时尚偏好。
在S201步骤中,基于三维骨骼模型,系统精确提取用户面部的关键特征点坐标,这些特征点涵盖了眼睛、鼻子和嘴巴重要面部区域,确保了面部表情和微小变化能够被准确捕捉,在S202步骤中,这些特征点坐标被输入到卷积神经网络算法中,该算法对用户的面部特征进行深入分析,进而推断出用户的性别、年龄和情感状态,这一步是个性化体验的关键,因为它允许系统理解用户的个人属性,并预测情绪反应,在S203步骤中,系统收集用户的历史购物记录和社交媒体数据,并结合前述分析得到的性别、年龄和情感信息,运用自然语言处理技术综合这些数据,这不仅包括文字信息的分析,还涉及到用户社交媒体上的图片和图像样式,全方位地理解用户的时尚偏好和购物习惯,通过这些综合分析,系统能够生成用户的历史数据,并深入分析其时尚偏好,最终形成一个全面的用户面部特征模型,整个流程的顺利实施为后续的虚拟试穿提供了坚实的个性化基础,确保了推荐的服饰不仅外观上合适,而且风格上也符合用户的喜好。
请参阅图4,基于面部特征模型,借助虚拟衣物数据库和三维模型匹配算法,通过最近邻搜索或三维网格匹配,根据用户的骨骼结构和时尚偏好,从虚拟衣物数据库中选择匹配的虚拟衣物,生成虚拟衣物模型的步骤具体为:
S301:基于用户的三维骨骼模型,运用三维模型匹配算法,测量用户的身体尺寸和形态,生成用户身体特征数据;
S302:基于身体特征数据和用户的时尚偏好,采用近邻搜索算法筛选出与用户特征相匹配的虚拟衣物,生成候选虚拟衣物列表;
S303:从候选虚拟衣物列表中,运用三维网格匹配技术细化搜索,生成匹配虚拟衣物数据;
S304:对匹配虚拟衣物数据进行渲染和细节调整,生成虚拟衣物模型。
在S301步骤中,通过三维模型匹配算法对用户的三维骨骼模型进行分析,精确测量身体的尺寸和形态,生成用户身体特征数据,在S302步骤中,系统根据这些身体特征数据和用户的个人时尚偏好,通过最近邻搜索算法从虚拟衣物数据库中筛选出相匹配的虚拟衣物,形成候选虚拟衣物列表,S303步骤中,对列表应用三维网格匹配技术,细化搜索过程,选择出最佳匹配的虚拟衣物,生成匹配虚拟衣物数据,S304步骤涉及到对这些数据进行渲染和细节上的调整,确保虚拟衣物在视觉上满足用户的审美和实际身体特征,最终生成精细化的虚拟衣物模型,这一整套流程确保了虚拟试穿的个性化和高度逼真性,为用户提供了一个高度定制化的试穿体验。
请参阅图5,通过虚拟试穿引擎,将虚拟衣物模型与用户的骨骼模型相融合,使用形变模型和有限元分析进行调整,生成虚拟试穿效果的步骤具体为:
S401:基于历史数据和三维骨骼模型,利用虚拟试穿引擎,将用户的三维骨骼模型与虚拟衣物模型融合,生成虚拟试穿模型;
S402:基于虚拟试穿模型,应用形变模型算法,根据用户的骨骼结构,调整虚拟衣物的形状和位置,生成初步虚拟试穿效果;
S403:基于初步虚拟试穿效果,运用有限元分析技术,模拟虚拟衣物材质的物理行为,生成有限元分析后的虚拟试穿效果;
S404:根据用户的时尚偏好,调整虚拟衣物的纹理、颜色和风格,结合有限元分析后的虚拟试穿效果,生成纹理调整后的虚拟试穿效果。
在S401步骤中,系统利用历史数据和用户的三维骨骼模型,通过虚拟试穿引擎将选定的虚拟衣物模型与用户模型进行精准融合,确保虚拟衣物能够适应用户的体型和动作,在S402步骤中,通过形变模型算法调整虚拟衣物的形状和位置,使其贴合用户的身体轮廓,生成一个初步的虚拟试穿效果,此效果能够直观反映服装在用户身上的初步样貌,在S403步骤中,系统运用有限元分析技术进一步模拟和细化虚拟衣物的物理行为,如布料的垂感、弹性和其他相关属性,增加了虚拟试穿效果的真实感和可信度,在S404步骤中,根据用户的个人时尚偏好,系统对虚拟衣物的纹理、颜色和风格进行个性化调整,使得最终的虚拟试穿效果不仅在形态上适合用户,而且在视觉上符合用户的审美和风格选择,整个操作流程确保了虚拟试穿效果的高度个性化和真实性,为用户提供了一个互动性强且符合个人品味的虚拟试穿体验。
请参阅图6,基于虚拟试穿效果,结合环境感知传感器数据,基于光线传感器和温度传感器,采用光线追踪算法,模拟多环境下的光照和阴影,调整虚拟试穿效果,生成自适应虚拟试穿模型的步骤具体为:
S501:基于纹理调整后的虚拟试穿效果并借助光线传感器和温度传感器,采用光感知算法,捕捉当前环境的光线强度和光线分布,以及获取当前环境的温度数据,从而生成光线传感器和温度传感器数据;
S502:以光线传感器和温度传感器数据为输入,模拟多环境下的光照和阴影效果,生成模拟的光照和阴影信息;
S503:借助光照和阴影信息,根据光线追踪算法的输出,调整并生成自适应虚拟试穿模型。
在S501步骤中,系统利用光线传感器和温度传感器收集当前环境的光线强度、分布以及温度数据,确保了环境信息的精确捕捉,在S502步骤中,这些环境数据被用作输入,应用光感知算法来模拟多种环境条件下的光照效果和阴影,这样可以预览虚拟衣物在不同光照条件下的外观,在S503步骤中,根据模拟得出的光照和阴影信息,通过光线追踪算法优化调整虚拟试穿模型,生成最终的自适应虚拟试穿效果,这不仅增强了虚拟试穿的视觉效果,而且确保了用户在任何环境下都能得到准确的试穿反馈,提供了一个高度逼真和响应式的虚拟试穿环境。
请参阅图7,基于自适应虚拟试穿模型,启用用户互动界面,用户通过手势识别和语音命令与虚拟衣服进行互动,具体为调整颜色、旋转或更改样式,系统实时反馈并生成互动操作模型的步骤具体为:
S601:基于自适应虚拟试穿模型,借助用户互动界面,使用深度相机技术和手势识别算法捕捉用户手势,生成用户手势识别数据;
S602:通过语音识别引擎,识别用户的语音命令和指令,生成用户语音命令识别结果;
S603:根据手势识别数据和语音命令识别结果,结合自适应虚拟试穿模型,调整虚拟衣服的颜色、旋转或样式,实时反馈用户的操作,以及虚拟试穿效果的变化,生成互动操作模型。
在S601步骤中,用户面对用户互动界面时,系统利用深度相机技术配合手势识别算法来捕捉用户的手势动作,这些捕捉到的动作被转化为具体的手势识别数据,在S602步骤中,语音识别引擎并行工作以捕捉和解析用户的语音命令,转换用户的口头指令为可识别的命令数据,在S603步骤中,系统综合手势识别数据和语音命令识别结果,立即响应用户的互动请求,对自适应虚拟试穿模型中的虚拟衣物进行颜色、旋转和样式的调整,这一过程中,系统提供即时的视觉反馈,确保用户可以看到他们操作的直接结果,从而生成互动操作模型,此过程不仅为用户提供了一个直观且反应灵敏的试穿体验,还增强了虚拟互动的乐趣,使得用户能够自由地探索和定制他们的虚拟装扮,实现高度个性化的购物体验。
请参阅图8,基于互动操作模型和自适应虚拟试穿模型,借助AR技术,允许多用户的远程协作,实时共享AR体验的步骤具体为:
S701:基于互动操作模型和自适应虚拟试穿模型,借助AR技术,建立多用户AR协作环境,生成多用户AR协作模型;
S702:基于多用户AR协作模型,获取远程用户身份验证信息,实施权限控制机制,生成用户信息模型;
S703:基于用户信息模型,借助AR云服务器,将用户的反馈和虚拟试穿效果关联,通过时间戳机制进行同步。
在S701步骤中,系统利用AR技术建立起一个多用户协作环境,使得不同地点的用户能够共同进入一个虚拟空间并实时互动,这一步涉及创建一个多用户AR协作模型,它允许多方同时观看和操作同一虚拟试穿模型,在S702步骤中,系统通过验证远程用户的身份信息并实施相应的权限控制,确保了平台的安全性和每位用户的操作权限得到合理管理,此步骤生成的用户信息模型对协作环境中的每位用户进行追踪和管理,保护用户隐私的同时维持互动秩序,在S703步骤中,系统借助AR云服务器将各用户的操作反馈和虚拟试穿效果进行同步,这一过程通过时间戳机制确保了所有用户看到的内容是实时更新且一致的,这样的同步机制不仅提升了协作的效率,也增强了多用户之间的互动体验,通过这一系列操作,AR试穿互动体验系统能够为用户提供一个无缝、协作的虚拟试穿环境,无论用户身处何方,都能享受到共享的AR试穿体验,增强了虚拟购物的社交互动性和趣味性。
请参阅图9,AR试穿互动体验系统,AR试穿互动体验系统用于执行上述AR试穿互动体验方法,系统包括深度捕捉模块、面部分析模块、虚拟试穿模块、环境感知模块、互动控制模块、多用户远程协作模块、用户信息模块、AR云服务模块。
深度捕捉模块基于深度相机技术,获取并生成用户的深度图像和RGB彩色实时图像,实时捕捉身体姿势,获取骨骼及关节信息,生成三维骨骼模型;
面部分析模块基于深度图像、RGB图像及三维骨骼模型,提取面部特征点坐标,通过卷积神经网络算法分析特征点,进行性别、年龄和情感信息的推测,生成用户历史数据;
虚拟试穿模块基于三维骨骼模型与历史数据,通过虚拟试穿引擎与衣物模型融合,创建初步的试穿效果,通过形变模型和有限元分析技术,生成纹理调整后的虚拟试穿效果;
环境感知模块基于纹理调整后的虚拟试穿效果,通过光线和温度传感器数据,采用光感知算法,模拟多环境下的光照和阴影效果,调整并生成自适应虚拟试穿模型;
互动控制模块基于自适应虚拟试穿模型,利用用户互动界面,采用深度相机技术和手势识别算法捕捉手势,并通过语音识别引擎识别语音命令和指令,生成互动操作模型;
多用户远程协作模块基于自适应虚拟试穿模型和互动操作模型,借助AR技术建立多用户AR协作环境,并生成多用户AR协作模型;
用户信息模块基于多用户AR协作模型,收集远程用户的身份验证信息,并实施权限控制,生成用户信息模型;
AR云服务器模块基于用户信息模型,利用AR云服务器将用户反馈和虚拟试穿效果进行关联,并通过时间戳机制进行数据同步。
请参阅图10,深度捕捉模块包括深度图像采集子模块、RGB图像采集子模块、姿态识别子模块和三维建模子模块;
面部分析模块包括特征点提取子模块、数据分析处理子模块、生物统计信息推断子模块和历史数据生成子模块;
虚拟试穿模块包括融合引擎子模块、形变模拟子模块、物理行为模拟子模块和个性化调整子模块;
环境感知模块包括环境数据采集子模块、光照模拟子模块、阴影效果处理子模块和自适应调整子模块;
互动控制模块包括手势识别子模块、语音指令处理子模块、互动响应子模块和用户界面交互子模块;
多用户远程协作模块包括AR协作环境构建子模块、实时数据同步子模块、远程通信接口子模块和协作行为管理子模块;
用户信息模块包括身份认证子模块、权限控制子模块、用户配置子模块和安全管理子模块;
AR云服务模块包括数据关联处理子模块、时间戳同步子模块、云存储管理子模块和云服务维护子模块。
在深度捕捉模块中,深度图像采集子模块利用深度相机获取用户的实时深度信息,RGB图像采集子模块同步捕获彩色图像数据,姿态识别子模块分析这些图像来捕捉用户的身体姿势,而三维建模子模块则根据捕捉到的数据生成用户的三维骨骼模型。
面部分析模块中,特征点提取子模块负责从深度和彩色图像中提取面部关键点,数据分析处理子模块使用卷积神经网络来分析这些特征点,生物统计信息推断子模块根据分析结果推测用户的性别、年龄和情绪状态,历史数据生成子模块则结合用户的购物和社交媒体数据来绘制用户的偏好历史。
在虚拟试穿模块中,融合引擎子模块将选定的虚拟衣物与用户的三维模型进行融合,形变模拟子模块调整虚拟衣物以适配用户的体型和姿态,物理行为模拟子模块利用有限元分析技术模拟衣物的实际物理特性,个性化调整子模块根据用户的偏好调整衣物的纹理和风格。
环境感知模块中,环境数据采集子模块通过传感器收集实时的光照和温度数据,光照模拟子模块使用这些数据模拟不同环境下的光照效果,阴影效果处理子模块产生相应的阴影效果,而自适应调整子模块使虚拟试穿效果适应不同的环境条件。
互动控制模块中,手势识别子模块捕捉用户的手势动作,语音指令处理子模块解析用户的语音命令,互动响应子模块根据手势和语音数据生成相应的操作指令,用户界面交互子模块提供用户操作的视觉反馈。
多用户远程协作模块中,AR协作环境构建子模块创建一个多用户虚拟空间,实时数据同步子模块确保所有用户视图的一致性,远程通信接口子模块处理多端之间的通信,协作行为管理子模块协调多用户间的互动行为。
用户信息模块中,身份认证子模块验证用户身份信息,权限控制子模块分配和管理用户权限,用户配置子模块存储个人设置,安全管理子模块确保所有用户数据的安全性。
最后,AR云服务模块中,数据关联处理子模块关联用户反馈和虚拟试穿数据,时间戳同步子模块通过时间戳保持数据同步,云存储管理子模块负责用户数据的存储和备份,云服务维护子模块持续监控和维护云服务器的运行状态。
以上,仅是本发明的较佳实施例而已,并非对本发明作其他形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其他领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (10)
1.一种AR试穿互动体验方法,其特征在于,所述方法包括以下步骤:
基于深度相机技术,采用OpenPose骨骼追踪算法,对用户的身体姿势进行实时捕捉,获取用户的骨骼结构和关节角度信息,生成用户的三维骨骼模型;
基于所述三维骨骼模型,应用卷积神经网络算法,分析用户的面部特征,以推测其性别、年龄和情感,结合用户历史购物记录和社交媒体数据,使用自然语言处理技术分析用户的时尚偏好,生成用户的面部特征模型;
基于所述面部特征模型,借助虚拟衣物数据库和三维模型匹配算法,通过最近邻搜索或三维网格匹配,根据用户的骨骼结构和时尚偏好,从虚拟衣物数据库中选择匹配的虚拟衣物,生成虚拟衣物模型;
通过虚拟试穿引擎,将所述虚拟衣物模型与用户的骨骼模型相融合,使用形变模型和有限元分析进行调整,生成虚拟试穿效果;
基于所述虚拟试穿效果,结合环境感知传感器数据,基于光线传感器和温度传感器,采用光线追踪算法,模拟多环境下的光照和阴影,调整虚拟试穿效果,生成自适应虚拟试穿模型;
基于所述自适应虚拟试穿模型,启用用户互动界面,用户通过手势识别和语音命令与虚拟衣服进行互动,具体为调整颜色、旋转或更改样式,系统实时反馈并生成互动操作模型;
基于所述互动操作模型和自适应虚拟试穿模型,借助AR技术,允许多用户的远程协作,实时共享AR体验;
所述三维骨骼模型包括骨骼节点坐标、骨骼长度和关节角度,所述面部特征模型包括性别、年龄、情感,以及用户的时尚风格偏好,所述虚拟衣物模型包括三维模型、颜色、纹理和风格,所述虚拟试穿效果包括虚拟衣物的形状、大小、位置和纹理,所述自适应虚拟试穿模型包括对光线、阴影和背景的适应性调整,所述互动操作模型包括用户的互动指令和对虚拟衣物的调整。
2.根据权利要求1所述的AR试穿互动体验方法,其特征在于,基于深度相机技术,采用OpenPose骨骼追踪算法,对用户的身体姿势进行实时捕捉,获取用户的骨骼结构和关节角度信息,生成用户三维骨骼模型的步骤具体为:
借助深度相机技术,采用深度图像采集算法,获取用户的实时深度图像数据,生成用户的深度图像;
基于所述深度图像,采用RGB图像采集算法,获取用户的实时RGB彩色图像数据,生成用户的RGB图像;
基于所述深度图像和RGB图像,实时捕捉用户的身体姿势,获取用户的骨骼结构和关节角度信息,采用三维建模算法,生成用户的三维骨骼模型。
3.根据权利要求2所述的AR试穿互动体验方法,其特征在于,基于所述三维骨骼模型,应用卷积神经网络算法,分析用户的面部特征,以推测其性别、年龄和情感,结合用户历史购物记录和社交媒体数据,使用自然语言处理技术分析用户的时尚偏好,生成用户的面部特征模型的步骤具体为:
基于所述三维骨骼模型,提取用户的面部特征点坐标,包括眼睛、鼻子和嘴巴,生成用户的面部特征点坐标;
基于所述面部特征点坐标,采用卷积神经网络算法,分析用户的面部特征,生成用户的性别、年龄和情感信息;
获取用户的历史购物记录、社交媒体信息和时尚风格信息,结合所述性别、年龄和情感信息,采用自然语言处理技术,生成用户的历史数据,分析用户的时尚偏好。
4.根据权利要求3所述的AR试穿互动体验方法,其特征在于,基于所述面部特征模型,借助虚拟衣物数据库和三维模型匹配算法,通过最近邻搜索或三维网格匹配,根据用户的骨骼结构和时尚偏好,从虚拟衣物数据库中选择匹配的虚拟衣物,生成虚拟衣物模型的步骤具体为:
基于所述用户的三维骨骼模型,运用三维模型匹配算法,精确测量用户的身体尺寸和形态,生成用户身体特征数据;
基于所述身体特征数据和用户的时尚偏好,采用最近邻搜索算法筛选出与用户特征相匹配的虚拟衣物,生成候选虚拟衣物列表;
从所述候选虚拟衣物列表中,运用三维网格匹配技术细化搜索,生成匹配虚拟衣物数据;
对所述匹配虚拟衣物数据进行渲染和细节调整,确保衣物的视觉效果与用户的偏好以及三维模型的适配性相符合,生成虚拟衣物模型。
5.根据权利要求4所述的AR试穿互动体验方法,其特征在于,通过虚拟试穿引擎,将所述虚拟衣物模型与用户的骨骼模型相融合,使用形变模型和有限元分析进行调整,生成虚拟试穿效果的步骤具体为:
基于所述历史数据和三维骨骼模型,利用虚拟试穿引擎,将用户的三维骨骼模型与虚拟衣物模型融合,生成虚拟试穿模型;
基于所述虚拟试穿模型,应用形变模型算法,根据用户的骨骼结构,调整虚拟衣物的形状和位置,生成初步虚拟试穿效果;
基于所述初步虚拟试穿效果,运用有限元分析技术,模拟虚拟衣物材质的物理行为,生成有限元分析后的虚拟试穿效果;
根据所述用户的时尚偏好,调整虚拟衣物的纹理、颜色和风格,结合有限元分析后的虚拟试穿效果,生成纹理调整后的虚拟试穿效果。
6.根据权利要求5所述的AR试穿互动体验方法,其特征在于,基于所述虚拟试穿效果,结合环境感知传感器数据,基于光线传感器和温度传感器,采用光线追踪算法,模拟多环境下的光照和阴影,调整虚拟试穿效果,生成自适应虚拟试穿模型的步骤具体为:
基于所述纹理调整后的虚拟试穿效果并借助光线传感器和温度传感器,采用光感知算法,捕捉当前环境的光线强度和光线分布,以及获取当前环境的温度数据,从而生成光线传感器和温度传感器数据;
以所述光线传感器和温度传感器数据为输入,模拟多环境下的光照和阴影效果,生成模拟的光照和阴影信息;
借助所述光照和阴影信息,根据光线追踪算法的输出,调整并生成自适应虚拟试穿模型。
7.根据权利要求6所述的AR试穿互动体验方法,其特征在于,基于所述自适应虚拟试穿模型,启用用户互动界面,用户通过手势识别和语音命令与虚拟衣服进行互动,具体为调整颜色、旋转或更改样式,系统实时反馈并生成互动操作模型的步骤具体为:
基于所述自适应虚拟试穿模型,借助用户互动界面,使用深度相机技术和手势识别算法捕捉用户手势,生成用户手势识别数据;
通过语音识别引擎,识别用户的语音命令和指令,生成用户语音命令识别结果;
根据所述手势识别数据和语音命令识别结果,结合自适应虚拟试穿模型,调整虚拟衣服的颜色、旋转或样式,实时反馈用户的操作,以及虚拟试穿效果的变化,生成互动操作模型。
8.根据权利要求7所述的AR试穿互动体验方法,其特征在于,基于所述互动操作模型和自适应虚拟试穿模型,借助AR技术,允许多用户的远程协作,实时共享AR体验的步骤具体为:
基于所述互动操作模型和自适应虚拟试穿模型,借助AR技术,建立多用户AR协作环境,生成多用户AR协作模型;
基于所述多用户AR协作模型,获取远程用户身份验证信息,实施权限控制机制,生成用户信息模型;
基于所述用户信息模型,借助AR云服务器,将用户的反馈和虚拟试穿效果关联,通过时间戳机制进行同步。
9.一种AR试穿互动体验系统,其特征在于,应用权利要求1至8任一项所述的AR试穿互动体验方法,所述系统包括深度捕捉模块、面部分析模块、虚拟试穿模块、环境感知模块、互动控制模块、多用户远程协作模块、用户信息模块、AR云服务模块;
所述深度捕捉模块基于深度相机技术,获取并生成用户的深度图像和RGB彩色实时图像,实时捕捉身体姿势,获取骨骼及关节信息,生成三维骨骼模型;
所述面部分析模块基于深度图像、RGB图像及三维骨骼模型,提取面部特征点坐标,通过卷积神经网络算法分析特征点,进行性别、年龄和情感信息的推测,生成用户历史数据;
所述虚拟试穿模块基于三维骨骼模型与历史数据,通过虚拟试穿引擎与衣物模型融合,创建初步的试穿效果,通过形变模型和有限元分析技术,生成纹理调整后的虚拟试穿效果;
所述环境感知模块基于纹理调整后的虚拟试穿效果,通过光线和温度传感器数据,采用光感知算法,模拟多环境下的光照和阴影效果,调整并生成自适应虚拟试穿模型;
所述互动控制模块基于自适应虚拟试穿模型,利用用户互动界面,采用深度相机技术和手势识别算法捕捉手势,并通过语音识别引擎识别语音命令和指令,生成互动操作模型;
所述多用户远程协作模块基于自适应虚拟试穿模型和互动操作模型,借助AR技术建立多用户AR协作环境,并生成多用户AR协作模型;
所述用户信息模块基于多用户AR协作模型,收集远程用户的身份验证信息,并实施权限控制,生成用户信息模型;
所述AR云服务模块基于用户信息模型,利用AR云服务器将用户反馈和虚拟试穿效果进行关联,并通过时间戳机制进行数据同步。
10.根据权利要求9所述的AR试穿互动体验系统,其特征在于,所述深度捕捉模块包括深度图像采集子模块、RGB图像采集子模块、姿态识别子模块和三维建模子模块;
所述面部分析模块包括特征点提取子模块、数据分析处理子模块、生物统计信息推断子模块和历史数据生成子模块;
所述虚拟试穿模块包括融合引擎子模块、形变模拟子模块、物理行为模拟子模块和个性化调整子模块;
所述环境感知模块包括环境数据采集子模块、光照模拟子模块、阴影效果处理子模块和自适应调整子模块;
所述互动控制模块包括手势识别子模块、语音指令处理子模块、互动响应子模块和用户界面交互子模块;
所述多用户远程协作模块包括AR协作环境构建子模块、实时数据同步子模块、远程通信接口子模块和协作行为管理子模块;
所述用户信息模块包括身份认证子模块、权限控制子模块、用户配置子模块和安全管理子模块;
所述AR云服务模块包括数据关联处理子模块、时间戳同步子模块、云存储管理子模块和云服务维护子模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311574022.4A CN117292097B (zh) | 2023-11-23 | 2023-11-23 | Ar试穿互动体验方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311574022.4A CN117292097B (zh) | 2023-11-23 | 2023-11-23 | Ar试穿互动体验方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117292097A true CN117292097A (zh) | 2023-12-26 |
CN117292097B CN117292097B (zh) | 2024-02-02 |
Family
ID=89248373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311574022.4A Active CN117292097B (zh) | 2023-11-23 | 2023-11-23 | Ar试穿互动体验方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117292097B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893289A (zh) * | 2024-03-15 | 2024-04-16 | 长园电力技术有限公司 | 一种基于ar和ai的虚拟试穿系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102402749A (zh) * | 2010-09-17 | 2012-04-04 | 北京市崇文区综合信息中心 | 基于3d的虚拟购物街应用技术 |
CN103106604A (zh) * | 2013-01-23 | 2013-05-15 | 东华大学 | 基于体感技术的3d虚拟试衣方法 |
CN104021590A (zh) * | 2013-02-28 | 2014-09-03 | 北京三星通信技术研究有限公司 | 虚拟试穿试戴系统和虚拟试穿试戴方法 |
CN104345886A (zh) * | 2014-10-09 | 2015-02-11 | 深圳码隆科技有限公司 | 一种实现时尚体验的智能眼镜系统及个性化时尚体验方法 |
CN105843386A (zh) * | 2016-03-22 | 2016-08-10 | 宁波元鼎电子科技有限公司 | 一种商场虚拟试衣系统 |
CN107918909A (zh) * | 2017-12-29 | 2018-04-17 | 南京信息职业技术学院 | 一种实体店虚拟试衣方法 |
CN112652061A (zh) * | 2021-01-21 | 2021-04-13 | 赵书芳 | 一种基于Kinect的网络虚拟试衣系统 |
CN113297944A (zh) * | 2020-12-28 | 2021-08-24 | 武汉纺织大学 | 用于服装虚拟试穿的人体姿势变换方法及系统 |
US20210287274A1 (en) * | 2020-03-13 | 2021-09-16 | Hai Viet Nguyen | Methods and systems for a all-in-one personal fashion coaching and assistance using artificial intelligence and peer-to-peer network databases |
CN114663199A (zh) * | 2022-05-17 | 2022-06-24 | 武汉纺织大学 | 一种动态展示的实时三维虚拟试衣系统及方法 |
CN116246041A (zh) * | 2021-12-08 | 2023-06-09 | 魏磊 | 一种基于ar的手机虚拟试衣系统和方法 |
CN117011207A (zh) * | 2023-07-27 | 2023-11-07 | 江苏理工学院 | 一种基于扩散模型的虚拟试衣方法 |
-
2023
- 2023-11-23 CN CN202311574022.4A patent/CN117292097B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102402749A (zh) * | 2010-09-17 | 2012-04-04 | 北京市崇文区综合信息中心 | 基于3d的虚拟购物街应用技术 |
CN103106604A (zh) * | 2013-01-23 | 2013-05-15 | 东华大学 | 基于体感技术的3d虚拟试衣方法 |
CN104021590A (zh) * | 2013-02-28 | 2014-09-03 | 北京三星通信技术研究有限公司 | 虚拟试穿试戴系统和虚拟试穿试戴方法 |
CN104345886A (zh) * | 2014-10-09 | 2015-02-11 | 深圳码隆科技有限公司 | 一种实现时尚体验的智能眼镜系统及个性化时尚体验方法 |
CN105843386A (zh) * | 2016-03-22 | 2016-08-10 | 宁波元鼎电子科技有限公司 | 一种商场虚拟试衣系统 |
CN107918909A (zh) * | 2017-12-29 | 2018-04-17 | 南京信息职业技术学院 | 一种实体店虚拟试衣方法 |
US20210287274A1 (en) * | 2020-03-13 | 2021-09-16 | Hai Viet Nguyen | Methods and systems for a all-in-one personal fashion coaching and assistance using artificial intelligence and peer-to-peer network databases |
CN113297944A (zh) * | 2020-12-28 | 2021-08-24 | 武汉纺织大学 | 用于服装虚拟试穿的人体姿势变换方法及系统 |
CN112652061A (zh) * | 2021-01-21 | 2021-04-13 | 赵书芳 | 一种基于Kinect的网络虚拟试衣系统 |
CN116246041A (zh) * | 2021-12-08 | 2023-06-09 | 魏磊 | 一种基于ar的手机虚拟试衣系统和方法 |
CN114663199A (zh) * | 2022-05-17 | 2022-06-24 | 武汉纺织大学 | 一种动态展示的实时三维虚拟试衣系统及方法 |
CN117011207A (zh) * | 2023-07-27 | 2023-11-07 | 江苏理工学院 | 一种基于扩散模型的虚拟试衣方法 |
Non-Patent Citations (3)
Title |
---|
GAO, YUAN;PEILLARD, ETIENNE;NORMAND, JEAN‐MARIE: "Influence of virtual objects\' shadows and lighting coherence on distance perception in optical see‐through augmented reality", JOURNAL OF THE SOCIETY FOR INFORMATION DISPLAY, vol. 28, no. 2, pages 117 - 135 * |
廖晨;张星;钟卓成;梁海明;陈东伟: "云平台虚拟更衣室系统设计与实现", 信息技术, no. 1, pages 47 - 51 * |
徐爱婧;周捷: "虚拟试衣系统关键技术研究", 纺织科技进展, no. 3, pages 39 - 43 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893289A (zh) * | 2024-03-15 | 2024-04-16 | 长园电力技术有限公司 | 一种基于ar和ai的虚拟试穿系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117292097B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238568B2 (en) | Method and system for reconstructing obstructed face portions for virtual reality environment | |
US11736756B2 (en) | Producing realistic body movement using body images | |
US10325407B2 (en) | Attribute detection tools for mixed reality | |
US11868515B2 (en) | Generating textured polygon strip hair from strand-based hair for a virtual character | |
KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
US20170352091A1 (en) | Methods for generating a 3d virtual body model of a person combined with a 3d garment image, and related devices, systems and computer program products | |
US11017575B2 (en) | Method and system for generating data to provide an animated visual representation | |
US20120223956A1 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
JP2019510297A (ja) | ユーザの真実の人体モデルへの仮想的な試着 | |
CN117292097B (zh) | Ar试穿互动体验方法及系统 | |
CN105184584A (zh) | 虚拟试衣系统及方法 | |
US10964083B1 (en) | Facial animation models | |
US11430158B2 (en) | Intelligent real-time multiple-user augmented reality content management and data analytics system | |
WO2020151255A1 (zh) | 一种基于移动终端的展示控制系统及方法 | |
WO2023134269A1 (zh) | 一种显示设备、虚拟试衣系统及方法 | |
Sénécal et al. | Modelling life through time: cultural heritage case studies | |
Zhang et al. | Virtual Museum Scene Design Based on VRAR Realistic Interaction under PMC Artificial Intelligence Model | |
CN111461005A (zh) | 一种手势识别方法、装置、计算机设备以及存储介质 | |
Jácome et al. | Parallax Engine: Head Controlled Motion Parallax Using Notebooks’ RGB Camera | |
Shasha et al. | Object Recognition of Environmental Information in the Internet of Things Based on Augmented Reality | |
CN113342167B (zh) | 一种基于多人视角定位空间交互ar实现方法和系统 | |
CN114125271B (zh) | 图像处理方法、装置及电子设备 | |
CN114201042B (zh) | 分布式综合集成研讨厅装置、系统、构建方法及交互方法 | |
US20240135649A1 (en) | System and method for auto-generating and sharing customized virtual environments | |
Pant et al. | Embodied Immersion: Exploring the Convergence of Haptic VR and Pervasive Visual Sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |