一种商场虚拟试衣系统
技术领域
本发明属于数字化设备领域,尤其涉及一种商场虚拟试衣系统。
背景技术
人们在商场购买服装时,往往会反复试穿,以满足自己的审美需求。但是,试穿衣服存在很多问题,比如现场条件不允许、试穿过程比较繁琐、浪费大量时间和精力等等。
发明内容
本发明的目的在于提供一种商场虚拟试衣系统,旨在解决现有的商场试衣间使用不方便,造成顾客时间的浪费和购物效率低的问题。
本发明是这样实现的,一种商场虚拟试衣系统包括:
液晶显示屏,用于实时显示顾客的穿衣效果;
三维虚拟试衣模块,该三维虚拟试衣模块包括:
彩色RGB摄像头,用于实时获取区域内人或物的彩色图像;
红外深度摄像头,用于实时获取区域内人或物的三维深度信息;
体感设备控制器,从体感设备中获取实时数据,对该数据进行处理,并将识别到的人物信息以骨骼的形式返回;
场景创建模块,用于创建三维场景,并完成三维虚拟服装模型在三维场景中的位置布局,当所述三维场景中探测到有至少一个人物进入时,通过体感设备控制器采集骨骼流数据信息并在所述三维场景中建立虚拟人物骨骼模型,并根据所述虚拟人物骨骼模型载入三维虚拟人物模型;
姿势识别模块,获取从体感设备控制器返回的骨骼信息,根据姿势识别算法,分析出用户在体感设备前做出的各种静态动作,该姿势识别模块包括红外识别模块和灰度识别模块;
所述的红外识别模块通过红外线传感器检测出的温度,确定姿势变化区域,具体包括:
温度传感器,配置多个红外线传感器而构成;
变化区域确定部件,基于上述温度传感器的红外线传感器分别检测的温度,将发生了温度变化的变化区域确定姿势变化区域;
姿势识别部件,确定上述变化区域确定部件确定的变化区域的移动轨迹,从而识别姿势;
掩膜存储单元,存储表示上述多个红外线传感器中的有效无效的配置模式的掩膜;
掩膜选择部件,从上述掩膜存储单元选择与上述电子设备正在启动的应用相关联的掩膜,上述变化区域确定部件,仅基于通过上述掩膜选择部件所选择的掩膜为有效的红外线传感器检测出的温度,确定变化区域;
所述的灰度识别模块包括:
被配置为确定肢体是否存在于由深度相机所生成的相应图像帧的一个或多个灰度图像中的肢体检测引擎;
耦合于所述肢体检测引擎的手部跟踪引擎,所述手部跟踪引擎被配置为在面部检测引擎确定面部存在于所述一个或多个灰度图像中之后在由所述深度相机所生成的一个或多个深度图像中跟踪手部;
以及耦合于所述手部跟踪引擎的特征提取和姿势推断引擎,所述特征提取和姿势推断引擎被配置为基于所述手部跟踪引擎的跟踪结果提取特征并至少部分地基于所提取的特征推断手部姿势;
骨骼绑定模块,将虚拟衣物上的关键点与用户骨骼信息一一对应,以获得虚拟试衣的效果;
深度匹配模块,控制虚拟衣物与体感设备彩色数据的压盖关系,以获得真实的视觉表现;
逻辑模块,为用户提供操作指示和反馈用户界面;
渲染模块,负责向外部显示器输出信号;
二维虚拟试衣模块,用于获取试衣者的2D图像,获取待试服饰的2D图像,将得到的包含待试服饰的2D图像叠加在获取的试衣者的2D图像上,生成试衣效果的二维模型;
无线通信模块,用于将虚拟试衣效果图通过无线网络的方式发送给第三方。
进一步,所述的成试衣效果的二维模型的具体方法为:
步骤一、根据步骤获得的试衣者的2D图像,用基于小波变换的边缘检测算法获取试衣者的2D人体轮廓图像;
步骤二、利用图像边缘检测算法对步骤中获取的待试服饰2D图像进行边缘检测与图像去噪,所述的图像边缘检测算法是基于Prewitt算子的边缘检测和多级中值滤波算法相结合的复合式图像边缘检测算法;
步骤三、利用分层特征提取方法,从获取的2D人体轮廓图像上实时提取可以表征人体形态的特征;
步骤四、根据获取的人体形态特征将获取的2D人体轮廓图像与获取的2D服饰图像进行图像融合,生成穿戴完成的试衣效果2D融合图像;
步骤五、利用基于小波变换的边缘检测算法对获取的试衣效果2D融合图像进行边缘检测,获取融合图像轮廓;
步骤六、根据融合图像轮廓,利用获取的人体形态特征信息,建立试衣效果二维模型。
进一步,所述的二维虚拟试衣模块通过虹膜识别器读取预存在商场虚拟试衣系统的客户2D人体轮廓图像;
所述的虹膜识别器包括虹膜图像获取模块、识别算法模块、特征提取模块、编码模块、虹膜数据库、数据匹配模块;
所述的虹膜识别器还包括虹膜识别移动端,该虹膜识别移动端设置有与手机连接的USB接口;
所述的图像获取模块用于拍摄用户虹膜,并获取相应的认证虹膜;
所述的识别算法模块包括图像质量评估模块和虹膜预处理模块,用于对虹膜图像进行定位、归一化、图像增强的预处理;
所述的特征提取模块用于对虹膜预处理后提取认证的虹膜的特征点,并计算所提取的认证虹膜各特征点的特征值;
所述的编码模块采用图像特征提取算法对虹膜图像的感兴趣部分进行特征提取并编码;
所述的数据匹配模块用于将所提取并编码的的认证虹膜的特征点的特征值与虹膜数据库中的数据进行对比,并在所提取的并编码的认证虹膜的特征点的特征值与虹膜数据库中的数据相符时确认该用户通过身份认证。
本发明的虚拟场景试衣间通过体感定位和图像识别将并利用深度摄像头传感器采集人体的骨骼和深度图像信息,将服装和现实图像完美融合,可以产生不同服装在不同场景下的展示效果,减少传统试衣的繁琐程序,提高了试衣的效率。
附图说明
图1是本发明实施例提供的商场虚拟试衣系统的结构示意图;
图中:1、液晶显示屏;2、三维虚拟试衣模块;2-1、彩色RGB摄像头;2-2、红外深度摄像头;2-3、体感设备控制器;2-4、场景创建模块;2-5、姿势识别模块;2-6、骨骼绑定模块;2-7、深度匹配模块;2-8、逻辑模块;2-9、渲染模块;3、二维虚拟试衣模块;4、无线通信模块。
具体实施方式
为能进一步了解本发明的发明内容、特点及功效,兹例举以下实施例,并配合附图详细说明如下。
如图1所示,本发明是这样实现的,一种商场虚拟试衣系统包括:
液晶显示屏1,用于实时显示顾客的穿衣效果;
三维虚拟试衣模块2,该三维虚拟试衣模块包括:
彩色RGB摄像头2-1,用于实时获取区域内人或物的彩色图像;
红外深度摄像头2-2,用于实时获取区域内人或物的三维深度信息;
体感设备控制器2-3,从体感设备中获取实时数据,对该数据进行处理,并将识别到的人物信息以骨骼的形式返回;
场景创建模块2-4,用于创建三维场景,并完成三维虚拟服装模型在三维场景中的位置布局,当所述三维场景中探测到有至少一个人物进入时,通过体感设备控制器采集骨骼流数据信息并在所述三维场景中建立虚拟人物骨骼模型,并根据所述虚拟人物骨骼模型载入三维虚拟人物模型;
姿势识别模块2-5,获取从体感设备控制器返回的骨骼信息,根据姿势识别算法,分析出用户在体感设备前做出的各种静态动作,该姿势识别模块包括红外识别模块和灰度识别模块;
所述的红外识别模块通过红外线传感器检测出的温度,确定姿势变化区域,具体包括:
温度传感器,配置多个红外线传感器而构成;
变化区域确定部件,基于上述温度传感器的红外线传感器分别检测的温度,将发生了温度变化的变化区域确定姿势变化区域;
姿势识别部件,确定上述变化区域确定部件确定的变化区域的移动轨迹,从而识别姿势;
掩膜存储单元,存储表示上述多个红外线传感器中的有效无效的配置模式的掩膜;
掩膜选择部件,从上述掩膜存储单元选择与上述电子设备正在启动的应用相关联的掩膜,上述变化区域确定部件,仅基于通过上述掩膜选择部件所选择的掩膜为有效的红外线传感器检测出的温度,确定变化区域;
所述的灰度识别模块包括:
被配置为确定肢体是否存在于由深度相机所生成的相应图像帧的一个或多个灰度图像中的肢体检测引擎;
耦合于所述肢体检测引擎的手部跟踪引擎,所述手部跟踪引擎被配置为在面部检测引擎确定面部存在于所述一个或多个灰度图像中之后在由所述深度相机所生成的一个或多个深度图像中跟踪手部;
以及耦合于所述手部跟踪引擎的特征提取和姿势推断引擎,所述特征提取和姿势推断引擎被配置为基于所述手部跟踪引擎的跟踪结果提取特征并至少部分地基于所提取的特征推断手部姿势;
骨骼绑定模块2-6,将虚拟衣物上的关键点与用户骨骼信息一一对应,以获得虚拟试衣的效果;
深度匹配模块2-7,控制虚拟衣物与体感设备彩色数据的压盖关系,以获得真实的视觉表现;
逻辑模块2-8,为用户提供操作指示和反馈用户界面;
渲染模块2-9,负责向外部显示器输出信号;
二维虚拟试衣模块3,用于获取试衣者的2D图像,获取待试服饰的2D图像,将得到的包含待试服饰的2D图像叠加在获取的试衣者的2D图像上,生成试衣效果的二维模型;
无线通信模块4,用于将虚拟试衣效果图通过无线网络的方式发送给第三方。
进一步,所述的成试衣效果的二维模型的具体方法为:
步骤一、根据步骤获得的试衣者的2D图像,用基于小波变换的边缘检测算法获取试衣者的2D人体轮廓图像;
步骤二、利用图像边缘检测算法对步骤中获取的待试服饰2D图像进行边缘检测与图像去噪,所述的图像边缘检测算法是基于Prewitt算子的边缘检测和多级中值滤波算法相结合的复合式图像边缘检测算法;
步骤三、利用分层特征提取方法,从获取的2D人体轮廓图像上实时提取可以表征人体形态的特征;
步骤四、根据获取的人体形态特征将获取的2D人体轮廓图像与获取的2D服饰图像进行图像融合,生成穿戴完成的试衣效果2D融合图像;
步骤五、利用基于小波变换的边缘检测算法对获取的试衣效果2D融合图像进行边缘检测,获取融合图像轮廓;
步骤六、根据融合图像轮廓,利用获取的人体形态特征信息,建立试衣效果二维模型。
进一步,所述的二维虚拟试衣模块通过虹膜识别器读取预存在商场虚拟试衣系统的客户2D人体轮廓图像;
所述的虹膜识别器包括虹膜图像获取模块、识别算法模块、特征提取模块、编码模块、虹膜数据库、数据匹配模块;
所述的虹膜识别器还包括虹膜识别移动端,该虹膜识别移动端设置有与手机连接的USB接口;
所述的图像获取模块用于拍摄用户虹膜,并获取相应的认证虹膜;
所述的识别算法模块包括图像质量评估模块和虹膜预处理模块,用于对虹膜图像进行定位、归一化、图像增强的预处理;
所述的特征提取模块用于对虹膜预处理后提取认证的虹膜的特征点,并计算所提取的认证虹膜各特征点的特征值;
所述的编码模块采用图像特征提取算法对虹膜图像的感兴趣部分进行特征提取并编码;
所述的数据匹配模块用于将所提取并编码的的认证虹膜的特征点的特征值与虹膜数据库中的数据进行对比,并在所提取的并编码的认证虹膜的特征点的特征值与虹膜数据库中的数据相符时确认该用户通过身份认证。
体感设备采用体感摄像头,它包含一个普通摄像头和一个由CMOS红外传感器组成的深度摄像头。普通摄像头提供和传统摄像头一样的彩色视频数据。而深度摄像头通过黑白光谱的方式来感知环境:纯黑代表无穷远,纯白代表无穷近。黑白间的灰色地带对应物体到传感器的物理距离。它收集视野范围内的每一点,并形成一幅代表周围环境的深度图像。摄像头以每秒30帧的速度生成深度图像流,实时再现周围环境。
体感设备控制器负责与外部体感设备建立连接,从体感设备中获取实时的视频数据和空间数据,并对该数据进行初步处理,去除背景杂乱的数据,将识别到的人物信息以骨骼的形式返回。该模块负责处理从摄像头获取的深度图像流,并寻找图像中较可能是人体的移动物体。接下来处理模块会对深度图像进行像素级评估,来辨别人体的不同部位。由于计算量巨大,这一过程使用了预处理技术来缩短响应时间。
处理的第一阶段需要将人体从背景环境中区分出来,即从噪音中提取出有用信号,系统可以同时追踪最多两个使用者的全身骨骼信息。为了减轻后续计算的工作量,从深度图中只提取与两个使用者相关的深度数据,其余背景数据将不再处理。
第二阶段是把前一阶段提取的数据中的每一个像素都传送进一个辨别人体部位的机器学习系统中。随后该系统将给出了某个特定像素属于哪个身体部位的可能性。
处理流程的最后一个阶段是使用之前阶段输出的结果,评估每一个像素最终的归属来确定关节点。最终可以追踪到14个人体的关节,并生成一幅骨骼系统。另外在最终匹配阶段还做了一些附加输出滤镜来平滑输出等特殊工作。
姿势和手势是用户与系统交互的主要方法,系统利用这两个识别模块实现系统输入的功能。姿势是指用户在摄像头前做出的某种静态动作,比如左手上举、右手平举或双手上举等。姿势识别是指利用姿势识别模块获取从体感设备控制器返回的骨骼信息,根据姿势识别算法,从数据中分析出用户在摄像头前做出的各种姿势。
本发明的虚拟场景试衣间通过体感定位和图像识别将并利用深度摄像头传感器采集人体的骨骼和深度图像信息,将服装和现实图像完美融合,可以产生不同服装在不同场景下的展示效果,减少传统试衣的繁琐程序,提高了试衣的效率。
以上所述仅是对本发明的较佳实施例而已,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所做的任何简单修改,等同变化与修饰,均属于本发明技术方案的范围内。