CN110751716A - 基于单视角rgbd传感器的虚拟试鞋方法 - Google Patents

基于单视角rgbd传感器的虚拟试鞋方法 Download PDF

Info

Publication number
CN110751716A
CN110751716A CN201910379158.7A CN201910379158A CN110751716A CN 110751716 A CN110751716 A CN 110751716A CN 201910379158 A CN201910379158 A CN 201910379158A CN 110751716 A CN110751716 A CN 110751716A
Authority
CN
China
Prior art keywords
foot
user
view
depth
shoe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910379158.7A
Other languages
English (en)
Other versions
CN110751716B (zh
Inventor
朱康
张迎梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Overlapping Digital Technology (shanghai) Co Ltd
Original Assignee
Overlapping Digital Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Overlapping Digital Technology (shanghai) Co Ltd filed Critical Overlapping Digital Technology (shanghai) Co Ltd
Priority to CN201910379158.7A priority Critical patent/CN110751716B/zh
Publication of CN110751716A publication Critical patent/CN110751716A/zh
Application granted granted Critical
Publication of CN110751716B publication Critical patent/CN110751716B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

基于单视角RGBD传感器的虚拟试鞋方法,设置工作区域,将RGBD相机的视角覆盖工作区域;用户站在工作区域内,RGBD相机采集其数据,然后确定脚部的位置、方向和大小;将鞋的三维模型投影至当前相机视角下,并与实时场景的RGB数据进行融合。本发明可以实时地进行用户脚部与鞋类产品的三维模型的融合,并可以在任意视角下进行展示,完全模拟了用户面对试鞋镜真实试鞋的视觉效果体验。可以精准计算用户的脚部尺寸,消除了复杂的用户操作。

Description

基于单视角RGBD传感器的虚拟试鞋方法
技术领域
本发明涉及计算机三维图形处理领域,具体地说是一种基于单视角RGBD传感器的虚拟试鞋方法。
背景技术
随着互联网技术的兴起,全球产业进入了互联网时代。在日常的生产生活中,网络购物日益成为一种主流的消费模式。对于网络购买鞋类产品时,选择理想样式,和合适的尺码成为了用户的一大困扰。究其原因,单一利用卖家拍摄的单一平面鞋类展示效果作为选择样式的依据,与用户实际的心理预期有一定的差距。另外,中国鞋类厂商的鞋码标准使用不广泛,常用欧码或美码代替;而不同厂商、不同鞋类产品之间鞋码,造成码数不准、尺码混乱的问题很难解决。这两个原因导致了商家面临退货率飙升的问题,同时浪费了物流业的社会效率。
随着三维重建、VR/AR和AI等技术以及计算机CPU/GPU处理器性能的爆发式发展,虚拟试鞋业务随之兴起。利用计算机视觉、计算机图形学和计算成像等领域的相关技术,厂商可以预先对鞋类产品进行三维建模,在用户挑选鞋类产品时可以实时的进行预览对应产品的三维影像,或者利用AR/VR穿戴式设备,将鞋类产品模型与用户场景进行融合,使得用户在挑选过程中能够实时模拟自身穿着该产品的实际视觉效果。
当前虚拟试鞋技术大致分为三类:
1.直接在互联网页面上展示由三维重建技术获得的鞋类产品的三维模型的立体效果,用户可以通过操作完成不同视角的预览鞋类产品。这类技术大大提升了以往只能靠卖家拍摄的单一平面鞋类展示效果。但是,这种技术对于用户而言,仍然无法得知该类产品的穿着效果以及鞋码的选择。
2.利用VR/AR穿戴式设备,将三维重建技术获得的鞋类产品的三维模型投射到现实场景,利用计算机视觉等相关技术,对人体和鞋进行融合,继而获得用户穿戴该类产品的视觉效果。但是,一方面受到用户视角和AR/VR视场角等相关方面的原因,很难有理想的效果;另一方面,对于用户而言,购置VR/AR设备以及配套的计算单元,成本相当高。
3.利用三维重建技术的脚部建模设备进行虚拟试鞋。用户只需要站立在设备的相关区域,设备经过一段时间利用机器视觉和三维重建技术对人体脚部进行测量和计算,最终完成脚部的三维建模,然后与鞋类产品的三维模型进行适配。这种方案对于鞋码检测较为精准,但是一方面由于设备规格的限制,用户无法进行多角度的移动旋转脚部进行全方位视觉体验;另一方面由于造价较高,对于用户而言成本较高。另外,即使由商家购置相关设备用于线下虚拟试鞋体验,由于设备需要精准对脚部进行三维建模,需要用户进行脱鞋站立,同时脚部建模过程持续一段时间,存在一定的不方便。
CN201610008004.3号中国专利申请公开了三维虚拟试鞋方法和系统,将使用者的脚部模型和鞋模型结合起来,实现了虚拟鞋子与真实顾客脚形的融合,通过试穿效果的动态展示,顾客可在最短时间内快速浏览不同鞋子款式的试穿效果,还可以观看不同饰品、背景下的试穿效果,可以避免物流资源的浪费以及退换货带来的时间浪费,提高网络购鞋的用户体验。该方案利用采集设备进行完整的人员脚部模型重建,然后去做与鞋模型的贴合,增加了计算过程,较为复杂。
CN201710336343.9号中国专利申请公开了本发明公开了一种试鞋系统,包括用于获取三维脚部数据并存储至脚型数据库的足部三维扫描装置、用于调取三维脚部数据与鞋型数据库中的三维鞋型数据且进行比对并推送适合鞋子的控制终端以及将购买者引导至实体店的移动终端,能够先进行虚拟试鞋,购买者通过虚拟试鞋挑选好自己所需要的鞋子之后,在通过移动终端引导购买者去实体店进行实体试鞋。该方案同样要对对脚部进行重建。
此外,还有诸如CN201710413212.6号专利申请所公开的一种线上辅助测量脚码大小的方法,步骤是:1、用户信息获取;2、服务器自动运算;3、服务器提供用户鞋码信息,具有测试方便、快捷、可以自助完成,大大方便人们在线上买鞋的方便程度。即用特制的标定卡去做脱鞋后脚步大小测量的,并且他对用户拍摄的角度有严格的限定。
CN201810848062.6号中国专利申请公开一种在线虚拟试鞋方法,包括:在用户脚部穿戴空间标记袜的情况下,获取所述用户的脚部图像;销售终端用预设三维脚部模型对比用户的脚部图像后生成用户脚部三维模型;销售终端从用户脚部三维模型上获取用户脚部尺寸;销售终端根据鞋码选用预存的三维鞋模型,并投射到用户脚部三维模型上,生成试三维试鞋模型。在线虚拟试鞋方法可使消费者在买鞋前通过虚拟现实技术在线虚拟试鞋,提高消费者在线买鞋的合脚率,该方案利用特制的袜子制作标记,来进行对脚部关键点进行提取,然后同样要做脚部三维重建。
发明内容
本发明为解决现有的问题,旨在提供一种基于单视角RGBD传感器的虚拟试鞋方法。
为了达到上述目的,本发明采用的技术方案包括如下步骤:
步骤一,设置工作区域,将RGBD相机的视角覆盖工作区域;
步骤二,用户站在工作区域内,RGBD相机采集其数据,然后确定脚部的位置、方向和大小;
步骤三,将鞋的三维模型投影至当前相机视角下,并与实时场景的RGB数据进行融合。
进一步地,步骤一中,确定RGBD相机与世界坐标系的关系,设定RGB传感器采集的彩色图像信息为Ic,深度传感器采集的深度图像信息为Id,深度图像信息上的任意像素点为p(u,v),其值为该点的深度信息记为d,该像素点对应的世界坐标系下的三维点Pw(x,y,z),存在如下关系:
Figure BDA0002052760850000031
进一步地,步骤一中,选取若干地面的像素点及其坐标,利用矩阵的SVD分解算法拟合得到参数A,B,C,D,从而定位了在以深度传感器相机坐标系为世界坐标系的地面平面,p(u,v)对应的三维点Pw(x,y,z)均处于同一平面S:f(A,B,C,D)=0下,满足:
1.S:A*(P)w(x)+B*(P)w(y)+C*(P)w(z)+D=0(2)。
进一步地,步骤一中,在世界坐标系中设虚拟深度传感器Cv,设定它内外参数Kv,Rv2d和tv2d,根据Cd和Cv的坐标关系,通过将Cd获取的深度信息Id映射到Cv得到新视角下的场景点之间的深度关系图像数据Iv
进一步地,Cv相对于Cd的外参变换H4×4关系满足:
Figure BDA0002052760850000041
根据H可以获得外参数Rv2d和tv2d
进一步地,步骤二中,在用户进入有效区域前,积累采集场景的深度信息,加权平均后定义为背景深度信息
Figure BDA0002052760850000042
当用户进入有效区域后实时采集到的每一帧深度信息与之做差,小于一定阈值的点为是背景点,赋零值;反之,则认为该像素点为前景点,赋当前帧的深度值,即:
Figure BDA0002052760850000044
其中th为深度传感器的系统误差。
进一步地,步骤二中,将Cd拍摄到的深度信息转化为三维点云,然后利用Cv从上向下观测得到脚步的顶视信息;根据公式(1)
Figure BDA0002052760850000045
上每一个有效像素点pd都可以得到Cv相机坐标系下的三维点Pd,然后通过Cv的内参Kv以及相对于Cd的外参数Rv2d和tv2d反投影得到像素点pv,进而得到Iv,即:
Figure BDA0002052760850000046
进一步地,在各自计算过程的最后一步加入连通域检测机制,选取最大的连通域作为脚部信息的待选区域,从而将剩余的区域作为噪声区域进行过滤。
进一步地,步骤二中,在顶视图Iv的脚部区域中以各像素点在图像中的位置(u,v)进行最小二乘拟合,得到直线L1:y=k1x+b,该直线为脚部的主方向。进一步地,步骤三中,对于鞋三维模型进行预处理,将其坐标系的原点移动至脚后跟中心,x轴方向指向脚尖方向,y轴方向垂直于脚底面向上;在渲染环境的世界坐标系下,将模型移动到Ph点后缩放至Pt与脚尖重合。
然后,在渲染环境的世界坐标系下,设置一个与Cc完全一致的相机;利用渲染算法进行渲染得到RGB渲染帧数据Is,该数据的有效区域即为鞋类产品在用户脚部方向和位置投影在Cc视角下的具体视觉效果;无效区域置零值;
最后,将Cc视角下的渲染帧Is有效像素逐一融合至Cc视角下拍摄帧数据Ic,形成最终的融合数据,推至显示设备,供用户进行视觉效果体验。
和现有技术相比,本发明针对上述虚拟试鞋业务的现状,利用单视角的RGBD相机实现虚拟试鞋效果。首先,可以实时地进行用户脚部与鞋类产品的三维模型的融合,并可以在任意视角下进行展示,同时用户无需有任何额外的(例如脱鞋,站立在相关设备上等待计算建模等)操作过程,完全模拟了用户面对试鞋镜真实试鞋的视觉效果体验。其次,本发明可以在用户感受虚拟试鞋的视觉效果体验过程中,精准计算用户的脚部尺寸,该部分数据可以作为用户选择鞋类产品鞋码的参考依据。最后,本发明利用单视角的RGBD相机,相对于其他产品,成本较低;同时消除了复杂的用户操作,便于使用。
附图说明
图1为本发明实施例的所使用的系统的结构示意图;
图2为侧视深度传感器Cd和虚拟顶视深度传感器Cv相机坐标系关系示意图;
图3a为本发明实施例的操作说明图;
图3b、3c为脚部在侧视深度传感器Cd和虚拟顶视深度传感器Cv视角下的掩码图;
图4a、4b为脚部在侧视和顶视数据联合计算关键数据的示意图。
具体实施方式
现结合附图对本发明作进一步地说明。
参见图1至图4b,图1至图4b展示的是本发明的一个实施例,构建一个虚拟试鞋工作区域,区域正前方配置一套显示设备,显示设备下方放置一款RGBD相机,视角覆盖工作区域。当用户站在区域内,RGBD相机对区域内进行数据采集,然后利用计算机视觉相关技术定位用户的脚的位置、方向和大小,然后根据三维空间几何关系,利用计算机图形学相关渲染技术将已存在的鞋类产品的三维模型投影至当前相机视角下,并于实时场景的RGB数据进行融合,并投射至显示设备中,从而完成虚拟试鞋的视觉效果展示。
计算世界坐标系与相机坐标系。
由于本实施例中只存在一台RGBD相机,设置深度传感器Cd所在的相机坐标系与世界坐标系重合;根据现有相机标定理论及技术,可以得到在世界坐标系下,RGB传感器Cc相对于深度传感器的外参数,即RGB传感器相对于深度传感器的旋转矩阵Rc2d和平移矩阵tc2d。同时,可以得到RGB传感器的内参数Kc和深度传感器的内参数Kd。本实施例设定RGB传感器采集的彩色图像信息为Ic,深度传感器采集的深度图像信息为Id。同时设定深度图像信息上的任意像素点为p(u,v),其值为该点的深度信息,记为d,该像素点对应的世界坐标系下的三维点Pw(x,y,z)。二者存在如下关系:
Figure BDA0002052760850000061
其中(cx,cy)为深度传感器的光心参数,(fx,fy)为深度传感器的横向和纵向的焦距数据,它们都来源于深度传感器的内参数Kc
然后计算基于深度信息的地面信息拟合及顶视虚拟相机。首先参见图1,虚拟试鞋有效区域(传感器可以覆盖的区域)在没有人员走动的情况下,可以认为完全是一片平整的地面(而且事实上在系统部署过程中,可以完全保证这一点)。当无人员走动的情况下,深度传感器对这一区域进行采集的深度信息在世界坐标系下应该是一个平面。由此可以知道,Id上任意一个有效像素点p(u,v)(所谓有效是指深度传感器实际采集的深度图像信息实际存在部分零值点,为无效点)对应的三维点Pw(x,y,z)均处于同一平面S:f(A,B,C,D)=0下,即满足:
S:A*(P)w(x)+B*(P)w(y)+C*(P)w(z)+D=0(7)
由公式(2)可以得知为了拟合这个平面,至少需要多于四个点位数据。所以在当前无人员走动的深度图像信息中选取属于该地面平面的若干像素点(为了减少误差,点位应该多于4个;为了防止过拟合,点位应该少于20个),并求出对应的三维坐标点。然后利用矩阵的SVD分解算法,拟合得到参数A,B,C,D。从而定位了在以深度传感器相机坐标系为世界坐标系的地面平面S:f(A,B,C,D)=0。
其次,由于系统中RGB传感器采集到的是人员脚部的侧视信息(侧视的目的是最大限度的获取有效脚部信息),但由于相机的倾角和人员站立的位置关系,使得侧视传感器无法根据采集的深度信息判定人员脚部和其他部位的深度关系,所以需要在世界坐标系中部署一台虚拟深度传感器Cv。这台传感器不是真实存在的,但一经设定它内外参数Kv,Rv2d和tv2d,根据Cd和Cv的坐标关系,可以将Cd获取的深度信息Id映射到Cv得到新视角下的场景点之间的深度关系图像数据Iv。考虑到虚拟试鞋的场景因素,Cv应该部署在场景有效区域的正上方并垂直于地面向下拍摄,这样可以使得Iv中地面处于同一深度,且用户的脚部深度信息始终处于距离地面一定高度的范围内。为了便于计算,我们设定Cv的内参与Cd一致,即Kv=Kd。如图2所示,设xv轴平行于Cd的odxdyd平面平行且平行于地面S。即:
Figure BDA0002052760850000071
由上述分析可知Cv垂直于地面向下拍摄,故其zv轴与地面平面方程的法线向量n=(A,B,C)一致。即:
Figure BDA0002052760850000072
综合
Figure BDA0002052760850000073
Figure BDA0002052760850000074
易知
Figure BDA0002052760850000075
为了是Cv能够最大限度的获取有效数据,故Cv的原点ov设定于Cd的zd轴与地面交点Pi(x,y,z)的正上方l处,即
Figure BDA0002052760850000076
其中l可以根据Cd的实际高度估算。由上述一系列分析,可以得到Cv相对于Cd的外参变换H4×4关系满足:
Figure BDA0002052760850000077
从而根据H可以获得外参数Rv2d和tv2d
至此,整个系统(视觉采集和场景)可以用Cd,Cv的内外参数、深度信息以及地面平面S:(A,B,C,D)描述。Cc仅用于最终的针对用户的虚拟试鞋效果展示。接着提取基于深度信息的脚部信息。当用户站立在系统的有效区域内,Cc和Cd可以实时采集到包含用户腿部、脚部以及和场景环境的融合RGB图像和深度数据。对于定位脚部而言,首要的任务是完成对用户腿部和脚部与场景环境的分割。
传统的分割利用RGB的相关信息(边缘、前后景关系等)进行分割算法和抠图算法的计算,很难做到实时性。所以针对虚拟试鞋系统的特殊性(相机系统固定,拍摄区域为固定平面),本实施例在用户进入有效区域前,积累采集场景的深度信息,加权平均后定义为背景深度信息当用户进入有效区域后实时采集到的每一帧深度信息
Figure BDA0002052760850000082
与之做差,小于一定阈值的点我们认为是背景点,赋零值;反之,则认为该像素点为前景点,赋当前帧的深度值,即:
Figure BDA0002052760850000083
其中th为深度传感器的系统误差。
Figure BDA0002052760850000084
即在误差允许范围内只包含用户腿部和脚部深度信息。
顶视虚拟相机深度数据的恢复。根据公式(6),
Figure BDA0002052760850000085
上每一个有效像素点pd都可以得到Cv相机坐标系下的三维点Pd,然后通过Cv的内参Kv以及相对于Cd的外参数Rv2d和tv2d反投影得到像素点pv,进而得到Iv,即
Figure BDA0002052760850000086
这个操作过程相当于将Cd拍摄到的深度信息转化为三维点云,然后利用Cv从上向下观测,得到的顶视信息。值得注意的是,为了排除腿部运动导致Iv中脚部信息被腿部信息遮挡,所以公式(10)中Z小于一定阈值的将直接被舍弃。这个阈值可以定义为l-h,其中l为上文提到的Cv相对于地面的距离,它将是Iv计算过程中Z的最大值,h为一般脚底到脚踝距离,设定为250mm。
此外,在
Figure BDA0002052760850000087
和Iv均会随机出现一定的离散噪声,为了保证脚部数据的准确性,需要去除这些随机散点噪声。可以在各自计算过程的最后一步加入连通域检测机制,并选取最大的连通域作为脚部信息的待选区域,从而将剩余的区域作为噪声区域进行过滤。
至此,参见图3a至图3c,得到了脚部(近似脚底到脚踝部分)的侧视信息
Figure BDA0002052760850000091
以及顶视信息(Iv)。其中,Iv中脚部数据部分缺失,并未完整的脚形,是因为其数据来源于侧视图,只能拍摄到前侧数据。
基于顶视图的脚部位置计算及方向预测。在顶视图Iv的脚部区域中以各像素点在图像中的位置(u,v)进行最小二乘拟合,得到直线L1:y=k1x+b,该直线为该脚的主方向。因为顶视脚部信息近似一个实心脚印的区域,最小二乘拟合得到的直线大概率的会从脚尖和脚后跟的位置穿过,从而初步定位了脚的方向。同时,用户侧位站立的时候,脚底轮廓应为
Figure BDA0002052760850000092
有效区域的下边缘。故在下边缘采样一定的深度信息,根据公式(10)同样可以得到Iv中对应的一系列点,利用这些点单独进行最小二乘拟合,同样可以得到脚的主方向直线L2:y=k2x+b。由于计算方式的不同,L1和L2存在一定的夹角,最终取L1和L2最小夹角的角平分线作为脚的主方向L:y=kx+b。然后利用k和-1/k两个斜率遍历需按照脚部区域的边界,最终Iv中脚部区域由La:y=kx+bmin、Lb:y=kx+bmax、Lc:y=-1/kx+bmin和Ld:y=-1/kx+bmax四条直线围成的矩形区域所确定。
至此,参见图4a、图4b,确定了Cv视角下脚部的主方向(L:y=kx+b)以及位置信息(La,Lb,Lc,Ld四条直线合围的矩形区域)。
基于融合相机视角的脚部方向综合预测。由于L所确定的主方向是双向的,所以我们还需要进一步确定脚尖方向(或者脚后跟方向),从而唯一确定用户脚部的前向(或者后向)。经过观察人类脚部构造可知,脚踝距离脚尖的距离一定远远大于脚踝距离脚后跟的距离。同时侧视图中,由于前视相机和场景的关系,可以得知脚踝一定高于脚底(即脚踝的像素纵向位置小于脚底的像素纵向位置)。由此两点,产生如下计算方案:
在侧视图中,统计脚部区域的像素纵向位置,得到最大值vmax(认为是脚底最低处)和最小值vmin(认为是脚踝最高处)
在侧视图中统计脚部区域的像素纵向位置v<vmin+r·(vmax-vmin)的像素点集合{p|vp<vmin+r·(vmax-vmin)}。其中r为脚踝在整体脚部信息中的比例关系,考虑到误差和数据有效性,一般取r∈[0.2,0.4]。
根据公式(6)和公式(10)将上述像素点集合重投影映射到顶视深度信息中,形成顶视深度数据的一个像素集合点,并计算这个集合的位置中心,记为pc。过点pc、斜率为-1/k的直线记为Le:y-yp=-1/k(x-xp)。直线L分别于Lc,Le,Ld交于一点,分别记为pllc、plle和plld,如图4a、图4b所示。
如果||pllc-p11e||2>||plld-p11e||2,则认为pllc为脚尖位置,反之则认为plld为脚尖位置。
至此,本实施例确定了Cv视角下的脚部的主方向,包括脚尖位置pt和脚后跟位置ph
脚部关键数据生成(渲染数据和脚长数据)。Cv视角下的脚尖位置pt和脚后跟位置ph,根据公式(6),易得在Cv视角下的三维坐标点
Figure BDA0002052760850000101
Figure BDA0002052760850000102
另在
Figure BDA0002052760850000103
的正上方设置一点
Figure BDA0002052760850000104
Figure BDA0002052760850000105
Figure BDA0002052760850000107
其中thz是小于Cv视角下地面Z的任意数据。由于向量
Figure BDA0002052760850000108
和向量
Figure BDA0002052760850000109
相互垂直,故
Figure BDA00020527608500001010
Figure BDA00020527608500001011
三个点确定了用户脚部在三维空间中的位置、方向和大小。根据Cv的外参,该三个点可转化为世界坐标系下的三个点Pt、Ph和Pu。向量PhPt的方向确定了脚部的方向,模值确定了脚长。该脚长数据可作为用户选择鞋码的参考依据。鞋类产品渲染结果与实时场景帧数据融合。首先,对于鞋类产品的三维模型进行预处理,将其坐标系的原点移动至脚后跟中心,x轴方向指向脚尖方向,y轴方向垂直于脚底面向上。在渲染环境的世界坐标系下,将模型移动到Ph点后缩放至Pt与脚尖重合。
然后,在渲染环境的世界坐标系下,设置一个与Cc完全一致的相机(包括内外参数)。然后利用渲染算法进行渲染得到RGB渲染帧数据Is,该数据的有效区域即为鞋类产品在用户脚部方向和位置投影在Cc视角下的具体视觉效果;无效区域置零值。
最后将Cc视角下的渲染帧Is有效像素逐一融合至Cc视角下拍摄帧数据Ic,形成最终的融合数据,推至显示设备,供用户进行视觉效果体验。
本实施例完全模拟了用户面对试鞋镜真实试鞋的视觉效果体验。可以实时地进行用户脚部与鞋类产品的三维模型的融合,并可以在任意视角下进行展示,同时用户无需有任何额外的诸如脱鞋、等待重建等操作过程;
本实施例可以在用户感受虚拟试鞋的视觉效果体验过程中,精准计算用户的脚部尺寸,该部分数据可以作为用户选择鞋类产品鞋码的参考依据;
本实施例利用单视角的RGBD相机,相对于其他产品成本很低,同时消除了复杂的用户操作。
上面结合附图及实施例描述了本发明的实施方式,实施例并不构成对本发明的限制,本领域内熟练的技术人员可依据需要做出调整,在所附权利要求的范围内做出各种变形或修改均在保护范围内。

Claims (10)

1.一种基于单视角RGBD传感器的虚拟试鞋方法,其特征在于包括如下步骤:
步骤一,设置工作区域,将RGBD相机的视角覆盖工作区域;
步骤二,用户站在工作区域内,RGBD相机采集其数据,然后确定脚部的位置、方向和大小;
步骤三,将鞋的三维模型投影至当前相机视角下,并与实时场景的RGB数据进行融合。
2.根据权利要求1所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤一中,确定RGBD相机与世界坐标系的关系,设定RGB传感器采集的彩色图像信息为Ic,深度传感器采集的深度图像信息为Id,深度图像信息上的任意像素点为p(u,v),其值为该点的深度信息记为d,该像素点对应的世界坐标系下的三维点Pw(x,y,z),存在如下关系:
Figure FDA0002052760840000011
3.根据权利要求1所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤一中,选取若干地面的像素点及其坐标,利用矩阵的SVD分解算法拟合得到参数A,B,C,D,从而定位了在以深度传感器相机坐标系为世界坐标系的地面平面,p(u,v)对应的三维点Pw(x,y,z)均处于同一平面S:f(A,B,C,D)=0下,满足:S:A*(P)w(x)+B*(P)w(y)+C*(P)w(z)+D=0(2)。
4.根据权利要求3所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤一中,在世界坐标系中设虚拟深度传感器Cv,设定它内外参数Kv,Rv2d和tv2d,根据Cd和Cv的坐标关系,通过将Cd获取的深度信息Id映射到Cv得到新视角下的场景点之间的深度关系图像数据Iv
5.根据权利要求4所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:Cv相对于Cd的外参变换H4×4关系满足:
Figure FDA0002052760840000021
根据H可以获得外参数Rv2d和tv2d
6.根据权利要求1所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤二中,在用户进入有效区域前,积累采集场景的深度信息,加权平均后定义为背景深度信息
Figure FDA0002052760840000022
当用户进入有效区域后实时采集到的每一帧深度信息
Figure FDA0002052760840000023
与之做差,小于一定阈值的点为是背景点,赋零值;反之,则认为该像素点为前景点,赋当前帧的深度值,即:
Figure FDA0002052760840000024
其中th为深度传感器的系统误差。
7.根据权利要求2所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤二中,将Cd拍摄到的深度信息转化为三维点云,然后利用Cv从上向下观测得到脚步的顶视信息;根据公式(1)
Figure FDA0002052760840000025
上每一个有效像素点pd都可以得到Cv相机坐标系下的三维点Pd,然后通过Cv的内参Kv以及相对于Cd的外参数Rv2d和tv2d反投影得到像素点pv,进而得到Iv,即:
Figure FDA0002052760840000026
8.根据权利要求7所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:在各自计算过程的最后一步加入连通域检测机制,选取最大的连通域作为脚部信息的待选区域,从而将剩余的区域作为噪声区域进行过滤。
9.根据权利要求8所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤二中,在顶视图Iv的脚部区域中以各像素点在图像中的位置(u,v)进行最小二乘拟合,得到直线L1:y=k1x+b,该直线为脚部的主方向。
10.根据权利要求9所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤三中,对于鞋三维模型进行预处理,将其坐标系的原点移动至脚后跟中心,x轴方向指向脚尖方向,y轴方向垂直于脚底面向上;在渲染环境的世界坐标系下,将模型移动到Ph点后缩放至Pt与脚尖重合;
然后,在渲染环境的世界坐标系下,设置一个与Cc完全一致的相机;利用渲染算法进行渲染得到RGB渲染帧数据Is,该数据的有效区域即为鞋类产品在用户脚部方向和位置投影在Cc视角下的具体视觉效果;无效区域置零值;
最后,将Cc视角下的渲染帧Is有效像素逐一融合至Cc视角下拍摄帧数据Ic,形成最终的融合数据,推至显示设备,供用户进行视觉效果体验。
CN201910379158.7A 2019-05-08 2019-05-08 基于单视角rgbd传感器的虚拟试鞋方法 Active CN110751716B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910379158.7A CN110751716B (zh) 2019-05-08 2019-05-08 基于单视角rgbd传感器的虚拟试鞋方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910379158.7A CN110751716B (zh) 2019-05-08 2019-05-08 基于单视角rgbd传感器的虚拟试鞋方法

Publications (2)

Publication Number Publication Date
CN110751716A true CN110751716A (zh) 2020-02-04
CN110751716B CN110751716B (zh) 2024-02-02

Family

ID=69275719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910379158.7A Active CN110751716B (zh) 2019-05-08 2019-05-08 基于单视角rgbd传感器的虚拟试鞋方法

Country Status (1)

Country Link
CN (1) CN110751716B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507806A (zh) * 2020-04-23 2020-08-07 北京百度网讯科技有限公司 虚拟试鞋方法、装置、设备以及存储介质
CN111862218A (zh) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN111899293A (zh) * 2020-09-29 2020-11-06 成都索贝数码科技股份有限公司 Ar应用中的虚实遮挡处理方法
CN112184366A (zh) * 2020-09-09 2021-01-05 珠海格力电器股份有限公司 一种基于增强现实的鞋子推荐方法、存储介质及电子设备
CN112308910A (zh) * 2020-10-10 2021-02-02 达闼机器人有限公司 一种数据生成方法、装置及存储介质
CN112330784A (zh) * 2020-10-21 2021-02-05 北京沃东天骏信息技术有限公司 虚拟图像的生成方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012072844A1 (es) * 2010-12-03 2012-06-07 Alu Group, S.L. Método para el probado virtual de calzado
CN105788002A (zh) * 2016-01-06 2016-07-20 湖南拓视觉信息技术有限公司 三维虚拟试鞋方法和系统
CN106455757A (zh) * 2014-05-09 2017-02-22 商用打印机公司 设计鞋类的方法和装置
US20170068774A1 (en) * 2014-05-09 2017-03-09 Rsprint Methods and apparatuses for designing footwear

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012072844A1 (es) * 2010-12-03 2012-06-07 Alu Group, S.L. Método para el probado virtual de calzado
CN106455757A (zh) * 2014-05-09 2017-02-22 商用打印机公司 设计鞋类的方法和装置
US20170068774A1 (en) * 2014-05-09 2017-03-09 Rsprint Methods and apparatuses for designing footwear
CN105788002A (zh) * 2016-01-06 2016-07-20 湖南拓视觉信息技术有限公司 三维虚拟试鞋方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
弓太生;李姝;汤运启;万蓬勃;: "虚拟试鞋系统的模块构建" *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507806A (zh) * 2020-04-23 2020-08-07 北京百度网讯科技有限公司 虚拟试鞋方法、装置、设备以及存储介质
CN111862218A (zh) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN112184366A (zh) * 2020-09-09 2021-01-05 珠海格力电器股份有限公司 一种基于增强现实的鞋子推荐方法、存储介质及电子设备
CN111899293A (zh) * 2020-09-29 2020-11-06 成都索贝数码科技股份有限公司 Ar应用中的虚实遮挡处理方法
CN112308910A (zh) * 2020-10-10 2021-02-02 达闼机器人有限公司 一种数据生成方法、装置及存储介质
CN112308910B (zh) * 2020-10-10 2024-04-05 达闼机器人股份有限公司 一种数据生成方法、装置及存储介质
CN112330784A (zh) * 2020-10-21 2021-02-05 北京沃东天骏信息技术有限公司 虚拟图像的生成方法和装置
WO2022083389A1 (zh) * 2020-10-21 2022-04-28 北京沃东天骏信息技术有限公司 虚拟图像的生成方法和装置

Also Published As

Publication number Publication date
CN110751716B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN110751716B (zh) 基于单视角rgbd传感器的虚拟试鞋方法
CN103140879B (zh) 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序
US10013803B2 (en) System and method of 3D modeling and virtual fitting of 3D objects
US7742633B2 (en) Apparatus and method for rapidly measuring 3-dimensional foot sizes from multi-images
US20160286906A1 (en) Method and system for measuring 3-dimensional objects
JP5728406B2 (ja) 衣服画像処理システム、衣服画像処理方法、プログラム
JP5439787B2 (ja) カメラ装置
CN110766738B (zh) 基于多视角深度传感器的虚拟试鞋方法
US11176738B2 (en) Method for calculating the comfort level of footwear
KR20170073623A (ko) 고속 3d 모델 피팅 및 인체 측정법
US20120095589A1 (en) System and method for 3d shape measurements and for virtual fitting room internet service
CN115293835A (zh) 使用自动购物助手进行个性化购物的系统、平台和方法
US20220398781A1 (en) System and method for digital measurements of subjects
Ballester et al. Low-cost data-driven 3D reconstruction and its applications
KR100915298B1 (ko) 3차원 가상 신발 착용 시스템 및 이의 운용방법
Kobayashi et al. A simple 3D scanning system of the human foot using a smartphone with depth camera
US20240169576A1 (en) Method and electronic arrangement for item matching
Siegmund et al. Virtual Fitting Pipeline: Body Dimension Recognition, Cloth Modeling, and On-Body Simulation.
JP5706995B2 (ja) 靴画像処理システム、靴画像処理方法、プログラム
CN114072025A (zh) 经由移动计算设备进行脚部扫描的系统和方法
CN205721991U (zh) 一种足-鞋匹配系统
KR102659898B1 (ko) 모바일 단말을 이용한 3차원 발 모델 생성 방법 및 시스템
Yun et al. Foot Parameters Extraction using Deep Learning based Regression Model
Lunscher Deep learning 3d scans for footwear fit estimation from a single depth map
KR20240085487A (ko) 모바일 스캔 기반 3차원 발 모델을 이용한 사용자 정보 처리 방법 및 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant