CN113963062A - 虚拟试衣系统的相机阵列定位方法 - Google Patents

虚拟试衣系统的相机阵列定位方法 Download PDF

Info

Publication number
CN113963062A
CN113963062A CN202111294351.4A CN202111294351A CN113963062A CN 113963062 A CN113963062 A CN 113963062A CN 202111294351 A CN202111294351 A CN 202111294351A CN 113963062 A CN113963062 A CN 113963062A
Authority
CN
China
Prior art keywords
camera
cameras
vertical direction
shooting
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111294351.4A
Other languages
English (en)
Inventor
魏帅
梁哲
夏冰
李星
陈安宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202111294351.4A priority Critical patent/CN113963062A/zh
Publication of CN113963062A publication Critical patent/CN113963062A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种虚拟试衣系统的相机阵列定位方法,包括获取相机参数,确定相机与待拍摄物体间的水平距离;计算单台相机垂直方向拍摄高度;确定待拍摄物体的高度和垂直方向需安装相机数量;按照自下到上,确定垂直方向的第一相机的离地高度;计算垂直方向上相邻相机拍摄的重叠范围;确定垂直方向上每个相机的安装位置。本发明优点在于提出了一种能够根据不同类型相机参数,确定虚拟试衣系统需要安装相机的数量和安装位置,既保证待测人体全部处于设备的视场内,又保证相邻两台相机之间的视角具有一定的交叉重叠,使相机阵列定位更精准,减少相机的标定误差,便于后续数据处理时提取和匹配不同视角的图像特征点,提高三维人体重建的质量和效率。

Description

虚拟试衣系统的相机阵列定位方法
技术领域
本发明涉及虚拟试衣领域,尤其是涉及虚拟试衣系统的相机阵列定位方法。
背景技术
虚拟试衣是服装CAD系统的热点研究方向,它利用人体的三维信息,通过计算机图形学技术为用户建立自己的个性化三维人体模型,然后将用户挑选的衣服“穿”到本人的个性化三维模型上,最终得到用户三维人体模型的立体着装效果图,主要用于服装新产品的开发以及服装销售。三维人体重建技术、面料仿真和衣服试穿是虚拟试衣系统三大主要技术,其中,三维人体重建技术是虚拟试衣系统的载体,决定着试衣效果的优劣。
目前虚拟试衣系统按图像采集方式可分为主动式和被动式。主动式是利用三维扫描仪或深度摄像头配合机械转台将光学信号发射到人体上,然后捕获反射的信号,来获得人体的表面深度信息和建立三维模型,优点是测量精度高,扫描速度快,缺点就是价格高,系统庞大、复杂,对光照有严格的限制。被动式则大多借助多视角立体(Multi-viewStereo)三维重建技术(简称MVS重建),使用多台(套)相机对人体进行多个角度同步拍摄获取该场景不同视角图片序列,然后对不同视角图像之间具有代表性的特征点进行提取与匹配,重建场景的稀疏点云,再不断添加新的图像获得场景目标的稠密点云,最后将点云网格化重建得到人体的三维模型,这种方法的优点就是成本较低,对室内外不同场景的重建的可靠性和适应性均有更好的表现。
在被动式三维重建技术中,图像采集单元可以设置为单列相机移动拍摄,也可以设置为多列相机同步拍摄。但是,目前无论是单列相机移动拍摄还是相机阵列同步拍摄,均采用“将相机均匀布置在支架上,完成对整个人体的覆盖”的方法,这就导致以下两个问题:
第一,相机数量太多,造成计算数据冗余,三维重建过程复杂、耗时长。
第二,相机数量不够或布设位置有偏差,导致被测量人体不完全处在待测量范围内,或部分场景拍摄视角存在遮挡,或者无法保证相邻两台相机视角具有一定的的重叠交叉,可能增大相机的标定误差,不同视角图像中的特征点误匹配和噪声增多,导致退化和包含噪声的三维重建结果。
因此,虚拟试衣系统需要一种有效的相机阵列定位方法,既能够保证三维重建结果的精度和效率,又不会造成资源浪费,成本增加。
发明内容
本发明目的在于提供一种虚拟试衣系统的相机阵列定位方法,用于快速确定相机阵列的相机数量和安装位置,既能够对相机阵列进行精准的定位,减少相机标定误差,保证三维重建结果的精度,又避免资源浪费,增加成本。
为实现上述目的,本发明采取下述技术方案:
本发明所述一种虚拟试衣系统的相机阵列定位方法,包括以下步骤:
S1,获取相机参数,确定相机与待拍摄物体间的水平距离;
S2,计算单台相机垂直方向拍摄高度;
S3,确定待拍摄物体的高度和垂直方向需安装相机数量;
S4,按照自下到上,确定垂直方向的第一相机的离地高度;
S5,计算垂直方向上相邻相机拍摄的重叠范围;
S6,确定垂直方向上每个相机的安装位置;
进一步地,S1步中,所述相机参数包括相机的有效拍摄距离、垂直视角和水平视角。
进一步地,S1步中,根据所述相机的所述有效拍摄距离和虚拟试衣系统的场地宽度,确定相机与所述待拍摄物体间的水平距离;所述水平距离小于所述场地宽度的1/2,且在相机的有效拍摄距离内。
进一步地,S4步中,为确保所述垂直方向的第一相机能够完全拍摄到所述待拍摄物体的底部,第一相机的所述离地高度需小于所述相机垂直方向所述拍摄高度的1/2。
进一步地,S6步的计算结果能够应用于虚拟试衣系统中单列相机移动拍摄和多列相机同步拍摄;
当采用单列相机移动拍摄时,仅需按照S6步设置1组垂直方向的相机阵列。
进一步地,当采用多列相机同步拍摄时,需根据所述相机的所述水平视角确定水平方向的相机组数和安装位置,确保水平方向上相邻相机的水平视角有重叠区域。
本发明优点在于提出了一种能够根据不同类型相机参数,确定虚拟试衣系统需要安装相机的数量和安装位置,既保证待测人体全部处于设备的视场内,又保证相邻两台相机之间的视角具有一定的重叠,使相机阵列定位更精准,减少相机的标定误差,同时本发明能够减少资源浪费,便于后续数据处理时提取和匹配不同视角的图像特征点,提高三维人体重建的质量和效率。
附图说明
图1是本发明所述虚拟试衣系统的相机阵列定位方法流程图。
图2是本发明所述方法相机垂直方向拍摄高度计算示意图。
图3是本发明所述方法第一相机的离地高度及相邻相机拍摄的重叠范围示意图。
图4是本发明所述方法在多列相机同步拍摄上的应用示意图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明所述一种虚拟试衣系统的相机阵列定位方法,具体包括以下步骤:
据厂家公开资料,目前市场上相机的水平视场一般为56—90°,垂直视场一般为43—60°。下面以英特尔IntelRealSenseD435双目实感深度相机深度摄像头为例详细描述本发明的实施过程。
S1,获取相机1参数,确定相机1与待拍摄物体2间的水平距离D;所述相机1参数包括有效拍摄距离、垂直视角θ和水平视角α;
在相机1的有效拍摄距离内,相机1与待拍摄物体2间的距离越近,拍摄的细节就越精确。根据相机1的有效检测距离和虚拟试衣系统的场地宽度L,能够确定相机1与待拍摄物体2间的水平距离D,水平距离D应小于L/2且在相机1的有效检测距离内;
英特尔IntelRealSenseD435双目实感深度相机深度摄像头,其分辨率为1920×1080@30fps,水平视角为86°,垂直视角为57°,有效拍摄距离为0.105-10米。
假设场地宽度L为1.5米,相机1的有效检测距离为0.105-10米,则能够确定D的范围为0.105-0.75米之间,可以取D=0.5米。
S2,计算单台相机1垂直方向拍摄高度H;
如图2所示,相机1到待拍摄物体2的水平距离D与相机1一侧垂直视角边界线形成直角三角形,根据三角函数,能够获得相机1垂直方向拍摄高度H;计算公式如下:
H=2×tan(θ/2)×D
在本实施例中,H=2×tan(57°/2)=0.54米。
S3,确定待拍摄物体2的高度h,计算垂直方向需安装相机1数量n;其计算公式如下:
n=h/H;
其中,n向上取整。
在本实施例中,假设虚拟试衣系统待拍摄人体高度为h=1.8米,则垂直方向需安装相机1数量1.8/0.54=3.33,向上取整n=4。
S4,按照自下到上,确定垂直方向的第一相机1的离地高度H1;
如图3所示,为了确保最下方第一相机1能够完全拍摄到待拍摄物体2的底部,第一相机1的最大离地高度H0应为H/2,即0.54/2=0.27,所述离地高度为相机1到地面3的距离。为保证拍摄精度,则第一相机1的离地高度H1应小于H0,在本实施例后续的计算中取第一相机的离地高度H1为0.2米。
S5,计算垂直方向上相邻相机1拍摄的重叠范围H’;
如图3所示,垂直方向需安装4台相机1,则共用3个重叠范围H’。根据几何关系,可知:
nH-h≤(n-1)×H',即
4×0.54-1.8≤(4-1)H'
计算得到H’≥0.12米,用户根据实际拍摄情况和三维建模精度的需要,可以自由设定H’,在本实施例后续的计算中取H’为0.18米。
S6,确定垂直方向上每个相机1的安装位置;
在S5步中,已经确定第一相机1的离地高度H1=0.2米。设第一相机1与第二相机1的间距为H2,根据几何关系,可知:
H1+H2+H/2>2H-H'-(H0-H1)即
0.2+H2+0.54/2>2×0.54-0.18-(0.27-0.2)
计算得到H2>0.36米,基于此结果,用户可以根据实际拍摄情况和三维建模精度的需要,自由设定H2,如取H2=0.38米,则第二相机1的离地高度为:0.2+0.38=0.58米。
进一步,根据几何关系,可知第二相机1与第三相机1的间距为H3满足以下关系式:
H1+H2+H3+H/2>3H-2H'-(H0-H1)即
0.2+0.38+H3+0.54/2>3×0.54-2×0.18-(0.27-0.2)
计算得到H3>0.34米,基于此结果,用户可以根据实际拍摄情况和三维建模精度的需要,自由设定H3,如取H3=0.4米,则第三相机1的离地高度为:0.2+0.38+0.4=0.98米。
进一步,根据几何关系,可知第三相机1与第四相机1的间距为H4满足以下关系式:
H1+H2+H3+H4+H/2≥h即
0.2+0.38+0.4+H4+0.54/2≥1.8
计算得到H4>0.55米,基于此结果,用户可以根据实际拍摄情况和三维建模精度的需要,自由设定H4,如取H4=0.57米,则第四相机1的离地高度为:0.2+0.38+0.4+0.57=1.55米。
综上所述,即确定了垂直方向的相机1阵列参数。可直接按照相机1离地高度将相机1固定在安装杆4上,此时,垂直方向上的相机1阵列拍摄高度为-0.07(0.2-0.27=-0.07)至1.82(0.2+0.38+0.4+0.57+0.54/2)米,即能使待拍摄人体全部处于设备的视场内,又能保证垂直方向上两台相邻相机1的拍摄存在0.18米的重叠范围,有助于减少相机1的标定误差,便于后续数据处理时提取和匹配不同视角的图像特征点。同时,此时相机1使用量最少,且重叠区域最佳,能提高后续三维重建的质量和效率。
S7,确定水平方向的相机1组数和安装位置;
本申请所述方法中S6步的计算结果能够应用于虚拟试衣系统中单列相机移动拍摄和多列相机同步拍摄;
所述单列相机移动拍摄,单列相机1围绕待拍摄人体沿固定轨道进行360°移动,依次完成不同视角的拍摄。
所述多列相机同步拍摄,将多列相机1围绕待拍摄人体,同步完成待拍摄人体不同视角的拍摄。
当采用单列相机移动拍摄时,仅需按照S6步设置1组垂直方向的相机阵列。
当采用多列相机同步拍摄时,需根据所述相机1的所述水平视角确定水平方向的相机1组数和安装位置,确保水平方向上相邻相机的水平视角有重叠区域。
英特尔IntelRealSenseD435双目实感深度相机深度摄像头水平视角为86°,采用多列相机同步拍摄时,水平方向的相机组数M的计算公式为M=360°/α+1
即360°/86°+1=4.2+1=5.2,向下取整,得到M=5。如图4所示,即在水平方向上每隔360°/5=72°安装1组垂直方向的相机阵列。由于相机1的水平视角为86°大于相机1的水平布置间隔72°,因此能确保水平方向上相邻相机1拍摄人体存在重叠区域,便于后续数据处理时提取和匹配不同视角的图像特征点,提高三维人体重建的质量和效率。此时整套虚拟试衣系统在水平方向设置5组,每组在垂直方向上设置4台相机,共计20台相机组成一个最优的虚拟试衣系统相机阵列。

Claims (6)

1.一种虚拟试衣系统的相机阵列定位方法,其特征在于:包括以下步骤:
S1,获取相机参数,确定相机与待拍摄物体间的水平距离;
S2,计算单台相机垂直方向拍摄高度;
S3,确定待拍摄物体的高度和垂直方向需安装相机数量;
S4,按照自下到上,确定垂直方向的第一相机的离地高度;
S5,计算垂直方向上相邻相机拍摄的重叠范围;
S6,确定垂直方向上每个相机的安装位置。
2.根据权利要求1所述的虚拟试衣系统的相机阵列定位方法,其特征在于:S1步中,所述相机参数包括相机的有效拍摄距离、垂直视角和水平视角。
3.根据权利要求2所述的虚拟试衣系统的相机阵列定位方法,其特征在于:S1步中,根据所述相机的所述有效拍摄距离和虚拟试衣系统的场地宽度,确定相机与所述待拍摄物体间的水平距离;所述水平距离小于所述场地宽度的1/2,且在相机的有效拍摄距离内。
4.根据权利要求3所述的虚拟试衣系统的相机阵列定位方法,其特征在于:S4步中,为确保所述垂直方向的第一相机能够完全拍摄到所述待拍摄物体的底部,第一相机的所述离地高度需小于所述相机垂直方向所述拍摄高度的1/2。
5.根据权利要求1所述的虚拟试衣系统的相机阵列定位方法,其特征在于:
S6步的计算结果能够应用于虚拟试衣系统中单列相机移动拍摄和多列相机同步拍摄;
当采用单列相机移动拍摄时,仅需按照S6步设置1组垂直方向的相机阵列。
6.根据权利要求1所述的虚拟试衣系统的相机阵列定位方法,其特征在于:
当采用多列相机同步拍摄时,需根据所述相机的所述水平视角确定水平方向的相机组数和安装位置,确保水平方向上相邻相机的水平视角有重叠区域。
CN202111294351.4A 2021-11-03 2021-11-03 虚拟试衣系统的相机阵列定位方法 Pending CN113963062A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111294351.4A CN113963062A (zh) 2021-11-03 2021-11-03 虚拟试衣系统的相机阵列定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111294351.4A CN113963062A (zh) 2021-11-03 2021-11-03 虚拟试衣系统的相机阵列定位方法

Publications (1)

Publication Number Publication Date
CN113963062A true CN113963062A (zh) 2022-01-21

Family

ID=79469104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111294351.4A Pending CN113963062A (zh) 2021-11-03 2021-11-03 虚拟试衣系统的相机阵列定位方法

Country Status (1)

Country Link
CN (1) CN113963062A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114687286A (zh) * 2022-04-02 2022-07-01 株洲时代新材料科技股份有限公司 一种公跨铁桥梁检测车及其检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114687286A (zh) * 2022-04-02 2022-07-01 株洲时代新材料科技股份有限公司 一种公跨铁桥梁检测车及其检测方法

Similar Documents

Publication Publication Date Title
Chen et al. High-accuracy multi-camera reconstruction enhanced by adaptive point cloud correction algorithm
CN110285793B (zh) 一种基于双目立体视觉系统的车辆智能测轨迹方法
CN105225482B (zh) 基于双目立体视觉的车辆检测系统和方法
CN113838141B (zh) 一种单线激光雷达与可见光相机的外参标定方法及系统
CN103631698B (zh) 一种用于目标跟踪的摄像机ptz控制方法和装置
CN104902246A (zh) 视频监视方法和装置
CN110213565A (zh) 成像系统和用于深度计算的方法
AU2020315519B2 (en) 3D view model generation of an object utilizing geometrically diverse image clusters
CN106981081A (zh) 一种基于深度信息提取的墙面平整度检测方法
CN110390719A (zh) 基于飞行时间点云重建设备
CN106225676B (zh) 三维测量方法、装置及系统
CN109712232B (zh) 一种基于光场的物体表面轮廓三维成像方法
CN111435081B (zh) 海面测量系统、海面测量方法以及存储介质
CN104966062A (zh) 视频监视方法和装置
CN110146030A (zh) 基于棋盘格标志法的边坡表面变形监测系统和方法
CN107767424A (zh) 多相机系统的标定方法、多相机系统及终端设备
CN106596063A (zh) 一种测量透镜畸变的方法及系统
CN102997891A (zh) 场景深度的测量装置和方法
CN105654547A (zh) 三维重建方法
CN106524995B (zh) 基于可见光图像实时检测目标物体空间距离的定位方法
CN103438834A (zh) 基于结构光投影的层级式快速三维测量装置及测量方法
CN106709955A (zh) 基于双目立体视觉的空间坐标系标定系统和方法
Dolloff et al. An assessment of WorldView-1 positional accuracy based on fifty contiguous stereo pairs of imagery
CN112595236A (zh) 一种水下激光三维扫描和实时测距的测量装置
CN113963062A (zh) 虚拟试衣系统的相机阵列定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination