CN113034655A - 基于增强现实的试鞋方法、装置和电子设备 - Google Patents
基于增强现实的试鞋方法、装置和电子设备 Download PDFInfo
- Publication number
- CN113034655A CN113034655A CN202110273630.6A CN202110273630A CN113034655A CN 113034655 A CN113034655 A CN 113034655A CN 202110273630 A CN202110273630 A CN 202110273630A CN 113034655 A CN113034655 A CN 113034655A
- Authority
- CN
- China
- Prior art keywords
- image
- shoe
- calf
- shank
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 29
- 238000009877 rendering Methods 0.000 claims abstract description 99
- 210000001699 lower leg Anatomy 0.000 claims description 209
- 244000309466 calf Species 0.000 claims description 102
- 238000012549 training Methods 0.000 claims description 48
- 239000013598 vector Substances 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 10
- 238000007654 immersion Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 12
- 210000002683 foot Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000000903 blocking effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 208000024780 Urticaria Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开实施例公开了的基于增强现实的试鞋方法、装置和电子设备,在检测到试鞋指令之后,可以根据实时采集的现实图像中的任一小腿图像,确定与该小腿图像对应的初始渲染区域,并根据现实图像中的所有小腿图像,确定遮挡区域,然后根据遮挡区域和初始渲染区域,确定目标渲染区域;从而仅需对目标渲染区域进行鞋模渲染。也即,通过这种方式,使得展示的图像并非展示了整个鞋模,而是根据实际小腿与鞋模的遮挡关系,展示了鞋模的一部分;从而,可以更真实的贴近用户真实试鞋过程,让用户拥有更好的试鞋沉浸体验。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种基于增强现实的试鞋方法、装置和电子设备。
背景技术
随着科学技术的发展,终端应用所具备的功能也越来越完善,例如,用户可以通过终端应用浏览物品,而对于某些物品,终端设备还可以进行VR(Virtual Reality,虚拟现实)展示,以使用户具备更好的浏览体验。但是,某些物品可能观看起来和实际穿戴起来可能存在一定的偏差,例如,鞋子。某些鞋子可能图片看起来比较好看,而真正穿在脚上则并不美观,因此,为了使用户更好的选择到自己心怡的鞋子,某些鞋子可以进行AR(AugmentedReality,增强现实)试鞋,也即,用户利用终端设备拍摄自己的脚部,则鞋子图像覆盖在脚部图像的周围,从而让用户更真实的体验到鞋子的外观。
发明内容
提供该公开内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该公开内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开实施例提供了一种基于增强现实的试鞋方法、装置和电子设备,可以使得根据鞋模将现实图像的某些区域进行渲染之后,进行展示图像可以维持鞋模与小腿之间的遮挡关系,从而使提升AR试鞋体验。
第一方面,本公开实施例提供了一种基于增强现实的试鞋方法,包括:响应于检测到试鞋指令,实时采集以及展示现实图像,其中,上述现实图像中包括至少一个小腿图像,上述试鞋指令指示鞋模;确定与第一小腿图像对应的初始渲染区域,其中,上述至少一个小腿图像包括上述第一小腿图像;基于上述至少一个小腿图像,确定遮挡区域;根据上述初始渲染区域和上述遮挡区域,确定上述初始渲染区域中的目标渲染区域;基于上述试鞋指令所指示的鞋模,对上述目标渲染区域进行渲染,获得鞋模增强图像,并在上述现实图像上展示上述鞋模增强图像。
第二方面,本公开实施例提供了一种基于增强现实的试鞋装置,包括:采集单元,用于响应于检测到试鞋指令,实时采集以及展示现实图像,其中,上述现实图像中包括至少一个小腿图像,上述试鞋指令指示鞋模;第一确定单元,用于确定与第一小腿图像对应的初始渲染区域,其中,上述至少一个小腿图像包括上述第一小腿图像;第二确定单元,用于基于上述至少一个小腿图像,确定遮挡区域;第三确定单元,用于根据上述初始渲染区域和上述遮挡区域,确定上述初始渲染区域中的目标渲染区域;展示单元,用于基于上述试鞋指令所指示的鞋模,对上述目标渲染区域进行渲染,获得鞋模增强图像,并在上述现实图像上展示上述鞋模增强图像。
第三方面,本公开实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现如第一方面上述的基于增强现实的试鞋方法。
第四方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面上述的基于增强现实的试鞋方法的步骤。
本公开实施例提供的基于增强现实的试鞋方法、装置和电子设备,在检测到试鞋指令之后,可以根据实时采集的现实图像中的任一小腿图像,确定与该小腿图像对应的初始渲染区域,并根据现实图像中的所有小腿图像,确定遮挡区域,然后根据遮挡区域和初始渲染区域,确定目标渲染区域;从而仅需对目标渲染区域进行鞋模渲染。也即,通过这种方式,使得展示的图像并非展示了整个鞋模,而是根据实际小腿与鞋模的遮挡关系,展示了鞋模的一部分;从而,可以更真实的贴近用户真实试鞋过程,让用户拥有更好的试鞋沉浸体验。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的基于增强现实的试鞋方法的一个实施例的流程图;
图2A是根据本公开的基于增强现实的试鞋方法的一个实施例的拍摄示意图;
图2B是根据本公开的基于增强现实的试鞋方法的另一个实施例的展示示意图;
图3是根据本公开的基于增强现实的试鞋方法的另一个实施例的鞋模与小腿的方位示意图;
图4是根据本公开的基于增强现实的试鞋方法的另一个实施例的展示示意图;
图5是根据本公开的基于增强现实的试鞋装置的一个实施例的结构示意图;
图6是本公开的一个实施例的基于增强现实的试鞋方法可以应用于其中的示例性系统架构;
图7是根据本公开实施例提供的电子设备的基本结构的示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
请参考图1,其示出了根据本公开的基于增强现实的试鞋方法的一个实施例的流程。该基于增强现实的试鞋方法可以应用于终端设备。如图1所示该基于增强现实的试鞋方法,包括以下步骤:
步骤101,响应于检测到试鞋指令,实时采集以及展示现实图像。
在这里,现实图像中包括至少一个小腿图像。
在这里,试鞋指令指示鞋模。
在一些实施例中,现实图像可以理解为执行主体控制摄像装置(例如,摄像头)进行实时采集的图像。也即,当检测到试鞋指令时,执行主体可以让摄像头开始工作,并采集图像,并可以将采集的图像进行展示。而进行展示的图像则可以理解为现实图像。
在一些实施例中,由于用户需要进行AR试鞋,因此,用户实时进行采集的图像中可以包括至少一个小腿图像。也即,采集的现实图像中的小腿图像可以用于指示小腿,一个小腿图像可以指示一个小腿。
作为示例,当用户仅对一只脚进行AR试鞋时,采集的现实图像中可以仅包括一个小腿图像,而当用户需要对两只脚均进行AR试鞋时,则采集的现实图像中可以包括两个小腿图像。
在一些实施例中,当用户对执行主体执行预定义的操作之后,执行主体可以生成试鞋指令。作为示例,当用户在浏览鞋模时,当点击展示界面的某个控件时,则可以生成试鞋指令,相应的,当前正在浏览的鞋模则可以理解为试鞋指令所指示的鞋模。当然,需要说明的是,生成试鞋指令的方式还有很多,为了说明书的简洁,在此不再一一进行赘述。
步骤102,确定与第一小腿图像对应的初始渲染区域。
在这里,至少一个小腿图像包括第一小腿图像。
在一些实施例中,现实图像中可能包括了多个小腿图像,而第一小腿图像可以为任一小腿图像。换言之,当需要对某一小腿图像对应的小腿添加鞋模时,则可以将该小腿图像确定为第一小腿图像。
在一些实施例中,初始渲染区域可以理解为:鞋模按照一定姿态摆放完成之后,渲染该鞋模所需要的区域。作为示例,将初始渲染区域根据鞋模的样式进行渲染之后,即可实现AR试鞋的效果。
在一些实施例中,小腿图像指示小腿;而当用户穿上鞋子之后,鞋子通常会包裹整个脚掌,鞋子的鞋口通常会包裹住小腿的小腿跟;相应的,小腿的绝大部分通常会露出。也即,可以理解为鞋子与小腿通常存在特定的位置关系。因此,初始渲染区域与小腿图像之间则存在特定的位置关系(例如,在显示图像中的初始渲染区域与小腿图像的展示区域至少部分相交);换言之,可以根据第一小腿图像,确定初始渲染区域。
步骤103,基于至少一个小腿图像,确定遮挡区域。
在一些实施例中,用户在试鞋的过程中,为了实现更好的试鞋效果,某些情况会将小腿图像展示完全,例如,当从上往下拍摄时,用户的小腿不会被鞋模所遮挡,因此,此时展示小腿图像的区域则可以理解为遮挡区域。也即,遮挡区域为展示原图的区域。
作为示例,结合如图2A-图2B进行说明,图2A为拍照示意图,图2B为现实图像的示意图,其中,由图2A可以看出小腿201与鞋模202的位置关系,当从图2A中的拍摄方向进行拍摄时,获得的现实图像可以如图2B所示,初始渲染区域可以理解为区域203,而小腿图像的投影区域可以理解为遮挡区域204,可以看出,初始渲染区域203中的区域2031被遮挡区域204所遮挡,也即,在进行鞋模渲染时,区域2031可以不进行渲染,而遮挡区域204则可以显示原图。
在一些实施例中,小腿图像指示小腿,而每个小腿均可能对鞋模进行遮挡,因此,可以基于至少一个小腿图像中的每个小腿图像,确定目标待渲染鞋模区域中的遮挡区域。
步骤104,根据初始渲染区域和遮挡区域,确定初始渲染区域中的目标渲染区域。
在一些实施例中,初始渲染区域中的某些区域可能被遮挡了,也即,初始渲染区域中被遮挡的区域显示原图,而没有被遮挡的区域则需要根据鞋模进行渲染,而初始渲染区域中不属于遮挡区域的部分,则可以理解为目标渲染区域。
结合图2B进行说明,初始渲染区域203中的区域2031被遮挡区域204所遮挡,而初始渲染区域203中的区域2032没有被遮挡,因此,区域2032则可以理解为目标渲染区域。
步骤105,基于试鞋指令所指示的鞋模,对目标渲染区域进行渲染,获得鞋模增强图像,并在现实图像上展示鞋模增强图像。
在一些实施例中,为了达到试鞋的效果,可以基于鞋模对现实图像中的某些区域进行渲染,从而获得鞋模增强图像。而在渲染的过程中,为了使用户有更好的沉浸体验(也即,为了使用户AR试鞋的过程更加逼真),可以根据初始渲染区域和遮挡区域,确定目标渲染区域,则可以仅对目标渲染区域中进行渲染,也即,遮挡区域可以显示原始图像(在这里,可以理解为遮挡区域处可以直接显示现实图像在该处的景象),而目标渲染区域可以根据鞋模的外形进行渲染。而这种展示方式,可以更真实的贴近用户实际试鞋过程,从而可以改善AR试鞋体验。
可以看出,在检测到试鞋指令之后,可以根据实时采集的现实图像中的任一小腿图像,确定与该小腿图像对应的初始渲染区域,并根据现实图像中的所有小腿图像,确定遮挡区域,然后根据遮挡区域和初始渲染区域,确定目标渲染区域;从而仅需对目标渲染区域进行鞋模渲染。也即,通过这种方式,使得展示的图像并非展示了整个鞋模,而是根据实际小腿与鞋模的遮挡关系,展示了鞋模的一部分;从而,可以更真实的贴近用户真实试鞋过程,让用户拥有更好的试鞋沉浸体验。
在一些实施例中,鞋模与鞋对应,也即,鞋模的外形(形状、色彩)可以根据实际鞋子预先建立。因此,当检测到试鞋指令后,可以根据鞋模的外形与色彩对相应的目标渲染区域进行渲染。
在一些实施例中,现实图像中通常还包括了用户的脚部图像,而通过对用户脚部图像的多个特征点进行识别,即可确定初始渲染区域。作为示例,可以识别脚部图像中的脚指区、脚后跟区等,而初始展示区域与脚部图像的展示区域有较大部分重叠,因此,可以根据识别结果,确定初始渲染区域的大致区域,而根据识别脚部图像中的脚指区、脚后跟区等,可以确定鞋模的放置姿态,进而则可以根据鞋模的放置姿态,对确定出的大致区域(初始渲染区域的大致区域)进行校正,获得目标渲染区域。
在一些实施例中,步骤102(确定与目标小腿图像对应的初始渲染区域)具体可以包括:可以基于第一小腿图像在现实图像中的位置,确定第一小腿图像所指示的第一小腿在三维空间中的位姿;根据第一小腿在三维空间中的位姿,确定试鞋指令所指示的鞋模在三维空间中的位姿;基于试鞋指令所指示的鞋模在三维空间中的位姿、试鞋指令所指示的鞋模的形状,确定初始渲染区域。
在一些实施例中,可以镜头为坐标原点,镜头的轴心线为Z轴构建三维坐标系,并可以根据第一小腿在三维坐标系中的坐标,确定第一小腿在三维空间中的位姿。在这里,三维空间也可以是根据镜头的轴心线为Z轴构建,也可以根据大地的法线为Z轴构建。
当然,在具体实施方式中,也可以使用其它方式构建三维坐标系,仅需根据实际情况进行合理选择即可,在此不再进行赘述。
在一些实施例中,当三维空间也可以是根据镜头的轴心线为Z轴构建时,可以利用图像识别技术,确定第一小腿图像所指示的第一小腿在三维空间中的位姿。而在这里,位姿可以理解为位置和姿态(小腿朝向)。
作为示例,可以确定第一小腿的特定区域(如小腿跟部的区域、小腿中部的区域)在三维坐标系中的坐标,并可以利用欧拉角或单位方向向量的方式,标识小腿的朝向,而坐标可以表征小腿的位置,从而也就确定目标小腿在三维空间的位姿。
在一些实施例中,在一些实例中,由于鞋模与小腿之间通常存在位置关系,进而,可以根据目标小腿图像所指示的目标小腿的姿态,确定鞋模的放置姿态。如,鞋模的鞋口与小腿的方向相同,而鞋模的鞋面通常与小腿成特定角度,例如90度。因此,可以根据小腿的位姿,即可确定鞋模的放置位姿。
举例说明,如图3所示,当第一小腿的姿态表明目标小腿指向方向A时,由于鞋模的鞋尖通常与小腿的方向垂直,因此,鞋模鞋尖所指示的方向可以为方向B,而小腿的腿根位置通常与鞋模的鞋口相接,因此,可以根据第一小腿图像所指示的目标小腿的姿态,确定鞋模的放置姿态。
在一些实施例中,不同鞋模的形状可能不同,因此,不同鞋模以相同的方式放置在三维空间中时,其投影区域也不同,也即,为了使确定出的待渲染鞋模区域更加准确,可以将目标小腿在目标三维坐标系的位姿、试鞋指令所指示的鞋模的形状这两者相结合,确定初始渲染区域。
在一些实施例中,初始渲染区域可以理解为:将鞋模按照鞋模位姿的指示放置在三维空间后,将鞋模投影到现实图像上的投影区域。
在一些实施例中,步骤103(基于至少一个小腿图像,确定待渲染鞋模区域中的遮挡区域)具体可以包括:在三维空间中,添加与各小腿图像对应的小腿模型;基于试鞋指令所指示的鞋模与添加的小腿模型之间的遮挡关系,确定遮挡区域。
在一些实施例中,用户用于穿戴的裤子较宽松,或者腿部有其它佩戴物,则容易造成遮挡区域的面积过大,从而影响用户的试鞋体验。因此,可以预建一些小腿模型,而一个小腿模型对应一个小腿图像,小腿图像指示小腿。从而,可以将小腿模型添加至三维空间中对应小腿的位置处,并可以将小腿模型的位姿与小腿的位姿保持一致。
为了便于理解,可以结合图4进行说明,可以看出,小腿401(包括裤子)的体积大于小腿模型402,因此,当以拍摄方向进行拍摄时,则可能遮挡鞋模403的较多区域,从而也就可能影响用户的试鞋体验。
在一些实施例中,在进行鞋模投影时,可能一些小腿并未遮挡鞋模,因此,这些小腿可能并不会遮挡鞋模的展示,相应的,不会遮挡鞋模进行展示的小腿图像区域则不为遮挡区域。也即,为使展示的鞋模图像更加符合实际情况,可以根据小腿与鞋模之间的遮挡关系,确定出具体的遮挡区域。
在一些实施例中,可以根据各小腿图像所指示的小腿在三维空间内的位姿,确定各小腿模型在三维空间内的位姿,根据确定出的各小腿模型在三维空间内的位姿,将各小腿模型添加至三维空间内。
在一些实施例中,由于已经确定了小腿图像所指示的小腿在三维空间中的位姿,因此,可以直接根据小腿图像所指示的小腿在三维空间中的位姿,将小腿模型添加至三维空间内即可。
在一些实施例中,可以根据如下方式在三维空间内添加与第一小腿图像对应的第一小腿模型:可以根据鞋模在三维空间内的位姿,确定与第一小腿图像对应的第一小腿模型在三维空间内的位姿;并可以根据第一小腿模型在三维空间内的位姿,将第一小腿模型添加至三维空间内。
在一些实施例中,由于鞋模与第一小腿对应,因此,为了使第一小腿与鞋模结合得更好,可以根据鞋模位姿,确定第一小腿模型的位姿。作为示例,可以将第一小腿模型与鞋模的鞋口抵接,从而可以使确定出的遮挡区域更加准确。
为了更好的理解,进行举例说明:当用户穿了宽松裤子时,用户的小腿图像可能是包括用户的宽松裤子的图像,进而,确定出的用户的小腿位姿可能存在一定的误差,若第一小腿模型的位姿根据第一小腿的位姿进行确定,则可能使得第一小腿模型与鞋模的位置关系不对应,例如,第一小腿模型已经遮挡了鞋模的鞋口区域,或者,第一小腿模型并未较好与鞋口抵接,从而使得最后确定出的遮挡区域不准确,也就影响了用户的试鞋效果。
在一些实施例中,至少一个小腿图像还可以包括第二小腿图像,而可以根据第二小腿图像所指示的小腿在三维空间内的位姿,确定与第二小腿图像对应的小腿三维模型的位姿;并可以将第二小腿模型添加至三维空间内。
在这里,第二小腿图像可以理解为现实图像中除了第一小腿图像的其它小腿图像。
在一些实施例中,由于此时的鞋模与第一小腿图像对应,因此,第一小腿模型的位姿可能会影响用户的试鞋体验。而第二小腿模型对鞋模的遮挡,用户则可以通过变化第一小腿与第二小腿的位置关系进行调整。作为示例,第一小腿为左小腿、第二小腿为右小腿,若用户从上往下拍摄时,右小腿在左小腿上,此时,右小腿(第二小腿)可能会对鞋模进行遮挡,因此,用户可以将左小腿移至右小腿上,从而,右小腿则无法对鞋模进行遮挡。也即,第二小腿模型对于鞋模的遮挡,用户可以根据移动小腿之间的位置关系而轻易改变,因此,为了简化处理量,第二小腿模型的位姿可以根据第二小腿的位姿进行确定。
在一些实施例中,可以通过如下方式确定各小腿图像所指示的小腿在三维空间中的位姿:可以将现实图像输入至预先建立的标注模型,确定各小腿图像所指示的小腿在三维空间中的位姿。
在这里,标注模型可以通过以下方式建立:
获取训练样本集,并可以基于训练样本集,对预先建立的初始神经网络进行训练,获得上述计算模型。
在这里,训练样本集中的训练用样本,包括训练用现实图像和与训练用现实图像对应的小腿位姿。
在这里,训练用现实图像中包括小腿图像。
在一些实施例中,当确定了训练用样本之后,可以采用现有的深度学习框架(如PyTorch框架或Tensorflow框架)训练一个具有小腿位姿预测能力的计算模型。具体的训练过程中可以根据实际需要选取合适的初始神经网络模型模型(如mobilenet模型或shufflenet模型)。相应的,模型训练过程中的优化方法可以利用SGD(梯度下降算法)、Adam算法等,损失函数可以为L1或L2损失函数。
在一些实施例中,根据训练完成的计算模型,即可获得各小腿图像所指示的小腿在三维空间中的位姿。
在一些实施例中,步骤103(基于至少一个小腿图像,确定遮挡区域)具体可以包括:对各小腿图像进行识别,确定各小腿图像对应的原图展示区域;将确定出的原图展示区域确定为遮挡区域。
在一些实施例中,由于用户的拍摄方向通常是从上往下拍摄,因此,通常情况下,小腿图像均为遮挡区域。从而,可以识别出个小腿图像的边界,并将小腿图像的边界区域作为原图展示区域(遮挡区域)。这里需要说明的是,小腿图像的边界区域指代的是小腿脚踝附近到膝盖附近的区域。
在一些实施例中,步骤103(基于至少一个小腿图像,确定遮挡区域)具体可以包括:可以根据预建小腿模型的投影区域,获得与每个小腿图像对应的初始原图展示区域;根据各小腿图像的方向向量,调整各初始原图展示区域,获得与各小腿图像对应的原图展示区域;将确定出的原图展示区域确定为遮挡区域。
在一些实施例中,由于用户穿戴了裤袜,因此,小腿图像可能包括了用户所穿戴的裤袜的图像,使得小腿图像所占的区域较广,因此,可以确定每个小腿图像对应的初始原图展示区域。
在一些实施例中,可以通过预先设置一个小腿模型,并可以将小腿模型预设一个方向,而一个小腿图像可以对应一个小腿模型,从而就确定出了各个小腿图像的初始原图展示区域。
在一些实施例中,当确定初始原图展示区域之后,可以确定各小腿图像的方向向量,并可以根据确定出的各小腿图像的方向向量,对初始原图展示区域进行调整,从而获得原图展示区域。
作为示例,当预先定义了小腿模型的预设方向之后,则各初始展示区域的形状是相同的,且与小腿图像并不对应,因此,需要结合小腿图像在现实图像中的位置,调节初始原图展示区域。
在一些实施例中,可以确定各小腿图像的方向向量,并可以根据方向向量调整各初始展示区域。
在一些实施例中,通过小腿模型的投影确定初始原图展示区域,并根据小腿图像的方向向量调节初始原图展示区域的方式,可以使得确定出的原图展示区域更加准确,从而可以达到更好的AR试鞋效果。
在一些实施例中,可以通过如下方式调整与第一小腿图像对应的初始原图展示区域:识别上述初始渲染区域中的鞋口渲染区域;并可以根据鞋口渲染区域、第一小腿图像的方向向量,调整与第一小腿图像对应的初始原图展示区域。
在一些实施例中,为了避免第一小腿图像过渡遮挡鞋口区域(如,鞋模通常会包裹用户的小腿脚踝,也即,一小腿图像仅能遮挡一小部分鞋口区域,若第一小腿图像已经遮挡住了整个鞋口区域,则与实际情况不符,从而对鞋模造成过度遮挡,影响用户的AR试鞋体验),可以根据鞋口渲染区域与第一小腿图像的方向向量,确定与第一小腿图像的原图展示区域,从而,可以使得确定出的原图展示区域可以更加准确,也可以避免过度遮挡鞋模的现象。
在一些实施例中,可以将现实图像输入至预建的方向判断模型,获得各小腿图像对应的方向向量。
在这里,区域识别模型可以通过以下方式建立:获取训练样本集,基于训练样本集,对预先建立的初始神经网络进行训练,获得区域识别模型。
在这里,训练样本集中的训练用样本,包括训练用小腿图像和与训练用小腿图像对应的方向向量。
在一些实施例中,将初始图像输入至方向判断模型之后,方向判断模型会可以根据输入的现实图像,自动识别并判断出各小腿图像的方向向量。
由上可知,在确定遮挡区域时,可以根据鞋模与小腿模型之间的遮挡关系,并根据小腿模型投影的方式确定遮挡区域;也可以先小腿图像的初始原图展示区域,在对初始原图展示区域进行调整,获得原图展示区域的方式进行确定。而通过鞋模与小腿模型遮挡关系确定遮挡区域时,由于仅需识别小腿位姿,并将小腿模型按照确定出的位姿进行摆放即可,从而可以较快的确定出遮挡区域。而通过确定小腿图像的初始原图展示区域,并调整初始展示区域的方式,由于需要识别鞋口区域,并可能对小腿图像进行分割与识别,从而可以使得确定出的遮挡区域更加精确。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种基于增强现实的试鞋装置的一个实施例,该装置实施例与图1所示的基于增强现实的试鞋方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的基于增强现实的试鞋装置包括:采集单元501,用于响应于检测到试鞋指令,实时采集以及展示现实图像,其中,上述现实图像中包括至少一个小腿图像,上述试鞋指令指示鞋模;第一确定单元502,用于确定与第一小腿图像对应的初始渲染区域,其中,上述至少一个小腿图像包括上述第一小腿图像;第二确定单元503,用于基于上述至少一个小腿图像,确定遮挡区域;第三确定单元504,用于根据上述初始渲染区域和上述遮挡区域,确定上述初始渲染区域中的目标渲染区域;展示单元505,用于基于上述试鞋指令所指示的鞋模,对上述目标渲染区域进行渲染,获得鞋模增强图像,并在上述现实图像上展示上述鞋模增强图像。
在一些实施例中,上述第一确定单元502具体还用于:基于上述第一小腿图像在上述现实图像中的位置,确定上述第一小腿图像所指示的第一小腿在三维空间中的位姿;根据上述第一小腿在三维空间中的位姿,确定上述试鞋指令所指示的鞋模在上述三维空间中的位姿;基于上述试鞋指令所指示的鞋模在上述三维空间中的位姿、上述试鞋指令所指示的鞋模的形状,确定上述初始渲染区域。
在一些实施例中,上述第二确定单元503具体还用于:在三维空间中添加与各小腿图像对应的小腿模型;基于上述试鞋指令所指示的鞋模与添加的小腿模型之间的遮挡关系,确定上述遮挡区域。
在一些实施例中,上述第二确定单元503具体还用于:根据各小腿图像所指示的小腿在上述三维空间内的位姿,确定各小腿模型在上述三维空间内的位姿;根据确定出的各小腿模型在上述三维空间内的位姿,将各小腿模型添加至上述三维空间内。
在一些实施例中,上述第二确定单元503具体还用于:根据鞋模在上述三维空间内的位姿,确定与上述第一小腿图像对应的第一小腿模型在上述三维空间内的位姿;根据上述第一小腿模型在上述三维空间内的位姿,将上述第一小腿模型添加至上述三维空间内。
在一些实施例中,上述第二确定单元503具体还用于:通过如下方式确定各小腿图像所指示的小腿在上述三维空间中的位姿:将上述现实图像输入至预先建立的标注模型,确定上述各小腿图像所指示的小腿在三维空间中的位姿;其中,上述标注模型通过以下方式建立:获取训练样本集,其中,上述训练样本集中的训练用样本,包括训练用现实图像和与训练用现实图像对应的小腿位姿,其中,上述训练用现实图像中包括小腿图像;基于上述训练样本集,对预先建立的初始神经网络进行训练,获得上述标注模型。
在一些实施例中,上述第二确定单元503具体还用于:对各小腿图像进行识别,确定各小腿图像对应的原图展示区域;将确定出的原图展示区域确定为上述遮挡区域。
在一些实施例中,上述第二确定单元503具体还用于:根据预建小腿模型的投影区域,获得与每个小腿图像对应的初始原图展示区域;根据各小腿图像的方向向量,调整各初始原图展示区域,获得与各小腿图像对应的原图展示区域;将确定出的原图展示区域确定为遮挡区域。
在一些实施例中,上述第二确定单元503具体还用于:通过如下方式调整与第一小腿图像对应的初始原图展示区域:识别上述初始渲染区域中的鞋口渲染区域;根据上述鞋口渲染区域、上述第一小腿图像的方向向量,调整与上述第一小腿图像对应的初始原图展示区域。
在一些实施例中,上述第二确定单元503具体还用于:通过如下方式确定各小腿图像的方向向量:将上述现实图像输入至预建的方向判断模型,获得各小腿图像对应的方向向量;其中,上述区域识别模型通过以下方式建立:获取训练样本集,其中,上述训练样本集中的训练用样本,包括训练用小腿图像和与训练用现实图像对应的方向向量;基于上述训练样本集,对预先建立的初始神经网络进行训练,获得上述方向判断模型。
请参考图6,图6示出了本公开的一个实施例的基于增强现实的试鞋方法可以应用于其中的示例性系统架构。
如图6所示,系统架构可以包括终端设备601、602、603,网络604,服务器606。网络604可以用以在终端设备601、602、603和服务器606之间提供通信链路的介质。网络604可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备601、602、603可以通过网络604与服务器605交互,以接收或发送消息等。终端设备601、602、603上可以安装有各种客户端应用,例如网页浏览器应用、搜索类应用、新闻资讯类应用。终端设备601、602、603中的客户端应用可以接收用户的指令,并根据用户的指令完成相应的功能,例如根据用户的指令在信息中添加相应信息。
终端设备601、602、603可以是硬件,也可以是软件。当终端设备601、602、603为硬件时,可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备601、602、603为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器605可以是提供各种服务的服务器,例如接收终端设备601、602、603发送的信息获取请求,根据信息获取请求通过各种方式获取信息获取请求对应的展示信息。并展示信息的相关数据发送给终端设备601、602、603。
需要说明的是,本公开实施例所提供的信息处理方法可以由终端设备执行,相应地,基于增强现实的试鞋装置可以设置在终端设备601、602、603中。此外,本公开实施例所提供的信息处理方法还可以由服务器605执行,相应地,信息处理装置可以设置于服务器605中。
应该理解,图6中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图7,其示出了适于用来实现本公开实施例的电子设备(例如图6中的终端设备或服务器)的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM702被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:响应于检测到试鞋指令,实时采集以及展示现实图像,其中,上述现实图像中包括至少一个小腿图像,上述试鞋指令指示鞋模;确定与第一小腿图像对应的初始渲染区域,其中,上述至少一个小腿图像包括上述第一小腿图像;基于上述至少一个小腿图像,确定遮挡区域;根据上述初始渲染区域和上述遮挡区域,确定上述初始渲染区域中的目标渲染区域;基于上述试鞋指令所指示的鞋模,对上述目标渲染区域进行渲染,获得鞋模增强图像,并在上述现实图像上展示上述鞋模增强图像。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,采集单元501还可以被描述为“采集现实图像的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (13)
1.一种基于增强现实的试鞋方法,其特征在于,包括:
响应于检测到试鞋指令,实时采集以及展示现实图像,其中,所述现实图像中包括至少一个小腿图像,所述试鞋指令指示鞋模;
确定与第一小腿图像对应的初始渲染区域,其中,所述至少一个小腿图像包括所述第一小腿图像;
基于所述至少一个小腿图像,确定遮挡区域;
根据所述初始渲染区域和所述遮挡区域,确定所述初始渲染区域中的目标渲染区域;
基于所述试鞋指令所指示的鞋模,对所述目标渲染区域进行渲染,获得鞋模增强图像,并在所述现实图像上展示所述鞋模增强图像。
2.根据权利要求1所述的方法,其特征在于,所述确定与所述目标小腿图像对应的初始渲染区域,包括:
基于所述第一小腿图像在所述现实图像中的位置,确定所述第一小腿图像所指示的第一小腿在三维空间中的位姿;
根据所述第一小腿在三维空间中的位姿,确定所述试鞋指令所指示的鞋模在所述三维空间中的位姿;
基于所述试鞋指令所指示的鞋模在所述三维空间中的位姿、所述试鞋指令所指示的鞋模的形状,确定所述初始渲染区域。
3.根据权利要求1所述的方法,其特征在于,所述基于所述至少一个小腿图像,确定遮挡区域,包括:
在三维空间中添加与各小腿图像对应的小腿模型;
基于所述试鞋指令所指示的鞋模与添加的小腿模型之间的遮挡关系,确定所述遮挡区域。
4.根据权利要求3所述的方法,其特征在于,所述在三维空间中添加与各小腿图像对应的小腿模型,包括:
根据各小腿图像所指示的小腿在所述三维空间内的位姿,确定各小腿模型在所述三维空间内的位姿;
根据确定出的各小腿模型在所述三维空间内的位姿,将各小腿模型添加至所述三维空间内。
5.根据权利要求3所述的方法,其特征在于,通过如下方式在三维空间中添加与第一小腿图像对应的第一小腿模型:
根据鞋模在所述三维空间内的位姿,确定与所述第一小腿图像对应的第一小腿模型在所述三维空间内的位姿;
根据所述第一小腿模型在所述三维空间内的位姿,将所述第一小腿模型添加至所述三维空间内。
6.根据权利要求4所述的方法,其特征在于,通过如下方式确定各小腿图像所指示的小腿在所述三维空间中的位姿:
将所述现实图像输入至预先建立的标注模型,确定所述各小腿图像所指示的小腿在三维空间中的位姿;
其中,所述标注模型通过以下方式建立:
获取训练样本集,其中,所述训练样本集中的训练用样本,包括训练用现实图像和与训练用现实图像对应的小腿位姿,其中,所述训练用现实图像中包括小腿图像;
基于所述训练样本集,对预先建立的初始神经网络进行训练,获得所述标注模型。
7.根据权利要求1所述的方法,其特征在于,所述基于所述至少一个小腿图像,确定遮挡区域,包括:
对各小腿图像进行识别,确定各小腿图像对应的原图展示区域;
将确定出的原图展示区域确定为所述遮挡区域。
8.根据权利要求1所述的方法,其特征在于,所述基于所述至少一个小腿图像,确定遮挡区域,包括:
根据预建小腿模型的投影区域,获得与每个小腿图像对应的初始原图展示区域;
根据各小腿图像的方向向量,调整各初始原图展示区域,获得与各小腿图像对应的原图展示区域;
将确定出的原图展示区域确定为遮挡区域。
9.根据权利要求8所述的方法,其特征在于,通过如下方式调整与第一小腿图像对应的初始原图展示区域:
识别所述初始渲染区域中的鞋口渲染区域;
根据所述鞋口渲染区域、所述第一小腿图像的方向向量,调整与所述第一小腿图像对应的初始原图展示区域。
10.根据权利要求8所述的方法,其特征在于,通过如下方式确定各小腿图像的方向向量:
将所述现实图像输入至预建的方向判断模型,获得各小腿图像对应的方向向量;
其中,所述区域识别模型通过以下方式建立:
获取训练样本集,其中,所述训练样本集中的训练用样本,包括训练用小腿图像和与训练用现实图像对应的方向向量;
基于所述训练样本集,对预先建立的初始神经网络进行训练,获得所述方向判断模型。
11.一种基于增强现实的试鞋装置,其特征在于,包括:
采集单元,用于响应于检测到试鞋指令,实时采集以及展示现实图像,其中,所述现实图像中包括至少一个小腿图像,所述试鞋指令指示鞋模;
第一确定单元,用于确定与第一小腿图像对应的初始渲染区域,其中,所述至少一个小腿图像包括所述第一小腿图像;
第二确定单元,用于基于所述至少一个小腿图像,确定遮挡区域;
第三确定单元,用于根据所述初始渲染区域和所述遮挡区域,确定所述初始渲染区域中的目标渲染区域;
展示单元,用于基于所述试鞋指令所指示的鞋模,对所述目标渲染区域进行渲染,获得鞋模增强图像,并在所述现实图像上展示所述鞋模增强图像。
12.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-10中任一所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110273630.6A CN113034655A (zh) | 2021-03-11 | 2021-03-11 | 基于增强现实的试鞋方法、装置和电子设备 |
PCT/CN2022/079273 WO2022188708A1 (zh) | 2021-03-11 | 2022-03-04 | 基于增强现实的试鞋方法、装置和电子设备 |
US18/280,916 US20240153216A1 (en) | 2021-03-11 | 2022-03-04 | Shoe try-on method and apparatus based on augmented reality, and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110273630.6A CN113034655A (zh) | 2021-03-11 | 2021-03-11 | 基于增强现实的试鞋方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113034655A true CN113034655A (zh) | 2021-06-25 |
Family
ID=76468644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110273630.6A Pending CN113034655A (zh) | 2021-03-11 | 2021-03-11 | 基于增强现实的试鞋方法、装置和电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240153216A1 (zh) |
CN (1) | CN113034655A (zh) |
WO (1) | WO2022188708A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240692A (zh) * | 2021-06-30 | 2021-08-10 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113727142A (zh) * | 2021-09-02 | 2021-11-30 | 北京沃东天骏信息技术有限公司 | 云渲染方法及装置、计算机可存储介质 |
WO2022188708A1 (zh) * | 2021-03-11 | 2022-09-15 | 北京字跳网络技术有限公司 | 基于增强现实的试鞋方法、装置和电子设备 |
CN115174985A (zh) * | 2022-08-05 | 2022-10-11 | 北京字跳网络技术有限公司 | 特效展示方法、装置、设备及存储介质 |
WO2023051362A1 (zh) * | 2021-09-30 | 2023-04-06 | 北京字跳网络技术有限公司 | 图像区域处理方法及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN110298370A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 网络模型训练方法、装置及物体位姿确定方法、装置 |
US20200065991A1 (en) * | 2018-08-21 | 2020-02-27 | National Tsing Hua University | Method and system of virtual footwear try-on with improved occlusion |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9684928B2 (en) * | 2014-01-15 | 2017-06-20 | Holition Limited | Foot tracking |
US20220165012A1 (en) * | 2019-06-28 | 2022-05-26 | RLT IP Ltd. | Personalized avatar for movement analysis and coaching |
CN111369686A (zh) * | 2020-03-03 | 2020-07-03 | 足购科技(杭州)有限公司 | 能够处理局部遮挡物的ar成像虚拟试鞋方法及装置 |
CN112257582A (zh) * | 2020-10-21 | 2021-01-22 | 北京字跳网络技术有限公司 | 脚部姿态确定方法、装置、设备和计算机可读介质 |
CN112330784A (zh) * | 2020-10-21 | 2021-02-05 | 北京沃东天骏信息技术有限公司 | 虚拟图像的生成方法和装置 |
CN113034655A (zh) * | 2021-03-11 | 2021-06-25 | 北京字跳网络技术有限公司 | 基于增强现实的试鞋方法、装置和电子设备 |
-
2021
- 2021-03-11 CN CN202110273630.6A patent/CN113034655A/zh active Pending
-
2022
- 2022-03-04 US US18/280,916 patent/US20240153216A1/en active Pending
- 2022-03-04 WO PCT/CN2022/079273 patent/WO2022188708A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN110298370A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 网络模型训练方法、装置及物体位姿确定方法、装置 |
US20200065991A1 (en) * | 2018-08-21 | 2020-02-27 | National Tsing Hua University | Method and system of virtual footwear try-on with improved occlusion |
Non-Patent Citations (2)
Title |
---|
弓太生等: "虚拟试鞋系统的模块构建", 《皮革科学与工程》 * |
杨开富: "基于虚拟现实的数字三维全景超分辨重建系统设计", 《现代电子技术》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022188708A1 (zh) * | 2021-03-11 | 2022-09-15 | 北京字跳网络技术有限公司 | 基于增强现实的试鞋方法、装置和电子设备 |
CN113240692A (zh) * | 2021-06-30 | 2021-08-10 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113240692B (zh) * | 2021-06-30 | 2024-01-02 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、设备以及存储介质 |
CN113727142A (zh) * | 2021-09-02 | 2021-11-30 | 北京沃东天骏信息技术有限公司 | 云渲染方法及装置、计算机可存储介质 |
WO2023051362A1 (zh) * | 2021-09-30 | 2023-04-06 | 北京字跳网络技术有限公司 | 图像区域处理方法及设备 |
CN115174985A (zh) * | 2022-08-05 | 2022-10-11 | 北京字跳网络技术有限公司 | 特效展示方法、装置、设备及存储介质 |
CN115174985B (zh) * | 2022-08-05 | 2024-01-30 | 北京字跳网络技术有限公司 | 特效展示方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022188708A1 (zh) | 2022-09-15 |
US20240153216A1 (en) | 2024-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113034655A (zh) | 基于增强现实的试鞋方法、装置和电子设备 | |
CN111787242B (zh) | 用于虚拟试衣的方法和装置 | |
CN108415705B (zh) | 网页生成方法、装置、存储介质及设备 | |
CN109284445B (zh) | 网络资源的推荐方法、装置、服务器及存储介质 | |
WO2021258971A1 (zh) | 虚拟换服饰的方法和装置、设备和介质 | |
CN110163066B (zh) | 多媒体数据推荐方法、装置及存储介质 | |
CN110210501B (zh) | 虚拟对象生成方法、电子设备及计算机可读存储介质 | |
CN110084154B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN111833461A (zh) | 一种图像特效的实现方法、装置、电子设备及存储介质 | |
CN116324850A (zh) | 在消息收发系统中提供基于ar的服装 | |
CN112991494A (zh) | 图像生成方法、装置、计算机设备及计算机可读存储介质 | |
US20230244354A1 (en) | 3d models for displayed 2d elements | |
CN110189364B (zh) | 用于生成信息的方法和装置,以及目标跟踪方法和装置 | |
CN111833459A (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN117078888A (zh) | 虚拟角色的服装生成方法、装置、介质及电子设备 | |
US11281890B2 (en) | Method, system, and computer-readable media for image correction via facial ratio | |
CN112784622B (zh) | 图像的处理方法、装置、电子设备及存储介质 | |
CN113703704A (zh) | 界面显示方法、头戴式显示设备和计算机可读介质 | |
CN115775310A (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN114078181A (zh) | 人体三维模型的建立方法、装置、电子设备及存储介质 | |
CN110458289B (zh) | 多媒体分类模型的构建方法、多媒体分类方法及装置 | |
CN116152427A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN115188071A (zh) | 姿态识别方法、装置和电子设备 | |
CN113763511A (zh) | 图像处理方法及装置 | |
CN117765131A (zh) | 虚拟角色的服装生成方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |