CN107622433A - 眼镜推荐方法和装置 - Google Patents
眼镜推荐方法和装置 Download PDFInfo
- Publication number
- CN107622433A CN107622433A CN201710676292.4A CN201710676292A CN107622433A CN 107622433 A CN107622433 A CN 107622433A CN 201710676292 A CN201710676292 A CN 201710676292A CN 107622433 A CN107622433 A CN 107622433A
- Authority
- CN
- China
- Prior art keywords
- glasses
- user
- face
- structure light
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种眼镜推荐方法和装置,其中,方法包括:向用户面部投射结构光源,并拍摄结构光源经过用户面部调制的结构光图像;采用图像处理算法对结构光图像进行计算,生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征;根据预设的与面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜;将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。由此,能够让用户从各个角度查看眼镜的佩戴效果,从而提高了眼镜推荐的准确度和效率。
Description
技术领域
本发明涉及信息处理技术领域,尤其涉及一种眼镜推荐方法和装置。
背景技术
通常,不同用户的脸部结构不同,大多用户为了选取合适的眼镜,需要到实体店去试戴并选取,浪费用户的时间成本、效率底下。
目前,随着互联网技术的发展,很多用户选择了网上购物。在网上选取眼镜时,用户只能根据以往经验和模特脸型来预测自己佩戴眼镜的效果,往往造成购买的眼镜不满意等情况出现。
发明内容
本发明提供一种眼镜推荐方法和装置,以解决现有技术中,选取眼镜时不能够从各个角度查看眼镜的佩戴效果,眼镜推荐的准确度和效率不高的技术问题。
本发明实施例提供一种眼镜推荐方法,包括:向用户面部投射结构光源,并拍摄所述结构光源经过所述用户面部调制的结构光图像;采用图像处理算法对所述结构光图像进行计算,生成所述用户面部的3D模型,并根据所述用户面部的3D模型计算面部特征;根据预设的与所述面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜;将所述目标眼镜的3D模型与所述用户面部的3D模型进行融合处理,向所述用户多方位的显示所述目标眼镜的佩戴效果。
本发明另一实施例提供一种眼镜推荐装置,包括:第一投射拍摄模块,用于向用户面部投射结构光源,并拍摄所述结构光源经过所述用户面部调制的结构光图像;第一计算生成模块,用于采用图像处理算法对所述结构光图像进行计算,生成所述用户面部的3D模型,并根据所述用户面部的3D模型计算面部特征;匹配模块,用于根据预设的与所述面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜;处理模块,用于将所述目标眼镜的3D模型与所述用户面部的3D模型进行融合处理,向所述用户多方位的显示所述目标眼镜的佩戴效果。
本发明又一实施例提供一种终端设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,本发明第一方面实施例所述的眼镜推荐方法。
本发明还一实施例提供一种非临时性计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如本发明第一方面实施例所述的眼镜推荐方法。
本发明实施例提供的技术方案可以包括以下有益效果:
通过向用户面部投射结构光源并拍摄结构光源经过用户面部调制的结构光图像,接着采用图像处理算法对结构光图像进行计算生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征,然后根据预设的与面部特征对应匹配的眼镜数据,并从预设的眼镜数据库中获取匹配成功的目标眼镜,最后将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。由此,能够让用户从各个角度查看眼镜的佩戴效果,从而提高了眼镜推荐的准确度和效率。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明一个实施例的眼镜推荐方法的流程图;
图2(a)是根据本发明一个实施例的结构光测量的场景示意图一;
图2(b)是根据本发明一个实施例的结构光测量的场景示意图二;
图2(c)是根据本发明一个实施例的结构光测量的场景示意图三;
图2(d)是根据本发明一个实施例的结构光测量的场景示意图四;
图2(e)是根据本发明一个实施例的结构光测量的场景示意图五;
图3(a)是根据本发明一个实施例的准直分束元件的局部衍射结构示意图;
图3(b)是根据本发明另一个实施例的准直分束元件的局部衍射结构示意图;
图4是根据本发明一个实施例的眼镜推荐装置的结构框图;
图5是根据本发明另一个实施例的眼镜推荐装置的结构框图;以及
图6是根据本发明一个实施例提出的终端中的图像处理电路的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的眼镜推荐方法和装置。
图1是根据本发明一个实施例的眼镜推荐方法的流程图。
如图1所示,该眼镜推荐方法可包括:
步骤101,向用户面部投射结构光源,并拍摄结构光源经过用户面部调制的结构光图像。
步骤102,采用图像处理算法对结构光图像进行计算,生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征。
可以理解的是,用户在选取眼镜时,只能按照自己的经验或者图片中佩戴者的脸型等来预测自己佩戴眼镜的效果,往往造成选取错误,不满意等等使得眼镜推荐的准确度和效率不高。
为了解决上述技术问题,在本发明的实施例中,可以将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果,从而,从而提高了眼镜推荐的准确度和效率。
具体地,在实际应用中可以向用户面部投射结构光源,结构光源的结构特征有很多种,比如,激光条纹、格雷码、正弦条纹、或者,非均匀散斑等,由此,由于结构光源可以基于脸部的轮廓和深度信息对用户进行三维的面部信息的采集,相较于仅仅根据摄像头拍照采集人脸的二维的面部信息的方式,准确度更高,便于保证用户身份验证的准确度。
为了使得本领域的技术人员更加清楚的了解,如何向用户面部投射结构光源,并拍摄结构光源经过用户面部调制的结构光图像,下面以一种应用广泛的光栅投影技术(条纹投影技术)为例来阐述其具体原理,其中,光栅投影技术属于广义上的面结构光。
在使用面结构光投影的时候,如图2(a)所示,通过计算机编程产生正弦条纹,将该正弦条纹通过投影设备投影至被测物,利用CCD相机拍摄条纹受物体调制的弯曲程度,解调该弯曲条纹得到相位,再将相位转化为全场的高度。当然其中至关重要的一点就是系统的标定,包括系统几何参数的标定和CCD相机以及投影设备的内部参数标定,否则很可能产生误差或者误差耦合。因为系统外部参数不标定则不可能由相位计算出正确的高度信息。
具体而言,第一步,编程产生正弦条纹图,因为后续要利用变形条纹图获取相位,比如采用四步移相法获取相位,因此这里产生四幅相位差pi/2的条纹,然后将该四幅条纹分时投影到被测物(面具)上,采集到如图2(b)左边的图,同时要采集如图2(b)右边所示的参考面的条纹。
第二步,进行相位恢复,由采集到的四幅受调制条纹图计算出被调制相位,这里得到的相位图是截断相位图,因为四步移相算法得到的结果是由反正切函数计算所得,因而被限制在[-pi,pi]之间,也就是说每当其值超过该范围,其又会重新开始。得到的相位主值如图2(c)所示。
其中,在第二个步骤下,需要消跳变,即将截断相位恢复为连续相位,如图2(d)所示,左边为受调制的连续相位,右边是参考连续相位。
第三步,将受调制的连续相位和参考连续相位相减得到相位差,该相位差则表征了被测物相对参考面的高度信息,再代入相位与高度转化公式(其中相应参数经过标定),得到如图2(e)所示的待测物体的三维模型。
应当理解的是,在实际应用中,根据具体应用场景的不同,本发明实施例中所采用的结构光除了上述光栅之外,还可是其他任意图案。
其中,需要强调的是,作为一种可能的实现方式,本发明向用户面部投射散斑结构光,从而可根据散斑结构光中根据预设算法设置的散乱的斑点,在投射到用户面部后产生的位移(相当于调制)还原出人脸面部的相关深度信息。
在本实施例中,可以使用基本为平板的衍射元件,该衍射元件具有特定相位分布的浮雕的衍射结构,横截面为具有两个或多个凹凸的台阶浮雕结构,或多个凹凸的台阶浮雕结构,基片的厚度大致为l微米,各个台阶的高度不均匀,为0.7微米一0.9微米。图3(a)为本实施例的准直分束元件的局部衍射结构,图3(b)为沿截面A一A的剖面侧视图,横坐标和纵坐标的单位均为微米。
从而,由于普通的衍射元件对光束进行衍射后得到多束衍射光,但每束衍射光光强差别大,对人眼伤害的风险也大,即便是对衍射光进行二次衍射,得到的光束的均匀性也较低,利用此类光束在图像信息处理装置中对物体进行投影,投影效果较差。
本实施例中的准直分束元件不仅具有对非准直光束进行准直的作用,还具有分光的作用,即经反射镜反射的非准直光经过准直分束元件后往不同角度出射多束准直光束,且出射的多束准直光束的截面面积近似相等,能量通量近似相等,进而使得利用该光束衍射后的散点光进行图像处理或投影的效果更好,同时,激光出射光分散至每一束光,进一步降低了伤害人眼的风险,且由于是散斑结构光,相对于其他排布均匀的结构光,达到同样的采集效果时,所消耗的电能更低。
基于上述描述,在本实施例中,向用户面部投射结构光源,并拍摄结构光源经过用户面部调制的结构光图像,采用图像处理算法对结构光图像进行计算生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征,比如,用户脸型,脸部面积和瞳距中的一种或多种。
需要强调的是,具体地,基于结构光的原理可知,不同的采集条件和环境条件下,通过结构光针对同样的待测物体得到的结构光图像处理结果是不一样的,比如,在结构光设备和取件用户A距离2米的顺光环境下和距离3米的逆光条件下结构光图像处理结果是不一样的。
因此,为了减轻用户的身份的识别难度,以及提高对用户的身份识别的效率,根据预先通过结构光处理注册的验证特征信息时的结构光处理参数,生成投射光源投射到当前用户面部,并拍摄投射光源经过当前用户面部调制的结构光图像。
需要说明的是,根据具体应用场景的不同,采用图像处理算法对结构光图像进行计算生成用户面部的3D模型的实现方式不同,举例说明如下:
第一种示例,解调结构光图像中变形位置像素对应的相位,根据相位生成用户面部的高度信息,根据高度信息生成用户面部的3D模型。
在本示例中,由于用户面部特征等不同,测得的用户面部的高度信息也不同,而这种高度信息的不同,可以经由相位反应出来,比如,用用户面部五官越立体,相位畸变越大,从而用户面部的高度信息越深等,因而,解调结构光图像中变形位置像素对应的相位,根据相位生成用户面部的高度信息,根据该高度信息生成用户面部的3D模型。
第二种示例,由于用户面部特征等不同,测得的用户面部的景深信息也不同,而这种景深信息的不同,可以经由相位反应出来,比如,用户面部五官越立体,相位畸变越大,从而用户面部的景深信息越深等,因而,解调结构光图像中变形位置像素对应的相位,根据相位生成用户面部的景深信息,根据该景深信息确定用户面部的3D模型。
步骤103,根据预设的与面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜。
步骤104,将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。
具体地,在本发明实施例中预先建立好眼镜数据库,可以理解的是,有很多种方式可以预先建立眼镜数据库,可以根据实际应用需要进行选择设置。作为一种可能实现方式:
具体地,向各个眼镜投射结构光源,并拍摄结构光源经过眼镜调制的眼镜结构光图像,采用图像处理算法对眼镜结构光图像进行计算,生成眼镜的3D模型并计算对应的眼镜数据,建立眼镜的3D模型与眼镜数据对应关系的眼镜数据库。
需要说明的是,如何通过向各个眼镜投射结构光源,并拍摄结构光源经过眼镜调制的眼镜结构光图像,并采用图像处理算法对眼镜结构光图像进行计算,生成眼镜的3D模型并计算对应的眼镜数据的具体过程可以参见步骤101和步骤102的具体描述。
其中,眼镜数据可以包括:镜片形状、镜片面积、框架形状中的一种或多种。
具体地,将计算的面部特征匹配到对应的眼镜数据,接着从预设的眼镜数据库中查找眼镜数据对应的目标眼镜,从而可以将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。
为了提高满足用户的个性化需求,可以获取用户输入的眼镜偏好特征,获取与眼镜偏好特征对应的眼镜数据库。从而,可以根据用户的爱好,选取喜欢的眼镜数据库,进一步满足用户需求,提高用户体验。
综上所述,本发明实施例的眼镜推荐方法,通过向用户面部投射结构光源并拍摄结构光源经过用户面部调制的结构光图像,接着采用图像处理算法对结构光图像进行计算生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征,然后根据预设的与面部特征对应匹配的眼镜数据,并从预设的眼镜数据库中获取匹配成功的目标眼镜,最后将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。由此,能够让用户从各个角度查看眼镜的佩戴效果,从而提高了眼镜推荐的准确度和效率。
为了实现上述实施例,本发明还提出了一种眼镜推荐装置,图4是根据本发明一个实施例的眼镜推荐装置的结构框图,如图4所示,该装置包括第一投射拍摄模块100、第一计算生成模块200、匹配模块300和处理模块400。
其中,第一投射拍摄模块100,用于向用户面部投射结构光源,并拍摄结构光源经过所述用户面部调制的结构光图像。
第一计算生成模块200,用于采用图像处理算法对结构光图像进行计算,生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征。
匹配模块300,用于根据预设的与面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜。
处理模块400,用于将目标眼镜的3D模型与所述用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。
在本发明的一个实施例中,预先建立好眼镜数据库,可以理解的是,有很多种方式可以预先建立眼镜数据库,可以根据实际应用需要进行选择设置。作为一种可能实现方式:如图5所示,在图4的基础上,还包括:第二投射拍摄模块500、第二计算生成模块600和建立模块700。
其中,第二投射拍摄模块500,用于向各个眼镜投射结构光源,并拍摄结构光源经过所述眼镜调制的眼镜结构光图像。
第二计算生成模块600,用于采用图像处理算法对眼镜结构光图像进行计算,生成眼镜的3D模型,并计算对应的眼镜数据。
建立模块700,用于建立眼镜的3D模型与眼镜数据对应关系的眼镜数据库。
在本发明的一个实施例中,结构光源的结构特征,包括:激光条纹、格雷码、正弦条纹、均匀散斑、或者,非均匀散斑。
在本发明的一个实施例中,第一计算生成模块200具体用于解调结构光图像中变形位置像素对应的相位;根据相位生成用户面部的高度信息;根据高度信息生成用户面部的3D模型。
在本发明的一个实施例中,面部特征包括:用户脸型,脸部面积和瞳距中的一种或多种;眼镜数据包括:镜片形状、镜片面积、框架形状中的一种或多种。
为了提高满足用户的个性化需求,可以获取用户输入的眼镜偏好特征,获取与眼镜偏好特征对应的眼镜数据库。从而,可以根据用户的爱好,选取喜欢的眼镜数据库,进一步满足用户需求,提高用户体验。
需要说明的是,前述对眼镜推荐方法的解释说明,也适用于本发明实施例的眼镜推荐装置,本发明实施例中未公布的细节,在此不再赘述。
综上所述,本发明实施例的眼镜推荐装置,通过向用户面部投射结构光源并拍摄结构光源经过用户面部调制的结构光图像,接着采用图像处理算法对结构光图像进行计算生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征,然后根据预设的与面部特征对应匹配的眼镜数据,并从预设的眼镜数据库中获取匹配成功的目标眼镜,最后将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。由此,能够让用户从各个角度查看眼镜的佩戴效果,从而提高了眼镜推荐的准确度和效率。
本发明实施例还提出一种终端设备。上述终端中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图6是根据本发明一个实施例提出的终端中的图像处理电路的结构示意图。如图6所示,为便于说明,仅示出与本发明实施例相关的图像处理技术的各个方面。
如图6所示,图像处理电路包括成像设备1010、ISP处理器1030和控制逻辑器1040。成像设备1010可包括具有一个或多个透镜1012、图像传感器1014的照相机和结构光投射器1016。结构光投射器1016将结构光投影至被测物。其中,该结构光图案可为激光条纹、格雷码、正弦条纹、或者,随机排列的散斑图案等。图像传感器1014捕捉投影至被测物形成的结构光图像,并将结构光图像发送至ISP处理器1030,由ISP处理器1030对结构光图像进行解调获取被测物的深度信息。同时,图像传感器1014也可以捕捉被测物的色彩信息。当然,也可以由两个图像传感器1014分别捕捉被测物的结构光图像和色彩信息。
其中,以散斑结构光为例,ISP处理器1030对结构光图像进行解调,具体包括,从该结构光图像中采集被测物的散斑图像,将被测物的散斑图像与参考散斑图像按照预定算法进行图像数据计算,获取被测物上散斑图像的各个散斑点相对于参考散斑图像中的参考散斑点的移动距离。利用三角法转换计算得到散斑图像的各个散斑点的深度值,并根据该深度值得到被测物的深度信息。
当然,还可以通过双目视觉的方法或基于飞行时差TOF的方法来获取该深度图像信息等,在此不做限定,只要能够获取或通过计算得到被测物的深度信息的方法都属于本实施方式包含的范围。
在ISP处理器1030接收到图像传感器1014捕捉到的被测物的色彩信息之后,可被测物的色彩信息对应的图像数据进行处理。ISP处理器1030对图像数据进行分析以获取可用于确定和/或成像设备1010的一个或多个控制参数的图像统计信息。图像传感器1014可包括色彩滤镜阵列(如Bayer滤镜),图像传感器1014可获取用图像传感器1014的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器1030处理的一组原始图像数据。
ISP处理器1030按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器1030可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的图像统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器1030还可从图像存储器1020接收像素数据。图像存储器1020可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(DirectMemory Access,直接直接存储器存取)特征。
当接收到原始图像数据时,ISP处理器1030可进行一个或多个图像处理操作。
在ISP处理器1030获取到被测物的色彩信息和深度信息后,可对其进行融合,得到三维图像。其中,可通过外观轮廓提取方法或轮廓特征提取方法中的至少一种提取相应的被测物的特征。例如通过主动形状模型法ASM、主动外观模型法AAM、主成分分析法PCA、离散余弦变换法DCT等方法,提取被测物的特征,在此不做限定。再将分别从深度信息中提取到被测物的特征以及从色彩信息中提取到被测物的特征进行配准和特征融合处理。这里指的融合处理可以是将深度信息以及色彩信息中提取出的特征直接组合,也可以是将不同图像中相同的特征进行权重设定后组合,也可以有其他融合方式,最终根据融合后的特征,生成三维图像。
三维图像的图像数据可发送给图像存储器1020,以便在被显示之前进行另外的处理。ISP处理器1030从图像存储器1020接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。三维图像的图像数据可输出给显示器1060,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器1030的输出还可发送给图像存储器1020,且显示器1060可从图像存储器1020读取图像数据。在一个实施例中,图像存储器1020可被配置为实现一个或多个帧缓冲器。此外,ISP处理器1030的输出可发送给编码器/解码器1050,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器1060设备上之前解压缩。编码器/解码器1050可由CPU或GPU或协处理器实现。
ISP处理器1030确定的图像统计信息可发送给控制逻辑器1040单元。控制逻辑器1040可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的图像统计信息,确定成像设备1010的控制参数。
以下为运用图6中图像处理技术实现人脸3D模型的面部调整方法的步骤:
向用户面部投射结构光源,并拍摄结构光源经过用户面部调制的结构光图像;
采用图像处理算法对结构光图像进行计算,生成用户面部的3D模型,并根据用户面部的3D模型计算面部特征;
根据预设的与面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜;
将目标眼镜的3D模型与用户面部的3D模型进行融合处理,向用户多方位的显示目标眼镜的佩戴效果。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,当该计算机程序被处理器执行时能够实现如前述实施例所述的眼镜推荐方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种眼镜推荐方法,其特征在于,包括:
向用户面部投射结构光源,并拍摄所述结构光源经过所述用户面部调制的结构光图像;
采用图像处理算法对所述结构光图像进行计算,生成所述用户面部的3D模型,并根据所述用户面部的3D模型计算面部特征;
根据预设的与所述面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜;
将所述目标眼镜的3D模型与所述用户面部的3D模型进行融合处理,向所述用户多方位的显示所述目标眼镜的佩戴效果。
2.如权利要求1所述的方法,其特征在于,还包括:
向各个眼镜投射结构光源,并拍摄所述结构光源经过所述眼镜调制的眼镜结构光图像;
采用图像处理算法对所述眼镜结构光图像进行计算,生成所述眼镜的3D模型,并计算对应的眼镜数据;
建立眼镜的3D模型与眼镜数据对应关系的眼镜数据库。
3.如权利要求1所述的方法,其特征在于,所述结构光源的结构特征,包括:
激光条纹、格雷码、正弦条纹、均匀散斑、或者,非均匀散斑。
4.如权利要求1所述的方法,其特征在于,所述采用图像处理算法对所述结构光图像进行计算,生成所述用户面部的3D模型,包括:
解调所述结构光图像中变形位置像素对应的相位;
根据所述相位生成所述用户面部的高度信息;
根据所述高度信息生成所述用户面部的3D模型。
5.如权利要求1所述的方法,其特征在于,
所述面部特征包括:用户脸型,脸部面积和瞳距中的一种或多种;
所述眼镜数据包括:镜片形状、镜片面积、框架形状中的一种或多种。
6.如权利要求1所述的方法,其特征在于,还包括:
获取用户输入的眼镜偏好特征;
获取与所述眼镜偏好特征对应的眼镜数据库。
7.一种眼镜推荐装置,其特征在于,包括:
第一投射拍摄模块,用于向用户面部投射结构光源,并拍摄所述结构光源经过所述用户面部调制的结构光图像;
第一计算生成模块,用于采用图像处理算法对所述结构光图像进行计算,生成所述用户面部的3D模型,并根据所述用户面部的3D模型计算面部特征;
匹配模块,用于根据预设的与所述面部特征对应匹配的眼镜数据,从预设的眼镜数据库中获取匹配成功的目标眼镜;
处理模块,用于将所述目标眼镜的3D模型与所述用户面部的3D模型进行融合处理,向所述用户多方位的显示所述目标眼镜的佩戴效果。
8.如权利要求7所述的装置,其特征在于,还包括:
第二投射拍摄模块,用于向各个眼镜投射结构光源,并拍摄所述结构光源经过所述眼镜调制的眼镜结构光图像;
第二计算生成模块,用于采用图像处理算法对所述眼镜结构光图像进行计算,生成所述眼镜的3D模型,并计算对应的眼镜数据;
建立模块,用于建立眼镜的3D模型与眼镜数据对应关系的眼镜数据库。
9.一种终端设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时,实现如权利要求1-6任一项所述的眼镜推荐方法。
10.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6任一项所述的眼镜推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710676292.4A CN107622433A (zh) | 2017-08-09 | 2017-08-09 | 眼镜推荐方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710676292.4A CN107622433A (zh) | 2017-08-09 | 2017-08-09 | 眼镜推荐方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107622433A true CN107622433A (zh) | 2018-01-23 |
Family
ID=61088104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710676292.4A Pending CN107622433A (zh) | 2017-08-09 | 2017-08-09 | 眼镜推荐方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107622433A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135391A (zh) * | 2019-05-25 | 2019-08-16 | 塞伯睿机器人技术(长沙)有限公司 | 使用计算机选配眼镜框的程序和眼镜框选配系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101347332A (zh) * | 2008-08-22 | 2009-01-21 | 深圳先进技术研究院 | 一种人脸三维面形数字化测量系统的测量方法及设备 |
CN106289109A (zh) * | 2016-10-26 | 2017-01-04 | 长安大学 | 一种基于结构光的三维重建系统及方法 |
CN106910102A (zh) * | 2016-07-25 | 2017-06-30 | 湖南拓视觉信息技术有限公司 | 眼镜虚拟试戴方法及装置 |
-
2017
- 2017-08-09 CN CN201710676292.4A patent/CN107622433A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101347332A (zh) * | 2008-08-22 | 2009-01-21 | 深圳先进技术研究院 | 一种人脸三维面形数字化测量系统的测量方法及设备 |
CN106910102A (zh) * | 2016-07-25 | 2017-06-30 | 湖南拓视觉信息技术有限公司 | 眼镜虚拟试戴方法及装置 |
CN106289109A (zh) * | 2016-10-26 | 2017-01-04 | 长安大学 | 一种基于结构光的三维重建系统及方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135391A (zh) * | 2019-05-25 | 2019-08-16 | 塞伯睿机器人技术(长沙)有限公司 | 使用计算机选配眼镜框的程序和眼镜框选配系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107451561A (zh) | 虹膜识别补光方法和装置 | |
CN107368730A (zh) | 解锁验证方法和装置 | |
CN107734267B (zh) | 图像处理方法和装置 | |
CN107465906B (zh) | 场景的全景拍摄方法、装置及终端设备 | |
CN107623817B (zh) | 视频背景处理方法、装置和移动终端 | |
CN107493428A (zh) | 拍摄控制方法和装置 | |
CN107464280A (zh) | 用户3d建模的匹配方法和装置 | |
CN107995434A (zh) | 图像获取方法、电子装置和计算机可读存储介质 | |
CN107623814A (zh) | 拍摄图像的敏感信息屏蔽方法和装置 | |
CN107610077A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707839A (zh) | 图像处理方法及装置 | |
CN107610171B (zh) | 图像处理方法及其装置 | |
WO2019047985A1 (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107481317A (zh) | 人脸3d模型的面部调整方法及其装置 | |
CN107564050A (zh) | 基于结构光的控制方法、装置和终端设备 | |
CN107734264B (zh) | 图像处理方法和装置 | |
CN108613637A (zh) | 一种基于参考图像的结构光系统解相方法及系统 | |
CN107807806A (zh) | 显示参数调整方法、装置及电子装置 | |
CN107509045A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107483428A (zh) | 身份验证方法、装置和终端设备 | |
CN107590828B (zh) | 拍摄图像的虚化处理方法和装置 | |
CN107483815B (zh) | 运动物体的拍摄方法和装置 | |
CN107707831A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107509043A (zh) | 图像处理方法及装置 | |
CN107610078A (zh) | 图像处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180123 |