CN106162149B - 一种拍摄3d照片的方法及移动终端 - Google Patents
一种拍摄3d照片的方法及移动终端 Download PDFInfo
- Publication number
- CN106162149B CN106162149B CN201610870819.2A CN201610870819A CN106162149B CN 106162149 B CN106162149 B CN 106162149B CN 201610870819 A CN201610870819 A CN 201610870819A CN 106162149 B CN106162149 B CN 106162149B
- Authority
- CN
- China
- Prior art keywords
- point group
- image
- point
- plane
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/211—Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
Abstract
本发明实施例公开了一种拍摄3D照片的方法及移动终端,在拍摄过程中,感光元件的位置保持不变,方法包括:对目标物体的第一点群进行对焦,并获取第一图像,第一点群在第一平面内;对目标物体的第二点群进行对焦,并获取第二图像,第二点群在第二平面内,第一平面与第二平面不共面;根据第一图像计算第一点群的位置信息,并根据第二图像计算第二点群的位置信息,位置信息包括点的方位信息、点群所在平面与感光元件所在平面之间的距离以及点与图像中心的中心距离;根据第一点群和第二点群的位置信息构建目标物体的3D模型。由于用户可以不改变拍摄位置便能获取目标物体的3D照片,对用户的要求低,拍摄过程简单。
Description
技术领域
本发明涉及3D拍摄领域,具体涉及一种拍摄3D照片的方法及移动终端。
背景技术
摄影领域中的先导者们一直在致力于形成更逼真的照片,即能够呈现3D图像的3D照片。3D是指空间的三个维度,3D图像是指具有立体效果的图像,一般需要配合使用3D眼镜来感受3D效果。随着虚拟现实VR的快速发展,3D图像在当前的应用越来越多。目前有很多方案通过移动终端的拍摄模块对被摄物体进行拍照,经过后期处理形成目标物体的3D照片。
目前用户需要手持移动终端围绕被摄物体转动,从不同的拍摄方向对被摄物体进行拍照,以从多张照片中获取被摄物体的三维点云,从而根据三维点云构建被摄物体的3D模型,形成3D照片。
但是,用户需要手持移动终端围绕被摄物体进行水平或垂直方向的转动,对用户的要求高,拍摄过程复杂。
发明内容
本发明实施例提供了一种拍摄3D照片的方法及移动终端,用于解决拍摄3D照片时需要用户围绕被摄物体进行转动所造成的拍摄过程复杂的问题。
本发明实施例的一方面提供了一种拍摄3D照片的方法,在拍摄过程中,感光元件的位置保持不变,其特征在于,所述方法包括:
对目标物体的第一点群进行对焦,并获取第一图像,所述第一点群在第一平面内;
对所述目标物体的第二点群进行对焦,并获取第二图像,所述第二点群在第二平面内,所述第一平面与所述第二平面不共面;
根据所述第一图像计算所述第一点群的位置信息,并根据所述第二图像计算所述第二点群的位置信息,所述位置信息包括点的方位信息、点群所在平面与所述感光元件所在平面之间的距离以及点与图像中心的中心距离;
根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型。
结合第一方面,在第一方面的第一种可能的实现方式中,所述根据所述第一图像计算所述第一点群的位置信息包括:
计算所述第一平面与所述感光元件所在平面之间的第一距离;
根据所述第一图像计算所述第一点群的第一畸变系数;
根据所述第一畸变系数、视场角和所述第一平面与所述感光元件所在平面之间的第一距离,计算所述第一点群中各点与所述第一图像的中心的第一中心距离。
结合第一方面或者第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,在所述根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型之前,所述方法还包括:
在所述第一图像中确定目标清晰度的第五点群,所述目标清晰度低于所述第一图像中所述第一点群的清晰度,且高于所述第一图像中景深边界清晰度;
在所述第二图像中对所述第五点群中各点的清晰度进行标定;
根据所述标定结果将所述第五点群中的点划分为第三点群和第四点群,所述第三点群中各点在所述第二图像中的清晰度相同,所述第四点群中各点在所述第二图像中的清晰度相同,且所述第三点群在所述第二图像中的清晰度高于所述第四点群;
若所述第二平面在所述第一平面后方,则判定所述第三点群在所述第一平面的后景深中,所述第四点群在所述第一平面的前景深中;
根据所述第一图像和所述第一点群的位置信息计算所述第三点群和所述第四点群的位置信息;
根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型包括:
根据所述第一点群、所述第二点群、所述第三点群和所述第四点群的位置信息构建所述目标物体的3D模型。
结合第一方面的第二种可能的实现方式,在第一方面的第三种可能的实现方式中,所述根据所述第一图像和所述第一点群的位置信息计算所述第三点群和所述第四点群的位置信息包括:
利用线性插值算法分别计算所述第三点群和所述第四点群到所述感光元件所在平面的第三距离和第四距离;
根据所述第一图像分别计算所述第三点群和所述第四点群的第三畸变系数和第四畸变系数;
根据所述第三畸变系数、第四畸变系数、第三距离、第四距离以及所述视场角,计算所述第三点群和所述第四点群与所述第一图像的中心的距离。
结合第一方面的第二种可能的实现方式,在第一方面的第四种可能的实现方式中,所述目标物体的点在所述第一平面的第一景深内,和/或所述第二平面的第二景深内。
本发明实施例的第二方面提供了一种移动终端,包括:
所述移动终端内设置有拍摄装置,所述移动终端包括:
第一对焦模块,用于对目标物体的第一点群进行对焦,所述第一点群在第一平面内;
第一获取模块,用于在所述第一对焦模块对所述第一点群进行对焦后,获取第一图像;
第二对焦模块,用于在所述第一获取模块获取所述第一图像之后,对所述目标物体的第二点群进行对焦,所述第二点群在第二平面内,所述第一平面与所述第二平面不共面;
第二获取模块,用于在所述第二对焦模块对所述第二点群进行对焦后,获取第二图像;
第一计算模块,用于根据所述第一图像计算所述第一点群的位置信息,根据所述第二图像计算所述第二点群的位置信息,所述位置信息包括点的方位信息、点群所在平面与所述感光元件所在平面之间的距离以及点与图像中心的中心距离;
构建模块,用于根据所述第一计算模块得到的所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型。
结合第二方面,在第二方面的第一种可能的实现方式中,所述第一计算模块包括:
第一计算单元,用于计算所述第一平面与所述感光元件所在平面之间的第一距离;
第二计算单元,用于根据所述第一图像计算所述第一点群的第一畸变系数;
第三计算单元,用于根据所述第一畸变系数、视场角和所述第一平面与所述感光元件所在平面之间的第一距离,计算所述第一点群中各点与所述第一图像的中心的第一中心距离。
结合第二方面或者第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现方式中,所述移动终端还包括:
确定模块,用于在所述第一图像中确定目标清晰度的第五点群,所述目标清晰度低于所述第一图像中所述第一点群的清晰度,且高于所述第一图像中景深边界清晰度;
标定模块,用于在所述第二图像中对所述第五点群中各点的清晰度进行标定;
划分模块,用于根据所述标定结果将所述第五点群中的点划分为第三点群和第四点群,所述第三点群中各点在所述第二图像中的清晰度相同,所述第四点群中各点在所述第二图像中的清晰度相同,且所述第三点群在所述第二图像中的清晰度高于所述第四点群;
判定模块,若所述第二平面在所述第一平面后方,用于判定所述第三点群在所述第一平面的后景深中,所述第四点群在所述第一平面的前景深中;
第二计算模块,用于根据所述第一图像和所述第一点群的位置信息计算所述第三点群和所述第四点群的位置信息;
所述构建模块包括构建单元,所述构建单元用于根据所述第一点群、所述第二点群、所述第三点群和所述第四点群的位置信息构建所述目标物体的3D模型。
结合第二方面的第二种可能的实现方式,在第二方面的第三种可能的实现方式中,所述第二计算模块包括:
第四计算单元,用于利用线性插值算法分别计算所述第三点群和所述第四点群到所述感光元件所在平面的第三距离和第四距离;
第五计算单元,用于根据所述第一图像分别计算所述第三点群和所述第四点群的第三畸变系数和第四畸变系数;
第六计算单元,用于根据所述第三畸变系数、第四畸变系数、第三距离、第四距离以及所述视场角,计算所述第三点群和所述第四点群与所述第一图像的中心的距离。
结合第二方面的第二种可能的实现方式,在第二方面的第四种可能的实现方式中,所述目标物体的点在所述第一平面的第一景深内,和/或所述第二平面的第二景深内。
从以上技术方案可以看出,本发明实施例具有以下优点:
通过获取不同焦距下对目标物体拍摄的图像,并根据图像计算目标物体的位置信息,可以构建目标物体的3D模型。因此,用户可以不改变拍摄位置,只通过调整镜头的位置或焦距,便能获取目标物体的3D照片,对用户的要求低,拍摄过程简单。
附图说明
图1是本发明拍摄3D照片的方法一个实施例示意图;
图2是本发明根据图像计算点群的位置信息一个实施例示意图;
图3是本发明拍摄3D照片的方法另一个实施例示意图;
图4是本发明移动终端一个实施例示意图;
图5是本发明第一计算模块一个实施例示意图;
图6是本发明移动终端另一个实施例示意图。
具体实施方式
本发明实施例提供了一种拍摄3D照片的方法及移动终端,用于通过改变焦距对被摄物体进行拍摄,构建被摄物体的3D模型,方便用户的操作。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例可以应用于设置有拍摄装置的移动终端,移动终端包括手机、平板电脑、智能手表等,拍摄装置通常包括镜头、感光元件、对焦装置等,为了进一步简化用户的拍摄过程,拍摄装置还可以包括自动对焦装置。
为便于理解,下面对本发明实施例中的具体流程进行描述,请参阅图1,本发明实施例中拍摄3D照片的方法一个实施例包括:
101、对目标物体的第一点群进行对焦,并获取第一图像;
用户通过移动终端的拍摄装置对目标物体的第一点群进行对焦,并获取第一图像。第一点群为第一图像中最清晰的点,均在同一平面内,为了方便描述,将第一点群所在的平面称为第一平面。
102、对目标物体的第二点群进行对焦,并获取第二图像;
在获取第一图像之后,用户可以不改变拍摄位置,而只通过改变镜头的位置,或者改变镜头的焦距,对目标物体的第二点群进行对焦,并获取第二图像。第二点群为第二图像中最清晰的点,均在同一平面内,为了方便描述,将第二点群所在的平面称为第二平面。第一点群和第二点群不在同一平面内,即第一平面和第二平面不共面。
103、根据第一图像计算第一点群的位置信息,并根据第二图像计算第二点群的位置信息;
在获取第一图像和第二图像之后,可以根据第一图像计算第一点群的位置信息。第一点群的位置信息可以包括:第一点群中各点的方位信息、各点与第一图像的中心的第一中心距离以及第一平面与感光元件所在平面的距离。第二点群的位置信息可以包括:第二点群中各点的方位信息、各点与第二图像的中心的第二中心距离以及第二平面与感光元件所在平面的距离。在拍摄过程中,图像的中心与感光元件的中心的连线与感光元件所在平面垂直。
104、根据第一点群和第二点群的位置信息构建目标物体的3D模型。
在计算得到第一点群的位置信息和第二点群的位置信息之后,可以确定第一点群和第二点群相对于感光元件所在位置的三维坐标,根据第一点群和第二点群的位置信息可以构建目标物体的3D模型,进而形成3D照片。
通过本发明实施例的拍摄3D照片的方法,用户可以不改变移动终端的位置,只需通过改变移动终端中镜头的位置或焦距,对被摄物体的不同部位进行对焦,获取被摄物体的多张图像,移动终端可以根据获得的多张图像构建被摄物体的3D模型,形成3D照片,方便了用户的操作。
在拍摄过程中,感光元件的位置保持不变,对目标物体的不同部位进行对焦,可以通过调整镜头的位置,也可以通过调整镜头的焦距,为了描述方便,以下实施例中,以焦距不变、通过调整镜头的位置为例进行说明。
为了说明根据图像计算点群的位置信息的具体过程,请参阅图2,以根据第一图像计算第一点群中某一点A的位置信息为例,本发明根据图像计算点群的位置信息一个实施例包括:
201、计算第一平面与感光元件所在平面之间的第一距离;
在对目标物体上的点A进行对焦后,可以确定此时的第一像距,根据第一像距和焦距,可以计算点A与感光元件所在平面之间的第一距离。由于点A所在的第一平面与感光元件所在平面平行,因此,点A与感光元件所在平面之间的距离与第一平面与感光元件所在平面之间的距离相等。
202、根据第一图像计算点A的畸变系数;
获取第一图像之后,可以计算点A的畸变系数。一般情况下,被摄物体离画面中心越远,畸变系数越大,被摄物体距离相机越远,畸变系数越大。现已有大量的数学模型可以用来标定照片中的点的畸变系数。
203、根据点A的畸变系数计算点A与第一图像的中心的距离。
拍摄装置都会经历性能和规格参数的测试,其中包括了对视场角FOV和畸变系数的测试,通过测试可以给出被摄物体的畸变系数、被摄物体与画面中心的距离以及拍摄装置的视场角三者之间的变化曲线。获取第一图像后,可以利用该变化曲线、根据点A的畸变系数、拍摄装置的视场角、第一平面与感光元件所在平面之间的第一距离,计算点A与第一图像的中心的距离。在拍摄过程中,图像的中心与感光元件的中心的连线与感光元件所在平面垂直。
以感光元件为基准,可以建立三维空间的坐标系,比如以感光元件的中心作为原点,以感光元件所在平面作为X-Y平面,以经过原点且垂直于X-Y平面的方向作为Z轴。根据点A与感光元件所在平面之间的第一距离可以确定点A的Z轴坐标,根据点A与第一图像的中心的距离以及点A的方位,可以确定点A在X轴以及Y轴的坐标,从而能够确定点A在以感光元件的参考位置的三维空间的位置信息。
本发明实施例中用户使用的拍摄装置可以安装有镜头马达或机身马达,为了简化用户的拍摄过程,可以具有自动对焦的功能,为了进一步简化用户的拍摄过程,还可以具有全景拍摄的功能,即自动改变镜头位置,对被摄物体的不同部位进行自动对焦,并进行拍摄。为了使得3D照片能够更加真实的展现被摄物体,应对被摄物体拍摄尽可能多的照片,极限情况是,使得被摄物体在拍摄装置视角内的点均被对焦并形成照片。但是,在实际应用中,拍摄的照片越多,拍摄过程所需时间越长,并且构建3D模型所需处理的照片数目越多,数据更大,对移动终端的性能要求更高,实施难度越高。因此,为了兼顾3D照片的真实性与拍摄过程的易实施性,可以利用差值算法计算景深内各点的位置信息。
请参阅图3,本发明实施例中拍摄3D照片的方法另一个实施例包括:
301、对目标物体的第一点群进行对焦,并获取第一图像;
302、对目标物体的第二点群进行对焦,并获取第二图像;
303、根据第一图像计算第一点群的位置信息,并根据第二图像计算第二点群的位置信息;
步骤301至步骤303与图1对应的步骤101至步骤103相同,此处不再赘述。
304、确定第一图像中景深内目标清晰度的第五点群;
在第一图像中,距离第一平面越近,该点的清晰度越大,距离第一平面越远,该点的清晰度越小。在第一图像中,第一平面内的第一点群的清晰度最高,可以将其清晰度定义为100,将第一图像中最不清晰的点的清晰度定义为0,那么可以根据清晰程度对第一图像中其他点的清晰度进行标定。距离第一平面越近,该点的清晰度越接近100,距离第一平面越远,该点的清晰度越接近0。可以理解的是,与第一平面平行的平面内的点的清晰度相同。可以定义清晰度大于阈值的点在第一图像的景深内,以将阈值设为70为例,那么清晰度大于70的点在第一图像的景深内。在景深内的点中,可以确定目标清晰度的第五点群,假设目标清晰度为80。
305、在第二图像中对第五点群中各点的清晰度进行标定;
假设第一平面距离感光元件更近,第二平面在第一平面后方,距离感光元件更远。
306、确定清晰度较高的第三点群和清晰度较低的第四点群;
在第二图像中对第五点群中各点的清晰度进行标定之后,第五点群中的点按照清晰度可以形成第三点群和第四点群,第三点群中各点的清晰度相同,第四点群中各点的清晰度相同,且第三点群的清晰度大于第四点群,那么第三点群位于第一平面的后景深中,第四点群位于第一平面的前景深中。
307、利用线性差值算法分别计算第三点群和第四点群到感光元件所在平面的距离;
假设第一图像中第一平面的前景深为L1,第一图像的后景深为L2,在第一图像中,第一点群的清晰度为100,第三点群和第四点群的清晰度为80,可以利用线性差值算法计算第三点群和第四点群的位置信息。比如,第三点群到第一平面的距离d3=(100-80)*L2/(100-70)=2L2/3,第四点群到第一平面的距离d4=(100-80)*L1/(100-70)=2L1/3。假设第一点群到感光元件所在平面的距离为S1,那么第三点群到感光元件所在平面的距离为S1+d3,第四点群到感光元件所在平面的距离为S1+d4。
308、根据第一图像分别计算第三点群和第四点群的畸变系数;
获取第一图像之后,可以计算第三点群和第四点群的畸变系数。一般情况下,被摄物体离画面中心越远,畸变系数越大,被摄物体距离相机越远,畸变系数越大。现已有大量的数学模型可以用来标定照片中的点的畸变系数。
309、分别计算第三点群和第四点群与第一图像的中心的距离;
拍摄装置都会经历性能和规格参数的测试,其中包括了对视场角FOV和畸变系数的测试,通过测试可以给出被摄物体的畸变系数、被摄物体与画面中心的距离以及拍摄装置的视场角三者之间的变化曲线。获取第一图像后,可以利用该变化曲线、根据第三点群和第四点群的畸变系数、拍摄装置的视场角以及第三点群和第四点群到感光元件所在平面的距离,计算第三点群和第四点群中各点与第一图像的中心的距离。在拍摄过程中,图像的中心与感光元件的中心的连线与感光元件所在平面垂直。
至此,再根据第三点群和第四点群中各点的方位信息,便能确定第三点群和第四点群中各点的位置信息。
310、根据第一点群、第二点群、第三点群和第四点群的位置信息构建目标物体的3D模型。
每张照片都对应一个最清晰的点群,即对应上述第一点群和第二点群,每张照片中清晰度大于景深边界清晰度的点对应与上述第三点群和第四点群。经过步骤301至步骤308,可确定每张照片中景深范围内各点的位置信息,即可确定每张照片中景深范围内各点的相对于感光元件所在位置的三维坐标,根据确定的各点的三维坐标可以构建目标物体的3D模型,进而形成3D照片。
在确定拍摄位置后,为了获取目标物体上更多部位的位置信息,应尽量利用拍摄装置的镜头可活动范围,即拍摄过程中的最小像距和最大像距应为拍摄装置的最小像距和最大像距。根据在最小像距和最大像距所拍摄的照片,可以确定距离感光元件所在平面最近的点群和最远的点群,最近的点群和最远的点群是指在照片中景深内的点群。为了获取目标物体在距离感光元件所在平面最近的点群和最远的点群之间各点(称作可视点)的位置信息,在拍摄时,镜头的位置应使得各张照片的景深可以连续覆盖目标物体上的所有可视点。也就是说。目标物体上的点需要至少出现在某一张照片的景深内,或者说,至少在某一张照片的清晰度超过景深边界清晰度。
需要说明的是,本发明实施例中,由于感光元件的位置保持不变,目标物体上的各点是指在最小像距和最大像距之间,拍摄装置所能获取的点。
上面对本发明实施例中拍摄3D照片的方法进行了描述,下面对本发明实施例中的移动终端进行描述。
请参阅图4,本发明实施例中终端设备的一个实施例包括:
第一对焦模块401,用于对目标物体的第一点群进行对焦,第一点群在第一平面内;
第一获取模块402,用于在第一对焦模块对第一点群进行对焦后,获取第一图像;
第二对焦模块403,用于在第一获取模块获取第一图像之后,对目标物体的第二点群进行对焦,第二点群在第二平面内,第一平面与第二平面不共面;
第二获取模块404,用于在第二对焦模块对第二点群进行对焦后,获取第二图像;
第一计算模块405,用于根据第一图像计算第一点群的位置信息,根据第二图像计算第二点群的位置信息,位置信息包括点的方位信息、点群所在平面与感光元件所在平面之间的距离以及点与图像中心的中心距离;
构建模块406,用于根据第一计算模块得到的第一点群和第二点群的位置信息构建目标物体的3D模型。
本实施例中的终端设备各模块间的关系参照图1对应的实施例,此处不再赘述。
为了说明第一计算模块的具体组成,请参阅图5,以第一计算模块计算第一点群中某一点A的位置信息为例,本发明第一计算模块一个实施例包括:
第一计算单元501,用于计算第一平面与感光元件所在平面之间的第一距离;
第二计算单元502,用于根据第一图像计算点A的畸变系数;
第三计算单元503,用于根据点A的畸变系数、视场角和第一平面与感光元件所在平面之间的第一距离,计算点A与第一图像的中心的距离。
本实施例中的终端设备各模块间的关系参照图2对应的实施例,此处不再赘述。
本发明实施例中移动终端可以安装有镜头马达或机身马达,为了简化用户的拍摄过程,可以具有自动对焦的功能,为了进一步简化用户的拍摄过程,还可以具有全景拍摄的功能,即自动改变镜头位置,对被摄物体的不同部位进行自动对焦,并进行拍摄。为了使得3D照片能够更加真实的展现被摄物体,应对被摄物体拍摄尽可能多的照片,极限情况是,使得被摄物体在拍摄装置视角内的点均被对焦并形成照片。但是,在实际应用中,拍摄的照片越多,拍摄过程所需时间越长,并且构建3D模型所需处理的照片数目越多,数据更大,对移动终端的性能要求更高,实施难度越高。因此,为了兼顾3D照片的真实性与拍摄过程的易实施性,可以利用差值算法计算景深内各点的位置信息。
请参阅图6,本发明实施例中移动终端另一个实施例包括:
第一对焦模块601,用于对目标物体的第一点群进行对焦,第一点群在第一平面内。
第一获取模块602,用于在第一对焦模块对第一点群进行对焦后,获取第一图像。
第二对焦模块603,用于在第一获取模块获取第一图像之后,对目标物体的第二点群进行对焦,第二点群在第二平面内,第一平面与第二平面不共面。
第二获取模块604,用于在第二对焦模块对第二点群进行对焦后,获取第二图像。
第一计算模块605,用于根据第一图像计算第一点群的位置信息,根据第二图像计算第二点群的位置信息,位置信息包括点的方位信息、点群所在平面与感光元件所在平面之间的距离以及点与图像中心的中心距离。
确定模块606,用于确定第一图像中景深内目标清晰度的第五点群,目标清晰度低于第一图像中第一点群的清晰度,且高于第一图像中景深边界清晰度。
标定模块607,用于在第二图像中对第五点群中各点的清晰度进行标定。
划分模块608,用于确定清晰度较高的第三点群和清晰度较低的第四点群。
判定模块609,若第二平面在第一平面后方,用于判定第三点群在第一平面的后景深中,第四点群在第一平面的前景深中。
第二计算模块610,用于根据第一图像和第一点群的位置信息计算第三点群和第四点群的位置信息,第二计算模块包括:
第四计算单元6101,用于利用线性插值算法分别计算第三点群和第四点群到感光元件所在平面的第三距离和第四距离;
第五计算单元6102,用于根据第一图像分别计算第三点群和第四点群的畸变系数;
第六计算单元6103,用于根据第三畸变系数、第四畸变系数、第三距离、第四距离以及视场角,计算第三点群和第四点群与第一图像的中心的距离。
构建单元611,用于根据第一点群、第二点群、第三点群和第四点群的位置信息构建目标物体的3D模型。
本实施例中的终端设备各模块间的关系参照图3对应的实施例,此处不再赘述。
在本申请所提供目标区域可以为默认的区域,也可以为用户预设的区域。并且,的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (11)
1.一种拍摄3D照片的方法,在拍摄过程中,感光元件的位置保持不变,其特征在于,所述方法包括:
对目标物体的第一点群进行对焦,并获取第一图像,所述第一点群在第一平面内;
对所述目标物体的第二点群进行对焦,并获取第二图像,所述第二点群在第二平面内,所述第一平面与所述第二平面不共面;
根据所述第一图像计算所述第一点群的位置信息,并根据所述第二图像计算所述第二点群的位置信息,所述位置信息包括点的方位信息、点群所在平面与所述感光元件所在平面之间的距离以及点与图像中心的中心距离;
根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型。
2.根据权利要求1所述的拍摄3D照片的方法,其特征在于,所述根据所述第一图像计算所述第一点群的位置信息包括:
计算所述第一平面与所述感光元件所在平面之间的第一距离;
根据所述第一图像计算所述第一点群的第一畸变系数;
根据所述第一畸变系数、视场角和所述第一平面与所述感光元件所在平面之间的第一距离,计算所述第一点群中各点与所述第一图像的中心的第一中心距离。
3.根据权利要求2所述的拍摄3D照片的方法,其特征在于,在所述根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型之前,所述方法还包括:
在所述第一图像中确定目标清晰度的第五点群,所述目标清晰度低于所述第一图像中所述第一点群的清晰度,且高于所述第一图像中景深边界清晰度;
在所述第二图像中对所述第五点群中各点的清晰度进行标定;
根据所述标定结果将所述第五点群中的点划分为第三点群和第四点群,所述第三点群中各点在所述第二图像中的清晰度相同,所述第四点群中各点在所述第二图像中的清晰度相同,且所述第三点群在所述第二图像中的清晰度高于所述第四点群;
若所述第二平面在所述第一平面后方,则判定所述第三点群在所述第一平面的后景深中,所述第四点群在所述第一平面的前景深中;
根据所述第一图像和所述第一点群的位置信息计算所述第三点群和所述第四点群的位置信息;
根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型包括:
根据所述第一点群、所述第二点群、所述第三点群和所述第四点群的位置信息构建所述目标物体的3D模型。
4.根据权利要求3所述的拍摄3D照片的方法,其特征在于,所述根据所述第一图像和所述第一点群的位置信息计算所述第三点群和所述第四点群的位置信息包括:
利用线性插值算法分别计算所述第三点群和所述第四点群到所述感光元件所在平面的第三距离和第四距离;
根据所述第一图像分别计算所述第三点群和所述第四点群的第三畸变系数和第四畸变系数;
根据所述第三畸变系数、第四畸变系数、第三距离、第四距离以及所述视场角,计算所述第三点群和所述第四点群与所述第一图像的中心的距离。
5.根据权利要求3所述的拍摄3D照片的方法,其特征在于,所述目标物体的点在所述第一平面的第一景深内,和/或所述第二平面的第二景深内。
6.根据权利要求1所述的拍摄3D照片的方法,其特征在于,在所述根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型之前,所述方法还包括:
在所述第一图像中确定目标清晰度的第五点群,所述目标清晰度低于所述第一图像中所述第一点群的清晰度,且高于所述第一图像中景深边界清晰度;
在所述第二图像中对所述第五点群中各点的清晰度进行标定;
根据所述标定结果将所述第五点群中的点划分为第三点群和第四点群,所述第三点群中各点在所述第二图像中的清晰度相同,所述第四点群中各点在所述第二图像中的清晰度相同,且所述第三点群在所述第二图像中的清晰度高于所述第四点群;
若所述第二平面在所述第一平面后方,则判定所述第三点群在所述第一平面的后景深中,所述第四点群在所述第一平面的前景深中;
根据所述第一图像和所述第一点群的位置信息计算所述第三点群和所述第四点群的位置信息;
根据所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型包括:
根据所述第一点群、所述第二点群、所述第三点群和所述第四点群的位置信息构建所述目标物体的3D模型。
7.一种移动终端,其特征在于,所述移动终端内设置有拍摄装置,在拍摄过程中,感光元件的位置保持不变,所述移动终端包括:
第一对焦模块,用于对目标物体的第一点群进行对焦,所述第一点群在第一平面内;
第一获取模块,用于在所述第一对焦模块对所述第一点群进行对焦后,获取第一图像;
第二对焦模块,用于在所述第一获取模块获取所述第一图像之后,对所述目标物体的第二点群进行对焦,所述第二点群在第二平面内,所述第一平面与所述第二平面不共面;
第二获取模块,用于在所述第二对焦模块对所述第二点群进行对焦后,获取第二图像;
第一计算模块,用于根据所述第一图像计算所述第一点群的位置信息,根据所述第二图像计算所述第二点群的位置信息,所述位置信息包括点的方位信息、点群所在平面与所述感光元件所在平面之间的距离以及点与图像中心的中心距离;
构建模块,用于根据所述第一计算模块得到的所述第一点群和所述第二点群的位置信息构建所述目标物体的3D模型。
8.根据权利要求7所述的移动终端,其特征在于,所述第一计算模块包括:
第一计算单元,用于计算所述第一平面与所述感光元件所在平面之间的第一距离;
第二计算单元,用于根据所述第一图像计算所述第一点群的第一畸变系数;
第三计算单元,用于根据所述第一畸变系数、视场角和所述第一平面与所述感光元件所在平面之间的第一距离,计算所述第一点群中各点与所述第一图像的中心的第一中心距离。
9.根据权利要求8所述的移动终端,其特征在于,所述移动终端还包括:
确定模块,用于在所述第一图像中确定目标清晰度的第五点群,所述目标清晰度低于所述第一图像中所述第一点群的清晰度,且高于所述第一图像中景深边界清晰度;
标定模块,用于在所述第二图像中对所述第五点群中各点的清晰度进行标定;
划分模块,用于根据所述标定结果将所述第五点群中的点划分为第三点群和第四点群,所述第三点群中各点在所述第二图像中的清晰度相同,所述第四点群中各点在所述第二图像中的清晰度相同,且所述第三点群在所述第二图像中的清晰度高于所述第四点群;
判定模块,若所述第二平面在所述第一平面后方,用于判定所述第三点群在所述第一平面的后景深中,所述第四点群在所述第一平面的前景深中;
第二计算模块,用于根据所述第一图像和所述第一点群的位置信息计算所述第三点群和所述第四点群的位置信息;
所述构建模块包括构建单元,所述构建单元用于根据所述第一点群、所述第二点群、所述第三点群和所述第四点群的位置信息构建所述目标物体的3D模型。
10.根据权利要求9所述的移动终端,其特征在于,所述第二计算模块包括:
第四计算单元,用于利用线性插值算法分别计算所述第三点群和所述第四点群到所述感光元件所在平面的第三距离和第四距离;
第五计算单元,用于根据所述第一图像分别计算所述第三点群和所述第四点群的第三畸变系数和第四畸变系数;
第六计算单元,用于根据所述第三畸变系数、第四畸变系数、第三距离、第四距离以及所述视场角,计算所述第三点群和所述第四点群与所述第一图像的中心的距离。
11.根据权利要求9所述的移动终端,其特征在于,所述目标物体的点在所述第一平面的第一景深内,和/或所述第二平面的第二景深内。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610870819.2A CN106162149B (zh) | 2016-09-29 | 2016-09-29 | 一种拍摄3d照片的方法及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610870819.2A CN106162149B (zh) | 2016-09-29 | 2016-09-29 | 一种拍摄3d照片的方法及移动终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106162149A CN106162149A (zh) | 2016-11-23 |
CN106162149B true CN106162149B (zh) | 2019-06-11 |
Family
ID=57341056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610870819.2A Active CN106162149B (zh) | 2016-09-29 | 2016-09-29 | 一种拍摄3d照片的方法及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106162149B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443850A (zh) * | 2019-08-05 | 2019-11-12 | 珠海优特电力科技股份有限公司 | 目标对象的定位方法及装置、存储介质、电子装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111183637A (zh) * | 2017-07-18 | 2020-05-19 | 辛特科技有限公司 | 一种用于光场还原的空间位置识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101598846A (zh) * | 2009-06-30 | 2009-12-09 | 河南中光学集团有限公司 | 变焦镜头目标测距的计算机终端显示系统及其显示方法 |
CN101858741A (zh) * | 2010-05-26 | 2010-10-13 | 沈阳理工大学 | 一种基于单相机的变焦测距方法 |
CN103188499A (zh) * | 2011-12-27 | 2013-07-03 | 鸿富锦精密工业(深圳)有限公司 | 3d成像模组及3d成像方法 |
CN104345870A (zh) * | 2013-07-25 | 2015-02-11 | 上海铁高文化传媒有限公司 | 移动终端立体展示方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201301190A (zh) * | 2011-06-28 | 2013-01-01 | Hon Hai Prec Ind Co Ltd | 服裝試穿系統及服裝試穿方法 |
TW201518847A (zh) * | 2013-11-11 | 2015-05-16 | Inst Information Industry | 拍攝立體影像之方法以及電子裝置以及儲存其之電腦可讀取記錄媒體 |
-
2016
- 2016-09-29 CN CN201610870819.2A patent/CN106162149B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101598846A (zh) * | 2009-06-30 | 2009-12-09 | 河南中光学集团有限公司 | 变焦镜头目标测距的计算机终端显示系统及其显示方法 |
CN101858741A (zh) * | 2010-05-26 | 2010-10-13 | 沈阳理工大学 | 一种基于单相机的变焦测距方法 |
CN103188499A (zh) * | 2011-12-27 | 2013-07-03 | 鸿富锦精密工业(深圳)有限公司 | 3d成像模组及3d成像方法 |
CN104345870A (zh) * | 2013-07-25 | 2015-02-11 | 上海铁高文化传媒有限公司 | 移动终端立体展示方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443850A (zh) * | 2019-08-05 | 2019-11-12 | 珠海优特电力科技股份有限公司 | 目标对象的定位方法及装置、存储介质、电子装置 |
CN110443850B (zh) * | 2019-08-05 | 2022-03-22 | 珠海优特电力科技股份有限公司 | 目标对象的定位方法及装置、存储介质、电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106162149A (zh) | 2016-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108076286B (zh) | 图像虚化方法、装置、移动终端和存储介质 | |
CN107509037B (zh) | 使用不同视场角摄像头拍照的方法和终端 | |
CN111857329B (zh) | 注视点计算方法、装置及设备 | |
US10116922B2 (en) | Method and system for automatic 3-D image creation | |
CN108432230B (zh) | 一种成像设备和一种用于显示场景的图像的方法 | |
US20150235408A1 (en) | Parallax Depth Rendering | |
TW201709718A (zh) | 在使用者裝置上顯示光場為基影像之方法及裝置,及對應之電腦程式產品 | |
CN109064545A (zh) | 一种对房屋进行数据采集和模型生成的方法及装置 | |
JP2013065280A (ja) | 画像処理方法、画像処理装置およびプログラム | |
KR20170005009A (ko) | 3d 라돈 이미지의 생성 및 사용 | |
KR20140004592A (ko) | 3d 깊이 정보를 기반으로 한 이미지 블러 | |
CN104603796A (zh) | 在图像中交互式调焦的系统、方法和媒体 | |
JP6452360B2 (ja) | 画像処理装置、撮像装置、画像処理方法およびプログラム | |
CN109474780A (zh) | 一种用于图像处理的方法和装置 | |
CN112215880B (zh) | 一种图像深度估计方法及装置、电子设备、存储介质 | |
CN109640070A (zh) | 一种立体显示方法、装置、设备及存储介质 | |
JP7378219B2 (ja) | 撮像装置、画像処理装置、制御方法、及びプログラム | |
KR101148508B1 (ko) | 모바일 기기 디스플레이의 표시 장치 및 그 방법, 이를 이용하는 모바일 기기 | |
CN106162149B (zh) | 一种拍摄3d照片的方法及移动终端 | |
CN112352417B (zh) | 拍摄设备的对焦方法、拍摄设备、系统及存储介质 | |
EP3189493B1 (en) | Depth map based perspective correction in digital photos | |
CN107659772B (zh) | 3d图像生成方法、装置及电子设备 | |
CN114363522A (zh) | 拍照方法及相关装置 | |
CN110012236A (zh) | 一种信息处理方法、装置、设备和计算机存储介质 | |
JP2011211551A (ja) | 画像処理装置および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |