CN109272453B - 基于3d摄像机的建模装置及定位方法 - Google Patents

基于3d摄像机的建模装置及定位方法 Download PDF

Info

Publication number
CN109272453B
CN109272453B CN201811008822.9A CN201811008822A CN109272453B CN 109272453 B CN109272453 B CN 109272453B CN 201811008822 A CN201811008822 A CN 201811008822A CN 109272453 B CN109272453 B CN 109272453B
Authority
CN
China
Prior art keywords
camera
target
calibration object
module
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811008822.9A
Other languages
English (en)
Other versions
CN109272453A (zh
Inventor
戴佑俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Qingyan Heshi Technology Co ltd
Original Assignee
Shanghai Onwing Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Onwing Information Technology Co Ltd filed Critical Shanghai Onwing Information Technology Co Ltd
Priority to CN201811008822.9A priority Critical patent/CN109272453B/zh
Publication of CN109272453A publication Critical patent/CN109272453A/zh
Application granted granted Critical
Publication of CN109272453B publication Critical patent/CN109272453B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于3D摄像机的建模装置及定位方法,所述建模装置包括至少2个3D摄像机以及一处理端,所述处理端包括一计算模块,所述处理端包括一校准物的形状数据,所述至少2个3D摄像机用于分别获取所述校准物的3D影像;所述计算模块用于根据3D影像中的形状数据计算每一3D摄像机的空间位置。本发明的基于3D摄像机的建模装置及定位方法能够数字化3D摄像机的拍摄位置,方便快速生成3D模型,而且计算速度快占用系统资源少,生成的影像更加清晰。

Description

基于3D摄像机的建模装置及定位方法
技术领域
本发明涉及一种基于3D摄像机的建模装置及定位方法。
背景技术
3D摄像机,利用的是3D镜头制造的摄像机,通常具有两个摄像镜头以上,间距与人眼间距相近,能够拍摄出类似人眼所见的针对同一场景的不同图像。全息3D具有圆盘5镜头以上,通过圆点光栅成像或蔆形光栅全息成像可全方位观看同一图像,可如亲临其境。
第一台3D摄像机迄今3D革命全部围绕好莱坞重磅大片和重大体育赛事展开。随着3D摄像机的问世,这项技术距离家庭用户又近了一步。在这款摄像机推出以后,我们今后就可以用3D镜头捕捉人生每一个难忘瞬间,比如孩子迈出的第一步,大学毕业庆典等。
3D摄像机通常有两个以上镜头。3D摄像机本身的功能就像人脑一样,可以将两个镜头图像融合在一起,变成一个3D图像。这些图像可以在3D电视上播放,观众佩戴所谓的主动式快门眼镜即可观看,也可通过裸眼3D显示设备直接观看。3D快门式眼镜能够以每秒60次的速度令左右眼镜的镜片快速交错开关。这意味着每只眼睛看到的是同一场景的稍显不同的画面,所以大脑会由此以为其是在欣赏以3D呈现的单张照片。
现有的3D摄像机建模速度慢,且占用系统资源较高。
发明内容
本发明要解决的技术问题是为了克服现有技术中建模装置的3D建模速度慢,且占用系统资源较高的缺陷,提供一种能够数字化3D摄像机的拍摄位置,方便快速生成3D模型,而且计算速度快占用系统资源少,生成的影像更加清晰的基于3D摄像机的建模装置及定位方法。
本发明是通过下述技术方案来解决上述技术问题:
一种基于3D摄像机的建模装置,其特点在于,所述建模装置包括至少2个3D摄像机以及一处理端,所述处理端包括一计算模块,所述处理端包括一校准物的形状数据,
所述至少2个3D摄像机用于分别获取所述校准物的3D影像;
所述计算模块用于根据3D影像中的形状数据计算每一3D摄像机的空间位置。
较佳地,所述校准物上设有若干特征点,所述形状数据包括两个特征点之间的距离、特征点的空间位置及特征点之间的空间位置关系中的至少一项。
较佳地,所述校准物上设有3个特征点,所述处理端还包括一识别模块,
对于一目标3D摄像机,所述识别模块用于识别3D影像中的所述特征点并获取目标3D摄像机到每一特征点的距离;
所述识别模块用于识别目标3D摄像机获取的3D影像中的全部特征点,并获取目标3D摄像机到每一特征点的距离。
所述计算模块用于根据目标3D摄像机到每一特征点的距离获取目标3D摄像机与校准物的位置关系;
所述计算模块还用于根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
较佳地,所述处理端还包括一对比模块,包括所述校准物的3D模型,
对于一目标3D摄像机,所述对比模块用于将目标3D摄像机的3D影像与校准物的3D模型对比以获取目标3D摄像机与校准物的位置关系;
所述计算模块还用于根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
较佳地,所述处理端还包括一选取模块以及一生成模块,
所述至少2个3D摄像机还用于分别获取一拍摄目标的3D影像;
所述选取模块用于在一目标3D摄像机的3D影像中选取一拼接点;
所述生成模块用于根据所述拼接点到目标3D摄像机的镜头的直线距离、目标夹角以及目标3D摄像机与待测3D摄像机的空间位置获取待测3D摄像机的3D影像中所述拼接点的位置,其中,所述目标夹角包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机的垂线的夹角,所述目标夹角还包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机、待测3D摄像机的垂线所在平面的夹角。
较佳地,所述3D摄像机的数量大于2个,所述处理端还包括一检测模块,
所述选取模块用于通过至少3个相互平行的横截面横截所述3D影像,并在每一所述横截面与目标3D摄像机的3D影像的相交线的一端选取所述拼接点;
对于每一相交线的两端的2个拼接点,所述检测模块用于根据所述空间位置获取与所述待测3D摄像机较近的拼接点为待测3D摄像机与目标3D摄像机的3D影像拼接时所用的拼接点。
本发明还提供一种基于3D摄像机的定位方法,其特点在于,所述定位方法通过一建模装置实现,所述建模装置包括至少2个3D摄像机以及一处理端,所述处理端包括一计算模块,所述处理端包括一校准物的形状数据,所述定位方法包括:
所述至少2个3D摄像机分别获取所述校准物的3D影像;
所述计算模块根据3D影像中的形状数据计算每一3D摄像机的空间位置。
较佳地,所述校准物上设有3个特征点,所述处理端还包括一识别模块,所述定位方法包括:
对于一目标3D摄像机,所述识别模块识别目标3D摄像机获取的3D影像中的全部特征点,并获取目标3D摄像机到每一特征点的距离;
所述计算模块根据目标3D摄像机到每一特征点的距离获取目标3D摄像机与校准物的位置关系;
所述计算模块还根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
较佳地,所述处理端还包括一对比模块,包括所述校准物的3D模型,所述定位方法包括:
对于一目标3D摄像机,所述对比模块将目标3D摄像机的3D影像与校准物的3D模型对比以获取目标3D摄像机与校准物的位置关系;
所述计算模块还根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
较佳地,所述处理端还包括一选取模块以及一生成模块,所述定位方法包括:
所述至少2个3D摄像机分别获取一拍摄目标的3D影像;
所述选取模块在一目标3D摄像机的3D影像中选取一拼接点;
所述生成模块根据所述拼接点到目标3D摄像机的镜头的直线距离、目标夹角以及目标3D摄像机与待测3D摄像机的空间位置获取待测3D摄像机的3D影像中所述拼接点的位置,其中,所述目标夹角包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机的垂线的夹角,所述目标夹角还包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机、待测3D摄像机的垂线所在平面的夹角。
在符合本领域常识的基础上,上述各优选条件,可任意组合,即得本发明各较佳实例。
本发明的积极进步效果在于:
本发明的基于3D摄像机的建模装置及定位方法能够数字化3D摄像机的拍摄位置,方便快速生成3D模型,而且计算速度快占用系统资源少,生成的影像更加清晰。
附图说明
图1为本发明实施例1的建模装置的结构示意图。
图2为本发明实施例1的定位方法的流程图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
参见图1,本实施例提供一种建模装置,所述建模装置包括3个3D摄像机11以及一处理端,所述处理端包括一计算模块以及一识别模块,所述处理端包括一校准物的形状数据。
所述处理端可以是电脑终端,手机终端或云端服务器。
所述3个3D摄像机用于分别获取所述校准物的3D影像。
所述计算模块用于根据3D影像中的形状数据计算每一3D摄像机的空间位置。
具体地,所述校准物上设有3个特征点,所述形状数据包括两个特征点之间的距离、特征点的空间位置及特征点之间的空间位置关系中的至少一项。
在本实施例3个特征点12可以是地面上的等边三角形的3个顶点,也可以是正方体13上的3个面的中心点12,所述特征点位于所述校准物上,所述校准物上的三个特征点均为已知量,利用3个特征点来推算3D摄像机的位置,起到校准、定位的功能。
计算每一3D摄像机的空间位置具体方式为:
对于一目标3D摄像机,所述识别模块用于识别3D影像中的所述特征点并获取目标3D摄像机到每一特征点的距离。
所述识别模块用于识别目标3D摄像机获取的3D影像中的全部特征点,并获取目标3D摄像机到每一特征点的距离。
所述计算模块用于根据目标3D摄像机到每一特征点的距离获取目标3D摄像机与校准物的位置关系。3个特征点与3D摄像机3个点能够组成一三棱锥,3个特征点的空间位置已知,可以计算出3D摄像机的位置。
所述计算模块还用于根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
在以3个特征点为基础建立的坐标系中,每个3D摄像机与校准物的位置关系已知,能够获取3D摄像机之间的位置关系。
参见图2,利用上述建模装置,本实施例还提供一种定位方法,包括:
步骤100、所述至少2个3D摄像机分别获取所述校准物的3D影像;
步骤101、对于一目标3D摄像机,所述识别模块识别3D影像中的所述特征点并获取目标3D摄像机到每一特征点的距离;
步骤102、所述计算模块根据目标3D摄像机到每一特征点的距离获取目标3D摄像机与校准物的位置关系;
步骤103、所述计算模块还根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
步骤101至步骤103实现了所述计算模块根据3D影像中的形状数据计算每一3D摄像机的空间位置。
本实施例的基于3D摄像机的建模装置及定位方法能够数字化3D摄像机的拍摄位置,方便快速生成3D模型,而且计算速度快占用系统资源少,生成的影像更加清晰。
实施例2
本实施例与实施例1基本相同,不同之处仅在于:
所述处理端还包括一对比模块,包括所述校准物的3D模型,
对于一目标3D摄像机,所述对比模块用于将目标3D摄像机的3D影像与校准物的3D模型对比以获取目标3D摄像机与校准物的位置关系;
所述计算模块还用于根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
通过与基准模型的对比能够计算出3D摄像机拍摄校准物的距离以及拍摄角度从而能够推算出3D摄像机之间的位置关系。
利用上述建模装置,本实施例的定位方法包括:
对于一目标3D摄像机,所述对比模块将目标3D摄像机的3D影像与校准物的3D模型对比以获取目标3D摄像机与校准物的位置关系;
所述计算模块还根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
实施例3
本实施例与实施例1基本相同,不同之处仅在于:
利用3D摄像机的位置关系,能够使3D模型的生成更加快捷。
所述处理端还包括一选取模块以及一生成模块,
所述至少2个3D摄像机还用于分别获取一拍摄目标的3D影像;
所述选取模块用于在一目标3D摄像机的3D影像中选取一拼接点;
所述生成模块用于根据所述拼接点到目标3D摄像机的镜头的直线距离、目标夹角以及目标3D摄像机与待测3D摄像机的空间位置获取待测3D摄像机的3D影像中所述拼接点的位置,其中,所述目标夹角包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机的垂线的夹角,所述目标夹角还包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机、待测3D摄像机的垂线所在平面的夹角。
拼接点的获取具体通过:
所述3D摄像机的数量大于2个,本实施中为3个,所述处理端还包括一检测模块,
所述选取模块用于通过至少3个相互平行的横截面横截所述3D影像,并在每一所述横截面与目标3D摄像机的3D影像的相交线的一端选取所述拼接点;
对于每一相交线的两端的2个拼接点,所述检测模块用于根据所述空间位置获取与所述待测3D摄像机较近的拼接点为待测3D摄像机与目标3D摄像机的3D影像拼接时所用的拼接点。
为了能使3D影像能够拼接需要至少3个拼接点,为了确保两个3D影像在拼接时能够获取有效的拼接点,待测3D摄像机的影像通过较近的拼接点能够提高拼接成功率。
利用上述建模装置,本实施例的定位方法包括:
所述至少2个3D摄像机分别获取一拍摄目标的3D影像;
所述选取模块通过至少3个相互平行的横截面横截所述3D影像,并在每一所述横截面与目标3D摄像机的3D影像的相交线的一端选取所述拼接点;
对于每一相交线的两端的2个拼接点,所述检测模块根据所述空间位置获取与所述待测3D摄像机较近的拼接点为待测3D摄像机与目标3D摄像机的3D影像拼接时所用的拼接点。
所述生成模块根据所述拼接点到目标3D摄像机的镜头的直线距离、目标夹角以及目标3D摄像机与待测3D摄像机的空间位置获取待测3D摄像机的3D影像中所述拼接点的位置,其中,所述目标夹角包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机的垂线的夹角,所述目标夹角还包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机、待测3D摄像机的垂线所在平面的夹角。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (7)

1.一种基于3D摄像机的建模装置,其特征在于,所述建模装置包括至少2个3D摄像机以及一处理端,所述处理端包括一计算模块,所述处理端包括一校准物的形状数据,
所述至少2个3D摄像机用于分别获取所述校准物的3D影像;
所述计算模块用于根据3D影像中的形状数据计算每一3D摄像机的空间位置;
其中,所述校准物上设有若干特征点,所述形状数据包括两个特征点之间的距离、特征点的空间位置及特征点之间的空间位置关系中的至少一项;
所述处理端还包括一对比模块以及所述校准物的3D模型,
对于一目标3D摄像机,所述对比模块用于将目标3D摄像机的3D影像与校准物的3D模型对比以获取目标3D摄像机与校准物的位置关系;
所述计算模块还用于根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
2.如权利要求1所述的建模装置,其特征在于,所述校准物上设有3个特征点,所述处理端还包括一识别模块,
对于一目标3D摄像机,所述识别模块用于识别目标3D摄像机获取的3D影像中的全部特征点,并获取目标3D摄像机到每一特征点的距离;
所述计算模块用于根据目标3D摄像机到每一特征点的距离获取目标3D摄像机与校准物的位置关系;
所述计算模块还用于根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
3.如权利要求1所述的建模装置,其特征在于,所述处理端还包括一选取模块以及一生成模块,
所述至少2个3D摄像机还用于分别获取一拍摄目标的3D影像;
所述选取模块用于在一目标3D摄像机的3D影像中选取一拼接点;
所述生成模块用于根据所述拼接点到目标3D摄像机的镜头的直线距离、目标夹角以及目标3D摄像机与待测3D摄像机的空间位置获取待测3D摄像机的3D影像中所述拼接点的位置,其中,所述目标夹角包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机的垂线的夹角,所述目标夹角还包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机、待测3D摄像机的垂线所在平面的夹角。
4.如权利要求3所述的建模装置,其特征在于,所述3D摄像机的数量大于2个,所述处理端还包括一检测模块,
所述选取模块用于通过至少3个相互平行的横截面横截所述3D影像,并在每一所述横截面与目标3D摄像机的3D影像的相交线的一端选取所述拼接点;
对于每一相交线的两端的2个拼接点,所述检测模块用于根据所述空间位置获取与所述待测3D摄像机较近的拼接点为待测3D摄像机与目标3D摄像机的3D影像拼接时所用的拼接点。
5.一种基于3D摄像机的定位方法,其特征在于,所述定位方法通过一建模装置实现,所述建模装置包括至少2个3D摄像机以及一处理端,所述处理端包括一计算模块,所述处理端包括一校准物的形状数据,所述定位方法包括:
所述至少2个3D摄像机分别获取所述校准物的3D影像;
所述计算模块根据3D影像中的形状数据计算每一3D摄像机的空间位置;
其中,所述校准物上设有若干特征点,所述形状数据包括两个特征点之间的距离、特征点的空间位置及特征点之间的空间位置关系中的至少一项;
所述处理端还包括一对比模块以及所述校准物的3D模型,所述定位方法还包括:
对于一目标3D摄像机,所述对比模块将目标3D摄像机的3D影像与校准物的3D模型对比以获取目标3D摄像机与校准物的位置关系;
所述计算模块还根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
6.如权利要求5所述的定位方法,其特征在于,所述校准物上设有3个特征点,所述处理端还包括一识别模块,所述定位方法包括:
对于一目标3D摄像机,所述识别模块识别目标3D摄像机获取的3D影像中的全部特征点,并获取目标3D摄像机到每一特征点的距离;
所述计算模块根据目标3D摄像机到每一特征点的距离获取目标3D摄像机与校准物的位置关系;
所述计算模块还根据每一3D摄像机与校准物的位置关系获取3D摄像机之间的位置关系。
7.如权利要求5所述的定位方法,其特征在于,所述处理端还包括一选取模块以及一生成模块,所述定位方法包括:
所述至少2个3D摄像机分别获取一拍摄目标的3D影像;
所述选取模块在一目标3D摄像机的3D影像中选取一拼接点;
所述生成模块根据所述拼接点到目标3D摄像机的镜头的直线距离、目标夹角以及目标3D摄像机与待测3D摄像机的空间位置获取待测3D摄像机的3D影像中所述拼接点的位置,其中,所述目标夹角包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机的垂线的夹角,所述目标夹角还包括拼接点到目标3D摄像机的镜头的连线与过所述目标3D摄像机、待测3D摄像机的垂线所在平面的夹角。
CN201811008822.9A 2018-08-31 2018-08-31 基于3d摄像机的建模装置及定位方法 Active CN109272453B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811008822.9A CN109272453B (zh) 2018-08-31 2018-08-31 基于3d摄像机的建模装置及定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811008822.9A CN109272453B (zh) 2018-08-31 2018-08-31 基于3d摄像机的建模装置及定位方法

Publications (2)

Publication Number Publication Date
CN109272453A CN109272453A (zh) 2019-01-25
CN109272453B true CN109272453B (zh) 2023-02-10

Family

ID=65154827

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811008822.9A Active CN109272453B (zh) 2018-08-31 2018-08-31 基于3d摄像机的建模装置及定位方法

Country Status (1)

Country Link
CN (1) CN109272453B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11913345B2 (en) 2021-07-26 2024-02-27 General Electric Company System and method of using a tool assembly

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1971206A (zh) * 2006-12-20 2007-05-30 北京航空航天大学 基于一维靶标的双目视觉传感器校准方法
CN101320485A (zh) * 2008-06-03 2008-12-10 东南大学 一种基于立体匹配的人脸三维模型获取方法
CN101419055A (zh) * 2008-10-30 2009-04-29 北京航空航天大学 基于视觉的空间目标位姿测量装置和方法
CN101593358A (zh) * 2009-06-25 2009-12-02 汕头大学 一种三维模型重建方法
CN101630406A (zh) * 2008-07-14 2010-01-20 深圳华为通信技术有限公司 摄像机的标定方法及摄像机标定装置
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN102810205A (zh) * 2012-07-09 2012-12-05 深圳泰山在线科技有限公司 一种摄像或照相装置的标定方法
CN102938164A (zh) * 2012-12-05 2013-02-20 上海创图网络科技发展有限公司 一种基于航空遥感摄影测量的快速建模方法
CN103310482A (zh) * 2012-03-12 2013-09-18 中兴通讯股份有限公司 一种三维重建方法及系统
CN105160680A (zh) * 2015-09-08 2015-12-16 北京航空航天大学 一种基于结构光的无干扰深度相机的设计方法
CN105203034A (zh) * 2015-07-29 2015-12-30 四川大学 一种基于单目摄像头三维测距模型的测高测面积方法
CN106846415A (zh) * 2017-01-24 2017-06-13 长沙全度影像科技有限公司 一种多路鱼眼相机双目标定装置及方法
CN107003109A (zh) * 2014-11-13 2017-08-01 奥林巴斯株式会社 校准装置、校准方法、光学装置、摄影装置、投影装置、测量系统以及测量方法
CN107101632A (zh) * 2017-06-19 2017-08-29 北京视境技术有限公司 基于多摄像头与多标识物的空间定位装置及方法
CN107590832A (zh) * 2017-09-29 2018-01-16 西北工业大学 基于自然特征的物理对象追踪定位方法
CN108111835A (zh) * 2017-12-28 2018-06-01 盎锐(上海)信息科技有限公司 用于3d影像成像的拍摄装置、系统及方法
CN108391116A (zh) * 2018-02-26 2018-08-10 盎锐(上海)信息科技有限公司 基于3d成像技术的全身扫描装置及扫描方法
CN108391115A (zh) * 2018-02-07 2018-08-10 盎锐(上海)信息科技有限公司 基于电脑的3d影像成像方法及成像系统
CN108419071A (zh) * 2018-06-04 2018-08-17 盎锐(上海)信息科技有限公司 基于多3d摄像头的拍摄装置及方法

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1971206A (zh) * 2006-12-20 2007-05-30 北京航空航天大学 基于一维靶标的双目视觉传感器校准方法
CN101320485A (zh) * 2008-06-03 2008-12-10 东南大学 一种基于立体匹配的人脸三维模型获取方法
CN101630406A (zh) * 2008-07-14 2010-01-20 深圳华为通信技术有限公司 摄像机的标定方法及摄像机标定装置
CN101419055A (zh) * 2008-10-30 2009-04-29 北京航空航天大学 基于视觉的空间目标位姿测量装置和方法
CN101593358A (zh) * 2009-06-25 2009-12-02 汕头大学 一种三维模型重建方法
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN103310482A (zh) * 2012-03-12 2013-09-18 中兴通讯股份有限公司 一种三维重建方法及系统
CN102810205A (zh) * 2012-07-09 2012-12-05 深圳泰山在线科技有限公司 一种摄像或照相装置的标定方法
CN102938164A (zh) * 2012-12-05 2013-02-20 上海创图网络科技发展有限公司 一种基于航空遥感摄影测量的快速建模方法
CN107003109A (zh) * 2014-11-13 2017-08-01 奥林巴斯株式会社 校准装置、校准方法、光学装置、摄影装置、投影装置、测量系统以及测量方法
CN105203034A (zh) * 2015-07-29 2015-12-30 四川大学 一种基于单目摄像头三维测距模型的测高测面积方法
CN105160680A (zh) * 2015-09-08 2015-12-16 北京航空航天大学 一种基于结构光的无干扰深度相机的设计方法
CN106846415A (zh) * 2017-01-24 2017-06-13 长沙全度影像科技有限公司 一种多路鱼眼相机双目标定装置及方法
CN107101632A (zh) * 2017-06-19 2017-08-29 北京视境技术有限公司 基于多摄像头与多标识物的空间定位装置及方法
CN107590832A (zh) * 2017-09-29 2018-01-16 西北工业大学 基于自然特征的物理对象追踪定位方法
CN108111835A (zh) * 2017-12-28 2018-06-01 盎锐(上海)信息科技有限公司 用于3d影像成像的拍摄装置、系统及方法
CN108391115A (zh) * 2018-02-07 2018-08-10 盎锐(上海)信息科技有限公司 基于电脑的3d影像成像方法及成像系统
CN108391116A (zh) * 2018-02-26 2018-08-10 盎锐(上海)信息科技有限公司 基于3d成像技术的全身扫描装置及扫描方法
CN108419071A (zh) * 2018-06-04 2018-08-17 盎锐(上海)信息科技有限公司 基于多3d摄像头的拍摄装置及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Kinect深度相机标定算法研究;李雅娜;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160315;全文 *
大视距非合作目标视觉位姿测量系统关键技术研究;赵振庆;《中国博士学位论文全文数据库 信息科技辑》;20170215;全文 *
小物体3维重建中影像与几何模型的配准;郑顺义;《中国图象图形学报》;20140430;第19卷(第4期);全文 *

Also Published As

Publication number Publication date
CN109272453A (zh) 2019-01-25

Similar Documents

Publication Publication Date Title
CN109658365B (zh) 图像处理方法、装置、系统和存储介质
CN108205797B (zh) 一种全景视频融合方法及装置
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
CN108122191B (zh) 鱼眼图像拼接成全景图像和全景视频的方法及装置
US20180033209A1 (en) Stereo image generation and interactive playback
CN109003311B (zh) 一种鱼眼镜头的标定方法
JP4351996B2 (ja) モノスコープ・イメージから立体的なイメージを生成するための方法
KR20180111798A (ko) 파노라마 프레임 생성 프로세스에서 프레임의 적응적 스티칭
JP7271099B2 (ja) ファイルの生成装置およびファイルに基づく映像の生成装置
EP2779091B1 (en) Automatic stereoscopic camera calibration
CN108600729B (zh) 动态3d模型生成装置及影像生成方法
CN108347505B (zh) 具有3d成像功能的移动终端及影像生成方法
CN103247020A (zh) 一种基于径向特征的鱼眼图像展开方法
CN108391116B (zh) 基于3d成像技术的全身扫描装置及扫描方法
CN110782507A (zh) 一种基于人脸网格模型的纹理贴图生成方法、系统及电子设备
CN112468832A (zh) 一种十亿级像素全景视频直播方法、装置、介质及设备
CN109978945B (zh) 一种增强现实的信息处理方法和装置
CN108111835B (zh) 用于3d影像成像的拍摄装置、系统及方法
Zhang et al. Synthetic aperture based on plenoptic camera for seeing through occlusions
CN109272453B (zh) 基于3d摄像机的建模装置及定位方法
CN112529006B (zh) 全景图片的检测方法、装置、终端及存储介质
CN107659772B (zh) 3d图像生成方法、装置及电子设备
CN111161399A (zh) 基于二维影像生成三维模型的数据处理方法及组件
CN109801351B (zh) 动态图像生成方法和处理设备
CN110581977A (zh) 一种视频画面的输出方法、装置及三目摄像机

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20221222

Address after: 200120 room 607, building 2, No. 2555, xiupu Road, Pudong New Area, Shanghai

Applicant after: SHANGHAI ONWING INFORMATION TECHNOLOGY Co.,Ltd.

Address before: 201703 No.206, building 1, no.3938 Huqingping Road, Qingpu District, Shanghai

Applicant before: UNRE (SHANGHAI) INFORMATION TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230731

Address after: 201703 Room 2134, Floor 2, No. 152 and 153, Lane 3938, Huqingping Road, Qingpu District, Shanghai

Patentee after: Shanghai Qingyan Heshi Technology Co.,Ltd.

Address before: 200120 room 607, building 2, No. 2555, xiupu Road, Pudong New Area, Shanghai

Patentee before: SHANGHAI ONWING INFORMATION TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right