CN110148221B - 一种图像重建时的线条拟合的方法 - Google Patents

一种图像重建时的线条拟合的方法 Download PDF

Info

Publication number
CN110148221B
CN110148221B CN201811003629.6A CN201811003629A CN110148221B CN 110148221 B CN110148221 B CN 110148221B CN 201811003629 A CN201811003629 A CN 201811003629A CN 110148221 B CN110148221 B CN 110148221B
Authority
CN
China
Prior art keywords
line
current
image
fitting
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811003629.6A
Other languages
English (en)
Other versions
CN110148221A (zh
Inventor
孙其瑞
侯钧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Weiju Technology Co ltd
Original Assignee
Hangzhou Weiju Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Weiju Technology Co ltd filed Critical Hangzhou Weiju Technology Co ltd
Priority to CN201811003629.6A priority Critical patent/CN110148221B/zh
Publication of CN110148221A publication Critical patent/CN110148221A/zh
Application granted granted Critical
Publication of CN110148221B publication Critical patent/CN110148221B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种图像重建时的线条拟合的方法,包括对当前全景图像进行线条检测获得线条图像,通过语义分析、标记不同方向的线条;获得线条图像中的任意一条线条作为当前线条,获得当前线条向前延伸的规律(比如直线的斜率、弧线的曲率等),将当前线条按其延伸规律向前延伸;随着当前线条向前延伸,判断是否有与当前线条延伸段的距离小于预设值的可合并线条,若是,则将当前线条与可合并线条融合成一条线条;若否,则保留未延伸的当前线条。在室内空间三维重建时,删除线条‑超像素图像中方向错误的线条之后再进行线条的检测和拟合,能够对现有的像素点拟合,获得完整线条。

Description

一种图像重建时的线条拟合的方法
技术领域
本发明涉及一种图像重建时的线条拟合的方法。
背景技术
下面的背景技术用于帮助读者理解本发明,而不能被认为是现有技术。
三维全景是基于全景图像的真实场景虚拟现实技术。全景是把相机环360°拍摄的一组或多组照片拼接成一个全景图像,也可以通过一次拍摄实现全景图像,全景图像是一种对周围环境、物体以某种几何关系进行映射生产的平面图片,全景图像需要进行三维重建才能成为三维空间图像。三维全景图一般由普通相机结合鱼眼镜头捕捉整个场景的图像信息,再使用软件进行图片拼合,变为360°全景图片用于虚拟现实浏览。
但全景图片是将三维场景通过二维的方式展示,图像的三维空间感缺失,并且伴随有线条畸变(如直线在全景图片中表现为曲线)。有一种将全景图片重建为三维场景的方法是:获得输入室内全景图像,通过离散点拟合的方式得到线条,由图像语义标记不同类型的线条;通过分割生成超像素,标记各个面的方向(比如用色彩标记,红色表示地板或天花板等水平面,条纹色表示墙面等垂直面,白色表示不施加方向限制的面),恢复图像的深度信息,获得灰度图;重建三维线条、输出三维空间模型。这种三维场景重建方法的缺点在于:1、由离散点拟合只能获得线条的一部分,无法获得完整的线条,出现线条中断。
发明内容
本发明的目的在于提供一种图像重建时的线条拟合的方法,能够对现有的像素点拟合,获得完整线条。
本发明解决其技术问题所采用的技术方案是:一种图像重建时的线条拟合的方法,包括以下步骤:
S3.1、对当前全景图像进行线条检测获得线条图像,通过语义分析、标记不同方向的线条,线条检测的算法采用常用的算法,如SFV;
S3.2、获得线条图像中的任意一条线条作为当前线条,获得当前线条向前延伸的规律(比如直线的斜率、弧线的曲率等),将当前线条按其延伸规律向前延伸;
S3.3、随着当前线条向前延伸,判断是否有与当前线条延伸段的距离小于预设值的可合并线条,若是,则将当前线条与可合并线条融合成一条线条;若否,则保留未延伸的当前线条。
作为优选的方案,在室内空间三维重建时,删除线条-超像素图像中方向错误的线条之后再进行线条的检测和拟合。
作为优选的方案,步骤S3.2中获得当前线条向前延伸规律的方法为:获得弧线的曲率,或者直线的斜率。
作为优选的方案,步骤S3.3中,线条融合的方法为:当前线条向前延伸、遇到可合并线条时,在当前线条的起点到可合并线条的终点拟合出连续的拟合线条,连续线条的拟合规律与当前线条的延伸规律的误差在设定的误差范围内;如当前线条和拟合线条均为弧线,则当前线条的曲率半径与拟合线条的曲率半径之间的差值应在设定的误差范围内;拟合线条可能是在当前线条和可合并线条之间,或者是拟合线条与当前线条或者可合并线条其中之一重合;
或者,当前线条向前延伸、遇到可合并线条时,将可合并线条的终点平移到当前线条的延伸段、形成拟合线条;
拟合线条按照其延伸规律继续向前延伸,若到平面结束时仍未遇到可合并线条,则保留未延伸的当前线条;若到平面结束时已融合可合并线段,则用拟合线条替代当前线条和所有已融合的可合并线段。
本发明的优点在于:在室内空间三维重建时,删除线条-超像素图像中方向错误的线条之后再进行线条的检测和拟合,能够对现有的像素点拟合,获得完整线条。
附图说明
图1是一个独立空间的三维全景图像。
图2是三维全景图像的线条-超像素图像。
图3是三维全景图像分解获得的其中一张单视角图像。
图4是图3对应的空间关系。
图5是三维全景图像对应的空间关系。
图6是线条检测和拟合之后的线条图像。
图7是图1对应的三维空间。
图8是大物件特征的空间关系深度学习。
图9是需要多空间融合的示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进一步说明。
室内空间的三维重建
在一些实施例中,如图1-7所示一种室内空间三维重建方法,包括以下步骤:
S1、建立墙角特征学习库,每一个墙角特征具有相应的空间关系,墙角特征的空间关系是指,该墙角图像中,天花板、墙面和地面的分割关系,墙角特征的图像是相机从固定角度拍摄的单视角图像;
S2、获取待重建的当前全景图像;
S3、对当前全景图像做线条检测和/或超像素分割通过图像语义分析用不同颜色或不同线型表示不同方向的线条,生成由线条和超像素组成的线条-超像素图像;
S4、获取当前全景图像的空间关系:
S4.1、将当前全景图像按视角分解成多张单视角图像;全景图像生成需要使用多张不同视角的图像进行合成,分解形成的多张单视角图像就是用于合成全景图像的图像;
S4.2、分别将每张单视角图像进行墙角特征学习库的深度学习,通过深度学习识别出墙角特征的空间关系;
S4.3、将所有单视角图像的空间关系按全景图像的合成条件进行合成,生成当前全景图像的空间关系,以不同颜色表示不同的空间位置(空间位置如天花板、墙面、地面等);a表示同一颜色的平行线条,b表示同一颜色的平行线条,c表示同一颜色的平行线条,如图2-4所示;
S5、将当前全景图像的空间关系应用于线条-超像素图像,删除线条-超像素图像中方向错误的线条获得,生成具有空间关系的线条-超像素图像;如,表示墙面的线条出现在了地面或天花板区域,则该表示墙面的线条方向错误,做删除处理;当前全景图像的空间关系与当前全景图形的像素坐标一致、线条-超像素图像与当前全景图形的像素坐标一致,因此,可以将当前全景图像的空间关系与线条-超像素图像对应起来;
S6、用具有空间关系的线条-超像素图像重建空间中每个面的信息;
步骤S3和S4同步进行,或者先进行S3再进行S4,或者先进行S4再进行S3。
在一些实施例中,对步骤S3中的线条-超像素图像进行多段检测线条的拟合,包括以下步骤:
S3.1.1、对当前全景图像进行线条检测获得线条图像,通过语义分析、标记不同方向的线条,线条检测的算法采用常用的算法,如SFV;
S3.1.2、获得线条图像中的任意一条线条作为当前线条,获得当前线条向前延伸的规律(比如直线的斜率、弧线的曲率等),将当前线条按其延伸规律向前延伸;
S3.1.3、随着当前线条向前延伸,判断是否有与当前线条延伸段的距离小于预设值的可合并线条,若是,则将当前线条与可合并线条融合成一条线条;若否,则保留未延伸的当前线条。
作为优选的方案,在室内空间三维重建时,删除线条-超像素图像中方向错误的线条之后再进行线条的检测和拟合。
作为优选的方案,步骤S3.1.3中,线条融合的方法为:当前线条向前延伸、遇到可合并线条时,在当前线条的起点到可合并线条的终点拟合出连续的拟合线条,连续线条的拟合规律与当前线条的延伸规律的误差在设定的误差范围内;如当前线条和拟合线条均为弧线,则当前线条的曲率半径与拟合线条的曲率半径之间的差值应在设定的误差范围内;拟合线条可能是在当前线条和可合并线条之间,或者是拟合线条与当前线条或者可合并线条其中之一重合;
或者,当前线条向前延伸、遇到可合并线条时,将可合并线条的终点平移到当前线条的延伸段、形成拟合线条;
拟合线条按照其延伸规律继续向前延伸,若到平面结束时仍未遇到可合并线条,则保留未延伸的当前线条;若到平面结束时已融合可合并线段,则用拟合线条替代当前线条和所有已融合的可合并线段。
在一些实施例中,对线条-超像素图像中,出现线条被遮挡的情况时,对线条的强拉直拟合,包括以下步骤:
S3.2.1、建立大物件特征学习库,每一个大物件特征具有相应的空间关系,大物件特征包括:家具、家电等,大物件的空间关系是指:在图像中大物件与各相关平面的区域分割关系;
S3.2.2、获取当前全景图像,是当前全景图像用大物件特征学习库进行深度学习,获得大物件特征的空间关系,如图8所示;
S3.2.3、获得当前全景图像的线条图像或线条-超像素图像,将大物件特征的空间关系应用到线条图像或线条-超像素图像,将大物件特征所在区域内的线条删除;
S3.2.4、将被大物件遮挡而造成中断的线条进行强拟合;被大物件进行遮挡指的是该线条的终点或起点位于大物件的边界上;强拟合是指:利用当前线条规律向前延伸,寻找是否有与之延伸规律相同、且距离小于预设值的可拟合线条;
或者,利用当前线条规律向前延伸到线条所在面的结束边界,判断当前线条与相邻面是否有距离小于预设值的相邻面可拟合线条,相邻面可拟合线条是位于相邻面的线条通过其延伸规律向前延伸到该相邻面的边界,或者该相邻面可拟合线条是实际终止于该相邻面的边界;属于同一个消失点或者消失方向的线条属于同一个面。消失点是本领域的现有技术,已有论文公开了消失点的详细理论,本申请中不再展开说明。
在一些实施例中,经过拟合后的线条-超像素图像作为步骤S5中使用的线条-超像素图像。
线条拟合方法
以上方法通过对墙角特征深度学习,识别出全景图像中的墙角特征及其空间关系,每个墙角特征对应有天花板、墙面和地面的空间分割关系,所有墙角特征的空间关系组合起来,能够完成对当前全景图像的空间关系分别,建出全景图像对应的三维空间框架(如天花板区域、墙面区域、地面区域);线条方向指示出墙面之间的相交或平行关系,空间关系结合线条-超像素图像,重建出全景图像对应的三维空间。
在一些实施例中,对于线条图像或线条-超像素图像,进行线条检测时,现有的像素点拟合经常出现线条中断、不完整的问题,为获得完整的线条,提供一种线条检测和拟合方法。
一种图像重建时的线条拟合的方法,包括以下步骤:
S3.1、对当前全景图像进行线条检测获得线条图像,通过语义分析、标记不同方向的线条,线条检测的算法采用常用的算法,如SFV;
S3.2、获得线条图像中的任意一条线条作为当前线条,获得当前线条向前延伸的规律(比如直线的斜率、弧线的曲率等),将当前线条按其延伸规律向前延伸;
S3.3、随着当前线条向前延伸,判断是否有与当前线条延伸段的距离小于预设值的可合并线条,若是,则将当前线条与可合并线条融合成一条线条;若否,则保留未延伸的当前线条。
作为优选的方案,在室内空间三维重建时,删除线条-超像素图像中方向错误的线条之后再进行线条的检测和拟合。
作为优选的方案,步骤S3.2中获得当前线条向前延伸规律的方法为:获得弧线的曲率,或者直线的斜率。
作为优选的方案,步骤S3.3中,线条融合的方法为:当前线条向前延伸、遇到可合并线条时,在当前线条的起点到可合并线条的终点拟合出连续的拟合线条,连续线条的拟合规律与当前线条的延伸规律的误差在设定的误差范围内;如当前线条和拟合线条均为弧线,则当前线条的曲率半径与拟合线条的曲率半径之间的差值应在设定的误差范围内;拟合线条可能是在当前线条和可合并线条之间,或者是拟合线条与当前线条或者可合并线条其中之一重合;
或者,当前线条向前延伸、遇到可合并线条时,将可合并线条的终点平移到当前线条的延伸段、形成拟合线条;
拟合线条按照其延伸规律继续向前延伸,若到平面结束时仍未遇到可合并线条,则保留未延伸的当前线条;若到平面结束时已融合可合并线段,则用拟合线条替代当前线条和所有已融合的可合并线段。
大物件特征
出现线条被遮挡的情况时,对线条的强拉直拟合,包括以下步骤:
S3.2.1、建立大物件特征学习库,每一个大物件特征具有相应的空间关系,大物件特征包括:家具、家电等,大物件的空间关系是指:在图像中大物件与各相关平面的区域分割关系;
S3.2.2、获取当前待处理图像,当前待处理图像可以是全景图像也可以是单视角图像,用大物件特征学习库进行深度学习,获得当前图像中大物件特征的空间关系;
S3.2.3、获得当前待处理图像的线条图像或线条-超像素图像,将大物件特征的空间关系应用到线条图像或线条-超像素图像,将大物件特征所在区域内的线条删除;
S3.2.4、将被大物件遮挡而造成中断的线条进行强拟合;被大物件进行遮挡指的是该线条的终点或起点位于大物件的边界上;强拟合是指:利用当前线条规律向前延伸,寻找是否有与之延伸规律相同、且距离小于预设值的可拟合线条;若存在该可拟合线条,这将当前线条和可拟合线条融合为一条线条。
多空间融合
在三维空间重构时,有可能出现多空间需要融合的情况,比如一个大空间被分割为多个小空间时,则需要将所有小空间融合成整体,这种情况下,需要进行三维空间的融合。
作为优选的方案,如图9所示,多空间的融合方法,包括以下步骤:
SI、拍照前在每个小空间内张贴标尺;
SII、建立标尺学习库;
SIII、获取每个空间的全景图像作为当前空间图像;
SIV、将当前空间图像用标尺学习库进行深度学习,找出当前空间图像中的标尺,将所有空间图像的标尺进行方向和尺寸的配准,配准指的是所有空间图像的标尺完全重合;
SV、分别对标尺配准后的每个全景图像进行三维空间重构。
优选的,SV中,将具有相同信息的三维空间面合成一个面,从而将多个小空间合成一个多空间的三维空间图。
该多空间的融合方法,无需使用同一型号相机对各子空间拍照,可以使用不同品牌、不同相机分别对各子空间进行拍照,只要每个空间内张贴的标尺一致即可。
多空间融合时,每个子空间的三维重建,使用上述各实施例中的三维空间重建方法。
本方法通过深度学习找到每个全景图像中的标尺,将所有标尺进行配准后即可完成对各空间的方向和尺寸的配准,配准后的全景图像可以重构成相同比例的三维空间,再将多个三维空间进行融合。
在缺少本文中所具体公开的任何元件、限制的情况下,可以实现本文所示和所述的实用新型。所采用的术语和表达法被用作说明的术语而非限制,并且不希望在这些术语和表达法的使用中排除所示和所述的特征或其部分的任何等同物,而且应该认识到各种改型在本实用新型的范围内都是可行的。因此应该理解,尽管通过各种实施例和可选的特征具体公开了本实用新型,但是本文所述的概念的修改和变型可以被本领域普通技术人员所采用,并且认为这些修改和变型落入所附权利要求书限定的本实用新型的范围之内。
本文中所述或记载的文章、专利、专利申请以及所有其他文献和以电子方式可得的信息的内容在某种程度上全文包括在此以作参考,就如同每个单独的出版物被具体和单独指出以作参考一样。申请人保留把来自任何这种文章、专利、专利申请或其他文献的任何及所有材料和信息结合入本申请中的权利。

Claims (4)

1.一种图像重建时的线条拟合的方法,其特征在于,包括以下步骤:
S3.1、对当前全景图像进行线条检测获得线条图像,通过语义分析、标记不同方向的线条;
S3.2、获得线条图像中的任意一条线条作为当前线条,获得当前线条向前延伸的规律,将当前线条按其延伸规律向前延伸;
S3.3、随着当前线条向前延伸,判断是否有与当前线条延伸段的距离小于预设值的可合并线条,若是,则将当前线条与可合并线条融合成一条线条;若否,则保留未延伸的当前线条;
对线条-超像素图像中,出现线条被遮挡的情况时,对线条的强拉直拟合,包括以下步骤:
S3.2.1、建立大物件特征学习库,每一个大物件特征具有相应的空间关系,大物件特征包括:家具、家电,大物件的空间关系是指:在图像中大物件与各相关平面的区域分割关系;
S3.2.2、获取当前待处理图像,当前待处理图像可以是全景图像也可以是单视角图像,用大物件特征学习库进行深度学习,获得当前图像中大物件特征的空间关系;
S3.2.3、获得当前待处理图像的线条图像或线条-超像素图像,将大物件特征的空间关系应用到线条图像或线条-超像素图像,将大物件特征所在区域内的线条删除;
S3.2.4、将被大物件遮挡而造成中断的线条进行强拟合;被大物件进行遮挡指的是该线条的终点或起点位于大物件的边界上;强拟合是指:利用当前线条规律向前延伸,寻找是否有与之延伸规律相同、且距离小于预设值的可拟合线条;若存在该可拟合线条,这将当前线条和可拟合线条融合为一条线条;
在三维空间重构时,需要进行三维空间的融合,多空间的融合方法,包括以下步骤:
SI、拍照前在每个小空间内张贴标尺;
SII、建立标尺学习库;
SIII、获取每个空间的全景图像作为当前空间图像;
SIV、将当前空间图像用标尺学习库进行深度学习,找出当前空间图像中的标尺,将所有空间图像的标尺进行方向和尺寸的配准,配准指的是所有空间图像的标尺完全重合;
SV、分别对标尺配准后的每个全景图像进行三维空间重构;将具有相同信息的三维空间面合成一个面,将多个小空间合成一个多空间的三维空间图。
2. 如权利要求 1 所述的一种图像重建时的线条拟合的方法,其特征在于,在室内空间三维重建时,删除线条-超像素图像中方向错误的线条之后再进行线条的检测和拟合。
3. 如权利要求 2 所述的一种图像重建时的线条拟合的方法,其特征在于,步骤 S3.2中获得当前线条向前延伸规律的方法为:获得弧线的曲率,或者直线的斜率。
4. 如权利要求 3 所述的一种图像重建时的线条拟合的方法,其特征在于,步骤 S3.3中,线条融合的方法为:当前线条向前延伸、遇到可合并线条时,在当前线条的起点到可合并线条的终点拟合出连续的拟合线条,连续线条的拟合规律与当前线条的延伸规律的误差在设定的误差范围内;或者,当前线条向前延伸、遇到可合并线条时,将可合并线条的终点平移到当前线条的延伸段、形成拟合线条;拟合线条按照其延伸规律继续向前延伸,若到平面结束时仍未遇到可合并线条,则保留未延伸的当前线条;若到平面结束时已融合可合并线段,则用拟合线条替代当前线条和所有已融合的可合并线段。
CN201811003629.6A 2018-08-30 2018-08-30 一种图像重建时的线条拟合的方法 Active CN110148221B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811003629.6A CN110148221B (zh) 2018-08-30 2018-08-30 一种图像重建时的线条拟合的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811003629.6A CN110148221B (zh) 2018-08-30 2018-08-30 一种图像重建时的线条拟合的方法

Publications (2)

Publication Number Publication Date
CN110148221A CN110148221A (zh) 2019-08-20
CN110148221B true CN110148221B (zh) 2023-09-01

Family

ID=67589294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811003629.6A Active CN110148221B (zh) 2018-08-30 2018-08-30 一种图像重建时的线条拟合的方法

Country Status (1)

Country Link
CN (1) CN110148221B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901331A (zh) * 2009-05-27 2010-12-01 上海点佰趣信息科技有限公司 断纹拼接方法
CN102156884A (zh) * 2011-04-25 2011-08-17 中国科学院自动化研究所 一种直线段检测和提取方法
CN102298693A (zh) * 2011-05-18 2011-12-28 浙江大学 基于计算机视觉的高速公路弯道检测方法
CN104504684A (zh) * 2014-12-03 2015-04-08 小米科技有限责任公司 边缘提取方法和装置
CN107679520A (zh) * 2017-10-30 2018-02-09 湖南大学 一种适用于复杂条件下的车道线视觉检测方法
CN107730520A (zh) * 2017-09-22 2018-02-23 智车优行科技(北京)有限公司 车道线检测方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901331A (zh) * 2009-05-27 2010-12-01 上海点佰趣信息科技有限公司 断纹拼接方法
CN102156884A (zh) * 2011-04-25 2011-08-17 中国科学院自动化研究所 一种直线段检测和提取方法
CN102298693A (zh) * 2011-05-18 2011-12-28 浙江大学 基于计算机视觉的高速公路弯道检测方法
CN104504684A (zh) * 2014-12-03 2015-04-08 小米科技有限责任公司 边缘提取方法和装置
CN107730520A (zh) * 2017-09-22 2018-02-23 智车优行科技(北京)有限公司 车道线检测方法及系统
CN107679520A (zh) * 2017-10-30 2018-02-09 湖南大学 一种适用于复杂条件下的车道线视觉检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Efficient 3D Room Shape Recovery from a Single Panorama;Hao Yang 等;《2016 IEEE Conference on Computer Vision and Pattern Recognition》;第5422-5427 页 *

Also Published As

Publication number Publication date
CN110148221A (zh) 2019-08-20

Similar Documents

Publication Publication Date Title
Scharstein View synthesis using stereo vision
Yang et al. Image-based 3D scene reconstruction and exploration in augmented reality
Saito et al. Shape reconstruction in projective grid space from large number of images
US10580205B2 (en) 3D model generating system, 3D model generating method, and program
CN110197529B (zh) 室内空间三维重建方法
CN105279789B (zh) 一种基于图像序列的三维重建方法
US20120176380A1 (en) Forming 3d models using periodic illumination patterns
WO2012096747A1 (en) Forming range maps using periodic illumination patterns
CN105005964B (zh) 基于视频序列影像的地理场景全景图快速生成方法
JP3524147B2 (ja) 3次元画像表示装置
CN106534670B (zh) 一种基于固联鱼眼镜头摄像机组的全景视频生成方法
KR102152436B1 (ko) 3차원 포인트 클라우드 기반의 동적 3차원 모델 생성을 위한 뼈대 정보 처리 시스템 및 방법
US20160232705A1 (en) Method for 3D Scene Reconstruction with Cross-Constrained Line Matching
Ding et al. Fusing structure from motion and lidar for dense accurate depth map estimation
CN109064533B (zh) 一种3d漫游方法及系统
JP2019211965A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN110148206B (zh) 多空间的融合方法
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
US11043019B2 (en) Method of displaying a wide-format augmented reality object
KR101817756B1 (ko) 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법
JP2012105019A (ja) 画像処理装置、方法およびそのプログラム
CN110148221B (zh) 一种图像重建时的线条拟合的方法
JP2011048507A (ja) 3次元データ生成装置、3次元データ生成方法およびプログラム
CN110148220B (zh) 室内空间大物件的三维重建方法
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant