CN102208116A - 三维建模装置以及三维建模方法 - Google Patents
三维建模装置以及三维建模方法 Download PDFInfo
- Publication number
- CN102208116A CN102208116A CN2011100804926A CN201110080492A CN102208116A CN 102208116 A CN102208116 A CN 102208116A CN 2011100804926 A CN2011100804926 A CN 2011100804926A CN 201110080492 A CN201110080492 A CN 201110080492A CN 102208116 A CN102208116 A CN 102208116A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- dimensional model
- dimensional
- synthesized
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种三维建模装置以及三维建模方法。对被拍摄对象适当进行三维建模。接受部(11),接受通过使用立体照相机,从不同的角度对被拍摄对象拍摄多次而得到的多个图像的组的输入。生成部(12),基于接受到的多个图像的组中的每一个组,生成被拍摄对象的多个三维模型。选择部(13),选择被合成三维模型和合成三维模型。提取部(14),从被合成三维模型中提取多个第一特征点,并且从合成三维模型中提取多个第二特征点。获取部(15),获取将该合成三维模型的坐标变换为该被合成三维模型的坐标系的坐标的坐标变换参数。变换部(16),将合成三维模型的坐标变换为被合成三维模型的坐标系的坐标。合成部(17),将坐标变换后的合成三维模型合成为被合成三维模型。
Description
本申请主张以在2010年3月29日申请的日本专利申请特愿2010-074486为基础的优先权,全部援引该基础申请的内容。
技术领域
本发明涉及三维建模装置以及三维建模方法。
背景技术
已知有如下技术,即,采用具备右眼用拍摄部和左眼用拍摄部的立体照相机(stereo camera)对人类、动物、或美术品等被拍摄对象进行拍摄,并基于通过拍摄得到的右眼用图像和左眼用图像来生成被拍摄对象的三维模型。
具体来说,对右眼用图像和左眼用图像实施立体匹配(stereo matching),求取表示被拍摄对象上的相同点的对应点。接着,基于求出的对应点、右眼用拍摄部和左眼用拍摄部之间的间隔,按照三角测量的要领,求取立体照相机和对应点之间的距离(进深)。并且,根据求出的距离求取对应点的三维坐标,进而构筑被拍摄对象的三维模型。这样的技术,例如在专利第2953154号公报、数字图像处理、2006年3月1日发行、CG-ARTS协会上被公开。
但是,在专利第2953154号公报、数字图像处理、2006年3月1日发行、CG-ARTS协会上被公开的技术,是基于从相互接近的位置同时进行拍摄而得到的、右眼用图像和左眼用图像来执行三维建模的技术。因此,不能以足够的精度来实现三维建模。因此,期望能够以足够的精度来实现三维建模的技术。
发明内容
本发明的目的在于,提供一种适于对被拍摄对象适当地进行三维建模的三维建模装置、以及三维建模方法。
为了达成上述目的,本发明第一观点的三维建模装置包括:接受单元,其接受多个图像的组的输入,其中,该多个图像通过如下方式得到,即,使用通过一次拍摄来获取一组图像的立体照相机,从不同的角度对被拍摄对象拍摄多次;生成单元,其基于上述接受到的多个图像的组中的每一个组,生成上述被拍摄对象的多个三维模型;选择单元,其从上述生成的多个三维模型之中,选择被合成三维模型和合成为该被合成三维模型的合成三维模型;提取单元,其从上述选择出的被合成三维模型中提取多个第一特征点,并且从上述选择出的合成三维模型中提取多个第二特征点;获取单元,其基于上述提取出的多个第一特征点和多个第二特征点,获取将该合成三维模型的坐标变换为该被合成三维模型的坐标系的坐标的坐标变换参数;变换单元,其使用上述获取到的坐标变换参数,将上述合成三维模型的坐标变换为上述被合成三维模型的坐标系的坐标;以及合成单元,其将上述坐标变换后的合成三维模型合成为上述被合成三维模型。
为了达成上述目的,本发明第二观点的三维建模方法包括:接受步骤,接受多个图像的组的输入,其中,该多个图像通过如下方式得到,即,使用通过一次拍摄来获取一组图像的立体照相机,从不同的角度对被拍摄对象拍摄多次;生成步骤,基于上述接受到的多个图像的组中的每一个组,生成上述被拍摄对象的多个三维模型;选择步骤,从上述生成的多个三维模型之中,选择被合成三维模型和合成为该被合成三维模型的合成三维模型;提取步骤,从上述选择出的被合成三维模型中提取多个第一特征点,并且从上述选择出的合成三维模型中提取多个第二特征点;获取步骤,基于上述提取出的多个第一特征点和多个第二特征点,获取将该合成三维模型的坐标变换为该被合成三维模型的坐标系的坐标的坐标变换参数;变换步骤,使用上述获取到的坐标变换参数,将上述合成三维模型的坐标变换为上述被合成三维模型的坐标系的坐标;以及合成步骤,将上述坐标变换后的合成三维模型合成为上述被合成三维模型。
附图说明
图1A是表示本发明的实施方式的立体照相机的前面的模样的外观图。
图1B是表示本发明的实施方式的立体照相机的背面的模样的外观图。
图2是表示本发明的实施方式的立体照相机的构成的框图。
图3是表示本发明的实施方式的立体照相机的主要部分的构成的框图。
图4是表示本发明的实施方式的立体照相机执行的三维建模处理的流程图。
图5是表示图4所示的三维模型生成处理的流程图。
图6是表示图4所示的照相机位置推定处理的流程图。
图7是表示图6所示的坐标变换参数获取处理的流程图。
图8是表示图4所示的三维模型合成处理的流程图。
具体实施方式
以下,参照附图,说明本发明的实施方式的三维建模装置。
(实施方式)
在本实施方式中,示出将本发明应用于数字式的立体照相机的例子。在本实施方式中,立体照相机在从按压快门按钮至离开该快门按钮的期间内反复执行:拍摄被拍摄对象的处理、和合成该被拍摄对象的三维模型的处理。首先,参照图1A、图1B,说明本发明的实施方式的立体照相机1000的外观。
如图1A所示,在立体照相机1000的前面设置:透镜111A、透镜111B、闪光灯发光部400。此外,如图1A所示,在立体照相机1000的上面,设置快门按钮331。进一步地,如图1B所示,在立体照相机1000的背面,设置显示部310、操作键332、电源键333。
透镜111A和透镜111B隔开规定的间隔平行设置。
显示部310由作为电源键、操作键、电子取景器(viewer finder)发挥作用的LCD(Liquid Crystal Display)构成。
快门按钮331是在执行被拍摄对象的拍摄的期间应当持续进行按压的按钮。即,立体照相机1000在按压快门按钮331的期间反复进行被拍摄对象的拍摄。
操作键332从用户接受各种操作。操作键332包括十字键和确定键,在模式切换和显示切换等操作中使用。
电源键333是在接通·断开立体照相机1000的电源时应当按压的键。
闪光灯发光部400向被拍摄对象照射闪光灯光。后面叙述闪光灯发光部400的构成。
这里,参照图2,说明立体照相机1000的电结构。
如图2所示,立体照相机1000包括:第一拍摄部100A、第二拍摄部100B、数据处理部200、接口部300和闪光灯发光部400。另外,在附图中,适当将接口部标记为I/F部。
第一拍摄部100A和第二拍摄部100B是拍摄被拍摄对象的部分。虽然立体照相机1000是立体照相机,所以是具有第一拍摄部100A和第二拍摄部100B这两个拍摄部的结构,但是第一拍摄部100A和第二拍摄部100B是相同的结构。另外,针对第一拍摄部100A的结构在参照符号的末尾附加“A”,针对第二拍摄部100B的结构在参照符号的末尾附加“B”。
如图2所示,第一拍摄部100A包括光学装置110A和图像传感器部120A,第二拍摄部100B包括光学装置110B和图像传感器部120B。光学装置110B是与光学装置110A相同的结构,图像传感器部120B是与图像传感器部120A相同的结构。因此,以下,仅仅说明光学装置110A以及图像传感器部120A的结构。
光学装置110A例如包括透镜111A、光圈机构、快门机构等,进行拍摄相关的光学动作。即,通过光学装置110A的动作,聚焦入射光,并且完成焦点距离、光圈、快门速度等这样的与视角(angle of view)、焦点、曝光等相关的光学要素的调整。另外,在光学装置110A中包括的快门机构是所谓的机械式快门,在仅仅由图像传感器部120A的动作来完成快门动作的情况下,也可以不在光学装置110A中包括快门机构。此外,光学装置110A通过后述控制部210的控制来动作。
图像传感器部120A生成与由光学装置110A聚焦的入射光相对应的电信号。例如,由CCD(Charge Coupled Device:电荷耦合元件)和CMOS(Complementally Metal Oxide Semiconductor:互补型金属氧化物半导体)等图像传感器构成。图像传感器部120A通过进行光电变换,来产生与受光相对应的电信号,并输出至数据处理部200。
另外,如上述,第一拍摄部100A和第二拍摄部100B是相同的结构。因此,透镜的焦点距离f或F值、光圈机构的光圈范围、图像传感器的尺寸或像素数、排列、像素面积等样式全都相同。
如图1A所示,具有这样的第一拍摄部100A和第二拍摄部100B的立体照相机1000成为以下的结构,即,在光学装置110A中构成的透镜111A和在光学装置110B中构成的透镜111B在立体照相机1000的外面的同一平面上形成。这里,在快门按钮331为上的方向上将立体照相机1000置为水平的情况下,配置2个透镜(受光部),以便中心位置成为在水平方向上延伸的同一的线上。即,在使第一拍摄部100A和第二拍摄部100B同时动作的情况下,虽然拍摄针对同一被拍摄对象的2个图像(以下,适当称为“配对图像”。),但是各图像中的光轴位置在横方向上偏移。立体照相机1000是所谓平行立体照相机的结构。
数据处理部200处理通过第一拍摄部100A以及第二拍摄部100B的拍摄动作而生成的电信号,生成表示拍摄到的被拍摄对象的图像的数字数据,并且进行针对该图像的图像处理。如图2所示,数据处理部200由控制部210、图像处理部220、图像存储器230、图像输出部240、存储部250、外部存储部260等构成。
控制部210例如由CPU(Central Processing Unit:中央运算处理部)等的处理器、RAM(Random Access Memory:随机存取存储器)等主存储装置(存储器)等构成,通过执行保存在后述的存储部250等中的程序,来控制立体照相机1000的各个部分。
图像处理部220例如由ADC(Analog-Digital Converter:模拟·数字变换器)、缓冲存储器、图像处理用的处理器(即、图像处理发动机)等构成,基于由图像传感器部120A以及120B生成的电信号,生成表示拍摄到的被拍摄对象的图像的数字数据(以下,适当称为“图像数据”。)。
即,ADC将从图像传感器部120A以及图像传感器部120B输出的模拟电信号变换为数字信号并顺序保存在缓冲存储器中。另一方面,图像处理部220对于被缓冲的数字数据,通过进行所谓的显影处理等,来进行画质的调整和数据压缩等。
图像存储器230例如由RAM和闪速存储器等存储装置构成,暂时存储由图像处理部220生成的图像数据、和由控制部210处理的图像数据等。
图像输出部240例如由RGB信号的生成电路等构成,将在图像存储器230中展开的图像数据变换为RGB信号并输出至显示画面(后述的显示部310等)。
存储部250例如由ROM(Read Only Memory:只读存储器)和闪速存储器等存储装置构成,保存立体照相机1000的动作所需的程序和数据。在本实施方式中,设在存储部250中保存控制部210等执行的动作程序、各处理所需的参数和运算式等。
外部存储部260例如由存储卡等这样的在立体照相机1000中可装卸的存储装置构成,保存立体照相机1000拍摄到的图像数据、表示三维模型的数据等。
接口部300是立体照相机1000和其使用者或外部装置之间的接口相关的结构。如图2所示,接口部300由显示部310、外部接口部320、操作部330等构成。
显示部310例如由液晶显示装置等构成,显示操作立体照相机1000所需的各种画面、拍摄时的实时取景图像、拍摄到的被拍摄对象的图像等。在本实施方式中,基于从图像输出部240提供的图像信号(RGB信号)等显示拍摄到的被拍摄对象的图像和三维模型等。
外部接口部320例如由USB(Universal Serial Bus)连接器和视频输出端子等构成,向外部的计算机装置和外部的监视器装置输出图像数据等。
操作部330由在立体照相机1000的外面上构成的各种按钮等构成,生成与立体照相机1000的使用者进行的操作相对应的输入信号,并提供给控制部210。操作部330中例如包括:用于指示快门动作的快门按钮331、进行立体照相机100的动作模式等的指定和各种功能设定的操作键332、电源键333。
闪光灯发光部400例如由氙灯(氙闪光灯)构成。闪光灯发光部400按照控制部210的控制向被拍摄对象照射闪光(flash)。
立体照相机1000也可以不具备图2所示的所有的结构,而具备图2所示的结构以外的结构。
这里,参照图3,说明立体照相机1000的动作中与三维建模相关的动作。
图3是表示立体照相机1000的主要部分的结构、即用于实现三维建模相关的动作的结构的框图。
如图3所示,立体照相机1000包括:接受部11、生成部12、选择部13、提取部14、获取部15、变换部16、合成部17。这些要素例如由控制部210构成。
接受部11接受通过使用由一次拍摄获取一组图像的立体照相机1000,从不同的角度多次拍摄被拍摄对象而获取的多个图像的组的输入。
生成部12基于接受到的多个图像的组中的每一个组,生成被拍摄对象的多个三维模型。
选择部13从生成的多个三维模型中选择被合成三维模型和合成为该被合成三维模型的合成三维模型。
提取部14从选择出的被合成三维模型中提取多个第一特征点,并且从选择出的合成三维模型中提取多个第二特征点。
获取部15基于提取出的多个第一特征点和多个第二特征点,将该合成三维模型的坐标变换为该被合成三维模型的坐标系的坐标。
变换部16使用获取到的坐标变换参数,将合成三维模型的坐标变换为被合成三维模型的坐标系的坐标。
合成部17将变换后的合成三维模型合成为该被合成三维模型。
下面,使用图4所示的流程图,说明立体照相机1000执行的三维建模处理。立体照相机1000一旦通过操作键332等的操作,将动作模式设定为三维建模模式,则执行图4所示的三维建模处理。
在本实施方式中,在按压快门按钮331的期间,重复执行被拍摄对象的拍摄、三维模型的生成、生成的三维模型的合成、合成后的三维模型的预览显示等。这里,将由最初的拍摄获取的三维模型即成为合成的基础的三维模型称为被合成三维模型。此外,将由第二次以后的拍摄获取的三维模型即被合成为被合成三维模型的三维模型称为合成三维模型。并且,在三维建模处理中,依次生成对按照拍摄次数量拍摄多次的三维模型进行合成而得到的三维模型。另外,设被拍摄对象按每次拍摄从不同的角度拍摄。
首先,控制部210判别是否按压了快门按钮331(步骤S101)。控制部210一旦判别为未按压快门按钮331(步骤S101:否),则再次执行步骤S101的处理。另一方面,控制部210一旦判别为按压了快门按钮331(步骤S101:是),则将拍摄次数计数器N初始化为1(步骤S102)。另外,拍摄次数计数器N例如存储在存储部250中。
控制部210一旦结束步骤S102的处理,则拍摄被拍摄对象501(步骤S103)。一旦由控制部210拍摄被拍摄对象,则得到2张平行同位图像(配对图像)。获取到的配对图像例如存储在图像存储器230中。另外,在配对图像中,设由第一拍摄部100A拍摄得到的图像为图像A,设由第二拍摄部100B拍摄得到图像为图像B。
控制部210一旦结束步骤S103的处理,则基于存储在图像存储器230中的配对图像,执行三维模型生成处理(步骤S104)。
这里,参照图5所示的流程图,说明三维模型生成处理。另外,三维模型生成处理是基于一组配对图像生成三维模型的处理。即,三维模型生成处理能够认为是生成从一个照相机位置看到的三维模型的处理。
首先,控制部210提取特征点的候补(步骤S201)。例如,控制部210针对图像A进行相角(corner)检测。在相角检测中,将Harris(ハリス)等相角特征量成为规定阈值以上并且在规定半径内成为最大的点选择作为相角点。因此,将被拍摄对象的前端等、相对其他点具有特征的点提取作为特征点。
控制部210在完成步骤S201的处理后,执行立体匹配(stereo matching),从图像B中寻找与图像A的特征点相对应的点(对应点)(步骤S202)。具体来说,控制部210通过模板匹配(template matching)将类似度为规定阈值以上且为最大(相异度为规定阈值以下且为最小)的点设为对应点。在模板匹配中,例如能够利用残差绝对值和(SAD)、残差平方和(SSD)、标准化相关(NCC或ZNCC)、方向符号相关等各种已知的方法。
控制部210在完成步骤S202的处理后,根据在步骤S202中找到的对应点的视差信息、第一拍摄部100A以及第二拍摄部100B的视角、基线长等,计算特征点的位置信息(步骤S203)。生成的特征点的位置信息例如存储在存储部250中。
控制部210在完成步骤S203的处理后,基于在步骤S203中计算出的特征点的位置信息执行德洛内(Delaunay:ドロネ一)三角形分割,执行多边形化(步骤S204)。生成的多边形信息例如存储在存储部250中。控制部210在完成步骤S204的处理后,结束三维模型生成处理。
另外,如果特征点的数目较少,则被拍摄对象的形状信息缺失,不能得到被拍摄对象的忠实的三维模型。另一方面,为了得到更多的特征点,如果使提取特征点的候补的条件和立体匹配的条件放松,则或者在特征点的候补中包含不适当的点,或者在立体匹配中发生误对应,位置精度降低,即建模精度恶化。由此,为了能够一边防止建模精度的恶化,一边得到被拍摄对象的忠实的三维模型,必须提取适当数目的特征点。
此外,三维模型(三维信息)例如使用以下三个式子根据配对图像来求取。根据配对图像来获取三维信息的方法的详细情况例如在数字图像处理、2006年3月1日发行、CG-ARTS协会中公开。
X=(b*u)/(u-u′)
Y=(b*v)/(u-u′)
Z=(b*f)/(u-u′)
这里,b是光学装置110A和110B之间的距离,称为基线长。(u,v)表示通过光学装置110A拍摄到的被拍摄对象的图像上的坐标,(u’,v’)表示通过光学装置110B拍摄到的被拍摄对象的图像上的坐标。上述三个式子中的(u-u’)是由光学装置110A和光学装置110B在拍摄相同的被拍摄对象时得到的两个图像上的被拍摄对象501的坐标之差,称为视差。f表示光学装置110A的焦点距离。如已经说明的,光学装置110A和110B是相同的结构,焦点距离f也相等。
控制部210在完成三维模型生成处理(步骤S104)后,判别拍摄次数计数器N是否为1(步骤S105)。这里,拍摄次数计数器N为1表示最初的拍摄不久之后。控制部210如果判别为拍摄次数计数器N为1(步骤S105:是),则将在步骤S104中生成的三维模型设定为被合成三维模型(步骤S106)。
另一方面,控制部210如果判别为拍摄次数计数器N不为1,即判别为不是最初的拍摄不久之后(步骤S105:否),则执行照相机位置推定处理(步骤S107)。参照图6的流程图说明照相机位置推定处理。另外,在照相机位置推定处理中,求取本次拍摄时的立体照相机1000相对最初拍摄时的立体照相机1000的位置的相对位置。另外,求取该相对位置与求取将通过本次拍摄获得的三维模型的坐标变换为通过最初的拍摄得到的三维模型的坐标系的坐标的坐标变换参数相同。
首先,控制部210从被合成三维模型以及合成三维模型双方获取三维空间上的特征点(步骤S301)。例如,控制部210选择被合成三维模型(或合成三维模型)的特征点中、相角强度高且立体匹配的一致度高的特征点。或者,控制部210也可以在考虑了配对图像间外延(epi:ェピ)线约束的基础上,执行基于SURF(Speeded-Up Robust Features:快速鲁棒特征)特征量的匹配,由此来获取特征点。
控制部210在完成步骤S301的处理后,从被合成三维模型中选择3个特征点(步骤S302)。这里,被选择的3个特征点选择满足以下所示的(A)以及(B)条件的特征点。(A)条件是以3个特征点为顶点的三角形的面积不过于小,(B)条件是以3个特征点为顶点的三角形不具有极端锐角的角。例如,控制部210选择满足上述(A)以及(B)条件的3个特征点之前,随机选择3个特征点。
控制部210在完成步骤S302的处理后,从以合成三维模型具有的3个特征点为3个顶点的三角形中、搜索与以在步骤S302中选择出的3个特征点为3个顶点的三角形全等的三角形(步骤S303)。例如,在3边的长度大致相等的情况下,判别为2个三角形全等。步骤S303的处理可以被认为是如下处理,即,在合成三维模型的特征点中、搜索被认为是与在步骤S302中从被合成三维模型中选择出的3个特征点对应的3个特征点。另外,控制部210也可以根据特征点和周围的颜色信息、或SURF特征量等来预先缩小三角形的候补,从而高速化搜索。表示搜索到的三角形的信息(典型的,表示构成该三角形的顶点的3个特征点的三维空间上的坐标的信息)例如存储在存储部250中。在全等的三角形为多个的情况下,表示所有的三角形的信息存储在存储部250中。
控制部210在完成步骤S303的处理后,判别在步骤S303中是否搜索到了至少1个全等的三角形(步骤S304)。另外,在搜索到的全等的三角形过多的情况下,也可以看作是没有搜索到全等的三角形。
控制部210如果判别为至少搜索到一个全等的三角形(步骤S304:是),则选择一个全等的三角形(步骤S305)。另一方面,控制部210如果判别为连一个全等的三角形都没有搜索到(步骤S304:否),则返回处理到步骤S302。
控制部210在完成步骤S305的处理后,执行坐标变换参数获取处理(步骤S306)。参照图7所示的流程图,详细说明坐标变换参数获取处理。另外,坐标变换参数获取处理是获取用于将合成三维模型的坐标变换为被合成三维模型的坐标系的坐标的、坐标变换参数的处理。另外,坐标变换参数获取处理在每次将在步骤S302中选择出的3个特征点、和在步骤S305中选择出的全等的三角形进行组合时执行。这里,坐标变换参数是对于在式(1)以及(2)中给出的对应点配对(特征点配对、顶点配对)求取满足式(3)的旋转矩阵R和移动向量t的处理。式(1)以及(2)的p和p’具有从各个照相机视线看到的三维空间上的坐标。另外,N是对应点配对的配对数。
pi=Rp′i+t (3)
首先,控制部210如式(4)以及(5)所示,设定对应点配对(步骤S401)。这里,c1和c2是对应的列向量成为对应点的坐标的矩阵。根据该矩阵直接求取旋转矩阵R和移动向量t是困难的。但是,由于p和p’的分布几乎相等,所以如果从对准对应点的重心开始旋转,则能够使对应点重合。利用该事实,求取旋转矩阵R和移动向量t。
c1=[p1 p2 … pN] (4)
c2=[p′1 p′2 … p′N] (5)
即,控制部210使用式(6)以及(7)求取特征点的重心即重心t1以及t2(步骤S402)。
下面,控制部210使用式(8)以及(9),求取特征点的分布即分布d1以及d2(步骤S403)。这里,如上述,在分布d1和分布d2之间存在式(10)的关系。
d1=[(p1-t1) (p2-t1) … (pN-t1)] (8)
d2=[(p′1-t2) (p′2-t2) … (p′N-t2)] (9)
d1=Rd2 (10)
下面,控制部210使用式(11)以及(12)执行分布d1以及d2的奇异值分解(singular value decomposition)(步骤S404)。设奇异值按降序排列。这里,记号*表示复共轭转置(complex conjugate transpose)。
接着,控制部210判别分布d1以及d2是否为二维以上(步骤S405)。奇异值与分布的广度状态对应。因此,使用最大的奇异值和其以外的奇异值之间的比率、奇异值的大小可以进行判定。例如,在第二大的奇异值为规定值以上且与最大奇异值之间的比率处于规定范围内的情况下,分布被判定为二维以上。
控制部210如果判别为分布d1以及d2不是二维以上(步骤S405:否),则不能求取旋转矩阵R,所以执行错误处理(步骤S413),结束坐标变换参数获取处理。
另一方面,控制部210如果判别为分布d1以及d2为二维以上(步骤S405:是),则求取关联函数(関連付け,correlation)K(步骤S406)。根据式(10)~(12)能够如式(13)这样来表示旋转矩阵R。这里,如果关联函数K如式(14)这样定义,则旋转矩阵R如式(15)所示。
这里,固有向量U相当于分布d1以及分布d2的固有向量,通过关联函数K来建立关联。关联函数K的要素在固有向量对应的情况下给予1或-1,在固有向量不对应的情况下给予0。于是,由于分布d1以及d2相等,所以奇异值也相等。即,S也相等。实际上,由于分布d1和分布d2中包含误差,所以对误差进行化整(round off)。如果考虑以上情况,则关联函数K如式(16)所示。即,控制部210在步骤S406中,计算式(16)。
K=round((V1 *的1~3行)(V2的1~3列)) (16)
控制部210在完成步骤S406的处理后,计算旋转矩阵R(步骤S407)。具体来说,控制部210基于式(15)和式(16),计算旋转矩阵R。表示通过计算得到的旋转矩阵R的信息例如存储在存储部250中。
控制部210在完成步骤S407的处理后,判别分布d1以及d2是否为二维(步骤S408)。例如,在最小的奇异值为规定值以下或与最大奇异值之间的比率处于规定范围外的情况下,分布d1以及d2被判别为是二维。
控制部210如果判别为分布d1以及d2不是二维(步骤S408:否),则计算移动向量t(步骤S414)。这里,分布d1以及d2不是二维,表示分布d1以及d2是三维。这里,p和p’满足式(17)的关系。如果将式(17)进行变形,则如式(18)所示。根据式(18)和式(3)之间的对应,移动向量t如式(19)所示。
(pi-t1)=R(p′i-t2) (17)
pi=Rp′i+(t1-Rt2) (18)
t=t1-Rt2 (19)
另一方面,控制部210如果判别为分布d1以及d2是二维(步骤S408:是),则验证旋转矩阵R,判别旋转矩阵R是否正常(步骤S409)。分布为二维的情况下,由于奇异值的一个为0,所以如由式(14)所知的那样,关联函数不定。即,K的第3行第3列的要素虽然是1或-1的某一个,但是式(16)中不保证分配正的符号。因此,必须进行旋转矩阵R的验证。验证是旋转矩阵R的外积关系的确认或基于式(10)的验算等。这里所说的外积关系的确认是旋转矩阵R的列向量(以及行向量)满足坐标系的制约的确认。在右手坐标系中,第1列向量和第2列向量的外积等于第3列向量。
控制部210如果判别旋转矩阵R正常(步骤S409:是),则计算移动向量t(步骤S414),结束坐标变换参数获取处理。
另一方面,控制部210如果判别为旋转矩阵R不正常(步骤S409:否),则修正关联函数K(步骤S410)。这里,将关联函数K的第3行第3列的要素的符号反转。
控制部210在完成步骤S410的处理后,使用修正后的关联函数K计算旋转矩阵R(步骤S411)。
控制部210在完成步骤S411的处理后,为了有保证,再次判别旋转矩阵R是否正常(步骤S412)。
控制部210如果判别为旋转矩阵R正常(步骤S412:是),则计算移动向量t(步骤S414)。另外,控制部210在完成步骤S414的处理后,结束坐标变换参数获取处理。
另一方面,控制部210如果判别为旋转矩阵R不正常(步骤S412:否),则执行错误处理(步骤S413),结束坐标变换参数获取处理。
控制部210在结束坐标变换参数获取处理(步骤S306)后,使用获取到的坐标变换参数来调整(合ゎせる)坐标系(步骤S307)。具体来说,使用式(3),将合成三维模型的特征点的坐标变换为被合成三维模型的坐标系的坐标。
控制部210在结束步骤S307的处理后,存储特征点配对(步骤S308)。这里,特征点配对由被合成三维模型的特征点、和坐标变换后的合成三维模型的特征点中与该被合成三维模型的特征点之间的距离为规定值以下且最邻近的特征点构成。这里,特征点配对的数目越多,就越推定步骤S302中的3个特征点的选择、以及步骤S305中的全等三角形的选择是适当的。另外,特征点配对与坐标变换参数的获取条件(步骤S302中的3个特征点的选择、以及步骤S305中的全等三角形的选择)一起被存储在存储部250等中。
控制部210在结束步骤S308的处理后,判别是否在步骤S305中选择了在步骤S303中搜索到的所有全等三角形(步骤S309)。
控制部210如果判别为没有选择任一个全等三角形(步骤S309:否),则返回处理至步骤S305。
另一方面,控制部210如果判别为选择了所有的全等三角形(步骤S309:是),则判别是否满足结束条件。在本实施方式中,结束条件是针对规定个数以上的条件获取了坐标变换参数。
控制部210如果判别为没有满足结束条件(步骤S310:否),则返回处理至步骤S302。
另一方面,控制部210如果判别为满足结束条件(步骤S310:是),则确定最佳坐标变换参数(步骤S311)。具体来说,确定获取了最多的特征点配对的坐标变换参数。换句话说,确定步骤S302中的3个特征点的选择、以及步骤S305中的全等三角形的选择为最佳的坐标变换参数。另外,坐标变换参数是旋转矩阵R和移动向量t。
控制部210在结束步骤S311的处理后,结束照相机位置推定处理。
控制部210在结束照相机位置推定处理(步骤S107)后,执行三维模型合成处理(步骤S108)。参照图8的流程图说明三维模型合成处理。
首先,控制部210使用坐标变换参数,对所有的三维模型进行重叠(重ねる)(步骤S501)。例如,在第2次拍摄的情况下,在基于第1次拍摄到的配对图像而生成的被合成三维模型中,重叠基于第2次拍摄到的配对图像而生成的坐标变换后的合成三维模型。此外,在第3次拍摄的情况下,在基于第1次拍摄到的配对图像而生成的被合成三维模型中,重叠基于第2次拍摄到的配对图像而生成的坐标变换后的合成三维模型,进一步地,重叠基于第3次拍摄到的配对图像而生成的坐标变换后的合成三维模型。
控制部210在完成步骤S501的处理后,根据各特征点重叠情况去除可靠性较低的特征点(步骤S502)。例如,根据相对于某三维模型的关注特征点的、其他三维模型的最邻近的特征点的分布,计算该关注特征点的马氏距离(Mahalanobis距离)。在该马氏距离为规定值以上的情况下,判别为该关注特征点的可靠性较低。另外,最邻近的特征点中可以不包含距关注特征点的距离为规定值以上的特征点。此外,在最邻近的特征点的数目较少的情况下,可以认为可靠性较低。另外,实际上去除特征点的处理是在针对所有的特征点判别是否去除后执行的。
控制部210在完成步骤S502的处理后,合并被认为是相同的特征点(步骤S503)。例如,将规定距离以内的特征点全部作为属于表示相同的特征点的组中的特征点来处理,将这些特征点的重心作为新的特征点。
控制部210在完成步骤S503的处理后,重新构成多边形网孔(polygon mesh)(步骤S504)。即,基于在步骤S503中求出的新的特征点,生成多边形(polygon)。控制部210在完成步骤S504的处理后,结束三维模型合成处理。
另外,表示在三维模型生成处理(步骤S104)中生成的三维模型的信息(典型地,特征点的坐标信息),在按压快门按钮331期间,保持全拍摄部分(全视线部分),基本不变更。即,在三维模型合成处理(步骤S108)中,是基于全拍摄部分的三维模型另外作成显示用或保存用的高精细的三维模型的处理。
控制部210在完成步骤S108的处理后,将拍摄次数计数器N的值增加1(步骤S109)。
控制部210在完成步骤S106或步骤S109的处理后,显示合成后的三维模型(步骤S110)。具体来说,控制部210将在三维模型合成处理(步骤S108)中获取到的三维模型显示在显示部310中。由此,用户能够知道在当前为止的拍摄中生成了何种程度正确的三维模型。
控制部210在结束步骤S110的处理后,判别快门按钮331是否被放开(步骤S111)。控制部210如果判别为快门按钮331被放开(步骤S111:是),则在外部存储部260等中保存合成后的三维模型(步骤S112),完成三维建模处理。另一方面,控制部210如果判别为快门按钮331没有被放开(步骤S111:否),则返回处理至步骤S103。
根据本实施方式的立体照相机1000,由于合成多个三维模型,所以在抑制形状信息缺失的同时,能够进行高精度的三维建模。此外,根据本实施方式的立体照相机1000,去除被认为可靠性较低的特征点,进一步合并被认为相同的特征点,从而进行三维建模。由此,能够进行适当的三维建模。进一步地,本实施方式的立体照相机1000由于不是同时从各个角度拍摄被拍摄对象的结构,所以能够小型化。此外,用户通过看到显示在显示部310中的多边形,能够知道生成了何种程度正确的三维模型。因此,用户能够判断是否充分进行了三维建模,或者为了充分的三维建模需要从什么样的角度进行拍摄等。
(变形例)
本发明不限于上述实施方式中公开的情况。
在上述实施方式中,在步骤S310中,示出了将结束条件设为在规定个数以上的条件中获取坐标变换参数的例子。但是,结束条件不限于该例子。例如,能够将结束条件设为获取到了特征点配对数目为规定个数以上的坐标变换参数。
在上述实施方式中,在步骤S311中,示出了确定获取了特征点配对最多的坐标变换参数的例子。但是,也可以确定特征点配对的平均距离最小的坐标变换参数。
在上述实施方式中,示出了使合成三维模型的坐标与被合成三维模型的坐标系的坐标一致的例子。但是,也可以使被合成三维模型的坐标与合成三维模型的坐标系的坐标一致。
在上述实施方式中,示出了从被合成三维模型中选择3个特征点,从合成三维模型中选择与该3个特征点相对应的3个特征点的例子。但是,也可以从合成三维模型中选择3个特征点,从被合成三维模型中选择与该3个特征点相对应的3个特征点。
本发明能够应用于不具有拍摄装置的设备(例如,个人计算机)。该情况下,基于预先准备的多个配对图像,执行三维模型的合成。另外,也可以将多个配对图像中最佳拍摄到被拍摄对象的配对图像分配为作为基准的配对图像(关键帧(key frame))。
另外,本发明的三维建模装置不依赖于专用的系统,使用通常的计算机系统也能够实现。例如,在计算机中,将用于执行上述动作的程序存储在软盘、CD-ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)等计算机可读取的存储介质中并进行分布,通过将其安装在计算机系统中,可以构成执行上述处理的三维建模装置。
进一步地,可以在因特网上的服务器装置具有的盘装置等中存储程序,例如使其在载波中叠加,在计算机中下载等。
Claims (7)
1.一种三维建模装置,包括:
接受单元,其接受多个图像的组的输入,其中,该多个图像通过如下方式得到,即,使用通过一次拍摄来获取一组图像的立体照相机,从不同的角度对被拍摄对象拍摄多次;
生成单元,其基于上述接受到的多个图像的组中的每一个组,生成上述被拍摄对象的多个三维模型;
选择单元,其从上述生成的多个三维模型之中,选择被合成三维模型和合成为该被合成三维模型的合成三维模型;
提取单元,其从上述选择出的被合成三维模型中提取多个第一特征点,并且从上述选择出的合成三维模型中提取多个第二特征点;
获取单元,其基于上述提取出的多个第一特征点和多个第二特征点,获取将该合成三维模型的坐标变换为该被合成三维模型的坐标系的坐标的坐标变换参数;
变换单元,其使用上述获取到的坐标变换参数,将上述合成三维模型的坐标变换为上述被合成三维模型的坐标系的坐标;以及
合成单元,其将上述坐标变换后的合成三维模型合成为上述被合成三维模型。
2.根据权利要求1所述的三维建模装置,其中,
上述获取单元,从上述提取出的多个第一特征点之中选择三个第一特征点,从上述提取出的多个第二特征点之中选择三个第二特征点,获取使该选择出的三个第二特征点的坐标与该选择出的三个第一特征点的坐标一致的坐标变换参数,其中,该选择出的三个第二特征点构成与以该选择出的三个第一特征点作为三个顶点的三角形全等的三角形的三个顶点。
3.根据权利要求2所述的三维建模装置,其中,
上述获取单元执行多次从上述提取出的多个第一特征点之中随机选择三个第一特征点并获取坐标变换参数的处理,并且从通过该多次处理获取到的多个坐标变换参数之中选择一个坐标变换参数。
4.根据权利要求3所述的三维建模装置,其中,
上述获取单元从上述多个坐标变换参数之中,选择使上述变换单元进行的坐标变换后的上述多个第二特征点的坐标与上述多个第一特征点的坐标最吻合的一个坐标变换参数。
5.根据权利要求1所述的三维建模装置,其中,
上述选择单元从上述生成的多个三维模型之中,选择上述被合成三维模型以外的所有的三维模型作为上述合成三维模型,
上述获取单元针对上述选择出的、上述被合成三维模型以外的所有的三维模型,获取上述坐标变换参数,
上述变换单元针对上述选择出的、上述被合成三维模型以外的所有的三维模型,执行上述坐标变换,
上述合成单元针对上述选择出的、上述被合成三维模型以外的所有的三维模型,执行上述合成。
6.根据权利要求5所述的三维建模装置,其中,
上述合成单元按照使对应的特征点彼此之间属于相同的组的方式将上述多个第一特征点和上述多个第二特征点分组为多个组,针对该多个组中的每一个组求取重心,将求出的多个重心作为新的多个特征点,生成新的三维模型。
7.一种三维建模方法,包括:
接受步骤,接受多个图像的组的输入,其中,该多个图像通过如下方式得到,即,使用通过一次拍摄来获取一组图像的立体照相机,从不同的角度对被拍摄对象拍摄多次;
生成步骤,基于上述接受到的多个图像的组中的每一个组,生成上述被拍摄对象的多个三维模型;
选择步骤,从上述生成的多个三维模型之中,选择被合成三维模型和合成为该被合成三维模型的合成三维模型;
提取步骤,从上述选择出的被合成三维模型中提取多个第一特征点,并且从上述选择出的合成三维模型中提取多个第二特征点;
获取步骤,基于上述提取出的多个第一特征点和多个第二特征点,获取将该合成三维模型的坐标变换为该被合成三维模型的坐标系的坐标的坐标变换参数;
变换步骤,使用上述获取到的坐标变换参数,将上述合成三维模型的坐标变换为上述被合成三维模型的坐标系的坐标;以及
合成步骤,将上述坐标变换后的合成三维模型合成为上述被合成三维模型。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010074486A JP5024410B2 (ja) | 2010-03-29 | 2010-03-29 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
JP2010-074486 | 2010-03-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102208116A true CN102208116A (zh) | 2011-10-05 |
CN102208116B CN102208116B (zh) | 2013-04-10 |
Family
ID=44655968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011100804926A Active CN102208116B (zh) | 2010-03-29 | 2011-03-29 | 三维建模装置以及三维建模方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8482599B2 (zh) |
JP (1) | JP5024410B2 (zh) |
CN (1) | CN102208116B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104396231A (zh) * | 2012-06-20 | 2015-03-04 | 奥林巴斯株式会社 | 图像处理装置和图像处理方法 |
CN104506837A (zh) * | 2014-12-04 | 2015-04-08 | 北京邮电大学 | 一种裸眼三维立体显示的深度控制方法 |
WO2016145625A1 (en) * | 2015-03-18 | 2016-09-22 | Xiaoou Tang | 3d hand pose recovery from binocular imaging system |
CN106131535A (zh) * | 2016-07-29 | 2016-11-16 | 传线网络科技(上海)有限公司 | 视频采集方法及装置、视频生成方法及装置 |
CN106651826A (zh) * | 2015-10-30 | 2017-05-10 | 财团法人工业技术研究院 | 物体的扫描方法 |
WO2017201649A1 (zh) * | 2016-05-23 | 2017-11-30 | 达闼科技(北京)有限公司 | 一种三维模型建立方法和装置 |
CN107784688A (zh) * | 2017-10-17 | 2018-03-09 | 上海潮旅信息科技股份有限公司 | 一种基于图片的三维建模方法 |
CN108347505A (zh) * | 2018-02-07 | 2018-07-31 | 盎锐(上海)信息科技有限公司 | 具有3d成像功能的移动终端及影像生成方法 |
CN108961394A (zh) * | 2018-06-29 | 2018-12-07 | 河南聚合科技有限公司 | 一种基于数字化双胞胎技术的虚实结合产品研发平台 |
WO2019047245A1 (zh) * | 2017-09-11 | 2019-03-14 | 深圳市柔宇科技有限公司 | 图像处理方法、电子装置和计算机可读存储介质 |
CN110036644A (zh) * | 2016-11-30 | 2019-07-19 | 松下电器(美国)知识产权公司 | 三维模型分发方法以及三维模型分发装置 |
CN110288707A (zh) * | 2019-07-04 | 2019-09-27 | 北京伟杰东博信息科技有限公司 | 一种三维动态建模的方法及其系统 |
CN114554108A (zh) * | 2022-02-24 | 2022-05-27 | 北京有竹居网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN116452756A (zh) * | 2023-06-15 | 2023-07-18 | 子亥科技(成都)有限公司 | 三维场景局部自动化生成方法、装置、设备及存储介质 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5127787B2 (ja) * | 2009-07-30 | 2013-01-23 | 富士フイルム株式会社 | 複眼撮影装置及びその制御方法 |
JP5035372B2 (ja) * | 2010-03-17 | 2012-09-26 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
JP2013137760A (ja) * | 2011-12-16 | 2013-07-11 | Cognex Corp | 複数のカメラに対する複数部品コレスポンダ |
US9438891B2 (en) * | 2014-03-13 | 2016-09-06 | Seiko Epson Corporation | Holocam systems and methods |
CN104822022A (zh) * | 2015-04-18 | 2015-08-05 | 雷乔 | 一种多角度图像获取系统及其实现方法 |
EP3174007A1 (en) | 2015-11-30 | 2017-05-31 | Delphi Technologies, Inc. | Method for calibrating the orientation of a camera mounted to a vehicle |
EP3173979A1 (en) * | 2015-11-30 | 2017-05-31 | Delphi Technologies, Inc. | Method for identification of characteristic points of a calibration pattern within a set of candidate points in an image of the calibration pattern |
US10552981B2 (en) * | 2017-01-16 | 2020-02-04 | Shapetrace Inc. | Depth camera 3D pose estimation using 3D CAD models |
EP3534333A1 (en) | 2018-02-28 | 2019-09-04 | Aptiv Technologies Limited | Method for calibrating the position and orientation of a camera relative to a calibration pattern |
EP3534334B1 (en) | 2018-02-28 | 2022-04-13 | Aptiv Technologies Limited | Method for identification of characteristic points of a calibration pattern within a set of candidate points derived from an image of the calibration pattern |
WO2020133468A1 (en) * | 2018-12-29 | 2020-07-02 | Zhejiang Dahua Technology Co., Ltd. | Methods and systems for camera calibration |
WO2024135335A1 (ja) * | 2022-12-23 | 2024-06-27 | ソニーグループ株式会社 | 情報処理装置および方法 |
WO2024135337A1 (ja) * | 2022-12-23 | 2024-06-27 | ソニーグループ株式会社 | 情報処理装置および方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060045329A1 (en) * | 2004-08-26 | 2006-03-02 | Jones Graham R | Image processing |
KR100926520B1 (ko) * | 2006-12-05 | 2009-11-12 | 한국전자통신연구원 | 객체/배경 분리 및 영상분할을 이용한 양안/다시점스테레오 정합 장치 및 그 방법 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2953154B2 (ja) * | 1991-11-29 | 1999-09-27 | 日本電気株式会社 | 形状合成方法 |
JPH05272934A (ja) * | 1992-03-27 | 1993-10-22 | Kobe Steel Ltd | 形状計測方法 |
US6463176B1 (en) * | 1994-02-02 | 2002-10-08 | Canon Kabushiki Kaisha | Image recognition/reproduction method and apparatus |
JP3740865B2 (ja) | 1998-10-08 | 2006-02-01 | コニカミノルタホールディングス株式会社 | 多視点3次元データの合成方法および記録媒体 |
US6580821B1 (en) * | 2000-03-30 | 2003-06-17 | Nec Corporation | Method for computing the location and orientation of an object in three dimensional space |
US6774869B2 (en) * | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
US7019748B2 (en) | 2001-08-15 | 2006-03-28 | Mitsubishi Electric Research Laboratories, Inc. | Simulating motion of static objects in scenes |
GB0205000D0 (en) | 2002-03-04 | 2002-04-17 | Isis Innovation | Unsupervised data segmentation |
WO2006084385A1 (en) | 2005-02-11 | 2006-08-17 | Macdonald Dettwiler & Associates Inc. | 3d imaging system |
US20070064098A1 (en) * | 2005-09-19 | 2007-03-22 | Available For Licensing | Systems and methods for 3D rendering |
JP4743771B2 (ja) * | 2006-05-08 | 2011-08-10 | コニカミノルタセンシング株式会社 | 断面データ取得方法、システム、及び断面検査方法 |
JP4392507B2 (ja) * | 2006-11-08 | 2010-01-06 | 国立大学法人東京工業大学 | 3次元サーフェス生成方法 |
KR100975512B1 (ko) * | 2007-03-09 | 2010-08-11 | 오므론 가부시키가이샤 | 인식 처리 방법 및 이 방법을 이용한 화상 처리 장치 |
DE602007003849D1 (de) * | 2007-10-11 | 2010-01-28 | Mvtec Software Gmbh | System und Verfahren zur 3D-Objekterkennung |
JP5035372B2 (ja) | 2010-03-17 | 2012-09-26 | カシオ計算機株式会社 | 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム |
-
2010
- 2010-03-29 JP JP2010074486A patent/JP5024410B2/ja active Active
-
2011
- 2011-03-28 US US13/073,155 patent/US8482599B2/en active Active
- 2011-03-29 CN CN2011100804926A patent/CN102208116B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060045329A1 (en) * | 2004-08-26 | 2006-03-02 | Jones Graham R | Image processing |
KR100926520B1 (ko) * | 2006-12-05 | 2009-11-12 | 한국전자통신연구원 | 객체/배경 분리 및 영상분할을 이용한 양안/다시점스테레오 정합 장치 및 그 방법 |
Non-Patent Citations (1)
Title |
---|
吴琼玉: "基于图像的视图合成技术研究", 《中国博士学位论文全文数据库》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9760999B2 (en) | 2012-06-20 | 2017-09-12 | Olympus Corporation | Image processing apparatus, imaging apparatus, and image processing method |
US10366504B2 (en) | 2012-06-20 | 2019-07-30 | Olympus Corporation | Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images |
CN104396231A (zh) * | 2012-06-20 | 2015-03-04 | 奥林巴斯株式会社 | 图像处理装置和图像处理方法 |
CN104396231B (zh) * | 2012-06-20 | 2018-05-01 | 奥林巴斯株式会社 | 图像处理装置和图像处理方法 |
CN104506837A (zh) * | 2014-12-04 | 2015-04-08 | 北京邮电大学 | 一种裸眼三维立体显示的深度控制方法 |
CN108140243A (zh) * | 2015-03-18 | 2018-06-08 | 北京市商汤科技开发有限公司 | 从双目成像系统的3d手部姿势恢复 |
WO2016145625A1 (en) * | 2015-03-18 | 2016-09-22 | Xiaoou Tang | 3d hand pose recovery from binocular imaging system |
CN108140243B (zh) * | 2015-03-18 | 2022-01-11 | 北京市商汤科技开发有限公司 | 用于构建3d手模型的方法、设备和系统 |
CN106651826A (zh) * | 2015-10-30 | 2017-05-10 | 财团法人工业技术研究院 | 物体的扫描方法 |
WO2017201649A1 (zh) * | 2016-05-23 | 2017-11-30 | 达闼科技(北京)有限公司 | 一种三维模型建立方法和装置 |
CN106131535A (zh) * | 2016-07-29 | 2016-11-16 | 传线网络科技(上海)有限公司 | 视频采集方法及装置、视频生成方法及装置 |
CN110036644A (zh) * | 2016-11-30 | 2019-07-19 | 松下电器(美国)知识产权公司 | 三维模型分发方法以及三维模型分发装置 |
WO2019047245A1 (zh) * | 2017-09-11 | 2019-03-14 | 深圳市柔宇科技有限公司 | 图像处理方法、电子装置和计算机可读存储介质 |
CN107784688A (zh) * | 2017-10-17 | 2018-03-09 | 上海潮旅信息科技股份有限公司 | 一种基于图片的三维建模方法 |
CN108347505A (zh) * | 2018-02-07 | 2018-07-31 | 盎锐(上海)信息科技有限公司 | 具有3d成像功能的移动终端及影像生成方法 |
CN108347505B (zh) * | 2018-02-07 | 2020-11-06 | 盎锐(上海)信息科技有限公司 | 具有3d成像功能的移动终端及影像生成方法 |
CN108961394A (zh) * | 2018-06-29 | 2018-12-07 | 河南聚合科技有限公司 | 一种基于数字化双胞胎技术的虚实结合产品研发平台 |
CN110288707A (zh) * | 2019-07-04 | 2019-09-27 | 北京伟杰东博信息科技有限公司 | 一种三维动态建模的方法及其系统 |
CN110288707B (zh) * | 2019-07-04 | 2021-05-25 | 中船重工奥蓝托无锡软件技术有限公司 | 一种三维动态建模的方法及其系统 |
CN114554108A (zh) * | 2022-02-24 | 2022-05-27 | 北京有竹居网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN114554108B (zh) * | 2022-02-24 | 2023-10-27 | 北京有竹居网络技术有限公司 | 图像处理方法、装置和电子设备 |
CN116452756A (zh) * | 2023-06-15 | 2023-07-18 | 子亥科技(成都)有限公司 | 三维场景局部自动化生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2011209815A (ja) | 2011-10-20 |
US8482599B2 (en) | 2013-07-09 |
CN102208116B (zh) | 2013-04-10 |
JP5024410B2 (ja) | 2012-09-12 |
US20110234759A1 (en) | 2011-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102208116B (zh) | 三维建模装置以及三维建模方法 | |
CN102737406B (zh) | 三维建模装置及方法 | |
CN102236911B (zh) | 三维建模装置和三维建模方法 | |
CN102278946B (zh) | 摄像装置以及长度测量方法 | |
CN102542604A (zh) | Ar处理装置和ar处理方法 | |
TWI451750B (zh) | 攝影裝置、電腦可讀取記錄媒體及控制方法 | |
CN107113415A (zh) | 用于多技术深度图获取和融合的方法和设备 | |
TW201709718A (zh) | 在使用者裝置上顯示光場為基影像之方法及裝置,及對應之電腦程式產品 | |
CN105654547B (zh) | 三维重建方法 | |
CN104641624B (zh) | 图像处理装置、摄像装置及图像处理方法 | |
CN104205827B (zh) | 图像处理装置及方法、以及摄像装置 | |
CA2809301A1 (en) | Product imaging device, product imaging method, image conversion device, image processing device, image processing system, program, and information recording medium | |
CN104782110A (zh) | 图像处理装置、摄像装置、程序及图像处理方法 | |
CN104394308A (zh) | 双摄像头以不同视角拍照的方法和终端 | |
JP2021196951A (ja) | 画像処理装置、画像処理方法、プログラム、学習済みモデルの製造方法、および画像処理システム | |
CN102196166A (zh) | 摄像装置及显示方法 | |
US8934730B2 (en) | Image editing method and associated method for establishing blur parameter | |
Nayak et al. | An improved algorithm to estimate the fractal dimension of gray scale images | |
CN104272732A (zh) | 图像处理装置、方法及摄像装置 | |
US9948909B2 (en) | Apparatus and a method for modifying colors of a focal stack of a scene according to a color palette | |
CN111292380B (zh) | 图像处理方法及装置 | |
CN107659772A (zh) | 3d图像生成方法、装置及电子设备 | |
CN111754587A (zh) | 一种基于单焦距聚焦拍摄图像的变焦镜头快速标定方法 | |
CN108174179B (zh) | 用于对成像设备进行建模的方法和计算机可读存储介质 | |
CN115601449A (zh) | 标定方法、环视图像生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |