CN102316254A - 具备生成三维图像的功能的摄影装置及三维图像生成方法 - Google Patents

具备生成三维图像的功能的摄影装置及三维图像生成方法 Download PDF

Info

Publication number
CN102316254A
CN102316254A CN2011101805930A CN201110180593A CN102316254A CN 102316254 A CN102316254 A CN 102316254A CN 2011101805930 A CN2011101805930 A CN 2011101805930A CN 201110180593 A CN201110180593 A CN 201110180593A CN 102316254 A CN102316254 A CN 102316254A
Authority
CN
China
Prior art keywords
noise
threedimensional model
photography
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011101805930A
Other languages
English (en)
Other versions
CN102316254B (zh
Inventor
中岛光康
樱井敬一
山谷崇史
吉滨由纪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN102316254A publication Critical patent/CN102316254A/zh
Application granted granted Critical
Publication of CN102316254B publication Critical patent/CN102316254B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/213Circuitry for suppressing or minimising impulsive noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种具备生成三维图像的功能的摄影装置及三维图像生成方法。基于三维模型生成三维图像的摄影装置,使用被摄体的摄影图像生成三维模型。摄影装置,在与构成三维模型的点相对应的对应点,不构成使用从不同的摄影位置摄影到的摄影图像而生成的三维模型的情况下,判定该点为噪声,并且将被判定为噪声的该点从三维模型中去除。摄影装置,基于去除了被判定为噪声的该点的三维模型,生成三维图像。

Description

具备生成三维图像的功能的摄影装置及三维图像生成方法
本申请主张以2010年6月29日申请的日本专利申请特愿2010-147924为基础的优先权,且本申请援引该基础申请的全部内容。
技术领域
本发明涉及一种具备生成三维图像的功能的摄影装置及三维图像生成方法。
背景技术
在非专利文献1(佐藤 洋一 著,《数字图像处理》,CG-ARTS协会出版,2009年11月2日发行,第251页~第262页)中,公开了一种使2个相机固定成光轴平行且图像坐标系的坐标轴在同一直线上为同一方向的配置(即,平行立体)的技术。另外,还公开了一种基于由固定的2个相机摄影到的图像中的摄影对象物(即,被摄体)的视角的差异(即,视差)和相机间的距离(即,基线长),生成对象物的三维图像的技术。
在这里,在非专利文献1所涉及的技术中,存在因为无法去除所生成的三维图像中包含的噪声,而不能高精度地生成所摄影到的对象物的三维图像的问题。
发明内容
本发明的目的在于提供一种能够高精度地生成被摄体的三维图像的摄影装置及三维图像生成方法。
为了达成上述目的,本发明的第1观点所涉及的摄影装置具备:
摄影单元,其对被摄体进行摄影;
模型生成单元,其使用由所述摄影单元摄影到的摄影图像,生成所述被摄体的三维模型;
噪声判定单元,其在与构成由所述模型生成单元生成的三维模型的点相对应的对应点,不构成使用从与用于生成该三维模型的摄影图像的摄影位置不同的位置摄影到的摄影图像而生成的三维模型的情况下,判定该点为噪声;
噪声去除单元,其从由所述模型生成单元生成的三维模型中,去除由所述噪声判定单元判定为噪声的点;和
三维图像生成单元,其基于由所述噪声去除单元去除了噪声的三维模型,生成三维图像。
另外,为了达成上述目的,本发明的第2观点所涉及的三维图像生成方法,为一种摄影装置的三维图像生成方法,包括:
摄影步骤,对被摄体进行摄影;
模型生成步骤,使用由所述摄影步骤摄影到的摄影图像,生成所述被摄体的三维模型;
噪声判定步骤,在与构成由所述模型生成步骤生成的三维模型的点相对应的对应点,不构成使用从与用于生成该三维模型的摄影图像的摄影位置不同的位置摄影到的摄影图像而生成的三维模型的情况下,判定该点为噪声;
噪声去除步骤,从由所述模型生成步骤生成的三维模型中,去除由所述噪声判定步骤判定为噪声的点;和
三维图像生成步骤,基于由所述噪声去除步骤去除了噪声的三维模型,生成三维图像。
附图说明
当下面的详细叙述结合以下附图考虑时,可以更深刻地理解本申请。
图1A是表示本实施方式所涉及的摄影装置的一例的正视图。
图1B是表示摄影装置的一例的后视图。
图1C是表示摄影装置的一例的右侧视图。
图1D是表示摄影装置的一例的俯视图。
图2A是表示本实施方式所涉及的摄影装置摄影的被摄体及摄影位置的一例的图。
图2B是表示根据初次摄影生成的被摄体的三维模型的一例的图。
图2C是表示根据第10次摄影生成的被摄体的三维模型的一例的图。
图2D是表示根据第20次摄影生成的被摄体的三维模型的一例的图。
图3是表示摄影装置的电路构成的一例的框图。
图4是表示控制部执行的三维图像生成处理的一例的流程图。
图5A是表示本实施方式所涉及的摄影装置具有的功能的一例的功能框图。
图5B是表示模型组(モデル群)更新部的一构成例的功能框图。
图6A是表示模型组更新部执行的模型组更新处理的一例的流程图。
图6B是表示摄影状态推定部执行的摄影状态推定处理的一例的流程图。
图7是表示摄影部的透视投影模型的一例的图。
图8是表示呈现出以初次摄影状态为基准的其他摄影状态的旋转矩阵R和平移向量t的一例的图。
图9A是表示噪声去除部执行的第1去除处理的一例的流程图。
图9B是表示噪声去除部执行的第2去除处理的一例的流程图。
图9C是表示噪声去除部执行的第3去除处理的一例的流程图。
图10是用于说明使用了摄影位置的噪声去除方法的一例的图。
图11是表示模型组编辑部执行的模型组编辑处理的一例的流程图。
图12A是表示显示菜单的一例的图。
图12B是表示在噪声去除等级(レベル)为“0”的情况下所显示的点群的一例的图。
图12C是表示在噪声去除等级为“0.5”的情况下所显示的点群的一例的图。
图12D是表示在变焦等级为“180%”的情况下所显示的点群的一例的图。
图12E是表示在变焦等级为“30%”的情况下所显示的点群的一例的图。
图13A是表示模型组编辑部执行的噪声去除显示处理的一例的流程图。
图13B是表示模型组编辑部执行的变焦显示处理的一例的流程图。
图13C是表示模型组编辑部执行的自由视点显示处理的一例的流程图。
图14是表示在变形例中噪声去除部执行的第1去除处理的一例的流程图。
具体实施方式
下面,参照附图,对本发明的最佳实施方式进行说明。
<实施方式>
本发明的实施方式所涉及的摄影装置100是数码相机,如图1A所示,仿照可携带的所谓袖珍相机的形状。摄影装置100,如图2A所示那样变更摄影位置,并在变更后的各个摄影位置多次摄影被摄体(即,摄影对象物)。摄影装置100,基于在各个摄影位置获取到的各个摄影图像,生成如图2B~图2D所示那样的被摄体的多个三维模型,并合成所生成的多个三维模型。其后,摄影装置100,基于所合成的三维模型生成三维图像。
摄影装置100,如图1A所示,在正面具有:闪光灯发光窗101、摄影镜头102a及102b。闪光灯发光窗101,按照需要将氙气闪光灯发出的闪光照向被摄体。
另外,如图1B所示,在摄影装置100的背面,具有:作为监视器画面的显示部103、电源键104p、3D(dimension)建模键104d及操作键105。
显示部103,具有作为取景器发挥功能的LCD(Liquid Crystal Display)面板。另外,显示部103的LCD面板,显示操作摄影装置100所需的各种画面、摄影时的实时取景图像、摄影装置100摄影到的图像(以下,称为摄影图像)及基于摄影图像而生成的三维图像。此外,LCD面板的显示面被透明的触摸面板所覆盖。触摸面板,根据用户的触摸操作输出信号(例如,表示触摸位置的坐标值的信号等)。
在摄影装置100的电源为ON的情况下,如果长按压电源键104p,则输入命令摄影装置100的电源为OFF的信号。在摄影装置100的电源为OFF的情况下,如果按压电源键104p,则输入命令摄影装置100的电源为ON的信号。
3D建模键104d,执行切换动作,每次按压该键就输入如下信号,即:对进行普通摄影的普通摄影模式和生成三维图像的3D(Dimension)建模模式的二者进行择一切换的信号。
操作键105,具有十字键及确定键。十字键,将与对在摄影模式切换时或者显示切换时显示部103显示的图标进行选择的用户选择操作相应的信号输入到摄影装置100。确定键,将与对执行已与选择出的图标(即,指令)的情况进行确定的用户确定操作相应的信号输入到摄影装置100。
此外,摄影装置100,如图1C所示,在右侧面具有USB(UniversalSerial Bus)连接端子、即外部接口部(以下,称为外部I/F部)106。另外,外部I/F部106也可以是视频输出端子。另外,摄影装置100,如图1D所示,在上面具有快门按钮109。
下面,对摄影装置100的电路构成进行说明。
摄影装置100,由如图3所示的2个摄影部110a及110b、数据处理部120以及接口部130(以下,仅称为I/F部130)构成。
摄影部110a和摄影部110b,被配置成为平行立体。也就是说,摄影部110a具有的图1A中的摄影镜头102a和摄影部110b具有的摄影镜头102b,被配置于构成摄影装置100外面的同一平面上,且被配置成各自的中心位置位于将快门按钮109朝上使用时的摄影装置100水平方向的同一线上。也就是说,如果使摄影部110a和摄影部110b同时动作来摄影同一被摄体,则摄影部110a所获取的摄影图像中的光轴位置和摄影部110b所获取的摄影图像中的光轴位置在摄影图像的横向方向上相互错开。摄影部110a和摄影部110b,被固定成各自的光轴平行且各自的图像坐标系中的坐标轴在同一直线上为同一方向的配置(即,平行立体)的缘故。另外,因为摄影部110a的构成和摄影部110b的构成分别相同,所以省略摄影部110b的说明。
摄影部110a,由光学装置111a及图像传感器部112a构成。光学装置111a,具有图1A中的摄影镜头102a及未图示出的光圈机构以及快门机构,执行与摄影被摄体相关的光学动作。在该光学动作中,如果使用摄影镜头102a聚集入射光,则调节焦点距离及光圈。同时调整快门速度。也就是说,光学动作是对视角、焦点及曝光这些光学要素进行调整的动作。此外,光学装置111a具有的快门机构是所谓的机械快门。但是,在根据图像传感器的动作执行快门动作的情况下,光学装置111a也可以不具有快门机构。
图像传感器部112a,由CCD(Charge Coupled Device:电荷耦合元件)构成。图像传感器部112a,通过光电变换,产生与光学装置111a聚集的入射光相应的电信号。另外,图像传感器部112a,将所产生的电信号输出到数据处理部120。此外,图像传感器部112a,也可以由CMOS(Complementary Metal Oxide Semiconductor:互补型金属氧化物半导体)构成。
数据处理部120,通过处理从摄影部110a或者摄影部110b输出的电信号,来生成表示摄影部110a或者摄影部110b所摄影的摄影图像的数字数据。另外,数据处理部120,对生成的数据所表示的摄影图像进行图像处理。此外,数据处理部120,由控制部121、存储部122、外部存储部123、图像处理部124、图像存储器125及图像输出部126构成。
控制部121,由未图示出的CPU(Central Processing Unit:中央运算处理部)及RAM(Random Access Memory)构成,通过执行存储部122中存储的程序,控制摄影装置100的各部。
存储部122,由ROM(Read Only Memory)构成,存储着控制部121执行的程序、程序执行时所使用的参数以及表示运算式的数据。此外,存储部122也可以是闪存。
外部存储部123,由与摄影装置100可装卸的存储装置即存储卡构成,存储着表示摄影图像的图像数据、及表示基于摄影图像生成的三维图像的数据(以下,称为3D建模数据)。
图像处理部124,由未图示出的ADC(Analog-Digital Converter:模拟·数字变换器)、缓冲存储器、图像处理用处理器(所谓的图像处理引擎)构成。图像处理部124,通过ADC将从图像传感器部112a或者112b输出的模拟电信号变换为数字信号。另外,图像处理部124,将由变换后的数字信号表示的数据顺次存储到缓冲存储器。接下来,图像处理部124,通过图像处理用处理器进行显像处理,而对缓冲存储器中存储的数字数据进行摄影图像的画质调整及图像数据的压缩。
图像存储器125,临时性存储由图像处理部124生成的图像数据及由控制部121处理的图像数据。
图像输出部126,由生成RGB信号的电路构成,将被图像存储器125展开的图像数据变换为RGB信号并输出到显示部103及外部I/F部106。
I/F部130,提供摄影装置100和摄影装置100的使用者(即,用户)或者和与摄影装置100连接的外部装置的接口。此外,I/F部130,由图1B中的显示部103、图1C中的外部I/F部106及操作部131构成。操作部131,由图1B中的电源键104p、3D建模键104d、操作键105及在显示部103上重叠设置的未图示出的触摸面板和触摸面板的控制器构成。
下面,对摄影装置100用图3所示的硬件为了生成三维图像而执行的三维图像生成处理进行说明。图3中的控制部121,通过执行图4所示那样的三维图像生成处理,实现图5A所示那样的摄影控制部141、图像获取部142、模型组更新部143、模型组编辑部144、三维图像生成部145及三维图像显示控制部146的功能。
如果用户对图1B中的3D建模键104d进行操作并选择了3D建模模式,则控制部121检测从3D建模键104d输出的信号并开始进行图4的三维图像生成处理。当三维图像生成处理开始时,图5A的摄影控制部141将对为了生成三维图像而摄影的次数进行计数的摄影次数计数器的值初始化为“1”(步骤S01)。接着,摄影控制部141,基于从快门按钮109输出的信号判别快门按钮109是否被用户按下了(步骤S02)。
在步骤S02中,若判别出快门按钮109未被按下(步骤S02;否),则摄影控制部141,判别是否发生了结束事件(步骤S03)。作为具体例,摄影控制部141,基于快门按钮109输出的信号判别是否发生了例如快门按钮109超过了规定时间被按下这样的结束事件(即,是否被长按了)。此时,若判别出发生了结束事件(步骤S03;是),则摄影控制部141结束执行三维图像生成处理。与之相对,摄影控制部141在判别出未发生结束事件的情况下(步骤S03;否),返回步骤S02重复执行上述处理。
在步骤S02中,若判别出快门按钮109被按下了(步骤S02;是),则摄影控制部141,对摄影部110a和摄影部110b进行控制用于摄影被摄体(步骤S04)。接着,图像获取部142,从摄影部110a和摄影部110b中获取各自的摄影图像(步骤S05)。此外,将成平行立体配置的摄影部110a的摄影图像(以下,称为摄影图像A)和摄影部110b的摄影图像(以下,称为摄影图像B)的组合称为双图像(或者立体图像)。
接着,模型组更新部143,基于步骤S05中所获取的双图像生成被摄体的三维模型且将本次生成的三维模型追加到至前次之前生成的多个三维模型所构成的三维模型组中,由此执行更新三维模型组的模型组更新处理(步骤S06)。此外,模型组更新部143,由如图5B所示的模型生成部143a、摄影状态推定部143b、顶点坐标值变换部143c、噪声去除部143d(包括噪声判定部)及顶点方向算出部143e构成,其采用这些构成执行如图6A所示那样的模型组更新处理。
若开始执行图6A中的模型组更新处理,则模型生成部143a基于图4中的步骤S05所获取的双图像,生成所摄影的被摄体的三维模型(也称之为3D建模)(步骤S21)。此外,所谓三维模型,是指对表示被摄体的多个点的位置进行表示的三维坐标的坐标值集合。
作为一例,模型生成部143a,使用非专利文献1《数字图像处理》的第259页所公开的方法,从双图像生成三维模型。该方法是,如图7所示的摄影部110a和摄影部110b的透视投影模型表述的那样,使用以下式子(1)~(3),算出构成被摄体的三维模型的点M的坐标值(Xm,Ym,Zm)的方法。
Xm=(b*u)/(u-u’)…(1)
Ym=(b*v)/(u-u’)…(2)
Zm=(b*f)/(u-u’)…(3)
此外,符号u及v,表示在摄影图像A中被摄体上的点M所示的位置ma的坐标值(u,v)。另外,符号u’及v’,表示在摄影图像B中点M所示的位置mb的位置坐标(u’,v’)。另外,符号b,表示摄影部110a的主点Ca和摄影部110b的主点Cb之间的距离即基线长。另外,符号f,表示摄影部110a的主点Ca和焦点fa之间的焦点距离。在这里,因为摄影部110a的构成和摄影部110b的构成是相同的,所以焦点距离f与摄影部110b的主点Cb和焦点fb之间的距离相等。另外,表示位置ma的坐标值(u,v),是以在摄影部110a的投影面上投影的摄影图像A的左上角为原点且与摄影图像A的纵向方向(副扫描方向)及横向方向(主扫描方向)相一致的由坐标轴u及v组成的图像坐标系Pa中的坐标值。同样地,表示位置mb的坐标值(u’,v’),是以在摄影部110b的投影面上投影的摄影图像B的左上角为原点且与摄影图像B的纵向方向(副扫描方向)及横向方向(主扫描方向)相一致的由坐标轴u及v组成的图像坐标系Pb中的坐标值。
此外,点M的坐标值(Xm,Ym,Zm),表示此次处理中所用到的世界坐标系(world coordinate system)中的坐标。另外,此次处理中所用到的世界坐标系的原点,是以此次摄影位置中的摄影部110a的主点Ca的位置为原点。另外,此次处理中所用到的世界坐标系的X轴及Y轴,分别和此次摄影位置中的图像坐标系Pa的u轴及v轴平行。另外,此次世界坐标系中的Z轴,和摄影部110a的光轴1a(及摄影部110b的光轴1b)平行。也就是说,在步骤S21中算出坐标值的顶点即使是被摄体上相同的点,也被算出作为因摄影装置100的摄影位置及摄影方向而不同的值。因为坐标系不同的缘故。
生成三维模型之后,模型生成部143a,通过对构成由双图像生成的三维模型的各坐标值示出的点(以下,称为构成三维模型的点)进行德劳内(Delaunay)剖分,获取表示三角形多边形的多边形信息。模型生成部143a,将所获取的多边形信息追加到表示三维模型的信息中。
在图6A中的步骤S21后,摄影状态推定部143b,以初次摄影状态(即,摄影次数计数器的值为“1”时,摄影双图像的摄影位置及摄影方向)为基准对此次摄影状态进行推定。也就是说,摄影状态推定部143b,执行图6B所示那样的摄影状态推定处理(步骤S22)。此外,在双图像的摄影方向为摄影部110a的光轴方向(或者摄影部110b的光轴方向)的情况下进行说明。
当开始执行图6B中的摄影状态推定处理时,摄影状态推定部143b从初次生成的三维模型和此次生成的三维模型这两者中获取特征点(步骤S31)。例如,摄影状态推定部143b,在构成各三维模型的顶点内,选择与双图像中角(comer)强度高且立体匹配一致度高的点相当的顶点作为特征点。
接着,摄影状态推定部143b,在从初次三维模型中选择3个特征点之后,从以此次生成的三维模型所拥有的3个特征点为顶点的三角形中,搜索与以被选出的3个特征点为顶点的三角形全等的多个三角形的组(步骤S32)。从初次三维模型的点和此次三维模型的点中分别特定表示相同的被摄体上的点的点(即,对应点对)。此外,如果3边各自的长度差别在各自规定值以下,则摄影状态推定部143b将2个三角形判别为全等。
摄影状态推定部143b,对所搜索出的多个三角形所拥有的顶点的每一个,从值“1”开始编号。接着,摄影状态推定部143b,分别将标着号码“1”的(构成此次三维模型的)顶点的坐标值(x1,y1,z1)和与所搜索的三角形全等的三角形的顶点、即与该顶点对应的(构成初次三维模型的)顶点的坐标值(x’1,y’1,z’1)代入以下式(4)及(5)中,由此设定对应点对p1及p’1。另外,摄影状态推定部143b,同样地对标着号码为“2”~“N”的其他顶点也设定对应点对pi及p’i(其中,i=2~N且N为成对的数量)。(步骤S33)。
p i = x i y i z i ( i = 1,2 , &CenterDot; &CenterDot; &CenterDot; , N ) - - - ( 4 )
p &prime; i = x &prime; i y &prime; i z &prime; i ( i = 1,2 , &CenterDot; &CenterDot; &CenterDot; , N ) - - - ( 5 )
在这里,初次摄影位置及摄影方向和此次摄影位置及摄影方向的关系,如图8所示,用表示从初次摄影位置Sp向此次摄影位置Sp’移动的移动向量t(以下,称为平移向量t)和表示摄影装置100旋转的旋转矩阵R来表达。因此,式(4)中所表达的对应点pi,用式(5)中表达的对应点p’i和旋转矩阵R、平移向量t的式(6)来表达。
pi=Rp′i+t                            (6)
在这里,摄影状态推定部143b,可采用由式(6)直接算出旋转矩阵R和平移向量t的构成。但是,为了减轻噪声的影响并稳定且高精度地算出旋转矩阵R,而执行以下处理。
在步骤S33之后,摄影状态推定部143b,用下式(7)算出对应点p的重心,用下式(8)算出对应点p’的重心(步骤S34)。接着,摄影状态推定部143b,用下式(9)算出以所算出的重心为基准的对应点p的分布d1,用下式(10)算出以重心为基准的对应点p’的分布d2(步骤S35)。
t 1 = 1 N &Sigma; i = 1 N p i - - - ( 7 )
t 2 = 1 N &Sigma; i = 1 N p &prime; i - - - ( 8 )
d1=[(p1-t1)(p2-t1)…(pN-t1)]                (9)
d2=[(p′1-t2)(p′2-t2)…(p′N-t2)]          (10)
在这里,因为对应点p和对应点p’表示的是相同的被摄体上的多个点,所以以对应点pi的重心为基准的分布d1和以对应点p’i的重心为基准的分布d2基本一致。另外,因为是以重心为基准的,所以分布d1和分布d2的关系不由平移向量t决定,而仅由旋转矩阵R决定。因此,分布d1和分布d2满足下式(11)。
d1=Rd2                                      (11)
为了从上述式(11)中算出旋转矩阵,在步骤S35之后,摄影状态推定部143b,如式(12)及(13)所示,对分布d1及d2进行奇异值分解,分别算出酉矩阵U1及U2、奇异值的对角矩阵S1及S2、以及伴随矩阵V1*及V2*。(步骤S36)。其中,奇异值按降序排列,符号*表示复共轭转置。
d 1 = U 1 S 1 V 1 * - - - ( 12 )
d 2 = U 2 S 2 V 2 * - - - ( 13 )
在这里,根据上述式(12)及(13)和上述式(11),旋转矩阵R用下式(14)表达。
R = U 1 S 1 V 1 * V 2 S 2 - 1 U 2 * - - - ( 14 )
在这里,将使矩阵U1和矩阵U2*相关联的矩阵,设为如下式(15)所示那样的关联矩阵K,则旋转矩阵R用以下式(16)表达。
K = S 1 V 1 * V 2 S 2 - 1 - - - ( 15 )
R = U 1 K U 2 * - - - ( 16 )
在这里,酉矩阵U1及U2的列向量,分别相当于分布d1的特征向量及分布d2的特征向量。因此,使矩阵U1及U2*相关联的关联矩阵K的要素,在与各特征向量对应的情况下为“1”或者“-1”,不对应的情况下为“0”。在这里,因为分布d1和分布d2相等,所以各自被分解的奇异值也相等(即,奇异值的对角矩阵S1及S2也相等)。但实际上,因为分布d1和分布d2中包含误差,所以需要圆整误差。因此,关联矩阵K,用例如使用进行四舍五入的round函数的下式(17)表达。
因此,在图6B中的步骤S36之后,摄影状态推定部143b针对上述式(17),用步骤S36中算出的伴随矩阵V1*及V2*算出关联矩阵K(步骤S37)。接着,摄影状态推定部143b,将算出的关联矩阵K、步骤S36中算出的酉矩阵U1及U2代入上述式(16),而算出旋转矩阵R(步骤S38)。
在这里,因为从各个对应点对的重心朝向各个对应点的向量,如果通过旋转矩阵R进行旋转则各自相等,所以下式(18)成立,如果对下式(18)进行变形则得到下式(19)。
(pi-t1)=R(p′i-t2)                   (18)
pi=Rp′i+(t1-Rt2)                    (19)
在这里,通过将上述式(19)所表示的pi代入上述式(6)中,由此得到用于算出平移向量t的下式(20)。
t=t1-Rt2                             (20)
因此,在步骤S38之后,摄影状态推定部143b针对上述式(20),用步骤S34中算出的重心t1及t2算出平移向量t(步骤S39)。其后,摄影状态推定部143b,结束执行摄影状态推定处理。
在图6A中的步骤S22之后,图5B中的顶点坐标值变换部143c,将构成步骤S21中生成的模型的多边形顶点的坐标值,从此次处理中所用到的世界坐标系的坐标值向初次处理中所用到的世界坐标系的坐标值变换(步骤S23)。具体地说,顶点坐标值变换部143c,通过将步骤S22中推定出的表示摄影装置100的摄影位置的平移向量t及表示摄影方向的旋转矩阵R用到下式(21)中,由此将此次世界坐标系中的坐标值W变换为初次世界坐标系中的坐标值W’。其后,顶点坐标值变换部143c,将表示由变换后的顶点坐标值构成的模型的数据与摄影次数计数器的值相对应,并保存到外部存储部123中。
W’=inv(R)(W-t)…(21)
其中,inv(R)表示旋转矩阵R的逆矩阵。
在步骤S23之后,图5B中的噪声去除部143d,利用构成此次生成的三维模型的多边形面的朝向,从三维模型中去除噪声。即,图5B中的噪声去除部143d,执行如图9A所示那样的第1去除处理。此外,噪声去除部143d去除的噪声例如包括不与被摄体上的点相对应的三维模型的点。
当开始执行第1去除处理时,首先,噪声去除部143d基于构成步骤S21中生成的三维模型的各多边形面的顶点坐标值,获取各多边形面的法向量(步骤S41)。此外,设在步骤S41中获取的多边形面的法向量,是在和摄影装置100的相机视线(即,摄影部110a的光轴方向)相同朝向的(即,和相机视线的内积为正值的)向量和相反朝向的向量这2种向量之中,和相机视线相同朝向的向量。
接着,噪声去除部143d,通过图6B中的步骤S38算出的旋转矩阵R特定此次相机视线的方向之后,算出所特定的相机视线和各多边形面的法向量的内积(步骤S42)。其后,噪声去除部143d,将算出的内积值为规定的阈值TH_NP以下的多边形面从三维模型中删除(步骤S43)。
接着,噪声去除部143d(噪声判定部),将没有被用于划定多边形面的顶点判定为噪声(步骤S44)。其后,噪声去除部143d,将判定为噪声的顶点,从此次生成的三维模型中删除(步骤S45)。其后,噪声去除部143d,结束执行第1去除处理。
根据这些构成,基于多边形面相对于相机视线的朝向,可以高精度地判定出划定多边形面的顶点是否是噪声。因为越是与相机视线的内积值小的面就越不正对于相机视线,故用于生成三维模型的双图像中大多没有表达出用于生成模型所需的充分的信息,具有噪声的可能性就越高的缘故。
在图6A中的步骤S24之后,顶点方向算出部143e,相对于构成三维模型的各顶点,算出顶点方向(步骤S25)。作为一例,顶点方向算出部143e,在以某顶点划定的多边形面为1个的情况下,设该多边形面的法线方向为该顶点的顶点方向。在以某顶点划定的多边形面存在多个的情况下,设该多个多边形面所具有的法线方向的简单平均或者以面积为权重的加权平均为该顶点的顶点方向。
接着,噪声去除部143d,判别摄影次数计数器的值是否比规定值K1大(步骤S26)。在判别为摄影次数计数器的值比规定值K1大的情况下(步骤S26;是),噪声去除部143d将此次生成的三维模型与此次摄影次数计数器的值及图6A中步骤S22推定出的摄影状态相对应,并追加到三维模型组(步骤S27)。接着,噪声去除部143d,利用摄影位置去除噪声。也就是说,噪声去除部143d,执行如图9B所示那样的第2去除处理(步骤S28)。为了通过第2去除处理去除噪声,需要比规定个数多的三维模型。
当开始执行图9B所示的第2去除处理时,噪声去除部143d选出K2个接近此次摄影状态的至上次为止的摄影状态(即,过去的摄影状态)(步骤S51)。
具体地说,噪声去除部143d,将和当前的摄影次数计数器的值的差异与K2以内的摄影次数计数器的值相对应地追加到三维模型组中的三维模型,按差异小的顺序选出。根据这种构成,可以以很少的计算量选出接近此次摄影状态的过去摄影状态。
另外,并不局限于此,噪声去除部143d,也可以将和此次推定的旋转矩阵R的距离(矩阵各要素的差分平方和)与比规定的阈值TH_R1小的旋转矩阵相对应地追加到三维模型组中的三维模型,按距离小的顺序选出。根据该构成,不仅比基于摄影次数计数器的值选出接近此次摄影状态的过去摄影状态的方法精度更高,而且还比基于后述平移向量t选出接近此次摄影状态的过去摄影状态的方法计算量更少。
此外,不局限于这些方法,噪声去除部143d还可以将和此次推定的平移向量t的差异与比规定的阈值TH_T1小的平移向量相对应地追加到三维模型组中的三维模型,按差异小的顺序选出。根据该构成,比基于旋转矩阵R选出接近此次摄影状态的过去摄影状态的方法精度更高。
在图9B中的步骤S51之后,噪声去除部143d,在从三维模型组中选出K2个与所选出的摄影状态相对应的三维模型之后(步骤S52),判别是否对构成所选出的所有三维模型的所有顶点执行了以下步骤S54~S56的处理(步骤S53)。此时,在判定出还没有对全部顶点进行处理的情况下(步骤S53;否),噪声去除部143d将未处理的顶点之中的1个设为处理对象的顶点(以下仅称为对象顶点),将由对象顶点构成的三维模型设为对象模型。接着,噪声去除部143d(噪声判定部),算出在距对象顶点为规定距离(以下,称为邻近距离)的空间范围(以下,称为邻近范围)中包含的与对象模型不同的其他三维模型的顶点数(步骤S54)。其后,噪声去除部143d(噪声判定部),判别邻近范围中包含的其他三维模型的顶点数是否在规定的阈值TH_N以下(步骤S55)。
在步骤S55中,噪声去除部143d(噪声判定部),如果判别出邻近范围中包含的其他三维模型的顶点数在规定的阈值TH_N以下(步骤S55;是),则将对象顶点判定为噪声。噪声去除部143d,就将对象顶点从由被判定为噪声的对象顶点所构成的三维模型及三维模型组中删除(步骤S56)。其后,噪声去除部143d,返回步骤S53重复执行上述处理。
具体地说,如图10所示,在距对象顶点TP1为邻近距离ds以内的邻近范围SP中,包括3个和对象顶点TP1相同地构成由第20次摄影到的双图像所生成的三维模型(以下,称为第20次三维模型)的顶点。但是,仅包括1个构成第16次三维模型的顶点。因此,在阈值TH_N为值“1”的情况下,对象顶点TP1被判别为噪声。
在这里,如果对被摄体进行多次摄影,则因为相同的对象物上的点在多张双图像中表示,所以与对象物上的某点对应的点,一般包含于多个三维模型中。因此,根据这些构成,基于某点的邻近范围SP中包含的构成其他三维模型的点的数量,可以高精度地判定出该点是否是噪声。另外,摄影次数越增加,生成的三维模型的数量就越增加。因此,摄影次数越增加,就越能高精度地判定三维模型的点是否是噪声。
在步骤S55中,噪声去除部143d(噪声判定部),如果判别出邻近范围中包含的其他三维模型的顶点数比规定的阈值TH_N大(步骤S55;否),则判定对象顶点不是噪声,返回步骤S53并重复执行上述处理。
具体地说,如图10所示,在对象顶点TP2的邻近范围SP中,包含3个构成第16次三维模型的顶点,包含2个构成第11次三维模型的顶点。因此,在阈值TH_N为值“1”的情况下,对象顶点TP2被判别为不是噪声。
之后,在图9B的步骤S53中,如果判别出对全部顶点都进行了步骤S54~S56的处理(步骤S53;是),则噪声去除部143d结束执行第2噪声去除处理。
在图6A中的步骤S28之后,噪声去除部143d,执行利用摄影时刻去除噪声的如图9C所示那样的第3去除处理(步骤S29)。
当开始执行第3去除处理时,噪声去除部143d执行和图9B中步骤S51相同的处理,选出接近此次摄影状态的摄影状态(步骤S61)。接着,噪声去除部143d,判别所选出的摄影状态的数(以下,称为选出摄影状态数)是否在规定的阈值THcn+1以上(步骤S62)。此时,如果判别为选出摄影状态数在规定的阈值THcn以下(步骤S62;否),则噪声去除部143d结束执行第3去除处理。因为没有选出执行第3去除处理所必须数量的摄影状态的缘故。
在步骤S62中,如果判别为选出摄影状态数在规定的阈值THcn+1以上,则噪声去除部143d,自摄影时刻新的(即,摄影次数计数器的值大的)摄影状态顺序提取THcn个摄影状态(步骤S63)。接着,噪声去除部143d,将与所提取的摄影状态以外的摄影状态相对应的(即,利用在所提取的摄影状态以外的摄影状态下摄影到的双图像而生成的)三维模型的顶点从三维模型组中删除(步骤S64)。其后,噪声去除部143d,结束执行第3去除处理。
在这里,即便是在从相同的摄影位置及摄影方向摄影相同的被摄体的情况下,如果摄影时刻不同,则摄影到的双图像所表达的被摄体的信息也不同。例如,根据照射被摄体的照明、被摄体的背景或者被摄体本身的动作等,而摄影到的双图像所表达的被摄体的信息不同。因此,根据这些构成,将利用过去的摄影时刻摄影到的双图像而生成的三维模型的顶点从三维模型组中去除,故可以减轻双图像所表达的被摄体的信息的差别,生成由一样的三维模型构成的三维模型组。
在图4中的步骤S06之后,图5A中的模型组编辑部144,执行对步骤S06中更新的三维模型组进行编辑的如图11所示那样的模型组编辑处理(步骤S07)。
当开始执行图11所示的模型组编辑处理时,模型组编辑部144基于由操作部131输出的信号,判别是否对构成图3中的操作部131的触摸面板进行了触摸操作(步骤S71)。此时,如果判别为进行了触摸操作(步骤S71;是),则模型组编辑部144使图1B中的显示部103显示如图12A所示那样的显示菜单MN(步骤S72)。该显示菜单,由如图12A所示的与使模型显示区域DAM显示的三维模型放大或者缩小的命令相关联的变焦图标ICZ、与改变三维模型的显示视点的命令相关联的自由视点图标ICF、与使三维模型的噪声去除的命令相关联的噪声去除图标ICN、及与从当前的3D建模模式回归到普通摄影模式的命令相关联的摄影模式图标ICM而构成。
在步骤S72之后,模型组编辑部144,基于表示由触摸面板输出的触摸位置的坐标值的信号和显示部103显示的各图标的位置坐标,判别在进行触摸操作的位置处显示的图标(即,用户所触摸的图标)是否是摄影模式图标ICM(步骤S73)。
在步骤S71中判别为未进行触摸操作的情况下(步骤S71;否),或者在步骤S73中判别为触摸了摄影模式图标ICM的情况下(步骤S73;是),模型组编辑部144,从当前的摄影视线方向,将表示构成三维模型组的各三维模型的顶点(以下,仅称为点群)的图像,显示到显示部103的模型显示区域DAM中(步骤S74)。其后,模型组编辑部144结束执行模型组编辑处理。
在步骤S73中判别为未触摸摄影模式图标ICM的情况下(步骤S73;否),模型组编辑部144与步骤S73相同地判别是否触摸了噪声去除图标ICN(步骤S75)。此时,如果判别为触摸了噪声去除图标ICN(步骤S75;是),则模型组编辑部144在基于由触摸面板输入的噪声去除等级从三维坐标组中除掉噪声之后,将除掉了噪声的三维坐标组的顶点显示到显示部103。也就是说,模型组编辑部144,执行如图13A所示那样的噪声去除显示处理(步骤S76)。其后,模型组编辑部144,返回步骤S73重复执行上述处理。
当开始执行图13A中的噪声去除显示处理时,模型组编辑部144,如图12B所示那样控制显示部103加亮显示噪声去除图标ICN(步骤S81)。此外,模型组编辑部144,也可以反相显示噪声去除图标ICN。接着,模型组编辑部144,在模型显示区域DAM的下侧,显示表示噪声去除等级的等级条LB。
接着,模型组编辑部144针对三维模型组的各顶点,算出在图6A的步骤S25中算出的顶点方向和由图6B的步骤S38中算出的旋转矩阵R所决定的摄影视线的方向的内积(步骤S83)。
接着,模型组编辑部144,基于表示由触摸面板输出的触摸坐标值的信号,获取由用户指定的噪声去除等级(以下,仅称为指定等级)(步骤S84)。例如,在触摸面板输出的坐标值是表示显示部103显示的等级条的中心位置的情况下,模型组编辑部144,获取最小内积值“0”和最大内积值“1”的中间“0.5”为指定等级。其后,模型组编辑部144,如图12C所示,将所获取的指定等级显示到等级条LB(步骤S85)。
接着,模型组编辑部144,控制显示部103显示用于算出比步骤S84中获取的指定等级高的内积值的具有顶点方向的顶点(步骤S86)。与之相对,模型组编辑部144,控制显示部103不显示用于算出比指定等级低的内积值的具有顶点方向的顶点(步骤S87)。因此,如果噪声去除等级被指定为值“0.5”,则在图12B所表示的多边形面PN1~PN3的顶点内,仅显示正对视线方向的程度高、具有噪声可能性低的面PN1(即,内积值为“0.5”以上的面)的顶点。
其后,模型组编辑部144,判别是否对噪声去除图标ICN以外的其他图标进行了触摸操作(步骤S88)。此时,如果判别为未对其他图标进行触摸操作(步骤S88;否),则模型组编辑部144,返回步骤S84重复执行上述处理。
在步骤S88中,如果判别为对其他图标进行了触摸操作(步骤S88;是),则模型组编辑部144将在步骤S87中作为不显示的顶点从模型组中删除(步骤S89)。其后,模型组编辑部144使显示部103结束噪声去除图标ICN的加亮显示且结束等级条的显示之后(步骤S90),结束执行噪声去除显示处理。
根据这些构成,不仅在摄影被摄体时立即显示所生成的三维模型组,而且还按用户操作所指定的噪声去除等级去除三维模型组的噪声并显示去除了噪声的三维模型组。因此,用户不仅能够多次摄影边被摄体,边立即确认所生成的三维模型组,而且还能够基于确认结果容易且快速地指定对三维模型组进行的噪声去除的等级,所以可以提高用户使用摄影装置100的便利性。
在图11的步骤S75中判别为未触摸噪声去除图标ICN的情况下(步骤S75;否),模型组编辑部144和步骤S73相同地判别是否触摸了变焦图标ICZ(步骤S77)。此时,如果判别为触摸了变焦图标ICZ(步骤S77;是),则模型组编辑部144基于由触摸面板输入的尺寸变更三维坐标组的显示尺寸。也就是说,模型组编辑部144,在执行了如图13B所示那样的变焦显示处理之后(步骤S78),返回步骤S73重复执行上述处理。
当开始执行图13B中的变焦显示处理时,模型组编辑部144如图12D所示那样地控制显示部103加亮显示变焦图标ICZ(步骤S91)。接着,模型组编辑部144,在模型显示区域DAM的下侧,显示表示尺寸的尺寸条LZ。
接着,模型组编辑部144,基于表示由触摸面板输出的触摸位置的坐标值的信号,获取由用户指定的三维模型的显示尺寸(以下,仅称为指定尺寸)(步骤S93)。例如,在触摸面板输出的坐标值是表示尺寸条LZ的中心位置的情况下,模型组编辑部144,获取默认的显示尺寸为指定尺寸(即,100%)。又例如,在触摸面板输出的坐标值是表示尺寸条LZ的右端的情况下,模型组编辑部144,获取默认的显示尺寸的2倍(即,200%)为指定尺寸。其后,模型组编辑部144,如图12D及图12E所示,将所获取的指定尺寸显示到尺寸条LZ(步骤S94)。
接着,模型组编辑部144,控制显示部103以步骤S93中获取的指定尺寸显示三维模型组(步骤S95)。即,如图12D所示,在指定尺寸为默认尺寸的180%大小的情况下,模型组编辑部144显示将如图12A所示的默认尺寸的三维模型组放大至1.8倍大小的三维模型组。另外,如图12E所示,在指定尺寸为默认尺寸的30%大小的情况下,显示将默认尺寸的三维模型组缩小至0.3倍大小的三维模型组。
其后,模型组编辑部144,判别是否对变焦图标ICZ以外的其他图标进行了触摸操作(步骤S96)。此时,如果判别为未对其他图标进行触摸操作(步骤S96;否),则模型组编辑部144,返回步骤S93重复执行上述处理。
在步骤S96中,如果判别为对其他图标进行了触摸操作(步骤S96;是),则模型组编辑部144,结束变焦图标ICZ的加亮显示且结束尺寸条LZ的显示(步骤S97)。其后,模型组编辑部144,结束执行变焦显示处理。
在图11的步骤S77中,在判别为未触摸变焦图标ICZ的情况下(步骤S77;否),模型组编辑部144和步骤S73相同地判别是否触摸了自由视点图标ICF(步骤S79)。此时,如果判别为未触摸自由视点图标ICF(即,未进行触摸操作)(步骤S79;否),则模型组编辑部144,返回步骤S73重复执行上述处理。与此相对,如果判别为触摸了自由视点图标ICF(步骤S79;是),则模型组编辑部144,特定从由触摸面板输入的触摸位置朝向被摄体的三维模型组的视线方向,并从特定的视线方向将三维模型组显示到显示部103。也就是说,模型组编辑部144,执行如图13C所示那样的自由视点显示处理(步骤S80)。
当开始执行图13C的自由视点显示处理时,模型组编辑部144控制显示部103加亮显示自由视点图标ICF(步骤S101)。接着,模型组编辑部144,基于由触摸面板输出的信号,检测出由用户指定的视线的起点位置,获取从检测出的起点朝向三维模型组的视线(以下,仅称为指定视线)(步骤S102)。
接着,模型组编辑部144,按照指定视线使三维模型组上下左右地旋转,由此从指定视线将三维模型组显示到显示部103(步骤S103)。作为具体例,模型组编辑部144,算出将指定视线作为用户视线(即,显示部103的显示方向的相反朝向)的旋转矩阵。接着,模型组编辑部144,基于算出的旋转矩阵变换三维模型组的顶点坐标,并将变换后的三维模型组显示到显示部103。
其后,模型组编辑部144,判别是否对自由视点图标ICF以外的其他图标进行了触摸操作(步骤S104)。此时,如果判别为未对其他图标进行触摸操作(步骤S104;否),则模型组编辑部144,返回步骤S102重复执行上述处理。
在步骤S104中,如果判别为对其他图标进行了触摸操作(步骤S104;是),则模型组编辑部144在结束自由视点图标ICF的加亮显示之后(步骤S105),结束执行自由视点显示处理。
在图4中的步骤S07之后,图5A中的摄影控制部141,再次判别图1A中的快门按钮109是否被用户按下了(步骤S08)。此时,如果判别为快门按钮109被按下了(步骤S08;是),则摄影控制部141,使摄影次数计数器仅增加值“1”(步骤S09)。其后,自步骤S04重复执行上述处理。
在步骤S08中,如果判别为快门按钮109未被按下(步骤S08;否),则摄影控制部141,和步骤S03相同地,判别在规定期间内是否发生了结束事件(步骤S10)。此时,在判别为在规定期间内未发生结束事件的情况下(步骤S10;否),自步骤S07重复执行上述处理。
在步骤S10中,在判别为发生了结束事件的情况下(步骤S10;是),图5A中的三维图像生成部145,判别摄影装置100的模式是否是显示多边形图像的多边形显示模式(步骤S11)。此时,如果判别为不是多边形显示模式(步骤S11;否),则三维图像生成部145,结束执行三维图像生成处理。此外,在摄影装置100是3D建模模式的情况下,可以被设定为多边形显示模式。另外,作为摄影装置100没有被设定为多边形显示模式的情况,可举以下这个例子,例如,在图11中的模型组编辑处理执行期间,摄影装置100被设定为普通摄影模式的情况。
在步骤S11中,如果判别为摄影装置100被设定为多边形显示模式,则三维图像生成部145例如采用Alpha-Shapes算法,由三维模型组的点群生成作为三维图像的多边形图像(步骤S12)。具体地说,三维图像生成部145,通过使用点群进行德劳内剖分而作成多边形候补。接着,三维图像生成部145,将直径Alpha的球置于划定各多边形候补的各顶点。三维图像生成部145,根据置于各顶点的球,设多边形候补内被填满的为有效,未被填满的为无效。
其后,图5A中的三维图像显示控制部146,在将所生成的被摄体的多边形图像(即,三维图像)显示到显示部103之后(步骤S13),结束执行三维图像生成处理。
根据这些构成,在图9B的第2去除处理中,基于三维模型中包含的点是否包含于使用从与用于生成该三维模型的摄影图像的摄影位置不同的位置所摄影到的摄影图像而生成的三维模型,来判断该点是否是噪声。另外,根据这些构成,基于去除了被判定为噪声的点的模型,生成三维图像。因此,可以生成高精度的被摄体的三维图像。
另外,根据这些构成,在图9B的第2去除处理中,对于某个模型中包含的某个点是否是噪声,是基于在该点的规定距离内(即,邻近范围)是否存在其他模型中包含的点而进行判定的。因此,越是增加摄影次数,噪声判定的精度就越高。也就是说,在相同的点在多张摄影图像中表达的情况下,基于各个摄影图像算出的相同点的三维坐标,不会超过、分开由于误差而产生的距离。
此外,根据这些构成,在图9C的第3去除处理中,基于用于生成三维模型的摄影图像的摄影位置的差异,从所对应的三维模型的点中提取与其他点相比是噪声的可能性高的点,且从三维模型中去除所提取的点,从而能够生成高精度的三维图像。一般地,多张摄影图像的摄影位置的差异小的情况和差异大的情况相比,在多张摄影图像中表达相同的点的可能性高,所以由多张摄影图像生成的多个三维模型的对应点中包含噪声的可能性就低。另外,与之相对地,多张摄影图像的摄影位置的差异大的情况和差异小的情况相比,在多张摄影图像中表达相同的点的可能性低,所以多个模型所包含的对应点中包含噪声的可能性就高。
另外,根据这些构成,在图9A的第1去除处理中,在摄影视线的方向和多边形面的法线的差别比规定大的情况下,该多边形面的顶点就作为噪声从该三维模型中去除。因此,能够生成高精度的被摄体的三维图像。也就是说,多边形面的法线方向和摄影视线的方向的差别越大,用于生成多边形面的摄影图像中的信息量就越少,故多边形面中就容易产生噪声。
此外,根据这些构成,在图13A的噪声去除显示处理中,在摄影视线的方向和顶点的方向的差别比规定大的情况下,该顶点为噪声的可能性高而被从该三维模型中去除。因此,能够生成高精度的被摄体的三维图像。也就是说,顶点的方向和摄影视线的方向的差别越大,分别用于生成划定顶点的多个多边形面的摄影图像中的信息量的总量就越少。因此,在这些多边形面中就容易产生噪声,以容易产生噪声的多边形面划定的顶点是噪声的可能性高的缘故。
<变形例>
在本实施方式中,通过图9A中的第1去除处理,说明了具有邻接的多边形面的顶点,在邻接的所有多边形面的法向量和摄影视线的内积值为阈值TH_NP以下的情况下,被作为噪声去除。但是,如图14所示,在至少1个邻接的多边形面的法向量和摄影视线的内积值为阈值TH_NPX以下的情况下,该顶点也可以被作为噪声去除。
在该变形例中,当开始执行如图14所示那样的第1去除处理时,噪声去除部143d,对构成此次三维模型的全部顶点,判别是否结束执行以下步骤S112~S117(步骤S111)。此时,如果判别为对全部顶点没有结束步骤S112等的处理(步骤S111;否),则噪声去除部143d,将没有作为步骤S112等的处理对象的顶点中的1个设为对象顶点,特定与对象顶点邻接的多个多边形面(步骤S112)。
接着,噪声去除部143d,获取所特定的多边形面的法向量(步骤S113)。其后,噪声去除部143d,分别算出各多边形面的法向量和由图6B中的摄影状态推定处理推定出的摄影视线的内积(步骤S114)。其后,噪声去除部143d(噪声判定部),在所算出的内积值中选出最小的内积值(步骤S115),判别所选出的内积值是否在阈值TH_NPX以下(步骤S116)。此时,如果判别为所选出的内积值比阈值TH_NPX大(步骤S116;否),则噪声去除部143d,返回步骤S111重复执行上述处理。
在步骤S116中,如果判别为所选出的内积值在阈值TH_NPX以下(步骤S116;是),则噪声去除部143d(噪声判定部),将对象顶点判定为噪声,并将该对象顶点从此次三维模型中删除(步骤S117)。其后,噪声去除部143d,自步骤S111重复执行上述处理。
根据这些构成,在与某顶点邻接的多边形面中,在至少1个多边形面的法向量和摄影视线的内积值为阈值TH_NPX以下的情况下,该顶点就被作为噪声去除。因此,例如,在与某顶点邻接的所有多边形面的法向量和摄影视线的内积值为阈值TH_NP以下的情况下,与该顶点被作为噪声去除的情况相比,可可靠地去除噪声。
此外,不仅可作为预先具备本发明所涉及的构成的摄影装置提供,通过程序的应用,还可以将现有的摄影装置作为本发明所涉及的摄影装置。也就是说,以对现有的摄影装置进行控制的计算机(CPU等)能执行的方式,应用在上述实施方式示例出的摄影装置100用于实现各功能构成的控制程序,由此能够实现本发明所涉及的摄影装置100的功能。另外,本发明所涉及的摄影装置的控制方法可用摄影装置100实施。
这样的程序可用任意方法传播,例如,可以存储在存储卡、CD-ROM或者DVD-ROM等记录介质中进行传播。另外,也可以经由互联网等通信媒体进行传播。
以上,对本发明的最佳实施例进行了详细叙述,但本发明并不局限于所特定的实施例,在权利要求书记载的本发明的主旨范围内,可进行各种变形、变更。

Claims (7)

1.一种摄影装置,具备:
摄影单元,其对被摄体进行摄影;
模型生成单元,其使用由所述摄影单元摄影到的摄影图像,生成所述被摄体的三维模型;
噪声判定单元,其在与构成由所述模型生成单元生成的三维模型的点相对应的对应点,不构成使用从与用于生成该三维模型的摄影图像的摄影位置不同的位置摄影到的摄影图像而生成的三维模型的情况下,判定该点为噪声;
噪声去除单元,其从由所述模型生成单元生成的三维模型中,去除由所述噪声判定单元判定为噪声的点;和
三维图像生成单元,其基于由所述噪声去除单元去除了噪声的三维模型,生成三维图像。
2.根据权利要求1所述的摄影装置,其中,
所述噪声判定单元,以构成由所述模型生成单元生成的三维模型的点为基准点,在距基准点为规定距离的空间范围中所包含的所述对应点的数量比规定数量少的情况下,判定该空间范围的基准点为噪声。
3.根据权利要求1所述的摄影装置,其中,
还具备摄影方向推定单元,其基于构成由所述模型生成单元生成的三维模型的点,推定在摄影用于生成该三维模型的摄影图像时的所述摄影单元的摄影方向,
所述噪声去除单元,在由所述摄影方向推定单元推定的摄影方向的差异比规定值小的多个三维模型中,将使用比用于生成其他三维模型的摄影图像的摄影时刻早的摄影时刻的摄影图像而生成的三维模型,从作为所述三维图像生成单元生成三维图像的基础的三维模型中去除。
4.根据权利要求1所述的摄影装置,其中,
还具备摄影方向推定单元,其基于构成由所述模型生成单元生成的三维模型的点,推定在摄影用于生成该三维模型的摄影图像时的所述摄影单元的摄影方向,
所述噪声判定单元,在由所述摄影方向推定单元推定的摄影方向和以构成所述三维模型的点为顶点的多边形面的法线的差别比规定值大的情况下,判定该顶点为噪声。
5.根据权利要求1所述的摄影装置,其中,
还具备摄影方向推定单元,其基于构成由所述模型生成单元生成的三维模型的点,推定在摄影用于生成该三维模型的摄影图像时的所述摄影单元的摄影方向,
所述噪声判定单元,在由所述摄影方向推定单元推定的摄影方向、和由以构成所述三维模型的点为顶点的多个多边形面的法线所决定的该顶点的方向的差别比规定值大的情况下,判定该顶点为噪声。
6.根据权利要求5所述的摄影装置,其中,
还具备:
显示单元,其对应地显示由所述噪声去除单元去除了噪声的三维模型和所述噪声判定单元判定构成所述三维模型的点是否是噪声所用到的所述规定值;和
输入单元,其输入与对值进行指定的操作相应的信号,
所述噪声判定单元,将与由所述输入单元输入的信号相应的值作为所述规定值,再次判定构成所述三维模型的点是否是噪声,
所述噪声去除单元,将被所述噪声判定单元判定为噪声的点从所述三维模型中再次去除,
所述显示单元,显示由所述噪声去除单元再次去除了噪声的三维模型。
7.一种摄影装置的三维图像生成方法,包括:
摄影步骤,对被摄体进行摄影;
模型生成步骤,使用由所述摄影步骤摄影到的摄影图像,生成所述被摄体的三维模型;
噪声判定步骤,在与构成由所述模型生成步骤生成的三维模型的点相对应的对应点,不构成使用从与用于生成该三维模型的摄影图像的摄影位置不同的位置摄影到的摄影图像而生成的三维模型的情况下,判定该点为噪声;
噪声去除步骤,从由所述模型生成步骤生成的三维模型中,去除由所述噪声判定步骤判定为噪声的点;和
三维图像生成步骤,基于由所述噪声去除步骤去除了噪声的三维模型,生成三维图像。
CN201110180593.0A 2010-06-29 2011-06-24 具备生成三维图像的功能的摄影装置及三维图像生成方法 Active CN102316254B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010147924A JP5067450B2 (ja) 2010-06-29 2010-06-29 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法
JP2010-147924 2010-06-29

Publications (2)

Publication Number Publication Date
CN102316254A true CN102316254A (zh) 2012-01-11
CN102316254B CN102316254B (zh) 2014-02-26

Family

ID=45352159

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110180593.0A Active CN102316254B (zh) 2010-06-29 2011-06-24 具备生成三维图像的功能的摄影装置及三维图像生成方法

Country Status (3)

Country Link
US (2) US8817075B2 (zh)
JP (1) JP5067450B2 (zh)
CN (1) CN102316254B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402984A (zh) * 2023-02-28 2023-07-07 北京优酷科技有限公司 三维模型处理方法、装置及电子设备
CN116597111A (zh) * 2023-03-15 2023-08-15 磅客策(上海)智能医疗科技有限公司 一种三维图像的处理方法以及处理装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630302B1 (ko) * 2010-02-02 2016-06-14 삼성전자주식회사 입체 터치 패널을 구비하는 디지털 촬영 장치 및 이의 제어 방법
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US10127722B2 (en) 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10139985B2 (en) * 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
JP6282725B2 (ja) * 2014-03-28 2018-02-21 株式会社日立産機システム 画像データ編集装置および画像データ編集方法ならびに画像データ編集プログラム
US11196997B2 (en) 2015-05-15 2021-12-07 Hewlett-Packard Development Company, L.P. Image compression
WO2017056567A1 (ja) * 2015-10-01 2017-04-06 三菱電機株式会社 寸法計測装置
US10257505B2 (en) * 2016-02-08 2019-04-09 Microsoft Technology Licensing, Llc Optimized object scanning using sensor fusion
WO2019079093A1 (en) * 2017-10-19 2019-04-25 Interdigital Vc Holdings, Inc. METHOD AND DEVICE FOR PREDICTIVE CODING / DECODING OF A POINT CLOUD

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1694512A (zh) * 2005-06-24 2005-11-09 清华大学 一种交互式多视点视频系统中虚拟视点的合成方法
US7420542B2 (en) * 2004-05-25 2008-09-02 Avago Technologies Ecbu Ip Pte Ltd Apparatus for capturing and analyzing light and method embodied therein
US20100142828A1 (en) * 2008-12-10 2010-06-10 Electronics And Telecommunications Research Institute Image matching apparatus and method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0397449A (ja) * 1989-09-12 1991-04-23 Hitachi Ltd 画像ノイズ除去装置および方法
JPH09231371A (ja) * 1996-02-21 1997-09-05 Canon Inc 画像情報入力装置及び画像情報入力方法
US6476803B1 (en) * 2000-01-06 2002-11-05 Microsoft Corporation Object modeling system and process employing noise elimination and robust surface extraction techniques
JP4156893B2 (ja) * 2002-09-27 2008-09-24 富士フイルム株式会社 画像処理装置、方法及びプログラム
US7995054B2 (en) * 2005-11-21 2011-08-09 Leica Geosystems Ag Identification of edge regions from 3D point data
JP5248992B2 (ja) * 2008-11-17 2013-07-31 Kddi株式会社 3次元物体モデル情報生成装置及びプログラム
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US8731876B2 (en) * 2009-08-21 2014-05-20 Adobe Systems Incorporated Creating editable feature curves for a multi-dimensional model
JP5480914B2 (ja) * 2009-12-11 2014-04-23 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
US8803992B2 (en) * 2010-05-12 2014-08-12 Fuji Xerox Co., Ltd. Augmented reality navigation for repeat photography and difference extraction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7420542B2 (en) * 2004-05-25 2008-09-02 Avago Technologies Ecbu Ip Pte Ltd Apparatus for capturing and analyzing light and method embodied therein
CN1694512A (zh) * 2005-06-24 2005-11-09 清华大学 一种交互式多视点视频系统中虚拟视点的合成方法
US20100142828A1 (en) * 2008-12-10 2010-06-10 Electronics And Telecommunications Research Institute Image matching apparatus and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402984A (zh) * 2023-02-28 2023-07-07 北京优酷科技有限公司 三维模型处理方法、装置及电子设备
CN116402984B (zh) * 2023-02-28 2024-04-16 神力视界(深圳)文化科技有限公司 三维模型处理方法、装置及电子设备
CN116597111A (zh) * 2023-03-15 2023-08-15 磅客策(上海)智能医疗科技有限公司 一种三维图像的处理方法以及处理装置
CN116597111B (zh) * 2023-03-15 2024-04-26 磅客策(上海)智能医疗科技有限公司 一种三维图像的处理方法以及处理装置

Also Published As

Publication number Publication date
US9336626B2 (en) 2016-05-10
US8817075B2 (en) 2014-08-26
CN102316254B (zh) 2014-02-26
US20110316976A1 (en) 2011-12-29
JP5067450B2 (ja) 2012-11-07
JP2012014259A (ja) 2012-01-19
US20140204086A1 (en) 2014-07-24

Similar Documents

Publication Publication Date Title
CN102316254B (zh) 具备生成三维图像的功能的摄影装置及三维图像生成方法
KR102461093B1 (ko) 깊이 영상 제공 장치 및 방법
CN107113415B (zh) 用于多技术深度图获取和融合的方法和设备
CN105247859B (zh) 一个或多个卫星设备的主动立体显像
CN102236911B (zh) 三维建模装置和三维建模方法
JP5456020B2 (ja) 情報処理装置および方法
CN103339651B (zh) 图像处理装置、摄像装置以及图像处理方法
CN102208116B (zh) 三维建模装置以及三维建模方法
CN102737406B (zh) 三维建模装置及方法
JP4894939B2 (ja) 撮像装置、表示方法、および、プログラム
CN102542604A (zh) Ar处理装置和ar处理方法
JP6019729B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20190122018A (ko) 전자 장치 및 그 깊이 정보 생성 방법
US20150022697A1 (en) Projector Auto-Focus Correction with the Aid of a Camera
CN103181173A (zh) 三维图像处理装置、三维摄像装置以及三维图像处理方法
JP2017092662A (ja) 撮像装置及びその制御方法、ならびにプログラム
JP2016097657A (ja) 画像情報処理装置、画像情報処理方法およびプログラム、並びに撮像装置
JP2016116040A (ja) 撮像装置およびその制御方法
CN117456076A (zh) 一种材质贴图生成方法及相关设备
CN106303208B (zh) 图像采集控制方法和装置
JP2022106868A (ja) 撮像装置および撮像装置の制御方法
JP5126442B2 (ja) 三次元モデル生成装置、及び三次元モデル生成方法
JP2017215851A (ja) 画像処理装置および画像処理方法、造形システム
JP6127399B2 (ja) ステレオカメラ装置及びプログラム
JP6704700B2 (ja) 画像処理装置およびその制御方法ならびにプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant