CN102164233A - 摄像装置和3d建模数据的生成方法 - Google Patents
摄像装置和3d建模数据的生成方法 Download PDFInfo
- Publication number
- CN102164233A CN102164233A CN2010106156104A CN201010615610A CN102164233A CN 102164233 A CN102164233 A CN 102164233A CN 2010106156104 A CN2010106156104 A CN 2010106156104A CN 201010615610 A CN201010615610 A CN 201010615610A CN 102164233 A CN102164233 A CN 102164233A
- Authority
- CN
- China
- Prior art keywords
- corresponding points
- image
- subject
- exposure
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明提供一种摄像装置和3D建模数据的生成方法。摄像装置的控制部(210)设定适合对被摄体亮部曝光的曝光条件和适合对被摄体暗部曝光的曝光条件。控制部(210)控制第1摄像部(110)和第2摄像部(120)使其在设定的曝光条件下摄像,取得曝光条件不同的图像对。控制部(210)提取图像对间对应的特征点即对应点。控制部(210)在构成相同曝光条件下的图像对的图像间根据对应点的密度对提取出的对应点进行优化;在不同曝光条件下的图像间根据对应点的像素值进行优化。控制部(210)利用优化后的对应点,生成3D建模数据。
Description
技术领域
本发明涉及摄像装置和3D建模数据的生成方法,具体而言就是,涉及适于根据有明暗差的被摄体生成3D建模数据的摄像装置和3D建模数据生成方法。
背景技术
电脑制图时经常会用到三维(3D)表现,要求3D表现越来越逼真。对于此要求,用照相机拍摄实际的立体物,制作3D建模数据的方法正在确立。
在这种情况下,为识别立体物在三维空间中的位置,会使用所谓的复眼照相机(立体照相机),设定相当于视差的光轴偏差。
此外,已知一种图案投影法(pattern projection method),就像例如JP特开2007-101276号公报所述的那样,即便摄像对象是没有纹理的立体物、很难识别凹凸等立体形状的情况下,例如通过将点图案(dot-pattern)等投影图案对对象物进行投影,从而取得特征点。
在拍摄投影了投影图案的被摄体,制作3D建模数据时,如果被摄体存在明暗差,很难设定与被摄体整体相宜的曝光。所以,有时无法从摄像图像正确认识投影的投影图案。在这种情况下,不易得到高精度的3D建模数据。
发明内容
本发明的目的是提供一种摄像装置和3D建模数据的生成方法,即便被摄体存在明暗差,也可以很容易地制成高精度的3D建模数据。
为了到达上述目的,本发明的第1方面的摄像装置的特征在于包括:摄像部,对同一被摄体取得摄影位置不同的2个摄像图像;曝光设定部,设定与所述摄像部拍摄所述被摄体相关的1个或多个曝光条件;摄像控制部,控制所述摄像部,按照所述曝光设定部设定的曝光条件的数量,进行相应次数的摄像动作;对应点提取部,根据所述摄像控制部的控制取得的所述摄像图像,提取对应点,该对应点是所述2个摄像图像间相对应的特征点;对应点优化部,从所述对应点提取部提取的所述对应点中,选择符合规定条件的所述对应点;和3D建模数据生成部,利用所述对应点优化部选择的所述对应点,生成3D建模数据。
为了到达上述目的,本发明的第2方面的3D建模数据的生成方法中,由摄像装置生成被摄体的3D建模数据,该摄像装置具备针对同一被摄体取得摄影位置不同的图像对的摄像部,其特征在于包括以下步骤:第1摄像步骤,所述摄像部进行适合对被摄体亮部曝光的摄像动作,取得第1图像对;第2摄像步骤,所述摄像部进行适合对被摄体暗部曝光的摄像动作,取得第2图像对;对应点提取步骤,分别在所述第1图像对和所述第2图像对中,提取作为对应特征点的对应点;第1对应点优化步骤,在所述对应点提取步骤分别在所述第1图像对和所述第2图像对中提取出的所述对应点中,选择所述对应点的密度符合规定条件的所述对应点;第2对应点优化步骤,在所述对应点提取步骤在所述第1图像对和所述第2图像对之间提取出的所述对应点中,选择像素值符合规定条件的所述对应点;和3D建模数据生成步骤,组合并合成所述第1对应点优化步骤和所述第2对应点优化步骤中选择的所述对应点,利用该合成后的对应点,生成3D建模数据。
附图说明
图1A是用来说明本发明的实施方式的数字照相机是复眼照相机(平行立体照相机)的图,表示数字照相机的外观结构。
图1B是用来说明本发明的实施方式的数字照相机是复眼照相机(平行立体照相机)的图,表示平行立体的概念。
图2是表示本发明的实施方式的数字照相机的结构框图。
图3是表示由图2所示的控制部实现的功能的功能框图。
图4A是用来说明图1A所示的数字照相机进行的摄像动作的图,表示成为摄像目标的被摄体的实例。
图4B是用来说明图1A所示的数字照相机进行的摄像动作的图,表示通过摄像得到的图像对的实例。
图5是用来说明本发明实施方式中的“3D建模用摄像处理”的流程图。
图6是用来说明图5所示的“3D建模用摄像处理”中实行的“多级曝光决定处理”的流程图。
图7是图6所示的“多级曝光决定处理”中显示的“测光点指定画面”的例示图。图7A表示提示信息的显示例。图7B表示测光点的实例。
图8A是用来说明图5所示的“3D建模用摄像处理”中的摄像动作的图,表示被投射了投影图案的被摄体的实例。
图8B是用来说明图5所示的“3D建模用摄像处理”中的摄像动作的图,表示对被摄体亮部进行合适曝光时得到的图像对的实例。
图8C是用来说明图5所示的“3D建模用摄像处理”中的摄像动作的图,表示对被摄体暗部进行合适曝光时得到的图像对的实例。
图9是用来说明图5所示的“3D建模用摄像处理”中实行的“3D建模处理”的流程图。
图10A和图10B是用来说明图9所示的“3D建模处理”的图,表示经过模板匹配得到对应点图案的实例。
图10C是用来说明图9所示的“3D建模处理”的图,表示经过优化的对应点合成后的合成对应点的实例。
图11是用来说明图9所示的“3D建模处理”中实行的“对应点优化处理(1)”的流程图。
图12是用来说明图11所示的“对应点优化处理(1)”的图。图12A和图12B表示根据图像上的圆点间距进行优化的动作例。图12C和D表示优化后的对应点的实例。
图13是用来说明图9所示的“3D建模处理”中实行的“对应点优化处理(2)”的流程图。
图14A和图14B是用来说明图13所示的“对应点优化处理(2)”的图,表示根据不同曝光条件下图像间的亮度进行优化的动作例。
图14C和图14D是用来说明图13所示的“对应点优化处理(2)”的图,表示经过优化的对应点的实例。
图15是三角测量原理的说明图。
具体实施方式
下面,参照附图,对本发明的实施方式进行说明。本实施方式例示了用数字静物照相机(digital still camera)(以下为数字照相机)实现本发明的情况。本实施方式的数字照相机1是所谓的复眼照相机(立体照相机),其具有一般数字静物照相机的功能,但图1A所示具备2个与摄像有关的结构。
这种具有复眼照相机结构的数字照相机1除具有通常的摄像功能以外,还具有利用所拍图像进行三维建模(3D建模)的功能。因此,为得到适合3D建模的摄像图像,图1A所示那样构成了图案投影部130(详细内容后述)。
参照图2,对这种数字照相机1的结构进行说明。图2是表示本发明的实施方式的数字照相机1的结构框图。本实施方式的数字照相机1如图所示,大致由摄像动作部100、数据处理部200、接口(I/F)部300等构成。
摄像动作部100是数字照相机1摄像时工作的部分,如图2所示,它由第1摄像部110、第2摄像部120、图案投影部130等构成。
第1摄像部110和第2摄像部120是数字照相机1实行摄像动作的部分。如上所述,本实施方式的数字照相机1是复眼照相机,所以,结构上包括第1摄像部110和第2摄像部120,不过第1摄像部110和第2摄像部120具有相同结构。以下,对第1摄像部110的结构部分附加110号开始的参照符号;对第2摄像部120的结构部分附加120号开始的参照符号。
如图2所示,第1摄像部110(第2摄像部120)由光学装置111(121)和图像传感器部112(122)等构成。
光学装置111(121)例如包含镜头、光圈机构、快门机构等,实行与摄像有关的光学动作。也就是说,通过光学装置111(121)的动作,入射光会被聚集,同时,焦距、光圈、快门速度等与视角、焦点、曝光等有关的光学要素会被调整。
另外,光学装置111(121)包含的快门机构是所谓的机械快门,在仅由图像传感器的动作就能操作快门的情况下,光学装置111(121)也可以不包含快门机构。此外,光学装置111(121)是在后述的控制部210的控制下进行动作。
图像传感器部112(122)例如由CCD(Charge Coupled Device:电荷耦合元件)和CMOS(Complementally Metal Oxide Semiconductor:互补金属氧化物半导体)等图像传感器构成,根据光学装置111(121)聚集的入射光,生成电信号。图像传感器部112(122)通过光电转换,产生与受光相应的电信号,向数据处理部200输出。
如上所述,第1摄像部110和第2摄像部120具有相同结构。更为具体而言,镜头的焦距f和F值、光圈机构的光圈范围、图像传感器的尺寸、像素数、排列、像素面积等各种规格全都相同。
具备这种第1摄像部110和第2摄像部120的数字照相机1如图1A所示构成为:光学装置111中构成的镜头和光学装置121中构成的镜头在数字照相机1外面形成在同一面上。
这里,当快门按钮朝上水平放置数字照相机1时,两个镜头(受光部)的中心位置是在水平方向的同一直线上。也就是说,如果使第1摄像部110和第2摄像部120同时动作,会拍摄到同一被摄体的图像,对于这些图像,各图像中的光轴在横向偏移。
在这种情况下,第1摄像部110和第2摄像部120的配置会形成图1B的透视投射模型所示的光学特性。图1B所示的透视投射模型是以X、Y、Z组成的三维直角坐标系为基础的投射模型,针对第1摄像部110的该坐标系以下称为“照相机坐标”。图1B示出了以第1摄像部110的光学中心为原点的照相机坐标。
在照相机坐标中,Z轴与照相机的光轴方向一致,X轴和Y轴分别与图像的横向和纵向平行。这里,如果将光轴与图像坐标面的交点设为原点(也就是光学中心),换算图像传感器的像素间隔,使照相机坐标与长度单位吻合的话,那么表示被摄体A1的图像坐标在针对第1摄像部110的图像坐标面上就是(u1,v1);在针对第2摄像部120的图像坐标面上就是(u’1,v’1)。
第1摄像部110和第2摄像部120的光轴彼此平行(也就是说,收敛角为0),且第1摄像部110的图像坐标的u轴与第2摄像部120的图像坐标的u’轴被配置在同一直线、同一方向(也就是极线(epipolar line)一致)。此外,如上所述,第1摄像部110和第2摄像部120的焦距f和像素间隔相同,光轴与图像坐标面垂直相交。这种构成称为“平行立体”,数字照相机1的第1摄像部110和第2摄像部120就是平行立体的结构。
返回图2,继续说明数字照相机1的结构。
图案投影部130在利用图案投影法,进行基于数字照相机1的摄像的3D建模时,对投影图案进行投影。图案投影部130例如由以下各部构成,分别是:由氙闪光灯或LED等发光装置构成的光源;由光源光对被摄体投影的投影图案;用来聚集和扩散投影光的透镜和反射板等。
这种图案投影部130除了可以用具有上述结构的专用装置实现,还可以通过以下方式实现,例如在通常数字照相机配备的内置闪光灯或AF辅助光等具有发光功能的结构上,附加能对投影图案进行投影的结构。
数据处理部200对第1摄像部110和第2摄像部120通过摄像动作产生的电信号进行处理,生成表示摄像图像的数字数据,同时对摄像图像实行图像处理等。如图2所示,数据处理部200由控制部210、图像处理部220、图像存储器230、图像输出部240、存储部250、外部存储部260等构成。
控制部210例如由CPU(Central Processing Unit:中央运算处理装置)等处理器和RAM(Random Access Memory)等主存储装置(存储器)等构成,通过执行后述的存储部250等中保存的程序,控制数字照相机1的各部。在本实施方式中,通过执行规定的程序,由控制部210实现与后述的各处理相关的功能。本实施方式中,对于与3D建模相关的处理也是由控制部210来进行,不过,也可以由控制部210之外独立的专用处理器等进行处理。
图像处理部220例如由ADC(Analog-Digital Converter:模拟数字转换器)、缓冲存储器、图像处理用处理器(所谓的图像处理引擎)等构成,图像处理部220根据图像传感器部112和122生成的电信号,生成表示摄像图像的数字数据。
也就是说,当ADC将图像传感器部112(122)输出的模拟电信号转换为数字信号并依次保存到缓冲存储器中时,图像处理部220会通过图像处理引擎对缓存的数字数据实行所谓成像处理等,由此来进行画质调整或数据压缩等。
图像存储器230例如由RAM或闪存等存储装置构成。图像存储器230暂时保存图像处理部220生成的摄像图像数据和控制部210处理的图像数据等。
图像输出部240例如由RGB信号生成电路等构成。图像输出部240将图像存储器230中存储的图像数据转换为RGB信号等,输出到显示画面(后述的显示部310等)。
存储部250例如由ROM(Read Only Memory)或闪存等存储装置构成。存储部250保存数字照相机1进行动作时需要的程序和数据等。在本实施方式中,存储部250保存控制部210等执行的动作程序或实行处理时需要的参数和算式等。
外部存储部260例如由存储卡等可在数字照相机1上插拔的存储装置构成。外部存储部260保存数字照相机1拍摄的图像数据和生成的3D建模数据等。
接口部300是数字照相机1与照相机使用者或外部装置之间的接口所涉及的结构,如图2所示,它由显示部310、外部接口(I/F)部320、操作部330等构成。
显示部310例如由液晶显示装置等构成。显示部310显示输出以下内容:操作数字照相机1所需要的各种画面、摄影时的实时取景图像、摄像图像、3D建模数据等。在本实施方式中,显示部310根据来自图像输出部240的图像信号(RGB信号)等,显示输出摄像图像等。
外部接口部320例如由USB(Universal Serial Bus)连接器或视频输出端子等构成。外部接口部320有时将图像数据或3D建模数据等传输到外部计算机装置,有时将摄像图像或3D模式图像等显示输出到外部显示装置。
操作部330由数字照相机1的外面构成的各种按钮等构成。操作部330按照数字照相机1使用者的操作生成输入信号,输入到控制部210。构成操作部330的按钮例如包含:用于指示快门动作的快门按钮、用于指定数字照相机1具有的动作模式的模式按钮、以3D建模设定为首的用来进行各种设定的十字键和功能键等。
这里,在本实施方式中,后述的各处理是由控制部210执行存储部250中保存的动作程序来实现的。参照图3,对控制部210此时实现的功能进行说明。
图3是表示由控制部210实现的功能的功能框图。这里,它表示从复眼照相机拍摄的图像中提取被摄体图像的功能在实现时所需要的功能结构。在这种情况下,如图3所示,控制部210作为以下各部来发挥功能,分别是:动作模式处理部211、摄像控制部212、对应点提取部213、对应点优化部214、3D建模部215等。
动作模式处理部211协同显示部210,显示使用者在指定数字照相机1具有的各种动作模式时所需要的画面或每个被指定的动作模式的设定画面等。另外,动作模式处理部211协同操作部330,识别使用者所指定的模式,从存储部250中读出执行该动作模式所需要的程序和算式等,装载到控制部210的主存储装置(存储器)中。
在本实施方式中,在数字照相机1摄影后,对摄像图像进行3D建模的动作模式(3D建模模式)由使用者指定。以下说明的控制部210的各功能结构是根据3D建模模式的被指定,通过动作模式处理部211执行装载的程序来实现的功能结构。
摄像控制部212通过控制第1摄像部110和第2摄像部120,实行数字照相机1的摄像动作。此时,摄像控制部212会对例如一般数字照相机实行的测光、对焦、自动曝光、摄像时显示画面等与摄像有关的各种处理进行控制。
此外,本实施方式的3D建模功能利用从平行立体结构的第1摄像部110和第2摄像部120取得的多个摄像图像。因此,本实施方式的摄像控制部212会控制第1摄像部110和第2摄像部120同时连续拍摄(连拍)。此外,摄像控制部212还会对此类连拍实施控制,变换曝光条件,进行摄像。这样,对于同一被摄体,就可以取得曝光条件不同的多组摄像图像,一组摄像图像(图像对)是摄影位置不同的2个摄像图像。
此外,在本实施方式中,以“3D建模模式”进行拍摄动作时,摄像控制部212通过控制图案投影部130,将投影图案投影于被摄体。
对应点提取部213在拍摄的图像之间进行比对,提取图像图案表示的特征点,该图像图案是将图案投影部130对被摄体投影的投影图案映在摄像图像上的影像。此时,对应点提取部213提取复眼照相机取得的摄影位置不同的多个图像间的对应特征点(对应点)。
在本实施方式中使用模板比对(模板匹配),将一个图像作为模板进行比对,通过图像间的比对提取对应点。此时,模板比对中例如是使用SSD(Sum of Squated Difference),以差的平方和作为评价式。利用SSD进行模板比对时,如果比对的图像完全一致,SSD的值就是“0”。也就是说,图像间差异越大,该值越大,所以模板比对得到的值表示与模板的差异程度。可以认为在此类模板比对中,例如使用各图像的亮度值或绿色值。
对应点优化部214对对应点提取部213提取出的对应点进行优化,以便使其适用于3D建模。此时,对应点优化部214会算出对应点提取部213提取出的各对应点与周边对应点之间的距离,或者算出与不同帧(摄像时间不同)的对应点之间的距离,按照基于距离的条件删除对应点,实行优化。这里的距离可以认为是欧几里得距离(Euclidean distance)。
此外,对应点优化部214在得到曝光条件不同的图像时,除了会根据对应点间的距离进行优化,还会比较不同曝光条件下图像之间对应位置的亮度,按照基于亮度的条件删除对应点,实行优化。
3D建模部215使用对应点优化部214优化后的对应点(特征点),实行3D建模。此时,3D建模部215例如会对对应点进行德劳内(Delaunay)分割,由此生成多边形(polygon),实行3D建模。
以上是控制部210实现的功能。另外,在本实施方式中,通过控制部210执行程序以逻辑处理来实现上述各功能。另外,这些功能也可以通过例如ASIC(Application Specific Integrated Circuit:专用集成电路)等硬件来构成。在这种情况下,在图3所示的功能中,与图像处理有关的功能也可以由图像处理部220实现。
以上说明的数字照相机1的结构是实现本发明所必需的结构,可以认为它是根据需要具备的用于数字照相机的基本功能和各种附加功能的结构。
以下,对上述结构的数字照相机1的动作进行说明。这里,表示了数字照相机1动作模式中上述“3D建模模式”被选择时的动作例。此时,数字照相机1会进行摄像,根据摄像图像实行3D建模。
在进行上述摄像时,本实施方式是假设对图4A所示的被摄体TG进行拍摄。如图4A所示,被摄体TG包含反射率高的发白部分(亮部)和反射率低的发黑部分(暗部)。以下,将被摄体TG中的亮部设为被摄体TG+;将暗部设为被摄体TG-。另外,附图中用简单化图形表示被摄体TG,但实际拍摄的被摄体TG是立体物(例如人物、动物、美术品等)。另外,在本实施方式中,用数字照相机1拍摄作为这种立体物的被摄体TG,根据摄像图像生成3D建模数据,用来将被摄体TG表示成三维图像。
如上所述,本实施方式的数字照相机1具有复眼照相机的结构,图4B表示用这种数字照相机1拍摄被摄体TG时的摄像图像的实例。在本实施方式中,可以认为构成第1摄像部110的镜头被配置在面对被摄体的右侧,将该第1摄像部110(右侧照相机)拍摄的图像作为基准图像。也就是说,第1摄像部110拍摄的图像被作为取景器图像等使用。例如,以被摄体处在画面中央的方式进行取景的情况下,如图4B所示,反映在第1摄像部110的摄像图像即图像IM(R)。
另一方面,第2摄像部120被配置在第1摄像部110的左侧。所以,如图4B所示,由这种第2摄像部120(左侧照相机)拍摄的图像即图像IM(L),与图像IM(R)相比,被摄体的映射位置偏向右侧。
在本实施方式中,由于第1摄像部110和第2摄像部120同时进行摄像动作,所以图4B所示的图像IM(L)和图像IM(R)会被同时取得。设这种通过1次摄像动作取得的图像IM(L)和图像IM(R)的图像组为图像对IP。
参照图5所示的流程图,对取得上述摄像图像的数字照相机1在“3D建模模式”被选择的情况下执行的“3D建模用摄像处理”进行说明。当数字照相机1的使用者通过操作部330选择了3D建模模式时,该“3D建模用摄像处理”开始。此时,动作模式处理部211会从存储部250载入与被摄体提取动作有关的程序等,通过图3所示的各功能结构,实行以下处理。
处理开始时,摄像控制部212根据来自操作部330的输入信号,判别快门按钮是否被操作(步骤S11)。这里,可以认为本实施方式的数字照相机1与通常照相机同样,快门按钮有2段行程(stroke)。此外,按至第1段行程(整个行程的半途中)的状态是“半按”,按至第2段行程(整个行程的底部)的状态是“全按”。
在步骤S11,摄像控制部212判别快门按钮是否被半按。另外,与通常照相机相同,快门按钮半按时实行被摄体对焦。步骤S11中检测出半按时,在图4所示的状况下确定被摄体TG的取景,进行针对被摄体TG的对焦。
另外,在本实施方式中,由于3D建模是根据摄像图像来实行,所以,认为在被摄体TG被置于取景器的中央且被摄体TG整个都被收纳的取景下进行摄像。此外,由于使用通过连拍进行多次拍摄而得到的图像,所以为了使被摄体TG的位置在图像间不发生偏移,优选数字照相机1在摄像时是固定的。
当快门按钮被半按时(S11:是),摄像控制部212控制第1摄像部110,实行对焦动作。这时,摄像控制部212通过自动曝光(AE:AutoExposure)功能来决定曝光(步骤S12)。这里,认为摄像控制部212是通过AE中的多分割测光这一标准测光方式来决定曝光的。也就是说,摄像控制部212将画面整体分割为多个区进行测光,算出使整体亮度与反射率为18%的灰色相同的曝光条件。将步骤S12中根据多分割测光得到的曝光条件(光圈、快门速度、ISO灵敏度等的组合)设为“EV0”(EV:ExposureValue)。摄像控制部212将决定的EV0保存在存储器中。
曝光条件算出后,摄像控制部212会根据该曝光条件,制作表示针对摄像图像(这里是成为取景器图像的动态图像)亮度分布的直方图。摄像控制部212会对该直方图进行验证(步骤S13),判别被摄体TG是否存在较大的明暗差(步骤S14)。这里,如果直方图上的暗部侧和亮部侧两方相差很大,摄像控制部212就判别被摄体TG存在明暗差。也就是说,如果是拍摄到图4A那样的包含被摄体TG+和被摄体TG-的被摄体TG时,摄像控制部212就判别被摄体存在较大明暗差。
这里,在本实施方式中,摄像控制部212为了对图案投影部130进行控制,并根据摄像图像取得3D建模数据,会对被摄体TG进行投影图案的投影(详细内容后述)。此时,如果被摄体TG存在较大明暗差,那么在根据多分割测光这个将整体亮度视为一定的测光方法来决定曝光条件时,会处于无法识别部分图像图案的状态,无法进行正确的3D建模。
因此,在本实施方式中,如果摄像控制部212在步骤S14中判别被摄体TG明暗差别很大,则分别对被摄体TG的亮部(也就是被摄体TG+)和暗部(也就是被摄体TG-)进行曝光(以下称“多级曝光”)。而且,摄像控制部212可以通过不同曝光条件的摄像,从摄像图像中正确提取图像图案。
因此,摄像控制部212在判别被摄体TG明暗差很大的情况下(步骤S14:是),实行“多级曝光决定处理”,用于决定多级曝光时的曝光条件(步骤S100)。参照图6所示的流程图,对该“多级曝光决定处理”进行说明。
处理开始后,摄像控制部212会在显示部310显示“测光点指定画面”,用于让摄影者指定被摄体TG上的测光点(步骤S101)。这里,显示部310显示的“测光点指定画面”例如就像图7A所示的那样。在“测光点指定画面”上,首先显示部310会显示“被摄体存在明暗差”的提示消息,同时显示促使使用者指定测光点的消息。
其次,摄像控制部212会像图7B所示的那样,在显示部310上显示测光点指定画面,将可选择的多个测光点显示在取景器图像上。摄影者通过操作部330的十字键等,指定处于被摄体TG明亮部分(也就是被摄体TG+)的测光点。
当被摄体TG+的测光点被指定时(步骤S102:是),摄像控制部212会控制第1摄像部110,通过所谓的点测光,对以指定的测光点为中心的狭小范围(例如画面整体的约几%的面积)进行测光,决定曝光条件(步骤S103)。将被摄体TG+经过点测光后的曝光条件设为“EV+”。摄像控制部212将决定的EV+保存在存储器中。
当针对被摄体TG+的曝光条件决定后,摄像控制部212会再次在显示部310上显示图7B那样的测光点指定画面,让摄影者指定处于被摄体TG黑暗部分(也就是被摄体TG-)的测光点。
被摄体TG-的测光点被指定时(步骤S104:是),与被摄体TG+的情况同样,摄像控制部212通过以指定的测光点(也就是被摄体TG-上的测光点)为中心的点测光来决定曝光条件(步骤S105)。设被摄体TG-经过点测光后的曝光条件是“EV-”。摄像控制部212将决定的EV-保存在存储器中。
这样,被摄体TG中的被摄体TG+和被摄体TG-的曝光就会被分别设置。然后返回“3D建模用摄像处理”(图5)的流程。
这里,如果摄像控制部212按照步骤S12决定的曝光条件判别被摄体TG的明暗差不大(步骤S14:否),就不实行“多级曝光决定处理”(步骤S100)。此时,步骤S12中通过多级分割测光得到的曝光条件EV0会被用于以后的摄像中。
在这样决定曝光条件(EV0或EV+和EV-)后,摄像控制部212会控制图案投影部130,开始对被摄体TG进行投影图案的投影(步骤S15)。也就是说,如图8A所示那样,对被摄体TG进行投影图案的投影。这里,由图案投影部130投射的投影图案例如是小圆点被规则排列的点图案,也可以不限于此,而采用3D建模的图案投影法中使用的各种图案(例如随机图案等)。
在这种状态下,如果检测出指示摄像动作的快门按钮被全按(步骤S16:是),摄像控制部212会控制第1摄像部110和第2摄像部120,按照决定的曝光条件进行摄像(步骤S17)。这里要指出的是,如果摄像控制部212判别被摄体TG没有很大的明暗差(多级曝光),就以步骤S12中决定的EV0进行摄像;如果摄像控制部212判别被摄体TG存在很大的明暗差,就以“多级曝光决定处理”(图6)的步骤S103中决定的EV+进行摄像。
然后,在多级曝光的情况下(步骤S18:是),摄像控制部212会继续对第1摄像部110和第2摄像部120进行控制,以“多级曝光决定处理”(图6)的步骤S105中决定的EV-进行摄像(步骤S19)。
也就是说,如果被摄体TG没有较大的明暗差,就以EV0为曝光条件,进行一次摄像动作,摄像控制部212取得图4B那样的图像对IP。另一方面,如果被摄体TG存在较大的明暗差,就分别以EV+和EV-为曝光条件,进行两次摄像动作。这时,摄像控制部212取得图8B和图8C那样的两个图像对IP(图像对IP+和图像对IP-)。
这里,以被摄体TG+经过点测光之后的曝光条件EV+得到的图像对IP设为图像对IP+(图8B)。将构成图像对IP+的图像IM(L)设为图像IM(L) +;将图像IM(R)设为图像IM(R)+。这里要指出的是,由于对作为被摄体TG亮部的被摄体TG+进行了点测光,所以被摄体TG+会被正确曝光(被摄体TG+中的灰度变化清晰呈现的状态)。此时,如图8B所示,作为被摄体TG暗部的被摄体TG-曝光不足,这种情况下出现所谓的“发黑(黑つぶれ)”。在这种情况下,很难根据摄像图像正确提取对被摄体TG-投影的投影图案(为了明示曝光条件的不同,图8B没有图示投影图案)。
此外,以被摄体TG-经过点测光之后的曝光条件EV-得到的图像对IP设为图像对IP-(图8C)。将构成图像对IP-的图像IM(L)设为图像IM(L) -;将图像IM(R)设为图像IM(R)-。这里要指出的是,由于对作为被摄体TG暗部的被摄体TG-进行了点测光,所以被摄体TG-被正确曝光(被摄体TG-中的灰度变化清晰呈现的状态)。此时,如图8C所示,作为被摄体TG亮部的被摄体TG+过度曝光,这种情况下出现所谓的“发白(白飛び)”。在这种情况下,很难根据摄像图像正确提取对被摄体TG+投影的投影图案(为了明示曝光条件的差异,图8C没有图示投影图案)。
得到这种摄像图像后,摄像控制部212会将得到的图像对IP或图像对IP+和图像对IP-保存在图像存储器中,同时控制图案投影部130,结束投影(步骤S20)。然后,实行“3D建模处理”,根据得到的摄影图像进行3D建模(步骤S200)。参照图9所示的流程图,对该“3D建模处理”进行说明。
在进行本处理的3D建模时,首先,对应点提取部213从摄像图像提取对被摄体TG投影的投影图案。处理开始后,对应点提取部213会取得成为目标的摄像图像。如上所述,被摄体TG有无明暗差决定着不同的摄像动作,所以对应点提取部213会判别“3D建模用摄像处理”(图5)中的摄像是否是多级曝光(步骤S201)。
如果是多级曝光(步骤S201:是),如上所述,就会得到图像对IP+和图像对IP-的2组图像对。对应点提取部213首先从图像存储器230中取得图像对IP+(步骤S202)。
对应点提取部213在构成所取得的图像对IP+的图像IM(L)+和图像IM(R)+,进行模板匹配(步骤S203)。这里是利用已知的图像识别技术,根据图案投影部130投射的投影图案的特征(形状、大小、排列图案等),提取图像IM(L)+上映射的图像图案(特征点候补)。对应点提取部213将从图像IM(L)+提取的特征点候补的图像作为模板。
然后,对应点提取部213在这种模板与另一图像也就是图像IM(R)+之间,利用SSD等进行模板匹配。其结果,一致程度在希望阈值以上的特征点就被确定为图像对间对应的特征点(以下称为“对应点”)。这里是以相同曝光条件取得的图像对间的对应点,对应点提取部213会确定以此类对应点构成的对应点图案(以下称为“对应点图案PA+”)(步骤S204)。也就是说,对应点提取部213在反映出相当于视差的摄影位置不同的图像对之间,确定对应点图案,以便能够在算出3D建模时需要的数字照相机1至各特征点之间的距离时使用。
图10A中以IM(PM)+例示了在构成图像对IP+的图像IM(L)+和图像IM(R)+之间进行模板匹配后的图像。这里,如图所示,取得了图像IM(L)+与图像IM(R)+之间一致的对应点,但图像对IP+是被摄体TG+正确曝光时的图像对,所以被摄体TG+上的对应点几乎完全被确定,而曝光不足的被摄体TG-的对应点则是没被完全确定。
这里要指出的是,在对整个被摄体TG进行3D建模时,必需确定被摄体TG+和被摄体TG-的几乎所有对应点。本实施方式通过后述的处理,会对不完全的对应点进行补充。
同样,对应点提取部213也会在被摄体TG-正确曝光的图像对IP-进行模板匹配,其结果被摄体TG-上几乎是完全的对应点,而被摄体TG+上对应点不完全,由这种对应点组成的对应点图案PA-(图10B)也会被确定。
也就是说,对应点提取部213从图像存储器230中取得图像对IP-(步骤S205),以从图像IM(L)-提取的图像图案为模板,进行模板匹配(步骤S206),将一致程度在希望阈值以上的特征点,确定为对应点图案PA-,它是由相同曝光条件下取得的图像对间的对应点组成(步骤S207)。
另外,如果摄像时不是多级曝光(步骤S201:否),对应点提取部213会从图像存储器230中取得以EV0拍摄的图像对IP(步骤S208),在构成所取得的图像对IP的图像IM(L)和图像IM(R)进行模板匹配(步骤S209)。对应点提取部213将一致程度在希望阈值以上的特征点候补,确定为对应点图案PA,它是由相同曝光条件下取得的图像对间对应的特征点(对应点)组成(步骤S210)。此时,由于被摄体TG没有较大的明暗差,所以对于任何一个以EV0拍摄的图像IM(L)和图像IM(R),都会从对被摄体TG投射的投影图案明确地得到图像图案。
这样,对应点提取部213通过在构成各图像对的图像之间进行模板匹配来提取对应点,将模板匹配的结果保存在图像存储器230中。然后,对应点优化部214会实行“对应点优化处理(1)”,对提取的对应点进行优化(步骤S300)。这里所谓的“优化”是指:补充被摄体TG+和被摄体TG-因曝光过度或曝光不足而导致的不完全的对应点图案,提取对应点图案中状态上佳的部分。参照图11所示的流程图,对该“对应点优化处理(1)”进行说明。
处理开始后,对应点优化部214会从图像存储器230中取得图10B那样的对应点图案PA-(步骤S301)。这里,对应点图案PA-认为包含对应点PA1-~PAn-(也就是有n个对应点),对应点优化部214对对应点PA1-~PAn-进行1~n的编号(步骤S302)。
对应点图案PA-的各对应点编号后,对应点优化部214会对用来指定构成该对应点图案PA-的对应点的计数器m设定初始值1(步骤S303),从对应点图案PA-搜索第m对应点也就是对应点PAm-(步骤S304)。
在搜索对应点PAm-时,对应点优化部214会在对应点图案PA-内,确定最近点PAx-,最近点PAx-例如是图12A所示的最靠近对应点PAm-的对应点(步骤S305)。然后,对应点优化部214会算出对应点PAm-与最近点PAx-之间的距离(距离Dmx)(步骤S306)。
对应点优化部214将算出的距离Dmx与阈值Dth进行比较。如果对应点PAm-与其最近点PAx-间的距离Dmx在阈值Dth以上(步骤S307:是),对应点优化部214就会像例如图12B所示的那样,从对应点图案PA-中删除对应点PAm-(步骤S308)。
另一方面,如果距离Dmx未达到阈值Dth(步骤S307:否),对应点PAm-就会留在对应点图案PA-中。
接下来,对应点优化部214使计数器m加1(步骤S309),该值如果是在对应点数量n以内(步骤S310:否),对应点优化部214就对下一个对应点进行步骤S304之后的处理。对应点优化部214在对应点图案PA-的所有对应点都执行过这种处理后(步骤S310:是),如图12C所示,没有被步骤S308删除的对应点就会保留下来。对应点优化部214会将此类对应点构成的对应点图案作为对应点图案PB-,保存在图像存储器230中(步骤S311)。
也就是说,通过在构成图像对IP-的图像间进行模板匹配从而得到对应点图像PA-,根据圆点间的距离对对应点图案PA-的点图案进行优化,得到优化后的对应点图案PB-。
然后,对应点优化部214会从图像存储器230中取得对应点图案PA+(步骤S312),针对取得的对应点图案PA+执行与上述步骤S302~步骤S310同样的处理(步骤S313)。由此,对应点优化部214就会根据图像上圆点间的距离优化对应点图案PA+,得到优化后的对应点图案PB+(图12D)(步骤S314)。这样得到的对应点图案PB+也被同样保存在图像存储器230中。
如上所述,对摄像图像上的图像图案的优化分别在曝光条件不同的摄像图像上进行,根据图像上其点图案的圆点间距进行。也就是说,按照以下方式优化,即:在同一曝光条件下拍摄的图像对中,通过除去对应点密度低的点,只留下对应点密度高的部分。
另外,如果被摄体TG没有明暗差、摄像是在EV0下进行,那么就执行与步骤S302~步骤S310同样的处理。由此,对于通过在图像对IP的各图像进行模板匹配而得到的对应点图案PA,根据图像上圆点的间距而得到优化。
也就是说,在“对应点优化处理(1)”中,不论拍摄目标摄像图像时是否是多级曝光,都会进行对应点的优化。另外,包含在最初取得的对应点图案PA、对应点图案PA+、对应点图案PA-中的对应点的数目一律被设为n,这只是为了方便,并不代表数目相同。
该“对应点优化处理(1)”结束后,返回“3D建模处理”(图9)的流程。在“3D建模处理”中,如果是多级曝光的摄像(步骤S211:是),对应点优化部214会实行“对应点优化处理(2)”,用于进一步进行优化(步骤S400)。参照图13所示的流程图,对该“对应点优化处理(2)”进行说明。
对应点优化部214从图像存储器230中取得经“对应点优化处理(1)”(图11)得到的对应点图案PB-和对应点图案PB+(步骤S401)。这里,设对应点图案PB-包含对应点PB1-~PBn-(也就是n个对应点),对应点优化部214对对应点PB1-~PBn-进行1~n的编号(步骤S402)。本实施方式将对应点数设为n个,这只是为了方便,并不代表数目全都相同。
对应点图案PB-的各对应点编号后,对应点优化部214对用来指定构成该对应点图案PB-的对应点的计数器m设定初始值1(步骤S403)。然后对应点优化部214在对应点图案PB-中,搜索例如图14A所示的第m对应点也就是对应点PBm-(步骤S404)。
然后,对应点优化部214在对应点图案PB+中,确定例如图14B所示那样的与对应点图案PB-上的对应点PBm-相同的坐标位置(二维平面位置)(步骤S405)。然后,对应点优化部214确定离该位置在固定距离之内的多个对应点,也就是对应点群PBm+(图14B)(步骤S406)。
在对应点图案PB+中确定对应点群PBm+之后,对应点优化部214会算出对应点群PBm+的平均亮度(步骤S407),同时会确定步骤S404搜索出的对应点图案PB-上的对应点PBm-的亮度(步骤S408)。
对应点优化部214将算出的对应点群PBm+的平均亮度和对应点PBm-的亮度分别与参照亮度值BRref进行比较(步骤S409)。该参照亮度值BRref例如是亮度级的中间值(例如如果亮度是8位,参照亮度值BRref就是“127”)。
作为比较结果,如果对应点PBm-的亮度比对应点群PBm+的平均亮度更加远离参照亮度值BRref(步骤S410:是),则对应点优化部214就从对应点图案PB-中删除对应点PBm-(步骤S411)。另一方面,如果对应点群PBm+的平均亮度离参照亮度值BRref更远(步骤S410:否),则对应点PBm-就保留在对应点图案PB-中。也就是说,由于很难识别对应点PBm-极亮或极暗的亮度,所以将此类对应点排除。
在对对应点PBm-进行上述处理后,对应点优化部214使计数器m加1(步骤S412),该值如果是在对应点数量即n以内(步骤S413:否),则对应点优化部214就对下一个对应点进行步骤S404之后的处理。在对应点图案PB-的所有对应点都执行过这种处理后(步骤S413:是),如图14C所示,没有被步骤S411删除的对应点就会保留下来。对应点优化部214会将此类对应点构成的对应点图案作为对应点图案PC-,保存在图像存储器230中(步骤S414)。
如上所述,对应点优化部214是通过在步骤S401取得的对应点图案PB-和对应点图案PB+中,在对应点图案PB-内的对应点PBm-与处于该对应点PBm-相同位置的对应点图案PB+的对应点群PBm+之间进行亮度比较,由此进行对应点优化。
然后,对应点优化部214对对应点图案PB+进行与步骤S402~步骤S413同样的处理(步骤S415),由此取得图14D那样的对应点图案PC+(步骤S416)。也就是说,对应点优化部214依次搜索对应点图案PB+上的对应点(对应点PBm+),在对应点图案PB-上确定相同坐标位置的对应点群PBm-。然后,对应点优化部214将对应点群PBm-的平均亮度和对应点PBm+的亮度分别与参照亮度值BRref进行比较。如果对应点PBm+的亮度离参照亮度值Brref较远,就将该对应点PBm+从对应点图案PB+中删除。
这样,亮度良好的对应点图案部分就会保留下来。也就是说,经过优化,以更易识别的亮度(像素值)呈现的对应点图案会被选出。对应点优化部214在得到基于此种亮度的优化之后的对应点图案PC-(图14C)和对应点图案PC+(图14D)之后,返回“3D建模处理”(图9)流程。
这里要指出的是,在实行多级曝光摄像从而进行了“对应点优化处理(2)”的情况下,对应点优化部214对构成所得到的对应点图案PC-(图14C)和对应点图案PC+(图14D)的各个对应点进行合成,形成图10C所示的合成对应点的对应点图案(步骤S212)。也就是说,由于各图像对是从相同照相机位置拍摄的,所以,在曝光条件不同的图像对之间,通过在二维平面上单纯合成对应点,就会形成合成对应点。
在这种情况下,3D建模部215会利用合成出的对应点,进行3D建模(步骤S213)。
另一方面,如果不是多级曝光下的摄像(步骤S211:否),3D建模部215会将对应点优化部214在对步骤S210确定的对应点图案PA进行的“对应点优化处理(1)”(步骤S300)中得到的对应点用于3D建模(步骤S213)。
3D建模部215根据三角测量原理,进行基于对应点的3D建模。这里,设某个对应点为A1,在照相机坐标中表示A1三维位置的坐标是(X1,Y1,Z1)。在这种情况下,在图1B所示的平行立体结构的数字照相机1中,A1的坐标(X1,Y1,Z1)分别由以下的式1~式3表示。这里,(u1,v1)表示第1摄像部110对对应点A1的投射点;(u’1,v’1)表示第2摄像部120对对应点A1的投射点。此外,b表示第1摄像部110和第2摄像部120的光轴间距(基线间距)。
(式1)
X1=(b·(u1))/((u′1)-u1)
(式2)
Y1=(b·(v1))/((u′1)-u1)
(式3)
Z1=(b·f)/((u′1)-u1)
这里,由于数字照相机1到A1的距离由A1的坐标Z1表示,所以,对应点优化部214用上述式3来计算,可以算出到被摄体TG上的对应点A1的摄影距离。
该式3根据三角测量原理导出。参照图15,对三角测量原理进行说明。
图15是图1B所示的平行立体结构的照相机坐标的俯视图。由于基于第1摄像部110的视点就是照相机坐标,所以,被摄体位置A1在X轴方向的坐标就是照相机坐标上的X1,该数值通过下面的式(1)求得。
另一方面,在从第2摄像部120的视点中A1的X轴方向坐标是光轴间距b与照相机坐标X1的和,通过下面的式(2)求得。由这些式(1)和式(2)会导出下面的式(3)。
(式1)
X1=((u1)·Z1)/f
(式2)
Y1=((u′1)·Z1)/f
(式3)
Z1=(b·f)/((u′1)-u1)
3D建模部215利用这种三角测量原理,通过算出到各对应点之间的摄影距离,生成针对被摄体TG的3D建模数据。
3D建模部215将这样生成的3D建模数据保存在存储部250或外部存储部260中(步骤S214),然后返回“3D建模用摄像处理”(图5)的流程。
在“3D建模用摄像处理”中,如果不发生例如3D建模模式解除或数字照相机1断电等规定的结束事件(步骤S21:否),就进行步骤S11以后的处理。也就是说,进行进一步的摄像动作,根据由此得到的摄像图像生成3D建模数据。然后,通过发生结束事件来结束处理(步骤S21:是)。
如上所述,像本实施方式这样应用本发明,能够很容易取得表现数字照相机拍摄的被摄体的高精度的3D建模数据。
由于可以对被摄体设定1个或多个曝光条件,所以可以取得多个对被摄体亮部和暗部曝光都很得当的摄像图像。因此,即便被摄体存在明暗差,也可以正确取得对被摄体投射的投影图案,从而生成高精度的3D建模数据。
在这种情况下,由于摄像装置具备了对被摄体投射投影图案的结构,所以,用1台摄像装置可以实现由摄像到3D建模数据生成的连续动作,能够很容易地制成高精度的3D建模数据。
此外,由于是根据对应点的密度,从根据摄像图像可以识别的图像图案中优化对应点,所以,例如可以提取对应点密度高的部分。因此,能够提高生成3D建模数据所必需的图案识别精度。
另外,由于是根据对应点的亮度优化对应点,所以例如可以提取对应点亮度高的部分。这样,可以提高生成3D建模数据所必需的图案识别精度。
在这种情况下,由于对提取的对应点进行合成,生成3D建模数据,所以可以从被摄体整体,进行精度较高的图案识别。这样,即便被摄体存在明暗差,也可以生成高精度的3D建模数据。
此外,在摄像时判别被摄体的明暗差,例如被摄体明暗差较大的情况下,可以设定多个曝光条件。由此,可以高效进行从摄像到生成3D建模数据的一连串作业。
上述实施方式为一实例,本发明的应用范围不限于此。也就是说,可以进行各种应用,所有实施方式均包含在本发明的范围中。
例如,上述实施方式是采取对被摄体投射投影图案的结构,但只要能提取对应点,并不限于该方法。例如既可以通过检测摄像图像上被摄体影像的边沿,从而提取对应点,也可以在被摄体存在纹理的情况下,根据该纹理提取对应点。
此外,上述实施方式在被摄体存在明暗差时,会让摄影者分别指定被摄体的亮部和暗部,例如也可以自动设定曝光条件,使多分割测光决定的曝光条件EV0的EV值偏移规定级数±方向。此时,例如使用通常的数字照相机的一般的AEB(Auto Exposure Bracket:自动多级曝光)功能。
此外,在上述实施方式中,摄像控制部在被摄体存在明暗差时会以不同曝光条件进行摄像,曝光条件当中也可以包含来自光源的光的方向和强度、对被摄体投射的投影图案。此时,摄像控制部在被摄体存在明暗差时会变更光的方向和强度,进行摄像。或者变更对被摄体投射的投影图案,进行摄像。
此外,在上述实施方式的“对应点优化处理(1)”中,根据某个对应点与该对应点的最近点之间的距离来进行优化,但只要能够根据对应点的密度进行优化,并不限于该方法。例如,也可以根据以某个对应点为中心的一定范围内的对应点数量,判别密度,进行优化。
此外,在上述实施方式的“对应点优化处理(2)”中,通过亮度比较来进行对应点的优化,只要能够根据对应点的像素值进行优化,并不限于该方法。例如,也可以通过对对应点像素值之一的绿色值的比较,来进行优化。
此外,在上述实施方式中,例示了在二维图像上取对应点来生成3D建模数据,但也可以在确定对应点时推定三维位置,作为三维对应点进行优化和合成处理。
另外,上述实施方式例示的是用复眼照相机(立体照相机)来实现本发明,在其摄像装置内构成有摄影位置不同的两个摄像部,但本发明也可以由具有1个摄像部的单眼照相机实现。在这种情况下,虽然要移动摄像部的位置,进行多次摄像动作,但只要添加使摄像部机械移动的结构等,产生相当于视差的光轴偏移即可。
此外,上述实施方式例示的是使两个摄像部形成平行立体结构的情况,但位置关系也可以是任意的。在这种情况下,预先测定两个摄像部的位置关系(外部参数),使用该外部参数,就可以将摄像图像转换为平行同位图像。在这种情况下,与使用平行立体结构的复眼照相机进行摄像的情况相同,为了得到平行同位图像内任意点的对应关系,只要对X方向或Y方向的一个方向进行搜索即可。
此外,上述实施方式例示的摄像装置具有对被摄体进行投影图案的投影的结构,但也可以在摄像装置上配备对投影图案进行投影的机构,只要能在摄像时将投影图案投影于被摄体即可。
通过预先配备与上述实施方式的摄像装置功能和结构同样的摄像装置,就可以实现本发明,由此,如果得到相当于视差的摄像图像,可以通过在已有摄像装置(数字照相机等)上使用程序,来实现本发明的摄像装置的功能。在这种情况下,可以通过执行程序来实现本发明的摄像装置的功能,该程序使具备与上述实施方式例示的数字照相机1相同结构的摄像装置的计算机(CPU等控制部)实现与上述控制部210同样的功能。
另外,上述实施方式表示的是数字照相机作为摄像装置的实例,也可以使用例如数码摄像机等实现本发明的摄像装置,只要具备与上述实施方式例示的数字照相机1同样的结构,摄像装置的形式任意。
不管是哪一种情况,都可以通过使用程序使已有装置具有本发明的图像显示装置的功能。此类程序的应用方法任意,除了可以保存在例如CD-ROM或存储卡等存储介质中应用,也可以例如通过互联网等通信媒体来应用。
(产业上的利用可能性)
根据本发明,就可以很容易地制成高精度的3D建模数据。
Claims (8)
1.一种摄像装置,其特征在于包括:
摄像部,对同一被摄体取得摄影位置不同的2个摄像图像;
曝光设定部,设定与所述摄像部拍摄所述被摄体相关的1个或多个曝光条件;
摄像控制部,控制所述摄像部,按照所述曝光设定部设定的曝光条件的数量,进行相应次数的摄像动作;
对应点提取部,根据所述摄像控制部的控制取得的所述摄像图像,提取对应点,该对应点是所述2个摄像图像间相对应的特征点;
对应点优化部,从所述对应点提取部提取的所述对应点中,选择符合规定条件的所述对应点;和
3D建模数据生成部,利用所述对应点优化部选择的所述对应点,生成3D建模数据。
2.根据权利要求1所述的摄像装置,其特征在于,
还包括:图案投影部,对被摄体投射投影图案,
所述对应点提取部根据作为所述投影图案在所述摄像图像上的映像的图像图案,提取所述2个摄像图像间相对应的特征点即对应点。
3.根据权利要求1所述的摄像装置,其特征在于,
所述曝光设定部至少设定适合对所述被摄体亮部曝光的曝光条件和适合对所述被摄体暗部曝光的曝光条件。
4.根据权利要求1所述的摄像装置,其特征在于,
所述对应点优化部选择所述对应点提取部提取出的所述对应点的密度符合规定条件的所述对应点。
5.根据权利要求1所述的摄像装置,其特征在于,
所述对应点优化部选择所述对应点提取部提取出的所述对应点中像素值符合规定条件的所述对应点。
6.根据权利要求1所述的摄像装置,其特征在于,
还包括:对应点合成部,组合并合成所述对应点优化部选择的所述对应点,
所述3D建模数据生成部利用所述对应点合成部合成后的所述对应点,生成所述3D建模数据。
7.根据权利要求1所述的摄像装置,其特征在于,
还具备:判断部,判别所述被摄体的明暗差,
所述曝光设定部根据所述判别部的判别结果,设定曝光条件。
8.一种3D建模数据的生成方法,由摄像装置生成被摄体的3D建模数据,该摄像装置具备针对同一被摄体取得摄影位置不同的图像对的摄像部,其特征在于包括以下步骤:
第1摄像步骤,所述摄像部进行适合对被摄体亮部曝光的摄像动作,取得第1图像对;
第2摄像步骤,所述摄像部进行适合对被摄体暗部曝光的摄像动作,取得第2图像对;
对应点提取步骤,分别在所述第1图像对和所述第2图像对中,提取作为对应的特征点的对应点;
第1对应点优化步骤,在所述对应点提取步骤分别在所述第1图像对和所述第2图像对中提取出的所述对应点中,选择所述对应点的密度符合规定条件的所述对应点;
第2对应点优化步骤,在所述对应点提取步骤在所述第1图像对和所述第2图像对之间提取出的所述对应点中,选择像素值符合规定条件的所述对应点;和
3D建模数据生成步骤,组合并合成所述第1对应点优化步骤和所述第2对应点优化步骤中选择的所述对应点,利用该合成后的对应点,生成3D建模数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-294804 | 2009-12-25 | ||
JP2009294804A JP4983905B2 (ja) | 2009-12-25 | 2009-12-25 | 撮像装置、3dモデリングデータ生成方法、および、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102164233A true CN102164233A (zh) | 2011-08-24 |
CN102164233B CN102164233B (zh) | 2014-08-27 |
Family
ID=44187030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010615610.4A Expired - Fee Related CN102164233B (zh) | 2009-12-25 | 2010-12-24 | 摄像装置和3d建模数据的生成方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8786679B2 (zh) |
JP (1) | JP4983905B2 (zh) |
CN (1) | CN102164233B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105578173A (zh) * | 2016-02-20 | 2016-05-11 | 深圳市晶源动力科技有限公司 | 一种快速三维空间投影摄像视觉识别系统 |
CN105763793A (zh) * | 2016-02-18 | 2016-07-13 | 西安科技大学 | 一种三维照片采集方法及采集系统 |
WO2016145625A1 (en) * | 2015-03-18 | 2016-09-22 | Xiaoou Tang | 3d hand pose recovery from binocular imaging system |
CN106455948A (zh) * | 2014-12-15 | 2017-02-22 | 奥林巴斯株式会社 | 摄像系统 |
CN112291459A (zh) * | 2020-10-23 | 2021-01-29 | 杭州思锐迪科技有限公司 | 一种摄影装置和三维扫描设备 |
CN112689082A (zh) * | 2019-10-17 | 2021-04-20 | 电装波动株式会社 | 具备事件相机的摄像装置 |
CN114454177A (zh) * | 2022-03-15 | 2022-05-10 | 浙江工业大学 | 一种基于双目立体视觉的机器人末端位置补偿方法 |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2289235A4 (en) | 2008-05-20 | 2011-12-28 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
JP5127787B2 (ja) * | 2009-07-30 | 2013-01-23 | 富士フイルム株式会社 | 複眼撮影装置及びその制御方法 |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8928793B2 (en) | 2010-05-12 | 2015-01-06 | Pelican Imaging Corporation | Imager array interfaces |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
WO2012155119A1 (en) | 2011-05-11 | 2012-11-15 | Pelican Imaging Corporation | Systems and methods for transmitting and receiving array camera image data |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
JP2014521117A (ja) | 2011-06-28 | 2014-08-25 | ペリカン イメージング コーポレイション | アレイカメラで使用するための光学配列 |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
KR102002165B1 (ko) | 2011-09-28 | 2019-07-25 | 포토내이션 리미티드 | 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법 |
US9412206B2 (en) | 2012-02-21 | 2016-08-09 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
EP2795248A1 (de) * | 2012-06-26 | 2014-10-29 | Siemens Aktiengesellschaft | Vorrichtung zur mobilen musterprojektion und deren verwendung |
JP5953142B2 (ja) * | 2012-06-27 | 2016-07-20 | オリンパス株式会社 | 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム |
CN104508681B (zh) | 2012-06-28 | 2018-10-30 | Fotonation开曼有限公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法 |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
CN104662589B (zh) | 2012-08-21 | 2017-08-04 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
EP2888698A4 (en) | 2012-08-23 | 2016-06-29 | Pelican Imaging Corp | PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE |
KR101207343B1 (ko) * | 2012-08-30 | 2012-12-04 | 재단법인대구경북과학기술원 | 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라 |
WO2014043641A1 (en) | 2012-09-14 | 2014-03-20 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
WO2014052974A2 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating images from light fields utilizing virtual viewpoints |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
JP2014115497A (ja) * | 2012-12-11 | 2014-06-26 | Samsung Electronics Co Ltd | 補助光投影装置、閃光装置、及びカメラ |
WO2014130849A1 (en) | 2013-02-21 | 2014-08-28 | Pelican Imaging Corporation | Generating compressed light field representation data |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
US9638883B1 (en) | 2013-03-04 | 2017-05-02 | Fotonation Cayman Limited | Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process |
WO2014138695A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for measuring scene information while capturing images using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
EP2973476A4 (en) | 2013-03-15 | 2017-01-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
US9615012B2 (en) * | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
CN104581112B (zh) * | 2013-10-14 | 2016-10-05 | 钰立微电子股份有限公司 | 快速产生摄像机的距离对视差关系表的系统及其相关方法 |
EP3066690A4 (en) | 2013-11-07 | 2017-04-05 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
EP3201877B1 (en) | 2014-09-29 | 2018-12-19 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
JP2017003469A (ja) * | 2015-06-11 | 2017-01-05 | キヤノン株式会社 | 三次元計測装置、三次元計測装置の制御方法及びプログラム |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
WO2021055585A1 (en) | 2019-09-17 | 2021-03-25 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
MX2022004163A (es) | 2019-10-07 | 2022-07-19 | Boston Polarimetrics Inc | Sistemas y metodos para la deteccion de estandares de superficie con polarizacion. |
MX2022005289A (es) | 2019-11-30 | 2022-08-08 | Boston Polarimetrics Inc | Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion. |
WO2021154386A1 (en) | 2020-01-29 | 2021-08-05 | Boston Polarimetrics, Inc. | Systems and methods for characterizing object pose detection and measurement systems |
US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
CN114078103A (zh) * | 2020-08-21 | 2022-02-22 | 先临三维科技股份有限公司 | 重建数据的方法及系统,扫描设备 |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001082938A (ja) * | 1999-09-16 | 2001-03-30 | Gen Tec:Kk | 3次元物体への光模様の投射・撮影方法及び同システム |
JP2002058046A (ja) * | 2000-08-11 | 2002-02-22 | Minolta Co Ltd | 撮像システムおよび3次元カメラ |
US20070076090A1 (en) * | 2005-10-04 | 2007-04-05 | Alexander Eugene J | Device for generating three dimensional surface models of moving objects |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3570198B2 (ja) * | 1998-01-07 | 2004-09-29 | オムロン株式会社 | 画像処理方法およびその装置 |
-
2009
- 2009-12-25 JP JP2009294804A patent/JP4983905B2/ja not_active Expired - Fee Related
-
2010
- 2010-12-09 US US12/963,763 patent/US8786679B2/en not_active Expired - Fee Related
- 2010-12-24 CN CN201010615610.4A patent/CN102164233B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001082938A (ja) * | 1999-09-16 | 2001-03-30 | Gen Tec:Kk | 3次元物体への光模様の投射・撮影方法及び同システム |
JP2002058046A (ja) * | 2000-08-11 | 2002-02-22 | Minolta Co Ltd | 撮像システムおよび3次元カメラ |
US20070076090A1 (en) * | 2005-10-04 | 2007-04-05 | Alexander Eugene J | Device for generating three dimensional surface models of moving objects |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106455948B (zh) * | 2014-12-15 | 2018-06-12 | 奥林巴斯株式会社 | 摄像系统 |
CN106455948A (zh) * | 2014-12-15 | 2017-02-22 | 奥林巴斯株式会社 | 摄像系统 |
WO2016145625A1 (en) * | 2015-03-18 | 2016-09-22 | Xiaoou Tang | 3d hand pose recovery from binocular imaging system |
CN108140243A (zh) * | 2015-03-18 | 2018-06-08 | 北京市商汤科技开发有限公司 | 从双目成像系统的3d手部姿势恢复 |
CN108140243B (zh) * | 2015-03-18 | 2022-01-11 | 北京市商汤科技开发有限公司 | 用于构建3d手模型的方法、设备和系统 |
CN105763793A (zh) * | 2016-02-18 | 2016-07-13 | 西安科技大学 | 一种三维照片采集方法及采集系统 |
CN105763793B (zh) * | 2016-02-18 | 2017-06-16 | 西安科技大学 | 一种三维照片采集方法及采集系统 |
CN105578173A (zh) * | 2016-02-20 | 2016-05-11 | 深圳市晶源动力科技有限公司 | 一种快速三维空间投影摄像视觉识别系统 |
CN112689082A (zh) * | 2019-10-17 | 2021-04-20 | 电装波动株式会社 | 具备事件相机的摄像装置 |
CN112689082B (zh) * | 2019-10-17 | 2022-05-17 | 电装波动株式会社 | 具备事件相机的摄像装置 |
CN112291459A (zh) * | 2020-10-23 | 2021-01-29 | 杭州思锐迪科技有限公司 | 一种摄影装置和三维扫描设备 |
CN112291459B (zh) * | 2020-10-23 | 2022-02-11 | 杭州思锐迪科技有限公司 | 一种摄影装置和三维扫描设备 |
CN114454177A (zh) * | 2022-03-15 | 2022-05-10 | 浙江工业大学 | 一种基于双目立体视觉的机器人末端位置补偿方法 |
Also Published As
Publication number | Publication date |
---|---|
US8786679B2 (en) | 2014-07-22 |
CN102164233B (zh) | 2014-08-27 |
JP4983905B2 (ja) | 2012-07-25 |
US20110157321A1 (en) | 2011-06-30 |
JP2011134221A (ja) | 2011-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102164233B (zh) | 摄像装置和3d建模数据的生成方法 | |
CN102801929B (zh) | 图像传感器和摄像设备 | |
CN105717608B (zh) | 摄影装置以及摄影装置的控制方法 | |
CN102196166B (zh) | 摄像装置及显示方法 | |
CN107205109A (zh) | 具有多摄像模块的电子装置及其控制的方法 | |
US8294785B2 (en) | Method for adjusting photosensitiveness of digital camera | |
CN102959942B (zh) | 立体观看用图像拍摄装置及其控制方法 | |
CN101640764B (zh) | 摄像装置和摄像方法 | |
CN101399914A (zh) | 摄影装置和摄影方法 | |
JP2016057409A (ja) | 撮像装置および撮像装置の制御方法 | |
US20170118394A1 (en) | Autofocusing a macro object by an imaging device | |
CN108737696A (zh) | 摄像设备、控制方法和非暂时性存储介质 | |
CN105190229A (zh) | 三维形状计测装置、三维形状计测方法及三维形状计测程序 | |
CN107547789B (zh) | 影像获取装置及其摄影构图的方法 | |
TWI543582B (zh) | 影像編輯方法以及相關之模糊參數建立方法 | |
JP6425571B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2001249265A (ja) | 測距装置 | |
CN102316261B (zh) | 数字相机的感光度的调整方法 | |
CN102300038A (zh) | 摄像装置 | |
CN101521749B (zh) | 摄影装置 | |
JP2019179463A (ja) | 画像処理装置、その制御方法、プログラム、記録媒体 | |
CN105049704A (zh) | 一种拍照的方法和设备 | |
CN113315956A (zh) | 图像处理设备、摄像设备、图像处理方法和机器可读介质 | |
CN103426143A (zh) | 影像编辑方法以及相关的模糊参数建立方法 | |
JP5359930B2 (ja) | 撮像装置、表示方法、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140827 Termination date: 20211224 |