CN102265627A - 图像数据获得方法和图像数据获得设备 - Google Patents
图像数据获得方法和图像数据获得设备 Download PDFInfo
- Publication number
- CN102265627A CN102265627A CN2009801521906A CN200980152190A CN102265627A CN 102265627 A CN102265627 A CN 102265627A CN 2009801521906 A CN2009801521906 A CN 2009801521906A CN 200980152190 A CN200980152190 A CN 200980152190A CN 102265627 A CN102265627 A CN 102265627A
- Authority
- CN
- China
- Prior art keywords
- view data
- focal length
- zone
- obtains
- focused
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000009877 rendering Methods 0.000 claims description 23
- 238000002360 preparation method Methods 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 10
- 239000000470 constituent Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 244000287680 Garcinia dulcis Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/236—Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/75—Circuitry for compensating brightness variation in the scene by influencing optical camera components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10144—Varying exposure
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种通过使用由捕捉场景图像而获得的多条二维(2D)图像数据来获得三维(3D)图像数据的图像数据获得方法,所述图像数据获得方法包括:设置图像捕捉装置的焦距以允许场景的多个组成部分中的参考组成部分被聚焦;通过使用具有所设置的焦距的图像捕捉装置中的不同光圈值来获得多条2D图像数据;通过使用所述多条2D图像数据之间的关系来获得3D图像数据。
Description
技术领域
本发明的各方面涉及一种图像数据获得方法和图像数据获得设备,更具体地说,涉及一种获得三维(3D)图像数据的图像数据获得方法和图像数据获得设备。
背景技术
由于信息通信技术的发展,三维(3D)图像技术已变得更加普遍。3D图像技术的目标在于通过将深度信息应用到二维(2D)图像来实现逼真的图像。
由于人眼在水平方向上以预定距离分离,因此分别通过左眼和右眼观看到的2D图像互相不同,从而发生双目视差。人脑将不同的2D图像组合以产生具有透视性和逼真性的观感的3D图像。具体地,为了提供3D图像,可产生包括深度信息的3D图像数据,或者可转换2D图像数据以产生3D图像数据。
发明内容
技术方案
本发明的各方面提供一种有效地获得三维(3D)图像数据的图像数据获得方法和图像数据获得设备。
有益效果
本发明的实施例通过恰当地获得多个2D图像中的物体的相对位置来产生3D图像数据。
附图说明
通过结合附图对实施例进行的以下描述,本发明的这些和/或其它方面和优点将会变得清楚,并更易于理解,其中:
图1示出在图像捕捉装置的光圈关闭时通过捕捉目标物体而获得的图像以及在图像捕捉装置的光圈打开时通过捕捉目标物体而获得的图像;
图2示出通过使用根据本发明的实施例的图像数据获得设备而获得的第二图像数据;
图3是示出根据本发明的实施例的图像数据获得设备的框图;
图4是示出图3的图像数据获得设备中的焦距设置单元的框图;
图5示出通过使用根据图3中示出的实施例的图像数据获得设备而获得的第二图像数据;
图6是示出根据本发明的实施例的图像数据获得方法的流程图;
图7是示出根据本发明的另一实施例的图像数据获得方法的流程图。
最佳实施方式
根据本发明的一方面,提供了一种通过使用由捕捉场景图像而获得的多条二维(2D)图像数据来获得3D图像数据的图像数据获得方法,所述图像数据获得方法包括:设置图像捕捉装置的焦距以允许场景的多个组成部分中的参考组成部分被聚焦;通过使用具有所设置的焦距的图像捕捉装置中的不同光圈值来获得多条2D图像数据;通过使用所述多条2D图像数据之间的关系来获得3D图像数据。
所述参考组成部分可以是多个组成部分中的距离图像捕捉装置最近的第一组成部分或者是多个组成部分中的距离图像捕捉装置最远的第二组成部分。
设置焦距的步骤可包括:在场景中设置多个焦距测量区域;测量多个焦距测量区域分别被聚焦的焦距;根据测量的焦距将多个焦距测量区域之一确定为参考组成部分。
所述参考组成部分可以是多个焦距测量区域中的以最小焦距被聚焦的第一焦距测量区域。
所述参考组成部分可以是多个焦距测量区域中的以最大焦距被聚焦的第二焦距测量区域。
测量焦距的步骤可包括:当图像捕捉装置的光圈值最小化时测量焦距。
测量焦距的步骤可包括:当图像捕捉装置的光圈值最大化时测量焦距。
获得多条2D图像数据的步骤可包括:当图像捕捉装置的光圈值最小化时,通过捕捉场景图像来获得第一图像数据;当图像捕捉装置的光圈值最大化时,通过捕捉场景图像来获得第二图像数据。
获得3D图像数据的步骤可包括:通过将第一图像数据和第二图像数据进行比较来产生指示第二图像数据中的每个像素的焦点偏离度的信息;根据产生的信息产生与多条2D图像数据相应的深度映射。
根据本发明的另一方面,提供了一种通过使用由捕捉场景图像而获得的多条2D图像数据来获得3D图像数据的图像数据获得设备,所述图像数据获得设备包括:焦距设置单元,设置图像捕捉装置的焦距以允许多个场景组成部分中的参考组成部分被聚焦;第一获得单元,通过使用图像捕捉装置中的不同光圈值来获得多条2D图像数据;第二获得单元,通过使用多条2D图像数据之间的关系来获得3D图像数据。
根据本发明的另一方面,提供了一种通过捕捉场景图像来获得多条二维(2D)图像数据的图像数据获得设备,其中,所述多条2D图像数据被用于获得三维(3D)图像数据,所述图像数据获得设备包括:焦距设置单元,设置图像捕捉装置的焦距以允许场景的多个组成部分中的参考组成部分被聚焦;第一获得单元,通过使用具有所设置的焦距的图像捕捉装置中的不同光圈值捕捉图像来获得多条2D图像数据,其中,多条2D图像数据之间的关系被用于获得3D图像数据。
根据本发明的另一方面,提供了一种由计算机实现的计算机可读记录介质,所述计算机可读记录介质包括:由图像捕捉装置使用所设置的焦距和第一光圈值来捕捉场景图像而获得的第一二维(2D)图像数据;由图像捕捉装置使用所设置的焦距和不同于第一光圈值的第二光圈值来捕捉场景图像而获得的第二2D图像数据,其中,根据所设置的焦距,在第一2D图像数据和第二2D图像数据中,场景的多个组成部分中的参考组成部分被聚焦,并且计算机使用第一2D图像数据和第二2D图像数据以获得三维(3D)图像数据。
本发明的另外方面和/或优点将在下面的描述中部分地阐明,并且从描述中部分是清楚的,或者通过本发明的实施可以被学到。
具体实施方式
本申请要求于2009年1月2日在韩国知识产权局提交的第10-2009-0000115号韩国专利申请的利益,该申请完全公开于此以资参考。
现在将详细参照本发明的本实施例,其示例在附图中示出,其中,相同的标号始终表示相同的元件。以下通过参照附图描述实施例以解释本发明。
为了通过使用二维(2D)图像数据产生三维(3D)图像数据,使用信息来指示目标物体和相机之间的距离。针对2D图像数据的每个像素,所述信息包括指示相机距离由多个像素中的每个像素指示的物体多远的深度信息。
为了获得深度信息,可使用三种方法。一种获得深度信息的方法包括:分析捕捉的目标物体的图像的形状。鉴于使用一条2D图像数据,该方法是经济的。然而,物体形状分析方法及其设备难以实现,从而该方法是不切实际的。
获得深度信息的另一方法包括:分析从不同角度捕捉相同目标物体的图像而获得的至少两条2D图像数据。该方法易于实现,因此经常被使用。然而,为了从不同角度捕捉相同目标物体的图像,图像捕捉装置(例如,相机)使用具有不同光学路径的多个光学系统。由于光学系统是昂贵的物品,因此这样的具有两个或两个以上的光学系统的图像捕捉装置是不经济的。
获得3D图像数据深度信息的另一方法包括:分析通过捕捉相同目标物体的图像而获得的至少两条2D图像数据。这里,通过参考引用由A.彭特兰(A.Pentland)、S.谢洛克(S.Scherock)、T.达雷尔(T.Darrell)和B.吉罗德(B.Girod)进行的题为“基于焦点误差简单范围相机(Simple range cameras based on focalerror)”的研究,公开了一种通过分析聚焦的图像和非聚焦的图像来获得深度信息的方法。以下的等式1基于上述的研究,并可被用于通过使用至少两条2D图像数据来获得深度信息。在这方面,等式1是一种通过使用至少两条2D图像数据来获得3D图像数据的非限制性方法,应该理解本发明的实施例不限于此。等式1如下:
其中,f指示相机镜头的焦点值,D指示相机和图像平面之间的距离,其中,图像平面位于镜头之间,r指示由于焦点误差而使捕捉的目标物体的图像看上去模糊的区域的半径,k指示变换常数,fnumber指示相机的f值。此外,通过将相机镜头的焦距除以镜头光圈值来计算funmber。在这方面,除了r值以外,上述的值都是涉及相机的物理条件,因此当执行捕捉操作时可被获得。因此,当从捕捉的目标图像中获得r值时,就可获得深度信息。
在等式1中,f值(即,相机镜头的焦点值)指示相机镜头的物理特性,在使用相同相机捕捉目标物体的图像的同时,f值不可被改变。然而,焦距涉及调整镜头之间的距离以使目标物体的图像聚焦。因此,在使用相同相机捕捉目标物体的图像的同时,焦距可改变。
关于等式1,为了通过使用至少两条2D图像数据来获得深度信息,两条2D图像数据中的一条可清楚地显示捕捉的场景的所有组成部分(component),两条2D图像数据中的另一条可清楚地显示捕捉的场景的部份组成部分,同时模糊地显示其余组成部分。以下,为了描述的方便,清楚地显示场景中的所有组成部分的图像数据被称为第一图像数据,仅清楚地显示部分组成部分的图像数据被称为第二图像数据。此外,组成部分是预定大小的一幅捕捉的场景。组成部分的大小可以互相相等,或可以不同。例如,当捕捉到包括站立的人的场景时,这个人可以是捕捉的场景的组成部分,或这个人的手臂和腿可以是捕捉的场景的组成部分。
获得第一图像数据和第二图像数据的方法包括捕捉场景,并且在改变图像捕捉装置的光圈值之后再捕捉相同场景,其中,第一图像数据清楚地显示场景的所有组成部分,第二图像数据仅清楚地显示部分组成部分。现在将参照图1中的(a)和图1中的(b)来详细地描述通过使用不同的光圈值来捕捉相同场景的方法。
图1中的(a)示出在图像捕捉装置的光圈关闭时通过捕捉目标物体的图像而获得的图像。图1中的(a)的左图相应于具有关闭的光圈的图像捕捉装置。当在光圈关闭的同时捕捉目标物体的图像时,捕捉的场景中的所有组成部分被清楚地显示(如图1中的(a)的右图所示)。因此,可在图像捕捉装置的光圈关闭时通过捕捉目标物体的图像来获得第一图像数据。
图1中的(b)示出在图像捕捉装置的光圈打开时通过捕捉图1中的(a)的目标物体的图像而获得的图像。图1中的(b)的左图相应于具有打开的光圈的图像捕捉装置。当在光圈打开的同时捕捉目标物体的图像时,在捕捉的场景中仅有部分组成部分被清楚地显示(如图1中的(b)的右图所示)。也就是说,只有聚焦的区域被清楚地显示,其余区域被模糊地显示。因此,可在图像捕捉装置的光圈打开时通过捕捉目标物体的图像来获得第二图像数据。参照图1中的(a)和图1中的(b),通过使用图像捕捉装置的不同光圈值来获得第一图像数据和第二图像数据。然而,应该理解获得第一图像数据和第二图像数据的方法不限于此。
当获得第一图像数据和第二图像数据时,可通过使用等式1来获得深度信息。在根据等式1计算深度信息的情况下,可确定由相应的像素指示的物体距离参考位置(例如,相机)多远。然而,不可知道由相应的像素指示的物体在场景中位于参考位置之前还是位于参考位置之后。此后,将参照图2描述这个问题。
图2示出通过使用根据本发明的实施例的图像获得设备而获得的第二图像数据。在图2中,所有物体的大小相同。因此,更接近于拍摄设备的物体看起来更大。
参照图2,显然,第二图像数据中的区域5和区域7是清楚的。也就是说,区域5和区域7被聚焦。当根据等式1计算r值时,区域5和区域7的r值是最小值。此时,由区域5和区域7指示的物体的位置成为参考位置。
另一方面,与区域5和区域7相比,其余区域被模糊地显示。当根据等式1计算r值时,可看出其余区域的r值大于区域5和区域7的r值。根据等式1,r值与焦点偏离度成比例地变大。因此,区域的r值越大,该区域的物体的位置距离参考位置越远。
如果区域4、区域1、区域6和区域8之间的模糊度(即,焦点偏离度)相同,则根据等式1计算的关于区域4、区域1、区域6和区域8的r值相同。也就是说,分别与区域4、区域1、区域6和区域8相应的物体与参考位置之间的距离相等。然而,不可知道与区域4、区域1、区域6和区域8相应的物体位于参考位置之前还是参考位置之后。也就是说,提供了距离的大小信息,而没有提供标记信息。因此,虽然区域4中的物体可能在区域5中的物体之前10cm处,区域6中的物体可能在区域5中的物体之后10cm处,但是区域4和区域6中的物体可能被错误地确定为位于参考位置之前(或参考位置之后)。
为了解决上述的问题,图像获得设备的焦距可被调整以允许在目标场景中的组成部分中位于最远位置的组成部分被聚焦,从而可获得第二图像数据。在这种情况下,目标场景中的组成部分比聚焦的组成部分距离参考位置更近。以类似的方式,焦距可被调整以允许在目标场景中的组成部分中位于最近位置的组成部分被聚焦,从而可获得第二图像数据。在这种情况下中,目标场景中的组成部分比聚焦的组成部分距离参考位置更远。
图3是根据本发明的实施例的图像数据获得设备300的框图。参照图3,图像数据获得设备300包括:焦距设置单元310、第一获得单元320和第二获得单元330。虽然未要求,但是单元310、320、330中的每个可以是一个或多个芯片或集成电路上的一个或多个处理器或处理元件。
焦距设备单元310设置图像捕捉装置的焦距,从而满足预定条件的组成部分可以是目标场景的多个组成部分中的参考组成部分。应该理解参考组成部分可改变。例如,组成部分中的距离图像捕捉装置最远的第一组成部分可以是参考组成部分。此外,距离图像捕捉装置最近的第二组成部分可以是参考组成部分。
为了将第一组成部分或第二组成部分设置为参考组成部分,可测量图像捕捉装置和目标场景的组成部分之间的距离。然而,测量图像捕捉装置和目标场景的所有组成部分之间的距离是不切实际的。因此,可指定目标场景中的一个或多个区域,可测量指定区域和图像捕捉装置之间的距离,随后,指定区域之一被设置为参考位置。稍后将参照图4进行关于将第一组成部分或第二组成部分设置为参考组成部分的详细描述。
第一获得单元320通过使用图像捕捉装置中的不同光圈值来获得多条2D图像数据。此时,图像捕捉装置的焦距可始终保持由焦距设备单元310设置的焦距。具体地,当图像捕捉装置的光圈值被设置在最小值时(例如,当光圈关闭时),第一获得单元320捕捉目标物体的图像,因此获得第一图像数据。在这之后,当图像捕捉装置的光圈值被设置在最大值时,第一获得单元320捕捉目标物体的图像,因此获得第二图像数据。如上所述,第二图像数据清楚地显示参考组成部分,并模糊地显示其余组成部分。
第二获得单元330通过使用多条2D图像数据之间的关系来获得3D图像数据。第二获得单元330可包括信息产生单元(未示出)和深度映射产生单元(未示出)。信息产生单元(未示出)将第一图像数据和第二图像数据进行比较以产生指示第二图像数据中的多个像素的每个像素的焦点偏移度的信息。指示焦点偏移度的信息是等式1中的r值。深度映射产生单元(未示出)根据产生的信息来产生与多条2D图像数据相应的深度映射。
图4是图3的图像数据获得设备300中的焦距设置单元310的框图。参照图4,焦距设置单元310包括:设置单元312、测量单元314和确定单元316。虽然未要求,但是单元312、314、316中的每个单元可以是一个或多个芯片或集成电路上的一个或多个处理器或处理元件。
设置单元312设置在测量场景的焦距中将被使用的一个或多个焦距测量区域。所述一个或多个焦距测量区域(以下,称为一个或多个测量区域)可由用户直接设置,或可由设置单元312自动设置。
测量单元314测量分别聚焦于一个或多个测量区域上的焦距。虽然不限于此,但是测量单元314可使用在没有用户操纵的情况下使特定区域能够被聚焦的自动聚焦(AF)操作。通过使用这样的AF操作,可容易地测量使一个或多个测量区域聚焦的焦距。
在测量一个或多个测量区域被聚焦的焦距的同时,图像捕捉装置的光圈可关闭或打开。在图像捕捉装置的光圈打开的同时,可恰当地检测一个或多个测量区域是否被聚焦。因此,虽然不是必需地,但是在图像捕捉装置的光圈打开的同时,可进行对一个或多个测量区域被聚焦的焦距的测量。
确定单元316根据所述一个或多个测量区域被聚焦的焦距,将所述一个或多个测量区域之一确定为参考组成部分。例如,以最小焦距被聚焦的焦距测量区域可以是参考组成部分,或者以最大焦距被聚焦的焦距测量区域可以是参考组成部分。
图5示出通过使用根据图3的实施例的图像数据获得设备300而获得的第二图像数据。参照图5,设置单元312设置九个测量区域。因此,测量单元314分别计算这9个测量区域被聚焦的焦距。在这方面,例如,测量区域1被聚焦的焦距是50,测量区域6被聚焦的焦距是10,测量区域2被聚焦的焦距是60。
确定单元316根据由测量单元314计算的焦距从9个测量区域中确定一个测量区域作为参考组成部分。这时,确定单元316可将以最小焦距被聚焦的测量区域确定为参考组成部分,或者可将以最大焦距被聚焦的测量区域确定为参考组成部分。在示出的实施例中,以最小焦距被聚焦的测量区域被确定为参考组成部分。因此,测量区域6被确定为参考组成部分。
因此,在保持测量区域6被聚焦的焦距的同时,第一获得单元320通过使用不同的光圈值来获得多条2D图像数据。例如,当光圈关闭时,第一获得单元320通过捕捉目标物体的图像来获得第一图像数据,当光圈打开时,第一获得单元320通过捕捉目标物体的图像来获得第二图像数据。第二获得单元330通过使用所述多条2D图像数据之间的关系来获得3D图像数据。此时,可使用等式1。
图6是示出根据本发明的实施例的图像数据获得方法的流程图。参照图6,在操作S610,设置图像捕捉装置的焦距以允许参考组成部分被聚焦。参考组成部分是在目标场景的多个组成部分中满足预定条件的组成部分。例如,在多个组成部分中的参考组成部分可以是最接近于图像捕捉装置的第一组成部分,或可以是最远离图像捕捉装置的第二组成部分。
在操作S620,通过使用图像捕捉装置中的不同光圈值来获得多条2D图像数据。此时,图像捕捉装置的焦距保持在操作S610中设置的焦距。因此,在操作S630,通过使用多条2D图像数据之间的关系来获得3D图像数据。
图7是根据本发明的另一实施例的图像数据获得方法的流程图。参照图7,将图像捕捉装置的捕捉模式设置为第一模式。可根据光圈的开关状态来划分捕捉模式。例如,第一模式可指示光圈完全打开到图像捕捉装置允许的程度的状态,第二模式可指示光圈完全关闭到图像捕捉装置允许的程度的状态。
在操作S720,增大(或减小)图像捕捉装置的焦距。此时,根据一个或多个实施例,增大或减小焦距的程度可改变。
在操作S730,确定是否存在以当前焦距被聚焦的测量区域。测量区域指示被用于测量屏幕中的焦距的区域。因此,如果存在以当前焦距被聚焦的测量区域(操作S730),则在操作S732,测量区域和当前焦距被绑定并被存储。
在操作S740,如果当前焦距是由图像捕捉装置允许的最大(或最小)焦距,则执行操作S750。然而,在操作S740,如果当前焦距不是由图像捕捉装置允许的最大(或最小)焦距,则再次执行操作S720。在操作S750,根据存储的焦距,以最小焦距被聚焦的测量区域被确定为参考组成部分。因此,图像捕捉装置的焦距被设置为参考组成部分被聚焦的焦距。
在S760,通过使用图像捕捉装置来捕捉目标物体的图像。由于第一模式是光圈打开的模式,因此在操作S760中获得的图像数据相应于仅清楚地显示参考组成部分并模糊地显示其余组成部分的第二图像数据。
在操作S770,捕捉模式被改变为第二模式。在操作S780,通过使用在第二模式中的图像捕捉装置来捕捉目标物体的图像。由于第二模式是光圈关闭的模式,因此在操作S780中获得的图像数据相应于清楚地显示场景中的所有区域的第一图像数据。在操作S790,通过使用第一图像数据和第二图像数据之间的关系来获得3D图像数据。
虽然不限于此,但是本发明的各方面可被写为计算机程序,并可在通用数字计算机中被实现,其中,所述通用数字计算机使用计算机可读记录介质执行程序。所述计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)、光记录介质(例如,CD-ROM或DVD)等。本发明的各方面还可被实现为在载波中体现、包括由计算机可读的程序、并可通过因特网发送的数据信号。
虽然已示出并描述了本发明的一些实施例,但是本领域的技术人员应该认识到,在不脱离本发明的原理和精神的情况下,可对所述实施例进行改变,本发明的范围由权利要求及其等同物限定。
Claims (23)
1.一种通过使用由捕捉场景图像而获得的多条二维2D图像数据来获得三维3D图像数据的图像设备获得方法,所述图像数据获得方法包括:
设置图像捕捉装置的焦距以允许场景的多个组成部分中的参考组成部分被聚焦;
由具有所设置的焦距的图像捕捉装置通过使用图像捕捉装置中的不同光圈值捕捉图像来获得多条2D图像数据;
通过使用所述多条2D图像数据之间的关系来获得3D图像数据。
2.如权利要求1所述的图像数据获得方法,其中,参考组成部分是在所述多个组成部分中距离图像捕捉装置最近的第一组成部分,或者是在所述多个组成部分中距离图像捕捉装置最远的第二组成部分。
3.如权利要求1所述的图像数据获得方法,其中,设置焦距的步骤包括:
在场景中设置多个焦距测量区域;
测量多个焦距测量区域分别被聚焦的焦距;
根据测量的焦距,将多个焦距测量区域之一确定为参考组成部分。
4.如权利要求3所述的图像数据获得方法,其中,参考组成部分是在多个焦距测量区域中的以测量的焦距中的最小焦距被聚焦的第一焦距测量区域。
5.如权利要求3所述的图像数据获得方法,其中,参考组成部分是在多个焦距测量区域中的以测量的焦距中的最大焦距被聚焦的第二焦距测量区域。
6.如权利要求3所述的图像数据获得方法,其中,测量焦距的步骤包括:当图像捕捉装置的光圈值最小化时,测量所述多个焦距测量区域被分别聚焦的焦距。
7.如权利要求3所述的图像数据获得方法,其中,测量焦距的步骤包括:当图像捕捉装置的光圈值最大化时,测量所述多个焦距测量区域被分别聚焦的焦距。
8.如权利要求1所述的图像数据获得方法,其中,获得多条2D图像数据的步骤包括:
当图像捕捉装置的光圈值最小化时,通过捕捉场景图像来获得第一图像数据;
当图像捕捉装置的光圈值最大化时,通过捕捉场景图像来获得第二图像数据。
9.如权利要求8所述的图像数据获得方法,其中,获得3D图像数据的步骤包括:
通过将第一图像数据和第二图像数据进行比较来产生指示第二图像数据中的每个像素的焦点偏离度的信息;
根据产生的信息,产生与多条2D图像数据相应的深度映射。
10.如权利要求3所述的图像数据获得方法,其中,设置焦距的步骤还包括:绑定并存储焦距测量区域中的每个焦距测量区域和相应的测量的焦距。
11.如权利要求8所述的图像数据获得方法,其中,在第二图像数据中,参考组成部分被聚焦,在第二图像数据中,除参考组成部分之外的其余区域未被聚焦。
12.一种通过使用由捕捉场景图像而获得的多条二维2D图像数据来获得三维3D图像数据的图像数据获得设备,所述图像数据获得设备包括:
焦距设置单元,设置图像捕捉装置的焦距以允许场景的多个组成部分中的参考组成部分被聚焦;
第一获得单元,通过使用具有所设置的焦距的图像捕捉装置中的不同光圈值捕捉图像来获得多条2D图像数据;
第二获得单元,通过使用所述多条2D图像数据之间的关系来获得3D图像数据。
13.如权利要求12所述的图像数据获得设备,其中,参考组成部分是多个组成部分中的距离图像捕捉装置最近的第一组成部分,或者是多个组成部分中的距离图像捕捉装置最远的第二组成部分。
14.如权利要求12所述的图像数据获得设备,其中,焦距设置单元包括:
设置单元,在场景中设置多个焦距测量区域;
测量单元,测量多个焦距测量区域被分别聚焦的焦距;
确定单元,根据测量的焦距将多个焦距测量区域之一确定为参考组成部分。
15.如权利要求14所述的图像数据获得设备,其中,参考组成部分是多个焦距测量区域中的以测量的焦距中的最小焦距被聚焦的焦距测量区域。
16.如权利要求14所述的图像数据获得设备,其中,参考组成部分是多个焦距测量区域中的以测量的焦距中的最大焦距被聚焦的焦距测量区域。
17.如权利要求14所述的图像数据获得设备,其中,当图像捕捉装置的光圈值最小化时,测量单元测量多个焦距测量区域被分别聚焦的焦距。
18.如权利要求14所述的图像数据获得设备,其中,当图像捕捉装置的光圈值最大化时,测量单元测量多个焦距测量区域被分别聚焦的焦距。
19.如权利要求12所述的图像数据获得设备,其中,当图像捕捉装置的光圈值最小化时,第一获得单元通过捕捉场景图像来获得第一图像数据,当图像捕捉装置的光圈值最大化时,第一获得单元通过捕捉场景图像来获得第二图像数据。
20.如权利要求19所述的图像数据获得设备,其中,第二获得单元包括:
信息产生单元,通过将第一图像数据和第二图像数据进行比较来产生指示第二图像数据中的每个像素的焦点偏离度的信息;
深度映射产生单元,根据产生的信息,产生与所述多条2D图像数据相应的深度映射。
21.如权利要求14所述的图像数据获得设备,其中,焦距设置单元绑定并存储焦距测量区域中的每个焦距测量区域和相应的测量的焦距。
22.如权利要求19所述的图像数据获得设备,其中,在第二图像数据中,参考组成部分被聚焦,在第二图像数据中,除参考组成部分之外的其余区域未被聚焦。
23.一种计算机可读记录介质,使用权利要求1的方法被编码,并由至少一个计算机实现。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2009-0000115 | 2009-01-02 | ||
KR1020090000115A KR20100080704A (ko) | 2009-01-02 | 2009-01-02 | 영상 데이터 획득 방법 및 장치 |
PCT/KR2009/007473 WO2010076988A2 (en) | 2009-01-02 | 2009-12-18 | Image data obtaining method and apparatus therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102265627A true CN102265627A (zh) | 2011-11-30 |
Family
ID=42310317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009801521906A Pending CN102265627A (zh) | 2009-01-02 | 2009-12-18 | 图像数据获得方法和图像数据获得设备 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20100171815A1 (zh) |
EP (1) | EP2374281A4 (zh) |
JP (1) | JP2012514886A (zh) |
KR (1) | KR20100080704A (zh) |
CN (1) | CN102265627A (zh) |
WO (1) | WO2010076988A2 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916654A (zh) * | 2012-12-28 | 2014-07-09 | 三星电子株式会社 | 获得深度信息的方法和显示设备 |
CN104155839A (zh) * | 2013-05-13 | 2014-11-19 | 三星电子株式会社 | 用于提供3维图像的系统和方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US9344701B2 (en) * | 2010-07-23 | 2016-05-17 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation |
JP5611469B2 (ja) * | 2011-09-09 | 2014-10-22 | 富士フイルム株式会社 | 立体撮像装置および方法 |
JP5966535B2 (ja) * | 2012-04-05 | 2016-08-10 | ソニー株式会社 | 情報処理装置、プログラム及び情報処理方法 |
TWI503618B (zh) | 2012-12-27 | 2015-10-11 | Ind Tech Res Inst | 深度影像擷取裝置、其校正方法與量測方法 |
KR102066938B1 (ko) * | 2013-08-20 | 2020-01-16 | 한화테크윈 주식회사 | 영상 처리 장치 및 방법 |
TWI549478B (zh) * | 2014-09-04 | 2016-09-11 | 宏碁股份有限公司 | 產生三維影像的方法及其電子裝置 |
KR102191747B1 (ko) * | 2019-03-27 | 2020-12-16 | 서울대학교산학협력단 | 거리 측정 장치 및 방법 |
KR102191743B1 (ko) * | 2019-03-27 | 2020-12-16 | 서울대학교산학협력단 | 거리 측정 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1147862A (zh) * | 1994-05-09 | 1997-04-16 | 影像技术国际公司 | 供三维摄影/摄象用的单镜头多孔径摄影机 |
US6195455B1 (en) * | 1998-07-01 | 2001-02-27 | Intel Corporation | Imaging device orientation information through analysis of test images |
US20040223073A1 (en) * | 2003-02-10 | 2004-11-11 | Chinon Kabushiki Kaisha | Focal length detecting method and focusing device |
EP2007135A2 (en) * | 2007-06-20 | 2008-12-24 | Ricoh Company, Ltd. | Imaging apparatus |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5285231A (en) * | 1990-11-29 | 1994-02-08 | Minolta Camera Kabushiki Kaisha | Camera having learning function |
US5384615A (en) * | 1993-06-08 | 1995-01-24 | Industrial Technology Research Institute | Ambient depth-of-field simulation exposuring method |
AU6862198A (en) * | 1997-04-04 | 1998-10-30 | Alfa Laval Agri Ab | Method and apparatus for generating image information when carrying out animal related operations |
GB2354389A (en) * | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
US20030112508A1 (en) * | 2001-08-17 | 2003-06-19 | Byoungyi Yoon | Method and system for controlling space magnification for stereoscopic images |
JP4734552B2 (ja) * | 2005-03-15 | 2011-07-27 | 名古屋市 | 路面の3次元形状の計測方法及びその装置 |
FR2887347B1 (fr) * | 2005-06-17 | 2007-09-21 | Canon Res Ct France Soc Par Ac | Procede et dispositif de construction d'une carte de profondeur d'une image numerique |
US20070019883A1 (en) * | 2005-07-19 | 2007-01-25 | Wong Earl Q | Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching |
US8384763B2 (en) * | 2005-07-26 | 2013-02-26 | Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
JP2007133301A (ja) * | 2005-11-14 | 2007-05-31 | Nikon Corp | オートフォーカスカメラ |
US8325220B2 (en) * | 2005-12-02 | 2012-12-04 | Koninklijke Philips Electronics N.V. | Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input |
KR100819728B1 (ko) * | 2006-09-15 | 2008-04-07 | 장순욱 | 입체카메라용 셔터장치 및 촬상장치 |
KR20090000115A (ko) | 2007-01-03 | 2009-01-07 | 손병락 | 모바일 알에프아이디를 이용한 시각장애인 길안내 시스템및 그 방법 |
KR100866491B1 (ko) * | 2007-01-30 | 2008-11-03 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
-
2009
- 2009-01-02 KR KR1020090000115A patent/KR20100080704A/ko not_active Application Discontinuation
- 2009-12-18 CN CN2009801521906A patent/CN102265627A/zh active Pending
- 2009-12-18 JP JP2011544357A patent/JP2012514886A/ja active Pending
- 2009-12-18 EP EP09836309A patent/EP2374281A4/en not_active Withdrawn
- 2009-12-18 WO PCT/KR2009/007473 patent/WO2010076988A2/en active Application Filing
- 2009-12-31 US US12/650,917 patent/US20100171815A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1147862A (zh) * | 1994-05-09 | 1997-04-16 | 影像技术国际公司 | 供三维摄影/摄象用的单镜头多孔径摄影机 |
US6195455B1 (en) * | 1998-07-01 | 2001-02-27 | Intel Corporation | Imaging device orientation information through analysis of test images |
US20040223073A1 (en) * | 2003-02-10 | 2004-11-11 | Chinon Kabushiki Kaisha | Focal length detecting method and focusing device |
EP2007135A2 (en) * | 2007-06-20 | 2008-12-24 | Ricoh Company, Ltd. | Imaging apparatus |
Non-Patent Citations (1)
Title |
---|
SCHNEIDER G ET AL: "《Monocular depth perception by evaluation of the blur in defocused images》", 《IMAGE PROCESSING, 1994. PROCEEDINGS. ICIP-94. IEEE INTERNATIONAL CONFERENCE (VOLUME:2)》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916654A (zh) * | 2012-12-28 | 2014-07-09 | 三星电子株式会社 | 获得深度信息的方法和显示设备 |
CN103916654B (zh) * | 2012-12-28 | 2017-04-05 | 三星电子株式会社 | 获得深度信息的方法和显示设备 |
US10257506B2 (en) | 2012-12-28 | 2019-04-09 | Samsung Electronics Co., Ltd. | Method of obtaining depth information and display apparatus |
CN104155839A (zh) * | 2013-05-13 | 2014-11-19 | 三星电子株式会社 | 用于提供3维图像的系统和方法 |
CN104155839B (zh) * | 2013-05-13 | 2018-07-24 | 三星电子株式会社 | 用于提供3维图像的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2010076988A2 (en) | 2010-07-08 |
WO2010076988A3 (en) | 2010-09-23 |
US20100171815A1 (en) | 2010-07-08 |
EP2374281A4 (en) | 2012-11-21 |
EP2374281A2 (en) | 2011-10-12 |
JP2012514886A (ja) | 2012-06-28 |
KR20100080704A (ko) | 2010-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102265627A (zh) | 图像数据获得方法和图像数据获得设备 | |
US10291894B2 (en) | Single-sensor system for extracting depth information from image blur | |
US10116867B2 (en) | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product | |
EP3582488B1 (en) | Autofocus for stereoscopic camera | |
EP3101624B1 (en) | Image processing method and image processing device | |
US10165254B2 (en) | Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium | |
JP5868183B2 (ja) | 撮像装置及び撮像方法 | |
CN101943839B (zh) | 一体化的自动聚焦摄像机装置的自动聚焦方法 | |
JP2011166264A (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
CN104980651A (zh) | 图像处理设备及控制方法 | |
JP6320075B2 (ja) | 画像処理装置およびその制御方法 | |
CN104205828A (zh) | 用于自动3d图像创建的方法和系统 | |
CN103986854A (zh) | 图像处理设备、摄像设备和控制方法 | |
CN111179329A (zh) | 三维目标检测方法、装置及电子设备 | |
CN110213491B (zh) | 一种对焦方法、装置及存储介质 | |
CN102761768A (zh) | 一种实现立体成像的方法及装置 | |
CN103365063A (zh) | 三维图像拍摄方法和设备 | |
KR20160149160A (ko) | 라이트필드 데이터베이스에서의 데이터 취출을 위한 방법 및 장치 | |
JP7300895B2 (ja) | 画像処理装置および画像処理方法、プログラム、並びに記憶媒体 | |
Chan et al. | Improving the reliability of phase detection autofocus | |
US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same | |
EP3099054A1 (en) | Method and apparatus for determining a focal stack of images from light field data associated with a scene, and corresponding computer program product | |
EP3099078A1 (en) | Method for collecting information on users of 4d light field data, corresponding apparatuses and computer programs | |
CN117292405A (zh) | 一种基于单光场相机的高精度三维手势识别方法及系统 | |
Kang et al. | Intelligent autofocus with adaptive depth of field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20111130 |