CN105915880A - 图像处理装置和图像处理方法 - Google Patents
图像处理装置和图像处理方法 Download PDFInfo
- Publication number
- CN105915880A CN105915880A CN201610243296.9A CN201610243296A CN105915880A CN 105915880 A CN105915880 A CN 105915880A CN 201610243296 A CN201610243296 A CN 201610243296A CN 105915880 A CN105915880 A CN 105915880A
- Authority
- CN
- China
- Prior art keywords
- image
- region
- distance
- subject
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 86
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000000034 method Methods 0.000 title description 14
- 230000008859 change Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 8
- 241001062009 Indigofera Species 0.000 claims 1
- 230000006870 function Effects 0.000 description 12
- 230000006854 communication Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000002787 reinforcement Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012856 packing Methods 0.000 description 4
- 230000003313 weakening effect Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004941 influx Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000005411 photomagnetism Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
提供图像处理装置和图像处理方法。图像处理装置包括:距离信息取得部,取得表示在拍摄图像被拍摄时由相机测定的各区域中的被摄体距离的距离信息;检出部,不使用在所述拍摄图像中包含的所述距离信息,对所述拍摄图像的各区域中的被摄体距离进行检测;以及图像处理部,对应于针对所述拍摄图像的各区域检测出的被摄体距离改变该区域的图像的距离感;所述图像处理部,针对由所述距离信息取得部所取得的距离远于预定的距离的区域,对应于由所述检出部检测出的被摄体距离改变该区域中的图像的距离感,针对由所述距离信息取得部所取得的距离不远于预定的距离的区域,对应于由所述距离信息取得部所取得的距离改变该区域的图像的距离感。
Description
本申请是于2011年8月4日提交的申请号为201180039376.8、名称为“图像处理装置、图像处理方法、显示装置、显示方法及程序”的专利申请的分案申请。
技术领域
本发明涉及图像处理装置、图像处理方法、显示装置、显示方法及程序。
背景技术
通过立体图像显示装置为观看者的左右眼提供具有视差的图像,从而使观看者观看到具有远近感的图像。另外,观看立体图像的人所感受到的立体感具有个体差异。也就是说,即便在显示同一3D内容时,有的人会很强烈地感受到立体感,而有的人就几乎感受不到立体感。
专利文献1:特开平6-324620号公报
专利文献2:特开2004-289527
发明内容
发明要解决的问题:
然而,在立体图像显示装置中,并未进行以下处理:对从外部输入的图像进行进一步加强或减弱远近感的处理后对图像进行显示。另外,显示立体图像的显示装置最好能够以各个人适当地感受到的立体感适用立体图像。然而,各个人所感受到的立体感存在差异,因此,很难对所有人共通地提供感受到适当的立体感的图像。
因此,在本发明一个侧面中,目的是提供能够解决上述问题的图像处理装置、图像处理方法、显示装置、显示方法及程序。该目的由权利要求书中的独 立权利要求的特征组合达成。另外,从属权利要求限定了本发明进一步的有效的具体例。
解决问题的方案:
为了解决上述问题,本发明提供一种图像处理装置,包括:距离信息取得部,取得表示在拍摄图像被拍摄时由相机测定的各区域中的被摄体距离的距离信息;检出部,不使用在所述拍摄图像中包含的所述距离信息,对所述拍摄图像的各区域中的被摄体距离进行检测;以及图像处理部,对应于针对所述拍摄图像的各区域检测出的被摄体距离改变该区域的图像的距离感;所述图像处理部,针对由所述距离信息取得部所取得的距离远于预定的距离的区域,对应于由所述检出部检测出的被摄体距离改变该区域中的图像的距离感,针对由所述距离信息取得部所取得的距离不远于预定的距离的区域,对应于由所述距离信息取得部所取得的距离改变该区域的图像的距离感。
另外,本发明提供一种图像处理方法,包括以下阶段:取得表示在拍摄图像被拍摄时由相机测定的各区域中的被摄体距离的距离信息;不使用在所述拍摄图像中包含的所述距离信息,对所述拍摄图像的各区域中的被摄体距离进行检测;以及对应于针对所述拍摄图像的各区域检测出的被摄体距离改变该区域的图像的距离感;在改变所述距离感的阶段中,针对在取得所述距离信息的阶段中取得的距离远于预定的距离的区域,对应于在检测所述被摄体距离的阶段中检测出的被摄体距离改变该区域中的图像的距离感,针对在取得所述距离信息的阶段中取得的距离不远于预定的距离的区域,对应于在取得所述距离信息的阶段中取得的距离改变该区域的图像的距离感。
在本发明的一形态中提供图像处理装置以及图像处理方法和程序,包括:检出部,用于检测出拍摄图像各区域中的被摄体距离;以及图像处理部,用于对应于针对上述拍摄图像的各区域检测出的被摄体距离改变该区域的图像的距离感。
本发明的另一形态中提供显示装置、显示方法及程序,包括:显示部,用于显示为观看者赋予立体感的图像;以及变更部,用于对应于观看者的设定,改变由上述显示部显示的上述图像中的立体感的加强量。
另外,上述发明内容并未列举出本发明的全部必要特征,这些特征的特征组的子组合也能够构成发明。
附图说明
图1表示第一实施方式所述图像处理装置10的结构。
图2表示由第一实施方式所述图像处理装置10进行图像处理之前的原始拍摄图像的一例。
图3表示由第一实施方式所述图像处理装置10进行图像处理之后的拍摄图像的一例。
图4表示第一实施方式所述检出部14的结构的一例。
图5表示第一实施方式的变形例所述图像处理装置10的结构。
图6表示第二实施方式所述显示装置50的结构。
图7表示第二实施方式的变形例所述显示装置50的结构。
图8表示本实施方式所述电脑1900的硬件结构的一例。
具体实施方式
以下通过发明实施方式对本发明进行说明,但以下实施方式并非对权利要求书所涉及的发明进行限定。并且,实施方式中说明的特征组合也并非全部为本发明的必要特征。
图1表示第一实施方式所述图像处理装置10的结构。第一实施方式所述图像处理装置10对由相机拍摄到的拍摄图像实施图像处理。作为一例,图像处理装置10设置于显示装置的图像输入级。另外,图像处理装置10也可以设置于相机的图像输出级。
图像处理装置10包括:输入部12、检出部14、距离信息取得部16、图像处理部18、输出部20。输入部12用于输入由相机拍摄的拍摄图像。作为一例,输入部12可以读出存储于存储介质中的拍摄图像,也可以对从广播机构等发送的拍摄图像进行解调。
检出部14用于检测出拍摄图像的各区域中的被摄体距离。被摄体距离表示在拍摄时从相机到被摄体的距离。
作为一例,检出部14对应于拍摄图像中各区域的蓝色成分比例计算出该区域中的被摄体距离。例如,在拍摄风景时被摄体距离较远的被摄体由于受到从相机到该被摄体之间的空气层影响,会比被摄体本身的颜色显现出更多的蓝色 成分比例。因此,检出部14能够对应于拍摄图像内各区域中所包含的蓝色成分比例推断出该区域中的被摄体距离。
作为一例,检出部14计算出拍摄图像中各区域各自的平均色,对计算出的平均色的色彩进行解析,计算出该平均色所包含的蓝色成分比例。而且,作为一例,各个区域的蓝色成分比例越多,则检出部14判断出被摄体距离就越远,据此推断该区域的被摄体距离。
另外,检出部14也可以对应于拍摄图像中显示出的被摄体的轮廓的空间频率计算出该被摄体的被摄体距离。例如,拍摄风景时被摄体距离较远的被摄体由于从相机到该被摄体之间的空气层的影响,模糊程度会变重。因此,检出部14能够对应于拍摄图像内各区域中包含的被摄体的轮廓的空间频率推断出该区域中的被摄体距离。
作为一例,检出部14提取出拍摄图像中各区域各自被摄体的边缘部分,计算提取出的边缘的空间频率。而且,作为一例,各个区域的空间频率越低,则检出部14判断出被摄体距离就越远,据此推断该区域的被摄体距离。
距离信息取得部16取得表示在拍摄图像被拍摄时由相机测定的各区域中的被摄体距离的距离信息。作为一例,距离信息取得部16取得被称为景深图的、表示从相机到画面内的被摄体表面距离的二维信息。
图像处理部18对应于针对拍摄图像各区域检测出的被摄体距离改变该区域的图像的距离感。
作为一例,图像处理部18对应于由检出部14对拍摄图像各区域检测出的被摄体距离改变各区域的蓝色成分比例,从而改变该区域的图像的距离感。例如,在拍摄图像的各区域,图像处理部18增加与检测出的被摄体距离相应量的蓝色成分。
更具体地,图像处理部18可以预先设定被摄体距离的基准值,提高检测出的被摄体距离大于基准值的区域中包含的蓝色成分比例。例如,图像处理部18设定1km、10km这两个基准值。而且,图像处理部18在被摄体距离为1km到10km的区域中将蓝色成分比例提高20%,在10km以上的区域中将蓝色成分比例提高40%,以这样的方式来提高蓝色成分比例。
另外,作为一例,图像处理部18对应于由检出部14对拍摄图像各区域检测出的被摄体距离将各区域模糊化,从而改变该区域的图像的距离感。例如, 在拍摄图像的各区域中,图像处理部18以与检测出的被摄体距离相应的模糊量将图像模糊化。
更具体地,图像处理部18可以预先设定被摄体距离的基准值,将检测出的被摄体距离大于基准值的区域中的图像模糊化。例如,图像处理部18设定1km、10km这两个基准值。而且,在被摄体距离为1km到10km的区域中,图像处理部18以第一模糊度将图像模糊化,在10km以上的区域中,以大于第一模糊度的第二模糊度将图像模糊化,以这样的方式将图像模糊化。
通过进行这样的处理,图像处理部18能够提高被摄体距离较近区域与被摄体距离较远区域之间的距离感的差。从而使图像处理部18能够加强拍摄图像的远近感。
另外,进一步地,图像处理部18可以进一步使用由距离信息取得部16取得的距离信息,改变拍摄图像各区域中的图像的距离感。例如,在由距离信息取得部16取得的距离比预定距离更远的区域中,图像处理部18对应于由检出部14检测出的被摄体距离改变该区域中的图像的距离感。例如,在距离信息取得部16检测出为无限远的区域中,图像处理部18对应于由检出部14检测出的被摄体距离改变该区域中的图像的距离感。
然后,在由距离信息取得部16取得的被摄体距离不比预定距离更远的区域中,图像处理部18对应于由距离信息取得部16取得的被摄体距离改变该区域的图像的距离感。例如,在距离信息取得部16检测出不是无限远的距离的区域中,图像处理部18对应于由距离信息取得部16检测出的被摄体距离改变该区域中的图像的距离感。据此,图像处理部18能够基于更广范围的被摄体距离改变图像的距离感,从而进一步加强远近感。
输出部20将由图像处理部18进行图像处理后的拍摄图像输出到外部。例如,如果该图像处理装置10设置于显示装置上,则输出部20可以将远近感被加强后的拍摄图像输出到监视器。另外,例如,如果图像处理装置10设置于相机上,则输出部20可以将远近感被加强后的拍摄图像保存在存储介质中。
图2表示由第一实施方式所述图像处理装置10进行图像处理之前的原始拍摄图像的一例。图3表示由第一实施方式所述图像处理装置10进行图像处理之后的拍摄图像的一例。
在图2及图3所示的拍摄图像中例如包括人物(近景)、家(中景)、山 (远景)及天空(超远景)。另外,在图3中,×标记表示使蓝色成分比例提高后的区域。
作为一例,图像处理装置10使包含于图2所示图像中的例如山(远景)及天空(超远景)提高蓝色成分比例。进一步地,图像处理装置10对被摄体距离比山(远景)的区域还要远的天空(超远景)的区域进一步提高蓝色成分比例。
另外,图像处理装置10可以在提高了蓝色成分比例的基础之上或者取而代之地,使山(远景)及天空(超远景)模糊化。此时,图像处理装置10也可以对被摄体距离比山(远景)的区域还要远的天空(超远景)的区域以更大的模糊量将图像模糊化。
这样一来,图像处理装置10能够使人更加强烈地感受到拍摄图像中被摄体距离较近区域与较远区域之间的距离差。据此,通过图像处理装置10,能够加强拍摄图像中的远近感,而不改变由相机拍摄到的拍摄图像内的被摄体的轮廓及构图。
图4表示第一实施方式所述检出部14的结构的一例。作为一例,如图4所示,检出部14具有:判断部22、蓝色成分检出部24、蓝色成分存储部26和运算部28。
判断部22用于判断拍摄图像中各区域的被摄体的类型。作为一例,判断部22将预先登记的图像图案与拍摄图像中包含的被摄体进行比较,判断拍摄图像中包含的被摄体是哪种类型。
蓝色成分检出部24用于检测出拍摄图像中各区域的蓝色成分比例。作为一例,对各个区域,蓝色成分检出部24计算出该区域的平均色,解析计算出的平均色的色彩,并计算出该平均色所包含的蓝色成分比例。
蓝色成分存储部26中按被摄体的类型存储有在图像中应当包含的蓝色成分比例。作为一例,对于能够由判断部22检测出的被摄体的每个类型,蓝色成分存储部26均存储有该类型的被摄体表面的颜色本来所含有的蓝色成分比例。作为一例,蓝色成分存储部26可以存储由用户等预先登记的值。
针对拍摄图像中的各区域,运算部28从蓝色成分存储部26读取出被判断部22判断出类型的被摄体的蓝色成分比例。接下来,运算部28计算出在由蓝色成分存储部26存储的每种被摄体的蓝色成分比例中的被判断部22判断出类型的被摄体的蓝色成分比例与由蓝色成分检出部24检测出的蓝色成分比例的差 值。然后,运算部28基于计算出的差值计算该区域中的被摄体距离。
例如,运算部28计算从蓝色成分检出部24检测出的蓝色成分比例中减去由蓝色成分存储部26存储的每种被摄体的蓝色成分比例后得到的差值是否为基准值以上。然后,当差值小于基准值时,则运算部28判断出被摄体距离为基准距离以下。另外,当计算出的差值为基准值以上时,则运算部28判断出被摄体距离为基准距离以上。
通过这种检出部14,当预先登记了类型的被摄体包含在拍摄图像中时,能够正确地检测出被摄体距离。
图5表示第一实施方式的变形例所述图像处理装置10的结构。本变形例所述图像处理装置10采用与图1所示图像处理装置10大致相同的结构及功能,因此,为与图1所示的部件大致相同的结构及功能的部件标注相同的符号,除以下不同点以外,均进行省略说明。
本变形例所述图像处理装置10进一步包括:位置信息取得部32和气象条件取得部34。位置信息取得部32用于取得表示拍摄图像的拍摄位置的位置信息。例如,具有GPS(Global Positioning System,全球定位系统)接收机的相机能够输出附带有表示拍摄位置的位置信息的拍摄图像。位置信息取得部32取得由这种相机输出的拍摄图像中包含的位置信息。
气象条件取得部34基于拍摄图像的拍摄日期和时间以及由位置信息取得部32取得的位置信息,取得拍摄图像在拍摄时的气象条件。例如,相机能够输出附带有拍摄日期和时间的拍摄图像。位置信息取得部32取得由这种相机输出的拍摄图像中包含的拍摄日期和时间。然后,气象条件取得部34例如通过网络取得在所取得的拍摄日期和时间,由位置信息取得部32取得的位置信息所示地点的气象条件。
本变形例所述检出部14对应于由气象条件取得部34取得的气象条件检测出在拍摄图像各区域中的被摄体距离。例如,当拍摄图像在拍摄时的气象条件为“晴”时,由于空气清新,因此能清晰地拍摄到被摄体距离较远的被摄体的轮廓。相反地,当拍摄图像在拍摄时的气象条件为“雨”等时,由于空气混浊,因此不能清晰地拍摄到被摄体距离较远的被摄体的轮廓。因此,作为一例,在检出部14基于被摄体轮廓的空间频率推断被摄体距离的处理中,即使是同一空间频率,气象条件为“晴”时推断出的被摄体距离比气象条件为“雨”等时更远。
另外,本变形例所述检出部14可以在所取得的气象条件的基础之上或者取而代之地,对应于由位置信息取得部32取得的位置信息,检测出拍摄图像各区域中的被摄体距离。例如,根据拍摄图像的拍摄地点的不同,有的地点空气清新,而有的地点空气混浊。在空气清新的地点(例如大城市以外)拍摄到的被摄体距离较远的被摄体的轮廓较清晰。相反,在空气混浊的地点(例如在大城市中)拍摄到的被摄体距离较远的被摄体的轮廓不清晰。因此,作为一例,检出部14可以在基于被摄体轮廓的空间频率推断被摄体距离的处理中,即使是同一空间频率,在空气清新的拍摄地点(例如大城市以外)推断出的被摄体距离也会比空气混浊的拍摄地点(例如大城市)更远。
通过以上内容,本变形例所述图像处理装置10能够更准确地检测出被摄体距离,从而能够准确地加强拍摄图像中的远近感。
另外,本变形例所述检出部14可以通过设定不同的焦距对同一被摄体拍摄多个拍摄图像,并基于此检测出多个拍摄图像的各区域中的被摄体距离。此时,作为一例,检出部14对多个拍摄图像的每一个,检测出画面内的聚焦区域。然后,检出部14根据多个拍摄图像各自的焦距推断画面内聚焦区域的被摄体距离。据此,例如,即使在拍摄图像中不包含距离信息,检出部14也能够生成与景深图相同的距离信息。
另外,本变形例所述检出部14可以通过设定不同的光圈拍摄多个拍摄图像,并基于此检测出多个拍摄图像各区域中的被摄体距离。此时,多个拍摄图像中的画面内的聚焦的范围随着从光圈打开状态迁移到光圈关闭状态而依次扩展。因此,作为一例,检出部14对多个拍摄图像中的每一个比较画面内的聚焦范围,从而推断画面内各区域的被摄体距离。据此,例如,即使在拍摄图像中不包含距离信息时,检出部14也能够生成与景深图相同的距离信息。
图6表示第二实施方式所述显示装置50的结构。显示装置50用于显示为观看者赋予立体感的图像。在第二实施方式中,显示装置50显示提供给观看者右眼的右眼用图像及提供给左眼的左眼用图像,作为为观看者赋予立体感的图像。右眼用图像及左眼用图像是在左右方向具有视差的图像,通过提供给观看者的右眼及左眼,能够使观看者感受到立体感。
显示装置50包括:输入部54、图像加强部56、显示部58、变更部60。输入部54用于从外部输入为观看者赋予立体感的图像。作为一例,输入部54输 入从存储媒体再现的图像或对广播信号进行解调后的图像。在本例中,输入部54输入提供给观察者右眼的右眼用图像以及提供给观察者左眼的左眼用图像。
图像加强部56对输入部54输入的图像实施图像处理,加强观看者在观赏时感受到的立体感,或者减弱立体感。另外,当未设定加强度时,图像加强部56可以不对输入部54输入的图像实施任何图像处理而原封不动地输出图像。
显示部58用于显示从图像加强部56输出的为观看者赋予立体感的图像。在本实施方式中,显示部58显示右眼用图像及左眼用图像作为为观看者赋予立体感的图像。
作为一例,显示部58具有监视器和专用眼镜。监视器用于显示右眼用图像及左眼用图像。专用眼镜用于将监视器上显示的右眼用图像仅提供给观看者的右眼,而将监视器上显示的左眼用图像仅提供给观看者的左眼。据此,显示部58能够使观看者感受到立体感。
变更部60用于对应于观看者的设定改变由显示部58显示图像中的立体感的加强量。具体地,变更部60改变图像加强部56用于图像处理的参数,从而控制立体感的加强量。
此处,作为一例,图像加强部56通过进行如下的图像处理,加强或减弱图像中的立体感。
当拍摄风景时,被摄体距离较远的被摄体由于受到从相机到该被摄体之间的空气层的影响,会显现出比被摄体本身的颜色更多的蓝色成分比例。此时,当加强立体感时,图像加强部56对应于被摄体距离提高图像的蓝色成分比例。相反地,当减弱立体感时,图像加强部56对应于被摄体距离减少图像的蓝色成分比例。此时,图像加强部56对于被摄体距离越远的被摄体,就将蓝色成分比例越大幅地提高或减少。据此,图像加强部56能够加强或减弱拍摄图像的立体感。
而且,此时,变更部60对应于观看者的设定,改变由图像加强部56对被摄体的蓝色成分比例的加强量。即,变更部60对应于观看者的设定改变蓝色成分比例的提高量或减少量。据此,变更部60能够对应于观看者的设定改变拍摄图像的立体感。
另外,当拍摄风景时,被摄体距离较远的被摄体由于会受到从相机到该被摄体的空气层的影响,会显得比被摄体自身的轮廓更模糊。因此,当加强立体 感时,图像加强部56可以对应于被摄体距离增大图像的模糊程度。相反地,当减弱立体感时,图像加强部56可以对应于被摄体距离减小图像的模糊程度。此时,图像加强部56对于被摄体距离越远的被摄体,就将模糊量越大幅地提高或减少。据此,图像加强部56能够加强或减弱拍摄图像的立体感。
然后,此时,变更部60对应于观看者的设定改变由图像加强部56对被摄体的模糊程度的加强量。即,变更部60对应于观看者的设定,改变图像模糊量的提高量或减少量。据此,变更部60能够对应于观看者的设定改变拍摄图像的立体感。
另外,如果扩大了右眼用图像与左眼用图像之间的图像间距离,则观看者的辐辏接近平行,从而使人觉得被摄体很远。因此,当加强立体感时,图像加强部56可以对应于该被摄体的被摄体距离增大同一被摄体的右眼用图像的显示位置与左眼用图像的显示位置之间的图像间距离。相反地,当减弱立体感时,图像加强部56可以对应于被摄体距离减小图像间距离。此时,图像加强部56对于被摄体距离越远的被摄体,就将图像间距离越大幅地提高或减少。据此,图像加强部56能够加强或减弱拍摄图像的立体感。
而且,此时,变更部60对应于观看者的设定,改变由图像加强部56对被摄体的图像间距离的加强量。即,变更部60对应于观看者的设定,改变图像间距离的提高量或减少量。据此,变更部60能够对应于观看者的设定,改变拍摄图像的立体感。
如上所述,显示装置50能够自由地改变观看者感受到的立体感的程度。据此,通过显示装置50能够针对各个人提供赋予适当立体感的立体图像。
此处,在图2及图3所示的拍摄图像中例如包含人物(近景)、家(中景)、山(远景)及天空(超远景)。图2所示的图像是由第二实施方式所述图像加强部56进行图像处理之前的原始拍摄图像的一例。另外,如图3所示的图像是由第二实施方式所述图像加强部56进行图像处理之后的拍摄图像的一例。另外,在图3中,×标记表示蓝色成分比例被提高了的区域。
作为一例,图像加强部56对图2所示图像中包含的例如山(远景)及天空(超远景)提高蓝色成分比例。进一步地,图像加强部56对被摄体距离比山(远景)区域更远的天空(超远景)区域将蓝色成分比例提高得更高。
另外,图像加强部56可以在提高蓝色成分比例的基础之上或取而代之地使 山(远景)及天空(超远景)模糊化。此时,图像加强部56对被摄体距离比山(远景)的区域更远的天空(超远景)的区域以更大的模糊量将图像模糊化。
这样一来,图像加强部56能够使人更强烈地感受到拍摄图像中被摄体距离较近区域与较远区域之间的距离差。据此,根据图像加强部56能够加强拍摄图像的远近感,从而加强图像的立体感。
图7表示第二实施方式的变形例所述显示装置50的结构。本变形例所述显示装置50采用与图6所示显示装置50大致相同的结构及功能,因此对与图6所示部件大致相同的结构及功能的部件标注相同的符号,除以下不同点以外,均进行省略说明。
本变形例所述显示装置50进一步具有检出部70。检出部70用于检测出应当由显示部58显示的图像各个区域的被摄体距离。
作为一例,检出部70检测出同一被摄体中的右眼用图像的显示位置与左眼用图像的显示位置之间的图像间距离。当人观察较远的物体时,右眼及左眼的辐辏角会比观察较近物体时的辐辏角更窄。因此,同一被摄体中的右眼用图像的显示位置与左眼用图像的显示位置之间的图像间距离随着被摄体距离的变大而变大。因此,检出部70能够针对由输入部54输入的右眼用图像及左眼用图像检测出画面内各区域中的图像间距离,从而推断各区域的被摄体距离。
然后,在本变形例中,图像加强部56对于检出部70检测出的被摄体距离的差异越大的部分,就将显示部58显示的图像中的图像显示距离的差异增得越大,以增加立体感的加强量。据此,图像加强部56能够对应于被摄体距离进行逐步的加强。
另外,在本变形例中,变更部60可以在显示图像之前进行校准。具体地,变更部60将产生不同立体感的图像显示在显示部58中,由观看者选择立体感的加强量以执行校准。
然后,在校准执行后,图像加强部56根据由观看者选择的立体感的加强量,对从输入部54输出的图像进行加强。然后,显示部58对由图像加强部56加强后的图像进行显示。据此,变更部60能够以适当的立体感使观察者观察图像。
另外,第二实施方式所述显示装置50可以进一步具有第一实施方式所述图像处理装置10的功能。据此,第二实施方式所述显示装置50能够加强拍摄图像的远近感,同时能够提供赋予了适合于各个人的立体感的立体图像。
图8表示本实施方式所述电脑1900的硬件结构的一例。本实施方式所述电脑1900包括:具有由主机控制器2082相互连接的CPU2000、RAM2020、图形控制器2075及显示装置2080的CPU周边部,具有由输入输出控制器2084连接于主机控制器2082的通信接口2030、硬盘驱动器2040及CD-ROM驱动器2060的输入输出部,具有连接于输入输出控制器2084的ROM2010、软盘驱动器2050及输入输出芯片2070的传统(legacy)输入输出部。
主机控制器2082将RAM2020与以高传输速率访问RAM2020的CPU2000及图形控制器2075相连接。CPU2000基于存储于ROM2010及RAM2020的程序进行工作,对各部分进行控制。图形控制器2075使CPU2000等取得在设置于RAM2020内的帧缓存中生成的图像数据并显示在显示装置2080上。可选地,图形控制器2075也可以在内部包含用于存储由CPU2000等生成的图像数据的帧缓存。
输入输出控制器2084将主机控制器2082与作为高速输入输出装置的通信接口2030、硬盘驱动器2040、CD-ROM驱动器2060相连接。通信接口2030通过网络与其他装置相通信。硬盘驱动器2040存储由电脑1900内的CPU2000使用的程序及数据。CD-ROM驱动器2060从CD-ROM2095读取程序或数据,经RAM2020提供给硬盘驱动器2040。
另外,在输入输出控制器2084上连接有ROM2010以及软盘驱动器2050及输入输出芯片2070的低速输入输出装置。ROM2010存储有电脑1900启动时执行的启动程序和/或依赖于电脑1900的硬件的程序等。软盘驱动器2050从软盘2090读取程序或数据,经RAM2020提供给硬盘驱动器2040。输入输出芯片2070将软盘驱动器2050连接于输入输出控制器2084,并通过例如并行口、串行口、键盘口、鼠标口等将各种输入输出装置与输入输出控制器2084连接。
经RAM2020提供给硬盘驱动器2040的程序存储于软盘2090、CD-ROM2095或IC卡等存储介质中,由利用者提供。程序被从存储介质读出,经RAM2020安装于电脑1900内的硬盘驱动器2040中,在CPU2000中执行。
安装于电脑1900上并使电脑1900发挥第一实施方式所述图像处理装置10的功能的程序包括:输入模块、检出模块、距离信息取得模块、图像处理模块、输出模块。这些程序或模块促使CPU2000等使电脑1900发挥输入部12、检出部14、距离信息取得部16、图像处理部18及输出部20各自的功能。
这些程序中记录的信息处理被读入电脑1900,从而作为软件与上述各种硬件资源相协作的具体装置,发挥输入部12、检出部14、距离信息取得部16、图像处理部18及输出部20的功能。然后,通过这些具体装置,实现与本实施方式所述电脑1900的使用目的相应的对信息进行的演算或加工,据此构建与使用目的相应的特有的图像处理装置10。
另外,安装于电脑1900上并使电脑1900发挥第二实施方式所述显示装置50的功能的程序包括:输入模块、图像加强模块、显示模块、变更模块。这些程序或模块促使CPU2000等使电脑1900发挥输入部54、图像加强部56、显示部58及变更部60各自的功能。
这些程序中记录的信息处理被读入电脑1900,从而作为软件与上述各种硬件资源相协作的具体的装置,发挥输入部54、图像加强部56、显示部58及变更部60的功能。然后,通过这些具体装置,实现与本实施方式所述电脑1900的使用目的相应的对信息进行的演算或加工,据此构建与使用目的相应的特有的显示装置50。
作为一例,当在电脑1900与外部装置等之间进行通信时,CPU2000执行加载于RAM2020上的通信程序,并基于记录在通信程序中的处理内容对通信接口2030指示通信处理。通信接口2030受到CPU2000的控制,将RAM2020、硬盘驱动器2040、软盘2090或CD-ROM2095等存储装置上设置的发送缓冲区等中存储的发送数据读出并发送给网络,或者将从网络接收到的接收数据写入设置于存储装置上的接收缓冲区等中。如此一来,通信接口2030可以通过DMA(Direct Memory Access,直接存储器访问)方式在其与存储装置之间传送收发数据,可选地,CPU2000可以从传送源的存储装置或通信接口2030读出数据,将数据写入到传送目的地的通信接口2030或存储装置中,从而实现收发数据的传送。
另外,CPU2000通过DMA传送等方式将全部或必要部分从硬盘驱动器2040、CD-ROM驱动器2060(CD-ROM2095)、软盘驱动器2050(软盘2090)等外部存储装置中存储的文件或数据库等读入到RAM2020,对RAM2020上的数据进行各种处理。然后,CPU2000通过DMA传送等方式将结束处理后的数据写回到外部存储装置中。在这种处理中,RAM2020可以看作临时保存外部存储装置的内容,因此在本实施方式中,将RAM2020及外部存储装置等统称为存 储器、存储部或存储装置等。本实施方式中的各种程序、数据、表格、数据库等各种信息存储于这样的存储装置上,作为信息处理的对象。另外,CPU2000可以将RAM2020的一部分保存于缓冲存储器中,在缓冲存储器上进行读写。即使在这种方式中,缓冲存储器也承担RAM2020的部分功能,因此在本实施方式中,除了区别表示的情形以外,缓冲存储器也包含在RAM2020、存储器和/或存储装置中。
另外,CPU2000对从RAM2020读出的数据执行由程序的命令列指定并包含本实施方式中记载的各种演算、信息加工、条件判断、信息检索替换等的各种处理,并写回RAM2020。例如,CPU2000在进行条件判断时,将本实施方式中示出的各种变量与其他变量或常量相比较,判断是否满足大、小、以上、以下、相同等条件,当条件成立时(或不成立时),分支到不同的命令列或调出子程序。
另外,CPU2000能够对存储于存储装置内的文件或数据库等信息进行检索。例如,当第二属性的属性值与第一属性的属性值分别关联的多个条目存储于存储装置中时,CPU2000在存储于存储装置中的多个条目中检索与指定第一属性的属性值的条件相一致的条目,并读取存储于该条目的第二属性的属性值,便能够得到与满足所定条件的第一属性相关联的第二属性的属性值。
以上所示的程序或模块可以存储于外部存储介质中。作为存储介质,除了软盘2090、CD-ROM2095以外,还可以使用DVD或CD等光学存储介质、MO等光磁性存储介质、磁带介质、IC卡等半导体存储器等。另外,可以将专用通信网或互联网上连接的服务器系统中设置的硬盘或RAM等存储装置用作存储介质,并可以通过网络将程序提供给电脑1900。
以上,使用实施方式进行了本发明的说明,但本发明的技术范围不限于上述实施方式所记载的范围。本领域技术人员应当清楚,在上述实施方式的基础上可加以各种变更或改进。由权利要求的记载可知,这种加以变更或改进的实施方式也包含在本发明的技术范围内。
应当注意的是,权利要求书、说明书及附图中所示的装置、系统、程序以及方法中的动作、顺序、步骤及阶段等各个处理的执行顺序,只要没有特别明示“更早”、“早于”等,并且只要前面处理的输出并不用在后面的处理中,则可以以任意顺序实现。关于权利要求书、说明书及附图中的动作流程,为方便而 使用“首先”、“然后”等进行了说明,但并不意味着必须按照这样的顺序实施。
符号说明:
10 图像处理装置、12 输入部、14 检出部、16 距离信息取得部、18 图像处理部、20 输出部、22 判断部、24 蓝色成分检出部、26 蓝色成分存储部、28 运算部、32 位置信息取得部、34 气象条件取得部、50 显示装置、54 输入部、56 图像加强部、58 显示部、60 变更部、70 检出部、1900 电脑、2000 CPU、2010 ROM、2020 RAM、2030 通信接口、2040 硬盘驱动器、2050 软盘驱动器、2060 CD-ROM驱动器、2070 输入输出芯片、2075 图形控制器、2080 显示装置、2082 主机控制器、2084 输入输出控制器、2090 软盘、2095 CD-ROM。
Claims (12)
1.一种图像处理装置,包括:
距离信息取得部,取得表示在拍摄图像被拍摄时由相机测定的各区域中的被摄体距离的距离信息;
检出部,不使用在所述拍摄图像中包含的所述距离信息,对所述拍摄图像的各区域中的被摄体距离进行检测;以及
图像处理部,对应于针对所述拍摄图像的各区域检测出的被摄体距离改变该区域的图像的距离感;
所述图像处理部,针对由所述距离信息取得部所取得的距离远于预定的距离的区域,对应于由所述检出部检测出的被摄体距离改变该区域中的图像的距离感,针对由所述距离信息取得部所取得的距离不远于预定的距离的区域,对应于由所述距离信息取得部所取得的距离改变该区域的图像的距离感。
2.根据权利要求1所述的图像处理装置,其中,
所述图像处理部提高在检测出的被摄体距离大于基准值的区域中包含的蓝色成分比例。
3.根据权利要求1所述的图像处理装置,其中,
所述图像处理部将位于检测出的被摄体距离大于基准值的区域中的图像模糊化。
4.根据权利要求1~3中任一项所述的图像处理装置,其中,
所述检出部对应于所述拍摄图像中各区域的蓝色成分比例计算出该区域中的被摄体距离。
5.根据权利要求4所述的图像处理装置,其中,
所述检出部具有:
判断部,判断所述拍摄图像中各区域的被摄体的类型;
蓝色成分检出部,检测出所述拍摄图像中各区域的蓝色成分比例;
蓝色成分存储部,按被摄体的类型存储图像中应当包含的蓝色成分比例;以及
运算部,在所述拍摄图像中的各区域中,基于在所述蓝色成分存储部中存储的每个被摄体的蓝色成分比例中由所述判断部判断出的类型的被摄体的蓝色成分比例与由所述蓝色成分检出部检测出的蓝色成分比例之间的差值,计算出该区域的被摄体距离。
6.根据权利要求1~3中任一项所述的图像处理装置,其中,
所述检出部对应于在所述拍摄图像中显示的被摄体的轮廓的空间频率计算出该被摄体的被摄体距离。
7.根据权利要求6所述的图像处理装置,其中,
进一步包括:气象条件取得部,基于所述拍摄图像的拍摄日期和时间取得所述拍摄图像在拍摄时的气象条件;
所述检出部对应于所取得的气象条件以及所述被摄体的轮廓的空间频率的变化,检测出所述拍摄图像各区域中的被摄体距离。
8.根据权利要求6所述的图像处理装置,其中,
进一步包括:位置信息取得部,取得表示所述拍摄图像的拍摄位置的位置信息;
所述检出部对应于所取得的所述位置信息以及所述被摄体的轮廓的空间频率的变化,检测出所述拍摄图像各区域中的被摄体距离。
9.根据权利要求8所述的图像处理装置,其中,
进一步包括:气象条件取得部,基于所述拍摄图像的所述位置信息取得所述拍摄图像在拍摄时的气象条件;
所述检出部对应于所取得的所述气象条件以及所述被摄体的轮廓的空间频率的变化,检测出所述拍摄图像各区域中的被摄体距离。
10.根据权利要求1~3中任一项所述的图像处理装置,其中,
所述检出部基于通过设定不同焦距而拍摄到的多个拍摄图像,检测出所述多个拍摄图像各区域中的被摄体距离。
11.根据权利要求1~3中任一项所述的图像处理装置,其中,
所述检出部基于通过设定不同光圈而拍摄到的多个拍摄图像,检测出所述多个拍摄图像各区域中的被摄体距离。
12.一种图像处理方法,包括以下阶段:
取得表示在拍摄图像被拍摄时由相机测定的各区域中的被摄体距离的距离信息;
不使用在所述拍摄图像中包含的所述距离信息,对所述拍摄图像的各区域中的被摄体距离进行检测;以及
对应于针对所述拍摄图像的各区域检测出的被摄体距离改变该区域的图像的距离感;
在改变所述距离感的阶段中,针对在取得所述距离信息的阶段中取得的距离远于预定的距离的区域,对应于在检测所述被摄体距离的阶段中检测出的被摄体距离改变该区域中的图像的距离感,针对在取得所述距离信息的阶段中取得的距离不远于预定的距离的区域,对应于在取得所述距离信息的阶段中取得的距离改变该区域的图像的距离感。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-179143 | 2010-08-10 | ||
JP2010179143A JP5556493B2 (ja) | 2010-08-10 | 2010-08-10 | 表示装置、表示方法およびプログラム |
JP2010179144A JP5556494B2 (ja) | 2010-08-10 | 2010-08-10 | 画像処理装置、画像処理方法およびプログラム |
JP2010-179144 | 2010-08-10 | ||
CN201180039376.8A CN103069814B (zh) | 2010-08-10 | 2011-08-04 | 图像处理装置、图像处理方法、显示装置、显示方法及程序 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180039376.8A Division CN103069814B (zh) | 2010-08-10 | 2011-08-04 | 图像处理装置、图像处理方法、显示装置、显示方法及程序 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105915880A true CN105915880A (zh) | 2016-08-31 |
CN105915880B CN105915880B (zh) | 2018-02-23 |
Family
ID=45567533
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610243296.9A Active CN105915880B (zh) | 2010-08-10 | 2011-08-04 | 图像处理装置和图像处理方法 |
CN201180039376.8A Active CN103069814B (zh) | 2010-08-10 | 2011-08-04 | 图像处理装置、图像处理方法、显示装置、显示方法及程序 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180039376.8A Active CN103069814B (zh) | 2010-08-10 | 2011-08-04 | 图像处理装置、图像处理方法、显示装置、显示方法及程序 |
Country Status (3)
Country | Link |
---|---|
US (2) | US9488841B2 (zh) |
CN (2) | CN105915880B (zh) |
WO (1) | WO2012020558A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108076492A (zh) * | 2017-11-20 | 2018-05-25 | 佘以道 | 一种提升相机对人群拍摄的成像质量的方法 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105915880B (zh) * | 2010-08-10 | 2018-02-23 | 株式会社尼康 | 图像处理装置和图像处理方法 |
US9286658B2 (en) * | 2012-03-22 | 2016-03-15 | Qualcomm Incorporated | Image enhancement |
CN104093015B (zh) | 2014-06-23 | 2016-01-06 | 京东方科技集团股份有限公司 | 一种显示系统及其控制方法 |
JP6369860B2 (ja) * | 2014-07-15 | 2018-08-08 | 株式会社日立ハイテクノロジーズ | 欠陥観察方法及びその装置 |
US10602116B2 (en) * | 2015-08-03 | 2020-03-24 | Sony Corporation | Information processing apparatus, information processing method, and program for performing display control |
CN107180067B (zh) * | 2016-03-11 | 2022-05-13 | 松下电器(美国)知识产权公司 | 图像处理方法、图像处理装置及记录介质 |
JP6482580B2 (ja) * | 2017-02-10 | 2019-03-13 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6850871B2 (ja) * | 2017-03-31 | 2021-03-31 | Hoya株式会社 | 電子内視鏡システム |
CN107784295B (zh) * | 2017-11-20 | 2018-12-21 | 惠州太初科技有限公司 | 基于人体距离拉伸的相机拍摄系统 |
JP7134932B2 (ja) | 2019-09-09 | 2022-09-12 | 株式会社日立製作所 | 光学条件決定システム、及び光学条件決定方法 |
WO2021200270A1 (ja) * | 2020-03-31 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、及び情報処理方法 |
CN112887605B (zh) * | 2021-01-26 | 2022-09-30 | 维沃移动通信有限公司 | 图像防抖方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001016609A (ja) * | 1999-06-05 | 2001-01-19 | Soft Foo Deii:Kk | Mpegデータを用いた立体映像生成装置及び方法 |
CN1844852A (zh) * | 1995-06-22 | 2006-10-11 | 3Dv系统有限公司 | 生成景物的混合图象的方法 |
CN101282492A (zh) * | 2008-05-23 | 2008-10-08 | 清华大学 | 三维影像显示深度调整方法 |
CN101341512A (zh) * | 2005-11-22 | 2009-01-07 | 索尼爱立信移动通讯股份有限公司 | 用于获取增强的摄影的方法及其设备 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06324620A (ja) | 1993-05-17 | 1994-11-25 | Patoroma Res Kk | 人工環境形成装置 |
JPH10191397A (ja) * | 1996-12-27 | 1998-07-21 | Sanyo Electric Co Ltd | 意図適応型の2次元映像を3次元映像に変換する装置 |
JP2003209858A (ja) * | 2002-01-17 | 2003-07-25 | Canon Inc | 立体画像生成方法及び記録媒体 |
US8369607B2 (en) | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
EP2357840A3 (en) * | 2002-03-27 | 2012-02-29 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
JP2004221700A (ja) * | 2003-01-09 | 2004-08-05 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
JP4148811B2 (ja) | 2003-03-24 | 2008-09-10 | 三洋電機株式会社 | 立体画像表示装置 |
JP2005018529A (ja) | 2003-06-27 | 2005-01-20 | Ricoh Co Ltd | 画像処理装置 |
JP4251952B2 (ja) | 2003-10-01 | 2009-04-08 | シャープ株式会社 | 立体画像表示装置および立体画像表示方法 |
US20090040138A1 (en) * | 2004-06-30 | 2009-02-12 | Takeshi Takahashi | Three-Dimensional Image Displaying System |
JP4487188B2 (ja) * | 2004-10-25 | 2010-06-23 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びにナビゲーション装置 |
JP2007110360A (ja) * | 2005-10-13 | 2007-04-26 | Ntt Comware Corp | 立体画像処理装置およびプログラム |
JP2007264722A (ja) * | 2006-03-27 | 2007-10-11 | Victor Co Of Japan Ltd | 画像処理装置 |
US20090013614A1 (en) * | 2007-07-13 | 2009-01-15 | Kim Rogers | Retractable rigid roof system |
KR101412752B1 (ko) * | 2007-11-26 | 2014-07-01 | 삼성전기주식회사 | 디지털 자동 초점 영상 생성 장치 및 방법 |
JP5183277B2 (ja) * | 2008-04-03 | 2013-04-17 | 三菱電機株式会社 | 立体画像表示装置 |
CN101567082B (zh) * | 2009-06-04 | 2011-07-13 | 福州华映视讯有限公司 | 影像处理方法及其装置 |
CA2696925A1 (en) * | 2010-03-19 | 2011-09-19 | Bertrand Nepveu | Integrated field-configurable headset and system |
WO2011162037A1 (ja) | 2010-06-25 | 2011-12-29 | 富士フイルム株式会社 | 立体画像再生装置、立体画像再生システム及び立体画像再生方法 |
US20120019688A1 (en) * | 2010-07-20 | 2012-01-26 | Research In Motion Limited | Method for decreasing depth of field of a camera having fixed aperture |
CN105915880B (zh) * | 2010-08-10 | 2018-02-23 | 株式会社尼康 | 图像处理装置和图像处理方法 |
JP2013197797A (ja) * | 2012-03-19 | 2013-09-30 | Seiko Epson Corp | 映像表示装置および映像表示方法 |
-
2011
- 2011-08-04 CN CN201610243296.9A patent/CN105915880B/zh active Active
- 2011-08-04 CN CN201180039376.8A patent/CN103069814B/zh active Active
- 2011-08-04 WO PCT/JP2011/004423 patent/WO2012020558A1/ja active Application Filing
-
2013
- 2013-02-08 US US13/762,391 patent/US9488841B2/en active Active
-
2016
- 2016-10-06 US US15/286,588 patent/US10462455B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1844852A (zh) * | 1995-06-22 | 2006-10-11 | 3Dv系统有限公司 | 生成景物的混合图象的方法 |
JP2001016609A (ja) * | 1999-06-05 | 2001-01-19 | Soft Foo Deii:Kk | Mpegデータを用いた立体映像生成装置及び方法 |
CN101341512A (zh) * | 2005-11-22 | 2009-01-07 | 索尼爱立信移动通讯股份有限公司 | 用于获取增强的摄影的方法及其设备 |
CN101282492A (zh) * | 2008-05-23 | 2008-10-08 | 清华大学 | 三维影像显示深度调整方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108076492A (zh) * | 2017-11-20 | 2018-05-25 | 佘以道 | 一种提升相机对人群拍摄的成像质量的方法 |
CN108076492B (zh) * | 2017-11-20 | 2018-10-30 | 张天勇 | 一种提升相机对人群拍摄的成像质量的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103069814A (zh) | 2013-04-24 |
US10462455B2 (en) | 2019-10-29 |
CN105915880B (zh) | 2018-02-23 |
US20170026639A1 (en) | 2017-01-26 |
WO2012020558A1 (ja) | 2012-02-16 |
US9488841B2 (en) | 2016-11-08 |
CN103069814B (zh) | 2016-05-11 |
US20130148859A1 (en) | 2013-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105915880A (zh) | 图像处理装置和图像处理方法 | |
US11967162B2 (en) | Method and apparatus for 3-D auto tagging | |
US10958887B2 (en) | Free-viewpoint photorealistic view synthesis from casually captured video | |
US10958891B2 (en) | Visual annotation using tagging sessions | |
TWI619088B (zh) | 圖像資料處理系統和相關方法以及相關圖像融合方法 | |
CN102572279B (zh) | 针对数字图像稳定优化的旋转内插像素的光栅输出 | |
US11270492B2 (en) | Graphics processing systems | |
US12073574B2 (en) | Structuring visual data | |
JP2018139102A (ja) | 没入型コンテンツ内の関心地点を決定する方法及び装置 | |
WO2021017589A1 (zh) | 一种基于梯度域映射的图像融合方法 | |
CN115205435B (zh) | 一种改进的基于马尔可夫随机场的纹理映射方法及装置 | |
US11748940B1 (en) | Space-time representation of dynamic scenes | |
CN111369435A (zh) | 基于自适应稳定模型的彩色图像深度上采样方法及系统 | |
CN118843890A (zh) | 使用神经网络的可变分辨率可变帧速率视频代码化 | |
CN113284081B (zh) | 深度图超分辨率优化方法、装置、处理设备及存储介质 | |
US20210037230A1 (en) | Multiview interactive digital media representation inventory verification | |
EP3716217A1 (en) | Techniques for detection of real-time occlusion | |
US20240378736A1 (en) | Structuring visual data | |
CN109314776A (zh) | 图像处理方法、图像处理设备及存储介质 | |
Scandolo et al. | Gradient‐Guided Local Disparity Editing | |
CN115063365A (zh) | 视频处理方法及装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |