CN102027752B - 用于测量立体运动画面的潜在眼睛疲劳的系统和方法 - Google Patents

用于测量立体运动画面的潜在眼睛疲劳的系统和方法 Download PDF

Info

Publication number
CN102027752B
CN102027752B CN200880129158.1A CN200880129158A CN102027752B CN 102027752 B CN102027752 B CN 102027752B CN 200880129158 A CN200880129158 A CN 200880129158A CN 102027752 B CN102027752 B CN 102027752B
Authority
CN
China
Prior art keywords
parallax
eye fatigue
images
frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200880129158.1A
Other languages
English (en)
Other versions
CN102027752A (zh
Inventor
张冬青
安娜·B·班尼特兹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
International Digital Madison Patent Holding SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to CN201510315583.1A priority Critical patent/CN104980732B/zh
Publication of CN102027752A publication Critical patent/CN102027752A/zh
Application granted granted Critical
Publication of CN102027752B publication Critical patent/CN102027752B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Eye Examination Apparatus (AREA)
  • Processing Or Creating Images (AREA)

Abstract

提供一种用于测量在观看3D呈现(例如,立体运动画面)时由观众感受到的潜在眼睛疲劳的系统和方法。本公开的眼睛疲劳测量系统和方法基于3D呈现的立体图像的视差(或深度)和视差转换的测量。本公开的系统和方法规定:从第一片段获取第一图像和第二图像(202),估计第一图像中的至少一个点与第二图像中的至少一个对应点的视差(204),估计第一和第二图像的序列的视差转换(206),以及基于视差以及第一和第二图像的序列的视差转换确定在观看3D呈现时感受到的潜在眼睛疲劳(208)。

Description

用于测量立体运动画面的潜在眼睛疲劳的系统和方法
技术领域
本公开一般地涉及计算机图形处理和显示系统,并且更具体地涉及一种用于测量由观看三维(3D)呈现(例如,立体运动画面)的观众感受到的潜在眼睛疲劳的系统和方法。
背景技术
立体成像是在视觉上组合一个场景的从稍微不同的视点取得的至少两个图像以便产生三维深度的错觉的处理。该技术依赖于如下事实:人眼分隔一定距离,并且因此没有观看完全相同的场景。通过为每只眼睛提供来自不同观察点(perspective)的图像,欺骗观看者的眼睛感觉到深度。典型地,在提供两个有区别的观察点的情况下,分别将组成图像称为“左”和“右”图像,也分别将其已知为基准图像和补充图像。然而,本领域技术人员将认识到,可以组合多于两个视点来形成立体图像。
在3D后期制作、VFX工作流程和3D呈现应用中,一项重要的处理是从由左眼视图图像和右眼视图图像组成的立体图像中推断深度图,以便创建立体运动画面。例如,最近商业化的自动立体3D显示器要求图像加深度图(image-plus-depth-map)输入格式,使得该显示器可以生成不同的3D视图来支持多个视角。
从立体图像对推断深度图的处理在计算机视觉研究的领域中被称为立体匹配,因为使用像素或块匹配以发现左眼和右眼视图图像中的对应点。从与场景中的相同点对应的各图像中的两个像素之间的相对距离推断深度值。
在许多计算机视觉应用(诸如,例如用于计算机辅助绘图(CAD)的快速对象建模和成型、用于人机交互(HCI)的对象分割和检测、视频压缩和视觉监控(visualsurveillance))中广泛使用数字图像的立体匹配,以便提供三维(3D)深度信息。立体匹配从场景中位于不同位置和朝向的两个或多个相机获得场景的图像。在大约相同的时间从每个相机获得这些数字图像,并且对应于空间中的3D点匹配每个图像中的点。通常,通过搜索一部分图像和使用约束(诸如外极线约束)来匹配来自不同图像的点,以便使一个图像中的点与另一图像中的点相关联。然后可以采用匹配后的图像和深度图来创建立体3D运动画面。
当前立体3D运动画面的主要问题之一是观众可能在观看运动画面一定时间之后感受到眼睛疲劳。因此,当导演制作3D影片时,他们不得不考虑如何以可以使由观众感受到的眼睛疲劳最小化的方式拍摄场景或剪辑影片,。这是制作3D运动画面比制作传统的2D运动画面更加复杂和耗时的部分原因。
制作3D运动画面的挑战在于导演和剪辑师非常难以在视觉上估计由观众感受到的潜在眼睛疲劳。存在促成该困难的若干因素。首先,因为眼睛疲劳是随着观看运动画面的过程的累计效果,所以导演或剪辑师不得不观看3D运动画面足够长以感受到眼睛疲劳。因为少量片段通常不导致眼睛疲劳。第二,眼睛疲劳还可能由两个片段之间的突然深度变化导致。当剪辑师在剪辑期间连接片段时,他们难以测量由突然深度变化导致的潜在眼睛疲劳。他们将需要使用耗时的反复试验(trial-and-error)过程来连接不同的片段,并且“感受”由深度转换导致的潜在眼睛疲劳。
因此,存在对于可以在观看诸如立体运动画面的3D呈现的同时测量感受到的潜在眼睛疲劳的技术的需要。此外,存在对于可以在剪辑3D运动画面的过程期间测量潜在眼睛疲劳的自动系统和方法的需要。
发明内容
提供一种用于测量在观看3D呈现(例如,立体运动画面)时由观众感受到的潜在眼睛疲劳的系统和方法。本公开的系统和方法考虑:观看3D呈现时眼睛的会聚点和焦点之间的距离与所聚焦的对象的深度紧密相关,所聚焦的对象的深度也与对象的像素的视差相关。本公开的眼睛疲劳测量系统和方法基于3D呈现的立体图像的视差(或深度)和视差转换的测量。本公开的技术对于导演和剪辑师有效地制作舒适的3D电影是有用的。
根据本公开的一个方面,提供一种测量在观看三维(3D)呈现时感受到的潜在眼睛疲劳的方法,所述方法包括从第一片段获取第一图像和第二图像;估计第一图像中的至少一个点与第二图像中的至少一个对应点的视差;估计第一和第二图像的序列的视差转换;以及基于视差以及第一和第二图像的序列的视差转换确定在观看3D呈现时感受到的潜在眼睛疲劳。
在另一方面中,估计视差转换步骤包括:估计之前片段的最后帧的视差;估计第一片段的第一帧的视差;以及确定之前片段的最后帧的视差和第一片段的第一帧的视差之间的差。
在一个方面中,估计视差转换步骤包括:估计第一片段的多个帧的每个帧内的视差;以及确定第一片段的每个帧的视差之间的差。
在另一方面中,确定潜在眼睛疲劳步骤还包括确定用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数。
在另一方面中,确定潜在眼睛疲劳步骤还包括将衰减因子应用到用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数。
在另一方面中,确定潜在眼睛疲劳步骤还包括在预定的时间段上累积衰减后的用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数。
在另一方面中,确定潜在眼睛疲劳步骤还包括使在第一和第二图像的序列上累积的眼睛疲劳函数饱和。
在另一方面中,本方法还包括:确定潜在眼睛疲劳是否可接受;以及如果潜在眼睛疲劳不可接受,则校正第一和第二图像的视差。
根据本公开的另一方面,提供一种用于测量在观看三维(3D)呈现时感受到的潜在眼睛疲劳的系统。所述系统包括:用于从第一片段获取第一图像和第二图像的部件;视差估计器,用于估计第一图像中的至少一个点与第二图像中的至少一个对应点的视差;视差转换估计器,用于估计第一和第二图像的序列的视差转换;以及眼睛疲劳估计器,用于基于视差以及第一和第二图像的序列的视差转换确定在观看3D呈现时感受到的潜在眼睛疲劳。
根据本公开的另一方面,提供一种可由机器读取的程序存储设备,所述程序存储设备确实地体现可由机器执行的、用于执行用以测量在观看三维(3D)呈现时的潜在眼睛疲劳的方法步骤的指令的程序,所述方法包括:从第一片段获取第一图像和第二图像;估计第一图像中的至少一个点与第二图像中的至少一个对应点的视差;估计第一和第二图像的序列的视差转换;以及基于视差以及第一和第二图像的序列的视差转换确定在观看3D呈现时感受到的潜在眼睛疲劳。
附图说明
将描述本公开的这些和其它方面、特征和优点,或者本公开的这些和其它方面、特征和优点将从优选实施例的以下详细描述变得明显,结合附图阅读优选实施例的以下详细描述。
在附图中,其中贯穿各附图相同的参考标号表示类似的元件:
图1图示在观看三维(3D)呈现的同时由观看者或者观众的成员体验的会聚点和焦点;
图2图示当会聚点在用于显示3D呈现的屏幕的前面时,会聚距离、所感知的深度、视差和会聚角度的关系;
图3图示当会聚点在屏幕后面时,会聚距离、所感知的深度、视差和会聚角度的关系;
图4是根据本公开的一个方面的、用于测量在观看三维(3D)呈现时感受到的眼睛疲劳的系统的示例性图示;
图5是根据本公开的一个方面的、用于测量在观看三维(3D)呈现时感受到的眼睛疲劳的示例性方法的流程图;
图6图示用于对眼睛疲劳感觉的饱和建模的S形函数;
图7图示根据本公开的一个方面的随着时间的眼睛疲劳测量方程式;以及
图8图示根据本公开的一个方面的即时眼睛疲劳函数和总体眼睛疲劳测量。
应该理解的是:(各)附图是用于图示本公开的构思的目的,并且不必是用于图示本公开的唯一可能配置。
具体实施方式
应该理解的是:附图中示出的各元件可以以硬件、软件和其组合的各种形式实现。优选地,这些元件以硬件和在可以包括处理器、存储器和输入/输出接口的一个或多个适当地编程的通用设备上的软件的组合实现。
本描述说明本公开的原理。因此,将认识到:本领域技术人员将能够设计出实施本公开的原理并被包括在本原理的精神和范围内的各种布置,尽管在这里没有明确地描述或示出所述布置。
在此叙述的所有示例和条件性语言意欲用于教学的目的以便帮助读者理解本公开的原理以及由本发明人贡献以促进现有技术的构思,并且应该被解释为不限制于这种具体叙述的示例和条件。
另外,在这里叙述本公开的原理、方面和实施例及其特定示例的所有陈述意欲包括其结构和功能等效物。另外,意图是:这样的等效物包括当前已知的等效物以及将来开发的等效物二者,即所开发的执行相同功能的任何元件,而不论其结构如何。
因此,例如,本领域技术人员将认识到:在此呈现的框图表示实施本原理的说明性电路的概念性视图。类似地,将认识到:任何流程图示(flowchart)、流程图(flowdiagram)、状态转换图、伪代码等表示实质上可以表示在计算机可读介质中并因此由计算机或处理器执行的各种处理,而不管是否明确地示出这样的计算机或处理器。
可以通过使用专用硬件以及与适当的软件相关联的能够执行软件的硬件来提供图中示出的各种元件的功能。当利用处理器来提供所述功能时,可以利用单个专用处理器、利用单个共享处理器、或者利用其中一些可被共享的多个独立处理器来提供所述功能。另外,术语“处理器”或“控制器”的明确使用不应该被解释为排他性地指代能够执行软件的硬件,而是可以隐含地无限制地包括数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)、和非易失性存储器。
还可以包括其它传统的和/或定制的硬件。类似地,图中示出的任何开关只是概念性的。它们的功能可以通过程序逻辑的运行、通过专用逻辑、通过程序控制和专用逻辑的交互、或者甚至手动地来执行,如从上下文更具体地理解的那样,可以由实施者选择具体技术。
在其权利要求中,被表示为用于执行指定功能的部件的任何元件意欲包含执行那个功能的任何方式,例如包括:a)执行那个功能的电路元件的组合或者b)与适当电路相组合的任何形式的软件,所述软件因此包括固件或微代码等,所述适当电路用于执行该软件以执行所述功能。由这种权利要求限定的本公开在于如下事实,即,以权利要求所要求的方式将由各种所叙述的部件提供的功能组合和集合到一起。因此认为可以提供那些功能的任何部件与在此示出的那些部件等效。
通常,立体运动画面由左眼和右眼画面序列组成。对于电影院应用,观众通常不得不佩戴3D眼镜(例如,偏振或快门眼镜)观看3D呈现。对于不用眼镜的显示器,尽管3D显示的机制不同,但是3D感知的原理是相同的。也就是说,3D系统将使左眼观看左眼图像,而右眼仅观看右眼图像。人脑能够将这两个图像组合到一起,以便正确感知3D场景。然而,该系统可能潜在地导致眼睛肌肉的疲劳和眼睛疲劳,因为以下两个原因:
1.眼睛的会聚点和焦点是不同的。当我们观看真实3D场景时,我们眼睛的焦点与会聚点大致相同。然而,当我们观看3D影片时,我们眼睛的焦点10不得不总是在屏幕12上,而我们眼睛的会聚点14不得不在屏幕12的前面或后面,以便感知正确的3D场景,如图1所示。该差异是促进眼睛肌肉的疲劳因此导致眼睛疲劳的主要因素。
2.3D运动画面中对象的深度改变。当对象的深度改变时,我们的眼睛不得不调整会聚点以感知正确的3D效果,同时保持焦点在屏幕上。如果深度改变是频繁和突然的,则我们的眼睛不得不频繁改变会聚点,导致眼睛肌肉的疲惫。
所以,简而言之,眼睛疲劳主要由两个原因导致:1)眼睛的会聚点和焦点之间的距离(即,如图1所示的会聚距离16);以及2)会聚点14的改变。因此,测量眼睛疲劳需要考虑上面两个因素。
本公开提供了一种用于测量在观看3D呈现(例如,立体运动画面)时由观众感受到的潜在眼睛疲劳的系统和方法。本公开的眼睛疲劳测量系统和方法基于视差(或深度)和视差转换的测量。本解决方案对于导演和剪辑师有效地制作好的和舒适的3D电影是有用的。
本公开的系统和方法考虑:观看者的眼睛的会聚点和焦点之间的距离与3D呈现中所聚焦的对象的深度紧密相关,3D呈现中所聚焦的对象的深度也与对象的像素的视差有关。图2示出了观看3D呈现中涉及的变量的关系。可以看到:给定会聚距离(Cd)16、所感知的深度(Dp)18、观众距离(Ad)20、会聚角度(Ca)22、眼睛距离(Ed)24和视差(Ds)26,存在以下关系。
1.Cd、Dp和Ad的关系:Ad=Cd+Dp
2.Cd、Ds、Ad和Ed的关系:Cd(1/Ds+1/Ed)=Ad/Ed
3.Ca、Ed、Ad和Cd的关系:Cd=2atan(Ed/(2(Ad-Cd)))
当会聚点如图3所示在屏幕后面时,这些关系保持正确,只要允许负视差和负会聚距离即可。对于特定观众,眼睛距离(Ed)24和观众距离(Ad)20在呈现期间是恒定的,而会聚距离(Cd)16、所感知的深度(Dp)18、会聚角度(Ca)22和视差(Ds)26在运动画面期间变化。基于这些关系,会聚点的计算可以简化为深度或视差的估计。这导致更简单的估计算法。因为存在许多视差估计算法,所以传统的视差测量可以用于眼睛疲劳估计。
现在参照图4,示出了根据本公开的实施例的示例性系统组件。可以提供扫描设备103,用于将影片印件(filmprint)104(例如,相机原始底片(filmnegative))扫描为数字格式(例如Cineon格式或SMPTEDPX文件)。扫描设备103可以包括例如将从影片生成视频输出的电视电影或任何设备(诸如,例如具有视频输出的ArriLocProTM)。可替代地,可以直接使用来自后期制作过程或数字电影的文件106(例如,已经处于计算机可读形式的文件)。计算机可读文件的潜在来源是AVIDTM剪辑器、DPX文件、D5磁带。
所扫描的影片印件被输入到后期处理设备102(例如,计算机)。在具有以下硬件的各种已知计算机平台的任何计算机平台上实现该计算机,所述硬件诸如一个或多个中央处理单元(CPU)、诸如随机存取存储器(RAM)和/或只读存储器(ROM)的存储器110、以及诸如键盘和指针控制设备(例如,鼠标或操纵杆)和显示设备的(多个)输入/输出(I/O)用户接口112。计算机平台还包括操作系统和微指令代码。在此描述的各种处理和功能可以是经由操作系统执行的微指令代码的一部分或软件应用程序的一部分(或其组合)。在一个实施例中,软件应用程序确实地体现在程序存储设备上,其可以上载到任何合适的机器(诸如后期处理设备102)并且被执行。此外,各种其它外围设备可以通过各种接口和总线结构(诸如并行端口、串行端口或通用串行总线(USB))连接到计算机平台。其它外围设备可以包括额外的存储设备124和印片机(printer)128。印片机128可以用于冲印影片的修改版本126(例如,影片的立体版本),其中作为下面描述的技术的结果,可能已经使用3D建模的对象变更或替代场景或多个场景。
可替代地,已经处于计算机可读形式(例如,可以存储在外部硬盘驱动器124上的数字电影)文件/影片印件106可以直接输入到计算机102中。注意到,在此使用的术语“影片(film)”可以指影片印件或数字电影。
软件程序包括在存储器110中存储的眼睛疲劳测量和降低模块114,用于测量在观看3D呈现时由观众或观看者感受到的潜在眼睛疲劳。
眼睛疲劳测量和降低模块114包括视差估计器116,被配置用于估计第一图像中的至少一个点与第二图像中的至少一个对应点的视差(第一和第二图像产生立体图像对),并且用于对于第一图像中的至少一个点与第二图像中的至少一个对应点的每一个从所估计的视差生成视差图。视差估计器116包括被配置为匹配第一和第二图像中的像素的像素匹配成本函数132,以及用于将平滑约束应用到视差估计的平滑成本函数134。视差估计器116还包括用于最小化所估计的视差的置信传播算法或函数136、以及动态程序设计算法或函数138,该动态程序设计算法或函数138利用应用于第一和第二图像的确定匹配函数的结果来初始化置信传播函数136以便加速置信传播函数136。要理解的是,置信传播和动态程序设计仅是用于确定视差的两个示例性方法,并且可以由视差估计器116采用其它视差估计方法和算法。
提供视差转换估计器118,用于确定立体图像的视差的转换或改变。提供眼睛疲劳估计器120,用于基于来自视差估计器116的视差图和来自视差转换估计器118的相关联图像的视差转换,估计潜在眼睛疲劳。
眼睛疲劳测量和降低模块114还包括视差校正器122,用于调整第一和第二图像之间的视差以降低潜在眼睛疲劳。还提供深度图生成器123,用于通过反转(invert)视差图的视差值而将视差图转换为深度图。在一个实施例中,深度图生成器123与用于降低潜在眼睛疲劳的视差校正器122协同工作,如下面将描述的。
图5是根据本公开的一个方面的示例性方法的流程图,该示例性方法用于测量至少两个二维(2D)图像的潜在眼睛疲劳。最初,后期处理设备102获取至少两个二维(2D)图像,例如具有左眼和右眼视图的立体图像对(步骤202)。后期处理设备102可以通过获得处于计算机可读格式的数字标准图像文件(digitalmasterimagefile)来获取至少两个2D图像。可以通过用数字相机捕获运动图像的时间序列来获取数字视频文件。可替代地,可以通过传统的胶片型相机捕获视频序列。在该方案中,经由扫描设备103扫描影片。
要理解的是,不管是扫描影片还是影片已经处于数字格式,影片的数字文件将包括关于各帧的位置的指示或信息,例如,帧号、从影片开始起的时间等。数字图像文件的每个帧将包括一个图像,例如,I1、I2、…In
可以通过具有相同设置的两个相机拍摄立体图像。相机的任一个被标定为具有相同的焦距、焦点高度和平行焦平面;或者必须基于已知的相机参数来偏转(warp)图像,好像它们由具有平行焦平面的相机拍摄。该偏转过程包括相机标定(cameracalibration)和相机调校(camerarectification)。标定和调校过程调整立体图像的外极线,使得外极线精确地为图像的水平扫描线。因为对应点发现沿着外极线发生,所以调校过程将对应搜索简化为仅沿着扫描线搜索,这大大降低了计算成本。对应点是对应于图像中相同场景点的像素。
接下来,在步骤204,经由视差估计器116对于场景(例如,帧)中的每个点估计视差图。用于每个场景点的视差被计算为左眼和右眼图像中的匹配点的相对距离,即,发现左和右图像中的对应于相同场景点的像素。例如,如果左眼图像中一个点的水平坐标是x,并且右眼图像中其对应点的水平坐标是x’,则视差d=x’-x。
在估计视差的一个实施例中,最初,获取立体图像对。计算视差成本函数,包括计算像素匹配成本函数132和计算平滑成本函数134。执行低成本立体匹配优化(例如,动态程序设计函数138),以便得到立体匹配两个图像的初始确定结果。然后低成本优化的结果用于初始化置信传播函数136,以便加速置信传播函数以最小化视差成本函数。要理解的是,在本领域中已知用于视差估计的其它方法,并且可以由本公开的系统和方法采用所述其它方法。
在步骤206,确定视差转换。基本存在两个类型的视差转换:影片片段(例如,场景、镜头等)之间的可能是突然的视差转换,以及影片片段(例如,场景、镜头等)内的通常连续的视差转换。如下所讨论的,片段意味着包含相同内容的帧的序列。
片段之间的视差转换通常是不连续和突然的。所以为了测量视差转换,首先估计之前片段的最后帧和当前片段的开始帧的视差图。换句话说,假设在第i片段的末尾处的视差图是Di,并且在第(i+1)片段的开始处的视差图是Di+1,那么视差差是
δD=Di+1-Di(1)
为了测量深度改变的幅度,使用绝对视差差
|δD|=|Di+1-Di|(2)
为了得到总体视差改变,使用最大视差转换,其是
δ D max = max ( x , y ) | δD ( x , y ) | - - - ( 3 )
或者使用平均视差转换,其是
δ D aver = 1 WH Σ ( x , y ) | δD ( x , y ) | - - - ( 4 )
其中W和H是视差图的宽度和高度。
对于片段中的画面,视差转换通常是连续的,但是少量时间中的大视差转换也将促进观众的眼睛疲劳。类似于片段之间的视差改变,可以将视差差用作测量,即,δD=Di+1-Di。然而,将在每个帧而不仅仅在片段的边界执行该测量。这里,确定一帧内部的像素上的平均视差值而不是跨越各帧的像素上的平均视差值,然后计算每个连续帧之间的差。
由大视差和/或视差改变导致眼睛疲劳。因此,在步骤208,基于视差图和视差转换估计眼睛疲劳。本公开的系统和方法利用非常粗略的眼睛疲劳模型。该系统和方法假设存在将眼睛疲劳与在每帧处的视差和视差改变相关的函数,并且眼睛疲劳感跨越各帧得到累积,但是随着时间指数衰减。
首先,假设存在“即时眼睛疲劳函数”其将由视差导致的眼睛疲劳与平均视差和视差转换相关。然后,如果在第i帧之后视差保持为零,则眼睛疲劳测量可以表示为衰减模型,如下
ES i ( t ) = g ( D aver i , δ D aver i ) exp ( - λt ) - - - ( 5 )
其中是建模视差对眼睛疲劳的即时影响的函数。λ是衰减系数。该模型假设如果在屏幕上不再存在视差(即,会聚点变为焦点),则眼睛疲劳将快速渐弱。注意到:因为在各片段之间可能存在视差的突然改变,因此函数对于片段内的帧和各片段之间的帧可能是不同的,这是它们在上面被不同地处理的原因。函数的简单示例可以是之间的线性组合,如下:
g ( D aver i , δ D aver i ) = a D aver i + bδ d aver i - - - ( 6 )
其中a和b是权重系数,其对于片段内的视差转换和片段之间的视差转换应该是不同的。a和b的值可以根据经验确定。
当视差保持跨越各帧改变时,那么,眼睛疲劳感应该随着时间得到累积。然而,眼睛疲劳不能永远上升,所以可以采用函数来建模眼睛疲劳感随着时间的渐弱效果。S函数用于对眼睛疲劳感的饱和建模,如下:
S(ES)=1/(1+exp(-ES))(7)
在图6中示出该函数的形状。
给定这些要素,在帧i处总体眼睛疲劳测量可以递归地定义,如下:
ES i ( t i ) = S ( ES i - 1 ( t i - 1 ) exp ( - λ ( t i - t i - 1 ) ) + g ( D aver i , δ D aver i ) ) - - - ( 8 )
其中ESi(ti)是在第i帧的眼睛疲劳测量,并且ti是第i帧的时间,并且λ是用于控制衰减速度的常数。该测量的计算可以通过随着时间的模拟而实现。
图7是随着时间的眼睛疲劳测量方程式的图示。确定在第(i-t)帧的眼睛疲劳,并且将exp(-λt)的衰减因子应用到眼睛疲劳测量。结果然后与第i帧的即时眼睛疲劳函数组合。将S形函数应用于组合结果以确定在第i帧的眼睛疲劳。
参照图8,图示了即时眼睛疲劳函数和总体眼睛疲劳测量。在每个帧(例如,帧1、2等)上的曲线是该帧的即时眼睛疲劳函数,并且在测量点上的曲线是即时眼睛疲劳函数的累积。再次参照图5,在步骤210,确定由观看者经历的总体眼睛疲劳是否可接受。在一个实施例中,将总体眼睛疲劳测量对操作者(例如,导演和剪辑师)形象化为曲线图,以便根据曲线图确定眼睛疲劳是否太高。在另一实施例中,可以将总体眼睛疲劳测量与预定阈值比较,以便确定是否需要校正。例如,生成表示总体眼睛疲劳测量的曲线,然后将曲线上的每个点的值与预定阈值比较。在该实施例中,对于不同类型的场景和电影,预定阈值将是不同的。
如果确定眼睛疲劳太高,则在步骤212将对立体图像执行视差校正或调和(grading)以降低眼睛疲劳。调和是平滑跨越各帧的视差值的过程。通过平滑跨越各帧的视差,可以减少视差的突然改变,并且因此可以降低眼睛疲劳。用于减少视差的一个示例性方法被称为会聚调整,其通过向左或向右偏移右眼图像以调整会聚点来实现。通过向左或向右偏移右眼图像,可以人工减少或增加像素的视差,分别导致更小或更大的总体深度。
图像偏移的问题在于所有像素的深度增加相同量,这与3D场景几何形状无关。然而,如果精确的深度图是可用的,则可能合成具有新的虚拟相机位置的场景的新视图,以便减少视差。在该实施例中,使用以下公式z=Bf/d(其中B是两个相机之间的距离,也称为基线,并且f是相机的焦距),通过深度图生成器123将上面确定的每个场景点的视差值d转换为深度值z,(即从场景点到相机的距离)。至少一个图像(例如,左眼视图图像)的每个的深度值存储在深度图中。深度图的深度值相应改变,以便合成新的视图同时减小图像的视差。例如,为了创建新的视图,首先改变深度值,然后重新绘制新的左或右(或两者)图像。重新绘制过程采用左(或右)图像和深度图,并且创建新的右(或左)图像。深度值是像素的3D信息,因此,可以使用诸如光线跟踪的技术,以便将3D点绘制为新的视图中的2D像素。新的视图将具有更小的视差或更小的视差转换,并且因此对于观看者或观众将导致降低的眼睛疲劳。
现在参照图4,例如在存储设备124中存储对应图像和相关联的深度图,并且可以被检索用于3D回放。此外,运动画面或视频剪辑的所有校正图像可以与相关联的深度图存储在表示运动画面或剪辑的立体版本的单个数字文件130中。数字文件130可以存储在存储设备124中用于之后检索,例如,用于冲印原始影片的立体版本。
尽管在此已经详细示出和描述了并入本公开的教导的实施例,但是本领域技术人员可以容易地设计仍并入这些教导的任何其它变化的实施例。已经描述了用于测量在观看3D呈现时感受到的潜在眼睛疲劳的系统和方法的优选实施例(其旨在是说明性的而不是限制性的),注意到根据上面的教导本领域技术人员可以进行修改和变化。因此,要理解的是在所公开的本公开的特定实施例中可以进行、在如由所附权利要求概述的本公开的范围内的改变。

Claims (14)

1.一种测量在观看三维(3D)呈现时的潜在眼睛疲劳的方法,所述方法包括:
获取图像的序列中的第一图像和第二图像(202);
估计第一图像中的至少一个点与第二图像中的至少一个对应点的视差(204);
估计第一和第二图像的序列的视差转换(206);以及
基于视差以及第一和第二图像的序列的视差转换确定在观看3D呈现时的潜在眼睛疲劳(208)。
2.如权利要求1所述的方法,其中估计视差转换步骤(206)还包括:
估计之前片段的最后帧的视差;
估计第一片段的第一帧的视差;以及
确定之前片段的最后帧的视差和第一片段的第一帧的视差之间的差。
3.如权利要求1所述的方法,其中估计视差转换步骤(206)还包括:
估计第一片段的多个帧的每个帧内的视差;以及
确定第一片段的每个帧的视差之间的差。
4.如权利要求1所述的方法,其中确定潜在眼睛疲劳步骤(208)还包括步骤:
确定用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数;
将衰减因子应用到用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数;
在预定的时间段上累积衰减后的用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数;以及
使在第一和第二图像的序列上累积的眼睛疲劳函数饱和。
5.如权利要求1所述的方法,还包括:
确定潜在眼睛疲劳是否可接受(210);以及
如果潜在眼睛疲劳不可接受,则校正第一和第二图像的视差(212)。
6.如权利要求5所述的方法,其中校正步骤(212)还包括偏移第一和第二图像的至少一个,以便调整观看者的眼睛相对于第一和第二图像的会聚点。
7.如权利要求5所述的方法,其中校正步骤(212)还包括合成第一片段的具有减小的视差的新视图。
8.一种用于测量在观看三维(3D)呈现时的潜在眼睛疲劳的系统(100),所述系统包括:
用于获取图像的序列中的第一图像和第二图像的部件;
视差估计器(116),用于估计第一图像中的至少一个点与第二图像中的至少一个对应点的视差;
视差转换估计器(118),用于估计第一和第二图像的序列的视差转换;以及
眼睛疲劳估计器(120),用于基于视差以及第一和第二图像的序列的视差转换确定在观看3D呈现时的潜在眼睛疲劳。
9.如权利要求8所述的系统(100),其中视差转换估计器(118)操作来估计之前片段的最后帧的视差,估计第一片段的第一帧的视差,以及确定之前片段的最后帧的视差和第一片段的第一帧的视差之间的差。
10.如权利要求8所述的系统(100),其中视差转换估计器(118)操作来估计第一片段的多个帧的每个帧内的视差,以及确定第一片段的每个帧的视差之间的差。
11.如权利要求8所述的系统(100),其中眼睛疲劳估计器(120)操作来确定用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数,将衰减因子应用到用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数,在预定的时间段上累积衰减后的用于第一和第二图像的序列的每个帧的即时眼睛疲劳函数,以及使在第一和第二图像的序列上累积的眼睛疲劳函数饱和。
12.如权利要求8所述的系统(100),还包括视差校正器(122),如果眼睛疲劳估计器(120)确定潜在眼睛疲劳不可接受,则视差校正器(122)操作来校正第一和第二图像的视差。
13.如权利要求12所述的系统(100),其中视差校正器(122)操作来偏移第一和第二图像的至少一个,以便调整观看者的眼睛相对于第一和第二图像的会聚点。
14.如权利要求12所述的系统(100),其中视差校正器(122)操作来合成第一片段的具有减小的视差的新视图。
CN200880129158.1A 2008-05-12 2008-05-12 用于测量立体运动画面的潜在眼睛疲劳的系统和方法 Expired - Fee Related CN102027752B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510315583.1A CN104980732B (zh) 2008-05-12 2008-05-12 测量立体运动画面的潜在眼睛疲劳的系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/006036 WO2009139740A1 (en) 2008-05-12 2008-05-12 System and method for measuring potential eyestrain of stereoscopic motion pictures

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201510315583.1A Division CN104980732B (zh) 2008-05-12 2008-05-12 测量立体运动画面的潜在眼睛疲劳的系统和方法

Publications (2)

Publication Number Publication Date
CN102027752A CN102027752A (zh) 2011-04-20
CN102027752B true CN102027752B (zh) 2016-02-17

Family

ID=39870649

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200880129158.1A Expired - Fee Related CN102027752B (zh) 2008-05-12 2008-05-12 用于测量立体运动画面的潜在眼睛疲劳的系统和方法

Country Status (7)

Country Link
US (1) US8787654B2 (zh)
EP (1) EP2274920B1 (zh)
JP (1) JP5429896B2 (zh)
KR (1) KR101518531B1 (zh)
CN (1) CN102027752B (zh)
CA (1) CA2723627C (zh)
WO (1) WO2009139740A1 (zh)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY155378A (en) * 2008-07-24 2015-10-15 Koninkl Philips Electronics Nv Versatile 3-d picture format
US8330802B2 (en) * 2008-12-09 2012-12-11 Microsoft Corp. Stereo movie editing
US20110050857A1 (en) * 2009-09-03 2011-03-03 Electronics And Telecommunications Research Institute Apparatus and method for displaying 3d image in 3d image system
JP5361618B2 (ja) 2009-09-04 2013-12-04 キヤノン株式会社 画像処理装置及びその制御方法
WO2011081646A1 (en) * 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
JP5387399B2 (ja) * 2009-12-28 2014-01-15 ソニー株式会社 情報処理装置および情報処理方法
WO2011080878A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 画像再生装置及び表示装置
JP5505881B2 (ja) * 2010-02-02 2014-05-28 学校法人早稲田大学 立体映像制作装置およびプログラム
WO2011108276A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置、および立体撮像方法
US9049434B2 (en) 2010-03-05 2015-06-02 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
JP5432365B2 (ja) 2010-03-05 2014-03-05 パナソニック株式会社 立体撮像装置および立体撮像方法
US8730301B2 (en) 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
KR101682205B1 (ko) * 2010-05-03 2016-12-05 삼성전자주식회사 입체영상의 시청피로를 저감하는 장치 및 방법
US20110279651A1 (en) * 2010-05-17 2011-11-17 Texas Instruments Incorporated Method and Apparatus for Auto-Convergence Based on Auto-Focus Point for Stereoscopic Frame
JP5556394B2 (ja) * 2010-06-07 2014-07-23 ソニー株式会社 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
US9406132B2 (en) * 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
JP2012029216A (ja) * 2010-07-27 2012-02-09 Sony Corp 再生装置、再生方法、およびプログラム
JP2012054912A (ja) * 2010-08-02 2012-03-15 Sharp Corp 映像処理装置、表示装置及び映像処理方法
WO2012023168A1 (ja) * 2010-08-19 2012-02-23 パナソニック株式会社 立体映像撮像装置および立体映像撮像方法
US20130169543A1 (en) * 2010-09-20 2013-07-04 Mediatek Singapore Pte. Ltd. Rendering Apparatuses, Display System and Methods for Rendering Multimedia Data Objects with a Function to Avoid Eye Fatigue
EP2451164B1 (en) * 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
JP5242667B2 (ja) 2010-12-22 2013-07-24 株式会社東芝 マップ変換方法、マップ変換装置及びマップ変換プログラム
KR101796663B1 (ko) * 2011-02-07 2017-11-10 삼성전자 주식회사 영상처리장치 및 그 제어방법
US8654181B2 (en) * 2011-03-28 2014-02-18 Avid Technology, Inc. Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence
JP5096643B1 (ja) * 2011-05-19 2012-12-12 パナソニック株式会社 輻輳能力判定装置及びその方法
KR20120133951A (ko) * 2011-06-01 2012-12-11 삼성전자주식회사 3d 영상변환장치 그 깊이정보 조정방법 및 그 저장매체
US10491915B2 (en) 2011-07-05 2019-11-26 Texas Instruments Incorporated Method, system and computer program product for encoding disparities between views of a stereoscopic image
DE102011107765B3 (de) * 2011-07-18 2012-12-06 3Ality Digital Systems, Llc Verfahren zum Glätten von Übergängen zwischen Szenen eines Stereofilms sowie Steuerung oder Regelung mehrerer 3D-Kameras
US9602801B2 (en) 2011-07-18 2017-03-21 Truality, Llc Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras
KR101888672B1 (ko) * 2011-07-27 2018-08-16 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
DE102011109301B4 (de) 2011-08-03 2013-05-08 3Ality Digital Systems, Llc Verfahren zum Korrigieren der Zoom-Einstellung und/oder des vertikalen Versatzes von Teilbildern eines Stereofilms sowie Steuerung oder Regelung eines Kamerarigs mit zwei Kameras
JP5982751B2 (ja) 2011-08-04 2016-08-31 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US20140218490A1 (en) * 2011-08-30 2014-08-07 Telefonaktiebolaget L M Ericsson (pulb) Receiver-Side Adjustment of Stereoscopic Images
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9014463B2 (en) * 2011-11-25 2015-04-21 Kyungpook National University Industry-Academic Cooperation Foundation System for real-time stereo matching
KR102131745B1 (ko) 2012-01-04 2020-07-08 인터디지탈 매디슨 페이튼트 홀딩스 3d 이미지 시퀀스의 처리
US9628770B2 (en) * 2012-06-14 2017-04-18 Blackberry Limited System and method for stereoscopic 3-D rendering
US20140063206A1 (en) * 2012-08-28 2014-03-06 Himax Technologies Limited System and method of viewer centric depth adjustment
JP5830705B2 (ja) * 2012-09-25 2015-12-09 パナソニックIpマネジメント株式会社 画像信号処理装置および画像信号処理方法
US9300942B2 (en) * 2012-10-18 2016-03-29 Industrial Technology Research Institute Method and control system for three-dimensional video playback using visual fatigue estimation
US9182817B2 (en) * 2013-03-12 2015-11-10 Intel Corporation Techniques for automated evaluation of 3D visual content
US9483111B2 (en) * 2013-03-14 2016-11-01 Intel Corporation Techniques to improve viewing comfort for three-dimensional content
US20150033157A1 (en) * 2013-07-25 2015-01-29 Mediatek Inc. 3d displaying apparatus and the method thereof
US9736449B1 (en) 2013-08-12 2017-08-15 Google Inc. Conversion of 2D image to 3D video
CN103458259B (zh) * 2013-08-27 2016-04-13 Tcl集团股份有限公司 一种3d视频引起人眼疲劳度的检测方法、装置及系统
CN104146678B (zh) * 2014-08-14 2016-05-04 上海亿保健康管理有限公司 基于智能手机的眼睛疲劳度数据分析方法
CN104284183A (zh) * 2014-09-30 2015-01-14 重庆三峡学院 一种3d帧安全检测方法及装置
KR102350232B1 (ko) * 2014-11-20 2022-01-13 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
CN104398235A (zh) * 2014-12-04 2015-03-11 张晓� 一种眼部疲劳检测仪
CN104967837A (zh) * 2015-06-30 2015-10-07 西安三星电子研究有限公司 用于调整三维显示效果的设备和方法
CN105100773B (zh) * 2015-07-20 2017-07-28 清华大学 立体视频制作方法、立体视图制作方法和制作系统
CN106851246B (zh) * 2017-02-06 2019-08-23 京东方科技集团股份有限公司 用于确定三维图像或视频的视觉疲劳度的方法和设备
CN107277502A (zh) * 2017-08-01 2017-10-20 成都大学 一种测评立体视频视疲劳程度的方法与系统
CN110495895B (zh) * 2019-08-26 2020-04-28 重庆大学 一种基于眼动跟踪的疲劳检测方法与系统
CN112580423A (zh) * 2019-09-30 2021-03-30 托比股份公司 处理用户眼睛的图像的方法、相关联系统和计算机程序
CN111951332B (zh) * 2020-07-20 2022-07-19 燕山大学 基于视线估计和双目深度估计的眼镜设计方法及其眼镜

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1838778A (zh) * 2005-03-24 2006-09-27 精工爱普生株式会社 立体图像显示装置及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JPH1052402A (ja) * 1996-08-09 1998-02-24 Agency Of Ind Science & Technol 視覚疲労検査方法および立体視標呈示装置
JP4149037B2 (ja) * 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
DE50304160D1 (de) 2002-10-18 2006-08-17 Tetra Laval Holdings & Finance Vorrichtung zum stanzen, prägen und/oder verformen flacher elemente
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus
JP4148811B2 (ja) * 2003-03-24 2008-09-10 三洋電機株式会社 立体画像表示装置
JP4121881B2 (ja) * 2003-03-28 2008-07-23 株式会社トプコン 三次元観察状態測定装置及び方法
JP4091532B2 (ja) * 2003-12-18 2008-05-28 株式会社ソフィア 遊技機
KR100739764B1 (ko) * 2005-11-28 2007-07-13 삼성전자주식회사 입체 영상 신호 처리 장치 및 방법
KR101102004B1 (ko) * 2005-12-30 2012-01-04 삼성전자주식회사 3차원 입체 영상에 대한 피로도를 정량화하는 방법 및시스템
US8224067B1 (en) * 2008-07-17 2012-07-17 Pixar Animation Studios Stereo image convergence characterization and adjustment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1838778A (zh) * 2005-03-24 2006-09-27 精工爱普生株式会社 立体图像显示装置及方法

Also Published As

Publication number Publication date
KR20110021875A (ko) 2011-03-04
JP5429896B2 (ja) 2014-02-26
US8787654B2 (en) 2014-07-22
JP2011520398A (ja) 2011-07-14
CA2723627C (en) 2017-01-24
US20110142309A1 (en) 2011-06-16
KR101518531B1 (ko) 2015-05-07
EP2274920B1 (en) 2019-01-16
CN102027752A (zh) 2011-04-20
WO2009139740A1 (en) 2009-11-19
EP2274920A1 (en) 2011-01-19
CA2723627A1 (en) 2009-11-19

Similar Documents

Publication Publication Date Title
CN102027752B (zh) 用于测量立体运动画面的潜在眼睛疲劳的系统和方法
CN102047288B (zh) 利用正向和反向深度预测进行图像的深度提取的系统和方法
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
CN101689299B (zh) 用于图像的立体匹配的系统和方法
US7616885B2 (en) Single lens auto focus system for stereo image generation and method thereof
EP2618584B1 (en) Stereoscopic video creation device and stereoscopic video creation method
CN101542536A (zh) 用于合成三维图像的系统和方法
US5764236A (en) Image data processing apparatus and image reproduction apparatus
KR100897542B1 (ko) 임의 시점 영상 합성 시 영상 보정 방법 및 장치
KR20120053536A (ko) 화상 표시 장치 및 화상 표시 방법
US20140125778A1 (en) System for producing stereoscopic images with a hole filling algorithm and method thereof
CN104980732A (zh) 测量立体运动画面的潜在眼睛疲劳的系统和方法
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
US8754891B2 (en) Method for image processing and an apparatus thereof

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190131

Address after: Paris France

Patentee after: International Digital Madison Patent Holding Co.

Address before: I Si Eli Murli Nor, France

Patentee before: THOMSON LICENSING

Effective date of registration: 20190131

Address after: I Si Eli Murli Nor, France

Patentee after: THOMSON LICENSING

Address before: I Si Eli Murli Nor, France

Patentee before: THOMSON LICENSING

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160217

Termination date: 20190512

CF01 Termination of patent right due to non-payment of annual fee