CN103081002A - 2d到3d用户界面内容数据转换 - Google Patents

2d到3d用户界面内容数据转换 Download PDF

Info

Publication number
CN103081002A
CN103081002A CN2011800384133A CN201180038413A CN103081002A CN 103081002 A CN103081002 A CN 103081002A CN 2011800384133 A CN2011800384133 A CN 2011800384133A CN 201180038413 A CN201180038413 A CN 201180038413A CN 103081002 A CN103081002 A CN 103081002A
Authority
CN
China
Prior art keywords
user interface
content data
data
interface content
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011800384133A
Other languages
English (en)
Inventor
Y·于
R·布兰查德
S·里奇曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN103081002A publication Critical patent/CN103081002A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种在3D电视(TV)中的二维(2D)内容数据转换到三维(3D)内容数据的方法包括:经2D到3D内容转换模块接收3D视频内容和2D用户界面内容数据。确定由针对2D用户界面内容数据的3D呈现定义左眼数据和右眼数据的分离的差异数据代表的位移。在3D TV的显示器上显示3D视频内容。基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据。本摘要不应被视为是限制性的,因为其它实施例可不同于在本摘要中描述的特征。

Description

2D到3D用户界面内容数据转换
相关申请的交叉引用
本申请涉及都归属于Jean Pierre Guillou的于2009年2月19日提交的美国临时专利申请61/153,720和于2009年10月29日提交的美国专利申请12/589,837,这些申请通过引用包含于此。
版权声明
本专利文件的公开的一部分包含受到版权保护的材料。当本专利文件或专利公开的拓制出现在专利商标局专利文件或记录中时,版权所有者不反对这一点,但在其它方面完全保留所有版权权利。商标是其各自的所有者的财产。
背景技术
存在许多已知的使用户界面(UI)与显示器(诸如,电视显示器)上的视觉内容交互的方法。例如,UI可稍微透明以允许观看者观看在UI下方的内容,或者UI可被放置在覆盖屏幕的一部分的窗口或盒子中。通常,当存在UI时,它将会具有允许用户看见UI和内容的透明度的区域。然而,除了在Guillou的上述专利申请中之外,未在任何已知程度上研究与如何在电视显示器等显示立体内容时处理UI或其它2维内容相关的问题,该专利申请由本申请的受让人共同拥有。
附图说明
通过参照结合附图进行的下面的详细描述,可最好地理解表示组织和操作的方法的某些说明性实施例以及目的和优点,其中:
图1是根据本发明某些实施例的用作从上方观看的视图的任何合适的设计的立体显示面板的例子的示图。
图2是根据本发明某些实施例的包括三维(3D)用户界面(UI)元件的用作从上方观看的视图的任何合适的设计的立体显示面板的例子的示图。
图3是根据本发明某些实施例的提供2D到3D用户界面内容数据转换的显示装置的实现方式的例子的框图。
图4是根据本发明某些实施例的提供自动的2D到3D用户界面内容数据转换的处理的实现方式的例子的流程图。
图5是根据本发明某些实施例的为3D图形覆盖提供自动的2D到3D用户界面内容数据转换的处理的实现方式的例子的流程图。
图6A是根据本发明某些实施例的用于通过合并2D用户界面内容的两个拷贝与3D视频内容的右图像和左图像产生3D用户界面元件的自动的2D到3D用户界面内容数据转换的处理的初始处理的实现方式的例子的流程图。
图6B是根据本发明某些实施例的用于通过合并2D用户界面内容的两个拷贝与3D视频内容的右图像和左图像产生3D用户界面元件的自动的2D到3D用户界面内容数据转换的图6A的处理的其他的处理的实现方式的例子的流程图。
具体实施方式
尽管本发明能够具有许多不同形式的实施例,但在附图中显示并且将在本文详细描述特定实施例,应该理解,这种实施例的公开应该被视为原理的示例,而非意图把本发明限制于显示和描述的特定实施例。在以下的描述中,相同的标号用于描述附图的几个示图中的相同、相似或对应的部分。
如本文所使用,术语“一个”或“一种”被定义为一个(种)或超过一个(种)。如本文所使用,术语“多个”被定义为两个或超过两个。如本文所使用,术语“其他”被定义为至少再一个或更多个。如本文所使用,术语“包含”和/或“具有”被定义为包括(即,开放式语言)。如本文所使用,术语“耦合”被定义为连接,但未必是直接连接,并且未必是以机械方式连接。如本文所使用,术语“程序”或“计算机程序”或类似术语被定义为设计用于在计算机系统上执行的指令序列。“程序”或“计算机程序”可包括子程序、函数、过程、对象方法、对象实现、可执行应用、小应用程序、小服务程序、源代码、目标代码、共享库/动态加载库和/或设计用于在计算机系统上执行的其它指令序列。
如本文所使用,术语“节目”也可用在第二语境中(以上定义用于第一语境)。在第二语境中,在“电视节目”的意义上使用该术语。在这种语境中,该术语用于表示任何相干系列的音频视频内容,诸如将会被解释为并且在电子节目指南(EPG)中被报告为单个电视节目的内容,而不管该内容是电影、体育赛事、多部分连续剧的片段、新闻广播等。该术语也可被解释为包括商业插播广告和可能未在电子节目指南中被报告为节目的其它像节目一样的内容。
在整个本文件中对“一个实施例”、“某些实施例”、“实施例”或类似术语的提及表示结合实施例描述的特定特征、结构或特性被包括在本发明的至少一个实施例中。因此,在整个本说明书的各种地方的这种词语的出现不必全部表示相同的实施例。另外,所述特定特征、结构或特性可非限制性地在一个或多个实施例中以任何合适的方式组合。
如本文所使用,术语“或者”应该被解释为是包括性的或者表示任何一种或任何组合。因此,“A、B或者C”表示“下面的任何一种:A;B;C;A和B;A和C;B和C;A,B和C”。仅当元件、功能、步骤或动作的组合以某种方式固有地相互排斥时,将会发生这种定义的例外。
如本文所使用,术语3D或三维旨在应用于立体三维视觉体验。这种体验能够以许多方法创建,包括使用针对每只眼睛不同地偏振或针对每只眼睛滤色的图像。具体地讲,在本发明的上下文内,通过分开的左眼和右眼图像的产生和显示来创建三维视觉体验。在呈现分开的用于每只眼睛的图像的显示装置上观看这种图像,其中主动技术(诸如,由每只眼睛观看的图像的交替的同步的阻挡和通过)用于创建左眼和右眼图像的分离,或者被动技术(诸如,偏振或有色眼镜)用于分离左眼和右眼图像,由此产生立体三维视觉体验幻觉。
如本文所使用,术语“差异”表示一个立体图像(例如,左眼)中的投影点相对于其他立体图像(例如,右眼-反之亦然)的位移。在隐藏式说明的情况下,差异可以仅是左眼和右眼视野之间的水平或其它位移。在图形的情况下,差异可针对每个像素而不同。当通过计算而非通过一组立体照相机产生时,可假设当呈现左视野和右视野时应该计算虚拟照相机的水平或其它位移。在任何情况下,术语差异或差异数据能够表示对于每个像素沿一个方向的单个位移量或者代表每个像素应该如何相对于其他视野中的像素移位的一组位移数据或关系。
差异数据还可称为视差。视差代表当移动到不同位置时或者当相对于其它对象更靠近观看者时的对象的差别观看视角。如此,为了本描述的目的,当图像定位时,或者当相对于其它显示的对象分别移动图像或对图像调整大小时,视差可用于设置并调整图像的视角。另外,当使对象朝着观看者的视角靠近时,视差被视为“负”,并且当在3D观看空间中对象从观看者的视角移走时,视差被视为“正”。
在3D电视中,当前用户界面图形平面、隐藏式说明显示平面和其它图形层不具有深度参数。因此,它们看起来是2维(2D)图像。这与3D视频平面不同,并且能够对于一些用户引起不舒服的观看。在根据本发明实施例的示例性实现方式中,与用户界面图形平面、隐藏式说明显示平面和其它图形层一起传送深度参数(例如,差异数据和/或视差数据)。与2D用户界面图形平面不同,构造或传送两个用户界面图形平面(视野)。对于2D图形用户界面或隐藏式说明,除了传送普通2D图形之外,还按照某一水平或其它位移呈现图形的其他拷贝。对于3D图形用户界面,在不同照相机位置呈现图形的其他视野。以这种方式,可实现用户界面图形(2D或3D图形)和字幕的3D效果。在2D用户界面和字幕中,在2D空间中执行创建。
通过改变两个视野的差异,可实现在3D空间中的用户界面和字幕创建。最后,通过允许用户调整与图形或字幕关联的深度(例如,差异)参数,与用户界面和字幕的用户交互可延伸到3D空间。这允许在屏幕上呈现的3D图片内以及独立于屏幕上的3D图片的向前或向后的图形或字幕的感知移动。用户可还在显示屏幕周围移动字幕窗口。例如,用户可在3D空间中使创建的3D用户界面元件更靠近并且朝着显示屏幕的中心移动以观看内容,然后使它移走并且朝着拐角移动以观看显示器上显示的3D视频内容。通过使用像素修改技术(诸如,像素间内插),产生的3D内容也可在尺寸方面增加。通过用于减少像素内容信息的类似处理也可实现尺寸的减小。对于文本,更大和更小的字体可分别用于增加和减小产生的3D内容的尺寸。在这种情况下,用户可使用户界面元件开放而非完全关闭用户界面元件,以便容易访问。如此,本文描述的技术提供更灵活并且令人愉快的消费者体验。
通过传送或创建用户界面图形和字幕的两个视野以及产生或传送差异数据,可提供或创建深度感觉。通过允许用户改变两个视野之间的差异或者通过改变3D图形中的照相机的位置,可调整深度感觉,这能够在3D空间中创建用户界面和字幕并且能够在3D空间中实现与用户界面图形和字幕的消费者交互。这种技术可与用户界面、字幕呈现、字幕和其它图形平面一起使用。可在数字影院系统、电视和机顶盒(诸如,线缆、卫星和媒体播放器(DVD等))中使用这些技术。
这里,在根据本发明的实施例的某些实现方式中,一种方法提供图形用户界面(GUI)以及3D电视(3D TV)的隐藏式说明显示的深度感觉。
图1和图2是用作从上方观看的视图的任何合适的设计的立体显示面板100的实现方式的例子的示图。应该理解,立体显示面板100可替代地称为3D显示面板。观看者的位置104代表在立体显示面板100的前方的位置。该示图通过使用立体技术来显示这一点,可创建幻觉,其中位于位置104的观看者能够看起来看见具有变化的深度-ve(例如,负视差)的位于立体显示面板100的平面的前方的对象(诸如,对象108),或者可看见看起来具有变化的深度+ve(例如,正视差)的位于立体显示面板100的平面的后方的对象(诸如,对象112)。观看者也可看见看起来跨越立体显示面板100的平面的对象(诸如,对象116)。从图1能够看出,对象108看起来更大并且更靠近就好像相对于对象116显示在立体显示面板100的前方,并且相对于对象112显示在更加向前的位置。如上所述,通过调整各个对象的差异、各个对象的视差和各个对象的尺寸,可做出这种视角改变。如此,对象相对于位于位置104的观看者的表观距离和它们相对于其它对象的表观视角可改变,并且对象可看起来具有跨越沿着从-ve标度上的某处到+ve标度上的某处的连续体的距离的深度。替代地,通过仅调整差异和视差,对象的深度可改变以在没有尺寸调整的情况下调整对象相对于位于位置104的观看者的表观距离。在描述的标度中,+ve代表相对于观看者的位置104位于立体显示面板100的平面的后方的空间,并且-ve代表相对于观看者的位置104位于立体显示面板100的前方的空间。在每个示图中,对象108、116和112表示立体显示面板100上显示的原始图像的各部分。
考虑到由立体显示面板100创建的三维幻觉,当把2D用户界面(UI)插入到显示的图像中时,可能存在这样的问题,即用户具有立体显示面板100上的2D UI和3D视频内容的令人舒服的交互。参照图2,现在考虑:3D UI元件120并置在与对象108、116和112关联的三维图像中。通过为用户提供控制两个2D图像的差异(左眼图像和右眼图像之间的距离)的能力,可产生位于任何所希望的深度或显示器的位置的3D UI元件120。用户可使用遥控器的任何合适的导航控件把3D UI元件120布置在立体显示面板100上的任何位置和/或布置在沿着+ve和-ve深度轴的任何深度。另外,根据需要,可在显示装置(例如,电视、机顶盒或其它TV接收器装置)在本地创建左眼图像和右眼图像,或者可产生并发送左眼图像和右眼图像以便显示。在隐藏式说明数据或字幕数据的情况下,例如,左眼图像和右眼图像可伴随原始内容(例如,电视节目或电影)。替代地,响应于在产生时接收到各数据的单个拷贝以便显示,可在本地产生用于菜单项、指南数据和其它元数据的左眼图像和右眼图像。
因此,用户可在由立体显示面板100创建的3D观看空间内根据需要把3D UI元件120移动到任何令人舒服的观看地点和位置(例如,深度–向前或向后,或者垂直和水平)。
五个数据元件可用于构造根据本发明某些实现方式的3D UI元件120:X位置(水平)、Y位置(垂直)、左眼图形、右眼图形和差异。在这个例子中,X和Y位置数据可定义左眼图像或右眼图像数据的在显示器上的位置或地点,并且差异数据定义两个图像之间的水平或其它位移(例如,距离),如此,定义3D UI元件120相对于立体显示面板100内显示的其它3D视频内容的感知的深度。在其它实现方式中,用户也可控制X和Y位置数据以允许3D UI元件120在由立体显示面板100的表面定义的平面内移动,在该平面上,X和Y轴允许测量X位置和Y位置变化之差。另外,如上所述,可调整3D UI元件120的尺寸,以创建相对于其它显示的3D内容的视角。如此,也可对任何3D合并或图形覆盖图像(包括隐藏式说明数据、电子节目指南数据(EPG)、图形框覆盖或持久小插件)进行这种控制。
还可使用阿尔法混合调整3D用户界面元件的不透明度。阿尔法混合是组合半透明前景颜色与背景颜色的处理,由此产生新的混合的颜色。前景颜色的半透明的程度可在完全透明到完全不透明之间变化。如果前景颜色完全透明,则混合的颜色将会是背景颜色。相反地,如果前景颜色完全不透明,则混合的颜色将会是前景颜色。
为了本主题的目的,应该理解,当前存在几种形式的3D内容。例如,3D视频内容可被编码以用于偏振、帧顺序或具有3D功能的显示输出装置。对于偏振编码,通过在视频内容的每帧上按照并排或上下格式合并左图像和右图像,可产生3D视频内容。在呈现时,这些图像分别被缩放并利用相反的圆偏振格式化到每个显示的视频帧的奇数行和偶数行上。被动式偏振3D眼镜用于把左眼图像和右眼图像呈现给观看者。替代地,可使用以偏振编码的帧速的两倍的帧速工作的帧顺序格式,以便顺序地呈现左图像和右图像中的每个图像。主动式3D眼镜用于同步并选择对于每个顺序帧而言哪个透镜是有效的。使用所描述的3D编码和呈现选项中的任一种,3D成像的分辨率可降低。替代地,存在这样的具有3D功能的显示器:该具有3D功能的显示器执行3D视频内容到3D呈现输出的转换,并且与使用被动式或主动式眼镜的任一种方案相比可具有更高的3D内容的呈现分辨率。应该理解,本主题应用于上述和任何其它3D视频内容编码和呈现格式。还应该理解,本领域普通技术人员将能够基于本描述实现本主题。如此,将不会在本文描述3D编码和呈现的进一步细节。
图3是提供2D到3D用户界面内容数据转换的显示装置300的实现方式的例子的框图。处理器302提供显示装置300内的计算机指令执行、计算和其它能力。如上所述,立体显示面板100向显示装置300的用户提供视觉和/或其它信息,包括3D视频内容输出和与3D视频内容合并或覆盖在3D视频内容上的具有3D格式的转换的2D用户界面内容的输出。立体显示面板100可包括任何类型的立体显示装置,诸如阴极射线管(CRT)、液晶显示器(LCD)、发光二极管(LED)显示器、投影或其它显示元件或面板(集成到电视机或在电视机外部),并且可还包括具有3D功能的显示输出装置。红外输入装置304经诸如红外遥控装置(未示出)的装置为显示装置300的用户提供输入能力。
音频输出装置306为显示装置300提供音频输出能力,诸如与显示的视频内容关联的音频输出。对于给定实现方式,音频输出装置306可合适地包括扬声器、驱动器电路和接口电路。
对于给定实现方式,通信模块308合适地为与显示装置300的交互(诸如,经卫星、线缆、互联网或其它内容提供商检索音频和视频内容)和其它活动提供通信能力。通信模块308可支持适合给定实现方式的有线或无线标准。示例性有线标准包括家庭网络内的互联网视频链接(IVL)互连,诸如Sony公司的BraviaTM互联网视频链接(BIVLTM)。示例性无线标准包括蜂窝无线通信和
Figure BDA00002818136300081
无线通信标准。通信模块308可还支持数字生活网络联盟(DLNA)或其它网络接口。可采用许多其它有线和无线通信和接口标准,并且所有这些有线和无线通信和接口标准被视为落在本主题的范围内。
应该注意的是,为了方便说明和描述的目的,通信模块308被表示为部件级别模块。还应该理解,通信模块308可包括用于执行通信模块308的功能的任何硬件、编程处理器和存储器。例如,通信模块308可包括用于执行与通信模块308关联的电气控制活动的具有专用集成电路(ASIC)、处理器、天线和/或分立集成电路和部件的形式的其他的控制器电路。另外,通信模块308可合适地包括中断级别、堆栈级别和应用级别模块。另外,通信模块308可包括用于存储、执行和由这些模块执行与通信模块308关联的处理活动的数据处理的任何存储部件。通信模块308可还形成在不脱离本主题的范围的情况下在以下描述的其它电路的一部分。
存储器310包括2D用户界面内容存储区域312和3D用户界面内容存储区域314。2D用户界面内容存储区域312可存储接收到的2D用户界面内容数据,并且可还存储与2D用户界面内容数据一起接收的差异数据。接收到的2D用户界面内容数据的拷贝(不管是接收的还是产生的)也可存储在2D用户界面内容存储区域312内。3D用户界面内容存储区域314存储已为与3D视频内容合并准备的转换的2D用户界面内容数据。转换的2D用户界面内容数据的例子包括基于接收到的2D用户界面内容数据和从接收到的差异数据确定的水平位移或其它方向位移信息产生的3D图形覆盖对象。对于给定实现方式,水平或其它方向位移信息可合适地用于产生3D图形覆盖对象或用于2D用户界面内容数据与3D视频内容的左图像条带和右图像条带的插入/合并,并且可用于把2D用户界面内容数据的拷贝布置在顺序的左帧和右帧上以用于帧顺序3D呈现。
应该理解,存储器310可合适地包括适合预期目的的易失性和非易失性存储器、分布式存储器或本地存储器的任何组合,并且可包括为了方便说明的目的而未在本例子内表示的其它存储区。例如,在不脱离本主题的范围的情况下,存储器310可包括代码存储区域、代码执行区域和数据区域。
还表示了2D到3D用户界面转换模块316。如上所述并且如以下更详细所述,2D到3D用户界面转换模块316为显示装置300提供2D到3D转换处理。2D到3D用户界面转换模块316实现显示装置300的自动的2D到3D用户界面内容数据转换。
虽然为了方便说明和描述的目的,2D到3D用户界面转换模块316被表示为部件级别模块,但应该注意的是,如上所述并且如以下更详细所述,2D到3D用户界面转换模块316可包括用于执行这个模块的功能的任何硬件、编程处理器和存储器。例如,2D到3D用户界面转换模块316可包括具有专用集成电路(ASIC)、处理器和/或分立集成电路的形式的其他的控制器电路和用于执行与各装置关联的通信和电气控制活动的部件。另外,2D到3D用户界面转换模块316可合适地包括中断级别、堆栈级别和应用级别模块。另外,2D到3D用户界面转换模块316可包括用于存储、执行和用于执行与该模块关联的处理活动的数据处理的任何存储部件。
还应该注意的是,2D到3D用户界面转换模块316可形成在不脱离本主题的范围的情况下描述的其它电路的一部分。另外,2D到3D用户界面转换模块316可替代地实现为存储在存储器310内的应用。在这种实现方式中,2D到3D用户界面转换模块316可包括由处理器302为了执行本文描述的功能而执行的指令。处理器302可为显示装置300提供以上描述并且在以下更详细地描述的处理能力。在不脱离本主题的范围的情况下,2D到3D用户界面转换模块316可形成中断服务例程(ISR)的一部分、操作系统的一部分、浏览器应用的一部分或单独的应用的一部分。
处理器302、立体显示面板100、红外输入装置304、音频输出装置306、存储器310和2D到3D用户界面转换模块316经为了方便说明而显示为互连装置318的一个或多个互连装置互连。互连装置318可包括系统总线、网络或能够为了各种目的为各部件提供合适的互连的任何其它互连装置。
图4至图6B在以下描述可由这种装置(诸如,显示装置300)执行以执行与本主题关联的自动的2D到3D用户界面内容数据转换的示例性处理。可采用关于示例性处理的许多其它变型,并且所有这些变型被视为落在本主题的范围内。示例性处理可由模块(诸如,2D到3D用户界面转换模块316)执行和/或由与这种装置关联的处理器302执行。应该注意的是,为了方便说明的目的,超时处理和其它错误控制处理未被表示在以下描述的示例性处理内。然而,应该理解,所有这种处理被视为落在本主题的范围内。
图4是提供自动的2D到3D用户界面内容数据转换的处理400的实现方式的例子的流程图。处理400开始于402。在块404,处理400经2D到3D内容转换模块接收3D视频内容和2D用户界面内容数据。在块406,处理400确定由针对2D用户界面内容数据的3D呈现定义左眼数据和右眼数据的分离的差异数据代表的位移。在块408,处理400在3D TV的显示器上显示3D视频内容。在块410,处理400基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据。
图5是为3D图形覆盖提供自动的2D到3D用户界面内容数据转换的处理500的实现方式的例子的流程图。处理500开始于502。在决定点504,处理500确定是否已接收到内容。如上所述并且如以下更详细所述,内容可包括3D视频内容和2D用户界面内容数据。2D用户界面内容数据可包括例如字幕文本内容、隐藏式说明文本内容或其它2D格式的内容。为了本例子的目的,如以下更详细所述,可接收到2D用户界面内容数据的一个或多个拷贝。另外如上所述,接收到的2D用户界面内容数据可还包括差异数据,该差异数据提供与用于创建3D用户界面元件的左2D用户界面图像和右2D用户界面图像的水平位移关联的信息。应该注意的是,对于给定实现方式,可合适地在不脱离本主题的范围的情况下使用除水平之外的不同方向位移。替代地,差异数据可在本地存储在显示装置300,诸如存储在存储器310内。当确定已接收到内容时,处理500在块506开始显示3D视频内容。在块508,处理500确定用户界面默认显示位置。
在决定点510,处理500确定是否把所获得的3D用户界面元件的显示设置在显示的3D视频内容的平均3D深度或某一其它默认深度。为了本例子的目的,响应于允许优先于接收到的差异数据的配置的初始设置或者响应于接收到的或在本地存储的差异数据和任何配置的相对于接收到的3D视频内容的产生的3D用户界面元件的初始显示的差的阈值的分析,可确定把所获得的3D用户界面元件的显示设置在显示的3D视频内容的平均3D深度。
响应于确定把所获得的3D用户界面元件的显示设置在3D视频内容的平均3D深度,处理500在块512确定3D视频内容的平均深度。例如,通过分析3D视频内容或者基于与3D视频内容一起接收到的元数据,可确定3D视频内容的深度的确定。在块514,处理500把接收到的或在本地检索的差异数据调整为确定的3D视频内容的平均深度。如此,基于差异数据产生的所获得的3D用户界面元件可最初在3D视频内容的平均深度被呈现,并且响应于检测到用户输入尺寸调整请求而被调整。
响应于在块514把差异数据调整为确定的3D视频内容的平均深度或者响应于在决定点510确定不把3D用户界面元件的深度设置为3D视频内容的平均深度,处理500在块516基于接收到的2D用户界面内容数据和差异(视差)数据产生可调整的3D图形覆盖对象。虽然为了方便说明的目的而未示出,但如果接收到2D用户界面内容数据的一个拷贝,则可在块516执行用于复制接收到的2D用户界面内容数据的其他的处理。以下结合图6A描述这种处理的例子。在块518,处理500在显示位置显示产生的可调整的3D图形覆盖对象。在处理500的第一次重复内,显示位置将会是上述默认显示位置。处理500的随后的重复可导致产生的3D图形覆盖对象移动到一个或多个不同的显示位置。
响应于在显示位置显示产生的可调整的3D图形覆盖对象,处理500进入与对显示的3D图形覆盖对象的调整关联的重复处理。在决定点520,处理500确定是否已检测到深度调整请求。例如,可经遥控装置(未示出)(诸如,经红外输入装置304)从用户接收到深度调整请求。当确定未检测到深度调整请求时,处理500在决定点522确定是否已检测到调整显示的3D图形覆盖对象的显示位置的请求。像本文描述的其它检测到的请求一样,也可响应于例如经遥控装置(未示出)的用户输入检测到这个请求。当在决定点522确定未接收到调整显示的3D图形覆盖对象的显示位置的请求时,处理500在决定点524确定是否已检测到相对于显示的3D视频内容调整显示的3D图形覆盖对象的不透明度的请求。响应于确定未检测到相对于显示的3D视频内容调整显示的3D图形覆盖对象的不透明度的请求,处理500在决定点526确定处理是否已完成。响应于确定处理未完成,处理500返回到决定点520并且如上所述重复。
返回到决定点520的描述,响应于确定已检测到调整3D图形覆盖对象的显示的深度的请求,处理500在决定点528确定调整3D图形覆盖对象的深度的请求是减小显示的3D图形覆盖对象的深度(例如,朝着观看者调整深度)的请求还是增加深度(例如,调整深度以远离观看者)的请求。响应于确定该请求是减小3D图形覆盖对象的深度(例如,朝着观看者调整深度)的请求,处理500在块530在与差异数据关联的任何定义的视差调整的范围内负向地调整视差。应该理解,视差调整的范围可结合差异数据而被提供和接收,或者可被产生并存储为显示装置(诸如,显示装置300)的配置的一部分。视差调整的范围可包括例如从零差异到与显示的3D视频内容的最大深度对应的最大差异的范围。然而,应该理解,可采用其它的视差调整的范围并且所有这些视差调整的范围被视为落在本主题的范围内。另外,负向地调整视差调整差异数据以使3D图形覆盖对象看起来变得更靠近观看者,但如上所述,也可执行其他的处理以使3D图形覆盖对象看起来在尺寸方面增加并且相对于3D视频内容调整3D图形覆盖对象的视角。此外,改变差异使覆盖数据看起来通过相对于3D视频内容朝着观看者移动或移动远离观看者而改变位置。
还应该注意的是,在某些情况(诸如,2D用户界面元件与并排的3D内容或者与其它格式合并以形成3D用户界面元件)下,视差的负调整可导致所获得的3D用户界面元件的混叠。如此,可确定产生的3D用户界面元件的一部分的混叠,并且可设置避免产生的3D用户界面元件的一部分的混叠的深度减小界限。在这种实现方式中,负向地调整视差数据可包括把视差数据负向地调整至避免产生的3D用户界面内容数据的一部分的混叠的深度减小界限。
返回到决定点528的描述,响应于确定调整显示的3D图形覆盖对象的深度的请求不是减小3D图形覆盖对象的深度的请求(例如,确定它是增加深度以远离观看者的请求),处理500在块532如上所述在与差异数据关联的任何定义的视差调整的范围内正向地调整视差,以使显示的3D图形覆盖对象在3D显示器内看起来更远。如上所述,也可执行其他的处理以使3D图形覆盖对象看起来在尺寸方面减小并且相对于3D视频内容调整3D图形覆盖对象的视角。
响应于在块530在任何定义的范围内负向地调整视差或者响应于在块532在任何定义的范围内正向地调整视差,处理500返回到块518以在显示位置显示调整的3D图形覆盖对象并且如上所述重复。
返回到决定点522的描述,响应于确定已检测到调整3D图形覆盖对象的显示位置的请求,处理500在块534调整显示的3D图形覆盖对象的显示位置。调整显示位置可包括例如调整用于3D图形覆盖对象的显示的X和Y坐标。处理500返回到块518以在调整的显示位置显示3D图形覆盖对象并且如上所述重复。
返回到决定点524的描述,响应于确定已检测到调整3D图形覆盖对象的不透明度的请求,处理500在块536调整产生的可调整的3D图形覆盖对象的不透明度。不透明度的调整可包括例如相对于显示的3D视频内容调整3D图形覆盖对象的透明度。不透明度的调整可包括例如调整显示的3D图形覆盖对象的透明度和深度之间的平衡。响应于调整3D图形覆盖对象的不透明度,处理500返回到块518以在显示位置显示3D图形覆盖对象并且如上所述重复。
返回到决定点526的描述,响应于确定处理已完成,处理500返回到决定点504以等待接收新内容。如此,处理500接收3D视频内容和2D用户界面内容数据。2D用户界面内容数据可具有关联的差异数据,或者可从本地存储器检索差异数据。处理500产生可调整的3D图形覆盖对象,显示产生的可调整的3D图形覆盖对象,并检测调整可调整的3D图形覆盖对象的深度(和尺寸,对于某些实现方式而言)、位置和不透明度的请求。处理500反复地处理这种检测到的请求。
图6A-6B表示通过合并2D用户界面内容的两个拷贝与3D视频内容的右图像和左图像产生3D用户界面元件的自动的2D到3D用户界面内容数据转换的处理600的实现方式的例子的流程图。图6A表示处理600内的初始处理。处理600开始于602。在决定点604,处理600确定是否已接收到内容。如上所述,内容可包括3D视频内容和2D用户界面内容数据。2D用户界面内容数据可包括例如字幕文本内容、隐藏式说明文本内容或其它2D格式的内容。为了本例子的目的,如以下更详细所述,可接收到2D用户界面内容数据的一个或两个拷贝。另外如上所述,接收到的2D用户界面内容数据可还包括差异数据,该差异数据提供与用于创建3D用户界面元件的左2D用户界面图像和右2D用户界面图像的水平位移关联的信息。应该注意的是,对于给定实现方式,可合适地在不脱离本主题的范围的情况下使用除水平之外的不同方向位移。替代地,差异数据可在本地存储在显示装置300,诸如存储在存储器310内。响应于确定已接收到内容,处理600在块606开始显示3D视频内容。在块608,处理600确定用户界面默认显示位置并基于差异数据确定用于产生3D用户界面元件的水平位移。
在决定点610,处理600确定是否接收到2D用户界面内容数据的拷贝(例如,接收到两个拷贝)。响应于确定接收到的2D用户界面内容数据仅包括2D用户界面内容数据的单个拷贝,处理600在块612制作接收到的2D用户界面内容数据的拷贝。响应于在块612制作2D用户界面内容数据的拷贝或者响应于在块610确定接收到2D用户界面内容数据的两个拷贝,处理600在块614在定义的(例如,默认的)显示位置格式化2D用户界面内容数据的第一拷贝。在块616,处理600按照由差异数据代表的相对于定义的显示位置的水平位移格式化2D用户界面内容数据的第二拷贝。应该理解,可执行用于确定3D视频内容是帧顺序格式的3D视频内容、并排格式的3D视频内容还是上下格式的3D视频内容的其他的处理。另外,对于3D视频内容格式的格式,在块614和616的用于格式化2D用户界面内容数据的拷贝的处理可合适地包括:格式化2D用户界面内容数据的拷贝。
例如,在3D视频内容格式是帧顺序格式的情况下,2D用户界面内容的第一拷贝可被放置在为与3D视频内容的左帧合并准备的空白帧内,而2D用户界面内容的第二拷贝可被放置在为与3D视频内容的右帧合并准备的空白帧内。
对于并排格式的3D视频内容,可在默认显示位置产生2D用户界面内容数据的第一拷贝的并排格式版本,而按照确定的由差异数据代表的水平位移产生2D用户界面内容数据的第二拷贝的并排格式版本。
对于上下格式的3D视频内容,可在默认显示位置产生2D用户界面内容数据的第一拷贝的上下格式版本,而按照确定的由差异数据代表的水平位移产生2D用户界面内容数据的第二拷贝的上下格式版本。
在块618,处理600合并2D用户界面内容数据的格式化拷贝与3D视频内容。2D用户界面内容数据的格式化拷贝与3D视频内容的合并可包括例如:对2D用户界面内容数据的格式化拷贝与3D视频内容的各拷贝(例如,左视野和右视野)进行阿尔法混合。替代地,2D用户界面内容数据的格式化拷贝与3D视频内容的合并可包括:把左2D用户界面内容数据和右2D用户界面内容数据覆盖在3D视频内容的左视野和右视野上。对于希望实现3D视频内容内的3D用户界面元件的透明度的实现方式,可优选地使用阿尔法混合。
在块620,处理600显示3D视频内容与合并的2D用户界面内容数据的拷贝以在显示的3D视频内容内形成3D用户界面元件。处理600转移到结合图6B显示并描述的处理。
图6B表示与通过合并2D用户界面内容的两个拷贝与3D视频内容的右图像和左图像产生3D用户界面元件的自动的2D到3D用户界面内容数据转换的处理600关联的其他的处理。在决定点622,处理600进入与对显示的3D用户界面元件的调整关联的重复处理。如此,在决定点622,处理600确定是否已检测到深度调整请求。例如,可经遥控装置(未示出)(诸如,经红外输入装置304)从用户接收到深度调整请求。当确定未检测到深度调整请求时,处理600在决定点624确定是否已检测到调整显示的3D用户界面元件的显示位置的请求。像本文描述的其它检测到的请求一样,也可响应于例如经遥控装置(未示出)的用户输入检测到这个请求。当在决定点624确定未检测到调整显示的3D用户界面元件的显示位置的请求时,处理600在决定点626确定是否已检测到相对于显示的3D视频内容调整显示的3D用户界面元件的不透明度的请求。响应于确定未检测到相对于显示的3D视频内容调整显示的3D用户界面元件的不透明度的请求,处理600在决定点628确定处理是否已完成。响应于确定处理未完成,处理600返回到决定点622并且如上所述重复。
返回到决定点622的描述,响应于确定已检测到调整3D用户界面元件的显示的深度的请求,处理600在决定点630确定调整3D用户界面元件的深度的请求是减小3D用户界面元件的深度(例如,朝着观看者调整深度)的请求还是增加深度(例如,调整深度以远离观看者)的请求。响应于确定该请求是减小3D用户界面元件的深度(例如,朝着观看者调整深度)的请求,处理600在块632内在与差异数据关联的任何定义的视差调整的范围内负向地调整视差。如以上所讨论,应该理解,视差调整的范围可结合差异数据而被提供和接收,或者可被产生并存储为显示装置(诸如,显示装置300)的配置的一部分。另外,负向地调整视差调整差异数据以使3D用户界面元件看起来变得更靠近观看者,但如上所述,也可执行其他的处理以使3D用户界面元件看起来在尺寸方面增加并且相对于3D视频内容调整3D用户界面元件的视角。此外,改变差异使覆盖数据看起来通过相对于3D视频内容朝着观看者移动或移动远离观看者而改变位置。
如上所述,在某些情况(诸如,2D用户界面元件与并排的3D内容或者与其它格式合并以形成3D用户界面元件)下,视差的负调整可导致所获得的3D用户界面元件的混叠。如此,可确定产生的3D用户界面元件的一部分的混叠,并且可设置避免产生的3D用户界面元件的一部分的混叠的深度减小界限。在这种实现方式中,负向地调整视差数据可包括:把视差数据负向地调整至避免产生的3D用户界面内容数据的一部分的混叠的深度减小界限。
返回到决定点630的描述,响应于确定调整显示的3D用户界面元件的深度的请求不是减小3D用户界面元件的深度的请求(例如,确定它是增加深度以远离观看者的请求),处理600在块634如上所述在与差异数据关联的任何定义的视差调整的范围内正向地调整视差,以使显示的3D用户界面元件在3D显示器内看起来更远。如上所述,也可执行其他的处理以使3D用户界面元件看起来在尺寸方面减小并且相对于3D视频内容调整3D用户界面元件的视角。
响应于在块632在任何定义的范围内负向地调整视差或者响应于在块634在任何定义的范围内正向地调整视差,处理600返回到块614(参见图6A)并且如上所述重复,以基于调整的差异数据格式化并合并2D用户界面内容数据与3D视频内容。
返回到决定点624的描述,响应于确定已检测到调整3D用户界面元件的显示位置的请求,处理600在块636调整显示的3D用户界面元件的显示位置。调整显示位置可包括例如调整用于3D用户界面元件的显示的X和Y坐标。处理600返回到块614(参见图6A)并且如上所述重复,以在新的显示位置格式化并合并2D用户界面内容数据与3D视频内容。
返回到决定点626的描述,响应于确定已检测到调整3D用户界面元件的不透明度的请求,处理600在块638调整产生的2D用户界面内容数据的拷贝的不透明度。如上所述,不透明度的调整可包括例如相对于显示的3D视频内容调整2D用户界面内容数据的每个拷贝的透明度。响应于调整2D用户界面内容数据的每个拷贝的不透明度,处理600返回到块614(参见图6A)并且如上所述重复,以按照新的不透明度格式化并合并2D用户界面内容数据与3D视频内容。
返回到决定点628的描述,响应于确定处理已完成,处理600返回到决定点604(参见图6A)以等待接收新内容。
如此,处理600接收3D视频内容和2D用户界面内容数据。2D用户界面内容数据可具有关联的差异数据,或者可从本地存储器检索差异数据。通过格式化并合并2D用户界面内容数据的每个拷贝与3D视频内容的左图像和右图像之一并且相对于第一拷贝按照水平位移合并2D用户界面内容数据的第二拷贝,处理600产生3D用户界面元件。处理600显示产生的3D用户界面元件,并检测调整3D用户界面元件的深度(和尺寸,对于某些实现方式而言)、位置和不透明度的请求。处理600反复地处理这种检测到的请求,并允许相对于显示的3D视频内容的用户请求的对3D用户界面元件的深度的改变、对3D用户界面元件的位置的改变和对3D用户界面元件的不透明度的改变。
因此,根据某些实现方式,一种在3D电视(TV)中把二维(2D)内容数据转换到三维(3D)内容数据的方法,包括:经2D到3D内容转换模块接收3D视频内容和2D用户界面内容数据;确定由针对2D用户界面内容数据的3D呈现定义左眼数据和右眼数据的分离的差异数据代表的位移;在3D TV的显示器上显示3D视频内容;以及基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据。
在某些实现方式中,在3D TV中的2D内容数据转换到3D内容数据的方法还包括:接收差异数据与2D用户界面内容数据。在某些实现方式中,该方法还包括:产生差异数据。在某些实现方式中,该方法还包括:基于差异数据确定3D深度。在某些实现方式中,基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据包括:在3D视频内容内的位置合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧;以及基于差异数据按照相对于合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧的位置的确定的位移合并2D用户界面内容数据与3D视频内容的帧顺序右图像帧。在某些实现方式中,经2D到3D内容转换模块接收3D视频内容和2D用户界面内容数据的方法包括:经2D到3D内容转换模块接收3D视频内容、2D用户界面内容数据的第一拷贝、2D用户界面内容数据的第二拷贝和差异数据。基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据的方法包括:在3D视频内容内的位置合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带;以及基于差异数据按照相对于合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的第二拷贝与3D视频内容的右图像条带。在某些实现方式中,基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据包括:产生接收到的2D用户界面内容数据的拷贝;在3D视频内容内的位置合并接收到的2D用户界面内容数据与3D视频内容的左图像条带;以及基于差异数据按照相对于合并接收到的2D用户界面内容数据与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的拷贝与3D视频内容的右图像条带。在某些实现方式中,基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据包括:基于接收到的2D用户界面内容数据和确定的位移产生3D图形覆盖对象;以及在显示器上在显示的3D视频内容上方的位置显示3D图形覆盖对象。在某些实现方式中,该方法还包括:检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;基于调整产生的3D用户界面内容数据的显示深度的请求确定调整的位移;以及基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。在某些实现方式中,差异数据包括视差数据,并且该方法还包括:确定调整产生的3D用户界面内容数据的显示深度的请求是否包括减小产生的3D用户界面内容数据的显示深度的请求和增加产生的3D用户界面内容数据的显示深度的请求之一。基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据的方法包括:响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求,负向地调整视差数据;以及响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括增加产生的3D用户界面内容数据的显示深度的请求,正向地调整视差数据。在某些实现方式中,该方法还包括:确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求;确定产生的3D用户界面内容数据的至少一部分的混叠源于所请求的产生的3D用户界面内容数据的显示深度的减小;确定避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限,并且响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求负向地调整视差数据的方法包括把视差数据负向地调整至避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限。在某些实现方式中,差异数据包括从零差异到与显示的3D视频内容的最大深度对应的最大差异的差异数据的范围,并且该方法还包括:检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;响应于调整显示的3D用户界面内容数据的显示深度的请求,在差异数据的范围内调整差异数据;基于调整的差异数据确定调整的位移;以及基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。在某些实现方式中,该方法还包括:检测指示调整产生的3D用户界面内容数据的显示位置的请求的用户输入;以及响应于检测到的请求,调整产生的3D用户界面内容数据的显示位置。在某些实现方式中,该方法还包括:确定显示的3D视频内容的平均深度;把差异数据调整至确定的显示的3D视频内容的平均深度,以及确定由差异数据代表的位移的方法包括基于调整的差异数据确定位移。在某些实现方式中,接收到的2D用户界面内容数据包括字幕文本内容和隐藏式说明文本内容之一。在某些实现方式中,3D视频内容包括帧顺序3D视频内容。在某些实现方式中,3D视频内容包括并排格式的3D视频内容和上下格式的3D视频内容之一。在某些实现方式中,该方法还包括:检测指示相对于显示的3D视频内容调整3D用户界面内容数据的不透明度的请求的用户输入;以及相对于显示的3D视频内容调整3D用户界面内容数据的不透明度。在某些实现方式中,相对于显示的3D视频内容调整3D用户界面内容数据的不透明度的方法包括相对于显示的3D视频内容调整3D用户界面内容数据的透明度和差异数据之一。
在其他实现方式中,一种计算机可读存储介质可存储指令,当在一个或多个编程处理器上执行该指令时,该指令执行一种在3D电视(TV)中把二维(2D)内容数据转换到三维(3D)内容数据的处理,包括:接收3D视频内容和2D用户界面内容数据;确定由针对2D用户界面内容数据的3D呈现定义左眼数据和右眼数据的分离的差异数据代表的位移;在3D TV的显示器上显示3D视频内容;以及基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据。
一种根据其他实现方式的三维(3D)电视装置具有存储器、显示器和处理器,该处理器被编程为:接收3D视频内容和2D用户界面内容数据;确定由针对2D用户界面内容数据的3D呈现定义左眼数据和右眼数据的分离的差异数据代表的位移;在显示器上显示3D视频内容;以及基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据。
在某些实现方式中,该处理器还被编程为:接收差异数据与2D用户界面内容数据。在某些实现方式中,该处理器还被编程为:产生差异数据。在某些实现方式中,该处理器还被编程为:基于差异数据确定3D深度。在某些实现方式中,在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:在3D视频内容内的位置合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧;以及基于差异数据按照相对于合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧的位置的确定的位移合并2D用户界面内容数据与3D视频内容的帧顺序右图像帧。在某些实现方式中,在被编程为接收3D视频内容和2D用户界面内容数据时,该处理器被编程为:接收3D视频内容、2D用户界面内容数据的第一拷贝、2D用户界面内容数据的第二拷贝和差异数据。在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:在3D视频内容内的位置合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带;以及基于差异数据按照相对于合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的第二拷贝与3D视频内容的右图像条带。在某些实现方式中,在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:产生接收到的2D用户界面内容数据的拷贝;在3D视频内容内的位置合并接收到的2D用户界面内容数据与3D视频内容的左图像条带;以及基于差异数据按照相对于合并接收到的2D用户界面内容数据与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的拷贝与3D视频内容的右图像条带。在某些实现方式中,在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:基于接收到的2D用户界面内容数据和确定的位移产生3D图形覆盖对象;以及在显示器上在显示的3D视频内容上方的位置显示3D图形覆盖对象。在某些实现方式中,3D电视装置包括用户输入装置;并且该处理器还被编程为:经用户输入装置检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;基于调整产生的3D用户界面内容数据的显示深度的请求确定调整的位移;以及基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。在某些实现方式中,差异数据包括视差数据,并且该处理器还被编程为:确定调整产生的3D用户界面内容数据的显示深度的请求是否包括减小产生的3D用户界面内容数据的显示深度的请求和增加产生的3D用户界面内容数据的显示深度的请求之一。在被编程为基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据时,该处理器被编程为:响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求,负向地调整视差数据;以及响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括增加产生的3D用户界面内容数据的显示深度的请求,正向地调整视差数据。在某些实现方式中,该处理器还被编程为:确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求;确定产生的3D用户界面内容数据的至少一部分的混叠源于所请求的产生的3D用户界面内容数据的显示深度的减小;确定避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限,以及在被编程为响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求负向地调整视差数据时,该处理器被编程为把视差数据负向地调整至避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限。在某些实现方式中,差异数据包括从零差异到与显示的3D视频内容的最大深度对应的最大差异的差异数据的范围,3D电视装置包括用户输入装置,并且该处理器还被编程为:经用户输入装置检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;响应于调整显示的3D用户界面内容数据的显示深度的请求,在差异数据的范围内调整差异数据;基于调整的差异数据确定调整的位移;以及基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。在某些实现方式中,3D电视装置包括用户输入装置,并且该处理器还被编程为:经用户输入装置检测指示调整产生的3D用户界面内容数据的显示位置的请求的用户输入;以及响应于检测到的请求,调整产生的3D用户界面内容数据的显示位置。在某些实现方式中,该处理器还被编程为:确定显示的3D视频内容的平均深度;把差异数据调整至确定的显示的3D视频内容的平均深度,以及在被编程为确定由差异数据代表的位移时,该处理器被编程为基于调整的差异数据确定位移。在某些实现方式中,接收到的2D用户界面内容数据包括字幕文本内容和隐藏式说明文本内容之一。在某些实现方式中,3D视频内容包括帧顺序3D视频内容。在某些实现方式中,3D视频内容包括并排格式的3D视频内容和上下格式的3D视频内容之一。在某些实现方式中,3D电视装置包括用户输入装置,并且该处理器还被编程为:经用户输入装置检测指示相对于显示的3D视频内容调整3D用户界面内容数据的不透明度的请求的用户输入;以及相对于显示的3D视频内容调整3D用户界面内容数据的不透明度。在某些实现方式中,在被编程为相对于显示的3D视频内容调整3D用户界面内容数据的不透明度时,该处理器被编程为:相对于显示的3D视频内容调整3D用户界面内容数据的透明度和差异数据之一。
在考虑以上教导时,本领域技术人员将会意识到,以上示例性实施例中的某些实施例可基于使用编程的处理器。然而,本发明不限于这种示例性实施例,因为使用硬件部件等同物(诸如,专用硬件和/或专用处理器)能够实现其它实施例。类似地,通用计算机、基于微处理器的计算机、微控制器、光学计算机、模拟计算机、专用处理器、专用电路和/或专用硬连线逻辑可用于构造替代的等同实施例。
使用执行能够存储在任何合适的电子或计算机可读存储介质上的以上以流程图形式概括地描述的编程指令的编程处理器实现或可实现本文描述的某些实施例。然而,在考虑本教导时,本领域技术人员将会理解,在不脱离本发明的实施例的情况下,上述处理能够以任何数量的变型以及以许多合适的编程语言来实现。例如,在不脱离本发明的某些实施例的情况下,执行的某些操作的次序经常能够改变,能够增加其他的操作,或者能够删除操作。在不脱离本发明的某些实施例的情况下,能够增加和/或增强错误捕捉,并且能够在用户界面和信息呈现方面做出变化。这种变化被考虑并视为是等同的。
尽管已描述某些说明性实施例,但很明显的是,考虑到前面的描述,对于本领域技术人员而言,许多替换、修改、排列和变化将会变得清楚。

Claims (39)

1.一种在3D电视(TV)中把二维(2D)内容数据转换到三维(3D)内容数据的方法,包括:
经2D到3D内容转换模块接收3D视频内容和2D用户界面内容数据;
确定由针对2D用户界面内容数据的3D呈现定义左眼数据和右眼数据的分离的差异数据代表的位移;
在3D TV的显示器上显示3D视频内容;以及
基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据。
2.如权利要求1所述的方法,还包括:与2D用户界面内容数据一起接收差异数据。
3.如权利要求1所述的方法,还包括:产生差异数据。
4.如权利要求1所述的方法,还包括:基于差异数据确定3D深度。
5.如权利要求1所述的方法,其中基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据包括:
在3D视频内容内的位置合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧;以及
基于差异数据按照相对于合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧的位置的确定的位移合并2D用户界面内容数据与3D视频内容的帧顺序右图像帧。
6.如权利要求1所述的方法,其中:
经2D到3D内容转换模块接收3D视频内容和2D用户界面内容数据包括:
经2D到3D内容转换模块接收3D视频内容、2D用户界面内容数据的第一拷贝、2D用户界面内容数据的第二拷贝和差异数据;以及
基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据包括:
在3D视频内容内的位置合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带;以及
基于差异数据按照相对于合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的第二拷贝与3D视频内容的右图像条带。
7.如权利要求1所述的方法,其中基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据包括:
产生接收到的2D用户界面内容数据的拷贝;
在3D视频内容内的位置合并接收到的2D用户界面内容数据与3D视频内容的左图像条带;以及
基于差异数据按照相对于合并接收到的2D用户界面内容数据与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的拷贝与3D视频内容的右图像条带。
8.如权利要求1所述的方法,其中基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据包括:
基于接收到的2D用户界面内容数据和确定的位移产生3D图形覆盖对象;以及
在显示器上在显示的3D视频内容上方的位置显示3D图形覆盖对象。
9.如权利要求1所述的方法,还包括:
检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;
基于调整产生的3D用户界面内容数据的显示深度的请求确定调整的位移;以及
基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。
10.如权利要求9所述的方法,其中所述差异数据包括视差数据,并且所述方法还包括:
确定调整产生的3D用户界面内容数据的显示深度的请求是否包括减小产生的3D用户界面内容数据的显示深度的请求和增加产生的3D用户界面内容数据的显示深度的请求之一;以及
其中基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据包括:
响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求,负向地调整视差数据;以及
响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括增加产生的3D用户界面内容数据的显示深度的请求,正向地调整视差数据。
11.如权利要求10所述的方法,还包括:
确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求;
确定产生的3D用户界面内容数据的至少一部分的混叠源于所请求的产生的3D用户界面内容数据的显示深度的减小;
确定避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限;以及
其中响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求负向地调整视差数据的方法包括:
把视差数据负向地调整至避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限。
12.如权利要求1所述的方法,其中所述差异数据包括从零差异到与显示的3D视频内容的最大深度对应的最大差异的差异数据的范围,并且所述方法还包括:
检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;
响应于调整显示的3D用户界面内容数据的显示深度的请求,在差异数据的范围内调整差异数据;
基于调整的差异数据确定调整的位移;以及
基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。
13.如权利要求1所述的方法,还包括:
检测指示调整产生的3D用户界面内容数据的显示位置的请求的用户输入;以及
响应于检测到的请求,调整产生的3D用户界面内容数据的显示位置。
14.如权利要求1所述的方法,还包括:
确定显示的3D视频内容的平均深度;
把差异数据调整至确定的显示的3D视频内容的平均深度;以及
其中确定由差异数据代表的位移包括基于调整的差异数据确定位移。
15.如权利要求1所述的方法,其中所述接收到的2D用户界面内容数据包括字幕文本内容和隐藏式说明文本内容之一。
16.如权利要求1所述的方法,其中所述3D视频内容包括帧顺序3D视频内容。
17.如权利要求1所述的方法,其中所述3D视频内容包括并排格式的3D视频内容和上下格式的3D视频内容之一。
18.如权利要求1所述的方法,还包括:
检测指示相对于显示的3D视频内容调整3D用户界面内容数据的不透明度的请求的用户输入;以及
相对于显示的3D视频内容调整3D用户界面内容数据的不透明度。
19.如权利要求18所述的方法,其中相对于显示的3D视频内容调整3D用户界面内容数据的不透明度包括相对于显示的3D视频内容调整3D用户界面内容数据的透明度和差异数据之一。
20.一种存储指令的计算机可读存储介质,当在一个或多个编程处理器上执行该指令时,该指令执行如权利要求1所述的方法。
21.一种三维(3D)电视装置,包括:
存储器;
显示器;和
处理器,被编程为:
接收3D视频内容和2D用户界面内容数据;
确定由针对2D用户界面内容数据的3D呈现定义左眼数据和右眼数据的分离的差异数据代表的位移;
在显示器上显示3D视频内容;以及
基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据。
22.如权利要求21所述的3D电视装置,其中所述处理器还被编程为:与2D用户界面内容数据一起接收差异数据。
23.如权利要求21所述的3D电视装置,其中所述该处理器还被编程为:产生差异数据。
24.如权利要求21所述的3D电视装置,其中所述处理器还被编程为:基于差异数据确定3D深度。
25.如权利要求21所述的3D电视装置,其中在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:
在3D视频内容内的位置合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧;以及
基于差异数据按照相对于合并2D用户界面内容数据与3D视频内容的帧顺序左图像帧的位置的确定的位移合并2D用户界面内容数据与3D视频内容的帧顺序右图像帧。
26.如权利要求21所述的3D电视装置,其中在被编程为接收3D视频内容和2D用户界面内容数据时,该处理器被编程为:
接收3D视频内容、2D用户界面内容数据的第一拷贝、2D用户界面内容数据的第二拷贝和差异数据;以及
在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:
在3D视频内容内的位置合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带;以及
基于差异数据按照相对于合并2D用户界面内容数据的第一拷贝与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的第二拷贝与3D视频内容的右图像条带。
27.如权利要求21所述的3D电视装置,其中在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:
产生接收到的2D用户界面内容数据的拷贝;
在3D视频内容内的位置合并接收到的2D用户界面内容数据与3D视频内容的左图像条带;以及
基于差异数据按照相对于合并接收到的2D用户界面内容数据与3D视频内容的左图像条带的位置的确定的位移合并2D用户界面内容数据的拷贝与3D视频内容的右图像条带。
28.如权利要求21所述的3D电视装置,其中在被编程为基于接收到的2D用户界面内容数据和确定的位移在显示器上在一定3D深度处产生3D用户界面内容数据时,该处理器被编程为:
基于接收到的2D用户界面内容数据和确定的位移产生3D图形覆盖对象;以及
在显示器上在显示的3D视频内容上方的位置显示3D图形覆盖对象。
29.如权利要求21所述的3D电视装置,还包括:
用户输入装置;以及
其中该处理器还被编程为:
经用户输入装置检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;
基于调整产生的3D用户界面内容数据的显示深度的请求确定调整的位移;以及
基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。
30.如权利要求29所述的3D电视装置,其中所述差异数据包括视差数据,并且其中该处理器还被编程为:
确定调整产生的3D用户界面内容数据的显示深度的请求是否包括减小产生的3D用户界面内容数据的显示深度的请求和增加产生的3D用户界面内容数据的显示深度的请求之一;以及
其中在被编程为基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据时,该处理器被编程为:
响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求,负向地调整视差数据;以及
响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括增加产生的3D用户界面内容数据的显示深度的请求,正向地调整视差数据。
31.如权利要求30所述的3D电视装置,其中所述处理器还被编程为:
确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求;
确定产生的3D用户界面内容数据的至少一部分的混叠源于所请求的产生的3D用户界面内容数据的显示深度的减小;
确定避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限;以及
其中在被编程为响应于确定调整产生的3D用户界面内容数据的显示深度的请求包括减小产生的3D用户界面内容数据的显示深度的请求负向地调整视差数据时,该处理器被编程为:
把视差数据负向地调整至避免产生的3D用户界面内容数据的所述至少一部分的混叠的深度减小界限。
32.如权利要求21所述的3D电视装置,其中所述差异数据包括从零差异到与显示的3D视频内容的最大深度对应的最大差异的差异数据的范围,并且3D电视装置还包括:
用户输入装置;以及
其中该处理器还被编程为:
经用户输入装置检测指示调整产生的3D用户界面内容数据的显示深度的请求的用户输入;
响应于调整显示的3D用户界面内容数据的显示深度的请求,在差异数据的范围内调整差异数据;
基于调整的差异数据确定调整的位移;以及
基于接收到的2D用户界面内容数据和调整的位移在显示器上在调整的3D深度处产生调整的3D用户界面内容数据。
33.如权利要求21所述的3D电视装置,还包括:
用户输入装置;以及
其中该处理器还被编程为:
经用户输入装置检测指示调整产生的3D用户界面内容数据的显示位置的请求的用户输入;以及
响应于检测到的请求,调整产生的3D用户界面内容数据的显示位置。
34.如权利要求21所述的3D电视装置,其中所述该处理器还被编程为:
确定显示的3D视频内容的平均深度;
把差异数据调整至确定的显示的3D视频内容的平均深度;以及
其中在被编程为确定由差异数据代表的位移时,该处理器被编程为基于调整的差异数据确定位移。
35.如权利要求21所述的3D电视装置,其中所述接收到的2D用户界面内容数据包括字幕文本内容和隐藏式说明文本内容之一。
36.如权利要求21所述的3D电视装置,其中所述3D视频内容包括帧顺序3D视频内容。
37.如权利要求21所述的3D电视装置,其中所述3D视频内容包括并排格式的3D视频内容和上下格式的3D视频内容之一。
38.如权利要求21所述的3D电视装置,还包括:
用户输入装置;以及
其中该处理器还被编程为:
经用户输入装置检测指示相对于显示的3D视频内容调整3D用户界面内容数据的不透明度的请求的用户输入;以及
相对于显示的3D视频内容调整3D用户界面内容数据的不透明度。
39.如权利要求38所述的3D电视装置,其中在被编程为相对于显示的3D视频内容调整3D用户界面内容数据的不透明度时,该处理器被编程为相对于显示的3D视频内容调整3D用户界面内容数据的透明度和差异数据之一。
CN2011800384133A 2010-08-10 2011-07-19 2d到3d用户界面内容数据转换 Pending CN103081002A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/853,736 2010-08-10
US12/853,736 US8605136B2 (en) 2010-08-10 2010-08-10 2D to 3D user interface content data conversion
PCT/US2011/044524 WO2012021265A1 (en) 2010-08-10 2011-07-19 2d to 3d user interface content data conversion

Publications (1)

Publication Number Publication Date
CN103081002A true CN103081002A (zh) 2013-05-01

Family

ID=45564552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011800384133A Pending CN103081002A (zh) 2010-08-10 2011-07-19 2d到3d用户界面内容数据转换

Country Status (7)

Country Link
US (2) US8605136B2 (zh)
EP (1) EP2591467A4 (zh)
JP (1) JP5633870B2 (zh)
CN (1) CN103081002A (zh)
BR (1) BR112013002709A2 (zh)
TW (1) TWI444036B (zh)
WO (1) WO2012021265A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469338A (zh) * 2013-09-25 2015-03-25 联想(北京)有限公司 一种控制方法和装置
WO2017113488A1 (zh) * 2015-12-31 2017-07-06 北京小鸟看看科技有限公司 一种虚拟现实设备中显示2d应用界面的方法和装置
WO2022033314A1 (zh) * 2020-08-11 2022-02-17 北京芯海视界三维科技有限公司 3d显示方法、3d显示装置及3d显示器件
CN114138106A (zh) * 2020-09-02 2022-03-04 欧特克公司 混合虚拟现实桌面计算环境中的状态之间的转换

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8823782B2 (en) * 2009-12-31 2014-09-02 Broadcom Corporation Remote control with integrated position, viewer identification and optical and audio test
US20110157322A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Controlling a pixel array to support an adaptable light manipulator
US8854531B2 (en) * 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
US9247286B2 (en) 2009-12-31 2016-01-26 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication
JP5477349B2 (ja) * 2010-09-30 2014-04-23 カシオ計算機株式会社 画像合成装置、及び画像検索方法、プログラム
EP2624571A4 (en) * 2010-10-01 2014-06-04 Samsung Electronics Co Ltd DISPLAY DEVICE, SIGNAL PROCESSING DEVICE AND CORRESPONDING METHODS
US20120092364A1 (en) * 2010-10-14 2012-04-19 Microsoft Corporation Presenting two-dimensional elements in three-dimensional stereo applications
KR20120047055A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 디스플레이 장치 및 이에 적용되는 그래픽 영상 제공방법
JP5789960B2 (ja) * 2010-11-18 2015-10-07 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
US9386294B2 (en) * 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
JP5689707B2 (ja) * 2011-02-15 2015-03-25 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP4892105B1 (ja) * 2011-02-21 2012-03-07 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
JP2012205148A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 電子機器
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
US8799263B2 (en) 2011-09-04 2014-08-05 Leigh M Rothschild Systems, devices, and methods for providing multidimensional search results
WO2013043761A1 (en) * 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
US9324183B2 (en) * 2011-11-29 2016-04-26 Apple Inc. Dynamic graphical interface shadows
KR101873747B1 (ko) * 2011-12-27 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2013144773A2 (en) * 2012-03-27 2013-10-03 Koninklijke Philips N.V. Multiple viewer 3d display
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
WO2014082276A1 (en) * 2012-11-30 2014-06-05 Thomson Licensing Method and system for capturing a 3d image using single camera
US9317958B2 (en) 2013-03-07 2016-04-19 Mediatek Inc. Auto-convergence system with active learning and related method and machine-readable medium thereof
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
CN103200415B (zh) * 2013-04-23 2016-02-10 华录出版传媒有限公司 一种2d转3d的图像处理方法
WO2015019656A1 (ja) * 2013-08-06 2015-02-12 株式会社ソニー・コンピュータエンタテインメント 3次元画像生成装置、3次元画像生成方法、プログラム及び情報記憶媒体
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
CN104581341B (zh) * 2013-10-24 2018-05-29 华为终端有限公司 一种字幕显示方法及字幕显示设备
US9667948B2 (en) 2013-10-28 2017-05-30 Ray Wang Method and system for providing three-dimensional (3D) display of two-dimensional (2D) information
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US10158847B2 (en) * 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
WO2016021861A1 (en) 2014-08-02 2016-02-11 Samsung Electronics Co., Ltd. Electronic device and user interaction method thereof
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
CN106651999B (zh) * 2016-12-27 2020-12-04 北京儒博科技有限公司 帧动画加载加速方法及装置
JP2018137505A (ja) * 2017-02-20 2018-08-30 セイコーエプソン株式会社 表示装置およびその制御方法
EP4024856A4 (en) * 2019-08-28 2022-11-09 Konica Minolta, Inc. HEADUP DISPLAY DEVICE, DISPLAY SYSTEM AND DISPLAY METHOD
JP7379956B2 (ja) * 2019-09-03 2023-11-15 富士フイルムビジネスイノベーション株式会社 画像処理装置およびプログラム
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
CN112533041A (zh) * 2019-09-19 2021-03-19 百度在线网络技术(北京)有限公司 视频播放方法、装置、电子设备和可读存储介质
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1126344A (zh) * 1994-02-01 1996-07-10 三洋电机株式会社 将二维图像转换成三维图像的方法
WO2010058362A1 (en) * 2008-11-24 2010-05-27 Koninklijke Philips Electronics N.V. Extending 2d graphics in a 3d gui

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6344860B1 (en) 1998-11-27 2002-02-05 Seriate Solutions, Inc. Methods and apparatus for a stereoscopic graphic user interface
GB2358980B (en) * 2000-02-07 2004-09-01 British Broadcasting Corp Processing of images for 3D display
US6911975B2 (en) 2000-09-11 2005-06-28 Canon Kabushiki Kaisha Stereo image display apparatus and method, and storage medium
AU2002227428A1 (en) * 2000-12-13 2002-06-24 Zograph, Llc Resolution modulation in microlens image reproduction
US20020113753A1 (en) 2000-12-18 2002-08-22 Alan Sullivan 3D display devices with transient light scattering shutters
US20050285853A1 (en) 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
KR100649523B1 (ko) 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
JP2007317050A (ja) 2006-05-29 2007-12-06 Nippon Telegr & Teleph Corp <Ntt> 3次元表示を用いたユーザインタフェースシステム
EP2105032A2 (en) 2006-10-11 2009-09-30 Koninklijke Philips Electronics N.V. Creating three dimensional graphics data
KR101842622B1 (ko) 2007-03-16 2018-03-27 톰슨 라이센싱 3차원 콘텐츠와 텍스트를 조합하기 위한 시스템 및 방법
US20100045779A1 (en) * 2008-08-20 2010-02-25 Samsung Electronics Co., Ltd. Three-dimensional video apparatus and method of providing on screen display applied thereto
US8325978B2 (en) 2008-10-30 2012-12-04 Nokia Corporation Method, apparatus and computer program product for providing adaptive gesture analysis
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
KR20110095128A (ko) * 2008-11-18 2011-08-24 파나소닉 주식회사 특수재생을 고려한 재생장치, 집적회로, 재생방법
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
CN102714747A (zh) * 2010-01-21 2012-10-03 通用仪表公司 立体视频图形覆盖

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1126344A (zh) * 1994-02-01 1996-07-10 三洋电机株式会社 将二维图像转换成三维图像的方法
WO2010058362A1 (en) * 2008-11-24 2010-05-27 Koninklijke Philips Electronics N.V. Extending 2d graphics in a 3d gui

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469338A (zh) * 2013-09-25 2015-03-25 联想(北京)有限公司 一种控制方法和装置
WO2017113488A1 (zh) * 2015-12-31 2017-07-06 北京小鸟看看科技有限公司 一种虚拟现实设备中显示2d应用界面的方法和装置
US10902663B2 (en) 2015-12-31 2021-01-26 Beijing Pico Technology Co., Ltd. Method and apparatus for displaying 2D application interface in virtual reality device
WO2022033314A1 (zh) * 2020-08-11 2022-02-17 北京芯海视界三维科技有限公司 3d显示方法、3d显示装置及3d显示器件
CN114079764A (zh) * 2020-08-11 2022-02-22 北京芯海视界三维科技有限公司 3d显示方法、3d显示装置及3d显示器件
CN114138106A (zh) * 2020-09-02 2022-03-04 欧特克公司 混合虚拟现实桌面计算环境中的状态之间的转换

Also Published As

Publication number Publication date
BR112013002709A2 (pt) 2016-05-31
EP2591467A1 (en) 2013-05-15
TW201223247A (en) 2012-06-01
US20140063019A1 (en) 2014-03-06
US20120038745A1 (en) 2012-02-16
EP2591467A4 (en) 2014-12-17
US8605136B2 (en) 2013-12-10
WO2012021265A1 (en) 2012-02-16
TWI444036B (zh) 2014-07-01
JP5633870B2 (ja) 2014-12-03
WO2012021265A8 (en) 2013-03-28
JP2013542622A (ja) 2013-11-21

Similar Documents

Publication Publication Date Title
CN103081002A (zh) 2d到3d用户界面内容数据转换
US8930838B2 (en) Display apparatus and display method thereof
US8294754B2 (en) Metadata generating method and apparatus and image processing method and apparatus using metadata
US8896672B2 (en) Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
EP2448276B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
CN102056002B (zh) 图像显示装置及其控制方法
US20160154563A1 (en) Extending 2d graphics in a 3d gui
CN102223555B (zh) 图像显示装置及其控制方法
US20100103168A1 (en) Methods and apparatuses for processing and displaying image
AU2011314521B2 (en) 3D image display apparatus and display method thereof
US20110248989A1 (en) 3d display apparatus, method for setting display mode, and 3d display system
US20120154558A1 (en) Display apparatus and method for processing image thereof
US9407897B2 (en) Video processing apparatus and video processing method
KR101812189B1 (ko) 3차원 gui를 이용한 컨텐츠 리스트 디스플레이 방법 및 이를 적용한 3차원 디스플레이장치
EP2421271B1 (en) Display apparatus and method for applying on screen display (OSD) thereto
US9547933B2 (en) Display apparatus and display method thereof
KR102269395B1 (ko) 입체 영상 디스플레이 방법 및 그를 위한 장치
KR20110057948A (ko) 디스플레이 장치, 3d 영상 제공 방법 및 3d 영상 제공 시스템
KR20130085850A (ko) 영상표시장치 및 그 동작 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130501