CN103039078A - 在三维显示器中显示用户界面的系统和方法 - Google Patents
在三维显示器中显示用户界面的系统和方法 Download PDFInfo
- Publication number
- CN103039078A CN103039078A CN2010800665490A CN201080066549A CN103039078A CN 103039078 A CN103039078 A CN 103039078A CN 2010800665490 A CN2010800665490 A CN 2010800665490A CN 201080066549 A CN201080066549 A CN 201080066549A CN 103039078 A CN103039078 A CN 103039078A
- Authority
- CN
- China
- Prior art keywords
- user interface
- background
- interface background
- described user
- extension
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 75
- 238000002156 mixing Methods 0.000 claims abstract 30
- 230000008569 process Effects 0.000 claims description 34
- 230000000694 effects Effects 0.000 abstract description 19
- 230000006870 function Effects 0.000 description 40
- 238000009877 rendering Methods 0.000 description 14
- 239000000203 mixture Substances 0.000 description 10
- 238000012886 linear function Methods 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000007704 transition Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/50—Tuning indicators; Automatic tuning control
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种在三维显示器上的用户界面克服了当用户界面在三维背景下呈现于用户时出现的扰乱效果。延伸边界限定了用户界面的背景的延伸部分。如果背景为不透明,则背景的延伸部分与下面的视频或图像混合。如果背景为半透明,则呈现用户界面内容以显现为从屏幕突出,并且背景的延伸部分以可变的混合阿尔法值与下面的视频或图像混合。如果背景透明,则呈现用户界面内容以显现为从屏幕突出,使用户界面的原始背景下面的视频或图像模糊,并且以可变的模糊半径使视频或图像的在背景的延伸部分下面的部分模糊。
Description
技术领域
实施方案总体涉及在三维显示器上显示用户界面或菜单。更具体地,实施方案涉及在配置为显示三维视频或图像的3DTV或其它装置上显示用户界面或菜单。
背景技术
3DTV采用将电视节目投影到现实三维域中的三维呈现方法。因此,3DTV能够显示视频或图像,在视频或图像中对象能够显示为好像从屏幕突出和/或在屏幕后面。3DTV的基本构思是人类视觉系统的立体特质。也就是说,当两个偏移的视图单独显示给人的左眼和右眼时,人类视觉系统能够基于对象(像素)的位移(双眼像差异)而觉察到深度。
存在多种常规的显示技术,其能够将单独的图像呈现给人的左眼和右眼以形成场景的三维视图。例如,基于眼镜的技术包括使用被动极化眼镜的行交错极化显示器和使用主动快门镜的120Hz或240Hz显示器。非基于眼镜的技术包括具有9个同时视图的透镜状显示器。
在现代电视机中通常显示包括具有用户可选选项的菜单的用户界面(UI)。这些菜单使用户能够选择各种特征来影响观看感受。例如,用户界面通常提供允许用户选择要观看的电视节目的菜单、观看和/或保存电视节目的选项以及控制如何显示电视节目的选项。
用户界面的另一惯常用途是显示字幕。例如,通常对于聋人用户以及为了提供另一种语言的音频翻译而显示这些字幕。用户界面还可以包括叠加在包括例如滚动文本、画中画的视频或者图像上的其它图像或视频以及叠加在视频或图像上的其它图像或视频。
通常,这种用户界面置于视频或图像内容的顶部。另外,用户界面可以显示为半透明以允许用户继续观看用户界面下方的视频。可以利用例如诸如可由加利福尼亚州圣塔克拉拉市的Trident Microsystems公司提供的PNX85500微处理器来实现这种用户界面。
然而,当这些菜单置于3DTV中时,尤其是当图像显现为从屏幕突出时,通常观察到不期望的效果。具有实心(非透明)背景的用户界面文本在由菜单或字幕边界处的察觉到的硬深度水平过渡引起的菜单边界处具有问题。可能的解决方案是将UI菜单或字幕放置到在其后面显现的视频或图像的相同深度处。在此情况下,可以使用半透明度。然而,屏幕水平面处的用户界面文本(以及其中的两维或三维图像或图标)会与显现为从屏幕突出的对象干涉(交叉)。这种由于文本(或图像或图标)引起的干涉会扰乱观看者。
发明概述
在一个实施方案中,本发明为用于在三维显示器中呈现用户界面的系统。该系统包括具有显示三维视频或图像的显示器的装置、以及处理器。处理器可位于机顶盒中或者位于装置本身中。处理器配置为使具有背景的用户界面呈现在所述显示器上,以限定用户界面背景的延伸部分,并且在所述用户界面背景的延伸部分中执行图形处理。
在另一实施方案中,本发明为用于在显示三维视频或图像的显示器上呈现用户界面的方法。所述方法包括:生成具有由原始背景边界限定的背景的用户界面;在显示器上显示用户界面;用延伸边界限定背景的延伸部分;以及在用户界面背景的延伸部分中执行图形处理。
在另一实施方案中,本发明是处理三维视频或图像的装置。所述装置包括:输入部,其用于接收显示为三维视频或图像的图像;以及处理器,其配置为生成具有前景部分和背景部分的图形覆盖段。图形覆盖段要与三维图像结合显示,其中处理器生成延伸背景部分并且在延伸背景部分中执行图形处理。图形覆盖段可以为用户界面。该装置可以为例如位于电视机中的片上系统。
在实施方案中,图形处理的特质取决于用户界面背景是不透明、半透明还是全透明。如果用户界面背景为不透明,则将用户界面背景的延伸部分与延伸部分下面的图像或视频混合。在实施方案中,依照变化的阿尔法值来进行混合。在实施方案中,阿尔法值作为距用户界面背景的原始边界的距离的函数而变化。例如,在实施方案中,随着距用户界面背景的原始边界的距离增加,阿尔法值减小。例如在实施方案中,随着距用户界面背景的原始边界的距离增加,阿尔法值非线性地减小。示例性的非线性函数为指数函数。在另一实施方案中,随着距用户界面背景的原始边界的距离增加,阿尔法值线性地减小。
如果用户界面背景为半透明,则呈现与用户界面相关联的内容(包括文本以及两维或三维图像或图标)以显现为好像从屏幕突出。另外,用户界面背景的延伸部分与延伸部分下面的视频或图像混合。在实施方案中,依照变化的阿尔法值进行混合。在实施方案中,阿尔法值作为距用户界面背景的原始边界的距离的函数而变化。例如在实施方案中,随着距用户界面背景的原始边界的距离增加,阿尔法值非线性地减小。示例性的非线性函数为指数函数。在另一实施方案中,随着距用户界面背景的原始边界的距离增加,阿尔法值线性地减小。
如果用户界面背景为全透明,则使在由用户界面背景的原始边界限定的区域内的用户界面背景下面的视频或图像模糊。在实施方案中,呈现与用户界面背景相关联的内容(包括文本以及两维或三维图像和图标)以显现为从屏幕突出。在实施方案中,使用户界面背景的延伸部分下面的视频或图像模糊。在实施方案中,随着距用户界面背景的原始边界的距离增加,在使延伸部分下面的视频或图像模糊时使用的模糊半径减小。在实施方案中,随着距用户界面背景的原始边界的距离增加,在使延伸部分下面的视频或图像模糊时使用的模糊半径线性地减小。在另一实施方案中,随着距用户界面背景的原始边界的距离增加,模糊半径非线性地减小。示例性的非线性函数为指数函数。
通过下面的发明详述,本发明的另外的特征和实施方案将更加清楚。
附图说明
图1是根据本发明的实施方案的简单电视娱乐系统的示意图。
图2示出了具有对象的图像的三维呈现的左呈现和右呈现。
图3示出了具有对象的图像的三维呈现的左呈现和右呈现。
图4示出了根据本发明的实施方案的克服三维用户界面呈现的扰乱效果的左呈现和右呈现,其中用户界面具有不透明(非透明)背景。
图5示出了根据本发明的实施方案的克服三维用户界面呈现的扰乱效果的左呈现和右呈现,其中用户界面具有半透明背景。
图6示出了根据本发明的实施方案的克服三维用户界面呈现的扰乱效果的左呈现和右呈现,其中用户界面具有透明背景。
图7是在配置为能够显示三维呈现的显示器上将用户界面(UI)呈现给用户的方法的流程图。
发明详述
图1是根据本发明的实施方案的电视娱乐系统102的示意图。如图1所示,电视娱乐系统102包括具有显示器105的电视机104。机顶盒106通过连接器108接收来自源的电视信号。所述源能够通过连接器108馈送来自包括例如卫星电视服务提供商或有线电视服务提供商的任何电视信号源的电视信号。
机顶盒106通过连接器108接收来自电视服务提供商的电视信号,调节所接收到的电视信号,调谐至一个或多个期望的电视频道,并且将经调谐的信号提供给电视机104。在一个实施方案中,电视机104能够提供电视视频和图像的三维呈现。在显示器105上将三维呈现显示给用户。显示器105可以是能够将三维视图提供给用户的任何显示器。
在一个实施方案中,机顶盒106包括处理器107。处理器107可以是能够配置为执行本文所述处理的任何处理器。示例性的这种处理器是由加利福尼亚州圣塔克拉拉市的Trident Microsystems公司提供的PNX85500。根据本发明的实施方案,处理器107的一种功能是将包括但不限于用户可选选项的菜单或字幕的用户界面显示给用户。如本文所述,本发明的实施方案消除了当常规的用户界面技术应用于三维视频或图像呈现时引起的扰乱效果。在一替代实施方案中,不包括机顶盒106,并且处理器107位于诸如电视机104的装置中或者提供用户界面的任何其它装置中。
在一可选的实施方案中,所述装置为片上系统(SOC)。SOC包括:输入部,获取用于显示的至少三维图像或视频;以及处理器,其配置为生成具有前景部分和背景部分的图形覆盖段。图形覆盖段与输入到装置的三维图像或视频结合显示。在操作中,处理器107生成延伸背景部分。处理器107在延伸背景部分中执行诸如本文所述的图形处理。示例性的这种图形覆盖段为本文所述的用户界面。
显示器105可以是除电视机上的显示器以外的显示器,并且在本发明的实施方案中可以使用除了电视机以外的装置。例如,在可选的实施方案中,显示器105可以在诸如便携式视频播放器、个人数字助理、诸如AppleiPad的输入板计算机或者诸如Apple iPhone、RIM Blackberry或配置为显示三维图像或视频的其它电话的电话、配置为显示三维图像的照相机上的屏幕或能够呈现三维图像或视频的任何其它装置上的屏幕的装置上使用的显示器。在这种可选的实施方案中,处理器107位于装置本身中以提供用户界面。
图2示出了具有对象204的三维呈现的左呈现202a和右呈现202b。左呈现202a和右呈现202b分别在显示器206上单独呈现给用户的左眼和右眼。显示器206可以是能够显示三维呈现的任何显示器,诸如上文参照图1所述的显示器105。在实施方案中,三维效果是由诸如对象204的对象的位置偏移或显示器206上左呈现202a和右呈现202b中的像素来提供的。在图2中,VL和VR分别表示对象或像素的距左呈现202a和右呈现202b的边缘的距离。如果VL=VR,则在屏幕深度处呈现对象或像素。如果,VL>VR,则呈现对象或像素以显现为从屏幕突出。如果VL<VR,则呈现对象或像素以显现为位于屏幕深度后面。因此,如图2所示,因为VL>VR,呈现对象204以显现为从屏幕突出。
图3示出了具有对象304的三维呈现的左呈现302a和右呈现302b。关于图2的左呈现202a和右呈现202b,左呈现302a和右呈现302b分别在显示器306上单独呈现给用户的左眼和右眼。显示器306可以是能够将三维呈现显示给用户的任何显示器,诸如上面参照图1所述的显示器105。因为VL>VR,所以呈现对象304以显现为从屏幕突出。
图3还示出了示例性的用户界面308。用户界面308具有原始边界309。为了清楚起见,在图3中示出了显示边界309的虚线以显示用户界面308的原始边界。然而,在实施方案中,虚线不在显示器306上呈现给用户。
在图3中,用户界面308为可选频道的菜单,Ch1至Ch8。应当理解的是,用户界面308可以为包括菜单、字幕或任何其它用户界面的本发明实施方案的背景下的任何用户界面。通常是,用户界面308在屏幕深度级处呈现给用户。也就是说,BL=BR且TL=TR,其中BL为距用户界面308的背景位于左呈现302a中的左边缘的距离,BR为距用户界面308的背景位于右呈现302b中的左边缘的距离,TL为距用户界面308的文本位于左呈现302a中的左边缘的距离,TR为距用户界面308的文本位于右呈现302b中的左边缘的距离。
如上文所述,当在常规系统中将用户界面308呈现给用户时,会出现扰乱效果。为了克服这些效果,在实施方案中,用户界面308的原始边界309延伸如延伸边界310所示的水平和垂直方向上的量,以限定用户界面308的背景的延伸部分312。在一个实施方案中,该量为沿垂直方向的屏幕高度的5%以及沿水平方向的屏幕宽度的5%。用户界面308的原始边界309所延伸的量可根据实现不同于5%。另外,延伸量无需在垂直方向和水平方向上相同。在一个实施方案中,延伸量是由机顶盒制造商预设的。在另一实施方案中,延伸量是用户可编程的,通过利用例如机顶盒配置模式。在一个实施方案中,在落在延伸边界310和用户界面308的原始边界309之间的呈现的延伸部分312上执行如下文所述的图形处理,从而克服三维用户界面呈现的扰乱效果。
图4示出了根据本发明的实施方案的克服三维用户界面呈现的扰乱效果的左呈现402a和右呈现402b,其中用户界面具有不透明(非透明)背景。左呈现402a和右呈现402b在显示器406上呈现给用户。显示器406可以是能够将三维呈现显示给用户的任何显示器,诸如上文参照图1所述的显示器105。
如图4所示,左呈现402a和右呈现402b包括对象404和用户界面408。应当理解的是,用户界面408可以是包括菜单、字幕或任何其它用户界面的任何用户界面。用户界面408具有原始边界409。为了清楚起见,在图4中示出了显示原始边界409的虚线以示出用户界面408的原始边界。然而,在一个实施方案中,在显示器406上虚线不呈现给用户。
在图4所示的实施方案中,用户界面408具有不透明(非透明)背景。为了克服具有不透明背景的用户界面的三维用户界面呈现的扰乱效果,在一个实施方案中,限定了延伸边界410。为了清楚起见,在图4中示出了显示延伸边界410的虚线以示出用户界面408的延伸边界。然而,在一个实施方案中,在显示器406上虚线不呈现给用户。
在该实施方案中,延伸边界410和用户界面408的背景的原始边界409之间的背景的延伸部分412以渐小的阿尔法值与下面内容的视频或图像混合。在一个实施方案中,阿尔法值表示混合量。阿尔法值的范围从1(不透明)到0(透明)。
例如,在该示例性实施方案中,作为从用户界面的原始边界到延伸边界的距离的函数,阿尔法值从1(不透明)减小至0(全透明)。在一个实施方案中,阿尔法被确定为距原始边界的像素距离的非线性函数。这种示例性的非线性函数为指数函数。在另一实施方案中,阿尔法被确定为距原始边界的像素距离的线性函数。对于本领域技术人员来说很清楚的是,也可以使用其它函数来确定阿尔法。
在一个实施方案中,将下面的视频或图像与延伸部分412混合的阿尔法具有以下特性。与边界处的内容混合的可变阿尔法消除了用户界面408平面和内容视频平面之间的硬深度过渡。而且,与延伸部分412混合的可变阿尔法以平滑的方式朝向用户界面408的深度(双眼像差异)削弱(衰减)内容的深度(双眼像差异)。另外,可以用眼镜且可以不用眼镜来读取具有非透明背景的用户界面408中的文本。
图5示出了根据本发明的实施方案的克服三维用户界面呈现的扰乱效果的左呈现502a和右呈现502b,其中用户界面具有半透明背景。左呈现502a和右呈现502b在显示器506上呈现给用户。显示器506可以是能够配置为将三维呈现显示给用户的任何显示器,诸如上文参照图1所述的显示器105。
如图5所示,左呈现502a和右呈现502b包括对象504和用户界面508。应当理解的是,用户界面508可以是包括菜单、字幕或用户界面的任何其它用途的任何用户界面。用户界面508具有原始边界509。为了清楚起见,在图5中示出了显示原始边界509的虚线以示出用户界面508的原始边界。然而,在一个实施方案中,在显示器506上虚线未呈现给用户。为了清楚起见,在图5中示出了显示原始边界509的虚线以示出用户界面508的原始边界。然而,在一个实施方案中,在显示器506上未将虚线呈现给用户。
在图5所示的实施方案中,用户界面508具有半透明背景。为了克服具有半透明背景的用户界面的三维用户界面呈现的扰乱效果,在一个实施方案中,用户界面508的文本位移以显现为从屏幕突出。另外,用户界面508中的任何两维或三维图标或图像被移动位置以显现为从屏幕突出。通过这种方式,避免了用户界面508的文本与视频或图像的交叉。因此,如图5所示,TL>TR。
另外,在一个实施方案中,背景保持在屏幕水平面处(即,BL=BR)。为了避免可能由半透明背景引起的扰乱效果,限定了延伸边界510。为了清楚起见,在图5中示出了显示延伸边界510的虚线以示出用户界面508的延伸边界。然而,在一个实施方案中,在显示器506上未将虚线呈现给用户。
在该实施方案中,用户界面508的背景的延伸边界510与原始边界509之间的背景延伸部分512以减小的阿尔法值与内容视频或图像混合,其中阿尔法值表示混合量。阿尔法值的范围从用于提供用户界面背景的半透明度的阿尔法值(半透明)到0(透明)。由于呈现文本和任何包含的图像或图标以显现为从屏幕突出,所以延伸部分512可小于图4所示的部分412。
例如,在一个实施方案中,作为从用户界面的原始边界到延伸边界的距离的函数,阿尔法值从半透明的阿尔法值减小至0(全透明)。在一个实施方案中,阿尔法被确定为距原始边界的像素距离的非线性函数。示例性的这种非线性函数为指数函数。在另一实施方案中,阿尔法被确定为距原始边界的像素距离的线性函数。本领域技术人员很清楚的是,其它函数也可用于确定阿尔法。
在一个实施方案中,将下方的视频或图像与延伸部分512混合的阿尔法具有以下特性。与边界处的内容混合的可变阿尔法消除了用户界面508平面和内容视频平面之间的硬深度过渡。而且,与部分512混合的可变阿尔法以平滑的方式朝向用户界面508的深度(双眼像差异)削弱(衰减)内容的深度(双眼像差异)。
图6示出了根据本发明的实施方案克服三维用户界面呈现的扰乱效果的左呈现602a和右呈现602b,其中用户界面具有全透明背景。在显示器606上,将左呈现602a和右呈现602b呈现给用户。显示器606可以是能够将三维呈现显示给用户的任何显示器,诸如上文参照图1所述的显示器105。
如图6所示,左呈现602a和右呈现602b包括对象604和用户界面608。应当理解的是,用户界面608可以是包括菜单、字幕或用户界面的任何其它用途的任何用户界面发明。用户界面608具有原始边界609。为了清楚起见,在图6中示出了显示原始边界609的虚线以示出用户界面608的原始边界。然而,在实施方案中,在显示器606上未将虚线呈现给用户。
在图6所示的实施方案中,用户界面608具有全透明背景。为了克服具有透明背景的用户界面的三维用户界面呈现的扰乱效果,在实施方案中,用户界面608的文本被移动位置以显现为从屏幕突出。另外,用户界面608中的任何两维或三维图标或图像被移动位置以显现为从屏幕突出。通过这种方式,避免了用户界面608的文本与视频或图像的交叉。因此,如图6所示,TL>TR。
另外,为了避免由于全透明背景而可能出现的扰乱效果,可以形成延伸边界610。为了清楚起见,在图6中示出了显示延伸边界610的虚线以示出用户界面608的延伸边界。然而,在一个实施方案中,在显示器606上未将虚线呈现给用户。
在该实施方案中,使用户界面608的背景的延伸边界610与原始边界609之间的背景延伸部分612模糊。在一个实施方案中,使用户界面608的原始背景下面的视频或图像模糊。例如,在一个实施方案中,利用最大可用模糊半径使用户界面608的原始背景下面的视频或图像模糊。可根据实现来实现模糊半径的其它值。
此外,在一个实施方案中,使延伸部分612下方的视频或图像模糊。而且,在延伸部分612中,随着从用户界面608的原始边界609到延伸边界610的距离增加,模糊半径减小。在一个实施方案中,例如,模糊半径始于最大可用模糊半径并且随着从用户界面608的原始边界609到延伸边界610的距离增加而减小。模糊半径的典型值的范围从80个像素至40个像素。可以根据实现情况而使用其它的模糊半径范围。
由于模糊半径随着距原始边界609的距离增加而减小,模糊持续到用户界面608的延伸范围。在一个实施方案中,模糊半径被确定为距原始边界的像素距离的非线性函数。示例性的这种非线性函数为指数函数。在另一实施方案中,模糊半径被确定为距原始边界的像素距离的线性函数。本领域技术人员很清楚的是,其它函数也可用于确定模糊半径。另外,可以使用模糊半径的其它范围。
如上所述使用户界面后面的视频或图像模糊使得能够更易于读取或观看用户界面文本和任何包含的图像或图标并且略微削弱下面的视频或图像的深度效果。改变延伸部分612中的模糊半径去除了用户界面平面的文本和内容视频或图像平面之间的硬深度过渡。因为呈现文本以显现为从屏幕突出,延伸部分612可比图4所示的部分412小。
图7是用于在能够配置为显示三维呈现的显示器上将用户界面(UI)呈现给用户的方法的流程图。显示器可以为显示三维图像或视频的任何屏幕,诸如上文参照图1所述的显示器105。
在步骤702中,在显示器上显示诸如用户可选选项的菜单、字幕或任何其它用户界面的用户界面。在步骤704中,在用户界面背景的周围形成延伸边界以限定用户界面背景的延伸部分。在步骤706中,对用户界面背景是不透明、半透明、还是透明做出判断。
如果在步骤706中判定为用户界面背景为不透明,则方法的操作在步骤708中继续。在步骤708中,在延伸部分中的用户界面背景与要显示在显示器上的下面的视频或图像混合。
在一个实施方案中,利用表示混合透明度的量的阿尔法值进行混合。在一个实施方案中,阿尔法值的范围从1(不透明)到0(全透明)。在一个实施方案中,用于混合的阿尔法被确定为距用户界面背景的原始边界的距离的函数。例如,在一个实施方案中,随着距用户界面的原始边界的距离增加,阿尔法值减小。在一个实施方案中,例如,作为从用户界面的原始边界到延伸边界的距离的函数,阿尔法值从1减小至0。在一个实施方案中,阿尔法被确定为距原始边界的像素距离的非线性函数。这种示例性的非线性函数为指数函数。在另一实施方案中,阿尔法被确定为距原始边界的像素距离的线性函数。本领域技术人员很清楚的是,可以使用其它函数来确定阿尔法。
如果在步骤706中判定用户界面背景为半透明,则方法的操作在步骤710中继续。在步骤710中,用户界面的文本呈现给用户以显现为从屏幕突出。此外,在步骤710中,用户界面的任何两维或三维图像或图标呈现给用户以显现为从显示器突出。然后,该方法的操作在步骤712中继续,在步骤712中,在延伸部分中的用户界面背景与要在显示器上显示的下方的视频或图像混合。
在一个实施方案中,利用表示混合透明度的量的阿尔法值来进行混合。在实施方案中,阿尔法的范围从对应于半透明用户界面背景的阿尔法值(半透明)到0(全透明)。在一个实施方案中,用于混合的阿尔法被确定为距用户界面背景的原始边界的距离的函数。例如,在一个实施方案中,随着距用户界面的原始边界的距离增加,阿尔法值减小。在一个实施方案中,例如,作为从用户界面的原始边界到延伸边界的距离的函数,阿尔法从半透明阿尔法值减小至0。在一个实施方案中,阿尔法被确定为距原始边界的像素距离的非线性函数。这种示例性的非线性函数为指数函数。在另一实施方案中,阿尔法被确定为距原始边界的像素距离的线性函数。本领域技术人员很清楚的是,其它函数也可用于确定阿尔法。
如果在步骤706中判定用户界面背景为透明,则方法的操作在步骤714中继续。在步骤714中,用户界面的文本呈现给用户以显现为从显示器突出。此外,在步骤714中,用户界面的任何两维或三维图像或图标呈现给用户以显现为从显示器突出。然后,该方法的操作在步骤716中继续,在步骤716中,使用户界面下面的视频或图像模糊。例如,在一个实施方案中,利用最大可用模糊半径使用户界面608的原始背景下面的视频或图像模糊。可根据实现情况而使用模糊半径的其它值。
在一个实施方案中,利用确定为距用户界面背景的原始边界的距离的函数的模糊半径使延伸部分中的视频或图像模糊。例如,在一个实施方案中,随着距用户界面的原始边界的距离增加,模糊半径减小。在一个实施方案中,例如,模糊半径始于最大可用模糊半径并且随着距用户界面的原始边界的距离增加而减小。例如,在实施方案中,模糊半径从80个像素减小至40个像素。在一个实施方案中,模糊半径被确定为距原始边界的像素距离的非线性函数。这种示例性的非线性函数为指数函数。在另一实施方案中,模糊半径被确定为距原始边界的像素距离的线性函数。本领域技术人员很清楚的是,可以使用其它函数来确定模糊半径。
可以在处理器107上用软件来执行图7的方法。如上所述,处理器107可位于图1的机顶盒106中或者位于显示三维图像或视频的装置中。处理器107可以配置有编程以执行例如本文参照图7所述的操作的软件的任何处理器。这种示例性的处理器为可由加利福尼亚州圣塔克拉拉市的TridentMicrosystems公司提供的PNX85500。
在其它实施方案中,不需要判定步骤706。例如,在实施方案中,处理器107预配置为实现具有不透明背景、半透明背景或全透明背景的用户界面。在这种情况下,仅需要图7的适当分支。例如,如果处理器107实现仅具有不透明背景的用户界面,则仅需要图7的步骤702、704和708。如果处理器107实现仅具有半透明背景的用户界面,则仅需要步骤702、704、710和712。如果处理器107实现仅具有全透明背景的用户界面,则仅需要步骤702、704、714和716。
为了示例和描述的目的已经提供了本发明的优选实施方案的前述公开。不意在穷举或将本发明限制为所公开的精确形式。根据上面的公开,本文所述的实施方案的许多变型例和改进方案对于本领域技术人员而言是显而易见的。本发明的范围仅由所附的权利要求书及其等同方案限定。
此外,在描述本发明的代表性实施方案时,说明书可能将本发明的方法和/或过程呈现为特定的步骤顺序。然而,在方法或过程不有赖于本文阐述的步骤的特定次序的程度上,方法或过程不应限制为所描述的步骤的特定顺序。本领域技术人员将理解,步骤的其它顺序也是可行的。因此,在说明书中阐述的步骤的特定次序不应解释为对权利要求的限制。另外,涉及本发明的方法和/或过程的权利要求不应限制为按所写次序执行其步骤,并且本领域技术人员可易于理解的是,顺序可以变化并且仍在本发明的精神和范围之内。
Claims (48)
1.一种在三维显示器中呈现用户界面的系统,包括:
装置,其具有显示三维视频或图像的显示器;以及
处理器,其配置为:
使具有背景的用户界面呈现于所述显示器上;
限定所述用户界面背景的延伸部分;以及
在所述用户界面背景的所述延伸部分中执行图形处理。
2.如权利要求1所述的系统,其中,所述用户界面背景是不透明的,并且其中所述图形处理包括将所述用户界面背景的所述延伸部分与所述视频或图像的在所述延伸部分下面的部分混合。
3.如权利要求2所述的系统,其中,所述混合包括改变控制所述混合的透明度的阿尔法值。
4.如权利要求2所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,减小控制所述混合的透明度的阿尔法值。
5.如权利要求2所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,线性地减小控制所述混合的透明度的阿尔法值。
6.如权利要求2所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,非线性地减小控制所述混合的透明度的阿尔法值。
7.如权利要求2所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,控制所述混合的透明度的阿尔法值呈指数减小。
8.如权利要求1所述的系统,其中,所述用户界面的所述背景为半透明,并且其中所述处理器使与所述用户界面相关联的内容显现为从屏幕突出。
9.如权利要求8所述的系统,其中,所述图形处理包括:将所述用户界面背景的所述延伸部分与所述视频或图像的在所述延伸部分下面的部分混合。
10.如权利要求9所述的系统,其中,所述混合包括改变控制混合透明度的阿尔法值。
11.如权利要求9所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,减小控制所述混合的透明度的阿尔法值。
12.如权利要求9所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,线性地减小控制所述混合的透明度的阿尔法值。
13.如权利要求9所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,非线性地减小控制所述混合的透明度的阿尔法值。
14.如权利要求9所述的系统,其中,所述混合包括:随着距所述用户界面背景的原始边界的距离增加,控制所述混合的透明度的阿尔法值呈指数地减小。
15.如权利要求1所述的系统,其中,所述用户界面背景全透明,并且所述图形处理包括:使在由所述用户界面背景的原始边界限定的区域内的所述用户界面背景下面的所述视频或图像模糊。
16.如权利要求15所述的系统,其中,所述处理器使与所述用户界面背景相关联的内容显现为从屏幕突出。
17.如权利要求15所述的系统,其中,使在所述用户界面背景的所述延伸部分下面的所述视频或图像模糊。
18.如权利要求17所述的系统,其中,随着距所述用户界面背景的原始边界的距离增加,在使所述延伸部分下面的所述视频或图像模糊时使用的模糊半径减小。
19.如权利要求18所述的系统,其中,所述处理器使与所述用户界面相关联的内容显现为好像从屏幕突出。
20.如权利要求17所述的系统,其中,随着距所述用户界面背景的原始边界的距离增加,在使所述延伸部分下面的所述视频或图像模糊时使用的模糊半径线性地减小。
21.如权利要求17所述的系统,其中,随着距所述用户界面背景的原始边界的距离增加,在使所述延伸部分下面的所述视频或图像模糊时使用的模糊半径非线性地减小。
22.如权利要求17所述的系统,其中,随着距所述用户界面背景的原始边界的距离增加,在使所述延伸部分下面的所述视频或图像模糊时使用的模糊半径呈指数减小。
23.如权利要求1所述的系统,进一步包括机顶盒,所述处理器位于所述机顶盒中。
24.如权利要求1所述的系统,其中,所述装置为电视机、便携式电影播放器、个人数字助理、电话和照相机中的一种。
25.如权利要求1所述的系统,其中,所述用户界面为图形覆盖段。
26.一种用于在显示三维视频或图像的显示器上呈现用户界面的方法,包括:
生成具有由原始背景边界限定的背景的用户界面;
在所述显示器上显示所述用户界面;
用延伸边界限定所述背景的延伸部分;以及
在所述用户界面背景的所述延伸部分中执行图形处理。
27.如权利要求26所述的方法,其中,执行所述图形处理包括:将所述用户界面背景的所述延伸部分与所述视频或图像的在所述延伸部分下面的部分混合。
28.如权利要求27所述的方法,其中,执行所述图形处理包括:改变控制所述混合的透明度的阿尔法值。
29.如权利要求27所述的方法,其中,执行所述图形处理包括:随着距所述用户界面背景的原始边界的距离增加,减小控制所述混合的透明度的阿尔法值。
30.如权利要求27所述的方法,其中,执行所述图形处理包括:随着距所述用户界面背景的原始边界的距离增加,线性地减小控制所述混合的透明度的阿尔法值。
31.如权利要求27所述的方法,其中,执行所述图形处理包括:随着距所述用户界面背景的原始边界的距离增加,非线性地减小控制所述混合的透明度的阿尔法值。
32.如权利要求27所述的方法,其中,执行所述图形处理包括:随着距所述用户界面背景的原始边界的距离增加,控制所述混合的透明度的阿尔法值呈指数减小。
33.如权利要求26所述的方法,进一步包括:呈现与所述用户界面相关联的内容以显现为从屏幕突出。
34.如权利要求33所述的方法,其中,执行所述图形处理包括:混合在所述延伸部分下面的所述视频或图像的所述延伸部分。
35.如权利要求34所述的方法,其中,执行所述图形处理包括:根据控制混合的透明度的变化的阿尔法值进行混合。
36.如权利要求34所述的方法,其中,执行所述图形处理包括:根据控制所述混合的透明度的阿尔法值进行混合,其中随着距所述用户界面背景的原始边界的距离增加,所述阿尔法值减小。
37.如权利要求34所述的方法,其中,执行所述图形处理包括:根据控制所述混合的透明度的阿尔法值进行混合,其中随着距所述用户界面背景的原始边界的距离增加,所述阿尔法值线性地减小。
38.如权利要求34所述的方法,其中,执行所述图形处理包括:根据控制所述混合的透明度的阿尔法值进行混合,其中随着距所述用户界面背景的原始边界的距离增加,所述阿尔法值非线性地减小。
39.如权利要求34所述的方法,其中,执行所述图形处理包括:根据控制所述混合的透明度的阿尔法值进行混合,其中随着距所述用户界面背景的原始边界的距离增加,所述阿尔法值呈指数减小。
40.如权利要求26所述的方法,其中,所述用户界面背景全透明,并且所述图形处理包括:使在由所述用户界面背景的原始边界限定的区域内的所述用户界面背景下面的所述视频或图像模糊。
41.如权利要求40所述的方法,进一步包括:呈现与所述用户界面背景相关联的内容以显现为从屏幕突出。
42.如权利要求41所述的方法,其中,执行所述图形处理包括:使在所述用户界面背景的所述延伸部分下面的所述视频或图像模糊。
43.如权利要求41所述的方法,其中,执行所述图形处理包括:根据模糊半径使在所述用户界面背景的所述延伸部分下面的所述视频或图像模糊,随着距所述用户界面背景的原始边界的距离增加,所述模糊半径减小。
44.如权利要求41所述的方法,其中,执行所述图形处理包括:根据模糊半径使在所述用户界面背景的所述延伸部分下面的所述视频或图像模糊,随着距所述用户界面背景的原始边界的距离增加,所述模糊半径线性地减小。
45.如权利要求41所述的方法,其中,执行所述图形处理包括:根据模糊半径使在所述用户界面背景的所述延伸部分下面的所述视频或图像模糊,随着距所述用户界面背景的原始边界的距离增加,所述模糊半径非线性地减小。
46.如权利要求41所述的方法,其中,执行所述图形处理包括:根据模糊半径使在所述用户界面背景的所述延伸部分下面的所述视频或图像模糊,随着距所述用户界面背景的原始边界的距离增加,所述模糊半径呈指数减小。
47.如权利要求42所述的方法,进一步包括:呈现与所述用户界面相关联的内容以显现为从屏幕突出。
48.一种处理三维视频或图像的装置,包括:
输入部,其用于接收作为三维视频或图像显示的图像;以及
处理器,其配置为生成图形覆盖段,所述图形覆盖段具有与所述三维图像结合显示的前景部分和背景部分,其中,所述处理器生成延伸背景部分并且在所述延伸背景部分中执行图形处理。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2010/055201 WO2011131230A1 (en) | 2010-04-20 | 2010-04-20 | System and method to display a user interface in a three-dimensional display |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103039078A true CN103039078A (zh) | 2013-04-10 |
CN103039078B CN103039078B (zh) | 2015-09-23 |
Family
ID=43037600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080066549.0A Expired - Fee Related CN103039078B (zh) | 2010-04-20 | 2010-04-20 | 在三维显示器中显示用户界面的系统和方法 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2561676A1 (zh) |
JP (1) | JP2013530413A (zh) |
KR (1) | KR20130062907A (zh) |
CN (1) | CN103039078B (zh) |
WO (1) | WO2011131230A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109729417A (zh) * | 2019-03-28 | 2019-05-07 | 深圳市酷开网络科技有限公司 | 一种视频透明播放处理方法、智能电视及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2472878A1 (en) * | 2010-12-31 | 2012-07-04 | Advanced Digital Broadcast S.A. | Method and apparatus for combining images of a graphic user interface with a stereoscopic video |
US10091495B2 (en) | 2012-12-24 | 2018-10-02 | Thomson Licensing | Apparatus and method for displaying stereoscopic images |
GB2602027A (en) * | 2020-12-15 | 2022-06-22 | Samsung Electronics Co Ltd | Display apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6577350B1 (en) * | 1998-12-21 | 2003-06-10 | Sony Corporation | Method and apparatus for displaying an electronic program guide |
US20040220791A1 (en) * | 2000-01-03 | 2004-11-04 | Interactual Technologies, Inc. A California Corpor | Personalization services for entities from multiple sources |
US20070182730A1 (en) * | 2003-05-28 | 2007-08-09 | Ken Mashitani | Stereoscopic image display apparatus and program |
US20100060666A1 (en) * | 2008-09-09 | 2010-03-11 | Microsoft Corporation | Zooming graphical user interface |
WO2010032399A1 (ja) * | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 立体視映像再生装置、及び立体視映像表示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001285749A (ja) * | 2000-01-24 | 2001-10-12 | Matsushita Electric Ind Co Ltd | 画像合成装置、記録媒体及びプログラム |
EP1170942A4 (en) * | 2000-01-24 | 2007-03-07 | Matsushita Electric Ind Co Ltd | IMAGE SYNTHESIZER, RECORDED MEDIUM AND PROGRAM |
KR100649523B1 (ko) * | 2005-06-30 | 2006-11-27 | 삼성에스디아이 주식회사 | 입체 영상 표시 장치 |
JP2007081562A (ja) * | 2005-09-12 | 2007-03-29 | Toshiba Corp | 立体画像表示装置、立体画像表示プログラムおよび立体画像表示方法 |
KR20110018261A (ko) * | 2009-08-17 | 2011-02-23 | 삼성전자주식회사 | 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치 |
-
2010
- 2010-04-20 EP EP10716808A patent/EP2561676A1/en not_active Withdrawn
- 2010-04-20 CN CN201080066549.0A patent/CN103039078B/zh not_active Expired - Fee Related
- 2010-04-20 KR KR1020127027288A patent/KR20130062907A/ko not_active Application Discontinuation
- 2010-04-20 JP JP2013505338A patent/JP2013530413A/ja active Pending
- 2010-04-20 WO PCT/EP2010/055201 patent/WO2011131230A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6577350B1 (en) * | 1998-12-21 | 2003-06-10 | Sony Corporation | Method and apparatus for displaying an electronic program guide |
US20040220791A1 (en) * | 2000-01-03 | 2004-11-04 | Interactual Technologies, Inc. A California Corpor | Personalization services for entities from multiple sources |
US20070182730A1 (en) * | 2003-05-28 | 2007-08-09 | Ken Mashitani | Stereoscopic image display apparatus and program |
US20100060666A1 (en) * | 2008-09-09 | 2010-03-11 | Microsoft Corporation | Zooming graphical user interface |
WO2010032399A1 (ja) * | 2008-09-18 | 2010-03-25 | パナソニック株式会社 | 立体視映像再生装置、及び立体視映像表示装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109729417A (zh) * | 2019-03-28 | 2019-05-07 | 深圳市酷开网络科技有限公司 | 一种视频透明播放处理方法、智能电视及存储介质 |
CN109729417B (zh) * | 2019-03-28 | 2019-09-10 | 深圳市酷开网络科技有限公司 | 一种视频透明播放处理方法、智能电视及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20130062907A (ko) | 2013-06-13 |
EP2561676A1 (en) | 2013-02-27 |
CN103039078B (zh) | 2015-09-23 |
JP2013530413A (ja) | 2013-07-25 |
WO2011131230A1 (en) | 2011-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8930838B2 (en) | Display apparatus and display method thereof | |
CN102763061B (zh) | 导航三维媒体指导应用的系统和方法 | |
US8605136B2 (en) | 2D to 3D user interface content data conversion | |
KR101924058B1 (ko) | 영상표시장치 및 그 동작방법 | |
CN105491310B (zh) | 图像显示装置 | |
US20120293513A1 (en) | Dynamically Configurable 3D Display | |
KR20140063272A (ko) | 영상표시장치, 및 그 동작방법 | |
RU2598989C2 (ru) | Устройство отображения трехмерного изображения и способ отображения для такового | |
KR20150116302A (ko) | 영상표시장치, 및 그 동작방법 | |
KR20130106001A (ko) | 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법 | |
KR101855939B1 (ko) | 영상표시장치의 동작 방법 | |
US20140132726A1 (en) | Image display apparatus and method for operating the same | |
CN103039078B (zh) | 在三维显示器中显示用户界面的系统和方法 | |
US9407897B2 (en) | Video processing apparatus and video processing method | |
KR20160084655A (ko) | 영상표시장치 | |
KR20130011041A (ko) | 영상표시장치 및 그 동작방법 | |
KR101878808B1 (ko) | 영상표시장치 및 그 동작 방법 | |
KR100830441B1 (ko) | 이미지 표출 방법 및 이미지 표출 장치 | |
EP3389267B1 (en) | Display apparatus and method | |
KR20140063276A (ko) | 영상표시장치, 및 그 동작방법 | |
KR20140063275A (ko) | 영상표시장치, 및 그 동작방법 | |
KR20140098512A (ko) | 영상표시장치 및 그 동작방법 | |
KR101880479B1 (ko) | 영상표시장치, 및 그 동작방법 | |
KR20130076349A (ko) | 영상표시장치, 및 그 동작방법 | |
KR102014149B1 (ko) | 영상표시장치, 및 그 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150923 Termination date: 20170420 |