CN102763061B - 导航三维媒体指导应用的系统和方法 - Google Patents

导航三维媒体指导应用的系统和方法 Download PDF

Info

Publication number
CN102763061B
CN102763061B CN201080043710.2A CN201080043710A CN102763061B CN 102763061 B CN102763061 B CN 102763061B CN 201080043710 A CN201080043710 A CN 201080043710A CN 102763061 B CN102763061 B CN 102763061B
Authority
CN
China
Prior art keywords
media guidance
user
optional
media
guidance object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201080043710.2A
Other languages
English (en)
Other versions
CN102763061A (zh
Inventor
W·R·卡拉珀特
T·S·伍兹
H·C·小奇尔沃斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TV guide Co.
Uv Co
Adeia Guides Inc
Original Assignee
Le Wei Guide Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Le Wei Guide Co filed Critical Le Wei Guide Co
Publication of CN102763061A publication Critical patent/CN102763061A/zh
Application granted granted Critical
Publication of CN102763061B publication Critical patent/CN102763061B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Abstract

提供了用于导航三维(3D)媒体指导应用的系统和方法。第一可选媒体指导对象可以在屏幕上进行显示,当通过立体光学装置进行观看时第一可选媒体指导对象可呈现于第一平面内。第二可选媒体指导对象可以在屏幕上进行显示,当通过立体光学装置进行观看时第二可选媒体指导对象可呈现于第二平面内。第一和第二平面可以被感知为在不同位置与垂直于显示器的轴相交。可以接收第一和第二可选指导对象中的至少一个的用户选择。可以基于用户选择执行在3D空间内移动光标或者选择在3D空间内显示的可选媒体指导对象之一的动作。可以通过具有加速度计的输入装置执行用户选择。

Description

导航三维媒体指导应用的系统和方法
本发明要求于2009年9月30日提交的美国专利申请No.12/571,283和于2009年9月30日提交的美国专利申请No.12/571,287的利益,这两个美国专利申请的全部内容以引用方式并入本文。
背景技术
由于一般人能够获得(例如,经由互联网、线缆和卫星电视以及广播获得)巨量的媒体内容(例如,视频和音频),所以交互式媒体指导应用(例如,交互式节目指南)已经得到广泛应用。通常,交互式媒体指导应用在由时间和节目源(例如,电视频道)指示的二维(2D)网格内呈现指南列表。具体地讲,指南列表平面出现于屏幕上。这些指导应用还在2D视图内呈现其它指南有关数据(例如,用户概况、推荐)。
发明内容
鉴于上述内容,提供了根据本发明的各种实施例的用于导航三维(3D)媒体指导应用的系统和方法。具体地讲,当使用立体光学装置观看2D屏幕时,在2D屏幕上显示的可选媒体指导对象可以呈现为定位在3D空间内的任何地方。
在一些实施例中,通过立体光学装置观看的媒体指导应用可以在屏幕上呈现。媒体指导应用可以包括在3D空间内呈现为离用户不同距离处的可选媒体指导对象。在一些实施方式中,当通过立体光学装置观看时在第一和第二平面内呈现的第一和第二可选媒体指导对象可以分别进行显示。第二平面可以被感知为在与第一平面的不同的位置与垂直于显示器的轴相交。这可以形成第一可选媒体指导对象与第二可选媒体指导对象相比更靠近用户的样子。
在一些实施例中,立体光学装置可以包括与用户的左眼和右眼对应的左透镜和右透镜。立体光学装置可以被构造为从媒体设备接收指示遮挡哪个透镜以及对哪个透镜去除遮挡的信号。被遮挡的透镜可能不允许可见光通过而未被遮挡的透镜可以允许可见光通过。在一些实施方式中,仅仅当为右眼产生的立体图像的一部分在屏幕上进行显示时,立体光学装置可以被指令遮挡左透镜对右透镜去除遮挡;仅仅当为左眼产生的立体图像的一部分在屏幕上显示时,立体光学装置可以被指令遮挡右透镜对左透镜去除遮挡。在一些实施方式中,为对应眼睛产生的立体图像的每个部分可以在屏幕上进行显示,并且对应透镜可以以交替方式以足够快速度被遮挡和去除遮挡,从而使得用户可能无法独立感知到两个图像而是一起感知这些图像以将组合的图像解释为三维。
在一些实施例中,可以接收显示的可选媒体指导对象中的至少一个的用户选择。在一些实施方式中,可以通过具有加速度计的输入装置接收用户选择。在另外实施方式中,除了加速度计以外或者替代加速度计,输入装置可以具有陀螺仪。媒体设备装置可以检测输入装置的移动。基于检测到的输入装置的移动,媒体设备装置可以执行关于显示的可选媒体指导对象的动作。在一些实施方式中,媒体设备装置可以基于输入装置的移动在3D空间内移动光标。具体地讲,用户可以以顺时针方式向右摆动输入装置,结果,媒体设备装置可以以循环方式以顺时针方向在3D空间内移动光标。在一些实施方式中,媒体设备装置可以检测输入装置的快速运动(晃动),结果,媒体设备装置可以执行最靠近3D空间内的光标的位置的可选媒体指导对象的选择。
在一些实施例中,媒体设备装置可以检测在特定方向上输入装置的运动,结果,媒体设备装置可以改变显示的可选媒体指导对象的模式。具体地讲,可选媒体指导对象的模式可以对应于与特定媒体资产关联的演员。作为检测输入装置的运动的结果,媒体设备装置可以将可选媒体指导对象的模式变成对应于播放列表模式。更具体地讲,当可选媒体指导对象处于播放列表模式时,可选媒体指导对象之一可以标识特定播放列表并且其余可选媒体指导对象可以表示播放列表的媒体资产。
在一些实施例中,可以在本地由媒体设备装置产生立体媒体指导应用。媒体设备装置可以产生第一图像,第一图像包括要由用户的右眼观看的以屏幕的第一点为中心的可选媒体指导对象。媒体设备装置可以产生第二图像,第二图像包括要由用户的左眼观看的以屏幕的第二点为中心的第一可选媒体对象的副本,屏幕的第二点与第一点不同。在一些实施方式中,媒体设备装置可以重叠第一图像和第二图像以便在屏幕上进行显示以生成立体图像。当用户通过立体光学装置观看立体图像时,可选媒体对象可以以距离用户的感知距离呈现于立体图像内。屏幕上的第一点和第二点之间的距离可以与感知距离成比例。
在一些实施例中,媒体设备装置可以交替显示第一图像和第二图像,并且可以指令立体光学装置遮挡/去除遮挡与显示的图像对应的透镜。在一些实施方式中,媒体设备装置可以以比用户能够感知到的速度更快的速度交替显示第一图像和第二图像。
附图说明
当结合附图考虑下文详细描述时,本发明的以上和其它目的和优点将是清楚的,在这些附图中相同标号指相同部分,其中:
图1和图2示出了根据本发明的实施例的可用于提供媒体指导应用列表的说明性显示屏幕;
图3示出了根据本发明的另一个实施例的说明性用户设备装置;
图4是根据本发明的另一个实施例的说明性交叉平台交互式媒体系统的图;
图5A示出了根据本发明的实施例的说明性立体光学装置;
图5B示出了根据本发明的另一个实施例的说明性立体光学装置;
图5C示出了根据本发明的第三实施例的说明性立体光学装置;
图5D示出了根据本发明的实施例的说明性立体光学装置的图案;
图6A示出了根据本发明的实施例的在不同平面上呈现的媒体对象的显示屏幕的说明性正视图;
图6B示出了根据本发明的实施例的图6A中所示的显示屏幕的说明性侧视图,假设媒体对象实际是三维的;
图7A示出了根据本发明的实施例的在不同平面内显示的媒体对象的说明性显示屏幕;
图7B示出了根据本发明的实施例的在不同平面内显示的剧组成员表达的说明性显示屏幕;
图8示出了根据本发明的实施例的用户设备装置和外设装置的说明性布置;
图9A到图9B示出了根据本发明的实施例的显示屏幕上的媒体指导对象的说明性结构;
图10图11是根据本发明的实施例的导航3D媒体指导应用的说明性流程图;
图12A示出了根据本发明的实施例的由用户的左眼观看的说明性图像;
图12B示出了根据本发明的实施例的由用户的右眼观看的说明性图像;
图12C示出了根据本发明的实施例的通过重叠图12A-B中的图像形成的立体图像的说明性侧视图;
图13是示出了根据本发明的实施例的生成立体图像时的类似三角形的使用的视图;
图14是示出了根据本发明的实施例的用于生成立体图像的坐标系统的视图;
图15是根据本发明的实施例的用于为3D媒体指南显示设计图形的说明性流程图;以及
图16示出了根据本发明的实施例的在不同远景显示的媒体指导对象的说明性显示屏幕。
具体实施方式
本发明总体涉及呈现和设计立体或3D媒体指导应用。具体地讲,关注的多个对象(例如,用户概况、媒体资产或者节目计划信息)之一在第一平面上进行显示,多个对象中的其余对象在另外的平面上进行显示,该另外的平面被感知为在与第一平面的不同位置与垂直于显示屏幕的轴相交。更具体地讲,关注的对象可以被显示为平面出现在屏幕上而其它对象可以被显示为仿佛它们在屏幕之前或之后出现。如本文定义,资产或媒体资产是指可以进行播放、访问、记录和/或观看的任何类型的媒体(或者数据文件)。如这里所述,术语“关注”或进入关注应该被理解为是指改变显示项目或对象的外观以使得与其它项目或对象相比该项目或对象更加突出可视。
在任何给定的媒体传送系统中用户可获得的媒体量可能是大的。因此,许多用户期望通过一种界面的媒体指导的形式,其使得用户高效导航媒体选择并且易于标识他们期望的媒体。提供这种指导的应用在本文中称作交互式媒体指导应用,或者有时候称作媒体指导应用或指导应用。
交互式媒体指导应用可以采取多种形式,这取决于它们为其提供指导的媒体。一种典型类型的媒体指导应用是交互式电视节目指南。交互式电视节目指南(有时称作电子节目指南)是公知的指导应用,其还使得用户在许多类型的媒体内容中进行导航并且定位许多类型的媒体内容,这些媒体内容包括常规电视节目计划(经由常规广播、线缆、卫星、互联网或其它方式提供的)、以及按次付费节目、点播节目(如在视频点播(VOD)系统内)、互联网内容(例如,流式媒体、可下载媒体、网络广播、等等)、以及其它类型的媒体或视频内容。指导应用还使得用户在关于视频内容的内容中进行导航并定位关于视频内容(例如,包括视频剪辑、文章、广告、聊天室、游戏、等等)的内容。指导应用还使得用户在多媒体内容中进行导航并定位多媒体内容。在本文中,术语多媒体被定义为利用至少两种不同内容形式(例如,文本、音频、静止图像、动画、视频、以及交互性内容形式)的媒体和内容。多媒体内容可以由信息内容处理装置(例如,计算机化装置和电子装置)进行记录和播放、显示或访问,但是还可以是现场表演的一部分。应该明白,关于媒体内容讨论的本发明实施例还可应用到其它类型的内容(例如,视频、音频和/或多媒体)。
随着互联网、移动计算和高速无线网络的出现,用户访问个人计算机(PC)和其它他们通常不访问的装置(例如,手持计算机、个人数字助理(PDA)、移动电话或其它移动装置)上的媒体。在这些装置上,用户能够在通过电视所得的相同媒体中进行导航并定位该通过电视所得的相同媒体。因此,在这些装置上媒体指导是必需的。可以为仅仅通过电视所得的媒体内容、仅仅通过这些装置中的一个或多个所得的媒体内容或者通过电视以及这些装置中的一个或多个二者所得的媒体内容提供指导。媒体指导应用可以被设置为在线应用(即,设置在网站上)或者设置为手持计算机、PDA、移动电话或其它移动装置上的单机应用或客户。在下文中更加详细描述可以实现媒体指导应用的各种装置和平台。
媒体指导应用的功能之一是向用户提供媒体列表和媒体信息。图1到图2示出了可用于提供媒体指导(具体地讲,媒体列表)的说明性显示屏幕。在图1到图2、图7A到图7B、图9A到图9B和图12A到图12C中所示的显示屏幕可以在任何合适装置或平台上进行实现。尽管图1到图2、图7A到图7B、图9A到图9B和图12A到图12C的显示被示出为全屏显示,但是它们还可以完全或部分重叠在进行显示的媒体内容之上。用户可以通过在遥控器或其它用户输入接口或装置上选择在显示屏幕中提供的可选择选项(例如,菜单选项、列表选项、图标、超链接、等等)或者按压专用按钮(例如,指南按钮)指示访问媒体信息的期望。响应于用户的指示,媒体指导应用可以向显示屏幕提供以多种方法(例如,通过网格中的时间和频道、通过时间、通过频道、通过媒体类型、通过分类(例如,电影、体育、新闻、儿童节目或者其它种类的节目计划)、或者其它预定的组织标准、用户定义的组织标准或其它组织标准)之一组织的媒体信息。
图1示出了通过时间和频道布置的还能够在一个显示中实现访问不同类型的媒体内容的说明性网格节目列表显示100。显示100可以包括网格102,具有:(1)频道/媒体类型标识符列104,其中,每个频道/媒体类型标识符(即,列中的单元)标识可用的不同频道或媒体类型;以及(2)时间标识符行106,其中,每个时间标识符(即,行中的单元)标识节目计划的时间块。网格102还包括节目列表的单元(例如,节目列表108),其中,每个列表提供在列表的关联的频道和时间上提供的节目的标题。通过用户输入装置,用户能够通过移动高亮区110选择节目列表。关于通过高亮区110选择的节目列表的信息可以被提供在节目信息区112内。区112例如可以包括节目标题、节目说明、提供节目的时间(如果适用的话)、节目所在的频道(如果适用的话)、节目分级、以及其它期望信息。
除了对根据计划提供的线性节目计划提供访问以外,媒体指导应用还对不是根据计划提供的非线性节目计划提供访问。非线性节目计划可以包括来自不同媒体源的内容,包括点播媒体内容(例如,VOD)、互联网内容(例如,流式媒体、可下载媒体、等等)、本地存储的媒体内容(例如,存储在数字视频记录器(DVR)、数字视频盘(DVD)、视频卡带、紧凑盘(CD)等等上的视频内容)、或者其它时间不敏感媒体内容。点播内容可以包括由特定媒体提供商(例如,提供“The Sopranos”和“Curb Your Enthusiasm”的HBO On Demand)提供的电影和原始媒体内容二者。HBO ON DEMAND是Time Warner Company L.P.等拥有的服务商标,并且THE SOPRANOS和CURB YOUR ENTHUSIASM是由Home Box Office,Inc拥有的商标。互联网内容可以包括网络事件(例如,聊天对话或网络广播)、或者通过互联网网站或其它互联网访问(例如,FTP)作为流式媒体或可下载媒体点播所得的内容。
网格102可以为非线性节目计划提供列表(包括点播列表114、记录的媒体列表116和互联网内容列表118)。来自不同类型的媒体源的内容的显示组合列表有时称作“混合媒体”显示。与显示100不同的可进行显示的列表的类型的各种排列可以基于用户选择或者指导应用定义(例如,仅仅记录和广播列表的显示、仅仅点播和广播列表的显示、等等)。如所示,列表114、116和118被显示为跨越在网格102中显示的整个时间块以指示分别选择这些列表可以向专用于点播列表、记录列表或互联网列表的显示提供访问。在其它实施例中,这些媒体类型的列表可以直接包括在网格102内。响应于用户选择导航图标120之一可以显示另外的列表(按压用户输入装置上的箭头键可以以与选择导航图标120类似的方式影响显示)。
显示100还可以包括视频区122、广告124和选项区126。视频区122可以使得用户观看和/或预览用户当前可用、将在以后可用或者以前可用的节目。视频区122的内容可以与在网格102中显示的列表之一进行对应或者与之无关。包括视频区的网格显示有时称作画面指南(PIG)显示。在于2003年5月13日公开的由Satterfield等申请的美国专利No.6,564,378和于2001年5月29日公开的由Yuen等申请的美国专利No.6,239,794中更加详细描述了PIG显示及其功能,这两个美国专利的全部内容以引用方式并入本文。PIG显示可以被包括在本发明的其它媒体指导应用显示屏幕内。
广告124可以为根据用户的访问权限当前可观看、将在未来可观看或者永远不可以观看的媒体内容(例如,为订阅节目计划)提供广告,并且可以对应于网格102中的媒体列表中的一个或多个或者与之无关。广告124还可以用于与在网格102内显示的媒体内容有关或无关的产品或服务。广告124可进行选择并且提供关于媒体内容的另外信息,提供关于产品或服务的信息,实现媒体内容、产品或服务的购买,提供关于广告的媒体内容、等等。可以基于用户的概况/偏爱、监视的用户活动、提供的显示的类型或者基于其它合适制定目标的广告制定广告124的目标。
尽管广告124被显示为矩形或横幅状,但是可以以任何合适尺寸、形状和位置在指导应用显示中进行提供。例如,广告124可以设置为与网格102水平相邻的矩形。这有时候称作面板广告。此外,广告可以重叠在媒体内容或者指导应用显示上或者嵌入在显示内。广告还可以包括文字、图像、旋转图像、视频剪辑、或者其它类型的媒体内容。广告可以存储在具有指导应用的用户设备内、连接到用户设备的数据库内、远处位置(包括流式媒体服务器)或者其它存储器件上或者这些位置的组合。例如,在于2003年1月17日提交的Knudson等申请的美国专利申请No.10/347,673、于2004年6月29日公开的Ward,III等申请的美国专利No.6,756,997和于2002年5月14日公开的Schein等申请的美国专利No.6,388,714中更加详细讨论在媒体指导应用中设置广告,上述美国专利的全部内容以引用方式并入本文。应该明白,广告可以被包括在本发明的其它媒体指导应用显示屏幕内。
选项区126可以使得用户访问不同类型的媒体内容、媒体指导应用显示、和/或媒体指导应用特征。选项区126可以是显示100(以及本发明的其它显示屏幕)的一部分,或者可以由用户通过选择屏幕上选项或者按压用户输入装置上的专用或可分配按钮进行调用。选项区126内的可选择选项可以涉及关于网格102中的节目列表的特征或者可以包括可从主菜单显示获得的选项。关于节目列表的特征可以包括搜索接收节目的其它开始时间或方式、记录节目、实现节目的连续记录、设置喜爱的节目和/或频道、购买节目或者其它特征。可从主菜单显示获得的选项可以包括搜索选项、VOD选项、亲本控制选项、访问各种类型的列表显示、订阅高品质服务、编辑用户的概况、访问浏览重叠、或者其它选项。
可以基于用户的偏爱个性化媒体指导应用。个性化的媒体指导应用使得用户定制显示和特征以与媒体指导应用建立个性化“体验”。可以通过使得用户输入这些定制和/或由媒体指导应用监视用户活动以确定各种用户偏爱建立这种个性化体验。用户可以通过登录指导应用或者以其它方式向指导应用标识它们自身访问它们的个性化指导应用。可以根据用户概况执行媒体指导应用的定制。定制可以包括变动呈现方案(例如,显示的颜色方案、文本的字体大小、等等)、显示的媒体内容列表的方面(例如,仅仅HDTV节目计划、基于最喜欢的频道选择的用户指定的广播频道、重新排序频道的显示、推荐的媒体内容、等等)、期望的记录特征(例如,针对特定用户的记录或连续记录、记录质量、等等)、亲本控制设置、以及其它期望定制。
媒体指导应用可以使得用户提供用户概况信息或者可以自动编辑用户概况信息。媒体指导应用例如可以监视用户访问的媒体和/或用户可以与指导应用执行的其它交互。此外,媒体指导应用可以获得关于特定用户的全部或部分的其它用户概况(例如,从例如www.tvguide.com的用户访问的互联网上的其它网站,从用户访问的其它媒体指导应用,从用户访问的其它交互应用,从用户的手持装置,等等),和/或从媒体指导应用可以访问的其它源获得关于用户的信息。结果,针对用户的不同装置可以向用户提供统一指导应用体验。在下文中结合图4更加详细描述这种类型的用户体验。在于2005年7月11日提交的Ellis等申请的美国专利申请No.11/179,410、于1999年11月9日提交的Boyer等申请的美国专利申请No.09/437,304和于2002年2月21日提交的Ellis等申请的美国专利申请No.10/105,128中更加详细描述了额外个性化的媒体指导应用特征,上述美国专利申请的全部内容以引用方式并入本文。
在图2中示出了用于提供媒体指导的另一显示布置。视频镶嵌显示200包括用于基于媒体类型、风格和/或其它组织标准组织的媒体内容信息的可选择选项202。在显示200中选择电视列表选项204,由此提供列表206、208、210和212作为广播节目列表。与图1的列表不同,显示200中的列表不限于描述媒体的简单文字(例如,节目标题)和图标。而是在显示200中,列表可以提供图形图像(包括封面艺术、来自媒体内容的静止图像、视频剪辑预览、来自媒体内容的现场视频、或者向用户指示媒体内容由列表描述的其它类型的媒体)。每个图形列表还可以伴随文字以进一步提供关于与列表关联的媒体内容的信息。例如,列表208可以包括超过一个部分(包括媒体部分214和文字部分216)。媒体部分214和/或文字部分216是可选择的以全屏观看视频或者观看关于在媒体部分214中显示的视频的节目列表(例如,观看显示视频的频道的列表)。
显示200中的列表的尺寸不同(即,列表206大于列表208、210和212),但如果需要的话,所有列表的尺寸可以相同。如媒体提供商期望或者基于用户偏爱,列表的尺寸可以不同或者以图形进行增强以向用户指示关注度或者强调某些内容。例如,在于2005年12月29日提交的Yates申请的美国专利申请No.11/324,202中讨论用于图形增强媒体列表的各种系统和方法,上述美国专利申请的全部内容以引用方式并入本文。
用户可以从他们的用户设备装置中的一个或多个访问媒体内容和媒体指导应用(以及在上下文中描述的它的显示屏幕)。图3示出了说明性用户设备装置300的通用实施例。在下文中结合图4讨论用户设备装置的更加具体的实施方式。用户设备装置300可以经由输入/输出(下文中,“I/O”)通道302接收媒体内容和数据。I/O通道302可以向控制电路304提供媒体内容(例如,广播节目计划、点播节目计划、互联网内容以及其它视频或音频)和数据,电路304包括处理电路306和存储器308。控制电路304可使用I/O通道302发送和接收命令、请求和其它合适数据。I/O通道302可以将控制电路304(具体地讲,处理电路306)连接到一个或多个通信通道(下文描述)。I/O功能可以由这些通信通道中的一个或多个进行提供,但在图3中显示为一个通道以避免附图过于复杂。
控制电路304可以基于任何合适的处理电路306,例如,基于一个或多个微处理器、微控制器、数字信号处理器、可编程逻辑器件等等的处理电路)。在一些实施例中,控制电路304执行存储在存储器(即,存储器308)中的媒体指导应用的指令。在基于客户-服务器的实施例中,控制电路304可以包括适于与指导应用服务器或其它网络或服务器进行通信的通信电路。通信电路可以包括有线调制解调器、集成业务数字网络(ISDN)调制解调器、数字用户线路(DSL)调制解调器、电话调制解调器、或者与其它设备进行通信的无线调制解调器。这些通信可以涉及互联网或任何其它合适的通信网络或通道(结合图4更加详细进行描述)。此外,通信电路可以包括实现用户设备装置的对等通信或者彼此远离的位置处的用户设备装置的通信的电路(在下文中更加详细描述)。
存储器(例如,随机访问存储器、只读存储器、或者任何其它合适的存储器)、硬盘驱动器、光盘驱动器、或者任何其它合适的固定或可移动存储装置(例如,DVD记录器、CD记录器、视频卡带记录器或者其它合适的记录装置)可以被设置为存储器308(即控制电路304的一部分)。存储器308可以包括一个或多个以上类型的存储装置。例如,用户设备装置300可以包括用于DVR(有时称作个人视频记录器或PVR)和DVD记录器的硬盘驱动器作为次要存储装置。存储器308可用于存储本文描述的各种类型的媒体和指导应用数据,包括节目信息、指导应用设置、用户偏爱或概况信息、或者用于操作指导应用的其它数据。还可以使用非易失性存储器(例如,发起启动例程和其它指令)。
控制电路304可以包括视频产生电路和调谐电路,诸如一个或多个模拟调谐器、一个或多个MPEG-2解码器或者其它数字解码电路、高精度调谐器、或者任何其它合适调谐或视频电路或者这些电路的组合。还可以提供编码电路(例如,用于将无线电模拟或数字信号转换成MPEG信号以进行存储)。控制电路304还可以包括用于将媒体上变换和下变换成用户设备300的优选输出格式的定标器电路。电路304还可以包括用于在数字和模拟信号之间进行转换的数字到模拟转换器电路和模拟到数字转换器电路。用户设备可以使用调谐和编码电路接收、显示、播放或记录媒体内容。调谐和编码电路还可用于接收指导数据。可以使用在一个或多个通用或专用处理器上运行的软件实现这里所述的例如包括调谐、视频产生、编码、解码、定标器和模拟/数字电路的电路。可以提供多重调谐器以处理并行调谐功能(例如,手表和记录功能、画中画(PIP)功能、多重调谐器记录、等等)。如果设置存储器308作为与用户设备300分开的装置,则调谐和编码电路(包括多重调谐器)可以与存储器308关联。
用户可以使用用户输入接口310控制控制电路304。用户输入接口310可以是任何合适的用户接口,例如,遥控器、鼠标、跟踪球、键区、键盘、触摸屏、触摸板、铁笔输入、游戏杆、语音标识接口或者其它用户输入接口。在一些实施例中,用户输入接口310可以包含加速度计316。当用户移动包含加速度计316的用户输入接口310时,加速度计316可以向用户设备装置300发送关于用户输入接口的运动和定向的信息。在一些实施例中,除了或者替代加速度计316,用户输入接口310可以包括陀螺仪(未示出)。
例如,包含加速度计316的用户输入接口310可以是棒状装置,与用于Ninteno Wii中的用户输入接口类似。在一个实施例中,该棒状装置可以是直角棱镜的形状。在其它实施例中,该棒状装置可以是三角棱镜、球体或柱体的形状,或者该棒状装置可以从一端向另一端逐渐变窄(像角锥或圆锥)。如果用户握住棒状装置并且向上摆动他的手臂,则加速度计316可以发送指示离用户最远的棒状装置上的点的向上运动和向上定向的信息。如果用户握住棒状装置并且向下摆动他的手臂,则加速度计316可以发送指示离用户最远的棒状装置上的点的向下运动和向下定向的信息。如果用户握住棒状装置并且与地面平行摆动他的手臂,则加速度计316可以发送指示与地面平行的棒状装置的横向运动和定向的信息。用户可以基于向上、向下和横向手臂运动的任何组合移动和改变棒状装置的定向。用户还可以通过仅仅移动他的手腕而非他的整个手臂(例如,在握住棒状装置的同时通过上下、左右或者按照环形运动旋转他的手腕)移动并改变棒状装置的定向。
显示器312可以被设置为单机装置或者与用户设备装置300的其它元件进行集成。显示器312可以是监视器、电视机、用于移动装置的液晶显示器(LCD)或者用于显示视觉图像的任何其它合适的设备中的一个或多个。在一些实施例中,显示器312可以是能用于HDTV的。扬声器314可以被设置为与用户设备装置300的其它元件进行集成或者可以是单机单元。在显示器312上进行显示的视频和其它媒体内容的音频成分可以通过扬声器314进行播放。在一些实施例中,音频可以被分布到接收器(未示出),其用于经由扬声器314处理和输出音频。
可以使用任何合适架构实现指导应用。例如,它可以是在用户设备装置300上整体实现的单机应用。在这个方案中,应用的指令存储在本地,并且由该应用使用的数据周期性进行下载(例如,从电视频道的VBI,从带外馈送,或者使用另一个合适方案)。在另一个实施例中,媒体指导应用是基于客户-服务器的应用。通过向远离用户设备装置300的服务器发送请求根据需求取得由在用户设备装置300上实现的胖或瘦客户使用的数据。在基于客户-服务器的指导应用的一个例子中,控制电路304运行翻译由远程服务器提供的网页的网络浏览器。
在其它实施例中,通过解释器或者虚拟机(由控制电路304运行)下载并解释或者以其它方式运行媒体指导应用。在一些实施例中,指导应用可以ETV二进制互换格式(EBIF)进行编码,由控制电路304接收作为合适馈送的一部分,并且由在控制电路304上运行的用户代理进行解释。例如,指导应用可以是EBIF窗口小部件。在其它实施例中,指导应用可以由一系列基于JAVA的文件进行定义,这些基于JAVA的文件由控制电路304执行的本地虚拟机或其它合适中间件进行接收和运行。在一些这样的实施例(例如,采用MPEG-2或其它数字媒体编码方案的实施例)中,指导应用例如可以在具有节目的MPEG音频和视频包的MPEG-2对象传送带中进行编码和发送。
图3的用户设备装置300能够在图4的系统400中被实现为用户电视设备402、用户计算机设备404、无线用户通信装置406、或者适于访问媒体的任何其它类型的用户设备装置(例如,非便携式游戏机)。为了简化,这些装置在本文中统称为用户设备或用户设备装置。在其上实现媒体指导应用的用户设备装置可以用作单机装置或者可以是装置的网络的一部分。可以实现装置的各种网络结构并且在下文中更加详细进行讨论。
用户电视设备402可以包括机顶盒、用于处理卫星电视的集成接收器解码器(IRD)、电视机、数字存储装置、DVD记录器、视频卡带记录器(VCR)、本地媒体服务器或者其它用户电视设备。如果需要的话,这些装置中的一个或多个可以被集成为一个装置。用户计算机设备404可以包括PC、膝上型计算机、输入板、网络电视盒、个人计算机电视(PC/TV)、PC媒体服务器、PC媒体中心、或者其它用户计算机设备。WEBTV是由微软公司拥有的商标。无线用户通信装置406可以包括PDA、移动电话、便携式视频播放器、便携式音乐播放器、便携式游戏机、或者其它无线装置。
应该注意:随着用于PC、网络电视的电视调谐器卡的出现以及视频集成到其它用户设备装置,当尝试将装置分类成以上装置之一时线路已经变得模糊。实际上,用户电视设备402、用户计算机设备404和无线用户通信装置406的每个可以至少利用以上结合图3描述的一些系统特征,结果包括关于在装置上可用的媒体内容的类型的灵活性。例如,用户电视设备402可以通过互联网实现对互联网内容的访问,而用户计算机设备404可以包括调谐器从而访问电视节目计划。媒体指导应用还可以在各种不同类型的用户设备上具有相同布局,或者可以进行修改以适应用户设备的显示能力。例如,可以在用户计算机设备上设置指导应用作为由网络浏览器访问的网址。在另一个例子中,指导应用可以针对无线用户通信装置按比例缩小。
在系统400中,通常有多于一个的每种类型的用户设备装置但是在图4中仅仅示出了每种类型的一个用户设备装置以避免使得附图过于复杂。此外,每个用户可以利用超过一种类型的用户设备装置(例如,用户可以具有电视机和计算机),还可以具有每种类型的多于一个用户设备装置(例如,用户可以具有PDA和移动电话和/或多个电视机)。
用户还可以设置各种设置以针对家内装置和远程装置保持一致的媒体指导应用设置。设置包括本文所述的那些以及频道和节目热门、指导应用利用以形成节目计划推荐的节目计划偏爱、显示偏爱以及其它期望的指导设置。例如,如果用户在他们的办公室的他们的个人计算机上将频道设置为例如关于网址www.tvguide.com的喜爱,则相同频道将作为喜爱出现在用户的家内装置(例如,用户电视设备和用户计算机设备)以及用户的移动装置上(如果需要的话)。因此,在一个用户设备装置上做出的变化能够改变另一个用户设备装置上的指导体验,而不管它们是相同还是不同类型的用户设备装置。此外,做出的改变可以基于用户输入的设置以及由指导应用监视的用户活动性。
用户设备装置可以耦合到通信网络414。也就是说,用户电视设备402、用户计算机设备404和无线用户通信装置406分别经由通信通道408、410和412耦合到通信网络414。通信网络414可以是包括互联网、移动电话网络、移动装置(例如,黑莓)网络、有线网络、公共交换电话网络或者其它类型通信网络或者通信网络的组合的一个或多个网络。BLACKBERRY是由Research In Motion有限公司拥有的服务标记。通道408、410和412可以分别或一起包括一个或多个通信通道,例如,卫星通道、光纤通道、有线通道、支持互联网通信(例如,IPTV)的通道、自由空间连接(例如,用于广播或其它无线信号)、或者任何其它合适的有线或无线通信通道或者这些通道的组合。通道412由虚线绘制以指示在图4所示的示例性实施例中它是无线通道,通道408和410由实线绘制以指示它们是有线通道(尽管如果需要的话,这些通道可以是无线通道)。与用户设备装置的通信可以由这些通信通道中的一个或多个进行提供,但是在图4中仅仅示出了一个通道以避免使得附图过于复杂。
尽管在用户设备装置之间没有绘制通信通道,但是这些装置可以经由通信通道彼此直接通信,通信通道例如是以上结合通道408、410和412描述的那些,以及其它短距离点到点通信通道(例如,USB线缆、IEEE 1394线缆、无线通道(例如,蓝牙、红外、IEEE802-11x、等等)),或者其它经由有线或无线通道的短距离通信)。BLUETOOTH是由Bluetooth SIG公司拥有的认证标记。用户设备装置还可以通过经由通信网络414的间接通道彼此直接通信。
系统400包括分别经由通信通道420和422耦合到通信网络414的媒体内容源416和媒体指导数据源418。通道420和422可以包括以上结合通道408、410和412描述的通信通道中的任何一个。与媒体内容源416和媒体指导数据源418的通信可以通过一个或多个通信通道进行交换,但是在图4中仅仅示出了一个通道以避免使得附图过于复杂。此外,媒体内容源416和媒体指导数据源418的每个可以是多个但是在图4中仅仅示出了每个的一个以避免使得附图过于复杂。(在下文讨论这些源的每个的不同类型)。如果需要的话,媒体内容源416和媒体指导数据源418可以集成为一个源装置。尽管源416和418与用户设备装置402、404和406之间的通信被显示为通过通信网络414,但是在一些实施例中,源416和418可以经由例如以上结合通道408、410和412描述的那些的通信通道(未示出)直接与用户设备装置402、404和406进行通信。
媒体内容源416可以包括一种或多种类型的媒体分布设备,这些媒体分布设备包括电视分布设施、有线系统数据转发器、卫星分布设施、节目计划源(例如,电视广播商,如NBC、ABC、HBO、等等)、中间分布设施和/或服务器、互联网提供商、点播媒体服务器、以及其它媒体内容提供商。NBC是National Broadcasting Company公司拥有的商标,ABC是ABC公司拥有的商标,HBO是Home Box Office公司拥有的商标。媒体内容源416可以是媒体内容的创作者(例如,电视广播商、网络广播提供商、等等)或者可不是媒体内容的创作者(例如,点播媒体内容提供商、用于下载的广播节目的视频内容的互联网提供商、等等)。媒体内容源416可以包括有线源、卫星提供商、点播提供商、互联网提供商、或者其它的媒体内容提供商。媒体内容源416还可以包括用于在远离任何用户设备装置的位置处存储不同类型的媒体内容(包括用户选择的视频内容)的远程媒体服务器。结合于1999年6月11日提交的Ellis等申请的美国专利申请No.09,332,244更加详细讨论用于媒体内容的远程存储以及向用户设备装置提供远程存储的媒体内容的系统和方法,上述美国专利申请的全部内容以引用方式并入本文。
媒体指导数据源418可以提供媒体指导数据,例如媒体列表、媒体有关信息(例如,广播时间、广播频道、媒体标题、媒体说明、分级信息(例如,亲本控制分级、评论的分级、等等)、风格或分类信息、演员信息、广播商的标志数据或者提供商的标志、等等)、媒体格式(例如,标准清晰度、高清晰度、等等)、广告信息(例如,文字、图像、媒体剪辑、等等)、点播信息、以及有助于用户在期望的媒体选择中进行导航并定位期望媒体选择的任何其它类型的指导数据。
可以使用任何合适的方案将媒体指导应用数据提供给用户设备装置。在一些实施例中,指导应用可以是经由数据馈送(例如,连续馈送、滴流馈送、或者频道的垂直空白间隔内的数据)接收节目指南数据的单机交互式电视节目指南。可以使用带内数字信号,使用带外数字信号或者通过任何其它合适的数据传输技术在电视频道的垂直空白间隔内向电视频道边带上的用户设备装置提供节目计划数据和其它指导数据。节目计划数据和其它指导数据可以被提供给多个模拟或数字电视频道上的用户设备装置。节目计划数据和其它指导数据可以任何合适频率(例如,连续地、每天、用户指定的时间、系统指定的时间、响应于来自用户设备的请求、等等)提供给用户设备装置。在一些方案中,可以使用客户-服务器方案将来自媒体指导数据源418的指导数据提供给用户设备。例如,当需要时驻留在用户设备上的指导应用客户可以启动与源418的会话以获得指导数据。媒体指导数据源418可以向用户设备装置402、404和406提供媒体指导应用自身或者媒体指导应用的软件更新。
媒体指导应用例如可以是在用户设备装置上实现的单机应用。在其它实施例中,媒体指导应用可以是仅仅客户驻留在用户设备装置上的客户-服务器应用。例如,媒体指导应用可以部分地作为客户应用在用户设备装置300的控制电路304上执行,以及部分地作为服务器应用(例如,媒体指导数据源418)在远程服务器上执行。指导应用显示可以由媒体指导数据源418产生并且发送到用户设备装置。媒体指导数据源418还可以发送数据以存储在用户设备上,然后基于由控制电路处理的指令产生指导应用显示。
媒体指导系统400意图示出多个方案或网络结构,通过这些方案或网络结构,用户设备装置与媒体内容和指导数据源可以彼此进行通信,以实现访问媒体和提供媒体指导的目的。可以通过这些方案中的任何一个或者子集或者在采用用于传送媒体并提供媒体指导的其它方案的系统中应用本发明。下面的三个方案提供了图4的通用例子的特定说明。
在一个方案中,用户设备装置可以在家庭网络内进行彼此通信。用户设备装置可以经由上述的短距离点到点通信方案,经由通过设置在家庭网络上的集线器或其它类似装置的间接通道或者经由通信网络414彼此直接通信。一个家庭中的多个人的每个可以操作家庭网络上的不同用户设备装置。结果,可以期望在不同用户设备装置之间交流各种媒体指导信息或设置。例如,用户可以在家庭网络内的不同用户设备装置上保持一致的媒体指导应用设置,如在于2005年7月11日提交的Ellis等申请的美国专利申请No.11/179,410中更加详细进行描述。家庭网络中的不同类型的用户设备装置还可以彼此通信以传输媒体内容。例如,用户可以将来自用户计算机设备的媒体内容发送到便携式视频播放器或便携式音乐播放器。
在第二方案中,用户可以具有多种类型的用户设备,通过这些用户设备它们访问媒体内容并且获得媒体指导。例如,一些用户可以具有由家内装置和移动装置进行访问的家庭网络。用户可以经由在远程装置上实现的媒体指导应用控制家内装置。例如,用户可以经由他们办公室的个人计算机或者诸如PDA或可上网移动电话的移动装置访问网站上的在线媒体指导应用。用户可以设置在线指导应用上的各种设置(例如,记录、提示或者其它设置)以控制用户的家中设备。在线指南可以直接或者通过与用户的家中设备上的媒体指导应用进行通信控制用户的设备。例如在于2004年8月26日提交的Ellis等申请的美国专利申请No.10/927,814中讨论了用于用户设备装置通信的各种系统和方法(其中,用户设备装置处于彼此远离的位置),上述美国专利申请的全部内容以引用方式并入本文。
在第三方案中,家中和家外的用户设备装置的用户能够使用他们的媒体指南应用直接与媒体内容源416进行通信以访问媒体内容。具体地讲,在家中,用户电视设备404和用户计算机设备406的用户可以访问媒体指导应用以在期望媒体内容中进行导航并定位期望媒体内容。用户还可以使用无线用户通信装置406访问家外的媒体指导应用以在期望媒体内容中进行导航并定位期望媒体内容。
应该明白,尽管媒体内容的讨论专注于视频内容,但是媒体指导的原理能够应用到其它类型的媒体内容(例如,音乐、图像、等等)。
在一些实施例中,媒体指导应用对象或媒体指导对象可以显现为在不同平面进行显示。具体地讲,媒体指导对象之一可以在第一平面内进行显示(例如,媒体指导对象平面式显现于屏幕上),其它媒体指导对象可以在第二平面内进行显示(例如,媒体指导对象显现为仿佛它们位于屏幕之前或之后)。
如本文中定义,术语媒体指导对象或媒体指导应用对象是指任何网站、现场视频馈送、或者记录的视频馈送回放或媒体指导应用数据的视觉表达(例如,用户概况、媒体资产、先前记录的媒体资产、媒体资产推荐、电邮消息、通知、提示、计划的记录、喜爱频道、图片、图标、略图、短消息服务(SMS)消息、多媒体消息发送服务(MMS)消息、服务提供商消息、新媒体资产发布、媒体分类、包括要在未来观看的媒体资产的队列、媒体资产的播放列表、或者家庭视频、或者它们的任何组合的视觉表达)。
在立体媒体指导应用中,可以通过产生由用户的右眼观看的第一图像以及产生由用户的左眼观看的第二图像实现立体效果。这两个图像进行重叠以生成立体图像。在立体图像中,一些对象似乎更靠近用户,而其它对象似乎离得远些。为了分离向用户的每个眼睛呈现的图像,用户可以通过立体光学装置观看立体媒体指导应用。
图5A示出了根据本发明的一个实施例的说明性立体光学装置。具体地讲,立体光学装置500的结构可以类似于一对眼镜片。立体光学装置500可以具有用于用户的右眼的第一开口502a和用于用户的左眼的第二开口502b。当用户通过开口502a观看时,用户仅仅看见为用户的右眼产生的图像。类似的是,当用户通过开口502b观看时,用户仅仅看见为用户的左眼产生的图像。开口502a和502b可由框架结构504包围。框架结构504可以包括桥接部分506,当用户佩戴立体光学装置500时桥接部分506可以位于用户的鼻子上。立体光学装置500还可以具有边件508,边件508沿用户的头部的侧面延伸并且挂在用户的耳朵上。边件508可以通过螺钉、铰链、胶水或任何其他合适附连手段附连到框架结构504。在一些实施例中,当用户没有佩戴立体光学装置500时,边件508可以折叠在框架结构504的后面。
在一个实施例中,框架结构504、桥接部分506和边件508可由塑料形成。在另一个实施例中,框架结构504、桥接部分506和边件508可由金属形成。任何其它合适材料可用于制造框架结构504、桥接部分506和边件508。在一些实施例中,框架结构504、桥接部分506和边件508可以全部由相同材料形成。在另外实施例中,框架结构504、桥接部分506和边件508的每一个可以由不同的材料形成。与其它两个部分不同的材料形成。在另外实施例中,框架结构504、桥接部分506和边件508之一可以由与其它两个部分不同的材料形成。
在一些实施例中,开口502a可由第一透镜覆盖,开口502b可由第二透镜覆盖。透镜可由液晶或一些其它合适材料形成。在一些实施例中,通过在恰当定时遮挡透镜和对透镜去除遮挡重叠通过每个透镜看见的图像。当透镜被遮挡时,阻止可见光通过透镜。当透镜被去除遮挡时,可见光可以通过透镜。
在一些实施例中,用户设备装置上的发送器可以发送通过传感器接收的第一信号。响应于接收到第一信号,第一透镜被遮挡而第二透镜被去除遮挡。然后,第二信号可由发送器进行发送并且由传感器接收。响应于接收到第二信号,第一透镜被去除遮挡而第二透镜被遮挡。将在下文中参照图8更加详细描述发送器、传感器和信号。
在一些实施例中,可以使用开关处理遮挡透镜和对透镜去除遮挡。例如,上述的对透镜的遮挡和去除遮挡的处理可以被每秒重复多次,从而视觉后滞使得用户不在意透镜的开关而是看见连续的立体图像。在一些实施例中,基于近似每秒60次的速率执行对透镜的遮挡和去除遮挡。在另外实施例中,可以基于较低或较快速率执行遮挡和去除遮挡。例如,可以基于近似每秒30次的速率执行遮挡和去除遮挡。
图5B示出了根据本发明的另一个实施例的说明性立体光学装置。具体地讲,立体光学装置520的结构可以类似于一对风镜。立体光学装置522a可以具有用于用户的右眼的第一开口522a和用于用户的左眼的第二开口522b。当用户通过开口522a观看时,用户仅仅看见为用户的右眼产生的图像。类似的是,当用户通过开口522b观看时,用户仅仅观看为用户的左眼产生的图像。开口522a和522b可由框架结构524包围。框架结构524可以包括桥接部分526,当用户佩戴立体光学装置520时桥接部分526可以位于用户的鼻子上。立体光学装置520还可以具有带子528,用于环绕用户的头部以保持立体光学装置520固定。带子528可以通过螺钉、铰链、胶水或任何其它合适附连手段附连到框架结构524。
在一个实施例中,框架结构524和桥接部分526可由塑料形成。在另一个实施例中,框架结构524和桥接部分526可由金属形成。任何其它合适的材料可用于制造框架结构524和桥接部分526。在一些实施例中,框架结构524和桥接部分526可由相同材料形成。在另外实施例中,框架结构524和桥接部分526可由不同材料形成。
在一些实施例中,带子528可以由刚性材料(例如,塑料或金属)形成。在另外实施例中,带子528可由弹性材料(例如,橡胶或乳胶)形成。带子528的长度可以是可调的,从而使得不同体形的用户可以佩戴立体光学装置520。在一些实施例中,开口522a可以由第一透镜覆盖,开口522b可由第二透镜覆盖。这些透镜可由液晶或一些其它合适的材料形成。在一些实施例中,通过以在上文中参照图5A描述的方式在恰当定时遮挡透镜和对透镜去除遮挡重叠通过每个透镜看见的图像。
图5C示出了根据本发明的第三实施例的说明性立体光学装置。具体地讲,立体光学装置540的结构可以类似于一对观剧镜。立体光学装置540可以具有用于用户的右眼的第一开口542a和用于用户的左眼的第二开口542b。当用户通过开口542a观看时,用户仅仅看见为用户的右眼产生的图像。类似的是,当用户通过开口542b观看时,用户仅仅看见为用户的左眼产生的图像。开口542a和542b可分别由框架结构544a和544b包围。框架结构544a和544b可以通过桥接部分546进行连接,当用户佩戴立体光学装置540时桥接部分546可以位于用户的鼻子上。桥接部分546的长度可以是可调的,从而不同体形的用户可以使用立体光学装置540。
在一些实施例中,框架结构544a和544b以及桥接部分546可由塑料、纸和/或金属形成。任何其它合适的材料可用于制造框架结构544a和544b以及桥接部分546。在一些实施例中,框架结构544a和544b以及桥接部分546可由相同材料形成。在另外实施例中,框架结构544a和544b以及桥接部分546可由不同材料形成。在一些实施方式中,立体光学装置540可以设置在一张纸上并且基于指定区域进行切割。如下文参照图5D所示和所述,可以通过接合和折叠切割对象的多个部分形成立体光学装置540。立体光学装置540可以被构造为定位在用户面部上,从而当处于特定定向时,第二开口542b可以使得可见光通过用户的右眼并且仅仅看见用于用户的右眼观看产生的重叠的立体图像的一部分。另外,当处于特定定向时,第一开口542a可以使得可见光通过用户的左眼并且仅仅看见为用户的左眼观看产生的重叠的立体图像的一部分。当一起观看时,用户的大脑组合这些图像并且感知组合的图像为三维对象(下文更加详细进行讨论)。
立体光学装置540还可以具有柄548,当用户通过开口542a和542b观看时可以握住该柄548。柄548可以通过螺钉、铰链、胶水或任何其它合适附连手段附连到框架结构544a或框架结构544b。柄548的长度可以是可调的,从而不同体形的用户可以使用立体光学装置540。柄548可由塑料、金属、橡胶、或任何其它合适材料或者材料组合形成。在一些实施例中,当立体光学装置540不使用时,柄548可以被折叠到框架结构544a和544b之后。
在一些实施例中,开口542a可由第一透镜覆盖,开口542b可由第二透镜覆盖。这些透镜可由液晶或一些其它合适的材料形成。在一些实施例中,按照在上文中参照图5A描述的方式通过在恰当定时遮挡这些透镜和对这些透镜去除遮挡重叠通过每个透镜观看的图像。
图5D示出了根据本发明的一个实施例的说明性立体光学装置的图案560。图案560可以进行切割和组装以形成与上文讨论的立体光学装置540类似的立体光学装置。在图案560的轮廓被切割以后,可以沿线562a到562d切割狭缝。然后可以沿虚线564a到564f折叠图案560,从而黑面彼此相对并且形成框架结构。通过将狭缝562a插入狭缝562b以及将狭缝562d插入狭缝562c可以将框架结构固定在一起。
由图案560形成的立体光学装置可以用于并排呈现用于每个眼睛的图像的实施例中。例如,用于左眼的图像可以在屏幕的左侧部分中进行显示,用于右眼的图像可以在与屏幕的左侧部分保持合适距离的屏幕的右侧部分中进行显示。在一些实施方式中,可以设置两个独立屏幕,其中,每个屏幕被构造为显示用于对应眼睛的图像。用户可以通过框架结构的宽边进行观看并且通过一次闭合一只眼睛制定用于每个眼睛的图像。当睁开两只眼睛时,用户可以看见一个立体图像。
当用户观看立体媒体指导应用时,可以使用诸如在上文结合图5A到图5D描述的那些立体光学装置。在下文中参照图6A和图6B以及图7A和图7B详细描述说明性立体媒体指导应用显示屏幕。
图6A示出了根据本发明的一个实施例的在不同平面内呈现的媒体对象的显示屏幕600的说明性正视图。观看显示屏幕600的用户608看见第一可选媒体指导对象602和第二可选媒体指导对象604。当沿与显示屏幕600垂直的轴606观看时,与第二可选媒体指导对象604相比第一可选媒体指导对象602看起来更靠近用户。
在图6B中进一步示出了第一和第二可选媒体指导对象602和604的用户的感知。图6B示出了图6A所示的显示屏幕的说明性侧视图,假设第一和第二可选媒体指导对象602和604是真实三维的。第一可选媒体指导对象602在第一平面内进行显示,如虚线612指示。第二可选媒体指导对象604在第二平面内进行显示,如虚线614指示,第二平面614与第一平面612在不同位置与轴606相交。用户可以通过与在上文结合图5A到图5C描述的那些类似的立体光学装置616观看显示屏幕600。用户可以通过用户输入装置610(例如,在上文结合图3描述的用户输入装置)选择第一和第二可选媒体指导对象602和604中的至少一个。在下文中结合图9A到图9B和图10详细描述可选媒体指导对象的选择。
多个可选媒体指导对象可以布置在立体媒体指导应用显示中,如下文结合图7A到图7B进行讨论。图7A示出了根据本发明的一个实施例的在不同平面内显示的可选媒体对象的说明性显示屏幕700。可选媒体指导对象702、704、706、708、710和712可以基于行星系统进行布置。具体地讲,可选媒体指导对象702可以处于行星系统内的太阳的位置,而可选媒体指导对象704、706、708、710和712可以处于绕太阳轨道的行星的位置。更具体地讲,当使用立体光学装置时用户可以感知可选媒体指导对象702处于3D空间内的中心区域,并且用户可以感知可选媒体指导对象704、706、708、710和712在3D空间内包围可选媒体指导对象702。
在一些实施方式中,可选媒体指导对象704、706、708、710和712可以被定位并视为处于与可选媒体指导对象702相同的水平(或高度),或者每个可选媒体指导对象704、706、708、710和712可以显现为处于不同水平。在一些实施方式中,可选媒体指导对象704、706、708、710和712可以被定位并视为与可选媒体指导对象702等距,或者每个可选媒体指导对象704、706、708、710和712可以以不同距离程度进行显现。在一些实施例中,可选媒体指导对象704、706、708、710和712中的任何一个与可选媒体指导对象702之间的距离可以对应于可选媒体指导对象704、706、708、710和712如何与可选媒体指导对象702相关。
在一些实施例中,可选媒体指导对象704、706、708、710和712可以绕可选媒体指导对象702进行旋转。例如,每个可选媒体指导对象704、706、708、710和712可以及时以特定速度(可以是预定的或者由用户选择)以绕可选媒体指导对象702的循环方式进行移动。在一些实施方式中,当处理电路306检测到通过输入装置的移动时,可选媒体指导对象704、706、708、710和712可以在一定方向上移动。例如,当用户一旦向右摆动输入装置时,处理电路306可以使得可选媒体指导对象704、706、708、710和712绕可选媒体指导对象702顺时针旋转来重新定位可选媒体指导对象704、706、708、710和712。
可选媒体指导对象702、704、706、708、710和712的每个可以在不同平面内进行显示,这些不同平面在不同点与屏幕的法线相交。例如,如同第一可选媒体指导对象602向用户呈现一样,可选媒体指导对象702可向用户呈现(例如,可以在3D空间内更靠近用户呈现),如同第二可选媒体指导对象704向用户呈现一样可选媒体指导对象712可以向用户呈现(例如,可以在3D空间内远离用户呈现)。在一些实施方式中,可选媒体指导对象702、704、706、708、710和712可以是球形的、矩形的、三角形的或者任何其它几何形状。
在一些实施例中,可选媒体指导对象可以显现为半透明、部分透明或者全透明。例如,与可选媒体对象708相比,可选媒体对象706可以显现为在3D空间内更靠近用户。可选媒体对象706可以部分或完全阻碍用户观看可选媒体对象708。可选媒体对象706可以显现为半透明、部分透明或完全透明,从而用户仍可以通过可选媒体对象706看见可选媒体对象708。具体地讲,用户可以在屏幕的相同部分内看见可选媒体对象708和可选媒体对象706二者。在一些实施方式中,透明程度可以是可调的(例如,通过用户或系统)。例如,用户可以设置高水平的透明度,这可以使得透明效果更接近完全透明(例如,显现为接近成为窗口)以使得更多可见光通过。或者,用户可以设置低水平的透明度,这可以使得透明效果更接近不透明或者半透明(例如,显现为接近成为磨砂窗)以使得较少可见光通过,从而使得一个对象与其它对象相比较显现为略微更加不透明。
在一些实施例中,可选媒体对象可以与超过一个的其它可选媒体对象进行重叠。例如,可选媒体对象706可以与可选媒体对象708和可选媒体对象710二者进行重叠。在一些实施例中,可选媒体对象708可以与可选媒体对象710重叠并且可与可选媒体对象706重叠。应该明白,可选媒体对象之间的重叠可以仅仅涉及每个可选媒体对象的多个部分或者一个或多个可选媒体对象的全部。
在一些实施例中,可选媒体对象706在与可选媒体对象708重叠的区域内可以显现为半透明、部分透明或完全透明,而在其它非重叠区域中显现为不透明。在另外实施例中,可选媒体对象706可以显现为全部半透明或完全透明,即使在没有与其它可选媒体对象重叠的区域内。
在一些实施例中,可选媒体指导对象702可以标识一组媒体资产,并且可选媒体指导对象704、706、708、710和712的每个可以对应于该组媒体资产中的一个媒体资产。例如,可选媒体指导对象702可以标识一组电视节目,并且可选媒体指导对象704、706、708、710和712中的每个可以表示该组中的不同电视节目。具体地讲,可选媒体指导对象702可以标识可用或者在特定时间或者从特定源(例如,广播、卫星、互联网、大地)广播的一组电视节目,并且可选媒体指导对象704、706、708、710和712的每个可以表示可用或者在特定时间或从特定源广播的不同媒体资产。类似的是,可选媒体指导对象702可以标识媒体资产的演员或导演组,并且可选媒体指导对象704、706、708、710和712的每个可以表示该组中的演员或导演的不同一个。可选媒体指导对象704、706、708、710和712(上下文讨论)可以采用图像、视频、文字、音频文件、网址或者对媒体资产唯一的其它表达表示媒体资产,这些表达用于当用户感知由可选媒体指导对象704、706、708、710和712之一提供的媒体资产表达时向用户标识媒体资产。
在一些实施方式中,可选媒体指导对象702可以标识媒体资产的风格,并且可选媒体指导对象704、706、708、710和712的每个可以表示该组内的媒体资产中的不同一个。例如,可选媒体指导对象702可以标识电影的风格(例如,喜剧或动作电影),并且可选媒体指导对象704、706、708、710和712的每个可以表示该风格的不同电影标题。在一些实施例中,可选媒体指导对象702可以标识歌曲、音乐艺术家、分类、用户接收的电子邮件、喜爱的媒体资产、播放列表或视频游戏。例如,可选媒体指导对象702可以标识媒体资产的播放列表,并且可选媒体指导对象704、706、708、710和712的每个可以表示该播放列表内的媒体资产的不同一个或者类似风格或时间长度的其它媒体资产。
在一些实施例中,可选媒体指导对象702可以标识用户概况,并且可选媒体指导对象704、706、708、710和712的每个可以表示针对用户概况的不同推荐。该推荐可以基于与用户概况关联的观看历史,或者推荐可以是社会网络推荐。在一些实施例中,该推荐可以是有关媒体资产(例如,关于一定主题的类似电影或文档)的推荐。在一些实施例中,该推荐可以是用户感兴趣的产品(例如,电影海报、DVD或者体育大事记)的推荐。
在一些实施例中,可选媒体指导对象702可以标识媒体资产,并且可选媒体指导对象704、706、708、710和712的每个可以包括关于标识的媒体资产的广告。例如,如果标识的媒体资产是歌曲,则广告可以涉及由演唱该歌曲的艺术家给出的本地音乐会或者含有该歌曲的CD。如果标识的媒体资产是体育事件,则广告可以涉及在观看该事件的同时用户希望订购的食物或者参加比赛的队伍的运动衫。在一些实施例中,广告可以包含对广告项目的折扣。在一些实施例中,一些显示的广告可以没有直接涉及标识的媒体资产而可以是本地或地域性广告。
在一些实施例中,可选媒体指导对象702可以标识媒体资产,并且可选媒体指导对象704、706、708、710和712的每个可以表示与标识的媒体资产关联的交互。例如,如果可选媒体指导对象702标识电视节目,则可选媒体指导对象704可以表示向另外用户推荐该电视节目的选项,并且可选媒体指导对象706可以包含使得用户获得关于该电视节目的更多信息的超链接。此外,可选媒体指导对象708可以表示与其它用户关于电视节目进行聊天的选项,而可选媒体指导对象710可以邀请该用户播放关于该电视节目的小游戏。
在一些实施例中,可选媒体指导对象702(“太阳”对象)的用户选择可以设置可选媒体指导对象702标识组的模式。为“太阳”对象选择的模式可以确定显示哪个“行星”对象。例如,用户可以设置可选媒体指导对象702表示或标识特定媒体资产中的一组演员的模式,并且可以改变模式以使得可选媒体指导对象702表示或标识在特定时间广播的一组电视节目。在一些实施例中,处理电路306可以检测输入装置的上下移动(例如,基于处理电路306从加速度计和/或陀螺仪接收的输入),并且结果可以改变“太阳”对象的模式以及由此的要进行显示的“行星”对象的模式。在一些实施方式中,可以基于输入装置朝其晃动的特定方向改变针对太阳对象的模式设置。例如,当处理电路306确定输入装置朝与显示器的法线成45度角的直线的方向晃动时,处理电路306可以将可选媒体指导对象702的模式设置成电视计划表,并且当处理电路306确定输入装置朝与显示器的法线成90度角的直线的方向晃动时,处理电路306可以将可选媒体指导对象702的模式设置成媒体资产中的演员。更具体地讲,可选媒体指导对象702的每种模式可与输入装置移动或晃动的不同方向关联。
在一些实施例中,用户可以选择“行星”对象之一以变成新的“太阳”对象,并且如同撞球一样该“行星”对象将“太阳”对象撞出屏幕(例如,3D空间),并且替换“太阳”对象,同时新的“行星”对象出现。在另外实施例中,用户可以将“行星”对象拖到“太阳”对象的位置,使得该“行星”对象变成新的“太阳”对象。
在一些实施例中,图像框714和说明框716可以与可选媒体指导对象702、704、706、708、710和712一起进行显示。图像框714可以显示与可选媒体指导对象702、704、706、708、710和712之一关联的图像。在一些实施例中,图像框714中的图像可以是静止图像。例如,静止图像可以是演员的图片或者电视剧的屏幕截图。在另外实施例中,图像框714中的图像可以是运动图像(例如,内容的旋转图像或者流化剪辑)。在一些实施例中,运动图像可以是电影预告片或者与剧组成员的采访。
说明框716可以显示描述可选媒体指导对象702、704、706、708、710和712之一的文字。在一些实施例中,说明框716中的文字的大小可调以使得可以一次观看到所有文字。在另外实施例中,用户可以人工在说明框716内进行上下左右滚动以观看所有文字。在另外实施例中,说明框716中的文字可以自动上下左右进行滚动从而使得用户可以阅读所有文字。在另外实施例中,一些文字可以在说明框716中进行显示,并且用户可以选择说明框716以阅读其余文字。说明框716中的文字可以涉及可选媒体指导对象702、704、706、708、710和712中的任何一个或全部。例如,说明框716中的文字可以是演员的传记、剧情梗概、歌词或者视频游戏的说明。
在一些实施例中,可选媒体指导对象702、704、706、708、710和712它们自身可以含有图像或文字或者二者。可以通过在上文中参照图像框714和说明框716描述的任何或全部方式显示可选媒体指导对象702、704、706、708、710和712内的图像和文字。
图7B示出了根据本发明的实施例在不同位置与屏幕的法线相交的不同平面内进行显示的剧组成员表达的说明性显示屏幕750。具体地讲,可以基于行星系统布置可选媒体指导对象752、754、756、758、760和762。可选媒体指导对象752、754、756、758、760和762的每一个可以在在不同点或位置处与屏幕的法线相交的不同平面内进行显示。可选媒体指导对象752可以是“太阳”对象并且标识电视节目House。可选媒体指导对象752的功能可以与可选媒体指导对象702(图7A)相同或类似。可选媒体指导对象754、756、758、760和762可以是“行星”对象并且可以对应于由可选媒体指导对象752标识的电视节目“House”的剧组成员。可选媒体指导对象754、756、758、760和762的功能可以与可选媒体指导对象704、706、708、710和712(图7A)相同或类似。“行星”对象754、756、758、760和762可以包括剧组成员的图片以及剧组成员的姓名。在另外实施例中,“太阳”对象可以标识每日时间,“行星”对象可以对应于对该每日时间计划的节目。在另一个实施例中,“太阳”对象可以标识电影的风格,“行星”对象可以对应于属于该风格的电影。
图7B中的图像框764显示与“太阳”对象即可选媒体指导对象752关联的图像。具体地讲,图像框764中的图像可以是Dr.House即由“太阳”对象标识的电视节目中的主要人物的图片。在另一个实施例中,图像框764中的图像可以是即将上映的“House”的情节的商业广告。在另一个实施例中,图像框764中的图像可以是在可选媒体指导对象754、756、758、760和762之一内呈现的剧组成员的图片。
图7B中的说明框766显示与“行星”对象之一关联的文字。具体地讲,说明框766中的文字可以是在可选媒体对象754内显示的剧组成员Omar Epps的传记。在另外实施例中,说明框766中的文字可以总体描述电视剧“House”。在其它实施例中,说明框766中的文字可以是先前或即将上映的“House”的情节的剧情梗概。
可以使用多个用户设备装置和外围设备显示和导航例如上述的立体媒体指导应用。图8示出了根据本发明的实施例的用户设备装置和外围设备的说明性布置800。立体媒体指导应用可以在电视机802的屏幕上进行显示。用户810可以通过立体光学装置812(例如,以上参照图5A到图5C描述的立体光学装置之一)观看立体媒体指导应用。机顶盒804可以安放在电视机802上或者还可以并入电视机802内。相机806也可以安装在电视机802上或者并入电视机802内。如本文所述,用户电视设备可以独立或结合式包括机顶盒804、相机806和电视机802的每个或全部。相机806可以检测用户810或者用户输入装置814的移动。在一些实施例中,相机806可以是红外相机。红外相机可以通过形成用户810的热图像检测用户810的移动。或者,用户输入装置814可以发射可由红外相机检测的红外光。
收发器808也可以安装在电视机802上或者并入到电视机802内。收发器808还可以被包括在在上下文中提及的用户电视设备内。收发器808可用于控制立体光学装置812。例如,收发器808可以发送由立体光学装置812上的传感器接收的红外信号。红外信号可以遮挡光学装置812上的透镜和对透镜去除遮挡,从而用户810观看立体图像,这如以上参照图5A到图5C所述。例如,处理电路306可以在屏幕上显示用户仅仅通过左眼观看的图像,并且因此可以指令收发器808向用户的光学装置发送消息以遮挡右透镜和对左透镜去除遮挡。在稍后时间(例如,几毫秒或微秒以后),处理电路306可以在屏幕上显示用户仅仅通过右眼观看的图像,并且因此可以指令收发器808向用户的光学装置发送消息以遮挡左透镜并对右透镜去除遮挡。
收发器808还可以从用户输入装置814接收信号。例如,用户810可以按压用户输入装置814上的按钮以选择显示的可选媒体指导对象。用户输入装置814可以发送指示由收发器808接收的用户选择的信号(例如,红外信号)。在一些实施例中,收发器808可以与相机806进行协同工作以检测用户810和用户输入装置814的移动。例如,相机806可以检测用户810的大臂移动,而收发器808接收由用户输入装置814内的加速度计收集的关于用户输入装置814的运动和定向的信息。基于由相机806和收发器808收集的信息,可以修改立体媒体指导应用显示,这在下文参照图9A到图9B进行详细讨论。
图9A和图9B分别示出了根据本发明的实施例的显示屏幕上的媒体指导对象的说明性结构900和950。结构900和950均是如以上参照图7A到图7B描述的行星布置。具体地讲,图9A中的可选媒体指导对象902、904、906、908、910和912以及图9B中的可选媒体指导对象952、954、956、958、960和962基于行星系统进行布置,并且每个的功能与可选媒体指导对象702、704、706、708、710、712和/或752、754、756、758、760和762(图7A和图7B)相同或类似。
图9A中的可选媒体指导对象902、904、906、908、910和912以及图9B中的可选媒体指导对象952、954、956、958、960和962中的每个可以在不同点与平面的法线相交的不同平面内进行显示。可选媒体指导对象902可以是图9A中的“太阳”对象,可选媒体指导对象952可以是图9B中的“太阳”对象。尽管这两个“太阳”对象被显示为标识电视节目“House”,但是应该明白,这些太阳对象还可以标识如上所述的任何一组媒体资产。图像框918和968中的图像对应于各自布置中的“太阳”对象。图9A中的可选媒体指导对象904、906、908、910和912以及可选媒体指导对象954、956、958、960和962可以是“行星”对象并且可以对应于“House”中的剧组成员。
图9A中的可选媒体指导对象904可以由视觉指示器914进行包围。在一些实施例中,视觉指示器914可以是完全半透明或透明的。在其它实施例中,视觉指示器914可以在与可选媒体指导对象重叠的区域内是半透明或透明的而在其它地方是不透明的。
说明框920显示与可选媒体指导对象904关联的文字,该可选媒体指导对象通过视觉指示器914进行对焦。具体地讲,说明框920中的文字是在可选媒体对象904内显示的剧组成员Omar Epps的传记。在一些实施例中,说明框920和/或图像框918可以提供与可选媒体指导对象902关联的信息。在这些情况下,说明框920和/或图像框918可以显现为位于与与之关联的可选媒体指导对象相同的平面内。例如,说明框920和/或图像框918可以包括关于由可选媒体指导对象902标识的节目“House”的信息,该可选媒体指导对象902可以呈现位于在第一位置与屏幕的法线相交的平面内,这使得可选对象902与可选媒体指导对象912相比呈现为与用户距离更近。因此,说明框920和/或图像框918还可以位于与可选媒体指导对象902相同的平面内,并且呈现为与用户的距离与媒体指导对象902到用户的距离相同。这可以使得用户视觉标识说明框920和/或图像框918与哪一个显示的可选媒体指导对象对应。
在一些实施例中,说明框920和/或图像框918可以呈现在屏幕的平面内,而可选媒体指导对象呈现在屏幕之前和/或之后的平面内。在一些实施例中,一个或多个可选媒体指导对象可以呈现在屏幕的平面内,而其它可选媒体指导对象呈现于屏幕之前和/或之后的平面内。例如,说明框920和图像框918可以与可选媒体指导对象902一起呈现在屏幕的平面内,而其它可选媒体指导对象呈现在屏幕之前和之后的平面内。
用户可以改变立体媒体指导应用显示中的视觉指示器914的位置。在一些实施例中,用户可以使用用户输入装置上的上下左右箭头键或其它按钮移动视觉指示器914。在其它实施例中,用户可以握住用户输入装置并且在他希望移动视觉指示器914的方向上移动他的手臂之一。例如,如果用户希望将视觉指示器914移至可选媒体指导对象906,则用户可以向右移动他的手臂。如果用户希望将视觉指示器914移至可选媒体指导对象902,则用户可以升高他的手臂。在一些实施方式中,处理电路306可以基于输入装置移动的缓慢平稳速度(例如,基于用户的手臂移动)在屏幕内移动光标,并且可以基于输入装置移动(例如,基于在特定方向上用户的腕部移动的摆动)的快速即时速度实现关于与光标的位置相邻的可选媒体指导对象的模式的改变的选择。
在另一个实施例中,视觉指示器914可以保持固定而“行星”对象移动。例如,用户可以基于循环运动移动他的手臂从而绕“太阳”对象旋转图9A中的“行星”对象。结果如图9B所示。在图9B中,处理电路306可以在顺时针方向上将“行星”对象移动一个位置(与图9A中的它们对应位置相比较而言)。具体地讲,表示剧组成员Olivia Wilde的可选媒体指导对象954已经移至图9B中的视觉指示器964,并且说明框970中的文字现在是Olivia Wilde的传记。表示剧组成员Omar Epps的可选媒体指导对象962已经移至“太阳”对象之后,并且所有其它“行星”对象956、958和960相应地顺时针移位以保持图9A所示的结构。在下文中参照图10和图11更加详细讨论立体媒体指导应用的导航和修改。应该明白,上下文所述的移动在3D空间(域)内,由此尽管媒体指导对象再定位在2D屏幕上,但是当通过立体光学装置观看时,媒体指导对象呈现为再定位并且移到在3D域内更靠近用户以及更远离用户的位置。
应该明白,图7A、图7B、图9A和图9B中所示的圆圈的尺寸表示3D空间内可选媒体指导对象的不同位置。例如,圆圈的尺寸表示当通过立体光学装置进行观看时可选媒体指导对象呈现为离用户多远/多近。具体地讲,圆圈的尺寸越大,可选媒体指导对象呈现为越靠近用户,圆圈的尺寸越小,可选媒体指导对象呈现为离用户越远。更具体地讲,当通过立体光学装置观看时,与绘制为尺寸较小的可选媒体指导对象760相比,可选媒体指导对象752呈现为更靠近用户。
图10是根据本发明的一个实施例的用于导航3D媒体指导应用的说明性流程图1000。在步骤1002,检测用户移动。例如,处理电路306可以检测用户以环形运动或左右运动摇摆他的手臂。
在步骤1004,确定是否移动指示显示另外可选媒体指导对象的命令。例如,用户可以指向或高亮表示“更多选项”的显示屏幕的一部分。处理电路306还可以检测指示期望更多选项的某些预定运动(例如,用户的手臂的快速横向挥动)。如果在步骤1004确定移动确实指示显示另外可选媒体指导对象的命令,则处理进入步骤1006。
在步骤1006,显示另外可选媒体指导对象。可进行显示的另外可选媒体指导对象可以呈现在与已经显示的可选媒体指导对象不同的平面内。例如,可以显示每天某时间的更多节目列表。一些节目列表可以呈现在显示屏幕之前,而另外节目列表可以呈现在显示屏幕之后。或者,可以显示某风格的更多媒体资产。一些媒体资产可以呈现在显示屏幕之前,而另外媒体资产可以呈现在显示屏幕之后。
在一些实施例中,进行显示的另外可选媒体指导对象的媒体资产类型可以与已经进行显示的可选媒体指导对象的类型不同。在一个实施例中,“太阳”对象可以是电影风格,已经进行显示的“行星”对象可以是这种风格的电影标题。进行显示的另外可选媒体指导对象可以是含有与已经显示的“太阳”和“行星”对象有关或无关的广告的“行星”对象。
在一些实施例中,可以在可选媒体指导对象之间绘制色彩编码线以指示这些对象之间的关系。例如,显示的“太阳”对象可以表示电视剧,第一组显示的“行星”对象可以表示电视剧的情节,第二组显示的“行星”对象可以表示电视剧的剧组成员。红线可以连接“太阳”对象与情节“行星”对象,蓝线可以连接“太阳”对象与剧组成员“行星”对象。此外,绿线可以连接剧组成员“行星”对象与表示剧组成员在其中出现的情节的其它“行星”对象。
如果在步骤1004确定移动没有指示显示另外可选媒体指导对象的命令,则处理进入步骤1008。在步骤1008,确定是否移动指示可选媒体指导对象的选择。例如,用户可以冲击空气或者刺戳屏幕以指示选择。如果在步骤1008确定移动确实指示可选媒体指导对象的选择,则处理进入步骤1010。
在步骤1010,选择最靠近视觉指示器的位置的可选媒体指导对象。例如,视觉指示器914可以可选媒体指导对象904为中心,并且可选媒体指导对象904将被选择(图9A)。或者,视觉指示器可以不触摸任何可选媒体指导对象,但可以更靠近一个可选媒体指导对象(与任何其它对象相比),则最靠近的对象将被选择。在一些实施例中,用户可以简单指向期望可选媒体指导对象以选择它,而没有移动视觉指示器或者任何显示的可选媒体指导对象。
如果在步骤1008确定移动没有指示可选媒体指导对象的选择,则处理进入步骤1012。在步骤1012,视觉指示器在用户移动的方向上移动。例如,如果用户向左摆动他的手臂,则视觉指示器可以朝屏幕的左侧进行移动。如果用户向下挥动他的手臂,则视觉指示器可以朝屏幕的底部进行移动。
在一些实施例中,可选媒体指导对象的选择可以产生关于要进行显示的可选媒体指导对象的更多信息。例如,表示电视节目的可选媒体指导对象的选择可以导致显示关于节目是关于什么的、哪些演员出现在节目内或者节目在何时以及在哪些频道上开始的信息。在其它实施例中,如果特定可选媒体指导对象表示电视节目,则那个特定对象的选择将使得用户电视设备调谐到呈现的节目或访问呈现的节目(例如,从服务器下载与节目对应的点播媒体资产或者从互联网流式传输媒体资产)。
图11是根据本发明的实施例的用于导航3D媒体指导应用的另一个说明性流程图1100。在步骤1102,为输入装置的定向分配基准点。例如,如果输入装置当前指向上方,则基准点可以位于显示屏幕的顶沿的中心。如果输入装置当前指向显示屏幕,则基准点可以位于显示屏幕的中心。如果输入装置当前指向下方,则基准点可以位于显示屏幕的底沿的中心。显示屏幕上的任何合适点可以被分配作为用于输入装置的当前定向的基准点。
在步骤1104,确定与基准点对应的显示屏幕上的视觉指示器的位置。例如,如果基准点位于显示屏幕的顶沿的中心,则视觉指示器可进行定位以使得视觉指示器的顶沿位于基准点。如果基准点位于显示屏幕的中心,则视觉指示器可以以基准点为中心。如果基准点位于显示屏幕的底沿的中心,则视觉指示器可以进行定位以使得视觉指示器的底沿被定位为稍微高于基准点。可以确定视觉指示器的位置与基准点之间的任何合适关系。
在步骤1106,确定检测的移动是否导致输入装置的定向发生变化。当确定检测的移动没有导致输入装置的定向发生变化时,处理再次在步骤1102开始。例如,系统可能不会响应整个输入装置的纯粹横向平移。如果输入装置位于桌子上并且指向天花板,并且输入装置在整个桌子上移动但保持指向天花板,则在步骤1106可以确定输入装置的定向没有改变。
当确定检测的移动已经导致输入装置的定向发生变化,则处理进入步骤1108。在步骤1108,基于定向的变化确定相对于基准点的移动的方向。例如,输入装置可以朝上相对于基准点倾斜。或者,输入装置可以从基准点的一边到另一边横向旋转。输入装置的定向的变化可以出现于相对于基准点的任何方向上。
在步骤1110,视觉指示器在确定的移动方向上移至显示屏幕上的新位置。例如,如果输入装置向上倾斜,则视觉指示器可以朝显示屏幕的顶沿移动。如果输入装置曾经指向基准点的左侧但现在指向基准点的右侧,则视觉指示器可以朝显示屏幕的右沿进行移动。
应该明白,可以基于不限于在附图中所示和所述的顺序和次序的任何顺序或次序实现或执行图10到图11的流程图的以上步骤。另外,可以基本同时(在适当时)或者并行执行或实现图10到图11的流程图的一些以上步骤以减少等待时间和处理时间。
如前所述,通过产生由用户的右眼观看的第一图像和由用户的左眼观看的第二图像并且重叠这两个图像以生成立体图像可以实现立体效果。在下文中参照图12A到图12C和图13讨论这两个图像的设计。
图12A示出了根据本发明的实施例的由用户的右眼观看的说明性图像1200。图像1200包括以点1202为中心的可选媒体对象1206。点1202位于离开图像1200的左沿的距离d处。
图12B示出了根据本发明的实施例的由用户的左眼观看的说明性图像1220。图像1220包括以点1222为中心的可选媒体对象1230。可选媒体对象1230是图12A中的可选媒体对象1206(在图12B中再现为以点1224为中心的虚线的可选媒体对象1228)的距离a的平移。点1222位于离开图像1220的左沿1226的距离d+a处。
图12C示出了根据本发明的实施例的通过重叠图12A到图12B中的图像形成的立体图像1240的说明性侧视图,假设立体图像是真实三维的。图12A的可选媒体对象1206与图12B的可选媒体对象1230的重叠生成可选媒体对象1242。可选媒体对象1242被感知为处于距离通过立体装置(上述)观看立体图像1240的用户1244的直观距离P处。在下文中参照图13更加详细解释距离a和P之间的关系。
图13示出了根据本发明的实施例的生成立体图像的相似三角形的使用。在图13的底部在点1308与1310之间的距离e表示“有效眼睛间隔”,它被定义为用户的眼睛的瞳距与用户设备装置之间的差。距离D是从由线1306表示的用户的眼睛到由线1300表示的显示屏幕的距离。距离a是分别由点1302和1304表示的右眼的图像中的图像特征与左眼的图像中的图像特征之间的距离。大距离a将使得对象显现为非常靠近用户。3D电影和3D游戏可以对使得用户大吃一惊的特征(例如,石头、箭、剑以及其它惊人的物品)应用大距离a。沿平面1314由点1312表示的立体图像中的媒体对象被感知为呈现于离开用户的距离P处。可以在点1302与点1310之间绘制线1316以及在点1304与点1308之间绘制另一条线1318,从而形成两个相似三角形。由点1308、1310和1312为顶点形成一个三角形。由点1304、1302和1312为顶点形成第二个三角形。这些相似三角形具有如下关系:
a/(D-P)=e/P。
为了获得a与P之间的更加清楚关系,以上方程能够以下面形式进行重写:
a=e*(D-P)/P或者P=e*D/(a+e)。
使用以上设计方程,可以针对任何期望直观距离P计算平移距离a,可以针对任何平移距离a计算直观距离P。以上分析假定所有值是正的。在一些实施方式中,可以使用具有正值和负值的坐标系统,从而能够在向左平移与向右平移之间以及在媒体对象呈现于屏幕之前与之后之间进行区分。
图14示出了根据本发明的实施例的用于生成立体图像的坐标系统1400。对于显示屏幕1402,由于正x轴1404指向右侧,所以向右平移为正而向左平移为负。由于正z轴1408在显示屏幕1402之后的方向上,所以呈现于显示屏幕1402之后的图像特征可以具有正z值而呈现于显示屏幕1402之前的图像特征可以具有负z值。正y轴1406指向下方。由于图形存储器可以被布置为左上像素位于存储器内的最低点,所以可以出现这个相反方向。也就是说,坐标系统的原点可以定位在屏幕的左上像素处。颠倒y轴由此使得y值随存储器寻址一致增大;y值越大,存储器地址越大。
使用上述的坐标系统,图13中的点1312可以被定义为处于离开线1300的距离-z处。相似三角形关系由此可以被重写为:
a/z=e/(D+z)。
设计方程能够被重写为a=(z*e)/(D+z)和z=(D*a)/(e-a)。
这些设计方程可以基于眼睛间距而不同并且由此e可以在用户之间变动。高z结果可以总是随向右平移而更远离用户,而低z结果可以总是随向左平移更靠近用户。
上述的坐标系统中的x和y方向上的长度维度可以被转换成像素位置。由于图形缓冲器中的水平像素和垂直像素的数目可以随系统而不同,所以可以使用如下用于将x和y坐标定标成像素的通用方程:
以像素表示的x=(以英寸表示的从左到右的部分x距离/以英寸为单位的跨屏幕的总距离)*(整个屏幕上的像素的总数目)
以像素表示的y=(以英寸表示的从顶到底的部分y距离/以英寸为单位的跨屏幕的总距离)*(整个屏幕上的像素的总数目)。
一旦转换成像素,在回放期间在任何给定用户设备装置上的任何给定对象的以英寸表示的尺寸可以根据用户设备装置的显示屏幕的尺寸进行变化。具体地讲,显示屏幕越大,对象的可测量图像可以越大。通过使用以上方程,测量可以保持彼此成比例正确而不管它们的尺寸如何进行转换、放大或缩小。
如以上参照图7A和图7B所述,可以在行星系统之后模拟立体媒体指导应用显示。使用来自3D图形的某特定公式,立体媒体指导应用显示的“太阳”和“行星”对象可以相对于形成对象的像素的x、y和z坐标定位在任何地方以及任何角度。
在一些实施例中,“行星”对象可以动画式设计成从“太阳”对象之后移出,然后围绕它。使用上述的坐标系统,可以计算向用户的每个眼睛呈现的图像中的媒体对象的位置。此外,第一和第二图像中的媒体对象的位置可以进行更新以使得媒体对象被感知为在立体图像内进行移动。
在一些实施例中,通过考虑“太阳”对象的中心成为坐标系统的原点(0,0,0)可以简化计算。由于显示屏幕的左上角可以位于像素空间的原点(0,0,0),所以像素空间中的计算可以被转化成视“太阳”对象的中心为原点。处理电路306可以根据3D计算机图形使用下面的转化公式执行转化:
new_x=old_x+Tx;其中,Tx=常数;
new_y=old_y+Ty;其中,Ty=常数;
new_z=old_z+Tz;其中,Tz=常数。
在一些实施例中,处理电路306可以根据3D计算机图形使用定标公式以在不同尺寸的显示屏幕之间转化坐标。
new_x=scaling_factor*old_x;
new_y=scaling_factor*old_y;
new_z=scaling_factor*old_z。
在一些实施例中,用户设备装置(例如,机顶盒)可以具有足够的处理能力从而以动画所需的速率计算3D计算机模型所需的所有点。在一些实施方式中,用户设备装置可以使用四个帧缓冲器,其中,每个帧缓冲器包括足够大以容纳像素的全屏显示的存储器。在一些实施方式中,这四个缓冲器中的两个可用于当前由用户设备装置在显示屏幕上呈现的两个图像,其它两个缓冲器可用于准备动画中的下一对图像。
用于产生立体图像的以上和以下方法可用于转换任何2D媒体指导应用以在3D空间内进行显示。此外,一旦媒体指导应用在3D空间内进行显示,3D导航技术(例如,使用带有加速度计和/或陀螺仪的输入装置)可用于执行选择并且关于媒体指导应用进行导航。可从2D转换成3D的媒体指导应用的一个特定例子可以是具有菜单选项和条目被布置在不同透视图内的折叠指南设计的折叠媒体指导应用。
例如,菜单选项的列表可以在第一透视图内进行显示,与选择的菜单选项之一对应的条目可以与菜单选项相邻在与第一透视图不同的第二透视图内进行显示。在于2009年9月30日提交的美国专利申请No.12/571069、12/571035和12/571186(律师案卷号:No.UV-486A、No.UV-486B和No.UV-486C)中更加详细描述具有多个透视图的折叠指南或(一个或多个)媒体指导应用,上述这些美国专利申请的全部内容以引用方式并入本文。
图16示出了根据本发明的实施例的在不同透视图中进行显示的媒体指导对象的说明性显示屏幕1600。具体地讲,屏幕1600可以包括第一媒体指导对象1602、第二媒体指导对象1604、第三媒体指导对象1606、第四媒体指导对象1608、第一透视图1610、第二透视图1612和第三透视图1614。尽管在屏幕1600中显示了四个媒体指导对象,但是在任何不同透视图的任何一个内可以显示任何数目的媒体指导对象。另外,尽管在屏幕1600中显示了三个不同透视图,但是可以提供任何数目的透视图。
第一媒体指导对象1602可以在第一透视图1610中进行显示。第一媒体指导对象1602例如可以是用户概况表达、媒体资产表达、节目指南列表、或者上下文讨论的任何其它媒体指导对象或者它们的组合。第一媒体指导对象1602可以被显示为线1616在第一消失点1618处会聚。从在第一透视图1610中进行显示的媒体指导对象发出的所有线可以在第一消失点1618处会聚。第一媒体指导对象1602看起来从屏幕1600出来。
第二媒体指导对象1604可以在第二透视图1612中进行显示。第二透视图1612可与第一透视图1610不同。第二媒体指导对象1604例如可以是用户概况表达、媒体资产表达、节目指南列表、或者上下文讨论的任何其它媒体指导对象或者它们的组合。第二媒体指导对象1604可以是与第一媒体指导对象1602相同的类型或者不同类型。
第二媒体指导对象1604可被显示为线1620平行并且可以绝不会在消失点会聚。从在第二透视图1612中进行显示的媒体指导对象发出的所有线可以是平行的并且绝不会在消失点会聚。第二媒体指导对象1604看起来在屏幕1600上是平的。
第三和第四媒体指导对象1606和1608可以在第三透视图1614中进行显示。第三和第四媒体指导对象1606和1608例如可以是用户概况表达、媒体资产表达、节目指南列表、或者上下文讨论的任何其它媒体指导对象或者它们的组合。第三和第四媒体指导对象1606和1608可以是与第一和/或第二媒体指导对象1602和1604相同的类型或者不同类型。在一些实施方式中,第三和第四媒体指导对象1606和1608可以是与第二媒体指导对象1604相同的类型(例如,节目列表)而与第一媒体指导对象1602不同的类型。
第三和第四媒体指导对象1606和1608可以被显示为线1622在第二消失点1624处会聚,该第二消失点1624的位置与第一消失点1618不同。从在第三透视图1614中显示的媒体指导对象发出的所有线可以在第二消失点1624处会聚。第三和第四媒体指导对象1606和1608看起来进入屏幕1600。
尽管在不同透视图中显示了媒体指导对象,但是应该明白,用户可以通过视觉清楚区分这些媒体指导对象。然而,非常远显示进入特定透视图的一些媒体指导对象可以变得失真并且难于视觉区分。例如,媒体指导对象可以是图像或视频从而用户可以确定和清楚看见在任何透视图内显示的大部分的图像或视频。具体地讲,在看起来进入或走出屏幕的透视图内显示的图像或视频基本与当在看起来在屏幕上是平的透视图内显示图像或视频时一样清楚。
在第一透视图1610中进行显示的媒体指导对象可以与在第二透视图1612内显示的媒体指导对象相邻或相接。例如,第一媒体指导对象1602可显示为与第二媒体指导对象1604相邻,从而第一媒体指导对象1602和第二媒体指导对象1604在第二媒体指导对象1604的第一边1626处连接。
在第三透视图1614内显示的媒体指导对象可以与在第二透视图1612内显示的媒体指导对象相邻或相接。在一些实施方式中,在第三透视图1614内显示的媒体指导对象可以与在第二透视图1612内显示的媒体指导对象的、与在第二透视图1612内显示的媒体指导对象的一边相对的一边相邻,在第二透视图1612内显示的媒体指导对象的一边与在第一透视图1610中显示的媒体指导对象相邻。例如,第三媒体指导对象1606可以显示为与第二媒体指导对象1604相邻,从而第三媒体指导对象1606和第二媒体指导对象1604在与第一边1626相对的第二媒体指导对象1604的第二边1628处连接。
在一个透视图内显示的媒体指导对象与在另一个透视图内显示的媒体指导对象之间的邻接点本文中称作“折线”或“折叠点”。应该明白,媒体指导对象可以没有立即相邻以使得它们接触,并且在这些情况下,邻接点是指在该点处一个透视图变成另一个透视图。例如,屏幕1600中的媒体指导对象在不同透视图内进行显示以形成两个折叠点。在各种实施例中可以是一个、两个或任何其它合适数目的折叠点。折叠点形成了在两个显示的媒体指导对象之间出现的屏幕内的折痕的样子。
在一些实施例中,替代在受到2D空间限制的不同透视图内显示各种选项和条目,折叠指南可以转化到3D空间。更具体地讲,在第一透视图内显示的折叠指南中的选项可以被生成为在第一平面内进行显示,第一平面在第一位置处与平面的法线相交,并且与选择的选项之一对应的条目可以生成为在第二平面内进行显示,第二平面在与第一位置不同的第二位置与屏幕的法线相交。
例如,在第一透视图1610内显示的第一媒体指导对象1602可以呈现于第一平面(例如,在图7A中可选媒体指导对象704呈现的平面)内。第一媒体指导对象1602的功能和行为可以与媒体指导对象704相同。在第二透视图1612内显示的第二媒体指导对象1604可以呈现于第二平面(例如,可选媒体指导对象702呈现的平面)内。第二媒体指导对象1604的功能和行为可与媒体指导对象702相同或类似。与第二平面相比第一平面可以呈现为更靠近观众。在一些实施例中,在第三透视图1614中显示的第三媒体指导对象1606可以呈现在第三平面(例如,可选媒体指导对象708呈现的平面)内,在第三透视图1614中显示的第四媒体指导对象1608可以呈现于第四平面(例如,可选媒体指导对象710呈现的平面)内。在另外实施例中,第三媒体指导对象1606和第四媒体指导对象1608可以呈现于相同平面(例如,第三平面)内。在一些实施方式中,第三和第四媒体指导对象1606和1608的功能和行为可与媒体指导对象708相同或相似。
在一些实施例中,第一和第二平面可以呈现于屏幕之前,而第三和第四平面可以呈现于屏幕之后。在其它实施例中,这些平面可以全部呈现于屏幕之前,但是与第一和第二平面相比第三和第四平面可以呈现为更加远离用户。在不脱离本发明的范围的情况下,可以选择第一、第二、第三和第四平面的3D空间内的位置的任何其它期望结构。在一些实施例中,不同平面可以在上述的折叠点相交。
图15是根据本发明的实施例的用于设计3D媒体指导显示的图形的说明性流程图1500。在步骤1502,确定对象距离用户的期望感知距离。例如,处理电路306可以确定可选媒体指导对象754呈现为距离用户的面部几英寸。或者,处理电路306可以确定可选媒体指导对象762呈现为远离用户并且在显示屏幕之后。
在步骤1504,计算第一点与第二点之间的恰当距离。如以上参照图12A所述,第一点可以是要由用户的右眼观看的图像中的可选媒体对象1206的中心。如以上参照图12B所述,第二点可以是要由用户的左眼观看的图像中的相同可选媒体对象1222的中心。第一点与第二点之间的恰当距离可以与对象与用户的期望感知距离有关。处理电路306可以使用以上参照图13讨论的任何公式计算这个恰当距离。
在步骤1506,产生要由用户的右眼观看的第一图像,其中,对象以第一点为中心。例如,该对象可以是表示电视系列片即行星指南中的“太阳”对象的可选媒体指导对象752,如以上参照图7B进行讨论。或者,对象可以是表示剧组成员即“行星”对象的可选媒体指导对象754、756、758、760或762。处理电路306可以根据上述的相似三角形算法产生要由用户的右眼观看的可选媒体指导对象752的第一图像。
在步骤1508,产生要由用户的左眼观看的第二图像,其中,对象以第二点为中心。例如,该对象可以是表示电视系列片即行星指南中的“太阳”对象的可选媒体指导对象752,如以上参照图7B所述。或者,对象可以是表示剧组成员即“行星”对象的可选媒体指导对象754、756、758、760或762。处理电路306可以通过复制可选媒体指导对象752的第一图像并且将该对象定位在与在第一图像内可选媒体指导对象752的位置的左/右不同的不同位置处产生第二图像。
在步骤1510,重叠第一和第二图像。例如,处理电路306可以将第一和第二图像组合成一个图像以在屏幕上同时显示。由于用户的左眼观看第一图像而用户的右眼观看第二图像,所以当用户通过立体光学装置观看时重叠的图像呈现为三维。用户的大脑将由用户的各个眼睛观看的两个图像进行组合,并且根据可选媒体指导对象752的两个位置之间的距离将该图像解释为定位在显示器之前或之后。
应该明白,可以基于不限于在附图中所示和所述的顺序或序列的任何顺序或序列执行或进行图15的流程图的以上步骤。另外,基本上可以同时或并行执行或进行图15的流程图的一些以上步骤从而减少等待时间和处理时间。
上述的本发明的实施例为说明而非限制的目的呈现,本发明仅仅由权利要求进行限定。

Claims (10)

1.一种向用户呈现立体媒体指导应用的方法,其中,通过用户佩戴的立体光学装置观看媒体指导应用,所述方法包括:
使用具有显示屏幕的用户设备装置,产生第一可选媒体指导对象以便显示,第一可选媒体指导对象标识第一视频并且当通过立体光学装置被观看时呈现于第一平面内;
使用用户设备装置,产生第二可选媒体指导对象以便显示,其中,第二可选媒体指导对象:
标识第二视频,
包括通过第一可选媒体指导对象标识的主题的子集,并且
当通过立体光学装置被观看时呈现于第二平面内,其中,第二平面被感知为与第一平面在不同的位置与垂直于显示屏幕的轴相交,以及其中,第二可选媒体指导对象与第一可选媒体指导对象的感知距离对应于第一可选媒体指导对象和第二可选媒体指导对象之间的相关程度;以及
接收对第一可选媒体指导对象和第二可选媒体指导对象中的至少一个的用户选择。
2.根据权利要求1的方法,还包括:
确定用户的移动的方向;
确定显示的视觉指示符的位置;以及
基于用户的移动的方向,将显示的视觉指示符移动到新的位置,其中所述新的位置对应于第一可选媒体指导对象和第二可选媒体指导对象中的至少一个的位置。
3.根据权利要求1的方法,其中,用户选择使得第二可选媒体指导对象被感知为绕第一可选媒体指导对象旋转。
4.一种向用户呈现立体媒体指导应用的系统,其中,通过用户佩戴的立体光学装置观看媒体指导应用,所述系统包括:
在显示屏幕上产生第一可选媒体指导对象以便显示的装置,第一可选媒体指导对象标识第一视频并且当通过立体光学装置被观看时呈现于第一平面内,其中,第一平面被感知为在第一位置与垂直于显示屏幕的轴相交;
在显示屏幕上产生第二可选媒体指导对象以便显示的装置,其中,第二可选媒体指导对象:
标识第二视频,
包括通过第一可选媒体指导对象标识的主题的子集,并且
当通过立体光学装置被观看时呈现于第二平面内,其中,
第二平面被感知为在与第一位置不同的第二位置与所述轴相交,以及其中,第二可选媒体指导对象与第一可选媒体指导对象的感知距离对应于第一可选媒体指导对象和第二可选媒体指导对象之间的相关程度;以及
接收对第一可选媒体指导对象和第二可选媒体指导对象的至少一个的用户选择的装置。
5.根据权利要求4的系统,还包括:
确定用户的移动的方向的装置;
确定显示的视觉指示符的位置的装置;以及
基于用户的移动的方向将显示的视觉指示符移动到新的位置的装置,其中所述新的位置对应于第一可选媒体指导对象和第二可选媒体指导对象中的至少一个的位置。
6.根据权利要求4的系统,其中,用户选择使得第二可选媒体指导对象被感知为绕第一可选媒体指导对象旋转。
7.一种设计在具有第一点的屏幕上显示的可选立体媒体对象的图形的方法,所述方法包括:
产生第一图像的显示,第一图像包括要由用户的右眼观看的以第一点为中心的第一可选媒体对象;
产生第二图像的显示,第二图像包括要由用户的左眼观看的以屏幕的第二点为中心的第一可选媒体对象的副本,屏幕的第二点与第一点不同;以及
产生第一图像和第二图像的重叠图像的显示以生成立体图像,立体图像包括可选立体媒体对象,其中,可选立体媒体对象包括第一可选媒体对象和第一可选媒体对象的副本,并且当用户通过立体光学装置观看立体图像时,可选立体媒体对象以距离用户的第一感知距离呈现于立体图像内;
响应于接收到对可选立体媒体对象的用户选择而修改第一点和第二点之间的距离,其中,屏幕上第一点和第二点之间的距离对应于第一感知距离。
8.根据权利要求7的方法,其中,第一图像对应于视频,并且其中,所述立体媒体对象对应于所述视频,所述方法还包括:
接收对所述立体媒体对象的不同用户选择;以及
基于接收到对所述立体媒体对象的不同用户选择,访问与所述立体媒体对象对应的所述视频。
9.一种用于设计可选立体媒体对象的图形的系统,所述系统包括:
产生第一图像的显示的装置,第一图像包括要由用户的右眼观看的以第一点为中心的第一可选媒体对象;
产生第二图像的显示的装置,第二图像包括要由用户的左眼观看的以显示屏幕的第二点为中心的第一可选媒体对象的副本,显示屏幕的第二点与第一点不同;以及
产生第一图像和第二图像的重叠图像的显示以生成立体图像的装置,立体图像包括可选立体媒体对象,其中,可选立体媒体对象包括第一可选媒体对象和第一可选媒体对象的副本,并且当用户通过立体光学装置观看立体图像时,可选立体媒体对象以距离用户的第一感知距离呈现于立体图像内;
响应于接收到对可选立体媒体对象的用户选择而修改第一点和第二点之间的距离的装置,其中,显示屏幕上第一点和第二点之间的距离对应于第一感知距离。
10.根据权利要求9的系统,其中,第一图像对应于视频,并且其中,所述立体媒体对象对应于所述视频,所述系统还包括控制电路,所述控制电路被配置为:
接收对所述立体媒体对象的不同用户选择;以及
基于接收到对所述立体媒体对象的不同用户选择,访问与所述立体媒体对象对应的所述视频。
CN201080043710.2A 2009-09-30 2010-09-24 导航三维媒体指导应用的系统和方法 Active CN102763061B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US12/571,283 2009-09-30
US12/571,283 US8291322B2 (en) 2009-09-30 2009-09-30 Systems and methods for navigating a three-dimensional media guidance application
US12/571,287 2009-09-30
US12/571,287 US8970669B2 (en) 2009-09-30 2009-09-30 Systems and methods for generating a three-dimensional media guidance application
PCT/US2010/050120 WO2011041219A1 (en) 2009-09-30 2010-09-24 Systems and methods for navigating a three-dimensional media guidance application

Publications (2)

Publication Number Publication Date
CN102763061A CN102763061A (zh) 2012-10-31
CN102763061B true CN102763061B (zh) 2017-03-22

Family

ID=43357143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201080043710.2A Active CN102763061B (zh) 2009-09-30 2010-09-24 导航三维媒体指导应用的系统和方法

Country Status (11)

Country Link
US (3) US8970669B2 (zh)
EP (2) EP3441851A1 (zh)
JP (5) JP5969388B2 (zh)
KR (4) KR102055807B1 (zh)
CN (1) CN102763061B (zh)
AR (1) AR078192A1 (zh)
AU (1) AU2010300904B2 (zh)
BR (1) BR112012007113A2 (zh)
CA (3) CA3202655A1 (zh)
MX (2) MX321633B (zh)
WO (1) WO2011041219A1 (zh)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US8970669B2 (en) 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
CN102550041A (zh) * 2009-10-30 2012-07-04 索尼计算机娱乐公司 信息处理装置、调谐器及信息处理方法
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
US20110137727A1 (en) * 2009-12-07 2011-06-09 Rovi Technologies Corporation Systems and methods for determining proximity of media objects in a 3d media environment
US8640052B2 (en) * 2009-12-31 2014-01-28 Verizon Patent And Licensing Inc. User interface enhancements for media content access systems and methods
KR101737832B1 (ko) * 2010-02-05 2017-05-29 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
KR101647044B1 (ko) * 2010-02-11 2016-08-09 삼성전자 주식회사 휴대 단말기의 화면 표시 방법 및 장치
JP5268991B2 (ja) * 2010-05-18 2013-08-21 株式会社東芝 情報処理装置および映像コンテンツ再生方法
KR20110139497A (ko) * 2010-06-23 2011-12-29 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
EP2432218B1 (en) * 2010-09-20 2016-04-20 EchoStar Technologies L.L.C. Methods of displaying an electronic program guide
US20120151413A1 (en) * 2010-12-08 2012-06-14 Nokia Corporation Method and apparatus for providing a mechanism for presentation of relevant content
JP2012128662A (ja) * 2010-12-15 2012-07-05 Samsung Electronics Co Ltd 表示制御装置、プログラムおよび表示制御方法
KR101763263B1 (ko) * 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
EP2659345B1 (en) * 2010-12-30 2019-06-12 Telecom Italia S.p.A. 3d interactive menu
US8923686B2 (en) 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
US20130054319A1 (en) * 2011-08-29 2013-02-28 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application
FR2980283B1 (fr) * 2011-09-19 2014-07-04 Oberthur Technologies Procede de communication et systeme associe de type lunettes pour un utilisateur utilisant un poste de visualisation
CN102750599A (zh) * 2011-11-29 2012-10-24 新奥特(北京)视频技术有限公司 一种视音频文件技术审查的方法
CN102547425B (zh) * 2011-12-20 2014-10-01 深圳Tcl新技术有限公司 电视及其光标移动控制的方法、设备及系统
CN108469899B (zh) 2012-03-13 2021-08-10 视力移动技术有限公司 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
CN102662577B (zh) * 2012-03-29 2016-08-10 华为终端有限公司 一种基于三维显示的光标操作方法及移动终端
US11237695B2 (en) * 2012-10-12 2022-02-01 Sling Media L.L.C. EPG menu with a projected 3D image
US9164653B2 (en) 2013-03-15 2015-10-20 Inspace Technologies Limited Three-dimensional space for navigating objects connected in hierarchy
US10254855B2 (en) 2013-06-04 2019-04-09 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering device
CN103399629B (zh) * 2013-06-29 2017-09-19 华为技术有限公司 获取手势屏幕显示坐标的方法和装置
US9703396B2 (en) 2013-07-12 2017-07-11 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering reference plane, and methods of its manufacture
US10089786B2 (en) * 2013-08-19 2018-10-02 Qualcomm Incorporated Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking
USD748122S1 (en) * 2013-10-25 2016-01-26 Microsoft Corporation Display screen with transitional graphical user interface
USD748120S1 (en) * 2013-10-25 2016-01-26 Microsoft Corporation Display screen with animated graphical user interface
USD748121S1 (en) * 2013-10-25 2016-01-26 Microsoft Corporation Display screen with animated graphical user interface
USD747334S1 (en) * 2013-10-25 2016-01-12 Microsoft Corporation Display screen with graphical user interface
USD746847S1 (en) * 2013-10-25 2016-01-05 Microsoft Corporation Display screen with animated graphical user interface
USD749108S1 (en) * 2013-10-25 2016-02-09 Microsoft Corporation Display screen with animated graphical user interface
CN104661097A (zh) * 2013-11-22 2015-05-27 中兴通讯股份有限公司 网络电视页面显示的方法及网络终端
US10306125B2 (en) 2014-10-09 2019-05-28 Belkin International, Inc. Video camera with privacy
USD757047S1 (en) * 2014-07-11 2016-05-24 Google Inc. Display screen with animated graphical user interface
USD795916S1 (en) * 2014-08-19 2017-08-29 Google Inc. Display screen with animated graphical user interface
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
USD786920S1 (en) * 2014-09-09 2017-05-16 Ge Intelligent Platforms, Inc. Display screen with graphical alarm icon
USD769937S1 (en) * 2014-09-09 2016-10-25 Ge Intelligent Platforms, Inc. Display screen with graphical alarm icon
US9179105B1 (en) 2014-09-15 2015-11-03 Belkin International, Inc. Control of video camera with privacy feedback
USD780203S1 (en) * 2014-10-02 2017-02-28 Deere & Company Display screen with a graphical user interface
USD785650S1 (en) * 2014-11-03 2017-05-02 Electro Industries/Gauge Tech Display screen or portion thereof with graphical user interface
USD788788S1 (en) 2014-11-18 2017-06-06 Google Inc. Display screen with animated graphical user interface
USD760740S1 (en) * 2015-01-23 2016-07-05 Your Voice Usa Corp. Display screen with icon
USD774077S1 (en) * 2015-02-09 2016-12-13 Express Scripts, Inc. Display screen with graphical user interface
USD786283S1 (en) * 2015-02-20 2017-05-09 Google Inc. Portion of a display panel with a graphical user interface
US10147388B2 (en) * 2015-04-29 2018-12-04 Rovi Guides, Inc. Systems and methods for enhancing viewing experiences of users
US10003778B2 (en) 2015-04-29 2018-06-19 Rovi Guides, Inc. Systems and methods for augmenting a viewing environment of users
KR102450416B1 (ko) * 2015-11-04 2022-10-05 삼성전자주식회사 전자 장치, 웨어러블 장치 및 전자 장치에서 디스플레이되는 객체를 제어하는 방법
WO2017115504A1 (ja) * 2015-12-28 2017-07-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10095876B2 (en) * 2016-02-09 2018-10-09 Rovi Guides, Inc. Systems and methods for allowing a user to access blocked media
US10110968B2 (en) 2016-04-19 2018-10-23 Google Llc Methods, systems and media for interacting with content using a second screen device
JP6232632B1 (ja) * 2016-08-09 2017-11-22 パロニム株式会社 動画再生プログラム、動画再生装置、動画再生方法、動画配信システム及びメタデータ作成方法
CN108124167A (zh) * 2016-11-30 2018-06-05 阿里巴巴集团控股有限公司 一种播放处理方法、装置和设备
USD809530S1 (en) * 2016-12-20 2018-02-06 Smartorg, Inc. Display screen or portion thereof with an animated graphical user interface
USD810100S1 (en) * 2016-12-20 2018-02-13 Smartorg, Inc. Display screen or portion thereof with an animated graphical user interface
JP1604069S (zh) * 2017-05-29 2018-05-21
JP1604068S (zh) * 2017-05-29 2018-05-21
US10713141B2 (en) * 2017-07-26 2020-07-14 Ebay Inc. Capturing native application content rendering performance
US10335680B2 (en) * 2017-09-11 2019-07-02 Rovi Guides, Inc. Methods and systems for an interactive media guidance game
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
US10848832B2 (en) * 2018-09-11 2020-11-24 Opentv, Inc. Selection interface with synchronized suggestion elements
US11307730B2 (en) 2018-10-19 2022-04-19 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface configured for machine learning
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
US11644940B1 (en) 2019-01-31 2023-05-09 Splunk Inc. Data visualization in an extended reality environment
GB201902664D0 (en) * 2019-02-27 2019-04-10 Oxsight Ltd Head mountable imaging apparatus and system for assisting a user with reduced vision
US11216150B2 (en) 2019-06-28 2022-01-04 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface with vector field functionality
US11508131B1 (en) * 2019-11-08 2022-11-22 Tanzle, Inc. Generating composite stereoscopic images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998009445A1 (en) * 1996-08-30 1998-03-05 Space Corporation Method for producing a synthesized stereoscopic image

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04168489A (ja) 1990-10-31 1992-06-16 Matsushita Electric Ind Co Ltd 情報処理装置および3次元表示装置とそれらを用いた表示方法
JPH04191784A (ja) 1990-11-26 1992-07-10 Mita Ind Co Ltd 感光体ドラム清掃装置
US5602564A (en) * 1991-11-14 1997-02-11 Hitachi, Ltd. Graphic data processing system
US6239794B1 (en) 1994-08-31 2001-05-29 E Guide, Inc. Method and system for simultaneously displaying a television program and information about the program
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
JP4190590B2 (ja) 1994-09-20 2008-12-03 ソニー株式会社 仮想現実空間提供方法および仮想現実空間提供装置
JPH08249493A (ja) * 1995-03-09 1996-09-27 Sony Corp 立体映像装置
JPH08322066A (ja) * 1995-05-26 1996-12-03 Sanyo Electric Co Ltd 立体映像表示装置及び立体映像表示方法
US6388714B1 (en) 1995-10-02 2002-05-14 Starsight Telecast Inc Interactive computer system for providing television schedule information
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
AUPN732395A0 (en) 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
DE69706611T2 (de) 1996-06-27 2002-07-04 Toshiba Kawasaki Kk Stereoskopisches Display-System und -Verfahren
US6177931B1 (en) 1996-12-19 2001-01-23 Index Systems, Inc. Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US6501468B1 (en) * 1997-07-02 2002-12-31 Sega Enterprises, Ltd. Stereoscopic display device and recording media recorded program for image processing of the display device
US5883628A (en) * 1997-07-03 1999-03-16 International Business Machines Corporation Climability: property for objects in 3-D virtual environments
US6762794B1 (en) * 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
US6564378B1 (en) 1997-12-08 2003-05-13 United Video Properties, Inc. Program guide system with browsing display
JPH11313291A (ja) * 1998-04-28 1999-11-09 Toshiba Corp 番組案内表示装置及び方法
GB0027260D0 (en) * 2000-11-08 2000-12-27 Koninl Philips Electronics Nv An image control system
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2000196971A (ja) * 1998-12-25 2000-07-14 Matsushita Electric Ind Co Ltd 映像表示装置
US7096487B1 (en) * 1999-10-27 2006-08-22 Sedna Patent Services, Llc Apparatus and method for combining realtime and non-realtime encoded content
WO2001016683A1 (en) 1999-08-31 2001-03-08 Ububu, Inc. Using the placement of visual urls to communicate and assess their relationship to each other
EP1098498A1 (fr) 1999-11-04 2001-05-09 Koninklijke Philips Electronics N.V. Appareil comportant un écran pour des images stéréoscopiques
US6421067B1 (en) 2000-01-16 2002-07-16 Isurftv Electronic programming guide
JP2003529825A (ja) * 2000-02-14 2003-10-07 ジオフェニックス, インコーポレイテッド グラフィカルプログラミングのための方法およびシステム
US6662177B1 (en) * 2000-03-29 2003-12-09 Koninklijke Philips Electronics N.V. Search user interface providing mechanism for manipulation of explicit and implicit criteria
US7278153B1 (en) * 2000-04-12 2007-10-02 Seachange International Content propagation in interactive television
US6836274B1 (en) * 2000-05-08 2004-12-28 Eagle New Media Investments, Llc Three dimensional light electronic programming guide
JP2001331169A (ja) 2000-05-22 2001-11-30 Namco Ltd 立体視映像表示装置、及び情報記憶媒体
JP2002077866A (ja) 2000-08-25 2002-03-15 Matsushita Electric Ind Co Ltd 電子番組情報提供システム、電子番組情報利用システム、電子番組情報提供装置、媒体、および情報集合体
JP4772952B2 (ja) * 2000-08-28 2011-09-14 株式会社バンダイナムコゲームス 立体視画像生成装置及び情報記憶媒体
JP3945160B2 (ja) * 2000-12-25 2007-07-18 日本電気株式会社 情報提供サーバ、クライアント、情報提供システムの処理方法、及びプログラムを記録した記録媒体
JP4077321B2 (ja) * 2001-02-23 2008-04-16 富士通株式会社 表示制御装置
US6819344B2 (en) * 2001-03-12 2004-11-16 Microsoft Corporation Visualization of multi-dimensional data having an unbounded dimension
WO2002093352A1 (en) * 2001-05-11 2002-11-21 3Dna Corp. Method and system for generating a three-dimensional graphical user interface (3d gui) for computer systems and websites
JP2002374476A (ja) * 2001-06-18 2002-12-26 Alpine Electronics Inc 情報表示装置
US6795972B2 (en) * 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
US6745179B2 (en) * 2001-10-12 2004-06-01 Shipley Company, L.L.C. Method and system for facilitating viewer navigation through online information relating to chemical products
US20030084445A1 (en) * 2001-10-30 2003-05-01 Paul Pilat Method of enhancing awareness of a data cell in a grid
AUPS058602A0 (en) * 2002-02-15 2002-03-14 Canon Kabushiki Kaisha Representing a plurality of independent data items
JP2004173003A (ja) * 2002-11-20 2004-06-17 Toshiba Corp 放送受信装置とコード信号出力装置及びその制御方法
US7511710B2 (en) * 2002-11-25 2009-03-31 Microsoft Corporation Three-dimensional program guide
EP1426919A1 (en) * 2002-12-02 2004-06-09 Sony International (Europe) GmbH Method for operating a display device
US8549574B2 (en) * 2002-12-10 2013-10-01 Ol2, Inc. Method of combining linear content and interactive content compressed together as streaming interactive video
US7233316B2 (en) * 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
US7661075B2 (en) * 2003-05-21 2010-02-09 Nokia Corporation User interface display for set-top box device
US7685619B1 (en) * 2003-06-27 2010-03-23 Nvidia Corporation Apparatus and method for 3D electronic program guide navigation
JP4400143B2 (ja) 2003-08-20 2010-01-20 パナソニック株式会社 表示装置および表示方法
JP4307212B2 (ja) * 2003-10-17 2009-08-05 シャープ株式会社 表示データ編集装置、表示装置、表示データ編集方法、プログラム及び記録媒体
US20050209983A1 (en) * 2004-03-18 2005-09-22 Macpherson Deborah L Context driven topologies
JP2005311500A (ja) 2004-04-19 2005-11-04 Toyota Boshoku Corp 車両用音響装置
US8159526B2 (en) * 2004-09-17 2012-04-17 Seiko Epson Corporation Stereoscopic image display system
DE102005017313A1 (de) 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
US20100154065A1 (en) * 2005-07-01 2010-06-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for user-activated content alteration
JP4982065B2 (ja) * 2005-09-26 2012-07-25 株式会社東芝 映像コンテンツ表示システム、映像コンテンツ表示方法及びそのプログラム
KR100679039B1 (ko) * 2005-10-21 2007-02-05 삼성전자주식회사 3차원 그래픽 유저 인터페이스, 이를 제공하는 장치 및방법
US20070146360A1 (en) * 2005-12-18 2007-06-28 Powerproduction Software System And Method For Generating 3D Scenes
WO2007086234A1 (ja) 2006-01-27 2007-08-02 Pioneer Corporation 優先順位付番組情報配信システム、優先順位付番組情報配信方法、放送受信装置および優先順位付番組情報配信装置
JP4650635B2 (ja) * 2006-02-13 2011-03-16 株式会社ソニー・コンピュータエンタテインメント コンテンツ及び/又はサービスの案内装置並びに案内方法、及びプログラム
US8743109B2 (en) * 2006-08-31 2014-06-03 Kent State University System and methods for multi-dimensional rendering and display of full volumetric data sets
KR100716142B1 (ko) * 2006-09-04 2007-05-11 주식회사 이시티 스테레오스코픽 영상 데이터의 전송 방법
US20080111822A1 (en) * 2006-09-22 2008-05-15 Yahoo, Inc.! Method and system for presenting video
US7469035B2 (en) * 2006-12-11 2008-12-23 The Board Of Trustees Of The Leland Stanford Junior University Method to track three-dimensional target motion with a dynamical multi-leaf collimator
US8898701B2 (en) 2006-12-29 2014-11-25 Verizon Patent And Licensing Inc. Method and system for providing attribute browsing of video assets
CN101542587B (zh) 2007-05-08 2012-09-05 松下电器产业株式会社 显示装置以及图像显示方法
US8108459B1 (en) * 2007-05-30 2012-01-31 Rocketon, Inc. Method and apparatus for distributing virtual goods over the internet
US8924250B2 (en) * 2007-09-13 2014-12-30 International Business Machines Corporation Advertising in virtual environments based on crowd statistics
JP2009111486A (ja) 2007-10-26 2009-05-21 Sony Corp 表示制御装置および表示方法、プログラム、並びに記録媒体
KR101379337B1 (ko) * 2007-12-04 2014-03-31 삼성전자주식회사 삼차원적 pip 영상을 제공하는 영상기기 및 이를 적용한영상표시방법
US8555311B2 (en) 2007-12-19 2013-10-08 United Video Properties, Inc. Methods and devices for presenting guide listings and guidance data in three dimensions in an interactive media guidance application
US20090161963A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
DE102009010830A1 (de) 2008-04-28 2009-10-29 Volkswagen Ag Verfahren zum Anzeigen einer hierarchischen Struktur in einem Fahrzeug
US8494250B2 (en) * 2008-06-06 2013-07-23 Siemens Medical Solutions Usa, Inc. Animation for conveying spatial relationships in three-dimensional medical imaging
US8127236B2 (en) * 2008-09-12 2012-02-28 International Business Machines Corporation Virtual universe subject matter expert assistance
US20100083316A1 (en) * 2008-09-29 2010-04-01 Kabushiki Kaisha Toshiba Electronic Apparatus and Electronic Program Guide Display Method
KR20100050103A (ko) 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
KR101364027B1 (ko) * 2008-12-18 2014-02-18 엘지전자 주식회사 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
US8339441B2 (en) * 2008-12-26 2012-12-25 Kabushiki Kaisha Toshiba Frame processing device, television receiving apparatus and frame processing method
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
WO2010113454A1 (ja) * 2009-03-31 2010-10-07 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US8555315B2 (en) * 2009-04-10 2013-10-08 United Video Properties, Inc. Systems and methods for navigating a media guidance application with multiple perspective views
JP4609805B2 (ja) * 2009-05-28 2011-01-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
WO2010140866A2 (ko) * 2009-06-05 2010-12-09 엘지전자 주식회사 영상표시장치 및 그 동작방법
US20110012896A1 (en) * 2009-06-22 2011-01-20 Ji Maengsob Image display apparatus, 3d glasses, and method for operating the image display apparatus
TW201119353A (en) * 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
EP2268045A1 (en) * 2009-06-26 2010-12-29 Lg Electronics Inc. Image display apparatus and method for operating the same
JP2011029849A (ja) * 2009-07-23 2011-02-10 Sony Corp 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造
JP5604827B2 (ja) * 2009-08-21 2014-10-15 ソニー株式会社 送信装置、受信装置、プログラム、及び通信システム
US8970669B2 (en) 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
JP5433862B2 (ja) * 2009-09-30 2014-03-05 日立マクセル株式会社 受信装置及び表示制御方法
US20110099488A1 (en) 2009-10-26 2011-04-28 Verizon Patent And Licensing Inc. Method and apparatus for presenting video assets
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
US20110137727A1 (en) * 2009-12-07 2011-06-09 Rovi Technologies Corporation Systems and methods for determining proximity of media objects in a 3d media environment
US20110279453A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a location-based user interface
US20130054319A1 (en) * 2011-08-29 2013-02-28 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998009445A1 (en) * 1996-08-30 1998-03-05 Space Corporation Method for producing a synthesized stereoscopic image

Also Published As

Publication number Publication date
US8970669B2 (en) 2015-03-03
WO2011041219A1 (en) 2011-04-07
JP5969388B2 (ja) 2016-08-17
KR101939316B1 (ko) 2019-01-17
CA3109075A1 (en) 2011-04-07
AU2010300904B2 (en) 2014-08-21
KR102225482B1 (ko) 2021-03-08
MX321633B (es) 2014-07-03
KR101872018B1 (ko) 2018-06-27
CA2773348A1 (en) 2011-04-07
KR20180072878A (ko) 2018-06-29
CA2773348C (en) 2021-03-30
KR20190139330A (ko) 2019-12-17
US20150187122A1 (en) 2015-07-02
JP2020188479A (ja) 2020-11-19
JP2015173511A (ja) 2015-10-01
JP6737841B2 (ja) 2020-08-12
KR102055807B1 (ko) 2019-12-13
MX341581B (es) 2016-08-25
MX2012003919A (es) 2012-08-23
WO2011041219A8 (en) 2011-05-12
AR078192A1 (es) 2011-10-19
US9922448B2 (en) 2018-03-20
US8291322B2 (en) 2012-10-16
US20110078634A1 (en) 2011-03-31
CA3109075C (en) 2023-08-01
JP2013507052A (ja) 2013-02-28
EP3441851A1 (en) 2019-02-13
CN102763061A (zh) 2012-10-31
JP2022189848A (ja) 2022-12-22
AU2010300904A1 (en) 2012-03-29
EP2483766A1 (en) 2012-08-08
US20110074918A1 (en) 2011-03-31
CA3202655A1 (en) 2011-04-07
BR112012007113A2 (pt) 2016-07-05
KR20190007098A (ko) 2019-01-21
KR20120105432A (ko) 2012-09-25
JP2018152915A (ja) 2018-09-27

Similar Documents

Publication Publication Date Title
CN102763061B (zh) 导航三维媒体指导应用的系统和方法
CN101341457B (zh) 利用3d定位增强电视应用的方法和系统
JP4229997B2 (ja) 一部又は人物連動型の複数連携型表示システム
EP2510704A1 (en) Systems and methods for determining proximity of media objects in a 3d media environment
CN100454220C (zh) 用于组织、选择和启动媒体项的控制架构
KR20140038799A (ko) 영상표시장치, 서버 및 그 동작방법
AU2013203157A1 (en) Systems and Methods for Navigating a Three-Dimensional Media Guidance Application
KR102205160B1 (ko) 영상제공장치의 동작 방법
KR20140125189A (ko) 영상표시장치 및 그 동작방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: LEWEI GUIDE COMPANY

Free format text: FORMER OWNER: TV GUIDE INC.

Effective date: 20150629

Owner name: TV GUIDE INC.

Free format text: FORMER OWNER: UV CORP.

Effective date: 20150629

Owner name: UV CORP.

Free format text: FORMER OWNER: PREVUE INTERNATIONAL INC.

Effective date: 20150629

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150629

Address after: American California

Applicant after: ROVI GUIDES, Inc.

Address before: American California

Applicant before: TV guide Co.

Effective date of registration: 20150629

Address after: American California

Applicant after: TV guide Co.

Address before: American California

Applicant before: UV company

Effective date of registration: 20150629

Address after: American California

Applicant after: UV company

Address before: American California

Applicant before: UNITED VIDEO PROPERTIES, Inc.

C14 Grant of patent or utility model
GR01 Patent grant