JP2018152915A - 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法 - Google Patents

3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法 Download PDF

Info

Publication number
JP2018152915A
JP2018152915A JP2018125918A JP2018125918A JP2018152915A JP 2018152915 A JP2018152915 A JP 2018152915A JP 2018125918 A JP2018125918 A JP 2018125918A JP 2018125918 A JP2018125918 A JP 2018125918A JP 2018152915 A JP2018152915 A JP 2018152915A
Authority
JP
Japan
Prior art keywords
user
image
selectable media
media guidance
media object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018125918A
Other languages
English (en)
Other versions
JP6737841B2 (ja
Inventor
アール. クラッパート ウォルター
R Klappert Walter
アール. クラッパート ウォルター
スティーブン ウッズ トーマス
Steven Woods Thomas
スティーブン ウッズ トーマス
シー. チルバーズ ジュニア ヘンリー
C Chilvers Henry Jr
シー. チルバーズ ジュニア ヘンリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adeia Guides Inc
Original Assignee
Rovi Guides Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rovi Guides Inc filed Critical Rovi Guides Inc
Publication of JP2018152915A publication Critical patent/JP2018152915A/ja
Application granted granted Critical
Publication of JP6737841B2 publication Critical patent/JP6737841B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Abstract

【課題】3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法の提供。【解決手段】3次元(3D)メディアガイダンスアプリケーションをナビゲートするシステムおよび方法が提供される。第1の選択可能なメディアガイダンスオブジェクトが、立体視光学デバイスを介して見られる場合に、第1の面内に表示され得る画面上に表示されてもよい。立体視光学デバイスを介して見られる場合に、第2の面内に表示され得る画面上に第2の選択可能なメディアガイダンスオブジェクトが表示されてもよい。第1と第2の面とは、異なる位置においてディスプレイに垂直な軸と交差することが感知されてもよい。第1および第2の選択可能なメディアガイダンスオブジェクトのうちの少なくとも1つのユーザ選択が受信されてもよい。【選択図】図6B

Description

(関連出願の相互参照)
本願は、米国実用特許出願第12/571,283号(2009年月日出願)および米国実用特許出願第12/571,287号(2009年9月30日出願)の利益を主張し、これらの出願の開示は、その全体が本明細書に参照によって援用される。
(例えば、インターネット、ケーブル、およびサテライトのテレビおよびラジオによって)平均的な人が利用可能なメディアコンテンツ(例えば、ビデオおよびオーディオ)の量が急激に増えていることから、双方向番組ガイド等の双方向メディアガイダンスアプリケーションの人気が拡大してきている。典型的には、双方向メディアガイダンスアプリケーションは、時間および番組提供元(例えば、テレビチャンネル)によってインデックス付けされる2次元(2D)グリッドのガイド一覧を提示する。特に、ガイド一覧は、画面に平坦に現れる。これらのガイダンスアプリケーションは、2次元ビューで他のガイド関係データ(例えば、ユーザプロファイル、推奨)をさらに提示する。
上記を鑑み、本発明の種々の実施形態による3次元(3D)メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法が提供される。特に、2次元画面上に表示される選択可能なメディアガイダンスオブジェクトは、立体視光学デバイスを使用して2次元画面が見られる場合に、3次元空間のいずれかに設置されるように現れてもよい。
いくつかの実施形態では、立体視光学デバイスを介して見られるメディアガイダンスアプリケーションが、画面上に提示され得る。メディアガイダンスアプリケーションは、3次元空間においてユーザから異なる距離にあるように現れる選択可能なメディアガイダンスオブジェクトを含んでもよい。いくつかの実装では、立体視光学デバイスを介して見られる場合に、第1および第2の面に現れる選択可能なメディアガイダンスオブジェクトの第1および第2が、それぞれ表示されてもよい。第2の面は、第1の面とは異なる位置において表示画面に垂直な軸と交差することが感知されてもよい。これにより、第1の選択可能なメディアガイダンスオブジェクトが第2の選択可能なメディアガイダンスオブジェクトよりもユーザに近いという外観が作成されてもよい。
いくつかの実施形態では、立体視光学デバイスは、ユーザの左および右目に対応する左および右のレンズを含んでもよい。立体視光学デバイスは、レンズのうちのどれをブロックするか、およびレンズのうちのどれをブロック解除するかを示す、メディア装置デバイスから信号を受信するように構成されてもよい。ブロックされるレンズは可視光を透過させなくてもよく、ブロック解除されたレンズは可視光を透過させてもよい。いくつかの実装では、立体視光学デバイスは、右目のために生成される立体画像の一部のみが画面上に表示される場合に、左レンズをブロックし、右レンズをブロック解除するように指示されてもよく、立体視光学デバイスは、左目のために生成される立体画像の一部のみが画面上に表示される場合に、右レンズをブロックし、左レンズをブロック解除するように指示されてもよい。いくつかの実装では、対応する目について生成される立体画像の一部のそれぞれが画面上に表示されてもよく、対応するレンズは、ユーザが2つの画像を別々に感知できなくてもよい十分高速なレートで、代替的にブロックおよびブロック解除されてもよく、組み合わされた画像を3次元であると解釈するために、画像を共に感知する。
いくつかの実施形態では、表示される選択可能なメディアガイダンスオブジェクトのうちの少なくとも1つのユーザ選択を受信してもよい。いくつかの実装では、ユーザ選択は、加速度計を有する入力デバイスによって受信されてもよい。他の実装では、入力デバイスは、加速度計の代わりに、またはこれに追加して、ジャイロスコープを有してもよい。メディア装置デバイスは、入力デバイスの動きを検知してもよい。入力デバイスの検出された動きに基づいて、メディア装置デバイスは、表示される選択可能なメディアガイダンスオブジェクトに対するアクションを実行してもよい。いくつかの実装では、メディア装置デバイスは、入力デバイスの動きに基づいて、3次元空間でカーソルを動かしてもよい。特に、ユーザは、右方向へ、時計回りに入力デバイスを振り回してもよく、その結果、メディア装置デバイスが、時計回りの方向に、円形に、3次元空間内でカーソルを動かしてもよい。いくつかの実装では、メディア装置デバイスは、入力デバイスのすばやい(急な)動きを検出してもよく、その結果として、メディア装置デバイスは、3次元空間で、カーソルの位置に最も近い選択可能なメディアガイダンスオブジェクトの選択を有効にしてもよい。
いくつかの実施形態では、メディア装置デバイスは、特定の方向の入力デバイスの動きを検出してもよく、このため、メディア装置デバイスは、表示される選択可能なメディアガイダンスオブジェクトのモードを変化させてもよい。特に、選択可能なメディアガイダンスオブジェクトのモードは、特定のメディアアセットに関連付けられる俳優に対応してもよい。入力デバイスの動きの検出の結果として、メディア装置デバイスは、プレイ一覧モードに対応するように、選択可能なメディアガイダンスオブジェクトのモードを変化させてもよい。より具体的には、選択可能なメディアガイダンスオブジェクトがプレイリストモードである場合、選択可能なメディアガイダンスオブジェクトのうちの1つは、特定のプレイリストを識別してもよく、残りの選択可能なメディアガイダンスオブジェクトはプレイリストのメディアアセットを提示してもよい。
いくつかの実施形態では、立体視メディアガイダンスアプリケーションが、メディア装置デバイスによって、ローカルで生成されてもよい。メディア装置デバイスは、ユーザの右目で見られる画面の第1の点に中心が置かれる選択可能なメディアガイダンスオブジェクトを含む第1の画像を生成してもよい。メディア装置デバイスは、ユーザの左目で見られる第1の点とは異なる画面の第2の点に中心が置かれる選択可能なメディアガイダンスオブジェクトのコピーを含む第2の画像を生成してもよい。いくつかの実装では、メディア装置デバイスは、立体画像を生成するために、画面上に表示するための立体画像を生じさせる第1と第2の画像とを重ね合わせてもよい。選択可能なメディアオブジェクトは、ユーザが、立体視光学デバイスによって立体画像を見る場合に、ユーザからの感知される距離における立体画像内に現れてもよい。画面上の第1と第2の点との間の距離は、感知される距離に比例してもよい。
いくつかの実施形態では、メディア装置デバイスは、第1および第2の画像の表示を交互にしてもよく、表示される画像に対応するレンズをブロック/ブロック解除するように、立体視光学デバイスに指示してもよい。いくつかの実装では、メディア装置デバイスは、ユーザによって感知できるよりも速いレートで、第1および第2の画像の表示を交互に行ってもよい。
本明細書は、例えば、以下の項目も提供する。
(項目1)
ユーザに立体視メディアガイダンスアプリケーションを提示する方法であって、該メディアガイダンスアプリケーションは、該ユーザによって着用された立体視光学デバイスを介して見られ、該方法は、
ディスプレイ画面を有するユーザ装置デバイスを使用して、第1の選択可能なメディアガイダンスオブジェクトを表示することであって、第1の選択可能なメディアガイダンスオブジェクトは、該立体視光学デバイスを介して見られる場合に第1の面内に現れる、ことと、
該ユーザ装置デバイスを使用して、第2の選択可能なメディアガイダンスオブジェクトを表示することであって、該第2の選択可能なメディアガイダンスオブジェクトは、該立体視光学デバイスを介して見られる場合に第2の面内に現れ、該第2の面は、該第1の面とは異なる位置において該ディスプレイ画面に垂直な軸と交差することが感知される、ことと、
該第1および第2の選択可能なメディアガイダンスオブジェクトのうちの少なくとも1つのユーザ選択を受信することと
を含む、方法。
(項目2)
前記第1の選択可能なメディアガイダンスオブジェクトは、メディアアセットの群を識別し、
前記第2の選択可能なメディアガイダンスオブジェクトは、該群の該メディアアセットのうちの1つに対応する、項目1に記載の方法。
(項目3)
前記メディアアセットの群は、テレビ番組、時間帯、出演者、映画のジャンル、歌、音楽アーティスト、およびビデオゲームから成る群から選択される、項目2に記載の方法。
(項目4)
前記群の前記メディアアセットのうちの前記1つは、出演者、特定の時間帯の番組放送、テレビ番組、および前記第1の選択可能なメディアアセットによって識別されるジャンルに属する映画から成る群から選択される、項目2に記載の方法。
(項目5)
前記第1の選択可能なメディアガイダンスオブジェクトのユーザ選択は、該第1の選択可能なメディアガイダンスオブジェクトがどの群を識別するかを決定する、項目2に記載の方法。
(項目6)
前記ユーザの動きを検出することと、
該検出された動きに応じて、前記立体視光学デバイスを介して見られる場合に、前記第1および第2の面とは、異なる位置で前記軸と交差することが感知される異なる面に現れる追加の選択可能なメディアガイダンスオブジェクトを表示することと
をさらに含む、項目1に記載の方法。
(項目7)
前記ユーザ選択は、赤外線光およびカメラを使用して受信される、項目1に記載の方法。
(項目8)
前記ユーザ選択は、前記入力デバイスを使用して受信され、該入力デバイスは、該入力デバイスの動作および向きを前記ユーザ装置デバイスに伝達するための加速度計およびジャイロスコープのうちの少なくとも1つを有する、項目1に記載の方法。
(項目9)
基準点を前記入力デバイスの前記向きに対して指定することと、
該基準点に対応する前記ディスプレイ画面上の視覚インジケータの位置を決定することと、
該入力デバイスの向きの変化を生じさせる動きを検出することと、
該向きの変化に基づいて、該基準点に対する該動きの方向を決定することと、
該ディスプレイ画面上の新しい位置まで、該動きの決定された方向に該視覚インジケータを動かすことと
をさらに含む、項目8に記載の方法。
(項目10)
前記受信することは、
前記視覚インジケータの前記位置に最も近い前記選択可能なメディアガイダンスオブジェクトの選択を示す動きを検出することと、
該視覚インジケータの該位置に最も近い該選択可能なメディアガイダンスオブジェクトを選択することと
を含む、項目9に記載の方法。
(項目11)
前記第1および第2の選択可能なメディアガイダンスオブジェクトは、形が球形である、項目1に記載の方法。
(項目12)
前記ユーザ選択は、前記第2の選択可能なメディアガイダンスオブジェクトが、前記第1の選択可能なメディアガイダンスオブジェクトの周りを旋回することが感知されるようにする、項目1に記載の方法。
(項目13)
任意の表示される選択可能なメディアガイダンスオブジェクトの前記ユーザ選択は、該表示される選択可能なメディアガイダンスオブジェクトのいずれの移動もなしに実行される、項目1に記載の方法。
(項目14)
前記第1の面内に現れる前記第1の選択可能なメディアガイダンスオブジェクトは、第1の透視図内に現れ、
前記第2の面内の前記第2の選択可能なメディアガイダンスオブジェクトは、該第1の透視図とは異なる第2の透視図内に現れる、項目1に記載の方法。
(項目15)
前記第1および第2の透視図内に現れる前記メディアガイダンスオブジェクトの組み合わせは、該メディアガイダンスオブジェクトの連続する配列として現れ、
該配列は、隣接の第1の点に第1の折り畳みを有するように現れ、該第1の点は、該第1の透視図内に現れる前記第1のメディアガイダンスオブジェクトと該第2の透視図内に現れる前記第2のメディアガイダンスオブジェクトとの間の第1の位置に対応する、項目14に記載の方法。
(項目16)
立体視メディアガイダンスアプリケーションをユーザに提示するシステムであって、該メディアガイダンスアプリケーションは、該ユーザによって着用される立体視光学デバイスを介して見られ、該システムは、
垂直軸を有するディスプレイ画面と、
第1の選択可能なメディアガイダンスオブジェクトを該ディスプレイ画面上に表示する手段であって、該第1の選択可能なメディアガイダンスオブジェクトは、該立体視光学デバイスを介して見られる場合に、第1の面内に現れ、該第1の面は、第1の位置において該軸と交差することが感知される、手段と、
第2の選択可能なメディアガイダンスオブジェクトを該ディスプレイ画面上に表示する手段であって、第2の選択可能なメディアガイダンスオブジェクトは、該立体視光学デバイスを介して見られる場合に、第2の面内に現れ、該第2の面は、該第1の位置とは異なる第2の位置において該軸と交差することが感知される、手段と、
該第1および第2の選択可能なメディアガイダンスオブジェクトのうちの少なくとも1つのユーザ選択を受信する手段と
を備える、システム。
(項目17)
前記第1の選択可能なメディアガイダンスオブジェクトは、メディアアセットの群を識別し、
前記第2の選択可能なメディアガイダンスオブジェクトは、該群の該メディアアセットのうちの1つに対応する、項目16に記載のシステム。
(項目18)
前記メディアアセットの群は、テレビ番組、時間帯、出演者、映画のジャンル、歌、音楽アーティスト、およびビデオゲームから成る群から選択される、項目16に記載のシステム。
(項目19)
前記群の前記メディアアセットのうちの前記1つは、出演者、特定の時間帯の番組放送、テレビ番組、および前記第1の選択可能なメディアアセットによって識別されるジャンルに属する映画から成る群から選択される、項目17に記載のシステム。
(項目20)
前記第1の選択可能なメディアガイダンスオブジェクトのユーザ選択は、前記第1の選択可能なメディアガイダンスオブジェクトがどの群を識別するかを決定する、項目17に記載のシステム。
(項目21)
前記ユーザの動きを検出する手段と、
追加の選択可能なメディアガイダンスオブジェクトを前記ディスプレイ画面上に、前記検出された動きに応じて表示する手段であって、該追加の選択可能なメディアガイダンスオブジェクトは、前記立体視光学デバイスを介して見られる場合に、前記第1および第2の位置とは異なる位置において前記軸と交差することが感知される異なる面内に現れる、手段と
をさらに備える、項目16に記載のシステム。
(項目22)
赤外線光およびカメラを使用して前記ユーザ選択が受信される、項目16に記載のシステム。
(項目23)
入力デバイスの動作および向きを前記ユーザ装置デバイスに伝達するための加速度計およびジャイロスコープのうちの少なくとも1つを有する前記入力デバイスを使用して、前記ユーザ選択が受信される、項目16に記載のシステム。
(項目24)
基準点を前記入力デバイスの前記向きに割り当てる手段と、
該基準点に対応する前記ディスプレイ画面上の視覚インジケータの位置を決定する手段と、
該入力デバイスの向きの変化を生じさせる動きを検出する手段と、
該向きの変化に基づいて、該基準点に対する該動きの該方向を決定する手段と、
該ディスプレイ画面上の新しい位置まで、該動きの決定された方向に該視覚インジケータを動かす手段と
をさらに備える、項目23に記載のシステム。
(項目25)
前記視覚インジケータの前記位置に最も近い前記選択可能なメディアガイダンスオブジェクトの選択を示す動きを検出する手段と、
該視覚インジケータの該位置に最も近い該選択可能なメディアガイダンスオブジェクトを選択する手段と
をさらに備える、項目24に記載のシステム。
(項目26)
前記第1および第2の選択可能なメディアガイダンスオブジェクトは、球形である、項目16に記載のシステム。
(項目27)
前記ユーザ選択は、前記第2の選択可能なメディアガイダンスオブジェクトが、前記第1の選択可能なメディアガイダンスオブジェクトの周りを旋回することが感知されるようにする、項目16に記載のシステム。
(項目28)
任意の表示される選択可能なメディアガイダンスオブジェクトの前記ユーザ選択は、該表示される選択可能なメディアガイダンスオブジェクトのいずれも動かさずに実行される、項目16に記載のシステム。
(項目29)
前記第1の面内に現れる前記第1の選択可能なメディアガイダンスオブジェクトは、第1の透視図の中に現れ、
前記第2の面内の前記第2の選択可能なメディアガイダンスオブジェクトは、該第1の透視図とは異なる第2の透視図内に現れる、項目16に記載のシステム。
(項目30)
前記第1および第2の透視図内に現れる前記メディアガイダンスオブジェクトの組み合わせは、メディアガイダンスオブジェクトの連続する配列として現れ、
該配列は、隣接の第1の点に第1の折り畳みを有するように現れ、該第1の点は、該第1の透視図内に現れる前記第1のメディアガイダンスオブジェクトと該第2の透視図内に現れる前記第2のメディアガイダンスオブジェクトとの間の第1の位置に対応する、項目29に記載のシステム。
(項目31)
第1の点を有する画面上に表示される選択可能な立体視メディアオブジェクトのためのグラフィックを設計する方法であって、該方法は、
ユーザの右目によって見られるべき該第1の点に中心が置かれる第1の選択可能なメディアオブジェクトを含む第1の画像を生成することと、
該ユーザの左目によって見られるべき、該第1の点とは異なる該画面の第2の点に中心が置かれる該第1の選択可能なメディアオブジェクトのコピーを含む第2の画像を生成することと、
立体画像を生成するために、該画面上に表示するための第1の画像と第2の画像とを重ね合わせることであって、該第1の選択可能なメディアオブジェクトは、該ユーザが立体視光学デバイスを介して該立体画像を見る場合に、該ユーザからの第1の感知される距離における該立体画像内に現れる、ことと
を含み、該画面の該第1の点と第2の点との間の距離は、該第1の感知される距離に対応する、方法。
(項目32)
オフセット距離と見かけの距離との間の関係を決定するために相似の三角形を使用することをさらに含み、
該オフセット距離は、前記第1の点と第2の点との間の距離であり、
該見かけの距離は、前記第1の選択可能なメディアオブジェクトが前記画面からであるように現れている距離であり、
該見かけの距離は、該第1の選択可能なメディアオブジェクトが該画面の後ろにあるように現れる場合には正であり、該第1の選択可能なメディアオブジェクトが該画面の前にあるように現れる場合には負である、項目31に記載の方法。
(項目33)
前記オフセット距離および前記見かけの距離は、以下の式に従って計算され、
a=(z*e)/(D+z)
z=(D*a)/(e−a)
式中、aは該オフセット距離であり、zは該見かけの距離であり、eは前記ユーザの目の瞳の間の距離と前記メディアオブジェクトの幅との間の差であり、Dは該ユーザの目と前記画面との間の距離である、項目32に記載の方法。
(項目34)
前記第1および第2の画像内の前記第1の選択可能なメディアオブジェクトの前記位置を計算するために、座標系を使用することをさらに含む、項目31に記載の方法。
(項目35)
前記第1の選択可能なメディアオブジェクトが設置される前記第1および第2の画像内の前記位置を更新することをさらに含み、それにより、該第1の選択可能なメディアオブジェクトが前記立体画像内を動くことが感知されるようにする、項目31に記載の方法。
(項目36)
前記立体視光学デバイスは、
前記ユーザの右目によって前記第1の画像を見るための第1の開口であって、該第1の画像は該ユーザの右目によって見られる唯一の画像である、第1の開口と、
該ユーザの左目によって前記第2の画像を見るための第2の開口であって、該第2の画像は該ユーザの左目によって見られる唯一の画像である、第2の開口と
を備える、項目31に記載の方法。
(項目37)
前記立体視光学デバイスは、
前記第1の開口を覆う第1のレンズであって、前記ユーザは、該第1のレンズを介して前記第1の画像を見る、第1のレンズと、
前記第2の開口を覆う第2のレンズであって、該ユーザは、前記第2のレンズを介して前記第2の画像を見る、第2のレンズと、
をさらに備える、項目36に記載の方法。
(項目38)
前記重ね合わせることは、
トランスミッタから第1の信号を伝送することと、
センサによって該第1の信号を受信することと、
該第1の信号の受信に応じて、
前記第1のレンズをブロックし、および、
前記第2のレンズをブロック解除することと、
該トランスミッタから第2の信号を伝送することと、
該センサによって前記第2の信号を受信することと、
該第2の信号の受信に応じて、
該第1のレンズをブロック解除し、および
該第2のレンズをブロックする、ことと
を含み、
該第1および第2のレンズは、該第1および第2のレンズがブロック解除される場合に、可視光が通過することを可能にし、該第1および第2のレンズがブロックされる場合に、可視光が通過することを防止する、項目37に記載の方法。
(項目39)
前記第1および第2のレンズは液晶を備える、項目38に記載の方法。
(項目40)
前記第1および第2のレンズは、シャッタリングプロセスを使用してブロックおよびブロック解除される、項目38に記載の方法。
(項目41)
前記第1および第2の信号は、赤外線信号である、項目38に記載の方法。
(項目42)
前記第1の画像は、第3の点に中心が置かれる第2の選択可能なメディアオブジェクトを含み、
前記第2の画像は、該第3の点とは異なる前記画面の第4の点に中心が置かれる該第2の選択可能なメディアオブジェクトのコピーを含み、
該第2の選択可能なメディアオブジェクトは、第2の感知される距離において前記立体画像内に現れ、
前記第1の選択可能なメディアガイダンスオブジェクトは、第1の透視図内の該立体画像内に現れ、
該第2の選択可能なメディアガイダンスオブジェクトは、該第1の透視図とは異なる第2の透視図内の該立体画像内に現れる、項目31に記載の方法。
(項目43)
前記第1および第2の透視図内に現れる前記メディアガイダンスオブジェクトの組み合わせは、該メディアガイダンスオブジェクトの連続する配列として現れ、
該配列は、隣接の第1の点に第1の折り畳みを有するように現れ、該第1の点は、該第1の透視図内に現れる前記第1のメディアガイダンスオブジェクトと該第2の透視図内に現れる前記第2のメディアガイダンスオブジェクトとの間の第1の位置に対応する、項目42に記載の方法。
(項目44)
前記選択可能な立体視メディアオブジェクトは、ゲーム、ソフトウェアアプリケーション、およびメディアガイドから成る群から選択される環境内に表示されるメディアオブジェクトである、項目31に記載の方法。
(項目45)
選択可能な立体視メディアオブジェクトのためのグラフィックを設計するシステムであって、該システムは、
第1の点を有するディスプレイ画面と、
ユーザの右目によって見られるべき該第1の点に中心が置かれる第1の選択可能なメディアオブジェクトを含む第1の画像を生成する手段と、
該ユーザの左目によって見られるべき、該第1の点とは異なる該ディスプレイ画面の第2の点に中心が置かれる該第1の選択可能なメディアオブジェクトのコピーを含む第2の画像を生成する手段と、
立体画像を生成するために、該ディスプレイ画面上に表示するための該第1の画像と第2の画像とを重ね合わせる手段であって、該第1の選択可能なメディアオブジェクトは、該ユーザが立体視光学デバイスを介して該立体画像を見る場合に、該ユーザからの第1の感知される距離における該立体画像内に現れる、手段と
を備え、
該ディスプレイ画面上の該第1の点と第2の点との間の距離は、該第1の感知される距離に対応する、システム。
(項目46)
オフセット距離と見かけの距離との間の関係を決定するために、相似の三角形を使用する手段をさらに備え、
該オフセット距離は、前記第1の点と第2の点との間の前記距離であり、
該見かけの距離は、前記第1の選択可能なメディアオブジェクトが前記ディスプレイ画面からであるように現れている距離であり、
該見かけの距離は、該第1の選択可能なメディアオブジェクトが該ディスプレイ画面の後ろにあるように現れる場合には正であり、該第1の選択可能なメディアオブジェクトが該ディスプレイ画面の前にあるように現れる場合には負である、項目45に記載のシステム。
(項目47)
前記オフセット距離および前記見かけの距離を、以下の式に従って計算する手段をさらに備え、
a=(ze)/(D+z)
z=(Da)/(e−a)
式中、aは該オフセット距離であり、zは該見かけの距離であり、eは前記ユーザの目の瞳の間の距離と前記メディアオブジェクトの幅との間の差であり、Dは該ユーザの目と前記ディスプレイ画面との間の距離である、項目46に記載のシステム。
(項目48)
前記第1および第2の画像内の前記第1の選択可能なメディアオブジェクトの前記位置を計算するために、座標系を使用する手段をさらに備える、項目45に記載のシステム。
(項目49)
前記第1の選択可能なメディアオブジェクトが設置される、前記第1および第2の画像内の前記位置を更新する手段をさらに備え、それにより、該第1の選択可能なメディアオブジェクトが前記立体画像内を動くことが感知されるようにする、項目45に記載のシステム。
(項目50)
前記立体視光学デバイスは、
前記ユーザの右目によって前記第1の画像を見るための第1の開口であって、該第1の画像は、該ユーザの右目によって見られる唯一の画像である、第1の開口と、
該ユーザの左目によって前記第2の画像を見るための第2の開口であって、該第2の画像は、該ユーザの左目によって見られる唯一の画像である、第2の開口と
を備える、項目45に記載のシステム。
(項目51)
前記立体視光学デバイスは、
前記第1の開口を覆う第1のレンズであって、前記ユーザは該第1のレンズを介して前記第1の画像を見る、第1のレンズと、
前記第2の開口を覆う第2のレンズであって、該ユーザは該第2のレンズを介して前記第2の画像を見る、第2のレンズと
をさらに備える、項目50に記載のシステム。
(項目52)
トランスミッタによって第1の信号を伝送する手段と、
センサによって該第1の信号を受信する手段と、
前記第1のレンズをブロックする手段と、
該受信された第1の信号に応じて、前記第2のレンズをブロック解除する手段と、
該トランスミッタによって第2の信号を伝送する手段と、
該センサによって該第2の信号を受信する手段と、
該第1のレンズをブロック解除する手段と、
該受信された第1の信号に応じて、該第2のレンズをブロックする手段と
をさらに備え、
該第1および第2のレンズは、該第1および第2のレンズがブロック解除される場合に可視光が通過することを可能にし、該第1および第2のレンズがブロックされる場合に可視光が通過することを防止する、項目51に記載のシステム。
(項目53)
前記第1および第2のレンズは、液晶を備える、項目52に記載のシステム。
(項目54)
シャッタリングプロセスを使用して、前記第1および第2のレンズをブロックおよびブロック解除する手段をさらに備える、項目52に記載のシステム。
(項目55)
前記第1および第2の信号は、赤外線信号である、項目52に記載のシステム。
(項目56)
前記第1の画像は、第3の点に中心が置かれる第2の選択可能なメディアオブジェクトを含み、
前記第2の画像は、該第3の点とは異なる、前記ディスプレイ画面の第4の点に中心が置かれる該第2の選択可能なメディアオブジェクトのコピーを含み、
該第2の選択可能なメディアオブジェクトは、第2の感知される距離において該立体画像内に現れ、
前記第1の選択可能なメディアガイダンスオブジェクトは、第1の透視図内の前記立体画像内に現れ、
該第2の選択可能なメディアガイダンスオブジェクトは、該第1の透視図とは異なる第2の透視図内の前記立体画像内に現れる、項目45に記載のシステム。
(項目57)
前記第1および第2の透視図内に現れる前記メディアガイダンスオブジェクトの組み合わせは、メディアガイダンスオブジェクトの連続する配列として現れ、
該配列は、隣接の第1の点において第1の折り畳みを有するように現れ、該第1の点は、該第1の透視図内に現れる前記第1のメディアガイダンスオブジェクトと該第2の透視図内に現れる前記第2のメディアガイダンスオブジェクトとの間の第1の位置に対応する、項目56に記載のシステム。
(項目58)
前記選択可能な立体視メディアオブジェクトは、ゲーム、ソフトウェアアプリケーション、およびメディアガイドから成る群から選択される環境内に表示されるメディアオブジェクトである、項目45に記載のシステム。
本発明の上記および他の目的および利点は、類似参照文字が全体を通して類似部品を指す、添付図面と併せて解釈される、以下の詳細な説明を考慮すると明白となるであろう。
図1および2は、本発明の一実施形態によるメディアガイダンスアプリケーション一覧を提供するために使用してもよい例示的な表示画面を示す。 図1および2は、本発明の一実施形態によるメディアガイダンスアプリケーション一覧を提供するために使用してもよい例示的な表示画面を示す。 図3は、本発明の別の実施形態による、例示的なユーザ機器デバイスを示す。 図4は、本発明の別の実施形態による、例示的なプラットフォーム間の双方向メディアシステムの図を示す。 図5Aは、本発明の実施形態による、例示的な立体視光学デバイスを示す。 図5Bは、本発明の別の実施形態による、例示的な立体視光学デバイスを示す。 図5Cは、本発明の第3の実施形態による、例示的な立体視光学デバイスを示す。 図5Dは、本発明の一実施形態による、例示的な立体視光学デバイスのパターンを示す。 図6Aは、本発明の一実施形態による、異なる面に現れるメディアオブジェクトの表示画面の例示的な正面図を示す。 図6Bは、本発明の一実施形態による、メディアオブジェクトが実際に3次元であると仮定する、図6Aに示される表示画面の例示的な側面図を示す。 図7Aは、本発明の一実施形態による、異なる面で表示されるメディアオブジェクトの例示的な表示画面を示す。図7Bは、本発明の一実施形態による、異なる面で表示される出演者の提示の例示的な表示画面を示す。 図8は、本発明の一実施形態による、ユーザ装置デバイスおよび周辺デバイスの例示的な構成を示す。 図9A−Bは、本発明の一実施形態による、表示画面のメディアガイダンスオブジェクトの例示的な構成を示す。 図10−11は、本発明の実施形態による、3次元メディアガイダンスアプリケーションをナビゲートするための例示的な流れ図である。 図10−11は、本発明の実施形態による、3次元メディアガイダンスアプリケーションをナビゲートするための例示的な流れ図である。 図12Aは、本発明の一実施形態による、ユーザの左目で見られる例示的な画像を示す。 図12Bは、本発明の一実施形態による、ユーザの右目で見られる例示的な画像を示す。 図12Cは、本発明の一実施形態による、図12A−Bにおける画像を重ね合わせることによって形成される立体画像の例示的な側面図を示す。 図13は、本発明の一実施形態による、立体画像の生成における相似の三角形の使用を示す図である。 図14は、本発明の一実施形態による、立体画像の生成で使用される座標系を示す。 図15は、本発明の一実施形態による、3次元メディアガイド表示のグラフィックを設計するための例示的な流れ図である。 図16は、本発明の一実施形態による、異なる視点で表示されるメディアガイダンスオブジェクトの例示的な表示画面を示す。
本発明は、概して、立体視、すなわち3Dのメディアガイダンスアプリケーションの提示および設計に関する。特に、フォーカスされている複数のオブジェクト(例えば、ユーザプロファイル、メディアアセット、または番組スケジュール情報)が第1の面に表示され、複数の残りのオブジェクトが、第1の面とは異なる位置で表示画面に垂直な軸と交差することが感知される追加の面に表示される。より具体的には、フォーカスされているオブジェクトは、画面上で平坦に現れるように表示されてもよく、他のオブジェクトは、画面の前または後ろにあるかのように現れるように表示されてもよい。本明細書に定義されるように、アセットまたはメディアアセットは、再生、アクセス、録画および/または見られてもよい任意のタイプのメディア(またはデータファイル)を指す。本明細書で称されるように、「フォーカス」という用語またはフォーカスされることは、項目またはオブジェクトを、他の項目またはオブジェクトよりも視覚的に顕著にするために、表示される項目またはオブジェクトの外観を変化させることを意味することを理解すべきである。
任意の所与のメディア送達システムにおいて、ユーザに利用可能なメディアの量は、膨大となり得る。結果として、多くのユーザは、ユーザがメディアの選択肢を効率的にナビゲートし、所望し得るメディアコンテンツを容易に識別することを可能にする、インターフェースを通したメディアガイダンスの形態を所望している。そのようなガイダンスを提供するアプリケーションは、本明細書では、双方向メディアガイダンスアプリケーションと称されるが、メディアガイダンスアプリケーションまたはガイダンスアプリケーションと称されることもある。
双方向メディアガイダンスアプリケーションは、ガイダンスを提供するメディアに応じて、種々の形態をとってもよい。1つの典型的な種類のメディアガイダンスアプリケーションは、双方向テレビ番組ガイドである。双方向テレビ番組ガイド(電子番組ガイドと呼ばれることもある)は、とりわけ、従来のテレビ番組(従来の放送、ケーブル、衛星、インターネットまたは他の手段を介して提供される)、ならびに有料番組、オンデマンド番組(ビデオオンデマンド(VOD)システムのような)、インターネットコンテンツ(例えば、ストリーミングメディア、ダウンロード可能なメディア、ウェブキャスト等)、および他の種類のメディアまたはビデオコンテンツを含む、多くの種類のメディアコンテンツ間を、ユーザがナビゲートおよび検索することを可能にする、周知のガイダンスアプリケーションである。ガイダンスアプリケーションはまた、ユーザが、例えば、ビデオクリップ、記事、広告、チャットセッション、ゲーム等を含む、ビデオコンテンツに関連するコンテンツ間でナビゲートし、検索することも可能にする。ガイダンスアプリケーションはまた、ユーザが、マルチメディアコンテンツ間でナビゲートすることも可能にする。用語「マルチメディア」とは、本明細書では、テキスト、オーディオ、静止画、画像、動画、ビデオ、および双方向コンテンツ形態等の、少なくとも2つの異なるコンテンツ形態を利用する、メディアならびにコンテンツとして定義される。マルチメディアコンテンツは、コンピュータおよび電子デバイス等の情報コンテンツ処理デバイスによって、記録および再生、表示またはアクセスされてもよいが、また、ライブパーフォーマンスの一部であることも可能である。メディアコンテンツに関連して論議される、本発明の実施形態はまた、ビデオ、オーディオ、および/またはマルチメディア等の他の種類のコンテンツにも適用可能であることを理解されたい。
インターネット、モバイルコンピューティング、高速無線ネットワークの登場に伴い、ユーザは、パーソナルコンピュータ(PC)や、手持ち式コンピュータ、携帯端末(PDA)、携帯電話、または他のモバイルデバイス等の従来はアクセスしなかった他のデバイス上で、メディアにアクセスしている。これらのデバイス上で、ユーザは、テレビを通して利用可能な同じメディア間をナビゲートおよび検索することができる。その結果として、メディアガイダンスは、これらのデバイス上でも必要である。提供されるガイダンスは、テレビのみを通して利用可能なメディアコンテンツ、これらのデバイスのうちの1つ以上のみを通して利用可能なメディアコンテンツ、またはテレビおよびこれらのデバイスのうちの1つ以上の両方を通して利用可能なメディアコンテンツのためのものであってもよい。メディアガイダンスアプリケーションは、PDA、携帯電話、または他のモバイルデバイスの手持ち式コンピュータ上で、オンラインアプリケーション(すなわち、ウェブサイト上で提供される)、あるいは独立型アプリケーションまたはクライアントとして提供されてもよい。メディアガイダンスアプリケーションを実装してもよい、種々のデバイスおよびプラットフォームは、以下でより詳細に説明される。
メディアガイダンスアプリケーションの機能のうちの1つは、メディア一覧およびメディア情報をユーザに提供することである。図1−2は、メディアガイダンス、特にメディア一覧を提供するために使用されてもよい、例示的な表示画面を示す。図1−2、7A−B、9A−B、および12A−Cに示される表示画面は、任意の好適なデバイスまたはプラットフォーム上で実装されてもよい。図1−2、7A−B、9A−B、および12A−Cの表示は、全画面表示として図示されているが、それらはまた、表示されているメディアコンテンツ上に完全または部分的にオーバーレイされてもよい。ユーザは、表示画面に提供された選択可能なオプション(例えば、メニューオプション、一覧オプション、アイコン、ハイパーリンク等)を選択することによって、あるいはリモートコントロールまたは他のユーザ入力インターフェースもしくはデバイス上の専用ボタン(例えば、「ガイド」ボタン)を押下することによって、メディア情報へのアクセス要望を指示してもよい。ユーザの指示に応じて、メディアガイダンスアプリケーションは、グリッド内の時間およびチャンネル別、時間別、チャンネル別、メディアの種類別、カテゴリ別(例えば、映画、スポーツ、ニュース、子供向け、または他の番組カテゴリ)、または、他の所定、ユーザ定義、あるいは他の組織化基準等のいくつかの方法のうちの1つで組織化されたメディア情報を伴う表示画面を提供してもよい。
図1は、単一表示内の異なる種類のメディアコンテンツへのアクセスも可能にする、時間およびチャンネル別に配設された例示的なグリッド番組一覧表示100を示す。表示100は、(1)各チャンネル/メディア種類識別子(列内のセル)が利用可能な異なるチャンネルまたはメディアの種類を識別するチャンネル/メディア種類識別子104の列、および(2)各時間識別子(行内のセル)が番組の時間帯を識別する時間識別子106の行を有するグリッド102を含んでもよい。グリッド102はまた、番組一覧108等の番組一覧のセルも含み、各一覧は、一覧の関連チャンネルおよび時間の上に、提供される番組のタイトルを提供する。ユーザ入力デバイスを用いて、ユーザは、ハイライト領域110を移動させることによって番組一覧を選択することができる。ハイライト領域110によって選択される番組一覧に関する情報が、番組情報領域112の中に提供されてもよい。領域112は、例えば、番組タイトル、番組内容、番組が提供される時間(該当する場合)、番組が放送されるチャンネル(該当する場合)、番組の評価、および他の所望の情報を含んでもよい。
スケジュールに従って提供される線形番組へのアクセスを提供することに加えて、メディアガイダンスアプリケーションはまた、スケジュールに従って提供されない非線形番組へのアクセスも提供する。非線形番組は、オンデマンドメディアコンテンツ(例えば、VOD)、インターネットコンテンツ(例えば、ストリーミングメディア、ダウンロード可能なメディア等)、ローカルに記憶されたメディアコンテンツ(例えば、デジタルビデオレコーダ(DVR)、デジタルビデオディスク(DVD)、ビデオカセット、コンパクトディスク(CD)に記憶されたビデオコンテンツ等)、または時間的制約のない他のメディアコンテンツを含む、異なるメディアソースからのコンテンツを含んでもよい。オンデマンドコンテンツは、映画および特定のメディアプロバイダによって提供されるオリジナルのメディアコンテンツの両方を含んでもよい(例えば、「The Sopranos」や「Curb Your Enthusiasm」を提供するHBO On Demand)。HBO ON DEMANDは、Time Warner Company L.P.らによって所有されるサービスマークであり、THE SOPRANOSおよびCURB YOUR ENTHUSIASMは、Home Box Office, Inc.によって所有される商標である。インターネットコンテンツは、チャットセッションまたはウェブキャストのようなウェブイベント、あるいは、インターネットウェブサイトまたは他のインターネットアクセス(例えば、FTP)を通して、ストリーミングメディアまたはダウンロード可能なメディアとしてオンデマンドで利用可能なコンテンツを含んでもよい。
グリッド102は、オンデマンド一覧114、録画メディア一覧116、およびインターネットコンテンツ一覧118を含む、非線形番組の一覧を提供してもよい。異なる種類のメディアソースからのコンテンツのための一覧を組み合わせる表示は、「混合メディア」表示と呼ばれることもある。表示100とは異なる、表示されてもよい一覧の種類の種々の順列は、ユーザ選択またはガイダンスアプリケーション定義に基づいてもよい(例えば、録画および放送一覧のみの表示、オンデマンドおよび放送の一覧のみの表示等)。例示されるように、一覧114、116、および118は、これらの一覧の選択が、それぞれ、オンデマンド一覧、録画一覧、またはインターネット一覧専用の表示へのアクセスを提供し得ることを示すように、グリッド102内に現れる時間帯全体に及ぶものとして示されている。他の実施形態では、これらのメディア種類の一覧は、グリッド102に直接含まれてもよい。ユーザがナビゲーションアイコン120のうちの1つを選択することに応じて、付加的な一覧が表示されてもよい(ユーザ入力デバイス上の矢印キーを押すことは、ナビゲーションアイコン120を選択することと同様に表示に影響を及ぼしてもよい)。
表示100はまた、ビデオ領域122、広告124、およびオプション領域126を含んでもよい。ビデオ領域122は、ユーザが、現在利用可能であるか、今後利用可能となるか、または利用可能であった番組を見ることおよび/またはプレビューすることを可能にしてもよい。ビデオ領域122のコンテンツは、グリッド102に表示される一覧のうちの1つに対応するか、またはそれから独立してもよい。ビデオ領域を含むグリッド表示は、ピクチャインガイド(PIG)表示と呼ばれることもある。PIG表示およびそれらの機能は、2003年5月13日発行のSatterfieldらの米国特許第6,564,378号、および2001年5月29日発行のYuenらの米国特許第6,239,794号でさらに詳細に説明されており、それらは全体を参照することによって本明細書に組み込まれる。PIG表示は、本発明の他のメディアガイダンスアプリケーション表示画面に含まれてもよい。
広告124は、(例えば、購読番組に対する)ユーザのアクセス権に応じて、現在利用可能であるか、将来利用可能となるか、または決して利用可能とはなり得ないメディアコンテンツの広告を提供してもよく、グリッド102内のメディア一覧のうちの1つ以上に対応するか、または無関係であってもよい。広告124はまた、グリッド102内に現れるメディアコンテンツに関係するか、または無関係である製品またはサービスに対するものであってもよい。広告124は、選択可能であってもよく、メディアコンテンツに関するさらなる情報を提供すること、製品またはサービスに関する情報を提供すること、メディアコンテンツ、製品、またはサービスの購入を可能にすること、広告に関するメディアコンテンツを提供すること等を行ってもよい。広告124は、ユーザのプロファイル/選好、監視されたユーザ活動、提供される表示の種類、または他の好適な標的化された広告基盤に基づいて標的化されてもよい。
広告124は、長方形またはバナー形状として示されているが、広告は、ガイダンスアプリケーション表示内の任意の好適なサイズ、形状、および場所で提供されてもよい。例えば、広告124は、グリッド102に水平方向に隣接する長方形として提供されてもよい。これは、パネル広告と呼ばれることもある。加えて、広告は、メディアコンテンツまたはガイダンスアプリケーション表示上にオーバーレイされるか、または表示内に埋め込まれてもよい。広告はまた、テキスト、画像、回転画像、ビデオクリップ、または他の種類のメディアコンテンツを含んでもよい。広告は、ガイダンスアプリケーションを有するユーザ機器内、ユーザ機器に接続されたデータベース内、遠隔場所(ストリーミングメディアサーバを含む)内、あるいは他の記憶手段またはこれらの場所の組み合わせ上に記憶されてもよい。メディアガイダンスアプリケーションに広告を提供するステップは、例えば、それらの全体で参照することにより本明細書に組み込まれる、2003年1月17日出願のKnudsonらの米国特許出願第10/347,673号、2004年6月29日発行のWard,IIIらの米国特許第6,756,997号、および2002年5月14日発行のScheinらの米国特許第6,388,714号で、さらに詳細に論議されている。広告は、本発明の他のメディアガイダンスアプリケーション表示画面に含まれてもよいことが理解されるであろう。
オプション領域126は、ユーザが、異なる種類のメディアコンテンツ、メディアガイダンスアプリケーション表示、および/またはメディアガイダンスアプリケーション特徴にアクセスすることを可能にしてもよい。オプション領域126は、ディプレイ100(および本発明の他の表示画面)の一部であってもよく、あるいは画面上のオプションを選択すること、またはユーザ入力デバイス上の専用または割当可能ボタンを押下することによって、ユーザによって呼び出されてもよい。オプション領域126内の選択可能オプションは、グリッド102内の番組一覧に関連する特徴に関してもよく、またはメインメニュー表示から利用可能なオプションを含んでもよい。番組一覧に関連する特徴は、他の放送時間または番組の受信方法の検索、番組の録画、番組の連続録画の有効化、番組および/またはチャンネルをお気に入りとして設定、番組の購入、あるいは他の特徴を含んでもよい。メインメニュー表示から利用可能オプションは、検索オプション、VODオプション、ペアレンタルコントロールオプション、種々の種類の一覧表示へのアクセス、プレミアムサービスへの加入、ユーザのプロファイルの編集、ブラウザオーバーレイにアクセス、または他のオプションを含んでもよい。
メディアガイダンスアプリケーションは、ユーザの選好に基づいて個人化されてもよい。個人化されたメディアガイダンスアプリケーションは、ユーザが、メディアガイダンスアプリケーションによって個人化された「体験」を生成するように、表示および特徴をカスタマイズすることを可能にする。この個人化された体験は、ユーザがこれらのカスタマイズを入力できるようにすることによって、および/または種々のユーザ選好を決定するようにメディアガイダンスアプリケーションがユーザ活動を監視することによって、生成されてもよい。ユーザは、ログインすることによって、または別様にガイダンスアプリケーションに対して自らを識別することによって、個人化されたガイダンスアプリケーションにアクセスしてもよい。メディアガイダンスアプリケーションのカスタマイズは、ユーザプロファイルに従って作成されてもよい。カスタマイズは、提示方式(例えば、表示のカラー方式、テキストのフォントサイズ等)、表示されるメディアコンテンツ一覧の態様(例えば、HDTV番組のみ、お気に入りチャンネル選択に基づいたユーザ指定の放送チャンネル、チャンネルの表示の並び替え、推奨メディアコンテンツ等)、所望の録画特徴(例えば、特定のユーザに対する録画または連続録画、録画の質等)、ペアレンタルコントロール設定、および他の所望のカスタマイズを変動させるステップを含んでもよい。
メディアガイダンスアプリケーションは、ユーザがユーザプロファイル情報を提供することを可能にしてもよく、またはユーザプロファイル情報を自動的に編成してもよい。メディアガイダンスアプリケーションは、例えば、ユーザがアクセスするメディア、および/またはユーザがガイダンスアプリケーションと行ってもよい他の対話を監視してもよい。加えて、メディアガイダンスアプリケーションは、特定のユーザに関連する他のユーザプロファイルの全体または一部を取得し(例えば、www.tvguide.com等のユーザがアクセスするインターネット上の他のウェブサイトから、ユーザがアクセスする他のメディアガイダンスアプリケーションから、ユーザがアクセスする他の双方向アプリケーションから、ユーザの手持ち式デバイスから等)、および/またはメディアガイダンスアプリケーションがアクセスしてもよい他のソースから、ユーザに関する情報を取得してもよい。結果として、ユーザの異なるデバイスにわたって、統一されたガイダンスアプリケーション体験をユーザに提供することができる。この種類のユーザ経験は、図4に関連して、以下でより詳細に説明される。付加的な個人化されたメディアガイダンスアプリケーション特徴は、2005年7月11日出願のEllisらの米国特許出願第11/179,410号、1999年11月9日出願のBoyerらの米国特許出願第09/437,304号、および2002年2月21日出願のEllisらの米国特許出願第10/105,128号でさらに詳細に説明されており、それらは全体を参照することにより本明細書に組み込まれる。
メディアガイダンスを提供するための別の表示構成が、図2に示される。ビデオモザイク表示200は、メディアタイプ、ジャンル、および/または他の組織化基準に基づいて組織化されるメディアコンテンツ情報の選択可能なオプション202を含む。表示200では、テレビ一覧オプション204が選択されているため、放送番組一覧として、一覧206、208、210、および212を提供している。図1の一覧とは異なり、表示200の一覧は、メディアを説明する簡単なテキスト(例えば、番組のタイトル)およびアイコンに限定されない。むしろ、表示200では、一覧は、カバーアート、メディアコンテンツからの静止画、ビデオクリップのプレビュー、メディアコンテンツからのライブビデオ、または一覧によって説明されているメディアコンテンツをユーザに示す他の種類のメディアを含む、グラフィック画像を提供してもよい。グラフィック一覧の各々はまた、一覧と関連するメディアコンテンツに関するさらなる情報を提供するように、テキストを同伴してもよい。例えば、一覧208は、メディア部分214およびテキスト部分216を含む、1つより多くの部分を含んでもよい。メディア部分214および/またはテキスト部分216は、ビデオを全画面で見るように、またはメディア部分214に表示されるビデオに関連する番組一覧を閲覧するように(例えば、ビデオが表示されるチャンネルの一覧を閲覧するように)、選択可能であってもよい。
表示200の一覧は、異なるサイズである(すなわち、一覧206は、一覧208、210、および212より大きい)が、所望の場合、全ての一覧が同じサイズであってもよい。一覧は、メディアプロバイダの所望に応じて、またはユーザ選好に基づいて、ユーザに関心の程度を示すように、または、あるコンテンツを強調するように、異なるサイズであるか、またはグラフィックが強調されてもよい。メディア一覧をグラフィック的に強調するための種々のシステムおよび方法は、例えば、全体を参照することにより本明細書に組み込まれる、2005年12月29日出願のYatesの米国特許出願第11/324,202号で論議されている。
ユーザは、それらのユーザ装置デバイスのうちの1つ以上からメディアコンテンツおよびメディアガイダンスアプリケーション(および上記および下記のその表示画面)にアクセスしてもよい。図3は、例示的なユーザ装置デバイス300の一般化された実施形態を示す。ユーザ装置デバイスのより特定の実装が、図4に関連して以下に記載されている。ユーザ装置デバイス300は、入力/出力(以下、「I/O」)パス302を介して、メディアコンテンツおよびデータを受信してもよい。I/Oパス302は、処理回路306および格納装置308を含む制御回路304へ、メディアコンテンツ(例えば、放送プログラミング、オンデマンドプログラミング、インターネットコンテンツ、および他のビデオまたはオーディオ)およびデータを提供してもよい。I/Oパス302を使用して、コマンド、リクエスト、および他の適したデータを送受信するために、制御回路304を使用してもよい。I/Oパス302は、1つ以上の通信パス(以下に記載)へ制御回路304(および具体的には処理回路306)を接続してもよい。I/O機能は、これらの通信経路のうちの1つ以上によって提供されてもよいが、図面が複雑になり過ぎることを回避するため、図3では単一経路として示されている。
制御回路304は、1つ以上のマイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、プログラム可な能論理素子等に基づく処理回路等の任意の好適な処理回路306に基づいてもよい。いくつかの実施形態では、制御回路304は、メモリ(すなわち、記憶装置308)に記憶されたメディアガイダンスアプリケーションに対する命令を実行する。クライアント・サーバに基づく実施形態では、制御回路304は、ガイダンスアプリケーションサーバあるいは他のネットワークまたはサーバと通信するための好適な通信回路を含んでもよい。通信回路は、ケーブルモデム、総合デジタル通信網(ISDN)モデム、デジタル加入者回線(DSL)モデム、電話モデム、または他の機器との通信用無線モデムを含んでもよい。そのような通信は、インターネットあるいは任意の他の好適な通信ネットワークまたは経路を伴ってもよい(図4に関連してさらに詳細に説明される)。加えて、通信回路は、ユーザ機器デバイスのピアツーピア通信、または相互から遠隔の場所にあるユーザ機器デバイスの通信を可能にする回路を含んでもよい(以下でさらに詳細に説明される)。
メモリ(例えば、ランダムアクセスメモリ、読み取り専用メモリ、または任意の他の好適なメモリ)、ハードドライブ、光学ドライブ、あるいは任意の他の好適な固定または可撤性記憶装置(例えば、DVDレコーダ、CDレコーダ、ビデオカセットレコーダ、または他の好適な録画デバイス)は、制御回路308の一部である記憶装置304として提供されてもよい。記憶装置308は、上記の種類の記憶デバイスのうちの1つ以上を含んでもよい。例えば、ユーザ機器デバイス300は、DVR(パーソナルビデオレコーダまたはPVRと称されることもある)用のハードドライブおよび2次記憶装置としてのDVDレコーダを含んでもよい。記憶装置308は、番組情報、ガイダンスアプリケーション設定、ユーザ選好またはプロファイル情報、あるいはガイダンスアプリケーションを操作する際に使用される他のデータを含む、本明細書で説明される種々の種類のメディアおよびガイダンスアプリケーションデータを記憶するために使用されてもよい。非揮発性メモリもまた、使用されてもよい(例えば、ブートアップルーチンや他の命令を起動するために)。
制御回路304は、1つ以上のアナログチューナ、1つ以上のMPEG−2デコーダ、または他のデジタル復号回路、高解像度チューナ、または任意の他の好適な同調あるいはビデオ回路、もしくはそのような回路の組み合わせ等の、ビデオ生成回路および同調回路を含んでもよい。符号化回路(例えば、記憶のために、無線、アナログ、またはデジタル信号をMPEG信号に変換するためのもの)もまた、提供されてもよい。回路304はまた、メディアをユーザ機器300の好ましい出力形式に上方変換および下方変換するためのスケーラ回路を含んでもよい。回路304はまた、デジタルおよびアナログ信号間で変換するためのデジタルからアナログへの変換回路およびアナログからデジタルへの変換回路を含んでもよい。同調および符号化回路は、メディアコンテンツを受信して表示する、再生する、または録画するために、ユーザ機器によって使用されてもよい。同調および符号化回路はまた、ガイダンスデータを受信するために使用されてもよい。例えば、同調、ビデオ生成、符号化、復号、スケーラ、およびアナログ/デジタル回路を含む、本明細書で説明される回路は、1つ以上の汎用または専門プロセッサ上で稼働するソフトウェアを使用して実装されてもよい。複数のチューナが、同時同調機能に対処するように提供されてもよい(例えば、見ることおよび録画機能、ピクチャインピクチャ(PIP)機能、多重チューナ録画機能等)。記憶装置308が、ユーザ機器300とは別のデバイスとして提供される場合、同調および符号化回路(複数のチューナを含む)は、記憶装置308と関連付けられてもよい。
ユーザは、ユーザ入力インターフェース310を使用して制御回路304を制御してもよい。ユーザ入力インターフェース310は、リモートコントロール、マウス、トラックボール、キーパッド、キーボード、タッチ画面、タッチパッド、スタイラス入力、ジョイスティック、音声認識インターフェース、または他のユーザ入力インターフェース等、任意の好適なユーザインターフェースであってもよい。いくつかの実施形態では、ユーザ入力インターフェース310は、加速度計316を含んでもよい。ユーザが加速度計316を含むユーザ入力インターフェース310を移動させる場合、加速度計316は、ユーザ入力インターフェースの動きおよび向きについての情報を、ユーザ装置デバイス300へ伝送してもよい。いくつかの実施形態では、ユーザ入力インターフェース310は、加速度計316に加えて、またはこの代わりに、ジャイロスコープ(図示せず)を含んでもよい。
例えば、加速度計316を含むユーザ入力インターフェース310は、Nintendo Wiiで使用されるユーザ入力インターフェースと同様の棒状のデバイスであってもよい。一実施形態では、棒状のデバイスは、矩形角柱の形であってもよい。他の実施形態では、棒状のデバイスは、三角形角柱、球体、または円筒の形であってもよい、または棒状のデバイスは、ピラミッドまたは円錐のように、ある端からもう一方の端へ徐々に狭くしてもよい。ユーザが棒状のデバイスを持ち、腕を振り回す場合に、加速度計316は、ユーザから最も離れた、棒状のデバイス上の点の上方向の動きおよび上方向の向きを示す情報を伝送してもよい。ユーザが棒状のデバイスを持ち、腕を振り下ろす場合、加速度計316は、ユーザから最も離れた、棒状のデバイス上の点の下方向の動きおよび下方向の向きを示す情報を伝送してもよい。ユーザが棒状のデバイスを持ち、腕を地面と平行に振る場合、加速度計316は、横方向の動きおよび地面に平行な棒状のデバイスの向きを示す情報を伝送してもよい。ユーザは、上方向、下方向、および横方向の腕の動きの任意の組み合わせで棒状のデバイスを動かし、その向きを変えてもよい。ユーザは、棒状のデバイスを持ちながら、上下左右または円形の動きに手首を動かす等、腕全体でなく手首だけを動かすことにより、棒状のデバイスを動かし、その向きを変えてもよい。
ディスプレイ312は、独立型デバイスとして提供されるか、またはユーザ機器デバイス300の他の要素と一体化してもよい。ディスプレイ312は、モニタ、テレビ、モバイルデバイス用液晶画面(LCD)、または視覚的画像を表示するための任意の他の好適な機器のうちの1つ以上であってもよい。いくつかの実施形態では、ディスプレイ312は、HDTV対応型であってもよい。スピーカ314は、ユーザ機器デバイス300の他の要素との統合として提供されてもよく、または独立型ユニットであってもよい。ディスプレイ312上に表示されるビデオおよび他のメディアコンテンツのオーディオ構成要素は、スピーカ314を通して再生されてもよい。いくつかの実施形態では、音声は、スピーカ314を介して音声を処理および出力する、受信機(図示せず)に配信されてもよい。
ガイダンスアプリケーションは、任意の好適なアーキテクチャを使用して実装されてもよい。例えば、それは、ユーザ機器デバイス300上で完全に実装される、独立型アプリケーションであってもよい。そのようなアプローチでは、アプリケーションの命令は、ローカルに記憶され、アプリケーションによって使用するためのデータは、周期的にダウンロードされる(例えば、テレビチャンネルのVBIから、帯域外フィードから、または別の好適なアプローチを使用して)。別の実施形態では、メディアガイダンスアプリケーションは、クライアント・サーバベースのアプリケーションである。ユーザ機器デバイス300上に実装される、シックまたはシンクライアントによって使用するためのデータは、ユーザ機器デバイス300の遠隔にあるサーバに要求を発行することによって、オンデマンドで読み出される。クライアント・サーバベースのガイダンスアプリケーションの一実施例では、制御回路304は、遠隔サーバによって提供されるウェブページを解釈する、ウェブブラウザを実行する。
さらに他の実施形態では、メディアガイダンスアプリケーションは、インタープリタまたは仮想マシン(制御回路304によって実行される)によって、ダウンロードされ、解釈または別様に実行される。いくつかの実施形態では、ガイダンスアプリケーションは、ETVバイナリ交換形式(ETV Binary Interchange Format/EBIF)で符号化され、好適なフィードの一部として制御回路304によって受信され、制御回路304上で稼働するユーザエージェントによって解釈されてもよい。例えば、ガイダンスアプリケーションは、EBIFウィジェットであってもよい。他の実施形態では、ガイダンスアプリケーションは、制御回路304によって実行されるローカル仮想マシンまたは他の好適なミドルウェアによって受信および実行される、一連のJAVA(登録商標)ベースのファイルによって定義されてもよい。そのような実施形態のうちのいくつか(例えば、MPEG−2または他のデジタルメディア符号化スキームを採用するもの)では、ガイダンスアプリケーションは、例えば、番組のMPEGオーディオおよびビデオパケットを用いたMPEG−2オブジェクトカルーセルにおいて符号化および伝送されてもよい。
図3のユーザ機器デバイス300は、ユーザテレビ機器402、ユーザコンピュータ機器404、無線通信デバイス406、または非携帯型ゲーム機等のメディアにアクセスするために好適な任意の他の種類のユーザ機器として、図4のシステム400に実装することができる。簡単にするために、これらのデバイスは、本明細書では総称して、ユーザ機器またはユーザ機器デバイスと呼ばれてもよい。メディアガイダンスアプリケーションが実装されるユーザ機器デバイスは、独立型デバイスとして機能してもよく、またはデバイスのネットワークの一部であってもよい。デバイスの種々のネットワーク構成が実装されてもよく、以下でさらに詳細に論議される。
ユーザテレビ機器402は、セットトップボックス、衛星放送用受信機(IRD)、テレビセット、デジタル記憶デバイス、DVDレコーダ、ビデオカセットレコーダ(VCR)、ローカルメディアサーバ、または他のユーザテレビ機器を含んでもよい。これらのデバイスのうちの1つ以上は、所望の場合、単一デバイスとなるように統合されてもよい。ユーザコンピュータ機器404は、PC、ラップトップ、タブレット、WebTVボックス、パーソナルコンピュータテレビ(PC/TV)、PCメディアサーバ、PCメディアセンタ、または他のユーザコンピュータ機器を含んでもよい。WEBTVは、Microsoft Corp.によって所有される商標である。無線ユーザ通信デバイス406は、PDA、携帯電話、携帯用ビデオプレーヤ、携帯用音楽プレーヤ、携帯用ゲーム機、または他の無線デバイスを含んでもよい。
PC用テレビチューナーカード、WebTV、および他のユーザ機器デバイスへのビデオの統合の出現に伴い、デバイスを上記のデバイスのうちの1つとして分類しようとすると、明確に区分できなくなることに留意されたい。実際、ユーザテレビ機器402、ユーザコンピュータ機器404、および無線ユーザ通信デバイス406の各々は、図3に関連して上記で説明されるシステム特徴のうちの少なくともいくつかを利用し、結果として、デバイス上で利用可能なメディアコンテンツの種類に関する融通性を含んでもよい。例えば、ユーザテレビ機器402は、インターネットコンテンツへのアクセスを可能にするインターネット対応型であってもよい一方で、ユーザコンピュータ機器404は、テレビ番組へのアクセスを可能にするチューナを含んでもよい。メディアガイダンスアプリケーションはまた、種々の種類のユーザ機器上で同一レイアウトを有してもよく、またはユーザ機器の表示能力に合わせられてもよい。例えば、ユーザコンピュータ機器上では、ガイダンスアプリケーションは、ウェブブラウザによってアクセスされるウェブサイトとして提供されてもよい。別の実施例では、ガイダンスアプリケーションは、無線ユーザ通信デバイス用に縮小されてもよい。
システム400では、典型的には、各種類のユーザ機器デバイスが2つ以上存在するが、図面が複雑になり過ぎることを回避するように、それぞれ1つだけが図4に示されている。加えて、各ユーザは、2つ以上の種類のユーザ機器デバイスを利用し(例えば、ユーザはテレビセットおよびコンピュータを有してもよい)、また各種類のユーザ機器デバイスを2つ以上利用してもよい(例えば、ユーザはPDAおよび携帯電話および/または複数のテレビセットを有してもよい)。
ユーザはまた、家庭内デバイスおよび遠隔デバイスにわたって一貫したメディアガイダンスアプリケーション設定を維持するように、種々の設定を設定してもよい。設定は、本明細書で説明される設定、ならびに、お気に入りのチャンネルおよび番組、番組を推奨するためにガイダンスアプリケーションが利用する番組選好、表示選好、および他の望ましいガイダンス設定を含む。例えば、ユーザが、オフィスのパソコンで、例えば、ウェブサイトwww.tvguide.comの上で、チャンネルをお気に入りとして設定した場合、所望であれば、同じチャンネルが、ユーザの家庭内デバイス(例えば、ユーザテレビ機器およびユーザコンピュータ機器)、ならびにユーザのモバイルデバイス上でお気に入りとして表示される。したがって、同じまたは異なる種類のユーザ機器デバイスであるかどうかにかかわらず、1つのユーザ機器デバイス上で行われる変更は、別のユーザ機器デバイス上のガイダンス体験を変更することができる。さらに、行われる変更は、ユーザによる設定入力、ならびにガイダンスアプリケーションによって監視されるユーザ活動に基づいてもよい。
ユーザ機器デバイスは、通信ネットワーク414に連結されてもよい。すなわち、ユーザテレビ機器402、ユーザコンピュータ機器404、および無線ユーザ通信デバイス406は、それぞれ、通信経路408、410、および412を介して、通信ネットワーク414に連結される。通信ネットワーク414は、インターネット、携帯電話ネットワーク、モバイルデバイス(例えば、Blackberry)ネットワーク、ケーブルネットワーク、公衆交換電話ネットワーク、または他の種類の通信ネットワーク、あるいは通信ネットワークの組み合わせを含む、1つ以上のネットワークであってもよい。BLACKBERRYは、Research In Motion Limited Corp.によって所有されるサービスマークである。経路408、410、および412は、別個または一緒に、衛星経路、光ファイバ経路、ケーブル経路、インターネット通信をサポートする経路(例えば、IPTV)、フリースペース接続(例えば、放送または他の無線信号用)、あるいは任意の他の好適な有線または無線通信経路、もしくはそのような経路の組み合わせ等の、1つ以上の通信経路を含んでもよい。経路412は、図4に示された例示的実施形態において、無線経路であることを示すように破線で描かれ、経路408および410は、有線経路であることを示すように実線で描かれている(しかし、これらの経路は、所望であれば無線経路であってもよい)。ユーザ機器デバイスとの通信は、これらの通信経路のうちの1つ以上によって提供されてもよいが、図4では、図面が複雑になり過ぎることを回避するように、単一経路として示されている。
ユーザ機器デバイスの間に通信パスは図示されていないが、これらのデバイスは、経路408、410、および412に関連して上記で説明されるもの、ならびにUSBケーブル、IEEE 1394ケーブル、無線経路(例えば、Bluetooth(登録商標)、赤外線、IEEE 802−11x等)等の他の短距離ポイントツーポイント通信経路、あるいは有線または無線経路を介した他の短距離通信等の通信経路を介して、相互に直接通信してもよい。BLUETOOTHは、Bluetooth(登録商標) SIG、INCによって所有される認証マークである。ユーザ装置デバイスは、さらに、通信ネットワーク414を介して、間接的な経路により、相互に直接通信してもよい。
システム400は、それぞれ通信経路420および422を介して通信ネットワーク414に連結される、メディアコンテンツソース416およびメディアガイダンスデータソース418を含む。経路420および422は、経路408、410、および412に関して上記で説明される通信経路のうちのいずれかを含んでもよい。メディアコンテンツソース416およびメディアガイダンスデータソース418との通信は、1つ以上の通信経路を介して交信されてもよいが、図4では、図面が複雑になり過ぎることを回避するように、単一経路として示されている。加えて、メディアコンテンツソース416およびメディアガイダンスデータソース418のそれぞれが2つ以上あってもよいが、図4では、図面が複雑になり過ぎることを回避するように、それぞれ1つだけが示されている。(これらのソースのそれぞれの異なる種類を以下で論議する)。所望であれば、メディアコンテンツソース416およびメディアガイダンスデータソース418は、1つのソースデバイスとして統合されてもよい。ソース416および418と、ユーザ機器デバイス402、404、および406との間の通信は、通信ネットワーク414を通したものとして示されているが、いくつかの実施形態では、ソース416および418は、経路408、410、および412に関連して上記で説明されるもの等の通信経路(図示せず)を介して、ユーザ機器デバイス402、404、および406と直接通信してもよい。
メディアコンテンツソース416は、テレビ配信施設、ケーブルシステムヘッドエンド、衛星配信施設、番組ソース(例えば、NBC、ABC、HBO等のテレビ放送会社)、中間配信施設および/またはサーバ、インターネットプロバイダ、オンデマンドメディアサーバ、および他のメディアコンテンツプロバイダを含む、1つ以上の種類のメディア配信機器を含んでもよい。NBCは、National Broadcasting Company, Inc.によって所有される商標であり、ABCは、ABC, INC.によって所有される商標であり、HBOは、Home Box Office, Inc.によって所有される商標である。メディアコンテンツソース416は、メディアコンテンツの発信元であってもよく(例えば、テレビ放送会社、ウェブキャストプロバイダ等)、またはメディアコンテンツの発信元でなくてもよい(例えば、オンデマンドメディアコンテンツプロバイダ、ダウンロード用放送番組のビデオコンテンツのインターネットプロバイダ等)。メディアコンテンツソース416は、ケーブルソース、衛星プロバイダ、オンデマンドプロバイダ、インターネットプロバイダ、または他のメディアコンテンツプロバイダを含んでもよい。メディアコンテンツソース416は、ユーザ機器デバイスのうちのいずれかから遠隔の場所にある、異なる種類のメディアコンテンツ(ユーザによって選択されるビデオコンテンツを含む)を記憶するために使用される、遠隔メディアサーバを含んでもよい。メディアコンテンツの遠隔記憶のため、および遠隔に記憶されたメディアコンテンツをユーザ機器に提供するためのシステムおよび方法は、その全体を参照することにより本明細書に組み込まれる、1999年6月11日出願のEllisらの米国特許出願第09/332,244号に関連して、さらに詳細に論議されている。
メディアガイダンスデータソース418は、メディア一覧、メディア関連情報(例えば、放送時間、放送チャンネル、メディアのタイトル、メディア内容、評価情報(例えば、ペアレンタルコントロール評価、批評家の評価等)、ジャンルまたはカテゴリ情報、俳優情報、放送会社またはプロバイダのロゴのロゴデータ等)、メディア形式(例えば、標準解像度、高解像度等)、広告情報(例えば、テキスト、画像、メディアクリップ等)、オンデマンド情報、および、ユーザが所望のメディア選択間でナビゲートし、検索するために役立つ、任意の他の種類のガイダンスデータ等のメディアガイダンスデータを提供してもよい。
メディアガイダンスアプリケーションデータは、任意の好適なアプローチを使用して、ユーザ機器デバイスに提供されてもよい。いくつかの実施形態では、ガイダンスアプリケーションは、データフィード(例えば、連続フィード、トリクルフィード、またはチャンネルの垂直帰線消去間隔内のデータ)を介して番組ガイドデータを受信する、独立型双方向テレビ番組ガイドであってもよい。番組スケジュールデータおよび他のガイダンスデータは、テレビチャンネルのサイドバンド上で、テレビチャンネルの垂直帰線消去間隔内で、帯域内デジタル信号を使用して、帯域外デジタル信号を使用して、または任意の他の好適なデータ伝送技術によって、ユーザ機器に提供されてもよい。番組スケジュールデータおよび他のガイダンスデータは、複数のアナログまたはデジタルテレビチャンネル上でユーザ機器に提供されてもよい。番組スケジュールデータおよび他のガイダンスデータは、任意の好適な頻度で(例えば、連続して、毎日、ユーザ指定期間で、システム指定期間で、ユーザ機器からの要求に応じて等)ユーザ機器に提供されてもよい。いくつかのアプローチでは、メディアガイダンスデータソース418からのガイダンスデータは、クライアントサーバアプローチを使用して、ユーザの機器に提供されてもよい。例えば、ユーザの機器上に存在するガイダンスアプリケーションクライアントは、必要な時にガイダンスデータを取得するように、ソース418とのセッションを開始してもよい。メディアガイダンスデータソース418は、ユーザ機器デバイス402、404、および406に、メディアガイダンスアプリケーション自体、またはメディアガイダンスアプリケーションのソフトウェア更新を提供してもよい。
メディアガイダンスアプリケーションは、例えば、ユーザ機器デバイス上に実装される独立型アプリケーションであってもよい。他の実施形態では、メディアガイダンスアプリケーションは、クライアントがユーザ機器デバイス上に常駐する場合のみ、クライアントサーバアプリケーションであってもよい。例えば、メディアガイダンスアプリケーションは、部分的にユーザ機器デバイス300の制御回路304上のクライアントアプリケーションとして、および部分的に遠隔サーバ上のサーバアプリケーションとして(例えば、メディアガイダンスデータソース418)、実装されてもよい。ガイダンスアプリケーション表示は、メディアガイダンスデータソース418によって生成され、ユーザ機器デバイスに伝送されてもよい。メディアガイダンスデータソース418はまた、ユーザ機器上での記憶のためにデータを伝送してもよく、次いで、ユーザ機器は、制御回路によって処理される命令に基づいて、ガイダンスアプリケーション表示を生成する。
メディアガイダンスシステム400は、いくつかのアプローチ、またはネットワーク構成を例示することを目的としており、これによって、ユーザ機器デバイスならびにメディアコンテンツおよびガイダンスデータのソースは、メディアにアクセスし、メディアガイダンスを提供する目的で、相互に通信してもよい。本発明は、これらのアプローチのいずれか1つまたは一部において、またはメディアを送達し、メディアガイダンスを提供するための他のアプローチを採用するシステムにおいて、適用されてもよい。以下の3つのアプローチは、図4の一般化実施例の具体的例示を提供する。
1つのアプローチでは、ユーザ機器デバイスは、ホームネットワーク内で相互に通信してもよい。ユーザ機器デバイスは、上記で説明される短距離ポイントツーポイント通信方式を介して、ホームネットワーク上に提供されるハブまたは他の類似デバイスを通した間接経路を介して、あるいは通信ネットワーク414を介して、直接相互に通信することができる。1つの家庭内の複数の個人のそれぞれが、ホームネットワーク上の異なるユーザ機器デバイスを操作してもよい。結果として、種々のメディアガイダンス情報または設定が、異なるユーザ機器デバイス間で伝達されることが望ましくてもよい。例えば、2005年7月11日出願のEllisらの米国特許出願第11/179,410号でさらに詳細に説明されているように、ホームネットワーク内の異なるユーザ機器デバイス上で、ユーザが一貫したメディアガイダンスアプリケーション設定を維持することが望ましくてもよい。ホームネットワーク内の異なる種類のユーザ機器デバイスはまた、メディアコンテンツを伝送するように相互に通信してもよい。例えば、ユーザは、ユーザコンピュータ機器から携帯用ビデオプレーヤまたは携帯用音楽プレーヤにメディアコンテンツを伝送してもよい。
第2のアプローチでは、ユーザは、複数の種類のユーザ機器を有してもよく、これによって、メディアコンテンツにアクセスしてメディアガイダンスを取得する。例えば、一部のユーザは、家庭内およびモバイルデバイスによってアクセスされる、ホームネットワークを有してもよい。ユーザは、リモートデバイス上で実装されるメディアガイダンスアプリケーションを介して、家庭内デバイスを制御してもよい。例えば、ユーザは、オフィスのパーソナルコンピュータ、あるいはPDAまたはウェブ対応携帯電話等のモバイルデバイスを介して、ウェブサイト上のオンラインメディアガイダンスアプリケーションにアクセスしてもよい。ユーザは、オンラインガイダンスアプリケーション上で種々の設定(例えば、録画、リマインダ、または他の設定)を設定して、ユーザの家庭内機器を制御してもよい。オンラインガイドは、直接、またはユーザの家庭内機器上のメディアガイダンスアプリケーションと通信することによって、ユーザの機器を制御してもよい。ユーザ機器デバイスが相互から遠隔の場所にある、ユーザ機器デバイスの通信のための種々のシステムおよび方法は、例えば、その全体を参照することにより本明細書に組み込まれる、2004年8月26日出願のEllisらの米国特許出願第10/927,814号で論議されている。
第3のアプローチでは、家庭内外のユーザ機器デバイスは、メディアコンテンツソース416と直接通信してメディアコンテンツにアクセスするために、メディアガイダンスアプリケーションを使用することができる。具体的には、家庭内では、ユーザテレビ機器404およびユーザコンピュータ機器406のユーザは、メディアガイダンスアプリケーションにアクセスし、望ましいメディアコンテンツ間でナビゲートし、検索してもよい。ユーザはまた、無線ユーザ通信デバイス406を使用して、家庭外のメディアガイダンスアプリケーションにアクセスし、望ましいメディアコンテンツ間でナビゲートし、検索してもよい。
メディアコンテンツの論議は、ビデオコンテンツを中心としているが、メディアガイダンスの原則は、音楽、画像等の他の種類のメディアコンテンツに適用できることが理解されるであろう。
いくつかの実施形態では、メディアガイダンスアプリケーションオブジェクトまたはメディアガイダンスオブジェクトは、異なる面に表示されるように現れてもよい。特に、メディアガイダンスオブジェクトのうちの1つは、第1の面に表示されてもよく(例えば、メディアガイダンスオブジェクトは、画面上で平坦に現れる)、他のメディアガイダンスオブジェクトは、第2の面に表示されてもよい(例えば、画面の前または画面の後ろにあるかのように現れるメディアガイダンスオブジェクト)。
本明細書に定義されるように、メディアガイダンスオブジェクトまたはメディアガイダンスアプリケーションオブジェクトという用語は、任意のウェブサイト、ライブビデオフィード、または録画されたビデオフィードプレイバックあるいはユーザプロファイルの視覚的提示等のメディアガイダンスアプリケーションデータの視覚的提示、メディアアセット、以前に録画されたメディアアセット、メディアアセット推奨、電子メールメッセージ、通知、リマインダ、スケジューリングされた録画、お気に入りのチャンネル、写真、アイコン、スケッチ、ショートメッセージサービス(SMS)メッセージ、マルチメディアメッセージングサービス(MMS)メッセージ、サービス提供者メッセージ、新しいメディアアセットリリース、メディアカテゴリ、未来の時間に見られるメディアアセットを含むキュー、メディアアセットのプレイリスト、または家庭用ビデオ、あるいはこれらの任意の組み合わせを意味する。
立体視メディアガイダンスアプリケーションでは、立体視効果は、ユーザの右目で見られる第1の画像の生成およびユーザの左目で見られる第2の画像の生成によって実現されてもよい。立体画像を生成するために2つの画像が重ね合わされる。立体画像では、一部のオブジェクトは、ユーザにより近いように現れ、他のオブジェクトは、より離れているように現れる。ユーザの目のそれぞれに提示される画像を分離するために、ユーザは、立体視光学デバイスを介して立体視メディアガイダンスアプリケーションを見てもよい。
図5Aは、本発明の一実施形態による例示的な立体視光学デバイスを示す。特に、立体視光学デバイス500は、眼鏡のような構造であってもよい。立体視光学デバイス500は、ユーザの右目のための第1の開口502aおよびユーザの左目のための第2の開口502bを有してもよい。ユーザが開口502aを通して覗くと、ユーザは、ユーザの右目のために生成された画像のみを見る。同様に、ユーザが開口502bを通して覗くと、ユーザは、ユーザの左目のために生成された画像のみを見る。開口502aおよび502bは、フレーム構造504によって包囲されてもよい。フレーム構造504は、ユーザが立体視光学デバイス500を着用する場合に、ユーザの鼻に置かれ得るブリッジ506を含んでもよい。立体視光学デバイス500は、さらに、ユーザの頭の側面にそって走り、ユーザの耳に引っ掛けるサイドピース508を有してもよい。サイドピース508は、ねじ、ヒンジ、のり、または任意の他の適した取り付け手段によってフレーム構造504に取り付けられてもよい。いくつかの実施形態では、サイドピース508は、ユーザが立体視光学デバイス500を着用していない場合にフレーム構造504の後ろに折り畳まれ得る。
一実施形態では、フレーム構造504、ブリッジ506、およびサイドピース508は、プラスチックでできていてもよい。別の実施形態では、フレーム構造504、ブリッジ506、およびサイドピース508は、金属でできていてもよい。フレーム構造504、ブリッジ506、およびサイドピース508を作成するために、任意の他の適した材料を使用してもよい。いくつかの実施形態では、フレーム構造504、ブリッジ506、およびサイドピース508は、全て、同じ材料でできていてもよい。他の実施形態では、フレーム構造504、ブリッジ506、およびサイドピース508の各々は、異なる材料でできていてもよい。さらに他の実施形態では、フレーム構造504、ブリッジ506、およびサイドピース508のうちの1つは、他の2つのパーツとは異なる材料でできていてもよい。
いくつかの実施形態では、開口502aは、第1のレンズによって覆われてもよく、開口502bは第2のレンズで覆われてもよい。レンズは、液晶またはいくつかの他の適した材料でできていてもよい。いくつかの実施形態では、レンズのそれぞれを通して見られる画像は、適切なときに、レンズをブロックおよびブロック解除することによって重ね合わされる。レンズがブロックされる場合、可視光は、レンズを通過できない。レンズがブロック解除される場合、可視光は、レンズを通過することができる。
いくつかの実施形態では、ユーザ装置デバイス上のトランスミッタは、センサによって受信される第1の信号を伝送してもよい。第1の信号の受信に応じて、第1のレンズはブロックされ、第2のレンズはブロック解除される。次いで、第2の信号がトランスミッタによって伝送され、センサによって受信されてもよい。第2の信号の受信に応じて、第1のレンズはブロック解除され、第2のレンズはブロックされる。トランスミッタ、センサ、および信号が、図8に関連して以下により詳細に記載される。
いくつかの実施形態では、レンズは、シャッタリングプロセスを使用して、ブロックおよびブロック解除されてもよい。例えば、視覚の残像によって、ユーザに対して、レンズのシャッタリングを気づかせないようにし、代わりに、連続する立体画像を見せるように、上記のレンズのブロックおよびブロック解除のプロセスは、一秒当たり何度も繰り返されてもよい。いくつかの実施形態では、レンズのブロックおよびブロック解除によって、一秒当たり60回のレートが生じる。他の実施形態では、ブロックおよびブロック解除は、より遅いまたはより速いレートで生じてもよい。例えば、ブロックおよびブロック解除は、一秒当たり30回のレートで生じてもよい。
図5Bは、本発明の別の実施形態による例示的な立体視光学デバイスを示す。特に、立体視光学デバイス520は、ゴーグルのような構造であってもよい。立体視光学デバイス520は、ユーザの右目のための第1の開口522aおよびユーザの左目のための第2の開口522bを有してもよい。ユーザが開口522aを通して覗くと、ユーザは、ユーザの右目のために生成された画像のみを見る。同様に、ユーザが開口522bを通して覗くと、ユーザは、ユーザの左目のために生成された画像のみを見る。開口522aおよび522bは、フレーム構造524によって包囲されてもよい。フレーム構造524は、ユーザが立体視光学デバイス520を着用する場合に、ユーザの鼻に置かれてもよいブリッジ526をを含んでもよい。立体視光学デバイス520は、立体視光学デバイス520を固定するために、ユーザの頭に巻くバンド528をさらに有してもよい。バンド528は、ねじ、ヒンジ、のり、または任意の他の適した取り付け手段によって、フレーム構造524に取り付けられてもよい。
一実施形態では、フレーム構造524およびブリッジ526は、プラスチックでできていてもよい。別の実施形態では、フレーム構造524およびブリッジ526は、金属でできていてもよい。フレーム構造524およびブリッジ526を作成するために、任意の他の適した材料を使用してもよい。いくつかの実施形態では、フレーム構造524およびブリッジ526は、同じ材料でできていてもよい。他の実施形態では、フレーム構造524およびブリッジ526は、異なる材料でできていてもよい。
いくつかの実施形態では、バンド528は、プラスチックまたは金属等の剛性の材料でできていてもよい。他の実施形態では、バンド528は、ゴムまたはラテックス等の弾性の材料でできていてもよい。バンド528の長さは、立体視光学デバイス520が異なるサイズのユーザによって着用されてもよいように、調整可能であってもよい。いくつかの実施形態では、開口522aは、第1のレンズによって覆われてもよく、開口522bは第2のレンズによって覆われてもよい。レンズは、液晶またはいくつかの他の適した材料でできていてもよい。いくつかの実施形態では、レンズのそれぞれを通して見られる画像は、図5Aに関連して、上記のように適切な時間でレンズをブロックおよびブロック解除することによって重ね合わせられる。
図5Cは、本発明の第3の実施形態による例示的な立体視光学デバイスを示す。特に、立体視光学デバイス540は、オペラグラスのような構造であってもよい。立体視光学デバイス540は、ユーザの右目のための第1の開口542aおよびユーザの左目のための第2の開口542bを有してもよい。ユーザが開口542aを通して覗くと、ユーザは、ユーザの右目のために生成された画像のみを見る。同様に、ユーザが開口542bを通して覗くと、ユーザは、ユーザの左目のために生成された画像のみを見る。開口542aおよび542bは、それぞれ、フレーム構造544aおよび544bによって包囲されてもよい。フレーム構造544aおよび544bは、ユーザが立体視光学デバイス540を着用する場合に、ユーザの鼻に置かれてもよいブリッジ546によって接続されてもよい。ブリッジ546の長さは、立体視光学デバイス540が異なるサイズのユーザによって使用されてもよいように、調整可能であってもよい。
いくつかの実施形態では、フレーム構造544aおよび544bならびにブリッジ546は、プラスチック、紙および/または金属でできていてもよい。フレーム構造544aおよび544bならびにブリッジ546を作成するために、任意の他の適した材料を使用してもよい。いくつかの実施形態では、フレーム構造544aおよび544bならびにブリッジ546は、同じ材料でできていてもよい。他の実施形態では、フレーム構造544aおよび544bならびにブリッジ546は、異なる材料でできていてもよい。いくつかの実装では、立体視光学デバイス540は、一枚の紙に提供され、特定の領域に基づいて切断されてもよい。立体視光学デバイス540は、図5Dに関連して図示および以下に記載されるように、オブジェクトの切断断面を結合および折り畳むことにより、形成してもよい。特定の向きにある場合に、第2の開口542bが、ユーザの右目から可視光が通過できるようにし、ユーザの右目によって見るために生成された重ね合わされた立体画像の一部のみを見ることができるように、立体視光学デバイス540がユーザの顔に位置するように構成されてもよい。さらに、特定の向きにある場合に、第1の開口542aが、ユーザの左目から可視光が通過できるようにし、ユーザの左目によって見るために生成された重ね合わせられた立体画像の一部のみを見ることができるようにされてもよい。一緒に見られる場合、ユーザの脳は画像を組み合わせて、(以下により詳細に記載される)3次元オブジェクトとして、組み合わされた画像を感知する。
立体視光学デバイス540は、開口542aおよび542bを通して覗く場合に、ユーザが持ち得るハンドル548をさらに有してもよい。ハンドル548は、ねじ、ヒンジ、のり、または任意の他の適した取り付け手段によって、フレーム構造544aまたはフレーム構造544bのいずれかに取り付けられてもよい。ハンドル548の長さは、異なるサイズのユーザによって立体視光学デバイス540が使用できるように調整可能であってもよい。ハンドル548は、プラスチック、金属、ゴム、または任意の他の適した材料または材料の組み合わせでできていてもよい。いくつかの実施形態では、ハンドル548は、立体視光学デバイス540が使用されていない場合に、フレーム構造544aおよび544bの後ろに畳み込まれてもよい。
いくつかの実施形態では、開口542aは、第1のレンズに覆われてもよく、開口542bは、第2のレンズに覆われていてもよい。レンズは、液晶またはいくつかの他の適した材料でできていてもよい。いくつかの実施形態では、レンズのそれぞれを介して見られる画像は、図5Aに関連して上記のように、適切な時にレンズをブロックおよびブロック解除することにより、重ね合わせられる。
図5Dは、本発明の一実施形態による例示的な立体視光学デバイスのパターン560を示す。パターン560は、上記の立体視光学デバイス540と相似の立体視光学デバイスを形成するために、切断および組み立てられてもよい。パターン560のアウトラインが切断された後に、スリットを線562a−dに沿って切断してもよい。パターン560を黒い側面が互いに面し、フレーム構造を形成するように点線564a−fに沿って折り畳んでもよい。フレーム構造は、スリット562aをスリット562bに挿入し、スリット562dをスリット562cに挿入することによって一緒に固定してもよい。
各目の画像が並んで提示される実施形態において、パターン560から形成される立体視光学デバイスを使用してもよい。例えば、左目のための画像が、画面の左部分に表示されてもよく、右目のための画像が画面の部分から離れた適した距離において画面の右部分に表示されてもよい。いくつかの実装では、2つの別々の画面が、それぞれ、それぞれの目の画像を表示するように構成されてもよい。ユーザは、ある時に片目をつぶることにより、それぞれの目の画像を、フレーム構造およびフレームの広い側から覗いてもよい。ユーザは、両目が開いている場合に、1つの立体画像を見てもよい。
図5A−Dに関連して上記に記載されているもの等の立体視光学デバイスは、ユーザが、立体視メディアガイダンスアプリケーションを見る場合に使用されてもよい。例示的な立体視メディアガイダンスアプリケーション表示画面が、図6A−Bおよび7A−Bに関連して以下に詳細に記載されている。
図6Aは、本発明の一実施形態による、異なる面に現れるメディアオブジェクトの表示画面600の例示的な正面図を示す。表示画面600を見るユーザ608は、第1の選択可能なメディアガイダンスオブジェクト602および第2の選択可能なメディアガイダンスオブジェクト604を見る。第1の選択可能なメディアガイダンスオブジェクト602は、見られると、表示画面600に垂直な軸606に沿って第2の選択可能なメディアガイダンスオブジェクト604よりもユーザに近く現れる。
第1および第2の選択可能なメディアガイダンスオブジェクト602および604のユーザの感知が、図6Bにさらに示される。図6Bは、第1および第2の選択可能なメディアガイダンスオブジェクト602および604が、実際に3次元であると仮定する、図6Aに示される表示画面の例示的な側面図を示す。第1の選択可能なメディアガイダンスオブジェクト602は、点線612によって示される第1の面に表示される。第2の選択可能なメディアガイダンスオブジェクト604は、第1の面612とは異なる位置にある軸606と交差する点線614によって示される第2の面に表示される。ユーザは、図5A−Cに関連して上記のものと相似の立体視光学デバイス616を介して、表示画面600を見てもよい。ユーザは、図3に関連して上記に記載のユーザ入力デバイス等の、ユーザ入力デバイス610を有する第1および第2の選択可能なメディアガイダンスオブジェクト602および604のうちの少なくとも1つを選択してもよい。選択可能なメディアガイダンスオブジェクトの選択は、図9A−Bおよび10に関連して以下に詳細に記載される。
複数の選択可能なメディアガイダンスオブジェクトは、図7A−Bに関連して以下に記載されるように、立体視メディアガイダンスアプリケーション表示に構成されてもよい。図7Aは、本発明の一実施形態による、異なる面に表示される選択可能なメディアオブジェクトの例示的な表示画面700を示す。選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712は、惑星(planetary)システムに基づいて構成されてもよい。特に、選択可能なメディアガイダンスオブジェクト702は、惑星システム内の太陽の位置にあってもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、太陽の周囲の軌道を旋回する惑星の位置にあってもよい。より具体的には、選択可能なメディアガイダンスオブジェクト702は、3次元空間の中心領域にあるものとして立体視光学デバイスを使用する場合に、ユーザによって感知されてもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、3次元空間で選択可能なメディアガイダンスオブジェクト702を包囲するものとして、ユーザによって感知されてもよい。
いくつかの実装では、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、選択可能なメディアガイダンスオブジェクト702と同じレベル(または高さ)であるとして設置および見られてもよい、または、各選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、異なるレベルであるように現れてもよい。いくつかの実装では、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、選択可能なメディアガイダンスオブジェクト702から等距離であるものとして設置および見られてもよいか、または、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、異なる程度の距離にあるように現れてもよい。いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712のうちの任意の1つと選択可能なメディアガイダンスオブジェクト702との間の距離は、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712が、選択可能なメディアガイダンスオブジェクト702にどのように関連するかに対応してもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、選択可能なメディアガイダンスオブジェクト702の周りを回転してもよい。例えば、各選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、選択可能なメディアガイダンスオブジェクト702の周りを円形に、特定の速度(ユーザによって事前決定または選択されてもよい)で、適時に(in time)動いてもよい。いくつかの実装では、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712は、処理回路306が特定方向の入力デバイスによる動きを検出すると動いてもよい。例えば、ユーザが右側に一度、入力デバイスを急に動かすと、処理回路306は、選択可能なメディアガイダンスオブジェクト702の周りに時計回りに回転させることによって、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712を再配置してもよい。
選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712の各々は、異なる点において画面の垂線と交差する異なる平面内に表示されてもよい。例えば、第1の選択可能なメディアガイダンスオブジェクト602がユーザに対して現れるとき(例えば、3次元空間においてユーザに対してより近くに現れてもよい)、選択可能なメディアガイダンスオブジェクト702がユーザに現れてもよく、第2の選択可能なメディアガイダンスオブジェクト704がユーザに対して現れるとき、選択可能なメディアガイダンスオブジェクト712が、ユーザに対して現れてもよい(例えば、3次元空間においてユーザからより離れて現れてもよい)。いくつかの実装では、選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712は、球形、矩形、三角形、または任意の他の形状であってもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクトは、半透明、部分的に透明または完全に透明に現れてもよい。例えば、選択可能なメディアオブジェクト706は、3次元空間において、選択可能なメディアオブジェクト708よりもユーザにより近くに現れてもよい。選択可能なメディアオブジェクト706は、選択可能なメディアオブジェクト708のユーザの視覚を部分的にまたは完全に妨害し得る。選択可能なメディアオブジェクト706は、ユーザが選択可能なメディアオブジェクト706を通して選択可能なメディアオブジェクト708を依然として見得るように、半透明、部分的に透明または完全に透明に表示してもよい。特に、ユーザは、画面の同じ部分の選択可能なメディアオブジェクト708と選択可能なメディアオブジェクト706との両方を見得る。いくつかの実装では、透明度のレベルは、(例えば、ユーザまたはシステムによって)調整されてもよい。例えば、ユーザは、透明効果によって可視光がより通過できること(例えば、窓のように見える)を可能にする完全な透明度により近づけ得る高いレベルの透明度を設定してもよい。あるいは、ユーザは、あるオブジェクトが別のものより少し不透明に現れるように、より少ない可視光が通過できる(例えば、曇りガラスのように見える)ことを可能にする不透明または半透明に近づける透明効果を生じさせてもよい、より低い透明度レベルを設定してもよい。
いくつかの実施形態では、選択可能なメディアオブジェクトは、ある他の選択可能なメディアオブジェクトよりも多く重複してもよい。例えば、選択可能なメディアオブジェクト706は、選択可能なメディアオブジェクト708および選択可能なメディアオブジェクト710の両方と重複してもよい。いくつかの実施形態では、選択可能なメディアオブジェクト708は、選択可能なメディアオブジェクト710と重複してもよく、選択可能なメディアオブジェクト706によって重複されてもよい。選択可能なメディアオブジェクトの間の重複は、各選択可能なメディアオブジェクトの部分のみ、または1つ以上の選択可能なメディアオブジェクトの全体によってもよいことを理解されたい。
いくつかの実施形態では、選択可能なメディアオブジェクト706は、選択可能なメディアオブジェクト708と重複するエリアにおいて半透明、部分的に透明または完全に透明に現れてもよく、他の非重複エリアにおいて不透明に現れてもよい。他の実施形態では、選択可能なメディアオブジェクト706は、他の選択可能なメディアオブジェクトと重複しないエリアにおいても、その全体が半透明または完全に透明に現れてもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702は、メディアアセットの群を識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、群のメディアアセットのうち1つに対応してもよい。例えば、選択可能なメディアガイダンスオブジェクト702は、テレビ番組の群を識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、群の中の異なるテレビ番組を表してもよい。特に、選択可能なメディアガイダンスオブジェクト702は、特定の時間においてあるいは特定のソース(例えば、放送、サテライト、インターネット、地上波)から利用可能または放送されるテレビ番組の群を識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、特定の時間においてあるいは特定のソースから利用可能または放送される異なるメディアアセットを表してもよい。同様に、選択可能なメディアガイダンスオブジェクト702は、メディアアセットの出演者またはディレクターの群を識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、群における出演者またはディレクターのうちの異なる1つを表してもよい。選択可能なメディアガイダンスオブジェクト704、706、708、710、および712(上記および下記)は、画像、ビデオ、テキスト、オーディオファイル、ウェブサイトまたは、ユーザが選択可能なメディアガイダンスオブジェクト704、706、708、710、および712のうちの1つによって提供されるメディアアセット提示を感知する場合に、ユーザに対してメディアアセットを識別するメディアアセットに一意の他の提示を有するメディアアセットを提示してもよい。
いくつかの実装では、選択可能なメディアガイダンスオブジェクト702は、メディアアセットのジャンルを識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、群におけるメディアアセットのうちの異なる1つを提示してもよい。例えば、選択可能なメディアガイダンスオブジェクト702は、コメディまたはアクション映画等の映画のジャンルを識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、そのジャンルの異なる映画タイトルを表してもよい。いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702は、歌、音楽アーティスト、カテゴリ、ユーザが受信する電子メール、お気に入りのメディアアセット、プレイリストまたはビデオゲームを識別してもよい。例えば、選択可能なメディアガイダンスオブジェクト702は、メディアアセットのプレイリストを識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、プレイリスト内のメディアアセットのうちの異なる1つまたは同様のジャンルあるいは期間の他のメディアアセットを表してもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702は、ユーザプロファイルを識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710および712の各々は、ユーザプロファイルの異なる推奨を表してもよい。推奨は、ユーザプロファイルに関連付けられた視聴履歴に基づいてもよい、または推奨は、ソーシャルネットワークの推奨であってもよい。いくつかの実施形態では、推奨は、特定のトピックにおける同様の映画またはドキュメンタリー等の関係するメディアアセットの推奨であってもよい。いくつかの実施形態では、推奨は、映画ポスター、DVD、またはスポーツの試合等のユーザが興味を抱き得る製品の推奨であってもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702は、メディアアセットを識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、識別されたメディアアセットに関係する広告を含んでもよい。例えば、識別されたメディアアセットが歌である場合、広告は、歌を歌うアーティストによる地域のコンサートまたは歌を含むCDに関連付けられてもよい。識別されたメディアアセットがスポーツのイベントである場合、広告は、そのイベントを見ながらユーザが注文したいと思う可能性のある食べ物またはプレイしているチームのユニフォームに関連してもよい。いくつかの実施形態では、広告は、広告された項目の値引きを含んでもよい。いくつかの実施形態では、表示される広告のうちのいくつかは、識別されたメディアアセットに直接関係しなくてもよく、代わりに、地域または地区の広告であってもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702は、メディアアセットを識別してもよく、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712の各々は、識別されたメディアアセットに関連付けられた相互関係を表してもよい。例えば、選択可能なメディアガイダンスオブジェクト702がテレビ番組を識別する場合、選択可能なメディアガイダンスオブジェクト704は、テレビ番組を別のユーザに推奨するためのオプションを提示してもよく、選択可能なメディアガイダンスオブジェクト706は、ユーザがテレビ番組についてより多くの情報を得ることができるようにしてもよいハイパーリンクを含んでもよい。加えて、選択可能なメディアガイダンスオブジェクト708は、テレビ番組について他のユーザとチャットするためのオプションを提示してもよく、一方で、選択可能なメディアガイダンスオブジェクト710は、テレビ番組についての雑学的知識のゲームのプレイにユーザを招待してもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702(「太陽」オブジェクト)のユーザ選択は、群を選択可能なメディアガイダンスオブジェクト702が識別するモードを設定してもよい。「太陽」オブジェクトについて選択されたモードは、どの「惑星」オブジェクトを表示するかを決定してもよい。例えば、ユーザは、特定のメディアアセット内の俳優の群を提示または識別するために、選択可能なメディアガイダンスオブジェクト702のモードを設定してもよく、選択可能なメディアガイダンスオブジェクト702によって特定の時間に放送されるテレビ番組の群を提示または識別するために、そのモードを変化させてもよい。いくつかの実施形態では、処理回路306は、入力デバイスの上下の動きを検出してもよく(例えば、入力に基づいて、処理回路306が加速度計および/またはジャイロスコープから受信する)、その結果、「太陽」オブジェクト、ひいては表示され得る「惑星」オブジェクトのモードを変更してもよい。いくつかの実装では、太陽オブジェクトについて設定されたモードは、入力デバイスが急に動く特定の方向に基づいて変化してもよい。例えば、処理回路306が、表示の垂線に対して45度の角度を形成する線の方向に入力デバイスが急に動くことを決定すると、処理回路306は、テレビスケジュールとなる選択可能なメディアガイダンスオブジェクト702のモードを設定してもよく、処理回路306が、入力デバイスが表示の垂線に対して90度の角度を形成する線の方向に急に動くことを決定すると、処理回路306は、メディアアセット内の俳優となる選択可能なメディアガイダンスオブジェクト702のモードを設定してもよい。より具体的には、選択可能なメディアガイダンスオブジェクト702の各モードは、入力デバイスが動くか、または急に動く異なる方向に関連付けられてもよい。
いくつかの実施形態では、ユーザは、新しい「太陽」オブジェクトになるように「惑星」オブジェクトのうち1つを選択してもよく、「惑星」オブジェクトは、ビリヤードの玉のように画面(例えば、3次元空間)から「太陽」オブジェクトを弾き、これと置き換わり、新しい「惑星」オブジェクトを表示してもよい。他の実施形態では、ユーザは、「太陽」オブジェクトの位置へ「惑星」オブジェクトをドラッグして、「惑星」オブジェクトを新しい「太陽」オブジェクトにしてもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712と共に、画像ボックス714および記述ボックス716が表示されてもよい。画像ボックス714は、選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712のうちの1つに関連付けられた画像を表示してもよい。いくつかの実施形態では、画像ボックス714内の画像は、静止画であってもよい。例えば、静止画は、俳優の写真またはテレビショーからの画面ショットにしてもよい。他の実施形態では、画像ボックス714内の画像は、回転画像またはコンテンツのストリーミングクリップ等の動画にしてもよい。いくつかの実施形態では、動画は、映画の予告編または出演者のインタビューにしてもよい。
記述ボックス716は、選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712のうちの1つを記述するテキストを表示してもよい。いくつかの実施形態では、記述ボックス716内のテキストは、テキストの全てがすぐに見られてもよいようにサイズ決めされてもよい。他の実施形態では、ユーザは、テキストの全てを見るために、記述ボックス716内を上下または左右に手動でスクロールしてもよい。さらに他の実施形態では、記述ボックス内のテキスト716は、ユーザがテキストの全てを読んでもよいように、上下または左右に自動でスクロールしてもよい。さらに他の実施形態では、記述ボックス716内にいくつかのテキストが表示されてもよく、ユーザは、テキストの残りを読むために記述ボックス716を選択してもよい。記述ボックス内のテキスト716は、選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712のいずれかまたは全てに関連してもよい。例えば、記述ボックス内のテキスト716は、俳優のバイオグラフィー、あらすじ、歌の歌詞、またはビデオゲームの説明にしてもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712自体が、画像またはテキスト、または両方を含んでもよい。選択可能なメディアガイダンスオブジェクト702、704、706、708、710、および712内の画像およびテキストは、画像ボックス714および記述ボックス716に関連して上記に記載される方法のいずれかまたは全てにおいて表示されてもよい。
図7Bは、本発明の一実施形態による異なる位置における画面の垂線と交差する異なる面に表示される出演者の提示の例示的な表示画面750を示す。特に、選択可能なメディアガイダンスオブジェクト752、754、756、758、760、および762は、惑星システムに基づいて構成されてもよい。選択可能なメディアガイダンスオブジェクト752、754、756、758、760、および762の各々は、異なる点または位置において画面の垂線に交差する異なる面に表示されてもよい。選択可能なメディアガイダンスオブジェクト752は、「太陽」オブジェクトであってもよく、テレビ番組Houseを識別してもよい。選択可能なメディアガイダンスオブジェクト752は同じであってもよいか、または選択可能なメディアガイダンスオブジェクト702と同様の機能を有してもよい(図7A)。選択可能なメディアガイダンスオブジェクト754、756、758、760、および762は、「惑星」オブジェクトであってもよく、選択可能なメディアガイダンスオブジェクト752によって識別されたテレビ番組「House」の出演者に対応してもよい。選択可能なメディアガイダンスオブジェクト754、756、758、760、および762は、選択可能なメディアガイダンスオブジェクト704、706、708、710、および712と同じであってもよいか、または同様の機能を有してもよい(図7A)。「惑星」オブジェクト754、756、758、760、および762は、出演者の写真および出演者の名前を含んでもよい。別の実施形態では、「太陽」オブジェクトは、時間帯を識別してもよく、「惑星」オブジェクトは、その時間帯についてスケジューリングされた番組に対応してもよい。さらに別の実施形態では、「太陽」オブジェクトは、映画のジャンルを識別してもよく、「惑星」オブジェクトは、そのジャンルに属する映画に対応してもよい。
図7B内の画像ボックス764は、「太陽」オブジェクト、選択可能なメディアガイダンスオブジェクト752に関連付けられた画像を表示する。特に、画像ボックス764内の画像は、「太陽」オブジェクトによって識別されたテレビ番組の主要キャラクター、Dr.Houseの写真であってもよい。別の実施形態では、画像ボックス764内の画像は、「House」の次のエピソードのコマーシャルであってもよい。さらに別の実施形態では、画像ボックス764内の画像は、選択可能なメディアガイダンスオブジェクト754、756、758、760、および762のうちの1つにおいて現れる出演者の写真であってもよい。
図7Bの記述ボックス766は、「惑星」オブジェクトのうちの1つに関連付けられたテキストを表示する。特に、記述ボックス内のテキスト766は、選択可能なメディアオブジェクト754に表示される出演者、Omar Eppsのバイオグラフィーであってもよい。別の実施形態では、記述ボックス内のテキスト766は、概してテレビショー「House」について記述してもよい。他の実施形態では、記述ボックス内のテキスト766は、「House」の前または次のエピソードのあらすじであってもよい。
上記のもの等の立体視メディアガイダンスアプリケーションは、複数のユーザ装置デバイスおよび周辺デバイスを使用して表示およびナビゲートされてもよい。図8は、本発明の一実施形態によるユーザ装置デバイスおよび周辺デバイスの例示的な構成800を示す。立体視メディアガイダンスアプリケーションは、テレビセット802の画面に表示されてもよい。ユーザ810は、図5A−Cに関連して上記に記載の立体視光学デバイスのうちの1つ等の立体視光学デバイス812を介して立体視メディアガイダンスアプリケーションを見てもよい。セットトップボックス804は、テレビセット802上に載置されてもよい、またはテレビセット802に組み込まれてもよい。カメラ806は、さらに、テレビセット802上に載置されるまたはこれに組み込まれてもよい。本明細書で参照されるように、ユーザテレビ装置は、独立してまたは結合して、それぞれのまたは全てのセットトップボックス804、カメラ806およびテレビセット802を含んでもよい。カメラ806は、ユーザ810またはユーザ入力デバイス814の動きを検出してもよい。いくつかの実施形態では、カメラ806は、赤外線カメラであってもよい。赤外線カメラは、ユーザ810の熱的画像を形成することにより、ユーザ810の動きを検出してもよい。あるいは、ユーザ入力デバイス814は、赤外線カメラによって検出され得る赤外線光を放出してもよい。
トランシーバー808は、さらに、テレビセット802上に載置される、またはこれに組み込まれてもよい。トランシーバー808は、さらに、上記および下記で言及されるユーザテレビ装置に含まれてもよい。トランシーバー808は、立体視光学デバイス812を制御するために使用してもよい。例えば、トランシーバー808は、立体視光学デバイス812上のセンサによって受信される赤外線信号を伝送してもよい。赤外線信号は、図5A−Cに関連して上記に記載のように、ユーザ810が立体画像を見るように、光学デバイス812上のレンズをブロックおよびブロック解除してもよい。例えば、処理回路306は、左目のみでユーザが見る画面上の画像を表示してもよく、したがって、右レンズをブロックし左レンズをブロック解除するために、ユーザの光学デバイスへメッセージを送信するように、トランシーバー808に指示してもよい。(例えば、ミリ秒またはマイクロ秒)後に、処理回路306は、ユーザが右目のみで見る画面上の画像を表示してもよく、したがって、左のレンズをブロックし、右のレンズをブロック解除するために、ユーザの光学デバイスへメッセージを送信するようにトランシーバー808に指示してもよい。
トランシーバー808は、さらに、ユーザ入力デバイス814から信号を受信してもよい。例えば、ユーザ810は、表示される選択可能なメディアガイダンスオブジェクトを選択するために、ユーザ入力デバイス814上のボタンを押してもよい。ユーザ入力デバイス814は、トランシーバー808によって受信したユーザ選択を示す、赤外線信号等の信号を伝送してもよい。いくつかの実施形態では、トランシーバー808は、ユーザ810およびユーザ入力デバイス814の動きを検出するために、カメラ806と共に協調して作動してもよい。例えば、カメラ806は、ユーザ810の幅広い腕の動きを検出してもよく、一方で、トランシーバー808は、ユーザ入力デバイス814内の加速度計によって収集されるユーザ入力デバイス814の動きおよび向きについての情報を受信する。カメラ806およびトランシーバー808によって収集された情報に基づき、立体視メディアガイダンスアプリケーション表示は、図9A−Bに関連して以下に詳細に記載されるように、修正されてもよい。
図9A−Bは、本発明の一実施形態による表示画面上のメディアガイダンスオブジェクトの例示的な構成900および950を各々示す。構成900および950は、共に、図7A−Bに関連して上記に記載のように、惑星の構成である。特に、図9A内の選択可能なメディアガイダンスオブジェクト902、904、906、908、910、および912ならびに図9B内の選択可能なメディアガイダンスオブジェクト952、954、956、958、960、および962は、惑星システムに基づいて構成され、それぞれ、選択可能なメディアガイダンスオブジェクト702、704、706、708、710、712および/または752、754、756、758、760および762(図7Aおよび7B)と同じまたは同様の機能を有する。
図9Aの選択可能なメディアガイダンスオブジェクト902、904、906、908、910、および912ならびに図9Bの選択可能なメディアガイダンスオブジェクト952、954、956、958、960、および962の各々は、異なる点において画面の垂線と交差する異なる面に表示されてもよい。選択可能なメディアガイダンスオブジェクト902は、図9A内の「太陽」オブジェクトであってもよく、選択可能なメディアガイダンスオブジェクト952は、図9B内の「太陽」オブジェクトであってもよい。両方の「太陽」オブジェクトがテレビ番組「House」を識別するために示されているが、太陽オブジェクトは、上記のようにメディアアセットの任意の群を識別し得ることを理解すべきである。画像ボックス918および968内の画像は、それらのそれぞれの構成の「太陽」オブジェクトに対応する。図9Aの選択可能なメディアガイダンスオブジェクト904、906、908、910、および912ならびに選択可能なメディアガイダンスオブジェクト954、956、958、960、および962は、「惑星」オブジェクトであってもよく、「House」の出演者に対応してもよい。
図9Aの選択可能なメディアガイダンスオブジェクト904は、視覚インジケータ914によって包囲されてもよい。いくつかの実施形態では、視覚インジケータ914は、完全に半透明または透明であってもよい。他の実施形態では、視覚インジケータ914は、選択可能なメディアガイダンスオブジェクトと重複するエリアにおいて半透明または透明、他のエリアにおいて不透明であってもよい。
記述ボックス920は、選択可能なメディアガイダンスオブジェクト904に関連付けられたテキスト、視覚インジケータ914によってフォーカスされる選択可能なメディアガイダンスオブジェクトを表示する。特に、記述ボックス内のテキスト920は、選択可能なメディアオブジェクト904に表示される出演者、Omar Eppsのバイオグラフィーである。いくつかの実施形態では、記述ボックス920および/または画像ボックス918は、選択可能なメディアガイダンスオブジェクト902に関連付けられる情報を提供してもよい。このような状況において、記述ボックス920および/または画像ボックス918は、関連付けられる選択可能なメディアガイダンスオブジェクトと同じ面に存在するように現れてもよい。例えば、記述ボックス920および/または画像ボックス918は、選択可能なオブジェクト902が選択可能なメディアガイダンスオブジェクト912よりもユーザに近い距離にあるように表示させる、第1の位置において、画面の垂線に交差する面に存在するように現れてもよい選択可能なメディアガイダンスオブジェクト902によって識別された「House」についての情報を含んでもよい。したがって、記述ボックス920および/または画像ボックス918は、さらに、選択可能なメディアガイダンスオブジェクト902と同じ面に存在してもよく、ユーザからメディアガイダンスオブジェクト902と同じ距離にあるように現れてもよい。これにより、ユーザが、表示される選択可能なメディアガイダンスオブジェクト記述ボックス920および/または画像ボックス918のどれが対応するかを視覚的に識別できるようにしてもよい。
いくつかの実施形態では、記述ボックス920および/または画像ボックス918は、画面の面に現れてもよく、一方で、選択可能なメディアガイダンスオブジェクトは画面の前および/または後ろの面に現れる。いくつかの実施形態では、1つ以上の選択可能なメディアガイダンスオブジェクトは、画面の面に現れてもよく、一方で、他の選択可能なメディアガイダンスオブジェクトは、画面の前および/または後ろの面に現れてもよい。例えば、記述ボックス920および画像ボックス918は、選択可能なメディアガイダンスオブジェクト902を有する画面の面に現れてもよく、一方で、他の選択可能なメディアガイダンスオブジェクトは、画面の前および後ろの面に現れてもよい。
ユーザは、立体視メディアガイダンスアプリケーション表示における視覚インジケータ914の位置を変化させてもよい。いくつかの実施形態では、ユーザは、上、下、左、および右の矢印キーまたはユーザ入力デバイスの他のボタンを使用して、視覚インジケータ914を動かしてもよい。他の実施形態では、ユーザは、ユーザ入力デバイスを持ち、視覚インジケータ914を動かしたい方向に、腕の一方を動かしてもよい。例えば、ユーザが選択可能なメディアガイダンスオブジェクト906へ視覚インジケータ914を動かそうとする場合、ユーザは、腕を右方向に動かしてもよい。ユーザが視覚インジケータ914を選択可能なメディアガイダンスオブジェクト902の方向に動かそうとする場合、ユーザは、腕を上げてもよい。いくつかの実装では、処理回路306は、入力デバイスが動かされる(例えば、ユーザの腕の動きに基づいて)遅いおよび一様な速度に基づいて、画面の周囲にカーソルを動かしてもよく、入力デバイスが動かされる速く中程度の速度に基づいて(例えば、特定の方向における手首の動きのユーザの急な動きに基づいて)、カーソルの位置に隣接する選択可能なメディアガイダンスオブジェクトに関連するモードの変化の選択に影響してもよい。
別の実施形態では、視覚インジケータ914は、「惑星」オブジェクトが動く間、静止したままでもよい。例えば、ユーザは、「太陽」オブジェクトの周りに図9Aの「惑星」オブジェクトを回転させるために、円形に腕を動かしてもよい。その結果が図9Bに図示される。図9Bにおいて、処理回路306は、図9Aのそれらのそれぞれの位置と比較して時計回りの方向に、「惑星」オブジェクトを1つの位置だけずらしてもよい。特に、出演者Olivia Wildeを表す選択可能なメディアガイダンスオブジェクト954は、図9Bの視覚インジケータ964へとずらされ、記述ボックス内のテキスト970が、Olivia Wildeのバイオグラフィーになる。出演者Omar Eppsを表す選択可能なメディアガイダンスオブジェクト962は、「太陽」オブジェクトの後ろにずれ、全ての他の「惑星」オブジェクト956、958、および960は、図9Aに示される構成を維持するために、これに従って時計回りにずれる。立体視メディアガイダンスアプリケーションのナビゲーションおよび修正は、図10および11に関連して以下により詳細に記載される。上記および下記の動きは3次元空間(ドメイン)内にあり、そのため、メディアガイダンスオブジェクトが2次元画面に再配置されても、立体視光学デバイスを介して見られる場合には、メディアガイダンスオブジェクトは、再配置され、3次元領域においてユーザにより近い、およびユーザからより離れた位置に動くように現れることを理解されたい。
図7A、7B、9Aおよび9Bに示される円のサイズは、3次元空間の選択可能なメディアガイダンスオブジェクトの異なる位置を表すことを理解されたい。例えば、円のサイズは、立体視光学デバイスを介して見られる場合に、選択可能なメディアガイダンスオブジェクトが、ユーザにどれくらい近いか/ユーザからどれくらい離れているように見えるかを表す。特に、円のサイズが大きくなるほど、選択可能なメディアガイダンスオブジェクトはユーザに近くなるように現れ、円のサイズが小さくなるほど、選択可能なメディアガイダンスオブジェクトはユーザから離れているように現れる。より具体的には、選択可能なメディアガイダンスオブジェクト752は、サイズがより小さく示される選択可能なメディアガイダンスオブジェクト760よりも、立体視光学デバイスを介して見られる場合に、ユーザにより近く現れる。
図10は、本発明の一実施形態による3次元メディアガイダンスアプリケーションをナビゲートするための例示的な流れ図1000である。ステップ1002において、ユーザの動きが検出される。例えば、処理回路306は、円形にまたは左右に腕を振るユーザを検出してもよい。
ステップ1004において、動きが、追加の選択可能なメディアガイダンスオブジェクトを表示するためのコマンドを示すかどうかが決定される。例えば、ユーザは、「詳細オプション」という表示画面の断面をポイントまたはハイライトしてもよい。処理回路306は、さらに、より多くのオプションが望ましいことを示す横方向のすばやいユーザの腕の回す動き等のいくつかの事前決定された動きを検出してもよい。ステップ1004において、動きが、追加の選択可能なメディアガイダンスオブジェクトを表示するためのコマンドを示すわけではないと決定されると、プロセスは、ステップ1006に進む。
ステップ1006において、追加の選択可能なメディアガイダンスオブジェクトが表示される。表示され得る追加の選択可能なメディアガイダンスオブジェクトは、既に表示される選択可能なメディアガイダンスオブジェクトとは異なる面に現れてもよい。例えば、特定の時間帯に対してより多くの番組一覧が表示されてもよい。番組一覧のうちのいくつかは、表示画面の前に現れてもよく、他の番組一覧は、表示画面の後ろに現れてもよい。あるいは、特定のジャンルのより多くのメディアアセットが表示されてもよい。メディアアセットのうちのいくつかは、表示画面の前に現れてもよく、他のメディアアセットは、表示画面の後ろに現れてもよい。
いくつかの実施形態では、表示される追加の選択可能なメディアガイダンスオブジェクトは、既に表示されている選択可能なメディアガイダンスオブジェクトとは異なるメディアアセットタイプであってもよい。一実施形態では、「太陽」オブジェクトは、映画のジャンルであってもよく、既に表示されている「惑星」オブジェクトは、そのジャンルの映画タイトルであってもよい。表示される追加の選択可能なメディアガイダンスオブジェクトは、「太陽」に関係していてもよいか、または関係していなくてもよい広告を含む「惑星」オブジェクト、および既に表示されている「惑星」オブジェクトであってもよい。
いくつかの実施形態では、オブジェクトの間の関係を示すために、選択可能なメディアガイダンスオブジェクトの間に色分けされた線を示してもよい。例えば、表示される「太陽」オブジェクトは、テレビショーを表してもよく、表示される「惑星」オブジェクトの第1のセットは、テレビショーのエピソードを表してもよく、表示される「惑星」オブジェクトの第2のセットは、テレビショーの出演者を表してもよい。赤い線は、「太陽」オブジェクトをエピソードの「惑星」オブジェクトに接続してもよく、青い線は「太陽」オブジェクトを出演者の「惑星」オブジェクトに接続してもよい。加えて、緑の線は、出演者「惑星」オブジェクトを、出演者が現れる、エピソードを表す他の「惑星」オブジェクトに接続してもよい。
ステップ1004において、動きは、追加の選択可能なメディアガイダンスオブジェクトを表示するためのコマンドを示さないことが決定される場合、プロセスは、ステップ1008に進む。ステップ1008において、動きが選択可能なメディアガイダンスオブジェクトの選択を示すかどうかが決定される。例えば、ユーザは、選択を示すために、空気をパンチする、または画面を突いてもよい。ステップ1008において、動きが、選択可能なメディアガイダンスオブジェクトの選択を示さないことが決定される場合、プロセスは、ステップ1010に進む。
ステップ1010において、視覚インジケータの位置に最も近い選択可能なメディアガイダンスオブジェクトが選択される。例えば、視覚インジケータ914は、選択可能なメディアガイダンスオブジェクト904上にセンタリングされてもよく、選択可能なメディアガイダンスオブジェクト904が選択される(図9A)。あるいは、視覚インジケータは、任意の選択可能なメディアガイダンスオブジェクトに触れなくてもよいが、任意の他のオブジェクトよりもある選択可能なメディアガイダンスオブジェクトへずっと近くてもよく、最も近いオブジェクトが選択される。いくつかの実施形態では、ユーザは、視覚インジケータまたは表示される選択可能なメディアガイダンスオブジェクトのいずれも動かさずにこれを選択するために、望ましい選択可能なメディアガイダンスオブジェクトにポイントするのみでよい。
ステップ1008において、動きが選択可能なメディアガイダンスオブジェクトの選択を示さないと決定される場合、プロセスは、ステップ1012に進む。ステップ1012において、視覚インジケータは、ユーザの動きの方向に動く。例えば、ユーザが腕を左方向に振る場合、視覚インジケータは、画面の左方向に動いてもよい。ユーザが腕を下方向に振る場合、視覚インジケータは、画面の底面に向かって動いてもよい。
いくつかの実施形態では、選択可能なメディアガイダンスオブジェクトの選択は、選択可能なメディアガイダンスオブジェクトに関係するより多くの情報が表示されるようにしてもよい。例えば、テレビ番組を表す選択可能なメディアガイダンスオブジェクトの選択は、番組が何についてのものか、番組にどの俳優が出演するか、または番組が放映されるのはいつ、どのチャンネルかについての情報を表示させてもよい。他の実施形態では、特定の選択可能なメディアガイダンスオブジェクトがテレビ番組を表す場合、その特定のオブジェクトを選択することで、ユーザのテレビ装置に、表された番組にチャンネルを合わせる、またはこれへのアクセスを提供させる(例えば、サーバから番組に対応するオンデマンドメディアアセットをダウンロードする、またはインターネットからメディアアセットをストリーミングする)。
図11は、本発明の一実施形態による3次元メディアガイダンスアプリケーションをナビゲートするための別の例示的な流れ図1100である。ステップ1102において、入力デバイスの向きについて基準点が割り当てられる。例えば、入力デバイスが、現在、上方向をポイントしている場合、基準点は、表示画面の上端の中心であってもよい。入力デバイスが、現在、表示画面にポイントされている場合、基準点は、表示画面の中心であってもよい。入力デバイスが現在下方向をポイントしている場合、基準点は、表示画面の下端の中心であってもよい。表示画面上の任意の適した点が、入力デバイスの現在の向きの基準点として割り当てられてもよい。
ステップ1104において、基準点に対応する表示画面上の視覚インジケータの位置が決定される。例えば、基準点が表示画面の上端の中心である場合、視覚インジケータは、視覚インジケータの上端が基準点となるように設置されてもよい。基準点が表示画面の中心である場合、視覚インジケータは、基準点にセンタリングされてもよい。基準点が表示画面の下端の中心にある場合、視覚インジケータは、視覚インジケータの下端が基準点のわずかに上に位置されるように設置されてもよい。視覚インジケータの位置および基準点の間の任意の適した関係が決定されてもよい。
ステップ1106において、検出された動きが入力デバイスの向きの変化を生じさせたかどうかが決定される。検出された動きが入力デバイスの向きの変化を生じさせていないと決定される場合、ステップ1102において、プロセスは再び開始する。例えば、システムは、入力デバイス全体の純粋に横方向の変換に応答しなくてもよい。入力デバイスがテーブル上に配置され、天井の方向をポイントする場合、および入力デバイスがテーブル上を動くが天井の方向にポイントした状態を維持されている場合、ステップ1106において、入力デバイスの向きが変化していないと決定されてもよい。
検出された動きが入力デバイスの向きの変化を生じさせたと決定される場合、プロセスは、ステップ1108に進む。ステップ1108において、基準点に対する動きの方向は、向きの変化に基づいて決定される。例えば、入力デバイスは、基準点に対して、上方向に傾斜されてもよい。あるいは、入力デバイスは、基準点の一方の側から他の側へ横方向に回転してもよい。入力デバイスの向きの変化は、基準点に対する任意の方向で生じてもよい。
ステップ1110において、視覚インジケータは、決定された動きの方向で、表示画面上の新しい位置に動く。例えば、入力デバイスが上方向に傾いている場合、視覚インジケータは、表示画面の上端に向かって動いてもよい。入力デバイスが基準点の左方向にポイントしていたが、現在では基準点の右方向にポイントしている場合、視覚インジケータは、表示画面の右端に向かって動いてもよい。
図10−11の流れ図の上記のステップは、図に示され、記載される順序およびシーケンスに制限されない任意の順序またはシーケンスで実施または実行されてもよいことを理解されたい。さらに、図10−11の流れ図の上記のステップのいくつかは、待ち時間および処理時間を短縮するために、適切な場合にはほぼ同時に、または並列に実施または実行されてもよい。
前記のように、立体視効果は、ユーザの右目で見られる第1の画像を生成し、ユーザの左目で見られる第2の画像を生成し、次いで立体画像を生成するために2つの画像を重ね合わせることで、実現してもよい。2つの画像の設計は、図12A−Cおよび13に関連して以下に詳細に記載される。
図12Aは、本発明の一実施形態によるユーザの右目で見られる例示的な画像1200を示す。画像1200は、点1202でセンタリングされる選択可能なメディアオブジェクト1206を含む。点1202は、画像1200の左端1204からの距離dに配置される。
図12Bは、本発明の一実施形態によるユーザの左目で見られる例示的な画像1220を示す。画像1220は、点1222に中心が置かれる選択可能なメディアオブジェクト1230を含む。選択可能なメディアオブジェクト1230は、点1224に中心が置かれる点線の選択可能なメディアオブジェクト1228として図12Bに再現される、図12Aにおいて選択可能なメディアオブジェクト1206の距離による変換である。点1222は、画像1220の左端1226から距離d+aにおいて配置される。
図12Cは、本発明の一実施形態による、立体画像1240が実際に3次元であると仮定する図12A−Bの画像を重ね合わせることによって形成される立体画像1240の例示的な側面図を示す。図12Aからの選択可能なメディアオブジェクト1206および図12Bからの選択可能なメディアオブジェクト1230の重ね合わせが、選択可能なメディアオブジェクト1242を生成する。選択可能なメディアオブジェクト1242が、(上記の)立体視デバイスを介して立体画像1240を見ているユーザ1244からの見かけの距離Pにあることが感知される。距離aとPとの間の関係は、図13に関連して以下により詳細に説明される。
図13は、本発明の一実施形態による立体画像を生成するための相似の三角形の使用を示す図である。点1308と1310との間の図13の底部に示される距離eは、ユーザの目の瞳の間の距離とユーザ装置デバイスとの間の差として定義される、「有効な目の間隔」を表す。距離Dは、線1306によって表されるユーザの目から、線1300によって表される表示画面までの距離である。距離aは、右目の画像における画像特徴と、左目の画像内の同じ画像特徴の間の距離であり、それぞれ、点1302および1304によって表される。大きな距離aは、オブジェクトがユーザの非常に近くであるように見えるようにする。3次元フィルムおよび3次元ゲームは、岩、矢印、刀および他の驚くべき項目などの、ユーザに向かって飛び出す特徴に、大きな距離を適用してもよい。面1314に沿う点1312によって表された立体画像内のメディアオブジェクトは、ユーザから距離Pに現れることが感知される。線1316が、点1302と点1310との間に示され得、点1304と点1308との間に別の線1318が示されることにより、2つの相似の三角形が形成され得る。点1308、1310、および1312に頂点を有する1つの三角形が形成される。点1304、1302、および1312に頂点を有する第2の三角形が形成される。この相似の三角形は、以下の関係を生じさせる。
a/(D−P)=e/P
aとPとの間のより明らかな関係を得るため、上記の式を、以下のように書き換えることができる。
a=e(D−P)/P
または
P=eD/(a+e)
上記の設計式を使用して、変換距離aが、任意の望ましい見かけの距離Pに対して計算され得、見かけの距離Pは、任意の変換距離aに対して計算され得る。上記の解析は、全ての値が正であると仮定する。いくつかの実装では、正および負の値を有する座標系が使用されることにより、左右への変換における差、および画面の前または後ろに現れるメディアオブジェクトの間の差が、明らかになる。
図14は、本発明の一実施形態による立体画像を生成するために使用される座標系1400を示す。表示画面1402について、正のx軸1404は右方向を向いているので右への変換は正であり、左への変換は負である。表示画面1402の後ろに現れる画像特徴は、正のzの値を有し得、表示画面1402の前に現れる画像特徴は、正のz軸1408が表示画面1402の後ろの方向であるので、負のzの値を有し得る。正のy軸1406は下方向を向いている。メモリ内の最も低い点に左上の画素によってグラフィックメモリがレイアウトされるので、この反対の方向が生じ得る。つまり、座標系の原点は、画面の左上の画素に置かれてもよい。したがって、yの値が大きくなるにつれてメモリアドレスが大きくなるため、逆向きのy軸は、yの値をメモリアドレスと共に一貫して増加させる。
上記の座標系を使用して、図13内の点1312は、線1300から距離−zにあるように定義されてもよい。したがって、相似の三角形の関係は、次のように書き換えることができる。
a/z=e/(D+z)
設計式は、次のように書き換えることができる。
a=(ze)/(D+z)
および
z=(Da)/(e−a)
これらの設計式は、目の間隔に基づいて変化し得、したがって、ユーザ間で変化し得る。zの結果が大きいと、変換が右方向に動くので、常にユーザからより離れ得、zの結果が小さいと、変換が左方向に動くので、常にユーザにより近くなり得る。
上記の座標系におけるxおよびy方向の長さ寸法は、画素位置へと変換され得る。グラフィックバッファにおける水平方向および垂直方向の画素の数は、システム毎に異なり得るので、画素にxおよびy座標を拡大縮小(scaling)するために、以下のような一般式を使用してもよい。
画素内のx=(左から右に向かうインチ単位の局所的なxの距離/インチ単位の画面上での全体距離)(画面全体における全画素数)
画素内のy=(上部から底部へのインチ単位の局所的なyの距離/インチ単位の画面上での全体距離)(画面全体における全画素数)。
画素に変換されると、任意の所与のユーザ装置デバイスでの再生中の任意の所与のオブジェクトのインチ単位のサイズは、ユーザ装置デバイスの表示画面のサイズに従って変化し得る。特に、表示画面が大きくなるほど、オブジェクトの測定可能な画像がより大きくなり得る。上記の式を使用することによって、測定は、どのようにこれらが変換、拡大または縮小されるかにかかわらず、互いに比例して(proportionally)正確なままであり得る。
図7A−Bに関連して上記に記載のように、立体視メディアガイダンスアプリケーション表示は、惑星システムにならってモデル化され得る。3次元グラフィックからのいくつかの特定の式を使用して、立体視メディアガイダンスアプリケーション表示の「太陽」および「惑星」オブジェクトは、オブジェクトを形成する画素のx、y、およびz座標について、任意の場所に任意の角度で配置され得る。
いくつかの実施形態では、「惑星」オブジェクトは、「太陽」オブジェクトの後ろから外に、およびその周囲を動くようにアニメーション化されてもよい。上記の座標系を使用して、ユーザの目の各々に提示される画像内のメディアオブジェクトの位置は、計算され得る。加えて、第1および第2の画像内のメディアオブジェクトの位置は、メディアオブジェクトが立体画像内を移動ように感知されるように、更新され得る。
いくつかの実施形態では、計算は、「太陽」オブジェクトの中心が座標系の原点(0,0,0)になるように考慮することによって、簡略化し得る。表示画面の左上隅は、画素空間の原点(0,0,0)にあり得るので、画素空間の計算は、原点として「太陽」オブジェクトの中心を処理するように変換され得る。処理回路306は、3次元コンピュータグラフィックから以下の変換式を使用して、変換を実行し得る。
new_x=old_x+Tx、式中、Tx=定数
new_y=old_y+Ty、式中、Ty=定数
new_z=old_z+Tz、式中、Tz=定数。
いくつかの実施形態では、異なるサイズの表示画面の間の座標を変換するために、処理回路306によって、3次元コンピュータグラフィックからのスケーリング式を使用してもよい。
new_x=scaling_factorold_x
new_y=scaling_factorold_y
new_z=scaling_factorold_z
いくつかの実施形態では、セットトップボックス等のユーザ装置デバイスは、アニメーションに必要なレートで3次元コンピュータモデルに必要な全ての点を計算するために十分な処理能力を有してもよい。いくつかの実装では、ユーザ装置デバイスは、各フレームバッファが、画素の全画面表示を収容することに十分に大きいメモリ格納装置を含む、4つのフレームバッファを使用してもよい。いくつかの実装では、表示画面上でユーザ装置デバイスによって現在提示されている2つの画像のために、4つのバッファのうちの2つを使用してもよく、アニメーションにおける次の画像ペアを作成するために他の2つのバッファを使用してもよい。
3次元空間に表示するための任意の2次元メディアガイダンスアプリケーションを変換するために、立体画像を生成するための上記および下記の方法を使用してもよい。さらに、メディアガイダンスアプリケーションが3次元空間に表示されると、選択を完了し、メディアガイダンスアプリケーションについてナビゲートするために、3次元ナビゲーション技術(例えば、加速度計および/またはジャイロスコープを有する入力デバイスを用いる)を使用してもよい。2次元から3次元に変換してもよいメディアガイダンスアプリケーションのある特定の例は、メニューオプションおよび項目が異なる透視図で構成される折り畳みガイド設計を有する、折り畳みメディアガイダンスアプリケーションであってもよい。
例えば、メニューオプションのリストは、第1の透視図に表示されてもよく、メニューオプションのうちの選択された1つに対応する項目は、第1の透視図とは異なる第2の透視図内のメニューオプションに隣接して表示されてもよい。複数の透視図を有する折り畳みガイドまたはメディアガイダンスアプリケーション(メディアガイダンスアプリケーション)が、2009年9月30日出願の米国特許出願第12/571069号、第12/571035号および第12/571186号により詳細に記載されており、(代理人整理番号第UV−486A、UV−486BおよびUV−486C)、これらは、全体を参照することによって本明細書に組み込まれる。
図16は、本発明の一実施形態による、異なる視点で表示されるメディアガイダンスオブジェクトの例示的な表示画面1600を示す。特に、画面1600は、第1のメディアガイダンスオブジェクト1602、第2のメディアガイダンスオブジェクト1604、第3のメディアガイダンスオブジェクト1606、第4のメディアガイダンスオブジェクト1608、第1の透視図1610、第2の透視図1612および第3の透視図1614を含んでもよい。4つのメディアガイダンスオブジェクトが画面1600に示されるが、任意の数のメディアガイダンスオブジェクトが、異なる任意の視点で表示されてもよい。さらに、画面1600に3つの異なる透視図が示されるが、任意の数の透視図が提供されてもよい。
第1のメディアガイダンスオブジェクト1602は、第1の透視図1610に表示されてもよい。第1のメディアガイダンスオブジェクト1602は、例えば、ユーザプロファイル提示、メディアアセット提示、番組ガイド一覧、または上記のおよび下記に記載の任意の他のメディアガイダンスオブジェクトあるいは上記の組み合わせにしてもよい。第1のメディアガイダンスオブジェクト1602は、線1616が第1の消失点1618において収束するように表示されてもよい。第1の透視図1610に表示されるメディアガイダンスオブジェクトから現れる全ての線は、第1の消失点1618で収束してもよい。第1のメディアガイダンスオブジェクト1602は、画面1600から出るように現れる。
第2のメディアガイダンスオブジェクト1604は、第2の透視図1612に表示されてもよい。第2の透視図1612は、第1の透視図1610とは異なってもよい。第2のメディアガイダンスオブジェクト1604は、例えば、ユーザプロファイル提示、メディアアセット提示、番組ガイド一覧、または上記および下記に記載の任意の他のメディアガイダンスオブジェクトまたは上記の組み合わせであってもよい。第2のメディアガイダンスオブジェクト1604は、第1のメディアガイダンスオブジェクト1602と同じタイプであってもよい、または異なるタイプであってもよい。
第2のメディアガイダンスオブジェクト1604は、線1620が平行であり、消失点において収束しないように表示されてもよい。第2の透視図1612に表示されるメディアガイダンスオブジェクトから現れる全ての線は、平行であってもよく、消失点において収束しない。第2のメディアガイダンスオブジェクト1604は、画面1600上に平坦であるように現れる。
第3および第4のメディアガイダンスオブジェクト1606および1608は、第3の透視図1614に表示されてもよい。第3および第4のメディアガイダンスオブジェクト1606および1608は、例えば、ユーザプロファイル提示、メディアアセット提示、番組ガイド一覧、または上記および下記に記載の任意の他のメディアガイダンスオブジェクトまたは上記の組み合わせであってもよい。第3および第4のメディアガイダンスオブジェクト1606および1608は、第1および/または第2のメディアガイダンスオブジェクト1602および1604と同じタイプであってもよいか、または異なるタイプであってもよい。いくつかの実装では、第3および第4のメディアガイダンスオブジェクト1606および1608は、第2のメディアガイダンスオブジェクト1604と同じタイプであってもよく(例えば、番組一覧)、第1のメディアガイダンスオブジェクト1602とは異なるタイプであってもよい。
第3および第4のメディアガイダンスオブジェクト1606および1608は、線1622が第1の消失点1618とは異なる位置にある第2の消失点1624において収束するように表示されてもよい。第3の透視図1614に表示されるメディアガイダンスオブジェクトから現れる全ての線は、第2の消失点1624において収束してもよい。第3および第4のメディアガイダンスオブジェクト1606および1608は、画面1600へ入るように現れる。
メディアガイダンスオブジェクトが異なる透視図に表示されるが、メディアガイダンスオブジェクトは、ユーザによって明らかに視覚的に区別可能であることを理解されたい。しかしながら、特定の視点へと非常に遠くに表示されるいくつかのメディアガイダンスオブジェクトは、歪んで、視覚的に区別が困難になり得る。例えば、メディアガイダンスオブジェクトは、任意の透視図に表示される画像またはビデオの大部分が確認可能であり、ユーザによって明確に視聴可能であるような画像またはビデオにしてもよい。特に、画面から出入りするように現れる透視図に表示される画像またはビデオは、画面上に平坦に現れる透視図に画像またはビデオが表示される場合と実質的に同じくらい明確である。
第1の透視図1610に表示されるメディアガイダンスオブジェクトは、第2の透視図1612に表示されるメディアガイダンスオブジェクトに隣接するか、またはその次であってもよい。例えば、第1のメディアガイダンスオブジェクト1602および第2のメディアガイダンスオブジェクト1604が第2のメディアガイダンスオブジェクト1604の第1の側1626で接続するように、第1のメディアガイダンスオブジェクト1602は、第2のメディアガイダンスオブジェクト1604に隣接して表示されてもよい。
第3の透視図1614に表示されるメディアガイダンスオブジェクトは、第2の透視図1612内に現れるメディアガイダンスオブジェクトに隣接するか、またはその次であってもよい。いくつかの実装では、第3の透視図1614に表示されるメディアガイダンスオブジェクトは、第1の透視図1610に表示されるメディアガイダンスオブジェクトに隣接する第2の透視図1612に表示されるメディアガイダンスオブジェクトの側とは反対である第2の透視図1612に表示されるメディアガイダンスオブジェクトの側に隣接してもよい。例えば、第3のメディアガイダンスオブジェクト1606は、第3のメディアガイダンスオブジェクト1606および第2のメディアガイダンスオブジェクト1604が、第1の側1626の反対である第2のメディアガイダンスオブジェクト1604の第2の側1628に接続するように、第2のメディアガイダンスオブジェクト1604に隣接して表示されてもよい。
ある透視図に表示されるメディアガイダンスオブジェクトおよび別の透視図に表示されるメディアガイダンスオブジェクトの間の隣接の点は、本明細書では「折り畳み」または「折り畳み点」と称される。これらが接するように、メディアガイダンスオブジェクトは直に隣接しなくてもよいことを理解すべきであり、こうした状況において、隣接の点は、ある透視図が別の透視図に変化する点を指す。例えば、画面1600内のメディアガイダンスオブジェクトは、2つの折り畳み点を作成するように、異なる視点で表示される。種々の実施形態では、1つ、2つまたは任意の他の適した数の折り畳み点が存在してもよい。折り畳み点は、2つの表示されるメディアガイダンスオブジェクトの間で生じる画面におけるしわの外観を生じさせる。
いくつかの実施形態では、2次元空間によって制限される異なる透視図の折り畳みガイドの種々のオプションおよび項目を表示する代わりに、折り畳みガイドは、3次元空間に変換されてもよい。より具体的には、第1の透視図に表示される折り畳みガイドのオプションは、第1の位置において画面の垂線に交差する第1の面の表示のために生成されてもよく、オプションのうちの選択された1つに対応する項目は、第1の位置とは異なる第2の位置において画面の垂線と交差する第2の面内の表示のように生成されてもよい。
例えば、第1の透視図1610に表示される第1のメディアガイダンスオブジェクト1602は、選択可能なメディアガイダンスオブジェクト704が図7A内に現れる面等の、第1の面に現れてもよい。第1のメディアガイダンスオブジェクト1602は、メディアガイダンスオブジェクト704と同じまたは同様の機能および挙動を有してもよい。第2の透視図1612に表示される第2のメディアガイダンスオブジェクト1604は、選択可能なメディアガイダンスオブジェクト702が現れる面等の、第2の面に現れてもよい。第2のメディアガイダンスオブジェクト1604は、メディアガイダンスオブジェクト702と同じまたは同様の機能および挙動を有してもよい。第1の面は、第2の面よりも見る者の近くに現れてもよい。いくつかの実施形態では、第3の透視図1614に表示される第3のメディアガイダンスオブジェクト1606は、選択可能なメディアガイダンスオブジェクト708が表示される面等の第3の面に現れてもよく、第3の透視図1614に表示される第4のメディアガイダンスオブジェクト1608は、選択可能なメディアガイダンスオブジェクト710が表示される面等の第4の面に現れてもよい。他の実施形態では、第3のメディアガイダンスオブジェクト1606および第4のメディアガイダンスオブジェクト1608は、第3の面等の、同じ面に現れてもよい。いくつかの実装では、第3および第4のメディアガイダンスオブジェクト1606および1608は、メディアガイダンスオブジェクト708と同じまたは同様の機能および挙動を有してもよい。
いくつかの実施形態では、第1および第2の面は、画面の前にあるように現れてもよく、第3および第4の面は、画面の後ろにあるように現れてもよい。他の実施形態では、面は、全て、画面の前にあるように現れてもよいが、第3および第4の面は、第1および第2の面よりもユーザから離れているように現れてもよい。第1、第2、第3および第4の面の3次元空間の位置の任意の他の望ましい構成は、本発明の範囲から逸脱せずに、選択されてもよい。いくつかの実施形態では、異なる面は、上記のように、折り畳み点で出会ってもよい。
図15は、本発明の一実施形態による3次元メディアガイド表示のグラフィックを設計するための例示的な流れ図1500である。ステップ1502において、ユーザからのオブジェクトの望ましい感知される距離が決定される。例えば、処理回路306は、選択可能なメディアガイダンスオブジェクト754がユーザの顔から数インチに現れるべきであると決定してもよい。あるいは、処理回路306は、選択可能なメディアガイダンスオブジェクト762が、表示画面の後ろに、ユーザから離れて現れるべきであると決定してもよい。
ステップ1504において、第1の点および第2の点の間の適切な距離が計算される。第1の点は、図12Aに関連して上記のように、ユーザの右目で見られる画像内の選択可能なメディアオブジェクト1206の中心にしてもよい。第2の点は、図12Bに関連して上記に記載のように、ユーザの左目で見られる画像内の同じ選択可能なメディアオブジェクト1222の中心にしてもよい。第1および第2の点の間の適切な距離は、ユーザからのオブジェクトの望ましい感知される距離に関係してもよい。処理回路306は、図13に関連して上記に記載の式のいずれかを使用して、これらの適切な距離を計算してもよい。
ステップ1506において、第1の画像は、ユーザの右目で見られる第1の点に中心が置かれるオブジェクトで生成される。例えば、オブジェクトは、図7Bに関連して上記に記載のように、惑星ガイド内の「太陽」オブジェクトであるテレビシリーズを表す選択可能なメディアガイダンスオブジェクト752にしてもよい。あるいは、オブジェクトは、「惑星」オブジェクトである出演者を表す選択可能なメディアガイダンスオブジェクト754、756、758、760、または762にしてもよい。処理回路306は、上記の相似の三角形アルゴリズムによる、ユーザの右目で見られる選択可能なメディアガイダンスオブジェクト752の第1の画像を生成してもよい。
ステップ1508において、第2の画像は、ユーザの左目で見られる第2の点に中心が置かれるオブジェクトと共に生成される。例えば、オブジェクトは、図7Bに関連して上記に記載のように、惑星ガイド内の「太陽」オブジェクトであるテレビシリーズを表す選択可能なメディアガイダンスオブジェクト752にしてもよい。あるいは、オブジェクトは、「惑星」オブジェクトである出演者を表す選択可能なメディアガイダンスオブジェクト754、756、758、760、または762にしてもよい。処理回路306は、選択可能なメディアガイダンスオブジェクト752の第1の画像をコピーし、第1の画像内の位置選択可能なメディアガイダンスオブジェクト752の左/右へ、異なる点にあるそのオブジェクトを位置することにより、第2の画像を生成してもよい。
ステップ1510において、第1および第2の画像が重ね合わされる。例えば、処理回路306は、画面上での同時表示のために、第1および第2の画像を単一の画像に組み合わせてもよい。立体視光学デバイスでユーザによって見られる場合に、重ね合わせられた画像は、ユーザの左目が第1の画像を見、ユーザの右目が第2の画像を見る際に、3次元で現れる。ユーザの脳は、ユーザのそれぞれの目によって見られる2つの画像を組み合わせ、選択可能なメディアガイダンスオブジェクト752の2つの位置の間の距離に応じて、表示の前または後ろに位置するものとして、画像を解釈する。
図15の流れ図の上記のステップは、図に示され、記載される順序およびシーケンスに制限されない任意の順序またはシーケンスで実施または実行されてもよいことを理解されたい。さらに、図15の流れ図の上記のステップのうちのいくつかは、待ち時間および処理時間を短縮するために、適切な場合同時にまたは並列に、実施または実行されてもよい。
本発明の上記の実施形態は、限定ではなく例示の目的で提示され、本発明は、以下の請求項のみによって限定される。

Claims (10)

  1. 第1の点を有する画面上に表示される選択可能な立体視メディアオブジェクトのためのグラフィックを設計するための方法であって、前記方法は、
    ユーザの右目によって見られるべき前記第1の点に中心が置かれる第1の選択可能なメディアオブジェクトを含む第1の画像の表示を生成することと、
    前記ユーザの左目によって見られるべき、前記第1の点とは異なる前記画面の第2の点に中心が置かれる前記第1の選択可能なメディアオブジェクトのコピーを含む第2の画像の表示を生成することと、
    第1の立体画像を生成するために、前記第1の画像および前記第2の画像の重ね合わせられた画像の表示を生成することであって、前記第1の選択可能なメディアオブジェクトは、前記ユーザが所与の位置から立体視光学デバイスを介して前記第1の立体画像を見る場合に、前記ユーザからの第1の感知される距離における前記第1の立体画像内に現れる、ことと、
    前記第1の選択可能なメディアオブジェクトのユーザ選択を受信したことであって、前記第1の選択可能なメディアオブジェクトのユーザ選択は、前記ユーザの腕の検出された動きの方向および速度に基づいて決定される、ことに応じて、
    前記ユーザの腕の検出された動きの方向および速度に基づいて前記第1の点と前記第2の点との間の距離を修正することであって、前記画面上の前記第1の点と前記第2の点との間の距離は、前記第1の感知される距離に対応する、こと、および、
    前記第1の点と前記第2の点との間の修正された距離に基づいて、第2の立体画像の表示を生成することであって、前記第1の選択可能なメディアオブジェクトは、前記ユーザが前記所与の位置から前記立体視光学デバイスを介して前記第2の立体画像を見る場合に、前記ユーザからの第2の感知される距離における前記第2の立体画像内に現れる、こと
    を行うことと
    を含む、方法。
  2. オフセット距離と見かけの距離との間の関係を決定するために相似の三角形を使用することをさらに含み、
    前記オフセット距離は、前記第1の点と前記第2の点との間の距離であり、
    前記見かけの距離は、前記第1の選択可能なメディアオブジェクトが前記画面からであるように現れている距離であり、
    前記見かけの距離は、前記第1の選択可能なメディアオブジェクトが前記画面の後ろにあるように現れる場合には正であり、前記第1の選択可能なメディアオブジェクトが前記画面の前にあるように現れる場合には負である、請求項1に記載の方法。
  3. 前記第1の選択可能なメディアオブジェクトが設置される前記第1の画像および前記第2の画像内の位置を更新することにより、前記第1の選択可能なメディアオブジェクトが前記第1の立体画像および前記第2の立体画像内を動くことが感知されるようにすることをさらに含む、請求項1に記載の方法。
  4. 前記立体視光学デバイスは、
    前記ユーザの右目によって前記第1の画像を見るための第1の開口であって、前記第1の画像は前記ユーザの右目によって見られる唯一の画像である、第1の開口と、
    前記ユーザの左目によって前記第2の画像を見るための第2の開口であって、前記第2の画像は前記ユーザの左目によって見られる唯一の画像である、第2の開口と、
    前記第1の開口を覆う第1のレンズであって、前記ユーザは、前記第1のレンズを介して前記第1の画像を見る、第1のレンズと、
    前記第2の開口を覆う第2のレンズであって、前記ユーザは、前記第2のレンズを介して前記第2の画像を見る、第2のレンズと
    を備える、請求項1に記載の方法。
  5. 前記第1の画像は、第3の点に中心が置かれる第2の選択可能なメディアオブジェクトを含み、
    前記第2の画像は、前記第3の点とは異なる前記画面の第4の点に中心が置かれる前記第2の選択可能なメディアオブジェクトのコピーを含み、
    前記第2の選択可能なメディアオブジェクトは、第2の感知される距離において前記第1の立体画像内に現れ、
    前記第1の選択可能なメディアオブジェクトは、第1の透視図内の前記第1の立体画像内に現れ、
    前記第2の選択可能なメディアオブジェクトは、前記第1の透視図とは異なる第2の透視図内の前記第1の立体画像内に現れ、
    前記第1の透視図および前記第2の透視図内に現れる前記第1の選択可能なメディアオブジェクトおよび前記第2の選択可能なメディアオブジェクトの組み合わせは、選択可能なメディアオブジェクトの連続する配列として現れ、
    前記配列は、隣接の第1の点に第1の折り畳みを有するように現れ、前記第1の点は、前記第1の透視図内に現れる前記第1の選択可能なメディアオブジェクトと前記第2の透視図内に現れる前記第2の選択可能なメディアオブジェクトとの間の第1の位置に対応する、請求項1に記載の方法。
  6. 選択可能な立体視メディアオブジェクトのためのグラフィックを設計するためのシステムであって、前記システムは、処理回路を備え、
    前記処理回路は、
    ユーザの右目によって見られるべき第1の点に中心が置かれる第1の選択可能なメディアオブジェクトを含む第1の画像の表示を生成することと、
    前記ユーザの左目によって見られるべき、前記第1の点とは異なる表示画面の第2の点に中心が置かれる前記第1の選択可能なメディアオブジェクトのコピーを含む第2の画像の表示を生成することと、
    第1の立体画像を生成するために、前記第1の画像および前記第2の画像の重ね合わせられた画像の表示を生成することであって、前記第1の選択可能なメディアオブジェクトは、前記ユーザが所与の位置から立体視光学デバイスを介して前記第1の立体画像を見る場合に、前記ユーザからの第1の感知される距離における前記第1の立体画像内に現れる、ことと、
    前記第1の選択可能なメディアオブジェクトのユーザ選択を受信したことであって、前記第1の選択可能なメディアオブジェクトのユーザ選択は、前記ユーザの腕の検出された動きの方向および速度に基づいて決定される、ことに応じて、
    前記ユーザの腕の検出された動きの方向および速度に基づいて前記第1の点と前記第2の点との間の距離を修正することであって、前記表示画面上の前記第1の点と前記第2の点との間の距離は、前記第1の感知される距離に対応する、こと、および、
    前記第1の点と前記第2の点との間の修正された距離に基づいて、第2の立体画像の表示を生成することであって、前記第1の選択可能なメディアオブジェクトは、前記ユーザが前記所与の位置から前記立体視光学デバイスを介して前記第2の立体画像を見る場合に、前記ユーザからの第2の感知される距離における前記第2の立体画像内に現れる、こと
    を行うことと
    を行うように構成される、システム。
  7. 前記処理回路は、オフセット距離と見かけの距離との間の関係を決定するために相似の三角形を使用するようにさらに構成され、
    前記オフセット距離は、前記第1の点と前記第2の点との間の距離であり、
    前記見かけの距離は、前記第1の選択可能なメディアオブジェクトが前記表示画面からであるように現れている距離であり、
    前記見かけの距離は、前記第1の選択可能なメディアオブジェクトが前記表示画面の後ろにあるように現れる場合には正であり、前記第1の選択可能なメディアオブジェクトが前記表示画面の前にあるように現れる場合には負である、請求項6に記載のシステム。
  8. 前記処理回路は、
    前記第1の選択可能なメディアオブジェクトが設置される前記第1の画像および前記第2の画像内の位置を更新することにより、前記第1の選択可能なメディアオブジェクトが前記第1の立体画像および前記第2の立体画像内を動くことが感知されるようにするようにさらに構成される、請求項6に記載のシステム。
  9. 前記立体視光学デバイスは、
    前記ユーザの右目によって前記第1の画像を見るための第1の開口であって、前記第1の画像は前記ユーザの右目によって見られる唯一の画像である、第1の開口と、
    前記ユーザの左目によって前記第2の画像を見るための第2の開口であって、前記第2の画像は前記ユーザの左目によって見られる唯一の画像である、第2の開口と、
    前記第1の開口を覆う第1のレンズであって、前記ユーザは、前記第1のレンズを介して前記第1の画像を見る、第1のレンズと、
    前記第2の開口を覆う第2のレンズであって、前記ユーザは、前記第2のレンズを介して前記第2の画像を見る、第2のレンズと
    を備える、請求項6に記載のシステム。
  10. 前記第1の画像は、第3の点に中心が置かれる第2の選択可能なメディアオブジェクトを含み、
    前記第2の画像は、前記第3の点とは異なる前記表示画面の第4の点に中心が置かれる前記第2の選択可能なメディアオブジェクトのコピーを含み、
    前記第2の選択可能なメディアオブジェクトは、第2の感知される距離において前記第1の立体画像内に現れ、
    前記第1の選択可能なメディアオブジェクトは、第1の透視図内の前記第1の立体画像内に現れ、
    前記第2の選択可能なメディアオブジェクトは、前記第1の透視図とは異なる第2の透視図内の前記第1の立体画像内に現れ、
    前記第1の透視図および前記第2の透視図内に現れる前記第1の選択可能なメディアオブジェクトおよび前記第2の選択可能なメディアオブジェクトの組み合わせは、選択可能なメディアオブジェクトの連続する配列として現れ、
    前記配列は、隣接の第1の点に第1の折り畳みを有するように現れ、前記第1の点は、前記第1の透視図内に現れる前記第1の選択可能なメディアオブジェクトと前記第2の透視図内に現れる前記第2の選択可能なメディアオブジェクトとの間の第1の位置に対応する、請求項6に記載のシステム。
JP2018125918A 2009-09-30 2018-07-02 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法 Active JP6737841B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US12/571,283 2009-09-30
US12/571,283 US8291322B2 (en) 2009-09-30 2009-09-30 Systems and methods for navigating a three-dimensional media guidance application
US12/571,287 2009-09-30
US12/571,287 US8970669B2 (en) 2009-09-30 2009-09-30 Systems and methods for generating a three-dimensional media guidance application

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015134886A Division JP2015173511A (ja) 2009-09-30 2015-07-06 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020121877A Division JP2020188479A (ja) 2009-09-30 2020-07-16 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2018152915A true JP2018152915A (ja) 2018-09-27
JP6737841B2 JP6737841B2 (ja) 2020-08-12

Family

ID=43357143

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2012532206A Active JP5969388B2 (ja) 2009-09-30 2010-09-24 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP2015134886A Withdrawn JP2015173511A (ja) 2009-09-30 2015-07-06 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP2018125918A Active JP6737841B2 (ja) 2009-09-30 2018-07-02 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP2020121877A Withdrawn JP2020188479A (ja) 2009-09-30 2020-07-16 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP2022161549A Pending JP2022189848A (ja) 2009-09-30 2022-10-06 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2012532206A Active JP5969388B2 (ja) 2009-09-30 2010-09-24 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP2015134886A Withdrawn JP2015173511A (ja) 2009-09-30 2015-07-06 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2020121877A Withdrawn JP2020188479A (ja) 2009-09-30 2020-07-16 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP2022161549A Pending JP2022189848A (ja) 2009-09-30 2022-10-06 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法

Country Status (11)

Country Link
US (3) US8970669B2 (ja)
EP (2) EP3441851A1 (ja)
JP (5) JP5969388B2 (ja)
KR (4) KR102055807B1 (ja)
CN (1) CN102763061B (ja)
AR (1) AR078192A1 (ja)
AU (1) AU2010300904B2 (ja)
BR (1) BR112012007113A2 (ja)
CA (3) CA3202655A1 (ja)
MX (2) MX321633B (ja)
WO (1) WO2011041219A1 (ja)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US8970669B2 (en) 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
CN102550041A (zh) * 2009-10-30 2012-07-04 索尼计算机娱乐公司 信息处理装置、调谐器及信息处理方法
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
US20110137727A1 (en) * 2009-12-07 2011-06-09 Rovi Technologies Corporation Systems and methods for determining proximity of media objects in a 3d media environment
US8640052B2 (en) * 2009-12-31 2014-01-28 Verizon Patent And Licensing Inc. User interface enhancements for media content access systems and methods
KR101737832B1 (ko) * 2010-02-05 2017-05-29 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
KR101647044B1 (ko) * 2010-02-11 2016-08-09 삼성전자 주식회사 휴대 단말기의 화면 표시 방법 및 장치
JP5268991B2 (ja) * 2010-05-18 2013-08-21 株式会社東芝 情報処理装置および映像コンテンツ再生方法
KR20110139497A (ko) * 2010-06-23 2011-12-29 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
EP2432218B1 (en) * 2010-09-20 2016-04-20 EchoStar Technologies L.L.C. Methods of displaying an electronic program guide
US20120151413A1 (en) * 2010-12-08 2012-06-14 Nokia Corporation Method and apparatus for providing a mechanism for presentation of relevant content
JP2012128662A (ja) * 2010-12-15 2012-07-05 Samsung Electronics Co Ltd 表示制御装置、プログラムおよび表示制御方法
KR101763263B1 (ko) * 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
EP2659345B1 (en) * 2010-12-30 2019-06-12 Telecom Italia S.p.A. 3d interactive menu
US8923686B2 (en) 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
US20130054319A1 (en) * 2011-08-29 2013-02-28 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application
FR2980283B1 (fr) * 2011-09-19 2014-07-04 Oberthur Technologies Procede de communication et systeme associe de type lunettes pour un utilisateur utilisant un poste de visualisation
CN102750599A (zh) * 2011-11-29 2012-10-24 新奥特(北京)视频技术有限公司 一种视音频文件技术审查的方法
CN102547425B (zh) * 2011-12-20 2014-10-01 深圳Tcl新技术有限公司 电视及其光标移动控制的方法、设备及系统
CN108469899B (zh) 2012-03-13 2021-08-10 视力移动技术有限公司 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
CN102662577B (zh) * 2012-03-29 2016-08-10 华为终端有限公司 一种基于三维显示的光标操作方法及移动终端
US11237695B2 (en) * 2012-10-12 2022-02-01 Sling Media L.L.C. EPG menu with a projected 3D image
US9164653B2 (en) 2013-03-15 2015-10-20 Inspace Technologies Limited Three-dimensional space for navigating objects connected in hierarchy
US10254855B2 (en) 2013-06-04 2019-04-09 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering device
CN103399629B (zh) * 2013-06-29 2017-09-19 华为技术有限公司 获取手势屏幕显示坐标的方法和装置
US9703396B2 (en) 2013-07-12 2017-07-11 Wen-Chieh Geoffrey Lee High resolution and high sensitivity three-dimensional (3D) cursor maneuvering reference plane, and methods of its manufacture
US10089786B2 (en) * 2013-08-19 2018-10-02 Qualcomm Incorporated Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking
USD748122S1 (en) * 2013-10-25 2016-01-26 Microsoft Corporation Display screen with transitional graphical user interface
USD748120S1 (en) * 2013-10-25 2016-01-26 Microsoft Corporation Display screen with animated graphical user interface
USD748121S1 (en) * 2013-10-25 2016-01-26 Microsoft Corporation Display screen with animated graphical user interface
USD747334S1 (en) * 2013-10-25 2016-01-12 Microsoft Corporation Display screen with graphical user interface
USD746847S1 (en) * 2013-10-25 2016-01-05 Microsoft Corporation Display screen with animated graphical user interface
USD749108S1 (en) * 2013-10-25 2016-02-09 Microsoft Corporation Display screen with animated graphical user interface
CN104661097A (zh) * 2013-11-22 2015-05-27 中兴通讯股份有限公司 网络电视页面显示的方法及网络终端
US10306125B2 (en) 2014-10-09 2019-05-28 Belkin International, Inc. Video camera with privacy
USD757047S1 (en) * 2014-07-11 2016-05-24 Google Inc. Display screen with animated graphical user interface
USD795916S1 (en) * 2014-08-19 2017-08-29 Google Inc. Display screen with animated graphical user interface
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
USD786920S1 (en) * 2014-09-09 2017-05-16 Ge Intelligent Platforms, Inc. Display screen with graphical alarm icon
USD769937S1 (en) * 2014-09-09 2016-10-25 Ge Intelligent Platforms, Inc. Display screen with graphical alarm icon
US9179105B1 (en) 2014-09-15 2015-11-03 Belkin International, Inc. Control of video camera with privacy feedback
USD780203S1 (en) * 2014-10-02 2017-02-28 Deere & Company Display screen with a graphical user interface
USD785650S1 (en) * 2014-11-03 2017-05-02 Electro Industries/Gauge Tech Display screen or portion thereof with graphical user interface
USD788788S1 (en) 2014-11-18 2017-06-06 Google Inc. Display screen with animated graphical user interface
USD760740S1 (en) * 2015-01-23 2016-07-05 Your Voice Usa Corp. Display screen with icon
USD774077S1 (en) * 2015-02-09 2016-12-13 Express Scripts, Inc. Display screen with graphical user interface
USD786283S1 (en) * 2015-02-20 2017-05-09 Google Inc. Portion of a display panel with a graphical user interface
US10147388B2 (en) * 2015-04-29 2018-12-04 Rovi Guides, Inc. Systems and methods for enhancing viewing experiences of users
US10003778B2 (en) 2015-04-29 2018-06-19 Rovi Guides, Inc. Systems and methods for augmenting a viewing environment of users
KR102450416B1 (ko) * 2015-11-04 2022-10-05 삼성전자주식회사 전자 장치, 웨어러블 장치 및 전자 장치에서 디스플레이되는 객체를 제어하는 방법
WO2017115504A1 (ja) * 2015-12-28 2017-07-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10095876B2 (en) * 2016-02-09 2018-10-09 Rovi Guides, Inc. Systems and methods for allowing a user to access blocked media
US10110968B2 (en) 2016-04-19 2018-10-23 Google Llc Methods, systems and media for interacting with content using a second screen device
JP6232632B1 (ja) * 2016-08-09 2017-11-22 パロニム株式会社 動画再生プログラム、動画再生装置、動画再生方法、動画配信システム及びメタデータ作成方法
CN108124167A (zh) * 2016-11-30 2018-06-05 阿里巴巴集团控股有限公司 一种播放处理方法、装置和设备
USD809530S1 (en) * 2016-12-20 2018-02-06 Smartorg, Inc. Display screen or portion thereof with an animated graphical user interface
USD810100S1 (en) * 2016-12-20 2018-02-13 Smartorg, Inc. Display screen or portion thereof with an animated graphical user interface
JP1604069S (ja) * 2017-05-29 2018-05-21
JP1604068S (ja) * 2017-05-29 2018-05-21
US10713141B2 (en) * 2017-07-26 2020-07-14 Ebay Inc. Capturing native application content rendering performance
US10335680B2 (en) * 2017-09-11 2019-07-02 Rovi Guides, Inc. Methods and systems for an interactive media guidance game
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
US10848832B2 (en) * 2018-09-11 2020-11-24 Opentv, Inc. Selection interface with synchronized suggestion elements
US11307730B2 (en) 2018-10-19 2022-04-19 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface configured for machine learning
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
US11644940B1 (en) 2019-01-31 2023-05-09 Splunk Inc. Data visualization in an extended reality environment
GB201902664D0 (en) * 2019-02-27 2019-04-10 Oxsight Ltd Head mountable imaging apparatus and system for assisting a user with reduced vision
US11216150B2 (en) 2019-06-28 2022-01-04 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface with vector field functionality
US11508131B1 (en) * 2019-11-08 2022-11-22 Tanzle, Inc. Generating composite stereoscopic images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2005065162A (ja) * 2003-08-20 2005-03-10 Matsushita Electric Ind Co Ltd 表示装置、送信装置、送受信システム、送受信方法、表示方法、送信方法、およびリモコン

Family Cites Families (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04168489A (ja) 1990-10-31 1992-06-16 Matsushita Electric Ind Co Ltd 情報処理装置および3次元表示装置とそれらを用いた表示方法
JPH04191784A (ja) 1990-11-26 1992-07-10 Mita Ind Co Ltd 感光体ドラム清掃装置
US5602564A (en) * 1991-11-14 1997-02-11 Hitachi, Ltd. Graphic data processing system
US6239794B1 (en) 1994-08-31 2001-05-29 E Guide, Inc. Method and system for simultaneously displaying a television program and information about the program
JP4190590B2 (ja) 1994-09-20 2008-12-03 ソニー株式会社 仮想現実空間提供方法および仮想現実空間提供装置
JPH08249493A (ja) * 1995-03-09 1996-09-27 Sony Corp 立体映像装置
JPH08322066A (ja) * 1995-05-26 1996-12-03 Sanyo Electric Co Ltd 立体映像表示装置及び立体映像表示方法
US6388714B1 (en) 1995-10-02 2002-05-14 Starsight Telecast Inc Interactive computer system for providing television schedule information
US6219045B1 (en) * 1995-11-13 2001-04-17 Worlds, Inc. Scalable virtual world chat client-server system
AUPN732395A0 (en) 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
DE69706611T2 (de) 1996-06-27 2002-07-04 Toshiba Kawasaki Kk Stereoskopisches Display-System und -Verfahren
US6108005A (en) 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
US6177931B1 (en) 1996-12-19 2001-01-23 Index Systems, Inc. Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US6501468B1 (en) * 1997-07-02 2002-12-31 Sega Enterprises, Ltd. Stereoscopic display device and recording media recorded program for image processing of the display device
US5883628A (en) * 1997-07-03 1999-03-16 International Business Machines Corporation Climability: property for objects in 3-D virtual environments
US6762794B1 (en) * 1997-12-03 2004-07-13 Canon Kabushiki Kaisha Image pick-up apparatus for stereoscope
US6564378B1 (en) 1997-12-08 2003-05-13 United Video Properties, Inc. Program guide system with browsing display
JPH11313291A (ja) * 1998-04-28 1999-11-09 Toshiba Corp 番組案内表示装置及び方法
GB0027260D0 (en) * 2000-11-08 2000-12-27 Koninl Philips Electronics Nv An image control system
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000196971A (ja) * 1998-12-25 2000-07-14 Matsushita Electric Ind Co Ltd 映像表示装置
US7096487B1 (en) * 1999-10-27 2006-08-22 Sedna Patent Services, Llc Apparatus and method for combining realtime and non-realtime encoded content
WO2001016683A1 (en) 1999-08-31 2001-03-08 Ububu, Inc. Using the placement of visual urls to communicate and assess their relationship to each other
EP1098498A1 (fr) 1999-11-04 2001-05-09 Koninklijke Philips Electronics N.V. Appareil comportant un écran pour des images stéréoscopiques
US6421067B1 (en) 2000-01-16 2002-07-16 Isurftv Electronic programming guide
JP2003529825A (ja) * 2000-02-14 2003-10-07 ジオフェニックス, インコーポレイテッド グラフィカルプログラミングのための方法およびシステム
US6662177B1 (en) * 2000-03-29 2003-12-09 Koninklijke Philips Electronics N.V. Search user interface providing mechanism for manipulation of explicit and implicit criteria
US7278153B1 (en) * 2000-04-12 2007-10-02 Seachange International Content propagation in interactive television
US6836274B1 (en) * 2000-05-08 2004-12-28 Eagle New Media Investments, Llc Three dimensional light electronic programming guide
JP2001331169A (ja) 2000-05-22 2001-11-30 Namco Ltd 立体視映像表示装置、及び情報記憶媒体
JP2002077866A (ja) 2000-08-25 2002-03-15 Matsushita Electric Ind Co Ltd 電子番組情報提供システム、電子番組情報利用システム、電子番組情報提供装置、媒体、および情報集合体
JP4772952B2 (ja) * 2000-08-28 2011-09-14 株式会社バンダイナムコゲームス 立体視画像生成装置及び情報記憶媒体
JP3945160B2 (ja) * 2000-12-25 2007-07-18 日本電気株式会社 情報提供サーバ、クライアント、情報提供システムの処理方法、及びプログラムを記録した記録媒体
JP4077321B2 (ja) * 2001-02-23 2008-04-16 富士通株式会社 表示制御装置
US6819344B2 (en) * 2001-03-12 2004-11-16 Microsoft Corporation Visualization of multi-dimensional data having an unbounded dimension
WO2002093352A1 (en) * 2001-05-11 2002-11-21 3Dna Corp. Method and system for generating a three-dimensional graphical user interface (3d gui) for computer systems and websites
JP2002374476A (ja) * 2001-06-18 2002-12-26 Alpine Electronics Inc 情報表示装置
US6795972B2 (en) * 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
US6745179B2 (en) * 2001-10-12 2004-06-01 Shipley Company, L.L.C. Method and system for facilitating viewer navigation through online information relating to chemical products
US20030084445A1 (en) * 2001-10-30 2003-05-01 Paul Pilat Method of enhancing awareness of a data cell in a grid
AUPS058602A0 (en) * 2002-02-15 2002-03-14 Canon Kabushiki Kaisha Representing a plurality of independent data items
JP2004173003A (ja) * 2002-11-20 2004-06-17 Toshiba Corp 放送受信装置とコード信号出力装置及びその制御方法
US7511710B2 (en) * 2002-11-25 2009-03-31 Microsoft Corporation Three-dimensional program guide
EP1426919A1 (en) * 2002-12-02 2004-06-09 Sony International (Europe) GmbH Method for operating a display device
US8549574B2 (en) * 2002-12-10 2013-10-01 Ol2, Inc. Method of combining linear content and interactive content compressed together as streaming interactive video
US7233316B2 (en) * 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
US7661075B2 (en) * 2003-05-21 2010-02-09 Nokia Corporation User interface display for set-top box device
US7685619B1 (en) * 2003-06-27 2010-03-23 Nvidia Corporation Apparatus and method for 3D electronic program guide navigation
JP4307212B2 (ja) * 2003-10-17 2009-08-05 シャープ株式会社 表示データ編集装置、表示装置、表示データ編集方法、プログラム及び記録媒体
US20050209983A1 (en) * 2004-03-18 2005-09-22 Macpherson Deborah L Context driven topologies
JP2005311500A (ja) 2004-04-19 2005-11-04 Toyota Boshoku Corp 車両用音響装置
US8159526B2 (en) * 2004-09-17 2012-04-17 Seiko Epson Corporation Stereoscopic image display system
DE102005017313A1 (de) 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
US20100154065A1 (en) * 2005-07-01 2010-06-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for user-activated content alteration
JP4982065B2 (ja) * 2005-09-26 2012-07-25 株式会社東芝 映像コンテンツ表示システム、映像コンテンツ表示方法及びそのプログラム
KR100679039B1 (ko) * 2005-10-21 2007-02-05 삼성전자주식회사 3차원 그래픽 유저 인터페이스, 이를 제공하는 장치 및방법
US20070146360A1 (en) * 2005-12-18 2007-06-28 Powerproduction Software System And Method For Generating 3D Scenes
WO2007086234A1 (ja) 2006-01-27 2007-08-02 Pioneer Corporation 優先順位付番組情報配信システム、優先順位付番組情報配信方法、放送受信装置および優先順位付番組情報配信装置
JP4650635B2 (ja) * 2006-02-13 2011-03-16 株式会社ソニー・コンピュータエンタテインメント コンテンツ及び/又はサービスの案内装置並びに案内方法、及びプログラム
US8743109B2 (en) * 2006-08-31 2014-06-03 Kent State University System and methods for multi-dimensional rendering and display of full volumetric data sets
KR100716142B1 (ko) * 2006-09-04 2007-05-11 주식회사 이시티 스테레오스코픽 영상 데이터의 전송 방법
US20080111822A1 (en) * 2006-09-22 2008-05-15 Yahoo, Inc.! Method and system for presenting video
US7469035B2 (en) * 2006-12-11 2008-12-23 The Board Of Trustees Of The Leland Stanford Junior University Method to track three-dimensional target motion with a dynamical multi-leaf collimator
US8898701B2 (en) 2006-12-29 2014-11-25 Verizon Patent And Licensing Inc. Method and system for providing attribute browsing of video assets
CN101542587B (zh) 2007-05-08 2012-09-05 松下电器产业株式会社 显示装置以及图像显示方法
US8108459B1 (en) * 2007-05-30 2012-01-31 Rocketon, Inc. Method and apparatus for distributing virtual goods over the internet
US8924250B2 (en) * 2007-09-13 2014-12-30 International Business Machines Corporation Advertising in virtual environments based on crowd statistics
JP2009111486A (ja) 2007-10-26 2009-05-21 Sony Corp 表示制御装置および表示方法、プログラム、並びに記録媒体
KR101379337B1 (ko) * 2007-12-04 2014-03-31 삼성전자주식회사 삼차원적 pip 영상을 제공하는 영상기기 및 이를 적용한영상표시방법
US8555311B2 (en) 2007-12-19 2013-10-08 United Video Properties, Inc. Methods and devices for presenting guide listings and guidance data in three dimensions in an interactive media guidance application
US20090161963A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
DE102009010830A1 (de) 2008-04-28 2009-10-29 Volkswagen Ag Verfahren zum Anzeigen einer hierarchischen Struktur in einem Fahrzeug
US8494250B2 (en) * 2008-06-06 2013-07-23 Siemens Medical Solutions Usa, Inc. Animation for conveying spatial relationships in three-dimensional medical imaging
US8127236B2 (en) * 2008-09-12 2012-02-28 International Business Machines Corporation Virtual universe subject matter expert assistance
US20100083316A1 (en) * 2008-09-29 2010-04-01 Kabushiki Kaisha Toshiba Electronic Apparatus and Electronic Program Guide Display Method
KR20100050103A (ko) 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
KR101364027B1 (ko) * 2008-12-18 2014-02-18 엘지전자 주식회사 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
US8339441B2 (en) * 2008-12-26 2012-12-25 Kabushiki Kaisha Toshiba Frame processing device, television receiving apparatus and frame processing method
US8284236B2 (en) * 2009-02-19 2012-10-09 Sony Corporation Preventing interference between primary and secondary content in a stereoscopic display
WO2010113454A1 (ja) * 2009-03-31 2010-10-07 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US8314832B2 (en) * 2009-04-01 2012-11-20 Microsoft Corporation Systems and methods for generating stereoscopic images
US8555315B2 (en) * 2009-04-10 2013-10-08 United Video Properties, Inc. Systems and methods for navigating a media guidance application with multiple perspective views
JP4609805B2 (ja) * 2009-05-28 2011-01-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
WO2010140866A2 (ko) * 2009-06-05 2010-12-09 엘지전자 주식회사 영상표시장치 및 그 동작방법
US20110012896A1 (en) * 2009-06-22 2011-01-20 Ji Maengsob Image display apparatus, 3d glasses, and method for operating the image display apparatus
TW201119353A (en) * 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
EP2268045A1 (en) * 2009-06-26 2010-12-29 Lg Electronics Inc. Image display apparatus and method for operating the same
JP2011029849A (ja) * 2009-07-23 2011-02-10 Sony Corp 受信装置、通信システム、立体画像への字幕合成方法、プログラム、及びデータ構造
JP5604827B2 (ja) * 2009-08-21 2014-10-15 ソニー株式会社 送信装置、受信装置、プログラム、及び通信システム
US8970669B2 (en) 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
JP5433862B2 (ja) * 2009-09-30 2014-03-05 日立マクセル株式会社 受信装置及び表示制御方法
US20110099488A1 (en) 2009-10-26 2011-04-28 Verizon Patent And Licensing Inc. Method and apparatus for presenting video assets
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
US20110137727A1 (en) * 2009-12-07 2011-06-09 Rovi Technologies Corporation Systems and methods for determining proximity of media objects in a 3d media environment
US20110279453A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a location-based user interface
US20130054319A1 (en) * 2011-08-29 2013-02-28 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2005065162A (ja) * 2003-08-20 2005-03-10 Matsushita Electric Ind Co Ltd 表示装置、送信装置、送受信システム、送受信方法、表示方法、送信方法、およびリモコン

Also Published As

Publication number Publication date
US8970669B2 (en) 2015-03-03
WO2011041219A1 (en) 2011-04-07
JP5969388B2 (ja) 2016-08-17
KR101939316B1 (ko) 2019-01-17
CA3109075A1 (en) 2011-04-07
AU2010300904B2 (en) 2014-08-21
KR102225482B1 (ko) 2021-03-08
MX321633B (es) 2014-07-03
KR101872018B1 (ko) 2018-06-27
CA2773348A1 (en) 2011-04-07
KR20180072878A (ko) 2018-06-29
CA2773348C (en) 2021-03-30
KR20190139330A (ko) 2019-12-17
US20150187122A1 (en) 2015-07-02
JP2020188479A (ja) 2020-11-19
JP2015173511A (ja) 2015-10-01
JP6737841B2 (ja) 2020-08-12
KR102055807B1 (ko) 2019-12-13
MX341581B (es) 2016-08-25
MX2012003919A (es) 2012-08-23
WO2011041219A8 (en) 2011-05-12
AR078192A1 (es) 2011-10-19
US9922448B2 (en) 2018-03-20
US8291322B2 (en) 2012-10-16
US20110078634A1 (en) 2011-03-31
CA3109075C (en) 2023-08-01
JP2013507052A (ja) 2013-02-28
EP3441851A1 (en) 2019-02-13
CN102763061A (zh) 2012-10-31
JP2022189848A (ja) 2022-12-22
AU2010300904A1 (en) 2012-03-29
EP2483766A1 (en) 2012-08-08
US20110074918A1 (en) 2011-03-31
CA3202655A1 (en) 2011-04-07
BR112012007113A2 (pt) 2016-07-05
KR20190007098A (ko) 2019-01-21
KR20120105432A (ko) 2012-09-25
CN102763061B (zh) 2017-03-22

Similar Documents

Publication Publication Date Title
JP6737841B2 (ja) 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
KR100994011B1 (ko) 미디어 항목들을 편성하고, 선택하며, 개시하기 위한주밍(zooming) 가능한 그래픽 유저 인터페이스를갖춘 제어 프레임워크
CN101341457B (zh) 利用3d定位增强电视应用的方法和系统
US20170272807A1 (en) Overlay device, system and method
US20060262116A1 (en) Global navigation objects in user interfaces
JP2013513304A (ja) 3dメディア環境においてメディアオブジェクトの近接度を決定するシステムおよび方法
AU2013203157A1 (en) Systems and Methods for Navigating a Three-Dimensional Media Guidance Application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190826

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200518

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200716

R150 Certificate of patent or registration of utility model

Ref document number: 6737841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250