JP2015523001A - 重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進すること - Google Patents

重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進すること Download PDF

Info

Publication number
JP2015523001A
JP2015523001A JP2015514091A JP2015514091A JP2015523001A JP 2015523001 A JP2015523001 A JP 2015523001A JP 2015514091 A JP2015514091 A JP 2015514091A JP 2015514091 A JP2015514091 A JP 2015514091A JP 2015523001 A JP2015523001 A JP 2015523001A
Authority
JP
Japan
Prior art keywords
user
computing device
animation
visual data
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015514091A
Other languages
English (en)
Other versions
JP6022043B2 (ja
Inventor
アイ. フェルカイ、ポール
アイ. フェルカイ、ポール
ハーパー、アニー
ジャゴディック、ラトコ
モンジャ、ラジヴ、ケー.
シューメーカー、ガース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2015523001A publication Critical patent/JP2015523001A/ja
Application granted granted Critical
Publication of JP6022043B2 publication Critical patent/JP6022043B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping
    • G06T5/70
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Abstract

ここには、第1のコンピューティングデバイスの第1のユーザと第2のコンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進するための装置、コンピュータ実装された方法、システム、デバイス、及びコンピュータ可読媒体の実施形態が記載される。 様々な実施形態では、促進は、第2のコンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、第1のコンピューティングデバイス上に提示されているメディアコンテンツの上への重ね合わせを含んでよい。アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調されてよい。 促進は、少なくとも部分的に、第2のユーザがトラステッドステータス割り当てたか、及び、第1のユーザの変更された又は変更されていないビジュアルデータの第2のコンピューティングデバイスへの送信に基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更することを含んでも良い。

Description

<関連出願の相互参照>
本願は、2012年6月25日に提出された米国特許出願第13/532,612号の優先権を主張し、この内容全体を全ての目的で参照により組み込む。
本発明の実施形態は、概して、データ処理の技術分野に関しており、より詳しくは、重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進することに関している。ここに提供する背景技術の説明は、概して本開示のコンテキストを提示する目的のためである。本背景技術セクションに記載されている範囲のここで挙げられている発明者の仕事は、さもなくば出願時に先行技術に値しない記載の側面とともに、本開示に対する先行技術として明示的にも暗示的にも認められたものではない。ここでそうではないと示さない限り、このセクションで記載される方法は、本開示の請求項の先行技術でもなければ、本セクションに含まれているからといって、先行技術であると自認したわけでもない。
人々は、メディアコンテンツを一緒に消費することを望む場合がある。例えば、友人たちのグループが集まって、一緒に映画、テレビ番組、スポーツイベント、ホームビデオ、又は、その他の同様なメディアコンテンツを見る場合がある。友人同士は、メディア消費体験を高めるために提示中にやり取りを行う場合もあろう。しかしながら、互いに物理的に別箇であり、単一の場所に集まることができない2又はそれ以上の人々がメディアコンテンツ消費体験を共有したいと思う場合も想定される。
実施形態は、以下の詳細な記載を、添付図面とともに読むことでよりよく理解される。本説明を促進するために、同様の参照符号は、同様の構造要素を示すものとする。実施形態は例として示されており、添付図面の図の限定として意図されていない。
様々な実施形態における、他の同様の構成の遠隔コンピューティングデバイスと通信する、本開示の教示の適用可能部分とともに構成される例示的なコンピューティングデバイスを概略的に示す。 様々な実施形態における、コンピューティングデバイスのユーザが、遠隔ユーザの特定の重ねられたアニメーションに興味を示した図1のシナリオを概略的に示す。 様々な実施形態における、コンピューティングデバイスのユーザが、遠隔ユーザの重ねられたアニメーションの上のメディアコンテンツに興味を示した図1のシナリオを概略的に示す。 様々な実施形態における、コンピューティングデバイスが実装してよい例示的な方法を概略的に示す。 様々な実施形態における、コンピューティングデバイスが実装してよい別の例示的な方法を概略的に示す。 様々な実施形態における、開示されている方法及びコンピュータ可読媒体が実装されてよい例示的なコンピューティングデバイスを概略的に示す。
以下の詳細な記載では、一部分を形成するテンプ図面に対する参照が行われ、ここでは全体的に同様の参照番号が同様の部分を示し、又、実行可能な例示的な実施形態により示されている。本開示の範囲を逸脱せずに、他の実施形態を利用することもでき、構造上又は論理上の変更を行うことも可能であることを理解されたい。よって、以下の詳細な記載は、限定的な意味合いで受け取られるべきではなく、開示の範囲は、添付請求項及びその均等物により定義される。
様々な動作は、請求されている主題の理解を最も助けるような方法で複数の別個のアクション又は動作として記載されている場合がある。しかし、記載の順序は、これらの動作が必ずしも順序に依存していることを示唆していると解釈されるべきではない。特に、これらの動作は、提示の順序で実行されなくてもよい。記載されている動作は、記載されている実施形態とは異なる順序で実行されてもよい。様々な更なる動作が実行されてよく、及び/又は、記載されている動作は、更なる実施形態では省略されてもよい。
本開示の目的においては、「A及び/又はB」という文言は、(A), (B), 又は(A及びB)を示す。本開示の目的においては、「A, B, 及び/又はC」という文言は、(A), (B), (C), (A及び B), (A及びC), (B及びC), or (A, B及びC)を示す。
記載では、「或る実施形態では」又は「実施形態では」という文言が利用されている場合があるが、これらはそれぞれ、同じ又は異なる実施形態の1又は複数のことを指してよい。更に、本開示の実施形態に関して利用されている「備える(comprising)」「含む(including)」「有する(having)」等の文言は、同義語である。
ここで利用される「モジュール」という用語は、特定用途向け集積回路(「ASIC」)、電子回路、プロセッサ(共有、専用、又はグループ)、及び/又は、1又は複数のソフトウェア又はファームウェアプログラムを実行するメモリ(共有、専用、又はグループ)、組み合わせ論理回路、及び/又は、記載された機能を提供する他の適切なコンポーネントを指したり、その一部であったり、含んだりして良い。
図1は、様々な実施形態における、本開示の教示の適用可能部分とともに構成されている例示的なコンピューティングデバイス100を概略的に示す。コンピューティングデバイス100は、タブレットコンピューティングデバイスとして示されているが、これは限定を意味しない。コンピューティングデバイス100は、様々な他のタイプのコンピューティングデバイス(又は、その組み合わせ)、これらに限定されるものではないが、ラップトップ、ネットブック、ノートブック、ウルトラブック、スマートフォン、携帯情報端末 ("PDA")、ウルトラモバイルPC、携帯電話、デスクトップコンピュータ、サーバ、プリンタ、スキャナ、モニタ、セットトップボックス、エンターテインメントコントロールユニット (e.g.,ゲームコンソール)、デジタルカメラ、携帯音楽プレーヤデジタルビデオレコーダ、テレビ (e.g.,プラズマ、液晶ディスプレイ又は"LCD"、 陰極線管又は"CRT"、プロジェクションスクリーン)等を含む。
コンピューティングデバイス100は、ディスプレイ102を含んでよい。ディスプレイ102は、これらに限定はされないがプラズマ、LCD,CRT等を含む、様々なタイプのディスプレイであってよい。幾つかの実施形態(不図示)では、ディスプレイは、プロジェクタが、ここで説明した重ねられたアニメーションをもつグラフィックスをプロジェクションしてよいプロジェクション面を含んでよい。様々な実施形態では、ディスプレイ102は、コンピューティングデバイス100に入力を提供し、これを操作するために利用してよいタッチスクリーンディスプレイであってよい。様々な実施形態では、コンピューティングデバイス100は、タッチスクリーンディスプレイに加えて、又はこれに代えて、追加の入力制御(不図示)を含んでよい。
様々な実施形態では、コンピューティングデバイス100は、1又は複数のフレーム及び/又はデジタル画像等のビジュアルデータをキャプチャするよう構成されたカメラ104を含んでよい。後述するように、キャプチャされたビジュアルデータは、遠隔コンピューティングデバイスに送信され、遠隔コンピューティングデバイスによる他のコンテンツの上へのアニメーションの重ね合せを促進するために利用されてよい。
カメラ104は、図1から図3のコンピューティングデバイス100の統合された一部分として示されているが、これは限定として意図されてはいない。様々な実施形態では、カメラ104は、コンピューティングデバイス100から別箇ではない。例えばカメラ104は、1又は複数の有線又は無線を利用してコンピューティングデバイス100に接続された外部カメラ(例えばウェブカメラ)であってよい。
様々な実施形態では、コンピューティングデバイス100は、目トラッキングデバイス106を含んでよい。図1に示すコンピューティングタブレット等の様々な実施形態では、カメラ104も、目トラッキングデバイス106として動作する。しかしこれは必ず必要なものではない。様々な実施形態では、目トラッキングデバイス106は、カメラ104から別箇であってよく、異なるタイプのデバイス及び/又は異なるタイプのカメラであってよい。例えば、コンピューティングデバイス100がテレビ又はテレビに接続されたゲームコンソールである実施形態では、目トラッキングデバイス106は、テレビ又はゲームコンソールに動作可能に連結されたカメラ又はその他のデバイス(例えば動きキャプチャデバイス)であってよい。そのような例は図3に示され、後述する。
様々な実施形態では、カメラ104及び/又は目トラッキングデバイス106がキャプチャするビジュアルデータが、ソフトウェア、ハードウェア、又は任意の2つの組み合わせによって分析されることで、もしあればユーザが探している、ディスプレイ102の部分を決定及び/又は近似することができてよい。この決定は、これらに限定はされないが、ユーザの顔及び/又は目とディスプレイ102の間の距離を決定すること、ユーザの目の1又は複数の特徴(例えばビジュアルデータの中の瞳等)を特定すること、特定された特徴間の距離を測定すること、等の様々な動作を含んでよい。後述するように、ディスプレイ102のどの部分をユーザが探しているか(そして従って興味を示したか)、及び、ディスプレイ102のどの部分をユーザが探していないか(そして従って興味を示さなかったか)を決定することは、様々な方法で利用されてよい。
コンピューティングデバイス100は、1又は複数のネットワークを介して様々な遠隔コンピューティングデバイスと通信してよい。図1及び図2では、例えば、コンピューティングデバイス100が、自身がネットワーク110と通信している第1の無線ネットワークアクセスノード108と無線通信している。様々な実施形態では、第1の無線アクセスノード108は、進化型NodeB、WiMAX(IEEE802.16ファミリー)アクセスポイント、Wi−Fi(IEEE802.11ファミリー)アクセスポイント、又は、コンピューティングデバイス100が無線接続してよい任意の他のノードであってよい。ネットワーク110は、1又は複数のパーソナル、ローカル、又はワイドエリア、プライベート、及び/又はパブリックネットワーク(これらにはこれに限定されないがインターネットが含まれる)を含んでよい。コンピューティングデバイス100は、ネットワーク110に無線接続されているものとして示されているが、これは限定を意図しておらず、コンピューティングデバイス100は、任意の他の方法(いわゆる「有線」接続を介するものを含む)で1又は複数のネットワークに接続してよい。
コンピューティングデバイス100は、任意の数の遠隔コンピューティングデバイスとネットワーク通信してよい。図1及び図2では、例えば、コンピューティングデバイス100が、第1の遠隔コンピューティングデバイス112と第2の遠隔コンピューティングデバイス114とネットワーク通信している。コンピューティングデバイス100の場合と同様に、第1及び第2の遠隔コンピューティングデバイス112、114は、前に述べたものの等の、任意のタイプのコンピューティングデバイスであってよい。例えば図1では、第1の遠隔コンピューティングデバイス112が、スマートフォンであり、第2の遠隔コンピューティングデバイス114がラップトップコンピュータである。
第1の遠隔コンピューティングデバイス112は、別の無線ネットワークアクセスノード116に無線接続されていると示されている。第2の遠隔コンピューティングデバイス114は、有線接続を介してネットワーク110に接続していると示されている。しかし、遠隔コンピューティングデバイスが利用するネットワーク接続のタイプは重要ではない。任意のコンピューティングデバイスが、任意のタイプのネットワーク接続を利用して、ここで記載される方法で任意の他のコンピューティングデバイスと通信してよい。
様々な実施形態では、コンピューティングデバイス100は、1又は複数の遠隔コンピューティングデバイス(例えば、第1の遠隔コンピューティングデバイス112の第1の遠隔ユーザ118及び/又は第2の遠隔コンピューティングデバイス114の第2の遠隔ユーザ120等)の1又は複数のユーザとともの、コンピューティングデバイス100のユーザ(不図示)による、メディアコンテンツ122の同時消費を促進するよう構成されてよい。様々な実施形態では、コンピューティングデバイス100は、コンピューティングデバイス100の上に提示されるメディアコンテンツ122の上に、遠隔ユーザの1又は複数のアニメーションを重ねるよう構成されてよい。
様々な実施形態では、これらの1又は複数の重ねられたアニメーションは、遠隔コンピューティングデバイスから受信したビジュアルデータに基づいて、コンピューティングデバイス100によってレンダリングされてよい。様々な実施形態では、遠隔コンピューティングデバイスから受信したビジュアルデータが、遠隔コンピューティングデバイスでキャプチャされた遠隔ユーザ(例えば118、120)のビジュアルデータに基づいていてよい。
ここで利用される「アニメーション」という文言は、キャプチャされたビジュアルデータから生成される任意の移動ビジュアル表現のことを指していてよい。これには、これらに限定はされないが、キャプチャされたビジュアルデータのビデオ(例えばビットマップ)再生、ビジュアルデータの芸術的演出(例えば、ユーザのキャプチャしたビジュアルデータに基づいてレンダリングされた漫画)等が含まれてよい。別の言い方をすると、「アニメーション」とは、ここでは、「アニメートする」という同士の名詞形としてここで利用され、これは、「生命を与える」を意味する。従って、「アニメーション」とは、「アニメートされていない(inanimate)」に反して、「アニメートされている」(生きている(alive)、又は、生命をもつ(having life)」記述又はレンダリングのことを指す。「アニメーション」は、アニメータが生成する描画に限定されない。
様々な実施形態では、メディアコンテンツ122は、これらに限定はされないが、ビデオ(例えばストリーミング)、ビデオゲーム、ウェブページ、スライドショー、提示等のオーディオ及び/又はビジュアルコンテンツを含んでよい。
メディアコンテンツの上に遠隔ユーザのアニメーションを重ね合わせることにより、互いに遠隔位置にいる2又はそれ以上のユーザが、「一緒」にメディアコンテンツを消費することができてよい。各ユーザは、メディアコンテンツの上に重ね合わされた、他のユーザのアニメーションを見ることができる。従って例えば、互いに遠隔の位置にいる2又はそれ以上の数の友人が、映画、テレビショー、スポーツイベント等の体験を共有することができるようになる。
図1では、第1の遠隔ユーザ118及び第2の遠隔ユーザ120を表す、第1のアニメーション124及び第2のアニメーション126が、それぞれ、コンピューティングデバイス100のディスプレイ102の上のメディアコンテンツ122の上に重ねられる。第1のアニメーション124は、第1の遠隔コンピューティングデバイス112から、例えば第1の遠隔コンピューティングデバイス112の上のカメラ(不図示)から、コンピューティングデバイス100が受信した第1の遠隔ユーザ118のキャプチャされたビジュアルデータに基づいていてよい。例えば、第1のアニメーション124は、第1の遠隔ユーザ118を描画したビデオストリームであってよい。第2のアニメーション126も同様に、第2の遠隔コンピューティングデバイス114からコンピューティングデバイス100で受信した、第2の遠隔ユーザ120のキャプチャされたビジュアルデータに基づいていてよい。
様々な実施形態では、アニメーションがレンダリングされるビジュアルデータは、様々な形態のコンピューティングデバイス間を送信されてよい。様々な実施形態では、1つのコンピュータが、別のコンピュータに、キャプチャされたビジュアルデータを、ビットマップ形式で送信してよい(例えば、*.png又はアルファマスクをもつ他のビジュアルファイルのビデオストリーム)。他の実施形態では、キャプチャされたビジュアルデータが、組み込まれているアルファをもつストリーミングビデオを利用して送信されてよい。また他の実施形態では、キャプチャされたビジュアルデータは、ビットマップ(例えばRGB)フレーム及び深さフレームのストリームを利用して送信されていてよく、ここから、二次元(「2D」)又は三次元(3D)アニメーションのいずれかがレンダリングされてよい。
図1から図3では、アニメーションがディスプレイ102の底部付近にレンダリングされるので、コンピューティングデバイス100のユーザが、依然として、メディアコンテンツ122を見ることができる。しかし、これは限定を意図していない。第1のアニメーション124及び第2のアニメーション126等のアニメーションが、ディスプレイ102の任意の部分にレンダリングされてよい。幾つかの実施形態では、アニメーションが、複数のディスプレイ上に表示されてよい。例えばデスクトップコンピュータのユーザが複数のモニタをもつ場合、アニメーションの1又は複数が、1つのモニタ又は他のモニタに表示されてよい。様々な実施形態では、これらのアニメーションが、モニタの1つ又は両方の上のコンテンツ122の上に重ねられて良い。
様々な実施形態では、そのアニメーションのユーザの興味対象である特定のアニメーションが、コンピューティングデバイス100の決定したものの上に視覚的に強調されてよい。ここで利用される「視覚的に強調」する、とは、アニメーションが、他の重ねられたアニメーション又はメディアコンテンツと異なるアニメーションをレンダリングすることで、注意を引いたり、又は、1つのアニメーションを1又は複数の他のアニメーションから区別することを意味してよい。
図1では、例えば、第1及び第2のアニメーション124、126が、白黒のアウトラインで図示されることで、両方のアニメーションが同等に視覚的に強調されていることを表し、ユーザの注意が一方に他方よりもいかないようにする。例えば、両方のアニメーションは、リアルタイムに第1及び第2のユーザを示すことができ、ある程度均等に目立つ方法でレンダリングされてよい。別の言い方をすると、どのアニメーションも「視覚的に強調されない」。
「視覚的に強調されない」ようにする、ということは、遠隔ユーザのアニメーションを、注意を引かないようにレンダリングすること、又は、他のアニメーション又はメディアコンテンツから、直接それから、視覚的に強調されている別のアニメーションに、又は、下のメディアコンテンツに、注意がそがれることを指す。ビジュアルに強調しないことの例を図2に示す。第1のアニメーション124が、視覚的に強調されないことを表すために、全て黒色で示されている。第2のアニメーション126は、視覚的に強調されていることを示すために白色に黒色のアウトラインで示されている。
様々な実施形態では、遠隔ユーザのアニメーションが、様々な方法で視覚的に強調されないようにしてよい。例えば、そのユーザのフルカラー又はフルフィーチャのアニメーションをレンダリングする代わりに、遠隔ユーザの例えば単一色のシルエット(例えばグレイ、黒、又は任意の他の色又は陰)をレンダリングしてよい。様々な実施形態では、遠隔ユーザが、影でレンダリングされてよい。幾つかの実施形態では、視覚的に強調されないアニメーションは全くアニメートされなくてよく、又は、視覚的に強調されるアニメーションよりも遅いフレームレートでアニメートされてもよい。
図3では、第1のアニメーション124及び第2のアニメーション126が両方とも、視覚的に強調されない。これは、コンピューティングデバイス100のユーザが、どちらのユーザにも興味を示さなかったときに生じて良い。例えば、ユーザは、遠隔ユーザのアニメーションではなく、メディアコンテンツ122を見ることに興味を示したものとしてよい。ユーザが、アニメーションの1つまたはその他に興味を示したとき、ユーザが興味を示したアニメーションは、コンピューティングデバイス100によって視覚的に強調されてよい。
ユーザは、様々な方法でディスプレイ102の特定のアニメーション又は他の部分に興味を示したり、興味を示さなかったりしてよい。例えばカメラ104及び/又は目トラッキングデバイス106は、ユーザの目の動きに関するデータを収集するよう構成されてよい。このデータに基づいて、コンピューティングデバイス100は、もしあればユーザが見ているディスプレイ102のいずれかの部分を計算してよい。
例えば図2では、コンピューティングデバイス100は、目トラッキングデバイス106からの入力に基づいて、ユーザが第2のアニメーション126に焦点を合わせている(又は見ている)と決定していてよい。故に、コンピューティングデバイス100は、第2のアニメーション126を視覚的に強調して、第1のアニメーション124を視覚的に強調しなくてよい。
図3における他の例のように、コンピューティングデバイスは、目トラッキングデバイス106からの入力に基づいて、ユーザがメディアコンテンツ122に焦点を合わせており、及び/又は、第1のアニメーション124にも第2のアニメーション126にも焦点を合わせていないと決定していてよい。故に、コンピューティングデバイス100は、第1のアニメーション124及び第2のアニメーション126の両方を視覚的に強調しなくてよく、これにより、メディアコンテンツ122から注意がそがれないよう促進してよい。
図1から図3には不図示だが、第1の遠隔コンピューティングデバイス112及び第2の遠隔コンピューティングデバイス114が、コンピューティングデバイス100同様、メディアコンテンツ122と他の遠隔ユーザのアニメーションの重ねたものとを同時に表示してよい。例えば、第1の遠隔コンピューティングデバイス112は、コンピューティングデバイス100のユーザ(不図示)及び第2の遠隔ユーザ120のアニメーションを、メディアコンテンツ122の上に重ねてよい。同様に、第2の遠隔コンピューティングデバイス114は、コンピューティングデバイス100のユーザ(不図示)及び第1の遠隔ユーザ118のアニメーションを、メディアコンテンツ122の上に重ねてよい。更に、3つのコンピューティングデバイスが示されているが、本開示の適用可能部分をもつよう構成された任意の数のコンピューティングデバイスが、同時メディアコンテンツ視聴セッションに参加してよい。
図面に示すアニメーションは、遠隔ユーザの全身を示しているが、これは限定を意図していない。様々な実施形態では、遠隔ユーザの全身未満をレンダリングしてもよい。例えば、幾つかの実施形態では、遠隔ユーザの一部分(上半身等)(例えば、遠隔ユーザの「胸部」)を描画しても良い。幾つかの場合において、アニメーションは、遠隔ユーザのアニメーションがディスプレイの底部から「ポップアップ」しているかのように見えるよう、ディスプレイの底部に隣接するようにレンダリングされてよい。更に、遠隔ユーザの他の部分(例えば、頭部のみ、胸部から上、膝又は太ももより上、遠隔ユーザの一方の半分又は別の半分等)等をアニメートしてもよい。
幾つかの実施形態では、コンピューティングデバイス100は、遠隔ユーザ及び/又は結果生じるアニメーションをクロップキャプチャするよう構成されてよい。例えば、遠隔ユーザのキャプチャされたビジュアルデータは、遠隔ユーザの全身又は背景を含んでよい。様々な実施形態では、コンピューティングデバイス100が、不要な部分(例えば遠隔ユーザの脚部及び/又は背景の空の空間等)を自動的にクロップして、なくすように構成されてよい。
様々な実施形態では、コンピューティングデバイス100は、動的及び/又は自動的に、それ自身のローカルユーザ又は遠隔ユーザのキャプチャされたビジュアルデータを、を様々な基準に基づいてクロップするよう構成されてよい。例えばコンピューティングデバイス100は、コンピューティングデバイス100のローカルユーザのビジュアルデータ又は遠隔ユーザのビジュアルデータの少なくとも一部分を、ローカル又は遠隔ユーザが表されているビジュアルデータの一領域が、ビジュアルデータの全体のうちの所定の部分未満を専有していると決定することに基づいて、動的にクロップしてよい。ローカル又は遠隔ユーザが動きまわっている場合、例えば、彼らのカメラの近くへと、ローカル又は遠隔ユーザは、視野内でより大きくなってよい。
そのような場合、コンピューティングデバイス100は、適宜クロッピングを動的に低減させして良い。従って、コンピューティングデバイス100は、遠隔コンピューティングデバイスに提供するビジュアルデータにおいて、及び、遠隔コンピューティングデバイスから受信するビジュアルデータにおいて、ユーザのアニメーション(ローカルであっても遠隔であっても)が、適切なサイズ及び比率であるように保証してよい。
様々な実施形態では、コンピューティングデバイス100が、遠隔ユーザのアニメーションに加えて、コンピューティングデバイス100のローカルユーザのアニメーションをレンダリングしてよい。これにより、ユーザは、遠隔ユーザが見たいものを見ることを許可されてよい。これにより更に、ローカルユーザのアニメーションを「共通領域」に配置することによって、遠隔ユーザのアニメーションとの共同体の感覚が高められてよい。これは更に、後で更に詳しく記載するように、彼らのプライバシーに関するユーザによる決定を促進する。
様々な実施形態では、同時メディアコンテンツ共有セッションは、ピアツーピア及び/又は各コンピューティングデバイス上にインストールされたクライアント−サーバソフトウェアを利用して実装されてよい。様々な実施形態では、同時メディアコンテンツ共有セッションは、1又は複数のユーザがセッションからサインアウトした場合であっても、持続されてよい。例えば図1におけるように、第1の遠隔ユーザ118がサインオフする場合、コンピューティングデバイス100の上の第1のアニメーション124が消え、しかし第2のアニメーション126は、コンピューティングデバイス100及び第2の遠隔コンピューティングデバイス114が同時メディアコンテンツ共有セッションを維持している限り、持続されてよい。
様々な実施形態では、ユーザは既存の同時メディアコンテンツ共有セッションに参加(再度参加)することができてよい。例えば図1及び図2におけるように、第2の遠隔ユーザ120がラップトップコンピュータを介して参加している。しかし、図3において、第2の遠隔ユーザ120が、ラップトップコンピュータにおいて同時メディアコンテンツ共有セッションからサインアウトしてしまっており、第3の遠隔コンピューティングデバイス128(本開示の適用可能部分を用いて構成される)を利用して再度参加してよい。
図3では、第3の遠隔コンピューティングデバイス128がテレビ130に接続されたゲームコンソールの形態である。この配置においては、テレビ130が、コンピューティングデバイス100のディスプレイ102と同様の機能を果たして良い。第3の遠隔コンピューティングデバイス128は、更に、移動検知デバイス132に動作可能に連結されてもよい。様々な実施形態では、移動検知デバイス132は、カメラ(不図示)を含んでよい。様々な実施形態では、移動検知デバイス132は、目トラッキングデバイス(不図示)を含んでよい。
様々な実施形態では、アニメーションを重ねることに加えて、コンピューティングデバイス100は、オーディオ又はその他のデータを、遠隔コンピューティングデバイスから受信して、それをユーザに提示してよい。例えば、遠隔コンピューティングデバイス(例えば112、114、128)は、マイクロフォン(不図示)を搭載して、これにより遠隔ユーザ(118、120)の音声を記録してよい。遠隔コンピューティングデバイスは、受信したオーディオをデジタル化して、それをコンピューティングデバイス100に送信してよい。
コンピューティングデバイス100は、受信したオーディオデータを、例えばアニメーション(例えば124、126)と共に、聴くことができるようにレンダリングしてよい。
複数のユーザが同時にメディアコンテンツを共有しているときには、あるユーザが、遠隔ユーザからのオーディオが、メディアコンテンツのオーディオコンポーネントを妨害しないように望む場合があろうだろう。故に、様々な実施形態において、ユーザは、1又は複数の遠隔ユーザからのオーディオを、これら遠隔ユーザのアニメーションがディスプレイ102に現れることは許可しつつ、ディセーブルする(ミュートにする)ことができてよい。様々な実施形態では、コンピューティングデバイス100は、ディスプレイ102上のメディアコンテンツ122の上に、1又は複数の遠隔ユーザの音声(speech)のテキストマニフェステーションを重ねるように構成してもよい。この例は、呼び出されたバルーン140がメディアコンテンツ122の上に重ねられて、第2の遠隔ユーザ120が作成するコメントのテキストマニフェステーションを表示する、図3に示されている。
様々な実施形態では、コンピューティングデバイス100の遠隔ユーザによる音声のテキストマニフェステーションは、遠隔コンピューティングデバイスから受信した音声対応テキストデータに基づいていて良い。様々な他の実施形態では、遠隔ユーザによる音声のテキストマニフェステーションは、コンピューティングデバイス100が遠隔コンピューティングデバイスから受信したオーディオデータに基づいていて良い。後者の場合には、コンピューティングデバイス100は、受信したオーディオをテキストに変換するための音声からテキストへのソフトウェアを利用するよう構成されてよい。
メディアは、複数のユーザによって様々な方法で同時に消費されてよい。様々な実施形態では、ストリーミングビデオ又はその他のメディアコンテンツは、複数のコンピューティングデバイス(例えば100、112、114、128)間で同期されて、全てのユーザが同時に同じコンテンツを見ることができるようにされてよい。メディアコンテンツは様々な方法で配信されてよい。幾つかの実施形態では、第1のユーザが、メディアコンテンツを有していてよく、それを他のユーザに提供してよい。例えば、コンピューティングデバイス100のユーザは、ストリーミングビデオのアカウントを有してよく(例えば、オンデマンドビデオストリームのサブスクリプション)、及び、そのストリームのコピーを遠隔コンピューティングデバイス(例えば112、114、128)に転送してよい。そのような場合には、第1のユーザのコンピューティングデバイスが、ビデオストリームの自身の再生に遅延を挿入する場合があり、これにより、遠隔コンピューティングデバイスのビデオストリーム再生の前に行うことができない場合がある。
他の実施形態では、メディアコンテンツは、中央に位置していてよく(例えば、コンテンツサーバに)、コンピューティングデバイスが個々にコンテンツサーバに接続して、ストリーミングを受けて良い。そのような場合には、コンピューティングデバイスは、互いに、同期信号を交換し合って、各ユーザが同じコンテンツを同時に見ることを保証してよい。幾つかの実施形態では、ユーザがコンピューティングデバイス100上でのメディアコンテンツの再生を一時停止した場合には、コンテンツの再生は、他の参加しているコンピューティングデバイス(例えば遠隔コンピューティングデバイス112、114、128)においても一時停止される。
様々な実施形態では、プライバシーメカニズムを利用してユーザのプライバシーを保護してよい。例えば、コンピューティングデバイス100のユーザは、コンピューティングデバイス100に、例えば遠隔コンピューティングデバイス(例えば112、114)に、遠隔コンピューティングデバイスにとってユーザのシルエット又は影のアニメーションをレンダリングするのに十分なビジュアルデータのみを提供するよう命令してよい。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、キャプチャされたビジュアルデータを提供しないように方向付けて良い。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、特定の期間中のみビジュアルデータをキャプチャするよう、及び/又は、ビジュアルデータを他の期間中にはキャプチャ、変更/歪曲しないように方向付けて良い。
幾つかの実施形態では、コンピューティングデバイス100は、1又は複数の画像処理フィルタを利用して、遠隔コンピューティングデバイス上にレンダリングされたユーザのアニメーションを、認識不可能としたり、及び/又は、完全なレンダリング未満のものにしたりしてよい。例えば、コンピューティングデバイス100のカメラ104がキャプチャするビジュアルデータは、1又は複数の画像処理フィルタを通過して、ボケさせられたり、画素化(pixelize)されたり、又は、ビジュアルデータを変更させられたりしてよい。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、幾つかのフレームをキャプチャされたビジュアルデータから取り除くよう、結果生じるアニメーションに低減されたフレームレートを有させるよう、方向付けて良い。これに加えて又はこれに代えて、コンピューティングデバイス100は、カメラ104のサンプリングレートを低減させて、より粗いビジュアルデータをキャプチャしてよい。
幾つかの実施形態では、コンピューティングデバイス100は、例えば遠隔コンピューティングデバイス(例えば112、114)から受信した命令に呼応して、遠隔ユーザのプライバシーを保護するよう構成されてよい。例えば、コンピューティングデバイス100は、さもなくば完全にレンダリング可能な、遠隔ユーザを表すビジュアルデータを変更して(例えば画像処理フィルタを通すことにより)、遠隔ユーザの結果生じるアニメーションが、認識不可能となるよう、又は完全なレンダリング未満となるように構成してよい。
様々な実施形態では、ユーザは、1又は複数の遠隔ユーザに対してトラステッドステータスを割り当てて良い。これらの遠隔ユーザは、この後で、ユーザの連絡先の1つとして考えられてよい。ユーザの連絡先の1つが、同時メディアコンテンツ視聴セッションに参加又は再度参加するとき、連絡先のアニメーションが現れたり、再度アニメートされたり、又はその外観が変更されてよい。ユーザの連絡先の1つが、同時メディアコンテンツ視聴セッションを離れると、連絡先のアニメーションが消え、うつぶせになり、又は、外観が変更されてよい。
幾つかの実施形態では、コンピューティングデバイス100は、宛先の遠隔コンピューティングデバイスの遠隔ユーザがトラステッドステータスを割り当てられたかに応じて、遠隔コンピューティングデバイスに送信されたビジュアルデータを条件付きで変更してよい。例えば、コンピューティングデバイス100は、「完全な」又は変更されていないビジュアルデータを、ユーザの連絡先に、又は、他の連絡先より更に高いトラステッドステータスを割り当てられた特定の連絡先(「近しい友人」)に送信してよい。コンピューティングデバイス100は、完全なビジュアルデータ未満のもの(例えばフレームが除去された、又は低減されたサンプリングレートでキャプチャされたビジュアルデータ)、又は変更されたビジュアルデータ(例えば、ボカされた、又は画素化された等)を、更に除去されたと考えられる連絡先(「知り合い」等)に送って良い。幾つかの実施形態では、コンピューティングデバイス100は、トラステッドステータスを割り当てられていないユーザの遠隔コンピューティングデバイスに、あまり、又は全くビジュアルデータを送信しなくてよく、又は、大きく変更されたビジュアルデータを送信してよい。
様々な実施形態では、コンピューティングデバイス100は、コンピューティングデバイス100が、遠隔ユーザのアニメーションをメディアコンテンツの上に重ね合わせる前に、又は、遠隔コンピューティングデバイスに、ユーザのキャプチャされたビジュアルデータを提供する前に、遠隔コンピューティングデバイス(例えば112、114)とのハンドシェークプロシージャの実行を必要としてよい。例えば、又は、コンピューティングデバイス100のユーザは、コンピューティングデバイス100が遠隔ユーザのアニメーションをメディアコンテンツの上に重ね合わせる前に、遠隔ユーザを表すアイコン又は他のグラフィックをクリック又は選択して、又は、遠隔コンピューティングデバイスにビジュアルデータを提供するよう要求されてよい。幾つかの実施形態では、コンピューティングデバイス100は、何らハンドシェークの必要なく、ユーザの「一番近しい」連絡先(例えば、ユーザが比較的高いレベルのトラストを割り当てた連絡先)のアニメーションを重ね合わせて、又は、一番近しい連絡先に、ユーザのキャプチャされたビジュアルデータを提供してもよい。
幾つかの実施形態では、画像処理は、プライバシー以外の目的のためにビジュアルデータに適用されてもよい。例えば、幾つかの実施形態では、背景の減算が、コンピューティングデバイス100により実装されることで、ユーザを「切り取り」、及び、背景をビジュアルデータから減算してよい。遠隔コンピューティングデバイスがビジュアルデータを用いて、ユーザのアニメーションを重ね合わせるとき、ユーザは、何ら背景なしに、隔離してレンダリングされてよい。
様々な実施形態では、重ね合わされたアニメーション(例えば第1のアニメーション124及び第2のアニメーション126等)が、2D及び/又は3Dでレンダリングされてよい。アニメーションを3Dでレンダリングする実施形態では、コンピューティングデバイス100は、遠隔ユーザのアニメーションの重ね合わせの上に視差補正を利用するよう構成されてよい。幾つかの3Dの実施形態では、キャプチャされたビジュアルデータ(アニメーションが基としている)が、ポイントクラウド、交点のリスト、三角のリスト等としてコンピューティングデバイス間で送信されてよい。
コンピューティングデバイス100がアニメーションを3Dでレンダリングするよう構成されている実施形態では、コンピューティングデバイス100は、様々な方法でこれを行って良い。例えば幾つかの実施形態では、コンピューティングデバイス100は、3D形状を2Dスクリーン上にレンダリングしてよい。他の3Dの実施形態では、コンピューティングデバイス100が、3D形状を、立体表示上に3Dでレンダリングしてよく、ユーザが3Dメガネを装着してよい。
遠隔ユーザのアニメーションの重ね合わせは、様々な方法でディスプレイ102上にレンダリングされてよい。様々な実施形態では、遠隔ユーザのアニメーションの重ね合わせは、自身がディスプレイ102上に表示されている他のコンテンツの全て又は一部分の上に重ね合わせられるように、透明窓のなかにレンダリングされてよい。
図4は、コンピューティングデバイス100、第1の遠隔コンピューティングデバイス112、第2の遠隔コンピューティングデバイス114、及び/又は、第3の遠隔コンピューティングデバイス128等のコンピューティングデバイスの上に実装されてよい例示的な方法400を示す。ブロック402で、遠隔コンピューティングデバイスの遠隔ユーザのキャプチャされたビジュアルデータが受信されてよい(例えば、コンピューティングデバイス100によって、遠隔コンピューティングデバイスから)。ブロック404で、メディアコンテンツ(例えばビデオ、共有ウェブ閲覧セッション、スライドショー等)が、例えばコンピューティングデバイス100によって、遠隔コンピューティングデバイスの上のメディアコンテンツの提示と同時に、提示されてよい。
ブロック406で、遠隔ユーザに対してコンピューティングデバイスのユーザが興味を示すこと又は興味を示さないことが、例えばコンピューティングデバイス100によって決定されてよい。例えば、コンピューティングデバイス100は、目トラッキングデバイス(例えば106)からコンピューティングデバイス100がユーザがどこを見ているかを決定するために利用してよいデータを受信してよい。遠隔ユーザのアニメーションが、その位置から特定の距離に、又はその範囲内にある場合には、例えばコンピューティングデバイス100によって、そのユーザが遠隔ユーザに興味があると決定してよい。
ブロック408で、遠隔ユーザのアニメーションが、例えばコンピューティングデバイス100によって、受信されたビジュアルデータに基づいて、メディアコンテンツ(例えば122)の上に重ねられて良い。ブロック410で、アニメーションは、例えばコンピューティングデバイス100によって、ユーザが興味があるという決定結果に基づいて、視覚的に強調又は強調解除されてよい。例えば、ユーザが遠隔ユーザに興味をもっている場合には、遠隔ユーザのアニメーションが完全にレンダリングされてよい。ユーザが遠隔ユーザに興味をもたない場合には、遠隔ユーザのアニメーションが、完全未満のレンダリングを行われて良い(例えば影により、より低いフレームレートで、画素化されて、等)。ブロック410の後で、もしも同時のメディア共有セッションがまだ継続中の場合には、方法400は、ブロック402に戻ってよい。セッションが終了すると、方法400はENDブロックに進んで良い。
図5は、コンピューティングデバイス100、第1の遠隔コンピューティングデバイス112、第2の遠隔コンピューティングデバイス114、及び/又は、第3の遠隔コンピューティングデバイス128等のコンピューティングデバイスの上に実装されてよい例示的な方法500を示す。ブロック502で、ビジュアルデータがキャプチャされてよい(例えばカメラ104によって)。ブロック504で、例えばコンピューティングデバイス100によって、コンピューティングデバイス100のユーザが同時にメディアコンテンツを消費したい1又は複数の遠隔ユーザが、トラステッドステータス(例えば連絡先)を有する遠隔ユーザのリストに含まれているかを決定してよい。
答えがノーの場合には、ブロック506で、ユーザのキャプチャされたビジュアルデータが、例えばコンピューティングデバイス100によって、ユーザのプライバシーを維持するように変更されてよい。例えばビジュアルデータは、1又は複数の画像処理フィルタ(例えばボカすフィルタ、画素化フィルタ)を通して供給されてよく、又は、遠隔コンピューティングデバイス上に結果生じるアニメーションを、認識不可能とし、歪曲し、及び/又は完全に現れないように変更されてよい。ブロック508で、変更されたビジュアルデータが、例えばコンピューティングデバイス100によって、遠隔コンピューティングデバイス(例えば112、114、128)に送信されてよい。ブロック508の後に、もしも同時のメディア共有セッションがまだ継続中の場合には、方法500はブロック502に戻って良い。セッションが終了している場合には、方法500はENDブロックに進んで良い。
ブロック504における答えがYESの場合には、ブロック510で、例えばコンピューティングデバイス100によって、ユーザがプライバシーを望んでいるかを決定してよい。例えばコンピューティングデバイス100は、プライバシーフラグがセットされているか、又は、現在の時点が、ユーザがプライバシーを望むことを示した期間内に含まれているか、を決定してよい。ユーザがプライバシーを望んでいる場合には、方法500はブロック506に進んでよく、ユーザのプライバシーを保護るために、ビジュアルデータを、送信前に変更してよい。ブロック510における答えがNOである場合には、偏向されていないビジュアルデータは、例えばコンピューティングデバイス100によって、ブロック508で、1又は複数の遠隔コンピューティングデバイス(例えば112、114m128)に送信されてよい。
図6は、様々な実施形態における例示的なコンピューティングデバイス600を示す。コンピューティングデバイス600は、複数のコンポーネント、プロセッサ604、及び少なくとも1つの通信チップ606を含んでよい。様々な実施形態では、プロセッサ604がプロセッサコアであってよい。様々な実施形態では、少なくとも1つの通信チップ606も、プロセッサ604に物理的又は電気的に連結されてよい。更なる実装例では、通信チップ606が、プロセッサ604の一部分であってよい。様々な実施形態では、コンピューティングデバイス600が、プリント回路基板(「PCB」)602に含まれてよい。これらの実施形態では、プロセッサ604及び通信チップ606が、この上に配置されてよい。別の実施形態では、様々なコンポーネントが、PCB602を利用することなく連結されてよい。
その用途に応じて、コンピューティングデバイス600は、PCB602に物理的及び電気的に連結されていてもいなくてもよい他のコンポーネントを含んで良い。これらの他のコンポーネントには、これらに限定はされないが、揮発性メモリ(例えばダイナミックランダムアクセスメモリ608、「DRAM」とも称される)、不揮発性メモリ(例えばリードオンリメモリ610、「ROM」とも称される)、フラッシュメモリ612、グラフィックスプロセッサ614、デジタル信号プロセッサ(不図示)、暗号化プロセッサ(crypto processor)(不図示)、入出力(「I/O」)コントローラ616、アンテナ618、ディスプレイ(不図示)、タッチスクリーンディスプレイ620、タッチスクリーンコントローラ622、バッテリ624、オーディオcodec(不図示)、ビデオcodec(不図示)、グローバルポジショニングシステム(「GPS」)デバイス628、コンパス630(不図示)、加速度計(不図示)、ジャイロスコープ(不図示)、スピーカ632、カメラ634、及び大容量記憶装置(例えばハードディスクドライブ、固体ドライブ、コンパクトディスク(「CD」)、デジタルバーサタイルディスク(「DVD」)等)(不図示)等を含んで良い。様々な実施形態では、プロセッサ604が、他のコンポーネントと同じダイに集積されて、システムオンチップ(「SoC」)が形成されてよい。
様々な実施形態では、揮発性メモリ(DRAM608)、不揮発性メモリ(ROM610)、フラッシュメモリ612、及び、大容量記憶装置が、プロセッサ604が実行されることに呼応して、コンピューティングデバイス600に、方法400及び/又は500の全ての又は選択された態様を実行させるよう構成されたプログラミング命令を含んでも良い。例えば、揮発性メモリ(DRAM608)、不揮発性メモリ(ROM610)、フラッシュメモリ612、及び、大容量記憶装置等のメモリコンポーネントの1又は複数が、コンピューティングデバイス600に、方法400及び/又は方法500の全て又は選択された態様等の開示される技術を実行させるよう構成された(図6では制御モジュール636として描かれている)命令の一次的な及び/又は永続的なコピーを含んでも良い。
通信チップ606は、コンピューティングデバイス600へ/からのデータの転送のための有線及び/又は無線通信を可能としてよい。「無線」という文言及びこの派生語は、データを、固体媒体を介して変調された電磁放射を利用して通信することができる、回路、デバイス、システム、方法、技術、通信チャネル等を記載するために利用されてよい。文言は、関連するデバイスが、有線を全く含まないことを示唆してはいないが、幾つかの実施形態では含まない場合もある。通信チップ606は、これらに限定されるものではないが、IEEE 802.1 1 ("WiFi"), IEEE 802.16 ("WiMAX"), IEEE 702.20, ロングタームエボリューション ("LTE"), General Packet Radio Service (汎用パケット無線サービス:"GPRS"), Evolution Data Optimized (進化データ最適化:"Ev-DO"), Evolved High Speed Packet Access (進化した高速パケットアクセス:"HSPA+"), Evolved High Speed Downlink Packet Access (進化した高速ダウンリンクパケットアクセス:"HSDPA+"), Evolved High Speed Uplink Packet Access (進化した高速アップリンクパケットアクセス:"HSUPA+"), Global System for Mobile Communications (モバイル通信のためのグローバルシステム"GSM(登録商標)"), Enhanced Data rates for GSM(登録商標) Evolution (GSM(登録商標)進化のための進化したデータレート:"EDGE"),符号分割多重アクセス方式("CDMA"),時分割多元接続("TDMA"), Digital Enhanced Cordless Telecommunications (デジタル進化したコードレス電話通信:"DECT"), Bluetooth(登録商標), これらの派生語、及び、3G, 4G, 5G 及びこれ以上として指定されている任意の他の無線プロトコルを含む、複数の無線規格又はプロトコルのいずれかを実装してよい。コンピューティングデバイス600は、複数の通信チップ606を含んで良い。
例えば第1の通信チップ606は、Wi-Fi 及びBluetooth(登録商標)等のより短距離の無線通信専用であってよく、及び、第2の通信チップ606は、GPS, EDGE, GPRS, CDMA, WiMAX, LTE, Ev-DOその他等の、より長距離の無線通信専用であってよい。
様々な実装例では、コンピューティングデバイス600は、ラップトップ、ネットブック、ノートブック、ウルトラブック、スマートフォン、コンピューティングタブレット、携帯情報端末(「PDA」)、ウルトラモバイルPC、携帯電話、デスクトップコンピュータ、サーバ、プリンタ、スキャナ、モニタ、セットトップボックス、エンターテインメントコントロールユニット(例えばゲームコンソール)、デジタルカメラ、携帯音楽プレーヤ、又は、デジタルビデオレコーダであってよい。更なる実装例では、コンピューティングデバイス600は、データを処理する任意の他の電子デバイスであってよい。
装置、コンピュータ実装された方法、システム、デバイス、及びコンピュータ可読媒体は、ここでは、第1のコンピューティングデバイスの第1のユーザ及び第2のコンピューティングデバイスの第2のユーザによるメディアコンテンツの同時消費を促進するよう記載されている。様々な実施形態では、促進は、第2のコンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、第1のコンピューティングデバイス上に提示されているメディアコンテンツの上への重ね合わせを含んでよい。様々な実施形態では、アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調されてよい。様々な実施形態では、第1のユーザの興味の決定は、第1のコンピューティングデバイスに関する目トラッキング入力デバイスから受信したデータに基づいてよい。
様々な実施形態では、第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、第1のコンピューティングデバイス上に提示されたメディアコンテンツの上に、第3のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調されないようにしてよい。様々な実施形態では、第1のコンピューティングデバイスによって、影で、第3のユーザのアニメーションの重ね合わせをレンダリングして、第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにしてよい。
様々な実施形態では、第2のユーザのアニメーションの重ね合わせは、第1のコンピューティングデバイスのディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含んでよい。様々な実施形態では、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用してよい。
様々な実施形態では、第2のユーザの音声のテキストマニフェステーションを、メディアコンテンツの上に重ね合わせてよい。様々な実施形態では、第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信した音声対応テキストデータ、又は第2のコンピューティングデバイスから受信したオーディオデータに基づいていてよい。
様々な実施形態では、第2のユーザのアニメーションの重ね合わせは、透明窓内にレンダリングされてよい。
様々な実施形態では、少なくとも部分的に、第1のユーザがトラステッドステータスを第2のユーザに割り当てたかに基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更してよい。様々な実施形態では、第1のユーザのキャプチャされたビジュアルデータを第2のコンピューティングデバイスに送信してよい。様々な実施形態では、キャプチャされたビジュアルデータは、第2のコンピューティングデバイスに、第2のコンピューティングデバイスの上に表示されているメディアコンテンツの上に第1のユーザのアニメーションを重ね合わせさせるよう構成されてよい。
様々な実施形態では、条件付きで変更する段階は、第1のユーザのキャプチャされたビジュアルデータに画像処理を実行する段階を有し、画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含んでよい。様々な実施形態では、第2のユーザに第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、第1のユーザのキャプチャされたビジュアルデータを変更する段階を有してよい。
様々な実施形態では、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を自動的にクロップしてよい。様々な実施形態では、第1のユーザ又は第2のユーザが表されているビジュアルデータの領域が、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を動的にクロップしてよい。
特定の実施形態が例示の目的のために記載されているが、本願は、ここに説明する実施形態の適合例又は変形例のいずれをもカバーすることを意図している。従って、ここに記載される実施形態は請求項によってのみ限定されることが明確に意図されている。
開示において「或る(a)」「第1の」エレメントまたはこの均等物が記載されている場合、これらの開示は、1又は複数のこれらのエレメントを含み、2又はそれ以上のこれらのエレメントを要求したり排除したりしない。更に、特定のエレメントについて序数詞(例えば第1、第2、又は第3)が利用されることでエレメント間を区別しているが、そのような記載は、特に明記しない限り、これらのエレメントが限定された数必要であると示したり示唆したりしているわけではなく、これらのエレメントの特定の位置又は順序を示しているわけでもない。
開示において「或る(a)」「第1の」エレメントまたはこの均等物が記載されている場合、これらの開示は、1又は複数のこれらのエレメントを含み、2又はそれ以上のこれらのエレメントを要求したり排除したりしない。更に、特定のエレメントについて序数詞(例えば第1、第2、又は第3)が利用されることでエレメント間を区別しているが、そのような記載は、特に明記しない限り、これらのエレメントが限定された数必要であると示したり示唆したりしているわけではなく、これらのエレメントの特定の位置又は順序を示しているわけでもない。ここに本発明の実施形態の例を項目として示す。
[項目1]
第1のユーザが利用する第1のコンピューティングデバイスによって、第2のコンピューティングデバイスから受信された第2のユーザの、キャプチャされたビジュアルデータを受信する段階と、
第2のコンピューティングデバイスの上のメディアコンテンツの提示と同時に第1のコンピューティングデバイス上にメディアコンテンツを提示する段階と、
第1のコンピューティングデバイスによって、第1のユーザが第2のコンピューティングデバイスの第2のユーザに対して興味を示すか興味を示さないかを決定する段階と、
第1のコンピューティングデバイスによって、第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションを、第1のコンピューティングデバイスの上に提示されているメディアコンテンツの上に重ねる段階と、
第1のコンピューティングデバイスによって、決定の結果に基づいてアニメーションを視覚的に強調する、又は強調しない段階と
を備える、コンピュータ実装された方法。
[項目2]
第1のコンピューティングデバイスのユーザが興味を示すか興味を示さないかを決定する段階は、第1のコンピューティングデバイスによって、目トラッキングデバイスからの目トラッキングデータを受信して、目トラッキングデータに基づいて、ユーザが見ている場所を決定する段階を有する、項目1に記載のコンピュータ実装された方法。
[項目3]
第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、第1のコンピューティングデバイス上に提示されたメディアコンテンツの上で、第3のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目4]
第1のコンピューティングデバイスによって、影で、第3のユーザのアニメーションの重ね合わせをレンダリングして、第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、項目3に記載のコンピュータ実装された方法。
[項目5]
第2のユーザのアニメーションの重ね合わせは、第1のコンピューティングデバイスのディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含む、項目1に記載のコンピュータ実装された方法。
[項目6]
第1のコンピューティングデバイスによって、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用する段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目7]
第1のコンピューティングデバイスによって、第2のユーザの音声のテキストマニフェステーションを、第1のコンピューティングデバイスの上に提示されているメディアコンテンツの上に重ね合わせる段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目8]
第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信した音声対応テキストデータに基づいている、項目7に記載のコンピュータ実装された方法。
[項目9]
第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信したオーディオデータに基づいている、項目7に記載のコンピュータ実装された方法。
[項目10]
第2のユーザのアニメーションは、透明窓内にレンダリングされる、項目1に記載のコンピュータ実装された方法。
[項目11]
第1のコンピューティングデバイスによって、少なくとも部分的に、第1のユーザがトラステッドステータスを第2のユーザに割り当てたかに基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階と、
第1のコンピューティングデバイスによって、ビジュアルデータを第2のコンピューティングデバイスに送信する段階と
を更に備え、
キャプチャされたビジュアルデータは、第2のコンピューティングデバイスに、第2のコンピューティングデバイスの上に表示されているメディアコンテンツの上に第1のユーザのアニメーションを重ね合わせさせる、項目1に記載のコンピュータ実装された方法。
[項目12]
第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階は、キャプチャされたビジュアルデータに画像処理を実行する段階を有し、
画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含む、項目11に記載のコンピュータ実装された方法。
[項目13]
第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階は、第2のユーザに第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、ビジュアルデータを変更する段階を有する、項目11に記載のコンピュータ実装された方法。
[項目14]
第1のコンピューティングデバイスによって、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を自動的にクロップする段階を更に備える、項目11に記載のコンピュータ実装された方法。
[項目15]
第1のユーザ又は第2のユーザが表されているビジュアルデータの領域が、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を動的にクロップする段階を更に備える、項目14に記載のコンピュータ実装された方法。
[項目16]
コンピューティングデバイス上で実行されることに呼応して、項目1から15のいずれか一項に記載のコンピュータ実装された方法をコンピューティングデバイスに実行させる複数の命令を備える少なくとも1つの機械可読媒体。
[項目17]
項目1から15のいずれか一項に記載のコンピュータ実装された方法を実行するための手段を備える装置。
[項目18]
1又は複数のプロセッサと、
1又は複数のプロセッサに動作可能に連結されたメモリと、
ディスプレイと、
メモリ内に含まれ、1又は複数のプロセッサにより作動されて、システムの第1のユーザと遠隔コンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進する制御モジュールと
を備え、
促進することは、遠隔コンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、ディスプレイ上に提示されているメディアコンテンツの上への重ね合わせを含み、
アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調される、システム。
[項目19]
目トラッキングデバイスを更に備え、
第1のユーザの興味に関する決定は、目トラッキングデバイスから受信したデータに基づく、項目18に記載のシステム。
[項目20]
遠隔コンピューティングデバイスは、第1の遠隔コンピューティングデバイスであり、
制御モジュールは更に、第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、システム上に提示されたメディアコンテンツの上に、第2のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする、項目18に記載のシステム。
[項目21]
制御モジュールは更に、影で、第3のユーザのアニメーションの重ね合わせをレンダリングする、項目20に記載のシステム。
[項目22]
第2のユーザのアニメーションの重ね合わせは、ディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含む、項目18から21のいずれか一項に記載のシステム。
[項目23]
制御モジュールは更に、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用する、項目18から21のいずれか一項に記載のシステム。
[項目24]
制御モジュールは更に、第2のユーザの音声のテキストマニフェステーションを、ディスプレイの上に提示されているメディアコンテンツの上に重ね合わせる、項目18から21のいずれか一項に記載のシステム。
[項目25]
タッチスクリーンディスプレイを更に備える、項目18から21のいずれか一項に記載のシステム。

Claims (25)

  1. 第1のユーザが利用する第1のコンピューティングデバイスによって、第2のコンピューティングデバイスから受信された第2のユーザの、キャプチャされたビジュアルデータを受信する段階と、
    前記第2のコンピューティングデバイスの上のメディアコンテンツの提示と同時に前記第1のコンピューティングデバイス上に前記メディアコンテンツを提示する段階と、
    前記第1のコンピューティングデバイスによって、前記第1のユーザが前記第2のコンピューティングデバイスの前記第2のユーザに対して興味を示すか興味を示さないかを決定する段階と、
    前記第1のコンピューティングデバイスによって、前記第2のユーザの前記キャプチャされたビジュアルデータに基づいて、前記第2のユーザのアニメーションを、前記第1のコンピューティングデバイスの上に提示されている前記メディアコンテンツの上に重ねる段階と、
    前記第1のコンピューティングデバイスによって、前記決定の結果に基づいて前記アニメーションを視覚的に強調する、又は強調しない段階と
    を備える、コンピュータ実装された方法。
  2. 前記第1のコンピューティングデバイスの前記ユーザが興味を示すか興味を示さないかを決定する段階は、前記第1のコンピューティングデバイスによって、目トラッキングデバイスからの目トラッキングデータを受信して、前記目トラッキングデータに基づいて、前記ユーザが見ている場所を決定する段階を有する、請求項1に記載のコンピュータ実装された方法。
  3. 前記第1のユーザが前記第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、前記第1のコンピューティングデバイス上に提示された前記メディアコンテンツの上で、第3のコンピューティングデバイスの前記第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、請求項1に記載のコンピュータ実装された方法。
  4. 前記第1のコンピューティングデバイスによって、影で、前記第3のユーザの前記アニメーションの前記重ね合わせをレンダリングして、前記第3のユーザの前記アニメーションの前記重ね合わせを視覚的に強調しないようにする段階を更に備える、請求項3に記載のコンピュータ実装された方法。
  5. 前記第2のユーザのアニメーションの重ね合わせは、前記第1のコンピューティングデバイスのディスプレイの底辺に隣接する前記第2のユーザの前記アニメーションの重ね合わせを含む、請求項1に記載のコンピュータ実装された方法。
  6. 前記第1のコンピューティングデバイスによって、前記第2のユーザの前記アニメーションの前記重ね合わせに対する視差補正を利用する段階を更に備える、請求項1に記載のコンピュータ実装された方法。
  7. 前記第1のコンピューティングデバイスによって、前記第2のユーザの音声のテキストマニフェステーションを、前記第1のコンピューティングデバイスの上に提示されている前記メディアコンテンツの上に重ね合わせる段階を更に備える、請求項1に記載のコンピュータ実装された方法。
  8. 前記第2のユーザによる前記音声のテキストマニフェステーションは、前記第2のコンピューティングデバイスから受信した音声対応テキストデータに基づいている、請求項7に記載のコンピュータ実装された方法。
  9. 前記第2のユーザによる前記音声のテキストマニフェステーションは、前記第2のコンピューティングデバイスから受信したオーディオデータに基づいている、請求項7に記載のコンピュータ実装された方法。
  10. 前記第2のユーザの前記アニメーションは、透明窓内にレンダリングされる、請求項1に記載のコンピュータ実装された方法。
  11. 前記第1のコンピューティングデバイスによって、少なくとも部分的に、前記第1のユーザがトラステッドステータスを前記第2のユーザに割り当てたかに基づいて、前記第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階と、
    前記第1のコンピューティングデバイスによって、前記ビジュアルデータを前記第2のコンピューティングデバイスに送信する段階と
    を更に備え、
    前記キャプチャされたビジュアルデータは、前記第2のコンピューティングデバイスに、前記第2のコンピューティングデバイスの上に表示されている前記メディアコンテンツの上に前記第1のユーザのアニメーションを重ね合わせさせる、請求項1に記載のコンピュータ実装された方法。
  12. 前記第1のユーザの前記キャプチャされたビジュアルデータを条件付きで変更する段階は、前記キャプチャされたビジュアルデータに画像処理を実行する段階を有し、
    前記画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含む、請求項11に記載のコンピュータ実装された方法。
  13. 前記第1のユーザの前記キャプチャされたビジュアルデータを条件付きで変更する段階は、前記第2のユーザに前記第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、前記ビジュアルデータを変更する段階を有する、請求項11に記載のコンピュータ実装された方法。
  14. 前記第1のコンピューティングデバイスによって、前記第1のユーザ又は第2のユーザの前記キャプチャされたビジュアルデータの少なくとも一部を自動的にクロップする段階を更に備える、請求項11に記載のコンピュータ実装された方法。
  15. 前記第1のユーザ又は第2のユーザが表されている前記ビジュアルデータの領域が、前記第1のユーザ又は第2のユーザの前記キャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、前記第1のユーザ又は第2のユーザの前記キャプチャされたビジュアルデータの前記少なくとも一部を動的にクロップする段階を更に備える、請求項14に記載のコンピュータ実装された方法。
  16. コンピューティングデバイス上で実行されることに呼応して、請求項1から15のいずれか一項に記載のコンピュータ実装された方法を前記コンピューティングデバイスに実行させる複数の命令を備える少なくとも1つの機械可読媒体。
  17. 請求項1から15のいずれか一項に記載のコンピュータ実装された方法を実行するための手段を備える装置。
  18. 1又は複数のプロセッサと、
    前記1又は複数のプロセッサに動作可能に連結されたメモリと、
    ディスプレイと、
    前記メモリ内に含まれ、前記1又は複数のプロセッサにより作動されて、システムの第1のユーザと遠隔コンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進する制御モジュールと
    を備え、
    前記促進することは、前記遠隔コンピューティングデバイスから受信された前記第2のユーザのキャプチャされたビジュアルデータに基づいて、前記第2のユーザのアニメーションの、前記ディスプレイ上に提示されている前記メディアコンテンツの上への重ね合わせを含み、
    前記アニメーションは、前記第1のユーザが前記第2のユーザに興味を示すと決定されると、視覚的に強調される、システム。
  19. 目トラッキングデバイスを更に備え、
    前記第1のユーザの興味に関する決定は、前記目トラッキングデバイスから受信したデータに基づく、請求項18に記載のシステム。
  20. 前記遠隔コンピューティングデバイスは、第1の遠隔コンピューティングデバイスであり、
    前記制御モジュールは更に、前記第1のユーザが前記第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、前記システム上に提示された前記メディアコンテンツの上に、第2のコンピューティングデバイスの前記第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする、請求項18に記載のシステム。
  21. 前記制御モジュールは更に、影で、前記第3のユーザの前記アニメーションの前記重ね合わせをレンダリングする、請求項20に記載のシステム。
  22. 前記第2のユーザのアニメーションの重ね合わせは、前記ディスプレイの底辺に隣接する前記第2のユーザの前記アニメーションの重ね合わせを含む、請求項18から21のいずれか一項に記載のシステム。
  23. 前記制御モジュールは更に、前記第2のユーザの前記アニメーションの前記重ね合わせに対する視差補正を利用する、請求項18から21のいずれか一項に記載のシステム。
  24. 前記制御モジュールは更に、前記第2のユーザの音声のテキストマニフェステーションを、前記ディスプレイの上に提示されている前記メディアコンテンツの上に重ね合わせる、請求項18から21のいずれか一項に記載のシステム。
  25. タッチスクリーンディスプレイを更に備える、請求項18から21のいずれか一項に記載のシステム。
JP2015514091A 2012-06-25 2013-05-20 重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進すること Active JP6022043B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/532,612 2012-06-25
US13/532,612 US9456244B2 (en) 2012-06-25 2012-06-25 Facilitation of concurrent consumption of media content by multiple users using superimposed animation
PCT/US2013/041854 WO2014003915A1 (en) 2012-06-25 2013-05-20 Facilitation of concurrent consumption of media content by multiple users using superimposed animation

Publications (2)

Publication Number Publication Date
JP2015523001A true JP2015523001A (ja) 2015-08-06
JP6022043B2 JP6022043B2 (ja) 2016-11-09

Family

ID=49775155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015514091A Active JP6022043B2 (ja) 2012-06-25 2013-05-20 重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進すること

Country Status (4)

Country Link
US (5) US9456244B2 (ja)
JP (1) JP6022043B2 (ja)
CN (2) CN107256136B (ja)
WO (1) WO2014003915A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10296561B2 (en) 2006-11-16 2019-05-21 James Andrews Apparatus, method and graphical user interface for providing a sound link for combining, publishing and accessing websites and audio files on the internet
US9361295B1 (en) 2006-11-16 2016-06-07 Christopher C. Andrews Apparatus, method and graphical user interface for providing a sound link for combining, publishing and accessing websites and audio files on the internet
US20120253493A1 (en) * 2011-04-04 2012-10-04 Andrews Christopher C Automatic audio recording and publishing system
CN103369289B (zh) * 2012-03-29 2016-05-04 深圳市腾讯计算机系统有限公司 一种视频模拟形象的通信方法和装置
US9456244B2 (en) * 2012-06-25 2016-09-27 Intel Corporation Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US8867841B2 (en) * 2012-08-08 2014-10-21 Google Inc. Intelligent cropping of images based on multiple interacting variables
US8996616B2 (en) * 2012-08-29 2015-03-31 Google Inc. Cross-linking from composite images to the full-size version
US10871821B1 (en) * 2015-10-02 2020-12-22 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10825058B1 (en) * 2015-10-02 2020-11-03 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US20170332139A1 (en) 2016-05-10 2017-11-16 Rovi Guides, Inc. System and method for delivering missed portions of media assets to interested viewers
US10140987B2 (en) * 2016-09-16 2018-11-27 International Business Machines Corporation Aerial drone companion device and a method of operating an aerial drone companion device
US10169850B1 (en) * 2017-10-05 2019-01-01 International Business Machines Corporation Filtering of real-time visual data transmitted to a remote recipient
CN109644294B (zh) * 2017-12-29 2020-11-27 腾讯科技(深圳)有限公司 一种直播分享的方法、相关设备及系统
CN108551587B (zh) * 2018-04-23 2020-09-04 刘国华 电视机自动采集数据的方法、装置、计算机设备和介质
CN109327608B (zh) * 2018-09-12 2021-01-22 广州酷狗计算机科技有限公司 歌曲分享的方法、终端、服务器和系统
WO2024059895A1 (en) * 2022-09-23 2024-03-28 Rodd Martin Systems and methods of client-side video rendering

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259336A (ja) * 2002-03-04 2003-09-12 Sony Corp データ生成方法、データ生成装置、データ伝送方法、映像プログラム再生装置、映像プログラム再生方法、記録媒体
JP2004112511A (ja) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd 表示制御装置および方法
JP2006197217A (ja) * 2005-01-13 2006-07-27 Matsushita Electric Ind Co Ltd テレビ電話装置及び画像データ送信方法
JP2008107895A (ja) * 2006-10-23 2008-05-08 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP2010200150A (ja) * 2009-02-26 2010-09-09 Toshiba Corp 端末、サーバ、会議システム、会議方法、会議プログラム
WO2010138798A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Avatar integrated shared media selection
US20120110052A1 (en) * 2010-11-01 2012-05-03 Google Inc. Social circles in social networks

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US6742083B1 (en) * 1999-12-14 2004-05-25 Genesis Microchip Inc. Method and apparatus for multi-part processing of program code by a single processor
US6559866B2 (en) * 2001-05-23 2003-05-06 Digeo, Inc. System and method for providing foreign language support for a remote control device
JP4503945B2 (ja) * 2003-07-04 2010-07-14 独立行政法人科学技術振興機構 リモート観測装置
JP4848727B2 (ja) 2005-10-03 2011-12-28 日本電気株式会社 映像配信システム、映像配信方法および映像同期共有装置
US8766983B2 (en) 2006-05-07 2014-07-01 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
FR2910770A1 (fr) * 2006-12-22 2008-06-27 France Telecom Dispositif pour permettre une communication par visioconference et procede de communication associe.
CN101500125B (zh) * 2008-02-03 2011-03-09 突触计算机系统(上海)有限公司 用户终端上用于在视频显示时提供用户交互的方法及装置
FR2928805B1 (fr) * 2008-03-14 2012-06-01 Alcatel Lucent Procede permettant la mise en oeuvre de la video enrichie sur les terminaux mobiles.
US9003315B2 (en) * 2008-04-01 2015-04-07 Litl Llc System and method for streamlining user interaction with electronic content
US20100115426A1 (en) 2008-11-05 2010-05-06 Yahoo! Inc. Avatar environments
US20100191728A1 (en) 2009-01-23 2010-07-29 James Francis Reilly Method, System Computer Program, and Apparatus for Augmenting Media Based on Proximity Detection
US20110202603A1 (en) * 2010-02-12 2011-08-18 Nokia Corporation Method and apparatus for providing object based media mixing
US20110234481A1 (en) * 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US9582166B2 (en) * 2010-05-16 2017-02-28 Nokia Technologies Oy Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
US8913056B2 (en) 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US20120159527A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Simulated group interaction with multimedia content
US9077846B2 (en) * 2012-02-06 2015-07-07 Microsoft Technology Licensing, Llc Integrated interactive space
US9197848B2 (en) * 2012-06-25 2015-11-24 Intel Corporation Video conferencing transitions among a plurality of devices
US9456244B2 (en) 2012-06-25 2016-09-27 Intel Corporation Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US10034049B1 (en) * 2012-07-18 2018-07-24 Google Llc Audience attendance monitoring through facial recognition
US9094576B1 (en) * 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US9400553B2 (en) * 2013-10-11 2016-07-26 Microsoft Technology Licensing, Llc User interface programmatic scaling

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259336A (ja) * 2002-03-04 2003-09-12 Sony Corp データ生成方法、データ生成装置、データ伝送方法、映像プログラム再生装置、映像プログラム再生方法、記録媒体
JP2004112511A (ja) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd 表示制御装置および方法
JP2006197217A (ja) * 2005-01-13 2006-07-27 Matsushita Electric Ind Co Ltd テレビ電話装置及び画像データ送信方法
JP2008107895A (ja) * 2006-10-23 2008-05-08 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP2010200150A (ja) * 2009-02-26 2010-09-09 Toshiba Corp 端末、サーバ、会議システム、会議方法、会議プログラム
WO2010138798A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Avatar integrated shared media selection
US20120110052A1 (en) * 2010-11-01 2012-05-03 Google Inc. Social circles in social networks

Also Published As

Publication number Publication date
US20210117147A1 (en) 2021-04-22
US20130346075A1 (en) 2013-12-26
US9456244B2 (en) 2016-09-27
US10048924B2 (en) 2018-08-14
US10956113B2 (en) 2021-03-23
CN107256136A (zh) 2017-10-17
US11526323B2 (en) 2022-12-13
JP6022043B2 (ja) 2016-11-09
US20170046114A1 (en) 2017-02-16
US20230185514A1 (en) 2023-06-15
CN104335242A (zh) 2015-02-04
CN107256136B (zh) 2020-08-21
WO2014003915A1 (en) 2014-01-03
US20190042178A1 (en) 2019-02-07
CN104335242B (zh) 2017-07-14
US11789686B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
JP6022043B2 (ja) 重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進すること
US20180240276A1 (en) Methods and apparatus for personalized virtual reality media interface design
US11119719B2 (en) Screen sharing for display in VR
TWI556639B (zh) 用於將互動特徵加入視頻之技術
US20130002532A1 (en) Method, apparatus, and computer program product for shared synchronous viewing of content
CN110537208B (zh) 头戴式显示器和方法
US20140270693A1 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
US20130002708A1 (en) Method, apparatus, and computer program product for presenting interactive dynamic content in front of static content
US20220303503A1 (en) Parameters for overlay handling for immersive teleconferencing and telepresence for remote terminals
US20140267870A1 (en) Mixed media from multimodal sensors
JP6883225B2 (ja) 表示制御装置、表示制御方法およびプログラム
JP5238849B2 (ja) 電子機器、電子機器の制御方法及び電子機器の制御プログラム
US10757401B2 (en) Display system and method for display control of a video based on different view positions
TWI774063B (zh) 三維直播影像的橫向縱向控制裝置
JP2014041455A (ja) 画像処理装置、画像処理方法、及びプログラム
TWI836141B (zh) 即時三維影像顯示的直播方法
US20240073372A1 (en) In-person participant interaction for hybrid event
TW202213990A (zh) 即時三維影像顯示的直播系統

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R150 Certificate of patent or registration of utility model

Ref document number: 6022043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250