JP2015523001A - Promote simultaneous consumption of media content by multiple users using superimposed animations - Google Patents

Promote simultaneous consumption of media content by multiple users using superimposed animations Download PDF

Info

Publication number
JP2015523001A
JP2015523001A JP2015514091A JP2015514091A JP2015523001A JP 2015523001 A JP2015523001 A JP 2015523001A JP 2015514091 A JP2015514091 A JP 2015514091A JP 2015514091 A JP2015514091 A JP 2015514091A JP 2015523001 A JP2015523001 A JP 2015523001A
Authority
JP
Japan
Prior art keywords
user
computing device
animation
visual data
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015514091A
Other languages
Japanese (ja)
Other versions
JP6022043B2 (en
Inventor
アイ. フェルカイ、ポール
アイ. フェルカイ、ポール
ハーパー、アニー
ジャゴディック、ラトコ
モンジャ、ラジヴ、ケー.
シューメーカー、ガース
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2015523001A publication Critical patent/JP2015523001A/en
Application granted granted Critical
Publication of JP6022043B2 publication Critical patent/JP6022043B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping
    • G06T5/70
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

ここには、第1のコンピューティングデバイスの第1のユーザと第2のコンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進するための装置、コンピュータ実装された方法、システム、デバイス、及びコンピュータ可読媒体の実施形態が記載される。 様々な実施形態では、促進は、第2のコンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、第1のコンピューティングデバイス上に提示されているメディアコンテンツの上への重ね合わせを含んでよい。アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調されてよい。 促進は、少なくとも部分的に、第2のユーザがトラステッドステータス割り当てたか、及び、第1のユーザの変更された又は変更されていないビジュアルデータの第2のコンピューティングデバイスへの送信に基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更することを含んでも良い。An apparatus, computer-implemented method, system, device for facilitating simultaneous consumption of media content by a first user of a first computing device and a second user of a second computing device And embodiments of computer readable media are described. In various embodiments, the promotion is presented on the first computing device of the second user's animation based on the second user's captured visual data received from the second computing device. May include overlays on top of the media content being played. The animation may be visually enhanced when it is determined that the first user is interested in the second user. The promotion is based at least in part on whether the second user has assigned a trusted status and transmission of the first user's changed or unmodified visual data to the second computing device. Conditionally changing the captured visual data of one user may be included.

Description

<関連出願の相互参照>
本願は、2012年6月25日に提出された米国特許出願第13/532,612号の優先権を主張し、この内容全体を全ての目的で参照により組み込む。
<Cross-reference of related applications>
This application claims priority from US Patent Application No. 13 / 532,612, filed June 25, 2012, the entire contents of which are incorporated by reference for all purposes.

本発明の実施形態は、概して、データ処理の技術分野に関しており、より詳しくは、重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進することに関している。ここに提供する背景技術の説明は、概して本開示のコンテキストを提示する目的のためである。本背景技術セクションに記載されている範囲のここで挙げられている発明者の仕事は、さもなくば出願時に先行技術に値しない記載の側面とともに、本開示に対する先行技術として明示的にも暗示的にも認められたものではない。ここでそうではないと示さない限り、このセクションで記載される方法は、本開示の請求項の先行技術でもなければ、本セクションに含まれているからといって、先行技術であると自認したわけでもない。   Embodiments of the present invention relate generally to the technical field of data processing, and more particularly to facilitating simultaneous consumption of media content by multiple users using overlaid animations. The background description provided herein is generally for the purpose of presenting the context of the disclosure. The work of the inventors listed here in the scope described in this background art section is expressly or implicit as prior art to the present disclosure, along with other aspects not deserving prior art at the time of filing. It was not recognized. Unless otherwise indicated herein, the methods described in this section have been identified as prior art simply because they are not prior art in the claims of this disclosure and are included in this section. That's not true.

人々は、メディアコンテンツを一緒に消費することを望む場合がある。例えば、友人たちのグループが集まって、一緒に映画、テレビ番組、スポーツイベント、ホームビデオ、又は、その他の同様なメディアコンテンツを見る場合がある。友人同士は、メディア消費体験を高めるために提示中にやり取りを行う場合もあろう。しかしながら、互いに物理的に別箇であり、単一の場所に集まることができない2又はそれ以上の人々がメディアコンテンツ消費体験を共有したいと思う場合も想定される。   People may wish to consume media content together. For example, a group of friends may gather and watch a movie, a television program, a sporting event, a home video, or other similar media content together. Friends may interact during the presentation to enhance the media consumption experience. However, it is also envisaged that two or more people who are physically separate from each other and cannot gather in a single place would like to share the media content consumption experience.

実施形態は、以下の詳細な記載を、添付図面とともに読むことでよりよく理解される。本説明を促進するために、同様の参照符号は、同様の構造要素を示すものとする。実施形態は例として示されており、添付図面の図の限定として意図されていない。
様々な実施形態における、他の同様の構成の遠隔コンピューティングデバイスと通信する、本開示の教示の適用可能部分とともに構成される例示的なコンピューティングデバイスを概略的に示す。 様々な実施形態における、コンピューティングデバイスのユーザが、遠隔ユーザの特定の重ねられたアニメーションに興味を示した図1のシナリオを概略的に示す。 様々な実施形態における、コンピューティングデバイスのユーザが、遠隔ユーザの重ねられたアニメーションの上のメディアコンテンツに興味を示した図1のシナリオを概略的に示す。 様々な実施形態における、コンピューティングデバイスが実装してよい例示的な方法を概略的に示す。 様々な実施形態における、コンピューティングデバイスが実装してよい別の例示的な方法を概略的に示す。 様々な実施形態における、開示されている方法及びコンピュータ可読媒体が実装されてよい例示的なコンピューティングデバイスを概略的に示す。
Embodiments will be better understood when the following detailed description is read in conjunction with the accompanying drawings. To facilitate the description, like reference numerals shall indicate like structural elements. The embodiments are shown by way of example and are not intended as limitations on the figures of the accompanying drawings.
1 schematically illustrates an example computing device configured with an applicable portion of the teachings of the present disclosure in communication with other similarly configured remote computing devices in various embodiments. FIG. 2 schematically illustrates the scenario of FIG. 1 in which a user of a computing device in various embodiments is interested in a particular superimposed animation of a remote user. FIG. 2 schematically illustrates the scenario of FIG. 1 in which a user of a computing device in various embodiments is interested in media content over a remote user's superimposed animation. 6 schematically illustrates an example method that a computing device may implement in various embodiments. 6 schematically illustrates another example method that a computing device may implement in various embodiments. 1 schematically illustrates an example computing device in which the disclosed methods and computer-readable media in various embodiments may be implemented.

以下の詳細な記載では、一部分を形成するテンプ図面に対する参照が行われ、ここでは全体的に同様の参照番号が同様の部分を示し、又、実行可能な例示的な実施形態により示されている。本開示の範囲を逸脱せずに、他の実施形態を利用することもでき、構造上又は論理上の変更を行うことも可能であることを理解されたい。よって、以下の詳細な記載は、限定的な意味合いで受け取られるべきではなく、開示の範囲は、添付請求項及びその均等物により定義される。   In the following detailed description, reference will be made to a part of the drawing that forms a part, where like reference numerals generally indicate like parts and are also illustrated by viable exemplary embodiments. . It should be understood that other embodiments may be utilized and structural or logical changes may be made without departing from the scope of the present disclosure. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the disclosure is defined by the appended claims and their equivalents.

様々な動作は、請求されている主題の理解を最も助けるような方法で複数の別個のアクション又は動作として記載されている場合がある。しかし、記載の順序は、これらの動作が必ずしも順序に依存していることを示唆していると解釈されるべきではない。特に、これらの動作は、提示の順序で実行されなくてもよい。記載されている動作は、記載されている実施形態とは異なる順序で実行されてもよい。様々な更なる動作が実行されてよく、及び/又は、記載されている動作は、更なる実施形態では省略されてもよい。   The various acts may be described as a plurality of separate actions or acts in a manner that most aids understanding of the claimed subject matter. However, the order of description should not be construed as implying that these operations are necessarily order dependent. In particular, these operations may not be performed in the order of presentation. The described operations may be performed in a different order than the described embodiments. Various further operations may be performed and / or described operations may be omitted in further embodiments.

本開示の目的においては、「A及び/又はB」という文言は、(A), (B), 又は(A及びB)を示す。本開示の目的においては、「A, B, 及び/又はC」という文言は、(A), (B), (C), (A及び B), (A及びC), (B及びC), or (A, B及びC)を示す。   For purposes of this disclosure, the term “A and / or B” indicates (A), (B), or (A and B). For purposes of this disclosure, the term “A, B, and / or C” means (A), (B), (C), (A and B), (A and C), (B and C) , or (A, B and C).

記載では、「或る実施形態では」又は「実施形態では」という文言が利用されている場合があるが、これらはそれぞれ、同じ又は異なる実施形態の1又は複数のことを指してよい。更に、本開示の実施形態に関して利用されている「備える(comprising)」「含む(including)」「有する(having)」等の文言は、同義語である。   In the description, the phrases “in one embodiment” or “in an embodiment” may be utilized, which may each refer to one or more of the same or different embodiments. Further, phrases such as “comprising”, “including”, “having”, etc., that are utilized in connection with embodiments of the present disclosure are synonymous.

ここで利用される「モジュール」という用語は、特定用途向け集積回路(「ASIC」)、電子回路、プロセッサ(共有、専用、又はグループ)、及び/又は、1又は複数のソフトウェア又はファームウェアプログラムを実行するメモリ(共有、専用、又はグループ)、組み合わせ論理回路、及び/又は、記載された機能を提供する他の適切なコンポーネントを指したり、その一部であったり、含んだりして良い。   The term “module” as used herein executes an application specific integrated circuit (“ASIC”), an electronic circuit, a processor (shared, dedicated, or group), and / or one or more software or firmware programs. May refer to, be part of, or include memory (shared, dedicated, or group), combinatorial logic, and / or other suitable components that provide the described functionality.

図1は、様々な実施形態における、本開示の教示の適用可能部分とともに構成されている例示的なコンピューティングデバイス100を概略的に示す。コンピューティングデバイス100は、タブレットコンピューティングデバイスとして示されているが、これは限定を意味しない。コンピューティングデバイス100は、様々な他のタイプのコンピューティングデバイス(又は、その組み合わせ)、これらに限定されるものではないが、ラップトップ、ネットブック、ノートブック、ウルトラブック、スマートフォン、携帯情報端末 ("PDA")、ウルトラモバイルPC、携帯電話、デスクトップコンピュータ、サーバ、プリンタ、スキャナ、モニタ、セットトップボックス、エンターテインメントコントロールユニット (e.g.,ゲームコンソール)、デジタルカメラ、携帯音楽プレーヤデジタルビデオレコーダ、テレビ (e.g.,プラズマ、液晶ディスプレイ又は"LCD"、 陰極線管又は"CRT"、プロジェクションスクリーン)等を含む。   FIG. 1 schematically illustrates an example computing device 100 configured with an applicable portion of the teachings of the present disclosure in various embodiments. Although the computing device 100 is shown as a tablet computing device, this is not meant to be limiting. The computing device 100 may include various other types of computing devices (or combinations thereof), including but not limited to laptops, netbooks, notebooks, ultrabooks, smartphones, personal digital assistants ( "PDA"), ultra mobile PC, mobile phone, desktop computer, server, printer, scanner, monitor, set-top box, entertainment control unit (eg, game console), digital camera, portable music player digital video recorder, television (eg , Plasma, liquid crystal display or “LCD”, cathode ray tube or “CRT”, projection screen).

コンピューティングデバイス100は、ディスプレイ102を含んでよい。ディスプレイ102は、これらに限定はされないがプラズマ、LCD,CRT等を含む、様々なタイプのディスプレイであってよい。幾つかの実施形態(不図示)では、ディスプレイは、プロジェクタが、ここで説明した重ねられたアニメーションをもつグラフィックスをプロジェクションしてよいプロジェクション面を含んでよい。様々な実施形態では、ディスプレイ102は、コンピューティングデバイス100に入力を提供し、これを操作するために利用してよいタッチスクリーンディスプレイであってよい。様々な実施形態では、コンピューティングデバイス100は、タッチスクリーンディスプレイに加えて、又はこれに代えて、追加の入力制御(不図示)を含んでよい。   Computing device 100 may include a display 102. Display 102 may be various types of displays including, but not limited to, plasma, LCD, CRT, and the like. In some embodiments (not shown), the display may include a projection surface on which the projector may project graphics with superimposed animation as described herein. In various embodiments, the display 102 may be a touch screen display that may be utilized to provide input to and manipulate the computing device 100. In various embodiments, computing device 100 may include additional input controls (not shown) in addition to or instead of the touch screen display.

様々な実施形態では、コンピューティングデバイス100は、1又は複数のフレーム及び/又はデジタル画像等のビジュアルデータをキャプチャするよう構成されたカメラ104を含んでよい。後述するように、キャプチャされたビジュアルデータは、遠隔コンピューティングデバイスに送信され、遠隔コンピューティングデバイスによる他のコンテンツの上へのアニメーションの重ね合せを促進するために利用されてよい。   In various embodiments, the computing device 100 may include a camera 104 configured to capture visual data such as one or more frames and / or digital images. As described below, the captured visual data may be transmitted to a remote computing device and utilized to facilitate overlaying animation on top of other content by the remote computing device.

カメラ104は、図1から図3のコンピューティングデバイス100の統合された一部分として示されているが、これは限定として意図されてはいない。様々な実施形態では、カメラ104は、コンピューティングデバイス100から別箇ではない。例えばカメラ104は、1又は複数の有線又は無線を利用してコンピューティングデバイス100に接続された外部カメラ(例えばウェブカメラ)であってよい。   Although the camera 104 is shown as an integrated part of the computing device 100 of FIGS. 1-3, this is not intended to be limiting. In various embodiments, the camera 104 is not separate from the computing device 100. For example, the camera 104 may be an external camera (eg, a web camera) connected to the computing device 100 using one or more wired or wireless.

様々な実施形態では、コンピューティングデバイス100は、目トラッキングデバイス106を含んでよい。図1に示すコンピューティングタブレット等の様々な実施形態では、カメラ104も、目トラッキングデバイス106として動作する。しかしこれは必ず必要なものではない。様々な実施形態では、目トラッキングデバイス106は、カメラ104から別箇であってよく、異なるタイプのデバイス及び/又は異なるタイプのカメラであってよい。例えば、コンピューティングデバイス100がテレビ又はテレビに接続されたゲームコンソールである実施形態では、目トラッキングデバイス106は、テレビ又はゲームコンソールに動作可能に連結されたカメラ又はその他のデバイス(例えば動きキャプチャデバイス)であってよい。そのような例は図3に示され、後述する。   In various embodiments, computing device 100 may include an eye tracking device 106. In various embodiments, such as the computing tablet shown in FIG. 1, the camera 104 also operates as the eye tracking device 106. But this is not absolutely necessary. In various embodiments, the eye tracking device 106 may be separate from the camera 104, and may be a different type of device and / or a different type of camera. For example, in embodiments where computing device 100 is a television or game console connected to a television, eye tracking device 106 is a camera or other device operably coupled to the television or game console (eg, a motion capture device). It may be. Such an example is shown in FIG. 3 and will be described later.

様々な実施形態では、カメラ104及び/又は目トラッキングデバイス106がキャプチャするビジュアルデータが、ソフトウェア、ハードウェア、又は任意の2つの組み合わせによって分析されることで、もしあればユーザが探している、ディスプレイ102の部分を決定及び/又は近似することができてよい。この決定は、これらに限定はされないが、ユーザの顔及び/又は目とディスプレイ102の間の距離を決定すること、ユーザの目の1又は複数の特徴(例えばビジュアルデータの中の瞳等)を特定すること、特定された特徴間の距離を測定すること、等の様々な動作を含んでよい。後述するように、ディスプレイ102のどの部分をユーザが探しているか(そして従って興味を示したか)、及び、ディスプレイ102のどの部分をユーザが探していないか(そして従って興味を示さなかったか)を決定することは、様々な方法で利用されてよい。   In various embodiments, the visual data captured by the camera 104 and / or eye tracking device 106 is analyzed by software, hardware, or any combination of the two so that the user is looking for, if any. It may be possible to determine and / or approximate 102 parts. This determination includes, but is not limited to, determining the distance between the user's face and / or eyes and the display 102, one or more features of the user's eyes (eg, pupils in visual data, etc.). Various actions may be included such as identifying, measuring the distance between identified features, and the like. Determine which part of the display 102 the user is looking for (and therefore showed interest), and what part of the display 102 the user is not looking for (and thus did not show interest), as described below. Doing may be utilized in various ways.

コンピューティングデバイス100は、1又は複数のネットワークを介して様々な遠隔コンピューティングデバイスと通信してよい。図1及び図2では、例えば、コンピューティングデバイス100が、自身がネットワーク110と通信している第1の無線ネットワークアクセスノード108と無線通信している。様々な実施形態では、第1の無線アクセスノード108は、進化型NodeB、WiMAX(IEEE802.16ファミリー)アクセスポイント、Wi−Fi(IEEE802.11ファミリー)アクセスポイント、又は、コンピューティングデバイス100が無線接続してよい任意の他のノードであってよい。ネットワーク110は、1又は複数のパーソナル、ローカル、又はワイドエリア、プライベート、及び/又はパブリックネットワーク(これらにはこれに限定されないがインターネットが含まれる)を含んでよい。コンピューティングデバイス100は、ネットワーク110に無線接続されているものとして示されているが、これは限定を意図しておらず、コンピューティングデバイス100は、任意の他の方法(いわゆる「有線」接続を介するものを含む)で1又は複数のネットワークに接続してよい。   The computing device 100 may communicate with various remote computing devices via one or more networks. 1 and 2, for example, the computing device 100 is in wireless communication with a first wireless network access node 108 that is in communication with the network 110. In various embodiments, the first wireless access node 108 is an evolved NodeB, a WiMAX (IEEE802.16 family) access point, a Wi-Fi (IEEE802.11 family) access point, or the computing device 100 is wirelessly connected. It may be any other node that may be. The network 110 may include one or more personal, local, or wide area, private, and / or public networks, including but not limited to the Internet. Although the computing device 100 is shown as being wirelessly connected to the network 110, this is not intended to be limiting, and the computing device 100 may use any other method (so-called “wired” connection). May be connected to one or more networks.

コンピューティングデバイス100は、任意の数の遠隔コンピューティングデバイスとネットワーク通信してよい。図1及び図2では、例えば、コンピューティングデバイス100が、第1の遠隔コンピューティングデバイス112と第2の遠隔コンピューティングデバイス114とネットワーク通信している。コンピューティングデバイス100の場合と同様に、第1及び第2の遠隔コンピューティングデバイス112、114は、前に述べたものの等の、任意のタイプのコンピューティングデバイスであってよい。例えば図1では、第1の遠隔コンピューティングデバイス112が、スマートフォンであり、第2の遠隔コンピューティングデバイス114がラップトップコンピュータである。   Computing device 100 may be in network communication with any number of remote computing devices. In FIG. 1 and FIG. 2, for example, computing device 100 is in network communication with a first remote computing device 112 and a second remote computing device 114. As with computing device 100, first and second remote computing devices 112, 114 may be any type of computing device, such as those previously described. For example, in FIG. 1, the first remote computing device 112 is a smartphone and the second remote computing device 114 is a laptop computer.

第1の遠隔コンピューティングデバイス112は、別の無線ネットワークアクセスノード116に無線接続されていると示されている。第2の遠隔コンピューティングデバイス114は、有線接続を介してネットワーク110に接続していると示されている。しかし、遠隔コンピューティングデバイスが利用するネットワーク接続のタイプは重要ではない。任意のコンピューティングデバイスが、任意のタイプのネットワーク接続を利用して、ここで記載される方法で任意の他のコンピューティングデバイスと通信してよい。   The first remote computing device 112 is shown as being wirelessly connected to another wireless network access node 116. The second remote computing device 114 is shown connected to the network 110 via a wired connection. However, the type of network connection utilized by the remote computing device is not important. Any computing device may communicate with any other computing device in the manner described herein utilizing any type of network connection.

様々な実施形態では、コンピューティングデバイス100は、1又は複数の遠隔コンピューティングデバイス(例えば、第1の遠隔コンピューティングデバイス112の第1の遠隔ユーザ118及び/又は第2の遠隔コンピューティングデバイス114の第2の遠隔ユーザ120等)の1又は複数のユーザとともの、コンピューティングデバイス100のユーザ(不図示)による、メディアコンテンツ122の同時消費を促進するよう構成されてよい。様々な実施形態では、コンピューティングデバイス100は、コンピューティングデバイス100の上に提示されるメディアコンテンツ122の上に、遠隔ユーザの1又は複数のアニメーションを重ねるよう構成されてよい。   In various embodiments, computing device 100 may include one or more remote computing devices (eg, first remote user 118 and / or second remote computing device 114 of first remote computing device 112). It may be configured to facilitate simultaneous consumption of media content 122 by a user (not shown) of computing device 100 with one or more users (such as second remote user 120). In various embodiments, the computing device 100 may be configured to superimpose one or more animations of a remote user on the media content 122 presented on the computing device 100.

様々な実施形態では、これらの1又は複数の重ねられたアニメーションは、遠隔コンピューティングデバイスから受信したビジュアルデータに基づいて、コンピューティングデバイス100によってレンダリングされてよい。様々な実施形態では、遠隔コンピューティングデバイスから受信したビジュアルデータが、遠隔コンピューティングデバイスでキャプチャされた遠隔ユーザ(例えば118、120)のビジュアルデータに基づいていてよい。   In various embodiments, these one or more superimposed animations may be rendered by computing device 100 based on visual data received from a remote computing device. In various embodiments, visual data received from a remote computing device may be based on visual data of a remote user (eg, 118, 120) captured at the remote computing device.

ここで利用される「アニメーション」という文言は、キャプチャされたビジュアルデータから生成される任意の移動ビジュアル表現のことを指していてよい。これには、これらに限定はされないが、キャプチャされたビジュアルデータのビデオ(例えばビットマップ)再生、ビジュアルデータの芸術的演出(例えば、ユーザのキャプチャしたビジュアルデータに基づいてレンダリングされた漫画)等が含まれてよい。別の言い方をすると、「アニメーション」とは、ここでは、「アニメートする」という同士の名詞形としてここで利用され、これは、「生命を与える」を意味する。従って、「アニメーション」とは、「アニメートされていない(inanimate)」に反して、「アニメートされている」(生きている(alive)、又は、生命をもつ(having life)」記述又はレンダリングのことを指す。「アニメーション」は、アニメータが生成する描画に限定されない。   As used herein, the term “animation” may refer to any moving visual representation generated from captured visual data. This includes, but is not limited to, video (eg, bitmap) playback of captured visual data, artistic presentation of visual data (eg, cartoon rendered based on user-captured visual data), etc. May be included. In other words, “animation” is used herein as a noun form of “animating”, which means “giving life”. Thus, “animation” is a description or rendering of “animated” (alive or having life), contrary to “inanimate”. “Animation” is not limited to drawing generated by an animator.

様々な実施形態では、メディアコンテンツ122は、これらに限定はされないが、ビデオ(例えばストリーミング)、ビデオゲーム、ウェブページ、スライドショー、提示等のオーディオ及び/又はビジュアルコンテンツを含んでよい。   In various embodiments, media content 122 may include audio and / or visual content such as, but not limited to, video (eg, streaming), video games, web pages, slide shows, presentations, and the like.

メディアコンテンツの上に遠隔ユーザのアニメーションを重ね合わせることにより、互いに遠隔位置にいる2又はそれ以上のユーザが、「一緒」にメディアコンテンツを消費することができてよい。各ユーザは、メディアコンテンツの上に重ね合わされた、他のユーザのアニメーションを見ることができる。従って例えば、互いに遠隔の位置にいる2又はそれ以上の数の友人が、映画、テレビショー、スポーツイベント等の体験を共有することができるようになる。   By superimposing the remote user's animation over the media content, two or more users at remote locations may be able to consume the media content “together”. Each user can see other users' animations superimposed on the media content. Thus, for example, two or more friends at remote locations can share experiences such as movies, television shows, sporting events, and the like.

図1では、第1の遠隔ユーザ118及び第2の遠隔ユーザ120を表す、第1のアニメーション124及び第2のアニメーション126が、それぞれ、コンピューティングデバイス100のディスプレイ102の上のメディアコンテンツ122の上に重ねられる。第1のアニメーション124は、第1の遠隔コンピューティングデバイス112から、例えば第1の遠隔コンピューティングデバイス112の上のカメラ(不図示)から、コンピューティングデバイス100が受信した第1の遠隔ユーザ118のキャプチャされたビジュアルデータに基づいていてよい。例えば、第1のアニメーション124は、第1の遠隔ユーザ118を描画したビデオストリームであってよい。第2のアニメーション126も同様に、第2の遠隔コンピューティングデバイス114からコンピューティングデバイス100で受信した、第2の遠隔ユーザ120のキャプチャされたビジュアルデータに基づいていてよい。   In FIG. 1, a first animation 124 and a second animation 126 representing a first remote user 118 and a second remote user 120 are respectively over media content 122 on the display 102 of the computing device 100. Is superimposed on. The first animation 124 is for the first remote user 118 received by the computing device 100 from the first remote computing device 112, eg, from a camera (not shown) on the first remote computing device 112. May be based on captured visual data. For example, the first animation 124 may be a video stream depicting the first remote user 118. The second animation 126 may similarly be based on the captured visual data of the second remote user 120 received at the computing device 100 from the second remote computing device 114.

様々な実施形態では、アニメーションがレンダリングされるビジュアルデータは、様々な形態のコンピューティングデバイス間を送信されてよい。様々な実施形態では、1つのコンピュータが、別のコンピュータに、キャプチャされたビジュアルデータを、ビットマップ形式で送信してよい(例えば、*.png又はアルファマスクをもつ他のビジュアルファイルのビデオストリーム)。他の実施形態では、キャプチャされたビジュアルデータが、組み込まれているアルファをもつストリーミングビデオを利用して送信されてよい。また他の実施形態では、キャプチャされたビジュアルデータは、ビットマップ(例えばRGB)フレーム及び深さフレームのストリームを利用して送信されていてよく、ここから、二次元(「2D」)又は三次元(3D)アニメーションのいずれかがレンダリングされてよい。   In various embodiments, visual data on which animation is rendered may be transmitted between various forms of computing devices. In various embodiments, one computer may send captured visual data in bitmap format to another computer (eg, a video stream of other visual files with * .png or alpha mask). . In other embodiments, captured visual data may be transmitted utilizing streaming video with embedded alpha. In still other embodiments, the captured visual data may be transmitted using a stream of bitmap (eg, RGB) frames and depth frames, from which two-dimensional (“2D”) or three-dimensional Any (3D) animation may be rendered.

図1から図3では、アニメーションがディスプレイ102の底部付近にレンダリングされるので、コンピューティングデバイス100のユーザが、依然として、メディアコンテンツ122を見ることができる。しかし、これは限定を意図していない。第1のアニメーション124及び第2のアニメーション126等のアニメーションが、ディスプレイ102の任意の部分にレンダリングされてよい。幾つかの実施形態では、アニメーションが、複数のディスプレイ上に表示されてよい。例えばデスクトップコンピュータのユーザが複数のモニタをもつ場合、アニメーションの1又は複数が、1つのモニタ又は他のモニタに表示されてよい。様々な実施形態では、これらのアニメーションが、モニタの1つ又は両方の上のコンテンツ122の上に重ねられて良い。   1-3, the animation is rendered near the bottom of the display 102 so that the user of the computing device 100 can still view the media content 122. However, this is not intended to be limiting. Animations such as first animation 124 and second animation 126 may be rendered on any portion of display 102. In some embodiments, the animation may be displayed on multiple displays. For example, if a desktop computer user has multiple monitors, one or more of the animations may be displayed on one monitor or another monitor. In various embodiments, these animations may be overlaid on content 122 on one or both of the monitors.

様々な実施形態では、そのアニメーションのユーザの興味対象である特定のアニメーションが、コンピューティングデバイス100の決定したものの上に視覚的に強調されてよい。ここで利用される「視覚的に強調」する、とは、アニメーションが、他の重ねられたアニメーション又はメディアコンテンツと異なるアニメーションをレンダリングすることで、注意を引いたり、又は、1つのアニメーションを1又は複数の他のアニメーションから区別することを意味してよい。   In various embodiments, the particular animation that is of interest to the user of the animation may be visually enhanced over what the computing device 100 has determined. As used herein, “visually emphasized” refers to rendering an animation that is different from other overlaid animations or media content, or to draw one animation or It may mean distinguishing from multiple other animations.

図1では、例えば、第1及び第2のアニメーション124、126が、白黒のアウトラインで図示されることで、両方のアニメーションが同等に視覚的に強調されていることを表し、ユーザの注意が一方に他方よりもいかないようにする。例えば、両方のアニメーションは、リアルタイムに第1及び第2のユーザを示すことができ、ある程度均等に目立つ方法でレンダリングされてよい。別の言い方をすると、どのアニメーションも「視覚的に強調されない」。   In FIG. 1, for example, the first and second animations 124, 126 are illustrated with black and white outlines, indicating that both animations are equally visually enhanced, and the user's attention is To be less than the other. For example, both animations can show the first and second users in real time and may be rendered in a somewhat equally prominent manner. In other words, no animation is “visually emphasized”.

「視覚的に強調されない」ようにする、ということは、遠隔ユーザのアニメーションを、注意を引かないようにレンダリングすること、又は、他のアニメーション又はメディアコンテンツから、直接それから、視覚的に強調されている別のアニメーションに、又は、下のメディアコンテンツに、注意がそがれることを指す。ビジュアルに強調しないことの例を図2に示す。第1のアニメーション124が、視覚的に強調されないことを表すために、全て黒色で示されている。第2のアニメーション126は、視覚的に強調されていることを示すために白色に黒色のアウトラインで示されている。   “Not visually enhanced” means that the remote user's animation is rendered without any attention, or directly from other animations or media content and then visually enhanced. Refers to distracting attention to another animation or to the underlying media content. Figure 2 shows an example of not visual enhancement. The first animation 124 is all shown in black to indicate that it is not visually enhanced. The second animation 126 is shown with a black outline on white to indicate that it is visually enhanced.

様々な実施形態では、遠隔ユーザのアニメーションが、様々な方法で視覚的に強調されないようにしてよい。例えば、そのユーザのフルカラー又はフルフィーチャのアニメーションをレンダリングする代わりに、遠隔ユーザの例えば単一色のシルエット(例えばグレイ、黒、又は任意の他の色又は陰)をレンダリングしてよい。様々な実施形態では、遠隔ユーザが、影でレンダリングされてよい。幾つかの実施形態では、視覚的に強調されないアニメーションは全くアニメートされなくてよく、又は、視覚的に強調されるアニメーションよりも遅いフレームレートでアニメートされてもよい。   In various embodiments, the remote user's animation may not be visually enhanced in various ways. For example, instead of rendering the user's full-color or full-feature animation, a remote user's, for example, a single color silhouette (eg, gray, black, or any other color or shade) may be rendered. In various embodiments, a remote user may be rendered with a shadow. In some embodiments, animations that are not visually enhanced may not be animated at all, or may be animated at a slower frame rate than animations that are visually enhanced.

図3では、第1のアニメーション124及び第2のアニメーション126が両方とも、視覚的に強調されない。これは、コンピューティングデバイス100のユーザが、どちらのユーザにも興味を示さなかったときに生じて良い。例えば、ユーザは、遠隔ユーザのアニメーションではなく、メディアコンテンツ122を見ることに興味を示したものとしてよい。ユーザが、アニメーションの1つまたはその他に興味を示したとき、ユーザが興味を示したアニメーションは、コンピューティングデバイス100によって視覚的に強調されてよい。   In FIG. 3, both the first animation 124 and the second animation 126 are not visually enhanced. This may occur when the user of computing device 100 does not show interest to either user. For example, the user may have shown interest in viewing the media content 122 rather than the remote user's animation. When the user is interested in one or the other of the animations, the animation in which the user has shown interest may be visually enhanced by the computing device 100.

ユーザは、様々な方法でディスプレイ102の特定のアニメーション又は他の部分に興味を示したり、興味を示さなかったりしてよい。例えばカメラ104及び/又は目トラッキングデバイス106は、ユーザの目の動きに関するデータを収集するよう構成されてよい。このデータに基づいて、コンピューティングデバイス100は、もしあればユーザが見ているディスプレイ102のいずれかの部分を計算してよい。   A user may or may not be interested in a particular animation or other portion of display 102 in various ways. For example, the camera 104 and / or the eye tracking device 106 may be configured to collect data regarding the user's eye movements. Based on this data, computing device 100 may calculate any portion of display 102 that the user is viewing, if any.

例えば図2では、コンピューティングデバイス100は、目トラッキングデバイス106からの入力に基づいて、ユーザが第2のアニメーション126に焦点を合わせている(又は見ている)と決定していてよい。故に、コンピューティングデバイス100は、第2のアニメーション126を視覚的に強調して、第1のアニメーション124を視覚的に強調しなくてよい。   For example, in FIG. 2, computing device 100 may determine that the user is focused (or looking at) second animation 126 based on input from eye tracking device 106. Thus, the computing device 100 may not visually enhance the first animation 124 by visually enhancing the second animation 126.

図3における他の例のように、コンピューティングデバイスは、目トラッキングデバイス106からの入力に基づいて、ユーザがメディアコンテンツ122に焦点を合わせており、及び/又は、第1のアニメーション124にも第2のアニメーション126にも焦点を合わせていないと決定していてよい。故に、コンピューティングデバイス100は、第1のアニメーション124及び第2のアニメーション126の両方を視覚的に強調しなくてよく、これにより、メディアコンテンツ122から注意がそがれないよう促進してよい。   As another example in FIG. 3, the computing device may allow the user to focus on the media content 122 and / or the first animation 124 based on input from the eye tracking device 106. It may be determined that the second animation 126 is not focused. Thus, the computing device 100 may not visually enhance both the first animation 124 and the second animation 126, thereby facilitating distraction from the media content 122.

図1から図3には不図示だが、第1の遠隔コンピューティングデバイス112及び第2の遠隔コンピューティングデバイス114が、コンピューティングデバイス100同様、メディアコンテンツ122と他の遠隔ユーザのアニメーションの重ねたものとを同時に表示してよい。例えば、第1の遠隔コンピューティングデバイス112は、コンピューティングデバイス100のユーザ(不図示)及び第2の遠隔ユーザ120のアニメーションを、メディアコンテンツ122の上に重ねてよい。同様に、第2の遠隔コンピューティングデバイス114は、コンピューティングデバイス100のユーザ(不図示)及び第1の遠隔ユーザ118のアニメーションを、メディアコンテンツ122の上に重ねてよい。更に、3つのコンピューティングデバイスが示されているが、本開示の適用可能部分をもつよう構成された任意の数のコンピューティングデバイスが、同時メディアコンテンツ視聴セッションに参加してよい。   Although not shown in FIGS. 1-3, the first remote computing device 112 and the second remote computing device 114, like the computing device 100, are an overlay of media content 122 and other remote user animations. And may be displayed simultaneously. For example, the first remote computing device 112 may overlay the animation of the user (not shown) of the computing device 100 and the second remote user 120 on the media content 122. Similarly, the second remote computing device 114 may overlay the animation of the user (not shown) of the computing device 100 and the first remote user 118 on the media content 122. Further, although three computing devices are shown, any number of computing devices configured with the applicable portions of the present disclosure may participate in a simultaneous media content viewing session.

図面に示すアニメーションは、遠隔ユーザの全身を示しているが、これは限定を意図していない。様々な実施形態では、遠隔ユーザの全身未満をレンダリングしてもよい。例えば、幾つかの実施形態では、遠隔ユーザの一部分(上半身等)(例えば、遠隔ユーザの「胸部」)を描画しても良い。幾つかの場合において、アニメーションは、遠隔ユーザのアニメーションがディスプレイの底部から「ポップアップ」しているかのように見えるよう、ディスプレイの底部に隣接するようにレンダリングされてよい。更に、遠隔ユーザの他の部分(例えば、頭部のみ、胸部から上、膝又は太ももより上、遠隔ユーザの一方の半分又は別の半分等)等をアニメートしてもよい。   The animation shown in the drawing shows the entire body of the remote user, but this is not intended to be limiting. In various embodiments, less than the entire body of the remote user may be rendered. For example, in some embodiments, a portion (such as the upper body) of a remote user (eg, the remote user's “chest”) may be rendered. In some cases, the animation may be rendered adjacent to the bottom of the display so that the remote user's animation appears to be “popping up” from the bottom of the display. In addition, other parts of the remote user (eg, only the head, above the chest, above the knee or thigh, one half of the remote user or another half, etc.), etc. may be animated.

幾つかの実施形態では、コンピューティングデバイス100は、遠隔ユーザ及び/又は結果生じるアニメーションをクロップキャプチャするよう構成されてよい。例えば、遠隔ユーザのキャプチャされたビジュアルデータは、遠隔ユーザの全身又は背景を含んでよい。様々な実施形態では、コンピューティングデバイス100が、不要な部分(例えば遠隔ユーザの脚部及び/又は背景の空の空間等)を自動的にクロップして、なくすように構成されてよい。   In some embodiments, the computing device 100 may be configured to crop capture remote users and / or resulting animations. For example, the remote user's captured visual data may include the remote user's whole body or background. In various embodiments, the computing device 100 may be configured to automatically crop and eliminate unwanted portions (eg, a remote user's legs and / or background empty space).

様々な実施形態では、コンピューティングデバイス100は、動的及び/又は自動的に、それ自身のローカルユーザ又は遠隔ユーザのキャプチャされたビジュアルデータを、を様々な基準に基づいてクロップするよう構成されてよい。例えばコンピューティングデバイス100は、コンピューティングデバイス100のローカルユーザのビジュアルデータ又は遠隔ユーザのビジュアルデータの少なくとも一部分を、ローカル又は遠隔ユーザが表されているビジュアルデータの一領域が、ビジュアルデータの全体のうちの所定の部分未満を専有していると決定することに基づいて、動的にクロップしてよい。ローカル又は遠隔ユーザが動きまわっている場合、例えば、彼らのカメラの近くへと、ローカル又は遠隔ユーザは、視野内でより大きくなってよい。   In various embodiments, the computing device 100 is configured to dynamically and / or automatically crop captured visual data of its own local or remote user based on various criteria. Good. For example, the computing device 100 may represent at least a portion of the local user's visual data or remote user's visual data of the computing device 100, and an area of the visual data representing the local or remote user may be out of the total visual data. May dynamically crop based on determining that it occupies less than a predetermined portion of. If a local or remote user is moving around, for example, close to their camera, the local or remote user may be larger in view.

そのような場合、コンピューティングデバイス100は、適宜クロッピングを動的に低減させして良い。従って、コンピューティングデバイス100は、遠隔コンピューティングデバイスに提供するビジュアルデータにおいて、及び、遠隔コンピューティングデバイスから受信するビジュアルデータにおいて、ユーザのアニメーション(ローカルであっても遠隔であっても)が、適切なサイズ及び比率であるように保証してよい。   In such a case, the computing device 100 may dynamically reduce cropping as appropriate. Accordingly, the computing device 100 is suitable for the user's animation (whether local or remote) in the visual data provided to the remote computing device and in the visual data received from the remote computing device. May be guaranteed to be the correct size and ratio.

様々な実施形態では、コンピューティングデバイス100が、遠隔ユーザのアニメーションに加えて、コンピューティングデバイス100のローカルユーザのアニメーションをレンダリングしてよい。これにより、ユーザは、遠隔ユーザが見たいものを見ることを許可されてよい。これにより更に、ローカルユーザのアニメーションを「共通領域」に配置することによって、遠隔ユーザのアニメーションとの共同体の感覚が高められてよい。これは更に、後で更に詳しく記載するように、彼らのプライバシーに関するユーザによる決定を促進する。   In various embodiments, the computing device 100 may render an animation of the local user of the computing device 100 in addition to the animation of the remote user. This may allow the user to see what the remote user wants to see. This may further enhance the sense of community with the remote user's animation by placing the local user's animation in a “common area”. This further facilitates user decisions regarding their privacy, as described in more detail below.

様々な実施形態では、同時メディアコンテンツ共有セッションは、ピアツーピア及び/又は各コンピューティングデバイス上にインストールされたクライアント−サーバソフトウェアを利用して実装されてよい。様々な実施形態では、同時メディアコンテンツ共有セッションは、1又は複数のユーザがセッションからサインアウトした場合であっても、持続されてよい。例えば図1におけるように、第1の遠隔ユーザ118がサインオフする場合、コンピューティングデバイス100の上の第1のアニメーション124が消え、しかし第2のアニメーション126は、コンピューティングデバイス100及び第2の遠隔コンピューティングデバイス114が同時メディアコンテンツ共有セッションを維持している限り、持続されてよい。   In various embodiments, simultaneous media content sharing sessions may be implemented utilizing peer-to-peer and / or client-server software installed on each computing device. In various embodiments, the simultaneous media content sharing session may be persisted even when one or more users sign out of the session. For example, as in FIG. 1, when the first remote user 118 signs off, the first animation 124 on the computing device 100 disappears, but the second animation 126 is displayed on the computing device 100 and the second As long as the remote computing device 114 maintains a simultaneous media content sharing session, it may be persisted.

様々な実施形態では、ユーザは既存の同時メディアコンテンツ共有セッションに参加(再度参加)することができてよい。例えば図1及び図2におけるように、第2の遠隔ユーザ120がラップトップコンピュータを介して参加している。しかし、図3において、第2の遠隔ユーザ120が、ラップトップコンピュータにおいて同時メディアコンテンツ共有セッションからサインアウトしてしまっており、第3の遠隔コンピューティングデバイス128(本開示の適用可能部分を用いて構成される)を利用して再度参加してよい。   In various embodiments, a user may be able to join (rejoin) an existing simultaneous media content sharing session. For example, as in FIGS. 1 and 2, a second remote user 120 is participating via a laptop computer. However, in FIG. 3, the second remote user 120 has signed out of the simultaneous media content sharing session on the laptop computer and the third remote computing device 128 (using the applicable portion of the present disclosure). You can join again using

図3では、第3の遠隔コンピューティングデバイス128がテレビ130に接続されたゲームコンソールの形態である。この配置においては、テレビ130が、コンピューティングデバイス100のディスプレイ102と同様の機能を果たして良い。第3の遠隔コンピューティングデバイス128は、更に、移動検知デバイス132に動作可能に連結されてもよい。様々な実施形態では、移動検知デバイス132は、カメラ(不図示)を含んでよい。様々な実施形態では、移動検知デバイス132は、目トラッキングデバイス(不図示)を含んでよい。   In FIG. 3, a third remote computing device 128 is in the form of a game console connected to a television 130. In this arrangement, the television 130 may perform the same function as the display 102 of the computing device 100. Third remote computing device 128 may further be operably coupled to movement sensing device 132. In various embodiments, the movement sensing device 132 may include a camera (not shown). In various embodiments, the movement sensing device 132 may include an eye tracking device (not shown).

様々な実施形態では、アニメーションを重ねることに加えて、コンピューティングデバイス100は、オーディオ又はその他のデータを、遠隔コンピューティングデバイスから受信して、それをユーザに提示してよい。例えば、遠隔コンピューティングデバイス(例えば112、114、128)は、マイクロフォン(不図示)を搭載して、これにより遠隔ユーザ(118、120)の音声を記録してよい。遠隔コンピューティングデバイスは、受信したオーディオをデジタル化して、それをコンピューティングデバイス100に送信してよい。   In various embodiments, in addition to overlaying the animation, the computing device 100 may receive audio or other data from the remote computing device and present it to the user. For example, a remote computing device (eg, 112, 114, 128) may be equipped with a microphone (not shown), thereby recording the voice of the remote user (118, 120). The remote computing device may digitize the received audio and send it to the computing device 100.

コンピューティングデバイス100は、受信したオーディオデータを、例えばアニメーション(例えば124、126)と共に、聴くことができるようにレンダリングしてよい。   The computing device 100 may render the received audio data so that it can be heard, for example, with animation (eg, 124, 126).

複数のユーザが同時にメディアコンテンツを共有しているときには、あるユーザが、遠隔ユーザからのオーディオが、メディアコンテンツのオーディオコンポーネントを妨害しないように望む場合があろうだろう。故に、様々な実施形態において、ユーザは、1又は複数の遠隔ユーザからのオーディオを、これら遠隔ユーザのアニメーションがディスプレイ102に現れることは許可しつつ、ディセーブルする(ミュートにする)ことができてよい。様々な実施形態では、コンピューティングデバイス100は、ディスプレイ102上のメディアコンテンツ122の上に、1又は複数の遠隔ユーザの音声(speech)のテキストマニフェステーションを重ねるように構成してもよい。この例は、呼び出されたバルーン140がメディアコンテンツ122の上に重ねられて、第2の遠隔ユーザ120が作成するコメントのテキストマニフェステーションを表示する、図3に示されている。   When multiple users are sharing media content at the same time, one user may want the audio from the remote user not to interfere with the audio component of the media content. Thus, in various embodiments, a user can disable (mute) audio from one or more remote users while allowing these remote user animations to appear on the display 102. Good. In various embodiments, the computing device 100 may be configured to overlay one or more remote user speech text manifest stations on the media content 122 on the display 102. An example of this is shown in FIG. 3 where a recalled balloon 140 is superimposed over the media content 122 to display a text manifest station for comments created by the second remote user 120.

様々な実施形態では、コンピューティングデバイス100の遠隔ユーザによる音声のテキストマニフェステーションは、遠隔コンピューティングデバイスから受信した音声対応テキストデータに基づいていて良い。様々な他の実施形態では、遠隔ユーザによる音声のテキストマニフェステーションは、コンピューティングデバイス100が遠隔コンピューティングデバイスから受信したオーディオデータに基づいていて良い。後者の場合には、コンピューティングデバイス100は、受信したオーディオをテキストに変換するための音声からテキストへのソフトウェアを利用するよう構成されてよい。   In various embodiments, a speech text manifest station by a remote user of computing device 100 may be based on speech-enabled text data received from a remote computing device. In various other embodiments, the audio text manifest station by the remote user may be based on audio data received by the computing device 100 from the remote computing device. In the latter case, the computing device 100 may be configured to utilize voice to text software to convert the received audio to text.

メディアは、複数のユーザによって様々な方法で同時に消費されてよい。様々な実施形態では、ストリーミングビデオ又はその他のメディアコンテンツは、複数のコンピューティングデバイス(例えば100、112、114、128)間で同期されて、全てのユーザが同時に同じコンテンツを見ることができるようにされてよい。メディアコンテンツは様々な方法で配信されてよい。幾つかの実施形態では、第1のユーザが、メディアコンテンツを有していてよく、それを他のユーザに提供してよい。例えば、コンピューティングデバイス100のユーザは、ストリーミングビデオのアカウントを有してよく(例えば、オンデマンドビデオストリームのサブスクリプション)、及び、そのストリームのコピーを遠隔コンピューティングデバイス(例えば112、114、128)に転送してよい。そのような場合には、第1のユーザのコンピューティングデバイスが、ビデオストリームの自身の再生に遅延を挿入する場合があり、これにより、遠隔コンピューティングデバイスのビデオストリーム再生の前に行うことができない場合がある。   Media may be consumed simultaneously by multiple users in a variety of ways. In various embodiments, streaming video or other media content is synchronized between multiple computing devices (eg, 100, 112, 114, 128) so that all users can view the same content at the same time. May be. Media content may be distributed in various ways. In some embodiments, the first user may have media content and may provide it to other users. For example, a user of the computing device 100 may have a streaming video account (eg, an on-demand video stream subscription) and a copy of the stream to a remote computing device (eg, 112, 114, 128). May be transferred to. In such a case, the first user's computing device may insert a delay into its playback of the video stream, which cannot be done before the video stream playback of the remote computing device. There is a case.

他の実施形態では、メディアコンテンツは、中央に位置していてよく(例えば、コンテンツサーバに)、コンピューティングデバイスが個々にコンテンツサーバに接続して、ストリーミングを受けて良い。そのような場合には、コンピューティングデバイスは、互いに、同期信号を交換し合って、各ユーザが同じコンテンツを同時に見ることを保証してよい。幾つかの実施形態では、ユーザがコンピューティングデバイス100上でのメディアコンテンツの再生を一時停止した場合には、コンテンツの再生は、他の参加しているコンピューティングデバイス(例えば遠隔コンピューティングデバイス112、114、128)においても一時停止される。   In other embodiments, the media content may be centrally located (eg, to a content server) and computing devices may individually connect to the content server and receive streaming. In such cases, the computing devices may exchange synchronization signals with each other to ensure that each user watches the same content simultaneously. In some embodiments, if the user pauses playback of media content on computing device 100, playback of the content may be performed by other participating computing devices (eg, remote computing device 112, 114, 128).

様々な実施形態では、プライバシーメカニズムを利用してユーザのプライバシーを保護してよい。例えば、コンピューティングデバイス100のユーザは、コンピューティングデバイス100に、例えば遠隔コンピューティングデバイス(例えば112、114)に、遠隔コンピューティングデバイスにとってユーザのシルエット又は影のアニメーションをレンダリングするのに十分なビジュアルデータのみを提供するよう命令してよい。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、キャプチャされたビジュアルデータを提供しないように方向付けて良い。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、特定の期間中のみビジュアルデータをキャプチャするよう、及び/又は、ビジュアルデータを他の期間中にはキャプチャ、変更/歪曲しないように方向付けて良い。   In various embodiments, a privacy mechanism may be utilized to protect user privacy. For example, the user of the computing device 100 may have visual data sufficient to render an animation of the user's silhouette or shadow for the remote computing device on the computing device 100, eg, a remote computing device (eg, 112, 114). May only be ordered to provide. In some embodiments, the user may direct the computing device 100 not to provide captured visual data. In some embodiments, the user directs the computing device 100 to capture visual data only during certain time periods and / or not to capture, modify / distort the visual data during other time periods. May be attached.

幾つかの実施形態では、コンピューティングデバイス100は、1又は複数の画像処理フィルタを利用して、遠隔コンピューティングデバイス上にレンダリングされたユーザのアニメーションを、認識不可能としたり、及び/又は、完全なレンダリング未満のものにしたりしてよい。例えば、コンピューティングデバイス100のカメラ104がキャプチャするビジュアルデータは、1又は複数の画像処理フィルタを通過して、ボケさせられたり、画素化(pixelize)されたり、又は、ビジュアルデータを変更させられたりしてよい。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、幾つかのフレームをキャプチャされたビジュアルデータから取り除くよう、結果生じるアニメーションに低減されたフレームレートを有させるよう、方向付けて良い。これに加えて又はこれに代えて、コンピューティングデバイス100は、カメラ104のサンプリングレートを低減させて、より粗いビジュアルデータをキャプチャしてよい。   In some embodiments, the computing device 100 utilizes one or more image processing filters to render the user's animation rendered on the remote computing device unrecognizable and / or complete. Or less than a good rendering. For example, visual data captured by the camera 104 of the computing device 100 may pass through one or more image processing filters and be blurred, pixelized, or altered in visual data. You can do it. In some embodiments, the user may direct the computing device 100 to have the resulting animation have a reduced frame rate to remove some frames from the captured visual data. In addition or alternatively, computing device 100 may reduce the sampling rate of camera 104 to capture coarser visual data.

幾つかの実施形態では、コンピューティングデバイス100は、例えば遠隔コンピューティングデバイス(例えば112、114)から受信した命令に呼応して、遠隔ユーザのプライバシーを保護するよう構成されてよい。例えば、コンピューティングデバイス100は、さもなくば完全にレンダリング可能な、遠隔ユーザを表すビジュアルデータを変更して(例えば画像処理フィルタを通すことにより)、遠隔ユーザの結果生じるアニメーションが、認識不可能となるよう、又は完全なレンダリング未満となるように構成してよい。   In some embodiments, the computing device 100 may be configured to protect the remote user's privacy, eg, in response to instructions received from a remote computing device (eg, 112, 114). For example, the computing device 100 may change the visual data representing the remote user (eg, through an image processing filter) that is otherwise fully renderable, and the resulting animation of the remote user is not recognizable. Or less than full rendering.

様々な実施形態では、ユーザは、1又は複数の遠隔ユーザに対してトラステッドステータスを割り当てて良い。これらの遠隔ユーザは、この後で、ユーザの連絡先の1つとして考えられてよい。ユーザの連絡先の1つが、同時メディアコンテンツ視聴セッションに参加又は再度参加するとき、連絡先のアニメーションが現れたり、再度アニメートされたり、又はその外観が変更されてよい。ユーザの連絡先の1つが、同時メディアコンテンツ視聴セッションを離れると、連絡先のアニメーションが消え、うつぶせになり、又は、外観が変更されてよい。   In various embodiments, a user may assign a trusted status to one or more remote users. These remote users may then be considered as one of the user's contacts. When one of the user's contacts joins or rejoins the simultaneous media content viewing session, the contact's animation may appear, be reanimated, or change its appearance. If one of the user's contacts leaves the simultaneous media content viewing session, the contact's animation may disappear, appear flattened, or the appearance may change.

幾つかの実施形態では、コンピューティングデバイス100は、宛先の遠隔コンピューティングデバイスの遠隔ユーザがトラステッドステータスを割り当てられたかに応じて、遠隔コンピューティングデバイスに送信されたビジュアルデータを条件付きで変更してよい。例えば、コンピューティングデバイス100は、「完全な」又は変更されていないビジュアルデータを、ユーザの連絡先に、又は、他の連絡先より更に高いトラステッドステータスを割り当てられた特定の連絡先(「近しい友人」)に送信してよい。コンピューティングデバイス100は、完全なビジュアルデータ未満のもの(例えばフレームが除去された、又は低減されたサンプリングレートでキャプチャされたビジュアルデータ)、又は変更されたビジュアルデータ(例えば、ボカされた、又は画素化された等)を、更に除去されたと考えられる連絡先(「知り合い」等)に送って良い。幾つかの実施形態では、コンピューティングデバイス100は、トラステッドステータスを割り当てられていないユーザの遠隔コンピューティングデバイスに、あまり、又は全くビジュアルデータを送信しなくてよく、又は、大きく変更されたビジュアルデータを送信してよい。   In some embodiments, the computing device 100 conditionally changes the visual data transmitted to the remote computing device, depending on whether the remote user of the destination remote computing device has been assigned a trusted status. Good. For example, the computing device 100 may send “complete” or unmodified visual data to a user contact, or to a specific contact assigned a higher trusted status than other contacts (“close friends” )). The computing device 100 may have less than complete visual data (eg, visual data with frames removed or captured at a reduced sampling rate), or modified visual data (eg, blurred or pixelated). May be sent to a contact (such as “acquaintance”) that is considered to have been removed. In some embodiments, the computing device 100 may send less or no visual data to a user's remote computing device that has not been assigned a trusted status, or may send significantly changed visual data. May be sent.

様々な実施形態では、コンピューティングデバイス100は、コンピューティングデバイス100が、遠隔ユーザのアニメーションをメディアコンテンツの上に重ね合わせる前に、又は、遠隔コンピューティングデバイスに、ユーザのキャプチャされたビジュアルデータを提供する前に、遠隔コンピューティングデバイス(例えば112、114)とのハンドシェークプロシージャの実行を必要としてよい。例えば、又は、コンピューティングデバイス100のユーザは、コンピューティングデバイス100が遠隔ユーザのアニメーションをメディアコンテンツの上に重ね合わせる前に、遠隔ユーザを表すアイコン又は他のグラフィックをクリック又は選択して、又は、遠隔コンピューティングデバイスにビジュアルデータを提供するよう要求されてよい。幾つかの実施形態では、コンピューティングデバイス100は、何らハンドシェークの必要なく、ユーザの「一番近しい」連絡先(例えば、ユーザが比較的高いレベルのトラストを割り当てた連絡先)のアニメーションを重ね合わせて、又は、一番近しい連絡先に、ユーザのキャプチャされたビジュアルデータを提供してもよい。   In various embodiments, the computing device 100 provides the user's captured visual data before the computing device 100 overlays the remote user's animation over the media content or to the remote computing device. Before doing so, it may be necessary to perform a handshake procedure with a remote computing device (eg, 112, 114). For example, or the user of the computing device 100 clicks or selects an icon or other graphic representing the remote user before the computing device 100 overlays the remote user's animation on the media content, or It may be required to provide visual data to the remote computing device. In some embodiments, the computing device 100 overlays an animation of a user's “closest” contact (eg, a contact to which the user has assigned a relatively high level of trust) without the need for any handshaking. Alternatively, the user's captured visual data may be provided to the closest contact.

幾つかの実施形態では、画像処理は、プライバシー以外の目的のためにビジュアルデータに適用されてもよい。例えば、幾つかの実施形態では、背景の減算が、コンピューティングデバイス100により実装されることで、ユーザを「切り取り」、及び、背景をビジュアルデータから減算してよい。遠隔コンピューティングデバイスがビジュアルデータを用いて、ユーザのアニメーションを重ね合わせるとき、ユーザは、何ら背景なしに、隔離してレンダリングされてよい。   In some embodiments, image processing may be applied to visual data for purposes other than privacy. For example, in some embodiments, background subtraction may be implemented by computing device 100 to “cut” the user and subtract the background from the visual data. When the remote computing device uses visual data to overlay the user's animation, the user may be rendered in isolation without any background.

様々な実施形態では、重ね合わされたアニメーション(例えば第1のアニメーション124及び第2のアニメーション126等)が、2D及び/又は3Dでレンダリングされてよい。アニメーションを3Dでレンダリングする実施形態では、コンピューティングデバイス100は、遠隔ユーザのアニメーションの重ね合わせの上に視差補正を利用するよう構成されてよい。幾つかの3Dの実施形態では、キャプチャされたビジュアルデータ(アニメーションが基としている)が、ポイントクラウド、交点のリスト、三角のリスト等としてコンピューティングデバイス間で送信されてよい。   In various embodiments, the superimposed animation (eg, first animation 124 and second animation 126, etc.) may be rendered in 2D and / or 3D. In embodiments that render the animation in 3D, the computing device 100 may be configured to utilize parallax correction on top of the remote user animation overlay. In some 3D embodiments, captured visual data (based on animation) may be transmitted between computing devices as a point cloud, a list of intersections, a list of triangles, and the like.

コンピューティングデバイス100がアニメーションを3Dでレンダリングするよう構成されている実施形態では、コンピューティングデバイス100は、様々な方法でこれを行って良い。例えば幾つかの実施形態では、コンピューティングデバイス100は、3D形状を2Dスクリーン上にレンダリングしてよい。他の3Dの実施形態では、コンピューティングデバイス100が、3D形状を、立体表示上に3Dでレンダリングしてよく、ユーザが3Dメガネを装着してよい。   In embodiments where the computing device 100 is configured to render animation in 3D, the computing device 100 may do this in various ways. For example, in some embodiments, computing device 100 may render a 3D shape on a 2D screen. In other 3D embodiments, the computing device 100 may render a 3D shape in 3D on a stereoscopic display and the user may wear 3D glasses.

遠隔ユーザのアニメーションの重ね合わせは、様々な方法でディスプレイ102上にレンダリングされてよい。様々な実施形態では、遠隔ユーザのアニメーションの重ね合わせは、自身がディスプレイ102上に表示されている他のコンテンツの全て又は一部分の上に重ね合わせられるように、透明窓のなかにレンダリングされてよい。   The overlay of the remote user's animation may be rendered on the display 102 in various ways. In various embodiments, the overlay of the remote user's animation may be rendered in a transparent window so that it is superimposed on all or a portion of other content that is displayed on the display 102. .

図4は、コンピューティングデバイス100、第1の遠隔コンピューティングデバイス112、第2の遠隔コンピューティングデバイス114、及び/又は、第3の遠隔コンピューティングデバイス128等のコンピューティングデバイスの上に実装されてよい例示的な方法400を示す。ブロック402で、遠隔コンピューティングデバイスの遠隔ユーザのキャプチャされたビジュアルデータが受信されてよい(例えば、コンピューティングデバイス100によって、遠隔コンピューティングデバイスから)。ブロック404で、メディアコンテンツ(例えばビデオ、共有ウェブ閲覧セッション、スライドショー等)が、例えばコンピューティングデバイス100によって、遠隔コンピューティングデバイスの上のメディアコンテンツの提示と同時に、提示されてよい。   FIG. 4 is implemented on a computing device such as computing device 100, first remote computing device 112, second remote computing device 114, and / or third remote computing device 128. A good exemplary method 400 is shown. At block 402, captured visual data of a remote user of the remote computing device may be received (eg, by the computing device 100 from the remote computing device). At block 404, media content (eg, video, shared web browsing session, slide show, etc.) may be presented, for example, by computing device 100 simultaneously with the presentation of the media content on the remote computing device.

ブロック406で、遠隔ユーザに対してコンピューティングデバイスのユーザが興味を示すこと又は興味を示さないことが、例えばコンピューティングデバイス100によって決定されてよい。例えば、コンピューティングデバイス100は、目トラッキングデバイス(例えば106)からコンピューティングデバイス100がユーザがどこを見ているかを決定するために利用してよいデータを受信してよい。遠隔ユーザのアニメーションが、その位置から特定の距離に、又はその範囲内にある場合には、例えばコンピューティングデバイス100によって、そのユーザが遠隔ユーザに興味があると決定してよい。   At block 406, it may be determined by computing device 100, for example, that the user of the computing device is interested or not interested in the remote user. For example, the computing device 100 may receive data from the eye tracking device (eg, 106) that may be utilized by the computing device 100 to determine where the user is looking. If the remote user's animation is at a specific distance from or within the range, it may be determined by the computing device 100 that the user is interested in the remote user, for example.

ブロック408で、遠隔ユーザのアニメーションが、例えばコンピューティングデバイス100によって、受信されたビジュアルデータに基づいて、メディアコンテンツ(例えば122)の上に重ねられて良い。ブロック410で、アニメーションは、例えばコンピューティングデバイス100によって、ユーザが興味があるという決定結果に基づいて、視覚的に強調又は強調解除されてよい。例えば、ユーザが遠隔ユーザに興味をもっている場合には、遠隔ユーザのアニメーションが完全にレンダリングされてよい。ユーザが遠隔ユーザに興味をもたない場合には、遠隔ユーザのアニメーションが、完全未満のレンダリングを行われて良い(例えば影により、より低いフレームレートで、画素化されて、等)。ブロック410の後で、もしも同時のメディア共有セッションがまだ継続中の場合には、方法400は、ブロック402に戻ってよい。セッションが終了すると、方法400はENDブロックに進んで良い。   At block 408, the remote user's animation may be overlaid on the media content (eg, 122), for example, by the computing device 100 based on the received visual data. At block 410, the animation may be visually enhanced or deemphasized, for example by computing device 100, based on the determination result that the user is interested. For example, if the user is interested in the remote user, the remote user's animation may be fully rendered. If the user is not interested in the remote user, the remote user's animation may be rendered less than complete (eg, pixelated at a lower frame rate with shadows, etc.). After block 410, if a concurrent media sharing session is still ongoing, the method 400 may return to block 402. When the session ends, the method 400 may proceed to the END block.

図5は、コンピューティングデバイス100、第1の遠隔コンピューティングデバイス112、第2の遠隔コンピューティングデバイス114、及び/又は、第3の遠隔コンピューティングデバイス128等のコンピューティングデバイスの上に実装されてよい例示的な方法500を示す。ブロック502で、ビジュアルデータがキャプチャされてよい(例えばカメラ104によって)。ブロック504で、例えばコンピューティングデバイス100によって、コンピューティングデバイス100のユーザが同時にメディアコンテンツを消費したい1又は複数の遠隔ユーザが、トラステッドステータス(例えば連絡先)を有する遠隔ユーザのリストに含まれているかを決定してよい。   FIG. 5 is implemented on a computing device such as computing device 100, first remote computing device 112, second remote computing device 114, and / or third remote computing device 128. A good exemplary method 500 is shown. At block 502, visual data may be captured (eg, by camera 104). At block 504, whether the computing device 100 includes one or more remote users that the user of the computing device 100 wants to consume media content at the same time in the list of remote users with trusted status (eg, contacts) May be determined.

答えがノーの場合には、ブロック506で、ユーザのキャプチャされたビジュアルデータが、例えばコンピューティングデバイス100によって、ユーザのプライバシーを維持するように変更されてよい。例えばビジュアルデータは、1又は複数の画像処理フィルタ(例えばボカすフィルタ、画素化フィルタ)を通して供給されてよく、又は、遠隔コンピューティングデバイス上に結果生じるアニメーションを、認識不可能とし、歪曲し、及び/又は完全に現れないように変更されてよい。ブロック508で、変更されたビジュアルデータが、例えばコンピューティングデバイス100によって、遠隔コンピューティングデバイス(例えば112、114、128)に送信されてよい。ブロック508の後に、もしも同時のメディア共有セッションがまだ継続中の場合には、方法500はブロック502に戻って良い。セッションが終了している場合には、方法500はENDブロックに進んで良い。   If the answer is no, at block 506, the user's captured visual data may be modified, for example, by computing device 100, to maintain the user's privacy. For example, visual data may be provided through one or more image processing filters (eg, blurring filter, pixelated filter), or render the resulting animation on a remote computing device unrecognizable, distorted, and It may be modified so that it does not appear completely. At block 508, the modified visual data may be transmitted to the remote computing device (eg, 112, 114, 128), eg, by the computing device 100. After block 508, the method 500 may return to block 502 if a concurrent media sharing session is still ongoing. If the session has ended, the method 500 may proceed to the END block.

ブロック504における答えがYESの場合には、ブロック510で、例えばコンピューティングデバイス100によって、ユーザがプライバシーを望んでいるかを決定してよい。例えばコンピューティングデバイス100は、プライバシーフラグがセットされているか、又は、現在の時点が、ユーザがプライバシーを望むことを示した期間内に含まれているか、を決定してよい。ユーザがプライバシーを望んでいる場合には、方法500はブロック506に進んでよく、ユーザのプライバシーを保護るために、ビジュアルデータを、送信前に変更してよい。ブロック510における答えがNOである場合には、偏向されていないビジュアルデータは、例えばコンピューティングデバイス100によって、ブロック508で、1又は複数の遠隔コンピューティングデバイス(例えば112、114m128)に送信されてよい。   If the answer in block 504 is YES, block 510 may determine, for example by computing device 100, whether the user wants privacy. For example, the computing device 100 may determine whether a privacy flag is set or whether the current time is within a time period that indicates that the user wants privacy. If the user wants privacy, the method 500 may proceed to block 506 and the visual data may be changed prior to transmission to protect the user's privacy. If the answer at block 510 is NO, the unbiased visual data may be sent to one or more remote computing devices (eg, 112, 114m128) at block 508, eg, by computing device 100. .

図6は、様々な実施形態における例示的なコンピューティングデバイス600を示す。コンピューティングデバイス600は、複数のコンポーネント、プロセッサ604、及び少なくとも1つの通信チップ606を含んでよい。様々な実施形態では、プロセッサ604がプロセッサコアであってよい。様々な実施形態では、少なくとも1つの通信チップ606も、プロセッサ604に物理的又は電気的に連結されてよい。更なる実装例では、通信チップ606が、プロセッサ604の一部分であってよい。様々な実施形態では、コンピューティングデバイス600が、プリント回路基板(「PCB」)602に含まれてよい。これらの実施形態では、プロセッサ604及び通信チップ606が、この上に配置されてよい。別の実施形態では、様々なコンポーネントが、PCB602を利用することなく連結されてよい。   FIG. 6 illustrates an exemplary computing device 600 in various embodiments. The computing device 600 may include a plurality of components, a processor 604, and at least one communication chip 606. In various embodiments, the processor 604 may be a processor core. In various embodiments, at least one communication chip 606 may also be physically or electrically coupled to the processor 604. In further implementations, the communication chip 606 may be part of the processor 604. In various embodiments, the computing device 600 may be included on a printed circuit board (“PCB”) 602. In these embodiments, processor 604 and communication chip 606 may be disposed thereon. In another embodiment, the various components may be coupled without utilizing PCB 602.

その用途に応じて、コンピューティングデバイス600は、PCB602に物理的及び電気的に連結されていてもいなくてもよい他のコンポーネントを含んで良い。これらの他のコンポーネントには、これらに限定はされないが、揮発性メモリ(例えばダイナミックランダムアクセスメモリ608、「DRAM」とも称される)、不揮発性メモリ(例えばリードオンリメモリ610、「ROM」とも称される)、フラッシュメモリ612、グラフィックスプロセッサ614、デジタル信号プロセッサ(不図示)、暗号化プロセッサ(crypto processor)(不図示)、入出力(「I/O」)コントローラ616、アンテナ618、ディスプレイ(不図示)、タッチスクリーンディスプレイ620、タッチスクリーンコントローラ622、バッテリ624、オーディオcodec(不図示)、ビデオcodec(不図示)、グローバルポジショニングシステム(「GPS」)デバイス628、コンパス630(不図示)、加速度計(不図示)、ジャイロスコープ(不図示)、スピーカ632、カメラ634、及び大容量記憶装置(例えばハードディスクドライブ、固体ドライブ、コンパクトディスク(「CD」)、デジタルバーサタイルディスク(「DVD」)等)(不図示)等を含んで良い。様々な実施形態では、プロセッサ604が、他のコンポーネントと同じダイに集積されて、システムオンチップ(「SoC」)が形成されてよい。   Depending on its application, computing device 600 may include other components that may or may not be physically and electrically coupled to PCB 602. These other components include, but are not limited to, volatile memory (eg, dynamic random access memory 608, also referred to as “DRAM”), non-volatile memory (eg, read only memory 610, also referred to as “ROM”). Flash memory 612, graphics processor 614, digital signal processor (not shown), crypto processor (not shown), input / output ("I / O") controller 616, antenna 618, display ( (Not shown), touch screen display 620, touch screen controller 622, battery 624, audio codec (not shown), video codec (not shown), global positioning system (“GPS”) device 628, compass 630 (not shown), acceleration Total (not shown), Jai Scope (not shown), speaker 632, camera 634, and mass storage device (eg, hard disk drive, solid state drive, compact disc (“CD”), digital versatile disc (“DVD”), etc.) (not shown), etc. Good. In various embodiments, the processor 604 may be integrated on the same die as other components to form a system on chip (“SoC”).

様々な実施形態では、揮発性メモリ(DRAM608)、不揮発性メモリ(ROM610)、フラッシュメモリ612、及び、大容量記憶装置が、プロセッサ604が実行されることに呼応して、コンピューティングデバイス600に、方法400及び/又は500の全ての又は選択された態様を実行させるよう構成されたプログラミング命令を含んでも良い。例えば、揮発性メモリ(DRAM608)、不揮発性メモリ(ROM610)、フラッシュメモリ612、及び、大容量記憶装置等のメモリコンポーネントの1又は複数が、コンピューティングデバイス600に、方法400及び/又は方法500の全て又は選択された態様等の開示される技術を実行させるよう構成された(図6では制御モジュール636として描かれている)命令の一次的な及び/又は永続的なコピーを含んでも良い。   In various embodiments, volatile memory (DRAM 608), non-volatile memory (ROM 610), flash memory 612, and mass storage may be added to computing device 600 in response to processor 604 executing. Programming instructions configured to cause all or selected aspects of the methods 400 and / or 500 to be performed may be included. For example, one or more of the memory components, such as volatile memory (DRAM 608), non-volatile memory (ROM 610), flash memory 612, and mass storage device may be included in the computing device 600 in the method 400 and / or the method 500. It may include a primary and / or permanent copy of instructions (illustrated as control module 636 in FIG. 6) configured to perform the disclosed techniques, such as all or selected aspects.

通信チップ606は、コンピューティングデバイス600へ/からのデータの転送のための有線及び/又は無線通信を可能としてよい。「無線」という文言及びこの派生語は、データを、固体媒体を介して変調された電磁放射を利用して通信することができる、回路、デバイス、システム、方法、技術、通信チャネル等を記載するために利用されてよい。文言は、関連するデバイスが、有線を全く含まないことを示唆してはいないが、幾つかの実施形態では含まない場合もある。通信チップ606は、これらに限定されるものではないが、IEEE 802.1 1 ("WiFi"), IEEE 802.16 ("WiMAX"), IEEE 702.20, ロングタームエボリューション ("LTE"), General Packet Radio Service (汎用パケット無線サービス:"GPRS"), Evolution Data Optimized (進化データ最適化:"Ev-DO"), Evolved High Speed Packet Access (進化した高速パケットアクセス:"HSPA+"), Evolved High Speed Downlink Packet Access (進化した高速ダウンリンクパケットアクセス:"HSDPA+"), Evolved High Speed Uplink Packet Access (進化した高速アップリンクパケットアクセス:"HSUPA+"), Global System for Mobile Communications (モバイル通信のためのグローバルシステム"GSM(登録商標)"), Enhanced Data rates for GSM(登録商標) Evolution (GSM(登録商標)進化のための進化したデータレート:"EDGE"),符号分割多重アクセス方式("CDMA"),時分割多元接続("TDMA"), Digital Enhanced Cordless Telecommunications (デジタル進化したコードレス電話通信:"DECT"), Bluetooth(登録商標), これらの派生語、及び、3G, 4G, 5G 及びこれ以上として指定されている任意の他の無線プロトコルを含む、複数の無線規格又はプロトコルのいずれかを実装してよい。コンピューティングデバイス600は、複数の通信チップ606を含んで良い。   Communication chip 606 may allow wired and / or wireless communication for transfer of data to / from computing device 600. The term “wireless” and its derivatives describe circuits, devices, systems, methods, techniques, communication channels, etc., through which data can be communicated utilizing electromagnetic radiation modulated over a solid medium. May be used for The language does not suggest that the associated device does not include any wireline, but may not include it in some embodiments. The communication chip 606 includes, but is not limited to, IEEE 802.1 1 ("WiFi"), IEEE 802.16 ("WiMAX"), IEEE 702.20, Long Term Evolution ("LTE"), General Packet Radio Service (general purpose Packet radio service ("GPRS"), Evolution Data Optimized (Evolved Data Optimization: "Ev-DO"), Evolved High Speed Packet Access (Evolved High Speed Packet Access: "HSPA +"), Evolved High Speed Downlink Packet Access (Evolution) High Speed Downlink Packet Access: "HSDPA +"), Evolved High Speed Uplink Packet Access (Evolved High Speed Uplink Packet Access: "HSUPA +"), Global System for Mobile Communications (GSM (registered trademark) ) "), Enhanced Data rates for GSM (TM) Evolution (" EDGE "), code division multiple access (" CDMA "), time division multiple access ( "TDMA"), Digital E Includes nhanced Cordless Telecommunications ("DECT"), Bluetooth (R), their derivatives, and any other wireless protocol designated as 3G, 4G, 5G and above Any of a plurality of wireless standards or protocols may be implemented. The computing device 600 may include a plurality of communication chips 606.

例えば第1の通信チップ606は、Wi-Fi 及びBluetooth(登録商標)等のより短距離の無線通信専用であってよく、及び、第2の通信チップ606は、GPS, EDGE, GPRS, CDMA, WiMAX, LTE, Ev-DOその他等の、より長距離の無線通信専用であってよい。   For example, the first communication chip 606 may be dedicated to shorter-range wireless communication such as Wi-Fi and Bluetooth (registered trademark), and the second communication chip 606 may be GPS, EDGE, GPRS, CDMA, It may be dedicated to longer-distance wireless communication such as WiMAX, LTE, Ev-DO, etc.

様々な実装例では、コンピューティングデバイス600は、ラップトップ、ネットブック、ノートブック、ウルトラブック、スマートフォン、コンピューティングタブレット、携帯情報端末(「PDA」)、ウルトラモバイルPC、携帯電話、デスクトップコンピュータ、サーバ、プリンタ、スキャナ、モニタ、セットトップボックス、エンターテインメントコントロールユニット(例えばゲームコンソール)、デジタルカメラ、携帯音楽プレーヤ、又は、デジタルビデオレコーダであってよい。更なる実装例では、コンピューティングデバイス600は、データを処理する任意の他の電子デバイスであってよい。   In various implementations, the computing device 600 may be a laptop, netbook, notebook, ultrabook, smartphone, computing tablet, personal digital assistant (“PDA”), ultra mobile PC, mobile phone, desktop computer, server. , Printers, scanners, monitors, set-top boxes, entertainment control units (eg, game consoles), digital cameras, portable music players, or digital video recorders. In further implementations, the computing device 600 may be any other electronic device that processes data.

装置、コンピュータ実装された方法、システム、デバイス、及びコンピュータ可読媒体は、ここでは、第1のコンピューティングデバイスの第1のユーザ及び第2のコンピューティングデバイスの第2のユーザによるメディアコンテンツの同時消費を促進するよう記載されている。様々な実施形態では、促進は、第2のコンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、第1のコンピューティングデバイス上に提示されているメディアコンテンツの上への重ね合わせを含んでよい。様々な実施形態では、アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調されてよい。様々な実施形態では、第1のユーザの興味の決定は、第1のコンピューティングデバイスに関する目トラッキング入力デバイスから受信したデータに基づいてよい。   The apparatus, computer-implemented method, system, device, and computer-readable medium herein include simultaneous consumption of media content by a first user of a first computing device and a second user of a second computing device. Has been described to promote. In various embodiments, the promotion is presented on the first computing device of the second user's animation based on the second user's captured visual data received from the second computing device. May include overlays on top of the media content being played. In various embodiments, the animation may be visually enhanced when it is determined that the first user is interested in the second user. In various embodiments, the determination of the first user's interest may be based on data received from the eye tracking input device for the first computing device.

様々な実施形態では、第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、第1のコンピューティングデバイス上に提示されたメディアコンテンツの上に、第3のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調されないようにしてよい。様々な実施形態では、第1のコンピューティングデバイスによって、影で、第3のユーザのアニメーションの重ね合わせをレンダリングして、第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにしてよい。   In various embodiments, media content presented on the first computing device when it is determined that the first user is interested in the second user or not interested in the third user. On top of this, the superimposition of the third user's animation on the third computing device may not be visually enhanced. In various embodiments, the first computing device may render the overlay of the third user's animation with a shadow so as not to visually enhance the overlay of the third user's animation. .

様々な実施形態では、第2のユーザのアニメーションの重ね合わせは、第1のコンピューティングデバイスのディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含んでよい。様々な実施形態では、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用してよい。   In various embodiments, the overlay of the second user's animation may include an overlay of the second user's animation adjacent to the bottom of the display of the first computing device. In various embodiments, parallax correction for the overlay of the second user's animation may be utilized.

様々な実施形態では、第2のユーザの音声のテキストマニフェステーションを、メディアコンテンツの上に重ね合わせてよい。様々な実施形態では、第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信した音声対応テキストデータ、又は第2のコンピューティングデバイスから受信したオーディオデータに基づいていてよい。   In various embodiments, a second user's audio text manifest station may be superimposed over the media content. In various embodiments, an audio text manifest station by a second user may be based on audio-enabled text data received from a second computing device or audio data received from a second computing device.

様々な実施形態では、第2のユーザのアニメーションの重ね合わせは、透明窓内にレンダリングされてよい。   In various embodiments, the overlay of the second user's animation may be rendered in a transparent window.

様々な実施形態では、少なくとも部分的に、第1のユーザがトラステッドステータスを第2のユーザに割り当てたかに基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更してよい。様々な実施形態では、第1のユーザのキャプチャされたビジュアルデータを第2のコンピューティングデバイスに送信してよい。様々な実施形態では、キャプチャされたビジュアルデータは、第2のコンピューティングデバイスに、第2のコンピューティングデバイスの上に表示されているメディアコンテンツの上に第1のユーザのアニメーションを重ね合わせさせるよう構成されてよい。   In various embodiments, the first user's captured visual data may be conditionally modified based at least in part on whether the first user has assigned a trusted status to the second user. In various embodiments, the first user's captured visual data may be transmitted to the second computing device. In various embodiments, the captured visual data causes the second computing device to superimpose the first user's animation over the media content displayed on the second computing device. May be configured.

様々な実施形態では、条件付きで変更する段階は、第1のユーザのキャプチャされたビジュアルデータに画像処理を実行する段階を有し、画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含んでよい。様々な実施形態では、第2のユーザに第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、第1のユーザのキャプチャされたビジュアルデータを変更する段階を有してよい。   In various embodiments, the step of conditionally changing comprises performing image processing on the first user's captured visual data, the image processing comprising blurring, pixelation, background subtraction, or Frame deletion may be included. Various embodiments may include altering the first user's captured visual data in response to a determination that the second user is not assigned a trusted status from the first user.

様々な実施形態では、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を自動的にクロップしてよい。様々な実施形態では、第1のユーザ又は第2のユーザが表されているビジュアルデータの領域が、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を動的にクロップしてよい。   In various embodiments, at least a portion of the captured visual data of the first user or the second user may be automatically cropped. In various embodiments, the area of visual data in which the first user or the second user is represented occupies less than a predetermined portion of the entire captured visual data of the first user or the second user. Based on the determination, the at least a portion of the captured visual data of the first user or the second user may be dynamically cropped.

特定の実施形態が例示の目的のために記載されているが、本願は、ここに説明する実施形態の適合例又は変形例のいずれをもカバーすることを意図している。従って、ここに記載される実施形態は請求項によってのみ限定されることが明確に意図されている。   Although specific embodiments have been described for purposes of illustration, this application is intended to cover any adaptations or variations of the embodiments described herein. Accordingly, it is expressly intended that the embodiments described herein be limited only by the claims.

開示において「或る(a)」「第1の」エレメントまたはこの均等物が記載されている場合、これらの開示は、1又は複数のこれらのエレメントを含み、2又はそれ以上のこれらのエレメントを要求したり排除したりしない。更に、特定のエレメントについて序数詞(例えば第1、第2、又は第3)が利用されることでエレメント間を区別しているが、そのような記載は、特に明記しない限り、これらのエレメントが限定された数必要であると示したり示唆したりしているわけではなく、これらのエレメントの特定の位置又は順序を示しているわけでもない。   Where the disclosure includes “a”, “first” elements, or equivalents thereof, these disclosures include one or more of these elements and include two or more of these elements Do not require or eliminate. In addition, ordinal numbers (eg, first, second, or third) are used for specific elements to distinguish between elements, but such descriptions are limited to these elements unless otherwise specified. It does not indicate or suggest that a particular number is necessary, nor does it indicate a particular position or order of these elements.

開示において「或る(a)」「第1の」エレメントまたはこの均等物が記載されている場合、これらの開示は、1又は複数のこれらのエレメントを含み、2又はそれ以上のこれらのエレメントを要求したり排除したりしない。更に、特定のエレメントについて序数詞(例えば第1、第2、又は第3)が利用されることでエレメント間を区別しているが、そのような記載は、特に明記しない限り、これらのエレメントが限定された数必要であると示したり示唆したりしているわけではなく、これらのエレメントの特定の位置又は順序を示しているわけでもない。ここに本発明の実施形態の例を項目として示す。
[項目1]
第1のユーザが利用する第1のコンピューティングデバイスによって、第2のコンピューティングデバイスから受信された第2のユーザの、キャプチャされたビジュアルデータを受信する段階と、
第2のコンピューティングデバイスの上のメディアコンテンツの提示と同時に第1のコンピューティングデバイス上にメディアコンテンツを提示する段階と、
第1のコンピューティングデバイスによって、第1のユーザが第2のコンピューティングデバイスの第2のユーザに対して興味を示すか興味を示さないかを決定する段階と、
第1のコンピューティングデバイスによって、第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションを、第1のコンピューティングデバイスの上に提示されているメディアコンテンツの上に重ねる段階と、
第1のコンピューティングデバイスによって、決定の結果に基づいてアニメーションを視覚的に強調する、又は強調しない段階と
を備える、コンピュータ実装された方法。
[項目2]
第1のコンピューティングデバイスのユーザが興味を示すか興味を示さないかを決定する段階は、第1のコンピューティングデバイスによって、目トラッキングデバイスからの目トラッキングデータを受信して、目トラッキングデータに基づいて、ユーザが見ている場所を決定する段階を有する、項目1に記載のコンピュータ実装された方法。
[項目3]
第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、第1のコンピューティングデバイス上に提示されたメディアコンテンツの上で、第3のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目4]
第1のコンピューティングデバイスによって、影で、第3のユーザのアニメーションの重ね合わせをレンダリングして、第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、項目3に記載のコンピュータ実装された方法。
[項目5]
第2のユーザのアニメーションの重ね合わせは、第1のコンピューティングデバイスのディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含む、項目1に記載のコンピュータ実装された方法。
[項目6]
第1のコンピューティングデバイスによって、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用する段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目7]
第1のコンピューティングデバイスによって、第2のユーザの音声のテキストマニフェステーションを、第1のコンピューティングデバイスの上に提示されているメディアコンテンツの上に重ね合わせる段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目8]
第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信した音声対応テキストデータに基づいている、項目7に記載のコンピュータ実装された方法。
[項目9]
第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信したオーディオデータに基づいている、項目7に記載のコンピュータ実装された方法。
[項目10]
第2のユーザのアニメーションは、透明窓内にレンダリングされる、項目1に記載のコンピュータ実装された方法。
[項目11]
第1のコンピューティングデバイスによって、少なくとも部分的に、第1のユーザがトラステッドステータスを第2のユーザに割り当てたかに基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階と、
第1のコンピューティングデバイスによって、ビジュアルデータを第2のコンピューティングデバイスに送信する段階と
を更に備え、
キャプチャされたビジュアルデータは、第2のコンピューティングデバイスに、第2のコンピューティングデバイスの上に表示されているメディアコンテンツの上に第1のユーザのアニメーションを重ね合わせさせる、項目1に記載のコンピュータ実装された方法。
[項目12]
第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階は、キャプチャされたビジュアルデータに画像処理を実行する段階を有し、
画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含む、項目11に記載のコンピュータ実装された方法。
[項目13]
第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階は、第2のユーザに第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、ビジュアルデータを変更する段階を有する、項目11に記載のコンピュータ実装された方法。
[項目14]
第1のコンピューティングデバイスによって、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を自動的にクロップする段階を更に備える、項目11に記載のコンピュータ実装された方法。
[項目15]
第1のユーザ又は第2のユーザが表されているビジュアルデータの領域が、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を動的にクロップする段階を更に備える、項目14に記載のコンピュータ実装された方法。
[項目16]
コンピューティングデバイス上で実行されることに呼応して、項目1から15のいずれか一項に記載のコンピュータ実装された方法をコンピューティングデバイスに実行させる複数の命令を備える少なくとも1つの機械可読媒体。
[項目17]
項目1から15のいずれか一項に記載のコンピュータ実装された方法を実行するための手段を備える装置。
[項目18]
1又は複数のプロセッサと、
1又は複数のプロセッサに動作可能に連結されたメモリと、
ディスプレイと、
メモリ内に含まれ、1又は複数のプロセッサにより作動されて、システムの第1のユーザと遠隔コンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進する制御モジュールと
を備え、
促進することは、遠隔コンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、ディスプレイ上に提示されているメディアコンテンツの上への重ね合わせを含み、
アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調される、システム。
[項目19]
目トラッキングデバイスを更に備え、
第1のユーザの興味に関する決定は、目トラッキングデバイスから受信したデータに基づく、項目18に記載のシステム。
[項目20]
遠隔コンピューティングデバイスは、第1の遠隔コンピューティングデバイスであり、
制御モジュールは更に、第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、システム上に提示されたメディアコンテンツの上に、第2のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする、項目18に記載のシステム。
[項目21]
制御モジュールは更に、影で、第3のユーザのアニメーションの重ね合わせをレンダリングする、項目20に記載のシステム。
[項目22]
第2のユーザのアニメーションの重ね合わせは、ディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含む、項目18から21のいずれか一項に記載のシステム。
[項目23]
制御モジュールは更に、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用する、項目18から21のいずれか一項に記載のシステム。
[項目24]
制御モジュールは更に、第2のユーザの音声のテキストマニフェステーションを、ディスプレイの上に提示されているメディアコンテンツの上に重ね合わせる、項目18から21のいずれか一項に記載のシステム。
[項目25]
タッチスクリーンディスプレイを更に備える、項目18から21のいずれか一項に記載のシステム。
Where the disclosure includes “a”, “first” elements, or equivalents thereof, these disclosures include one or more of these elements and include two or more of these elements Do not require or eliminate. In addition, ordinal numbers (eg, first, second, or third) are used for specific elements to distinguish between elements, but such descriptions are limited to these elements unless otherwise specified. It does not indicate or suggest that a particular number is necessary, nor does it indicate a particular position or order of these elements. Here, examples of embodiments of the present invention are shown as items.
[Item 1]
Receiving captured visual data of a second user received from a second computing device by a first computing device utilized by the first user;
Presenting the media content on the first computing device simultaneously with the presentation of the media content on the second computing device;
Determining by the first computing device whether the first user is interested or not interested in the second user of the second computing device;
Overlaying the second user's animation over the media content presented on the first computing device based on the second user's captured visual data by the first computing device. When,
Visually enhancing or not enhancing the animation based on the result of the decision by the first computing device;
A computer-implemented method comprising:
[Item 2]
The step of determining whether the user of the first computing device is interested or not interested receives, by the first computing device, eye tracking data from the eye tracking device and is based on the eye tracking data. The computer-implemented method of item 1, further comprising the step of determining where the user is looking.
[Item 3]
If it is determined that the first user is not interested in the second user or not interested in the third user, the third user is presented with the third content on the media content presented on the first computing device. 2. The computer-implemented method of item 1, further comprising the step of not visually enhancing the superimposition of the third user's animation on the computing device.
[Item 4]
Rendering the third user's animation overlay with shadows by the first computing device so as not to visually enhance the third user's animation overlay, item 3 The computer-implemented method described in 1.
[Item 5]
The computer-implemented method of item 1, wherein overlaying the second user's animation includes overlaying the second user's animation adjacent to the bottom of the display of the first computing device.
[Item 6]
The computer-implemented method of item 1, further comprising utilizing a parallax correction for superimposition of the second user's animation by the first computing device.
[Item 7]
The item of claim 1, further comprising: overlaying a second user's audio text manifest station on the media content presented on the first computing device by the first computing device. Computer implemented method.
[Item 8]
8. The computer-implemented method of item 7, wherein the audio text manifest station by the second user is based on the audio-enabled text data received from the second computing device.
[Item 9]
8. The computer-implemented method of item 7, wherein the audio text manifest station by the second user is based on audio data received from the second computing device.
[Item 10]
The computer-implemented method of item 1, wherein the second user's animation is rendered in a transparent window.
[Item 11]
Conditionally modifying the captured visual data of the first user based on at least in part by the first computing device assigning the trusted status to the second user by the first computing device; ,
Transmitting visual data by a first computing device to a second computing device;
Further comprising
The computer of item 1, wherein the captured visual data causes a second computing device to superimpose a first user's animation on the media content displayed on the second computing device. Implemented method.
[Item 12]
Conditionally changing the first user's captured visual data comprises performing image processing on the captured visual data;
Item 12. The computer-implemented method of item 11, wherein the image processing includes blurring, pixelation, background subtraction, or frame deletion.
[Item 13]
Conditionally changing the first user's captured visual data comprises changing the visual data in response to a determination that the second user has not been assigned a trusted status from the first user. 12. The computer implemented method of item 11, comprising:
[Item 14]
12. The computer-implemented method of item 11, further comprising: automatically cropping at least a portion of the captured visual data of the first user or the second user by the first computing device.
[Item 15]
Based on the determination that the area of visual data representing the first user or the second user occupies less than a predetermined portion of the entire captured visual data of the first user or the second user. The computer-implemented method of claim 14, further comprising dynamically cropping at least a portion of the captured visual data of the first user or the second user.
[Item 16]
16. At least one machine-readable medium comprising a plurality of instructions that, when executed on a computing device, cause the computing device to perform the computer-implemented method of any one of items 1-15.
[Item 17]
An apparatus comprising means for performing the computer-implemented method of any one of items 1 to 15.
[Item 18]
One or more processors;
A memory operably coupled to one or more processors;
Display,
A control module included in memory and operated by one or more processors to facilitate simultaneous consumption of media content by a first user of the system and a second user of a remote computing device;
With
Facilitating superimposition of the second user's animation on the media content presented on the display based on the second user's captured visual data received from the remote computing device. Including
The animation is visually enhanced when it is determined that the first user is interested in the second user.
[Item 19]
An eye tracking device,
19. The system of item 18, wherein the determination regarding the first user's interest is based on data received from the eye tracking device.
[Item 20]
The remote computing device is a first remote computing device;
The control module further determines the second user on the media content presented on the system when it is determined that the first user is interested in the second user or not interested in the third user. 19. The system of item 18, wherein the system does not visually enhance the superimposition of the third user's animation on the computing device.
[Item 21]
21. The system of item 20, wherein the control module further renders a third user animation overlay in the shadow.
[Item 22]
Item 22. The system of any of items 18 through 21, wherein the second user animation overlay includes a second user animation overlay adjacent to the bottom of the display.
[Item 23]
22. The system according to any one of items 18 to 21, wherein the control module further utilizes a parallax correction for the overlay of the second user's animation.
[Item 24]
Item 22. The system of any of items 18-21, wherein the control module further superimposes a second user's audio text manifest station on the media content being presented on the display.
[Item 25]
22. A system according to any one of items 18 to 21, further comprising a touch screen display.

Claims (25)

第1のユーザが利用する第1のコンピューティングデバイスによって、第2のコンピューティングデバイスから受信された第2のユーザの、キャプチャされたビジュアルデータを受信する段階と、
前記第2のコンピューティングデバイスの上のメディアコンテンツの提示と同時に前記第1のコンピューティングデバイス上に前記メディアコンテンツを提示する段階と、
前記第1のコンピューティングデバイスによって、前記第1のユーザが前記第2のコンピューティングデバイスの前記第2のユーザに対して興味を示すか興味を示さないかを決定する段階と、
前記第1のコンピューティングデバイスによって、前記第2のユーザの前記キャプチャされたビジュアルデータに基づいて、前記第2のユーザのアニメーションを、前記第1のコンピューティングデバイスの上に提示されている前記メディアコンテンツの上に重ねる段階と、
前記第1のコンピューティングデバイスによって、前記決定の結果に基づいて前記アニメーションを視覚的に強調する、又は強調しない段階と
を備える、コンピュータ実装された方法。
Receiving captured visual data of a second user received from a second computing device by a first computing device utilized by the first user;
Presenting the media content on the first computing device simultaneously with presenting the media content on the second computing device;
Determining by the first computing device whether the first user is interested in or not interested in the second user of the second computing device;
The media being presented on the first computing device by the first computing device based on the captured visual data of the second user with the second user's animation Overlaying the content,
Visually emphasizing or not emphasizing the animation based on a result of the determination by the first computing device.
前記第1のコンピューティングデバイスの前記ユーザが興味を示すか興味を示さないかを決定する段階は、前記第1のコンピューティングデバイスによって、目トラッキングデバイスからの目トラッキングデータを受信して、前記目トラッキングデータに基づいて、前記ユーザが見ている場所を決定する段階を有する、請求項1に記載のコンピュータ実装された方法。   Determining whether the user of the first computing device is interested or not interested comprises receiving eye tracking data from the eye tracking device by the first computing device, and The computer-implemented method of claim 1, comprising determining where the user is viewing based on tracking data. 前記第1のユーザが前記第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、前記第1のコンピューティングデバイス上に提示された前記メディアコンテンツの上で、第3のコンピューティングデバイスの前記第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、請求項1に記載のコンピュータ実装された方法。   If it is determined that the first user is interested in the second user or not interested in the third user, the top of the media content presented on the first computing device The computer-implemented method of claim 1, further comprising: visually avoiding superimposition of the third user's animation on a third computing device. 前記第1のコンピューティングデバイスによって、影で、前記第3のユーザの前記アニメーションの前記重ね合わせをレンダリングして、前記第3のユーザの前記アニメーションの前記重ね合わせを視覚的に強調しないようにする段階を更に備える、請求項3に記載のコンピュータ実装された方法。   The first computing device renders the overlay of the animation of the third user with shadows so as not to visually enhance the overlay of the animation of the third user. The computer-implemented method of claim 3, further comprising steps. 前記第2のユーザのアニメーションの重ね合わせは、前記第1のコンピューティングデバイスのディスプレイの底辺に隣接する前記第2のユーザの前記アニメーションの重ね合わせを含む、請求項1に記載のコンピュータ実装された方法。   The computer-implemented method of claim 1, wherein the overlay of the second user's animation comprises the overlay of the animation of the second user adjacent to the bottom of the display of the first computing device. Method. 前記第1のコンピューティングデバイスによって、前記第2のユーザの前記アニメーションの前記重ね合わせに対する視差補正を利用する段階を更に備える、請求項1に記載のコンピュータ実装された方法。   The computer-implemented method of claim 1, further comprising utilizing a parallax correction for the overlay of the animation of the second user by the first computing device. 前記第1のコンピューティングデバイスによって、前記第2のユーザの音声のテキストマニフェステーションを、前記第1のコンピューティングデバイスの上に提示されている前記メディアコンテンツの上に重ね合わせる段階を更に備える、請求項1に記載のコンピュータ実装された方法。   The method further comprises superimposing, by the first computing device, a text manifest station of the second user's voice over the media content being presented on the first computing device. Item 2. A computer-implemented method according to Item 1. 前記第2のユーザによる前記音声のテキストマニフェステーションは、前記第2のコンピューティングデバイスから受信した音声対応テキストデータに基づいている、請求項7に記載のコンピュータ実装された方法。   8. The computer-implemented method of claim 7, wherein the speech text manifest station by the second user is based on speech-enabled text data received from the second computing device. 前記第2のユーザによる前記音声のテキストマニフェステーションは、前記第2のコンピューティングデバイスから受信したオーディオデータに基づいている、請求項7に記載のコンピュータ実装された方法。   The computer-implemented method of claim 7, wherein the audio text manifest station by the second user is based on audio data received from the second computing device. 前記第2のユーザの前記アニメーションは、透明窓内にレンダリングされる、請求項1に記載のコンピュータ実装された方法。   The computer-implemented method of claim 1, wherein the animation of the second user is rendered in a transparent window. 前記第1のコンピューティングデバイスによって、少なくとも部分的に、前記第1のユーザがトラステッドステータスを前記第2のユーザに割り当てたかに基づいて、前記第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階と、
前記第1のコンピューティングデバイスによって、前記ビジュアルデータを前記第2のコンピューティングデバイスに送信する段階と
を更に備え、
前記キャプチャされたビジュアルデータは、前記第2のコンピューティングデバイスに、前記第2のコンピューティングデバイスの上に表示されている前記メディアコンテンツの上に前記第1のユーザのアニメーションを重ね合わせさせる、請求項1に記載のコンピュータ実装された方法。
The first computing device conditionally captures the first user's captured visual data based at least in part on whether the first user has assigned a trusted status to the second user. Change stage,
Sending the visual data to the second computing device by the first computing device; and
The captured visual data causes the second computing device to superimpose the first user's animation over the media content displayed on the second computing device. Item 2. A computer-implemented method according to Item 1.
前記第1のユーザの前記キャプチャされたビジュアルデータを条件付きで変更する段階は、前記キャプチャされたビジュアルデータに画像処理を実行する段階を有し、
前記画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含む、請求項11に記載のコンピュータ実装された方法。
Conditionally changing the captured visual data of the first user comprises performing image processing on the captured visual data;
The computer-implemented method of claim 11, wherein the image processing includes blurring, pixelation, background subtraction, or frame deletion.
前記第1のユーザの前記キャプチャされたビジュアルデータを条件付きで変更する段階は、前記第2のユーザに前記第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、前記ビジュアルデータを変更する段階を有する、請求項11に記載のコンピュータ実装された方法。   Conditionally changing the captured visual data of the first user is responsive to a determination that the second user has not been assigned a trusted status from the first user. The computer-implemented method of claim 11, comprising the step of modifying: 前記第1のコンピューティングデバイスによって、前記第1のユーザ又は第2のユーザの前記キャプチャされたビジュアルデータの少なくとも一部を自動的にクロップする段階を更に備える、請求項11に記載のコンピュータ実装された方法。   The computer-implemented method of claim 11, further comprising automatically cropping at least a portion of the captured visual data of the first user or a second user by the first computing device. Method. 前記第1のユーザ又は第2のユーザが表されている前記ビジュアルデータの領域が、前記第1のユーザ又は第2のユーザの前記キャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、前記第1のユーザ又は第2のユーザの前記キャプチャされたビジュアルデータの前記少なくとも一部を動的にクロップする段階を更に備える、請求項14に記載のコンピュータ実装された方法。   The area of the visual data representing the first user or the second user occupies less than a predetermined portion of the entire captured visual data of the first user or the second user. 15. The computer-implemented method of claim 14, further comprising dynamically cropping the at least part of the captured visual data of the first user or a second user based on the determination . コンピューティングデバイス上で実行されることに呼応して、請求項1から15のいずれか一項に記載のコンピュータ実装された方法を前記コンピューティングデバイスに実行させる複数の命令を備える少なくとも1つの機械可読媒体。   16. At least one machine readable comprising a plurality of instructions that, when executed on a computing device, cause the computing device to perform the computer-implemented method of any one of claims 1-15. Medium. 請求項1から15のいずれか一項に記載のコンピュータ実装された方法を実行するための手段を備える装置。   An apparatus comprising means for performing the computer-implemented method according to any one of claims 1 to 15. 1又は複数のプロセッサと、
前記1又は複数のプロセッサに動作可能に連結されたメモリと、
ディスプレイと、
前記メモリ内に含まれ、前記1又は複数のプロセッサにより作動されて、システムの第1のユーザと遠隔コンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進する制御モジュールと
を備え、
前記促進することは、前記遠隔コンピューティングデバイスから受信された前記第2のユーザのキャプチャされたビジュアルデータに基づいて、前記第2のユーザのアニメーションの、前記ディスプレイ上に提示されている前記メディアコンテンツの上への重ね合わせを含み、
前記アニメーションは、前記第1のユーザが前記第2のユーザに興味を示すと決定されると、視覚的に強調される、システム。
One or more processors;
A memory operably coupled to the one or more processors;
Display,
A control module included in the memory and operated by the one or more processors to facilitate simultaneous consumption of media content by a first user of the system and a second user of a remote computing device;
The promoting the media content being presented on the display of the second user's animation based on the captured visual data of the second user received from the remote computing device. Including overlays on top of
The system, wherein the animation is visually enhanced when it is determined that the first user is interested in the second user.
目トラッキングデバイスを更に備え、
前記第1のユーザの興味に関する決定は、前記目トラッキングデバイスから受信したデータに基づく、請求項18に記載のシステム。
An eye tracking device,
The system of claim 18, wherein the determination regarding the first user's interest is based on data received from the eye tracking device.
前記遠隔コンピューティングデバイスは、第1の遠隔コンピューティングデバイスであり、
前記制御モジュールは更に、前記第1のユーザが前記第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、前記システム上に提示された前記メディアコンテンツの上に、第2のコンピューティングデバイスの前記第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする、請求項18に記載のシステム。
The remote computing device is a first remote computing device;
The control module further determines the media content presented on the system when it is determined that the first user is not interested in the second user or not interested in the third user. 19. The system of claim 18, wherein the system does not visually enhance the overlay of the third user's animation on a second computing device.
前記制御モジュールは更に、影で、前記第3のユーザの前記アニメーションの前記重ね合わせをレンダリングする、請求項20に記載のシステム。   21. The system of claim 20, wherein the control module further renders the overlay of the animation of the third user with a shadow. 前記第2のユーザのアニメーションの重ね合わせは、前記ディスプレイの底辺に隣接する前記第2のユーザの前記アニメーションの重ね合わせを含む、請求項18から21のいずれか一項に記載のシステム。   The system according to any one of claims 18 to 21, wherein the second user's animation overlay includes the second user's animation overlay adjacent to the bottom of the display. 前記制御モジュールは更に、前記第2のユーザの前記アニメーションの前記重ね合わせに対する視差補正を利用する、請求項18から21のいずれか一項に記載のシステム。   The system according to any one of claims 18 to 21, wherein the control module further utilizes parallax correction for the superposition of the animation of the second user. 前記制御モジュールは更に、前記第2のユーザの音声のテキストマニフェステーションを、前記ディスプレイの上に提示されている前記メディアコンテンツの上に重ね合わせる、請求項18から21のいずれか一項に記載のシステム。   22. The control module according to any one of claims 18 to 21, wherein the control module further superimposes a text manifest station of the second user's voice on the media content presented on the display. system. タッチスクリーンディスプレイを更に備える、請求項18から21のいずれか一項に記載のシステム。   The system according to any one of claims 18 to 21, further comprising a touch screen display.
JP2015514091A 2012-06-25 2013-05-20 Promote simultaneous consumption of media content by multiple users using superimposed animations Active JP6022043B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/532,612 US9456244B2 (en) 2012-06-25 2012-06-25 Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US13/532,612 2012-06-25
PCT/US2013/041854 WO2014003915A1 (en) 2012-06-25 2013-05-20 Facilitation of concurrent consumption of media content by multiple users using superimposed animation

Publications (2)

Publication Number Publication Date
JP2015523001A true JP2015523001A (en) 2015-08-06
JP6022043B2 JP6022043B2 (en) 2016-11-09

Family

ID=49775155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015514091A Active JP6022043B2 (en) 2012-06-25 2013-05-20 Promote simultaneous consumption of media content by multiple users using superimposed animations

Country Status (4)

Country Link
US (5) US9456244B2 (en)
JP (1) JP6022043B2 (en)
CN (2) CN104335242B (en)
WO (1) WO2014003915A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361295B1 (en) 2006-11-16 2016-06-07 Christopher C. Andrews Apparatus, method and graphical user interface for providing a sound link for combining, publishing and accessing websites and audio files on the internet
US10296561B2 (en) 2006-11-16 2019-05-21 James Andrews Apparatus, method and graphical user interface for providing a sound link for combining, publishing and accessing websites and audio files on the internet
US9380410B2 (en) 2011-04-04 2016-06-28 Soundlink, Inc. Audio commenting and publishing system
CN103369289B (en) * 2012-03-29 2016-05-04 深圳市腾讯计算机系统有限公司 A kind of communication means of video simulation image and device
US9456244B2 (en) * 2012-06-25 2016-09-27 Intel Corporation Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US8867841B2 (en) * 2012-08-08 2014-10-21 Google Inc. Intelligent cropping of images based on multiple interacting variables
US8996616B2 (en) * 2012-08-29 2015-03-31 Google Inc. Cross-linking from composite images to the full-size version
US10871821B1 (en) * 2015-10-02 2020-12-22 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10825058B1 (en) * 2015-10-02 2020-11-03 Massachusetts Mutual Life Insurance Company Systems and methods for presenting and modifying interactive content
US10939164B2 (en) * 2016-05-10 2021-03-02 Rovi Guides, Inc. Method and system for transferring an interactive feature to another device
US10140987B2 (en) * 2016-09-16 2018-11-27 International Business Machines Corporation Aerial drone companion device and a method of operating an aerial drone companion device
US10169850B1 (en) * 2017-10-05 2019-01-01 International Business Machines Corporation Filtering of real-time visual data transmitted to a remote recipient
WO2019127369A1 (en) * 2017-12-29 2019-07-04 腾讯科技(深圳)有限公司 Live broadcast sharing method, and related device and system
CN108551587B (en) * 2018-04-23 2020-09-04 刘国华 Method, device, computer equipment and medium for automatically collecting data of television
CN109327608B (en) * 2018-09-12 2021-01-22 广州酷狗计算机科技有限公司 Song sharing method, terminal, server and system
WO2024059895A1 (en) * 2022-09-23 2024-03-28 Rodd Martin Systems and methods of client-side video rendering

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259336A (en) * 2002-03-04 2003-09-12 Sony Corp Data generating method, data generating apparatus, data transmission method, video program reproducing apparatus, video program reproducing method, and recording medium
JP2004112511A (en) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd Display controller and method therefor
JP2006197217A (en) * 2005-01-13 2006-07-27 Matsushita Electric Ind Co Ltd Videophone and image data transmission method
JP2008107895A (en) * 2006-10-23 2008-05-08 Nomura Research Institute Ltd Virtual space providing server, virtual space providing system, and computer program
JP2010200150A (en) * 2009-02-26 2010-09-09 Toshiba Corp Terminal, server, conference system, conference method, and conference program
WO2010138798A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Avatar integrated shared media selection
US20120110052A1 (en) * 2010-11-01 2012-05-03 Google Inc. Social circles in social networks

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US6742083B1 (en) * 1999-12-14 2004-05-25 Genesis Microchip Inc. Method and apparatus for multi-part processing of program code by a single processor
US6559866B2 (en) * 2001-05-23 2003-05-06 Digeo, Inc. System and method for providing foreign language support for a remote control device
JP4503945B2 (en) * 2003-07-04 2010-07-14 独立行政法人科学技術振興機構 Remote observation equipment
JP4848727B2 (en) 2005-10-03 2011-12-28 日本電気株式会社 Video distribution system, video distribution method, and video synchronization sharing apparatus
EP2194509A1 (en) 2006-05-07 2010-06-09 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
FR2910770A1 (en) * 2006-12-22 2008-06-27 France Telecom Videoconference device for e.g. TV, has light source illuminating eyes of local user viewing screen during communication with remote user, such that image sensor captures local user's image with reflection of light source on eyes
CN101500125B (en) * 2008-02-03 2011-03-09 突触计算机系统(上海)有限公司 Method and apparatus for providing user interaction during displaying video on customer terminal
FR2928805B1 (en) * 2008-03-14 2012-06-01 Alcatel Lucent METHOD FOR IMPLEMENTING VIDEO ENRICHED ON MOBILE TERMINALS
US9003315B2 (en) * 2008-04-01 2015-04-07 Litl Llc System and method for streamlining user interaction with electronic content
US20100115426A1 (en) 2008-11-05 2010-05-06 Yahoo! Inc. Avatar environments
US20100191728A1 (en) 2009-01-23 2010-07-29 James Francis Reilly Method, System Computer Program, and Apparatus for Augmenting Media Based on Proximity Detection
US20110202603A1 (en) * 2010-02-12 2011-08-18 Nokia Corporation Method and apparatus for providing object based media mixing
US20110234481A1 (en) 2010-03-26 2011-09-29 Sagi Katz Enhancing presentations using depth sensing cameras
US9582166B2 (en) * 2010-05-16 2017-02-28 Nokia Technologies Oy Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
US8913056B2 (en) 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US20120159527A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Simulated group interaction with multimedia content
US9077846B2 (en) * 2012-02-06 2015-07-07 Microsoft Technology Licensing, Llc Integrated interactive space
US9197848B2 (en) * 2012-06-25 2015-11-24 Intel Corporation Video conferencing transitions among a plurality of devices
US9456244B2 (en) 2012-06-25 2016-09-27 Intel Corporation Facilitation of concurrent consumption of media content by multiple users using superimposed animation
US10034049B1 (en) * 2012-07-18 2018-07-24 Google Llc Audience attendance monitoring through facial recognition
US9094576B1 (en) * 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US9400553B2 (en) * 2013-10-11 2016-07-26 Microsoft Technology Licensing, Llc User interface programmatic scaling

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259336A (en) * 2002-03-04 2003-09-12 Sony Corp Data generating method, data generating apparatus, data transmission method, video program reproducing apparatus, video program reproducing method, and recording medium
JP2004112511A (en) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd Display controller and method therefor
JP2006197217A (en) * 2005-01-13 2006-07-27 Matsushita Electric Ind Co Ltd Videophone and image data transmission method
JP2008107895A (en) * 2006-10-23 2008-05-08 Nomura Research Institute Ltd Virtual space providing server, virtual space providing system, and computer program
JP2010200150A (en) * 2009-02-26 2010-09-09 Toshiba Corp Terminal, server, conference system, conference method, and conference program
WO2010138798A2 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Avatar integrated shared media selection
US20120110052A1 (en) * 2010-11-01 2012-05-03 Google Inc. Social circles in social networks

Also Published As

Publication number Publication date
US20190042178A1 (en) 2019-02-07
CN104335242A (en) 2015-02-04
US10048924B2 (en) 2018-08-14
CN107256136A (en) 2017-10-17
US20210117147A1 (en) 2021-04-22
US11526323B2 (en) 2022-12-13
WO2014003915A1 (en) 2014-01-03
US20230185514A1 (en) 2023-06-15
CN107256136B (en) 2020-08-21
US9456244B2 (en) 2016-09-27
US20170046114A1 (en) 2017-02-16
US20130346075A1 (en) 2013-12-26
US10956113B2 (en) 2021-03-23
CN104335242B (en) 2017-07-14
US11789686B2 (en) 2023-10-17
JP6022043B2 (en) 2016-11-09

Similar Documents

Publication Publication Date Title
JP6022043B2 (en) Promote simultaneous consumption of media content by multiple users using superimposed animations
US20180240276A1 (en) Methods and apparatus for personalized virtual reality media interface design
US11119719B2 (en) Screen sharing for display in VR
TWI556639B (en) Techniques for adding interactive features to videos
US20130002532A1 (en) Method, apparatus, and computer program product for shared synchronous viewing of content
CN110537208B (en) Head-mounted display and method
US20140270693A1 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
US20130002708A1 (en) Method, apparatus, and computer program product for presenting interactive dynamic content in front of static content
US20220303503A1 (en) Parameters for overlay handling for immersive teleconferencing and telepresence for remote terminals
US20140267870A1 (en) Mixed media from multimodal sensors
JP6883225B2 (en) Display control device, display control method and program
JP5238849B2 (en) Electronic device, electronic device control method, and electronic device control program
US10757401B2 (en) Display system and method for display control of a video based on different view positions
TWI774063B (en) Horizontal/vertical direction control device for three-dimensional broadcasting image
JP2014041455A (en) Image processing device, image processing method, and program
TWI836141B (en) Live broadcasting method for real time three-dimensional image display
US20240073372A1 (en) In-person participant interaction for hybrid event
TW202213990A (en) Live broadcasting system for real time three-dimensional image display

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R150 Certificate of patent or registration of utility model

Ref document number: 6022043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250