JP2015523001A - Promote simultaneous consumption of media content by multiple users using superimposed animations - Google Patents
Promote simultaneous consumption of media content by multiple users using superimposed animations Download PDFInfo
- Publication number
- JP2015523001A JP2015523001A JP2015514091A JP2015514091A JP2015523001A JP 2015523001 A JP2015523001 A JP 2015523001A JP 2015514091 A JP2015514091 A JP 2015514091A JP 2015514091 A JP2015514091 A JP 2015514091A JP 2015523001 A JP2015523001 A JP 2015523001A
- Authority
- JP
- Japan
- Prior art keywords
- user
- computing device
- animation
- visual data
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 100
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 230000001737 promoting effect Effects 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 18
- 238000009877 rendering Methods 0.000 description 6
- 230000002708 enhancing effect Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
-
- G06T5/70—
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2358/00—Arrangements for display data security
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/04—Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
ここには、第1のコンピューティングデバイスの第1のユーザと第2のコンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進するための装置、コンピュータ実装された方法、システム、デバイス、及びコンピュータ可読媒体の実施形態が記載される。 様々な実施形態では、促進は、第2のコンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、第1のコンピューティングデバイス上に提示されているメディアコンテンツの上への重ね合わせを含んでよい。アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調されてよい。 促進は、少なくとも部分的に、第2のユーザがトラステッドステータス割り当てたか、及び、第1のユーザの変更された又は変更されていないビジュアルデータの第2のコンピューティングデバイスへの送信に基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更することを含んでも良い。An apparatus, computer-implemented method, system, device for facilitating simultaneous consumption of media content by a first user of a first computing device and a second user of a second computing device And embodiments of computer readable media are described. In various embodiments, the promotion is presented on the first computing device of the second user's animation based on the second user's captured visual data received from the second computing device. May include overlays on top of the media content being played. The animation may be visually enhanced when it is determined that the first user is interested in the second user. The promotion is based at least in part on whether the second user has assigned a trusted status and transmission of the first user's changed or unmodified visual data to the second computing device. Conditionally changing the captured visual data of one user may be included.
Description
<関連出願の相互参照>
本願は、2012年6月25日に提出された米国特許出願第13/532,612号の優先権を主張し、この内容全体を全ての目的で参照により組み込む。
<Cross-reference of related applications>
This application claims priority from US Patent Application No. 13 / 532,612, filed June 25, 2012, the entire contents of which are incorporated by reference for all purposes.
本発明の実施形態は、概して、データ処理の技術分野に関しており、より詳しくは、重ねられたアニメーションを利用した複数のユーザによるメディアコンテンツの同時消費を促進することに関している。ここに提供する背景技術の説明は、概して本開示のコンテキストを提示する目的のためである。本背景技術セクションに記載されている範囲のここで挙げられている発明者の仕事は、さもなくば出願時に先行技術に値しない記載の側面とともに、本開示に対する先行技術として明示的にも暗示的にも認められたものではない。ここでそうではないと示さない限り、このセクションで記載される方法は、本開示の請求項の先行技術でもなければ、本セクションに含まれているからといって、先行技術であると自認したわけでもない。 Embodiments of the present invention relate generally to the technical field of data processing, and more particularly to facilitating simultaneous consumption of media content by multiple users using overlaid animations. The background description provided herein is generally for the purpose of presenting the context of the disclosure. The work of the inventors listed here in the scope described in this background art section is expressly or implicit as prior art to the present disclosure, along with other aspects not deserving prior art at the time of filing. It was not recognized. Unless otherwise indicated herein, the methods described in this section have been identified as prior art simply because they are not prior art in the claims of this disclosure and are included in this section. That's not true.
人々は、メディアコンテンツを一緒に消費することを望む場合がある。例えば、友人たちのグループが集まって、一緒に映画、テレビ番組、スポーツイベント、ホームビデオ、又は、その他の同様なメディアコンテンツを見る場合がある。友人同士は、メディア消費体験を高めるために提示中にやり取りを行う場合もあろう。しかしながら、互いに物理的に別箇であり、単一の場所に集まることができない2又はそれ以上の人々がメディアコンテンツ消費体験を共有したいと思う場合も想定される。 People may wish to consume media content together. For example, a group of friends may gather and watch a movie, a television program, a sporting event, a home video, or other similar media content together. Friends may interact during the presentation to enhance the media consumption experience. However, it is also envisaged that two or more people who are physically separate from each other and cannot gather in a single place would like to share the media content consumption experience.
実施形態は、以下の詳細な記載を、添付図面とともに読むことでよりよく理解される。本説明を促進するために、同様の参照符号は、同様の構造要素を示すものとする。実施形態は例として示されており、添付図面の図の限定として意図されていない。
以下の詳細な記載では、一部分を形成するテンプ図面に対する参照が行われ、ここでは全体的に同様の参照番号が同様の部分を示し、又、実行可能な例示的な実施形態により示されている。本開示の範囲を逸脱せずに、他の実施形態を利用することもでき、構造上又は論理上の変更を行うことも可能であることを理解されたい。よって、以下の詳細な記載は、限定的な意味合いで受け取られるべきではなく、開示の範囲は、添付請求項及びその均等物により定義される。 In the following detailed description, reference will be made to a part of the drawing that forms a part, where like reference numerals generally indicate like parts and are also illustrated by viable exemplary embodiments. . It should be understood that other embodiments may be utilized and structural or logical changes may be made without departing from the scope of the present disclosure. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the disclosure is defined by the appended claims and their equivalents.
様々な動作は、請求されている主題の理解を最も助けるような方法で複数の別個のアクション又は動作として記載されている場合がある。しかし、記載の順序は、これらの動作が必ずしも順序に依存していることを示唆していると解釈されるべきではない。特に、これらの動作は、提示の順序で実行されなくてもよい。記載されている動作は、記載されている実施形態とは異なる順序で実行されてもよい。様々な更なる動作が実行されてよく、及び/又は、記載されている動作は、更なる実施形態では省略されてもよい。 The various acts may be described as a plurality of separate actions or acts in a manner that most aids understanding of the claimed subject matter. However, the order of description should not be construed as implying that these operations are necessarily order dependent. In particular, these operations may not be performed in the order of presentation. The described operations may be performed in a different order than the described embodiments. Various further operations may be performed and / or described operations may be omitted in further embodiments.
本開示の目的においては、「A及び/又はB」という文言は、(A), (B), 又は(A及びB)を示す。本開示の目的においては、「A, B, 及び/又はC」という文言は、(A), (B), (C), (A及び B), (A及びC), (B及びC), or (A, B及びC)を示す。 For purposes of this disclosure, the term “A and / or B” indicates (A), (B), or (A and B). For purposes of this disclosure, the term “A, B, and / or C” means (A), (B), (C), (A and B), (A and C), (B and C) , or (A, B and C).
記載では、「或る実施形態では」又は「実施形態では」という文言が利用されている場合があるが、これらはそれぞれ、同じ又は異なる実施形態の1又は複数のことを指してよい。更に、本開示の実施形態に関して利用されている「備える(comprising)」「含む(including)」「有する(having)」等の文言は、同義語である。 In the description, the phrases “in one embodiment” or “in an embodiment” may be utilized, which may each refer to one or more of the same or different embodiments. Further, phrases such as “comprising”, “including”, “having”, etc., that are utilized in connection with embodiments of the present disclosure are synonymous.
ここで利用される「モジュール」という用語は、特定用途向け集積回路(「ASIC」)、電子回路、プロセッサ(共有、専用、又はグループ)、及び/又は、1又は複数のソフトウェア又はファームウェアプログラムを実行するメモリ(共有、専用、又はグループ)、組み合わせ論理回路、及び/又は、記載された機能を提供する他の適切なコンポーネントを指したり、その一部であったり、含んだりして良い。 The term “module” as used herein executes an application specific integrated circuit (“ASIC”), an electronic circuit, a processor (shared, dedicated, or group), and / or one or more software or firmware programs. May refer to, be part of, or include memory (shared, dedicated, or group), combinatorial logic, and / or other suitable components that provide the described functionality.
図1は、様々な実施形態における、本開示の教示の適用可能部分とともに構成されている例示的なコンピューティングデバイス100を概略的に示す。コンピューティングデバイス100は、タブレットコンピューティングデバイスとして示されているが、これは限定を意味しない。コンピューティングデバイス100は、様々な他のタイプのコンピューティングデバイス(又は、その組み合わせ)、これらに限定されるものではないが、ラップトップ、ネットブック、ノートブック、ウルトラブック、スマートフォン、携帯情報端末 ("PDA")、ウルトラモバイルPC、携帯電話、デスクトップコンピュータ、サーバ、プリンタ、スキャナ、モニタ、セットトップボックス、エンターテインメントコントロールユニット (e.g.,ゲームコンソール)、デジタルカメラ、携帯音楽プレーヤデジタルビデオレコーダ、テレビ (e.g.,プラズマ、液晶ディスプレイ又は"LCD"、 陰極線管又は"CRT"、プロジェクションスクリーン)等を含む。
FIG. 1 schematically illustrates an
コンピューティングデバイス100は、ディスプレイ102を含んでよい。ディスプレイ102は、これらに限定はされないがプラズマ、LCD,CRT等を含む、様々なタイプのディスプレイであってよい。幾つかの実施形態(不図示)では、ディスプレイは、プロジェクタが、ここで説明した重ねられたアニメーションをもつグラフィックスをプロジェクションしてよいプロジェクション面を含んでよい。様々な実施形態では、ディスプレイ102は、コンピューティングデバイス100に入力を提供し、これを操作するために利用してよいタッチスクリーンディスプレイであってよい。様々な実施形態では、コンピューティングデバイス100は、タッチスクリーンディスプレイに加えて、又はこれに代えて、追加の入力制御(不図示)を含んでよい。
様々な実施形態では、コンピューティングデバイス100は、1又は複数のフレーム及び/又はデジタル画像等のビジュアルデータをキャプチャするよう構成されたカメラ104を含んでよい。後述するように、キャプチャされたビジュアルデータは、遠隔コンピューティングデバイスに送信され、遠隔コンピューティングデバイスによる他のコンテンツの上へのアニメーションの重ね合せを促進するために利用されてよい。
In various embodiments, the
カメラ104は、図1から図3のコンピューティングデバイス100の統合された一部分として示されているが、これは限定として意図されてはいない。様々な実施形態では、カメラ104は、コンピューティングデバイス100から別箇ではない。例えばカメラ104は、1又は複数の有線又は無線を利用してコンピューティングデバイス100に接続された外部カメラ(例えばウェブカメラ)であってよい。
Although the
様々な実施形態では、コンピューティングデバイス100は、目トラッキングデバイス106を含んでよい。図1に示すコンピューティングタブレット等の様々な実施形態では、カメラ104も、目トラッキングデバイス106として動作する。しかしこれは必ず必要なものではない。様々な実施形態では、目トラッキングデバイス106は、カメラ104から別箇であってよく、異なるタイプのデバイス及び/又は異なるタイプのカメラであってよい。例えば、コンピューティングデバイス100がテレビ又はテレビに接続されたゲームコンソールである実施形態では、目トラッキングデバイス106は、テレビ又はゲームコンソールに動作可能に連結されたカメラ又はその他のデバイス(例えば動きキャプチャデバイス)であってよい。そのような例は図3に示され、後述する。
In various embodiments,
様々な実施形態では、カメラ104及び/又は目トラッキングデバイス106がキャプチャするビジュアルデータが、ソフトウェア、ハードウェア、又は任意の2つの組み合わせによって分析されることで、もしあればユーザが探している、ディスプレイ102の部分を決定及び/又は近似することができてよい。この決定は、これらに限定はされないが、ユーザの顔及び/又は目とディスプレイ102の間の距離を決定すること、ユーザの目の1又は複数の特徴(例えばビジュアルデータの中の瞳等)を特定すること、特定された特徴間の距離を測定すること、等の様々な動作を含んでよい。後述するように、ディスプレイ102のどの部分をユーザが探しているか(そして従って興味を示したか)、及び、ディスプレイ102のどの部分をユーザが探していないか(そして従って興味を示さなかったか)を決定することは、様々な方法で利用されてよい。
In various embodiments, the visual data captured by the
コンピューティングデバイス100は、1又は複数のネットワークを介して様々な遠隔コンピューティングデバイスと通信してよい。図1及び図2では、例えば、コンピューティングデバイス100が、自身がネットワーク110と通信している第1の無線ネットワークアクセスノード108と無線通信している。様々な実施形態では、第1の無線アクセスノード108は、進化型NodeB、WiMAX(IEEE802.16ファミリー)アクセスポイント、Wi−Fi(IEEE802.11ファミリー)アクセスポイント、又は、コンピューティングデバイス100が無線接続してよい任意の他のノードであってよい。ネットワーク110は、1又は複数のパーソナル、ローカル、又はワイドエリア、プライベート、及び/又はパブリックネットワーク(これらにはこれに限定されないがインターネットが含まれる)を含んでよい。コンピューティングデバイス100は、ネットワーク110に無線接続されているものとして示されているが、これは限定を意図しておらず、コンピューティングデバイス100は、任意の他の方法(いわゆる「有線」接続を介するものを含む)で1又は複数のネットワークに接続してよい。
The
コンピューティングデバイス100は、任意の数の遠隔コンピューティングデバイスとネットワーク通信してよい。図1及び図2では、例えば、コンピューティングデバイス100が、第1の遠隔コンピューティングデバイス112と第2の遠隔コンピューティングデバイス114とネットワーク通信している。コンピューティングデバイス100の場合と同様に、第1及び第2の遠隔コンピューティングデバイス112、114は、前に述べたものの等の、任意のタイプのコンピューティングデバイスであってよい。例えば図1では、第1の遠隔コンピューティングデバイス112が、スマートフォンであり、第2の遠隔コンピューティングデバイス114がラップトップコンピュータである。
第1の遠隔コンピューティングデバイス112は、別の無線ネットワークアクセスノード116に無線接続されていると示されている。第2の遠隔コンピューティングデバイス114は、有線接続を介してネットワーク110に接続していると示されている。しかし、遠隔コンピューティングデバイスが利用するネットワーク接続のタイプは重要ではない。任意のコンピューティングデバイスが、任意のタイプのネットワーク接続を利用して、ここで記載される方法で任意の他のコンピューティングデバイスと通信してよい。
The first
様々な実施形態では、コンピューティングデバイス100は、1又は複数の遠隔コンピューティングデバイス(例えば、第1の遠隔コンピューティングデバイス112の第1の遠隔ユーザ118及び/又は第2の遠隔コンピューティングデバイス114の第2の遠隔ユーザ120等)の1又は複数のユーザとともの、コンピューティングデバイス100のユーザ(不図示)による、メディアコンテンツ122の同時消費を促進するよう構成されてよい。様々な実施形態では、コンピューティングデバイス100は、コンピューティングデバイス100の上に提示されるメディアコンテンツ122の上に、遠隔ユーザの1又は複数のアニメーションを重ねるよう構成されてよい。
In various embodiments,
様々な実施形態では、これらの1又は複数の重ねられたアニメーションは、遠隔コンピューティングデバイスから受信したビジュアルデータに基づいて、コンピューティングデバイス100によってレンダリングされてよい。様々な実施形態では、遠隔コンピューティングデバイスから受信したビジュアルデータが、遠隔コンピューティングデバイスでキャプチャされた遠隔ユーザ(例えば118、120)のビジュアルデータに基づいていてよい。
In various embodiments, these one or more superimposed animations may be rendered by computing
ここで利用される「アニメーション」という文言は、キャプチャされたビジュアルデータから生成される任意の移動ビジュアル表現のことを指していてよい。これには、これらに限定はされないが、キャプチャされたビジュアルデータのビデオ(例えばビットマップ)再生、ビジュアルデータの芸術的演出(例えば、ユーザのキャプチャしたビジュアルデータに基づいてレンダリングされた漫画)等が含まれてよい。別の言い方をすると、「アニメーション」とは、ここでは、「アニメートする」という同士の名詞形としてここで利用され、これは、「生命を与える」を意味する。従って、「アニメーション」とは、「アニメートされていない(inanimate)」に反して、「アニメートされている」(生きている(alive)、又は、生命をもつ(having life)」記述又はレンダリングのことを指す。「アニメーション」は、アニメータが生成する描画に限定されない。 As used herein, the term “animation” may refer to any moving visual representation generated from captured visual data. This includes, but is not limited to, video (eg, bitmap) playback of captured visual data, artistic presentation of visual data (eg, cartoon rendered based on user-captured visual data), etc. May be included. In other words, “animation” is used herein as a noun form of “animating”, which means “giving life”. Thus, “animation” is a description or rendering of “animated” (alive or having life), contrary to “inanimate”. “Animation” is not limited to drawing generated by an animator.
様々な実施形態では、メディアコンテンツ122は、これらに限定はされないが、ビデオ(例えばストリーミング)、ビデオゲーム、ウェブページ、スライドショー、提示等のオーディオ及び/又はビジュアルコンテンツを含んでよい。
In various embodiments,
メディアコンテンツの上に遠隔ユーザのアニメーションを重ね合わせることにより、互いに遠隔位置にいる2又はそれ以上のユーザが、「一緒」にメディアコンテンツを消費することができてよい。各ユーザは、メディアコンテンツの上に重ね合わされた、他のユーザのアニメーションを見ることができる。従って例えば、互いに遠隔の位置にいる2又はそれ以上の数の友人が、映画、テレビショー、スポーツイベント等の体験を共有することができるようになる。 By superimposing the remote user's animation over the media content, two or more users at remote locations may be able to consume the media content “together”. Each user can see other users' animations superimposed on the media content. Thus, for example, two or more friends at remote locations can share experiences such as movies, television shows, sporting events, and the like.
図1では、第1の遠隔ユーザ118及び第2の遠隔ユーザ120を表す、第1のアニメーション124及び第2のアニメーション126が、それぞれ、コンピューティングデバイス100のディスプレイ102の上のメディアコンテンツ122の上に重ねられる。第1のアニメーション124は、第1の遠隔コンピューティングデバイス112から、例えば第1の遠隔コンピューティングデバイス112の上のカメラ(不図示)から、コンピューティングデバイス100が受信した第1の遠隔ユーザ118のキャプチャされたビジュアルデータに基づいていてよい。例えば、第1のアニメーション124は、第1の遠隔ユーザ118を描画したビデオストリームであってよい。第2のアニメーション126も同様に、第2の遠隔コンピューティングデバイス114からコンピューティングデバイス100で受信した、第2の遠隔ユーザ120のキャプチャされたビジュアルデータに基づいていてよい。
In FIG. 1, a
様々な実施形態では、アニメーションがレンダリングされるビジュアルデータは、様々な形態のコンピューティングデバイス間を送信されてよい。様々な実施形態では、1つのコンピュータが、別のコンピュータに、キャプチャされたビジュアルデータを、ビットマップ形式で送信してよい(例えば、*.png又はアルファマスクをもつ他のビジュアルファイルのビデオストリーム)。他の実施形態では、キャプチャされたビジュアルデータが、組み込まれているアルファをもつストリーミングビデオを利用して送信されてよい。また他の実施形態では、キャプチャされたビジュアルデータは、ビットマップ(例えばRGB)フレーム及び深さフレームのストリームを利用して送信されていてよく、ここから、二次元(「2D」)又は三次元(3D)アニメーションのいずれかがレンダリングされてよい。 In various embodiments, visual data on which animation is rendered may be transmitted between various forms of computing devices. In various embodiments, one computer may send captured visual data in bitmap format to another computer (eg, a video stream of other visual files with * .png or alpha mask). . In other embodiments, captured visual data may be transmitted utilizing streaming video with embedded alpha. In still other embodiments, the captured visual data may be transmitted using a stream of bitmap (eg, RGB) frames and depth frames, from which two-dimensional (“2D”) or three-dimensional Any (3D) animation may be rendered.
図1から図3では、アニメーションがディスプレイ102の底部付近にレンダリングされるので、コンピューティングデバイス100のユーザが、依然として、メディアコンテンツ122を見ることができる。しかし、これは限定を意図していない。第1のアニメーション124及び第2のアニメーション126等のアニメーションが、ディスプレイ102の任意の部分にレンダリングされてよい。幾つかの実施形態では、アニメーションが、複数のディスプレイ上に表示されてよい。例えばデスクトップコンピュータのユーザが複数のモニタをもつ場合、アニメーションの1又は複数が、1つのモニタ又は他のモニタに表示されてよい。様々な実施形態では、これらのアニメーションが、モニタの1つ又は両方の上のコンテンツ122の上に重ねられて良い。
1-3, the animation is rendered near the bottom of the
様々な実施形態では、そのアニメーションのユーザの興味対象である特定のアニメーションが、コンピューティングデバイス100の決定したものの上に視覚的に強調されてよい。ここで利用される「視覚的に強調」する、とは、アニメーションが、他の重ねられたアニメーション又はメディアコンテンツと異なるアニメーションをレンダリングすることで、注意を引いたり、又は、1つのアニメーションを1又は複数の他のアニメーションから区別することを意味してよい。
In various embodiments, the particular animation that is of interest to the user of the animation may be visually enhanced over what the
図1では、例えば、第1及び第2のアニメーション124、126が、白黒のアウトラインで図示されることで、両方のアニメーションが同等に視覚的に強調されていることを表し、ユーザの注意が一方に他方よりもいかないようにする。例えば、両方のアニメーションは、リアルタイムに第1及び第2のユーザを示すことができ、ある程度均等に目立つ方法でレンダリングされてよい。別の言い方をすると、どのアニメーションも「視覚的に強調されない」。
In FIG. 1, for example, the first and
「視覚的に強調されない」ようにする、ということは、遠隔ユーザのアニメーションを、注意を引かないようにレンダリングすること、又は、他のアニメーション又はメディアコンテンツから、直接それから、視覚的に強調されている別のアニメーションに、又は、下のメディアコンテンツに、注意がそがれることを指す。ビジュアルに強調しないことの例を図2に示す。第1のアニメーション124が、視覚的に強調されないことを表すために、全て黒色で示されている。第2のアニメーション126は、視覚的に強調されていることを示すために白色に黒色のアウトラインで示されている。
“Not visually enhanced” means that the remote user's animation is rendered without any attention, or directly from other animations or media content and then visually enhanced. Refers to distracting attention to another animation or to the underlying media content. Figure 2 shows an example of not visual enhancement. The
様々な実施形態では、遠隔ユーザのアニメーションが、様々な方法で視覚的に強調されないようにしてよい。例えば、そのユーザのフルカラー又はフルフィーチャのアニメーションをレンダリングする代わりに、遠隔ユーザの例えば単一色のシルエット(例えばグレイ、黒、又は任意の他の色又は陰)をレンダリングしてよい。様々な実施形態では、遠隔ユーザが、影でレンダリングされてよい。幾つかの実施形態では、視覚的に強調されないアニメーションは全くアニメートされなくてよく、又は、視覚的に強調されるアニメーションよりも遅いフレームレートでアニメートされてもよい。 In various embodiments, the remote user's animation may not be visually enhanced in various ways. For example, instead of rendering the user's full-color or full-feature animation, a remote user's, for example, a single color silhouette (eg, gray, black, or any other color or shade) may be rendered. In various embodiments, a remote user may be rendered with a shadow. In some embodiments, animations that are not visually enhanced may not be animated at all, or may be animated at a slower frame rate than animations that are visually enhanced.
図3では、第1のアニメーション124及び第2のアニメーション126が両方とも、視覚的に強調されない。これは、コンピューティングデバイス100のユーザが、どちらのユーザにも興味を示さなかったときに生じて良い。例えば、ユーザは、遠隔ユーザのアニメーションではなく、メディアコンテンツ122を見ることに興味を示したものとしてよい。ユーザが、アニメーションの1つまたはその他に興味を示したとき、ユーザが興味を示したアニメーションは、コンピューティングデバイス100によって視覚的に強調されてよい。
In FIG. 3, both the
ユーザは、様々な方法でディスプレイ102の特定のアニメーション又は他の部分に興味を示したり、興味を示さなかったりしてよい。例えばカメラ104及び/又は目トラッキングデバイス106は、ユーザの目の動きに関するデータを収集するよう構成されてよい。このデータに基づいて、コンピューティングデバイス100は、もしあればユーザが見ているディスプレイ102のいずれかの部分を計算してよい。
A user may or may not be interested in a particular animation or other portion of
例えば図2では、コンピューティングデバイス100は、目トラッキングデバイス106からの入力に基づいて、ユーザが第2のアニメーション126に焦点を合わせている(又は見ている)と決定していてよい。故に、コンピューティングデバイス100は、第2のアニメーション126を視覚的に強調して、第1のアニメーション124を視覚的に強調しなくてよい。
For example, in FIG. 2,
図3における他の例のように、コンピューティングデバイスは、目トラッキングデバイス106からの入力に基づいて、ユーザがメディアコンテンツ122に焦点を合わせており、及び/又は、第1のアニメーション124にも第2のアニメーション126にも焦点を合わせていないと決定していてよい。故に、コンピューティングデバイス100は、第1のアニメーション124及び第2のアニメーション126の両方を視覚的に強調しなくてよく、これにより、メディアコンテンツ122から注意がそがれないよう促進してよい。
As another example in FIG. 3, the computing device may allow the user to focus on the
図1から図3には不図示だが、第1の遠隔コンピューティングデバイス112及び第2の遠隔コンピューティングデバイス114が、コンピューティングデバイス100同様、メディアコンテンツ122と他の遠隔ユーザのアニメーションの重ねたものとを同時に表示してよい。例えば、第1の遠隔コンピューティングデバイス112は、コンピューティングデバイス100のユーザ(不図示)及び第2の遠隔ユーザ120のアニメーションを、メディアコンテンツ122の上に重ねてよい。同様に、第2の遠隔コンピューティングデバイス114は、コンピューティングデバイス100のユーザ(不図示)及び第1の遠隔ユーザ118のアニメーションを、メディアコンテンツ122の上に重ねてよい。更に、3つのコンピューティングデバイスが示されているが、本開示の適用可能部分をもつよう構成された任意の数のコンピューティングデバイスが、同時メディアコンテンツ視聴セッションに参加してよい。
Although not shown in FIGS. 1-3, the first
図面に示すアニメーションは、遠隔ユーザの全身を示しているが、これは限定を意図していない。様々な実施形態では、遠隔ユーザの全身未満をレンダリングしてもよい。例えば、幾つかの実施形態では、遠隔ユーザの一部分(上半身等)(例えば、遠隔ユーザの「胸部」)を描画しても良い。幾つかの場合において、アニメーションは、遠隔ユーザのアニメーションがディスプレイの底部から「ポップアップ」しているかのように見えるよう、ディスプレイの底部に隣接するようにレンダリングされてよい。更に、遠隔ユーザの他の部分(例えば、頭部のみ、胸部から上、膝又は太ももより上、遠隔ユーザの一方の半分又は別の半分等)等をアニメートしてもよい。 The animation shown in the drawing shows the entire body of the remote user, but this is not intended to be limiting. In various embodiments, less than the entire body of the remote user may be rendered. For example, in some embodiments, a portion (such as the upper body) of a remote user (eg, the remote user's “chest”) may be rendered. In some cases, the animation may be rendered adjacent to the bottom of the display so that the remote user's animation appears to be “popping up” from the bottom of the display. In addition, other parts of the remote user (eg, only the head, above the chest, above the knee or thigh, one half of the remote user or another half, etc.), etc. may be animated.
幾つかの実施形態では、コンピューティングデバイス100は、遠隔ユーザ及び/又は結果生じるアニメーションをクロップキャプチャするよう構成されてよい。例えば、遠隔ユーザのキャプチャされたビジュアルデータは、遠隔ユーザの全身又は背景を含んでよい。様々な実施形態では、コンピューティングデバイス100が、不要な部分(例えば遠隔ユーザの脚部及び/又は背景の空の空間等)を自動的にクロップして、なくすように構成されてよい。
In some embodiments, the
様々な実施形態では、コンピューティングデバイス100は、動的及び/又は自動的に、それ自身のローカルユーザ又は遠隔ユーザのキャプチャされたビジュアルデータを、を様々な基準に基づいてクロップするよう構成されてよい。例えばコンピューティングデバイス100は、コンピューティングデバイス100のローカルユーザのビジュアルデータ又は遠隔ユーザのビジュアルデータの少なくとも一部分を、ローカル又は遠隔ユーザが表されているビジュアルデータの一領域が、ビジュアルデータの全体のうちの所定の部分未満を専有していると決定することに基づいて、動的にクロップしてよい。ローカル又は遠隔ユーザが動きまわっている場合、例えば、彼らのカメラの近くへと、ローカル又は遠隔ユーザは、視野内でより大きくなってよい。
In various embodiments, the
そのような場合、コンピューティングデバイス100は、適宜クロッピングを動的に低減させして良い。従って、コンピューティングデバイス100は、遠隔コンピューティングデバイスに提供するビジュアルデータにおいて、及び、遠隔コンピューティングデバイスから受信するビジュアルデータにおいて、ユーザのアニメーション(ローカルであっても遠隔であっても)が、適切なサイズ及び比率であるように保証してよい。
In such a case, the
様々な実施形態では、コンピューティングデバイス100が、遠隔ユーザのアニメーションに加えて、コンピューティングデバイス100のローカルユーザのアニメーションをレンダリングしてよい。これにより、ユーザは、遠隔ユーザが見たいものを見ることを許可されてよい。これにより更に、ローカルユーザのアニメーションを「共通領域」に配置することによって、遠隔ユーザのアニメーションとの共同体の感覚が高められてよい。これは更に、後で更に詳しく記載するように、彼らのプライバシーに関するユーザによる決定を促進する。
In various embodiments, the
様々な実施形態では、同時メディアコンテンツ共有セッションは、ピアツーピア及び/又は各コンピューティングデバイス上にインストールされたクライアント−サーバソフトウェアを利用して実装されてよい。様々な実施形態では、同時メディアコンテンツ共有セッションは、1又は複数のユーザがセッションからサインアウトした場合であっても、持続されてよい。例えば図1におけるように、第1の遠隔ユーザ118がサインオフする場合、コンピューティングデバイス100の上の第1のアニメーション124が消え、しかし第2のアニメーション126は、コンピューティングデバイス100及び第2の遠隔コンピューティングデバイス114が同時メディアコンテンツ共有セッションを維持している限り、持続されてよい。
In various embodiments, simultaneous media content sharing sessions may be implemented utilizing peer-to-peer and / or client-server software installed on each computing device. In various embodiments, the simultaneous media content sharing session may be persisted even when one or more users sign out of the session. For example, as in FIG. 1, when the first
様々な実施形態では、ユーザは既存の同時メディアコンテンツ共有セッションに参加(再度参加)することができてよい。例えば図1及び図2におけるように、第2の遠隔ユーザ120がラップトップコンピュータを介して参加している。しかし、図3において、第2の遠隔ユーザ120が、ラップトップコンピュータにおいて同時メディアコンテンツ共有セッションからサインアウトしてしまっており、第3の遠隔コンピューティングデバイス128(本開示の適用可能部分を用いて構成される)を利用して再度参加してよい。
In various embodiments, a user may be able to join (rejoin) an existing simultaneous media content sharing session. For example, as in FIGS. 1 and 2, a second
図3では、第3の遠隔コンピューティングデバイス128がテレビ130に接続されたゲームコンソールの形態である。この配置においては、テレビ130が、コンピューティングデバイス100のディスプレイ102と同様の機能を果たして良い。第3の遠隔コンピューティングデバイス128は、更に、移動検知デバイス132に動作可能に連結されてもよい。様々な実施形態では、移動検知デバイス132は、カメラ(不図示)を含んでよい。様々な実施形態では、移動検知デバイス132は、目トラッキングデバイス(不図示)を含んでよい。
In FIG. 3, a third
様々な実施形態では、アニメーションを重ねることに加えて、コンピューティングデバイス100は、オーディオ又はその他のデータを、遠隔コンピューティングデバイスから受信して、それをユーザに提示してよい。例えば、遠隔コンピューティングデバイス(例えば112、114、128)は、マイクロフォン(不図示)を搭載して、これにより遠隔ユーザ(118、120)の音声を記録してよい。遠隔コンピューティングデバイスは、受信したオーディオをデジタル化して、それをコンピューティングデバイス100に送信してよい。
In various embodiments, in addition to overlaying the animation, the
コンピューティングデバイス100は、受信したオーディオデータを、例えばアニメーション(例えば124、126)と共に、聴くことができるようにレンダリングしてよい。
The
複数のユーザが同時にメディアコンテンツを共有しているときには、あるユーザが、遠隔ユーザからのオーディオが、メディアコンテンツのオーディオコンポーネントを妨害しないように望む場合があろうだろう。故に、様々な実施形態において、ユーザは、1又は複数の遠隔ユーザからのオーディオを、これら遠隔ユーザのアニメーションがディスプレイ102に現れることは許可しつつ、ディセーブルする(ミュートにする)ことができてよい。様々な実施形態では、コンピューティングデバイス100は、ディスプレイ102上のメディアコンテンツ122の上に、1又は複数の遠隔ユーザの音声(speech)のテキストマニフェステーションを重ねるように構成してもよい。この例は、呼び出されたバルーン140がメディアコンテンツ122の上に重ねられて、第2の遠隔ユーザ120が作成するコメントのテキストマニフェステーションを表示する、図3に示されている。
When multiple users are sharing media content at the same time, one user may want the audio from the remote user not to interfere with the audio component of the media content. Thus, in various embodiments, a user can disable (mute) audio from one or more remote users while allowing these remote user animations to appear on the
様々な実施形態では、コンピューティングデバイス100の遠隔ユーザによる音声のテキストマニフェステーションは、遠隔コンピューティングデバイスから受信した音声対応テキストデータに基づいていて良い。様々な他の実施形態では、遠隔ユーザによる音声のテキストマニフェステーションは、コンピューティングデバイス100が遠隔コンピューティングデバイスから受信したオーディオデータに基づいていて良い。後者の場合には、コンピューティングデバイス100は、受信したオーディオをテキストに変換するための音声からテキストへのソフトウェアを利用するよう構成されてよい。
In various embodiments, a speech text manifest station by a remote user of
メディアは、複数のユーザによって様々な方法で同時に消費されてよい。様々な実施形態では、ストリーミングビデオ又はその他のメディアコンテンツは、複数のコンピューティングデバイス(例えば100、112、114、128)間で同期されて、全てのユーザが同時に同じコンテンツを見ることができるようにされてよい。メディアコンテンツは様々な方法で配信されてよい。幾つかの実施形態では、第1のユーザが、メディアコンテンツを有していてよく、それを他のユーザに提供してよい。例えば、コンピューティングデバイス100のユーザは、ストリーミングビデオのアカウントを有してよく(例えば、オンデマンドビデオストリームのサブスクリプション)、及び、そのストリームのコピーを遠隔コンピューティングデバイス(例えば112、114、128)に転送してよい。そのような場合には、第1のユーザのコンピューティングデバイスが、ビデオストリームの自身の再生に遅延を挿入する場合があり、これにより、遠隔コンピューティングデバイスのビデオストリーム再生の前に行うことができない場合がある。
Media may be consumed simultaneously by multiple users in a variety of ways. In various embodiments, streaming video or other media content is synchronized between multiple computing devices (eg, 100, 112, 114, 128) so that all users can view the same content at the same time. May be. Media content may be distributed in various ways. In some embodiments, the first user may have media content and may provide it to other users. For example, a user of the
他の実施形態では、メディアコンテンツは、中央に位置していてよく(例えば、コンテンツサーバに)、コンピューティングデバイスが個々にコンテンツサーバに接続して、ストリーミングを受けて良い。そのような場合には、コンピューティングデバイスは、互いに、同期信号を交換し合って、各ユーザが同じコンテンツを同時に見ることを保証してよい。幾つかの実施形態では、ユーザがコンピューティングデバイス100上でのメディアコンテンツの再生を一時停止した場合には、コンテンツの再生は、他の参加しているコンピューティングデバイス(例えば遠隔コンピューティングデバイス112、114、128)においても一時停止される。
In other embodiments, the media content may be centrally located (eg, to a content server) and computing devices may individually connect to the content server and receive streaming. In such cases, the computing devices may exchange synchronization signals with each other to ensure that each user watches the same content simultaneously. In some embodiments, if the user pauses playback of media content on
様々な実施形態では、プライバシーメカニズムを利用してユーザのプライバシーを保護してよい。例えば、コンピューティングデバイス100のユーザは、コンピューティングデバイス100に、例えば遠隔コンピューティングデバイス(例えば112、114)に、遠隔コンピューティングデバイスにとってユーザのシルエット又は影のアニメーションをレンダリングするのに十分なビジュアルデータのみを提供するよう命令してよい。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、キャプチャされたビジュアルデータを提供しないように方向付けて良い。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、特定の期間中のみビジュアルデータをキャプチャするよう、及び/又は、ビジュアルデータを他の期間中にはキャプチャ、変更/歪曲しないように方向付けて良い。
In various embodiments, a privacy mechanism may be utilized to protect user privacy. For example, the user of the
幾つかの実施形態では、コンピューティングデバイス100は、1又は複数の画像処理フィルタを利用して、遠隔コンピューティングデバイス上にレンダリングされたユーザのアニメーションを、認識不可能としたり、及び/又は、完全なレンダリング未満のものにしたりしてよい。例えば、コンピューティングデバイス100のカメラ104がキャプチャするビジュアルデータは、1又は複数の画像処理フィルタを通過して、ボケさせられたり、画素化(pixelize)されたり、又は、ビジュアルデータを変更させられたりしてよい。幾つかの実施形態では、ユーザは、コンピューティングデバイス100を、幾つかのフレームをキャプチャされたビジュアルデータから取り除くよう、結果生じるアニメーションに低減されたフレームレートを有させるよう、方向付けて良い。これに加えて又はこれに代えて、コンピューティングデバイス100は、カメラ104のサンプリングレートを低減させて、より粗いビジュアルデータをキャプチャしてよい。
In some embodiments, the
幾つかの実施形態では、コンピューティングデバイス100は、例えば遠隔コンピューティングデバイス(例えば112、114)から受信した命令に呼応して、遠隔ユーザのプライバシーを保護するよう構成されてよい。例えば、コンピューティングデバイス100は、さもなくば完全にレンダリング可能な、遠隔ユーザを表すビジュアルデータを変更して(例えば画像処理フィルタを通すことにより)、遠隔ユーザの結果生じるアニメーションが、認識不可能となるよう、又は完全なレンダリング未満となるように構成してよい。
In some embodiments, the
様々な実施形態では、ユーザは、1又は複数の遠隔ユーザに対してトラステッドステータスを割り当てて良い。これらの遠隔ユーザは、この後で、ユーザの連絡先の1つとして考えられてよい。ユーザの連絡先の1つが、同時メディアコンテンツ視聴セッションに参加又は再度参加するとき、連絡先のアニメーションが現れたり、再度アニメートされたり、又はその外観が変更されてよい。ユーザの連絡先の1つが、同時メディアコンテンツ視聴セッションを離れると、連絡先のアニメーションが消え、うつぶせになり、又は、外観が変更されてよい。 In various embodiments, a user may assign a trusted status to one or more remote users. These remote users may then be considered as one of the user's contacts. When one of the user's contacts joins or rejoins the simultaneous media content viewing session, the contact's animation may appear, be reanimated, or change its appearance. If one of the user's contacts leaves the simultaneous media content viewing session, the contact's animation may disappear, appear flattened, or the appearance may change.
幾つかの実施形態では、コンピューティングデバイス100は、宛先の遠隔コンピューティングデバイスの遠隔ユーザがトラステッドステータスを割り当てられたかに応じて、遠隔コンピューティングデバイスに送信されたビジュアルデータを条件付きで変更してよい。例えば、コンピューティングデバイス100は、「完全な」又は変更されていないビジュアルデータを、ユーザの連絡先に、又は、他の連絡先より更に高いトラステッドステータスを割り当てられた特定の連絡先(「近しい友人」)に送信してよい。コンピューティングデバイス100は、完全なビジュアルデータ未満のもの(例えばフレームが除去された、又は低減されたサンプリングレートでキャプチャされたビジュアルデータ)、又は変更されたビジュアルデータ(例えば、ボカされた、又は画素化された等)を、更に除去されたと考えられる連絡先(「知り合い」等)に送って良い。幾つかの実施形態では、コンピューティングデバイス100は、トラステッドステータスを割り当てられていないユーザの遠隔コンピューティングデバイスに、あまり、又は全くビジュアルデータを送信しなくてよく、又は、大きく変更されたビジュアルデータを送信してよい。
In some embodiments, the
様々な実施形態では、コンピューティングデバイス100は、コンピューティングデバイス100が、遠隔ユーザのアニメーションをメディアコンテンツの上に重ね合わせる前に、又は、遠隔コンピューティングデバイスに、ユーザのキャプチャされたビジュアルデータを提供する前に、遠隔コンピューティングデバイス(例えば112、114)とのハンドシェークプロシージャの実行を必要としてよい。例えば、又は、コンピューティングデバイス100のユーザは、コンピューティングデバイス100が遠隔ユーザのアニメーションをメディアコンテンツの上に重ね合わせる前に、遠隔ユーザを表すアイコン又は他のグラフィックをクリック又は選択して、又は、遠隔コンピューティングデバイスにビジュアルデータを提供するよう要求されてよい。幾つかの実施形態では、コンピューティングデバイス100は、何らハンドシェークの必要なく、ユーザの「一番近しい」連絡先(例えば、ユーザが比較的高いレベルのトラストを割り当てた連絡先)のアニメーションを重ね合わせて、又は、一番近しい連絡先に、ユーザのキャプチャされたビジュアルデータを提供してもよい。
In various embodiments, the
幾つかの実施形態では、画像処理は、プライバシー以外の目的のためにビジュアルデータに適用されてもよい。例えば、幾つかの実施形態では、背景の減算が、コンピューティングデバイス100により実装されることで、ユーザを「切り取り」、及び、背景をビジュアルデータから減算してよい。遠隔コンピューティングデバイスがビジュアルデータを用いて、ユーザのアニメーションを重ね合わせるとき、ユーザは、何ら背景なしに、隔離してレンダリングされてよい。
In some embodiments, image processing may be applied to visual data for purposes other than privacy. For example, in some embodiments, background subtraction may be implemented by computing
様々な実施形態では、重ね合わされたアニメーション(例えば第1のアニメーション124及び第2のアニメーション126等)が、2D及び/又は3Dでレンダリングされてよい。アニメーションを3Dでレンダリングする実施形態では、コンピューティングデバイス100は、遠隔ユーザのアニメーションの重ね合わせの上に視差補正を利用するよう構成されてよい。幾つかの3Dの実施形態では、キャプチャされたビジュアルデータ(アニメーションが基としている)が、ポイントクラウド、交点のリスト、三角のリスト等としてコンピューティングデバイス間で送信されてよい。
In various embodiments, the superimposed animation (eg,
コンピューティングデバイス100がアニメーションを3Dでレンダリングするよう構成されている実施形態では、コンピューティングデバイス100は、様々な方法でこれを行って良い。例えば幾つかの実施形態では、コンピューティングデバイス100は、3D形状を2Dスクリーン上にレンダリングしてよい。他の3Dの実施形態では、コンピューティングデバイス100が、3D形状を、立体表示上に3Dでレンダリングしてよく、ユーザが3Dメガネを装着してよい。
In embodiments where the
遠隔ユーザのアニメーションの重ね合わせは、様々な方法でディスプレイ102上にレンダリングされてよい。様々な実施形態では、遠隔ユーザのアニメーションの重ね合わせは、自身がディスプレイ102上に表示されている他のコンテンツの全て又は一部分の上に重ね合わせられるように、透明窓のなかにレンダリングされてよい。
The overlay of the remote user's animation may be rendered on the
図4は、コンピューティングデバイス100、第1の遠隔コンピューティングデバイス112、第2の遠隔コンピューティングデバイス114、及び/又は、第3の遠隔コンピューティングデバイス128等のコンピューティングデバイスの上に実装されてよい例示的な方法400を示す。ブロック402で、遠隔コンピューティングデバイスの遠隔ユーザのキャプチャされたビジュアルデータが受信されてよい(例えば、コンピューティングデバイス100によって、遠隔コンピューティングデバイスから)。ブロック404で、メディアコンテンツ(例えばビデオ、共有ウェブ閲覧セッション、スライドショー等)が、例えばコンピューティングデバイス100によって、遠隔コンピューティングデバイスの上のメディアコンテンツの提示と同時に、提示されてよい。
FIG. 4 is implemented on a computing device such as
ブロック406で、遠隔ユーザに対してコンピューティングデバイスのユーザが興味を示すこと又は興味を示さないことが、例えばコンピューティングデバイス100によって決定されてよい。例えば、コンピューティングデバイス100は、目トラッキングデバイス(例えば106)からコンピューティングデバイス100がユーザがどこを見ているかを決定するために利用してよいデータを受信してよい。遠隔ユーザのアニメーションが、その位置から特定の距離に、又はその範囲内にある場合には、例えばコンピューティングデバイス100によって、そのユーザが遠隔ユーザに興味があると決定してよい。
At
ブロック408で、遠隔ユーザのアニメーションが、例えばコンピューティングデバイス100によって、受信されたビジュアルデータに基づいて、メディアコンテンツ(例えば122)の上に重ねられて良い。ブロック410で、アニメーションは、例えばコンピューティングデバイス100によって、ユーザが興味があるという決定結果に基づいて、視覚的に強調又は強調解除されてよい。例えば、ユーザが遠隔ユーザに興味をもっている場合には、遠隔ユーザのアニメーションが完全にレンダリングされてよい。ユーザが遠隔ユーザに興味をもたない場合には、遠隔ユーザのアニメーションが、完全未満のレンダリングを行われて良い(例えば影により、より低いフレームレートで、画素化されて、等)。ブロック410の後で、もしも同時のメディア共有セッションがまだ継続中の場合には、方法400は、ブロック402に戻ってよい。セッションが終了すると、方法400はENDブロックに進んで良い。
At
図5は、コンピューティングデバイス100、第1の遠隔コンピューティングデバイス112、第2の遠隔コンピューティングデバイス114、及び/又は、第3の遠隔コンピューティングデバイス128等のコンピューティングデバイスの上に実装されてよい例示的な方法500を示す。ブロック502で、ビジュアルデータがキャプチャされてよい(例えばカメラ104によって)。ブロック504で、例えばコンピューティングデバイス100によって、コンピューティングデバイス100のユーザが同時にメディアコンテンツを消費したい1又は複数の遠隔ユーザが、トラステッドステータス(例えば連絡先)を有する遠隔ユーザのリストに含まれているかを決定してよい。
FIG. 5 is implemented on a computing device such as
答えがノーの場合には、ブロック506で、ユーザのキャプチャされたビジュアルデータが、例えばコンピューティングデバイス100によって、ユーザのプライバシーを維持するように変更されてよい。例えばビジュアルデータは、1又は複数の画像処理フィルタ(例えばボカすフィルタ、画素化フィルタ)を通して供給されてよく、又は、遠隔コンピューティングデバイス上に結果生じるアニメーションを、認識不可能とし、歪曲し、及び/又は完全に現れないように変更されてよい。ブロック508で、変更されたビジュアルデータが、例えばコンピューティングデバイス100によって、遠隔コンピューティングデバイス(例えば112、114、128)に送信されてよい。ブロック508の後に、もしも同時のメディア共有セッションがまだ継続中の場合には、方法500はブロック502に戻って良い。セッションが終了している場合には、方法500はENDブロックに進んで良い。
If the answer is no, at
ブロック504における答えがYESの場合には、ブロック510で、例えばコンピューティングデバイス100によって、ユーザがプライバシーを望んでいるかを決定してよい。例えばコンピューティングデバイス100は、プライバシーフラグがセットされているか、又は、現在の時点が、ユーザがプライバシーを望むことを示した期間内に含まれているか、を決定してよい。ユーザがプライバシーを望んでいる場合には、方法500はブロック506に進んでよく、ユーザのプライバシーを保護るために、ビジュアルデータを、送信前に変更してよい。ブロック510における答えがNOである場合には、偏向されていないビジュアルデータは、例えばコンピューティングデバイス100によって、ブロック508で、1又は複数の遠隔コンピューティングデバイス(例えば112、114m128)に送信されてよい。
If the answer in
図6は、様々な実施形態における例示的なコンピューティングデバイス600を示す。コンピューティングデバイス600は、複数のコンポーネント、プロセッサ604、及び少なくとも1つの通信チップ606を含んでよい。様々な実施形態では、プロセッサ604がプロセッサコアであってよい。様々な実施形態では、少なくとも1つの通信チップ606も、プロセッサ604に物理的又は電気的に連結されてよい。更なる実装例では、通信チップ606が、プロセッサ604の一部分であってよい。様々な実施形態では、コンピューティングデバイス600が、プリント回路基板(「PCB」)602に含まれてよい。これらの実施形態では、プロセッサ604及び通信チップ606が、この上に配置されてよい。別の実施形態では、様々なコンポーネントが、PCB602を利用することなく連結されてよい。
FIG. 6 illustrates an
その用途に応じて、コンピューティングデバイス600は、PCB602に物理的及び電気的に連結されていてもいなくてもよい他のコンポーネントを含んで良い。これらの他のコンポーネントには、これらに限定はされないが、揮発性メモリ(例えばダイナミックランダムアクセスメモリ608、「DRAM」とも称される)、不揮発性メモリ(例えばリードオンリメモリ610、「ROM」とも称される)、フラッシュメモリ612、グラフィックスプロセッサ614、デジタル信号プロセッサ(不図示)、暗号化プロセッサ(crypto processor)(不図示)、入出力(「I/O」)コントローラ616、アンテナ618、ディスプレイ(不図示)、タッチスクリーンディスプレイ620、タッチスクリーンコントローラ622、バッテリ624、オーディオcodec(不図示)、ビデオcodec(不図示)、グローバルポジショニングシステム(「GPS」)デバイス628、コンパス630(不図示)、加速度計(不図示)、ジャイロスコープ(不図示)、スピーカ632、カメラ634、及び大容量記憶装置(例えばハードディスクドライブ、固体ドライブ、コンパクトディスク(「CD」)、デジタルバーサタイルディスク(「DVD」)等)(不図示)等を含んで良い。様々な実施形態では、プロセッサ604が、他のコンポーネントと同じダイに集積されて、システムオンチップ(「SoC」)が形成されてよい。
Depending on its application,
様々な実施形態では、揮発性メモリ(DRAM608)、不揮発性メモリ(ROM610)、フラッシュメモリ612、及び、大容量記憶装置が、プロセッサ604が実行されることに呼応して、コンピューティングデバイス600に、方法400及び/又は500の全ての又は選択された態様を実行させるよう構成されたプログラミング命令を含んでも良い。例えば、揮発性メモリ(DRAM608)、不揮発性メモリ(ROM610)、フラッシュメモリ612、及び、大容量記憶装置等のメモリコンポーネントの1又は複数が、コンピューティングデバイス600に、方法400及び/又は方法500の全て又は選択された態様等の開示される技術を実行させるよう構成された(図6では制御モジュール636として描かれている)命令の一次的な及び/又は永続的なコピーを含んでも良い。
In various embodiments, volatile memory (DRAM 608), non-volatile memory (ROM 610), flash memory 612, and mass storage may be added to
通信チップ606は、コンピューティングデバイス600へ/からのデータの転送のための有線及び/又は無線通信を可能としてよい。「無線」という文言及びこの派生語は、データを、固体媒体を介して変調された電磁放射を利用して通信することができる、回路、デバイス、システム、方法、技術、通信チャネル等を記載するために利用されてよい。文言は、関連するデバイスが、有線を全く含まないことを示唆してはいないが、幾つかの実施形態では含まない場合もある。通信チップ606は、これらに限定されるものではないが、IEEE 802.1 1 ("WiFi"), IEEE 802.16 ("WiMAX"), IEEE 702.20, ロングタームエボリューション ("LTE"), General Packet Radio Service (汎用パケット無線サービス:"GPRS"), Evolution Data Optimized (進化データ最適化:"Ev-DO"), Evolved High Speed Packet Access (進化した高速パケットアクセス:"HSPA+"), Evolved High Speed Downlink Packet Access (進化した高速ダウンリンクパケットアクセス:"HSDPA+"), Evolved High Speed Uplink Packet Access (進化した高速アップリンクパケットアクセス:"HSUPA+"), Global System for Mobile Communications (モバイル通信のためのグローバルシステム"GSM(登録商標)"), Enhanced Data rates for GSM(登録商標) Evolution (GSM(登録商標)進化のための進化したデータレート:"EDGE"),符号分割多重アクセス方式("CDMA"),時分割多元接続("TDMA"), Digital Enhanced Cordless Telecommunications (デジタル進化したコードレス電話通信:"DECT"), Bluetooth(登録商標), これらの派生語、及び、3G, 4G, 5G 及びこれ以上として指定されている任意の他の無線プロトコルを含む、複数の無線規格又はプロトコルのいずれかを実装してよい。コンピューティングデバイス600は、複数の通信チップ606を含んで良い。
例えば第1の通信チップ606は、Wi-Fi 及びBluetooth(登録商標)等のより短距離の無線通信専用であってよく、及び、第2の通信チップ606は、GPS, EDGE, GPRS, CDMA, WiMAX, LTE, Ev-DOその他等の、より長距離の無線通信専用であってよい。
For example, the
様々な実装例では、コンピューティングデバイス600は、ラップトップ、ネットブック、ノートブック、ウルトラブック、スマートフォン、コンピューティングタブレット、携帯情報端末(「PDA」)、ウルトラモバイルPC、携帯電話、デスクトップコンピュータ、サーバ、プリンタ、スキャナ、モニタ、セットトップボックス、エンターテインメントコントロールユニット(例えばゲームコンソール)、デジタルカメラ、携帯音楽プレーヤ、又は、デジタルビデオレコーダであってよい。更なる実装例では、コンピューティングデバイス600は、データを処理する任意の他の電子デバイスであってよい。
In various implementations, the
装置、コンピュータ実装された方法、システム、デバイス、及びコンピュータ可読媒体は、ここでは、第1のコンピューティングデバイスの第1のユーザ及び第2のコンピューティングデバイスの第2のユーザによるメディアコンテンツの同時消費を促進するよう記載されている。様々な実施形態では、促進は、第2のコンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、第1のコンピューティングデバイス上に提示されているメディアコンテンツの上への重ね合わせを含んでよい。様々な実施形態では、アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調されてよい。様々な実施形態では、第1のユーザの興味の決定は、第1のコンピューティングデバイスに関する目トラッキング入力デバイスから受信したデータに基づいてよい。 The apparatus, computer-implemented method, system, device, and computer-readable medium herein include simultaneous consumption of media content by a first user of a first computing device and a second user of a second computing device. Has been described to promote. In various embodiments, the promotion is presented on the first computing device of the second user's animation based on the second user's captured visual data received from the second computing device. May include overlays on top of the media content being played. In various embodiments, the animation may be visually enhanced when it is determined that the first user is interested in the second user. In various embodiments, the determination of the first user's interest may be based on data received from the eye tracking input device for the first computing device.
様々な実施形態では、第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、第1のコンピューティングデバイス上に提示されたメディアコンテンツの上に、第3のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調されないようにしてよい。様々な実施形態では、第1のコンピューティングデバイスによって、影で、第3のユーザのアニメーションの重ね合わせをレンダリングして、第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにしてよい。 In various embodiments, media content presented on the first computing device when it is determined that the first user is interested in the second user or not interested in the third user. On top of this, the superimposition of the third user's animation on the third computing device may not be visually enhanced. In various embodiments, the first computing device may render the overlay of the third user's animation with a shadow so as not to visually enhance the overlay of the third user's animation. .
様々な実施形態では、第2のユーザのアニメーションの重ね合わせは、第1のコンピューティングデバイスのディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含んでよい。様々な実施形態では、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用してよい。 In various embodiments, the overlay of the second user's animation may include an overlay of the second user's animation adjacent to the bottom of the display of the first computing device. In various embodiments, parallax correction for the overlay of the second user's animation may be utilized.
様々な実施形態では、第2のユーザの音声のテキストマニフェステーションを、メディアコンテンツの上に重ね合わせてよい。様々な実施形態では、第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信した音声対応テキストデータ、又は第2のコンピューティングデバイスから受信したオーディオデータに基づいていてよい。 In various embodiments, a second user's audio text manifest station may be superimposed over the media content. In various embodiments, an audio text manifest station by a second user may be based on audio-enabled text data received from a second computing device or audio data received from a second computing device.
様々な実施形態では、第2のユーザのアニメーションの重ね合わせは、透明窓内にレンダリングされてよい。 In various embodiments, the overlay of the second user's animation may be rendered in a transparent window.
様々な実施形態では、少なくとも部分的に、第1のユーザがトラステッドステータスを第2のユーザに割り当てたかに基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更してよい。様々な実施形態では、第1のユーザのキャプチャされたビジュアルデータを第2のコンピューティングデバイスに送信してよい。様々な実施形態では、キャプチャされたビジュアルデータは、第2のコンピューティングデバイスに、第2のコンピューティングデバイスの上に表示されているメディアコンテンツの上に第1のユーザのアニメーションを重ね合わせさせるよう構成されてよい。 In various embodiments, the first user's captured visual data may be conditionally modified based at least in part on whether the first user has assigned a trusted status to the second user. In various embodiments, the first user's captured visual data may be transmitted to the second computing device. In various embodiments, the captured visual data causes the second computing device to superimpose the first user's animation over the media content displayed on the second computing device. May be configured.
様々な実施形態では、条件付きで変更する段階は、第1のユーザのキャプチャされたビジュアルデータに画像処理を実行する段階を有し、画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含んでよい。様々な実施形態では、第2のユーザに第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、第1のユーザのキャプチャされたビジュアルデータを変更する段階を有してよい。 In various embodiments, the step of conditionally changing comprises performing image processing on the first user's captured visual data, the image processing comprising blurring, pixelation, background subtraction, or Frame deletion may be included. Various embodiments may include altering the first user's captured visual data in response to a determination that the second user is not assigned a trusted status from the first user.
様々な実施形態では、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を自動的にクロップしてよい。様々な実施形態では、第1のユーザ又は第2のユーザが表されているビジュアルデータの領域が、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を動的にクロップしてよい。 In various embodiments, at least a portion of the captured visual data of the first user or the second user may be automatically cropped. In various embodiments, the area of visual data in which the first user or the second user is represented occupies less than a predetermined portion of the entire captured visual data of the first user or the second user. Based on the determination, the at least a portion of the captured visual data of the first user or the second user may be dynamically cropped.
特定の実施形態が例示の目的のために記載されているが、本願は、ここに説明する実施形態の適合例又は変形例のいずれをもカバーすることを意図している。従って、ここに記載される実施形態は請求項によってのみ限定されることが明確に意図されている。 Although specific embodiments have been described for purposes of illustration, this application is intended to cover any adaptations or variations of the embodiments described herein. Accordingly, it is expressly intended that the embodiments described herein be limited only by the claims.
開示において「或る(a)」「第1の」エレメントまたはこの均等物が記載されている場合、これらの開示は、1又は複数のこれらのエレメントを含み、2又はそれ以上のこれらのエレメントを要求したり排除したりしない。更に、特定のエレメントについて序数詞(例えば第1、第2、又は第3)が利用されることでエレメント間を区別しているが、そのような記載は、特に明記しない限り、これらのエレメントが限定された数必要であると示したり示唆したりしているわけではなく、これらのエレメントの特定の位置又は順序を示しているわけでもない。 Where the disclosure includes “a”, “first” elements, or equivalents thereof, these disclosures include one or more of these elements and include two or more of these elements Do not require or eliminate. In addition, ordinal numbers (eg, first, second, or third) are used for specific elements to distinguish between elements, but such descriptions are limited to these elements unless otherwise specified. It does not indicate or suggest that a particular number is necessary, nor does it indicate a particular position or order of these elements.
開示において「或る(a)」「第1の」エレメントまたはこの均等物が記載されている場合、これらの開示は、1又は複数のこれらのエレメントを含み、2又はそれ以上のこれらのエレメントを要求したり排除したりしない。更に、特定のエレメントについて序数詞(例えば第1、第2、又は第3)が利用されることでエレメント間を区別しているが、そのような記載は、特に明記しない限り、これらのエレメントが限定された数必要であると示したり示唆したりしているわけではなく、これらのエレメントの特定の位置又は順序を示しているわけでもない。ここに本発明の実施形態の例を項目として示す。
[項目1]
第1のユーザが利用する第1のコンピューティングデバイスによって、第2のコンピューティングデバイスから受信された第2のユーザの、キャプチャされたビジュアルデータを受信する段階と、
第2のコンピューティングデバイスの上のメディアコンテンツの提示と同時に第1のコンピューティングデバイス上にメディアコンテンツを提示する段階と、
第1のコンピューティングデバイスによって、第1のユーザが第2のコンピューティングデバイスの第2のユーザに対して興味を示すか興味を示さないかを決定する段階と、
第1のコンピューティングデバイスによって、第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションを、第1のコンピューティングデバイスの上に提示されているメディアコンテンツの上に重ねる段階と、
第1のコンピューティングデバイスによって、決定の結果に基づいてアニメーションを視覚的に強調する、又は強調しない段階と
を備える、コンピュータ実装された方法。
[項目2]
第1のコンピューティングデバイスのユーザが興味を示すか興味を示さないかを決定する段階は、第1のコンピューティングデバイスによって、目トラッキングデバイスからの目トラッキングデータを受信して、目トラッキングデータに基づいて、ユーザが見ている場所を決定する段階を有する、項目1に記載のコンピュータ実装された方法。
[項目3]
第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、第1のコンピューティングデバイス上に提示されたメディアコンテンツの上で、第3のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目4]
第1のコンピューティングデバイスによって、影で、第3のユーザのアニメーションの重ね合わせをレンダリングして、第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする段階を更に備える、項目3に記載のコンピュータ実装された方法。
[項目5]
第2のユーザのアニメーションの重ね合わせは、第1のコンピューティングデバイスのディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含む、項目1に記載のコンピュータ実装された方法。
[項目6]
第1のコンピューティングデバイスによって、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用する段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目7]
第1のコンピューティングデバイスによって、第2のユーザの音声のテキストマニフェステーションを、第1のコンピューティングデバイスの上に提示されているメディアコンテンツの上に重ね合わせる段階を更に備える、項目1に記載のコンピュータ実装された方法。
[項目8]
第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信した音声対応テキストデータに基づいている、項目7に記載のコンピュータ実装された方法。
[項目9]
第2のユーザによる音声のテキストマニフェステーションは、第2のコンピューティングデバイスから受信したオーディオデータに基づいている、項目7に記載のコンピュータ実装された方法。
[項目10]
第2のユーザのアニメーションは、透明窓内にレンダリングされる、項目1に記載のコンピュータ実装された方法。
[項目11]
第1のコンピューティングデバイスによって、少なくとも部分的に、第1のユーザがトラステッドステータスを第2のユーザに割り当てたかに基づいて、第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階と、
第1のコンピューティングデバイスによって、ビジュアルデータを第2のコンピューティングデバイスに送信する段階と
を更に備え、
キャプチャされたビジュアルデータは、第2のコンピューティングデバイスに、第2のコンピューティングデバイスの上に表示されているメディアコンテンツの上に第1のユーザのアニメーションを重ね合わせさせる、項目1に記載のコンピュータ実装された方法。
[項目12]
第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階は、キャプチャされたビジュアルデータに画像処理を実行する段階を有し、
画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含む、項目11に記載のコンピュータ実装された方法。
[項目13]
第1のユーザのキャプチャされたビジュアルデータを条件付きで変更する段階は、第2のユーザに第1のユーザからトラステッドステータスが割り当てられていないという決定に呼応して、ビジュアルデータを変更する段階を有する、項目11に記載のコンピュータ実装された方法。
[項目14]
第1のコンピューティングデバイスによって、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を自動的にクロップする段階を更に備える、項目11に記載のコンピュータ実装された方法。
[項目15]
第1のユーザ又は第2のユーザが表されているビジュアルデータの領域が、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータ全体の所定の部分未満を専有しているという決定に基づいて、第1のユーザ又は第2のユーザのキャプチャされたビジュアルデータの少なくとも一部を動的にクロップする段階を更に備える、項目14に記載のコンピュータ実装された方法。
[項目16]
コンピューティングデバイス上で実行されることに呼応して、項目1から15のいずれか一項に記載のコンピュータ実装された方法をコンピューティングデバイスに実行させる複数の命令を備える少なくとも1つの機械可読媒体。
[項目17]
項目1から15のいずれか一項に記載のコンピュータ実装された方法を実行するための手段を備える装置。
[項目18]
1又は複数のプロセッサと、
1又は複数のプロセッサに動作可能に連結されたメモリと、
ディスプレイと、
メモリ内に含まれ、1又は複数のプロセッサにより作動されて、システムの第1のユーザと遠隔コンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進する制御モジュールと
を備え、
促進することは、遠隔コンピューティングデバイスから受信された第2のユーザのキャプチャされたビジュアルデータに基づいて、第2のユーザのアニメーションの、ディスプレイ上に提示されているメディアコンテンツの上への重ね合わせを含み、
アニメーションは、第1のユーザが第2のユーザに興味を示すと決定されると、視覚的に強調される、システム。
[項目19]
目トラッキングデバイスを更に備え、
第1のユーザの興味に関する決定は、目トラッキングデバイスから受信したデータに基づく、項目18に記載のシステム。
[項目20]
遠隔コンピューティングデバイスは、第1の遠隔コンピューティングデバイスであり、
制御モジュールは更に、第1のユーザが第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、システム上に提示されたメディアコンテンツの上に、第2のコンピューティングデバイスの第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする、項目18に記載のシステム。
[項目21]
制御モジュールは更に、影で、第3のユーザのアニメーションの重ね合わせをレンダリングする、項目20に記載のシステム。
[項目22]
第2のユーザのアニメーションの重ね合わせは、ディスプレイの底辺に隣接する第2のユーザのアニメーションの重ね合わせを含む、項目18から21のいずれか一項に記載のシステム。
[項目23]
制御モジュールは更に、第2のユーザのアニメーションの重ね合わせに対する視差補正を利用する、項目18から21のいずれか一項に記載のシステム。
[項目24]
制御モジュールは更に、第2のユーザの音声のテキストマニフェステーションを、ディスプレイの上に提示されているメディアコンテンツの上に重ね合わせる、項目18から21のいずれか一項に記載のシステム。
[項目25]
タッチスクリーンディスプレイを更に備える、項目18から21のいずれか一項に記載のシステム。
Where the disclosure includes “a”, “first” elements, or equivalents thereof, these disclosures include one or more of these elements and include two or more of these elements Do not require or eliminate. In addition, ordinal numbers (eg, first, second, or third) are used for specific elements to distinguish between elements, but such descriptions are limited to these elements unless otherwise specified. It does not indicate or suggest that a particular number is necessary, nor does it indicate a particular position or order of these elements. Here, examples of embodiments of the present invention are shown as items.
[Item 1]
Receiving captured visual data of a second user received from a second computing device by a first computing device utilized by the first user;
Presenting the media content on the first computing device simultaneously with the presentation of the media content on the second computing device;
Determining by the first computing device whether the first user is interested or not interested in the second user of the second computing device;
Overlaying the second user's animation over the media content presented on the first computing device based on the second user's captured visual data by the first computing device. When,
Visually enhancing or not enhancing the animation based on the result of the decision by the first computing device;
A computer-implemented method comprising:
[Item 2]
The step of determining whether the user of the first computing device is interested or not interested receives, by the first computing device, eye tracking data from the eye tracking device and is based on the eye tracking data. The computer-implemented method of item 1, further comprising the step of determining where the user is looking.
[Item 3]
If it is determined that the first user is not interested in the second user or not interested in the third user, the third user is presented with the third content on the media content presented on the first computing device. 2. The computer-implemented method of item 1, further comprising the step of not visually enhancing the superimposition of the third user's animation on the computing device.
[Item 4]
Rendering the third user's animation overlay with shadows by the first computing device so as not to visually enhance the third user's animation overlay, item 3 The computer-implemented method described in 1.
[Item 5]
The computer-implemented method of item 1, wherein overlaying the second user's animation includes overlaying the second user's animation adjacent to the bottom of the display of the first computing device.
[Item 6]
The computer-implemented method of item 1, further comprising utilizing a parallax correction for superimposition of the second user's animation by the first computing device.
[Item 7]
The item of claim 1, further comprising: overlaying a second user's audio text manifest station on the media content presented on the first computing device by the first computing device. Computer implemented method.
[Item 8]
8. The computer-implemented method of item 7, wherein the audio text manifest station by the second user is based on the audio-enabled text data received from the second computing device.
[Item 9]
8. The computer-implemented method of item 7, wherein the audio text manifest station by the second user is based on audio data received from the second computing device.
[Item 10]
The computer-implemented method of item 1, wherein the second user's animation is rendered in a transparent window.
[Item 11]
Conditionally modifying the captured visual data of the first user based on at least in part by the first computing device assigning the trusted status to the second user by the first computing device; ,
Transmitting visual data by a first computing device to a second computing device;
Further comprising
The computer of item 1, wherein the captured visual data causes a second computing device to superimpose a first user's animation on the media content displayed on the second computing device. Implemented method.
[Item 12]
Conditionally changing the first user's captured visual data comprises performing image processing on the captured visual data;
Item 12. The computer-implemented method of item 11, wherein the image processing includes blurring, pixelation, background subtraction, or frame deletion.
[Item 13]
Conditionally changing the first user's captured visual data comprises changing the visual data in response to a determination that the second user has not been assigned a trusted status from the first user. 12. The computer implemented method of item 11, comprising:
[Item 14]
12. The computer-implemented method of item 11, further comprising: automatically cropping at least a portion of the captured visual data of the first user or the second user by the first computing device.
[Item 15]
Based on the determination that the area of visual data representing the first user or the second user occupies less than a predetermined portion of the entire captured visual data of the first user or the second user. The computer-implemented method of claim 14, further comprising dynamically cropping at least a portion of the captured visual data of the first user or the second user.
[Item 16]
16. At least one machine-readable medium comprising a plurality of instructions that, when executed on a computing device, cause the computing device to perform the computer-implemented method of any one of items 1-15.
[Item 17]
An apparatus comprising means for performing the computer-implemented method of any one of items 1 to 15.
[Item 18]
One or more processors;
A memory operably coupled to one or more processors;
Display,
A control module included in memory and operated by one or more processors to facilitate simultaneous consumption of media content by a first user of the system and a second user of a remote computing device;
With
Facilitating superimposition of the second user's animation on the media content presented on the display based on the second user's captured visual data received from the remote computing device. Including
The animation is visually enhanced when it is determined that the first user is interested in the second user.
[Item 19]
An eye tracking device,
19. The system of item 18, wherein the determination regarding the first user's interest is based on data received from the eye tracking device.
[Item 20]
The remote computing device is a first remote computing device;
The control module further determines the second user on the media content presented on the system when it is determined that the first user is interested in the second user or not interested in the third user. 19. The system of item 18, wherein the system does not visually enhance the superimposition of the third user's animation on the computing device.
[Item 21]
21. The system of item 20, wherein the control module further renders a third user animation overlay in the shadow.
[Item 22]
Item 22. The system of any of items 18 through 21, wherein the second user animation overlay includes a second user animation overlay adjacent to the bottom of the display.
[Item 23]
22. The system according to any one of items 18 to 21, wherein the control module further utilizes a parallax correction for the overlay of the second user's animation.
[Item 24]
Item 22. The system of any of items 18-21, wherein the control module further superimposes a second user's audio text manifest station on the media content being presented on the display.
[Item 25]
22. A system according to any one of items 18 to 21, further comprising a touch screen display.
Claims (25)
前記第2のコンピューティングデバイスの上のメディアコンテンツの提示と同時に前記第1のコンピューティングデバイス上に前記メディアコンテンツを提示する段階と、
前記第1のコンピューティングデバイスによって、前記第1のユーザが前記第2のコンピューティングデバイスの前記第2のユーザに対して興味を示すか興味を示さないかを決定する段階と、
前記第1のコンピューティングデバイスによって、前記第2のユーザの前記キャプチャされたビジュアルデータに基づいて、前記第2のユーザのアニメーションを、前記第1のコンピューティングデバイスの上に提示されている前記メディアコンテンツの上に重ねる段階と、
前記第1のコンピューティングデバイスによって、前記決定の結果に基づいて前記アニメーションを視覚的に強調する、又は強調しない段階と
を備える、コンピュータ実装された方法。 Receiving captured visual data of a second user received from a second computing device by a first computing device utilized by the first user;
Presenting the media content on the first computing device simultaneously with presenting the media content on the second computing device;
Determining by the first computing device whether the first user is interested in or not interested in the second user of the second computing device;
The media being presented on the first computing device by the first computing device based on the captured visual data of the second user with the second user's animation Overlaying the content,
Visually emphasizing or not emphasizing the animation based on a result of the determination by the first computing device.
前記第1のコンピューティングデバイスによって、前記ビジュアルデータを前記第2のコンピューティングデバイスに送信する段階と
を更に備え、
前記キャプチャされたビジュアルデータは、前記第2のコンピューティングデバイスに、前記第2のコンピューティングデバイスの上に表示されている前記メディアコンテンツの上に前記第1のユーザのアニメーションを重ね合わせさせる、請求項1に記載のコンピュータ実装された方法。 The first computing device conditionally captures the first user's captured visual data based at least in part on whether the first user has assigned a trusted status to the second user. Change stage,
Sending the visual data to the second computing device by the first computing device; and
The captured visual data causes the second computing device to superimpose the first user's animation over the media content displayed on the second computing device. Item 2. A computer-implemented method according to Item 1.
前記画像処理は、ボケさせること、画素化、背景減算、又はフレーム削除を含む、請求項11に記載のコンピュータ実装された方法。 Conditionally changing the captured visual data of the first user comprises performing image processing on the captured visual data;
The computer-implemented method of claim 11, wherein the image processing includes blurring, pixelation, background subtraction, or frame deletion.
前記1又は複数のプロセッサに動作可能に連結されたメモリと、
ディスプレイと、
前記メモリ内に含まれ、前記1又は複数のプロセッサにより作動されて、システムの第1のユーザと遠隔コンピューティングデバイスの第2のユーザとによるメディアコンテンツの同時消費を促進する制御モジュールと
を備え、
前記促進することは、前記遠隔コンピューティングデバイスから受信された前記第2のユーザのキャプチャされたビジュアルデータに基づいて、前記第2のユーザのアニメーションの、前記ディスプレイ上に提示されている前記メディアコンテンツの上への重ね合わせを含み、
前記アニメーションは、前記第1のユーザが前記第2のユーザに興味を示すと決定されると、視覚的に強調される、システム。 One or more processors;
A memory operably coupled to the one or more processors;
Display,
A control module included in the memory and operated by the one or more processors to facilitate simultaneous consumption of media content by a first user of the system and a second user of a remote computing device;
The promoting the media content being presented on the display of the second user's animation based on the captured visual data of the second user received from the remote computing device. Including overlays on top of
The system, wherein the animation is visually enhanced when it is determined that the first user is interested in the second user.
前記第1のユーザの興味に関する決定は、前記目トラッキングデバイスから受信したデータに基づく、請求項18に記載のシステム。 An eye tracking device,
The system of claim 18, wherein the determination regarding the first user's interest is based on data received from the eye tracking device.
前記制御モジュールは更に、前記第1のユーザが前記第2のユーザに興味を示す、又は、第3のユーザに興味を示さないと決定されると、前記システム上に提示された前記メディアコンテンツの上に、第2のコンピューティングデバイスの前記第3のユーザのアニメーションの重ね合わせを視覚的に強調しないようにする、請求項18に記載のシステム。 The remote computing device is a first remote computing device;
The control module further determines the media content presented on the system when it is determined that the first user is not interested in the second user or not interested in the third user. 19. The system of claim 18, wherein the system does not visually enhance the overlay of the third user's animation on a second computing device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/532,612 US9456244B2 (en) | 2012-06-25 | 2012-06-25 | Facilitation of concurrent consumption of media content by multiple users using superimposed animation |
US13/532,612 | 2012-06-25 | ||
PCT/US2013/041854 WO2014003915A1 (en) | 2012-06-25 | 2013-05-20 | Facilitation of concurrent consumption of media content by multiple users using superimposed animation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015523001A true JP2015523001A (en) | 2015-08-06 |
JP6022043B2 JP6022043B2 (en) | 2016-11-09 |
Family
ID=49775155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015514091A Active JP6022043B2 (en) | 2012-06-25 | 2013-05-20 | Promote simultaneous consumption of media content by multiple users using superimposed animations |
Country Status (4)
Country | Link |
---|---|
US (5) | US9456244B2 (en) |
JP (1) | JP6022043B2 (en) |
CN (2) | CN104335242B (en) |
WO (1) | WO2014003915A1 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9361295B1 (en) | 2006-11-16 | 2016-06-07 | Christopher C. Andrews | Apparatus, method and graphical user interface for providing a sound link for combining, publishing and accessing websites and audio files on the internet |
US10296561B2 (en) | 2006-11-16 | 2019-05-21 | James Andrews | Apparatus, method and graphical user interface for providing a sound link for combining, publishing and accessing websites and audio files on the internet |
US9380410B2 (en) | 2011-04-04 | 2016-06-28 | Soundlink, Inc. | Audio commenting and publishing system |
CN103369289B (en) * | 2012-03-29 | 2016-05-04 | 深圳市腾讯计算机系统有限公司 | A kind of communication means of video simulation image and device |
US9456244B2 (en) * | 2012-06-25 | 2016-09-27 | Intel Corporation | Facilitation of concurrent consumption of media content by multiple users using superimposed animation |
US8867841B2 (en) * | 2012-08-08 | 2014-10-21 | Google Inc. | Intelligent cropping of images based on multiple interacting variables |
US8996616B2 (en) * | 2012-08-29 | 2015-03-31 | Google Inc. | Cross-linking from composite images to the full-size version |
US10871821B1 (en) * | 2015-10-02 | 2020-12-22 | Massachusetts Mutual Life Insurance Company | Systems and methods for presenting and modifying interactive content |
US10825058B1 (en) * | 2015-10-02 | 2020-11-03 | Massachusetts Mutual Life Insurance Company | Systems and methods for presenting and modifying interactive content |
US10939164B2 (en) * | 2016-05-10 | 2021-03-02 | Rovi Guides, Inc. | Method and system for transferring an interactive feature to another device |
US10140987B2 (en) * | 2016-09-16 | 2018-11-27 | International Business Machines Corporation | Aerial drone companion device and a method of operating an aerial drone companion device |
US10169850B1 (en) * | 2017-10-05 | 2019-01-01 | International Business Machines Corporation | Filtering of real-time visual data transmitted to a remote recipient |
WO2019127369A1 (en) * | 2017-12-29 | 2019-07-04 | 腾讯科技(深圳)有限公司 | Live broadcast sharing method, and related device and system |
CN108551587B (en) * | 2018-04-23 | 2020-09-04 | 刘国华 | Method, device, computer equipment and medium for automatically collecting data of television |
CN109327608B (en) * | 2018-09-12 | 2021-01-22 | 广州酷狗计算机科技有限公司 | Song sharing method, terminal, server and system |
WO2024059895A1 (en) * | 2022-09-23 | 2024-03-28 | Rodd Martin | Systems and methods of client-side video rendering |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003259336A (en) * | 2002-03-04 | 2003-09-12 | Sony Corp | Data generating method, data generating apparatus, data transmission method, video program reproducing apparatus, video program reproducing method, and recording medium |
JP2004112511A (en) * | 2002-09-19 | 2004-04-08 | Fuji Xerox Co Ltd | Display controller and method therefor |
JP2006197217A (en) * | 2005-01-13 | 2006-07-27 | Matsushita Electric Ind Co Ltd | Videophone and image data transmission method |
JP2008107895A (en) * | 2006-10-23 | 2008-05-08 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
JP2010200150A (en) * | 2009-02-26 | 2010-09-09 | Toshiba Corp | Terminal, server, conference system, conference method, and conference program |
WO2010138798A2 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Avatar integrated shared media selection |
US20120110052A1 (en) * | 2010-11-01 | 2012-05-03 | Google Inc. | Social circles in social networks |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7297856B2 (en) * | 1996-07-10 | 2007-11-20 | Sitrick David H | System and methodology for coordinating musical communication and display |
US6742083B1 (en) * | 1999-12-14 | 2004-05-25 | Genesis Microchip Inc. | Method and apparatus for multi-part processing of program code by a single processor |
US6559866B2 (en) * | 2001-05-23 | 2003-05-06 | Digeo, Inc. | System and method for providing foreign language support for a remote control device |
JP4503945B2 (en) * | 2003-07-04 | 2010-07-14 | 独立行政法人科学技術振興機構 | Remote observation equipment |
JP4848727B2 (en) | 2005-10-03 | 2011-12-28 | 日本電気株式会社 | Video distribution system, video distribution method, and video synchronization sharing apparatus |
EP2194509A1 (en) | 2006-05-07 | 2010-06-09 | Sony Computer Entertainment Inc. | Method for providing affective characteristics to computer generated avatar during gameplay |
FR2910770A1 (en) * | 2006-12-22 | 2008-06-27 | France Telecom | Videoconference device for e.g. TV, has light source illuminating eyes of local user viewing screen during communication with remote user, such that image sensor captures local user's image with reflection of light source on eyes |
CN101500125B (en) * | 2008-02-03 | 2011-03-09 | 突触计算机系统(上海)有限公司 | Method and apparatus for providing user interaction during displaying video on customer terminal |
FR2928805B1 (en) * | 2008-03-14 | 2012-06-01 | Alcatel Lucent | METHOD FOR IMPLEMENTING VIDEO ENRICHED ON MOBILE TERMINALS |
US9003315B2 (en) * | 2008-04-01 | 2015-04-07 | Litl Llc | System and method for streamlining user interaction with electronic content |
US20100115426A1 (en) | 2008-11-05 | 2010-05-06 | Yahoo! Inc. | Avatar environments |
US20100191728A1 (en) | 2009-01-23 | 2010-07-29 | James Francis Reilly | Method, System Computer Program, and Apparatus for Augmenting Media Based on Proximity Detection |
US20110202603A1 (en) * | 2010-02-12 | 2011-08-18 | Nokia Corporation | Method and apparatus for providing object based media mixing |
US20110234481A1 (en) | 2010-03-26 | 2011-09-29 | Sagi Katz | Enhancing presentations using depth sensing cameras |
US9582166B2 (en) * | 2010-05-16 | 2017-02-28 | Nokia Technologies Oy | Method and apparatus for rendering user interface for location-based service having main view portion and preview portion |
US8913056B2 (en) | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
US20120159527A1 (en) * | 2010-12-16 | 2012-06-21 | Microsoft Corporation | Simulated group interaction with multimedia content |
US9077846B2 (en) * | 2012-02-06 | 2015-07-07 | Microsoft Technology Licensing, Llc | Integrated interactive space |
US9197848B2 (en) * | 2012-06-25 | 2015-11-24 | Intel Corporation | Video conferencing transitions among a plurality of devices |
US9456244B2 (en) | 2012-06-25 | 2016-09-27 | Intel Corporation | Facilitation of concurrent consumption of media content by multiple users using superimposed animation |
US10034049B1 (en) * | 2012-07-18 | 2018-07-24 | Google Llc | Audience attendance monitoring through facial recognition |
US9094576B1 (en) * | 2013-03-12 | 2015-07-28 | Amazon Technologies, Inc. | Rendered audiovisual communication |
US9400553B2 (en) * | 2013-10-11 | 2016-07-26 | Microsoft Technology Licensing, Llc | User interface programmatic scaling |
-
2012
- 2012-06-25 US US13/532,612 patent/US9456244B2/en active Active
-
2013
- 2013-05-20 JP JP2015514091A patent/JP6022043B2/en active Active
- 2013-05-20 CN CN201380027047.0A patent/CN104335242B/en active Active
- 2013-05-20 CN CN201710450507.0A patent/CN107256136B/en active Active
- 2013-05-20 WO PCT/US2013/041854 patent/WO2014003915A1/en active Application Filing
-
2016
- 2016-09-26 US US15/276,528 patent/US10048924B2/en active Active
-
2018
- 2018-08-10 US US16/101,181 patent/US10956113B2/en active Active
-
2020
- 2020-12-23 US US17/133,468 patent/US11526323B2/en active Active
-
2022
- 2022-12-12 US US18/079,599 patent/US11789686B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003259336A (en) * | 2002-03-04 | 2003-09-12 | Sony Corp | Data generating method, data generating apparatus, data transmission method, video program reproducing apparatus, video program reproducing method, and recording medium |
JP2004112511A (en) * | 2002-09-19 | 2004-04-08 | Fuji Xerox Co Ltd | Display controller and method therefor |
JP2006197217A (en) * | 2005-01-13 | 2006-07-27 | Matsushita Electric Ind Co Ltd | Videophone and image data transmission method |
JP2008107895A (en) * | 2006-10-23 | 2008-05-08 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
JP2010200150A (en) * | 2009-02-26 | 2010-09-09 | Toshiba Corp | Terminal, server, conference system, conference method, and conference program |
WO2010138798A2 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Avatar integrated shared media selection |
US20120110052A1 (en) * | 2010-11-01 | 2012-05-03 | Google Inc. | Social circles in social networks |
Also Published As
Publication number | Publication date |
---|---|
US20190042178A1 (en) | 2019-02-07 |
CN104335242A (en) | 2015-02-04 |
US10048924B2 (en) | 2018-08-14 |
CN107256136A (en) | 2017-10-17 |
US20210117147A1 (en) | 2021-04-22 |
US11526323B2 (en) | 2022-12-13 |
WO2014003915A1 (en) | 2014-01-03 |
US20230185514A1 (en) | 2023-06-15 |
CN107256136B (en) | 2020-08-21 |
US9456244B2 (en) | 2016-09-27 |
US20170046114A1 (en) | 2017-02-16 |
US20130346075A1 (en) | 2013-12-26 |
US10956113B2 (en) | 2021-03-23 |
CN104335242B (en) | 2017-07-14 |
US11789686B2 (en) | 2023-10-17 |
JP6022043B2 (en) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6022043B2 (en) | Promote simultaneous consumption of media content by multiple users using superimposed animations | |
US20180240276A1 (en) | Methods and apparatus for personalized virtual reality media interface design | |
US11119719B2 (en) | Screen sharing for display in VR | |
TWI556639B (en) | Techniques for adding interactive features to videos | |
US20130002532A1 (en) | Method, apparatus, and computer program product for shared synchronous viewing of content | |
CN110537208B (en) | Head-mounted display and method | |
US20140270693A1 (en) | Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method | |
US20130002708A1 (en) | Method, apparatus, and computer program product for presenting interactive dynamic content in front of static content | |
US20220303503A1 (en) | Parameters for overlay handling for immersive teleconferencing and telepresence for remote terminals | |
US20140267870A1 (en) | Mixed media from multimodal sensors | |
JP6883225B2 (en) | Display control device, display control method and program | |
JP5238849B2 (en) | Electronic device, electronic device control method, and electronic device control program | |
US10757401B2 (en) | Display system and method for display control of a video based on different view positions | |
TWI774063B (en) | Horizontal/vertical direction control device for three-dimensional broadcasting image | |
JP2014041455A (en) | Image processing device, image processing method, and program | |
TWI836141B (en) | Live broadcasting method for real time three-dimensional image display | |
US20240073372A1 (en) | In-person participant interaction for hybrid event | |
TW202213990A (en) | Live broadcasting system for real time three-dimensional image display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6022043 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |