JP2014532330A - Strengthen video conferencing - Google Patents

Strengthen video conferencing Download PDF

Info

Publication number
JP2014532330A
JP2014532330A JP2014531822A JP2014531822A JP2014532330A JP 2014532330 A JP2014532330 A JP 2014532330A JP 2014531822 A JP2014531822 A JP 2014531822A JP 2014531822 A JP2014531822 A JP 2014531822A JP 2014532330 A JP2014532330 A JP 2014532330A
Authority
JP
Japan
Prior art keywords
virtual object
user
video conference
video
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014531822A
Other languages
Japanese (ja)
Inventor
セットン,エリック
Original Assignee
タンゴメ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/241,918 external-priority patent/US9544543B2/en
Application filed by タンゴメ,インコーポレイテッド filed Critical タンゴメ,インコーポレイテッド
Publication of JP2014532330A publication Critical patent/JP2014532330A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Abstract

第1の装置と第2の装置との間のテレビ会議を強化するための、コンピュータ実装方法。この方法は第1の装置において仮想オブジェクトを受信することを含み、仮想オブジェクトはテレビ会議を強化するように構成され、また仮想オブジェクトはイベントに具体的に関連する。この方法はまた、前記仮想オブジェクトを前記テレビ会議に組み込むことを含む。A computer-implemented method for enhancing a video conference between a first device and a second device. The method includes receiving a virtual object at a first device, the virtual object is configured to enhance a video conference, and the virtual object is specifically associated with an event. The method also includes incorporating the virtual object into the video conference.

Description

本出願は、「AUGMENTING A VIDEO CONFERENCE」という名称で2011年2月11日に出願され、本発明の譲受人に譲渡された係属中の米国特許出願第13/025,943号(代理人整理番号TNGO−008)の一部係属出願であり、本出願は、参照によってその全体が本明細書に組み込まれる。   This application is filed on February 11, 2011 under the name "AUGMENTING A VIDEO CONFERENCE" and is pending US Patent Application No. 13 / 025,943 (Attorney Docket No.) assigned to the assignee of the present invention. TNGO-008), a co-pending application, which is hereby incorporated by reference in its entirety.

テレビ会議の参加者は、音声/映像信号を互いに送信することによって、互いに通信する。例えば、参加者は、双方向の映像および音声送信を介して同時に対話することが可能である。しかしながら、参加者は、マイクロフォンによってキャプチャされるキャプチャされた音声、およびビデオカメラによってキャプチャされる映像信号に基づくのみでは、互いに通信を行おうとしていることを十分に表現することができない場合がある。   Video conference participants communicate with each other by transmitting audio / video signals to each other. For example, participants can interact simultaneously via interactive video and audio transmissions. However, participants may not be able to fully express that they are trying to communicate with each other based solely on the captured audio captured by the microphone and the video signal captured by the video camera.

要約すると、本著は第1の装置と第2の装置との間のテレビ会議を強化するためのコンピュータ実装方法を提供する。この方法は第1の装置において仮想オブジェクトを受信することを含み、仮想オブジェクトはテレビ会議を強化するように構成され、また仮想オブジェクトはイベントに具体的に関連する。この方法はまた前記仮想オブジェクトを前記テレビ会議に組み込むことを含む。   In summary, this book provides a computer-implemented method for enhancing a video conference between a first device and a second device. The method includes receiving a virtual object at a first device, the virtual object is configured to enhance a video conference, and the virtual object is specifically associated with an event. The method also includes incorporating the virtual object into the video conference.

本発明の実施形態に従う装置例を例示する。1 illustrates an example apparatus according to an embodiment of the present invention. 本発明の実施形態に従う装置例を例示する。1 illustrates an example apparatus according to an embodiment of the present invention. 本発明の実施形態に従う装置例を例示する。1 illustrates an example apparatus according to an embodiment of the present invention.

強化されたテレビ会議を提供するための方法の実施形態を例示する。3 illustrates an embodiment of a method for providing an enhanced video conference. 強化されたテレビ会議を提供するための方法の実施形態を例示する。3 illustrates an embodiment of a method for providing an enhanced video conference.

テレビ会議を強化するための方法の実施形態を例示する。3 illustrates an embodiment of a method for enhancing a video conference. テレビ会議を強化するための方法の実施形態を例示する。3 illustrates an embodiment of a method for enhancing a video conference. テレビ会議を強化するための方法の実施形態を例示する。3 illustrates an embodiment of a method for enhancing a video conference. テレビ会議を強化するための方法の実施形態を例示する。3 illustrates an embodiment of a method for enhancing a video conference.

本記述において参照される図面は、具体的に注意書きがなされている場合を除き、原寸に比例して描かれてはいないことを理解されたい。   It should be understood that the drawings referred to in this description are not drawn to scale except where specifically noted.

ここで本技術の実施形態を詳細に参照し、その例が付随する図面に例示されている。本技術は様々な実施形態との関係において記述されるが、それらは本技術をそれらの実施形態に限定する意図ではないことを理解されるであろう。反対に、本技術は代替物、修正品、および同等品を網羅することが意図されており、それらは、添付される請求項によって定義される通り、様々な実施形態の趣旨および範囲内に含まれ得る。   Reference will now be made in detail to embodiments of the present technology, examples of which are illustrated in the accompanying drawings. While the technology will be described in connection with various embodiments, it will be understood that they are not intended to limit the technology to those embodiments. On the contrary, the technology is intended to cover alternatives, modifications, and equivalents, which are included within the spirit and scope of the various embodiments, as defined by the appended claims. Can be.

さらに、実施形態の以下の記述において、本技術の完全な理解を提供するために数多くの具体的詳細が明記されている。しかしながら、本技術はそれらの具体的詳細なしで実践され得る。他の例では、本実施形態の態様を不必要に不明瞭としないために、よく知られた方法、手順、構成要素、および回路は詳細には記述されていない。   Furthermore, in the following description of embodiments, numerous specific details are set forth in order to provide a thorough understanding of the present technology. However, the technology may be practiced without those specific details. In other instances, well-known methods, procedures, components, and circuits have not been described in detail so as not to unnecessarily obscure aspects of the embodiments.

図1は装置100の実施形態を描写する。装置100はテレビ会議に参加するために構成される。図2はテレビ会議に参加する装置100および200を描写する。一般的には、テレビ会議は双方向の映像および音声の送信を介して2つまたはそれ以上の場所が同時に対話することを可能とする。   FIG. 1 depicts an embodiment of an apparatus 100. Device 100 is configured to participate in a video conference. FIG. 2 depicts devices 100 and 200 participating in a video conference. In general, video conferencing allows two or more locations to interact simultaneously via interactive video and audio transmissions.

以下の説明は最初に装置100の構成要素を記述する。説明は次に、装置100と200との間のテレビ会議中の装置100の構成要素の機能性を記述する。装置100および200はテレビ会議に参加することのできる任意の通信装置(例えば、ラップトップ、デスクトップ等)である。様々な実施形態において、装置100はスマートフォン、携帯用情報端末(PDA)等の携帯移動式装置である。   The following description first describes the components of the apparatus 100. The description next describes the functionality of the components of device 100 during a video conference between devices 100 and 200. Devices 100 and 200 are any communication devices (eg, laptops, desktops, etc.) that can participate in a video conference. In various embodiments, the device 100 is a portable mobile device such as a smartphone or a personal digital assistant (PDA).

さらに、明瞭さおよび簡潔さのために、説明は装置100の構成要素および機能性に焦点を当てる。しかしながら、装置200は装置100と類似方法で動作する。1つの実施形態においては、装置200は装置100と同一であり、そして装置100と同一の構成要素を含む。   Further, for clarity and brevity, the description focuses on the components and functionality of the device 100. However, device 200 operates in a manner similar to device 100. In one embodiment, device 200 is identical to device 100 and includes the same components as device 100.

装置100は、表示装置110、仮想オブジェクト受信装置120、仮想オブジェクト組み込み装置130、送信装置140、カメラ150、マイクロフォン152、およびスピーカ154を含む。装置100は任意選択により全地球測位システム160および仮想オブジェクト生成装置170を含む。   The device 100 includes a display device 110, a virtual object receiving device 120, a virtual object embedding device 130, a transmitting device 140, a camera 150, a microphone 152, and a speaker 154. The apparatus 100 optionally includes a global positioning system 160 and a virtual object generator 170.

表示装置110は、装置200においてキャプチャされる映像を表示するように構成される。別の実施形態においては、表示装置110はさらに装置100においてキャプチャされる映像を表示するために構成される。   Display device 110 is configured to display the video captured by device 200. In another embodiment, display device 110 is further configured to display video captured on device 100.

仮想オブジェクト受信装置120は、仮想オブジェクトにアクセスするために構成される。仮想オブジェクトはテレビ会議を強化するために構成され、これは以下において詳細に記述される。   The virtual object receiver 120 is configured to access a virtual object. Virtual objects are configured to enhance video conferencing, which will be described in detail below.

仮想オブジェクト組み込み装置130は、仮想オブジェクトをテレビ会議に組み込むように構成される。例えば、仮想オブジェクト組み込み装置130は、装置100および/または装置200においてキャプチャされる映像に仮想オブジェクトを組み込むように構成される。   The virtual object embedding device 130 is configured to incorporate the virtual object into the video conference. For example, virtual object embedding device 130 is configured to embed a virtual object in the video captured by device 100 and / or device 200.

送信装置140はデータ(例えば、仮想オブジェクト制御コード)を送信するためのものである。   The transmission device 140 is for transmitting data (for example, virtual object control code).

仮想オブジェクト操作装置135は、テレビ会議における仮想オブジェクトの操作を可能なように構成される。   The virtual object operation device 135 is configured to be able to operate a virtual object in a video conference.

カメラ150は装置100における映像をキャプチャするためのものである。マイクロフォン152は装置100における音声をキャプチャするためのものである。スピーカ154は装置100における可聴信号を生成するためのものである。   The camera 150 is for capturing an image in the apparatus 100. The microphone 152 is for capturing sound in the apparatus 100. The speaker 154 is for generating an audible signal in the apparatus 100.

全地球測位システム160は装置100の場所を判定するためのものである。   The global positioning system 160 is for determining the location of the device 100.

仮想オブジェクト生成装置170は仮想オブジェクトを生成するためのものである。   The virtual object generation device 170 is for generating a virtual object.

ここで図2を参照すると、装置100および200が互いにテレビ会議に参加している。様々な実施形態においては、2つ以上の装置が互いにテレビ会議に参加する。   Referring now to FIG. 2, devices 100 and 200 are participating in a video conference with each other. In various embodiments, two or more devices participate in a video conference with each other.

テレビ会議中、ビデオカメラ250は装置200における映像をキャプチャする。例えば、ビデオカメラ250は装置200のユーザ205の映像をキャプチャする。   During the video conference, the video camera 250 captures the video on the device 200. For example, the video camera 250 captures an image of the user 205 of the device 200.

ビデオカメラ150は装置100における映像をキャプチャする。例えば、ビデオカメラ150はユーザ105の映像をキャプチャする。ビデオカメラ150および250はカメラ150および250のそれぞれの視野範囲内の如何なるオブジェクトもキャプチャすることは十分に理解されるべきである。   The video camera 150 captures an image on the device 100. For example, the video camera 150 captures the video of the user 105. It should be appreciated that video cameras 150 and 250 capture any object within the respective field of view of cameras 150 and 250.

マイクロフォン152は装置100におけるキャプチャされる映像信号に相当する音声信号をキャプチャする。同様に、装置200のマイクロフォンは、装置200におけるキャプチャされる映像信号に相当する音声信号をキャプチャする。   The microphone 152 captures an audio signal corresponding to the video signal captured by the apparatus 100. Similarly, the microphone of the device 200 captures an audio signal corresponding to the video signal captured by the device 200.

装置200においてキャプチャされる映像は、装置100の表示装置110に送信され、表示される。例えば、ユーザ205の映像は、表示装置110の第1のビュー112上に表示される。さらに、ユーザ205の映像は、表示装置210の第2のビュー214上に表示される。   The video captured by the device 200 is transmitted to the display device 110 of the device 100 and displayed. For example, the video of the user 205 is displayed on the first view 112 of the display device 110. Further, the video of the user 205 is displayed on the second view 214 of the display device 210.

装置100においてキャプチャされる映像は、装置200の表示装置210に送信され、表示される。例えば、ユーザ105の映像は、表示装置210の第1のビュー212上に表示される。さらに、ユーザ105の映像は、表示装置110の第2のビュー114上に表示される。   The video captured by the device 100 is transmitted to the display device 210 of the device 200 and displayed. For example, the video of the user 105 is displayed on the first view 212 of the display device 210. Further, the video of the user 105 is displayed on the second view 114 of the display device 110.

1つの実施形態においては、装置100および200においてキャプチャされる音声信号は、キャプチャされる映像に組み込まれる。別の実施形態では、音声信号は、送信される映像とは別に送信される。   In one embodiment, the audio signals captured by devices 100 and 200 are incorporated into the captured video. In another embodiment, the audio signal is transmitted separately from the transmitted video.

描写されているように、第1のビュー112は表示装置110上に表示される一次ビューであり、第2のビュー114は表示装置110上に表示される小さい方の二次ビューである。様々な実施形態において、第1のビュー112と第2のビュー114のサイズは両方とも調整可能である。例えば、第2のビュー114を一次ビューに拡大することは可能であり、ビュー112のサイズを減じて二次ビューにすることが可能である。さらに、ビュー112および114のいずれか1つは、閉じたり、または完全に減じて不可視とすることができる。   As depicted, the first view 112 is a primary view displayed on the display device 110 and the second view 114 is a smaller secondary view displayed on the display device 110. In various embodiments, the size of the first view 112 and the second view 114 are both adjustable. For example, the second view 114 can be enlarged to a primary view, and the size of the view 112 can be reduced to a secondary view. Further, any one of the views 112 and 114 can be closed or completely reduced to be invisible.

仮想オブジェクト受信装置120は、テレビ会議を強化するための仮想オブジェクト190を受信する。仮想オブジェクトは、サーバまたは装置200から受信可能である。仮想オブジェクトは異なる時において受信可能である。例えば、仮想オブジェクトは強化アプリケーションが装置100にダウンロードされたとき、ログイン中、またはリアルタイムで受信可能であり、その時仮想オブジェクトはテレビ会議に組み込まれるように命じられる。   The virtual object receiving device 120 receives a virtual object 190 for enhancing a video conference. The virtual object can be received from the server or device 200. Virtual objects can be received at different times. For example, the virtual object can be received when the enhanced application is downloaded to the device 100, during login, or in real time, at which time the virtual object is ordered to be incorporated into the video conference.

図2および6に描写される仮想オブジェクト191(例えば、星、ヤシの木、花、雨雲)は仮想オブジェクトの多数の例のほんの数例である。仮想オブジェクトはテレビ会議を強化することのできる任意のオブジェクトであり得ることは十分に理解されるべきである。言い換えれば、仮想オブジェクトは、テレビ会議の参加者の間の通信を補完することができる任意のオブジェクトであり得る。例えば、仮想オブジェクトは、これらには限定されないが、口づけ、ハート、絵文字、ハイタッチ、背景(プリクラのような効果)、色空間変更、および/または画像処理変更(例えば、痩せさせる、太らせる)であり得る。   The virtual objects 191 (eg, stars, palm trees, flowers, rain clouds) depicted in FIGS. 2 and 6 are just a few of the many examples of virtual objects. It should be appreciated that a virtual object can be any object that can enhance a video conference. In other words, a virtual object can be any object that can complement communication between participants in a video conference. For example, a virtual object may include, but is not limited to, kissing, heart, emoji, high touch, background (pricra-like effect), color space change, and / or image processing change (eg, lean, fat) possible.

仮想オブジェクトは可視的仮想オブジェクトには限定されないことも評価されるべきである。例えば、仮想オブジェクトは複数のサウンドの1つが可能である。   It should also be appreciated that virtual objects are not limited to visible virtual objects. For example, the virtual object can be one of a plurality of sounds.

1つの実施形態においては、仮想オブジェクト191はユーザ105が見るための表示装置110上に表示される。例えば、仮想オブジェクト191は仮想オブジェクトバー192上に表示される。1つの実施形態においては、仮想オブジェクトバー192は第1のビュー112にオーバーレイされる。別の実施形態では、仮想オブジェクトバー192は第1のビュー112および/または第2のビュー114と同時に表示される。   In one embodiment, virtual object 191 is displayed on display device 110 for viewing by user 105. For example, the virtual object 191 is displayed on the virtual object bar 192. In one embodiment, the virtual object bar 192 is overlaid on the first view 112. In another embodiment, the virtual object bar 192 is displayed simultaneously with the first view 112 and / or the second view 114.

様々な実施形態において、仮想オブジェクトバー192は、これらに限定されないが、キー入力、カーソルの移動、タッチスクリーン上の検出されたタッチ、およびユーザによる指定された動作(例えば、表情、ウィンク、投げキッス、手振り等)等のユーザ入力に応答して表示される。   In various embodiments, the virtual object bar 192 includes, but is not limited to, keystrokes, cursor movements, detected touches on the touch screen, and user specified actions (eg, facial expressions, winks, throw kisses). , Hand gestures, etc.) in response to user input.

仮想オブジェクト組み込み装置130は、テレビ会議への仮想オブジェクト190の組み込みを容易にする。1つの実施形態においては、装置100において、仮想オブジェクト組み込み装置130は仮想オブジェクト190を装置200においてキャプチャされる映像に組み込む。例えば、仮想オブジェクト190はユーザ205の頭の上に組み込まれる。それゆえ、描写されているように、装置200においてキャプチャされる映像はオブジェクト190が組み込まれ、強化された映像が少なくとも装置200において表示される。また、組み込まれた仮想オブジェクト190を有する強化された映像は、装置100において表示される。   The virtual object embedding device 130 makes it easy to incorporate the virtual object 190 into the video conference. In one embodiment, in the device 100, the virtual object embedding device 130 incorporates the virtual object 190 into the video captured by the device 200. For example, the virtual object 190 is incorporated on the user 205's head. Therefore, as depicted, the video captured at device 200 incorporates object 190 and the enhanced video is displayed at least at device 200. Also, the enhanced video with the embedded virtual object 190 is displayed on the device 100.

1つの実施形態においては、ユーザ105は仮想オブジェクトバー192内の仮想オブジェクト190を選択し、ユーザ105により指定された場所(例えば、第1のビュー112に表示されるように、ユーザ205の頭の上に)まで仮想オブジェクト190をドラッグし、配置する。指定された場所に配置されると、仮想オブジェクト組み込み装置130は仮想オブジェクトを指定された場所に組み込む。   In one embodiment, the user 105 selects the virtual object 190 in the virtual object bar 192 and places the user 205 at the location specified by the user 105 (eg, as displayed in the first view 112). Drag and place the virtual object 190 up). When placed at the designated location, the virtual object embedding device 130 incorporates the virtual object at the designated location.

別の実施形態においては、仮想オブジェクト組み込み装置130は制御コードを生成する。この制御コードは、仮想オブジェクト190が装置200においてキャプチャされる映像内にどのように組み込まれるかを命じる。   In another embodiment, virtual object embedding device 130 generates control code. This control code commands how the virtual object 190 is embedded in the video captured by the device 200.

例えば、制御コードを直接装置200に送信し、装置200において表示される映像にどのように仮想オブジェクト190が組み込まれるかを装置200に対して命じることが可能である。そのような例では、制御コードは装置200に対し、仮想オブジェクト190がテレビ会議において表示されることを信号で伝える、または命じる。別の例では、制御コードはサーバに送信され、次に装置200はサーバから制御コードを受信する。   For example, it is possible to send a control code directly to the device 200 and to instruct the device 200 how to incorporate the virtual object 190 in the video displayed on the device 200. In such an example, the control code signals or commands device 200 that virtual object 190 is to be displayed in the video conference. In another example, the control code is transmitted to the server, and then the device 200 receives the control code from the server.

図2は、テレビ会議に組み込まれた仮想オブジェクト190を描写する。しかしながら、任意の数の仮想オブジェクトが任意の時点においてテレビ会議に組み込まれ得ることは十分に理解されるべきである。例えば、5つの異なる仮想オブジェクトが同時にテレビ会議に組み込まれ得る。   FIG. 2 depicts a virtual object 190 embedded in a video conference. However, it should be appreciated that any number of virtual objects can be incorporated into a video conference at any point in time. For example, five different virtual objects can be simultaneously incorporated into a video conference.

本明細書中で使用される用語「組み込む」は、仮想オブジェクトが単にテレビ会議のある部分と共に表示されることを記述するために使用されることは、十分に理解されるべきである。そのようなわけで、仮想オブジェクトは単にテレビ会議のある部分と同時に表示される。したがって、仮想オブジェクトは映像に組み込まれ、仮想オブジェクトを含むことを理解されたい。しかしながら、仮想オブジェクトはビデオストリームに統合される、またはその一部となるとは理解されてはならない。   It should be appreciated that the term “embed” as used herein is used to describe that a virtual object is simply displayed with some part of a video conference. As such, the virtual object is simply displayed simultaneously with some portion of the video conference. Thus, it should be understood that the virtual object is embedded in the video and includes the virtual object. However, it should not be understood that virtual objects are integrated into or become part of a video stream.

1つの実施形態においては、仮想オブジェクトは映像にオーバーレイとして重ねられる。したがって、仮想オブジェクトは装置100および200上に表示されるオーバーレイとして、同時に重ねられる。例えば、仮想オブジェクトはビュー112およびビュー214において表示される映像上に(図2に描写されるように)同時にオーバーレイされ、そして仮想オブジェクトはビュー114およびビュー212において表示される映像上に(図6に描写されるように)同時にオーバーレイされ得る。   In one embodiment, the virtual object is overlaid on the video as an overlay. Thus, the virtual object is superimposed simultaneously as an overlay displayed on the devices 100 and 200. For example, the virtual object is overlaid simultaneously on the video displayed in view 112 and view 214 (as depicted in FIG. 2), and the virtual object is displayed on the video displayed in view 114 and view 212 (FIG. 6). Can be overlaid simultaneously).

別の実施形態においては、仮想オブジェクトはテレビ会議のビットストリーム中に統合される。   In another embodiment, virtual objects are integrated into a videoconference bitstream.

別の例においては、仮想オブジェクトはビュー112およびビュー212において表示される映像上に同時にオーバーレイされる。また、仮想オブジェクトは装置におけるビューから独立して表示装置の一部に表示され、双方向の映像がアクティブであることは必要としない(例えば、一方向映像がアクティブであり得る)。   In another example, the virtual object is overlaid simultaneously on the video displayed in view 112 and view 212. Also, the virtual object is displayed on a portion of the display device independent of the view in the device, and bi-directional video does not need to be active (eg, unidirectional video can be active).

本明細書に記述される様々な実施形態は、互いの組み合わせにおいてもまた使用可能であることに注目されたい。すなわち、1つの記述された実施形態は1つ以上の他の記述された実施形態と組み合わせて使用可能である。   It should be noted that the various embodiments described herein can also be used in combination with each other. That is, one described embodiment can be used in combination with one or more other described embodiments.

1つの実施形態においては、送信装置140はその後、すでに仮想オブジェクト190を含む、装置200においてキャプチャされる映像を第2の装置200に送信し、したがって、仮想オブジェクト190を含む映像は表示装置210上に表示される。別の実施形態においては、送信装置140は制御コードを装置200(またはサーバ)に送信し、仮想オブジェクト190がテレビ会議にどのように組み込まれるかを装置200に対して命じる。   In one embodiment, the sending device 140 then sends the video captured at the device 200, which already contains the virtual object 190, to the second device 200, so that the video containing the virtual object 190 is on the display device 210. Is displayed. In another embodiment, the sending device 140 sends a control code to the device 200 (or server), instructing the device 200 how the virtual object 190 is incorporated into the video conference.

仮想オブジェクト操作装置135は、組み込まれた仮想オブジェクト190を操作する。1つの実施形態においては、仮想オブジェクト190は装置100において操作される。例えば、タッチスクリーンにおけるユーザの入力に応答して、ユーザ105は仮想オブジェクト190を時計方向に回転させる。その結果、装置200においてキャプチャされた(そして装置100および/または装置200上に表示された)映像は強化されて仮想オブジェクトは時計方向に回転する。   The virtual object operation device 135 operates the embedded virtual object 190. In one embodiment, the virtual object 190 is manipulated on the device 100. For example, in response to a user input on the touch screen, the user 105 rotates the virtual object 190 clockwise. As a result, the video captured in device 200 (and displayed on device 100 and / or device 200) is enhanced and the virtual object rotates clockwise.

別の実施形態においては、仮想オブジェクト190は装置200において操作される。例えば、ユーザ205が彼の頭を左から右へ動かすことに応答して、仮想オブジェクト190は操作され(装置200の仮想オブジェクト操作装置を介して)、したがって、ユーザ205の頭の動きにつれて左から右に動く。したがって、装置200においてキャプチャされた(そして装置100および/または装置200上で表示された)映像は強化されて仮想オブジェクト190は左から右へ動かされる。   In another embodiment, virtual object 190 is manipulated on device 200. For example, in response to the user 205 moving his head from left to right, the virtual object 190 is manipulated (via the virtual object manipulation device of the device 200) and thus from the left as the user 205 moves his head. Move to the right. Accordingly, the video captured at device 200 (and displayed on device 100 and / or device 200) is enhanced and virtual object 190 is moved from left to right.

さらなる実施形態においては、仮想オブジェクト190は装置100および装置200において同時に操作される。例えば、ユーザ205が彼の頭を左から右へ動かし、かつユーザ105が仮想オブジェクト190を回転させる(前述のように)ことに応答して、仮想オブジェクト190は、ユーザ205の頭の動きにつれて左から右へ動き、そしてユーザ105からの入力に応答して同時に回転するように操作される。したがって、装置200においてキャプチャされた(そして装置100および/または200上で表示される)映像は強化され、仮想オブジェクト190は時計方向に回転しながら左から右へ動かされる。   In a further embodiment, the virtual object 190 is operated on the device 100 and the device 200 simultaneously. For example, in response to user 205 moving his head from left to right and user 105 rotating the virtual object 190 (as described above), the virtual object 190 moves to the left as the user 205's head moves. To the right and is operated to rotate simultaneously in response to input from the user 105. Thus, the video captured at device 200 (and displayed on device 100 and / or 200) is enhanced and virtual object 190 is moved from left to right while rotating clockwise.

さらなる実施形態においては、仮想オブジェクト190は指向的に操作される。例えば、ユーザ105は「パンチ」仮想オブジェクト(例えば、こぶし、ボクシングのグローブ)をユーザ205に送信する。それに応じて、ユーザ105は「パンチ」仮想オブジェクトが表示装置110内に入っていくのを見、そしてユーザ205は「パンチ」仮想オブジェクトが表示装置210から出てくるのを見る。   In a further embodiment, the virtual object 190 is manipulated directional. For example, user 105 sends a “punch” virtual object (eg, fist, boxing glove) to user 205. In response, user 105 sees a “punch” virtual object entering display device 110, and user 205 sees a “punch” virtual object coming out of display device 210.

仮想オブジェクトは多様な入力に応答して操作されることを十分に理解されるべきである。例えば、仮想オブジェクトは音、ジェスチャ、表情、動作等を介して操作可能である。様々な例としては、ユーザのウィンクに応答して仮想オブジェクト(例えば、星)がユーザの目から出てき、また、ユーザの口づけに応答して赤い唇がユーザの口から飛び出てくる。   It should be appreciated that virtual objects are manipulated in response to various inputs. For example, the virtual object can be manipulated through sound, gestures, facial expressions, movements, and the like. As various examples, a virtual object (eg, a star) comes out of the user's eyes in response to the user's wink, and a red lip pops out of the user's mouth in response to the user's kiss.

1つの実施形態においては、前述のように、様々な入力の少なくとも1つが発生するまで、仮想オブジェクト191は表示装置110および/または仮想表示バー192上に表示されない。例えば、ハートの仮想オブジェクトは、タッチスクリーン上に2回のタップがあるまでは表示されない。   In one embodiment, as described above, the virtual object 191 is not displayed on the display device 110 and / or the virtual display bar 192 until at least one of various inputs occurs. For example, the virtual object of the heart is not displayed until there are two taps on the touch screen.

任意の数の仮想オブジェクトをアクセスし、および/または選択して、テレビ会議に組み込むことが可能である。1つの実施形態では、仮想オブジェクト191は地理関連仮想オブジェクトである。例えば、仮想オブジェクト191は装置100および/または200の場所に基づく。   Any number of virtual objects can be accessed and / or selected for incorporation into a video conference. In one embodiment, virtual object 191 is a geo-related virtual object. For example, the virtual object 191 is based on the location of the device 100 and / or 200.

具体的には、もしも装置100がハワイに位置する場合、仮想オブジェクト191はその場所に関連する。例えば、地理に関連する仮想オブジェクトは、GPS160から判定されたハワイにおける場所に基づき、サーフボード、太陽、ヤシの木、ココナッツ等であり得るが、これらに限定されない。   Specifically, if the device 100 is located in Hawaii, the virtual object 191 is associated with that location. For example, a virtual object related to geography may be, but is not limited to, a surfboard, sun, palm tree, coconut, etc. based on a location in Hawaii determined from GPS 160.

場所の判定は様々な方法によって提供可能であることを十分に理解されるべきである。例えば、装置の場所の判定は、登録時にユーザによって提供される情報、装置のIPアドレス、または場所の判定に使用可能な任意の他の方法に基づくことが可能である。   It should be appreciated that location determination can be provided by various methods. For example, determining the location of a device can be based on information provided by the user at registration, the IP address of the device, or any other method that can be used to determine the location.

別の実施形態においては、仮想オブジェクト191は、テレビ会議の時間に基づく時間関連仮想オブジェクトである。例えば、テレビ会議がクリスマスの日またはその前後に発生する場合、仮想オブジェクトはクリスマスに関連するであろう(例えば、靴下、クリスマスツリー、お菓子の杖等)。別の例では、テレビ会議が夜行われる場合には、仮想オブジェクトは夜に関連するであろう(例えば、月、星、パジャマ等)。   In another embodiment, the virtual object 191 is a time-related virtual object based on the video conference time. For example, if a video conference occurs on or around Christmas day, the virtual object will be related to Christmas (eg, socks, Christmas tree, candy cane, etc.). In another example, if the video conference takes place at night, the virtual object will be associated with the night (eg, moon, stars, pajamas, etc.).

さらなる実施形態においては、仮想オブジェクト191は文化関連仮想オブジェクトである。例えば、ユーザ105および/または205がカナダに位置する場合は、仮想オブジェクト191は、これらには限定されないが、カナダ国旗、ホッケーのパック、カーリング用ストーン等であり得る。   In a further embodiment, the virtual object 191 is a culture related virtual object. For example, if the users 105 and / or 205 are located in Canada, the virtual object 191 can be, but is not limited to, a Canadian flag, a hockey pack, a curling stone, and the like.

別の実施形態においては、仮想オブジェクト191はユーザ作成仮想オブジェクトである。例えば、ユーザ105および/または205は、手作業で仮想オブジェクトを作成し、次に仮想オブジェクト生成装置170は、その作成を利用してユーザ生成仮想オブジェクトを生成する。   In another embodiment, virtual object 191 is a user created virtual object. For example, the users 105 and / or 205 manually create a virtual object, and then the virtual object generation device 170 uses the creation to generate a user-generated virtual object.

さらに別の実施形態においては、仮想オブジェクト191は口座の状態に基づいて利用可能および/またはアクセスされる。例えば、ユーザ105は仮想オブジェクト191にアクセスするための、支払うべき口座を有する。もしもユーザ105がその口座に対して十分な支払いを提供した場合には、ユーザ105は仮想オブジェクト191にアクセスできる。反対に、ユーザがその口座に対して十分な支払いを提供しなかった場合には、ユーザ105は仮想オブジェクト191にアクセスできない。   In yet another embodiment, the virtual object 191 is available and / or accessed based on the account status. For example, the user 105 has an account to pay for accessing the virtual object 191. If the user 105 provides sufficient payment for the account, the user 105 can access the virtual object 191. Conversely, if the user does not provide sufficient payment for the account, the user 105 cannot access the virtual object 191.

さらに、仮想オブジェクトの使用および選択は、イベント、休日、特別な機会等に具体的に関連し得る。休日は、これらに限定されないが、宗教的休日(例えば、クリスマス、復活祭、贖罪の日等)、国の休日(例えば、新年、ワシントン大統領誕生日、戦没将兵追悼記念日等)または任意の他の振替休日(公式または非公式)であり得る。イベントまたは特別な機会は、これらに限定されないが、誕生日、記念日、卒業式、結婚式、就職、退職等があり得る。   Furthermore, the use and selection of virtual objects can be specifically related to events, holidays, special occasions, and so on. Holidays include, but are not limited to, religious holidays (eg, Christmas, Easter, Atonement Day, etc.), national holidays (eg, New Year, Washington President ’s Birthday, Memorial Day for Memorial of the War, etc.) or any other It may be a transfer holiday (official or informal). Events or special occasions can be, but are not limited to, birthdays, anniversaries, graduations, weddings, employment, retirement, etc.

例えば、感謝祭当日または前後において、七面鳥、かぼちゃパイ、巡礼者等の仮想オブジェクトが選択および/または使用される。別の例では、聖パトリックの祭日またはその前後において、クローバ、金のポット、および小妖精の仮想オブジェクトが選択および/または使用される。さらなる例においては、復活祭当日または前後において、復活祭のうさぎおよび復活祭の卵の仮想オブジェクトが選択および/または使用される。   For example, on or before or after Thanksgiving, virtual objects such as turkeys, pumpkin pie, pilgrims, etc. are selected and / or used. In another example, clovers, gold pots, and fairy virtual objects are selected and / or used on or around St. Patrick's Day. In a further example, the Easter Rabbit and Easter Egg virtual objects are selected and / or used on or around Easter Day.

1つの実施形態において、ユーザはイベント、休日、特別な機会等に具体的に関連する仮想オブジェクトを利用するように促される。例えば、米国独立記念日またはその前後において、ユーザは米国独立記念日に具体的に関連する仮想オブジェクト(例えば、花火)を選択および/または使用するように促される。具体的には、ユーザに仮想オブジェクトが提供され、そしてそのユーザはその仮想オブジェクトをテレビ会議中の別のユーザに送信するように促される。言い換えれば、仮想オブジェクトはテレビ会議に組み込まれる。   In one embodiment, the user is prompted to utilize virtual objects that are specifically associated with events, holidays, special occasions, and the like. For example, on or around US Independence Day, the user is prompted to select and / or use a virtual object (eg, fireworks) that is specifically associated with US Independence Day. Specifically, the user is provided with a virtual object and the user is prompted to send the virtual object to another user in the video conference. In other words, the virtual object is incorporated into the video conference.

別の実施形態においては、ユーザは、当事者間の関係が疑わしい、既知である、または推察される場合には、もう一方のユーザに仮想オブジェクトを送信するように促され得る。例えば、母親が彼女の息子とテレビ会議を通して話をしている。もしも母/息子の関係が疑わしい、既知である、または推察される場合には、息子は母の日に具体的に関連する仮想オブジェクト(例えば、花)を利用するように促される。   In another embodiment, the user may be prompted to send a virtual object to the other user if the relationship between the parties is suspicious, known, or inferred. For example, a mother is talking to her son through a video conference. If the mother / son relationship is suspicious, known, or inferred, the son is prompted to use a virtual object (eg, a flower) that is specifically associated with Mother's Day.

関係は様々な方法で判定可能である。例えば、これらには限定されないが、苗字、ユーザの場所、通話記録等に基づいて、関係は判定可能である。   The relationship can be determined in various ways. For example, but not limited to these, the relationship can be determined based on the last name, the location of the user, the call record, and the like.

さらに、息子は、「これはあなたの母親であると思われる。正しいか?」等のメッセージで促され得る。そのような場合、もしもその息子が自分は母親と話していると応答した場合には、息子は母の日に具体的に関連する仮想オブジェクト(例えば、花)を利用するように促される。   In addition, the son may be prompted with a message such as "This seems to be your mother. Is it right?" In such a case, if the son responds that he is talking to his mother, the son is prompted to use a virtual object (eg, a flower) that is specifically associated with Mother's Day.

仮想オブジェクトは収益源を強化可能であることも十分に理解されるべきである。例えば、100,000個の仮想オブジェクトがバレンタインデーに使用され、各仮想オブジェクトの料金は$0.50である。その結果、バレンタインデーには$50,000の料金が蓄積される。   It should also be appreciated that virtual objects can enhance revenue streams. For example, 100,000 virtual objects are used for Valentine's Day, and the fee for each virtual object is $ 0.50. As a result, a charge of $ 50,000 is accumulated on Valentine's Day.

図3〜5は、それぞれ方法300〜500の実施形態を描写する。様々な実施形態において、方法300〜500は、コンピュータ可読およびコンピュータ実行可能命令の制御の下で、処理装置および電気構成要素によって実施される。コンピュータ可読およびコンピュータ実行可能命令は、例えば、コンピュータが使用可能な揮発性および非揮発性メモリ等のデータ記憶媒体内に常駐する。しかしながら、コンピュータ可読およびコンピュータ実行可能命令は、任意のタイプのコンピュータ可読記憶媒体内に常駐し得る。いくつかの実施形態においては、方法300〜500は、図1および2に記述されるように、装置100および/または装置200によって実施される。   3-5 depict embodiments of methods 300-500, respectively. In various embodiments, the methods 300-500 are performed by processing devices and electrical components under the control of computer readable and computer executable instructions. Computer-readable and computer-executable instructions reside, for example, in data storage media such as volatile and non-volatile memory usable by the computer. However, computer readable and computer executable instructions may reside in any type of computer readable storage medium. In some embodiments, methods 300-500 are performed by apparatus 100 and / or apparatus 200 as described in FIGS.

ここで図3を参照すると、方法300の310において、仮想オブジェクトは第1の装置によってアクセス可能とされており、第1の装置は第2の装置とのテレビ会議に参加するために構成されている。例えば、仮想オブジェクト190は装置100によりアクセス可能とされ、装置100は少なくとも装置200とのテレビ会議に参加するように構成される。   Referring now to FIG. 3, at 310 of the method 300, the virtual object is made accessible by the first device, the first device configured to participate in a video conference with the second device. Yes. For example, the virtual object 190 is made accessible by the device 100 and the device 100 is configured to participate in at least a video conference with the device 200.

320において、仮想オブジェクトは第2の装置においてキャプチャされるテレビ会議の映像内に組み込み可能とされ、仮想オブジェクトを含む映像は第2の装置において表示されるように構成される。例えば、仮想オブジェクト190は装置200においてユーザ205をキャプチャした映像に組み込み可能とされ、そして装置200において表示される。   At 320, the virtual object can be embedded in a video conference video captured at the second device, and the video including the virtual object is configured to be displayed at the second device. For example, the virtual object 190 can be incorporated into the video captured by the user 205 on the device 200 and displayed on the device 200.

330において、仮想オブジェクトを含む映像は、第1の装置から第2の装置へ送信可能とされる。例えば、仮想オブジェクト191の任意の1つを含む映像の送信は、装置200に対して送信装置140により送信可能とされる。   At 330, the video including the virtual object can be transmitted from the first device to the second device. For example, transmission of a video including any one of the virtual objects 191 can be transmitted to the device 200 by the transmission device 140.

340において、仮想オブジェクトを含む映像の同時表示は、第1の装置および第2の装置において可能とされる。例えば、オブジェクト190を含む映像は、装置100および200において同時に表示可能とされる。   At 340, simultaneous display of video including virtual objects is enabled on the first device and the second device. For example, an image including the object 190 can be displayed simultaneously on the devices 100 and 200.

350において、第1の装置および第2の装置における、組み込まれた仮想オブジェクトの協同的操作が可能とされる。例えば、ユーザ205は第2のビュー214における仮想オブジェクト190と対話し、ユーザ105も第1のビュー112における仮想オブジェクトと協同的に対話する。   At 350, collaborative manipulation of embedded virtual objects in the first device and the second device is enabled. For example, the user 205 interacts with the virtual object 190 in the second view 214 and the user 105 interacts cooperatively with the virtual object in the first view 112.

ここで図4を参照すると、方法400の410において、仮想オブジェクトにアクセスするための命令が受信される。例えば、ユーザ入力(例えば、キー入力、カーソル移動、タッチスクリーン上の検出されたタッチ等)に応答して、仮想オブジェクト190にアクセスするために命令が受信される。様々な実施形態では、仮想オブジェクト(複数可)は、これらに限定されないが、地理関連仮想オブジェクト、時間関連仮想オブジェクト、文化関連仮想オブジェクト、および/またはユーザ作成仮想オブジェクトであり得る。   Referring now to FIG. 4, at 410 of method 400, instructions for accessing a virtual object are received. For example, instructions are received to access the virtual object 190 in response to user input (eg, key input, cursor movement, detected touch on the touch screen, etc.). In various embodiments, the virtual object (s) can be, but is not limited to, a geographic related virtual object, a time related virtual object, a culture related virtual object, and / or a user created virtual object.

420において、仮想オブジェクトはテレビ会議に組み込まれ、その仮想オブジェクトは第1の装置によりアクセスされ、そして第2の装置において表示されるように構成される。例えば、仮想オブジェクト190は装置100においてアクセスされ、そして装置100において装置200においてキャプチャされた映像に組み込まれる。組み込まれた仮想オブジェクト190を含む映像は、装置200において表示されるように構成される。   At 420, the virtual object is incorporated into a video conference, and the virtual object is configured to be accessed by the first device and displayed on the second device. For example, the virtual object 190 is accessed at the device 100 and embedded in the video captured at the device 200 at the device 100. A video including the embedded virtual object 190 is configured to be displayed on the device 200.

別の例では、ユーザ105は、第1のビュー112において唇の場所をユーザ105の頬の上に指定することにより、唇の仮想オブジェクト(口づけを意味する)をユーザ205の頬の上に置くことができる。したがって、唇の仮想オブジェクトは装置200においてキャプチャされた映像内に組み込まれ、そして装置100および200上に表示される。唇の仮想オブジェクトはテレビ会議の継続中に組み込まれ得り、または指定された継続時間組み込まれ得る。   In another example, the user 105 places a lip virtual object (meaning kiss) on the user's 205 cheek by specifying the location of the lips on the user's 105 cheek in the first view 112. be able to. Thus, the lip virtual object is incorporated into the video captured by the device 200 and displayed on the devices 100 and 200. The lip virtual object may be incorporated during the duration of the video conference or may be incorporated for a specified duration.

1つの実施形態においては、422において、タッチスクリーン表示装置上のユーザ入力に応答して、仮想オブジェクトがテレビ会議に組み込まれる。例えば、装置100のタッチスクリーン表示装置上のユーザ入力に応答して、仮想オブジェクトはテレビ会議に組み込まれる。   In one embodiment, at 422, the virtual object is incorporated into the video conference in response to user input on the touch screen display. For example, in response to user input on the touch screen display device of device 100, the virtual object is incorporated into the video conference.

430において、組み込まれた仮想オブジェクトを含むテレビ会議の映像は、第2の装置に送信される。例えば、仮想オブジェクトを含む映像は、送信装置140を介して装置200に送信される。   At 430, video of the video conference including the embedded virtual object is transmitted to the second device. For example, the video including the virtual object is transmitted to the device 200 via the transmission device 140.

440において、第2の装置においてキャプチャされたテレビ会議の映像は、第1の装置において表示される。例えば、装置200におけるユーザ205の映像は、装置200においてキャプチャされ、装置100において表示される。   At 440, the video conference video captured at the second device is displayed at the first device. For example, an image of the user 205 in the device 200 is captured by the device 200 and displayed on the device 100.

450において、テレビ会議に組み込まれた仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は、仮想オブジェクト190を回転させることによって、第2のビュー214内に表示される仮想オブジェクト190と対話する。   At 450, the virtual object embedded in the video conference is manipulated on the second device. For example, the user 205 interacts with the virtual object 190 displayed in the second view 214 by rotating the virtual object 190.

460において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置において操作される。例えば、ユーザ105は、仮想オブジェクト190のサイズを減じることにより、第1のビュー112内に表示される仮想オブジェクト190と対話する。   At 460, the virtual object embedded in the video conference is manipulated on the first device. For example, the user 105 interacts with the virtual object 190 displayed in the first view 112 by reducing the size of the virtual object 190.

1つの実施形態においては、465において、携帯装置のタッチスクリーン表示装置において受信されるユーザ入力に応答して、テレビ会議に組み込まれた仮想オブジェクトが操作される。例えば、装置100はタッチスクリーン表示装置を備えた携帯装置(例えば、携帯電話)である。したがって、ユーザ105によるタッチスクリーン表示装置へのタッチに応答して、仮想オブジェクト190のサイズが減じられる。   In one embodiment, at 465, a virtual object embedded in a video conference is manipulated in response to user input received at the touch screen display device of the portable device. For example, the device 100 is a mobile device (for example, a mobile phone) provided with a touch screen display device. Accordingly, in response to the user 105 touching the touch screen display device, the size of the virtual object 190 is reduced.

470において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ205は彼の頭を左から右に動かし、それによって、仮想オブジェクト190は頭の動きを追跡する。また、ユーザ105は、仮想オブジェクト190がユーザ205の頭の動きを追跡している間、仮想オブジェクト190を協同的に回転させる。   At 470, the virtual object incorporated into the video conference is manipulated cooperatively on the first device and the second device. For example, the user 205 moves his head from left to right so that the virtual object 190 tracks the movement of the head. Also, the user 105 cooperatively rotates the virtual object 190 while the virtual object 190 tracks the movement of the user 205's head.

480において、第2の装置においてキャプチャされたテレビ会議の映像と仮想オブジェクトは、第1の装置において同時に表示される。例えば、組み込まれた仮想オブジェクト190を含む第2の装置200においてキャプチャされた映像は、第1のビュー112に同時に表示される。   At 480, the video conference video and virtual object captured on the second device are simultaneously displayed on the first device. For example, the video captured in the second device 200 including the embedded virtual object 190 is simultaneously displayed in the first view 112.

490において、第1の装置においてキャプチャされた第1の映像と第2の装置においてキャプチャされた第2の映像は、第1の装置において同時に表示される。例えば、装置200においてキャプチャされた映像は、第1のビュー112に表示され、装置100においてキャプチャされた映像は、同時に第2のビュー114に表示される。   At 490, the first video captured at the first device and the second video captured at the second device are simultaneously displayed on the first device. For example, the video captured by the device 200 is displayed in the first view 112 and the video captured by the device 100 is displayed in the second view 114 at the same time.

ここで図5を参照すると、方法500の510において、第2の装置においてキャプチャされた映像が第1の装置上で表示される。   Referring now to FIG. 5, at 510 of method 500, the video captured at the second device is displayed on the first device.

515において、仮想オブジェクトは第1の装置において受信され、仮想オブジェクトはテレビ会議を強化するように構成される。様々な実施形態において、仮想オブジェクト(複数可)は、これらに限定されないが、地理関連仮想オブジェクト、時間関連仮想オブジェクト、文化関連仮想オブジェクト、および/またはユーザ生成仮想オブジェクトであり得る。   At 515, the virtual object is received at the first device and the virtual object is configured to enhance the video conference. In various embodiments, the virtual object (s) can be, but is not limited to, a geographic related virtual object, a time related virtual object, a culture related virtual object, and / or a user generated virtual object.

520において、仮想オブジェクトが第2の装置においてキャプチャされた映像に組み込まれる。例えば、仮想オブジェクト190は装置200でキャプチャされた映像に組み込まれ、仮想オブジェクト190はユーザ205の頭上に配置され、ユーザ205の頭の動きを追跡する。   At 520, the virtual object is incorporated into the video captured at the second device. For example, the virtual object 190 is embedded in the video captured by the device 200, and the virtual object 190 is placed on the head of the user 205 and tracks the movement of the user 205 's head.

1つの実施形態では、522において、タッチスクリーン表示装置におけるユーザ入力に応答して、仮想オブジェクトは第2の装置でキャプチャされた映像に組み込まれる。例えば、装置100のタッチスクリーン表示装置におけるユーザ105の入力に応答して、任意の数の仮想オブジェクトが装置200においてキャプチャされた映像に組み込まれる。   In one embodiment, at 522, in response to user input on the touch screen display device, the virtual object is incorporated into the video captured by the second device. For example, in response to user 105 input on the touch screen display device of device 100, any number of virtual objects are incorporated into the video captured by device 200.

530において、仮想オブジェクトを含む映像は、第2の装置で表示可能とされる。535において、仮想オブジェクトを含む映像は、第2の装置に送信される。   In 530, the video including the virtual object can be displayed on the second device. At 535, the video including the virtual object is transmitted to the second device.

540において、第2の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は第2のビュー214に表示される仮想装置190の色を赤に変更する。   At 540, the virtual object that is embedded in the video captured at the second device is manipulated at the second device. For example, the user 205 changes the color of the virtual device 190 displayed in the second view 214 to red.

545において、第2の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第1の装置において操作される。例えば、ユーザ105は仮想装置190の場所を、ユーザ205の頭の頂部からユーザ205の左手に変更する。   At 545, the virtual object that is embedded in the video captured at the second device is manipulated at the first device. For example, the user 105 changes the location of the virtual device 190 from the top of the head of the user 205 to the left hand of the user 205.

1つの実施形態においては、547において、携帯移動式装置のタッチスクリーン表示装置において受信されたユーザ入力に応答して、第2の装置においてキャプチャされた映像に組み込まれた仮想オブジェクトは、操作される。例えば、装置100のタッチスクリーン表示装置におけるユーザ入力に応答して、ユーザ105は仮想装置190を星(描写されるように)から電球(示されていない)に変更する。   In one embodiment, at 547, the virtual object embedded in the video captured at the second device is manipulated in response to user input received at the touch screen display device of the portable mobile device. . For example, in response to user input on the touch screen display device of device 100, user 105 changes virtual device 190 from a star (as depicted) to a light bulb (not shown).

550において、第2の装置においてキャプチャされた映像に組み込まれた仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ205は第2のビュー214内の仮想オブジェクト190を操作し、ユーザ105は第1のビュー112内の仮想オブジェクトを協同的に操作する。   At 550, the virtual object embedded in the video captured at the second device is manipulated cooperatively at the first device and the second device. For example, the user 205 operates the virtual object 190 in the second view 214, and the user 105 operates the virtual object in the first view 112 cooperatively.

555において、仮想オブジェクトおよび第2の装置においてキャプチャされた映像は、第1の装置において同時に表示される。560において、第1の装置においてキャプチャされた映像と第2の装置においてキャプチャされた映像は、第1の装置において同時に表示される。   At 555, the virtual object and the video captured on the second device are simultaneously displayed on the first device. At 560, the video captured at the first device and the video captured at the second device are simultaneously displayed on the first device.

図6は、互いにテレビ会議に参加している装置100および200の実施形態を描写する。装置100および200は前述のように類似した方法で動作する。   FIG. 6 depicts an embodiment of devices 100 and 200 participating in a video conference with each other. Devices 100 and 200 operate in a similar manner as described above.

テレビ会議中は、ビデオカメラ150が装置100において映像をキャプチャする。例えば、ビデオカメラ150は装置100のユーザ105の映像をキャプチャする。   During the video conference, the video camera 150 captures video on the device 100. For example, the video camera 150 captures an image of the user 105 of the device 100.

ビデオカメラ250は装置200において映像をキャプチャする。例えば、ビデオカメラ250はユーザ205の映像をキャプチャするが、彼は装置200のユーザである。   Video camera 250 captures video in device 200. For example, video camera 250 captures video of user 205, who is the user of device 200.

装置100でキャプチャされた映像は装置100の表示装置110上に表示される。例えば、ユーザ105の映像は、表示装置110上に表示される第2のビュー114に表示される。さらに、ユーザ205の映像は、表示装置110上の第1のビュー112に表示される。   The video captured by the device 100 is displayed on the display device 110 of the device 100. For example, the video of the user 105 is displayed in the second view 114 displayed on the display device 110. Further, the video of the user 205 is displayed on the first view 112 on the display device 110.

仮想オブジェクト受信装置120は、テレビ会議に参加するユーザ105および205の間のテレビ会議を強化するために、仮想オブジェクト190を受信する。   The virtual object receiver 120 receives the virtual object 190 to enhance the video conference between the users 105 and 205 participating in the video conference.

仮想オブジェクト191は、ユーザ105による閲覧のために表示装置110上に表示される。例えば、仮想オブジェクト191は仮想オブジェクトバー192上に表示される。1つの実施形態においては、仮想オブジェクトバー192は第1のビュー112とオーバーレイされる。別の実施形態では、仮想オブジェクトバー192は第1のビュー112および/または第2のビュー114と同時に表示される。   The virtual object 191 is displayed on the display device 110 for viewing by the user 105. For example, the virtual object 191 is displayed on the virtual object bar 192. In one embodiment, the virtual object bar 192 is overlaid with the first view 112. In another embodiment, the virtual object bar 192 is displayed simultaneously with the first view 112 and / or the second view 114.

仮想オブジェクト組み込み装置130は、仮想オブジェクト190をテレビ会議に組み込む。具体的には、装置100において、仮想オブジェクト190は装置100においてキャプチャされた映像に組み込まれる。例えば、仮想オブジェクト190はユーザ105の頭上に組み込まれる。それゆえ、描写されているように、装置100でキャプチャされた映像はオブジェクト190が組み込まれ、強化された映像は少なくとも装置200において表示される。また、仮想オブジェクト190を組み込まれた強化された映像は、装置100において同時に表示される。   The virtual object embedding device 130 incorporates the virtual object 190 into the video conference. Specifically, in the device 100, the virtual object 190 is incorporated in the video captured by the device 100. For example, the virtual object 190 is incorporated above the user 105. Therefore, as depicted, the video captured by device 100 incorporates object 190 and the enhanced video is displayed at least on device 200. Also, the enhanced video incorporating the virtual object 190 is displayed simultaneously on the device 100.

1つの実施形態においては、ユーザ105は仮想オブジェクトバー190内の仮想オブジェクト190を選択し、仮想オブジェクト190をユーザ105によって指定された場所(例えば、描写されているようにユーザ105の頭上)までドラッグし、配置する。指定された場所に配置されると、仮想オブジェクト組み込み装置130は仮想オブジェクトを指定された場所に組み込む。   In one embodiment, the user 105 selects the virtual object 190 in the virtual object bar 190 and drags the virtual object 190 to a location specified by the user 105 (eg, overhead of the user 105 as depicted). And place. When placed at the designated location, the virtual object embedding device 130 incorporates the virtual object at the designated location.

次に送信装置140は装置100においてキャプチャされた映像を第2の装置200に送信し、これは現在仮想オブジェクト190を含んでおり、仮想オブジェクト190を含む映像は表示装置210上に表示される。   Next, the transmission device 140 transmits the video captured by the device 100 to the second device 200, which currently includes the virtual object 190, and the video including the virtual object 190 is displayed on the display device 210.

装置200の仮想オブジェクト操作装置は、組み込まれた仮想オブジェクト190を操作する。例えば、タッチスクリーンにおけるユーザ205のユーザ入力に応答して、ユーザ205は仮想オブジェクト190を時計方向に回転させる。したがって、装置100でキャプチャされた映像(装置200および/または装置100上に表示される)は強化されて、仮想オブジェクトは時計方向に回転する。   The virtual object operation device of the device 200 operates the embedded virtual object 190. For example, in response to a user input from the user 205 on the touch screen, the user 205 rotates the virtual object 190 clockwise. Accordingly, the video captured by device 100 (displayed on device 200 and / or device 100) is enhanced and the virtual object rotates clockwise.

別の実施形態においては、仮想オブジェクト190は装置100において操作される。例えば、ユーザ105が彼の頭を左から右に動かすことに応答して仮想オブジェクト190は操作され(仮想オブジェクト操作装置135を介して)、ユーザ105の頭の動きにつれて左から右へと動く。したがって、装置100においてキャプチャされた画像(装置100および/または装置200上で表示される)は、強化されて仮想オブジェクト190は左から右へ動かされる。   In another embodiment, virtual object 190 is manipulated on device 100. For example, in response to the user 105 moving his head from left to right, the virtual object 190 is manipulated (via the virtual object manipulator 135) and moves from left to right as the user 105 moves. Thus, the image captured at device 100 (displayed on device 100 and / or device 200) is enhanced and virtual object 190 is moved from left to right.

さらなる実施形態においては、仮想オブジェクト190は装置100および装置200において同時に操作される。例えば、ユーザ105が彼の頭を左から右に動かし、またユーザ205が仮想オブジェクト190を回転させることに応答して、仮想オブジェクト190は操作され、ユーザ105の頭の動きにつれて左から右に同時に動き、ユーザ205からの入力に応答して回転する。したがって、装置100においてキャプチャされた画像(装置100および/または装置200上で表示される)は強化され、仮想オブジェクト190は時計方向に回転しながら左から右へ動かされる。   In a further embodiment, the virtual object 190 is operated on the device 100 and the device 200 simultaneously. For example, in response to user 105 moving his head from left to right and user 205 rotating virtual object 190, virtual object 190 is manipulated and simultaneously from left to right as user 105 moves his head. Move and rotate in response to input from user 205. Thus, the image captured on device 100 (displayed on device 100 and / or device 200) is enhanced and virtual object 190 is moved from left to right while rotating clockwise.

図7〜9は、それぞれ方法700〜900の実施形態を描写する。様々な実施形態において、方法700〜900はコンピュータ可読及びコンピュータ実行可能命令の制御の下で、処理装置および電気構成要素によって実行される。コンピュータ可読およびコンピュータ実行可能命令は、例えば、コンピュータが使用可能な揮発性および非揮発性メモリ等のデータ記憶媒体内に常駐する。しかしながら、コンピュータ可読およびコンピュータ実行可能命令は、任意のタイプのコンピュータ可読記憶媒体内に常駐し得る。いくつかの実施形態においては、方法700〜900は図1および6に記述されるように、装置100および/または装置200によって実施される。   FIGS. 7-9 depict embodiments of methods 700-900, respectively. In various embodiments, the methods 700-900 are performed by a processing device and electrical components under the control of computer readable and computer executable instructions. Computer-readable and computer-executable instructions reside, for example, in data storage media such as volatile and non-volatile memory usable by the computer. However, computer readable and computer executable instructions may reside in any type of computer readable storage medium. In some embodiments, methods 700-900 are performed by apparatus 100 and / or apparatus 200 as described in FIGS.

ここで図7を参照すると、方法300の710において、仮想オブジェクトは第1の装置によってアクセス可能とされ、第1の装置は第2の装置と同時にテレビ会議に参加するように構成される。例えば、仮想オブジェクト190は装置100によってアクセス可能とされ、装置100は少なくとも装置200と同時にテレビ会議に参加するように構成される。   Referring now to FIG. 7, at 710 of method 300, the virtual object is made accessible by the first device, and the first device is configured to participate in the video conference simultaneously with the second device. For example, virtual object 190 is made accessible by device 100, and device 100 is configured to participate in a video conference at least simultaneously with device 200.

720において、仮想オブジェクトは第1の装置においてキャプチャされるテレビ会議の映像に組み込み可能とされ、仮想オブジェクトを含む映像は第2の装置において表示されるように構成される。例えば、仮想オブジェクト190はユーザ105の装置100においてキャプチャされた映像に組み込み可能とされ、装置100および200において表示される。   At 720, the virtual object can be incorporated into a video conference video captured at the first device, and the video including the virtual object is configured to be displayed at the second device. For example, the virtual object 190 can be embedded in the video captured by the user's 105 device 100 and displayed on the devices 100 and 200.

730において、仮想オブジェクトを含む映像は、第1の装置から第2の装置へ送信可能とされる。例えば、仮想オブジェクト191の任意の1つを含む映像の送信は、送信装置140によって装置200へ送信可能とされる。   At 730, the video including the virtual object can be transmitted from the first device to the second device. For example, transmission of a video including any one of the virtual objects 191 can be transmitted to the device 200 by the transmission device 140.

740において、前記仮想オブジェクトを含む映像の同時表示は、第1の装置および第2の装置において可能とされる。例えば、オブジェクト190を含む映像は、装置100および200において同時に表示可能とされる。   At 740, simultaneous display of video including the virtual object is enabled on the first device and the second device. For example, an image including the object 190 can be displayed simultaneously on the devices 100 and 200.

750において、組み込まれた仮想オブジェクトの第1の装置および第2の装置における協同的操作が可能とされる。例えば、ユーザ205は第1のビュー212内の仮想オブジェクト190と対話し、ユーザ105はまた第2のビュー114内の仮想オブジェクトと協同的に(または同時に)対話する。   At 750, cooperative operation of the embedded virtual object on the first device and the second device is enabled. For example, the user 205 interacts with the virtual object 190 in the first view 212 and the user 105 also interacts cooperatively (or simultaneously) with the virtual object in the second view 114.

ここで図8を参照すると、方法800の810において、仮想オブジェクトにアクセスするように命令が受信される。例えば、タッチスクリーン表示装置におけるユーザ入力に応答して、仮想オブジェクト190にアクセスするように命令が受信される。   Referring now to FIG. 8, at 810 of method 800, an instruction is received to access a virtual object. For example, a command is received to access the virtual object 190 in response to user input on the touch screen display device.

820において、仮想オブジェクトはテレビ会議に組み込まれ、その仮想オブジェクトは第2の装置のユーザによって操作される。例えば、仮想オブジェクト190は装置100においてアクセスされ、そして装置100において装置100でキャプチャされた映像に組み込まれる。組み込まれた仮想オブジェクト190を含む映像は、装置200において表示され操作されるように構成される。1つの実施形態においては、822において、タッチスクリーン表示装置上のユーザ入力に応答して、仮想オブジェクトはテレビ会議に組み込まれる。   At 820, the virtual object is incorporated into the video conference and the virtual object is manipulated by the user of the second device. For example, the virtual object 190 is accessed at the device 100 and embedded in the video captured by the device 100 at the device 100. Video including the embedded virtual object 190 is configured to be displayed and manipulated on the device 200. In one embodiment, at 822, in response to user input on the touch screen display device, the virtual object is incorporated into the video conference.

830において、組み込まれた仮想オブジェクトを含むテレビ会議の映像は、第2の装置に送信される。   At 830, the video conference video including the embedded virtual object is transmitted to the second device.

840において、第1の装置においてキャプチャされたテレビ会議は、第2の装置において表示される。例えば、装置100におけるユーザ105の映像は、装置100においてキャプチャされ、装置200において表示される。   At 840, the video conference captured at the first device is displayed at the second device. For example, an image of the user 105 in the device 100 is captured in the device 100 and displayed on the device 200.

850において、テレビ会議に組み込まれる仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は、仮想オブジェクト190を回転させることにより、第1のビュー212内に表示される仮想オブジェクト190と対話する。   At 850, the virtual object that is to be incorporated into the video conference is manipulated on the second device. For example, the user 205 interacts with the virtual object 190 displayed in the first view 212 by rotating the virtual object 190.

1つの実施形態においては、855において、タッチスクリーン表示装置において受信されたユーザ入力に応答して、テレビ会議に組み込まれた仮想オブジェクトは、携帯移動式装置において操作される。例えば、装置200はタッチスクリーン表示装置を備える携帯装置(例えば、携帯電話)である。したがって、ユーザ205のタッチスクリーン表示装置へのタッチに応答して、仮想オブジェクト190のサイズが減じられる。   In one embodiment, at 855, in response to user input received at the touch screen display device, the virtual object embedded in the video conference is manipulated at the portable mobile device. For example, the device 200 is a portable device (eg, a mobile phone) that includes a touch screen display device. Accordingly, in response to the user 205 touching the touch screen display device, the size of the virtual object 190 is reduced.

860において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置において操作される。例えば、ユーザ105は仮想オブジェクト190のサイズを減じることにより、第2のビュー114内に表示される仮想オブジェクト190と対話する。   At 860, the virtual object embedded in the video conference is manipulated on the first device. For example, the user 105 interacts with the virtual object 190 displayed in the second view 114 by reducing the size of the virtual object 190.

870において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ105は彼の頭を左から右へ動かし、仮想オブジェクト190は頭の動きを追跡する。また、ユーザ205は仮想オブジェクト190がユーザ105の頭の動きを追跡中に、協同的に仮想オブジェクト190を回転させる。   At 870, the virtual object incorporated into the video conference is manipulated cooperatively on the first device and the second device. For example, the user 105 moves his head from left to right, and the virtual object 190 tracks the movement of the head. In addition, the user 205 cooperatively rotates the virtual object 190 while the virtual object 190 is tracking the movement of the head of the user 105.

880において、第2の装置においてキャプチャされたテレビ会議の映像と仮想オブジェクトが、第1の装置において同時に表示される。例えば、第2の装置200においてキャプチャされた映像は、第1のビュー112上で表示され、組み込まれた仮想オブジェクト190を含む、装置100においてキャプチャされた映像は同時に第2のビュー114上で表示される。   At 880, the video conference video and virtual object captured at the second device are simultaneously displayed at the first device. For example, the video captured on the second device 200 is displayed on the first view 112, and the video captured on the device 100 including the embedded virtual object 190 is displayed on the second view 114 at the same time. Is done.

890において、第1の装置においてキャプチャされた第1の映像と第2の装置においてキャプチャされた第2の映像は、第1の装置において同時に表示される。   At 890, the first video captured at the first device and the second video captured at the second device are simultaneously displayed on the first device.

ここで図9を参照すると、方法900の910において、第1の装置においてキャプチャされた映像が第1の装置上で表示される。   Referring now to FIG. 9, in method 910, video captured at the first device is displayed on the first device.

915において、仮想オブジェクトが第1の装置において受信され、その仮想オブジェクトがテレビ会議を強化するように構成される。様々な実施形態において、仮想オブジェクト(複数可)は、これらに限定されないが、地理関連仮想オブジェクト、時間関連仮想オブジェクト、文化関連仮想オブジェクト、および/またはユーザ作成仮想オブジェクトであり得る。   At 915, a virtual object is received at the first device, and the virtual object is configured to enhance a video conference. In various embodiments, the virtual object (s) can be, but is not limited to, a geographic related virtual object, a time related virtual object, a culture related virtual object, and / or a user created virtual object.

920において、仮想オブジェクトは第1の装置においてキャプチャされた映像に組み込まれる。例えば、仮想オブジェクト190は装置100においてキャプチャされた映像に組み込まれ、その仮想オブジェクト190はユーザ105の頭上に配置され、そしてユーザ105の頭の動きを追跡する。   At 920, the virtual object is embedded in the video captured at the first device. For example, the virtual object 190 is embedded in the video captured by the device 100, the virtual object 190 is placed over the user 105 's head and tracks the movement of the user 105' s head.

1つの実施形態においては、922において、タッチスクリーン表示装置におけるユーザ入力に応答して、仮想オブジェクトは装置においてキャプチャされた映像に組み込まれる。例えば、装置100のタッチスクリーン表示装置におけるユーザ105の入力に応答して、任意の数の仮想オブジェクトが装置100においてキャプチャされた映像に組み込まれる。   In one embodiment, at 922, in response to user input at the touch screen display device, the virtual object is incorporated into the video captured at the device. For example, in response to user 105 input on the touch screen display device of device 100, any number of virtual objects are incorporated into the video captured by device 100.

930において、仮想オブジェクトを含む映像は、第2の装置において表示可能とされ、その仮想オブジェクトは第2の装置において操作される。935において、仮想オブジェクトを含む映像は、第2の装置に送信される。   At 930, the video including the virtual object can be displayed on the second device, and the virtual object is operated on the second device. At 935, the video including the virtual object is transmitted to the second device.

940において、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は、第1のビュー212内に表示される仮想装置190の色を赤に変更する。   At 940, the virtual object that is embedded in the video captured at the first device is manipulated at the second device. For example, the user 205 changes the color of the virtual device 190 displayed in the first view 212 to red.

1つの実施形態においては、942において、携帯移動式装置のタッチスクリーン表示装置において受信されたユーザ入力に応答して、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトが操作される。例えば、装置200のタッチスクリーン表示装置におけるユーザ入力に応答して、ユーザ205は仮想装置190を星(描写されるように)から電球(示されていない)に変更する。   In one embodiment, at 942, a virtual object embedded in a video captured at the first device is manipulated in response to user input received at the touch screen display device of the portable mobile device. For example, in response to user input on the touch screen display device of device 200, user 205 changes virtual device 190 from a star (as depicted) to a light bulb (not shown).

945において、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第1の装置において操作される。例えばユーザ105は仮想装置190の場所を、ユーザ105の頭の頂部からユーザ105の左手に変更する。   At 945, the virtual object embedded in the video captured at the first device is manipulated at the first device. For example, the user 105 changes the location of the virtual device 190 from the top of the head of the user 105 to the left hand of the user 105.

950において、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ205は第1のビュー212内の仮想オブジェクト190を操作し、ユーザ105は第2のビュー114内の仮想オブジェクトを協同的に操作する。   At 950, the virtual object that is embedded in the video captured at the first device is operated cooperatively at the first device and the second device. For example, the user 205 operates the virtual object 190 in the first view 212, and the user 105 operates the virtual object in the second view 114 cooperatively.

955において、仮想オブジェクトおよび第1の装置でキャプチャされた映像は、第1の装置において同時に表示される。560において、第1の装置においてキャプチャされた映像と第2の装置においてキャプチャされた映像は、第1の装置において同時に表示される。   At 955, the virtual object and the video captured by the first device are simultaneously displayed on the first device. At 560, the video captured at the first device and the video captured at the second device are simultaneously displayed on the first device.

本発明の様々な実施形態がこのように記述される。本発明は特定の実施形態において記述されてきたが、本発明はその様な実施形態によって限定されるものと解釈されるべきではなく、以下の請求項に従って解釈されるべきことを十分に理解されたい。   Various embodiments of the invention are thus described. While the invention has been described in certain embodiments, it is to be understood that the invention is not to be construed as limited by such embodiments, but is to be construed according to the following claims. I want.

本明細書中に記述されるすべての要素、部分、およびステップは、望ましいものとして含まれている。当業者には明瞭なことではあるが、これらの要素、部分、およびステップのいずれも他の要素、部分、およびステップにより置き換え可能であり、あるいは完全に削除可能であることを理解されたい。   All elements, portions, and steps described herein are included as desired. It will be apparent to those skilled in the art that any of these elements, portions, and steps can be replaced by other elements, portions, and steps, or can be completely deleted.

当業者は理解するであろうが、本記述内で述べられる方法ステップは、それらには限定されないが、処理装置、少なくともキーボード、マウス、スキャナ、カメラを備える入力装置、少なくとも監視装置および印刷機を備える出力装置を含むハードウエアによって実行し得る。方法ステップは、必要時には、適切な装置によって実行される。例えば、決定ステップは、決定アルゴリズムを実装することにより、処理装置内の決定実施ユニットによって実行可能である。当業者は理解するであろうが、この決定実施ユニットは物理的にまたは効果的に、例えば前記決定アルゴリズムを実行するときに、コンピュータの処理装置内に存在可能である。上述の分析は、本明細書中に記述される他のステップに適用される。   Those skilled in the art will appreciate that the method steps described in this description include, but are not limited to, a processing device, at least an input device comprising a keyboard, mouse, scanner, camera, at least a monitoring device and a printing press. It can be executed by hardware including an output device. Method steps are carried out by suitable devices when necessary. For example, the decision step can be performed by a decision enforcement unit in the processing device by implementing a decision algorithm. Those skilled in the art will appreciate that this decision execution unit can be physically or effectively in a computer processing unit, for example, when executing the decision algorithm. The above analysis applies to the other steps described herein.

概念
本著は少なくとも以下の概念も開示する。
概念1 第1の装置と第2の装置との間のテレビ会議を強化するためのコンピュータ実装方法であって、
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、イベントに具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む、コンピュータ実装方法。
概念2 前記イベントは、休日および特別な機会からなる群から選択される、概念1に記載のコンピュータ実装方法。
概念3 前記第1の装置のユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、概念1または2に記載のコンピュータ実装方法。
概念4 前記第1の装置のユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように前記促すことは、
前記イベントが生じる日の間、前記仮想オブジェクトを前記テレビ会議に組み込むように、前記第1の装置の前記ユーザに対して促すことをさらに含む、概念3に記載のコンピュータ実装方法。
概念5 前記第1の装置のユーザと前記第2の装置のユーザとの間の可能な関係を判定することをさらに含む、概念1〜4のいずれか1つに記載のコンピュータ実装方法。
概念6 前記第1の装置のユーザに対して、前記判定された可能な関係を確認するように促すことをさらに含む、概念5に記載のコンピュータ実装方法。
概念7 前記第1の装置のユーザに対し、前記第1のユーザと前記第2の装置の第2のユーザとの間の関係に基づき、前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、概念1〜6のいずれか1つに記載のコンピュータ実装方法。
概念8 前記第2の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作することをさらに含む、概念1〜7のいずれか1つに記載のコンピュータ実装方法。
概念9 前記第1の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作することをさらに含む、概念1〜8のいずれか1つに記載のコンピュータ実装方法。
概念10 実行されるとコンピュータ処理装置に対して、
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、かつイベントに具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む方法を実施させる記憶された命令を上に有する、有形のコンピュータ可読記憶媒体。
概念11 前記イベントは、休日および特別な機会からなる群から選択される、概念10に記載の有形のコンピュータ可読記憶媒体。
概念12 前記第1の装置のユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように促すための命令をさらに含む、概念10または11に記載の有形のコンピュータ可読記憶媒体。
概念13 前記第1の装置のユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように前記促すことは、
前記イベントが生じる日の間、前記第1の装置の前記ユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、概念12に記載の有形のコンピュータ可読記憶媒体。
概念14 前記第1の装置のユーザと前記第2の装置のユーザとの間の可能な関係を判定するための命令をさらに含む、概念12に記載の有形のコンピュータ可読記憶媒体。
概念15 前記第1の装置のユーザに対し、前記判定された可能な関係を確認するように促すための命令をさらに含む、概念14に記載の有形のコンピュータ可読記憶媒体。
概念16 前記第1の装置のユーザに対し、前記第1のユーザと前記第2の装置の第2のユーザとの間の関係に基づき、前記仮想オブジェクトを前記テレビ会議に組み込むように促すための命令をさらに含む、概念10〜15の任意の1つに記載の有形のコンピュータ可読記憶媒体。
概念17 前記第2の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作するための命令をさらに含む、概念10〜16の任意の1つに記載の有形のコンピュータ可読記憶媒体。
概念18 前記第1の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作するための命令をさらに含む、概念10〜17の任意の1つに記載の有形のコンピュータ可読記憶媒体。
Concepts This book also discloses at least the following concepts.
Concept 1. A computer-implemented method for enhancing a video conference between a first device and a second device, comprising:
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A computer-implemented method comprising:
Concept 2. The computer-implemented method of Concept 1, wherein the event is selected from the group consisting of holidays and special occasions.
Concept 3. The computer-implemented method of Concept 1 or 2, further comprising prompting a user of the first device to incorporate the virtual object into the video conference.
Concept 4 The prompt for the user of the first device to incorporate the virtual object into the video conference is:
4. The computer-implemented method of Concept 3, further comprising prompting the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
Concept 5. The computer-implemented method of any one of Concepts 1-4, further comprising determining a possible relationship between a user of the first device and a user of the second device.
Concept 6. The computer-implemented method of Concept 5, further comprising prompting a user of the first device to confirm the determined possible relationship.
Concept 7: Encourage the user of the first device to incorporate the virtual object into the video conference based on the relationship between the first user and the second user of the second device. The computer-implemented method according to any one of concepts 1 to 6, further including:
Concept 8 The computer-implemented method according to any one of Concepts 1 to 7, further comprising: operating the virtual object embedded in the video conference in the second device.
Concept 9: The computer-implemented method according to any one of Concepts 1-8, further comprising operating the virtual object embedded in the video conference in the first device.
Concept 10 When executed on a computer processing device,
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A tangible computer readable storage medium having stored instructions thereon that cause a method comprising:
Concept 11. The tangible computer readable storage medium of Concept 10, wherein the event is selected from the group consisting of holidays and special occasions.
Concept 12. The tangible computer readable storage medium of Concept 10 or 11, further comprising instructions for prompting a user of the first device to incorporate the virtual object into the video conference.
Concept 13 The prompt to the user of the first device to incorporate the virtual object into the videoconference is
13. The tangible computer readable storage medium of concept 12, further comprising prompting the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
Concept 14. The tangible computer readable storage medium of Concept 12, further comprising instructions for determining a possible relationship between a user of the first device and a user of the second device.
Concept 15. The tangible computer readable storage medium of Concept 14, further comprising instructions for prompting a user of the first device to confirm the determined possible relationship.
Concept 16 for prompting a user of the first device to incorporate the virtual object into the video conference based on a relationship between the first user and a second user of the second device. A tangible computer readable storage medium according to any one of concepts 10 to 15, further comprising instructions.
Concept 17. The tangible computer readable storage medium of any one of concepts 10 to 16, further comprising instructions for manipulating the virtual object embedded in the video conference in the second device.
Concept 18. The tangible computer readable storage medium of any one of concepts 10-17, further comprising instructions for manipulating the virtual object embedded in the video conference in the first device.

Claims (18)

第1の装置と第2の装置との間のテレビ会議を強化するためのコンピュータ実装方法であって、
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、またイベントに具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む、コンピュータ実装方法。
A computer-implemented method for enhancing a video conference between a first device and a second device, comprising:
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A computer-implemented method comprising:
前記イベントは休日および特別な機会からなる群から選択される、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, wherein the event is selected from the group consisting of holidays and special occasions. 前記第1の装置のユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, further comprising prompting a user of the first device to incorporate the virtual object into the video conference. 前記第1の装置のユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように前記促すことは、
前記イベントが生じる日の間、前記第1の装置の前記ユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、請求項3に記載のコンピュータ実装方法。
Prompting the user of the first device to incorporate the virtual object into the video conference;
4. The computer-implemented method of claim 3, further comprising urging the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
前記第1の装置のユーザと前記第2の装置のユーザとの間の可能な関係を判定することをさらに含む、請求項1に記載のコンピュータ実装方法。   The computer-implemented method of claim 1, further comprising determining a possible relationship between a user of the first device and a user of the second device. 前記第1の装置のユーザに対して、前記判定された可能な関係を確認するように促すことをさらに含む、請求項5に記載のコンピュータ実装方法。   6. The computer-implemented method of claim 5, further comprising prompting a user of the first device to confirm the determined possible relationship. 前記第1の装置のユーザに対し、前記第1のユーザと前記第2の装置の第2のユーザとの間の関係に基づいて、前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、請求項1に記載のコンピュータ実装方法。   Further urging the user of the first device to incorporate the virtual object into the video conference based on the relationship between the first user and the second user of the second device. The computer-implemented method of claim 1, comprising: 前記第2の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作することをさらに含む、請求項1に記載のコンピュータ実装方法。   The computer-implemented method according to claim 1, further comprising: operating the virtual object embedded in the video conference in the second device. 前記第1の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作することをさらに含む、請求項1に記載のコンピュータ実装方法。   The computer-implemented method according to claim 1, further comprising: operating the virtual object embedded in the video conference in the first device. 実行されるとコンピュータ処理装置に対して、
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、またイベントに対して具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む方法を実施させる記憶された命令を上に有する、有形のコンピュータ可読記憶媒体。
When executed, against the computer processing device
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A tangible computer readable storage medium having stored instructions thereon that cause a method comprising:
前記イベントは休日および特別な機会からなる群から選択される、請求項10に記載の有形のコンピュータ可読記憶媒体。   The tangible computer readable storage medium of claim 10, wherein the event is selected from the group consisting of holidays and special occasions. 前記第1の装置のユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように促すための命令をさらに含む、請求項10に記載の有形のコンピュータ可読記憶媒体。   The tangible computer readable storage medium of claim 10, further comprising instructions for prompting a user of the first device to incorporate the virtual object into the video conference. 前記第1の装置のユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように前記促すことは、
前記イベントが生じる日の間、前記第1の装置の前記ユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、請求項12に記載の有形のコンピュータ可読記憶媒体。
Prompting the user of the first device to incorporate the virtual object into the video conference;
13. The tangible computer readable storage medium of claim 12, further comprising prompting the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
前記第1の装置のユーザと前記第2の装置のユーザとの間の可能な関係を判定するための命令をさらに含む、請求項12に記載の有形のコンピュータ可読記憶媒体。   The tangible computer readable storage medium of claim 12, further comprising instructions for determining a possible relationship between a user of the first device and a user of the second device. 前記第1の装置のユーザに対し、前記判定された可能な関係を確認するように促すための命令をさらに含む、請求項14に記載の有形のコンピュータ可読記憶媒体。   15. The tangible computer readable storage medium of claim 14, further comprising instructions for prompting a user of the first device to confirm the determined possible relationship. 前記第1の装置のユーザに対し、前記第1のユーザと前記第2の装置の第2のユーザとの間の関係に基づいて、前記仮想オブジェクトを前記テレビ会議に組み込むように促すための命令をさらに含む、請求項10に記載の有形のコンピュータ可読記憶媒体。   Instructions to prompt the user of the first device to incorporate the virtual object into the video conference based on the relationship between the first user and the second user of the second device The tangible computer readable storage medium of claim 10, further comprising: 前記第2の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作するための命令をさらに含む、請求項10に記載の有形のコンピュータ可読記憶媒体。   The tangible computer readable storage medium of claim 10, further comprising instructions for manipulating the virtual object embedded in the video conference in the second device. 前記第1の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作するための命令をさらに含む、請求項10に記載の有形のコンピュータ可読記憶媒体。   The tangible computer readable storage medium of claim 10, further comprising instructions for manipulating the virtual object embedded in the video conference in the first device.
JP2014531822A 2011-09-23 2012-08-20 Strengthen video conferencing Pending JP2014532330A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/241,918 2011-09-23
US13/241,918 US9544543B2 (en) 2011-02-11 2011-09-23 Augmenting a video conference
PCT/US2012/051595 WO2013043289A1 (en) 2011-09-23 2012-08-20 Augmenting a video conference

Publications (1)

Publication Number Publication Date
JP2014532330A true JP2014532330A (en) 2014-12-04

Family

ID=47914747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014531822A Pending JP2014532330A (en) 2011-09-23 2012-08-20 Strengthen video conferencing

Country Status (5)

Country Link
EP (1) EP2759127A4 (en)
JP (1) JP2014532330A (en)
KR (1) KR20140063673A (en)
CN (1) CN103814568A (en)
WO (1) WO2013043289A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096311A (en) * 2017-11-21 2019-06-20 ハイパーコネクト インク Method for providing interactive visual object during video call and interactive visual object provision system performing the same
JP2020529084A (en) * 2017-08-04 2020-10-01 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Image processing method, equipment and storage medium
JP2021524187A (en) * 2018-05-07 2021-09-09 アップル インコーポレイテッドApple Inc. Modifying video streams with supplemental content for video conferencing
JP2022000958A (en) * 2015-12-15 2022-01-04 Line株式会社 Video conversation system and method using bidirectional transmission of visual or auditory effect
US11336600B2 (en) 2018-05-07 2022-05-17 Apple Inc. Modifying images with supplemental content for messaging
JP2022526511A (en) * 2019-08-28 2022-05-25 北京市商▲湯▼科技▲開▼▲發▼有限公司 Interactive methods, devices, devices, and storage media

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107613242A (en) * 2017-09-12 2018-01-19 宇龙计算机通信科技(深圳)有限公司 Video conference processing method and terminal, server
CN113766168A (en) * 2021-05-31 2021-12-07 腾讯科技(深圳)有限公司 Interactive processing method, device, terminal and medium
KR102393042B1 (en) 2021-06-15 2022-04-29 주식회사 브이온 Video conferencing system
CN113938336A (en) * 2021-11-15 2022-01-14 网易(杭州)网络有限公司 Conference control method and device and electronic equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003158727A (en) * 2001-09-07 2003-05-30 Canon Inc Electronic apparatus, imaging apparatus, portable communications apparatus, method and program for controlling display of video
JP2003244425A (en) * 2001-12-04 2003-08-29 Fuji Photo Film Co Ltd Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same
US20040056887A1 (en) * 2002-09-24 2004-03-25 Lg Electronics Inc. System and method for multiplexing media information over a network using reduced communications resources and prior knowledge/experience of a called or calling party
JP2005079882A (en) * 2003-08-29 2005-03-24 Sega Corp Dynamic image two-way communication terminal, video-phone system, and computer program
JP2006173879A (en) * 2004-12-14 2006-06-29 Hitachi Ltd Communication system
US20070242066A1 (en) * 2006-04-14 2007-10-18 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US20090244256A1 (en) * 2008-03-27 2009-10-01 Motorola, Inc. Method and Apparatus for Enhancing and Adding Context to a Video Call Image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572248A (en) * 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
US6731323B2 (en) * 2002-04-10 2004-05-04 International Business Machines Corporation Media-enhanced greetings and/or responses in communication systems
US20060088038A1 (en) * 2004-09-13 2006-04-27 Inkaar, Corporation Relationship definition and processing system and method
US8373799B2 (en) * 2006-12-29 2013-02-12 Nokia Corporation Visual effects for video calls
KR101533065B1 (en) * 2008-12-01 2015-07-01 삼성전자주식회사 Method and apparatus for providing animation effect on video telephony call
US8908003B2 (en) * 2009-09-17 2014-12-09 Nokia Corporation Remote communication system and method
KR101234495B1 (en) * 2009-10-19 2013-02-18 한국전자통신연구원 Terminal, node device and method for processing stream in video conference system
US8665307B2 (en) * 2011-02-11 2014-03-04 Tangome, Inc. Augmenting a video conference

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003158727A (en) * 2001-09-07 2003-05-30 Canon Inc Electronic apparatus, imaging apparatus, portable communications apparatus, method and program for controlling display of video
JP2003244425A (en) * 2001-12-04 2003-08-29 Fuji Photo Film Co Ltd Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same
US20040056887A1 (en) * 2002-09-24 2004-03-25 Lg Electronics Inc. System and method for multiplexing media information over a network using reduced communications resources and prior knowledge/experience of a called or calling party
JP2005079882A (en) * 2003-08-29 2005-03-24 Sega Corp Dynamic image two-way communication terminal, video-phone system, and computer program
JP2006173879A (en) * 2004-12-14 2006-06-29 Hitachi Ltd Communication system
US20070242066A1 (en) * 2006-04-14 2007-10-18 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US20090244256A1 (en) * 2008-03-27 2009-10-01 Motorola, Inc. Method and Apparatus for Enhancing and Adding Context to a Video Call Image

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242784B2 (en) 2015-12-15 2023-03-20 Line株式会社 Video call system and method using two-way transmission of visual or auditory effects
JP2022000958A (en) * 2015-12-15 2022-01-04 Line株式会社 Video conversation system and method using bidirectional transmission of visual or auditory effect
JP7098120B2 (en) 2017-08-04 2022-07-11 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Image processing method, device and storage medium
JP2020529084A (en) * 2017-08-04 2020-10-01 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Image processing method, equipment and storage medium
US11182615B2 (en) 2017-08-04 2021-11-23 Tencent Technology (Shenzhen) Company Limited Method and apparatus, and storage medium for image data processing on real object and virtual object
US10750102B2 (en) 2017-11-21 2020-08-18 Hyperconnect, Inc. Method of providing interactable visual object during video call and system performing method
JP2019096311A (en) * 2017-11-21 2019-06-20 ハイパーコネクト インク Method for providing interactive visual object during video call and interactive visual object provision system performing the same
US11336600B2 (en) 2018-05-07 2022-05-17 Apple Inc. Modifying images with supplemental content for messaging
JP7133650B2 (en) 2018-05-07 2022-09-08 アップル インコーポレイテッド Modification of video streams with supplemental content for video conferencing
JP2021524187A (en) * 2018-05-07 2021-09-09 アップル インコーポレイテッドApple Inc. Modifying video streams with supplemental content for video conferencing
US11736426B2 (en) 2018-05-07 2023-08-22 Apple Inc. Modifying images with supplemental content for messaging
US11889229B2 (en) 2018-05-07 2024-01-30 Apple Inc. Modifying video streams with supplemental content for video conferencing
JP2022526511A (en) * 2019-08-28 2022-05-25 北京市商▲湯▼科技▲開▼▲發▼有限公司 Interactive methods, devices, devices, and storage media

Also Published As

Publication number Publication date
EP2759127A1 (en) 2014-07-30
CN103814568A (en) 2014-05-21
EP2759127A4 (en) 2014-10-15
KR20140063673A (en) 2014-05-27
WO2013043289A1 (en) 2013-03-28

Similar Documents

Publication Publication Date Title
US9544543B2 (en) Augmenting a video conference
JP2014532330A (en) Strengthen video conferencing
US9253440B2 (en) Augmenting a video conference
US8767034B2 (en) Augmenting a video conference
US9262753B2 (en) Video messaging
TWI720462B (en) Modifying video streams with supplemental content for video conferencing
US10356363B2 (en) System and method for interactive video conferencing
US10165261B2 (en) Controls and interfaces for user interactions in virtual spaces
US20180096507A1 (en) Controls and Interfaces for User Interactions in Virtual Spaces
WO2018067508A1 (en) Controls and interfaces for user interactions in virtual spaces
WO2018067514A1 (en) Controls and interfaces for user interactions in virtual spaces
WO2014181380A1 (en) Information processing device and application execution method
US20140009475A1 (en) Animation in threaded conversations
US11456887B1 (en) Virtual meeting facilitator
KR20200028830A (en) Real-time computer graphics video broadcasting service system
US20190012834A1 (en) Augmented Content System and Method
TWI221067B (en) Menu browsing method of mobile phone and system thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105