JP2014532330A - Strengthen video conferencing - Google Patents
Strengthen video conferencing Download PDFInfo
- Publication number
- JP2014532330A JP2014532330A JP2014531822A JP2014531822A JP2014532330A JP 2014532330 A JP2014532330 A JP 2014532330A JP 2014531822 A JP2014531822 A JP 2014531822A JP 2014531822 A JP2014531822 A JP 2014531822A JP 2014532330 A JP2014532330 A JP 2014532330A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- user
- video conference
- video
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
Abstract
第1の装置と第2の装置との間のテレビ会議を強化するための、コンピュータ実装方法。この方法は第1の装置において仮想オブジェクトを受信することを含み、仮想オブジェクトはテレビ会議を強化するように構成され、また仮想オブジェクトはイベントに具体的に関連する。この方法はまた、前記仮想オブジェクトを前記テレビ会議に組み込むことを含む。A computer-implemented method for enhancing a video conference between a first device and a second device. The method includes receiving a virtual object at a first device, the virtual object is configured to enhance a video conference, and the virtual object is specifically associated with an event. The method also includes incorporating the virtual object into the video conference.
Description
本出願は、「AUGMENTING A VIDEO CONFERENCE」という名称で2011年2月11日に出願され、本発明の譲受人に譲渡された係属中の米国特許出願第13/025,943号(代理人整理番号TNGO−008)の一部係属出願であり、本出願は、参照によってその全体が本明細書に組み込まれる。 This application is filed on February 11, 2011 under the name "AUGMENTING A VIDEO CONFERENCE" and is pending US Patent Application No. 13 / 025,943 (Attorney Docket No.) assigned to the assignee of the present invention. TNGO-008), a co-pending application, which is hereby incorporated by reference in its entirety.
テレビ会議の参加者は、音声/映像信号を互いに送信することによって、互いに通信する。例えば、参加者は、双方向の映像および音声送信を介して同時に対話することが可能である。しかしながら、参加者は、マイクロフォンによってキャプチャされるキャプチャされた音声、およびビデオカメラによってキャプチャされる映像信号に基づくのみでは、互いに通信を行おうとしていることを十分に表現することができない場合がある。 Video conference participants communicate with each other by transmitting audio / video signals to each other. For example, participants can interact simultaneously via interactive video and audio transmissions. However, participants may not be able to fully express that they are trying to communicate with each other based solely on the captured audio captured by the microphone and the video signal captured by the video camera.
要約すると、本著は第1の装置と第2の装置との間のテレビ会議を強化するためのコンピュータ実装方法を提供する。この方法は第1の装置において仮想オブジェクトを受信することを含み、仮想オブジェクトはテレビ会議を強化するように構成され、また仮想オブジェクトはイベントに具体的に関連する。この方法はまた前記仮想オブジェクトを前記テレビ会議に組み込むことを含む。 In summary, this book provides a computer-implemented method for enhancing a video conference between a first device and a second device. The method includes receiving a virtual object at a first device, the virtual object is configured to enhance a video conference, and the virtual object is specifically associated with an event. The method also includes incorporating the virtual object into the video conference.
本記述において参照される図面は、具体的に注意書きがなされている場合を除き、原寸に比例して描かれてはいないことを理解されたい。 It should be understood that the drawings referred to in this description are not drawn to scale except where specifically noted.
ここで本技術の実施形態を詳細に参照し、その例が付随する図面に例示されている。本技術は様々な実施形態との関係において記述されるが、それらは本技術をそれらの実施形態に限定する意図ではないことを理解されるであろう。反対に、本技術は代替物、修正品、および同等品を網羅することが意図されており、それらは、添付される請求項によって定義される通り、様々な実施形態の趣旨および範囲内に含まれ得る。 Reference will now be made in detail to embodiments of the present technology, examples of which are illustrated in the accompanying drawings. While the technology will be described in connection with various embodiments, it will be understood that they are not intended to limit the technology to those embodiments. On the contrary, the technology is intended to cover alternatives, modifications, and equivalents, which are included within the spirit and scope of the various embodiments, as defined by the appended claims. Can be.
さらに、実施形態の以下の記述において、本技術の完全な理解を提供するために数多くの具体的詳細が明記されている。しかしながら、本技術はそれらの具体的詳細なしで実践され得る。他の例では、本実施形態の態様を不必要に不明瞭としないために、よく知られた方法、手順、構成要素、および回路は詳細には記述されていない。 Furthermore, in the following description of embodiments, numerous specific details are set forth in order to provide a thorough understanding of the present technology. However, the technology may be practiced without those specific details. In other instances, well-known methods, procedures, components, and circuits have not been described in detail so as not to unnecessarily obscure aspects of the embodiments.
図1は装置100の実施形態を描写する。装置100はテレビ会議に参加するために構成される。図2はテレビ会議に参加する装置100および200を描写する。一般的には、テレビ会議は双方向の映像および音声の送信を介して2つまたはそれ以上の場所が同時に対話することを可能とする。
FIG. 1 depicts an embodiment of an
以下の説明は最初に装置100の構成要素を記述する。説明は次に、装置100と200との間のテレビ会議中の装置100の構成要素の機能性を記述する。装置100および200はテレビ会議に参加することのできる任意の通信装置(例えば、ラップトップ、デスクトップ等)である。様々な実施形態において、装置100はスマートフォン、携帯用情報端末(PDA)等の携帯移動式装置である。
The following description first describes the components of the
さらに、明瞭さおよび簡潔さのために、説明は装置100の構成要素および機能性に焦点を当てる。しかしながら、装置200は装置100と類似方法で動作する。1つの実施形態においては、装置200は装置100と同一であり、そして装置100と同一の構成要素を含む。
Further, for clarity and brevity, the description focuses on the components and functionality of the
装置100は、表示装置110、仮想オブジェクト受信装置120、仮想オブジェクト組み込み装置130、送信装置140、カメラ150、マイクロフォン152、およびスピーカ154を含む。装置100は任意選択により全地球測位システム160および仮想オブジェクト生成装置170を含む。
The
表示装置110は、装置200においてキャプチャされる映像を表示するように構成される。別の実施形態においては、表示装置110はさらに装置100においてキャプチャされる映像を表示するために構成される。
仮想オブジェクト受信装置120は、仮想オブジェクトにアクセスするために構成される。仮想オブジェクトはテレビ会議を強化するために構成され、これは以下において詳細に記述される。 The virtual object receiver 120 is configured to access a virtual object. Virtual objects are configured to enhance video conferencing, which will be described in detail below.
仮想オブジェクト組み込み装置130は、仮想オブジェクトをテレビ会議に組み込むように構成される。例えば、仮想オブジェクト組み込み装置130は、装置100および/または装置200においてキャプチャされる映像に仮想オブジェクトを組み込むように構成される。
The virtual
送信装置140はデータ(例えば、仮想オブジェクト制御コード)を送信するためのものである。
The
仮想オブジェクト操作装置135は、テレビ会議における仮想オブジェクトの操作を可能なように構成される。
The virtual
カメラ150は装置100における映像をキャプチャするためのものである。マイクロフォン152は装置100における音声をキャプチャするためのものである。スピーカ154は装置100における可聴信号を生成するためのものである。
The
全地球測位システム160は装置100の場所を判定するためのものである。
The
仮想オブジェクト生成装置170は仮想オブジェクトを生成するためのものである。 The virtual object generation device 170 is for generating a virtual object.
ここで図2を参照すると、装置100および200が互いにテレビ会議に参加している。様々な実施形態においては、2つ以上の装置が互いにテレビ会議に参加する。
Referring now to FIG. 2,
テレビ会議中、ビデオカメラ250は装置200における映像をキャプチャする。例えば、ビデオカメラ250は装置200のユーザ205の映像をキャプチャする。
During the video conference, the
ビデオカメラ150は装置100における映像をキャプチャする。例えば、ビデオカメラ150はユーザ105の映像をキャプチャする。ビデオカメラ150および250はカメラ150および250のそれぞれの視野範囲内の如何なるオブジェクトもキャプチャすることは十分に理解されるべきである。
The
マイクロフォン152は装置100におけるキャプチャされる映像信号に相当する音声信号をキャプチャする。同様に、装置200のマイクロフォンは、装置200におけるキャプチャされる映像信号に相当する音声信号をキャプチャする。
The
装置200においてキャプチャされる映像は、装置100の表示装置110に送信され、表示される。例えば、ユーザ205の映像は、表示装置110の第1のビュー112上に表示される。さらに、ユーザ205の映像は、表示装置210の第2のビュー214上に表示される。
The video captured by the
装置100においてキャプチャされる映像は、装置200の表示装置210に送信され、表示される。例えば、ユーザ105の映像は、表示装置210の第1のビュー212上に表示される。さらに、ユーザ105の映像は、表示装置110の第2のビュー114上に表示される。
The video captured by the
1つの実施形態においては、装置100および200においてキャプチャされる音声信号は、キャプチャされる映像に組み込まれる。別の実施形態では、音声信号は、送信される映像とは別に送信される。
In one embodiment, the audio signals captured by
描写されているように、第1のビュー112は表示装置110上に表示される一次ビューであり、第2のビュー114は表示装置110上に表示される小さい方の二次ビューである。様々な実施形態において、第1のビュー112と第2のビュー114のサイズは両方とも調整可能である。例えば、第2のビュー114を一次ビューに拡大することは可能であり、ビュー112のサイズを減じて二次ビューにすることが可能である。さらに、ビュー112および114のいずれか1つは、閉じたり、または完全に減じて不可視とすることができる。
As depicted, the
仮想オブジェクト受信装置120は、テレビ会議を強化するための仮想オブジェクト190を受信する。仮想オブジェクトは、サーバまたは装置200から受信可能である。仮想オブジェクトは異なる時において受信可能である。例えば、仮想オブジェクトは強化アプリケーションが装置100にダウンロードされたとき、ログイン中、またはリアルタイムで受信可能であり、その時仮想オブジェクトはテレビ会議に組み込まれるように命じられる。
The virtual object receiving device 120 receives a
図2および6に描写される仮想オブジェクト191(例えば、星、ヤシの木、花、雨雲)は仮想オブジェクトの多数の例のほんの数例である。仮想オブジェクトはテレビ会議を強化することのできる任意のオブジェクトであり得ることは十分に理解されるべきである。言い換えれば、仮想オブジェクトは、テレビ会議の参加者の間の通信を補完することができる任意のオブジェクトであり得る。例えば、仮想オブジェクトは、これらには限定されないが、口づけ、ハート、絵文字、ハイタッチ、背景(プリクラのような効果)、色空間変更、および/または画像処理変更(例えば、痩せさせる、太らせる)であり得る。 The virtual objects 191 (eg, stars, palm trees, flowers, rain clouds) depicted in FIGS. 2 and 6 are just a few of the many examples of virtual objects. It should be appreciated that a virtual object can be any object that can enhance a video conference. In other words, a virtual object can be any object that can complement communication between participants in a video conference. For example, a virtual object may include, but is not limited to, kissing, heart, emoji, high touch, background (pricra-like effect), color space change, and / or image processing change (eg, lean, fat) possible.
仮想オブジェクトは可視的仮想オブジェクトには限定されないことも評価されるべきである。例えば、仮想オブジェクトは複数のサウンドの1つが可能である。 It should also be appreciated that virtual objects are not limited to visible virtual objects. For example, the virtual object can be one of a plurality of sounds.
1つの実施形態においては、仮想オブジェクト191はユーザ105が見るための表示装置110上に表示される。例えば、仮想オブジェクト191は仮想オブジェクトバー192上に表示される。1つの実施形態においては、仮想オブジェクトバー192は第1のビュー112にオーバーレイされる。別の実施形態では、仮想オブジェクトバー192は第1のビュー112および/または第2のビュー114と同時に表示される。
In one embodiment,
様々な実施形態において、仮想オブジェクトバー192は、これらに限定されないが、キー入力、カーソルの移動、タッチスクリーン上の検出されたタッチ、およびユーザによる指定された動作(例えば、表情、ウィンク、投げキッス、手振り等)等のユーザ入力に応答して表示される。
In various embodiments, the
仮想オブジェクト組み込み装置130は、テレビ会議への仮想オブジェクト190の組み込みを容易にする。1つの実施形態においては、装置100において、仮想オブジェクト組み込み装置130は仮想オブジェクト190を装置200においてキャプチャされる映像に組み込む。例えば、仮想オブジェクト190はユーザ205の頭の上に組み込まれる。それゆえ、描写されているように、装置200においてキャプチャされる映像はオブジェクト190が組み込まれ、強化された映像が少なくとも装置200において表示される。また、組み込まれた仮想オブジェクト190を有する強化された映像は、装置100において表示される。
The virtual
1つの実施形態においては、ユーザ105は仮想オブジェクトバー192内の仮想オブジェクト190を選択し、ユーザ105により指定された場所(例えば、第1のビュー112に表示されるように、ユーザ205の頭の上に)まで仮想オブジェクト190をドラッグし、配置する。指定された場所に配置されると、仮想オブジェクト組み込み装置130は仮想オブジェクトを指定された場所に組み込む。
In one embodiment, the
別の実施形態においては、仮想オブジェクト組み込み装置130は制御コードを生成する。この制御コードは、仮想オブジェクト190が装置200においてキャプチャされる映像内にどのように組み込まれるかを命じる。
In another embodiment, virtual
例えば、制御コードを直接装置200に送信し、装置200において表示される映像にどのように仮想オブジェクト190が組み込まれるかを装置200に対して命じることが可能である。そのような例では、制御コードは装置200に対し、仮想オブジェクト190がテレビ会議において表示されることを信号で伝える、または命じる。別の例では、制御コードはサーバに送信され、次に装置200はサーバから制御コードを受信する。
For example, it is possible to send a control code directly to the
図2は、テレビ会議に組み込まれた仮想オブジェクト190を描写する。しかしながら、任意の数の仮想オブジェクトが任意の時点においてテレビ会議に組み込まれ得ることは十分に理解されるべきである。例えば、5つの異なる仮想オブジェクトが同時にテレビ会議に組み込まれ得る。
FIG. 2 depicts a
本明細書中で使用される用語「組み込む」は、仮想オブジェクトが単にテレビ会議のある部分と共に表示されることを記述するために使用されることは、十分に理解されるべきである。そのようなわけで、仮想オブジェクトは単にテレビ会議のある部分と同時に表示される。したがって、仮想オブジェクトは映像に組み込まれ、仮想オブジェクトを含むことを理解されたい。しかしながら、仮想オブジェクトはビデオストリームに統合される、またはその一部となるとは理解されてはならない。 It should be appreciated that the term “embed” as used herein is used to describe that a virtual object is simply displayed with some part of a video conference. As such, the virtual object is simply displayed simultaneously with some portion of the video conference. Thus, it should be understood that the virtual object is embedded in the video and includes the virtual object. However, it should not be understood that virtual objects are integrated into or become part of a video stream.
1つの実施形態においては、仮想オブジェクトは映像にオーバーレイとして重ねられる。したがって、仮想オブジェクトは装置100および200上に表示されるオーバーレイとして、同時に重ねられる。例えば、仮想オブジェクトはビュー112およびビュー214において表示される映像上に(図2に描写されるように)同時にオーバーレイされ、そして仮想オブジェクトはビュー114およびビュー212において表示される映像上に(図6に描写されるように)同時にオーバーレイされ得る。
In one embodiment, the virtual object is overlaid on the video as an overlay. Thus, the virtual object is superimposed simultaneously as an overlay displayed on the
別の実施形態においては、仮想オブジェクトはテレビ会議のビットストリーム中に統合される。 In another embodiment, virtual objects are integrated into a videoconference bitstream.
別の例においては、仮想オブジェクトはビュー112およびビュー212において表示される映像上に同時にオーバーレイされる。また、仮想オブジェクトは装置におけるビューから独立して表示装置の一部に表示され、双方向の映像がアクティブであることは必要としない(例えば、一方向映像がアクティブであり得る)。
In another example, the virtual object is overlaid simultaneously on the video displayed in
本明細書に記述される様々な実施形態は、互いの組み合わせにおいてもまた使用可能であることに注目されたい。すなわち、1つの記述された実施形態は1つ以上の他の記述された実施形態と組み合わせて使用可能である。 It should be noted that the various embodiments described herein can also be used in combination with each other. That is, one described embodiment can be used in combination with one or more other described embodiments.
1つの実施形態においては、送信装置140はその後、すでに仮想オブジェクト190を含む、装置200においてキャプチャされる映像を第2の装置200に送信し、したがって、仮想オブジェクト190を含む映像は表示装置210上に表示される。別の実施形態においては、送信装置140は制御コードを装置200(またはサーバ)に送信し、仮想オブジェクト190がテレビ会議にどのように組み込まれるかを装置200に対して命じる。
In one embodiment, the sending
仮想オブジェクト操作装置135は、組み込まれた仮想オブジェクト190を操作する。1つの実施形態においては、仮想オブジェクト190は装置100において操作される。例えば、タッチスクリーンにおけるユーザの入力に応答して、ユーザ105は仮想オブジェクト190を時計方向に回転させる。その結果、装置200においてキャプチャされた(そして装置100および/または装置200上に表示された)映像は強化されて仮想オブジェクトは時計方向に回転する。
The virtual
別の実施形態においては、仮想オブジェクト190は装置200において操作される。例えば、ユーザ205が彼の頭を左から右へ動かすことに応答して、仮想オブジェクト190は操作され(装置200の仮想オブジェクト操作装置を介して)、したがって、ユーザ205の頭の動きにつれて左から右に動く。したがって、装置200においてキャプチャされた(そして装置100および/または装置200上で表示された)映像は強化されて仮想オブジェクト190は左から右へ動かされる。
In another embodiment,
さらなる実施形態においては、仮想オブジェクト190は装置100および装置200において同時に操作される。例えば、ユーザ205が彼の頭を左から右へ動かし、かつユーザ105が仮想オブジェクト190を回転させる(前述のように)ことに応答して、仮想オブジェクト190は、ユーザ205の頭の動きにつれて左から右へ動き、そしてユーザ105からの入力に応答して同時に回転するように操作される。したがって、装置200においてキャプチャされた(そして装置100および/または200上で表示される)映像は強化され、仮想オブジェクト190は時計方向に回転しながら左から右へ動かされる。
In a further embodiment, the
さらなる実施形態においては、仮想オブジェクト190は指向的に操作される。例えば、ユーザ105は「パンチ」仮想オブジェクト(例えば、こぶし、ボクシングのグローブ)をユーザ205に送信する。それに応じて、ユーザ105は「パンチ」仮想オブジェクトが表示装置110内に入っていくのを見、そしてユーザ205は「パンチ」仮想オブジェクトが表示装置210から出てくるのを見る。
In a further embodiment, the
仮想オブジェクトは多様な入力に応答して操作されることを十分に理解されるべきである。例えば、仮想オブジェクトは音、ジェスチャ、表情、動作等を介して操作可能である。様々な例としては、ユーザのウィンクに応答して仮想オブジェクト(例えば、星)がユーザの目から出てき、また、ユーザの口づけに応答して赤い唇がユーザの口から飛び出てくる。 It should be appreciated that virtual objects are manipulated in response to various inputs. For example, the virtual object can be manipulated through sound, gestures, facial expressions, movements, and the like. As various examples, a virtual object (eg, a star) comes out of the user's eyes in response to the user's wink, and a red lip pops out of the user's mouth in response to the user's kiss.
1つの実施形態においては、前述のように、様々な入力の少なくとも1つが発生するまで、仮想オブジェクト191は表示装置110および/または仮想表示バー192上に表示されない。例えば、ハートの仮想オブジェクトは、タッチスクリーン上に2回のタップがあるまでは表示されない。
In one embodiment, as described above, the
任意の数の仮想オブジェクトをアクセスし、および/または選択して、テレビ会議に組み込むことが可能である。1つの実施形態では、仮想オブジェクト191は地理関連仮想オブジェクトである。例えば、仮想オブジェクト191は装置100および/または200の場所に基づく。
Any number of virtual objects can be accessed and / or selected for incorporation into a video conference. In one embodiment,
具体的には、もしも装置100がハワイに位置する場合、仮想オブジェクト191はその場所に関連する。例えば、地理に関連する仮想オブジェクトは、GPS160から判定されたハワイにおける場所に基づき、サーフボード、太陽、ヤシの木、ココナッツ等であり得るが、これらに限定されない。
Specifically, if the
場所の判定は様々な方法によって提供可能であることを十分に理解されるべきである。例えば、装置の場所の判定は、登録時にユーザによって提供される情報、装置のIPアドレス、または場所の判定に使用可能な任意の他の方法に基づくことが可能である。 It should be appreciated that location determination can be provided by various methods. For example, determining the location of a device can be based on information provided by the user at registration, the IP address of the device, or any other method that can be used to determine the location.
別の実施形態においては、仮想オブジェクト191は、テレビ会議の時間に基づく時間関連仮想オブジェクトである。例えば、テレビ会議がクリスマスの日またはその前後に発生する場合、仮想オブジェクトはクリスマスに関連するであろう(例えば、靴下、クリスマスツリー、お菓子の杖等)。別の例では、テレビ会議が夜行われる場合には、仮想オブジェクトは夜に関連するであろう(例えば、月、星、パジャマ等)。
In another embodiment, the
さらなる実施形態においては、仮想オブジェクト191は文化関連仮想オブジェクトである。例えば、ユーザ105および/または205がカナダに位置する場合は、仮想オブジェクト191は、これらには限定されないが、カナダ国旗、ホッケーのパック、カーリング用ストーン等であり得る。
In a further embodiment, the
別の実施形態においては、仮想オブジェクト191はユーザ作成仮想オブジェクトである。例えば、ユーザ105および/または205は、手作業で仮想オブジェクトを作成し、次に仮想オブジェクト生成装置170は、その作成を利用してユーザ生成仮想オブジェクトを生成する。
In another embodiment,
さらに別の実施形態においては、仮想オブジェクト191は口座の状態に基づいて利用可能および/またはアクセスされる。例えば、ユーザ105は仮想オブジェクト191にアクセスするための、支払うべき口座を有する。もしもユーザ105がその口座に対して十分な支払いを提供した場合には、ユーザ105は仮想オブジェクト191にアクセスできる。反対に、ユーザがその口座に対して十分な支払いを提供しなかった場合には、ユーザ105は仮想オブジェクト191にアクセスできない。
In yet another embodiment, the
さらに、仮想オブジェクトの使用および選択は、イベント、休日、特別な機会等に具体的に関連し得る。休日は、これらに限定されないが、宗教的休日(例えば、クリスマス、復活祭、贖罪の日等)、国の休日(例えば、新年、ワシントン大統領誕生日、戦没将兵追悼記念日等)または任意の他の振替休日(公式または非公式)であり得る。イベントまたは特別な機会は、これらに限定されないが、誕生日、記念日、卒業式、結婚式、就職、退職等があり得る。 Furthermore, the use and selection of virtual objects can be specifically related to events, holidays, special occasions, and so on. Holidays include, but are not limited to, religious holidays (eg, Christmas, Easter, Atonement Day, etc.), national holidays (eg, New Year, Washington President ’s Birthday, Memorial Day for Memorial of the War, etc.) or any other It may be a transfer holiday (official or informal). Events or special occasions can be, but are not limited to, birthdays, anniversaries, graduations, weddings, employment, retirement, etc.
例えば、感謝祭当日または前後において、七面鳥、かぼちゃパイ、巡礼者等の仮想オブジェクトが選択および/または使用される。別の例では、聖パトリックの祭日またはその前後において、クローバ、金のポット、および小妖精の仮想オブジェクトが選択および/または使用される。さらなる例においては、復活祭当日または前後において、復活祭のうさぎおよび復活祭の卵の仮想オブジェクトが選択および/または使用される。 For example, on or before or after Thanksgiving, virtual objects such as turkeys, pumpkin pie, pilgrims, etc. are selected and / or used. In another example, clovers, gold pots, and fairy virtual objects are selected and / or used on or around St. Patrick's Day. In a further example, the Easter Rabbit and Easter Egg virtual objects are selected and / or used on or around Easter Day.
1つの実施形態において、ユーザはイベント、休日、特別な機会等に具体的に関連する仮想オブジェクトを利用するように促される。例えば、米国独立記念日またはその前後において、ユーザは米国独立記念日に具体的に関連する仮想オブジェクト(例えば、花火)を選択および/または使用するように促される。具体的には、ユーザに仮想オブジェクトが提供され、そしてそのユーザはその仮想オブジェクトをテレビ会議中の別のユーザに送信するように促される。言い換えれば、仮想オブジェクトはテレビ会議に組み込まれる。 In one embodiment, the user is prompted to utilize virtual objects that are specifically associated with events, holidays, special occasions, and the like. For example, on or around US Independence Day, the user is prompted to select and / or use a virtual object (eg, fireworks) that is specifically associated with US Independence Day. Specifically, the user is provided with a virtual object and the user is prompted to send the virtual object to another user in the video conference. In other words, the virtual object is incorporated into the video conference.
別の実施形態においては、ユーザは、当事者間の関係が疑わしい、既知である、または推察される場合には、もう一方のユーザに仮想オブジェクトを送信するように促され得る。例えば、母親が彼女の息子とテレビ会議を通して話をしている。もしも母/息子の関係が疑わしい、既知である、または推察される場合には、息子は母の日に具体的に関連する仮想オブジェクト(例えば、花)を利用するように促される。 In another embodiment, the user may be prompted to send a virtual object to the other user if the relationship between the parties is suspicious, known, or inferred. For example, a mother is talking to her son through a video conference. If the mother / son relationship is suspicious, known, or inferred, the son is prompted to use a virtual object (eg, a flower) that is specifically associated with Mother's Day.
関係は様々な方法で判定可能である。例えば、これらには限定されないが、苗字、ユーザの場所、通話記録等に基づいて、関係は判定可能である。 The relationship can be determined in various ways. For example, but not limited to these, the relationship can be determined based on the last name, the location of the user, the call record, and the like.
さらに、息子は、「これはあなたの母親であると思われる。正しいか?」等のメッセージで促され得る。そのような場合、もしもその息子が自分は母親と話していると応答した場合には、息子は母の日に具体的に関連する仮想オブジェクト(例えば、花)を利用するように促される。 In addition, the son may be prompted with a message such as "This seems to be your mother. Is it right?" In such a case, if the son responds that he is talking to his mother, the son is prompted to use a virtual object (eg, a flower) that is specifically associated with Mother's Day.
仮想オブジェクトは収益源を強化可能であることも十分に理解されるべきである。例えば、100,000個の仮想オブジェクトがバレンタインデーに使用され、各仮想オブジェクトの料金は$0.50である。その結果、バレンタインデーには$50,000の料金が蓄積される。 It should also be appreciated that virtual objects can enhance revenue streams. For example, 100,000 virtual objects are used for Valentine's Day, and the fee for each virtual object is $ 0.50. As a result, a charge of $ 50,000 is accumulated on Valentine's Day.
図3〜5は、それぞれ方法300〜500の実施形態を描写する。様々な実施形態において、方法300〜500は、コンピュータ可読およびコンピュータ実行可能命令の制御の下で、処理装置および電気構成要素によって実施される。コンピュータ可読およびコンピュータ実行可能命令は、例えば、コンピュータが使用可能な揮発性および非揮発性メモリ等のデータ記憶媒体内に常駐する。しかしながら、コンピュータ可読およびコンピュータ実行可能命令は、任意のタイプのコンピュータ可読記憶媒体内に常駐し得る。いくつかの実施形態においては、方法300〜500は、図1および2に記述されるように、装置100および/または装置200によって実施される。
3-5 depict embodiments of methods 300-500, respectively. In various embodiments, the methods 300-500 are performed by processing devices and electrical components under the control of computer readable and computer executable instructions. Computer-readable and computer-executable instructions reside, for example, in data storage media such as volatile and non-volatile memory usable by the computer. However, computer readable and computer executable instructions may reside in any type of computer readable storage medium. In some embodiments, methods 300-500 are performed by
ここで図3を参照すると、方法300の310において、仮想オブジェクトは第1の装置によってアクセス可能とされており、第1の装置は第2の装置とのテレビ会議に参加するために構成されている。例えば、仮想オブジェクト190は装置100によりアクセス可能とされ、装置100は少なくとも装置200とのテレビ会議に参加するように構成される。
Referring now to FIG. 3, at 310 of the
320において、仮想オブジェクトは第2の装置においてキャプチャされるテレビ会議の映像内に組み込み可能とされ、仮想オブジェクトを含む映像は第2の装置において表示されるように構成される。例えば、仮想オブジェクト190は装置200においてユーザ205をキャプチャした映像に組み込み可能とされ、そして装置200において表示される。
At 320, the virtual object can be embedded in a video conference video captured at the second device, and the video including the virtual object is configured to be displayed at the second device. For example, the
330において、仮想オブジェクトを含む映像は、第1の装置から第2の装置へ送信可能とされる。例えば、仮想オブジェクト191の任意の1つを含む映像の送信は、装置200に対して送信装置140により送信可能とされる。
At 330, the video including the virtual object can be transmitted from the first device to the second device. For example, transmission of a video including any one of the
340において、仮想オブジェクトを含む映像の同時表示は、第1の装置および第2の装置において可能とされる。例えば、オブジェクト190を含む映像は、装置100および200において同時に表示可能とされる。
At 340, simultaneous display of video including virtual objects is enabled on the first device and the second device. For example, an image including the
350において、第1の装置および第2の装置における、組み込まれた仮想オブジェクトの協同的操作が可能とされる。例えば、ユーザ205は第2のビュー214における仮想オブジェクト190と対話し、ユーザ105も第1のビュー112における仮想オブジェクトと協同的に対話する。
At 350, collaborative manipulation of embedded virtual objects in the first device and the second device is enabled. For example, the
ここで図4を参照すると、方法400の410において、仮想オブジェクトにアクセスするための命令が受信される。例えば、ユーザ入力(例えば、キー入力、カーソル移動、タッチスクリーン上の検出されたタッチ等)に応答して、仮想オブジェクト190にアクセスするために命令が受信される。様々な実施形態では、仮想オブジェクト(複数可)は、これらに限定されないが、地理関連仮想オブジェクト、時間関連仮想オブジェクト、文化関連仮想オブジェクト、および/またはユーザ作成仮想オブジェクトであり得る。
Referring now to FIG. 4, at 410 of
420において、仮想オブジェクトはテレビ会議に組み込まれ、その仮想オブジェクトは第1の装置によりアクセスされ、そして第2の装置において表示されるように構成される。例えば、仮想オブジェクト190は装置100においてアクセスされ、そして装置100において装置200においてキャプチャされた映像に組み込まれる。組み込まれた仮想オブジェクト190を含む映像は、装置200において表示されるように構成される。
At 420, the virtual object is incorporated into a video conference, and the virtual object is configured to be accessed by the first device and displayed on the second device. For example, the
別の例では、ユーザ105は、第1のビュー112において唇の場所をユーザ105の頬の上に指定することにより、唇の仮想オブジェクト(口づけを意味する)をユーザ205の頬の上に置くことができる。したがって、唇の仮想オブジェクトは装置200においてキャプチャされた映像内に組み込まれ、そして装置100および200上に表示される。唇の仮想オブジェクトはテレビ会議の継続中に組み込まれ得り、または指定された継続時間組み込まれ得る。
In another example, the
1つの実施形態においては、422において、タッチスクリーン表示装置上のユーザ入力に応答して、仮想オブジェクトがテレビ会議に組み込まれる。例えば、装置100のタッチスクリーン表示装置上のユーザ入力に応答して、仮想オブジェクトはテレビ会議に組み込まれる。
In one embodiment, at 422, the virtual object is incorporated into the video conference in response to user input on the touch screen display. For example, in response to user input on the touch screen display device of
430において、組み込まれた仮想オブジェクトを含むテレビ会議の映像は、第2の装置に送信される。例えば、仮想オブジェクトを含む映像は、送信装置140を介して装置200に送信される。
At 430, video of the video conference including the embedded virtual object is transmitted to the second device. For example, the video including the virtual object is transmitted to the
440において、第2の装置においてキャプチャされたテレビ会議の映像は、第1の装置において表示される。例えば、装置200におけるユーザ205の映像は、装置200においてキャプチャされ、装置100において表示される。
At 440, the video conference video captured at the second device is displayed at the first device. For example, an image of the
450において、テレビ会議に組み込まれた仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は、仮想オブジェクト190を回転させることによって、第2のビュー214内に表示される仮想オブジェクト190と対話する。
At 450, the virtual object embedded in the video conference is manipulated on the second device. For example, the
460において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置において操作される。例えば、ユーザ105は、仮想オブジェクト190のサイズを減じることにより、第1のビュー112内に表示される仮想オブジェクト190と対話する。
At 460, the virtual object embedded in the video conference is manipulated on the first device. For example, the
1つの実施形態においては、465において、携帯装置のタッチスクリーン表示装置において受信されるユーザ入力に応答して、テレビ会議に組み込まれた仮想オブジェクトが操作される。例えば、装置100はタッチスクリーン表示装置を備えた携帯装置(例えば、携帯電話)である。したがって、ユーザ105によるタッチスクリーン表示装置へのタッチに応答して、仮想オブジェクト190のサイズが減じられる。
In one embodiment, at 465, a virtual object embedded in a video conference is manipulated in response to user input received at the touch screen display device of the portable device. For example, the
470において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ205は彼の頭を左から右に動かし、それによって、仮想オブジェクト190は頭の動きを追跡する。また、ユーザ105は、仮想オブジェクト190がユーザ205の頭の動きを追跡している間、仮想オブジェクト190を協同的に回転させる。
At 470, the virtual object incorporated into the video conference is manipulated cooperatively on the first device and the second device. For example, the
480において、第2の装置においてキャプチャされたテレビ会議の映像と仮想オブジェクトは、第1の装置において同時に表示される。例えば、組み込まれた仮想オブジェクト190を含む第2の装置200においてキャプチャされた映像は、第1のビュー112に同時に表示される。
At 480, the video conference video and virtual object captured on the second device are simultaneously displayed on the first device. For example, the video captured in the
490において、第1の装置においてキャプチャされた第1の映像と第2の装置においてキャプチャされた第2の映像は、第1の装置において同時に表示される。例えば、装置200においてキャプチャされた映像は、第1のビュー112に表示され、装置100においてキャプチャされた映像は、同時に第2のビュー114に表示される。
At 490, the first video captured at the first device and the second video captured at the second device are simultaneously displayed on the first device. For example, the video captured by the
ここで図5を参照すると、方法500の510において、第2の装置においてキャプチャされた映像が第1の装置上で表示される。
Referring now to FIG. 5, at 510 of
515において、仮想オブジェクトは第1の装置において受信され、仮想オブジェクトはテレビ会議を強化するように構成される。様々な実施形態において、仮想オブジェクト(複数可)は、これらに限定されないが、地理関連仮想オブジェクト、時間関連仮想オブジェクト、文化関連仮想オブジェクト、および/またはユーザ生成仮想オブジェクトであり得る。 At 515, the virtual object is received at the first device and the virtual object is configured to enhance the video conference. In various embodiments, the virtual object (s) can be, but is not limited to, a geographic related virtual object, a time related virtual object, a culture related virtual object, and / or a user generated virtual object.
520において、仮想オブジェクトが第2の装置においてキャプチャされた映像に組み込まれる。例えば、仮想オブジェクト190は装置200でキャプチャされた映像に組み込まれ、仮想オブジェクト190はユーザ205の頭上に配置され、ユーザ205の頭の動きを追跡する。
At 520, the virtual object is incorporated into the video captured at the second device. For example, the
1つの実施形態では、522において、タッチスクリーン表示装置におけるユーザ入力に応答して、仮想オブジェクトは第2の装置でキャプチャされた映像に組み込まれる。例えば、装置100のタッチスクリーン表示装置におけるユーザ105の入力に応答して、任意の数の仮想オブジェクトが装置200においてキャプチャされた映像に組み込まれる。
In one embodiment, at 522, in response to user input on the touch screen display device, the virtual object is incorporated into the video captured by the second device. For example, in response to
530において、仮想オブジェクトを含む映像は、第2の装置で表示可能とされる。535において、仮想オブジェクトを含む映像は、第2の装置に送信される。 In 530, the video including the virtual object can be displayed on the second device. At 535, the video including the virtual object is transmitted to the second device.
540において、第2の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は第2のビュー214に表示される仮想装置190の色を赤に変更する。
At 540, the virtual object that is embedded in the video captured at the second device is manipulated at the second device. For example, the
545において、第2の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第1の装置において操作される。例えば、ユーザ105は仮想装置190の場所を、ユーザ205の頭の頂部からユーザ205の左手に変更する。
At 545, the virtual object that is embedded in the video captured at the second device is manipulated at the first device. For example, the
1つの実施形態においては、547において、携帯移動式装置のタッチスクリーン表示装置において受信されたユーザ入力に応答して、第2の装置においてキャプチャされた映像に組み込まれた仮想オブジェクトは、操作される。例えば、装置100のタッチスクリーン表示装置におけるユーザ入力に応答して、ユーザ105は仮想装置190を星(描写されるように)から電球(示されていない)に変更する。
In one embodiment, at 547, the virtual object embedded in the video captured at the second device is manipulated in response to user input received at the touch screen display device of the portable mobile device. . For example, in response to user input on the touch screen display device of
550において、第2の装置においてキャプチャされた映像に組み込まれた仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ205は第2のビュー214内の仮想オブジェクト190を操作し、ユーザ105は第1のビュー112内の仮想オブジェクトを協同的に操作する。
At 550, the virtual object embedded in the video captured at the second device is manipulated cooperatively at the first device and the second device. For example, the
555において、仮想オブジェクトおよび第2の装置においてキャプチャされた映像は、第1の装置において同時に表示される。560において、第1の装置においてキャプチャされた映像と第2の装置においてキャプチャされた映像は、第1の装置において同時に表示される。 At 555, the virtual object and the video captured on the second device are simultaneously displayed on the first device. At 560, the video captured at the first device and the video captured at the second device are simultaneously displayed on the first device.
図6は、互いにテレビ会議に参加している装置100および200の実施形態を描写する。装置100および200は前述のように類似した方法で動作する。
FIG. 6 depicts an embodiment of
テレビ会議中は、ビデオカメラ150が装置100において映像をキャプチャする。例えば、ビデオカメラ150は装置100のユーザ105の映像をキャプチャする。
During the video conference, the
ビデオカメラ250は装置200において映像をキャプチャする。例えば、ビデオカメラ250はユーザ205の映像をキャプチャするが、彼は装置200のユーザである。
装置100でキャプチャされた映像は装置100の表示装置110上に表示される。例えば、ユーザ105の映像は、表示装置110上に表示される第2のビュー114に表示される。さらに、ユーザ205の映像は、表示装置110上の第1のビュー112に表示される。
The video captured by the
仮想オブジェクト受信装置120は、テレビ会議に参加するユーザ105および205の間のテレビ会議を強化するために、仮想オブジェクト190を受信する。
The virtual object receiver 120 receives the
仮想オブジェクト191は、ユーザ105による閲覧のために表示装置110上に表示される。例えば、仮想オブジェクト191は仮想オブジェクトバー192上に表示される。1つの実施形態においては、仮想オブジェクトバー192は第1のビュー112とオーバーレイされる。別の実施形態では、仮想オブジェクトバー192は第1のビュー112および/または第2のビュー114と同時に表示される。
The
仮想オブジェクト組み込み装置130は、仮想オブジェクト190をテレビ会議に組み込む。具体的には、装置100において、仮想オブジェクト190は装置100においてキャプチャされた映像に組み込まれる。例えば、仮想オブジェクト190はユーザ105の頭上に組み込まれる。それゆえ、描写されているように、装置100でキャプチャされた映像はオブジェクト190が組み込まれ、強化された映像は少なくとも装置200において表示される。また、仮想オブジェクト190を組み込まれた強化された映像は、装置100において同時に表示される。
The virtual
1つの実施形態においては、ユーザ105は仮想オブジェクトバー190内の仮想オブジェクト190を選択し、仮想オブジェクト190をユーザ105によって指定された場所(例えば、描写されているようにユーザ105の頭上)までドラッグし、配置する。指定された場所に配置されると、仮想オブジェクト組み込み装置130は仮想オブジェクトを指定された場所に組み込む。
In one embodiment, the
次に送信装置140は装置100においてキャプチャされた映像を第2の装置200に送信し、これは現在仮想オブジェクト190を含んでおり、仮想オブジェクト190を含む映像は表示装置210上に表示される。
Next, the
装置200の仮想オブジェクト操作装置は、組み込まれた仮想オブジェクト190を操作する。例えば、タッチスクリーンにおけるユーザ205のユーザ入力に応答して、ユーザ205は仮想オブジェクト190を時計方向に回転させる。したがって、装置100でキャプチャされた映像(装置200および/または装置100上に表示される)は強化されて、仮想オブジェクトは時計方向に回転する。
The virtual object operation device of the
別の実施形態においては、仮想オブジェクト190は装置100において操作される。例えば、ユーザ105が彼の頭を左から右に動かすことに応答して仮想オブジェクト190は操作され(仮想オブジェクト操作装置135を介して)、ユーザ105の頭の動きにつれて左から右へと動く。したがって、装置100においてキャプチャされた画像(装置100および/または装置200上で表示される)は、強化されて仮想オブジェクト190は左から右へ動かされる。
In another embodiment,
さらなる実施形態においては、仮想オブジェクト190は装置100および装置200において同時に操作される。例えば、ユーザ105が彼の頭を左から右に動かし、またユーザ205が仮想オブジェクト190を回転させることに応答して、仮想オブジェクト190は操作され、ユーザ105の頭の動きにつれて左から右に同時に動き、ユーザ205からの入力に応答して回転する。したがって、装置100においてキャプチャされた画像(装置100および/または装置200上で表示される)は強化され、仮想オブジェクト190は時計方向に回転しながら左から右へ動かされる。
In a further embodiment, the
図7〜9は、それぞれ方法700〜900の実施形態を描写する。様々な実施形態において、方法700〜900はコンピュータ可読及びコンピュータ実行可能命令の制御の下で、処理装置および電気構成要素によって実行される。コンピュータ可読およびコンピュータ実行可能命令は、例えば、コンピュータが使用可能な揮発性および非揮発性メモリ等のデータ記憶媒体内に常駐する。しかしながら、コンピュータ可読およびコンピュータ実行可能命令は、任意のタイプのコンピュータ可読記憶媒体内に常駐し得る。いくつかの実施形態においては、方法700〜900は図1および6に記述されるように、装置100および/または装置200によって実施される。
FIGS. 7-9 depict embodiments of methods 700-900, respectively. In various embodiments, the methods 700-900 are performed by a processing device and electrical components under the control of computer readable and computer executable instructions. Computer-readable and computer-executable instructions reside, for example, in data storage media such as volatile and non-volatile memory usable by the computer. However, computer readable and computer executable instructions may reside in any type of computer readable storage medium. In some embodiments, methods 700-900 are performed by
ここで図7を参照すると、方法300の710において、仮想オブジェクトは第1の装置によってアクセス可能とされ、第1の装置は第2の装置と同時にテレビ会議に参加するように構成される。例えば、仮想オブジェクト190は装置100によってアクセス可能とされ、装置100は少なくとも装置200と同時にテレビ会議に参加するように構成される。
Referring now to FIG. 7, at 710 of
720において、仮想オブジェクトは第1の装置においてキャプチャされるテレビ会議の映像に組み込み可能とされ、仮想オブジェクトを含む映像は第2の装置において表示されるように構成される。例えば、仮想オブジェクト190はユーザ105の装置100においてキャプチャされた映像に組み込み可能とされ、装置100および200において表示される。
At 720, the virtual object can be incorporated into a video conference video captured at the first device, and the video including the virtual object is configured to be displayed at the second device. For example, the
730において、仮想オブジェクトを含む映像は、第1の装置から第2の装置へ送信可能とされる。例えば、仮想オブジェクト191の任意の1つを含む映像の送信は、送信装置140によって装置200へ送信可能とされる。
At 730, the video including the virtual object can be transmitted from the first device to the second device. For example, transmission of a video including any one of the
740において、前記仮想オブジェクトを含む映像の同時表示は、第1の装置および第2の装置において可能とされる。例えば、オブジェクト190を含む映像は、装置100および200において同時に表示可能とされる。
At 740, simultaneous display of video including the virtual object is enabled on the first device and the second device. For example, an image including the
750において、組み込まれた仮想オブジェクトの第1の装置および第2の装置における協同的操作が可能とされる。例えば、ユーザ205は第1のビュー212内の仮想オブジェクト190と対話し、ユーザ105はまた第2のビュー114内の仮想オブジェクトと協同的に(または同時に)対話する。
At 750, cooperative operation of the embedded virtual object on the first device and the second device is enabled. For example, the
ここで図8を参照すると、方法800の810において、仮想オブジェクトにアクセスするように命令が受信される。例えば、タッチスクリーン表示装置におけるユーザ入力に応答して、仮想オブジェクト190にアクセスするように命令が受信される。
Referring now to FIG. 8, at 810 of
820において、仮想オブジェクトはテレビ会議に組み込まれ、その仮想オブジェクトは第2の装置のユーザによって操作される。例えば、仮想オブジェクト190は装置100においてアクセスされ、そして装置100において装置100でキャプチャされた映像に組み込まれる。組み込まれた仮想オブジェクト190を含む映像は、装置200において表示され操作されるように構成される。1つの実施形態においては、822において、タッチスクリーン表示装置上のユーザ入力に応答して、仮想オブジェクトはテレビ会議に組み込まれる。
At 820, the virtual object is incorporated into the video conference and the virtual object is manipulated by the user of the second device. For example, the
830において、組み込まれた仮想オブジェクトを含むテレビ会議の映像は、第2の装置に送信される。 At 830, the video conference video including the embedded virtual object is transmitted to the second device.
840において、第1の装置においてキャプチャされたテレビ会議は、第2の装置において表示される。例えば、装置100におけるユーザ105の映像は、装置100においてキャプチャされ、装置200において表示される。
At 840, the video conference captured at the first device is displayed at the second device. For example, an image of the
850において、テレビ会議に組み込まれる仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は、仮想オブジェクト190を回転させることにより、第1のビュー212内に表示される仮想オブジェクト190と対話する。
At 850, the virtual object that is to be incorporated into the video conference is manipulated on the second device. For example, the
1つの実施形態においては、855において、タッチスクリーン表示装置において受信されたユーザ入力に応答して、テレビ会議に組み込まれた仮想オブジェクトは、携帯移動式装置において操作される。例えば、装置200はタッチスクリーン表示装置を備える携帯装置(例えば、携帯電話)である。したがって、ユーザ205のタッチスクリーン表示装置へのタッチに応答して、仮想オブジェクト190のサイズが減じられる。
In one embodiment, at 855, in response to user input received at the touch screen display device, the virtual object embedded in the video conference is manipulated at the portable mobile device. For example, the
860において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置において操作される。例えば、ユーザ105は仮想オブジェクト190のサイズを減じることにより、第2のビュー114内に表示される仮想オブジェクト190と対話する。
At 860, the virtual object embedded in the video conference is manipulated on the first device. For example, the
870において、テレビ会議に組み込まれた仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ105は彼の頭を左から右へ動かし、仮想オブジェクト190は頭の動きを追跡する。また、ユーザ205は仮想オブジェクト190がユーザ105の頭の動きを追跡中に、協同的に仮想オブジェクト190を回転させる。
At 870, the virtual object incorporated into the video conference is manipulated cooperatively on the first device and the second device. For example, the
880において、第2の装置においてキャプチャされたテレビ会議の映像と仮想オブジェクトが、第1の装置において同時に表示される。例えば、第2の装置200においてキャプチャされた映像は、第1のビュー112上で表示され、組み込まれた仮想オブジェクト190を含む、装置100においてキャプチャされた映像は同時に第2のビュー114上で表示される。
At 880, the video conference video and virtual object captured at the second device are simultaneously displayed at the first device. For example, the video captured on the
890において、第1の装置においてキャプチャされた第1の映像と第2の装置においてキャプチャされた第2の映像は、第1の装置において同時に表示される。 At 890, the first video captured at the first device and the second video captured at the second device are simultaneously displayed on the first device.
ここで図9を参照すると、方法900の910において、第1の装置においてキャプチャされた映像が第1の装置上で表示される。 Referring now to FIG. 9, in method 910, video captured at the first device is displayed on the first device.
915において、仮想オブジェクトが第1の装置において受信され、その仮想オブジェクトがテレビ会議を強化するように構成される。様々な実施形態において、仮想オブジェクト(複数可)は、これらに限定されないが、地理関連仮想オブジェクト、時間関連仮想オブジェクト、文化関連仮想オブジェクト、および/またはユーザ作成仮想オブジェクトであり得る。 At 915, a virtual object is received at the first device, and the virtual object is configured to enhance a video conference. In various embodiments, the virtual object (s) can be, but is not limited to, a geographic related virtual object, a time related virtual object, a culture related virtual object, and / or a user created virtual object.
920において、仮想オブジェクトは第1の装置においてキャプチャされた映像に組み込まれる。例えば、仮想オブジェクト190は装置100においてキャプチャされた映像に組み込まれ、その仮想オブジェクト190はユーザ105の頭上に配置され、そしてユーザ105の頭の動きを追跡する。
At 920, the virtual object is embedded in the video captured at the first device. For example, the
1つの実施形態においては、922において、タッチスクリーン表示装置におけるユーザ入力に応答して、仮想オブジェクトは装置においてキャプチャされた映像に組み込まれる。例えば、装置100のタッチスクリーン表示装置におけるユーザ105の入力に応答して、任意の数の仮想オブジェクトが装置100においてキャプチャされた映像に組み込まれる。
In one embodiment, at 922, in response to user input at the touch screen display device, the virtual object is incorporated into the video captured at the device. For example, in response to
930において、仮想オブジェクトを含む映像は、第2の装置において表示可能とされ、その仮想オブジェクトは第2の装置において操作される。935において、仮想オブジェクトを含む映像は、第2の装置に送信される。 At 930, the video including the virtual object can be displayed on the second device, and the virtual object is operated on the second device. At 935, the video including the virtual object is transmitted to the second device.
940において、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第2の装置において操作される。例えば、ユーザ205は、第1のビュー212内に表示される仮想装置190の色を赤に変更する。
At 940, the virtual object that is embedded in the video captured at the first device is manipulated at the second device. For example, the
1つの実施形態においては、942において、携帯移動式装置のタッチスクリーン表示装置において受信されたユーザ入力に応答して、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトが操作される。例えば、装置200のタッチスクリーン表示装置におけるユーザ入力に応答して、ユーザ205は仮想装置190を星(描写されるように)から電球(示されていない)に変更する。
In one embodiment, at 942, a virtual object embedded in a video captured at the first device is manipulated in response to user input received at the touch screen display device of the portable mobile device. For example, in response to user input on the touch screen display device of
945において、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第1の装置において操作される。例えばユーザ105は仮想装置190の場所を、ユーザ105の頭の頂部からユーザ105の左手に変更する。
At 945, the virtual object embedded in the video captured at the first device is manipulated at the first device. For example, the
950において、第1の装置においてキャプチャされた映像に組み込まれる仮想オブジェクトは、第1の装置および第2の装置において協同的に操作される。例えば、ユーザ205は第1のビュー212内の仮想オブジェクト190を操作し、ユーザ105は第2のビュー114内の仮想オブジェクトを協同的に操作する。
At 950, the virtual object that is embedded in the video captured at the first device is operated cooperatively at the first device and the second device. For example, the
955において、仮想オブジェクトおよび第1の装置でキャプチャされた映像は、第1の装置において同時に表示される。560において、第1の装置においてキャプチャされた映像と第2の装置においてキャプチャされた映像は、第1の装置において同時に表示される。 At 955, the virtual object and the video captured by the first device are simultaneously displayed on the first device. At 560, the video captured at the first device and the video captured at the second device are simultaneously displayed on the first device.
本発明の様々な実施形態がこのように記述される。本発明は特定の実施形態において記述されてきたが、本発明はその様な実施形態によって限定されるものと解釈されるべきではなく、以下の請求項に従って解釈されるべきことを十分に理解されたい。 Various embodiments of the invention are thus described. While the invention has been described in certain embodiments, it is to be understood that the invention is not to be construed as limited by such embodiments, but is to be construed according to the following claims. I want.
本明細書中に記述されるすべての要素、部分、およびステップは、望ましいものとして含まれている。当業者には明瞭なことではあるが、これらの要素、部分、およびステップのいずれも他の要素、部分、およびステップにより置き換え可能であり、あるいは完全に削除可能であることを理解されたい。 All elements, portions, and steps described herein are included as desired. It will be apparent to those skilled in the art that any of these elements, portions, and steps can be replaced by other elements, portions, and steps, or can be completely deleted.
当業者は理解するであろうが、本記述内で述べられる方法ステップは、それらには限定されないが、処理装置、少なくともキーボード、マウス、スキャナ、カメラを備える入力装置、少なくとも監視装置および印刷機を備える出力装置を含むハードウエアによって実行し得る。方法ステップは、必要時には、適切な装置によって実行される。例えば、決定ステップは、決定アルゴリズムを実装することにより、処理装置内の決定実施ユニットによって実行可能である。当業者は理解するであろうが、この決定実施ユニットは物理的にまたは効果的に、例えば前記決定アルゴリズムを実行するときに、コンピュータの処理装置内に存在可能である。上述の分析は、本明細書中に記述される他のステップに適用される。 Those skilled in the art will appreciate that the method steps described in this description include, but are not limited to, a processing device, at least an input device comprising a keyboard, mouse, scanner, camera, at least a monitoring device and a printing press. It can be executed by hardware including an output device. Method steps are carried out by suitable devices when necessary. For example, the decision step can be performed by a decision enforcement unit in the processing device by implementing a decision algorithm. Those skilled in the art will appreciate that this decision execution unit can be physically or effectively in a computer processing unit, for example, when executing the decision algorithm. The above analysis applies to the other steps described herein.
概念
本著は少なくとも以下の概念も開示する。
概念1 第1の装置と第2の装置との間のテレビ会議を強化するためのコンピュータ実装方法であって、
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、イベントに具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む、コンピュータ実装方法。
概念2 前記イベントは、休日および特別な機会からなる群から選択される、概念1に記載のコンピュータ実装方法。
概念3 前記第1の装置のユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、概念1または2に記載のコンピュータ実装方法。
概念4 前記第1の装置のユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように前記促すことは、
前記イベントが生じる日の間、前記仮想オブジェクトを前記テレビ会議に組み込むように、前記第1の装置の前記ユーザに対して促すことをさらに含む、概念3に記載のコンピュータ実装方法。
概念5 前記第1の装置のユーザと前記第2の装置のユーザとの間の可能な関係を判定することをさらに含む、概念1〜4のいずれか1つに記載のコンピュータ実装方法。
概念6 前記第1の装置のユーザに対して、前記判定された可能な関係を確認するように促すことをさらに含む、概念5に記載のコンピュータ実装方法。
概念7 前記第1の装置のユーザに対し、前記第1のユーザと前記第2の装置の第2のユーザとの間の関係に基づき、前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、概念1〜6のいずれか1つに記載のコンピュータ実装方法。
概念8 前記第2の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作することをさらに含む、概念1〜7のいずれか1つに記載のコンピュータ実装方法。
概念9 前記第1の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作することをさらに含む、概念1〜8のいずれか1つに記載のコンピュータ実装方法。
概念10 実行されるとコンピュータ処理装置に対して、
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、かつイベントに具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む方法を実施させる記憶された命令を上に有する、有形のコンピュータ可読記憶媒体。
概念11 前記イベントは、休日および特別な機会からなる群から選択される、概念10に記載の有形のコンピュータ可読記憶媒体。
概念12 前記第1の装置のユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように促すための命令をさらに含む、概念10または11に記載の有形のコンピュータ可読記憶媒体。
概念13 前記第1の装置のユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように前記促すことは、
前記イベントが生じる日の間、前記第1の装置の前記ユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、概念12に記載の有形のコンピュータ可読記憶媒体。
概念14 前記第1の装置のユーザと前記第2の装置のユーザとの間の可能な関係を判定するための命令をさらに含む、概念12に記載の有形のコンピュータ可読記憶媒体。
概念15 前記第1の装置のユーザに対し、前記判定された可能な関係を確認するように促すための命令をさらに含む、概念14に記載の有形のコンピュータ可読記憶媒体。
概念16 前記第1の装置のユーザに対し、前記第1のユーザと前記第2の装置の第2のユーザとの間の関係に基づき、前記仮想オブジェクトを前記テレビ会議に組み込むように促すための命令をさらに含む、概念10〜15の任意の1つに記載の有形のコンピュータ可読記憶媒体。
概念17 前記第2の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作するための命令をさらに含む、概念10〜16の任意の1つに記載の有形のコンピュータ可読記憶媒体。
概念18 前記第1の装置において、前記テレビ会議に組み込まれた前記仮想オブジェクトを操作するための命令をさらに含む、概念10〜17の任意の1つに記載の有形のコンピュータ可読記憶媒体。
Concepts This book also discloses at least the following concepts.
Concept 1. A computer-implemented method for enhancing a video conference between a first device and a second device, comprising:
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A computer-implemented method comprising:
Concept 2. The computer-implemented method of Concept 1, wherein the event is selected from the group consisting of holidays and special occasions.
Concept 3. The computer-implemented method of Concept 1 or 2, further comprising prompting a user of the first device to incorporate the virtual object into the video conference.
Concept 4 The prompt for the user of the first device to incorporate the virtual object into the video conference is:
4. The computer-implemented method of Concept 3, further comprising prompting the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
Concept 6. The computer-implemented method of
Concept 7: Encourage the user of the first device to incorporate the virtual object into the video conference based on the relationship between the first user and the second user of the second device. The computer-implemented method according to any one of concepts 1 to 6, further including:
Concept 8 The computer-implemented method according to any one of Concepts 1 to 7, further comprising: operating the virtual object embedded in the video conference in the second device.
Concept 9: The computer-implemented method according to any one of Concepts 1-8, further comprising operating the virtual object embedded in the video conference in the first device.
Concept 10 When executed on a computer processing device,
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A tangible computer readable storage medium having stored instructions thereon that cause a method comprising:
Concept 11. The tangible computer readable storage medium of Concept 10, wherein the event is selected from the group consisting of holidays and special occasions.
Concept 12. The tangible computer readable storage medium of Concept 10 or 11, further comprising instructions for prompting a user of the first device to incorporate the virtual object into the video conference.
Concept 13 The prompt to the user of the first device to incorporate the virtual object into the videoconference is
13. The tangible computer readable storage medium of concept 12, further comprising prompting the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
Concept 14. The tangible computer readable storage medium of Concept 12, further comprising instructions for determining a possible relationship between a user of the first device and a user of the second device.
Concept 15. The tangible computer readable storage medium of Concept 14, further comprising instructions for prompting a user of the first device to confirm the determined possible relationship.
Concept 16 for prompting a user of the first device to incorporate the virtual object into the video conference based on a relationship between the first user and a second user of the second device. A tangible computer readable storage medium according to any one of concepts 10 to 15, further comprising instructions.
Concept 17. The tangible computer readable storage medium of any one of concepts 10 to 16, further comprising instructions for manipulating the virtual object embedded in the video conference in the second device.
Concept 18. The tangible computer readable storage medium of any one of concepts 10-17, further comprising instructions for manipulating the virtual object embedded in the video conference in the first device.
Claims (18)
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、またイベントに具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む、コンピュータ実装方法。 A computer-implemented method for enhancing a video conference between a first device and a second device, comprising:
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A computer-implemented method comprising:
前記イベントが生じる日の間、前記第1の装置の前記ユーザに対して前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、請求項3に記載のコンピュータ実装方法。 Prompting the user of the first device to incorporate the virtual object into the video conference;
4. The computer-implemented method of claim 3, further comprising urging the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
前記第1の装置において、仮想オブジェクトであって、前記テレビ会議を強化するように構成され、またイベントに対して具体的に関連している、仮想オブジェクトを受信することと、
前記仮想オブジェクトを前記テレビ会議に組み込むことと、
を含む方法を実施させる記憶された命令を上に有する、有形のコンピュータ可読記憶媒体。 When executed, against the computer processing device
Receiving, in the first device, a virtual object that is configured to enhance the video conference and is specifically associated with an event;
Incorporating the virtual object into the video conference;
A tangible computer readable storage medium having stored instructions thereon that cause a method comprising:
前記イベントが生じる日の間、前記第1の装置の前記ユーザに対し、前記仮想オブジェクトを前記テレビ会議に組み込むように促すことをさらに含む、請求項12に記載の有形のコンピュータ可読記憶媒体。 Prompting the user of the first device to incorporate the virtual object into the video conference;
13. The tangible computer readable storage medium of claim 12, further comprising prompting the user of the first device to incorporate the virtual object into the video conference during the day that the event occurs.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/241,918 US9544543B2 (en) | 2011-02-11 | 2011-09-23 | Augmenting a video conference |
US13/241,918 | 2011-09-23 | ||
PCT/US2012/051595 WO2013043289A1 (en) | 2011-09-23 | 2012-08-20 | Augmenting a video conference |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014532330A true JP2014532330A (en) | 2014-12-04 |
Family
ID=47914747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014531822A Pending JP2014532330A (en) | 2011-09-23 | 2012-08-20 | Strengthen video conferencing |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2759127A4 (en) |
JP (1) | JP2014532330A (en) |
KR (1) | KR20140063673A (en) |
CN (1) | CN103814568A (en) |
WO (1) | WO2013043289A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019096311A (en) * | 2017-11-21 | 2019-06-20 | ハイパーコネクト インク | Method for providing interactive visual object during video call and interactive visual object provision system performing the same |
JP2020529084A (en) * | 2017-08-04 | 2020-10-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image processing method, equipment and storage medium |
JP2021524187A (en) * | 2018-05-07 | 2021-09-09 | アップル インコーポレイテッドApple Inc. | Modifying video streams with supplemental content for video conferencing |
JP2022000958A (en) * | 2015-12-15 | 2022-01-04 | Line株式会社 | Video conversation system and method using bidirectional transmission of visual or auditory effect |
US11336600B2 (en) | 2018-05-07 | 2022-05-17 | Apple Inc. | Modifying images with supplemental content for messaging |
JP2022526511A (en) * | 2019-08-28 | 2022-05-25 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Interactive methods, devices, devices, and storage media |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107613242A (en) * | 2017-09-12 | 2018-01-19 | 宇龙计算机通信科技(深圳)有限公司 | Video conference processing method and terminal, server |
CN113766168A (en) * | 2021-05-31 | 2021-12-07 | 腾讯科技(深圳)有限公司 | Interactive processing method, device, terminal and medium |
KR102393042B1 (en) | 2021-06-15 | 2022-04-29 | 주식회사 브이온 | Video conferencing system |
CN113938336A (en) * | 2021-11-15 | 2022-01-14 | 网易(杭州)网络有限公司 | Conference control method and device and electronic equipment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003158727A (en) * | 2001-09-07 | 2003-05-30 | Canon Inc | Electronic apparatus, imaging apparatus, portable communications apparatus, method and program for controlling display of video |
JP2003244425A (en) * | 2001-12-04 | 2003-08-29 | Fuji Photo Film Co Ltd | Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same |
US20040056887A1 (en) * | 2002-09-24 | 2004-03-25 | Lg Electronics Inc. | System and method for multiplexing media information over a network using reduced communications resources and prior knowledge/experience of a called or calling party |
JP2005079882A (en) * | 2003-08-29 | 2005-03-24 | Sega Corp | Dynamic image two-way communication terminal, video-phone system, and computer program |
JP2006173879A (en) * | 2004-12-14 | 2006-06-29 | Hitachi Ltd | Communication system |
US20070242066A1 (en) * | 2006-04-14 | 2007-10-18 | Patrick Levy Rosenthal | Virtual video camera device with three-dimensional tracking and virtual object insertion |
US20090244256A1 (en) * | 2008-03-27 | 2009-10-01 | Motorola, Inc. | Method and Apparatus for Enhancing and Adding Context to a Video Call Image |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5572248A (en) * | 1994-09-19 | 1996-11-05 | Teleport Corporation | Teleconferencing method and system for providing face-to-face, non-animated teleconference environment |
US6731323B2 (en) * | 2002-04-10 | 2004-05-04 | International Business Machines Corporation | Media-enhanced greetings and/or responses in communication systems |
US20060088038A1 (en) * | 2004-09-13 | 2006-04-27 | Inkaar, Corporation | Relationship definition and processing system and method |
US8373799B2 (en) * | 2006-12-29 | 2013-02-12 | Nokia Corporation | Visual effects for video calls |
KR101533065B1 (en) * | 2008-12-01 | 2015-07-01 | 삼성전자주식회사 | Method and apparatus for providing animation effect on video telephony call |
US8908003B2 (en) * | 2009-09-17 | 2014-12-09 | Nokia Corporation | Remote communication system and method |
KR101234495B1 (en) * | 2009-10-19 | 2013-02-18 | 한국전자통신연구원 | Terminal, node device and method for processing stream in video conference system |
US8665307B2 (en) * | 2011-02-11 | 2014-03-04 | Tangome, Inc. | Augmenting a video conference |
-
2012
- 2012-08-20 EP EP12834018.9A patent/EP2759127A4/en not_active Withdrawn
- 2012-08-20 WO PCT/US2012/051595 patent/WO2013043289A1/en active Application Filing
- 2012-08-20 JP JP2014531822A patent/JP2014532330A/en active Pending
- 2012-08-20 CN CN201280045938.4A patent/CN103814568A/en active Pending
- 2012-08-20 KR KR1020147006144A patent/KR20140063673A/en not_active Application Discontinuation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003158727A (en) * | 2001-09-07 | 2003-05-30 | Canon Inc | Electronic apparatus, imaging apparatus, portable communications apparatus, method and program for controlling display of video |
JP2003244425A (en) * | 2001-12-04 | 2003-08-29 | Fuji Photo Film Co Ltd | Method and apparatus for registering on fancy pattern of transmission image and method and apparatus for reproducing the same |
US20040056887A1 (en) * | 2002-09-24 | 2004-03-25 | Lg Electronics Inc. | System and method for multiplexing media information over a network using reduced communications resources and prior knowledge/experience of a called or calling party |
JP2005079882A (en) * | 2003-08-29 | 2005-03-24 | Sega Corp | Dynamic image two-way communication terminal, video-phone system, and computer program |
JP2006173879A (en) * | 2004-12-14 | 2006-06-29 | Hitachi Ltd | Communication system |
US20070242066A1 (en) * | 2006-04-14 | 2007-10-18 | Patrick Levy Rosenthal | Virtual video camera device with three-dimensional tracking and virtual object insertion |
US20090244256A1 (en) * | 2008-03-27 | 2009-10-01 | Motorola, Inc. | Method and Apparatus for Enhancing and Adding Context to a Video Call Image |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7242784B2 (en) | 2015-12-15 | 2023-03-20 | Line株式会社 | Video call system and method using two-way transmission of visual or auditory effects |
JP2022000958A (en) * | 2015-12-15 | 2022-01-04 | Line株式会社 | Video conversation system and method using bidirectional transmission of visual or auditory effect |
JP7098120B2 (en) | 2017-08-04 | 2022-07-11 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image processing method, device and storage medium |
JP2020529084A (en) * | 2017-08-04 | 2020-10-01 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Image processing method, equipment and storage medium |
US11182615B2 (en) | 2017-08-04 | 2021-11-23 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus, and storage medium for image data processing on real object and virtual object |
US10750102B2 (en) | 2017-11-21 | 2020-08-18 | Hyperconnect, Inc. | Method of providing interactable visual object during video call and system performing method |
JP2019096311A (en) * | 2017-11-21 | 2019-06-20 | ハイパーコネクト インク | Method for providing interactive visual object during video call and interactive visual object provision system performing the same |
US11336600B2 (en) | 2018-05-07 | 2022-05-17 | Apple Inc. | Modifying images with supplemental content for messaging |
JP7133650B2 (en) | 2018-05-07 | 2022-09-08 | アップル インコーポレイテッド | Modification of video streams with supplemental content for video conferencing |
JP2021524187A (en) * | 2018-05-07 | 2021-09-09 | アップル インコーポレイテッドApple Inc. | Modifying video streams with supplemental content for video conferencing |
US11736426B2 (en) | 2018-05-07 | 2023-08-22 | Apple Inc. | Modifying images with supplemental content for messaging |
US11889229B2 (en) | 2018-05-07 | 2024-01-30 | Apple Inc. | Modifying video streams with supplemental content for video conferencing |
JP2022526511A (en) * | 2019-08-28 | 2022-05-25 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Interactive methods, devices, devices, and storage media |
Also Published As
Publication number | Publication date |
---|---|
EP2759127A4 (en) | 2014-10-15 |
KR20140063673A (en) | 2014-05-27 |
WO2013043289A1 (en) | 2013-03-28 |
CN103814568A (en) | 2014-05-21 |
EP2759127A1 (en) | 2014-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9544543B2 (en) | Augmenting a video conference | |
JP2014532330A (en) | Strengthen video conferencing | |
US9253440B2 (en) | Augmenting a video conference | |
US8767034B2 (en) | Augmenting a video conference | |
US9262753B2 (en) | Video messaging | |
TWI720462B (en) | Modifying video streams with supplemental content for video conferencing | |
US10356363B2 (en) | System and method for interactive video conferencing | |
US10165261B2 (en) | Controls and interfaces for user interactions in virtual spaces | |
US20180096507A1 (en) | Controls and Interfaces for User Interactions in Virtual Spaces | |
WO2018067508A1 (en) | Controls and interfaces for user interactions in virtual spaces | |
WO2018067514A1 (en) | Controls and interfaces for user interactions in virtual spaces | |
WO2014181380A1 (en) | Information processing device and application execution method | |
US20140009475A1 (en) | Animation in threaded conversations | |
US11456887B1 (en) | Virtual meeting facilitator | |
KR20200028830A (en) | Real-time computer graphics video broadcasting service system | |
US20190012834A1 (en) | Augmented Content System and Method | |
TWI221067B (en) | Menu browsing method of mobile phone and system thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140821 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150722 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160105 |