JP6617641B2 - Conference display method, wearable system, and program executed by wearable device - Google Patents
Conference display method, wearable system, and program executed by wearable device Download PDFInfo
- Publication number
- JP6617641B2 JP6617641B2 JP2016081830A JP2016081830A JP6617641B2 JP 6617641 B2 JP6617641 B2 JP 6617641B2 JP 2016081830 A JP2016081830 A JP 2016081830A JP 2016081830 A JP2016081830 A JP 2016081830A JP 6617641 B2 JP6617641 B2 JP 6617641B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- input
- key frames
- type
- live conference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、ウェアラブル装置で実行される会議表示方法、ウェアラブルシステム及びプログラムに関する。 The present invention relates to a conference display method, a wearable system, and a program executed by a wearable device.
かつて会議室またはオフィスの領域に限定されていた会議は、スペース及び時間、装置をわたって段々と分散し始めている。このような分散会議は、主に、個人で構成されるグループに関連し、グループを構成する個人は通信を行い、情報を共有するために必要な技術的インフラストラクチャへアクセス可能なラップトップ、デスクトップまたは電話ベースの設定から通信を行う。しかしながら、会議出席者が旅行や移動中、オフサイトに居る(例えば、病院の待合室に居る)ときには、このような会議を意識し続けることは容易ではない。従って、分散会議を適切に進めるためには、会議出席者、ファイルまたはスクリーン、その他資料の共有を表す方法を出席者個人各々のコンテクストに適合させなければならない。 Conferences, once limited to conference rooms or office areas, are beginning to spread gradually across space, time, and equipment. Such distributed conferences are primarily related to groups of individuals, and the individuals who make up the groups communicate with each other and have access to the technical infrastructure necessary to share information. Or communicate from a phone-based setting. However, it is not easy to stay conscious of such a meeting when attendees are off-site while traveling or traveling (eg, in a hospital waiting room). Therefore, in order for a distributed conference to proceed properly, the method of representing the sharing of meeting attendees, files or screens, and other materials must be adapted to the context of each individual attendee.
分散会議の進行において個人参加が可能で、簡易で邪魔にならないツールが所望されている。 There is a need for a simple and non-intrusive tool that allows individual participation in a distributed conference.
第1の態様は、複数出席者間での会議に関連し、ユーザが身に付けたウェアラブル装置で実行される方法であって、前記ウェアラブル装置は、中央処理ユニット、表示デバイス及びメモリを含み、前記中央処理ユニットは、複数のライブ会議ストリームの各々から複数のキーフレームを抽出し、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示し、前記ユーザからの入力を検知し、検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、検知された前記ユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する。 A first aspect relates to a conference between a plurality of attendees, and is a method executed by a wearable device worn by a user, the wearable device including a central processing unit, a display device, and a memory, The central processing unit extracts a plurality of key frames from each of a plurality of live conference streams, and sends one of the plurality of key frames from the plurality of live conference streams to the user at the display device. Displaying one of the plurality of key frames from one of the plurality of live conference streams when the input from the user is detected and the detected input from the user is a first type. And when the detected input from the user is the second type, the plurality of live conference streams from the other one of the plurality of live conference streams. To display one of the over frame.
第2の態様は、第1の態様の方法であって、前記第一タイプのユーザ入力は、第一方向のユーザジェスチャを含む。 A second aspect is the method of the first aspect, wherein the first type of user input includes a first direction user gesture.
第3の態様は、第2の態様の方法であって、前記第一方向は、左右方向である。 A 3rd aspect is a method of a 2nd aspect, Comprising: Said 1st direction is a left-right direction.
第4の態様は、第1〜第3の何れかの態様の方法であって、前記第二タイプのユーザ入力は、第二方向のユーザジェスチャを含む。 A fourth aspect is the method according to any one of the first to third aspects, wherein the second type of user input includes a user gesture in a second direction.
第5の態様は、第4の態様の方法であって、前記第二方向は、上下方向である。 A 5th aspect is a method of a 4th aspect, Comprising: Said 2nd direction is an up-down direction.
第6の態様は、第1〜第5の何れかの態様の方法であって、検知された前記ユーザからの入力が第三タイプである場合に、前記表示されたキーフレームを拡大すること、をさらに含む。 A sixth aspect is the method according to any one of the first to fifth aspects, wherein when the detected input from the user is a third type, the displayed key frame is enlarged. Further included.
第7の態様は、第6の態様の方法であって、前記第三タイプのユーザ入力は、ダブルタップのジェスチャを含む。 A seventh aspect is the method of the sixth aspect, wherein the third type of user input includes a double tap gesture.
第8の態様は、第1〜第7の何れかの態様の方法であって、検知された前記ユーザからの入力が第四タイプである場合に、前記複数のライブ会議ストリームのうち一つをユーザに表示する、ことをさらに含む。 An eighth aspect is the method according to any one of the first to seventh aspects, wherein when the detected input from the user is a fourth type, one of the plurality of live conference streams is selected. Further displaying to the user.
第9の態様は、第8の態様の方法であって、前記第四タイプのユーザ入力は、前記ウェアラブル装置の表示を前記ユーザの顔へ向けることを含む。 A ninth aspect is the method of the eighth aspect, wherein the fourth type of user input includes directing a display of the wearable device to the face of the user.
第10の態様は、第8の態様の方法であって、前記ユーザが前記ウェアラブル装置の表示から顔を逸らしたときに、前記複数のライブ会議ストリームのうち一つをユーザに表示することを停止すること、をさらに含む。 A tenth aspect is the method according to the eighth aspect, wherein when the user turns away from the display of the wearable device, one of the plurality of live conference streams is stopped from being displayed to the user. Further comprising.
第11の態様は、第1〜第10の何れかの態様の方法であって、前記複数のキーフレームの各々は、対応するライブ会議ストリームでの2つのキーフレーム間の差異に基づき生成される。 An eleventh aspect is the method according to any one of the first to tenth aspects, wherein each of the plurality of key frames is generated based on a difference between two key frames in a corresponding live conference stream. .
第12の態様は、第11の態様の方法であって、前記複数のキーフレームの各々は、前記対応するライブ会議ストリームでの2つのキーフレーム間の差異が予め定められた閾値を超えたときに生成される。 A twelfth aspect is the method according to the eleventh aspect, wherein each of the plurality of key frames has a difference between two key frames in the corresponding live conference stream exceeding a predetermined threshold. Is generated.
第13の態様は、第12の態様の方法であって、前記予め定められた閾値は、前記対応するライブ会議ストリームでのコンテンツのタイプに基づき決定される。 A thirteenth aspect is the method according to the twelfth aspect, wherein the predetermined threshold is determined based on a type of content in the corresponding live conference stream.
第14の態様は、第1〜第13の何れかの態様の方法であって、前記ユーザへのチャットメッセージの表示に前記表示デバイスを用いること、をさらに含む。 A fourteenth aspect is the method according to any one of the first to thirteenth aspects, further including using the display device to display a chat message to the user.
第15の態様は、第1〜第14の何れかの態様の方法であって、前記ユーザからチャット入力を受け付け、前記チャット入力を前記複数の会議出席者に転送すること、をさらに含む。 A fifteenth aspect is the method according to any one of the first to fourteenth aspects, further comprising receiving a chat input from the user and transferring the chat input to the plurality of meeting attendees.
第16の態様は、第15の態様の方法であって、前記チャット入力を、前記表示デバイスに生成されたグラフィカルユーザインターフェイスを用いてユーザから受け付ける。 A sixteenth aspect is the method according to the fifteenth aspect, wherein the chat input is received from a user using a graphical user interface generated on the display device.
第17の態様は、第16の態様の方法であって、前記グラフィカルユーザインターフェイスは、少なくとも一つのユーザ選択が可能なウィジェットを含み、前記ユーザにより選択されたウィジェット上で対応するチャット入力が生成される。 A seventeenth aspect is the method according to the sixteenth aspect, wherein the graphical user interface includes at least one user selectable widget, and a corresponding chat input is generated on the widget selected by the user. The
第18の態様は、第15の態様の方法であって、前記チャット入力を、前記ユーザの音声をテキスト形式のチャットメッセージに変換することによりユーザから受け付ける。 An eighteenth aspect is the method according to the fifteenth aspect, wherein the chat input is received from a user by converting the user's voice into a text chat message.
第19の態様は、第1〜第18の何れかの態様の方法であって、検知された前記ユーザからの入力は、前記ユーザにより発話されたワードを検知し、検知した発話ワードを前記第一タイプまたは第二タイプに対応するユーザ入力に変換すること、をさらに含む。 A nineteenth aspect is the method according to any one of the first to eighteenth aspects, wherein the detected input from the user is to detect a word spoken by the user, and to detect the detected utterance word. Further converting to user input corresponding to one type or a second type.
第20の態様は、ユーザが身に付けるウェアラブルシステムであって、中央処理ユニットと、表示デバイスと、コンピュータ実行可能命令セットを記憶するメモリと、複数のライブ会議ストリームの各々から複数のキーフレームを抽出する手段と、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示する手段と、前記ユーザから入力を検知する手段と、検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、前記検知されたユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する制御手段と、を含み、複数出席者間での会議に関連して実行される。 A twentieth aspect is a wearable system worn by a user, wherein a central processing unit, a display device, a memory storing a computer-executable instruction set, and a plurality of key frames from each of a plurality of live conference streams. Means for extracting; means for displaying one of the plurality of key frames from one of the plurality of live conference streams to the user on the display device; means for detecting input from the user; When the input from the user is the first type, another one of the plurality of key frames is displayed from one of the plurality of live conference streams, and the detected input from the user is the first type. If there are two types, one of the plurality of key frames is displayed from the other one of the plurality of live conference streams. It includes a control unit that, the, be performed in connection with the meeting between multiple attendees.
第21の態様は、プログラムであって、複数のライブ会議ストリーム各々から複数のキーフレームを抽出し、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを表示デバイスでユーザに表示し、前記ユーザから入力を検知し、検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、前記検知されたユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する、複数出席者間の会議に関連し、ユーザが身に付けたウェアラブル装置で実行される処理をコンピュータに実行させる。 A twenty-first aspect is a program that extracts a plurality of key frames from each of a plurality of live conference streams, and displays one of the plurality of key frames from one of the plurality of live conference streams on a display device. Display to the user, detect an input from the user, and when the detected input from the user is the first type, from one of the plurality of live conference streams to another one of the plurality of key frames. A plurality of attendees displaying one of the plurality of keyframes from the other one of the plurality of live conference streams when the detected user input is of the second type In connection with a conference between persons, the computer executes a process executed by a wearable device worn by the user.
本発明は、分散会議の進行において個人参加が可能で、簡易で邪魔にならないツールを提供する。 The present invention provides a simple and unobtrusive tool that allows individual participation in the progress of a distributed conference.
以下の詳細な説明において、添付の図面を参照する。添付の図面において、同様の機能を有する構成要素は同様の参照符号で参照される。上記添付の図面は、本発明の原理と矛盾しない特定の実施例及び実装の例示を目的とし、限定を意図していない。これらの実装は、本発明を実行することを可能とする程度に十分詳細に説明されている。また、他の実装も利用可能であり、本発明の範囲及び思想と乖離することなく、構造の変更及び/もしくは様々な構成要素の置き換えも可能である。以下の詳細な説明は、限定的に解釈されるべきではない。また、説明される本発明の様々な実施例は、汎用目的コンピュータで稼動するソフトウェアの形態で実装されてもよいし、特定用途ハードウェアの形態で実装されてもよいし、ソフトウェア及びハードウェアの組み合わせで実装されてもよい。 In the following detailed description, reference is made to the accompanying drawings. In the accompanying drawings, components having similar functions are referred to by the same reference numerals. The accompanying drawings are intended to illustrate particular embodiments and implementations consistent with the principles of the invention and are not intended to be limiting. These implementations are described in sufficient detail to enable the invention to be practiced. Other implementations are also available, and structural changes and / or replacement of various components are possible without departing from the scope and spirit of the invention. The following detailed description should not be construed as limiting. Also, the various embodiments of the invention described may be implemented in the form of software running on a general purpose computer, may be implemented in the form of special purpose hardware, or software and hardware It may be implemented in combination.
本記載の実施例の一態様によれば、当業者に知られているスマートウォッチのようなウェアラブル装置を用いて、会議出席者に会議の音声や映像のコンテンツに関する基本的なアウェアネスの維持を可能にするシステムと関連方法が提供される。本記載のシステム及び方法の実施例は、リモートまたはモバイルユーザが他のタスクから気を逸らすことなく分散会議と関わることが可能なように、本質的なインタラクションメカニズムも提供する。一実施例において、本記載の技術は、ビデオ会議アプリケーションのスマートウォッチベースのインターフェイスを用いて、ユーザが進行中の分散会議に出席する邪魔にならない方法を提供する。 According to one aspect of the embodiments described herein, a wearable device such as a smartwatch known to those skilled in the art can be used to maintain basic awareness regarding conference audio and video content for conference attendees. Systems and related methods are provided. Embodiments of the described systems and methods also provide an essential interaction mechanism so that remote or mobile users can engage with distributed conferences without distracting from other tasks. In one embodiment, the described technique provides a non-intrusive way for a user to attend an ongoing distributed meeting using a smartwatch-based interface of a video conferencing application.
一つもしくは複数の実施例において、本記載のソリューションは、キーフレームのコンセプトを用いる。キーフレームは、会議中に出席者が共有した画面の画面キャプチャであり、後で参照するために記録される。出席者の共有した画面コンテンツを描写した静止画のキャプチャである上記キーフレームの活用は、会議のリアルタイムでのビデオストリームを表示することではなく、分散会議でのビデオストリームにおける現状アイディアを素早くユーザに提供することである。これにより、ユーザのウェアラブル装置のバッテリー寿命を消耗させないことになる。 In one or more embodiments, the described solution uses a keyframe concept. A key frame is a screen capture of a screen shared by attendees during a meeting and is recorded for later reference. The use of the above key frame, which is a capture of still images depicting screen content shared by attendees, does not display the real-time video stream of the conference, but allows the user to quickly get the current idea of the video stream in a distributed conference. Is to provide. As a result, the battery life of the wearable device of the user is not consumed.
図1A及び図1Bは、スマートウォッチのようなウェアラブル装置を用いて会議に接続する少なくとも一人の出席者との分散会議を可能にするシステムの2つの実施例を示す。図1Aに示されるシステム例100は、中央サーバ101を含み、コンピュータネットワークを介して分散会議出席者の計算システム102、103、104と通信可能に接続される。一つもしくは複数の実施例において、データ接続はHTTPプロトコルを用いて実行される。会議参加者が身に付けたウェアラブル装置105は、中央サーバ101にも通信可能に接続されている。一実施例において、会議参加者の計算システム102、103、104は、例えば他の会議出席者と共有する出席者のコンピュータ画面のコンテンツと同様に、出席者の顔、関連音声またはチャットのテキストメッセージを含み、進行中の会議ストリームを生成する。一実施例において、出席者の計算システム102、103、104の各々は、参加者の進行中の会議ストリームのコンテンツに基づきキーフレームを生成する。進行中の会議ストリーム及び生成されたキーフレームは、計算システム102、103、104の各々からサーバ101に転送される。他の実施例において、キーフレームは、受け取った会議ストリームのコンテンツを用いてサーバ101で生成されてもよい。
FIGS. 1A and 1B show two embodiments of a system that enables a distributed conference with at least one attendee connecting to a conference using a wearable device such as a smartwatch. An
一つもしくは複数の実施例において、生成されたキーフレーム及びチャットメッセージ(107でまとめて参照する)は、ネットワークを介して中央サーバ101からウェアラブル装置105に転送される。一つもしくは複数の実施例において、生成されたキーフレーム及びチャットメッセージは、ウェアラブル装置105のディスプレイでユーザに表示される。一方、受け取った音声は、例えば、当業者に知られたBluetooth(登録商標)ワイヤレスプロトコルを用いてユーザが身に付けたヘッドセット106に、ウェアラブル装置105によって転送される。一つもしくは複数の実施例において、ウェアラブル装置105の独創的なグラフィカルユーザインターフェイスを用いて、ユーザはチャットテキストメッセージをサーバ101へ返送することができる。
In one or more embodiments, the generated key frame and chat message (collectively referenced 107) are transferred from the
図1Bに示される変形例110では、携帯装置111が追加される。実施例では、携帯装置111は、中央サーバ101とウェアラブル装置105の両方と通信する。中央サーバとの通信はセルラーまたはWIFIデータ接続を用いて行われてもよく、ウェアラブル装置105との接続はBluetoothまたはWiFiデータ接続を用いて実行されてもよい。一実施例において、上記音声または生成されたキーフレーム、チャットメッセージ(107でまとめて参照する)は、まず中央サーバ101からスマートフォンのような携帯装置111に転送される。次に携帯装置111は、例えばBluetoothワイヤレスプロトコルまたは有線接続を用いて、会議音声109をユーザが身に付けたヘッドセット106に転送し、生成したキーフレームまたはチャットメッセージをユーザに表示するためウェアラブル装置105に転送する。一つもしくは複数の実施例において、携帯装置111はまた、ユーザによる適切な会議への接続を制御する。
In the
一つもしくは複数の実施例において、サーバ101で生成されたキーフレームとキーフレームの生成始動で用いられたパラメータは、ユーザが特定期間に共有しているコンテンツタイプに基づいて変更される。一実施例において、キーフレーム生成システムは、ユーザ各々により共有される会議ビデオストリームの先のビデオキーフレームと後のビデオキーフレームとの間の差異(距離)を連続して計算及び監視し、当該差異(距離)と予め定められた閾値とを比較する。上記閾値を超えたときに、新たなキーフレームの生成が自動的に始動する。上記閾値はコンテンツのタイプが異なれば、異なっていてもよい。
In one or a plurality of embodiments, the key frame generated by the
例えば、一つの実施例において、ユーザが標準のウェブカメラ(Webcam)のビューを共有しているときには、例えば、ユーザの顔を表示する同一の関連のないフレームを避けるために、新たなキーフレーム生成は、ある予め定められたレベルのビュー(ビデオストリーム)の変更を必要とする。従って、ユーザの顔に関するビデオコンテンツのケースについては、上記閾値は比較的高くてもよい。一方、会議参加者がスライドショーを共有しるときには、いかなるビューの変更においても新たなキーフレームが生成される。従って、スライドショーコンテンツにおける上記のキーフレーム生成閾値は極めて低くてもよい。 For example, in one embodiment, when a user shares a standard Webcam view, a new keyframe generation, eg, to avoid the same unrelated frame displaying the user's face Requires a certain level of view (video stream) change. Thus, for video content cases relating to the user's face, the threshold may be relatively high. On the other hand, when meeting participants share a slide show, a new key frame is generated for any view change. Therefore, the key frame generation threshold value in the slide show content may be extremely low.
一つもしくは複数の実施例において、生成されたキーフレームは、ユーザ特定の(分散会議参加者特定の)キーフレームストリームに分割される。このようなキーフレームストリームは、ウェアラブル装置105に供給され、ウェアラブル装置105のディスプレイで生成されるグラフィカルユーザインターフェイスを用いて表示し、会議出席者により選択されてもよい。一つもしくは複数の実施例において、ウェアラブル装置105で実行されるアプリケーションは予め定められたユーザジェスチャを検知し、検知した予め定められたユーザジャスチャに基づき上記のキーフレームストリーム間を切り替える。一つもしくは複数の実施例において、ユーザジェスチャは、例えばユーザウェアラブル装置105のタッチスクリーンインターフェイスを用いて検知されてもよい。
In one or more embodiments, the generated key frames are divided into user specific (distributed conference participant specific) key frame streams. Such a key frame stream may be supplied to the
一実施例において、ユーザの指または他の適した手段を用いて実行され得る、検知された上下にスワイプするユーザジェスチャによって、ウェアラブル装置105のソフトウェアアプリケーションは、異なるユーザのストリームに変更し、ディスプレイ装置にユーザ選択ストリームのコンテンツ(例えば、キーフレームを表示する。一方、同様のまたは異なる実施例において、検知された左右にスワイプするユーザジェスチャによって、ウェアラブル装置105のソフトウェアアプリケーションは、特定ストリームの中のキーフレームを循環する。また、検知されたダブルタップのユーザジェスチャによって、キーフレームをズームイン、ズームアウトする。最後に、2つの指で摘むジェスチャによって、ズームインされたフレームを自由にパンすることができる。当業者に理解されている通り、その他の多くのタイプのユーザジェスチャが、ウェアラブル装置105で実行されるソフトウェアアプリケーションにより検知されてもよく、したがって、本発明は特定のユーザジェスチャに制限されるものではない。
In one embodiment, the software application of
さらに、一つもしくは複数の実施例において、キーフレーム及びストリームの間のナビゲーションは後述する音声認識インターフェイスを用いて実行されてもよい。本実施例において、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、例えば“次のストリーム”、“前のストリーム”、 “次のフレーム”、“前のフレーム”等といったユーザが発した特定の発話コマンドを検知する。特定のユーザ発話コマンドの検知により、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、対応するコマンドを実行する。当業者に理解されている通り、その他の多くのタイプのユーザの発話コマンドは、ウェアラブル装置105で実行されるソフトウェアアプリケーションによって検知されてもよく、したがって、本発明は特定の発話コマンドに制限されるものではない。
Further, in one or more embodiments, navigation between key frames and streams may be performed using a speech recognition interface described below. In this embodiment, the software application executed by the
一つもしくは複数の実施例において、会議ストリームで最新のキーフレームが閲覧されるときはいつでも、中央サーバ101からの、新たなまたはより最新のキーフレームがウェアラブル装置105で受信され、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、自動的に新たなキーフレームに移動し、新たに受信されたキーフレームをユーザに表示する。本特徴は、分散会議で議論される対象によって更新されるキーフレームの自動フローを生成する。これにより、ユーザは、会議におけるビジュアルコンテンツのアウェアネスを維持することができる。一つもしくは複数の実施例において、ユーザがズームやパンなどを行うことで、キーフレームとやり取りをしているときに、新たなキーフレームがサーバ101から受信されると、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、古いキーフレームと関連するユーザによる現活動の中断を避けるために、最新の受信したキーフレームをユーザに対して即座に表示しない。
In one or more embodiments, whenever the latest key frame is viewed in the conference stream, a new or more recent key frame from the
一つもしくは複数の実施例において、ウェアラブル装置105で実行するソフトウェアアプリケーションは、また、別のチャットチャンネルを含む。上記チャットチャンネルによって、ウェアラブル装置105のユーザは、他の会議出席者から送られたチャット(テキスト)メッセージを閲覧すること、グラフィカルユーザインターフェイスにより与えられた、例えば、予め定められた「はい/いいえ」の回答を用いて、自身のメッセージを会議チャットに送信すること、ができる。他の実施例において、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、上記チャットチャンネルを通して他の分散会議出席者に送るテキストメッセージに、ユーザ音声を自動的に変換する、音声テキスト変換機能を含む。音声テキスト変換ソフトウェアは当業者により知られており、どのようなソフトウェアであっても上記発明の範囲を制限せずに利用できる。
In one or more embodiments, the software application executing on
図2は、ユーザウェアラブル装置で実行するソフトウェアアプリケーションのグラフィカルユーザインターフェイス画面の種々の実施例を示す。一つもしくは複数の実施例において、ウェアラブル装置105のユーザは、図2に示すアプリケーションのグラフィカルユーザインターフェイスメニュー画面201からチャットビュー及びストリームビューの両方にアクセスしてもよい。一つもしくは複数の実施例において、次画面の1つ以上は、両方のビューを素早い切り替えを可能にするため画面下部にパネル210を含む。
FIG. 2 illustrates various examples of graphical user interface screens for software applications executing on a user wearable device. In one or more embodiments, the
図2はまた、ストリームビュー画面202の実施例を示す。現在または履歴のキーフレームは、本画面を用いてユーザに表示される。ユーザは、ウェアラブル装置105の画面で左右にスワイプするジェスチャを用いることで、次または以前のキーフレームのスクロールを行うことができる。図2はまた、パネル210が開かれたストリームビュー画面203の実施例を示す。図2はチャットビュー画面204の実施例も示す。図2で示される通り、チャットビュー画面205は、Y’、‘N’、 ‘録音’、‘ストリーム’ボタンを含む。‘Y’、‘N’ボタンは、迅速な「はい/いいえ」応答を可能とし、‘録音’ボタンは、音声テキスト変換を可能とする。また‘ストリーム’ボタンは、ストリームビュー画面203のナビゲートを可能とする。
FIG. 2 also shows an example of the
図2はまた、画面206に示すように、スライドショーを表示する他のストリームをユーザがスワイプすることを示す。図2はまた、スライドキーフレームを表示するグラフィカルユーザインターフェイス画面207の実施例を示す。図2はスライドキーフレームでズームを表示するグラフィカルユーザインターフェイス画面208の実施例も示す。最後に、図2はまた、異なる位置にパンされたスライドキーフレームのズームを表示するグラフィカルユーザインターフェイス画面209の実施例を示す。画面202〜209は上記のナビゲーションパネル210を含む。
FIG. 2 also shows that the user swipes another stream displaying the slide show, as shown on
図3は、ユーザのウェアラブル装置105で実行されるソフトウェアアプリケーションの操作シーケンス例を示す。まず、ステップ301で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、既知の会議に接続する。ステップ302で、ウェアラブル装置105で実行されるソフトウェアは、リモートユーザ各々のストリームに対応するキーフレームを登録する。ステップ303で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、キーフレームを表示し、個々のキーフレーム同様にリモートユーザのストリーム間のスワイプを可能にする。ステップ304で、ウェアラブル装置105で実行されるソフトウェアは、ウェアラブル装置のディスプレイでキーフレームのズームやパンを可能にする。ステップ305で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、チャットコンテンツと同期する。ステップ306で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、音声テキスト変換を介したチャットまたは、「はい/いいえ」ボタンに、ユーザが関与することを可能にする。上記のステップ302〜306は適切な何れのシーケンスで実行してもよい。一実施例において、ウェアラブル装置はネットワークへの直接接続が可能でなくとも、スマートフォンのような携帯装置111で実行されるミドルウェアアプリケーションを介して本機能のすべてを実行することができる。
FIG. 3 shows an example of an operation sequence of a software application executed on the
一つもしくは複数の実施例において、ウェアラブル装置105は、ライブ会議ストリームをユーザに表示するよう構成されてもよい。バッテリーを消耗させないよう、ライブ会議ストリームは、ユーザがウェアラブル装置105のディスプレイに顔を向けたときに表示してもよい。このためにウェアラブル装置105は、複数のジャイロスコープのような姿勢/方向センサを備えてもよい。また、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、会議中に書き取りや他のメモ入力を可能にする筆記機能を提供してもよい。
In one or more embodiments,
図4は、本実施例が展開できる計算機ウェアラブルシステムの実施例を示す。一つもしくは複数の実施例において、計算機ウェアラブルシステム105はスマートウォッチである。
FIG. 4 shows an embodiment of a computer wearable system in which this embodiment can be developed. In one or more embodiments, the computer
計算機ウェアラブルシステム105は、計算機ウェアラブルシステム105の様々なハードウェア構成要素をわたるもしくはハードウェア構成要素間の情報を伝達する、もしくは相互に接続するための通信機構であるデータバス404、情報を処理し、他の計算タスク及び制御タスクを実行するためにデータバス404に電気的に接続されている中央処理ユニット(CPUもしくは単なるプロセッサ)401を含んでいてもよい。計算機ウェアラブルシステム105は、様々な情報及びプロセッサ401によって実行される命令を記憶するためにデータバス404に接続されている、ランダムアクセスメモリ(RAM)もしくは他のダイナミックストレージデバイスなどの、メモリ412を含む。メモリ412は磁気ディスク、光ディスク、ソリッドステートフラッシュメモリデバイスもしくは他の不揮発性ソリッドステートストレージデバイスなどの永続的ストレージデバイスを含んでいてもよい。
The computer
一つもしくは複数の実施例において、メモリ412は、プロセッサ401によって命令を実行している間、一時的変数もしくは他の中間情報を記憶するために使用されてもよい。追加的に、計算機ウェアラブルシステム105は、さらに、静的情報及び計算機ウェアラブルシステム105の動作に必要なファームウェアなどのプロセッサ401のための命令、BIOS(basic input-output system)、計算機ウェアラブルシステム105の様々な構成パラメータを記憶するために、データバス404に接続されているリードオンリーメモリ(ROMもしくはEPROM)402もしくは他のスタティックストレージデバイスを含んでいてもよい。
In one or more embodiments, the
一つもしくは複数の実施例において、計算機ウェアラブルシステム105は表示デバイス(ディスプレイ)409を含んでいてもよい。表示デバイス409はデータバス404に電気的に接続されていてもよく、図2に示されるユーザインターフェイスやキーフレームなどの様々な情報を、計算機ウェアラブルシステム105のユーザに対して表示する。代替的な実施例において、表示デバイス409は(図示しない)グラフィックコントローラ及び/もしくはグラフィックプロセッサと関連付けられていてもよい。表示デバイス409は、よく知られたLCD(liquid crystal display)として実装されてもよいし、TFT(thin-film transistor)もしくは有機LED(organic light emitting diode)技術を用いて製作されてもよい。様々な実施例において、表示デバイス409は、計算機ウェアラブルシステム105の残りの構成要素と共に一般的な筐体に組み込まれてもよい。
In one or more embodiments, the computer
一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、データバス404に電気的に接続されており、よく知られているように、記録されたミーティングの音声成分である、MPEG−3ファイルなどの様々な音声ファイル、もしくは、MPEG−4ファイルなどの様々なビデオファイルの音声トラックを再生するように構成されている音声(オーディオ)再生デバイス425を、さらに、含んでいてもよい。これにより、計算機ウェアラブルシステム105は、(図示しない)波形もしくは音声プロセッサもしくは同様のデバイスを含んでいてもよい。
In one or more embodiments, the computer
一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、ユーザの触覚コマンドを受け付けるタッチスクリーンインターフェイス410のような一つもしくは複数の入力デバイスを含んでいてもよい。タッチスクリーンインターフェイス410は、抵抗、音響、静電、当業者に知られたその他の物理的な原理または効果に基づき操作してもよい。表示デバイス409と共に用いられるタッチスクリーンインターフェイス410は、表示デバイス409にタッチスクリーン機能を持たせることが可能である。従って、タッチスクリーンインターフェイス410と共に動作する表示デバイス409は、簡易な‘タッチスクリーン’または接触ディスプレイ装置としてここで参照されてもよい。
In one or more embodiments, the computer
計算機ウェアラブルシステム105は、さらに、ユーザのビデオ及び静止画像を取得するカメラ411を含み、これらのすべては情報を伝達するためにデータバス404に接続されていてもよい。情報は、画像、ビデオ、プロセッサ401へのユーザコマンドを含み得るが、これらに限定されない。
The computer
一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、さらに、データバス404を介してプロセッサ401に接続されている計算機ウェアラブルシステム105の加速度及び、現在の方位に関するデータを提供するように構成された方位センサ403を含んでもよい。方位情報は、重力を含む3軸すべての加速度測定を用いて取得してもよい。一つもしくは複数の実施例において、方位センサ403により与えられた方位メタデータは連続して記録され、データストレージ421に記録される。さらに、音声取得(オーディオキャプチャ)モジュール406が、ユーザ音声を用いたチャットメッセージまたは発話コマンドを取得するために含まれていてもよい。
In one or more embodiments, the computer
一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、さらに、データバス404に接続されているネットワークインターフェイス405などの通信インターフェイスを含んでいてもよい。ネットワークインターフェイス405は、計算機ウェアラブルシステム105及びインターネット424の間の接続を、WiFiインターフェイス(アダプタ)407、携帯電話ネットワーク(GSM(登録商標)もしくはCDMA)アダプタ408の少なくとも一つを用いて確立するように構成されていてもよい。ネットワークインターフェイス405は、計算機ウェアラブルシステム105及びインターネット424の間で双方向データ通信が可能なように構成されていてもよい。WiFiアダプタ407は、よく知られている802.11a、802.11b、802.11g及び/もしくは802.11nプロトコル及びBluetoothプロトコルに準拠して動作する。例示的な実施形態において、WiFiアダプタ407、携帯電話ネットワーク(GSMもしくはCDMA)アダプタ408は、電気信号もしくは電磁信号を送受信して、様々なタイプの情報を表すデジタルデータストリームを搬送する。
In one or more embodiments, the computer
一つもしくは複数の実施例において、インターネット424は、一般的に、一つもしくは複数のサブネットワークを介した他のネットワークリソースへのデータ通信を提供する。したがって、計算機ウェアラブルシステム105は、リモートメディアサーバ、ウェブサーバ、他のコンテンツサーバ、及び他のネットワークデータストレージリソースなどのインターネット424のどこかに配置されている様々なネットワークリソースにアクセスすることができる。一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、ネットワークインターフェイス405によって、インターネット424を含む様々なネットワークを介して、メッセージ、メディア及び、アプリケーションプログラムコードを含む他のデータを送受信するように構成される。インターネットの例において、計算機ウェアラブルシステム105がネットワーククライアントとして動作する場合、計算機ウェアラブルシステム105は、計算機ウェアラブルシステム105で稼働するアプリケーションプログラムのためのコードもしくはデータを要求してもよい。同様に、計算機ウェアラブルシステム105は、他のネットワークリソースに様々なデータもしくはコンピュータコードを送信してもよい。
In one or more embodiments, the
一つもしくは複数の実施例において、ここで説明する機能は、メモリ412に含まれている一つもしくは複数の命令の一つもしくは複数のシーケンスを実行するプロセッサ401に応答して、計算機ウェアラブルシステム105によって実装される。このような命令は他のコンピュータ可読媒体からメモリ412に読み込まれてもよい。メモリ412に含まれる命令シーケンスを実行することにより、ここで説明される様々なプロセスのステップをプロセッサ401が実行する。代替的な実施例において、本発明の実施例を実装するために、ソフトウェア命令に替えて、もしくは、ソフトウェア命令と組み合わせて、ハードウェア回路が使用されてもよい。このように、本発明の実施例は、ハードウェア回路及び/もしくはソフトウェアの任意の特定の組み合わせに限定されない。
In one or more embodiments, the functions described herein are responsive to the
ここで使用される用語「コンピュータ可読媒体」は、実行するためにプロセッサ401に命令を提供するために使用される任意の媒体を参照する。コンピュータ可読媒体は機械可読媒体の一例であり、ここで説明される任意の方法及び/もしくは技術を実装するための命令を搬送することができる。このような媒体は多くの形態をとることができ、不揮発性媒体及び揮発性媒体を含むが、これらに限定されない。
The term “computer-readable medium” as used herein refers to any medium used to provide instructions to
非一時的コンピュータ可読媒体の一般的な形態は、例えば、フロッピー(登録商標)ディスク、ハードディスク、磁気テープ、もしくは任意の他の磁気媒体、CD−ROM、任意の他の光媒体、パンチカード、ペーパーテープ、任意の他の孔パターンを有する物理的媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、任意の他のメモリチップもしくはカートリッジ、もしくは、コンピュータが読み取ることが可能な任意の他の媒体を含む。コンピュータ可読媒体の様々な形態が、実行するプロセッサ401に、一つもしくは複数の命令の一つもしくは複数のシーケンスを搬送するために使用されてもよい。例えば、命令は、まず、リモートコンピュータから磁気ディスクに搬送されてもよい。代替的に、リモートコンピュータは、ダイナミックメモリに命令をロードし、インターネット424を介して命令を送信することができる。詳細には、コンピュータ命令は、よく知られている様々なネットワークデータ通信プロトコルを用いて、インターネット424を介して、リモートコンピュータから計算機ウェアラブルシステム105のメモリにダウンロードされてもよい。
Common forms of non-transitory computer readable media include, for example, floppy disks, hard disks, magnetic tapes, or any other magnetic media, CD-ROM, any other optical media, punch cards, paper Tape, physical media with any other hole pattern, RAM, PROM, EPROM, flash EPROM, flash drive, memory card, any other memory chip or cartridge, or any other computer readable Media. Various forms of computer readable media may be used to carry one or more sequences of one or more instructions to executing
一つもしくは複数の実施例において、計算機ウェアラブルシステム105のメモリ412は、以下のソフトウェアプログラム、アプリケーションもしくはモジュールの何れかを記憶していてもよい。
In one or a plurality of embodiments, the
1.オペレーティングシステム(OS)413。オペレーティングシステム(OS)413は、基本システムサービスを実装し、計算機ウェアラブルシステム105の様々なハードウェア構成要素を管理する。オペレーティングシステム413の実施例は、よく知られており、現在知られている、又は今後開発されるモバイルオペレーティングシステムの何れかを含んでもよい。
1. An operating system (OS) 413. An operating system (OS) 413 implements basic system services and manages various hardware components of the computer
2.アプリケーション414。アプリケーション414は、例えば、計算機ウェアラブルシステム105のプロセッサ401によって実行されるソフトウェアアプリケーションセットを含んでいてもよい。プロセッサ401によってソフトウェアアプリケーションセットが実行されることにより、例えば図3に示された機能または上記の機能、など所定の機能を、計算機ウェアラブルシステム105に実行させる。一つもしくは複数の実施例において、アプリケーション414は、以下で説明するように、独創的な会議アプリケーション415を含んでいてもよい。
2.
3.データストレージ421。データストレージ421は、例えば、キーフレーム422またはチャットメッセージ423を記憶してもよい。
3.
一つもしくは複数の実施例において、独創的な会議アプリケーション415は、計算機ウェアラブルシステム105のディスプレイ409に描写されたユーザインターフェイスを生成するように構成されているユーザインターフェイス生成モジュール416を含む。さらに、独創的な会議アプリケーション415は、タッチスクリーン410に接続され実行されるユーザジェスチャを検知するユーザジェスチャ検出モジュール417、ユーザの発話ワードを検知する音声検知(オーディオキャプチャ)モジュール418、検知した音声をコマンドに変換する音声テキスト変換モジュール419、上記のチャット機能を可能にするチャットモジュール420、チャットメッセージ、を含んでもよい。
In one or more embodiments, the
最後に、ここで説明したプロセス及び技術は任意の特定の装置に固有に関連するものではなく、構成要素の任意の適切な組み合わせによって実装され得る。さらに、様々なタイプの汎用目的デバイスが、ここで説明した教示によって使用されてもよい。ここで説明した方法を実行する特定用途装置を構築することも有用である。本発明は、特定の例と関連して説明されたが、特定の例は、制限ではなく、例示を意図している。ハードウェア、ソフトウェア、ファームウェアの多くの異なる組み合わせが本発明を実行するために適している。例えば、説明するソフトウェアは、アセンブラ、C/C++、オブジェクティブ−C、Perl、shell、PHP、Java(登録商標)などの様々なプログラム言語及びスクリプト言語及び現在知られているもしくは今後開発されるプログラミング言語もしくはスクリプト言語で、実装することができる。 Finally, the processes and techniques described herein are not inherently related to any particular apparatus, and may be implemented by any suitable combination of components. In addition, various types of general purpose devices may be used in accordance with the teachings described herein. It is also useful to construct a special purpose device that performs the method described herein. Although the invention has been described in connection with specific examples, the specific examples are intended to be illustrative rather than limiting. Many different combinations of hardware, software, and firmware are suitable for carrying out the present invention. For example, the described software includes various programming languages and script languages such as assembler, C / C ++, Objective-C, Perl, shell, PHP, Java (registered trademark), and programming languages that are currently known or will be developed in the future. Or it can be implemented in a script language.
さらに、本発明の他の実装が、本発明の詳細の検討及びここで説明された実用から明らかである。ここで説明した実施例の様々な態様及び/もしくは構成要素は、再生プランによるハイパービデオを自動的に再生する、上記再生プランを可視化するシステム及び方法において、単独で、もしくは、任意の組み合わせで使用され得る。 Moreover, other implementations of the invention will be apparent from a review of the details of the invention and the practice described herein. Various aspects and / or components of the embodiments described herein may be used alone or in any combination in a system and method for visualizing a playback plan that automatically plays back a hypervideo according to the playback plan. Can be done.
401 CPU
409 表示デバイス
412 メモリ
424 インターネット
411 カメラ
401 CPU
409
Claims (21)
前記ウェアラブル装置は、中央処理ユニット、表示デバイス及びメモリを含み、
前記ウェアラブル装置には、複数のライブ会議ストリームの各々から抽出された複数のキーフレームが転送され、
前記中央処理ユニットは、
前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示し、
前記ユーザからの入力を検知し、
検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、
検知された前記ユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する、
方法。 A method performed on a wearable device worn by a user in connection with a meeting between multiple attendees,
The wearable device includes a central processing unit, a display device, and a memory,
A plurality of key frames extracted from each of a plurality of live conference streams are transferred to the wearable device,
Said central processing unit,
One of the plurality of key frames from one of the previous SL multiple live conference stream displayed to the user on the display device,
Detecting input from the user,
If the detected input from the user is of the first type, display one of the plurality of key frames from one of the plurality of live conference streams;
When the detected input from the user is of the second type, one of the plurality of key frames is displayed from the other one of the plurality of live conference streams.
Method.
請求項1に記載の方法。 The first type of user input includes a first direction user gesture;
The method of claim 1.
請求項2に記載の方法。 The first direction is a left-right direction.
The method of claim 2.
請求項1〜請求項3の何れか1項に記載の方法。 The second type of user input includes a second direction user gesture,
The method according to any one of claims 1 to 3.
請求項4に記載の方法。 The second direction is a vertical direction.
The method of claim 4.
をさらに含む、
請求項1〜請求項5の何れか1項に記載の方法。 Enlarging the displayed keyframe when the detected input from the user is of a third type;
Further including
The method according to any one of claims 1 to 5.
請求項6に記載の方法。 The third type of user input includes a double tap gesture,
The method of claim 6.
ことをさらに含む、
請求項1〜請求項7の何れか1項に記載の方法。 When the detected input from the user is a fourth type, one of the plurality of live conference streams is displayed to the user.
Further including
The method according to any one of claims 1 to 7.
請求項8に記載の方法。 The fourth type of user input includes directing the display of the wearable device to the face of the user;
The method of claim 8.
をさらに含む、
請求項8に記載の方法。 Stopping displaying one of the plurality of live conference streams to the user when the user turns away from the display of the wearable device;
Further including
The method of claim 8.
請求項1〜請求項10の何れか1項に記載の方法。 Each of the plurality of key frames is generated based on a difference between two key frames in a corresponding live conference stream.
The method according to any one of claims 1 to 10.
請求項11に記載の方法。 Each of the plurality of key frames is generated when a difference between two key frames in the corresponding live conference stream exceeds a predetermined threshold.
The method of claim 11.
請求項12に記載の方法。 The predetermined threshold is determined based on a type of content in the corresponding live conference stream.
The method of claim 12.
をさらに含む、
請求項1〜請求項13の何れか1項に記載の方法。 Using the display device to display a chat message to the user;
Further including
The method according to any one of claims 1 to 13.
をさらに含む、
請求項1〜請求項14の何れか1項に記載の方法。 Receiving chat input from the user and transferring the chat input to the plurality of meeting attendees;
Further including
15. A method according to any one of claims 1 to 14.
請求項15に記載の方法。 Receiving the chat input from a user using a graphical user interface generated on the display device;
The method of claim 15.
請求項16に記載の方法。 The graphical user interface includes at least one user selectable widget, and a corresponding chat input is generated on the widget selected by the user.
The method of claim 16.
請求項15に記載の方法。 Accepting the chat input from a user by converting the user's voice into a text chat message;
The method of claim 15.
をさらに含む、
請求項1〜請求項18の何れか1項に記載の方法。 The detected input from the user is to detect a word spoken by the user and convert the detected spoken word to a user input corresponding to the first type or the second type;
Further including
The method according to any one of claims 1 to 18.
前記ウェアラブルシステムには、複数のライブ会議ストリームの各々から抽出された複数のキーフレームが転送され、
中央処理ユニットと、
表示デバイスと、
コンピュータ実行可能命令セットを記憶するメモリと、
前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示する手段と、
前記ユーザから入力を検知する手段と、
検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、前記検知されたユ
ーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する制御手段と、
を含む、
複数出席者間での会議に関連して実行されるウェアラブルシステム。 A wearable system worn by the user,
A plurality of key frames extracted from each of a plurality of live conference streams are transferred to the wearable system,
A central processing unit;
A display device;
A memory for storing a computer-executable instruction set ;
Means for displaying to the user one at the display device among the plurality of key frames from one of the previous SL multiple live conference stream,
Means for detecting input from the user;
When the detected input from the user is the first type, another one of the plurality of key frames is displayed from one of the plurality of live conference streams, and the input from the detected user Control means for displaying one of the plurality of key frames from the other one of the plurality of live conference streams,
including,
A wearable system that runs in association with a meeting between multiple attendees.
前記ウェアラブル装置には、複数のライブ会議ストリームの各々から抽出された複数のキーフレームが転送され、
前記処理は、
前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを表示デバイスでユーザに表示し、
前記ユーザから入力を検知し、
検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、
前記検知されたユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する、
ことを含む、プログラム。 A program for causing a computer to execute a process related to a meeting between a plurality of attendees and executed by a wearable device worn by a user,
A plurality of key frames extracted from each of a plurality of live conference streams are transferred to the wearable device,
The processing is as follows:
One then displayed to the user at the display device among the plurality of key frames from one of the previous SL multiple live conference stream,
Detecting input from the user,
If the detected input from the user is of the first type, display one of the plurality of key frames from one of the plurality of live conference streams;
Displaying one of the plurality of keyframes from another one of the plurality of live conference streams when the detected input from the user is of a second type;
Including the program.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/856,535 | 2015-09-16 | ||
US14/856,535 US9402055B2 (en) | 2013-10-11 | 2015-09-16 | Systems and methods for peripheral awareness of, and nominal interaction with, a remote meeting using a wearable device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017060149A JP2017060149A (en) | 2017-03-23 |
JP6617641B2 true JP6617641B2 (en) | 2019-12-11 |
Family
ID=58391015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016081830A Active JP6617641B2 (en) | 2015-09-16 | 2016-04-15 | Conference display method, wearable system, and program executed by wearable device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6617641B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000023132A (en) * | 1998-07-06 | 2000-01-21 | Canon Inc | Data communication controller, control method therefor and data communication system |
US8842074B2 (en) * | 2006-09-06 | 2014-09-23 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US9179096B2 (en) * | 2013-10-11 | 2015-11-03 | Fuji Xerox Co., Ltd. | Systems and methods for real-time efficient navigation of video streams |
JP2015141293A (en) * | 2014-01-28 | 2015-08-03 | ソニー株式会社 | Display control apparatus, display control method, program, and display device |
-
2016
- 2016-04-15 JP JP2016081830A patent/JP6617641B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017060149A (en) | 2017-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11816303B2 (en) | Device, method, and graphical user interface for navigating media content | |
CN109313812B (en) | Shared experience with contextual enhancements | |
US10547776B2 (en) | Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes | |
JP6237386B2 (en) | System, method and program for navigating video stream | |
JP5556911B2 (en) | Method, program, and system for creating content representations | |
US9977584B2 (en) | Navigating media playback using scrollable text | |
RU2702049C2 (en) | Real-time sharing during telephone call | |
US9992429B2 (en) | Video pinning | |
EP3047356B1 (en) | Configuration of a touch screen display for conferencing | |
CN107333087B (en) | Information sharing method and device based on video session | |
WO2018045669A1 (en) | Method for controlling interface of electronic device and electronic device | |
CN111010529A (en) | Video conference method and system capable of realizing multi-person real-time annotation | |
US9671939B2 (en) | Systems and methods for automatic generation and consumption of hypermeetings | |
US9402055B2 (en) | Systems and methods for peripheral awareness of, and nominal interaction with, a remote meeting using a wearable device | |
JP6617641B2 (en) | Conference display method, wearable system, and program executed by wearable device | |
US20140178035A1 (en) | Communicating with digital media interaction bundles | |
JP2017509214A (en) | Universal capture | |
CN112270918A (en) | Information processing method, device, system, electronic equipment and storage medium | |
US11765333B1 (en) | Systems and methods for improved transitions in immersive media | |
US20240045572A1 (en) | Device, method, and graphical user interface for navigating media content | |
EP2876862B1 (en) | Establishment of a related image sharing session |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6617641 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |