JP6617641B2 - Conference display method, wearable system, and program executed by wearable device - Google Patents

Conference display method, wearable system, and program executed by wearable device Download PDF

Info

Publication number
JP6617641B2
JP6617641B2 JP2016081830A JP2016081830A JP6617641B2 JP 6617641 B2 JP6617641 B2 JP 6617641B2 JP 2016081830 A JP2016081830 A JP 2016081830A JP 2016081830 A JP2016081830 A JP 2016081830A JP 6617641 B2 JP6617641 B2 JP 6617641B2
Authority
JP
Japan
Prior art keywords
user
input
key frames
type
live conference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016081830A
Other languages
Japanese (ja)
Other versions
JP2017060149A (en
Inventor
マケラ ヴィル
マケラ ヴィル
メロー ジェニファー
メロー ジェニファー
カーター スコット
カーター スコット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/856,535 external-priority patent/US9402055B2/en
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2017060149A publication Critical patent/JP2017060149A/en
Application granted granted Critical
Publication of JP6617641B2 publication Critical patent/JP6617641B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ウェアラブル装置で実行される会議表示方法、ウェアラブルシステム及びプログラムに関する。   The present invention relates to a conference display method, a wearable system, and a program executed by a wearable device.

かつて会議室またはオフィスの領域に限定されていた会議は、スペース及び時間、装置をわたって段々と分散し始めている。このような分散会議は、主に、個人で構成されるグループに関連し、グループを構成する個人は通信を行い、情報を共有するために必要な技術的インフラストラクチャへアクセス可能なラップトップ、デスクトップまたは電話ベースの設定から通信を行う。しかしながら、会議出席者が旅行や移動中、オフサイトに居る(例えば、病院の待合室に居る)ときには、このような会議を意識し続けることは容易ではない。従って、分散会議を適切に進めるためには、会議出席者、ファイルまたはスクリーン、その他資料の共有を表す方法を出席者個人各々のコンテクストに適合させなければならない。   Conferences, once limited to conference rooms or office areas, are beginning to spread gradually across space, time, and equipment. Such distributed conferences are primarily related to groups of individuals, and the individuals who make up the groups communicate with each other and have access to the technical infrastructure necessary to share information. Or communicate from a phone-based setting. However, it is not easy to stay conscious of such a meeting when attendees are off-site while traveling or traveling (eg, in a hospital waiting room). Therefore, in order for a distributed conference to proceed properly, the method of representing the sharing of meeting attendees, files or screens, and other materials must be adapted to the context of each individual attendee.

ポールら(Paul)、「 エキスパートに尋ねる:コラボレイティブなトラブルシューティングのためのモバイルワークスペース(Ask an Expert: Mobile Workspaces for Collaborative Troubleshooting)」、システムサイエンス(System Sciences (HICSS))、2015年米国電気電子学会(IEEE)第48回ハワイ国際学会誌、頁442〜451Paul et al., “Ask an Expert: Mobile Workspaces for Collaborative Troubleshooting”, System Sciences (US), System Sciences (15) (IEEE) The 48th Annual International Conference of Hawaii, pages 442-451

分散会議の進行において個人参加が可能で、簡易で邪魔にならないツールが所望されている。   There is a need for a simple and non-intrusive tool that allows individual participation in a distributed conference.

第1の態様は、複数出席者間での会議に関連し、ユーザが身に付けたウェアラブル装置で実行される方法であって、前記ウェアラブル装置は、中央処理ユニット、表示デバイス及びメモリを含み、前記中央処理ユニットは、複数のライブ会議ストリームの各々から複数のキーフレームを抽出し、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示し、前記ユーザからの入力を検知し、検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、検知された前記ユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する。   A first aspect relates to a conference between a plurality of attendees, and is a method executed by a wearable device worn by a user, the wearable device including a central processing unit, a display device, and a memory, The central processing unit extracts a plurality of key frames from each of a plurality of live conference streams, and sends one of the plurality of key frames from the plurality of live conference streams to the user at the display device. Displaying one of the plurality of key frames from one of the plurality of live conference streams when the input from the user is detected and the detected input from the user is a first type. And when the detected input from the user is the second type, the plurality of live conference streams from the other one of the plurality of live conference streams. To display one of the over frame.

第2の態様は、第1の態様の方法であって、前記第一タイプのユーザ入力は、第一方向のユーザジェスチャを含む。   A second aspect is the method of the first aspect, wherein the first type of user input includes a first direction user gesture.

第3の態様は、第2の態様の方法であって、前記第一方向は、左右方向である。   A 3rd aspect is a method of a 2nd aspect, Comprising: Said 1st direction is a left-right direction.

第4の態様は、第1〜第3の何れかの態様の方法であって、前記第二タイプのユーザ入力は、第二方向のユーザジェスチャを含む。   A fourth aspect is the method according to any one of the first to third aspects, wherein the second type of user input includes a user gesture in a second direction.

第5の態様は、第4の態様の方法であって、前記第二方向は、上下方向である。   A 5th aspect is a method of a 4th aspect, Comprising: Said 2nd direction is an up-down direction.

第6の態様は、第1〜第5の何れかの態様の方法であって、検知された前記ユーザからの入力が第三タイプである場合に、前記表示されたキーフレームを拡大すること、をさらに含む。   A sixth aspect is the method according to any one of the first to fifth aspects, wherein when the detected input from the user is a third type, the displayed key frame is enlarged. Further included.

第7の態様は、第6の態様の方法であって、前記第三タイプのユーザ入力は、ダブルタップのジェスチャを含む。   A seventh aspect is the method of the sixth aspect, wherein the third type of user input includes a double tap gesture.

第8の態様は、第1〜第7の何れかの態様の方法であって、検知された前記ユーザからの入力が第四タイプである場合に、前記複数のライブ会議ストリームのうち一つをユーザに表示する、ことをさらに含む。   An eighth aspect is the method according to any one of the first to seventh aspects, wherein when the detected input from the user is a fourth type, one of the plurality of live conference streams is selected. Further displaying to the user.

第9の態様は、第8の態様の方法であって、前記第四タイプのユーザ入力は、前記ウェアラブル装置の表示を前記ユーザの顔へ向けることを含む。   A ninth aspect is the method of the eighth aspect, wherein the fourth type of user input includes directing a display of the wearable device to the face of the user.

第10の態様は、第8の態様の方法であって、前記ユーザが前記ウェアラブル装置の表示から顔を逸らしたときに、前記複数のライブ会議ストリームのうち一つをユーザに表示することを停止すること、をさらに含む。   A tenth aspect is the method according to the eighth aspect, wherein when the user turns away from the display of the wearable device, one of the plurality of live conference streams is stopped from being displayed to the user. Further comprising.

第11の態様は、第1〜第10の何れかの態様の方法であって、前記複数のキーフレームの各々は、対応するライブ会議ストリームでの2つのキーフレーム間の差異に基づき生成される。   An eleventh aspect is the method according to any one of the first to tenth aspects, wherein each of the plurality of key frames is generated based on a difference between two key frames in a corresponding live conference stream. .

第12の態様は、第11の態様の方法であって、前記複数のキーフレームの各々は、前記対応するライブ会議ストリームでの2つのキーフレーム間の差異が予め定められた閾値を超えたときに生成される。   A twelfth aspect is the method according to the eleventh aspect, wherein each of the plurality of key frames has a difference between two key frames in the corresponding live conference stream exceeding a predetermined threshold. Is generated.

第13の態様は、第12の態様の方法であって、前記予め定められた閾値は、前記対応するライブ会議ストリームでのコンテンツのタイプに基づき決定される。   A thirteenth aspect is the method according to the twelfth aspect, wherein the predetermined threshold is determined based on a type of content in the corresponding live conference stream.

第14の態様は、第1〜第13の何れかの態様の方法であって、前記ユーザへのチャットメッセージの表示に前記表示デバイスを用いること、をさらに含む。   A fourteenth aspect is the method according to any one of the first to thirteenth aspects, further including using the display device to display a chat message to the user.

第15の態様は、第1〜第14の何れかの態様の方法であって、前記ユーザからチャット入力を受け付け、前記チャット入力を前記複数の会議出席者に転送すること、をさらに含む。   A fifteenth aspect is the method according to any one of the first to fourteenth aspects, further comprising receiving a chat input from the user and transferring the chat input to the plurality of meeting attendees.

第16の態様は、第15の態様の方法であって、前記チャット入力を、前記表示デバイスに生成されたグラフィカルユーザインターフェイスを用いてユーザから受け付ける。   A sixteenth aspect is the method according to the fifteenth aspect, wherein the chat input is received from a user using a graphical user interface generated on the display device.

第17の態様は、第16の態様の方法であって、前記グラフィカルユーザインターフェイスは、少なくとも一つのユーザ選択が可能なウィジェットを含み、前記ユーザにより選択されたウィジェット上で対応するチャット入力が生成される。   A seventeenth aspect is the method according to the sixteenth aspect, wherein the graphical user interface includes at least one user selectable widget, and a corresponding chat input is generated on the widget selected by the user. The

第18の態様は、第15の態様の方法であって、前記チャット入力を、前記ユーザの音声をテキスト形式のチャットメッセージに変換することによりユーザから受け付ける。   An eighteenth aspect is the method according to the fifteenth aspect, wherein the chat input is received from a user by converting the user's voice into a text chat message.

第19の態様は、第1〜第18の何れかの態様の方法であって、検知された前記ユーザからの入力は、前記ユーザにより発話されたワードを検知し、検知した発話ワードを前記第一タイプまたは第二タイプに対応するユーザ入力に変換すること、をさらに含む。   A nineteenth aspect is the method according to any one of the first to eighteenth aspects, wherein the detected input from the user is to detect a word spoken by the user, and to detect the detected utterance word. Further converting to user input corresponding to one type or a second type.

第20の態様は、ユーザが身に付けるウェアラブルシステムであって、中央処理ユニットと、表示デバイスと、コンピュータ実行可能命令セットを記憶するメモリと、複数のライブ会議ストリームの各々から複数のキーフレームを抽出する手段と、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示する手段と、前記ユーザから入力を検知する手段と、検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、前記検知されたユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する制御手段と、を含み、複数出席者間での会議に関連して実行される。   A twentieth aspect is a wearable system worn by a user, wherein a central processing unit, a display device, a memory storing a computer-executable instruction set, and a plurality of key frames from each of a plurality of live conference streams. Means for extracting; means for displaying one of the plurality of key frames from one of the plurality of live conference streams to the user on the display device; means for detecting input from the user; When the input from the user is the first type, another one of the plurality of key frames is displayed from one of the plurality of live conference streams, and the detected input from the user is the first type. If there are two types, one of the plurality of key frames is displayed from the other one of the plurality of live conference streams. It includes a control unit that, the, be performed in connection with the meeting between multiple attendees.

第21の態様は、プログラムであって、複数のライブ会議ストリーム各々から複数のキーフレームを抽出し、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを表示デバイスでユーザに表示し、前記ユーザから入力を検知し、検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、前記検知されたユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する、複数出席者間の会議に関連し、ユーザが身に付けたウェアラブル装置で実行される処理をコンピュータに実行させる。   A twenty-first aspect is a program that extracts a plurality of key frames from each of a plurality of live conference streams, and displays one of the plurality of key frames from one of the plurality of live conference streams on a display device. Display to the user, detect an input from the user, and when the detected input from the user is the first type, from one of the plurality of live conference streams to another one of the plurality of key frames. A plurality of attendees displaying one of the plurality of keyframes from the other one of the plurality of live conference streams when the detected user input is of the second type In connection with a conference between persons, the computer executes a process executed by a wearable device worn by the user.

本発明は、分散会議の進行において個人参加が可能で、簡易で邪魔にならないツールを提供する。   The present invention provides a simple and unobtrusive tool that allows individual participation in the progress of a distributed conference.

スマートウォッチのようなウェアラブル装置を用いて会議に接続する少なくとも一人の出席者との分散会議を可能にするシステムの実施例を示す。1 illustrates an embodiment of a system that enables a distributed conference with at least one attendee connecting to a conference using a wearable device such as a smartwatch. スマートウォッチのようなウェアラブル装置を用いて会議に接続する少なくとも一人の出席者との分散会議を可能にするシステムの実施例を示す。1 illustrates an embodiment of a system that enables a distributed conference with at least one attendee connecting to a conference using a wearable device such as a smartwatch. ユーザウェアラブル装置で実行するソフトウェアアプリケーションのグラフィカルユーザインターフェイス画面の種々の実施例を示す。Fig. 4 illustrates various embodiments of a graphical user interface screen of a software application executing on a user wearable device. ユーザのウェアラブル装置を実行するソフトウェアアプリケーションの操作シーケンス例を示す。The example of the operation sequence of the software application which performs a user's wearable apparatus is shown. 本実施例が展開できるウェアラブル計算機システムの実施例を示す。An embodiment of a wearable computer system in which this embodiment can be developed will be described.

以下の詳細な説明において、添付の図面を参照する。添付の図面において、同様の機能を有する構成要素は同様の参照符号で参照される。上記添付の図面は、本発明の原理と矛盾しない特定の実施例及び実装の例示を目的とし、限定を意図していない。これらの実装は、本発明を実行することを可能とする程度に十分詳細に説明されている。また、他の実装も利用可能であり、本発明の範囲及び思想と乖離することなく、構造の変更及び/もしくは様々な構成要素の置き換えも可能である。以下の詳細な説明は、限定的に解釈されるべきではない。また、説明される本発明の様々な実施例は、汎用目的コンピュータで稼動するソフトウェアの形態で実装されてもよいし、特定用途ハードウェアの形態で実装されてもよいし、ソフトウェア及びハードウェアの組み合わせで実装されてもよい。   In the following detailed description, reference is made to the accompanying drawings. In the accompanying drawings, components having similar functions are referred to by the same reference numerals. The accompanying drawings are intended to illustrate particular embodiments and implementations consistent with the principles of the invention and are not intended to be limiting. These implementations are described in sufficient detail to enable the invention to be practiced. Other implementations are also available, and structural changes and / or replacement of various components are possible without departing from the scope and spirit of the invention. The following detailed description should not be construed as limiting. Also, the various embodiments of the invention described may be implemented in the form of software running on a general purpose computer, may be implemented in the form of special purpose hardware, or software and hardware It may be implemented in combination.

本記載の実施例の一態様によれば、当業者に知られているスマートウォッチのようなウェアラブル装置を用いて、会議出席者に会議の音声や映像のコンテンツに関する基本的なアウェアネスの維持を可能にするシステムと関連方法が提供される。本記載のシステム及び方法の実施例は、リモートまたはモバイルユーザが他のタスクから気を逸らすことなく分散会議と関わることが可能なように、本質的なインタラクションメカニズムも提供する。一実施例において、本記載の技術は、ビデオ会議アプリケーションのスマートウォッチベースのインターフェイスを用いて、ユーザが進行中の分散会議に出席する邪魔にならない方法を提供する。   According to one aspect of the embodiments described herein, a wearable device such as a smartwatch known to those skilled in the art can be used to maintain basic awareness regarding conference audio and video content for conference attendees. Systems and related methods are provided. Embodiments of the described systems and methods also provide an essential interaction mechanism so that remote or mobile users can engage with distributed conferences without distracting from other tasks. In one embodiment, the described technique provides a non-intrusive way for a user to attend an ongoing distributed meeting using a smartwatch-based interface of a video conferencing application.

一つもしくは複数の実施例において、本記載のソリューションは、キーフレームのコンセプトを用いる。キーフレームは、会議中に出席者が共有した画面の画面キャプチャであり、後で参照するために記録される。出席者の共有した画面コンテンツを描写した静止画のキャプチャである上記キーフレームの活用は、会議のリアルタイムでのビデオストリームを表示することではなく、分散会議でのビデオストリームにおける現状アイディアを素早くユーザに提供することである。これにより、ユーザのウェアラブル装置のバッテリー寿命を消耗させないことになる。   In one or more embodiments, the described solution uses a keyframe concept. A key frame is a screen capture of a screen shared by attendees during a meeting and is recorded for later reference. The use of the above key frame, which is a capture of still images depicting screen content shared by attendees, does not display the real-time video stream of the conference, but allows the user to quickly get the current idea of the video stream in a distributed conference. Is to provide. As a result, the battery life of the wearable device of the user is not consumed.

図1A及び図1Bは、スマートウォッチのようなウェアラブル装置を用いて会議に接続する少なくとも一人の出席者との分散会議を可能にするシステムの2つの実施例を示す。図1Aに示されるシステム例100は、中央サーバ101を含み、コンピュータネットワークを介して分散会議出席者の計算システム102、103、104と通信可能に接続される。一つもしくは複数の実施例において、データ接続はHTTPプロトコルを用いて実行される。会議参加者が身に付けたウェアラブル装置105は、中央サーバ101にも通信可能に接続されている。一実施例において、会議参加者の計算システム102、103、104は、例えば他の会議出席者と共有する出席者のコンピュータ画面のコンテンツと同様に、出席者の顔、関連音声またはチャットのテキストメッセージを含み、進行中の会議ストリームを生成する。一実施例において、出席者の計算システム102、103、104の各々は、参加者の進行中の会議ストリームのコンテンツに基づきキーフレームを生成する。進行中の会議ストリーム及び生成されたキーフレームは、計算システム102、103、104の各々からサーバ101に転送される。他の実施例において、キーフレームは、受け取った会議ストリームのコンテンツを用いてサーバ101で生成されてもよい。   FIGS. 1A and 1B show two embodiments of a system that enables a distributed conference with at least one attendee connecting to a conference using a wearable device such as a smartwatch. An example system 100 shown in FIG. 1A includes a central server 101 and is communicatively connected to a distributed conference attendee computing system 102, 103, 104 via a computer network. In one or more embodiments, the data connection is performed using the HTTP protocol. The wearable device 105 worn by the conference participant is also connected to the central server 101 so as to be communicable. In one embodiment, the conference participant computing system 102, 103, 104 may include attendee face, associated voice or chat text messages, as well as attendee computer screen content shared with other conference attendees, for example. To generate an ongoing conference stream. In one embodiment, each of the attendee computing systems 102, 103, 104 generates a key frame based on the content of the participant's ongoing conference stream. The ongoing conference stream and generated keyframes are transferred from each of the computing systems 102, 103, 104 to the server 101. In other embodiments, the key frame may be generated at the server 101 using the content of the received conference stream.

一つもしくは複数の実施例において、生成されたキーフレーム及びチャットメッセージ(107でまとめて参照する)は、ネットワークを介して中央サーバ101からウェアラブル装置105に転送される。一つもしくは複数の実施例において、生成されたキーフレーム及びチャットメッセージは、ウェアラブル装置105のディスプレイでユーザに表示される。一方、受け取った音声は、例えば、当業者に知られたBluetooth(登録商標)ワイヤレスプロトコルを用いてユーザが身に付けたヘッドセット106に、ウェアラブル装置105によって転送される。一つもしくは複数の実施例において、ウェアラブル装置105の独創的なグラフィカルユーザインターフェイスを用いて、ユーザはチャットテキストメッセージをサーバ101へ返送することができる。   In one or more embodiments, the generated key frame and chat message (collectively referenced 107) are transferred from the central server 101 to the wearable device 105 via the network. In one or more embodiments, the generated key frame and chat message are displayed to the user on the display of the wearable device 105. On the other hand, the received voice is transferred by the wearable device 105 to a headset 106 worn by the user using, for example, a Bluetooth (registered trademark) wireless protocol known to those skilled in the art. In one or more embodiments, the user can send a chat text message back to the server 101 using the creative graphical user interface of the wearable device 105.

図1Bに示される変形例110では、携帯装置111が追加される。実施例では、携帯装置111は、中央サーバ101とウェアラブル装置105の両方と通信する。中央サーバとの通信はセルラーまたはWIFIデータ接続を用いて行われてもよく、ウェアラブル装置105との接続はBluetoothまたはWiFiデータ接続を用いて実行されてもよい。一実施例において、上記音声または生成されたキーフレーム、チャットメッセージ(107でまとめて参照する)は、まず中央サーバ101からスマートフォンのような携帯装置111に転送される。次に携帯装置111は、例えばBluetoothワイヤレスプロトコルまたは有線接続を用いて、会議音声109をユーザが身に付けたヘッドセット106に転送し、生成したキーフレームまたはチャットメッセージをユーザに表示するためウェアラブル装置105に転送する。一つもしくは複数の実施例において、携帯装置111はまた、ユーザによる適切な会議への接続を制御する。   In the modification 110 shown in FIG. 1B, a portable device 111 is added. In an embodiment, portable device 111 communicates with both central server 101 and wearable device 105. Communication with the central server may be performed using a cellular or WIFI data connection, and the connection with the wearable device 105 may be performed using a Bluetooth or WiFi data connection. In one embodiment, the voice or generated key frame and chat message (referred to collectively at 107) are first transferred from the central server 101 to a portable device 111 such as a smartphone. Next, the portable device 111 uses a Bluetooth wireless protocol or a wired connection, for example, to transfer the conference audio 109 to the headset 106 worn by the user and to display the generated key frame or chat message to the user. Forward to 105. In one or more embodiments, the portable device 111 also controls connection to the appropriate conference by the user.

一つもしくは複数の実施例において、サーバ101で生成されたキーフレームとキーフレームの生成始動で用いられたパラメータは、ユーザが特定期間に共有しているコンテンツタイプに基づいて変更される。一実施例において、キーフレーム生成システムは、ユーザ各々により共有される会議ビデオストリームの先のビデオキーフレームと後のビデオキーフレームとの間の差異(距離)を連続して計算及び監視し、当該差異(距離)と予め定められた閾値とを比較する。上記閾値を超えたときに、新たなキーフレームの生成が自動的に始動する。上記閾値はコンテンツのタイプが異なれば、異なっていてもよい。   In one or a plurality of embodiments, the key frame generated by the server 101 and the parameters used for starting generation of the key frame are changed based on the content type shared by the user for a specific period. In one embodiment, the key frame generation system continuously calculates and monitors the difference (distance) between the previous video key frame and the subsequent video key frame of the conference video stream shared by each user, The difference (distance) is compared with a predetermined threshold value. When the threshold is exceeded, the generation of a new key frame is automatically started. The threshold value may be different as long as the content type is different.

例えば、一つの実施例において、ユーザが標準のウェブカメラ(Webcam)のビューを共有しているときには、例えば、ユーザの顔を表示する同一の関連のないフレームを避けるために、新たなキーフレーム生成は、ある予め定められたレベルのビュー(ビデオストリーム)の変更を必要とする。従って、ユーザの顔に関するビデオコンテンツのケースについては、上記閾値は比較的高くてもよい。一方、会議参加者がスライドショーを共有しるときには、いかなるビューの変更においても新たなキーフレームが生成される。従って、スライドショーコンテンツにおける上記のキーフレーム生成閾値は極めて低くてもよい。   For example, in one embodiment, when a user shares a standard Webcam view, a new keyframe generation, eg, to avoid the same unrelated frame displaying the user's face Requires a certain level of view (video stream) change. Thus, for video content cases relating to the user's face, the threshold may be relatively high. On the other hand, when meeting participants share a slide show, a new key frame is generated for any view change. Therefore, the key frame generation threshold value in the slide show content may be extremely low.

一つもしくは複数の実施例において、生成されたキーフレームは、ユーザ特定の(分散会議参加者特定の)キーフレームストリームに分割される。このようなキーフレームストリームは、ウェアラブル装置105に供給され、ウェアラブル装置105のディスプレイで生成されるグラフィカルユーザインターフェイスを用いて表示し、会議出席者により選択されてもよい。一つもしくは複数の実施例において、ウェアラブル装置105で実行されるアプリケーションは予め定められたユーザジェスチャを検知し、検知した予め定められたユーザジャスチャに基づき上記のキーフレームストリーム間を切り替える。一つもしくは複数の実施例において、ユーザジェスチャは、例えばユーザウェアラブル装置105のタッチスクリーンインターフェイスを用いて検知されてもよい。   In one or more embodiments, the generated key frames are divided into user specific (distributed conference participant specific) key frame streams. Such a key frame stream may be supplied to the wearable device 105, displayed using a graphical user interface generated on the display of the wearable device 105, and selected by a conference attendee. In one or more embodiments, an application executed on wearable device 105 detects a predetermined user gesture and switches between the key frame streams based on the detected predetermined user gesture. In one or more embodiments, the user gesture may be detected using, for example, a touch screen interface of the user wearable device 105.

一実施例において、ユーザの指または他の適した手段を用いて実行され得る、検知された上下にスワイプするユーザジェスチャによって、ウェアラブル装置105のソフトウェアアプリケーションは、異なるユーザのストリームに変更し、ディスプレイ装置にユーザ選択ストリームのコンテンツ(例えば、キーフレームを表示する。一方、同様のまたは異なる実施例において、検知された左右にスワイプするユーザジェスチャによって、ウェアラブル装置105のソフトウェアアプリケーションは、特定ストリームの中のキーフレームを循環する。また、検知されたダブルタップのユーザジェスチャによって、キーフレームをズームイン、ズームアウトする。最後に、2つの指で摘むジェスチャによって、ズームインされたフレームを自由にパンすることができる。当業者に理解されている通り、その他の多くのタイプのユーザジェスチャが、ウェアラブル装置105で実行されるソフトウェアアプリケーションにより検知されてもよく、したがって、本発明は特定のユーザジェスチャに制限されるものではない。   In one embodiment, the software application of wearable device 105 changes to a different user stream by means of a sensed swipe up and down user gesture that may be performed using the user's finger or other suitable means, and the display device The content of the user-selected stream (e.g., display a key frame. On the other hand, in a similar or different embodiment, the detected user gesture swipes the software application of the wearable device 105 to the key in the particular stream. Cycle through frames, zoom in and out of keyframes with detected double-tap user gestures, and finally free up zoomed-in frames with two-finger gestures As will be appreciated by those skilled in the art, many other types of user gestures may be detected by a software application running on the wearable device 105, and thus the present invention is not limited to a particular user gesture. It is not limited to.

さらに、一つもしくは複数の実施例において、キーフレーム及びストリームの間のナビゲーションは後述する音声認識インターフェイスを用いて実行されてもよい。本実施例において、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、例えば“次のストリーム”、“前のストリーム”、 “次のフレーム”、“前のフレーム”等といったユーザが発した特定の発話コマンドを検知する。特定のユーザ発話コマンドの検知により、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、対応するコマンドを実行する。当業者に理解されている通り、その他の多くのタイプのユーザの発話コマンドは、ウェアラブル装置105で実行されるソフトウェアアプリケーションによって検知されてもよく、したがって、本発明は特定の発話コマンドに制限されるものではない。   Further, in one or more embodiments, navigation between key frames and streams may be performed using a speech recognition interface described below. In this embodiment, the software application executed by the wearable device 105 is a specific utterance command issued by the user, such as “next stream”, “previous stream”, “next frame”, “previous frame”, etc. Is detected. Upon detection of a specific user utterance command, the software application executed on wearable device 105 executes the corresponding command. As will be appreciated by those skilled in the art, many other types of user utterance commands may be detected by a software application running on wearable device 105, and thus the present invention is limited to specific utterance commands. It is not a thing.

一つもしくは複数の実施例において、会議ストリームで最新のキーフレームが閲覧されるときはいつでも、中央サーバ101からの、新たなまたはより最新のキーフレームがウェアラブル装置105で受信され、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、自動的に新たなキーフレームに移動し、新たに受信されたキーフレームをユーザに表示する。本特徴は、分散会議で議論される対象によって更新されるキーフレームの自動フローを生成する。これにより、ユーザは、会議におけるビジュアルコンテンツのアウェアネスを維持することができる。一つもしくは複数の実施例において、ユーザがズームやパンなどを行うことで、キーフレームとやり取りをしているときに、新たなキーフレームがサーバ101から受信されると、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、古いキーフレームと関連するユーザによる現活動の中断を避けるために、最新の受信したキーフレームをユーザに対して即座に表示しない。   In one or more embodiments, whenever the latest key frame is viewed in the conference stream, a new or more recent key frame from the central server 101 is received by the wearable device 105 and the wearable device 105 The executed software application automatically moves to a new key frame and displays the newly received key frame to the user. This feature generates an automatic flow of key frames that are updated by objects discussed in a distributed conference. Thereby, the user can maintain the awareness of the visual content in the conference. In one or more embodiments, the wearable device 105 executes a new key frame received from the server 101 when the user is interacting with the key frame by zooming or panning. Software applications do not immediately display the most recently received keyframe to the user to avoid interruption of current activity by the user associated with the old keyframe.

一つもしくは複数の実施例において、ウェアラブル装置105で実行するソフトウェアアプリケーションは、また、別のチャットチャンネルを含む。上記チャットチャンネルによって、ウェアラブル装置105のユーザは、他の会議出席者から送られたチャット(テキスト)メッセージを閲覧すること、グラフィカルユーザインターフェイスにより与えられた、例えば、予め定められた「はい/いいえ」の回答を用いて、自身のメッセージを会議チャットに送信すること、ができる。他の実施例において、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、上記チャットチャンネルを通して他の分散会議出席者に送るテキストメッセージに、ユーザ音声を自動的に変換する、音声テキスト変換機能を含む。音声テキスト変換ソフトウェアは当業者により知られており、どのようなソフトウェアであっても上記発明の範囲を制限せずに利用できる。   In one or more embodiments, the software application executing on wearable device 105 also includes another chat channel. The chat channel allows the user of wearable device 105 to view chat (text) messages sent from other conference attendees, eg, a predetermined “yes / no” given by a graphical user interface. You can send your message to the conference chat using the answer. In another embodiment, a software application running on wearable device 105 includes a voice-to-text conversion function that automatically converts user voice into text messages that are sent to other distributed meeting attendees through the chat channel. Speech-to-text conversion software is known by those skilled in the art, and any software can be used without limiting the scope of the invention.

図2は、ユーザウェアラブル装置で実行するソフトウェアアプリケーションのグラフィカルユーザインターフェイス画面の種々の実施例を示す。一つもしくは複数の実施例において、ウェアラブル装置105のユーザは、図2に示すアプリケーションのグラフィカルユーザインターフェイスメニュー画面201からチャットビュー及びストリームビューの両方にアクセスしてもよい。一つもしくは複数の実施例において、次画面の1つ以上は、両方のビューを素早い切り替えを可能にするため画面下部にパネル210を含む。   FIG. 2 illustrates various examples of graphical user interface screens for software applications executing on a user wearable device. In one or more embodiments, the wearable device 105 user may access both the chat view and the stream view from the graphical user interface menu screen 201 of the application shown in FIG. In one or more embodiments, one or more of the next screens include a panel 210 at the bottom of the screen to allow quick switching between both views.

図2はまた、ストリームビュー画面202の実施例を示す。現在または履歴のキーフレームは、本画面を用いてユーザに表示される。ユーザは、ウェアラブル装置105の画面で左右にスワイプするジェスチャを用いることで、次または以前のキーフレームのスクロールを行うことができる。図2はまた、パネル210が開かれたストリームビュー画面203の実施例を示す。図2はチャットビュー画面204の実施例も示す。図2で示される通り、チャットビュー画面205は、Y’、‘N’、 ‘録音’、‘ストリーム’ボタンを含む。‘Y’、‘N’ボタンは、迅速な「はい/いいえ」応答を可能とし、‘録音’ボタンは、音声テキスト変換を可能とする。また‘ストリーム’ボタンは、ストリームビュー画面203のナビゲートを可能とする。   FIG. 2 also shows an example of the stream view screen 202. The current or history key frame is displayed to the user using this screen. The user can scroll the next or previous key frame by using a gesture that swipes left and right on the screen of the wearable device 105. FIG. 2 also shows an example of the stream view screen 203 with the panel 210 opened. FIG. 2 also shows an example of the chat view screen 204. As shown in FIG. 2, the chat view screen 205 includes Y ',' N ',' Recording ', and' Stream 'buttons. The 'Y' and 'N' buttons allow for a quick “yes / no” response, and the “record” button allows speech to text conversion. Further, the “stream” button enables navigation of the stream view screen 203.

図2はまた、画面206に示すように、スライドショーを表示する他のストリームをユーザがスワイプすることを示す。図2はまた、スライドキーフレームを表示するグラフィカルユーザインターフェイス画面207の実施例を示す。図2はスライドキーフレームでズームを表示するグラフィカルユーザインターフェイス画面208の実施例も示す。最後に、図2はまた、異なる位置にパンされたスライドキーフレームのズームを表示するグラフィカルユーザインターフェイス画面209の実施例を示す。画面202〜209は上記のナビゲーションパネル210を含む。   FIG. 2 also shows that the user swipes another stream displaying the slide show, as shown on screen 206. FIG. 2 also shows an example of a graphical user interface screen 207 that displays slide key frames. FIG. 2 also shows an example of a graphical user interface screen 208 that displays zoom with slide key frames. Finally, FIG. 2 also shows an example of a graphical user interface screen 209 that displays a zoom of slide key frames panned to different positions. Screens 202 to 209 include the navigation panel 210 described above.

図3は、ユーザのウェアラブル装置105で実行されるソフトウェアアプリケーションの操作シーケンス例を示す。まず、ステップ301で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、既知の会議に接続する。ステップ302で、ウェアラブル装置105で実行されるソフトウェアは、リモートユーザ各々のストリームに対応するキーフレームを登録する。ステップ303で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、キーフレームを表示し、個々のキーフレーム同様にリモートユーザのストリーム間のスワイプを可能にする。ステップ304で、ウェアラブル装置105で実行されるソフトウェアは、ウェアラブル装置のディスプレイでキーフレームのズームやパンを可能にする。ステップ305で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、チャットコンテンツと同期する。ステップ306で、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、音声テキスト変換を介したチャットまたは、「はい/いいえ」ボタンに、ユーザが関与することを可能にする。上記のステップ302〜306は適切な何れのシーケンスで実行してもよい。一実施例において、ウェアラブル装置はネットワークへの直接接続が可能でなくとも、スマートフォンのような携帯装置111で実行されるミドルウェアアプリケーションを介して本機能のすべてを実行することができる。   FIG. 3 shows an example of an operation sequence of a software application executed on the wearable device 105 of the user. First, in step 301, a software application executed on the wearable device 105 connects to a known conference. In step 302, the software executed on wearable device 105 registers a key frame corresponding to each stream of the remote user. At step 303, the software application running on wearable device 105 displays the key frames and allows swiping between the remote user's streams as well as the individual key frames. In step 304, the software executed on wearable device 105 enables zooming and panning of key frames on the display of the wearable device. In step 305, the software application executed on wearable device 105 is synchronized with the chat content. At step 306, the software application running on wearable device 105 allows the user to engage in chat via speech to text or a “yes / no” button. The above steps 302 to 306 may be executed in any suitable sequence. In one embodiment, the wearable device can perform all of this functionality via a middleware application running on the mobile device 111, such as a smartphone, even though it cannot be directly connected to the network.

一つもしくは複数の実施例において、ウェアラブル装置105は、ライブ会議ストリームをユーザに表示するよう構成されてもよい。バッテリーを消耗させないよう、ライブ会議ストリームは、ユーザがウェアラブル装置105のディスプレイに顔を向けたときに表示してもよい。このためにウェアラブル装置105は、複数のジャイロスコープのような姿勢/方向センサを備えてもよい。また、ウェアラブル装置105で実行されるソフトウェアアプリケーションは、会議中に書き取りや他のメモ入力を可能にする筆記機能を提供してもよい。   In one or more embodiments, wearable device 105 may be configured to display a live conference stream to a user. The live conference stream may be displayed when the user turns his face to the display of the wearable device 105 so as not to drain the battery. For this purpose, the wearable device 105 may include a plurality of posture / direction sensors such as a gyroscope. In addition, the software application executed on the wearable device 105 may provide a writing function that enables writing or other memo input during a conference.

図4は、本実施例が展開できる計算機ウェアラブルシステムの実施例を示す。一つもしくは複数の実施例において、計算機ウェアラブルシステム105はスマートウォッチである。   FIG. 4 shows an embodiment of a computer wearable system in which this embodiment can be developed. In one or more embodiments, the computer wearable system 105 is a smart watch.

計算機ウェアラブルシステム105は、計算機ウェアラブルシステム105の様々なハードウェア構成要素をわたるもしくはハードウェア構成要素間の情報を伝達する、もしくは相互に接続するための通信機構であるデータバス404、情報を処理し、他の計算タスク及び制御タスクを実行するためにデータバス404に電気的に接続されている中央処理ユニット(CPUもしくは単なるプロセッサ)401を含んでいてもよい。計算機ウェアラブルシステム105は、様々な情報及びプロセッサ401によって実行される命令を記憶するためにデータバス404に接続されている、ランダムアクセスメモリ(RAM)もしくは他のダイナミックストレージデバイスなどの、メモリ412を含む。メモリ412は磁気ディスク、光ディスク、ソリッドステートフラッシュメモリデバイスもしくは他の不揮発性ソリッドステートストレージデバイスなどの永続的ストレージデバイスを含んでいてもよい。   The computer wearable system 105 processes the data bus 404, which is a communication mechanism for transmitting information between the hardware components of the computer wearable system 105 or transmitting information between the hardware components, or connecting them to each other. A central processing unit (CPU or simply processor) 401 may be included that is electrically connected to the data bus 404 to perform other computational and control tasks. Computer wearable system 105 includes memory 412, such as random access memory (RAM) or other dynamic storage device, connected to data bus 404 for storing various information and instructions executed by processor 401. . Memory 412 may include a persistent storage device such as a magnetic disk, optical disk, solid state flash memory device, or other non-volatile solid state storage device.

一つもしくは複数の実施例において、メモリ412は、プロセッサ401によって命令を実行している間、一時的変数もしくは他の中間情報を記憶するために使用されてもよい。追加的に、計算機ウェアラブルシステム105は、さらに、静的情報及び計算機ウェアラブルシステム105の動作に必要なファームウェアなどのプロセッサ401のための命令、BIOS(basic input-output system)、計算機ウェアラブルシステム105の様々な構成パラメータを記憶するために、データバス404に接続されているリードオンリーメモリ(ROMもしくはEPROM)402もしくは他のスタティックストレージデバイスを含んでいてもよい。   In one or more embodiments, the memory 412 may be used to store temporary variables or other intermediate information while executing instructions by the processor 401. In addition, the computer wearable system 105 further includes a variety of static information and instructions for the processor 401 such as firmware necessary for the operation of the computer wearable system 105, a basic input-output system (BIOS), and various types of the computer wearable system 105. In order to store the various configuration parameters, a read only memory (ROM or EPROM) 402 or other static storage device connected to the data bus 404 may be included.

一つもしくは複数の実施例において、計算機ウェアラブルシステム105は表示デバイス(ディスプレイ)409を含んでいてもよい。表示デバイス409はデータバス404に電気的に接続されていてもよく、図2に示されるユーザインターフェイスやキーフレームなどの様々な情報を、計算機ウェアラブルシステム105のユーザに対して表示する。代替的な実施例において、表示デバイス409は(図示しない)グラフィックコントローラ及び/もしくはグラフィックプロセッサと関連付けられていてもよい。表示デバイス409は、よく知られたLCD(liquid crystal display)として実装されてもよいし、TFT(thin-film transistor)もしくは有機LED(organic light emitting diode)技術を用いて製作されてもよい。様々な実施例において、表示デバイス409は、計算機ウェアラブルシステム105の残りの構成要素と共に一般的な筐体に組み込まれてもよい。   In one or more embodiments, the computer wearable system 105 may include a display device (display) 409. The display device 409 may be electrically connected to the data bus 404 and displays various information such as the user interface and key frames shown in FIG. 2 to the user of the computer wearable system 105. In an alternative embodiment, display device 409 may be associated with a graphics controller and / or graphics processor (not shown). The display device 409 may be implemented as a well-known LCD (liquid crystal display), or may be manufactured using TFT (thin-film transistor) or organic LED (organic light emitting diode) technology. In various embodiments, the display device 409 may be incorporated into a general enclosure along with the remaining components of the computer wearable system 105.

一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、データバス404に電気的に接続されており、よく知られているように、記録されたミーティングの音声成分である、MPEG−3ファイルなどの様々な音声ファイル、もしくは、MPEG−4ファイルなどの様々なビデオファイルの音声トラックを再生するように構成されている音声(オーディオ)再生デバイス425を、さらに、含んでいてもよい。これにより、計算機ウェアラブルシステム105は、(図示しない)波形もしくは音声プロセッサもしくは同様のデバイスを含んでいてもよい。   In one or more embodiments, the computer wearable system 105 is electrically connected to the data bus 404 and, as is well known, such as an MPEG-3 file that is a recorded meeting audio component. And an audio (audio) playback device 425 configured to play audio tracks of various video files, or various video files such as MPEG-4 files. Thereby, the computer wearable system 105 may include a waveform (not shown) or speech processor or similar device.

一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、ユーザの触覚コマンドを受け付けるタッチスクリーンインターフェイス410のような一つもしくは複数の入力デバイスを含んでいてもよい。タッチスクリーンインターフェイス410は、抵抗、音響、静電、当業者に知られたその他の物理的な原理または効果に基づき操作してもよい。表示デバイス409と共に用いられるタッチスクリーンインターフェイス410は、表示デバイス409にタッチスクリーン機能を持たせることが可能である。従って、タッチスクリーンインターフェイス410と共に動作する表示デバイス409は、簡易な‘タッチスクリーン’または接触ディスプレイ装置としてここで参照されてもよい。   In one or more embodiments, the computer wearable system 105 may include one or more input devices such as a touch screen interface 410 that accepts user tactile commands. The touch screen interface 410 may operate based on resistance, sound, electrostatics, or other physical principles or effects known to those skilled in the art. The touch screen interface 410 used together with the display device 409 can make the display device 409 have a touch screen function. Accordingly, the display device 409 operating with the touch screen interface 410 may be referred to herein as a simple 'touch screen' or touch display device.

計算機ウェアラブルシステム105は、さらに、ユーザのビデオ及び静止画像を取得するカメラ411を含み、これらのすべては情報を伝達するためにデータバス404に接続されていてもよい。情報は、画像、ビデオ、プロセッサ401へのユーザコマンドを含み得るが、これらに限定されない。   The computer wearable system 105 further includes a camera 411 that captures the user's video and still images, all of which may be connected to the data bus 404 to convey information. Information may include, but is not limited to, images, videos, user commands to the processor 401.

一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、さらに、データバス404を介してプロセッサ401に接続されている計算機ウェアラブルシステム105の加速度及び、現在の方位に関するデータを提供するように構成された方位センサ403を含んでもよい。方位情報は、重力を含む3軸すべての加速度測定を用いて取得してもよい。一つもしくは複数の実施例において、方位センサ403により与えられた方位メタデータは連続して記録され、データストレージ421に記録される。さらに、音声取得(オーディオキャプチャ)モジュール406が、ユーザ音声を用いたチャットメッセージまたは発話コマンドを取得するために含まれていてもよい。   In one or more embodiments, the computer wearable system 105 is further configured to provide data relating to the acceleration and current orientation of the computer wearable system 105 connected to the processor 401 via the data bus 404. An orientation sensor 403 may be included. Orientation information may be obtained using all three axes of acceleration measurements including gravity. In one or more embodiments, the orientation metadata provided by the orientation sensor 403 is continuously recorded and recorded in the data storage 421. Furthermore, a voice acquisition (audio capture) module 406 may be included to acquire a chat message or utterance command using the user voice.

一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、さらに、データバス404に接続されているネットワークインターフェイス405などの通信インターフェイスを含んでいてもよい。ネットワークインターフェイス405は、計算機ウェアラブルシステム105及びインターネット424の間の接続を、WiFiインターフェイス(アダプタ)407、携帯電話ネットワーク(GSM(登録商標)もしくはCDMA)アダプタ408の少なくとも一つを用いて確立するように構成されていてもよい。ネットワークインターフェイス405は、計算機ウェアラブルシステム105及びインターネット424の間で双方向データ通信が可能なように構成されていてもよい。WiFiアダプタ407は、よく知られている802.11a、802.11b、802.11g及び/もしくは802.11nプロトコル及びBluetoothプロトコルに準拠して動作する。例示的な実施形態において、WiFiアダプタ407、携帯電話ネットワーク(GSMもしくはCDMA)アダプタ408は、電気信号もしくは電磁信号を送受信して、様々なタイプの情報を表すデジタルデータストリームを搬送する。   In one or more embodiments, the computer wearable system 105 may further include a communication interface such as a network interface 405 connected to the data bus 404. The network interface 405 establishes a connection between the computer wearable system 105 and the Internet 424 using at least one of a WiFi interface (adapter) 407 and a mobile phone network (GSM (registered trademark) or CDMA) adapter 408. It may be configured. The network interface 405 may be configured to allow bidirectional data communication between the computer wearable system 105 and the Internet 424. The WiFi adapter 407 operates in accordance with well-known 802.11a, 802.11b, 802.11g and / or 802.11n and Bluetooth protocols. In the exemplary embodiment, WiFi adapter 407, cellular network (GSM or CDMA) adapter 408 sends and receives electrical or electromagnetic signals to carry digital data streams representing various types of information.

一つもしくは複数の実施例において、インターネット424は、一般的に、一つもしくは複数のサブネットワークを介した他のネットワークリソースへのデータ通信を提供する。したがって、計算機ウェアラブルシステム105は、リモートメディアサーバ、ウェブサーバ、他のコンテンツサーバ、及び他のネットワークデータストレージリソースなどのインターネット424のどこかに配置されている様々なネットワークリソースにアクセスすることができる。一つもしくは複数の実施例において、計算機ウェアラブルシステム105は、ネットワークインターフェイス405によって、インターネット424を含む様々なネットワークを介して、メッセージ、メディア及び、アプリケーションプログラムコードを含む他のデータを送受信するように構成される。インターネットの例において、計算機ウェアラブルシステム105がネットワーククライアントとして動作する場合、計算機ウェアラブルシステム105は、計算機ウェアラブルシステム105で稼働するアプリケーションプログラムのためのコードもしくはデータを要求してもよい。同様に、計算機ウェアラブルシステム105は、他のネットワークリソースに様々なデータもしくはコンピュータコードを送信してもよい。   In one or more embodiments, the Internet 424 typically provides data communication to other network resources via one or more subnetworks. Accordingly, the computer wearable system 105 can access various network resources located anywhere on the Internet 424 such as remote media servers, web servers, other content servers, and other network data storage resources. In one or more embodiments, the computer wearable system 105 is configured to send and receive messages, media, and other data including application program code over various networks, including the Internet 424, via the network interface 405. Is done. In the Internet example, when the computer wearable system 105 operates as a network client, the computer wearable system 105 may request code or data for an application program running on the computer wearable system 105. Similarly, the computer wearable system 105 may send various data or computer codes to other network resources.

一つもしくは複数の実施例において、ここで説明する機能は、メモリ412に含まれている一つもしくは複数の命令の一つもしくは複数のシーケンスを実行するプロセッサ401に応答して、計算機ウェアラブルシステム105によって実装される。このような命令は他のコンピュータ可読媒体からメモリ412に読み込まれてもよい。メモリ412に含まれる命令シーケンスを実行することにより、ここで説明される様々なプロセスのステップをプロセッサ401が実行する。代替的な実施例において、本発明の実施例を実装するために、ソフトウェア命令に替えて、もしくは、ソフトウェア命令と組み合わせて、ハードウェア回路が使用されてもよい。このように、本発明の実施例は、ハードウェア回路及び/もしくはソフトウェアの任意の特定の組み合わせに限定されない。   In one or more embodiments, the functions described herein are responsive to the processor 401 executing one or more sequences of one or more instructions contained in the memory 412 and the computer wearable system 105. Implemented by Such instructions may be read into memory 412 from other computer-readable media. By executing the sequence of instructions contained in memory 412, processor 401 performs the various process steps described herein. In alternative embodiments, hardware circuitry may be used in place of or in combination with software instructions to implement embodiments of the present invention. Thus, embodiments of the invention are not limited to any specific combination of hardware circuitry and / or software.

ここで使用される用語「コンピュータ可読媒体」は、実行するためにプロセッサ401に命令を提供するために使用される任意の媒体を参照する。コンピュータ可読媒体は機械可読媒体の一例であり、ここで説明される任意の方法及び/もしくは技術を実装するための命令を搬送することができる。このような媒体は多くの形態をとることができ、不揮発性媒体及び揮発性媒体を含むが、これらに限定されない。   The term “computer-readable medium” as used herein refers to any medium used to provide instructions to processor 401 for execution. A computer-readable medium is an example of a machine-readable medium that may carry instructions for implementing any of the methods and / or techniques described herein. Such a medium may take many forms, including but not limited to, non-volatile media and volatile media.

非一時的コンピュータ可読媒体の一般的な形態は、例えば、フロッピー(登録商標)ディスク、ハードディスク、磁気テープ、もしくは任意の他の磁気媒体、CD−ROM、任意の他の光媒体、パンチカード、ペーパーテープ、任意の他の孔パターンを有する物理的媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、任意の他のメモリチップもしくはカートリッジ、もしくは、コンピュータが読み取ることが可能な任意の他の媒体を含む。コンピュータ可読媒体の様々な形態が、実行するプロセッサ401に、一つもしくは複数の命令の一つもしくは複数のシーケンスを搬送するために使用されてもよい。例えば、命令は、まず、リモートコンピュータから磁気ディスクに搬送されてもよい。代替的に、リモートコンピュータは、ダイナミックメモリに命令をロードし、インターネット424を介して命令を送信することができる。詳細には、コンピュータ命令は、よく知られている様々なネットワークデータ通信プロトコルを用いて、インターネット424を介して、リモートコンピュータから計算機ウェアラブルシステム105のメモリにダウンロードされてもよい。   Common forms of non-transitory computer readable media include, for example, floppy disks, hard disks, magnetic tapes, or any other magnetic media, CD-ROM, any other optical media, punch cards, paper Tape, physical media with any other hole pattern, RAM, PROM, EPROM, flash EPROM, flash drive, memory card, any other memory chip or cartridge, or any other computer readable Media. Various forms of computer readable media may be used to carry one or more sequences of one or more instructions to executing processor 401. For example, the instructions may first be transferred from a remote computer to a magnetic disk. Alternatively, the remote computer can load the instructions into dynamic memory and send the instructions over the Internet 424. Specifically, the computer instructions may be downloaded from a remote computer to the memory of the computer wearable system 105 via the Internet 424 using various well-known network data communication protocols.

一つもしくは複数の実施例において、計算機ウェアラブルシステム105のメモリ412は、以下のソフトウェアプログラム、アプリケーションもしくはモジュールの何れかを記憶していてもよい。   In one or a plurality of embodiments, the memory 412 of the computer wearable system 105 may store any of the following software programs, applications, or modules.

1.オペレーティングシステム(OS)413。オペレーティングシステム(OS)413は、基本システムサービスを実装し、計算機ウェアラブルシステム105の様々なハードウェア構成要素を管理する。オペレーティングシステム413の実施例は、よく知られており、現在知られている、又は今後開発されるモバイルオペレーティングシステムの何れかを含んでもよい。   1. An operating system (OS) 413. An operating system (OS) 413 implements basic system services and manages various hardware components of the computer wearable system 105. Embodiments of operating system 413 are well known and may include any of the currently known or later developed mobile operating systems.

2.アプリケーション414。アプリケーション414は、例えば、計算機ウェアラブルシステム105のプロセッサ401によって実行されるソフトウェアアプリケーションセットを含んでいてもよい。プロセッサ401によってソフトウェアアプリケーションセットが実行されることにより、例えば図3に示された機能または上記の機能、など所定の機能を、計算機ウェアラブルシステム105に実行させる。一つもしくは複数の実施例において、アプリケーション414は、以下で説明するように、独創的な会議アプリケーション415を含んでいてもよい。 2. Application 414. The application 414 may include a software application set executed by the processor 401 of the computer wearable system 105, for example. When the software application set is executed by the processor 401, the computer wearable system 105 is caused to execute a predetermined function such as the function shown in FIG. In one or more embodiments, the application 414 may include a creative conferencing application 415, as described below.

3.データストレージ421。データストレージ421は、例えば、キーフレーム422またはチャットメッセージ423を記憶してもよい。   3. Data storage 421. The data storage 421 may store a key frame 422 or a chat message 423, for example.

一つもしくは複数の実施例において、独創的な会議アプリケーション415は、計算機ウェアラブルシステム105のディスプレイ409に描写されたユーザインターフェイスを生成するように構成されているユーザインターフェイス生成モジュール416を含む。さらに、独創的な会議アプリケーション415は、タッチスクリーン410に接続され実行されるユーザジェスチャを検知するユーザジェスチャ検出モジュール417、ユーザの発話ワードを検知する音声検知(オーディオキャプチャ)モジュール418、検知した音声をコマンドに変換する音声テキスト変換モジュール419、上記のチャット機能を可能にするチャットモジュール420、チャットメッセージ、を含んでもよい。   In one or more embodiments, the creative conferencing application 415 includes a user interface generation module 416 that is configured to generate a user interface depicted on the display 409 of the computer wearable system 105. Further, the creative conference application 415 includes a user gesture detection module 417 that detects a user gesture connected to the touch screen 410, an audio detection module 418 that detects a user's utterance word, and a detected voice. A voice text conversion module 419 for converting into a command, a chat module 420 for enabling the chat function, and a chat message may be included.

最後に、ここで説明したプロセス及び技術は任意の特定の装置に固有に関連するものではなく、構成要素の任意の適切な組み合わせによって実装され得る。さらに、様々なタイプの汎用目的デバイスが、ここで説明した教示によって使用されてもよい。ここで説明した方法を実行する特定用途装置を構築することも有用である。本発明は、特定の例と関連して説明されたが、特定の例は、制限ではなく、例示を意図している。ハードウェア、ソフトウェア、ファームウェアの多くの異なる組み合わせが本発明を実行するために適している。例えば、説明するソフトウェアは、アセンブラ、C/C++、オブジェクティブ−C、Perl、shell、PHP、Java(登録商標)などの様々なプログラム言語及びスクリプト言語及び現在知られているもしくは今後開発されるプログラミング言語もしくはスクリプト言語で、実装することができる。   Finally, the processes and techniques described herein are not inherently related to any particular apparatus, and may be implemented by any suitable combination of components. In addition, various types of general purpose devices may be used in accordance with the teachings described herein. It is also useful to construct a special purpose device that performs the method described herein. Although the invention has been described in connection with specific examples, the specific examples are intended to be illustrative rather than limiting. Many different combinations of hardware, software, and firmware are suitable for carrying out the present invention. For example, the described software includes various programming languages and script languages such as assembler, C / C ++, Objective-C, Perl, shell, PHP, Java (registered trademark), and programming languages that are currently known or will be developed in the future. Or it can be implemented in a script language.

さらに、本発明の他の実装が、本発明の詳細の検討及びここで説明された実用から明らかである。ここで説明した実施例の様々な態様及び/もしくは構成要素は、再生プランによるハイパービデオを自動的に再生する、上記再生プランを可視化するシステム及び方法において、単独で、もしくは、任意の組み合わせで使用され得る。   Moreover, other implementations of the invention will be apparent from a review of the details of the invention and the practice described herein. Various aspects and / or components of the embodiments described herein may be used alone or in any combination in a system and method for visualizing a playback plan that automatically plays back a hypervideo according to the playback plan. Can be done.

401 CPU
409 表示デバイス
412 メモリ
424 インターネット
411 カメラ
401 CPU
409 Display device 412 Memory 424 Internet 411 Camera

Claims (21)

複数出席者間での会議に関連し、ユーザが身に付けたウェアラブル装置で実行される方法であって、
前記ウェアラブル装置は、中央処理ユニット、表示デバイス及びメモリを含み、
前記ウェアラブル装置には、複数のライブ会議ストリームの各々から抽出された複数のキーフレームが転送され、
前記中央処理ユニットは
記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示し、
前記ユーザからの入力を検知し、
検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、
検知された前記ユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する、
方法。
A method performed on a wearable device worn by a user in connection with a meeting between multiple attendees,
The wearable device includes a central processing unit, a display device, and a memory,
A plurality of key frames extracted from each of a plurality of live conference streams are transferred to the wearable device,
Said central processing unit,
One of the plurality of key frames from one of the previous SL multiple live conference stream displayed to the user on the display device,
Detecting input from the user,
If the detected input from the user is of the first type, display one of the plurality of key frames from one of the plurality of live conference streams;
When the detected input from the user is of the second type, one of the plurality of key frames is displayed from the other one of the plurality of live conference streams.
Method.
前記第一タイプのユーザ入力は、第一方向のユーザジェスチャを含む、
請求項1に記載の方法。
The first type of user input includes a first direction user gesture;
The method of claim 1.
前記第一方向は、左右方向である、
請求項2に記載の方法。
The first direction is a left-right direction.
The method of claim 2.
前記第二タイプのユーザ入力は、第二方向のユーザジェスチャを含む、
請求項1〜請求項3の何れか1項に記載の方法。
The second type of user input includes a second direction user gesture,
The method according to any one of claims 1 to 3.
前記第二方向は、上下方向である、
請求項4に記載の方法。
The second direction is a vertical direction.
The method of claim 4.
検知された前記ユーザからの入力が第三タイプである場合に、前記表示されたキーフレームを拡大すること、
をさらに含む、
請求項1〜請求項5の何れか1項に記載の方法。
Enlarging the displayed keyframe when the detected input from the user is of a third type;
Further including
The method according to any one of claims 1 to 5.
前記第三タイプのユーザ入力は、ダブルタップのジェスチャを含む、
請求項6に記載の方法。
The third type of user input includes a double tap gesture,
The method of claim 6.
検知された前記ユーザからの入力が第四タイプである場合に、前記複数のライブ会議ストリームのうち一つをユーザに表示する、
ことをさらに含む、
請求項1〜請求項7の何れか1項に記載の方法。
When the detected input from the user is a fourth type, one of the plurality of live conference streams is displayed to the user.
Further including
The method according to any one of claims 1 to 7.
前記第四タイプのユーザ入力は、前記ウェアラブル装置の表示を前記ユーザの顔へ向けることを含む、
請求項8に記載の方法。
The fourth type of user input includes directing the display of the wearable device to the face of the user;
The method of claim 8.
前記ユーザが前記ウェアラブル装置の表示から顔を逸らしたときに、前記複数のライブ会議ストリームのうち一つをユーザに表示することを停止すること、
をさらに含む、
請求項8に記載の方法。
Stopping displaying one of the plurality of live conference streams to the user when the user turns away from the display of the wearable device;
Further including
The method of claim 8.
前記複数のキーフレームの各々は、対応するライブ会議ストリームでの2つのキーフレーム間の差異に基づき生成される、
請求項1〜請求項10の何れか1項に記載の方法。
Each of the plurality of key frames is generated based on a difference between two key frames in a corresponding live conference stream.
The method according to any one of claims 1 to 10.
前記複数のキーフレームの各々は、前記対応するライブ会議ストリームでの2つのキーフレーム間の差異が予め定められた閾値を超えたときに生成される、
請求項11に記載の方法。
Each of the plurality of key frames is generated when a difference between two key frames in the corresponding live conference stream exceeds a predetermined threshold.
The method of claim 11.
前記予め定められた閾値は、前記対応するライブ会議ストリームでのコンテンツのタイプに基づき決定される、
請求項12に記載の方法。
The predetermined threshold is determined based on a type of content in the corresponding live conference stream.
The method of claim 12.
前記ユーザへのチャットメッセージの表示に前記表示デバイスを用いること、
をさらに含む、
請求項1〜請求項13の何れか1項に記載の方法。
Using the display device to display a chat message to the user;
Further including
The method according to any one of claims 1 to 13.
前記ユーザからチャット入力を受け付け、前記チャット入力を前記複数の会議出席者に転送すること、
をさらに含む、
請求項1〜請求項14の何れか1項に記載の方法。
Receiving chat input from the user and transferring the chat input to the plurality of meeting attendees;
Further including
15. A method according to any one of claims 1 to 14.
前記チャット入力を、前記表示デバイスに生成されたグラフィカルユーザインターフェイスを用いてユーザから受け付ける、
請求項15に記載の方法。
Receiving the chat input from a user using a graphical user interface generated on the display device;
The method of claim 15.
前記グラフィカルユーザインターフェイスは、少なくとも一つのユーザ選択が可能なウィジェットを含み、前記ユーザにより選択されたウィジェット上で対応するチャット入力が生成される、
請求項16に記載の方法。
The graphical user interface includes at least one user selectable widget, and a corresponding chat input is generated on the widget selected by the user.
The method of claim 16.
前記チャット入力を、前記ユーザの音声をテキスト形式のチャットメッセージに変換することによりユーザから受け付ける、
請求項15に記載の方法。
Accepting the chat input from a user by converting the user's voice into a text chat message;
The method of claim 15.
検知された前記ユーザからの入力は、前記ユーザにより発話されたワードを検知し、検知した発話ワードを前記第一タイプまたは第二タイプに対応するユーザ入力に変換すること、
をさらに含む、
請求項1〜請求項18の何れか1項に記載の方法。
The detected input from the user is to detect a word spoken by the user and convert the detected spoken word to a user input corresponding to the first type or the second type;
Further including
The method according to any one of claims 1 to 18.
ユーザが身に付けるウェアラブルシステムであって、
前記ウェアラブルシステムには、複数のライブ会議ストリームの各々から抽出された複数のキーフレームが転送され、
中央処理ユニットと、
表示デバイスと、
コンピュータ実行可能命令セットを記憶するメモリと
記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを前記表示デバイスで前記ユーザに表示する手段と、
前記ユーザから入力を検知する手段と、
検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、前記検知されたユ
ーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する制御手段と、
を含む、
複数出席者間での会議に関連して実行されるウェアラブルシステム。
A wearable system worn by the user,
A plurality of key frames extracted from each of a plurality of live conference streams are transferred to the wearable system,
A central processing unit;
A display device;
A memory for storing a computer-executable instruction set ;
Means for displaying to the user one at the display device among the plurality of key frames from one of the previous SL multiple live conference stream,
Means for detecting input from the user;
When the detected input from the user is the first type, another one of the plurality of key frames is displayed from one of the plurality of live conference streams, and the input from the detected user Control means for displaying one of the plurality of key frames from the other one of the plurality of live conference streams,
including,
A wearable system that runs in association with a meeting between multiple attendees.
複数出席者間の会議に関連し、ユーザが身に付けたウェアラブル装置で実行される処理をコンピュータに実行させるためのプログラムであって、
前記ウェアラブル装置には、複数のライブ会議ストリームの各々から抽出された複数のキーフレームが転送され、
前記処理は、
記複数のライブ会議ストリームのうち一つから前記複数のキーフレームのうち一つを表示デバイスでユーザに表示し、
前記ユーザから入力を検知し、
検知された前記ユーザからの入力が第一タイプである場合に、前記複数のライブ会議ストリームのうち一つから前記複数のキーフレームの他の一つを表示し、
前記検知されたユーザからの入力が第二タイプである場合に、前記複数のライブ会議ストリームのうち他の一つから前記複数のキーフレームのうち一つを表示する、
ことを含む、プログラム。
A program for causing a computer to execute a process related to a meeting between a plurality of attendees and executed by a wearable device worn by a user,
A plurality of key frames extracted from each of a plurality of live conference streams are transferred to the wearable device,
The processing is as follows:
One then displayed to the user at the display device among the plurality of key frames from one of the previous SL multiple live conference stream,
Detecting input from the user,
If the detected input from the user is of the first type, display one of the plurality of key frames from one of the plurality of live conference streams;
Displaying one of the plurality of keyframes from another one of the plurality of live conference streams when the detected input from the user is of a second type;
Including the program.
JP2016081830A 2015-09-16 2016-04-15 Conference display method, wearable system, and program executed by wearable device Active JP6617641B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/856,535 2015-09-16
US14/856,535 US9402055B2 (en) 2013-10-11 2015-09-16 Systems and methods for peripheral awareness of, and nominal interaction with, a remote meeting using a wearable device

Publications (2)

Publication Number Publication Date
JP2017060149A JP2017060149A (en) 2017-03-23
JP6617641B2 true JP6617641B2 (en) 2019-12-11

Family

ID=58391015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016081830A Active JP6617641B2 (en) 2015-09-16 2016-04-15 Conference display method, wearable system, and program executed by wearable device

Country Status (1)

Country Link
JP (1) JP6617641B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000023132A (en) * 1998-07-06 2000-01-21 Canon Inc Data communication controller, control method therefor and data communication system
US8842074B2 (en) * 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US9179096B2 (en) * 2013-10-11 2015-11-03 Fuji Xerox Co., Ltd. Systems and methods for real-time efficient navigation of video streams
JP2015141293A (en) * 2014-01-28 2015-08-03 ソニー株式会社 Display control apparatus, display control method, program, and display device

Also Published As

Publication number Publication date
JP2017060149A (en) 2017-03-23

Similar Documents

Publication Publication Date Title
US11816303B2 (en) Device, method, and graphical user interface for navigating media content
CN109313812B (en) Shared experience with contextual enhancements
US10547776B2 (en) Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
JP6237386B2 (en) System, method and program for navigating video stream
JP5556911B2 (en) Method, program, and system for creating content representations
US9977584B2 (en) Navigating media playback using scrollable text
RU2702049C2 (en) Real-time sharing during telephone call
US9992429B2 (en) Video pinning
EP3047356B1 (en) Configuration of a touch screen display for conferencing
CN107333087B (en) Information sharing method and device based on video session
WO2018045669A1 (en) Method for controlling interface of electronic device and electronic device
CN111010529A (en) Video conference method and system capable of realizing multi-person real-time annotation
US9671939B2 (en) Systems and methods for automatic generation and consumption of hypermeetings
US9402055B2 (en) Systems and methods for peripheral awareness of, and nominal interaction with, a remote meeting using a wearable device
JP6617641B2 (en) Conference display method, wearable system, and program executed by wearable device
US20140178035A1 (en) Communicating with digital media interaction bundles
JP2017509214A (en) Universal capture
CN112270918A (en) Information processing method, device, system, electronic equipment and storage medium
US11765333B1 (en) Systems and methods for improved transitions in immersive media
US20240045572A1 (en) Device, method, and graphical user interface for navigating media content
EP2876862B1 (en) Establishment of a related image sharing session

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R150 Certificate of patent or registration of utility model

Ref document number: 6617641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350