JP2014171221A - Electronic information cooperation system - Google Patents

Electronic information cooperation system Download PDF

Info

Publication number
JP2014171221A
JP2014171221A JP2014039002A JP2014039002A JP2014171221A JP 2014171221 A JP2014171221 A JP 2014171221A JP 2014039002 A JP2014039002 A JP 2014039002A JP 2014039002 A JP2014039002 A JP 2014039002A JP 2014171221 A JP2014171221 A JP 2014171221A
Authority
JP
Japan
Prior art keywords
audio
video
video conference
location
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014039002A
Other languages
Japanese (ja)
Other versions
JP6458345B2 (en
Inventor
Kurt Knodt
ノット カート
Ngueharri Jayasinghe
ヌゲハリィ ジャヤシムハ
James Woo
ウー ジェームズ
Luo Goylewan
ルオ グォイルワヌ
Narasimhan Srikrishna
ナラシムハン スリクリスナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/781,438 external-priority patent/US9641570B2/en
Priority claimed from US13/781,447 external-priority patent/US20140245185A1/en
Priority claimed from US13/781,451 external-priority patent/US20140244720A1/en
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2014171221A publication Critical patent/JP2014171221A/en
Application granted granted Critical
Publication of JP6458345B2 publication Critical patent/JP6458345B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic information cooperation technique in which electronic information can be displayed on one or a plurality of projector display devices through a virtual projector, using a mobile device.SOLUTION: Use of a virtual projector makes it possible to display electronic information on a plurality of projector display devices and/or client devices. The technique includes a function, for example, in which change to be made to electronic information in one location is transmitted to another location and includes use of a cooperation client and a cooperation server for providing a further function on the electronic information. The technique further makes it possible to establish a video conference session among two or more video conference locations, using a mobile device. In the present invention, the word, "video conference location" represents a location having computer hardware, computer software, and other devices which allow one or a plurality of users in the locations to use video conference.

Description

実施例は一般に、電子情報の共有に関し、より具体的には、電子情報連携の手法に関する。   Embodiments generally relate to electronic information sharing, and more specifically to electronic information collaboration techniques.

以下の項で説明する手法は、追求することが可能な手法である一方、先行して構想又は追求されている手法では必ずしもない。したがって、別途明記しない限り、以下の項で説明する手法は本出願における特許請求の範囲に対する従来技術でないことがあり得、以下の項に含めることにより、従来技術であると認めるものでない。   While the techniques described in the following sections are techniques that can be pursued, they are not necessarily techniques that have been conceived or pursued in advance. Therefore, unless stated otherwise, the techniques described in the following sections may not be prior art to the claims in this application and are not admitted to be prior art by inclusion in the following sections.

従来の電子情報連携方法には制約がある。例えば、従来の手法は一般に、単一の形式における単一のソースからの情報を2つのクライアント・システムのみのユーザが共有することを可能にするピアツーピア・システムである。更に、ビデオ会議セッションを確立するプロセスは、ユーザ・フレンドリでないことがあり得る。ユーザは通常、電話、電子メール、又はカレンダ・ソフトウェアを介してビデオ会議セッションをスケジューリングする。スケジューリングされた時間に、ユーザは、ビデオ会議セッションに参加する必要がある機器を有する会議室などの場所に行く。ビデオ会議セッションを開始するために、ユーザは多くの場合、不慣れなビデオ会議機器及び/又はソフトウェアを使用することが必要である。このことは多くの場合、不満足なユーザ体験をもたらし、ビデオ会議セッションの確立を支援するために情報技術(IT)スタッフの支援をユーザが要求するのは珍しいことではない。   The conventional electronic information linkage method has limitations. For example, conventional approaches are generally peer-to-peer systems that allow users from only two client systems to share information from a single source in a single format. Further, the process of establishing a video conference session may not be user friendly. Users typically schedule video conferencing sessions via telephone, email, or calendar software. At the scheduled time, the user goes to a location such as a conference room with equipment that needs to participate in a video conference session. To initiate a video conference session, the user often needs to use unfamiliar video conferencing equipment and / or software. This often results in an unsatisfactory user experience and it is not uncommon for a user to request information technology (IT) staff assistance to assist in establishing a video conferencing session.

一手法は、位置マップから第1のオーディオ/ビデオ装置及び第2のオーディオ/ビデオ装置を選択する工程と、第1のオーディオ/ビデオ装置と第2のオーディオ/ビデオ装置との間で接続を自動的に確立する工程とを含む。上記手法は、1つ又は複数のコンピュータ読み取り可能な媒体上に記憶された命令によって実現し、若しくは、1つ又は複数のコンピュータ装置上か、上記コンピュータ装置により、方法として実現し得る。   One approach is to automatically select a first audio / video device and a second audio / video device from the location map, and automatically connect between the first audio / video device and the second audio / video device. Establishing a process. The above techniques may be implemented by instructions stored on one or more computer readable media, or may be implemented as a method on one or more computer devices or by the computer devices.

電子情報連携の装置を表すブロック図である。It is a block diagram showing the apparatus of electronic information cooperation. 電子情報連携の手法を表すフロー図である。It is a flowchart showing the method of electronic information cooperation. モバイル装置104の例示的な実施例を表すブロック図である。FIG. 6 is a block diagram illustrating an exemplary embodiment of mobile device 104. ビデオ会議コンポーザ・アプリケーションにより、画面上/タッチパッド上に生成され、表示される例示的なグラフィカル・ユーザ・インタフェース画面を表す図である。FIG. 3 is a diagram representing an exemplary graphical user interface screen generated and displayed on a screen / touchpad by a video conferencing composer application. アクティブなビデオ会議セッションを示すボックスにより、ビデオ会議コンポーザ・アプリケーションを表す図である。FIG. 4 represents a video conference composer application with boxes indicating active video conference sessions. 仮想プロジェクタのウェブ・サーバによって提供される例示的なグラフィカル・ユーザ・インタフェースを表す図である。FIG. 3 represents an exemplary graphical user interface provided by a virtual projector web server. 仮想プロジェクタを使用して複数の表示装置上での電子情報の表示に対応する装置のエレメント間のメッセージの交換を表す図である。FIG. 6 is a diagram representing message exchange between elements of a device corresponding to display of electronic information on a plurality of display devices using a virtual projector. モバイル装置からの電子情報連携に対応する装置のエレメント間のメッセージの交換を表す図である。It is a figure showing the exchange of the message between the elements of the apparatus corresponding to the electronic information cooperation from a mobile apparatus. ビデオ会議装置を表すブロック図である。It is a block diagram showing a video conference apparatus. 複数のビデオ会議場所を表すビデオ会議場所マップの例示的な実施例を表す図である。FIG. 6 is a diagram representing an exemplary embodiment of a video conference location map representing a plurality of video conference locations. 電子ビデオ会議場所マップを生成する手法を表すフロー図である。It is a flowchart showing the method of producing | generating an electronic video conference place map. モバイル装置の例示的な実施例を表すブロック図である。FIG. 6 is a block diagram illustrating an exemplary embodiment of a mobile device. ビデオ会議コンポーザ・アプリケーションにより、画面上/タッチパッド上に生成され、表示される例示的なグラフィカル・ユーザ・インタフェース画面を表す図である。FIG. 3 is a diagram representing an exemplary graphical user interface screen generated and displayed on a screen / touchpad by a video conferencing composer application. アクティブなビデオ会議セッションを示すボックスにより、ビデオ会議コンポーザ・アプリケーションを表す図である。FIG. 4 represents a video conference composer application with boxes indicating active video conference sessions. モバイル装置を使用してビデオ会議セッションを確立する手法を表すフロー図である。FIG. 5 is a flow diagram representing a technique for establishing a video conference session using a mobile device. ビデオ会議セッションを確立する際のビデオ会議装置のエレメント間のメッセージの例示的な交換を表す図である。FIG. 3 represents an exemplary exchange of messages between elements of a video conferencing device when establishing a video conference session. コード化データを使用して、情報に対するアクセスを提供する手法を表す図である。FIG. 6 represents a technique for providing access to information using encoded data. 実施例を実現し得る例示的なコンピュータ・システムを表すブロック図である。FIG. 6 is a block diagram illustrating an example computer system in which embodiments may be implemented.

添付図面の図中、同様な参照符号は同様な構成要素を表す。   In the accompanying drawings, like reference numerals designate like elements.

以下の説明では、説明の目的で、実施例を詳細に理解するために、具体的な数多くの詳細を記載している。しかし、前述の具体的な詳細なしで実施例を実施し得るということが当業者に明らかになるであろう。場合によっては、実施例を不必要にわかりにくくすることを避けるために、周知の構造及び装置をブロック図形式で示す。   In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of the embodiments. However, it will be apparent to those skilled in the art that the embodiments may be practiced without the specific details described above. In some instances, well-known structures and devices are shown in block diagram form in order to avoid unnecessarily obscuring the embodiments.

(実施例の説明の全体構成)
(1)概要
(2)システム・アーキテクチャ
(3)仮想プロジェクタを使用して複数の表示装置上に電子情報を表示する
(4)モバイル装置を使用した電子情報連携
(5)ビデオ会議場所マップ・アーキテクチャ
(6)ビデオ会議場所マップ
(7)モバイル装置
(8)モバイル装置を使用してビデオ会議セッションを確立する
(9)コード化データを使用して情報に対するアクセスを提供する
(10)実現機構
(実施例の説明)
(1)概要
電子情報連携を可能にする手法を提供する。より具体的には、上記手法は、モバイル装置を使用して、仮想プロジェクタを介して1つ又は複数のプロジェクタ表示装置上に電子情報を表示させることを可能にする。仮想プロジェクタの使用は、複数のプロジェクタ表示装置上及び/又はクライアント装置上に電子情報を表示することを可能にする。電子情報は、1つ又は複数の装置からの電子情報を含み得る。例えば、単一のクライアント装置からの電子情報は複数のプロジェクタ表示装置上に表示し得る。別の例では、別々の2つの装置からの電子情報を複数のプロジェクタ表示装置上に表示し得る。上記手法は、連携クライアント及び連携サーバを使用して、例えば、1つの場所において電子情報に対して行われた変更を別の場所に伝播させる機能を含む、電子情報に関する更なる機能を備えることも含み得る。上記手法は、更に、モバイル装置を使用して、ビデオ会議場所などの2つ以上のオーディオ/ビデオ機器間の接続を確立することを可能にする。接続のタイプは特定の実現形態に応じて変わり得、本明細書及び特許請求の範囲記載に手法は、何れかの特定のタイプの接続に制限されない。例示的な接続タイプには、限定列挙でないが、音声接続、データ接続、ビデオ会議セッション、及び共有ホワイトボード・セッションが含まれる。本明細書及び特許請求の範囲記載の「ビデオ会議場所」の語は、当該場所における一又は複数のユーザにビデオ会議を利用可能にするコンピュータ・ハードウェア、コンピュータ・ソフトウェア、及び他の機器を有する場所を表す。
(Whole structure of description of embodiment)
(1) Overview (2) System architecture (3) Displaying electronic information on multiple display devices using a virtual projector (4) Electronic information linkage using mobile devices (5) Video conference location map architecture (6) Video conferencing location map (7) Mobile device (8) Establish video conferencing session using mobile device (9) Provide access to information using coded data (10) Implementation mechanism (Implementation) Example explanation)
(1) Outline Provide a method that enables electronic information linkage. More specifically, the above approach allows a mobile device to be used to display electronic information on one or more projector display devices via a virtual projector. The use of a virtual projector allows electronic information to be displayed on multiple projector display devices and / or client devices. The electronic information may include electronic information from one or more devices. For example, electronic information from a single client device may be displayed on multiple projector display devices. In another example, electronic information from two separate devices may be displayed on multiple projector display devices. The above method may also include further functions related to electronic information, including the function of propagating changes made to electronic information in one place to another place using a linked client and linked server, for example. May be included. The above approach further allows a mobile device to be used to establish a connection between two or more audio / video devices, such as a video conference location. The type of connection may vary depending on the particular implementation, and the techniques described herein are not limited to any particular type of connection. Exemplary connection types include, but are not limited to, audio connections, data connections, video conferencing sessions, and shared whiteboard sessions. As used herein, the term “video conferencing location” includes computer hardware, computer software, and other equipment that makes video conferencing available to one or more users at that location. Represents a location.

(2)システム・アーキテクチャ
図1は、電子情報連携の装置100を表すブロック図である。装置は、ネットワーク118を介してコンテンツ・サーバ116、連携サーバ114、仮想プロジェクタ112、及びクライアント装置108、110に通信するよう結合されたプロセッサ106と、電子ホワイトボード102、104とを含む。ネットワーク118は、特定の実現形態に応じて変わり得る多種多様な通信リンクを使用して実現し得る。例えば、ネットワーク118は、1つ又は複数のローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、インターネットなどのパケット交換ネットワーク、地上若しくは衛星リンク、又は他のタイプの無線リンクを含み得る。電子ホワイトボード102、104、プロジェクタ106、仮想プロジェクタ112、及び連携サーバ114は、具体的な実現形態に応じて、物理的に同じ場所に配置し、又は物理的に離隔された場所に配置し得、本明細書及び特許請求の範囲記載の手法は、何れの特定の物理的な場所における前述のエレメントにも限定されない。
(2) System Architecture FIG. 1 is a block diagram showing an electronic information linkage apparatus 100. The device includes a processor 106 coupled to communicate with a content server 116, a collaboration server 114, a virtual projector 112, and client devices 108, 110 via a network 118, and an electronic whiteboard 102, 104. Network 118 may be implemented using a wide variety of communication links that may vary depending on the particular implementation. For example, the network 118 includes one or more local area networks (LANs), wide area networks (WANs), packet switched networks such as the Internet, terrestrial or satellite links, or other types of wireless links. obtain. The electronic whiteboards 102, 104, projector 106, virtual projector 112, and collaboration server 114 may be physically located at the same location or physically separated locations depending on the specific implementation. The techniques described herein are not limited to the above-described elements in any particular physical location.

電子ホワイトボード102、104、及びプロジェクタ106はそれぞれ、電子情報の表示に対応するためにコンピュータ・ハードウェア、コンピュータ・ソフトウェア、並びに他の電子構成部分及び機器を含む。本明細書及び特許請求の範囲記載の手法は、何れかの特定のコンピュータ・ハードウェア、コンピュータ・ソフトウェア、及び他の機器構成を有する電子ホワイトボード102、104、及びプロジェクタ106に限定されない。例えば、電子ホワイトボード102、104、及びプロジェクタ106は、パソコンなどのコンピュータ装置、ネットワーク接続性を有するタブレット・コンピュータ又はモバイル装置、カメラ、マイクロフォン、電子情報の表示をサポートするスピーカ及びコンピュータ・ソフトウェアを含み得る。別の例として、電子ホワイトボード102、104、及びプロジェクタ106は、特殊用途向コンピュータ・ハードウェア、コンピュータ・ソフトウェア及び機器を含み得る。プロジェクタ106は、例えば、表示表面に隣接して配置された短焦点プロジェクタを含む何れかのタイプのプロジェクタを含み得る。電子ホワイトボード102、104、及びプロジェクタ106は、必ずしも、同じコンピュータ・ハードウェア、コンピュータ・ソフトウェア及び機器を含んでいる訳でなく、電子ホワイトボード102、104、及びプロジェクタ106におけるコンピュータ・ハードウェア、コンピュータ・ソフトウェア及び機器は具体的な実現形態に応じて変わり得る。更に、電子ホワイトボード102、104、及びプロジェクタ106は異なる機能を有し得る。例えば、プロジェクタ106はユーザ入力を可能にしない読み取り専用装置であり得る一方、電子ホワイトボード102、104は情報を表示し、ユーザ入力を可能にする読み取り/書き込み装置であり得る。本明細書及び特許請求の範囲記載の手法は、図1に表す特定の表示装置(例えば、電子ホワイトボード102、104、及びプロジェクタ106)に限定されず、何れのタイプの表示装置にも適用可能である。例示的な表示装置は、限定列挙でないが、ワークステーション、デスクトップ・コンピュータ、パソコン、ラップトップ・コンピュータ、タブレット・コンピュータ、プロジェクタ、ホワイトボード、モニタ、携帯情報端末、モバイル・コンピュータ装置、及び電話装置を含む。各電子ホワイトボード102、104及びプロジェクタ106は、ネットワーク118を介して装置100における他のエレメントのうちの1つ又は複数と通信するよう構成される。一実施例によれば、電子ホワイトボード102、104、及びプロジェクタ106はそれぞれ、電子ホワイトボード102、104上及びプロジェクタ106上に表示された電子情報に対して連携サーバ114とともに更なる機能を行うことを可能にする連携クライアント118、120、122それぞれを含む。本明細書記載の手法は、電子ホワイトボード102、104上及びプロジェクタ106上の電子情報連携に限定されず、電子情報を表示することができる何れのタイプの表示装置にも適用可能である。   The electronic whiteboards 102, 104, and projector 106 each include computer hardware, computer software, and other electronic components and equipment to accommodate the display of electronic information. The techniques described herein are not limited to electronic whiteboards 102, 104, and projectors 106 having any particular computer hardware, computer software, and other equipment configurations. For example, the electronic whiteboards 102, 104, and projector 106 include computer devices such as personal computers, tablet computers or mobile devices with network connectivity, cameras, microphones, speakers that support the display of electronic information, and computer software. obtain. As another example, electronic whiteboards 102, 104, and projector 106 may include special purpose computer hardware, computer software, and equipment. Projector 106 may include any type of projector, including, for example, a short focus projector positioned adjacent to the display surface. The electronic whiteboards 102, 104 and the projector 106 do not necessarily include the same computer hardware, computer software and equipment, but the computer hardware and computer in the electronic whiteboards 102, 104 and the projector 106 Software and equipment can vary depending on specific implementation. Furthermore, the electronic whiteboards 102, 104 and the projector 106 may have different functions. For example, the projector 106 can be a read-only device that does not allow user input, while the electronic whiteboards 102, 104 can be read / write devices that display information and allow user input. The methods described in this specification and the claims are not limited to the specific display device shown in FIG. 1 (for example, the electronic whiteboards 102 and 104 and the projector 106), and can be applied to any type of display device. It is. Exemplary display devices include, but are not limited to, workstations, desktop computers, personal computers, laptop computers, tablet computers, projectors, whiteboards, monitors, personal digital assistants, mobile computer devices, and telephone devices. Including. Each electronic whiteboard 102, 104 and projector 106 is configured to communicate with one or more of the other elements in apparatus 100 via network 118. According to one embodiment, the electronic whiteboards 102, 104 and projector 106 perform additional functions with the collaboration server 114 on the electronic information displayed on the electronic whiteboards 102, 104 and projector 106, respectively. Each of the cooperative clients 118, 120, and 122 that enables The method described in the present specification is not limited to electronic information cooperation on the electronic whiteboards 102 and 104 and the projector 106, and can be applied to any type of display device that can display electronic information.

クライアント装置108、110は何れのタイプのモバイル装置であってもよく、手法は何れの特定のタイプのモバイル装置にも限定されない。クライアント装置108、110の例には、限定列挙でないが、パソコン、ラップトップ・コンピュータ、タブロイド・コンピュータ、携帯情報端末(PDA)、スマート・フォン、及び他の電話装置を含む。クライアント装置108、110は、本明細書及び特許請求の範囲記載の機能を行うためにコンピュータ・ハードウェア、コンピュータ・ソフトウェア、又はコンピュータ・ハードウェア及びコンピュータ・ソフトウェアの何れかの組み合わせによって構成し得る。一実施例によれば、クライアント装置108は、プレゼンタ・アプリケーション126、ビデオ会議コンポーザ・アプリケーション128、及び連携クライアント130を含む。プレゼンタ・アプリケーション126は、クライアント装置108のユーザが、電子ホワイトボード102、104上、プロジェクタ106上、及びクライアント装置110上で電子情報連携を管理することを可能にする。プレゼンタ・アプリケーション126の限定的でない例示的な実現形態には、株式会社リコーによるたまごプレゼンタがある。ビデオ会議コンポーザ・アプリケーション128は、ビデオ会議場所間でビデオ会議セッションをクライアント装置108のユーザが容易に確立することを可能にする。連携クライアント130は、連携サーバ114とともに、クライアント装置108上に表示される電子情報に対して更なる機能を行うことを可能にする。クライアント装置110は更に、連携クライアント132も含み得る。プレゼンタ・アプリケーション126、ビデオ会議コンポーザ・アプリケーション128、及び連携クライアント130は以下で更に詳細に説明する。   The client devices 108, 110 may be any type of mobile device and the approach is not limited to any particular type of mobile device. Examples of client devices 108, 110 include, but are not limited to, personal computers, laptop computers, tabloid computers, personal digital assistants (PDAs), smart phones, and other telephone devices. Client devices 108, 110 may be configured by computer hardware, computer software, or any combination of computer hardware and computer software to perform the functions described herein and in the claims. According to one embodiment, client device 108 includes presenter application 126, video conferencing composer application 128, and cooperative client 130. The presenter application 126 allows a user of the client device 108 to manage electronic information collaboration on the electronic whiteboards 102, 104, the projector 106, and the client device 110. An exemplary non-limiting implementation of the presenter application 126 is an egg presenter by Ricoh Co., Ltd. Video conferencing composer application 128 allows a user of client device 108 to easily establish a video conferencing session between video conferencing locations. The cooperation client 130, together with the cooperation server 114, enables further functions to be performed on the electronic information displayed on the client device 108. The client device 110 may further include a cooperation client 132. Presenter application 126, video conferencing composer application 128, and collaboration client 130 are described in more detail below.

仮想プロジェクタ112は、電子ホワイトボード102、104上、プロジェクタ106上、及びクライアント装置108、110上、又はそれらの何れかの組み合わせ上に電子情報を表示することを可能にする中間エンティティ、装置、プロセス等である。電子情報は、1つ又は複数のソースから生じる電子情報を含み得、仮想プロジェクタ112は、1つ又は複数の形式で1つ又は複数の表示装置上に電子情報を表示することを可能にする。仮想プロジェクタ112は、電子ホワイトボード102、104又はプロジェクタ106などの端末表示装置とクライアント装置108が相互作用するのと同じ態様で仮想プロジェクタ112とクライアント装置108などのクライアント装置が相互作用することを可能にするよう表示装置の機能をエミュレートすることができる。   Virtual projector 112 is an intermediate entity, device, process that allows electronic information to be displayed on electronic whiteboards 102, 104, projector 106, and client devices 108, 110, or any combination thereof. Etc. The electronic information may include electronic information originating from one or more sources, and the virtual projector 112 allows electronic information to be displayed on one or more display devices in one or more formats. Virtual projector 112 allows virtual projector 112 and client device such as client device 108 to interact in the same manner that terminal device such as electronic whiteboard 102, 104 or projector 106 and client device 108 interact. It is possible to emulate the function of the display device.

仮想プロジェクタ112は、多種多様なコンピュータ・ハードウェア、コンピュータ・ソフトウェア、又は、コンピュータ・ハードウェア及びコンピュータ・ソフトウェアの組み合わせを使用して実現し得、本明細書及び特許請求の範囲記載の手法は、仮想プロジェクタ112が何れかの特定の実現形態に限定されることに限定されない。一実施例によれば、仮想プロジェクタ112は、装置発見モジュール134、PJLinkコマンド・ハンドラ136、ウェブ・サーバ138、プロジェクション・アプリケーション140、及び記憶装置142を含む。記憶装置142は何れかのタイプの記憶装置によって実現し得、実施例は何れのタイプの記憶装置にも限定されない。記憶装置142の例は、限定列挙でないが、揮発性メモリなどの揮発性記憶装置、不揮発性メモリなどの不揮発性記憶装置、ハード・ディスク記憶装置等を含む。   The virtual projector 112 may be implemented using a wide variety of computer hardware, computer software, or a combination of computer hardware and computer software, and the techniques described in this specification and claims include: The virtual projector 112 is not limited to any particular implementation. According to one embodiment, the virtual projector 112 includes a device discovery module 134, a PJLink command handler 136, a web server 138, a projection application 140, and a storage device 142. The storage device 142 may be implemented by any type of storage device, and embodiments are not limited to any type of storage device. Examples of the storage device 142 include, but are not limited to, a volatile storage device such as a volatile memory, a nonvolatile storage device such as a nonvolatile memory, a hard disk storage device, and the like.

装置発見モジュール134は、電子情報を表示するために利用可能な、電子ホワイトボード102、104、プロジェクタ106、及びクライアント装置110などの端末表示装置を発見する。装置発見モジュール134は、特定の実現形態に応じて利用可能な表示装置を発見するための多種多様な手法を使用し得、本明細書及び特許請求の範囲記載の手法は、何れの特定の発見手法を使用した装置発見モジュール134に限定されるものでもない。装置発見モジュール134は、SNMP表示装置及び非SNMP表示装置を発見するための機能を含み得る。例示的な発見プロトコルには、限定列挙でないが、簡易ネットワーク管理プロトコル(SNMP)、ウィンドウズ(登録商標)管理インストルメンテーション(WMI)、インターネット制御メッセージ・プロトコル(ICMP)、ウェブ・サービス対応装置用のテルネット及びウェブ・サービス発見が含まれる。装置発見モジュール134は、電子ホワイトボード102、104、プロジェクタ106、及びクライアント装置108、110などの利用可能な表示装置についての情報を含む表示装置データ144を生成し、維持し得る。例示的な情報には、限定列挙でないが、各表示装置の機能を示す機能データ及びIPアドレス情報が含まれる。   The device discovery module 134 discovers terminal display devices such as the electronic whiteboards 102, 104, projector 106, and client device 110 that can be used to display electronic information. Device discovery module 134 may use a wide variety of techniques for discovering available display devices depending on the particular implementation, and the techniques described herein may be used to identify any particular discovery. It is not limited to the device discovery module 134 using the technique. The device discovery module 134 may include functionality for discovering SNMP display devices and non-SNMP display devices. Exemplary discovery protocols include, but are not limited to, Simple Network Management Protocol (SNMP), Windows® Management Instrumentation (WMI), Internet Control Message Protocol (ICMP), for web service enabled devices. Includes telnet and web service discovery. Device discovery module 134 may generate and maintain display device data 144 that includes information about available display devices such as electronic whiteboards 102, 104, projector 106, and client devices 108, 110. Exemplary information includes, but is not limited to, function data indicating the function of each display device and IP address information.

一実施例によれば、装置発見モジュール134は、表示装置自身が発見要求を処理し、発見要求に応答する態様で、クライアント装置から受信された発見要求を処理し、該発見要求に対する応答を供給するよう構成される。例えば、クライアント装置108が、ネットワーク118を介してSNMP GET要求メッセージを生成し、報知すると仮定する。仮想プロジェクタ112は、SNMP GET要求メッセージを処理し、SNMP GET応答メッセージをクライアント装置108に供給し、SNMP GET応答メッセージは、仮想プロジェクタ112の、名前及びIPアドレスなどの識別情報を含む。   According to one embodiment, the device discovery module 134 processes the discovery request received from the client device and provides a response to the discovery request in a manner that the display device itself processes the discovery request and responds to the discovery request. Configured to do. For example, assume that the client device 108 generates and broadcasts an SNMP GET request message via the network 118. The virtual projector 112 processes the SNMP GET request message and supplies an SNMP GET response message to the client device 108. The SNMP GET response message includes identification information such as the name and IP address of the virtual projector 112.

PJLinkコマンド・ハンドラ136は、1つ又は複数のクライアント装置から受信された表示装置コマンドを処理し、PJLink技術仕様をサポートする表示装置によって通常、処理されるように表示装置コマンドを処理するコマンド・ハンドラである。これは、PJLink技術仕様をサポートしない表示装置上に電子情報を表示することを可能にする。例えば、仮想プロジェクタ112がPOWR?コマンドの形式でPJLink電力ステータス・クエリを受信することに応じて、PJLinkコマンド・ハンドラ136は、電源がオンである旨を示す応答を供給する。別の例として、仮想プロジェクタ112がNAME?コマンドの形式でPJLinkプロジェクタ名クエリを受信することに応じて、PJLinkコマンド・ハンドラ136は、仮想プロジェクタ112の名前を規定する応答を供給する。更に別の例として、仮想プロジェクタ112がINPT?コマンドの形式でPJLink入力スイッチ・クエリを受信することに応じて、PJLinkコマンド・ハンドラ136は入力ソースがネットワークである旨を示す応答を供給する。PJLinkコマンド・ハンドラ136は、特定の実現形態に応じて、PJLink技術仕様に記載されたコマンド全て、又は前述のコマンドの部分集合をサポートし得、実施例は、PJLink技術仕様に記載されたコマンド全てを必然的にサポートするコマンド・ハンドラに限定されない。実施例は、説明の目的で、PJLinkプロトコルをサポートするPJLinkコマンド・ハンドラ136のコンテキストで本明細書及び特許請求の範囲において記載しているが、実施例はPJLinkプロトコルに限定されず、仮想プロジェクタ112は、特定の実現形態に応じて他の表示装置コマンド・インタフェースをサポートするよう構成し得る。   A PJLink command handler 136 processes display device commands received from one or more client devices and processes the display device commands to be processed normally by display devices that support the PJLink technical specification. It is. This allows electronic information to be displayed on a display device that does not support the PJLink technical specification. For example, if the virtual projector 112 is POWR? In response to receiving the PJLink power status query in the form of a command, the PJLink command handler 136 provides a response indicating that the power is on. As another example, the virtual projector 112 is NAME? In response to receiving a PJLink projector name query in the form of a command, PJLink command handler 136 provides a response that defines the name of virtual projector 112. As yet another example, the virtual projector 112 is INPT? In response to receiving a PJLink input switch query in the form of a command, PJLink command handler 136 provides a response indicating that the input source is a network. The PJLink command handler 136 may support all the commands described in the PJLink technical specification, or a subset of the aforementioned commands, depending on the particular implementation, and the examples are all commands described in the PJLink technical specification. It is not limited to command handlers that naturally support. For illustrative purposes, the embodiments are described herein and in the claims in the context of a PJLink command handler 136 that supports the PJLink protocol; however, the embodiments are not limited to the PJLink protocol and the virtual projector 112 May be configured to support other display device command interfaces depending on the particular implementation.

プロジェクション・アプリケーション140は、クライアント装置からのhttp及び他の要求を処理し、仮想プロジェクタ112上の他のエレメントとともに、電子情報を表示装置上に表示させるよう構成されたウェブ・アプリケーションである。例えば、プロジェクション・アプリケーション140は、プレゼンタ・アプリケーション126からの要求を処理し、電子情報を電子ホワイトボード102、104上及びプロジェクタ106上に表示させ、ウェブ・サーバ138を介してクライアント装置110に対して利用可能にし得る。これは一例に過ぎず、他の例も後述する。プロジェクション・アプリケーション140の特定の実現形態は変わり得、本明細書及び特許請求の範囲記載の手法は、プロジェクション・アプリケーション140の何れの特定の実現形態にも限定されるものでない。プロジェクション・アプリケーション140の限定的でない1つの例示的な実現形態は、Java(登録商標)実行環境を提供するHTTPウェブ・サーバである。例えば、オラクル社によるJavaサーブレット及びJavaServerPages(JSP)技術仕様を実現するトムキャット・サーバにおいて実現し得る。一実施例によれば、プロジェクション・アプリケーション140は、HTTP POST要求及びHTTP PUT要求を処理するためのServletを含む。第1のServlet(ProjectionServlet)は、HTTP POST 要求を処理し、「Status 201 Created and Location」を有する応答を返す。第2のServlet(CbsServlet)は、PUT要求を処理し、そのデータを電子情報146として記憶装置142に保存する。ProjectionServlet及びCbsServletの例示的なXML実現形態は以下の通りである。

Figure 2014171221

Figure 2014171221

Figure 2014171221

Figure 2014171221

Figure 2014171221

Figure 2014171221
Projection application 140 is a web application configured to process http and other requests from client devices and display electronic information on a display device along with other elements on virtual projector 112. For example, the projection application 140 processes the request from the presenter application 126, causes electronic information to be displayed on the electronic whiteboards 102, 104 and the projector 106, and to the client device 110 via the web server 138. Can be made available. This is only an example, and other examples will be described later. The particular implementation of the projection application 140 can vary, and the techniques described herein are not limited to any particular implementation of the projection application 140. One non-limiting implementation of the projection application 140 is an HTTP web server that provides a Java® execution environment. For example, it can be realized in a Tomcat server that implements the Java servlet and JavaServerPages (JSP) technical specifications by Oracle. According to one embodiment, the projection application 140 includes a Servlet for processing HTTP POST requests and HTTP PUT requests. The first Servlet (Projection Servlet) processes the HTTP POST request and returns a response with “Status 201 Created and Location”. The second Servlet (CbsServlet) processes the PUT request and saves the data as electronic information 146 in the storage device 142. An exemplary XML implementation of ProjectionServlet and CbsServlet is as follows.
Figure 2014171221

Figure 2014171221

Figure 2014171221

Figure 2014171221

Figure 2014171221

Figure 2014171221

電子情報は、記憶装置142上に電子情報146として記憶し得、特定の実現形態に応じて種々の形式でフォーマッティングし得る。ウェブ・サーバ138は、電子情報を直接含むか、間接的に(例えば、リンクを介して)含むか、又は直接かつ間接的に含むウェブ・ページをホスティングする。ウェブ・ページは、端末表示装置に供給され、処理されると、電子情報の表示に対応する。仮想プロジェクタ112の上記エレメントはそれぞれ、以下に詳細に説明する。   The electronic information can be stored as electronic information 146 on the storage device 142 and can be formatted in various formats depending on the particular implementation. The web server 138 hosts web pages that include electronic information directly, indirectly (eg, via a link), or directly and indirectly. The web page corresponds to the display of electronic information when supplied to the terminal display and processed. Each of the above elements of the virtual projector 112 will be described in detail below.

連携サーバ114は、連携クライアント120、122、124、130、132ととともにユーザが電子情報に対して連携することを可能にする連携マネージャ148を含む。コンテンツ・サ―バ116は電子コンテンツ150を記憶し、利用可能にする何れかのタイプのネットワーク・エレメントとして実現し得る。仮想プロジェクタを使用して複数の表示装置上に電子情報を表示する。コンテンツ・サーバ116の例は、限定列挙でないが、オリジン・サーバ、ウェブ・サーバ、データ・レポジトリ、及びデータ記憶装置を含む。   The cooperation server 114 includes a cooperation manager 148 that enables a user to cooperate with electronic information together with the cooperation clients 120, 122, 124, 130, and 132. Content server 116 may be implemented as any type of network element that stores and makes electronic content 150 available. Electronic information is displayed on a plurality of display devices using a virtual projector. Examples of content server 116 include, but are not limited to, an origin server, a web server, a data repository, and a data storage device.

(3)仮想プロジェクタを使用して複数の表示装置上に電子情報を表示する
図2は、実施例による、電子情報連携の手法を表すフロー図である。工程202では、表示装置上に電子情報を表示し、仮想プロジェクタを介して電子情報を利用可能にする旨の要求が受信される。例えば、プロジェクション・アプリケーション140は、クライアント装置108上のプレゼンタ・アプリケーション126から要求を受信し得る。要求は、特定の実現形態に応じて多種多様な態様で生成し得る。例えば、図3Aはプレゼンタ・アプリケーション126によって生成される例示的なグラフィカル・ユーザ・インタフェース300を表す。グラフィカル・ユーザ・インタフェース300は、選択された表示装置上に表示される対象の電子情報をユーザが選択することを可能にする。本実施例では、グラフィカル・ユーザ・インタフェース300は、選択された表示装置上に表示するために選択し得る別々の電子情報項目に対応するグラフィカル・ユーザ・インタフェース・オブジェクト302を含む。対応する電子情報項目は、「文書#1」、「文書#2」、「スライド・ショー#1」、「スライド・ショー#2」、「ビデオ#1」、及び「ビデオ#2」である。グラフィカル・ユーザ・インタフェース300は更に、ユーザが、表示に選択される対象の電子情報までたどり、位置特定することを可能にするユーザ・インタフェース・オブジェクトも含み得る。電子情報は何れの場所に存在していてもよい。例えば、電子情報は、クライアント装置108、110上に、仮想プロジェクタ112上に、コンテンツ・サーバ116上に、又は他の場所に存在し得る。よって、本明細書及び特許請求の範囲記載の手法に応じてユーザの間で共有される電子情報は、種々のソースから発信される電子情報項目を含み得る。本明細書及び特許請求の範囲記載の手法は何れのタイプの電子情報にも適用可能であり、図に表し、本明細書及び特許請求の範囲に記載する電子情報の例に限定されない。例えば、上記手法は、何れかのタイプの電子文書、オーディオ/ビデオ・コンテンツ、ストリーミング・コンテンツ、及び/又は何れかの他のタイプのコンテンツ・フィードに適用可能である。
(3) Displaying electronic information on a plurality of display devices using a virtual projector FIG. 2 is a flowchart showing a method of electronic information cooperation according to an embodiment. In step 202, a request to display electronic information on a display device and make the electronic information available via a virtual projector is received. For example, the projection application 140 may receive a request from the presenter application 126 on the client device 108. The request may be generated in a wide variety of ways depending on the particular implementation. For example, FIG. 3A represents an exemplary graphical user interface 300 generated by the presenter application 126. The graphical user interface 300 allows a user to select electronic information to be displayed on a selected display device. In this example, graphical user interface 300 includes a graphical user interface object 302 corresponding to a separate electronic information item that can be selected for display on a selected display device. Corresponding electronic information items are “document # 1”, “document # 2”, “slide show # 1”, “slide show # 2”, “video # 1”, and “video # 2”. The graphical user interface 300 may further include user interface objects that allow the user to navigate to and locate the electronic information of interest to be selected for display. The electronic information may exist in any place. For example, the electronic information may reside on the client device 108, 110, on the virtual projector 112, on the content server 116, or elsewhere. Therefore, the electronic information shared between users according to the methods described in this specification and the claims can include electronic information items transmitted from various sources. The techniques described in this specification and claims can be applied to any type of electronic information, and are not limited to the examples of electronic information shown in the figures and described in this specification and claims. For example, the techniques described above are applicable to any type of electronic document, audio / video content, streaming content, and / or any other type of content feed.

一実施例によれば、グラフィカル・ユーザ・インタフェース300は、表示するために選択される電子情報項目の何れかのアクセス属性をユーザが規定することを可能にする。ユーザ・インタフェース制御部セット306は、「文書#1」に適用する対象の読み出しのみ、読み出し/書き込み、又はポリシー・アクセスをユーザが選択することを可能にする。表示装置によって適切に実施されると、読み出しのみのアクセスのオプションの選択により、表示装置上に表示されている間に「文書#1」に対して行われる変更が禁止される。表示装置によって適切に実施されると、読み出し/書き込みのアクセスのオプションの選択により、表示装置上に表示されている間に「文書#1」に対して行われる変更が可能になる。ポリシー・アクセス・オプションの選択により、表示装置上に表示されている間にアクセス・ポリシーが「文書#1」に適用されることが可能になる。   According to one embodiment, graphical user interface 300 allows a user to define access attributes for any of the electronic information items selected for display. The user interface control unit set 306 allows the user to select read only, read / write, or policy access to be applied to “document # 1”. When properly implemented by the display device, selection of a read-only access option prohibits changes made to “Document # 1” while displayed on the display device. When properly implemented by the display device, selection of read / write access options allows changes to be made to "Document # 1" while displayed on the display device. Selection of the policy access option allows the access policy to be applied to “Document # 1” while displayed on the display device.

一実施例によれば、グラフィカル・ユーザ・インタフェース300は、選択された表示装置上の選択された電子情報のレイアウト(例えば、場所)をユーザが選択することを可能にする。このことは、特定の実現形態に応じて多種多様な手法を使用して実現し得、図に表し、本明細書及び特許請求の範囲に記載する特定の手法は、限定的でない例として記載する。図3Bに表すように、本実施例では、グラフィック・ユーザ・インタフェース300は、表示領域304上にユーザ・インタフェース・オブジェクト302の1つ又は複数をユーザがドラッグ・アンド・ドロップすることを可能にする。この例では、ユーザは、1つ又は複数の表示装置上に、文書#1、スライド・ショー#2、及びビデオ#1を表示したいものとする。図3Bは、表示領域304上に「文書#1」、「スライド・ショー#2」、及び「ビデオ#1」の電子情報項目に対応するグラフィカル・ユーザ・インタフェース・オブジェクトをユーザが選択し、移動していることを表す。一実施例によれば、表示領域304上のグラフィカル・ユーザ・インタフェース・オブジェクトの場所は、選択された表示装置上に、対応する電子情報項目が表示される場所に対応する。例えば、表示装置上に表示されると、「文書#1」は表示の左上隅に表示され、「スライド・ショー#2」は表示の中央に表示され、「ビデオ#1」は表示の中央下に表示される。   According to one embodiment, the graphical user interface 300 allows a user to select a layout (eg, location) of selected electronic information on a selected display device. This can be accomplished using a wide variety of techniques depending on the particular implementation, and the particular techniques depicted in the figures and described in the specification and claims are described as non-limiting examples. . As depicted in FIG. 3B, in this example, the graphic user interface 300 allows the user to drag and drop one or more of the user interface objects 302 onto the display area 304. . In this example, it is assumed that the user wants to display document # 1, slide show # 2, and video # 1 on one or more display devices. FIG. 3B shows that the user selects and moves a graphical user interface object corresponding to the electronic information items “document # 1”, “slide show # 2”, and “video # 1” on the display area 304. Represents that you are doing. According to one embodiment, the location of the graphical user interface object on the display area 304 corresponds to the location where the corresponding electronic information item is displayed on the selected display device. For example, when displayed on the display device, “Document # 1” is displayed in the upper left corner of the display, “Slide Show # 2” is displayed in the center of the display, and “Video # 1” is displayed in the lower center of the display. Is displayed.

図3Cに表すように、グラフィカル・ユーザ・インタフェース300は、選択された電子情報を表示する対象の表示装置をユーザが選択することを可能にする、領域306内のグラフィカル・ユーザ・インタフェース・オブジェクトの組を含む。グラフィカル・ユーザ・インタフェース・オブジェクトは、「電子ホワイトボード#2」、「プロジェクタ#1」、及び「プロジェクタ#2」という名の物理表示装置に対応する。利用可能な物理表示装置は仮想プロジェクタ112から取得し得る。例えば、プレゼンタ・アプリケーション126は、利用可能な表示装置を識別するデータを求めて装置発見モジュール134にクエリし得る。上記クエリに応じて、装置発見モジュール134は、プレゼンタ・アプリケーション126が、利用可能な表示装置を表示させることを可能にするために表示装置データ144からデータを供給し得る。「仮想プロジェクタ」表示装置は仮想プロジェクタ112に対応し、「仮想プロジェクタ」表示装置に対応するグラフィカル・ユーザ・インタフェース・オブジェクトの選択により、以下に更に詳細に説明するように、選択された電子情報項目が、仮想プロジェクタ112のウェブ・サーバ138を介してアクセスされるよう利用可能にされる。本実施例では、ユーザは、マウス又はスタイラスなどの選択装置を使用して、「プロジェクタ#1」及び「仮想プロジェクタ」表示装置に対応するグラフィカル・ユーザ・インタフェースを選択している。ユーザは何れかの数の表示装置を選択し得、読み出し可能のみの表示装置、読み出し/書き込み表示装置、又は、読み出しのみの表示装置及び読み出し/書き込み表示装置の何れかの組み合わせを選択し得る。   As depicted in FIG. 3C, the graphical user interface 300 is a graphical user interface object in the region 306 that allows the user to select a display device on which the selected electronic information is to be displayed. Includes pairs. The graphical user interface objects correspond to physical display devices named “electronic whiteboard # 2”, “projector # 1”, and “projector # 2”. Available physical display devices may be obtained from the virtual projector 112. For example, the presenter application 126 may query the device discovery module 134 for data identifying available display devices. In response to the query, device discovery module 134 may supply data from display device data 144 to allow presenter application 126 to display available display devices. The “virtual projector” display device corresponds to the virtual projector 112, and the selection of the graphical user interface object corresponding to the “virtual projector” display device selects the selected electronic information item, as will be described in more detail below. Are made available for access via the web server 138 of the virtual projector 112. In this embodiment, the user uses a selection device such as a mouse or stylus to select a graphical user interface corresponding to the “Projector # 1” and “Virtual Projector” display devices. The user can select any number of display devices, and can select any display-ready display device, read / write display device, or any combination of read-only display device and read / write display device.

ユーザは、ユーザによって設計される電子情報のプレゼンテーションに対して名前又は識別子をユーザが割り当てることを可能にする「プレゼンテーション名割り当て」ボタン310を選択し得る。以下に更に詳細に説明するように、名前の割り当ては、仮想プロジェクタから、名前により、クライアント装置がプレゼンテーションを選択し、表示することを可能にする。ボタン312の形態による、「表示開始」グラフィカル・ユーザ・インタフェース・オブジェクトの選択は、仮想プロジェクタ112上のプロジェクション・アプリケーションに対する要求をプレゼンタ・アプリケーションに生成させ、送信させる。要求は、表示される対象の電子情報、電子情報内の何れかの電子情報項目に対して適用される対象の何れかのアクセス・ポリシー、及び、電子情報を表示するか、又は、仮想プロジェクタの場合、電子情報が利用可能にされる表示装置を識別する。例えば、要求は、要求自体において、又は添付ファイルとして電子情報を含み得る。別の例として、要求は、電子情報の場所を規定し得る。プロジェクション・アプリケーション140は、記憶装置142上の電子情報146として仮想プロジェクタ112上に電子情報を取り出し、記憶し得る。要求は、表示領域304上に配置されたグラフィカル・ユーザ・インタフェース・オブジェクトの相対的な位置を示すデータも含み得る。要求は、電子情報146を記憶する記憶装置142上に場所を作成するよう処理されるhttpPOSTコマンドを含み、後続する、作成された場所において電子情報146を記憶するためのhttp PUTコマンドを含む。   The user may select a “assign presentation name” button 310 that allows the user to assign a name or identifier to the electronic information presentation designed by the user. As described in more detail below, name assignment allows a client device to select and display a presentation by name from a virtual projector. Selection of a “start display” graphical user interface object in the form of a button 312 causes the presenter application to generate and send a request for the projection application on the virtual projector 112. The request displays the electronic information to be displayed, any access policy to be applied to any electronic information item in the electronic information, and displays the electronic information or the virtual projector If so, the display device for which electronic information is made available is identified. For example, the request may include electronic information in the request itself or as an attachment. As another example, the request may specify the location of electronic information. The projection application 140 can retrieve and store electronic information on the virtual projector 112 as electronic information 146 on the storage device 142. The request may also include data indicating the relative position of the graphical user interface object located on the display area 304. The request includes an httpPOST command that is processed to create a location on the storage device 142 that stores the electronic information 146, followed by an http PUT command for storing the electronic information 146 at the created location.

工程204では、電子情報は、要求において規定された表示装置に送信される。例えば、プロジェクション・アプリケーション140は、要求において規定された表示装置に電子情報146を送信し得る。本実施例では、プロジェクション・アプリケーション140は電子情報146をプロジェクタ#1に送信する。他の情報(例えば、電子情報内の何れかの電子情報項目に適用される対象の何れかのアクセス・ポリシーを示すデータ、又は、電子情報内の情報項目が表示装置上に表示される対象の(絶対的な、若しくは相対的な)場所を示す場所データ)も上記電子情報とともに送信することができる。電子情報は、参加エンティティによってサポートされるプロトコルにより、表示装置に送信され得る。例えば、電子情報は、HTTP又はHTTPSを使用してプレゼンタ・アプリケーション126又はプロジェクション・アプリケーション140から送信し得る。   In step 204, the electronic information is transmitted to the display device specified in the request. For example, the projection application 140 may send the electronic information 146 to the display device specified in the request. In the present embodiment, the projection application 140 transmits electronic information 146 to the projector # 1. Other information (for example, data indicating any access policy to be applied to any electronic information item in the electronic information, or information on which the information item in the electronic information is displayed on the display device) (Location data indicating a location (absolute or relative)) can also be transmitted together with the electronic information. The electronic information can be transmitted to the display device according to a protocol supported by the participating entity. For example, the electronic information may be transmitted from the presenter application 126 or the projection application 140 using HTTP or HTTPS.

工程206では、要求が仮想プロジェクタを表示装置として規定したか否かについての判定が行われる。否定の場合、処理は工程208で完了する。要求が仮想プロジェクタを表示装置として規定している場合、工程210で、電子情報は仮想プロジェクタ112を介してクライアント装置に利用可能にされる。これは例えば、処理されると、電子情報の表示をもたらす1つ又は複数のウェブ・ペ―ジを生成する工程を含み得る。一又は複数のウェブ・ページは、ウェブ・サーバ138、プロジェクション・アプリケーション140、又は、ウェブ・ページを生成するよう構成された何れかの他の処理によって生成し得る。一又は複数のウェブ・ページは、電子情報の一部又は全部を直接含み得るか、又は、電子情報の一部又は全部を取り出すためのリンクを含み得る。例えば、ウェブ・ページは、コンテンツ・サーバ上の電子情報150に記憶された電子情報項目に対するリンクを含み得る。表示装置又はクライアント装置におけるウェブ・ページ及びリンクの処理により、リンクにおいて参照される1つ又は複数の電子情報項目を取り出し、表示することが可能になり得る。電子情報が複数の電子情報データ項目を含む場合、フレーム、フラッシュ・ビデオ等などの種々の手法を、電子情報の表示に対応するために使用し得る。一又は複数のウェブ・ページは、仮想プロジェクタ112の記憶装置142上に電子情報146として記憶し得る。   In step 206, a determination is made as to whether the request has defined the virtual projector as a display device. If not, processing is complete at step 208. If the request specifies a virtual projector as the display device, the electronic information is made available to the client device via the virtual projector 112 at step 210. This can include, for example, generating one or more web pages that when processed result in the display of electronic information. The one or more web pages may be generated by the web server 138, the projection application 140, or any other process configured to generate web pages. One or more web pages may directly include some or all of the electronic information, or may include a link to retrieve some or all of the electronic information. For example, the web page may include a link to an electronic information item stored in the electronic information 150 on the content server. Processing web pages and links on the display device or client device may allow one or more electronic information items referenced in the link to be retrieved and displayed. If the electronic information includes multiple electronic information data items, various techniques such as frames, flash video, etc. may be used to accommodate the display of electronic information. One or more web pages may be stored as electronic information 146 on the storage device 142 of the virtual projector 112.

工程212では、1つ又は複数の要求が、仮想プロジェクタからの電子情報に対して受信される。クライアント装置には、仮想プロジェクタ112上に記憶された一又は複数のウェブ・ページに対するアクセスが提供され得る。図4は、仮想プロジェクタ112のウェブ・サーバ138によって提供される例示的なグラフィカル・ユーザ・インタフェース400を表す。クライアント装置上のアプリケーションは、特定のURLにおいてウェブ・ページを要求することにより、グラフィカル・ユーザ・インタフェース400にアクセスする。あるいは、ユーザは、グラフィカル・ユーザ・インタフェース400にアクセスするために、http://www.companyabc.com/virtualprojector/presentationsなどのアドレスをウェブ・ブラウザに入力し得る。本実施例では、グラフィカル・ユーザ・インタフェース400は、「プレゼンテーション#1」、「プレゼンテーション#2」、又は「プレゼンテーション#3」などのプレゼンテーションに対応するグラフィカル・ユーザ・インタフェース・オブジェクトをユーザが選択することを可能にする。ユーザは次いで、「プレゼンテーション表示」ボタン402を選択し得、工程214では、選択されたプレゼンテーションの一又は複数のウェブ・ページが、クライアント装置に対してサービングされる。工程216では、電子情報が表示される。例えば、選択されたプレゼンテーションの一又は複数のウェブ・ページのクライアント装置上の処理は、クライアント装置上に電子情報を表示させる。仮想プロジェクタ112からのプレゼンテーションへのアクセスを要求するクライアント装置のコンテキストにおいて実施例を本明細書及び特許請求の範囲で説明しているが、本明細書及び特許請求の範囲記載の手法は前述のコンテキストに限定されず、表示装置は更に、仮想プロジェクタ112からのプレゼンテーションを要求し得る。例えば、電子ホワイトボード102、104又はプロジェクタ106などの表示装置は、クライアント装置110のユーザと同じ態様でユーザが仮想プロジェクタ112にアクセスすることを可能にするために、表示装置に接続された対応するコンピュータ・ハードウェア又はソフトウェア、例えば、パソコン又は他のハードウェアを含み得る。   In step 212, one or more requests are received for electronic information from the virtual projector. The client device may be provided with access to one or more web pages stored on the virtual projector 112. FIG. 4 represents an exemplary graphical user interface 400 provided by the web server 138 of the virtual projector 112. An application on the client device accesses the graphical user interface 400 by requesting a web page at a specific URL. Alternatively, the user can access the graphical user interface 400 at http: // www. companyabbc. An address such as com / virtualprojector / presentations may be entered into the web browser. In the present embodiment, the graphical user interface 400 allows the user to select a graphical user interface object corresponding to a presentation such as “presentation # 1”, “presentation # 2”, or “presentation # 3”. Enable. The user may then select a “display presentation” button 402, and in step 214, one or more web pages of the selected presentation are served to the client device. In step 216, electronic information is displayed. For example, the processing on the client device of one or more web pages of the selected presentation causes electronic information to be displayed on the client device. Although embodiments are described in this specification and claims in the context of a client device requesting access to a presentation from virtual projector 112, the techniques described herein are in the context of the foregoing. Without limitation, the display device may further request a presentation from the virtual projector 112. For example, a display device, such as an electronic whiteboard 102, 104 or projector 106, is associated with the display device to allow the user to access the virtual projector 112 in the same manner as the user of the client device 110. It may include computer hardware or software, such as a personal computer or other hardware.

本明細書及び特許請求の範囲記載の仮想プロジェクタの使用は、種々の表示装置のユーザが同じ電子情報を同時に表示することを可能にするユーザ・フレンドリな手法を提供する。例えば、スマート・フォン上やタブレット・コンピュータ上などの他のクライアント装置上又は別の電子ホワイトボード上の同じ電子情報を他のユーザが表示している間に、第1のユーザ群は、電子ホワイトボード上の電子情報を表示し得る。クライアント装置は、何れかの特殊用途向ハードウェア又はソフトウェアを含んでいなくてもよい。むしろ、ウェブ・ページを処理し、表示することができる汎用のウェブ・ブラウザ又は他のアプリケーションが要求されているに過ぎない。ユーザによって表示される電子情報は、種々のソースから発信される電子情報項目を含み得る。例えば、図3A乃至図3Cを参照すれば、「文書#1」はクライアント装置108から発信され得、「スライド・ショー#2」及び「ビデオ#1」は別のソース(例えば、サーバ)から発信され得、「スライド・ショー#2」及び「ビデオ#1」は別のソース(例えば、サーバ)から発信され得る。電子情報の形式は、表示装置によって変わり得る。例えば、電子情報は、編集可能な形式で一表示装置上に表示され得る一方、電子情報は読み出しのみの形式で別の表示装置上に表示され得る。これは例えば、ビジネス・エンティティが、ビジネス・エンティティの外部にあるクライアント装置上で読み出しのみの形式で機密電子情報を表示したいが、ビジネス・エンティティのセキュアな場所内に配置された表示装置上で電子情報をユーザが編集することを可能にしたい場合に有用であり得る。共有された電子情報内の電子情報項目の形式も変わり得る。例えば、電子文書は、編集可能でないビデオ、及び編集可能な連携ノート用の文書を含み得る。別の例として、電子情報は、オリジナル電子文書としての役目を担う、編集可能でない形式で表示される電子文書、及び、電子文書のワーキング・コピーとしての役目を担う、編集可能な形式の電子文書のコピーを含み得る。これは、ユーザがオリジナル文書を編集することは可能にしないが、表示することを可能にし、編集可能な形式のワーキング・コピー上にコメントを記載することを可能にする。   The use of the virtual projector described herein and in the claims provides a user friendly approach that allows users of various display devices to simultaneously display the same electronic information. For example, while other users are displaying the same electronic information on another client device, such as on a smart phone or a tablet computer, or on another electronic whiteboard, the first group of users is electronic white Electronic information on the board can be displayed. The client device may not include any special purpose hardware or software. Rather, only a general purpose web browser or other application that can process and display web pages is required. Electronic information displayed by the user may include electronic information items originating from various sources. For example, referring to FIGS. 3A-3C, “Document # 1” may originate from client device 108 and “Slide Show # 2” and “Video # 1” originate from different sources (eg, servers). “Slide Show # 2” and “Video # 1” may originate from different sources (eg, servers). The format of the electronic information can vary depending on the display device. For example, electronic information may be displayed on one display device in an editable format, while electronic information may be displayed on another display device in a read-only format. This is the case, for example, when a business entity wants to display sensitive electronic information in a read-only format on a client device outside the business entity, but electronic This can be useful if you want to allow the user to edit the information. The format of the electronic information items in the shared electronic information can also change. For example, an electronic document may include a non-editable video and an editable document for linked notes. As another example, electronic information is an electronic document displayed in a non-editable format that serves as the original electronic document, and an electronic document in an editable format that serves as a working copy of the electronic document. May be included. This does not allow the user to edit the original document, but allows it to be displayed and allows comments to be written on a working copy in an editable format.

一実施例によれば、仮想プロジェクタ112は、エンティティ間で共有されるコンテンツを記録するよう構成される。例えば、ウェブ・サ―バ138は、表示装置と共有されたコンテンツを記憶するよう構成し得る。ウェブ・サーバ138は、特定の実現形態に応じてユーザ認証を必要とし得る、記録済コンテンツを表示するためのグラフィカル・ユーザ・インタフェースを提供し得る。別の実施例によれば、クライアント装置又は表示装置は、受信する電子情報を局所で記録するよう構成し得る。   According to one embodiment, the virtual projector 112 is configured to record content shared between entities. For example, the web server 138 may be configured to store content shared with the display device. Web server 138 may provide a graphical user interface for displaying recorded content that may require user authentication depending on the particular implementation. According to another embodiment, the client device or display device may be configured to locally record received electronic information.

図5は、仮想プロジェクタを使用して複数の表示装置上での電子情報の表示に対応する装置のエレメント間のメッセージの交換を表す線図500である。クライアント装置108は、表示要求502を生成し、表示要求502を仮想プロジェクタ112に送信する。表示要求は例えば、図3A乃至図3Cに関して本明細書及び特許請求の範囲において上述した態様で生成し得る。仮想プロジェクタ112は、表示要求を処理し、要求において規定され、要求を伴う電子情報項目を取得する。本実施例では、表示要求502は、コンテンツ・サーバ116上に記憶された電子情報項目に対する要求を含む。工程504では、仮想プロジェクタ112は、コンテンツ・サーバ116に電子情報項目を要求する。工程506では、仮想プロジェクタ112は、コンテンツ・サーバ116から電子情報項目を受信する。   FIG. 5 is a diagram 500 representing the exchange of messages between elements of a device corresponding to the display of electronic information on a plurality of display devices using a virtual projector. The client device 108 generates a display request 502 and transmits the display request 502 to the virtual projector 112. The display request may be generated, for example, in the manner described above in the specification and claims with respect to FIGS. 3A-3C. The virtual projector 112 processes the display request and obtains an electronic information item specified in the request and accompanied by the request. In this example, display request 502 includes a request for an electronic information item stored on content server 116. In step 504, the virtual projector 112 requests an electronic information item from the content server 116. In step 506, virtual projector 112 receives an electronic information item from content server 116.

工程508では、仮想プロセッサは、要求502に規定された電子情報を直接又は間接的に含む一又は複数のウェブ・ページを生成する。例えば、一又は複数のウェブ・ページ自体は、要求502において規定された電子情報項目を含み得る。あるいは、一又は複数のウェブ・ページは、要求502において規定された電子情報項目の1つ又は複数に対するリンクを含み得る。例えば、ウェブ・ページは、コンテンツ・サーバ116上に記憶された電子情報項目に対するリンクを含み得る。   In step 508, the virtual processor generates one or more web pages that directly or indirectly include the electronic information defined in request 502. For example, one or more web pages themselves may include the electronic information item defined in request 502. Alternatively, the one or more web pages may include links to one or more of the electronic information items defined in request 502. For example, the web page may include links to electronic information items stored on the content server 116.

工程510は、仮想プロジェクタ112は、要求502において規定された電子情報をプロジェクタ106に送信し、電子情報はプロジェクタ106上に表示される。工程512では、クライアント装置110は、電子情報に対する要求を仮想プロジェクタ112に送信する。要求は、プレゼンテーションの表示を要求するために、(例えば図4の)グラフィカル・ユーザ・インタフェースを使用してクライアント装置110のユーザによって生成し得る。工程514では、要求された電子情報に対応する一又は複数のウェブ・ペ―ジがクライアント装置110に送信される。例えば、ウェブ・サーバ138は、要求された1つ又は複数のウェブ・ページをクライアント装置110に送信し得る。   In step 510, the virtual projector 112 transmits the electronic information specified in the request 502 to the projector 106, and the electronic information is displayed on the projector 106. In step 512, the client device 110 transmits a request for electronic information to the virtual projector 112. The request may be generated by a user of client device 110 using a graphical user interface (eg, of FIG. 4) to request display of the presentation. In step 514, one or more web pages corresponding to the requested electronic information are transmitted to the client device 110. For example, the web server 138 may send the requested one or more web pages to the client device 110.

(4)モバイル装置を使用した電子情報連携
図6は、モバイル装置からの電子情報連携に対応する装置のエレメント間のメッセージの交換を表す線図600である。工程602では、本実施例ではモバイル装置であるクライアント装置108は、連携サーバ114上の連携マネージャ148に対し、表示要求を生成し、送信する。表示要求は、例えば、図3A乃至図3Cに関して本明細書で上述した態様で生成し得る。連携マネージャ148は、要求を処理し、要求において規定され、要求に付随する電子情報項目を取得する。本実施例では、表示要求602は、コンテンツ・サーバ116上に記憶された電子情報項目に対する要求を含む。工程604では、連携マネージャ148は、コンテンツ・サーバ116に電子情報項目を要求する。工程606では、連携マネージャ148は、コンテンツ・サーバ116から電子情報項目を受信する。
(4) Electronic Information Coordination Using Mobile Device FIG. 6 is a diagram 600 representing message exchange between elements of a device corresponding to electronic information cooperation from a mobile device. In step 602, the client device 108, which is a mobile device in this embodiment, generates and transmits a display request to the cooperation manager 148 on the cooperation server 114. The display request may be generated, for example, in the manner described hereinabove with respect to FIGS. 3A-3C. The cooperation manager 148 processes the request and obtains an electronic information item specified in the request and accompanying the request. In this example, display request 602 includes a request for an electronic information item stored on content server 116. In step 604, the collaboration manager 148 requests an electronic information item from the content server 116. In step 606, the collaboration manager 148 receives an electronic information item from the content server 116.

工程608では、連携マネージャ148は電子情報をプロジェクタ106に送信する。工程610では、連携マネージャ148は、ビデオ会議セッションに対する要求を生成し、クライアント装置108及びプロジェクタ106に送信する。工程608及び610は、特定の実現形態に応じて、単一の工程で併せて行い得、工程608に先行して工程610において行い得る。クライアント装置108とプロジェクタ106との間のビデオ会議セッションの確立により、クライアント装置108及びプロジェクタ106において表示される電子情報上でクライアント装置108及びプロジェクタ106のユーザが連携することが可能になる。   In step 608, the cooperation manager 148 transmits electronic information to the projector 106. In step 610, collaboration manager 148 generates a request for the video conference session and sends it to client device 108 and projector 106. Steps 608 and 610 can be performed together in a single step, depending on the particular implementation, and can be performed in step 610 prior to step 608. Establishing a video conference session between the client device 108 and the projector 106 allows the users of the client device 108 and the projector 106 to collaborate on the electronic information displayed on the client device 108 and the projector 106.

工程610では、連携マネージャ148はプロジェクタ106から変更データ612を受信する。変更データは、プロジェクタ106上に表示された電子情報のコピーに対して行われる変更を示す。例えば、ユーザは、スタイラス、マウス、又は他のポインティング/選択装置を使用して、プロジェクタ106において表示された電子情報に注釈を付け得る。本実施例では、変更データ612は、プロジェクタ106において電子情報に対してユーザによって行われる注釈を示す。工程614では、連携マネージャ148は変更データ614をクライアント装置108に送信する。クライアント装置108における連携クライアント132によって処理されると、変更データ614は、プロジェクタ106における電子情報に対して行われる注釈をクアイアント装置108に伝播させ、よって、クライアント装置108の一又は複数のユーザはプロジェクタ106において行われた、電子データに対する変更を表示することが可能である。クライアント装置108において表示される電子データに対して行われた変更は同様にプロジェクタ106に伝播させ、よって、クライアント装置108のユーザは、クライアント装置108のユーザにより、電子データに対して行われた変更を表示することが可能である。   In step 610, cooperation manager 148 receives change data 612 from projector 106. The change data indicates a change made to the copy of the electronic information displayed on the projector 106. For example, a user may annotate electronic information displayed on projector 106 using a stylus, mouse, or other pointing / selection device. In the present embodiment, the change data 612 indicates annotations made by the user on the electronic information in the projector 106. In step 614, the cooperation manager 148 transmits the change data 614 to the client device 108. When processed by the collaboration client 132 at the client device 108, the change data 614 propagates annotations made to the electronic information at the projector 106 to the client device 108, so that one or more users of the client device 108 can be Changes to the electronic data made at 106 can be displayed. Changes made to the electronic data displayed on the client device 108 are similarly propagated to the projector 106 so that the user of the client device 108 can make changes to the electronic data by the user of the client device 108. Can be displayed.

(5)ビデオ会議場所マップ・アーキテクチャ
図7は、ビデオ会議装置700を表すブロック図である。ビデオ会議装置700は、ビデオ会議場所マップ706、モバイル装置704、ビデオ会議システム702、ビデオ会議場所(VCS1)及びVCS2乃至VCS8として図7において識別されたビデオ会議場所を含む。
(5) Video Conference Location Map Architecture FIG. 7 is a block diagram illustrating the video conference device 700. Video conferencing device 700 includes video conference location map 706, mobile device 704, video conference system 702, video conference location (VCS1) and video conference locations identified in FIG. 7 as VCS2 to VCS8.

ビデオ会議場所VCS1乃至VCS8はそれぞれ、上記場所に対応する位置における一又は複数のユーザにビデオ会議を利用可能にするコンピュータ・ハードウェア、コンピュータ・ソフトウェア、及び他の機器を含む。本明細書及び特許請求の範囲記載の手法は、何れかの特定のコンピュータ・ハードウェア、コンピュータ・ソフトウェア、及び他の機器構成を有するビデオ会議場所VCS1−VCS8に限定されない。例えば、ビデオ会議場所VCS1−VCS8は、パソコンなどのコンピュータ装置、ネットワーク接続性を有するタブレット・コンピュータ又はモバイル装置、カメラ、マイクロフォン、ビデオ会議セッションをサポートするスピーカ及びコンピュータ・ソフトウェアを含み得る。別の例として、ビデオ会議場所VCS1−VCS8は、特殊用途向コンピュータ・ハードウェア、コンピュータ・ソフトウェア、及び機器を含み得る。一実施例によれば、ビデオ会議場所VCS1は、ビデオ会議システム702から受信されたコマンドに応じて、1つ又は複数の他のビデオ会議場所との1つ又は複数ビデオ会議セッションに関して1つ又は複数の動作を行うよう構成されたビデオ会議セッション・エージェント708を含む。例えば、ビデオ会議セッション・エージェント708は、ビデオ会議システム702から受信されたコマンドに応じて1つ又は複数の他のビデオ会議場所とビデオ会議場所VCS1との間のビデオ会議セッションを開始し、終了するよう構成し得る。ビデオ会議場所VCS1は更に、ビデオ会議場所VCS1が参加者である1つ又は複数のビデオ会議セッションのビデオ会議セッション・データ70も維持し得る。ビデオ会議セッション・データ710は、特定の実現形態に応じて多種多様なデータを含み得る。例えば、ビデオ会議セッション・データ710はビデオ会議セッション毎に、ビデオ会議セッションに参加しているユーザ、ビデオ会議セッションの性能及び品質メトリック、ビデオ会議セッションに参加しているビデオ会議場所、及び、ビデオ会議セッションを識別する識別データを示し得る。ビデオ会議セッション・データ710は、特定の実現形態に応じて、ビデオ会議場所毎に局所に記憶し得るか、又は、遠隔に記憶し得る。他のビデオ会議場所VCS−VCS8も、特定の実現形態に応じてビデオ会議エージェント及びビデオ会議セッション・データを含み得る。   Each of the video conferencing locations VCS1 to VCS8 includes computer hardware, computer software, and other equipment that makes the video conferencing available to one or more users at locations corresponding to the locations. The techniques described herein are not limited to video conferencing locations VCS1-VCS8 having any particular computer hardware, computer software, and other equipment configurations. For example, the video conference location VCS1-VCS8 may include a computer device such as a personal computer, a tablet computer or mobile device with network connectivity, a camera, a microphone, a speaker that supports a video conference session, and computer software. As another example, video conferencing locations VCS1-VCS8 may include special purpose computer hardware, computer software, and equipment. According to one embodiment, video conferencing location VCS1 may be one or more for one or more video conferencing sessions with one or more other video conferencing locations in response to a command received from video conferencing system 702. A video conferencing session agent 708 configured to perform the following operations. For example, video conference session agent 708 initiates and ends a video conference session between one or more other video conference locations and video conference location VCS1 in response to commands received from video conference system 702. Can be configured as follows. Video conference location VCS1 may also maintain video conference session data 70 for one or more video conference sessions for which video conference location VCS1 is a participant. Video conferencing session data 710 may include a wide variety of data depending on the particular implementation. For example, video conferencing session data 710 includes, for each video conferencing session, the users participating in the video conferencing session, the performance and quality metrics of the video conferencing session, the video conferencing location participating in the video conferencing session, and the video conferencing Identification data identifying the session may be indicated. Video conferencing session data 710 may be stored locally for each video conferencing location or may be stored remotely, depending on the particular implementation. Other video conferencing locations VCS-VCS 8 may also include video conferencing agents and video conferencing session data depending on the particular implementation.

ビデオ会議場所VCS1−VCS8は、必ずしも、同じコンピュータ・ハードウェア、コンピュータ・ソフトウェア及び機器を含む訳でなく、各ビデオ会議場所VCS1−VCS8におけるコンピュータ・ハードウェア、コンピュータ・ソフトウェア及び機器は特定の実現形態に応じて変わり得る。各ビデオ会議場所VCS1−VCS8は、例えば、インターネットを含み得る1つ又は複数のネットワーク又は通信リンクを介して、ビデオ会議システム702及び他のビデオ会議場所VCS1−VCS8の1つ又は複数と通信するよう構成される。   The video conference locations VCS1-VCS8 do not necessarily include the same computer hardware, computer software and equipment, and the computer hardware, computer software and equipment at each video conference location VCS1-VCS8 is a specific implementation. Can vary depending on Each video conference location VCS1-VCS8 communicates with one or more of video conference system 702 and other video conference locations VCS1-VCS8 via one or more networks or communication links, which may include, for example, the Internet. Composed.

ビデオ会議場所VCS1−VCS8は、特定の実現形態に応じて物理的に同じ場所に配置するか、又は物理的に離隔された場所に配置し得、本明細書及び特許請求の範囲記載の手法は、ビデオ会議場所VCS1−VCS8が何れかの特定の物理的場所にあることに限定されない。図7に表す例示的なビデオ会議装置700では、ビデオ会議場所VCS1−VCS5は、建物と一緒に配置されているとみなされ、ビデオ会議場所VCS6−VCS8は他の別個の場所に配置される。例えば、ビデオ会議場所VCS1−VCS5は事業体の建物内に配置し得、ビデオ会議場所VCS6−VCS8は、事業体の他のオフィス、又は他の事業体、顧客、供給者等のオフィスに配置し得る。   The video conferencing locations VCS1-VCS8 may be physically located at the same location or physically separated locations depending on the particular implementation, and the techniques described herein are as follows: The video conferencing locations VCS1-VCS8 are not limited to being in any particular physical location. In the exemplary video conferencing device 700 depicted in FIG. 7, the video conference locations VCS1-VCS5 are considered to be located with the building and the video conference locations VCS6-VCS8 are located at other separate locations. For example, video conferencing locations VCS1-VCS5 may be located within a business building, and video conferencing locations VCS6-VCS8 may be located at other offices of the business entity or other business entities, customers, suppliers, etc. offices. obtain.

ビデオ会議システム702は、モバイル装置704からの要求に応じてビデオ会議場所VCS1−VCS8の2つ以上の間でビデオ会議セッションを確立するよう構成される。説明の目的でビデオ会議セッションのコンテキストで実施例を本明細書及び特許請求の範囲において記載しているが、本明細書及び特許請求の範囲に記載の手法は、多種多様な接続に適用可能である。例示的な接続には、限定列挙でないが、音声接続、データ接続、ビデオ会議セッション、及び共有ホワイトボード・セッションが含まれる。要求には、参加ビデオ会議場所のビデオ会議場所識別データが含まれる。例えば、ビデオ会議システム702は、ビデオ会議場所VC1及びVC6間のビデオ会議セッションを確立する旨の要求をモバイル装置704から受信し得る。要求には、ビデオ会議場所VCS1及びVCS6のビデオ会議場所識別データ(例えば、ビデオ会議場所VCS1及びVCS6のIPアドレス)が含まれる。要求は更に、確立する対象の接続のタイプを示すデータを含み得る。例えば、要求は、接続を、音声接続とするか、データ接続とするか、ビデオ会議セッションとするか、共有ホワイトボード・セッションとするか等を規定し得る。要求の受信に応じて、ビデオ会議システム702は、ビデオ会議場所VCS1及びVCS6間のビデオ会議セッションを確立する。このことは、例えば、ビデオ会議システム702が、ビデオ会議場所のVCS1上及びVCS6上の処理又は特殊用途向ハードウェアに対してコマンドを送信することによって実現し得る。ビデオ会議場所間でビデオ会議セッションが確立されると、ビデオ会議システム702はビデオ会議セッションをアクティブに管理し得る。例えば、ビデオ会議システム702は、セッション開始プロトコル(SIP)を使用してビデオ会議セッションを管理するよう構成し得る。   Video conferencing system 702 is configured to establish a video conferencing session between two or more of video conferencing locations VCS1-VCS8 in response to a request from mobile device 704. For illustrative purposes, examples have been described in this specification and claims in the context of a video conferencing session, but the techniques described herein can be applied to a wide variety of connections. is there. Exemplary connections include, but are not limited to, audio connections, data connections, video conferencing sessions, and shared whiteboard sessions. The request includes video conference location identification data of participating video conference locations. For example, video conferencing system 702 may receive a request from mobile device 704 to establish a video conference session between video conference locations VC1 and VC6. The request includes video conference location identification data for the video conference locations VCS1 and VCS6 (eg, IP addresses of the video conference locations VCS1 and VCS6). The request may further include data indicating the type of connection to be established. For example, the request may specify whether the connection is an audio connection, a data connection, a video conference session, a shared whiteboard session, or the like. In response to receiving the request, video conferencing system 702 establishes a video conference session between video conference locations VCS1 and VCS6. This may be achieved, for example, by the video conferencing system 702 sending commands to processing or special purpose hardware on the VCS 1 and VCS 6 at the video conferencing location. Once a video conference session is established between video conference locations, video conference system 702 may actively manage the video conference session. For example, video conferencing system 702 may be configured to manage video conferencing sessions using Session Initiation Protocol (SIP).

一実施例によれば、ビデオ会議システム702はビデオ会議セッション・マネージャ712及びビデオ会議セッション・データ716を含む。ビデオ会議セッション・マネージャ712は、1つ又は複数のビデオ会議セッションに対して1つ又は複数の動作を行うよう構成される。例えば、ビデオ会議セッション・マネージャ712は、例えば、モバイル装置704より受信されたコマンドに応じてビデオ会議場所間のビデオ会議セッションを、SIPを使用して開始し、終了し、他の態様で管理するよう構成される。ビデオ会議セッション・データ716は、先行する、又は現在の1つ若しくは複数のビデオ会議セッションについてのデータを含む。ビデオ会議セッション・データ716は、特定の実現形態に応じて多種多様なデータを含み得る。例えば、ビデオ会議セッション・データ716はビデオ会議セッション毎に、ビデオ会議セッションに参加しているユーザ、ビデオ会議セッションの性能及び品質メトリック、ビデオ会議セッションに参加しているビデオ会議場所、及び、ビデオ会議セッションを識別する識別データを示し得る。ビデオ会議セッション・データ716は、特定の実現形態に応じて、局所にビデオ会議システム702上に記憶し得るか、又は、遠隔に記憶し得る。ビデオ会議システム702は、説明の目的のみで、別個のエンティティであるものとして図7に表す。ビデオ会議システム702は、ビデオ会議場所VCS1−VCS8のうちの何れかの数の一部であり得る。例えば、ビデオ会議システム702は、ビデオ会議セッションを管理するためにビデオ会議場所VC1−VCS8のうちの1つにおいて実現し得、かつ/又は、複数のビデオ会議場所VCS1−VCS8にわたって分散した構成部分を含み得る。   According to one embodiment, video conferencing system 702 includes a video conference session manager 712 and video conference session data 716. Video conference session manager 712 is configured to perform one or more operations for one or more video conference sessions. For example, video conferencing session manager 712 initiates, terminates, and otherwise manages video conferencing sessions between video conferencing locations, eg, in response to commands received from mobile device 704 using SIP. It is configured as follows. Video conference session data 716 includes data for one or more previous or current video conference sessions. Video conferencing session data 716 may include a wide variety of data depending on the particular implementation. For example, for each video conference session, video conference session data 716 includes the users participating in the video conference session, the performance and quality metrics of the video conference session, the video conference location participating in the video conference session, and the video conference. Identification data identifying the session may be indicated. Video conferencing session data 716 may be stored locally on video conferencing system 702 or stored remotely, depending on the particular implementation. Video conferencing system 702 is depicted in FIG. 7 as being a separate entity for illustrative purposes only. Video conferencing system 702 may be part of any number of video conferencing locations VCS1-VCS8. For example, video conferencing system 702 may be implemented in one of video conferencing locations VC1-VCS8 and / or distributed components distributed across multiple video conferencing locations VCS1-VCS8 to manage video conferencing sessions. May be included.

(6)ビデオ会議場所マップ
ビデオ会議場所マップ706は、ビデオ会議場所VCS1−VCS8の可視表現を提供する。ビデオ会議場所マップ706は、コンピュータ装置(例えば、コンピュータ・モニタ、大画面テレビジョン、プロジェクション画面、電子ホワイトボード等)のグラフィカル・ユーザ・インタフェース上に電子的に生成し、表示し得る。あるいは、ビデオ会議場所マップ706は、物理媒体上(例えば、紙上又はポスター・ボード上)にあり得る。ビデオ会議場所マップ706は更に、表面上に投影し得る。例えば、ビデオ会議場所マップ706は、画面上又は壁上に投影装置によって投影し得る。
(6) Video conference location map The video conference location map 706 provides a visual representation of the video conference locations VCS1-VCS8. Video conference location map 706 may be electronically generated and displayed on a graphical user interface of a computing device (eg, a computer monitor, large screen television, projection screen, electronic whiteboard, etc.). Alternatively, the video conference location map 706 can be on physical media (eg, on paper or on a poster board). Video conference location map 706 may further be projected onto the surface. For example, the video conference location map 706 may be projected by a projection device on a screen or on a wall.

ビデオ会議場所マップ706は本明細書及び特許請求の範囲では、「場所マップ」としても表され、ビデオ会議場所VCS1−VCS8を可視的に表し、ビデオ会議場所VCS1−VCS8を識別するビデオ会議場所識別データを含み得る。特定のビデオ会議場所のビデオ会議場所データは、何れかのタイプの接続(例えば、ビデオ会議セッション)に特定のビデオ会議場所が参加するのに十分な情報を含み、本明細書及び特許請求の範囲記載の手法は、何れかの特定のタイプのビデオ会議場所識別データに限定されない。ビデオ会議場所識別データは、特定のビデオ会議場所におけるオーディオ/ビデオ機器への直接接続を可能にするために、特定のビデオ会議場所におけるオーディオ/ビデオ機器の属性に基づき得る。例えば、ビデオ会議場所識別データは、特定のビデオ会議場所におけるオーディオ/ビデオ機器の一意の識別子若しくはユニフォーム・リソース・ロケータ(URL)、媒体アクセス制御(MAC)アドレス、又はインターネット・プロトコル(IP)アドレスを含み得る。特定のビデオ会議場所のビデオ会議場所識別データは、複数のタイプのデータ(例えば、特定のビデオ会議場所におけるオーディオ/ビデオ機器のURL及びIPアドレス)を含み得る。別の代替策として、ビデオ会議場所識別データは、特定のビデオ会議サイトにおけるオーディオ/ビデオ機器に対する接続を可能にする他のコードに基づき得る。他のコードは、他の情報と組み合わせた、特定のビデオ会議場所におけるオーディオ/ビデオ機器の属性に部分的に基づき得る。更に別の代替策として、特定のビデオ会議場所におけるオーディオ/ビデオ機器の属性に必ずしも基づいている訳でない特定のビデオ会議場所についてコードを作成し得る。例えば、「場所」コードは、生成し、特定のビデオ会議場所に割り当て得、上記場所コードは、特定のビデオ会議場所に接続するために使用される。ビデオ会議場所識別データは、シンボル又はグラフィックにおいてコード化し得る。例示的なコード化は、限定列挙でないが、GRコード、UPCコード、バーコード、色判別コード、及び3次元コードを含む。ビデオ会議場所識別データは更に、記憶され得、RFIDタグを介して利用可能にされ得る。ビデオ会議場所マップ706は更に、ビデオ会議場所VCS1−VCS8の絶対的な場所又は相対的な場所を可視的に表し得る。例えば、ビデオ会議場所マップ706は、建物内のビデオ会議場所VCS1−VCS8の場所を規定し得るか、又は、ビデオ会議場所VCS1−VCS8が配置されたアドレス又はGPS座標を規定し得る。ビデオ会議場所VCS1−VCS8の場所は、ビデオ会議場所VCS1−VCS8などの他のビデオ会議場所に対して表し得る。   The video conference location map 706 is also referred to herein as a “location map” and is a video conference location identification that visually represents the video conference locations VCS1-VCS8 and identifies the video conference locations VCS1-VCS8. Data can be included. The video conference location data for a particular video conference location contains sufficient information for the particular video conference location to participate in any type of connection (eg, a video conference session), and the present specification and claims. The described approach is not limited to any particular type of video conference location identification data. The video conference location identification data may be based on the attributes of the audio / video device at the particular video conference location to allow direct connection to the audio / video device at the particular video conference location. For example, video conference location identification data may include a unique identifier or uniform resource locator (URL), media access control (MAC) address, or Internet Protocol (IP) address of an audio / video device at a particular video conference location. May be included. The video conference location identification data for a particular video conference location may include multiple types of data (eg, the URL and IP address of the audio / video device at the particular video conference location). As another alternative, the video conference location identification data may be based on other codes that allow connection to audio / video equipment at a particular video conference site. Other codes may be based in part on the attributes of the audio / video equipment at a particular video conference location, combined with other information. As yet another alternative, code may be created for a particular video conference location that is not necessarily based on the attributes of the audio / video equipment at the particular video conference location. For example, a “location” code may be generated and assigned to a specific video conference location, and the location code is used to connect to a specific video conference location. Video conference location identification data may be encoded in symbols or graphics. Exemplary encodings include, but are not limited to, a GR code, a UPC code, a bar code, a color discrimination code, and a three-dimensional code. Video conference location identification data can also be stored and made available via RFID tags. Video conference location map 706 may further visually represent the absolute or relative location of video conference locations VCS1-VCS8. For example, video conference location map 706 may define the location of video conference locations VCS1-VCS8 within a building, or may define the address or GPS coordinates where video conference locations VCS1-VCS8 are located. The locations of video conference locations VCS1-VCS8 may be represented relative to other video conference locations such as video conference locations VCS1-VCS8.

図8Aは、複数のビデオ会議場所を表すビデオ会議場所マップ706の例示的な実施例である。ビデオ会議場所マップ706は、ビデオ会議場所に対応するビデオ会議アイコン800、804、808、812、816の形式のグラフィカル・ユーザ・インタフェース・オブジェクトを含む。例えば、ビデオ会議アイコン800は、ABC社ワールドワイド本社において「西会議室」として知られているビデオ会議場所に対応する。ビデオ会議アイコン804及び808はそれぞれ、何れもABC社ワールドワイド本社にあるビデオ会議場所「北会議室」及び「南会議室」に対応する。ビデオ会議アイコン812及び816は、ABC社本社の種々の場所におけるビデオ会議場所に対応し、より具体的には、「米国オフィス」及び「欧州オフィス」それぞれにおけるビデオ会議場所に対応する。ビデオ会議場所マップ706はビデオ会議場所800、804、808、812、及び816を識別するビデオ会議場所識別データを含む。一実施例によれば、ビデオ会議場所識別データは、マシン又は電子装置により、ビデオ会議場所識別データが読み出され、走査され、又は他の方法で捕捉されることを可能にする形式においてビデオ会議場所マップ上に表す。図8の例示的なビデオ会議場所マップ706では、ビデオ会議場所識別データはQR(登録商標)コード802、806、810、814、818においてコード化されるが、実施例は、QRコードにおいてコード化されるビデオ会議場所識別データに限定されない。ビデオ会議アイコン800、804、808、812、816及び対応するQRコード802、806、810、814、818は、対応するビデオ会議場所の相対位置を可視的に示す態様で、ビデオ会議場所マップ706上で配置し得る。例えば、ビデオ会議場所マップ706上のビデオ会議アイコン800、804、808の位置は、ABS社ワールドワイド本社ビル内の「西会議室」、「北会議室」、及び「南会議室」の実際の物理的な場所に対応し得る。   FIG. 8A is an illustrative example of a video conference location map 706 that represents multiple video conference locations. Video conference location map 706 includes graphical user interface objects in the form of video conference icons 800, 804, 808, 812, 816 corresponding to video conference locations. For example, video conference icon 800 corresponds to a video conference location known as “West Conference Room” at ABC Worldwide Worldwide Headquarters. The video conference icons 804 and 808 respectively correspond to the video conference locations “North Conference Room” and “South Conference Room” at ABC's worldwide headquarters. Video conference icons 812 and 816 correspond to video conference locations at various locations of ABC headquarters, and more specifically, correspond to video conference locations at “US office” and “Europe office” respectively. Video conference location map 706 includes video conference location identification data that identifies video conference locations 800, 804, 808, 812, and 816. According to one embodiment, the video conference location identification data is video conference in a format that allows the video conference location identification data to be read, scanned, or otherwise captured by a machine or electronic device. Represent on the location map. In the exemplary video conference location map 706 of FIG. 8, video conference location identification data is encoded in QR® codes 802, 806, 810, 814, 818, although embodiments are encoded in QR codes. It is not limited to video conference location identification data. Video conference icons 800, 804, 808, 812, 816 and corresponding QR codes 802, 806, 810, 814, 818 are displayed on the video conference location map 706 in a manner that visually indicates the relative position of the corresponding video conference location. Can be arranged with. For example, the positions of the video conference icons 800, 804, and 808 on the video conference location map 706 are the actual locations of the “west conference room”, “north conference room”, and “south conference room” in the ABS worldwide headquarters building. Can correspond to a physical location.

ビデオ会議場所マップは、ビデオ会議場所についての他のタイプの情報を含み得る。一実施例によれば、ビデオ会議場所マップは、ビデオ会議場所の1つ又は複数の現在のステータスを示し得る。例えば、ビデオ会議場所マップ706は、「米国オフィス」ビデオ会議場所の現在のステータス820及び「欧州オフィス」ビデオ会議場所の現在のステータス822を示す。このことは、特定のビデオ会議場所における機器が現在、ビデオ会議セッションをサポートすることができない状況(例えば、保守中)において有用であり得る。ビデオ会議場所のステータスの変更により、ビデオ会議場所マップが再生成され得る。ビデオ会議場所マップは更に、特定のビデオ会議場所において利用可能なビデオ会議機器又は装置のタイプを示し得る。   The video conference location map may include other types of information about the video conference location. According to one embodiment, the video conference location map may indicate one or more current statuses of the video conference location. For example, video conference location map 706 shows the current status 820 of the “US office” video conference location and the current status 822 of the “Europe office” video conference location. This may be useful in situations where equipment at a particular video conference location cannot currently support a video conference session (eg, during maintenance). Changing the status of the video conference location may regenerate the video conference location map. The video conference location map may further indicate the types of video conference equipment or devices available at a particular video conference location.

ビデオ会議場所マップは、特定の実現形態に応じて種々の手法を使用して生成し得る。例えば、ビデオ会議場所マップは、コンピュータ支援設計(CAD)ソフトウェアを使用して手作業で生成し得る。別の代替策として、ビデオ会議場所マップは、ビデオ会議場所マップ生成処理により、自動的に生成し得る。   The video conference location map may be generated using various techniques depending on the particular implementation. For example, the video conference location map may be generated manually using computer aided design (CAD) software. As another alternative, the video conference location map may be automatically generated by a video conference location map generation process.

図8Bは、電子ビデオ会議場所マップを生成する手法を表すフロー図850である。工程852では、ビデオ会議場所識別データを含むビデオ会議場所データが取り出される。例えば、ビデオ会議場所マップ生成処理は、ビデオ会議場所データを取り出し得る。ビデオ会議場所マップ生成処理は例えば、サーバ上などのネットワーク装置上で実行し得る。ビデオ会議場所データは、本明細書及び特許請求の範囲記載のビデオ会議場所識別データを含み、2つ以上のビデオ会議場所の属性を表す他のデータを含み得る。例えば、ビデオ会議場所データは、図8Aに表すようなビデオ会議場所マップ706をビデオ会議場所マップ生成処理が生成することを可能にするために、ビデオ会議場所データにおいて表す2つ以上のビデオ会議場所のステータス、場所(絶対又は相対)、装置のタイプ、又は他の記述情報を規定し得る。ビデオ会議場所識別データは、ビデオ会議場所におけるオーディオ/ビデオ機器に対応するマシン読み取り可能なグラフィックから得られる識別データに少なくとも部分的に基づいて生成し得る。例えば、ビデオ会議場所識別データは、ビデオ会議場所においてオーディオ/ビデオ機器に付けられ、又は他の方法によって関連付けられたQRコードを走査することによって得られる識別データに基づいて生成し得る。QRコードは、スマート・フォン、タブレット・コンピュータ装置等などの、QRコードを走査することができる何れかのタイプの装置を使用して走査し得る。   FIG. 8B is a flow diagram 850 representing a technique for generating an electronic video conference location map. In step 852, video conference location data including video conference location identification data is retrieved. For example, the video conference location map generation process may retrieve video conference location data. The video conference location map generation process may be executed on a network device such as a server. Video conference location data includes the video conference location identification data described herein and may include other data representing attributes of two or more video conference locations. For example, the video conference location data may represent two or more video conference locations represented in the video conference location data to enable the video conference location map generation process to generate a video conference location map 706 as depicted in FIG. 8A. Status, location (absolute or relative), device type, or other descriptive information. Video conference location identification data may be generated based at least in part on identification data obtained from machine readable graphics corresponding to audio / video equipment at the video conference location. For example, video conference location identification data may be generated based on identification data obtained by scanning a QR code attached to audio / video equipment at the video conference location or otherwise associated. The QR code may be scanned using any type of device capable of scanning the QR code, such as a smart phone, tablet computer device, or the like.

工程854では、ビデオ会議場所識別データがコード化される。例えば、ビデオ会議場所マップ生成処理は、ビデオ会議場所毎のGRコードを生成し得る。各QRコードはQRコード・データによって表し得る。工程856では、コード化されたビデオ会議場所識別データを含むビデオ会議場所マップが生成される。一実施例によれば、これは、ビデオ会議場所マップを表すビデオ会議場所マップ・データを生成する工程を含む。ビデオ会議場所マップの生成は、ビデオ会議場所が配置された1つ又は複数のビルのスケーリングされた、又はスケーリングされていないレイアウトに基づき得る。本明細書及び特許請求の範囲で上述したように、ビデオ会議場所マップは、ビデオ会議場所マップ上に表されるビデオ会議場所の場所情報を含み得る。ビデオ会議場所の場所はビデオ会議場所データにおいて規定し得るか、又は、場所は知られていないことがあり得、例えば、GPS座標を介して、又は他のビデオ会議場所に対する相対位置に基づいて判定し得る。ビデオ会議場所はその場所に基づいてビデオ会議場所マップ上で位置特定し得る。ビデオ会議場所マップは、特定の実現形態に応じてスケーリングし、かつ/又は指向させ得る。一実施例によれば、ビデオ会議場所マップに関連付けて登録データを生成する。登録データは、ビデオ会議場所マップに含まれるビデオ会議場所を識別するデータ、及び、他のビデオ会議場所データなどの、ビデオ会議場所についての他のデータを含み得る。   At step 854, video conference location identification data is encoded. For example, the video conference location map generation process may generate a GR code for each video conference location. Each QR code may be represented by QR code data. At step 856, a video conference location map is generated that includes the encoded video conference location identification data. According to one embodiment, this includes generating video conference location map data representing the video conference location map. The generation of the video conference location map may be based on a scaled or unscaled layout of the building or buildings where the video conference location is located. As described above in the specification and claims, the video conference location map may include location information of the video conference location represented on the video conference location map. The location of the video conference location may be defined in the video conference location data, or the location may not be known, for example determined via GPS coordinates or based on relative position to other video conference locations Can do. The video conference location may be located on the video conference location map based on the location. The video conference location map may be scaled and / or oriented depending on the particular implementation. According to one embodiment, registration data is generated in association with the video conference location map. The registration data may include other data about the video conference location, such as data identifying the video conference location included in the video conference location map, and other video conference location data.

工程858では、ビデオ会議場所マップを更新すべきか否かについての判定を行う。例えば、ビデオ会議場所マップ生成処理は、ビデオ会議場所データ内のデータが変更され、したがって、現在のビデオ会議場所マップはもう正確でないことがあり得る旨を検出し得る。例えば、特定のビデオ会議場所におけるオーディオ/ビデオ機器、又は特定のビデオ会議場所の位置の変更により、ビデオ会議場所マップが更新され得る。場所における変更は、ビデオ会議場所データにおける変更に基づいて検出し得る。別の例として、ビデオ会議システム702は、場所における変更(例えば、特定のオーディオ/ビデオ機器の現在のgps座標が、オーディオ/ビデオ機器の保存されたgps座標にもう一致しない場合)を自動的に検出し得る。前述の判定を行ううえで、ビデオ会議場所マップ生成処理は、特定の実現形態に応じて、特定の時点において、又は規定された時間にわたり、ビデオ会議場所データを検査し得る。   At step 858, a determination is made as to whether the video conference location map should be updated. For example, the video conference location map generation process may detect that the data in the video conference location data has changed, and therefore the current video conference location map may no longer be accurate. For example, the video conference location map may be updated by changing the location of an audio / video device or a particular video conference location at a particular video conference location. Changes in location may be detected based on changes in video conference location data. As another example, video conferencing system 702 automatically changes in location (eg, if the current gps coordinate of a particular audio / video device no longer matches the saved gps coordinate of the audio / video device). It can be detected. In making the foregoing determination, the video conferencing location map generation process may examine the video conferencing location data at a particular point in time or over a specified time, depending on the particular implementation.

ビデオ会議場所マップを更新する必要がない場合、処理は工程860で完了する。工程858で、ビデオ会議場所マップを更新する必要がない旨が判定された場合、工程862において、ビデオ会議場所識別データを含む更新されたビデオ会議場所データを取り出す。例えば、ビデオ会議場所マップ生成処理は、更新されたビデオ会議場所データを取り出し得る。更新されたビデオ会議場所データは、1つ又は複数のビデオ会議場所において生じた変更を示す。例えば、既存のビデオ会議場所が移動するか、その名称又はステータスが変更される(例えば、オンラインからオフラインに変わる)か、又は、新たなビデオ会議場所が追加されることがあり得る。既存のビデオ会議場所について変更が行われると、ビデオ会議場所マップ上の対応するコード化されたビデオ会議場所識別データはもう正確でなく、更新する必要がある。   If the video conference location map does not need to be updated, the process is complete at step 860. If step 858 determines that the video conference location map does not need to be updated, step 862 retrieves updated video conference location data including video conference location identification data. For example, the video conference location map generation process may retrieve updated video conference location data. The updated video conference location data indicates changes that have occurred at one or more video conference locations. For example, an existing video conference location may move, its name or status may change (eg, change from online to offline), or a new video conference location may be added. When changes are made to an existing video conference location, the corresponding coded video conference location identification data on the video conference location map is no longer accurate and needs to be updated.

工程864では、ビデオ会議場所識別データがコード化され、工程866では、新たにコード化されたビデオ会議場所識別データを含む更新されたビデオ会議場所マップが生成される。一実施例では、ビデオ会議場所マップの更新は、(例えば、更新についてユーザに通知し、ビデオ会議場所マップが更新される前にユーザが更新を確認することを可能にすることによる)ユーザ関与を含み得る。新たにコード化されたビデオ会議場所識別データにより、データが更新されたビデオ会議場所の先行するビデオ会議場所識別データが置き換えられる。例えば、コード化されたビデオ会議場所識別データがQRコードとして表されるコンテキストでは、新たなQRコードにより、更新されたビデオ会議場所マップにおける先行するQRコードが置き換えられる。登録データは、更新されたビデオ会議サイト・マップを反映するよう更新し得る。処理は次いで、工程858に続き、工程858−866は、ステータスにおける変更が生じる限り、反復し得る。一実施例によれば、更新されたビデオ会議場所マップを生成する処理は、ユーザ(例えば、管理者)が、更新されたビデオ会議場所マップを要求することに応じて行い得る。ビデオ会議場所マップ生成処理は、ユーザがビデオ会議場所データを管理し、当初の、又は更新されたビデオ会議場所マップを要求することを可能にするグラフィカル・ユーザ・インタフェースを提供し得る。一実施例によれば、ビデオ会議場所マップは、ビデオ会議場所間で現行のビデオ会議セッションが進行中であることを可視的に表し得る。例えば、2つのビデオ会議場所間でビデオ会議セッションが開始されているとの判定に応じて、ビデオ会議場所マップ生成処理は、(例えば、2つのビデオ会議場所間のビデオ会議場所マップ上に、ラベリングされた線を引くことにより、又は特定の色で2つのビデオ会議場所を強調表示することにより、)2つのビデオ会議場所間でビデオ会議セッションが開始されている旨を可視的に示す更新されたビデオ会議マップを生成する。   At step 864, the video conference location identification data is encoded, and at step 866, an updated video conference location map that includes the newly encoded video conference location identification data is generated. In one embodiment, an update of the video conference location map may involve user involvement (eg, by notifying the user about the update and allowing the user to confirm the update before the video conference location map is updated). May be included. The newly encoded video conference location identification data replaces the previous video conference location identification data of the video conference location with the updated data. For example, in a context where the encoded video conference location identification data is represented as a QR code, the new QR code replaces the previous QR code in the updated video conference location map. The registration data may be updated to reflect the updated video conference site map. Processing then continues to step 858, and steps 858-866 may be repeated as long as a change in status occurs. According to one embodiment, the process of generating an updated video conference location map may be performed in response to a user (eg, an administrator) requesting an updated video conference location map. The video conference location map generation process may provide a graphical user interface that allows a user to manage video conference location data and request an initial or updated video conference location map. According to one embodiment, the video conference location map may visually represent that a current video conference session is in progress between video conference locations. For example, in response to determining that a video conference session has begun between two video conference locations, the video conference location map generation process may label (eg, on a video conference location map between two video conference locations. Updated to visually indicate that a video conference session has begun between the two video conference locations (by drawing a drawn line or highlighting the two video conference locations in a specific color) Generate a video conference map.

(7)モバイル装置
モバイル装置704は何れのタイプのモバイル装置であってもよく、手法は何れの特定のタイプのモバイル装置にも限定されない。モバイル装置704の例には、限定列挙でないが、パソコン、ラップトップ・コンピュータ。タブレット・コンピュータ、携帯情報端末(PDA)、及び電話装置を含む。一実施例によれば、モバイル装置704は、ビデオ会議場所マップからビデオ会議場所識別データを獲得することができるデータ獲得装置を含む。特定の実現形態に応じて多種多様なデータ獲得装置を使用し得、実施例は何れの特定のタイプのデータ獲得装置にも限定されない。例示的なデータ獲得装置には、限定列挙なしで、RFIDスキャナ、UPCコード、バーコード、及び/又はQRコードを走査するスキャナ、カメラを含む。例えば、モバイル装置704は、第1のビデオ会議場所に対応する第1のQRコードの第1の画像データ及び第2のビデオ会議場所に対応する第2のQRコードの第2の画像データをビデオ会議マップから捕捉するカメラで構成し得る。モバイル装置704は、第1のビデオ会議場所及び第2のビデオ会議場所のビデオ会議場所識別データを第1の画像データ及び第2の画像データから得るよう第1の画像データ及び第2の画像データを処理するためにコンピュータ・ハードウェア、コンピュータ・ソフトウェア、又は、コンピュータ・ハードウェア及びコンピュータ・ソフトウェアの何れかの組合せで更に構成し得る。モバイル装置704は、第1のビデオ会議場所及び第2のビデオ会議場所のビデオ会議場所識別データをビデオ会議システム702に送信して、第1のビデオ会議場所と第2のビデオ会議場所との間でビデオ会議セッションを確立する。モバイル装置704は、何れかの数の上記データ獲得装置で構成し得、特定の実現形態に応じて他のタイプのデータ獲得装置で構成し得る。一実施例によれば、モバイル装置704は、ビデオ会議場所間でビデオ会議セッションをユーザが容易に確立することを可能にするビデオ会議コンポーザ・アプリケーション720及びデータ獲得装置718で構成される。
(7) Mobile device The mobile device 704 may be any type of mobile device, and the approach is not limited to any particular type of mobile device. Examples of mobile device 704 include, but are not limited to, a personal computer, a laptop computer. Includes tablet computers, personal digital assistants (PDAs), and telephone devices. According to one embodiment, mobile device 704 includes a data acquisition device that can acquire video conference location identification data from a video conference location map. A wide variety of data acquisition devices may be used depending on the particular implementation, and embodiments are not limited to any particular type of data acquisition device. Exemplary data acquisition devices include scanners, cameras that scan RFID scanners, UPC codes, bar codes, and / or QR codes without limiting listing. For example, the mobile device 704 can video the first image data of the first QR code corresponding to the first video conference location and the second image data of the second QR code corresponding to the second video conference location. It can consist of cameras captured from the conference map. The mobile device 704 includes first image data and second image data to obtain video conference location identification data for the first video conference location and the second video conference location from the first image data and the second image data. May be further comprised of computer hardware, computer software, or any combination of computer hardware and computer software. The mobile device 704 transmits the video conference location identification data of the first video conference location and the second video conference location to the video conference system 702 between the first video conference location and the second video conference location. Establish a video conference session with. The mobile device 704 may be configured with any number of the above data acquisition devices, and may be configured with other types of data acquisition devices depending on the particular implementation. According to one embodiment, the mobile device 704 is comprised of a video conference composer application 720 and a data acquisition device 718 that allow a user to easily establish a video conference session between video conference locations.

図9Aは、モバイル装置704の例示的な実施例を表すブロック図である。この例では、モバイル装置704は、(例えばスタイラス902を介して)ユーザ入力を受け取り、ユーザに向けて情報を表示する画面タッチパッド900を含む。モバイル装置704は更に、ユーザ入力を受け取るためのユーザ・インタフェース制御部904も含む。ユーザ・インタフェース制御部904の例は限定列挙でないが、ボタン、スライダ、及びセレクタを含む。モバイル装置704は、指紋や網膜スキャン等などのユーザ生体データを受け取るための生体入力906を含む。生体データは例えば、モバイル装置704へのアクセスを可能にする前にユーザを認証するためにデータを使用し得る。モバイル装置704は、モバイル装置704の前部に接続されたデータ獲得装置912、バッテリ・モニタ910、及びマイクロフォンを含む。モバイル装置704は、1つ又は複数のサービスを提供する1つ又は複数のアプリケーションを含む。図9Aに表すように、アプリケーション毎のグラフィカル・ユーザ・インタフェース・オブジェクトが画面/タッチパッド900上に表示される。図9Aでは、グラフィカル・ユーザ・インタフェース・オブジェクトはアプリケーションをApp1、App2、App3、App4、App5、及びビデオ会議コンポーザ・アプリケーション914として識別する。ビデオ会議コンポーザ・アプリケーション914は、ユーザがモバイル装置704を使用して、2つ以上のビデオ会議場所間でビデオ会議セッションを確立することを可能にする。   FIG. 9A is a block diagram illustrating an exemplary embodiment of mobile device 704. In this example, mobile device 704 includes a screen touchpad 900 that receives user input (eg, via stylus 902) and displays information to the user. The mobile device 704 further includes a user interface controller 904 for receiving user input. Examples of user interface controller 904 include, but are not limited to, buttons, sliders, and selectors. The mobile device 704 includes a biometric input 906 for receiving user biometric data such as fingerprints and retinal scans. The biometric data may use the data to authenticate the user before allowing access to the mobile device 704, for example. Mobile device 704 includes a data acquisition device 912, a battery monitor 910, and a microphone connected to the front of mobile device 704. The mobile device 704 includes one or more applications that provide one or more services. As shown in FIG. 9A, a graphical user interface object for each application is displayed on the screen / touchpad 900. In FIG. 9A, the graphical user interface object identifies the application as App 1, App 2, App 3, App 4, App 5, and video conferencing composer application 914. Video conference composer application 914 allows a user to establish a video conference session between two or more video conference locations using mobile device 704.

図9Bは、ビデオ会議コンポーザ・アプリケーション914により、画面/タッチパッド900上に生成され、表示される例示的なグラフィカル・ユーザ・インタフェース画面を表す。ビデオ会議コンポーザ・アプリケーション914は、ビデオ会議セッションにおいて参加するよう選択されているビデオ会議場所のリスト916を含む。この例では、ビデオ会議場所「西会議室」及び「欧州オフィス」がリスト916に追加されている。ビデオ会議コンポーザ・アプリケーション914は、ビデオ会議場所をリスト916に追加し、ビデオ会議場所をリスト916から除外するためのユーザ・インタフェース制御部を含む。ユーザ・インタフェース制御部は、「ビデオ会議場所追加」ボタン918及び「ビデオ会議場所除外」ボタン920それぞれを、ビデオ会議場所をリスト916に追加し、ビデオ会議場所をリスト916から除外するために含む。一実施例によれば、「ビデオ会議場所追加」ボタン918の選択により、データ獲得装置912がビデオ会議場所マップからビデオ会議場所識別データを獲得することを可能にするようデータ獲得装置912を起動させる。ビデオ会議場所識別データがビデオ会議場所マップから獲得されると、獲得されたビデオ会議場所識別データに対応するビデオ会議場所について、ビデオ会議場所のリスト916にグラフィカル・ユーザ・インタフェース・オブジェクトが追加される。「ビデオ会議場所除外」ボタン920を選択するとともに、参加しているビデオ会議場所のリスト914に表示されたグラフィカル・ユーザ・インタフェース・オブジェクトを選択することにより、対応する獲得されたビデオ会議場所識別データとともに、参加しているビデオ会議場所のリスト914に表示されたグラフィカル・ユーザ・インタフェース・オブジェクトが削除される。   FIG. 9B represents an exemplary graphical user interface screen that is generated and displayed on screen / touchpad 900 by video conferencing composer application 914. The video conference composer application 914 includes a list 916 of video conference locations that are selected to participate in the video conference session. In this example, the video conference locations “West Conference Room” and “European Office” have been added to the list 916. Video conference composer application 914 includes a user interface controller for adding video conference locations to list 916 and excluding video conference locations from list 916. The user interface controller includes an “add video conference location” button 918 and an “exclude video conference location” button 920, respectively, to add video conference locations to the list 916 and exclude video conference locations from the list 916. According to one embodiment, selection of the “add video conference location” button 918 activates the data acquisition device 912 to enable the data acquisition device 912 to acquire video conference location identification data from the video conference location map. . When the video conference location identification data is obtained from the video conference location map, a graphical user interface object is added to the video conference location list 916 for the video conference location corresponding to the obtained video conference location identification data. . By selecting the “exclude video conference location” button 920 and selecting the graphical user interface object displayed in the list 914 of participating video conference locations, the corresponding acquired video conference location identification data At the same time, the graphical user interface object displayed in the list 914 of participating video conference places is deleted.

ビデオ会議コンポーザ・アプリケーション914上のユーザ・インタフェース制御部は、選択されると、参加しているビデオ会議場所のリスト914に示されたビデオ会議場所間でビデオ会議セッションを開始させる「ビデオ会議セッション開始」ボタン922も含む。「出口」ボタン924は、ユーザがビデオ会議コンポーザ・アプリケーション914を出ることを可能にする。ビデオ会議コンポーザ・アプリケーション914は、特定の実現形態に応じて変わり得る他の制御部及び機能を含み得、実施例は図9Bに表す特定の制御部及び機能に限定されない。限定でない例の1つとして、ビデオ会議コンポーザ・アプリケーション914は、参加している場所間で接続のタイプをユーザが選択することを可能にするユーザ・インタフェース制御部を含み得る。例えば、ユーザ・インタフェース制御部は、音声接続、データ接続、ビデオ会議セッション、共有ホワイトボード・セッション等をユーザが選択することを可能にし得る。   When selected, the user interface controller on the video conference composer application 914 initiates a video conference session between the video conference locations shown in the list 914 of participating video conference locations. ”Button 922 is also included. An “exit” button 924 allows the user to exit the video conference composer application 914. The video conferencing composer application 914 may include other controls and functions that may vary depending on the particular implementation, and embodiments are not limited to the particular controls and functions depicted in FIG. 9B. As one non-limiting example, video conferencing composer application 914 may include a user interface controller that allows a user to select the type of connection between participating locations. For example, the user interface controller may allow the user to select an audio connection, a data connection, a video conference session, a shared whiteboard session, etc.

(8)モバイル装置を使用してビデオ会議セッションを確立する
図10は、モバイル装置を使用してビデオ会議セッションを確立する手法を表すフロー図1000である。工程1002では、ビデオ会議コンポーザ・アプリケーションがモバイル装置上で起動される。例えば、ユーザは、ビデオ会議コンポーザ・アプリケーション914に関連付けられたグラフィカル・インタフェース・オブジェクトを画面タッチパッド900上で選択してビデオ会議コンポーザ・アプリケーションを起動させ得る。
(8) Establishing Video Conferencing Session Using Mobile Device FIG. 10 is a flow diagram 1000 representing a technique for establishing a video conferencing session using a mobile device. At step 1002, a video conferencing composer application is launched on the mobile device. For example, the user may select a graphical interface object associated with the video conference composer application 914 on the screen touchpad 900 to launch the video conference composer application.

工程1004では、ビデオ会議場所を追加する旨の要求が受信されているか否かを判定する。例えば、ユーザは、画面/タッチパッド900上に表示された「ビデオ会議場所追加」ボタン918を選択して、参加しているビデオ会議場所のリスト916にビデオ会議場所が追加される旨を要求し得る。肯定の場合、工程1006で、ビデオ会議場所識別データが獲得され、参加しているビデオ会議場所のリスト916が、対応するビデオ会議場所が追加されている旨を示すよう更新される。例えば、ユーザは、モバイル装置704を物理的にQRコード802のごく近傍に配置し、画面/タッチパッド900上に表示された「ビデオ会議場所追加」ボタン918を選択して、データ獲得装置912に、QRコードを走査させ、「西会議室」ビデオ会議場所のビデオ会議場所識別データを獲得させ得る。代替策として、ユーザはまず、「ビデオ会議場所追加」ボタン918を選択して、データ獲得装置912を起動させ、次いで、モバイル装置704を物理的にQRコード802のごく近傍に配置させて、データ獲得装置912が、「西会議室」ビデオ会議場所のビデオ会議場所識別データを獲得することを可能にし得る。モバイル装置704は、ビデオ会議場所識別データを記憶し、ビデオ会議場所が追加された旨を示すよう、参加しているビデオ会議場所のリスト916を更新する。一実施例によれば、特定のビデオ会議場所が追加された後、特定のビデオ会議場所が、現在、ビデオ会議セッションに参加する準備ができており、ビデオ会議セッションに参加するうえで利用可能であるか否かの判定が行われる。否定の場合、ユーザは、例えば画面/タッチパッド900を介して通知される。ユーザには、特定のビデオ会議場所を追加せず、別のビデオ会議場所を追加する旨の代替策が与えられ得る。   In step 1004, it is determined whether a request to add a video conference location has been received. For example, the user may select the “add video conference location” button 918 displayed on the screen / touchpad 900 to request that the video conference location be added to the list 916 of participating video conference locations. obtain. If yes, at step 1006 video conference location identification data is obtained and the list 916 of participating video conference locations is updated to indicate that the corresponding video conference location has been added. For example, the user physically places the mobile device 704 in close proximity to the QR code 802 and selects the “add video conference location” button 918 displayed on the screen / touchpad 900 to enter the data acquisition device 912. , The QR code may be scanned to obtain video conference location identification data for the “West Conference Room” video conference location. As an alternative, the user first selects the “add video conference location” button 918 to activate the data acquisition device 912 and then physically places the mobile device 704 in close proximity to the QR code 802 to provide data An acquisition device 912 may allow to acquire video conference location identification data for a “West Conference Room” video conference location. The mobile device 704 stores the video conference location identification data and updates the list 916 of participating video conference locations to indicate that the video conference location has been added. According to one embodiment, after a specific video conference location is added, the specific video conference location is now ready to participate in a video conference session and is available to participate in the video conference session. A determination is made whether or not there is. In the negative case, the user is notified via the screen / touchpad 900, for example. The user may be given an alternative to adding another video conference location without adding a specific video conference location.

当該処理は次いで、工程1008に進み、工程1008では、ビデオ会議場所を除外する旨の要求が受信されているか否かの判定が行われる。例えば、ユーザは、参加しているビデオ会議場所のリスト916に表示されたグラフィカル・ユーザ・インタフェース・オブジェクトを選択し、次いで、画面/タッチパッド900上に表示された「ビデオ会議場所除外」ボタン920を選択して、参加しているビデオ会議場所のリスト916から、選択されたビデオ会議場所を除外することを要求し得る。肯定の場合、工程1010で、選択されたビデオ会議場所のビデオ会議場所識別データがモバイル装置704から削除され、グラフィカル・ユーザ・インタフェース・オブジェクトが、参加しているビデオ会議場所のリスト916から削除される。   The process then proceeds to step 1008, where a determination is made whether a request to exclude a video conference location has been received. For example, the user selects a graphical user interface object displayed in the list of participating video conference locations 916 and then displays an “exclude video conference location” button 920 displayed on the screen / touchpad 900. To request that the selected video conference location be excluded from the list 916 of participating video conference locations. If yes, at step 1010, the video conference location identification data for the selected video conference location is deleted from the mobile device 704 and the graphical user interface object is deleted from the list of participating video conference locations 916. The

工程1012では、ビデオ会議セッションを開始する旨の要求が受信されているか否かが判定される。例えば、ユーザは、画面/タッチパッド900上に表示された「ビデオ会議セッション開始」ボタン922を選択して、ビデオ会議セッションを開始させる旨を要求し得る。肯定の場合、工程1014で、ビデオ会議セッションを開始する旨の要求がビデオ会議システム702上のビデオ会議セッション・マネージャ712に送信される。要求は例えば、SIP INVITE要求であり得る。要求は、参加しているビデオ会議場所のリスト916上のビデオ会議場所のビデオ会議場所識別データを含む。ビデオ会議セッション・マネージャ712は、要求を処理し、メッセージを生成し、ビデオ会議セッションに参加する各ビデオ会議場所上のビデオ会議セッション・エージェント708に送信する。参加している各ビデオ会議場所上のビデオ会議セッション・エージェント708はメッセージを処理し、ビデオ会議セッションを確立する。参加している各ビデオ会議場所上のビデオ会議セッション・エージェント708は更に、ビデオ会議セッションが確立された旨を示すようその対応するビデオ会議セッション・データ710を更新し得る。   In step 1012, it is determined whether a request to start a video conference session has been received. For example, the user may select the “Start Video Conference Session” button 922 displayed on the screen / touchpad 900 to request that a video conference session be started. If yes, at step 1014 a request to start a video conference session is sent to the video conference session manager 712 on the video conference system 702. The request can be, for example, a SIP INVITE request. The request includes video conference location identification data for the video conference location on the list 916 of participating video conference locations. Video conference session manager 712 processes the request, generates a message, and sends it to video conference session agent 708 on each video conference location that participates in the video conference session. A video conference session agent 708 on each participating video conference location processes the message and establishes a video conference session. The video conference session agent 708 on each participating video conference location may further update its corresponding video conference session data 710 to indicate that a video conference session has been established.

ビデオ会議セッションが首尾よく開始されると、ビデオ会議セッション・マネージャ712は、ビデオ会議セッションが首尾よく開始された旨を示すようビデオ会議セッション・データを更新する。ビデオ会議セッション・マネージャ712は、ビデオ会議セッションが首尾よく開始された旨を確認する確認データをモバイル装置704に提供し得る。確認データの受信に応じて、モバイル装置704は、ビデオ会議コンポーザ・アプリケーション914を介して、ビデオ会議セッションが首尾よく開始された旨についてメッセージを表示するか、又は別のやり方で示し得る。工程1016では、ビデオ会議コンポーザ・アプリケーション914が次いで終了する。   If the video conference session is successfully initiated, video conference session manager 712 updates the video conference session data to indicate that the video conference session has been successfully initiated. Video conferencing session manager 712 may provide confirmation data to mobile device 704 confirming that the video conferencing session has been successfully initiated. In response to receipt of the confirmation data, the mobile device 704 may display a message or otherwise indicate via the video conference composer application 914 that the video conference session has been successfully initiated. In step 1016, the video conferencing composer application 914 then exits.

工程1012で、ビデオ会議セッションを開始する旨の要求が受信されていない場合、工程1018で、ビデオ会議コンポーザ・アプリケーション914を出る旨の要求が受信されたか否かが判定される。例えば、ユーザは、ビデオ会議コンポーザ・アプリケーション914を出る旨の要求を示すよう「出口」ボタン924を選択し得る。ビデオ会議コンポーザ・アプリケーション914を出る旨の要求が受信されている場合、ビデオ会議コンポーザ・アプリケーション914は工程1016で終了する。否定の場合、処理は工程1004に続く。   If, at step 1012, a request to start a video conference session has not been received, it is determined at step 1018 whether a request to exit video conference composer application 914 has been received. For example, the user may select an “exit” button 924 to indicate a request to exit the video conference composer application 914. If a request to exit video conference composer application 914 has been received, video conference composer application 914 ends at step 1016. If not, processing continues at step 1004.

図10のフロー図1000は例示的な工程順序を表すが、実施例は、この例示的な順序に限定されず、図10に表す工程は特定の実現形態に応じて種々の順序で行い得る。更に、数多くの変形及び拡張を実現し得る。例えば、ビデオ会議セッションが開始されると、ビデオ会議コンポーザ・アプリケーション914は終了しなくてもよく、例えば、ビデオ会議セッションに関するステータスを提供するために実行し続け得る。ビデオ会議コンポーザ・アプリケーション914は、ビデオ会議セッションの現在の持続時間、種々の品質メトリック等などの他の情報とともに、ビデオ会議セッションのステータスの画面/タッチパッド900上の可視的な表示をもたらし得る。ビデオ会議コンポーザ・アプリケーション914は更に、ビデオ会議セッションのユーザ(すなわち、ビデオ会費セッションが開始された際に含められた参加しているビデオ会議場所のユーザ)を示し得る。   Although the flow diagram 1000 of FIG. 10 illustrates an exemplary process order, the examples are not limited to this exemplary order, and the processes illustrated in FIG. 10 may be performed in various orders depending on the particular implementation. In addition, many variations and extensions can be realized. For example, once a video conference session is initiated, the video conference composer application 914 may not terminate and may continue to run, for example, to provide status regarding the video conference session. The video conference composer application 914 may provide a visual display on the screen / touchpad 900 of the status of the video conference session, along with other information such as the current duration of the video conference session, various quality metrics, etc. The video conference composer application 914 may further indicate the user of the video conference session (ie, the user at the participating video conference location that was included when the video fee session was initiated).

ビデオ会議コンポーザ・アプリケーション914は更に、進行中のビデオ会議セッションに対して措置をとることを可能にし得る。例えば、ビデオ会議場所は、ビデオ会議コンポーザ・アプリケーション914を介して、進行中のビデオ会議セッションに追加し、又は進行中のビデオ会議セッションから除外し得る。このことは、例えば、「ビデオ会議場所追加」ボタン918及び「ビデオ会議場所除外」ボタン920を使用して実現し得る。別の例として、進行中のビデオ会議セッションはモバイル装置704を介して終了させ得る。ビデオ会議コンポーザ・アプリケーション914は、選択されると、ビデオ会議セッションを終了させる旨のコマンドをビデオ会議コンポーザ・アプリケーション914に生成させ、ビデオ会議システム702に送信させる「ビデオ会議セッション終了」ボタンの形態でグラフィカル・ユーザ・インタフェース・オブジェクトを提供し得る。   The video conference composer application 914 may further allow actions to be taken on an ongoing video conference session. For example, a video conference location may be added to or excluded from an ongoing video conference session via the video conference composer application 914. This may be accomplished using, for example, an “add video conference location” button 918 and an “exclude video conference location” button 920. As another example, an ongoing video conference session may be terminated via mobile device 704. When selected, the video conference composer application 914 causes the video conference composer application 914 to generate a command to terminate the video conference session and send it to the video conference system 702 in the form of an “end video conference session” button. A graphical user interface object may be provided.

図9Cは、アクティブなビデオ会議セッションを示すボックス950により、ビデオ会議コンポーザ・アプリケーション914を表す。この例では、「ビデオ会議#1」、「ビデオ会議#2」、及び「ビデオ会議#3」として識別されたアクティブな3つのビデオ会議セッションが存在している。前述のアクティブなビデオ会議セッションはそれぞれ、選択されると、ビデオ会議セッションのユーザ・インタフェース制御部(図示せず)の組に対するアクセスを提供する対応する「編集」ボタン952、954、956それぞれを有する。前述の制御部は、ユーザが、例えば、アクティブなビデオ会議セッションについての詳細なステータス情報を取得し、アクティブなビデオ会議セッションに対してビデオ会議場所を追加若しくは削除し、又は、アクティブなビデオ会議セッションを終了させることを可能にし得る。   FIG. 9C represents the video conference composer application 914 with a box 950 indicating an active video conference session. In this example, there are three active video conference sessions identified as “Video Conference # 1”, “Video Conference # 2”, and “Video Conference # 3”. Each of the aforementioned active video conferencing sessions, when selected, has a corresponding “edit” button 952, 954, 956, respectively, that provides access to a set of video conferencing session user interface controls (not shown). . The control unit described above allows the user to obtain detailed status information about, for example, an active video conference session, add or delete a video conference location from the active video conference session, or an active video conference session May be allowed to terminate.

図11は、実施例により、ビデオ会議セッションを確立する際のビデオ会議装置700のエレメント間のメッセージの例示的な交換を表す図1100である。モバイル装置704のユーザは、例えば、ビデオ会議コンポーザ・アプリケーション914に関連付けられたアイコンを画面/タッチパッド900上で選択することにより、ビデオ会議コンポーザ・アプリケーション914を開始する旨の要求1102を行う。要求1102に応じて、工程1104で、モバイル装置704はビデオ会議コンポーザ・アプリケーション914を開始させる。ビデオ会議コンポーザ・アプリケーション914は、ビデオ会議セッションを開始させることに対するいくつかの代替策(例えば、図9Bに対して本明細書及び特許請求の範囲で記載した代替策)を提供する。   FIG. 11 is a diagram 1100 representing an exemplary exchange of messages between elements of video conferencing device 700 when establishing a video conference session, according to an embodiment. A user of the mobile device 704 makes a request 1102 to start the video conference composer application 914, for example, by selecting an icon associated with the video conference composer application 914 on the screen / touchpad 900. In response to request 1102, at step 1104, mobile device 704 initiates video conferencing composer application 914. The video conferencing composer application 914 provides several alternatives for initiating a video conferencing session (eg, the alternatives described herein and with respect to FIG. 9B).

工程1106では、ユーザは、例えば、ビデオ会議コンポーザ・アプリケーション914上の「ビデオ会議場所追加」ボタン918を選択することにより、ビデオ会議場所を追加する旨の要求を行う。工程1108で、モバイル装置704は、第1のビデオ会議場所のコード化されたビデオ会議場所識別データを獲得する。例えば、ユーザは、ビデオ会議場所マップ706の近傍にモバイル装置704を移動させて、データ獲得装置912が、ビデオ会議場所VCS1のコード化ビデオ会議場所識別データを読み取り、又は走査することを可能にする。モバイル装置は更に、ビデオ会議場所VCS1のコード化されたビデオ会議場所識別データを復号化してビデオ会議場所VCS1の元のビデオ会議場所識別データを獲得し得る。ビデオ会議場所VCS1のコード化されたビデオ会議場所識別データを首尾よく獲得し、復号化した後、モバイル装置704は、例えば、可視又は可聴の通知を提供することにより、ビデオ会議コンポーザ・アプリケーション914を介してユーザに向けて確認を提供し得る。   In step 1106, the user makes a request to add a video conference location, for example, by selecting an “add video conference location” button 918 on the video conference composer application 914. At step 1108, the mobile device 704 obtains encoded video conference location identification data for the first video conference location. For example, the user moves the mobile device 704 in the vicinity of the video conference location map 706 to allow the data acquisition device 912 to read or scan the encoded video conference location identification data for the video conference location VCS1. . The mobile device may further decode the encoded video conference location identification data of the video conference location VCS1 to obtain the original video conference location identification data of the video conference location VCS1. After successfully acquiring and decoding the encoded video conference location identification data for video conference location VCS1, mobile device 704 may, for example, provide video conference composer application 914 by providing a visual or audible notification. Confirmation may be provided to the user via

工程1110では、ユーザは、例えば、ビデオ会議コンポーザ・アプリケーション914上の「ビデオ会議場所追加」ボタン918を再び選択することにより、別のビデオ会議場所を追加する旨の要求を行う。工程1112で、モバイル装置704は、第2のビデオ会議場所のコード化されたビデオ会議場所識別データを獲得する。例えば、ユーザは、ビデオ会議場所マップ706の近傍にモバイル装置704を移動させて、データ獲得装置912が、ビデオ会議場所VCS6のコード化ビデオ会議場所識別データを読み取り、又は走査することを可能にする。モバイル装置は更に、ビデオ会議場所VCS6のコード化されたビデオ会議場所識別データを復号化してビデオ会議場所VCS6の元のビデオ会議場所識別データを獲得し得る。ビデオ会議場所VCS6のコード化された第2のビデオ会議場所識別データを首尾よく獲得し、復号化した後、モバイル装置704は、例えば、可視又は可聴の通知を提供することにより、ビデオ会議コンポーザ・アプリケーション914を介してユーザに向けて確認を提供し得る。   At step 1110, the user makes a request to add another video conference location, for example, by selecting the “add video conference location” button 918 on the video conference composer application 914 again. At step 1112, the mobile device 704 obtains encoded video conference location identification data for the second video conference location. For example, the user moves the mobile device 704 in the vicinity of the video conference location map 706 to allow the data acquisition device 912 to read or scan the encoded video conference location identification data for the video conference location VCS6. . The mobile device may further decode the encoded video conference location identification data of the video conference location VCS6 to obtain the original video conference location identification data of the video conference location VCS6. After successfully acquiring and decoding the encoded second video conference location identification data of the video conference location VCS 6, the mobile device 704 may, for example, provide a visual or audible notification to Confirmation may be provided to the user via application 914.

工程1114では、ユーザは、例えば、ビデオ会議コンポーザ・アプリケーション914上の「ビデオ会議セッション開始」ボタン922を選択することにより、ビデオ会議セッション1114を開始する旨を要求する。この要求に応じて、工程1116で、モバイル装置704上のビデオ会議コンポーザ・アプリケーション720は、ビデオ会議システム702上のビデオ会議セッション・マネージャ712にビデオ会議セッションを開始させる旨の要求を送出する。要求は、ビデオ会議場所VCS1及びVCS2のビデオ会議場所識別データを含む。この要求の受信に応じて、工程1118で、ビデオ会議セッション・マネージャ712は、ビデオ会議場所VCS1及びVCS6の間のビデオ会議セッションを開始させる旨のコマンドを、ビデオ会議場所VCS1上及びVCS6上のビデオ会議セッション・エージェント708に送信する。例えば、ビデオ会議セッションはSIPを使用して確立し得る。ビデオ会議コンポーザ・アプリケーション720は、ビデオ会議場所VCS1乃至VCS6間でビデオ会議セッションが確立された旨の確認をビデオ会議場所VCS1上及びビデオ会議場所VCS6上(の一方又は両方)のビデオ会議セッション・エージェント708から受け取り得る。工程1120では、ビデオ会議セッション・マネージャ712は、ビデオ会議場所VCS1及びVCS6間でビデオ会議セッションが確立された旨を確認する確認メッセージを生成し、モバイル装置704に送信し、ビデオ会議コンポーザ・アプリケーション914は、ビデオ会議セッションが確立された旨を確認する可視又は可聴の表示をユーザに向けて提供し得る。   In step 1114, the user requests to start a video conference session 1114, for example, by selecting a “start video conference session” button 922 on the video conference composer application 914. In response to this request, at step 1116, the video conference composer application 720 on the mobile device 704 sends a request to the video conference session manager 712 on the video conference system 702 to initiate a video conference session. The request includes video conference location identification data for video conference locations VCS1 and VCS2. In response to receiving this request, at step 1118, video conferencing session manager 712 issues a command to initiate a video conferencing session between video conferencing locations VCS1 and VCS6 on video conferencing locations VCS1 and VCS6. Sent to conference session agent 708. For example, a video conference session may be established using SIP. The video conference composer application 720 confirms that a video conference session has been established between the video conference locations VCS1 to VCS6 and the video conference session agent on the video conference location VCS1 and / or the video conference location VCS6. 708. In step 1120, video conference session manager 712 generates a confirmation message confirming that a video conference session has been established between video conference locations VCS 1 and VCS 6, and sends it to mobile device 704 for video conference composer application 914. May provide a visual or audible indication to the user confirming that a video conference session has been established.

モバイル装置704上のビデオ会議コンポーザ・アプリケーション720が、ビデオ会議システム702上のビデオ会議セッション・マネージャ712に、ビデオ会議セッションを開始する旨の要求を送出する工程1116に対する代替策として、工程1122では、モバイル装置704上のビデオ会議コンポーザ・アプリケーション720は、ビデオ会議場所VCS1上及びビデオ会議場所VCS6上のビデオ会議セッション・エージェント708に直接、ビデオ会議セッションを開始する旨の要求を送出する。工程1124では、ビデオ会議場所VCS1上及びビデオ会議場所VCS6上の一方又は両方のビデオ会議セッション・エージェント708は、ビデオ会議場所VCS1及びビデオ会議場所VCS6間でビデオ会議セッションが確立された旨を確認する確認メッセージを生成し、モバイル装置704上のビデオ会議コンポーザ・アプリケーション720に送信する。   As an alternative to step 1116 where the video conference composer application 720 on the mobile device 704 sends a request to the video conference session manager 712 on the video conference system 702 to initiate a video conference session, step 1122 includes: Video conference composer application 720 on mobile device 704 sends a request to start a video conference session directly to video conference session agent 708 on video conference location VCS1 and video conference location VCS6. At step 1124, one or both video conference session agents 708 on video conference location VCS1 and video conference location VCS6 confirm that a video conference session has been established between video conference location VCS1 and video conference location VCS6. A confirmation message is generated and sent to the video conference composer application 720 on the mobile device 704.

(9)コード化データを使用して情報に対するアクセスを提供する
コード化データを使用してオーディオ/ビデオ機器間で接続を設けるための本明細書及び特許請求の範囲記載の手法を使用して、他のやり方で情報に対するアクセスを提供することもできる。例えば、データ・ファイル及び対応するコード化識別子の組を識別するデータを、コンピュータ装置のグラフィカル・ユーザ・インタフェース上に表示し得る。例示的な識別子は、限定列挙でないが、ファイル識別子、URL、短縮URL、又はファイル名及びディレクトリ・パスの組合せを含み得る。コード化は、特定の実現形態に応じて変わり得る多種多様なコード化手法を使用して行い得、上記手法は何れかの特定のコード化手法に限定されない。例示的なコード化は、限定列挙でないが、GRコード、UPCコード、バーコード、色判別コード、及び3次元コードを含む。例示的なコンピュータ装置は、限定列挙でないが、デスクトップ・コンピュータ。ビデオ画面、及び電子ホワイトボードを含む。一実施例によれば、データ・ファイルの組に含まれるデータ・ファイルは、コンピュータ装置上(例えば、モバイル装置上)に表示することができるデータ・ファイルである。
(9) Providing access to information using coded data Using the techniques described herein and claims for providing a connection between audio / video devices using coded data, Access to information can also be provided in other ways. For example, data identifying a data file and a corresponding set of coded identifiers may be displayed on the graphical user interface of the computing device. Exemplary identifiers may include, but are not limited to, file identifiers, URLs, short URLs, or a combination of file name and directory path. Coding can be performed using a wide variety of coding techniques that can vary depending on the particular implementation, and the techniques are not limited to any particular coding technique. Exemplary encodings include, but are not limited to, a GR code, a UPC code, a bar code, a color discrimination code, and a three-dimensional code. An exemplary computing device is, but is not limited to, a desktop computer. Includes a video screen and an electronic whiteboard. According to one embodiment, the data files included in the set of data files are data files that can be displayed on a computing device (eg, on a mobile device).

データ・ファイル及び対応するコード化識別子を識別するデータ記述は、特定の実現形態に応じて、表示可能な単一頁上、又は表示可能な複数の頁上に表示し得る。例えば、データ・ファイル及び対応する識別子を識別するデータ記述は、一又は複数のウェブ・ページ上のリスト(例えば、データ・ファイル名それぞれの隣が、コード化された識別子であるデータ・ファイル名のリスト)として表示し得る。特定のコード化された識別子を選択すると、対応するデータ・ファイルが取り出され、コンピュータ装置上に表示される。例えば、スキャナで構成されたモバイル装置のユーザは、特定のデータ記述に隣接する特定のコード化識別子を走査して、ユーザのモバイル装置上に、対応するデータ・ファイルを表示させる。ユーザの移動装置上に、対応するデータ・ファイルを表示させることは、例えば、ビデオ・ファイルの再生、画像ファイルの表示、画像の表示、PDFファイルの表示、又は音楽ファイルの再生を含み得る。この手法は、コード化データを使用して、装置上での情報のタッチ・フリー表示に対応する。   The data description identifying the data file and the corresponding coded identifier may be displayed on a single displayable page or multiple displayable pages, depending on the particular implementation. For example, a data description that identifies a data file and a corresponding identifier may be a list on one or more web pages (eg, a data file name with a coded identifier next to each data file name). List). Selecting a particular coded identifier retrieves the corresponding data file and displays it on the computing device. For example, a user of a mobile device configured with a scanner scans a particular coded identifier adjacent to a particular data description and displays the corresponding data file on the user's mobile device. Displaying the corresponding data file on the user's mobile device may include, for example, playing a video file, displaying an image file, displaying an image, displaying a PDF file, or playing a music file. This approach uses touch-free display of information on the device using coded data.

図12は、コード化されたデータを使用して情報に対するアクセスを提供するテーブル1200を表す。テーブル1200は、データの、人間が識別可能な記述を備えるデータ記述の列1202を含む。列1204は、列1202の記述に対応するコード化データ項目の組を含む。列1204におけるコード化データを獲得し、コード化する工程は、列1202に記述されたデータに対するアクセスを提供する。例えば、コード化データ項目1206を走査する工程は、西暦2013年2月27日より、患者のX線に対するアクセスを提供する。   FIG. 12 depicts a table 1200 that provides access to information using encoded data. The table 1200 includes a data description column 1202 comprising a human identifiable description of the data. Column 1204 includes a set of coded data items corresponding to the description in column 1202. Obtaining and encoding the encoded data in column 1204 provides access to the data described in column 1202. For example, scanning the encoded data item 1206 provides access to the patient's x-rays from February 27, 2013.

ナビゲーション制御部も、コード化されたデータを使用して設け得る。ナビゲーション制御部の選択により、対応するナビゲーション動作が生じる。例えば、スキャナなどのデータ獲得エレメントで構成されたモバイル装置のユーザは、コード化された特定のデータ項目を走査して、データ・ファイル記述及び対応するコード化された識別子の次ページにナビゲートし得る。同様に、ユーザは、コード化された別のデータ項目を選択して、対応するコード化識別子、及びデータ・ファイル記述の先行ページにナビゲートし得る。例えば、図12は、(例えば、走査によって)選択されると、テーブル1200と同様なテーブルを含む他のページへのナビゲーションを可能にするナビゲーション制御部1208を含む。   A navigation control may also be provided using coded data. Corresponding navigation operations occur by selection of the navigation control. For example, a user of a mobile device configured with a data acquisition element such as a scanner scans a specific encoded data item and navigates to the next page of the data file description and the corresponding encoded identifier. obtain. Similarly, the user can select another encoded data item and navigate to the corresponding encoded identifier and the preceding page of the data file description. For example, FIG. 12 includes a navigation control 1208 that, when selected (eg, by scanning), allows navigation to other pages that include a table similar to table 1200.

(10)実現機構
一実施例によれば、本明細書及び特許請求の範囲に記載の手法は、1つ又は複数の特殊用途向コンピュータ装置によって実現される。特殊用途向コンピュータ装置は、上記手法を行うために配線し得るか、あるいは、上記手法を行うよう永久的にプログラムされた1つ又は複数の特殊用途向集積回路(ASIC)又はフィールド・プログラマブル・ゲート・アレイ(FPGA)などのディジタル電子装置を含み得るか、あるいは、ファームウェア、メモリ、他の記憶手段、又は組合せでのプログラム命令に従って上記手法を行うようプログラムされた1つ又は複数の汎用ハードウェア・プロセッサを含み得る。前述の特殊用途向コンピュータ装置は、更に、上記手法を実現するために、カスタムなプログラミングと、カスタムなハードウェア配線ロジック、SIC、又はFPGAを組合せ得る。特殊用途向コンピュータは、上記手法を実現するために配線及び/又はプログラム・ロジックを組み入れたデスクトップ・コンピュータ・システム、ポータブル・コンピュータ・システム、ハンドヘルド装置、ネットワーキング装置、又は何れかの他の装置であり得る。
(10) Implementation mechanism According to one embodiment, the techniques described herein and in the claims are implemented by one or more special purpose computing devices. One or more special purpose computing devices may be wired to perform the above approach, or one or more special purpose integrated circuits (ASICs) or field programmable gates permanently programmed to perform the above approach One or more general-purpose hardware that may include digital electronic devices such as arrays (FPGAs) or programmed to perform the above techniques according to program instructions in firmware, memory, other storage means, or combinations A processor may be included. The special purpose computing device described above may further combine custom programming with custom hardware wiring logic, SIC, or FPGA to implement the above approach. A special purpose computer is a desktop computer system, portable computer system, handheld device, networking device, or any other device that incorporates wiring and / or program logic to implement the above approach. obtain.

図13は、実施例を実現し得る例示的なコンピュータ・システム1300を表すブロック図である。コンピュータ・システム1300は、情報を通信するためのバス1302又は他の通信機構、及び情報を処理するためにバス1302と結合されたプロセッサ1304を含む。コンピュータ・システム1300は、プロセッサ1304によって実行される対象の命令及び情報を記憶するためにバス1302に結合された、ランダム・アクセス・メモリ(RAM)又は他の動的記憶装置などの主メモリ1306を更に含む。主メモリ1306は更に、プロセッサ1304によって実行される対象の命令の実行中に一時変数又は他の中間情報を記憶するために使用し得る。コンピュータ・システム1300は更に、プロセッサ1304に対する命令及び静的情報を記憶するためにバス1302に結合されたリード・オンリ・メモリ(ROM)1308、又は他のスタティック記憶装置を更に含む。磁気ディスク又は光ディスクなどの記憶装置1310は、情報及び命令を記憶するために、提供され、バス1302に結合される。   FIG. 13 is a block diagram that illustrates an example computer system 1300 upon which an embodiment may be implemented. Computer system 1300 includes a bus 1302 or other communication mechanism for communicating information, and a processor 1304 coupled with bus 1302 for processing information. Computer system 1300 includes main memory 1306, such as random access memory (RAM) or other dynamic storage device, coupled to bus 1302 for storing instructions and information to be executed by processor 1304. In addition. Main memory 1306 may also be used to store temporary variables or other intermediate information during execution of instructions of interest for execution by processor 1304. Computer system 1300 further includes a read only memory (ROM) 1308 or other static storage device coupled to bus 1302 for storing instructions and static information for processor 1304. A storage device 1310, such as a magnetic disk or optical disk, is provided and coupled to the bus 1302 for storing information and instructions.

コンピュータ・システム1300は、情報をコンピュータ・ユーザに向けて表示するために、陰極線管(CRT)などのディスプレイ1312に、バス1302を介して結合し得る。バス1302は単一のバスとして例証しているが、バス1302は一又は複数のバスを含み得る。例えば、バス1302は、限定列挙でないが、プロセッサ1304がコンピュータ・システム1300内の他の装置を制御する制御バス、実行するための命令のメモリ場所をプロセッサ1304が規定するアドレス・バス、又は、コンピュータ・システム1300の構成部分間でデータ又は信号を転送するための何れかの他のタイプのバスを含み得る。   Computer system 1300 may be coupled via bus 1302 to a display 1312, such as a cathode ray tube (CRT), for displaying information to a computer user. Although bus 1302 is illustrated as a single bus, bus 1302 may include one or more buses. For example, the bus 1302 is not a limited listing, but a control bus where the processor 1304 controls other devices in the computer system 1300, an address bus where the processor 1304 defines the memory location of instructions to execute, or a computer May include any other type of bus for transferring data or signals between components of system 1300.

英数キー及び他のキーを含む入力装置1314が、情報及びコマンドの選択をプロセッサ1304に伝達するためにバス1302に結合される。別のタイプのユーザ入力装置は、方向情報及びコマンドの選択をプロセッサ1304に伝達するため、及びディスプレイ1312上のカーソル移動を制御するための、マウス、トラックボール、又はカーソル方向キーなどのカーソル制御部1316である。前述の入力装置は通常、装置が平面における位置を特定することを可能にする、2つの軸(すなわち、第1の軸(例えば、x)及び第2の軸(例えば、y))における2つの自由度を有する。   An input device 1314 including alphanumeric keys and other keys is coupled to bus 1302 for communicating information and command selections to processor 1304. Another type of user input device is a cursor control, such as a mouse, trackball, or cursor direction key, for communicating direction information and command selections to the processor 1304 and for controlling cursor movement on the display 1312. 1316. Such input devices typically allow two in two axes (i.e., a first axis (e.g., x) and a second axis (e.g., y)) that allow the device to determine a position in the plane. Has freedom.

コンピュータ・システム1300は、コンピュータ・システムとの組合せで、特殊用途向マシンにコンピュータ・システム1300がなるようにするか又は特殊用途向マシンにコンピュータ・システム1300がなるようにプログラムするカスタムの配線ロジック、1つ又は複数のASIC若しくはFPGA、ファームウェア及び/又はプログラム・ロジック若しくはコンピュータ・ソフトウェアを使用して本明細書及び特許請求の範囲記載の手法を実現し得る。一実施例によれば、前述の手法は、主メモリ1306に含まれた1つ又は複数の命令の1つ又は複数のシーケンスをプロセッサ1304が実行することに応じてコンピュータ・システム1300によって行われる。前述の命令は、記憶装置1310などのコンピュータ読み取り可能な別の媒体から主メモリ1306に読み込み得る。主メモリ1306に含まれる命令のシーケンスの実行により、プロセッサ1304は本明細書及び特許請求の範囲記載の処理工程を行う。代替的な実施例では、配線回路を、ソフトウェア命令の代わりに、又はソフトウェア命令と組み合わせて使用して実施例を実現し得る。よって、実施例は、ハードウェア回路及びソフトウェアの何れの特別な組合せにも限定されない。   The computer system 1300, in combination with a computer system, allows custom wiring logic to program the computer system 1300 to be a special purpose machine or to be a computer system 1300 to a special purpose machine, One or more ASICs or FPGAs, firmware and / or program logic or computer software may be used to implement the techniques described herein. According to one embodiment, the foregoing approach is performed by computer system 1300 in response to processor 1304 executing one or more sequences of one or more instructions contained in main memory 1306. The foregoing instructions may be read into main memory 1306 from another computer readable medium such as storage device 1310. By execution of the sequence of instructions contained in the main memory 1306, the processor 1304 performs the processing steps described herein and in the claims. In alternative embodiments, the wiring circuit may be used in place of software instructions or in combination with software instructions to implement the embodiments. Thus, embodiments are not limited to any particular combination of hardware circuitry and software.

本明細書及び特許請求の範囲記載の「コンピュータ読み取り可能な媒体」の語は、コンピュータに特定の態様で動作させるデータの提供に参加する何れかの媒体を表す。コンピュータ・システム1300を使用して実現された実施例では、(例えば、実行するためにプロセッサ1304に命令を供給することにおいて)種々のコンピュータ読み取り可能な媒体が関係する。前述の媒体は、限定列挙でないが、不揮発性媒体及び揮発性媒体を含む多くの形態を呈し得る。不揮発性媒体は例えば、記憶装置1310などの光ディスク又は磁気ディスクを含む。揮発性媒体は主メモリ1306などのダイナミック・メモリを含む。一般的な形態のコンピュータ読み取り可能な媒体は、例えば、フロッピー(登録商標)・ディスク、フレキシブル・ディスク、ハード・ディスク、磁気テープ、又は何れかの他の磁気媒体、CD−ROM、何れかの他の光媒体、RAM、PROM、及びEPROM、FLASH−EPROM、何れかの他のメモリ・チップ若しくはメモリ・カートリッジ、又はコンピュータが読み取ることが可能な何れかの他の媒体を含む。   The term “computer-readable medium” in this specification and the claims refers to any medium that participates in providing data that causes a computer to operate in a specific fashion. In an embodiment implemented using computer system 1300, various computer-readable media are involved (eg, in providing instructions to processor 1304 for execution). Such a medium may take many forms, including but not limited to, non-volatile media and volatile media. Non-volatile media includes, for example, optical disks such as storage device 1310 or magnetic disks. Volatile media includes dynamic memory, such as main memory 1306. Common forms of computer readable media are, for example, floppy disks, flexible disks, hard disks, magnetic tapes, or any other magnetic medium, CD-ROM, or any other. Optical media, RAM, PROM, and EPROM, FLASH-EPROM, any other memory chip or memory cartridge, or any other medium that can be read by a computer.

種々の形態のコンピュータ読み取り可能な媒体が、実行するためにプロセッサ1304に1つ又は複数の命令の1つ又は複数のシーケンスを収容するために関係し得る。例えば、命令は当初、遠隔コンピュータの磁気ディスク上に収容し得る。遠隔コンピュータは、そのダイナミック・メモリに命令をロードし、モデムを使用して電話線を介して命令を送出することが可能である。コンピュータ・システム1300の局所にあるモデムは、電話回線上でデータを受信し、赤外線送信器を使用してデータを赤外線信号に変換することが可能である。赤外線検出器は赤外線信号において収容されたデータを受信することが可能であり、適切な回路がデータをバス1302上に入力することが可能である。バス1302はデータを主メモリ1306まで搬送し、そこから、プロセッサ1304は命令を取り出し、実行する。主メモリ1306によって受け取られた命令は任意的には、プロセッサ1304による実行の前又は後に記憶装置1310上に記憶し得る。   Various forms of computer readable media may be involved in accommodating one or more sequences of one or more instructions in processor 1304 for execution. For example, the instructions may initially be contained on a remote computer magnetic disk. The remote computer can load the instructions into its dynamic memory and send the instructions over a telephone line using a modem. A modem local to computer system 1300 can receive the data on the telephone line and use an infra-red transmitter to convert the data to an infra-red signal. The infrared detector can receive the data contained in the infrared signal and a suitable circuit can input the data onto the bus 1302. Bus 1302 carries the data to main memory 1306, from which processor 1304 retrieves and executes the instructions. The instructions received by main memory 1306 may optionally be stored on storage device 1310 either before or after execution by processor 1304.

コンピュータ・システム1300は更に、バス1302に結合された通信インタフェース1318を含む。通信インタフェース1318は、ローカル・ネットワーク1322に結合されたネットワーク・リンク1320との双方向データ通信結合を提供する。例えば、通信インタフェース1318は、対応するタイプの電話回線とのデータ通信接続を提供するためのモデム又は統合サービス・ディジタル・ネットワーク(ISDN)カードであり得る。別の例として、通信インタフェース1318は、互換のLANとのデータ通信接続を提供するためのローカル・エリア・ネットワーク(LAN)カードであり得る。無線リンクも実現し得る。前述の何れの実現形態でも、通信インタフェース1318は、各種情報を表すディジタル・データ・ストリームを収容する電気信号、電磁気信号、又は光信号を送受信する。   Computer system 1300 further includes a communication interface 1318 coupled to bus 1302. Communication interface 1318 provides a two-way data communication coupling with a network link 1320 that is coupled to a local network 1322. For example, the communication interface 1318 may be a modem or an integrated services digital network (ISDN) card to provide a data communication connection with a corresponding type of telephone line. As another example, communication interface 1318 may be a local area network (LAN) card to provide a data communication connection with a compatible LAN. A wireless link may also be realized. In any of the implementations described above, the communication interface 1318 sends and receives electrical, electromagnetic, or optical signals that contain digital data streams representing various types of information.

ネットワーク・リンク1320は通常、他のデータ装置に対して、1つ又は複数のネットワークを介したデータ通信を提供する。例えば、ネットワーク・リンク1320は、インターネット・サービス・プロバイダ(ISP)1326によって運営されるデータ機器又はホスト・コンピュータ1324との、ローカル・ネットワーク1322を介した接続を提供し得る。ISP1326は今度は、「インターネット」1328として現在通常表されるワールドワイド・パケット・データ通信ネットワークを介してデータ通信サービスを提供する。ローカル・ネットワーク1322及びインターネット1328は何れも、ディジタル・データ・ストリームを収容する電気信号、電磁気信号、又は光信号を使用する。   Network link 1320 typically provides data communication over one or more networks to other data devices. For example, the network link 1320 may provide a connection via a local network 1322 to a data device or host computer 1324 operated by an Internet service provider (ISP) 1326. ISP 1326 in turn provides data communication services through the world wide packet data communication network now commonly referred to as “Internet” 1328. Local network 1322 and Internet 1328 both use electrical, electromagnetic, or optical signals that contain digital data streams.

コンピュータ・システム1300は、通信インタフェース1318、ネットワーク・リンク1320、及びネットワークを介して、プログラム・コードを含め、データを受信し、メッセージを送出することが可能である。インターネットの例では、サーバ1330は、インターネット1328、ISP1326、ローカル・ネットワーク1322、及び通信インタフェース1318を介して、アプリケーション・プログラムについて要求されたコードを送信し得る。受信されたコードは、受信される都度、プロセッサ1304によって実行し、かつ/又は、後の実行のために記憶装置1310又は他の不揮発記憶装置に記憶し得る。   Computer system 1300 can receive data and send messages, including program code, via communication interface 1318, network link 1320, and network. In the Internet example, the server 1330 may send the requested code for the application program via the Internet 1328, ISP 1326, local network 1322, and communication interface 1318. The received code may be executed by processor 1304 each time it is received and / or stored in storage device 1310 or other non-volatile storage device for later execution.

上記明細書では、実現形態によって変わり得る数多くの特定の詳細を参照して実施例を説明している。よって、本発明であり、本発明であると本出願人によって意図された唯一かつ排他的な指標は、何らかの後続する補正を含む請求項が得られる特定の形態における、本出願によって得られる請求項の組である。よって、請求項に明記されていない限定、構成要素、特性、構成、効果、又は属性は如何なる態様においても前述の請求項の範囲を限定すべきでない。よって、明細書及び添付図面は、制限的意味合いというよりもむしろ例証的意味合いでとらえられるものとする。   In the foregoing specification, embodiments have been described with reference to numerous specific details that may vary from implementation to implementation. Thus, the only and exclusive indication intended by the applicant to be the present invention is the claim obtained by this application in a specific form from which the claim can be obtained including any subsequent amendments. It is a pair. Hence, no limitation, element, property, configuration, effect, or attribute that is not expressly recited in a claim should limit the scope of that claim in any way. Accordingly, the specification and accompanying drawings are to be regarded in an illustrative sense rather than a restrictive sense.

706 ビデオ会議場所マップ 706 Video conference location map

Claims (19)

方法であって、
第1のオーディオ/ビデオ装置及び第2のオーディオ/ビデオ装置を場所マップから選択する工程と、
前記第1のオーディオ/ビデオ装置と前記第2のオーディオ/ビデオ装置との間で接続を自動的に確立する工程と
を含む方法。
A method,
Selecting a first audio / video device and a second audio / video device from a location map;
Automatically establishing a connection between the first audio / video device and the second audio / video device.
請求項1記載の方法であって、前記第1のオーディオ/ビデオ装置及び前記第2のオーディオ/ビデオ装置を前記場所マップから選択する工程は、前記第1のオーディオ/ビデオ装置及び前記第2のオーディオ/ビデオ装置の可視表現を選択する工程、又は、前記第1のオーディオ/ビデオ装置に関連付けられたマシン読み取り可能なコードを走査する工程、及び前記第2のオーディオ/ビデオ装置に関連付けられたマシン読み取り可能なコードを走査する工程のうちの1つ又は複数を含む方法。   2. The method of claim 1, wherein selecting the first audio / video device and the second audio / video device from the location map comprises the first audio / video device and the second audio device. Selecting a visual representation of an audio / video device, or scanning a machine readable code associated with the first audio / video device, and a machine associated with the second audio / video device. A method comprising one or more of scanning a readable code. 請求項1記載の方法であって、前記第1のオーディオ/ビデオ装置と前記第2のオーディオ/ビデオ装置との間で接続を自動的に確立する工程は、前記第1のオーディオ/ビデオ装置と前記第2のオーディオ/ビデオ装置との間で音声通信を確立する工程、前記第1のオーディオ/ビデオ装置と前記第2のオーディオ/ビデオ装置との間でビデオ通信を確立する工程、前記第1のオーディオ/ビデオ装置と前記第2のオーディオ/ビデオ装置との間で共有ホワイトボードを確立する工程、前記第1のオーディオ/ビデオ装置から前記第2のオーディオ/ビデオ装置に可視コンテンツを表示する工程、及び前記第1のオーディオ/ビデオ装置上と前記第2のオーディオ/ビデオ装置上とに少なくとも1つの共通の項目を表示する工程のうちの1つ又は複数である方法。   2. The method of claim 1, wherein the step of automatically establishing a connection between the first audio / video device and the second audio / video device includes the first audio / video device. Establishing voice communication with the second audio / video device, establishing video communication between the first audio / video device and the second audio / video device, the first Establishing a shared whiteboard between the second audio / video device and the second audio / video device, and displaying visible content from the first audio / video device to the second audio / video device. And displaying at least one common item on the first audio / video device and on the second audio / video device. S method is. 請求項1記載の方法であって、前記第2のオーディオ/ビデオ装置がビジー状態になるか否かを判定し、肯定の場合、前記第1のオーディオ/ビデオ装置と前記第2のオーディオ/ビデオ装置との間で前記接続を自動的に確立する前にユーザに通知する工程を更に含む方法。   The method of claim 1, wherein it is determined whether the second audio / video device is busy and, if yes, the first audio / video device and the second audio / video. A method further comprising notifying a user before automatically establishing the connection with a device. 請求項1記載の方法であって、前記場所マップは、コード化された形式の第1ビデオ会議場所識別データ及び第2ビデオ会議場所識別データを含み、前記コード化された形式は、QRコード、UPCコード、バーコード、及びRFIDタグ・データのうちの1つ又は複数である方法。   The method of claim 1, wherein the location map includes first video conference location identification data and second video conference location identification data in a coded format, wherein the coded format is a QR code, A method that is one or more of a UPC code, a barcode, and RFID tag data. 請求項1記載の方法であって、前記第1ビデオ会議場所識別データ及び前記第2ビデオ会議場所識別データは、IPアドレス、MACアドレス、一意の識別子、URL、及びビデオ会議場所識別子のうちの1つ又は複数を含む方法。   The method of claim 1, wherein the first video conference location identification data and the second video conference location identification data are one of an IP address, a MAC address, a unique identifier, a URL, and a video conference location identifier. A method comprising one or more. 請求項1記載の方法であって、前記場所マップは、物理媒体上に印刷される場所マップ、表面上に投影される場所マップ、及びコンピュータ装置のグラフィカル・ユーザ・インタフェース上に表示される場所マップのうちの1つ又は複数を含む方法。   The method of claim 1, wherein the location map is a location map printed on a physical medium, a location map projected on a surface, and a location map displayed on a graphical user interface of a computing device. A method comprising one or more of: 場所マップを生成する方法であって、
第1のオーディオ/ビデオ機器を識別する第1オーディオ/ビデオ識別データ、及び第2のオーディオ/ビデオ機器を一意に識別する第2オーディオ/ビデオ識別データを取り出す工程であって、前記第2のオーディオ/ビデオ機器は前記第1のオーディオ/ビデオ機器と異なり、前記第2オーディオ/ビデオ識別データは前記第1オーディオ/ビデオ識別データと異なる工程と、
前記第1オーディオ/ビデオ識別データ及び前記第2オーディオ/ビデオ識別データを含む場所マップ・データを生成する工程であって、前記場所マップのデータの処理は、前記第1のオーディオ/ビデオ機器及び前記第2のオーディオ/ビデオ機器をユーザ・インタフェース上に可視的に表させる工程と
を含む方法。
A method for generating a location map,
Extracting the first audio / video identification data identifying the first audio / video device and the second audio / video identification data uniquely identifying the second audio / video device, wherein the second audio The video device is different from the first audio / video device, the second audio / video identification data is different from the first audio / video identification data;
Generating location map data including the first audio / video identification data and the second audio / video identification data, the processing of the location map data comprising the first audio / video device and the Visualizing a second audio / video device on a user interface.
請求項8記載の方法であって、
前記第1オーディオ/ビデオ機器識別データに基づいて第1コード化オーディオ/ビデオ機器識別データを生成する工程であって、前記第1コード化オーディオ/ビデオ機器識別データはマシン又は電子装置によって読み取り可能な形式を有する工程と、
前記第2オーディオ/ビデオ機器識別データに基づいて第2コード化オーディオ/ビデオ機器識別データを生成する工程であって、前記第2コード化オーディオ/ビデオ機器識別データはマシン又は電子装置によって読み取り可能な形式を有し、前記第2コード化オーディオ/ビデオ機器識別データは前記第1コード化オーディオ/ビデオ機器識別データと異なる工程と
を含み、
前記場所マップ・データは、前記第1オーディオ/ビデオ識別データ、前記第1コード化オーディオ/ビデオ識別データ、前記第2オーディオ/ビデオ識別データ、及び前記第2コード化オーディオ/ビデオ識別データを含み、前記場所マップのデータの処理は、前記第1コード化オーディオ/ビデオ識別データを前記第1のオーディオ/ビデオ機器と関連付けて表示させ、前記第2コード化オーディオ/ビデオ識別データを前記第2のオーディオ/ビデオ機器と関連付けて表示させる方法。
9. The method of claim 8, wherein
Generating first encoded audio / video device identification data based on the first audio / video device identification data, wherein the first encoded audio / video device identification data is readable by a machine or an electronic device; A process having a format;
Generating second encoded audio / video device identification data based on the second audio / video device identification data, wherein the second encoded audio / video device identification data is readable by a machine or an electronic device; The second coded audio / video device identification data includes a step different from the first coded audio / video device identification data;
The location map data includes the first audio / video identification data, the first coded audio / video identification data, the second audio / video identification data, and the second coded audio / video identification data; The processing of the location map data includes displaying the first coded audio / video identification data in association with the first audio / video device, and displaying the second coded audio / video identification data as the second audio. / Displaying in association with video equipment.
請求項9記載の方法であって、前記第1コード化オーディオ/ビデオ機器識別データ及び前記第2コード化オーディオ/ビデオ機器識別データは、QRコード、UPCコード、バーコード、RFIDタグ・データ、色判別コード、及び3次元コードのうちの1つ又は複数を含む形式でコード化される方法。   10. The method of claim 9, wherein the first coded audio / video device identification data and the second coded audio / video device identification data are QR code, UPC code, barcode, RFID tag data, color. A method of encoding in a format including one or more of a discrimination code and a three-dimensional code. 請求項8記載の方法であって、
前記第1のオーディオ/ビデオ機器の場所を示す第1場所データを生成する工程と、
前記第2のオーディオ/ビデオ機器の場所を示す第2場所データを生成する工程と、
前記第1の場所データ及び前記第2の場所データを前記場所マップのデータに含める工程を更に含み、前記場所マップのデータの処理は、前記第1のオーディオ/ビデオ機器の場所及び前記第2のオーディオ/ビデオ機器の場所を示すデータを前記ユーザ・インタフェース上に表示させる方法。
9. The method of claim 8, wherein
Generating first location data indicating a location of the first audio / video device;
Generating second location data indicating the location of the second audio / video device;
The method further includes the step of including the first location data and the second location data in the location map data, wherein the processing of the location map data comprises the location of the first audio / video device and the second location data. A method of displaying data indicating the location of an audio / video device on the user interface.
請求項11記載の方法であって、前記第1のオーディオ/ビデオ機器に関連付けられたgps装置からgpsデータを読み出す工程、及び前記第1オーディオ/ビデオ識別データから前記第1のオーディオ/ビデオ機器の場所を取り出す工程のうちの1つ又は複数により、又は、他のオーディオ/ビデオ機器の場所に基づいて前記第1のオーディオ/ビデオ機器の場所を判定することにより、前記第1のオーディオ/ビデオ機器の場所を判定する工程を更に含む方法。   12. The method of claim 11, wherein reading gps data from a gps device associated with the first audio / video device and the first audio / video device from the first audio / video identification data. The first audio / video device by one or more of the steps of retrieving a location or by determining the location of the first audio / video device based on the location of another audio / video device A method further comprising the step of determining the location. 請求項11記載の方法であって、1つ又は複数の建物に対する前記第1のオーディオ/ビデオ機器及び前記第2のオーディオ/ビデオ機器の相対位置及び絶対位置の1つ又は複数を示す態様で前記ユーザ・インタフェース上に前記第1のオーディオ/ビデオ機器及び前記第2のオーディオ/ビデオ機器を表す工程を更に含む方法。   12. The method of claim 11, wherein the method indicates one or more of a relative position and an absolute position of the first audio / video device and the second audio / video device with respect to one or more buildings. A method further comprising representing the first audio / video device and the second audio / video device on a user interface. 請求項8記載の方法であって、前記第1のオーディオ/ビデオ機器についての更なる情報を記憶する工程を更に含み、前記更なる情報は、前記第1のオーディオ/ビデオ機器のタイプ、前記第1のオーディオ/ビデオ機器のネットワーク・アドレス、及び前記第1のオーディオ/ビデオ機器と接続が確立されることを可能にするデータの1つ又は複数を含む方法。   9. The method of claim 8, further comprising storing further information about the first audio / video device, wherein the further information comprises the type of the first audio / video device, the first. A method comprising a network address of an audio / video device and one or more of data enabling a connection to be established with the first audio / video device. 請求項8記載の方法であって、前記場所マップのデータを生成する工程は、スケーリングされた場所マップのデータを生成する工程、及び特定の向きで場所マップのデータを生成する工程の1つ又は複数の含む方法。   9. The method of claim 8, wherein generating the location map data includes one of generating scaled location map data and generating location map data in a particular orientation, or A method involving multiple. 方法であって、
2つ以上のデータ・ファイル識別子、及び前記2つ以上のデータ・ファイル識別子に対応する2つ以上のコード化された識別子を第1のコンピュータ装置のグラフィカル・ユーザ・インタフェース上に表示させる工程と、
前記2つ以上のコード化された識別子からの特定のコード化された識別子の第2のコンピュータ装置による走査に応じて、前記第2のコンピュータ装置上に、前記特定のコード化された識別子に対応する前記2つ以上のデータ・ファイルからの特定のデータ・ファイルを表示させる工程と
を含む方法。
A method,
Displaying two or more data file identifiers and two or more encoded identifiers corresponding to the two or more data file identifiers on a graphical user interface of a first computing device;
Corresponding to the particular coded identifier on the second computing device in response to scanning by the second computing device of the particular coded identifier from the two or more coded identifiers Displaying a particular data file from the two or more data files.
請求項16記載の方法であって、
2つ以上のコード化されたナビゲーション制御部を前記グラフィカル・ユーザ・インタフェース上に表示させる工程と、
特定のコード化されたナビゲーション制御の選択に応じて、対応するナビゲーション動作を行う工程と
を更に含む方法。
The method of claim 16, comprising:
Displaying two or more coded navigation controls on the graphical user interface;
Performing a corresponding navigation action in response to the selection of a particular coded navigation control.
請求項16記載の方法であって、前記2つ以上のコード化された識別子は、QRコード、UPCコード、バーコード、RFIDタグ・データ、色判別コード、及び3次元コードのうちの1つ又は複数を含む形式でコード化される方法。   17. The method of claim 16, wherein the two or more encoded identifiers are one of a QR code, a UPC code, a barcode, RFID tag data, a color discrimination code, and a three-dimensional code or A method that is encoded in a form that includes more than one. 請求項16記載の方法であって、前記特定のコード化された識別子に対応する前記2つ以上のデータ・ファイルからの特定のデータ・ファイルを前記第2のコンピュータ装置上に表示させる工程は、ビデオ・ファイルを再生する工程、画像ファイルを表示する工程、ピクチャを表示する工程、PDFファイルを表示する工程、及び音楽ファイルを再生する工程のうちの1つ又は複数を含む方法。   17. The method of claim 16, wherein displaying a particular data file from the two or more data files corresponding to the particular encoded identifier on the second computing device comprises: A method comprising one or more of: playing a video file, displaying an image file, displaying a picture, displaying a PDF file, and playing a music file.
JP2014039002A 2013-02-28 2014-02-28 Electronic information linkage system Expired - Fee Related JP6458345B2 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US13/781,438 US9641570B2 (en) 2013-02-28 2013-02-28 Electronic information collaboration system
US13/781,447 US20140245185A1 (en) 2013-02-28 2013-02-28 Electronic Information Collaboration System
US13/781,451 2013-02-28
US13/781,451 US20140244720A1 (en) 2013-02-28 2013-02-28 Electronic Information Collaboration System
US13/781,438 2013-02-28
US13/781,447 2013-02-28

Publications (2)

Publication Number Publication Date
JP2014171221A true JP2014171221A (en) 2014-09-18
JP6458345B2 JP6458345B2 (en) 2019-01-30

Family

ID=51693273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014039002A Expired - Fee Related JP6458345B2 (en) 2013-02-28 2014-02-28 Electronic information linkage system

Country Status (1)

Country Link
JP (1) JP6458345B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130202A (en) * 2016-01-22 2017-07-27 株式会社リコー Open collaboration board having plurality of integrated services
EP3217274A1 (en) 2016-03-11 2017-09-13 Ricoh Company, Ltd. Remote communication system, communication terminal, and extended function providing method
JP2018510440A (en) * 2015-06-24 2018-04-12 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Information processing method, terminal, and computer storage medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105003A (en) * 1992-09-24 1994-04-15 Horoson Tec:Kk Telephone set equipped with bar code reader
JP2004178111A (en) * 2002-11-25 2004-06-24 Castle Computer Co Ltd Electronic advertisement providing system and method and advertising medium used for the same method and program
JP2004192356A (en) * 2002-12-11 2004-07-08 Seto Print:Kk Production plan calculation system, production plan calculation method, and computer program
JP2004192149A (en) * 2002-12-09 2004-07-08 Nec Corp Simple reservation system, method and program using cellular phone
JP2005109710A (en) * 2003-09-29 2005-04-21 Hitachi East Japan Solutions Ltd Support system for providing or receiving information, support method, and computer program for support
JP2007013694A (en) * 2005-06-30 2007-01-18 Sony Corp Interactive communication instrument and method of connection
JP2007086616A (en) * 2005-09-26 2007-04-05 Matsushita Electric Ind Co Ltd Presentation support system
JP2008514129A (en) * 2004-09-21 2008-05-01 ベイヤー、マルコム、ケー.、ジュニア Mobile phone / PDA communication system
WO2012001765A1 (en) * 2010-06-29 2012-01-05 株式会社日立製作所 Illicit operation sensing method and computer that senses illicit operation
US20120151357A1 (en) * 2010-12-08 2012-06-14 Microsoft Corporation Presenting device availability statuses

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105003A (en) * 1992-09-24 1994-04-15 Horoson Tec:Kk Telephone set equipped with bar code reader
JP2004178111A (en) * 2002-11-25 2004-06-24 Castle Computer Co Ltd Electronic advertisement providing system and method and advertising medium used for the same method and program
JP2004192149A (en) * 2002-12-09 2004-07-08 Nec Corp Simple reservation system, method and program using cellular phone
JP2004192356A (en) * 2002-12-11 2004-07-08 Seto Print:Kk Production plan calculation system, production plan calculation method, and computer program
JP2005109710A (en) * 2003-09-29 2005-04-21 Hitachi East Japan Solutions Ltd Support system for providing or receiving information, support method, and computer program for support
JP2008514129A (en) * 2004-09-21 2008-05-01 ベイヤー、マルコム、ケー.、ジュニア Mobile phone / PDA communication system
JP2007013694A (en) * 2005-06-30 2007-01-18 Sony Corp Interactive communication instrument and method of connection
JP2007086616A (en) * 2005-09-26 2007-04-05 Matsushita Electric Ind Co Ltd Presentation support system
WO2012001765A1 (en) * 2010-06-29 2012-01-05 株式会社日立製作所 Illicit operation sensing method and computer that senses illicit operation
US20120151357A1 (en) * 2010-12-08 2012-06-14 Microsoft Corporation Presenting device availability statuses

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018510440A (en) * 2015-06-24 2018-04-12 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Information processing method, terminal, and computer storage medium
US10645039B2 (en) 2015-06-24 2020-05-05 Tencent Technology (Shenzhen) Company Limited Information processing method and terminal, and computer storage medium
JP2017130202A (en) * 2016-01-22 2017-07-27 株式会社リコー Open collaboration board having plurality of integrated services
EP3217274A1 (en) 2016-03-11 2017-09-13 Ricoh Company, Ltd. Remote communication system, communication terminal, and extended function providing method
US10554732B2 (en) 2016-03-11 2020-02-04 Ricoh Company, Ltd. Remote communication system, communication terminal, and extended function providing method

Also Published As

Publication number Publication date
JP6458345B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
US9641570B2 (en) Electronic information collaboration system
US20140245185A1 (en) Electronic Information Collaboration System
US11288031B2 (en) Information processing apparatus, information processing method, and information processing system
JP6260721B2 (en) Open collaboration board with multiple integrated services
JP6357760B2 (en) Terminal device, program, screen sharing method, and screen sharing system
JP6343897B2 (en) Transmission terminal, transmission method, and program
JP2007280235A (en) Electronic conference support program, electronic conference suppot method, and information terminal for electronic conference system
US20140244720A1 (en) Electronic Information Collaboration System
JP2007288380A (en) Electronic conference system, electronic conference support program and method, electronic conference control device, and portable storage device
JP6379521B2 (en) Transmission terminal, transmission system, transmission method and program
JP2016027458A (en) Terminal device, program, role determination method, and information processing system
US11394757B2 (en) Communication terminal, communication system, and method of sharing data
JP2013257792A (en) Program, information sharing system, and information processing apparatus
JP6287113B2 (en) COMMUNICATION MANAGEMENT DEVICE, PROGRAM, COMMUNICATION MANAGEMENT METHOD, AND COMMUNICATION MANAGEMENT SYSTEM
JP6458345B2 (en) Electronic information linkage system
JP2018032096A (en) Information processing device, information processing method, program, and information processing system
US20200177645A1 (en) Content management server, information sharing system, and communication control method
JP6260201B2 (en) Transmission terminal, transmission method, and program
JP2016110253A (en) Information processing system, information processing apparatus, information processing method and program
JP6361728B2 (en) Transmission control system, transmission system, transmission control method, and recording medium
JP6314539B2 (en) Transmission terminal, transmission system, transmission method and program
US11656834B2 (en) Information processing device, non-transitory recording medium, and information processing system
JP5835018B2 (en) Conference system and contact method
WO2020066932A1 (en) Communication terminal, content management server, information sharing system, display control method, and storage medium storing program
JP2021060949A (en) Communication system, information processing apparatus, communication method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R151 Written notification of patent or utility model registration

Ref document number: 6458345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees