JP6293903B2 - Electronic device and method for displaying information - Google Patents

Electronic device and method for displaying information Download PDF

Info

Publication number
JP6293903B2
JP6293903B2 JP2016542463A JP2016542463A JP6293903B2 JP 6293903 B2 JP6293903 B2 JP 6293903B2 JP 2016542463 A JP2016542463 A JP 2016542463A JP 2016542463 A JP2016542463 A JP 2016542463A JP 6293903 B2 JP6293903 B2 JP 6293903B2
Authority
JP
Japan
Prior art keywords
display area
electronic device
display
displayed
canvas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016542463A
Other languages
Japanese (ja)
Other versions
JPWO2016024330A1 (en
Inventor
山口 達夫
達夫 山口
池田 彰吾
彰吾 池田
篤 掛村
篤 掛村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2016024330A1 publication Critical patent/JPWO2016024330A1/en
Application granted granted Critical
Publication of JP6293903B2 publication Critical patent/JP6293903B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

ここに記載される実施形態は、機器間で情報を共有するための技術に関する。   The embodiments described herein relate to techniques for sharing information between devices.

近年、タブレット、PDA、スマートフォンといった種々の電子機器が開発されている。この種の電子機器の多くは、ユーザによる入力操作を容易にするために、タッチスクリーンディスプレイを備えている。   In recent years, various electronic devices such as tablets, PDAs, and smartphones have been developed. Many electronic devices of this type are equipped with a touch screen display to facilitate an input operation by a user.

また最近では、電子情報ボード、インテリジェントホワイトボード等の技術を使用して、何人かのユーザ間で情報を共有するシステムも開発されている。   Recently, a system for sharing information among several users using technologies such as an electronic information board and an intelligent whiteboard has been developed.

特開2012−168794号公報JP 2012-168794 A

しかし、従来では、ユーザが別のユーザが注目している部分と同じ部分を容易に閲覧できるようにするための技術については考慮されていないのが現状である。   However, the current situation is that no consideration is given to a technique for allowing a user to easily view the same part as the part that another user is paying attention to.

本発明の一形態の目的は、別のユーザが注目している部分をユーザに提示することができる電子機器および方法を提供することである。   An object of one embodiment of the present invention is to provide an electronic device and a method that can present to a user a portion that another user is paying attention to.

実施形態によれば、電子機器は、ネットワーク接続された、オーナである第1電子機器および参加者である第2電子機器を少なくとも含むコラボレーションサーバシステムへ機器ID又はユーザIDを使用してログインすることが可能な電子機器であって、前記電子機器の物理画面のサイズより広いカンバスを実現するために複数の表示エリアを含み、前記各表示エリアは前記第1電子機器および第2電子機器において入力された情報を表示可能な共有画面として機能する前記カンバスが表示されるディスプレイと、共有コラボレーション機能を含む共有アプリケーションプログラムを実行する処理手段とを具備し、前記処理手段は、前記表示エリアを変更するための移動操作に応じて、前記複数の表示エリアのいずれか一つの表示エリアを前記ディスプレイに表示可能とし、前記第1電子機器に表示されている第1表示エリアと同期して前記ディスプレイに前記第1エリアが表示されている状態で、前記第1電子機器表示が前記第1表示エリアから前記第2表示エリアに変更された場合、前記変更に追従して前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2表示エリアに変更するための処理を実行し、前記第1電子機器に表示されている前記第1表示エリアと同期しないで、前記ディスプレイに前記第1表示エリアとは異なる表示エリア表示されている状態で、前記第1電子機器表示前記第1表示エリアから前記第2表示エリアに変更された場合前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2エリアに変更するための処理を実行しない。 According to the embodiment, the electronic device logs in to the collaboration server system including at least the first electronic device that is the owner and the second electronic device that is the participant connected to the network by using the device ID or the user ID. An electronic device including a plurality of display areas in order to realize a canvas wider than a physical screen size of the electronic device, wherein each display area is input in the first electronic device and the second electronic device. A display on which the canvas that functions as a shared screen capable of displaying the information is displayed , and processing means for executing a shared application program including a shared collaboration function , wherein the processing means changes the display area. Any one of the plurality of display areas according to a moving operation for And displayable on the display, in a state where the first area in synchronization with the display and the first first display area displayed on the electronic device is being displayed, the display of the first electronic device is the first 1 when it is changed from the display area to the second display area, executes the processing for changing the display area by following the change are displayed on the display from the first display area on the second display area and, the first is not synchronized with the first display area displayed on the electronic device, in a state wherein the Viewing area that is different from said the display first display area is displayed, the first electronic device If the display is changed from the first display area on the second display area, the display area being displayed on the display from the first display area a second collar It does not execute the process for changing to.

図1は実施形態に係る電子機器の外観を示す例示的な斜視図である。FIG. 1 is an exemplary perspective view showing an appearance of an electronic apparatus according to the embodiment. 図2は手書き共有サービスを利用する電子機器間の接続を示す例示的な図である。FIG. 2 is an exemplary diagram illustrating a connection between electronic devices using the handwriting sharing service. 図3は図1の電子機器(手書きコラボレーションサーバシステム)と他の各電子機器との間のデータの流れの概要を説明するための例示的な図である。FIG. 3 is an exemplary diagram for explaining an outline of a data flow between the electronic device (handwriting collaboration server system) of FIG. 1 and other electronic devices. 図4は複数の電子機器間で情報を共有する画面(カンバス)を示す例示的な図である。FIG. 4 is an exemplary diagram showing a screen (canvas) for sharing information among a plurality of electronic devices. 図5は図1の電子機器のタッチスクリーンディスプレイ上に手書きされる手書き文書を示す例示的な図である。FIG. 5 is an exemplary diagram illustrating a handwritten document handwritten on the touch screen display of the electronic apparatus of FIG. 1. 図6は手書き共有サービスによって実行される処理を説明するための例示的な図である。FIG. 6 is an exemplary diagram for explaining processing executed by the handwriting sharing service. 図7は複数の電子機器間で情報を共有するための、複数の表示エリアを含むカンバスの示す例示的な図である。FIG. 7 is an exemplary diagram showing a canvas including a plurality of display areas for sharing information between a plurality of electronic devices. 図8は主催者の機器に表示される表示エリアが主催者の操作によって別の表示エリアに変更される様子を示す例示的な図である。FIG. 8 is an exemplary diagram showing how the display area displayed on the organizer's device is changed to another display area by the operation of the organizer. 図9は主催者と参加者が異なる表示エリアを見ている様子を示す例示的な図である。FIG. 9 is an exemplary diagram showing a state where the organizer and the participant are viewing different display areas. 図10は図1の電子機器によって実行されるカンバス追従処理を説明する例示的な図である。FIG. 10 is an exemplary diagram for explaining a canvas tracking process executed by the electronic apparatus of FIG. 図11は表示エリアがカンバス追従処理によって別の表示エリアに変更される様子を示す例示的な図である。FIG. 11 is an exemplary diagram showing how the display area is changed to another display area by the canvas tracking process. 図12は、主催者の機器に表示されるボタンの操作に応答して実行される強制同期処理と、各参加者の機器に表示されるボタンの操作に応答して実行されるセルフ同期処理を説明する例示的な図である。FIG. 12 shows a forced synchronization process executed in response to an operation of a button displayed on the organizer's device and a self-synchronization process executed in response to an operation of a button displayed on each participant's device. It is an exemplary figure to explain. 図13は画面上に表示されるメニューを説明するための例示的な図である。FIG. 13 is an exemplary diagram for explaining a menu displayed on the screen. 図14はカンバス全体を表示するプレビュー画面を示す例示的な図である。FIG. 14 is an exemplary diagram showing a preview screen displaying the entire canvas. 図15はカンバス全体を表示する別のプレビュー画面の示す例示的な図である。FIG. 15 is an exemplary diagram showing another preview screen displaying the entire canvas. 図16は図1の電子機器の構成を示す例示的なブロック図である。FIG. 16 is an exemplary block diagram showing a configuration of the electronic apparatus of FIG. 図17は図1の電子機器によって実行される手書き共有アプリケーションプログラムの構成を示す例示的なブロック図である。FIG. 17 is an exemplary block diagram showing a configuration of a handwriting sharing application program executed by the electronic device of FIG. 図18は図1の電子機器によって実行される追従処理の手順を示す例示的なフローチャートである。FIG. 18 is an exemplary flowchart showing the procedure of the follow-up process executed by the electronic apparatus of FIG. 図19は図1の電子機器によって実行されるプレビュー処理の手順を示す例示的なフローチャートである。FIG. 19 is an exemplary flowchart showing a preview process executed by the electronic apparatus of FIG.

以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えば、ペン(スタイラス)または指を使用した手書き入力を実行することが可能なペン・ベースの携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA等として実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を想定する。タブレットコンピュータ10は、タブレットまたはスレートコンピュータとも称される携帯型電子機器である。タブレットコンピュータ10は、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わされるように取り付けられている。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a perspective view illustrating an external appearance of an electronic apparatus according to an embodiment. This electronic device is, for example, a pen-based portable electronic device that can execute handwriting input using a pen (stylus) or a finger. This electronic device can be realized as a tablet computer, a notebook personal computer, a smartphone, a PDA, or the like. Below, the case where this electronic device is implement | achieved as the tablet computer 10 is assumed. The tablet computer 10 is a portable electronic device that is also called a tablet or a slate computer. As shown in FIG. 1, the tablet computer 10 includes a main body 11 and a touch screen display 17. The touch screen display 17 is attached to be superposed on the upper surface of the main body 11.

本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、センサとが組み込まれている。センサは、ペンまたは指と接触されるフラットパネルディスプレイの画面上の位置(接触位置)を検出する。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。以下では、デジタイザとタッチパネルの2種類のセンサの双方がタッチスクリーンディスプレイ17に組み込まれている場合を想定する。   The main body 11 has a thin box-shaped housing. The touch screen display 17 incorporates a flat panel display and a sensor. The sensor detects a position (contact position) on the screen of the flat panel display that is in contact with the pen or the finger. The flat panel display may be, for example, a liquid crystal display (LCD). As the sensor, for example, a capacitive touch panel, an electromagnetic induction digitizer, or the like can be used. In the following, it is assumed that two types of sensors, a digitizer and a touch panel, are incorporated in the touch screen display 17.

このタッチスクリーンディスプレイ17は、指と接触される画面上の位置を検出することができ、またペンと接触される画面上の位置を検出することもできる。ペン100は例えば電磁誘導ペン(デジタイザペン)であってもよい。ユーザは、ペン100を使用してタッチスクリーンディスプレイ17の画面上に文字等を書くことができる。この手書き入力操作中においては、画面上のペン100の動きの軌跡、つまり手書き入力されるストロークが、リアルタイムに画面上に描画される。ペン100が画面に接触されている間のペン100の動きの軌跡が1ストロークに相当する。手書き入力された文字または図形などに対応する多数のストロークの集合が手書き文書を構成する。   The touch screen display 17 can detect the position on the screen in contact with the finger, and can also detect the position on the screen in contact with the pen. The pen 100 may be, for example, an electromagnetic induction pen (digitizer pen). The user can write characters on the screen of the touch screen display 17 using the pen 100. During the handwriting input operation, the locus of movement of the pen 100 on the screen, that is, the stroke input by handwriting is drawn on the screen in real time. The locus of movement of the pen 100 while the pen 100 is in contact with the screen corresponds to one stroke. A set of many strokes corresponding to handwritten characters or figures constitutes a handwritten document.

一つのストロークは、このストローク上の複数の点それぞれに対応する複数の点データの集合によって表現される。各点データは、対応する点の座標(X座標、Y座標)を示す。   One stroke is expressed by a set of a plurality of point data corresponding to each of a plurality of points on the stroke. Each point data indicates the coordinates (X coordinate, Y coordinate) of the corresponding point.

さらに、タブレットコンピュータ10は、手書きコラボレーション機能を有している。この手書きコラボレーション機能は、様々な電子文書を複数の電子機器間で共有することが可能な手書き共有サービスを実行する。様々な電子文書は、例えば、手書き文書、テキストデータ、プレゼンテーションデータ、ワードプロセッシングデータ、イメージデータ、スプレッドシートデータ、これら組み合わせ、等であってもよい。手書き共有サービスは、各電子機器のユーザが、共有される情報を閲覧すること、情報を電子機器間で交換すること、他の電子機器のユーザとの協同作業によって、手書き情報を含む電子文書を編集することを可能にする。   Furthermore, the tablet computer 10 has a handwriting collaboration function. This handwriting collaboration function executes a handwriting sharing service that allows various electronic documents to be shared among a plurality of electronic devices. The various electronic documents may be, for example, handwritten documents, text data, presentation data, word processing data, image data, spreadsheet data, combinations thereof, and the like. The handwritten sharing service allows users of each electronic device to view shared information, exchange information between electronic devices, and collaborate with users of other electronic devices to create electronic documents containing handwritten information. Allows editing.

この手書き共有サービスは、このサービスに参加(ログイン)している電子機器において入力される情報(手書きデータを含む)を、このサービスに参加(ログイン)している他の各電子機器にリアルタイムに配信する。これによって、これら電子機器の表示画面に表示される電子文書の内容を同期させることができる。異なるユーザによって入力された情報、例えば、テキスト、手書き入力されたストローク等は、異なる形態(例えば、異なる色で表示されてもよい。   This handwriting sharing service distributes information (including handwritten data) input in electronic devices participating (logged in) to this service in real time to other electronic devices participating (logged in) in this service. To do. As a result, the contents of the electronic documents displayed on the display screens of these electronic devices can be synchronized. Information input by different users, for example, text, strokes input by handwriting, etc., may be displayed in different forms (for example, different colors).

手書き共有サービスは、複数人のグループによって利用される。手書き共有サービスを利用する複数人のグループは、一人のグループオーナ(主催者)と、一人以上の参加者とを含んでも良い。   The handwriting sharing service is used by a group of multiple people. The group of a plurality of people who use the handwriting sharing service may include one group owner (organizer) and one or more participants.

図2は、手書き共有サービスを利用する電子機器間の接続例を示す。
電子機器10Aは、ユーザAによって使用されるタブレットコンピュータである。電子機器10Bは、ユーザBによって使用されるタブレットコンピュータである。電子機器10Cは、ユーザCによって使用されるタブレットコンピュータである。これら電子機器10A、10B、10Cの各々は、本実施形態のタブレットコンピュータ10と同等の手書きコラボレーション機能を有している。
FIG. 2 shows a connection example between electronic devices using the handwriting sharing service.
The electronic device 10A is a tablet computer used by the user A. The electronic device 10B is a tablet computer used by the user B. The electronic device 10 </ b> C is a tablet computer used by the user C. Each of these electronic devices 10A, 10B, and 10C has a handwriting collaboration function equivalent to that of the tablet computer 10 of the present embodiment.

電子機器10A、10B、10Cは有線ネットワークまたは無線ネットワークを介して互いに接続される。以下では、電子機器10A、10B、10Cが無線ネットワークを介して互いに接続される場合を想定する。電子機器10A、10B、10Cを互いに無線接続するための方法としては、複数の機器を互いに無線接続することが可能な任意の無線接続規格を使用し得る。例えば、Bluetooth(登録商標)、またはWi−Fi Direct(登録商標)、等が使用されてもよい。   The electronic devices 10A, 10B, and 10C are connected to each other via a wired network or a wireless network. In the following, it is assumed that the electronic devices 10A, 10B, and 10C are connected to each other via a wireless network. As a method for wirelessly connecting electronic devices 10A, 10B, and 10C to each other, any wireless connection standard capable of wirelessly connecting a plurality of devices to each other can be used. For example, Bluetooth (registered trademark), Wi-Fi Direct (registered trademark), or the like may be used.

電子機器10A、10B、10Cのいずれか1つは、手書き共有サービスを管理するように構成されたサーバ(手書きコラボレーションサーバシステム)として機能することができる。グループオーナの電子機器が、サーバ(手書きコラボレーションサーバシステム)の役割をしてもよい。グループオーナは手書き共有サービスの主催者に相当する。   Any one of the electronic devices 10A, 10B, and 10C can function as a server (handwriting collaboration server system) configured to manage the handwriting sharing service. The electronic device of the group owner may serve as a server (handwriting collaboration server system). The group owner is equivalent to the organizer of the handwriting sharing service.

このサーバ(手書きコラボレーションサーバシステム)は、手書き共有サービスへの参加を要求している各電子機器が手書き共有サービス(グループ)に参加すること、つまり手書きコラボレーションサーバシステム(手書き共有サービス)にログインすること、を許可するか否かを決定してもよい。手書きコラボレーションサーバシステムから参加(ログイン)の許可を受け取った機器だけが、手書き共有サービスにログインすること、つまりこのグループに参加することが許可されても良い。   In this server (handwriting collaboration server system), each electronic device requesting participation in the handwriting sharing service participates in the handwriting sharing service (group), that is, logs in to the handwriting collaboration server system (handwriting sharing service). , It may be determined whether or not to allow. Only a device that has received permission for participation (login) from the handwriting collaboration server system may be permitted to log in to the handwriting sharing service, that is, to participate in this group.

ここで、各機器が手書きコラボレーションサーバシステム(手書き共有サービス)へログインする方法としては、この機器自体のID(アカウント)を使用して手書き共有サービスにログインする方法を使用してもよい。あるいは、この機器を使用するユーザのID(アカウント)を使用して手書き共有サービスにログインする方法を使用してもよい。つまり、手書き共有サービスに対するログインおよびログアウトは、電子機器自体のID(アカウント)を使用したログインおよびログアウト、またはユーザのID(アカウント)を使用したログインおよびログアウトのどちらであってもよい。   Here, as a method for each device to log in to the handwriting collaboration server system (handwriting sharing service), a method of logging in to the handwriting sharing service using the ID (account) of the device itself may be used. Or you may use the method of logging in to a handwriting sharing service using ID (account) of the user who uses this apparatus. That is, the login and logout for the handwriting sharing service may be either login and logout using the ID (account) of the electronic device itself or login and logout using the user ID (account).

いま、電子機器10A、10B、10Cが手書き共有サービスにログインしている状態である場合、つまり電子機器10A、10B、10Cが同じ手書き共有サービスに参加している場合を想定する。電子機器10A、10B、10Cの各々においては、共有される情報を閲覧可能な共有画面(カンバス)が表示される。この画面(カンバス)は電子機器10A、10B、10Cに共通の表示エリアとして使用される。この画面(カンバス)は、電子機器10A、10B、10C間のビジュアル通信を可能にする。ビジュアル通信は、テキスト、イメージ、手書き文字、手書き図形、ダイアグラム等のような情報を、機器間でリアルタイムに共有、交換することを可能にする。   Assume that the electronic devices 10A, 10B, and 10C are currently logged in to the handwriting sharing service, that is, the electronic devices 10A, 10B, and 10C are participating in the same handwriting sharing service. In each of the electronic devices 10A, 10B, and 10C, a shared screen (canvas) that allows browsing of shared information is displayed. This screen (canvas) is used as a display area common to the electronic devices 10A, 10B, and 10C. This screen (canvas) enables visual communication between the electronic devices 10A, 10B, and 10C. Visual communication enables information such as text, images, handwritten characters, handwritten figures, diagrams, etc. to be shared and exchanged between devices in real time.

ユーザA,B,Cの各々が自身の電子機器のカンバスに入力したデータ(テキスト、手書きデータ、等)は、自身の電子機器の共有画面(カンバス)に表示されるだけでなく、他の各ユーザの電子機器の共有画面(カンバス)にもリアルタイムに反映される。この結果、ユーザA,B,Cの各々がタイプ入力または手書き入力した情報(テキスト、手書きデータ、等)をユーザA,B,C間で交換・共有することができる。   Data (text, handwritten data, etc.) input by each of the users A, B, and C to the canvas of his / her electronic device is not only displayed on the shared screen (canvas) of his / her electronic device, but also It is also reflected in real time on the shared screen (canvas) of the user's electronic device. As a result, information (text, handwritten data, etc.) input by each of the users A, B, and C can be exchanged and shared between the users A, B, and C.

さらに、電子機器10A、10B、10Cは、会議資料のような同じコンテンツをカンバス上に表示することもできる。この場合、各電子機器において手書き入力される手書きデータは、このコンテンツ上に表示される。ユーザA,B,Cは、同じコンテンツを見ながら、このコンテンツ上に手書きされる手書き文字、手書き図形等をユーザA,B,C間で交換・共有することができる。   Furthermore, the electronic devices 10A, 10B, and 10C can display the same content such as conference materials on the canvas. In this case, handwritten data input by handwriting in each electronic device is displayed on this content. Users A, B, and C can exchange and share handwritten characters, handwritten figures, and the like handwritten on the content among the users A, B, and C while viewing the same content.

なお、ビジュアル通信は、必ずしも双方向通信である必要は無く、電子機器10Aから電子機器10B、10Cへ情報が送信される片方向送信であってもよい。この場合、各電子機器に表示されるカンバスは、他の電子機器において入力された情報を表示可能な表示エリアとして機能する。各電子機器に表示されるカンバスは、複数の表示エリア(ページとも云う)を含んでいてもよい。   The visual communication is not necessarily bidirectional communication, and may be unidirectional transmission in which information is transmitted from the electronic device 10A to the electronic devices 10B and 10C. In this case, the canvas displayed on each electronic device functions as a display area capable of displaying information input in another electronic device. The canvas displayed on each electronic device may include a plurality of display areas (also referred to as pages).

図3は、手書きコラボレーションサーバシステムと各電子機器との間のデータの流れを示す。   FIG. 3 shows a data flow between the handwriting collaboration server system and each electronic device.

図3では、電子機器10Aが、手書きコラボレーションサーバシステムとして動作する場合が想定されている。つまり、電子機器10AのユーザAがグループオーナであり、電子機器10BのユーザBが参加者(参加者1)であり、電子機器10CのユーザCが別の参加者(参加者2)である。   In FIG. 3, it is assumed that the electronic device 10A operates as a handwriting collaboration server system. That is, the user A of the electronic device 10A is a group owner, the user B of the electronic device 10B is a participant (participant 1), and the user C of the electronic device 10C is another participant (participant 2).

以下では、限定されないが、電子機器間で手書きデータを交換・共有する場合を例示して、手書きコラボレーションサーバシステムと各電子機器との間のデータの流れを説明する。   In the following, although not limited, the flow of data between the handwriting collaboration server system and each electronic device will be described by exemplifying a case where handwritten data is exchanged / shared between electronic devices.

手書きコラボレーションサーバシステム(電子機器10A)は、電子機器10Bにおいて手書き入力される手書きデータを電子機器10Bから受信する。また、手書きコラボレーションサーバシステム(電子機器10A)は、電子機器10Cにおいて手書き入力される手書きデータを電子機器10Cから受信する。   The handwriting collaboration server system (electronic device 10A) receives handwritten data input by handwriting in the electronic device 10B from the electronic device 10B. The handwriting collaboration server system (electronic device 10A) receives handwritten data input by handwriting in the electronic device 10C from the electronic device 10C.

さらに、手書きコラボレーションサーバシステム(電子機器10A)は、電子機器10Aにおいて手書き入力される手書きデータと電子機器10Cから受信された手書きデータとを電子機器10Bに送信する。またさらに、手書きコラボレーションサーバシステム(電子機器10A)は、電子機器10Aにおいて手書きに入力される手書きデータと電子機器10Bから受信された手書きデータとを電子機器10Cに送信する。   Further, the handwriting collaboration server system (electronic device 10A) transmits handwritten data input by handwriting in the electronic device 10A and handwritten data received from the electronic device 10C to the electronic device 10B. Furthermore, the handwriting collaboration server system (electronic device 10A) transmits handwritten data input by handwriting in the electronic device 10A and handwritten data received from the electronic device 10B to the electronic device 10C.

したがって、電子機器10Aのディスプレイにおいては、グループオーナの手書きデータが表示されるだけでなく、参加者1の手書きデータ、さらには参加者2の手書きデータも表示される。   Therefore, on the display of the electronic device 10A, not only the handwritten data of the group owner is displayed, but also the handwritten data of the participant 1 and further the handwritten data of the participant 2 are displayed.

同様にして、電子機器10Bのディスプレイにおいても、参加者1の手書きデータが表示されるだけでなく、グループオーナの手書きデータ、さらには参加者2の手書きデータも表示される。   Similarly, on the display of the electronic device 10B, not only the handwritten data of the participant 1 is displayed, but also the handwritten data of the group owner and further the handwritten data of the participant 2 are displayed.

また同様に、電子機器10Cのディスプレイにおいても、参加者2の手書きデータが表示されるだけでなく、グループオーナの手書きデータ、さらには参加者1の手書きデータも表示される。   Similarly, on the display of the electronic device 10C, not only the handwritten data of the participant 2 is displayed, but also the handwritten data of the group owner and further the handwritten data of the participant 1 are displayed.

電子機器10Aは、各電子機器において手書き入力される手書きデータをデータベース12に格納する。このデータベース12は、共同作業によって作成および編集される手書き情報を管理するために使用される。   The electronic device 10 </ b> A stores handwritten data input by handwriting in each electronic device in the database 12. This database 12 is used to manage handwritten information created and edited by collaborative work.

図4は、共有画面(カンバス)の例を示している。各電子機器のカンバス30Aにおいては、手書き入力可能な透明のレイヤ(手書きレイヤ)30Bが設定される。この手書きレイヤ30B上に、各ユーザの手書きデータが表示される。   FIG. 4 shows an example of a shared screen (canvas). In the canvas 30A of each electronic device, a transparent layer (handwriting layer) 30B capable of handwriting input is set. The handwritten data of each user is displayed on the handwriting layer 30B.

電子機器10Bに関しては、この電子機器10Bのカンバス30Aにおいては、カンバス30A上でペン100Bを使用して参加者1によって手書き入力される手書きデータ40が表示される。さらに、カンバス30A上においては、他の各電子機器において手書き入力される手書きデータが表示される。他の各電子機器において手書き入力される手書きデータには、参加者2の電子機器10Cにおいて手書き入力された手書きデータ42と、グループオーナの電子機器10Aにおいて手書き入力された手書きデータ44とが含まれる。   Regarding the electronic device 10B, in the canvas 30A of the electronic device 10B, handwritten data 40 input by the participant 1 using the pen 100B on the canvas 30A is displayed. Furthermore, on the canvas 30A, handwritten data input by handwriting in other electronic devices is displayed. The handwritten data input by handwriting in each of the other electronic devices includes handwritten data 42 input by handwriting in the electronic device 10C of the participant 2 and handwritten data 44 input by handwriting in the electronic device 10A of the group owner. .

なお、手書きコラボレーションサーバシステムと各電子機器との間で交換・共有される情報は、手書きデータに限られず、プレゼンテーションデータやワードプロセッサデータであってもよい。   Information exchanged and shared between the handwriting collaboration server system and each electronic device is not limited to handwritten data, and may be presentation data or word processor data.

次に、図5を参照して、ストロークと点データについて説明する。   Next, stroke and point data will be described with reference to FIG.

図5においては、「ABC」の手書き文字列が「A」、「B」、「C」の順番で手書きされた場合が想定されている。   In FIG. 5, it is assumed that the handwritten character string “ABC” is handwritten in the order of “A”, “B”, and “C”.

手書き文字「A」は、ペン100などを使用して手書きされる2つのストローク(「∧」形状の軌跡、「−」形状の軌跡)によって表現される。   The handwritten character “A” is represented by two strokes (“∧” shape trajectory, “−” shape trajectory) handwritten using the pen 100 or the like.

ペン100が移動している間に、「∧」形状のペン100の軌跡がリアルタイムにサンプリングされる。これによって、「∧」形状のペン100の軌跡上の複数の点それぞれに対応する複数の点データ(複数の座標データ)PD11、PD12、…PD1mが次々と得られる。例えば、画面上のペン100の位置が所定量移動する度に、新たな位置を示す点データが得られてもよい。図5においては、図示の簡単化のために点データの密度が粗く描かれているが、実際には、より高い密度で複数の点データが得られる。これら点データPD11、PD12、…PD1mは、「∧」形状のペン100の軌跡を画面上に描画するために使用される。ペン100の動きに追従するように、「∧」形状のペン100の軌跡がリアルタイムに画面上に描画される。   While the pen 100 is moving, the trajectory of the “∧” -shaped pen 100 is sampled in real time. Thereby, a plurality of point data (a plurality of coordinate data) PD11, PD12,... PD1m corresponding to the plurality of points on the trajectory of the “∧” -shaped pen 100 are obtained one after another. For example, point data indicating a new position may be obtained each time the position of the pen 100 on the screen moves by a predetermined amount. In FIG. 5, the density of the point data is drawn roughly for the sake of simplicity, but actually, a plurality of point data can be obtained at a higher density. These point data PD11, PD12,... PD1m are used to draw the trajectory of the “∧” -shaped pen 100 on the screen. The locus of the “∧” -shaped pen 100 is drawn on the screen in real time so as to follow the movement of the pen 100.

同様に、「−」形状のペン100の軌跡も、ペン100が移動している間に、リアルタイムにサンプリングされる。これによって「−」形状のペン100の軌跡上の複数の点それぞれに対応する複数の点データ(複数の座標データ)PD21、PD22、…PD2nが次々と得られる。   Similarly, the trajectory of the “-” shaped pen 100 is also sampled in real time while the pen 100 is moving. Thereby, a plurality of point data (a plurality of coordinate data) PD21, PD22,... PD2n corresponding to each of a plurality of points on the trajectory of the “−” shaped pen 100 are obtained one after another.

手書き文字「B」は、ペン100などを使用して手書きされた2つのストロークによって表現される。手書き文字「C」は、ペン100などを使用して手書きされた1つのストロークによって表現される。   The handwritten character “B” is expressed by two strokes handwritten using the pen 100 or the like. The handwritten character “C” is expressed by one stroke handwritten using the pen 100 or the like.

次に、図6を参照して、手書き情報共有サービスのためのデータの流れについて説明する。   Next, a data flow for the handwritten information sharing service will be described with reference to FIG.

図6では、グループオーナ(電子機器10A)、参加者1(電子機器10B)、参加者2(電子機器10C)の3人のグループで議論を行う場合が想定されている。グループオーナ、参加者1、参加者2は、自身の電子機器10A、10B、10Cを持って会議室に集合しても良い。そして、グループオーナ、参加者1、参加者2は、自身の電子機器のカンバスを見ながら、あるいはカンバス上にテキストまたは手書きデータを書き込みながら、議論を行うことができる。   In FIG. 6, a case is assumed in which a group of three persons, that is, a group owner (electronic device 10A), a participant 1 (electronic device 10B), and a participant 2 (electronic device 10C) performs a discussion. The group owner, participant 1, and participant 2 may gather in the conference room with their own electronic devices 10A, 10B, 10C. The group owner, the participant 1, and the participant 2 can perform a discussion while looking at the canvas of their own electronic devices or writing text or handwritten data on the canvas.

参加者1によって電子機器10Bのカンバス上に入力されたデータ(テキスト、手書き文字、手書き図形等)は、電子機器10Aに送信される。さらに、参加者1によって入力されたデータは、電子機器10Aによって、電子機器10Cに転送される。よって、参加者1によって入力されたデータは、電子機器10B、電子機器10A、電子機器10Cの各々のカンバス上に表示される。   Data (text, handwritten characters, handwritten figures, etc.) input on the canvas of the electronic device 10B by the participant 1 is transmitted to the electronic device 10A. Furthermore, the data input by the participant 1 is transferred to the electronic device 10C by the electronic device 10A. Therefore, the data input by the participant 1 is displayed on the respective canvases of the electronic device 10B, the electronic device 10A, and the electronic device 10C.

同様にして、参加者2によって電子機器10Cのカンバス上に入力されたデータ(テキスト、手書き文字、手書き図形等)も、電子機器10Aに送信され、さらに、電子機器10Aによって電子機器10Bに転送される。よって、参加者2によって入力されたデータは、電子機器10B、電子機器10A、電子機器10Cの各々のカンバス上に表示される。   Similarly, data (text, handwritten characters, handwritten figures, etc.) input by the participant 2 on the canvas of the electronic device 10C is also transmitted to the electronic device 10A, and further transferred to the electronic device 10B by the electronic device 10A. The Therefore, the data input by the participant 2 is displayed on the respective canvases of the electronic device 10B, the electronic device 10A, and the electronic device 10C.

さらに、グループオーナによって電子機器10Aのカンバス上に入力されたデータ(テキスト、手書き文字、手書き図形等)は、電子機器10Bおよび電子機器10Cに送信される。よって、グループオーナによって入力されたデータも、電子機器10A、電子機器10B、電子機器10Cの各々のカンバス上に表示される。   Furthermore, data (text, handwritten characters, handwritten graphics, etc.) input on the canvas of the electronic device 10A by the group owner is transmitted to the electronic device 10B and the electronic device 10C. Therefore, data input by the group owner is also displayed on the respective canvases of the electronic device 10A, the electronic device 10B, and the electronic device 10C.

このようにして、3人のグループは、これら3人によって書き込まれたデータが反映されるカンバスの内容を見ながら、議論(会議)を行うことができる。   In this way, the group of three people can hold a discussion (conference) while looking at the contents of the canvas reflecting the data written by these three people.

以下では、ある電子機器のカンバス上に入力される手書きデータを他の電子機器に送信する処理について説明する。   Below, the process which transmits the handwritten data input on the canvas of a certain electronic device to another electronic device is demonstrated.

ある電子機器において手書き入力された手書きデータを別の電子機器に送信するための方法としては、一つのストロークが手書き入力される度にそのストロークのデータ(ストロークデータ)全体を一度に送信するという方法を使用することができる。   As a method for transmitting handwritten data input by handwriting in a certain electronic device to another electronic device, a method of transmitting the entire stroke data (stroke data) at a time every time one stroke is input by handwriting Can be used.

あるいは、手書きデータは、ストローク単位では無く、点データ単位で送信されてもよい。この場合、例えば、電子機器10Bにおいて手書き入力されるストロークに対応する複数の点データは、このストロークが手書き入力されている間に、電子機器10Bから手書きコラボレーションサーバシステム(電子機器10A)に時系列順に順次送信される。つまり、ストロークに対応する複数の点データが入力された順に、これら複数の点データが電子機器10Bから手書きコラボレーションサーバシステム(電子機器10A)に1つずつ転送される。   Alternatively, the handwritten data may be transmitted not in units of stroke but in units of point data. In this case, for example, a plurality of point data corresponding to a stroke input by handwriting in the electronic device 10B is time-series from the electronic device 10B to the handwriting collaboration server system (electronic device 10A) while the stroke is input by handwriting. Sequentially transmitted sequentially. That is, the plurality of point data is transferred from the electronic device 10B to the handwriting collaboration server system (electronic device 10A) one by one in the order in which the plurality of point data corresponding to the stroke is input.

手書きデータをストロークデータ単位で送信するという前者の方法を使用した場合には、必要な通信回数を減らすことを可能にする。   When the former method of transmitting handwritten data in units of stroke data is used, it is possible to reduce the number of necessary communications.

しかし、ストロークの手書き入力が完了するまでは、つまりペンが画面からリフトアップされることによってペンと画面との接触が解除されるまでは、ストロークデータは送信されない。したがって、例えば、ある電子機器において3つのストロークが順番に手書き入力された場合には、まず、最初のストロークの手書き入力が完了した後に、その最初のストローク全体の形状が別の電子機器のカンバス上に一度に表示される。そして、2番目のストロークの手書き入力が完了した後に、その2番目のストローク全体の形状が別の電子機器のカンバス上に一度に表示される。そして、3番目のストロークの手書き入力が完了した後に、その3番目のストローク全体の形状が別の電子機器のカンバス上に一度に表示される。   However, the stroke data is not transmitted until the handwriting input of the stroke is completed, that is, until the contact between the pen and the screen is released by lifting the pen from the screen. Therefore, for example, when three strokes are sequentially handwritten input in a certain electronic device, first, after completing the first stroke handwriting input, the shape of the entire first stroke is on the canvas of another electronic device. Are displayed at once. Then, after the handwriting input of the second stroke is completed, the shape of the entire second stroke is displayed at once on the canvas of another electronic device. After the handwriting input of the third stroke is completed, the shape of the entire third stroke is displayed at once on the canvas of another electronic device.

このように、別の電子機器のカンバス上においては、個々のストロークが書かれる様子(線が延びていく様子)は再現されず、手書き入力が完了した各ストロークの形状だけが一度に表示される。   Thus, on the canvas of another electronic device, the state in which individual strokes are written (the state in which lines are extended) is not reproduced, and only the shape of each stroke for which handwriting input has been completed is displayed at a time. .

一方、ストロークの手書き入力が実際に行われている電子機器においては、そのストロークが書かれる様子(線が延びていく様子)がリアルタイムに表示される。   On the other hand, in an electronic device in which stroke handwriting input is actually performed, a state in which the stroke is written (a state in which a line extends) is displayed in real time.

手書きデータを点データ単位で送信するという後者の方法を使用した場合には、通信回数は増加するが、どの電子機器においてストロークが手書き入力された場合でも、そのストロークが書かれる様子を他の全ての電子機器のカンバス上において再現することが可能となる。   If the latter method of sending handwritten data in point data units is used, the number of communications will increase, but whatever strokes the handwriting is input on any electronic device will show that all other strokes are written. It can be reproduced on the canvas of electronic devices.

以下、手書きデータを点データ単位で送信する場合を想定して、手書きデータの具体的な流れについて説明する。   Hereinafter, a specific flow of handwritten data will be described assuming that handwritten data is transmitted in units of point data.

(1)参加者1の電子機器10Bにおいてストロークが手書き入力される。このストロークは電子機器10Bのカンバス上にリアルタイムに表示される。つまり、電子機器10Bのカンバス上のペンの動きに追従するようにストローク(線)が描画される。   (1) The stroke is input by handwriting in the electronic device 10B of the participant 1. This stroke is displayed in real time on the canvas of the electronic apparatus 10B. That is, the stroke (line) is drawn so as to follow the movement of the pen on the canvas of the electronic device 10B.

(2)ストロークは、その始点から終点までの複数の点データ(複数の座標)の集合として表現される。   (2) A stroke is expressed as a set of a plurality of point data (a plurality of coordinates) from the start point to the end point.

(3)このストロークのデータ(ストロークデータ)は、点データ単位でグループオーナ(電子機器10A)に送信される。つまり、電子機器10Bにおいてはストロークが手書き入力されている間に、このストロークに対応する多数の点データがグループオーナ(電子機器10A)に時系列順に順次送信される。各点データは、ストロークID、ユーザID(またはデバイスID)、点種別(始点/中点/終点)、ペン属性(ペン種、色、等)等と一緒に、グループオーナ(電子機器10A)に送信されてもよい。ストロークIDは、手書き入力されたストロークを識別可能な情報である。各電子機器は、乱数などを使用して複数桁のユニークIDを生成し、このユニークIDの値を、最初に手書き入力されたストロークを識別するためのストロークIDとして使用しても良い。2番目以降に手書きされたストロークについては、ユニークIDをインクリメントすることによって得られる値が、対応するストロークIDとして使用されてもよい良い。同一のストロークに対応する点データの各々には、同じストロークIDが与えられる。   (3) The stroke data (stroke data) is transmitted to the group owner (electronic device 10A) in units of point data. That is, in the electronic device 10B, while the stroke is input by handwriting, a large number of point data corresponding to the stroke are sequentially transmitted to the group owner (electronic device 10A) in time series. Each point data is stored in the group owner (electronic device 10A) together with the stroke ID, user ID (or device ID), point type (start point / middle point / end point), pen attributes (pen type, color, etc.), etc. May be sent. The stroke ID is information that can identify a stroke input by handwriting. Each electronic device may generate a unique ID having a plurality of digits using a random number or the like, and use the value of the unique ID as a stroke ID for identifying a stroke input by handwriting first. For strokes handwritten after the second, a value obtained by incrementing the unique ID may be used as the corresponding stroke ID. The same stroke ID is given to each point data corresponding to the same stroke.

(4)グループオーナ(電子機器10A)は、電子機器10Bから時系列順に順次送信される複数の点データを受信する。そして、グループオーナ(電子機器10A)は、これら複数の点データを、これら複数の点データの受信時刻(受信タイミング)をそれぞれ示すタイムスタンプと共に、データベース12に格納する。各タイムスタンプは、対応する点データがグループオーナ(電子機器10A)によって受信された時刻を示してもよいし、同一のストローク内の先頭の点データが受信された時点から対応する点データが受信される時点までの相対時間を示してもよい。あるいは、各タイムスタンプは、対応する点データが入力された入力時刻を示してもよい。この場合、電子機器10Bは、各点データをその点データが入力された入力時刻を示す時間情報と共にグループオーナ(電子機器10A)に送信してもよい。   (4) The group owner (electronic device 10A) receives a plurality of point data sequentially transmitted from the electronic device 10B in chronological order. Then, the group owner (electronic device 10A) stores the plurality of point data in the database 12 together with a time stamp indicating the reception time (reception timing) of the plurality of point data. Each time stamp may indicate the time when the corresponding point data is received by the group owner (electronic device 10A), or the corresponding point data is received from the time when the first point data in the same stroke is received. The relative time until the point in time may be indicated. Alternatively, each time stamp may indicate an input time when the corresponding point data is input. In this case, the electronic device 10B may transmit each point data to the group owner (electronic device 10A) together with time information indicating the input time when the point data is input.

(5)グループオーナ(電子機器10A)は、電子機器10Bから受信された複数の点データを電子機器10Cに送信する。   (5) The group owner (electronic device 10A) transmits a plurality of point data received from the electronic device 10B to the electronic device 10C.

この場合、これら複数の点データは、これら複数の点データに対応するタイムスタンプに基づくタイミングで、電子機器10Cに時系列順に順次送信されてもよい。これにより、複数の点データが受信された間隔と同じ間隔で、これら複数の点データを電子機器10Cに送信することができる。   In this case, the plurality of point data may be sequentially transmitted to the electronic device 10C in chronological order at a timing based on the time stamp corresponding to the plurality of point data. Accordingly, the plurality of point data can be transmitted to the electronic device 10C at the same interval as the interval at which the plurality of point data is received.

送信される各点データには、ストロークID、ユーザID(またはデバイスID)、点種別(始点/中点/終点)、ペン属性(ペン種、色、等)等が付加される。   Each point data to be transmitted includes a stroke ID, a user ID (or device ID), a point type (start point / middle point / end point), a pen attribute (pen type, color, etc.), and the like.

あるいは、グループオーナ(電子機器10A)が電子機器10Bから一つの点データを受信した時に、グループオーナ(電子機器10A)が、その点データを電子機器10Cに即座に送信しても良い。   Alternatively, when the group owner (electronic device 10A) receives one piece of point data from the electronic device 10B, the group owner (electronic device 10A) may immediately transmit the point data to the electronic device 10C.

さらに、グループオーナ(電子機器10A)は、電子機器10Bからの複数の点データに基づいて、電子機器10Aにおいて手書き入力されたストロークに対応する軌跡をグループオーナのカンバス上にリアルタイムに描画することもできる。   Further, the group owner (electronic device 10A) may draw a locus corresponding to the stroke input by handwriting on the electronic device 10A in real time on the group owner's canvas based on a plurality of point data from the electronic device 10B. it can.

図7は、本実施形態で使用されるカンバス30Aを示す。   FIG. 7 shows a canvas 30A used in this embodiment.

このカンバス30Aは、物理画面のサイズ(解像度)よりも広いカンバスを実現するために、複数の表示エリア(ページとも云う)を含んでいる。各表示エリアは、他の機器において入力された情報を表示可能な共有画面として機能しうる。   The canvas 30A includes a plurality of display areas (also referred to as pages) in order to realize a canvas wider than the size (resolution) of the physical screen. Each display area can function as a shared screen capable of displaying information input in other devices.

図7では、カンバス30Aが、横方向に並んだ3つの表示エリア111、112、113から構成される場合が例示されている。3つの表示エリア111、112、113の各々は、機器間のビジュアル通信を可能にするための共有画面(カンバスエリア)として使用される。例えば、グループオーナ(主催者)によってカンバス30A内の表示エリア111に入力された情報は、各参加者のカンバス30A内の表示エリア111に反映(表示)される。グループオーナ(主催者)によってカンバス30A内の表示エリア112に入力された情報は、各参加者のカンバス30A内の表示エリア112に反映(表示)される。同様に、ある参加者によってカンバス30A内の表示エリア111に入力された情報は、グループオーナのカンバス30A内の表示エリア111および他の各参加者のカンバス30A内の表示エリア111に反映(表示)される。   FIG. 7 illustrates a case where the canvas 30 </ b> A includes three display areas 111, 112, and 113 arranged in the horizontal direction. Each of the three display areas 111, 112, and 113 is used as a shared screen (canvas area) for enabling visual communication between devices. For example, information input to the display area 111 in the canvas 30A by the group owner (organizer) is reflected (displayed) in the display area 111 in the canvas 30A of each participant. Information input to the display area 112 in the canvas 30A by the group owner (organizer) is reflected (displayed) in the display area 112 in the canvas 30A of each participant. Similarly, information input to display area 111 in canvas 30A by a participant is reflected (displayed) in display area 111 in canvas 30A of the group owner and display area 111 in canvas 30A of each other participant. Is done.

各電子機器のユーザは、カンバス30Aを移動するための指ジェスチャによって、3つの表示エリア111、112、113内の任意の表示エリアをディスプレイに表示することができる。図7では、各参加者の電子機器にカンバス30A内の表示エリア111が表示されている場合が想定されている。   The user of each electronic device can display any display area in the three display areas 111, 112, and 113 on the display by a finger gesture for moving the canvas 30A. In FIG. 7, it is assumed that the display area 111 in the canvas 30A is displayed on the electronic device of each participant.

各ユーザ(参加者、オーナ)は、例えば、スワイプのような指ジェスチャによってカンバス30Aを移動して、現在表示されている表示エリアを別の表示エリアに変更することができる。換言すれば、各ユーザは、カンバス30A内の任意の部分をディスプレイに表示することができる。各ユーザは、現在表示されている表示エリアにテキストや手書きデータを書き込むこともできる。また各ユーザは、現在表示されている表示エリアに自身によってあるいは他のユーザによって書かれた情報を閲覧することができる。   Each user (participant, owner) can change the currently displayed display area to another display area by moving the canvas 30A with a finger gesture such as a swipe. In other words, each user can display an arbitrary part in the canvas 30A on the display. Each user can also write text and handwritten data in the currently displayed display area. Each user can view information written by himself or other users in the currently displayed display area.

各電子機器が手書き共有サービスにログインした時に各電子機器に表示されるデフォルトの表示エリアは、例えば、表示エリア111である。したがって、カンバス30Aを移動するための指ジェスチャが行われない限り、手書き共有サービスにログインしている全ての機器は、表示エリア111を表示することができる。つまり、手書き共有サービスにログインしている全ての機器は、表示エリア111を使用して、情報を交換または共有するためのビジュアル通信を実行することができる。   The default display area displayed on each electronic device when each electronic device logs in to the handwriting sharing service is, for example, the display area 111. Therefore, as long as a finger gesture for moving the canvas 30 </ b> A is not performed, all devices logged in to the handwriting sharing service can display the display area 111. That is, all devices logged in to the handwriting sharing service can use the display area 111 to execute visual communication for exchanging or sharing information.

なお、カンバス30Aの構成は図7の例に限定されない。例えば、カンバス30Aは物理画面のサイズ(解像度)よりも広い1つのページによって実現されても良い。この場合でも、各電子機器のユーザは、カンバス30A内の任意の一部分をディスプレイに表示することができる。   The configuration of the canvas 30A is not limited to the example of FIG. For example, the canvas 30A may be realized by one page wider than the size (resolution) of the physical screen. Even in this case, the user of each electronic device can display an arbitrary part in the canvas 30A on the display.

図8はグループオーナ(主催者)の機器に表示される表示エリアがグループオーナの操作によって別の表示エリアに変更される様子を示す。   FIG. 8 shows how the display area displayed on the device of the group owner (organizer) is changed to another display area by the operation of the group owner.

別の議論を始めるために、グループオーナは、スワイプのような指ジェスチャによって、表示されている表示エリア(カンバス30A内の一部分)を別の表示エリア((カンバス30A内の別の部分)に切り替えるかもしれない。図8では、グループオーナ(主催者)の機器に表示される表示エリアが表示エリア111から表示エリア112に変更された場合が例示されている。   To start another discussion, the group owner switches the displayed display area (a part in the canvas 30A) to another display area (a different part in the canvas 30A) by a finger gesture such as a swipe. 8 illustrates a case where the display area displayed on the device of the group owner (organizer) is changed from the display area 111 to the display area 112.

この場合、図9に示されているように、各参加者が見ている表示エリアとグループオーナ(主催者)が見ている表示エリアとが異なる可能性がある。このため、各参加者は、グループオーナが注目している表示エリア(グループオーナによって書き込みが行われる可能性がある表示エリア)を注目することができない。このことは、複数人に共通のカンバス30Aを使用して情報を共有・交換するというビジュアル通信の本来の機能を損なう要因となり得る。   In this case, as shown in FIG. 9, there is a possibility that the display area viewed by each participant is different from the display area viewed by the group owner (organizer). For this reason, each participant cannot pay attention to the display area in which the group owner is paying attention (the display area in which writing may be performed by the group owner). This can be a factor that impairs the original function of visual communication of sharing and exchanging information using a canvas 30A common to a plurality of people.

そこで、本実施形態の手書きコラボレーション機能は、カンバス追従機能を有している。このカンバス追従機能は、各参加者がカンバス30A内の任意の部分を閲覧、または編集(テキスト、手書きデータ等の入力)することを許可しつつ、各参加者の機器に表示されている表示エリアを、グループオーナの機器における表示エリアの遷移(カンバス移動)に追従するように自動的に変更(更新)することを可能にする。   Therefore, the handwriting collaboration function of this embodiment has a canvas tracking function. This canvas tracking function is a display area displayed on each participant's device while allowing each participant to view or edit any part of the canvas 30A (input text, handwritten data, etc.). Can be automatically changed (updated) so as to follow the transition (canvas movement) of the display area in the device of the group owner.

例えば、グループオーナの機器に表示されている表示エリアが表示エリア111から表示エリア112に変更されたならば、各参加者の機器は、自身の機器のディスプレイに表示されている表示エリアを表示エリア111から表示エリア112に自動的に変更する。   For example, if the display area displayed on the device of the group owner is changed from the display area 111 to the display area 112, each participant's device displays the display area displayed on its own device display area. The display area 112 is automatically changed to the display area 112.

本実施形態では、グループオーナのカンバス移動に追従する機器は、グループオーナと同じ表示エリアを見ている参加者の機器に限られる。グループオーナが見ていた表示エリアと別の表示エリアを見ている参加者の機器は、グループオーナのカンバス移動に追従しない。これにより、各参加者が任意の表示エリアを自由に閲覧・編集することを妨げること無く、グループオーナと同じ表示エリアを見ているという条件が満たされる参加者の機器のみにカンバス追従機能を適用することができる。   In the present embodiment, the devices that follow the group owner's canvas movement are limited to the devices of participants who are viewing the same display area as the group owner. Participant's equipment viewing a display area different from the display area that the group owner was viewing does not follow the group owner's canvas movement. As a result, the canvas tracking function is applied only to the participant's equipment that satisfies the condition that the participant is viewing the same display area as the group owner without preventing each participant from freely viewing and editing any display area. can do.

図10は各参加者の機器によって実行されるカンバス追従処理を示す。   FIG. 10 shows the canvas tracking process executed by each participant's device.

(1)グループオーナは、スワイプのような指ジェスチャによって、電子機器10Aに表示されているカンバス30A内の表示エリアを表示エリア111から表示エリア112に変更する。   (1) The group owner changes the display area in the canvas 30 </ b> A displayed on the electronic device 10 </ b> A from the display area 111 to the display area 112 by a finger gesture such as swipe.

(2)電子機器10Aは、カンバスの移動量を示すカンバス移動情報を各参加者の電子機器に送信して、カンバスが移動されたことおよびその移動量を各参加者の電子機器に通知する。あるいは、電子機器10Aは、移動元表示エリアと移動先表示エリアを示す情報を各参加者の電子機器に送信しても良い。   (2) The electronic device 10A transmits canvas movement information indicating the movement amount of the canvas to each participant's electronic device, and notifies each participant's electronic device of the movement of the canvas and the movement amount. Or 10A of electronic devices may transmit the information which shows a movement origin display area and a movement destination display area to each participant's electronic device.

(3)電子機器10Bにおいては、表示エリア111が表示されている。このように、電子機器10Bに表示されている表示エリアがグループオーナの電子機器10Aに表示されていた表示エリアと同じである場合、つまり、電子機器10Bに表示されている表示エリアとグループオーナの電子機器10Aに表示されていた表示エリアとが同期している場合には、電子機器10Bは、例えばカンバス移動情報に基づいて、電子機器10Bのディスプレイに表示されているカンバス30Aを移動する。これにより、電子機器10Bのディスプレイに表示されている表示エリアは、表示エリア111から表示エリア112に変更される。   (3) In the electronic device 10B, the display area 111 is displayed. Thus, when the display area displayed on the electronic device 10B is the same as the display area displayed on the group owner's electronic device 10A, that is, the display area displayed on the electronic device 10B and the group owner's When the display area displayed on the electronic device 10A is synchronized, the electronic device 10B moves the canvas 30A displayed on the display of the electronic device 10B based on the canvas movement information, for example. Thereby, the display area displayed on the display of the electronic device 10B is changed from the display area 111 to the display area 112.

電子機器10Bの表示エリアと電子機器10Aの表示エリアとが同期しているか否かを判定する方法としては、様々な方法を使用することができる。例えば、電子機器10Bにおいて指ジェスチャによるカンバス30Aの移動が既に行われているか否かを判定する方法を使用しても良い。この場合、もし電子機器10Bにおいて、参加者1の指ジェスチャによるカンバス30Aの移動が行われていないならば、電子機器10Bの表示エリアと電子機器10Aの表示エリアとが同期していると判定される。参加者1の指ジェスチャによるカンバス30Aの移動が既に行われていたならば、電子機器10Bの表示エリアと電子機器10Aの表示エリアとが同期していないと判定される。   Various methods can be used as a method for determining whether or not the display area of the electronic device 10B and the display area of the electronic device 10A are synchronized. For example, a method of determining whether or not the movement of the canvas 30A by the finger gesture has already been performed in the electronic device 10B may be used. In this case, if the canvas 30A is not moved by the finger gesture of the participant 1 in the electronic device 10B, it is determined that the display area of the electronic device 10B and the display area of the electronic device 10A are synchronized. The If the movement of the canvas 30A by the finger gesture of the participant 1 has already been performed, it is determined that the display area of the electronic device 10B and the display area of the electronic device 10A are not synchronized.

なお、たとえ指ジェスチャによるカンバス30Aの移動が既に行われていたとしても、図12で後述する強制同期処理またはセルフ同期処理が一旦実行された後は、電子機器10Bの表示エリアと電子機器10Aの表示エリアとが同期していると判定することができる。   Even if the canvas 30A is already moved by the finger gesture, after the forced synchronization process or the self-synchronization process described later in FIG. 12 is executed once, the display area of the electronic device 10B and the electronic device 10A It can be determined that the display area is synchronized.

電子機器10Cにおいては、表示エリア111が表示されている。このように、電子機器10Cに表示されている表示エリアがグループオーナの電子機器10Aに表示されていた表示エリアと同じである場合、つまり、電子機器10Cに表示されている表示エリアとグループオーナの電子機器10Aに表示されていた表示エリアとが同期している場合には、電子機器10Cは、例えばカンバス移動情報に基づいて、電子機器10Cのディスプレイに表示されているカンバス30Aを移動する。これにより、電子機器10Cのディスプレイに表示されている表示エリアは、表示エリア111から表示エリア112に変更される。   In the electronic device 10C, a display area 111 is displayed. As described above, when the display area displayed on the electronic device 10C is the same as the display area displayed on the group owner's electronic device 10A, that is, the display area displayed on the electronic device 10C and the group owner's When the display area displayed on the electronic device 10A is synchronized, the electronic device 10C moves the canvas 30A displayed on the display of the electronic device 10C based on the canvas movement information, for example. Thereby, the display area displayed on the display of the electronic device 10 </ b> C is changed from the display area 111 to the display area 112.

(4)電子機器10Dにおいては、表示エリア113が表示されている。つまり、電子機器10Dにおいては、参加者3の指ジェスチャによるカンバス30Aの移動が既に行われている。この場合、電子機器10Dは、電子機器10Dの表示エリアと電子機器10Aの表示エリアとが同期していないと判定する。そして、電子機器10Dは、電子機器10Dのディスプレイに表示されているカンバス30Aを移動する処理を実行しない。これにより、電子機器10Dのディスプレイに表示されている表示エリアは、表示エリア113に維持される。   (4) In the electronic device 10D, the display area 113 is displayed. That is, in the electronic device 10D, the canvas 30A has already been moved by the finger gesture of the participant 3. In this case, the electronic device 10D determines that the display area of the electronic device 10D and the display area of the electronic device 10A are not synchronized. And electronic device 10D does not perform the process which moves canvas 30A currently displayed on the display of electronic device 10D. Thereby, the display area displayed on the display of the electronic apparatus 10 </ b> D is maintained in the display area 113.

図11は、カンバス追従処理が実行された後に、各参加者の電子機器に表示される表示エリアを示す。図11から分かるように、電子機器10B、10Cに表示される表示エリア(カンバス30A内の場所)は、電子機器10Aにおけるカンバス移動に追従するように自動的に変更される。一方、グループオーナが見ていた表示エリアと別の表示エリアを見ている参加者の機器である電子機器10Dにおいては、表示される表示エリア(カンバス30A内の場所)は、電子機器10Aにおけるカンバス移動に追従しない。   FIG. 11 shows a display area displayed on each participant's electronic device after the canvas tracking process is executed. As can be seen from FIG. 11, the display areas (locations in the canvas 30A) displayed on the electronic devices 10B and 10C are automatically changed so as to follow the movement of the canvas in the electronic device 10A. On the other hand, in the electronic device 10D that is a participant's device viewing a display area different from the display area that the group owner was viewing, the displayed display area (location in the canvas 30A) is the canvas in the electronic device 10A. Does not follow movement.

次に、図12を参照して、強制同期処理、およびセルフ同期処理について説明する。   Next, forced synchronization processing and self-synchronization processing will be described with reference to FIG.

強制同期処理は、グループオーナの意思で、全ての参加者の電子機器に表示されるカンバス内の表示エリアを、グループオーナの電子機器10Aに現在表示されているカンバス内の表示エリアに合わせることを可能にする処理である。グループオーナは、グループオーナの電子機器10Aに表示されるユーザインタフェースである強制同期ボタン51を操作(タップ)することによって、強制同期処理の実行を指示することができる。ボタン51がタップされると、電子機器10Aは、電子機器10Aにおいて現在表示されている表示エリアと同じ表示エリアの表示を要求する強制同期要求を、全ての参加者の電子機器の各々に送信する。各参加者の電子機器においては、ディスプレイにどの表示エリアが現在表示されているかにかかわらず、グループオーナの電子機器10Aにおいて現在表示されている表示エリアと同じ表示エリアをディスプレイに表示するための処理が実行される。グループオーナの電子機器10Aにおいて現在表示されている表示エリアを特定するための情報は、強制同期要求に含まれていても良い。   In the forced synchronization process, the display area in the canvas that is displayed on the electronic devices of all participants is matched with the display area in the canvas that is currently displayed on the electronic device 10A of the group owner. It is a process that makes it possible. The group owner can instruct execution of forced synchronization processing by operating (tapping) the forced synchronization button 51 which is a user interface displayed on the electronic device 10A of the group owner. When the button 51 is tapped, the electronic device 10A transmits a forced synchronization request that requests display of the same display area as the display area currently displayed on the electronic device 10A to each of the electronic devices of all participants. . In each participant's electronic device, regardless of which display area is currently displayed on the display, a process for displaying on the display the same display area as that currently displayed on the group owner's electronic device 10A Is executed. Information for specifying the display area currently displayed on the group owner electronic device 10A may be included in the forced synchronization request.

セルフ同期処理は、個々の参加者の意思で、その参加者の電子機器に表示されるカンバス内の表示エリアを、グループオーナの電子機器10Aに現在表示されているカンバス内の表示エリアに合わせることを可能にする処理である。   In the self-synchronization process, at the intention of each participant, the display area in the canvas displayed on the electronic device of the participant is matched with the display area in the canvas currently displayed on the group owner electronic device 10A. It is a process that enables.

参加者は、参加者の電子機器に表示されるユーザインタフェースである同期ボタン52を操作(タップ)することによって、セルフ同期処理の実行を指示することができる。いま、電子機器10Dに表示されるボタン52がタップされた場合を想定する。この電子機器10Dは、グループオーナの電子機器10Aにおいて現在表示されている表示エリアを特定するための処理を実行する。例えば、電子機器10Dは、グループオーナの電子機器10Aに現在表示されている表示エリアを問い合わせても良い。そして、電子機器10Dは、電子機器10Dのディスプレイに表示されている表示エリアを、特定された表示エリアに変更するための処理を実行する。   The participant can instruct execution of the self-synchronization process by operating (tapping) the synchronization button 52 that is a user interface displayed on the electronic device of the participant. Assume that the button 52 displayed on the electronic device 10D is tapped. The electronic device 10D executes a process for specifying a display area currently displayed on the group owner's electronic device 10A. For example, the electronic device 10D may inquire about the display area currently displayed on the group owner electronic device 10A. And electronic device 10D performs the process for changing the display area currently displayed on the display of electronic device 10D into the specified display area.

ボタン52は、参加者3の指ジェスチャによるカンバス30Aの移動が行われたことを条件に、電子機器10Dのディスプレイに表示されてもよい。参加者3は、ボタン52の出現によって、電子機器10Dの現在の表示エリアがグループオーナの表示エリアに同期していないことを理解することができる。   The button 52 may be displayed on the display of the electronic device 10D on the condition that the movement of the canvas 30A by the finger gesture of the participant 3 has been performed. By the appearance of the button 52, the participant 3 can understand that the current display area of the electronic device 10D is not synchronized with the display area of the group owner.

次に、図13〜図15を参照して、各電子機器によって実行されるプレビュー処理について説明する。   Next, a preview process executed by each electronic device will be described with reference to FIGS.

ここでは、電子機器10Bがプレビュー処理を実行する場合を想定する。参加者2は、電子機器10Bのディスプに、メニューを表示することができる。このメニューは、「プレビュー」ボタンを含む。「プレビュー」ボタンは、カンバス30A全体を、カンバス30Aのどの表示エリアが個々の電子機器によって現在表示されているかを識別可能な形態で表示するためのプレビュー処理を、起動するためのソフトウェアボタンである。 Here, it is assumed that the electronic device 10B executes the preview process. Participants 2, to de-spool Tray of electronic devices 10B, it is possible to display the menu. This menu includes a “Preview” button. The “Preview” button is a software button for starting preview processing for displaying the entire canvas 30A in a form that can identify which display area of the canvas 30A is currently displayed by each electronic device. .

「プレビュー」ボタンがユーザによってタップされると、図14に示すように、カンバス30A全体を縮小表示することによって得られるカンバス30Aのプレビュー画像が電子機器10Bのディスプレイに表示される。電子機器10Bは、現在表示されている表示エリアを他の各電子機器にまたはグループオーナの電子機器に問い合わせることによって、他の各電子機器において現在表示されている表示エリアを特定する。そして、電子機器10Bは、グループオーナ、参加者1、参加者2によって見られている表示エリア111を囲む枠F1を表示する。さらに、電子機器10Bは、参加者3によって見られている表示エリア113を囲む枠F2を表示する。   When the “Preview” button is tapped by the user, as shown in FIG. 14, a preview image of the canvas 30A obtained by reducing the entire canvas 30A is displayed on the display of the electronic device 10B. The electronic device 10B specifies the display area currently displayed in each of the other electronic devices by inquiring the display area currently displayed to the other electronic devices or the electronic device of the group owner. Then, the electronic device 10B displays a frame F1 that surrounds the display area 111 viewed by the group owner, the participant 1, and the participant 2. Furthermore, the electronic device 10 </ b> B displays a frame F <b> 2 that surrounds the display area 113 viewed by the participant 3.

枠F1には、枠F1によって囲まれた表示エリアを見ている各ユーザを識別するためのインジケータとして機能するタグが付けられていても良い。この場合、枠F1には、参加者1に対応するタグと、参加者2に対応するタグと、グループオーナに対応するタグとを含む3つのタグが付けられていてもよい。参加者1に対応するタグは、参加者1のユーザIDまたは参加者1の機器の機器IDを表示しても良い。参加者2に対応するタグは、参加者2のユーザIDまたは参加者1の機器の機器IDを表示しても良い。グループオーナに対応するタグは、グループオーナのユーザIDまたはグループオーナの機器の機器IDを表示しても良い。   The frame F1 may be provided with a tag that functions as an indicator for identifying each user who is viewing the display area surrounded by the frame F1. In this case, three tags including a tag corresponding to the participant 1, a tag corresponding to the participant 2, and a tag corresponding to the group owner may be attached to the frame F1. The tag corresponding to the participant 1 may display the user ID of the participant 1 or the device ID of the participant 1 device. The tag corresponding to the participant 2 may display the user ID of the participant 2 or the device ID of the device of the participant 1. The tag corresponding to the group owner may display the user ID of the group owner or the device ID of the device of the group owner.

枠F2には、参加者3に対応するタグが付けられていてもよい。   A tag corresponding to the participant 3 may be attached to the frame F2.

図14においては、図示の簡単化のために、参加者1に対応するタグは「1」を表示し、参加者2に対応するタグは「2」を表示し、参加者3に対応するタグは「3」を表示し、グループオーナに対応するタグは「Owner」を表示している。   In FIG. 14, for simplification of illustration, the tag corresponding to the participant 1 displays “1”, the tag corresponding to the participant 2 displays “2”, and the tag corresponding to the participant 3. Displays “3”, and the tag corresponding to the group owner displays “Owner”.

電子機器10Bのユーザ(参加者2)がカンバス30Aのプレビュー画像上のある表示エリアが選択されると、電子機器10Bに表示される表示エリアは、このプレビュー画像上で選択された表示エリアに変更される。したがって、参加者2は、必要に応じて、電子機器10Bに表示される表示エリアを、他の参加者が見ている表示エリアまたはグループオーナが見ている表示エリアに容易に変更することができる。   When the user (participant 2) of the electronic device 10B selects a display area on the preview image of the canvas 30A, the display area displayed on the electronic device 10B is changed to the display area selected on the preview image. Is done. Accordingly, the participant 2 can easily change the display area displayed on the electronic device 10B to a display area viewed by other participants or a display area viewed by the group owner, as necessary. .

図15は、カンバス30Aのプレビュー画像の別の例を示す。   FIG. 15 shows another example of a preview image of the canvas 30A.

図15では、カンバス30Aが各電子機器の物理画面のサイズ(解像度)よりも広い1つのページによって実現されている場合が想定されている。各電子機器は、カンバス30A内の任意の部分(カンバス30A内に含まれる複数の表示エリアの任意の一つ)をディスプレイに表示することができる。   In FIG. 15, it is assumed that the canvas 30A is realized by one page wider than the size (resolution) of the physical screen of each electronic device. Each electronic device can display an arbitrary portion (an arbitrary one of a plurality of display areas included in the canvas 30A) in the canvas 30A on a display.

カンバス30Aのプレビュー画像において、「1」を表示するタグが付けられた枠F11は、参加者1が現在見ているカンバス30A内の部分(表示エリア)を示す。「2」を表示するタグが付けられた枠F12は、参加者2が現在見ているカンバス30A内の部分(表示エリア)を示す。「3」を表示するタグが付けられた枠F13は、参加者3が現在見ているカンバス30A内の部分(表示エリア)を示す。「4」を表示するタグが付けられた枠F14は、参加者4が現在見ているカンバス30A内の部分(表示エリア)を示す。「Owner」を表示するタグが付けられた枠F15は、グループオーナが現在見ているカンバス30A内の部分(表示エリア)を示す。   In the preview image of the canvas 30A, a frame F11 with a tag for displaying “1” indicates a portion (display area) in the canvas 30A that the participant 1 is currently viewing. A frame F12 with a tag indicating “2” indicates a portion (display area) in the canvas 30A that the participant 2 is currently viewing. A frame F13 with a tag indicating “3” indicates a portion (display area) in the canvas 30A that the participant 3 is currently viewing. A frame F14 with a tag displaying “4” indicates a portion (display area) in the canvas 30A that the participant 4 is currently viewing. A frame F15 to which a tag indicating “Owner” is attached indicates a portion (display area) in the canvas 30A that the group owner is currently viewing.

図16は、タブレットコンピュータ10のシステム構成を示す。
タブレットコンピュータ10は、図16に示されるように、CPU101、システムコントローラ102、主メモリ103、グラフィクスプロセッシングユニット(GPU)104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC)108等を備える。
FIG. 16 shows a system configuration of the tablet computer 10.
As shown in FIG. 16, the tablet computer 10 includes a CPU 101, a system controller 102, a main memory 103, a graphics processing unit (GPU) 104, a BIOS-ROM 105, a nonvolatile memory 106, a wireless communication device 107, and an embedded controller (EC). 108 and the like.

CPU101は、タブレットコンピュータ10内の様々なコンポーネントの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる様々なプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)201、および様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、手書き共有アプリケーションプログラム202が含まれている。この手書き共有アプリケーションプログラム202は、手書き情報を複数の電子機器間で共有するための上述の手書きコラボレーション機能を実行することができる。   The CPU 101 is a processor that controls operations of various components in the tablet computer 10. The CPU 101 executes various programs loaded from the nonvolatile memory 106 that is a storage device to the main memory 103. These programs include an operating system (OS) 201 and various application programs. The application program includes a handwriting sharing application program 202. The handwriting sharing application program 202 can execute the above-described handwriting collaboration function for sharing handwritten information among a plurality of electronic devices.

また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 101 also executes a basic input / output system (BIOS) stored in the BIOS-ROM 105. The BIOS is a program for hardware control.

システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスプロセッシングユニット(GPU)104との通信を実行する機能も有している。   The system controller 102 is a device that connects the local bus of the CPU 101 and various components. The system controller 102 also includes a memory controller that controls access to the main memory 103. The system controller 102 also has a function of executing communication with the graphics processing unit (GPU) 104 via a PCI EXPRESS serial bus or the like.

GPU104は、本タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示プロセッサである。このGPU104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17Aの上面側にはタッチパネル17Bが配置されている。LCD17Aの下面側にはデジタイザ17Cが配置されている。タッチパネル17Bは、LCD17Aの画面上で入力を行うための静電容量式のポインティングデバイスである。指が接触される画面上の接触位置および接触位置の動き等はタッチパネル17Bによって検出される。デジタイザ17CはLCD17Aの画面上で入力を行うための電磁誘導式のポインティングデバイスである。ペン100が接触される画面上の接触位置および接触位置の動き等はデジタイザ17Cによって検出される。   The GPU 104 is a display processor that controls the LCD 17 </ b> A used as a display monitor of the tablet computer 10. A display signal generated by the GPU 104 is sent to the LCD 17A. The LCD 17A displays a screen image based on the display signal. A touch panel 17B is disposed on the upper surface side of the LCD 17A. A digitizer 17C is disposed on the lower surface side of the LCD 17A. The touch panel 17B is a capacitance-type pointing device for inputting on the screen of the LCD 17A. The touch position on the screen where the finger is touched and the movement of the touch position are detected by the touch panel 17B. The digitizer 17C is an electromagnetic induction type pointing device for inputting on the screen of the LCD 17A. The digitizer 17C detects the contact position on the screen where the pen 100 is touched, the movement of the contact position, and the like.

無線通信デバイス107は、無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じて本タブレットコンピュータ10を電源オンまたは電源オフする機能を有している。   The wireless communication device 107 is a device configured to perform wireless communication. The EC 108 is a one-chip microcomputer including an embedded controller for power management. The EC 108 has a function of turning on or off the tablet computer 10 in accordance with the operation of the power button by the user.

次に、図17を参照して、手書き共有アプリケーションプログラム202の構成について説明する。   Next, the configuration of the handwriting sharing application program 202 will be described with reference to FIG.

手書き共有アプリケーションプログラム202は、手書き情報を共有するための機能実行モジュールとして、手書き入力インタフェース300、表示処理部301、処理部302、送信制御部303、および受信制御部304等を含む。   The handwriting sharing application program 202 includes a handwriting input interface 300, a display processing unit 301, a processing unit 302, a transmission control unit 303, a reception control unit 304, and the like as function execution modules for sharing handwritten information.

手書き共有アプリケーションプログラム202は、タッチスクリーンディスプレイ17を用いて入力されるストロークデータを使用することによって、手書きページデータの作成、表示、編集等を行う。タッチスクリーンディスプレイ17のデジタイザ17Cは、「タッチ」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ」は、画面上にペンが接触したことを示すイベントである。「移動(スライド)」は、画面上にペンが接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からペンが離されたことを示すイベントである。   The handwriting sharing application program 202 creates, displays, and edits handwritten page data by using stroke data that is input using the touch screen display 17. The digitizer 17C of the touch screen display 17 is configured to detect occurrence of events such as “touch”, “move (slide)”, “release” and the like. “Touch” is an event indicating that the pen has touched the screen. “Move (slide)” is an event indicating that the contact position has been moved while the pen is in contact with the screen. “Release” is an event indicating that the pen is released from the screen.

手書き入力インタフェース300は、タッチスクリーンディスプレイ17のデジタイザ17Cと協同して手書き入力を行うように構成されたインタフェースである。手書き入力インタフェース300は、タッチスクリーンディスプレイ17のデジタイザ17Cから「タッチ」または「移動(スライド)」のイベントを受信し、これによって手書き入力操作を検出する。「タッチ」イベントには、接触位置の座標が含まれている。「移動(スライド)」イベントにも、移動先の接触位置の座標が含まれている。したがって、手書き入力インタフェース300は、タッチスクリーンディスプレイ17から、接触位置の動きの軌跡に対応する座標列(複数の点データ)を受信することができる。   The handwriting input interface 300 is an interface configured to perform handwriting input in cooperation with the digitizer 17 </ b> C of the touch screen display 17. The handwriting input interface 300 receives a “touch” or “move (slide)” event from the digitizer 17 </ b> C of the touch screen display 17, thereby detecting a handwriting input operation. The “touch” event includes the coordinates of the contact position. The “movement (slide)” event also includes the coordinates of the contact position of the movement destination. Therefore, the handwriting input interface 300 can receive a coordinate sequence (a plurality of point data) corresponding to the movement locus of the contact position from the touch screen display 17.

表示処理部301は、カンバス30A内の表示エリア111、112、113のいずれか一つを選択的にLCD17Aに表示する。いま、表示エリア111がLCD17Aに表示されている場合を想定する。表示処理部301は、手書き入力インタフェース300からの座標列に基づいて、ペン100を使用した手書き入力操作によって手書き入力される各ストロークをカンバス30A(表示エリア111)上に表示する。さらに、表示処理部301は、処理部302の制御の下、他の電子機器において表示エリア111に書かれた情報を、表示エリア111上に表示する。   The display processing unit 301 selectively displays any one of the display areas 111, 112, and 113 in the canvas 30A on the LCD 17A. Assume that the display area 111 is displayed on the LCD 17A. Based on the coordinate sequence from the handwriting input interface 300, the display processing unit 301 displays each stroke input by handwriting input operation using the pen 100 on the canvas 30A (display area 111). Further, the display processing unit 301 displays information written in the display area 111 in another electronic device on the display area 111 under the control of the processing unit 302.

送信制御部303は、処理部302の制御の下、無線通信デバイス107を使用して、LCD17A上の表示エリアに入力された情報を他の電子機器に送信するための処理を実行する。受信制御部304は、処理部302の制御の下、無線通信デバイス107を使用して、他の電子機器の表示エリアに入力された情報を他の電子機器から受信するための処理を実行する。   Under the control of the processing unit 302, the transmission control unit 303 uses the wireless communication device 107 to execute processing for transmitting information input to the display area on the LCD 17A to another electronic device. Under the control of the processing unit 302, the reception control unit 304 uses the wireless communication device 107 to execute processing for receiving information input to the display area of another electronic device from the other electronic device.

処理部302は、複数の電子機器間で手書き情報を共有するための処理を実行する。この処理部302は、メンバ管理部311、保存処理部312、追従処理部313、プレビュー処理部314等を含む。   The processing unit 302 executes a process for sharing handwritten information among a plurality of electronic devices. The processing unit 302 includes a member management unit 311, a storage processing unit 312, a follow-up processing unit 313, a preview processing unit 314, and the like.

メンバ管理部311は、手書き共有サービスにログインしているメンバ(電子機器)それぞれを管理する。メンバ管理部311は、手書き共有サービスへのログインを要求している電子機器に、ログインすることを許可するか否かを決定することができる。メンバ管理部311から許可を受け取った電子機器は、手書き共有サービスにログインすることが許可され、これによって手書き共有サービスにログインしている他の各電子機器と接続される。メンバ管理部311の機能は、手書きコラボレーションサーバシステムとして動作する電子機器(グループオーナの電子機器)においてのみ実行されても良い。   The member management unit 311 manages each member (electronic device) logged into the handwriting sharing service. The member management unit 311 can determine whether or not to permit login to an electronic device requesting login to the handwriting sharing service. The electronic device that has received permission from the member management unit 311 is permitted to log in to the handwriting sharing service, and is thereby connected to other electronic devices that are logged in to the handwriting sharing service. The function of the member management unit 311 may be executed only in an electronic device (group owner electronic device) operating as a handwriting collaboration server system.

保存処理部312は、他の電子機器から受信されるデータをデータベース12に保存するための処理を実行する。各データは表示エリアに関連付けられた状態でデータベース12に保存されてもよい。手書きデータに関しては、各点データは、タイムスタンプと共に、データベース12に保存される。   The storage processing unit 312 executes processing for storing data received from other electronic devices in the database 12. Each data may be stored in the database 12 in a state associated with the display area. As for the handwritten data, each point data is stored in the database 12 together with a time stamp.

追従処理部313は、他の機器(例えば。グループオーナの機器)において表示される表示エリアの切り替えに応じて、LCD17Aに表示されている表示エリアを表示エリア111、112、113間で切り替えるための処理を実行する。   The tracking processing unit 313 switches the display area displayed on the LCD 17A between the display areas 111, 112, and 113 in response to switching of the display area displayed on another device (for example, a group owner device). Execute the process.

いま、ある表示エリア(第1表示エリア)がLCD17Aに表示されている場合を想定する。グループオーナの電子機器10Aによって表示される表示エリアが第1表示エリアから別の表示エリア(第2表示エリア)に変更されたならば、追従処理部313は、LCD17Aに表示されている表示エリアを第1表示エリアから第2表示エリアに変更する。これにより、グループオーナの電子機器10Aによって新たに表示される表示エリアと同じ表示エリアをLCD17Aに自動的に表示することができる。   Assume that a certain display area (first display area) is displayed on the LCD 17A. If the display area displayed by the group owner's electronic device 10A is changed from the first display area to another display area (second display area), the tracking processing unit 313 displays the display area displayed on the LCD 17A. Change from the first display area to the second display area. Thereby, the same display area as the display area newly displayed by the electronic device 10A of the group owner can be automatically displayed on the LCD 17A.

次に、指ジェスチャによってLCD17Aに表示されている第1表示エリアが第3表示エリアに変更された後に、グループオーナの電子機器10Aによって表示される表示エリアが第1表示エリアから第2表示エリアに変更された場合を想定する。この場合、LCD17Aに表示されている表示エリアとグループオーナの電子機器10Aによって表示されている表示エリアは既に同期していない。このため、追従処理部313は、LCD17Aに表示されている表示エリアを変更するための処理を実行しない。   Next, after the first display area displayed on the LCD 17A is changed to the third display area by the finger gesture, the display area displayed by the electronic device 10A of the group owner is changed from the first display area to the second display area. Assume a change. In this case, the display area displayed on the LCD 17A and the display area displayed by the group owner's electronic device 10A are not already synchronized. For this reason, the follow-up processing unit 313 does not execute a process for changing the display area displayed on the LCD 17A.

さらに、追従処理部313は、上述の強制同期処理およびセルフ同期処理も実行する。   Furthermore, the follow-up processing unit 313 also executes the above-described forced synchronization process and self-synchronization process.

いま、タブレットコンピュータ10が参加者の電子機器として機能する場合を想定する。追従処理部313は、グループオーナの電子機器10Aから上述の強制同期要求を受信する。そして、追従処理部313は、LCD17Aにどの表示エリアが表示されているかにかかわらず、グループオーナの電子機器10Aにおいて現在表示されている表示エリアと同じ表示エリアをLCD17Aに表示するための処理を実行する。グループオーナの電子機器10Aにおいて現在表示されている表示エリアは、強制同期要求によって指定されてもよい。あるいは、追従処理部313は、電子機器10Aにおいて現在表示されている表示エリアを、電子機器10Aに問い合わせてもよい。   Assume that the tablet computer 10 functions as an electronic device of a participant. The follow-up processing unit 313 receives the above-described forced synchronization request from the group owner electronic device 10A. The follow-up processing unit 313 executes a process for displaying the same display area on the LCD 17A as the display area currently displayed on the electronic device 10A of the group owner, regardless of which display area is displayed on the LCD 17A. To do. The display area currently displayed in the group owner's electronic device 10A may be specified by a forced synchronization request. Alternatively, the tracking processing unit 313 may inquire the electronic device 10A about the display area currently displayed on the electronic device 10A.

LCD17A上に表示される上述のボタン52がユーザによって操作されたならば、追従処理部313は、グループオーナの電子機器10Aにおいて現在表示されている表示エリアを特定するための処理を実行する。この場合、追従処理部313は、電子機器10Aにおいて現在表示されている表示エリアを、電子機器10Aに問い合わせてもよい。そして、追従処理部313は、LCD17A上に表示されている表示エリアを、特定された表示エリアに変更するための処理を実行する。   If the above-described button 52 displayed on the LCD 17A is operated by the user, the follow-up processing unit 313 executes processing for specifying a display area currently displayed on the group owner's electronic device 10A. In this case, the tracking processing unit 313 may inquire the electronic device 10A about the display area currently displayed on the electronic device 10A. Then, the follow-up processing unit 313 executes processing for changing the display area displayed on the LCD 17A to the specified display area.

プレビュー処理部314は、上述のプレビュー処理を実行する。LCD17A上に表示される「プレビュー」ボタンがユーザによって操作されたならば、プレビュー処理部314は、どの表示エリアが各電子機器によって現在表示されているかを識別可能な形態で、カンバス30A全体のプレビュー画像をLCD17A上に表示する。   The preview processing unit 314 executes the above-described preview processing. If the “preview” button displayed on the LCD 17A is operated by the user, the preview processing unit 314 previews the entire canvas 30A in a form that can identify which display area is currently displayed by each electronic device. The image is displayed on the LCD 17A.

図18のフローチャートは、追従処理の手順を示す。   The flowchart in FIG. 18 shows the procedure of the follow-up process.

処理部302は、共有される電子文書を表示可能なカンバス30A内の第1表示エリアをLCD17A上に表示する(ブロックB11)。LCD17A上の第1表示エリアに入力された情報は、他の各電子機器に送信される。また、他の電子機器によって第1表示エリアに入力された情報は、LCD17A上の第1表示エリアに表示される。   The processing unit 302 displays a first display area in the canvas 30A capable of displaying the shared electronic document on the LCD 17A (block B11). Information input to the first display area on the LCD 17A is transmitted to other electronic devices. Information input to the first display area by another electronic device is displayed on the first display area on the LCD 17A.

処理部302は、画面移動のための指ジェスチャがLCD17A上の位置で検出されたか否かを判定する(ブロックB12)。ブロックB12では、タッチパネル17Bによって検出される指の動きに応じて、画面移動のための指ジェスチャ(例えば、スワイプ)が行われたか否かが検出される。この指ジェスチャが検出されたならば(ブロックB12のYES)、処理部302は、カンバス30Aを移動させることによって、LCD17A上に表示される表示エリアを第1表示エリアから別の表示エリアに変更する(ブロックB13)。   The processing unit 302 determines whether or not a finger gesture for moving the screen is detected at a position on the LCD 17A (block B12). In block B12, it is detected whether or not a finger gesture (for example, swipe) for moving the screen has been performed according to the finger movement detected by the touch panel 17B. If this finger gesture is detected (YES in block B12), the processing unit 302 moves the canvas 30A to change the display area displayed on the LCD 17A from the first display area to another display area. (Block B13).

次に、処理部302は、他の電子機器(例えば、グループオーナの電子機器)に表示されている表示エリアが変更されたか否かを判定する(ブロックB14)。ブロックB14では、処理部302は、グループオーナの電子機器からカンバス移動情報が受信されたことを条件に、グループオーナの電子機器に表示されている表示エリアが変更されたと判定しても良い。   Next, the processing unit 302 determines whether or not the display area displayed on another electronic device (for example, the electronic device of the group owner) has been changed (block B14). In block B14, the processing unit 302 may determine that the display area displayed on the electronic device of the group owner has been changed on the condition that the canvas movement information is received from the electronic device of the group owner.

グループオーナの電子機器に表示されている表示エリアが変更されたならば(ブロックB14のYES)、処理部302は、LCD17A上の表示エリアとグループオーナの電子機器の表示エリアとが同期しているか否かを判定する(ブロックB15)。ブロックB15では、画面移動のための指ジェスチャによってLCD17A上に表示される表示エリアが変更されるまでは、LCD17A上の表示エリアとグループオーナの電子機器の表示エリアとが同期していると判定されても良い。一方、画面移動のための指ジェスチャによってLCD17A上に表示される表示エリアが変更された後は、LCD17A上の表示エリアとグループオーナの電子機器の表示エリアとが同期していないと判定されても良い。画面移動のための指ジェスチャによってLCD17A上に表示される表示エリアが変更された後であっても、強制同期処理またはセルフ同期処理が実行されたならば、LCD17A上の表示エリアとグループオーナの電子機器の表示エリアとが再び同期された状態となる。   If the display area displayed on the group owner's electronic device is changed (YES in block B14), the processing unit 302 determines whether the display area on the LCD 17A is synchronized with the display area of the group owner's electronic device. It is determined whether or not (block B15). In block B15, it is determined that the display area on the LCD 17A is synchronized with the display area of the electronic device of the group owner until the display area displayed on the LCD 17A is changed by the finger gesture for moving the screen. May be. On the other hand, after the display area displayed on the LCD 17A is changed by the finger gesture for moving the screen, even if it is determined that the display area on the LCD 17A and the display area of the electronic device of the group owner are not synchronized. good. Even after the display area displayed on the LCD 17A is changed by the finger gesture for moving the screen, if the forced synchronization process or the self-synchronization process is executed, the display area on the LCD 17A and the electronic information of the group owner are displayed. The display area of the device is again synchronized.

あるいは、ブロックB15では、グループオーナの電子機器における変更前の表示エリアとLCD17A上に現在表示される表示エリアとが同じであることを条件に、LCD17A上の表示エリアとグループオーナの電子機器の表示エリアとが同期していると判定しても良い。   Alternatively, in block B15, the display area on the LCD 17A and the display of the electronic device of the group owner are displayed on the condition that the display area before the change in the electronic device of the group owner is the same as the display area currently displayed on the LCD 17A. It may be determined that the area is synchronized.

LCD17A上の表示エリアとグループオーナの電子機器の表示エリアとが同期しているならば(ブロックB15のYES)、処理部302は、LCD17A上に表示されている表示エリアを、グループオーナの電子機器に現在表示されている表示エリアと同じ表示エリアに変更する(ブロックB16)。例えば、LCD17A上に第1表示エリアが表示されている状態で、グループオーナの電子機器によって表示される表示エリアが第1表示エリアから第2表示エリアに変更された場合には、処理部302は、ブロックB16において、LCD17A上に表示されている表示エリアを、第1表示エリアから第2表示エリアに変更するための処理を実行する。一方、第1表示エリアと異なる表示エリアがLCD17A上に表示されている状態で、グループオーナの電子機器によって表示される表示エリアが第1表示エリアから第2表示エリアに変更された場合には、処理部302は、LCD17A上に表示されている表示エリアを、第1表示エリアから第2表示エリアに変更するための処理を実行しない。   If the display area on LCD 17A is synchronized with the display area of the group owner's electronic device (YES in block B15), processing unit 302 uses the display area displayed on LCD 17A as the electronic device of the group owner. The display area is changed to the same display area as currently displayed (block B16). For example, when the display area displayed by the electronic device of the group owner is changed from the first display area to the second display area while the first display area is displayed on the LCD 17A, the processing unit 302 In block B16, a process for changing the display area displayed on the LCD 17A from the first display area to the second display area is executed. On the other hand, when the display area displayed by the electronic device of the group owner is changed from the first display area to the second display area while a display area different from the first display area is displayed on the LCD 17A, The processing unit 302 does not execute a process for changing the display area displayed on the LCD 17A from the first display area to the second display area.

次に、処理部302は、グループオーナの電子機器からの強制同期要求が受信されたか否かを判定する(ブロックB17)。処理部302が強制同期要求を受信したならば(ブロックB17のYES)、処理部302は、LCD17A上にどの表示エリアが表示されているかにかかわらず、LCD17A上に表示されている表示エリアを変更して、グループオーナの電子機器において現在表示されている表示エリアと同じ表示エリア(つまり、強制同期要求によって指定される表示エリア)をLCD17A上に表示する(ブロックB18)。   Next, the processing unit 302 determines whether or not a forced synchronization request has been received from the electronic device of the group owner (block B17). If the processing unit 302 receives the forced synchronization request (YES in block B17), the processing unit 302 changes the display area displayed on the LCD 17A regardless of which display area is displayed on the LCD 17A. Then, the same display area as that currently displayed on the group owner's electronic device (that is, the display area specified by the forced synchronization request) is displayed on the LCD 17A (block B18).

次に、処理部302は、LCD17A上に表示されるユーザインタフェース(同期ボタン52)がユーザによって操作されたか否かを判定する(ブロックB19)。同期ボタン52が操作されたならば(ブロックB19のYES)、処理部302は、現在表示されている表示エリアをグループオーナの電子機器に問い合わせることによって、グループオーナの電子機器に現在表示されている表示エリアを特定する。そして、処理部302は、LCD17A上に表示されている表示エリアを、特定された表示エリアに変更する(ブロックB20)。   Next, the processing unit 302 determines whether the user interface (synchronization button 52) displayed on the LCD 17A has been operated by the user (block B19). If the synchronization button 52 is operated (YES in block B19), the processing unit 302 inquires the electronic device of the group owner about the currently displayed display area, and is currently displayed on the electronic device of the group owner. Specify the display area. Then, the processing unit 302 changes the display area displayed on the LCD 17A to the specified display area (block B20).

図19のフローチャートは、プレビュー処理の手順を示す。   The flowchart in FIG. 19 shows the procedure of the preview process.

「プレビュー」ボタンがユーザによって操作された時、処理部302は、カンバス30A全体を縮小表示することによってカンバス30Aのプレビュー画像を生成する(ブロックB21)。さらに、処理部302は、現在表示されている表示エリアを他の各電子機器にまたはグループオーナの電子機器に問い合わせることによって、他の各電子機器において現在表示されている表示エリアを特定する。そして、処理部302は、プレビュー画像を、カンバス30Aのどの表示エリアが個々の電子機器によって現在表示されているかを識別可能な形態で、LCD17A上に表示する。この場合、処理部302は、各参加者が見ている表示エリアを囲む枠をプレビュー画像上に表示しても良い。さらに、処理部302は、各表示エリアを見ているユーザを識別可能な情報(例えば、図14、図15で説明したタグ等)をプレビュー画像上に表示しても良い。   When the “preview” button is operated by the user, the processing unit 302 generates a preview image of the canvas 30A by reducing the entire canvas 30A (block B21). Furthermore, the processing unit 302 specifies the display area currently displayed on each of the other electronic devices by inquiring about the display area currently displayed on each of the other electronic devices or the electronic device of the group owner. Then, the processing unit 302 displays the preview image on the LCD 17A in a form that can identify which display area of the canvas 30A is currently displayed by each electronic device. In this case, the processing unit 302 may display a frame surrounding the display area viewed by each participant on the preview image. Further, the processing unit 302 may display information (for example, the tag described with reference to FIGS. 14 and 15) that can identify the user who is viewing each display area on the preview image.

処理部302は、ユーザによってプレビュー画像上のある表示エリア(枠で囲まれたエリア)が選択されたか否かを判定する(ブロックB22)。プレビュー画像上のある表示エリアがユーザによって選択されたならば(ブロックB22のYES)、処理部302は、プレビュー画像を表示する処理を終了し、そしてLCD17A上に、選択された表示エリアを通常サイズで表示する(ブロックB23)。   The processing unit 302 determines whether or not a display area (area surrounded by a frame) on the preview image has been selected by the user (block B22). If a certain display area on the preview image is selected by the user (YES in block B22), the processing unit 302 ends the process of displaying the preview image, and displays the selected display area on the LCD 17A in the normal size. Is displayed (block B23).

以上説明したように、本実施形態においては、複数の表示エリア内の第1表示エリアがLCD17Aに表示されている状態で、他の機器(例えば、グループオーナの機器)によって表示される表示エリアが第1表示エリアから第2表示エリアに変更された場合には、LCD17Aに表示されている表示エリアを第1表示エリアから第2表示エリアに変更するための処理が実行される。さらに、第1表示エリアとは異なる別の表示エリアがLCD17Aに表示されている状態で、他の機器(例えば、グループオーナの機器)によって表示される表示エリアが第1表示エリアから第2表示エリアに変更された場合には、LCD17Aに表示されている表示エリアを第1表示エリアから第2表示エリアに変更するための処理は実行されない。   As described above, in the present embodiment, a display area displayed by another device (for example, a device of a group owner) in a state where the first display area in the plurality of display areas is displayed on the LCD 17A. When the display area is changed from the first display area to the second display area, a process for changing the display area displayed on the LCD 17A from the first display area to the second display area is executed. Further, in a state where another display area different from the first display area is displayed on the LCD 17A, the display area displayed by another device (for example, a group owner device) is changed from the first display area to the second display area. When the display area is changed to, the process for changing the display area displayed on the LCD 17A from the first display area to the second display area is not executed.

これにより、各参加者が複数の表示エリア内の任意の表示エリアを自由に閲覧することを妨げること無く、他の機器(例えば、グループオーナの機器)が表示エリアを変更した時に、各参加者の機器に表示されている表示エリアを、グループオーナの機器に新たな表示される表示エリアと同じ表示エリアに自動的に変更することができる。よって、グループオーナのような別のユーザが注目している部分を各参加者に提示することができる
なお、本実施形態の手書きコラボレーションサーバシステム(電子機器10A)の機能は1以上のプロセッサによって実現できる。
Thus, when each device changes the display area without preventing each participant from freely browsing any display area in the plurality of display areas, each participant The display area displayed on the other device can be automatically changed to the same display area as the new display area displayed on the group owner device. Therefore, a part of attention by another user such as a group owner can be presented to each participant. The function of the handwriting collaboration server system (electronic device 10A) of the present embodiment is realized by one or more processors. it can.

また、本実施形態の手書きコラボレーションサーバシステム(電子機器10A)の機能はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。   Moreover, since the function of the handwriting collaboration server system (electronic device 10A) of this embodiment can be realized by a computer program, the computer program is installed in the computer through a computer-readable storage medium storing the computer program. The effect similar to this embodiment can be easily realized only by executing.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

Claims (15)

ネットワーク接続された、オーナである第1電子機器および参加者である第2電子機器を少なくとも含むコラボレーションサーバシステムへ機器ID又はユーザIDを使用してログインすることが可能な電子機器であって、
前記電子機器の物理画面のサイズより広いカンバスを実現するために複数の表示エリアを含み、前記各表示エリアは前記第1電子機器および第2電子機器において入力された情報を表示可能な共有画面として機能する前記カンバスが表示されるディスプレイと、
共有コラボレーション機能を含む共有アプリケーションプログラムを実行する処理手段とを具備し、
前記処理手段は、
前記表示エリアを変更するための移動操作に応じて、前記複数の表示エリアのいずれか一つの表示エリアを前記ディスプレイに表示可能とし、
前記第1電子機器に表示されている第1表示エリアと同期して前記ディスプレイに前記第1エリアが表示されている状態で、前記第1電子機器表示が前記第1表示エリアから前記第2表示エリアに変更された場合、前記変更に追従して前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2表示エリアに変更するための処理を実行し、
前記第1電子機器に表示されている前記第1表示エリアと同期しないで、前記ディスプレイに前記第1表示エリアとは異なる表示エリア表示されている状態で、前記第1電子機器表示前記第1表示エリアから前記第2表示エリアに変更された場合前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2エリアに変更するための処理を実行しない、
電子機器。
A network-connected electronic device capable of logging in to a collaboration server system including at least a first electronic device that is an owner and a second electronic device that is a participant using a device ID or a user ID,
In order to realize a canvas wider than the physical screen size of the electronic device, the display device includes a plurality of display areas, and each display area is a shared screen capable of displaying information input in the first electronic device and the second electronic device. A display on which the functioning canvas is displayed;
Comprising processing means for executing the shared application program including the shared collaboration, to,
The processing means includes
According to the movement operation for changing the display area, any one display area of the plurality of display areas can be displayed on the display,
In a state where the first area in synchronization with the display and the first first display area displayed on the electronic device is being displayed, the second from the display is the first display area of the first electronic device When the display area is changed, a process for changing the display area displayed on the display following the change from the first display area to the second display area is executed.
Is not synchronized with the first display area being displayed on the first electronic device, while the Table shows the area that is different from said the display first display area is displayed, the display of the first electronic device If a is changed from the first display area on the second display area, it does not execute the processing for changing the display area displayed on the display from the first display area to the second area,
Electronics.
前記処理手段は、
前記第1電子機器において現在表示されている表示エリアと同じ表示エリアの表示を要求する強制同期要求であって、前記第1電子機器に表示されるユーザインタフェースの操作に応じて前記第1電子機器から送信される前記強制同期要求を受信するための処理と、
前記強制同期要求受信た場合、前記ディスプレイにどの表示エリアが表示されているかにかかわらず、前記第1電子機器において現在表示されている表示エリアと同じ表示エリアを前記ディスプレイに表示するための処理とを実行する請求項1記載の電子機器。
The processing means includes
A forced synchronization request for requesting the display of the same display area as the display area currently being displayed in the first electronic device, the first electronic device in response to operation of the user interface displayed on the first electronic device and processing for receiving the forced synchronization request transmitted from,
When receiving the compulsory synchronization request, the display which regardless of whether the display area is displayed in, for displaying the same display area as the display area currently being displayed in the first electronic device on the display The electronic device according to claim 1, wherein the processing is executed.
前記ディスプレイに表示されるユーザインタフェースのセルフ同期操作に応じて、前記第1電子機器において現在表示されている表示エリアを特定するための処理と、
前記ディスプレイに表示されている表示エリアを、前記特定された表示エリアと同じ表示エリアに変更するための処理とを実行する請求項1記載の電子機器。
A process for specifying a display area currently displayed on the first electronic device in response to a self-synchronization operation of a user interface displayed on the display;
The electronic device according to claim 1, wherein processing for changing a display area displayed on the display to the same display area as the specified display area is executed.
前記処理手段は、前記ディスプレイに表示されるユーザインタフェースのプレビュー操作に応じて、前記カンバスのどの表示エリアが個々の電子機器によって現在表示されているかを識別可能な形態で前記カンバスの全体を前記ディスプレイに表示する処理を実行する請求項1記載の電子機器。 The processing means displays the entire canvas in a form that can identify which display area of the canvas is currently displayed by an individual electronic device in response to a preview operation of a user interface displayed on the display. The electronic device according to claim 1, wherein a process for displaying on the electronic device is executed. 前記セルフ同期操作を行うための前記ユーザインタ―フェースのボタンを前記移動操作に応じて表示し、前記ボタンの表示により前記ディスプレイに表示される現在の表示エリア前記第1電子機器の表示エリアに同期していないことを明示する請求項記載の電子機器。 The user interface for performing the self synchronous operation - displaying in response to button face to the move operation, the current display area to be displayed on the display by the display of the button display area of the first electronic device explicit electronic device according to claim 3, wherein you that not synchronized. ネットワーク接続された、オーナである第1電子機器および参加者である第2電子機器を少なくとも含むコラボレーションサーバシステムへ機器ID又はユーザIDを使用してログインすることが可能な電子機器であって、前記電子機器の物理画面のサイズより広いカンバスを実現するために複数の表示エリアを含み、前記各表示エリアは前記第1電子機器および第2電子機器において入力された情報を表示可能な共有画面として機能する前記カンバスが表示されるディスプレイと、共有コラボレーション機能を含む共有アプリケーションプログラムを実行する処理手段と、を具備する電子機器によって実行される方法であって、
前記表示エリアを変更するための移動操作に応じて、前記複数の表示エリアのいずれか一つの表示エリアを前記ディスプレイに表示可能とすることと、
前記第1電子機器に表示されている第1表示エリアと同期して前記ディスプレイに前記第1エリアが表示されている状態で、前記第1電子機器表示が前記第1表示エリアから第2表示エリアに変更された場合、前記変更に追従して前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2表示エリアに変更するための処理を実行することと、
前記第1電子機器に表示されている前記第1表示エリアと同期しないで、前記ディスプレイに前記第1表示エリアとは異なる表示エリア表示されている状態で、前記第1電子機器表示前記第1表示エリアから前記第2表示エリアに変更された場合前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2エリアに変更するための処理を実行しないことと、
を具備する方法。
A network-connected electronic device capable of logging in to a collaboration server system including at least a first electronic device as an owner and a second electronic device as a participant using a device ID or a user ID, A plurality of display areas are included to realize a canvas wider than the physical screen size of the electronic device, and each display area functions as a shared screen capable of displaying information input in the first electronic device and the second electronic device A method executed by an electronic device comprising: a display on which the canvas is displayed; and processing means for executing a shared application program including a shared collaboration function ,
In response to a moving operation for changing the display area, one of the plurality of display areas can be displayed on the display;
In a state where the first area in synchronization with the display and the first first display area displayed on the electronic apparatus is displayed, the second display displays the first electronic device from the first display area When changing to an area, following the change, executing a process for changing the display area displayed on the display from the first display area to the second display area;
Is not synchronized with the first display area being displayed on the first electronic device, while the Table shows the area that is different from said the display first display area is displayed, the display of the first electronic device and it but not to execute a process for changing when it is changed from the first display area on the second display area, the display area being displayed on the display from the first display area to the second area,
A method comprising:
前記第1電子機器において現在表示されている表示エリアと同じ表示エリアの表示を要求する強制同期要求であって、前記第1電子機器に表示されるユーザインタフェースの操作に応じて前記第1電子機器から送信される前記強制同期要求を前記第1電子機器から受信することと、
前記強制同期要求受信た場合、前記ディスプレイにどの表示エリアが表示されているかにかかわらず、前記第1電子機器において現在表示されている表示エリアと同じ表示エリアを前記ディスプレイに表示することとをさらに具備する請求項6記載の方法。
A forced synchronization request for requesting the display of the same display area as the display area currently being displayed in the first electronic device, the first electronic device in response to operation of the user interface displayed on the first electronic device Receiving the forced synchronization request transmitted from the first electronic device;
When receiving the compulsory synchronization request, and displaying regardless of what display area on the display is being displayed, the same display area as the display area currently being displayed in the first electronic device on the display The method of claim 6, further comprising:
前記ディスプレイに表示されるユーザインタフェースのセルフ同期操作に応じて、前記第1電子機器において現在表示されている表示エリアを特定することと、
前記ディスプレイに表示されている表示エリアを、前記特定された表示エリアと同じ表示エリアに変更することとをさらに具備する請求項6記載の方法。
Identifying a display area currently displayed on the first electronic device in response to a self-synchronization operation of a user interface displayed on the display;
The method according to claim 6, further comprising changing the display area displayed on the display to the same display area as the identified display area.
前記ディスプレイに表示されるユーザインタフェースのプレビュー操作に応じて、前記カンバスのどの表示エリアが個々の電子機器によって現在表示されているかを識別可能な形態で前記カンバスの全体を前記ディスプレイに表示することをさらに具備する請求項記載の方法。 In response to a preview operation of the user interface displayed on the display, the entire canvas is displayed on the display in a form that can identify which display area of the canvas is currently displayed by each electronic device. The method of claim 8, further comprising: 前記セルフ同期操作を行うための前記ユーザインタ―フェースのボタンを前記移動操作に応じて表示し、前記ボタンの表示により前記ディスプレイに表示される現在の表示エリア前記第1電子機器の表示エリアに同期していないことを明示する請求項記載の方法。 The user interface for performing the self synchronous operation - displaying in response to button face to the move operation, the current display area to be displayed on the display by the display of the button display area of the first electronic device the method of claim 8, wherein you specify that not synchronized. ネットワーク接続された、オーナである第1電子機器および参加者である第2電子機器を少なくとも含むコラボレーションサーバシステムへ機器ID又はユーザIDを使用してログインすることが可能な電子機器であって、前記電子機器の物理画面のサイズより広いカンバスを実現するために複数の表示エリアを含み、前記各表示エリアは前記第1電子機器および第2電子機器において入力された情報を表示可能な共有画面として機能する前記カンバスが表示されるディスプレイと、共有コラボレーション機能を含む共有アプリケーションプログラムを実行する処理手段と、を具備するコンピュータによって実行されるプログラムであって、
前記表示エリアを変更するための移動操作に応じて、前記複数の表示エリアのいずれか一つの表示エリアを前記ディスプレイに表示可能とする手順と、
前記第1電子機器に表示されている第1表示エリアと同期して前記ディスプレイに前記第1エリアが表示されている状態で、前記第1電子機器表示が前記第1表示エリアから第2表示エリアに変更された場合、前記変更に追従して前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2表示エリアに変更する手順と、
前記第1電子機器に表示されている前記第1表示エリアと同期しないで、前記ディスプレイに前記第1表示エリアとは異なる表示エリア表示されている状態で、前記第1電子機器表示前記第1表示エリアから前記第2表示エリアに変更された場合前記ディスプレイに表示されている表示エリアを前記第1表示エリアから前記第2エリアに変更しない手順と、
を具備するプログラム。
A network-connected electronic device capable of logging in to a collaboration server system including at least a first electronic device as an owner and a second electronic device as a participant using a device ID or a user ID, A plurality of display areas are included to realize a canvas wider than the physical screen size of the electronic device, and each display area functions as a shared screen capable of displaying information input in the first electronic device and the second electronic device A program executed by a computer comprising a display on which the canvas is displayed and a processing means for executing a shared application program including a shared collaboration function ,
In accordance with a moving operation for changing the display area, a procedure for displaying any one display area of the plurality of display areas on the display;
In a state where the first area in synchronization with the display and the first first display area displayed on the electronic apparatus is displayed, the second display displays the first electronic device from the first display area If it is changed in the area, and how to change the display area by following the change are displayed on the display from the first display area on the second display area,
Is not synchronized with the first display area being displayed on the first electronic device, while the Table shows the area that is different from said the display first display area is displayed, the display of the first electronic device and procedures but do not change when it is changed from the first display area on the second display area, the display area being displayed on the display from the first display area to the second area,
A program comprising:
前記第1電子機器において現在表示されている表示エリアと同じ表示エリアの表示を要求する強制同期要求であって、前記第1電子機器に表示されるユーザインタフェースの操作に応じて前記第1電子機器から送信される前記強制同期要求を前記第1電子機器から受信する手順と、
前記強制同期要求受信た場合、前記ディスプレイにどの表示エリアが表示されているかにかかわらず、前記第1電子機器において現在表示されている表示エリアと同じ表示エリアを前記ディスプレイに表示する手順をさらに具備する請求項11記載のプログラム。
A forced synchronization request for requesting the display of the same display area as the display area currently being displayed in the first electronic device, the first electronic device in response to operation of the user interface displayed on the first electronic device a step of receiving the forced synchronization request from said first electronic device to be transmitted from,
When receiving the compulsory synchronization request, the procedure for displaying regardless of what display area on the display is being displayed, the same display area as the display area currently being displayed in the first electronic device on the display further claim 11, wherein a program having a.
前記ディスプレイに表示されるユーザインタフェースのセルフ同期操作に応じて、前記第1電子機器において現在表示されている表示エリアを特定する手順と、
前記ディスプレイに表示されている表示エリアを、前記特定された表示エリアと同じ表示エリアに変更する手順、をさらに具備する請求項11記載のプログラム。
In accordance with a self-synchronization operation of a user interface displayed on the display, a procedure for specifying a display area currently displayed on the first electronic device;
The program according to claim 11 , further comprising a step of changing a display area displayed on the display to the same display area as the specified display area.
前記ディスプレイに表示されるユーザインタフェースのプレビュー操作に応じて、前記カンバスのどの表示エリアが個々の電子機器によって現在表示されているかを識別可能な形態で前記カンバスの全体を前記ディスプレイに表示する手順をさらに具備する請求項11記載のプログラム。 In accordance with a preview operation of the user interface displayed on the display, a procedure for displaying the entire canvas on the display in a form that can identify which display area of the canvas is currently displayed by an individual electronic device. The program according to claim 11, further comprising: 前記セルフ同期操作を行うための前記ユーザインタ―フェースのボタンを前記移動操作に応じて表示し、前記ボタンの表示により前記ディスプレイに表示される現在の表示エリア前記第1電子機器の表示エリアに同期していないことを明示する手順をさらに具備する請求項13記載のプログラム。 The user interface for performing the self synchronous operation - displaying in response to button face to the move operation, the current display area to be displayed on the display by the display of the button display area of the first electronic device further to that claim 13 programs include a manifest procedures that are not synchronized.
JP2016542463A 2014-08-12 2014-08-12 Electronic device and method for displaying information Active JP6293903B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/071304 WO2016024330A1 (en) 2014-08-12 2014-08-12 Electronic device and method for displaying information

Publications (2)

Publication Number Publication Date
JPWO2016024330A1 JPWO2016024330A1 (en) 2017-05-25
JP6293903B2 true JP6293903B2 (en) 2018-03-14

Family

ID=55303974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016542463A Active JP6293903B2 (en) 2014-08-12 2014-08-12 Electronic device and method for displaying information

Country Status (2)

Country Link
JP (1) JP6293903B2 (en)
WO (1) WO2016024330A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017154565A1 (en) * 2016-03-09 2017-09-14 コニカミノルタ株式会社 Joint operation system, edting control program, and editing control method
JP6941715B2 (en) * 2017-09-22 2021-09-29 Kddi株式会社 Display device, display program, display method and display system
CN114690888A (en) * 2020-12-30 2022-07-01 华为技术有限公司 Application interface processing method and related equipment

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287776A (en) * 1994-04-19 1995-10-31 Nippon Telegr & Teleph Corp <Ntt> Method for displaying shared plotted image
JPH09101767A (en) * 1995-07-31 1997-04-15 Canon Inc Terminal device, control method for terminal, conference system, and computer readable memory
JP2003030122A (en) * 2002-05-08 2003-01-31 Digital Vision Laboratories Corp Data sharing method and data processor applied to network system
US20040230655A1 (en) * 2003-05-16 2004-11-18 Chia-Hsin Li Method and system for media playback architecture
JP2010033229A (en) * 2008-07-28 2010-02-12 Hitachi Software Eng Co Ltd Teleconference system for controlling synchronization state
JP2011134122A (en) * 2009-12-24 2011-07-07 Sharp Corp Information processing apparatus, conference system, information processing method, conference support method, and computer program
JP2012038210A (en) * 2010-08-10 2012-02-23 Sony Corp Information processing unit, information processing method, computer program, and content display system
JP2012133493A (en) * 2010-12-20 2012-07-12 Nec Networks & System Integration Corp Electronic conference system

Also Published As

Publication number Publication date
WO2016024330A1 (en) 2016-02-18
JPWO2016024330A1 (en) 2017-05-25

Similar Documents

Publication Publication Date Title
US9804731B1 (en) Emissive surfaces and workspaces method and apparatus
AU2014312481B2 (en) Display apparatus, portable device and screen display methods thereof
US20130198653A1 (en) Method of displaying input during a collaboration session and interactive board employing same
US20160321025A1 (en) Electronic apparatus and method
JP2019503004A (en) How to swap visual elements and put interactive content on individual related displays
JP6235723B2 (en) System and method for sharing handwritten information
US10990344B2 (en) Information processing apparatus, information processing system, and information processing method
US10565299B2 (en) Electronic apparatus and display control method
US20140145969A1 (en) System and method for graphic object management in a large-display area computing device
JP6465277B6 (en) Electronic device, processing method and program
US10419230B2 (en) Electronic apparatus and method
US10540070B2 (en) Method for tracking displays during a collaboration session and interactive board employing same
JP6293903B2 (en) Electronic device and method for displaying information
US10116768B2 (en) Control system, control method, and communication device
JP2013232123A (en) Electronic conference system, terminal, and file providing server
US11775127B1 (en) Emissive surfaces and workspaces method and apparatus
JP6203398B2 (en) System and method for processing stroke data
JP6935744B2 (en) Data sharing system, information processing device, program, data sharing method
JP2008310442A (en) Remote control system, control method, and program
JP2013232124A (en) Electronic conference system
JP6271728B2 (en) Electronic device and method for handwriting
JP6208348B2 (en) System and method for sharing handwritten information
JP6068428B2 (en) Image display system control method and control apparatus
WO2016046902A1 (en) System, method, and program for sharing handwritten information
JP2016115191A (en) Conference support device, conference support system, conference support method, and conference support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180214

R151 Written notification of patent or utility model registration

Ref document number: 6293903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350