JP2015060592A - Image processing system, and information processor - Google Patents

Image processing system, and information processor Download PDF

Info

Publication number
JP2015060592A
JP2015060592A JP2014180411A JP2014180411A JP2015060592A JP 2015060592 A JP2015060592 A JP 2015060592A JP 2014180411 A JP2014180411 A JP 2014180411A JP 2014180411 A JP2014180411 A JP 2014180411A JP 2015060592 A JP2015060592 A JP 2015060592A
Authority
JP
Japan
Prior art keywords
image
unit
remote
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014180411A
Other languages
Japanese (ja)
Other versions
JP5846270B2 (en
Inventor
崇範 永原
Takanori Nagahara
崇範 永原
笠谷 潔
Kiyoshi Kasatani
潔 笠谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014180411A priority Critical patent/JP5846270B2/en
Publication of JP2015060592A publication Critical patent/JP2015060592A/en
Application granted granted Critical
Publication of JP5846270B2 publication Critical patent/JP5846270B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system for enabling a user of each base to grasp operations of users of other bases in advance.SOLUTION: A first information processor includes operation reception means 26, operation contents notification information creation means 39 for creating operation contents notification information of an operation, first display means control means 37 for reflecting operation contents in display means of the first information processor, and transmission means 65 for transmitting the operation contents to second information processor. The second information processor makes display means of the second information processor display the operation contents notification information transmitted from the first information processor, and displays an image reflecting the operation contents in the display means of the second information processor on the basis of the operation contents transmitted from the first information processor.

Description

本発明は、表示手段に表示された画像を共有する複数の情報処理装置がネットワークを介して接続された画像処理システムに関する。   The present invention relates to an image processing system in which a plurality of information processing apparatuses that share an image displayed on a display means are connected via a network.

企業や教育機関、行政機関等における会議等において、大型ディスプレイに背景画像を表示させ、この背景画像の上にユーザが文字や数字、図形等のストローク画像を描画可能な電子黒板が利用されている。このような電子黒板では、タッチパネルなどに対しユーザによって生成されたストローク画像をタッチパネルに表示することができる。ストローク画像は1ページ毎に背景などと共にページデータとして保存される。   An electronic blackboard is used in which a background image is displayed on a large display at a meeting in a company, an educational institution, an administrative organization, etc., and a user can draw stroke images such as letters, numbers, and figures on the background image. . In such an electronic blackboard, a stroke image generated by a user on a touch panel or the like can be displayed on the touch panel. The stroke image is stored as page data together with the background for each page.

また、ネットワークの普及に伴い各拠点の電子黒板をネットワークで接続して、ストローク画像などを各電子黒板が共有する技術も知られるようになった(例えば、特許文献1参照。)。特許文献1には、拠点識別情報を入力されたデータと共に送信し、操作者などの拠点情報を添付してデータを表示する相互情報共有システムが開示されている。   In addition, with the spread of networks, a technology is also known in which electronic blackboards at each base are connected by a network so that each electronic blackboard shares a stroke image or the like (see, for example, Patent Document 1). Patent Document 1 discloses a mutual information sharing system that transmits base identification information together with input data, and displays the data by attaching base information such as an operator.

しかしながら、特許文献1の相互情報共有システムのように、入力されたデータと拠点情報を同時に送信することで、データと共にデータを入力した拠点情報を表示できるが、拠点が分かった時にはすでにデータが描画されているという問題がある。複数の拠点がストローク画像を共有する場合、複数の拠点のユーザが任意のタイミングでストロークを書き込むことができるが、同じ場所に書き込むことが少なくない。このため、拠点情報がデータと共に表示されたのでは、各拠点のユーザは他の拠点のユーザの操作を予測できず、例えば重複する場所に複数のユーザがストロークを書き込むことが生じ、ストロークが重なってしまい判読が困難になる場合があった。   However, as in the mutual information sharing system of Patent Document 1, the input data and the base information can be transmitted at the same time to display the base information in which the data is input, but when the base is known, the data is already drawn. There is a problem that has been. When a plurality of bases share a stroke image, users at a plurality of bases can write a stroke at an arbitrary timing, but often write in the same place. For this reason, if the base information is displayed together with the data, the user at each base cannot predict the operation of the user at the other base. For example, a plurality of users may write strokes at overlapping locations, and the strokes overlap. It may be difficult to interpret.

また、ストロークの描画に限られず、他の拠点のユーザの操作を予測できないと、ある拠点のユーザの操作と矛盾する操作を別の拠点のユーザが行う場合があり、良好な操作感が得られない場合が生じうる。   In addition, it is not limited to drawing strokes, and if the operation of a user at another site cannot be predicted, a user at another site may perform an operation that contradicts the operation of a user at another site, and a good operational feeling is obtained. There may be no case.

本発明は、上記課題に鑑み、各拠点のユーザが他の拠点のユーザの操作を事前に把握可能な画像処理システムを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image processing system in which users at each site can grasp in advance the operations of users at other sites.

本発明は、画像を表示する表示手段を含む複数の情報処理装置がネットワークを介して接続された画像処理システムであって、第1の情報処理装置は、操作を受け付ける操作受け付け手段と、前記操作受け付け手段により受け付けられた操作を通知する操作内容通知情報を作成する操作内容通知情報作成手段と、前記操作の操作内容が反映された画像を第1の情報処理装置の前記表示手段に表示させる第1の表示手段制御手段と、前記操作内容通知情報及び前記操作内容を前記第2の情報処理装置に送信する送信手段と、を有し、前記第2の情報処理装置は、前記第1の情報処理装置から送信された前記操作内容通知情報を前記第2の情報処理装置の前記表示手段に表示させ、前記第1の情報処理装置から送信された前記操作内容に基づいて、当該操作内容が反映された画像を前記第2の情報処理装置の前記表示手段に表示することを特徴とする。   The present invention is an image processing system in which a plurality of information processing apparatuses including a display unit for displaying an image are connected via a network, wherein the first information processing apparatus includes an operation receiving unit that receives an operation, and the operation Operation content notification information creating means for creating operation content notification information for notifying an operation accepted by the accepting means, and an image reflecting the operation contents of the operation are displayed on the display means of the first information processing apparatus. 1 display means control means, and transmission means for transmitting the operation content notification information and the operation content to the second information processing device, wherein the second information processing device is configured to transmit the first information. The operation content notification information transmitted from the processing device is displayed on the display means of the second information processing device, and based on the operation content transmitted from the first information processing device. And displaying an image in which the operation content is reflected on the display unit of the second information processing apparatus.

各拠点のユーザが他の拠点のユーザの操作を事前に把握可能な画像処理システムを提供することができる。   It is possible to provide an image processing system in which users at each base can grasp in advance the operations of users at other bases.

画像処理システムの全体構成図の一例である。1 is an example of an overall configuration diagram of an image processing system. 電子黒板のハードウェア構成図の一例である。It is an example of the hardware block diagram of an electronic blackboard. 電子黒板の機能ブロック図の一例である。It is an example of the functional block diagram of an electronic blackboard. ファイル処理部の機能ブロック図の一例である。It is an example of a functional block diagram of a file processing unit. 通信制御部の機能ブロック図の一例である。It is an example of the functional block diagram of a communication control part. ページデータを模式的に説明する図の一例である。It is an example of the figure which illustrates page data typically. ストローク配列データを模式的に説明する図の一例である。It is an example of the figure which illustrates stroke sequence data typically. 座標配列データを模式的に説明する図の一例である。It is an example of the figure which illustrates coordinate arrangement data typically. メディアデータを模式的に説明する図の一例である。It is an example of the figure which illustrates media data typically. 遠隔ライセンス管理テーブルを模式的に説明する図の一例である。It is an example of the figure which illustrates a remote license management table typically. アドレス帳管理テーブルを模式的に説明する図の一例である。It is an example of the figure which illustrates an address book management table typically. バックアップデータを模式的に説明する図の一例である。It is an example of the figure which illustrates backup data typically. 接続先管理テーブルを模式的に説明する図の一例である。It is an example of the figure which illustrates a connecting point management table typically. 参加拠点管理テーブルを模式的に説明する図の一例である。It is an example of the figure which illustrates a participating base management table typically. 操作データを模式的に説明する図の一例である。It is an example of the figure which illustrates operation data typically. 各画像レイヤの重畳処理について説明する図の一例である。It is an example of the figure explaining the superimposition process of each image layer. 電子黒板が遠隔会議に参加するシーケンス図の一例を示す。An example of the sequence diagram in which an electronic blackboard participates in a remote conference is shown. 電子黒板が画像を表示するシーケンス図の一例を示す。An example of the sequence diagram in which an electronic blackboard displays an image is shown. 参加装置のディスプレイに表示される拠点のリストの表示例を示す図である。It is a figure which shows the example of a display of the list | wrist of the base displayed on the display of a participating apparatus. 遠隔コンテキストの送信手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the transmission procedure of a remote context. 遠隔コンテキストを受信した拠点がディスプレイに表示する遠隔コンテキストの一例である。It is an example of the remote context which the base which received the remote context displays on a display. 接触センサの概略構成図の一例である。It is an example of the schematic block diagram of a contact sensor. 指判別部が指による描画であることを判別しマーカーを描画する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which a finger discrimination | determination part discriminate | determines that it is drawing with a finger | toe and draws a marker. 電子黒板の機能ブロック図の一例である(実施例3)。(Example 3) which is an example of the functional block diagram of an electronic blackboard. アフィン変換行列を説明する図の一例である。It is an example of the figure explaining an affine transformation matrix. 2つの拠点でジェスチャを共有する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which shares a gesture in two bases.

以下、図面を用いて、本発明の一実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

<システムの概要>
図1は、本実施形態の画像処理システムの全体構成図である。なお、図1では、説明を簡略化するために、2台の電子黒板2a,2b及びこれに付随する電子ペン4a,4b等を示しているだけであって、3台以上の電子黒板や電子ペン等を利用してもよい。電子黒板2a,2bは特許請求の範囲の情報処理装置の一例である。
<System overview>
FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment. In FIG. 1, only two electronic blackboards 2a and 2b and associated electronic pens 4a and 4b are shown to simplify the description. A pen or the like may be used. The electronic blackboards 2a and 2b are examples of the information processing apparatus in the claims.

図1に示されているように、画像処理システム1は、複数の電子黒板2a,2b、複数の電子ペン4a,4b、USBメモリ5a,5b、ノートPC(Personal Computer)6a,6b、テレビ(ビデオ)会議端末7a,7b、及びPC8を有する。また、電子黒板2a,2b、及びPC8は、通信ネットワーク9を介して通信可能に接続されている。更に、複数の電子黒板2a,2bには、それぞれディスプレイ3a,3bが設けられている
また、電子黒板2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)による描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。
As shown in FIG. 1, the image processing system 1 includes a plurality of electronic blackboards 2a and 2b, a plurality of electronic pens 4a and 4b, USB memories 5a and 5b, notebook PCs (Personal Computers) 6a and 6b, a television ( Video) having conference terminals 7a, 7b and PC8. The electronic blackboards 2a and 2b and the PC 8 are connected via a communication network 9 so that they can communicate with each other. Further, the plurality of electronic blackboards 2a and 2b are respectively provided with displays 3a and 3b. Also, the electronic blackboard 2a has an event generated by the electronic pen 4a (the pen tip of the electronic pen 4a on the display 3a or An image drawn by touching the pen butt of the electronic pen 4a can be displayed on the display 3a. Note that the image displayed on the display 3a can be changed based not only on the electronic pen 4a but also on an event (a gesture such as enlargement, reduction, or page turning) generated by the user's hand Ha or the like.

また、電子黒板2aには、USBメモリ5aが接続可能であり、電子黒板2aはUSBメモリ5aからPDF等の電子ファイルを読み出したり、電子黒板2aはUSBメモリ5aに電子ファイルを記録したりすることができる。また、電子黒板2aには、Display Port、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、電子黒板2aでは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置のイベントと同様に、ノートPC6aに送信する。同じく、電子黒板2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、ノートPC6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、電子黒板2aと通信してもよい。   The electronic blackboard 2a can be connected to a USB memory 5a. The electronic blackboard 2a reads an electronic file such as PDF from the USB memory 5a, and the electronic blackboard 2a records an electronic file in the USB memory 5a. Can do. In addition, the electronic blackboard 2a is connected via a cable 10a1 capable of communication according to standards such as Display Port, DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), and VGA (Video Graphics Array). The notebook PC 6a is connected. The electronic blackboard 2a generates an event by touching the display 3a, and transmits event information indicating the event to the notebook PC 6a in the same manner as an event of an input device such as a mouse or a keyboard. Similarly, a television (video) conference terminal 7a is connected to the electronic blackboard 2a via a cable 10a2 capable of communication according to the above-mentioned standards. Note that the notebook PC 6a and the video conference terminal 7a may communicate with the electronic blackboard 2a by wireless communication complying with various wireless communication protocols such as Bluetooth (registered trademark).

一方、電子黒板2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた電子黒板2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。   On the other hand, in the other bases where the electronic blackboard 2b is installed, the electronic blackboard 2b with the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conference terminal 7b, the cable 10b1, and the cable 10b2 in the same manner as described above. Is used. Furthermore, the image displayed on the display 3b can be changed based on an event caused by the user's hand Hb or the like.

これにより、一の拠点で電子黒板2aのディスプレイ3a上に描画された画像は、他の拠点で電子黒板2bのディスプレイ3b上にも表示され、逆に他の拠点で電子黒板2bのディスプレイ3b上に描画された画像は、一の拠点で電子黒板2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。   Thereby, the image drawn on the display 3a of the electronic blackboard 2a at one base is also displayed on the display 3b of the electronic blackboard 2b at another base, and conversely on the display 3b of the electronic blackboard 2b at another base. The image drawn on is displayed on the display 3a of the electronic blackboard 2a at one base. As described above, the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and thus is very convenient when used for a conference or the like at a remote location.

なお、以下では、複数の電子黒板のうち任意の電子黒板を示す場合には「電子黒板2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノートPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。   In the following, when an arbitrary electronic blackboard among the plurality of electronic blackboards is indicated, it is indicated as “electronic blackboard 2”. When an arbitrary display among a plurality of displays is shown, “display 3” is shown. When an arbitrary electronic pen among a plurality of electronic pens is indicated, it is indicated as “electronic pen 4”. When an arbitrary USB memory is indicated among the plurality of USB memories, it is indicated as “USB memory 5”. When an arbitrary notebook PC among the plurality of notebook PCs is indicated, it is indicated as “notebook PC 6”. When an arbitrary video conference terminal is indicated among the plurality of video conference terminals, it is indicated as “video conference terminal 7”. In addition, “hand H” is used when an arbitrary hand among the hands of a plurality of users is shown. When an arbitrary cable is indicated among the plurality of cables, it is indicated as “cable 10”.

また、本実施形態では、画像処理装置の一例として、電子黒板を説明するが、これに限るものではなく、画像処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、情報処理端末の一例として、ノートPC6を説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、スマートフォン、PDA、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。更に、通信ネットワークには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。   In the present embodiment, an electronic blackboard is described as an example of an image processing device. However, the present invention is not limited to this, and other examples of the image processing device include electronic signboards (digital signage), sports and weather forecasts. It may be a telestrator to be used, a remote image (video) diagnostic device, or the like. The notebook PC 6 will be described as an example of the information processing terminal, but is not limited thereto, and other examples of the information processing terminal include a desktop PC, a tablet PC, a smartphone, a PDA, a digital video camera, and a digital camera. A terminal capable of supplying image frames such as a game machine may be used. Further, the communication network includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like. In this embodiment, a USB memory is described as an example of a recording medium. However, the present invention is not limited to this, and various recording media such as an SD card may be used as another example of the recording medium.

<電子黒板のハードウェア構成>
続いて、図2を用いて、本実施形態の電子黒板のハードウェア構成を説明する。なお、図2は、電子黒板のハードウェア構成図である。
<Hardware configuration of electronic blackboard>
Next, the hardware configuration of the electronic blackboard according to the present embodiment will be described with reference to FIG. FIG. 2 is a hardware configuration diagram of the electronic blackboard.

図2に示されているように、電子黒板2は、電子黒板2全体の動作を制御するCPU101、IPL等のCPU101の駆動に用いられるプログラムを記憶したROM102、CPU101のワークエリアとして使用されるRAM103、電子黒板2用のプログラム等の各種データを記憶するSSD204、通信ネットワーク9との通信を制御するネットワークコントローラ105、及び、USBメモリ5との通信を制御する外部記憶コントローラ106を備えている。   As shown in FIG. 2, the electronic blackboard 2 includes a CPU 101 that controls the operation of the electronic blackboard 2 as a whole, a ROM 102 that stores a program used to drive the CPU 101 such as an IPL, and a RAM 103 that is used as a work area of the CPU 101. And an SSD 204 for storing various data such as a program for the electronic blackboard 2, a network controller 105 for controlling communication with the communication network 9, and an external storage controller 106 for controlling communication with the USB memory 5.

また、電子黒板2は、ノートPC6がディスプレイに表示している静止画または動画を取り込むキャプチャデバイス111、グラフィクスを専門に扱うGPU(Graphics Processing Unit)112、及び、GPUからの出力画像をディスプレイ3やテレビ会議端末7へ出力するために画面表示の制御及び管理を行うディスプレイコントローラ113を備えている。   The electronic blackboard 2 also includes a capture device 111 that captures still images or moving images displayed on the display of the notebook PC 6, a GPU (Graphics Processing Unit) 112 that specializes in graphics, and an output image from the GPU on the display 3 or A display controller 113 that controls and manages screen display for output to the video conference terminal 7 is provided.

更に、電子黒板2は、接触センサ115の処理を制御するセンサコントローラ114、ディスプレイ3上に電子ペン4やユーザの手H等が接触したことを検知する接触センサ115を備えている。この接触センサ115は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置(不図示)が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻ってくる光を受光する方法である。接触センサ115は、物体によって遮断された2つの受発光装置が放射した赤外線のID(Identification)をセンサコントローラ114に出力し、センサコントローラ114が、物体の接触位置である座標位置を特定する。なお、以下に示す全てのIDは、識別情報の一例である。   The electronic blackboard 2 further includes a sensor controller 114 that controls processing of the contact sensor 115 and a contact sensor 115 that detects that the electronic pen 4 or the hand H of the user touches the display 3. The contact sensor 115 performs coordinate input and coordinate detection by an infrared ray blocking method. In this coordinate input and coordinate detection method, two light emitting / receiving devices (not shown) installed at both upper ends of the display 3 emit a plurality of infrared rays in parallel with the display 3, This is a method of receiving light that is reflected by the reflecting member provided on the light source and returns on the same optical path as the light path of the light emitted by the light receiving element. The contact sensor 115 outputs infrared ID (Identification) emitted by the two light receiving and emitting devices blocked by the object to the sensor controller 114, and the sensor controller 114 identifies the coordinate position that is the contact position of the object. All IDs shown below are examples of identification information.

また、接触センサ115としては、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。   In addition, the contact sensor 115 is not limited to the infrared blocking method, and a capacitive touch panel that identifies a contact position by detecting a change in capacitance, or a contact position determined by a voltage change between two opposing resistance films. Various detection means such as a resistance film type touch panel to be identified and an electromagnetic induction type touch panel to identify a contact position by detecting electromagnetic induction caused by contact of a contact object with the display unit may be used.

また、電子黒板2は、電子ペンコントローラ116を備えている。この電子ペンコントローラ116は、電子ペン4と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。なお、電子ペンコントローラ116が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。   The electronic blackboard 2 includes an electronic pen controller 116. This electronic pen controller 116 communicates with the electronic pen 4 to determine whether or not there is a pen tip touch or a pen butt touch on the display 3. It should be noted that the electronic pen controller 116 may determine whether or not the user grips the part of the electronic pen 4 as well as the other electronic pen part, as well as the pen tip and the bottom of the electronic pen 4.

更に、電子黒板2は、CPU101、ROM102、RAM103、SSD104、ネットワークコントローラ105、外部記憶コントローラ106、キャプチャデバイス111、GPU112、及びセンサコントローラ114、及び、電子ペンコントローラ116を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン120を備えている。   Further, the electronic blackboard 2 includes the CPU 101, ROM 102, RAM 103, SSD 104, network controller 105, external storage controller 106, capture device 111, GPU 112, sensor controller 114, and electronic pen controller 116 as shown in FIG. Are provided with a bus line 120 such as an address bus and a data bus.

なお、電子黒板2用のプログラムは、CD−ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。   The program for the electronic blackboard 2 may be recorded and distributed on a computer-readable recording medium such as a CD-ROM.

<電子黒板の機能構成>
続いて、図3乃至図16を用いて、電子黒板の機能構成について説明する。なお、先ずは、図3を用いて、電子黒板2の全体的な機能構成について説明する。図3は、電子黒板の機能ブロック図である。
<Functional configuration of electronic blackboard>
Next, the functional configuration of the electronic blackboard will be described with reference to FIGS. First, the overall functional configuration of the electronic blackboard 2 will be described with reference to FIG. FIG. 3 is a functional block diagram of the electronic blackboard.

電子黒板2は、図2に示されているハードウェア構成及びプログラムによって、図3にされている各機能構成を有する。電子黒板2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、すでに開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。電子黒板2は、主要な機能として、クライアント機20及びサーバ機90を有している。即ち、電子黒板2の1台の筐体内に、クライアント機20及びサーバ機90が含まれている。クライアント機20及びサーバ機90は、電子黒板2の1台の筐体内で実現される機能である。そして、電子黒板2が主催装置となる場合には、この電子黒板2では、クライアント機20とサーバ機90が実現される。また、電子黒板2が参加装置となる場合には、この電子黒板2では、クライアント機20は実現されるが、サーバ機90は実現されない。即ち、図1において、電子黒板2aが主催装置で、電子黒板2bが参加装置となる場合、電子黒板2aのクライアント機20は、同じ電子黒板2a内に実現されたサーバ機90を介して、他の電子黒板2bのクライアント機20と通信を行う。一方、電子黒板2bのクライアント機20は、他の電子黒板2a内に実現されたサーバ機90を介して、他の電子黒板2aのクライアント機と通信を行う。   The electronic blackboard 2 has the functional configurations shown in FIG. 3 by the hardware configuration and program shown in FIG. The electronic blackboard 2 can be a “host device” that starts the remote sharing process first, and can also be a “participating device” that participates in the remote sharing process that has already started. The electronic blackboard 2 includes a client machine 20 and a server machine 90 as main functions. That is, the client machine 20 and the server machine 90 are included in one casing of the electronic blackboard 2. The client machine 20 and the server machine 90 are functions realized in one housing of the electronic blackboard 2. When the electronic blackboard 2 is a host device, the electronic blackboard 2 implements the client machine 20 and the server machine 90. When the electronic blackboard 2 is a participating device, the client machine 20 is realized in the electronic blackboard 2, but the server machine 90 is not realized. That is, in FIG. 1, when the electronic blackboard 2a is the hosting device and the electronic blackboard 2b is the participating device, the client machine 20 of the electronic blackboard 2a is connected via the server machine 90 implemented in the same electronic blackboard 2a. The electronic blackboard 2b communicates with the client machine 20. On the other hand, the client machine 20 of the electronic blackboard 2b communicates with the client machine of the other electronic blackboard 2a via the server machine 90 realized in the other electronic blackboard 2a.

〔クライアント機20の機能構成〕
続いて、主に図3乃至図5を用いて、クライアント機20の機能構成について説明する。クライアント機20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、指判別部29-1、指入力開始待機タイマー29-2、画像処理部30、及び通信制御部60を有する。
[Functional configuration of client machine 20]
Subsequently, the functional configuration of the client machine 20 will be described mainly using FIGS. 3 to 5. The client machine 20 includes a video acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25, an operation processing unit 26, a gesture processing unit 27, a video superimposition unit 28, and a finger determination unit 29. -1, a finger input start standby timer 29-2, an image processing unit 30, and a communication control unit 60.

このうち、映像取得部21は、ケーブル10に接続されたノートPC6等の映像出力機器の出力映像を取得する。映像取得部21は、映像出力機器(ノートPC6等)から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。   Among these, the video acquisition unit 21 acquires an output video of a video output device such as a notebook PC 6 connected to the cable 10. When the video acquisition unit 21 receives an image signal from a video output device (such as a notebook PC 6), the video acquisition unit 21 analyzes the image signal, and the resolution of an image frame that is a display image of the video output device formed by the image signal, Image information such as the update frequency of the image frame is derived and output to the image acquisition unit 31.

座標検知部22は、ディスプレイ3上でユーザによって生じたイベント(ディスプレイ3上にユーザの手Hがタッチされた動作等)の座標位置を検出する。また、座標検知部22は、タッチされた面積も検出する。   The coordinate detection unit 22 detects the coordinate position of an event (such as an operation in which the user's hand H is touched on the display 3) generated by the user on the display 3. The coordinate detection unit 22 also detects the touched area.

自動調整部23は、電子黒板2の起動時に起動され、接触センサ115が座標検知部22に適切な値を出力できるように、接触センサ115の光センサ方式におけるセンサーカメラの画像処理のパラメータを調整する。   The automatic adjustment unit 23 is activated when the electronic blackboard 2 is activated, and adjusts the image processing parameters of the sensor camera in the optical sensor method of the contact sensor 115 so that the contact sensor 115 can output an appropriate value to the coordinate detection unit 22. To do.

接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)された動作等)を検出する。   The contact detection unit 24 detects an event (such as an operation in which the pen tip of the electronic pen 4 or the pen butt of the electronic pen 4 is pressed (touched) on the display 3).

イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。   The event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 to each event of stroke drawing, UI operation, and gesture operation.

ここで、「ストローク描画」は、ディスプレイ3上に図16に示されている後述のストローク画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。   Here, “stroke drawing” is performed when the user presses the electronic pen 4 on the display 3 when a stroke image (B) described later shown in FIG. 16 is displayed on the display 3. In this state, the electronic pen 4 is moved and finally the electronic pen 4 is released from the display 3. By this stroke drawing, for example, alphabets “S” and “T” are drawn on the display 3. The “stroke drawing” includes not only drawing an image but also an event of deleting an already drawn image or editing a drawn image.

「UI操作」は、ディスプレイ3上に図16に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。   The “UI operation” is an event in which the user presses a predetermined position with the electronic pen 4 or the hand H when a UI image (A) described later shown in FIG. 16 is displayed on the display 3. . By this UI operation, for example, the color or width of a line drawn by the electronic pen 4 is set.

「ジェスチャ操作」は、ディスプレイ3上に図16に示されている後述のストローク画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。   The “gesture operation” is an event in which the user touches or moves the display 3 with the hand H when the stroke image (B) described later shown in FIG. is there. By this gesture operation, for example, by moving the hand H while the user touches the display 3 with the hand H, the image can be enlarged (or reduced), the display area can be changed, or the page can be switched. it can.

操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素に従って、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたイベントに対し、座標の履歴などからジェスチャの内容を判別しジェスチャイベントを発生させる。   The operation processing unit 26 executes various operations according to the UI element in which the event is generated, from what is determined as the UI operation by the event distribution unit 25. Examples of the UI element include a button, a list, a check box, and a text box. The gesture processing unit 27 generates a gesture event by determining the content of the gesture from the history of coordinates and the like for the event determined to be a gesture operation by the event distribution unit 25.

指判別部29-1は、指によるスクリーンへの接触であることを判別する。座標検知部22は赤外線遮断方式と三角測量により座標を検知するので、電子ペン以外の指示具による接触を検知できる。このため、指判別部29-1により電子ペンの接触か、電子ペン以外の指示具による接触かを判別する。なお、電子ペン以外の指示具として指を例として説明するが、指でなくても赤外線の遮光は可能である。   The finger determination unit 29-1 determines that the finger is touching the screen. Since the coordinate detection unit 22 detects coordinates using an infrared ray blocking method and triangulation, it is possible to detect contact with an indicator other than an electronic pen. For this reason, it is determined by the finger determination unit 29-1 whether the contact is made by the electronic pen or by an indicator other than the electronic pen. In addition, although a finger is described as an example of an instruction tool other than the electronic pen, infrared rays can be shielded without using a finger.

指判別部29-1は指の判別のため、イベント振分部25から接触検知影像イベント、ペンダウンイベントを取得する。接触検知影像イベントは接触センサ115の検知エリア(スクリーンから数cm以下のスクリーンに平行なエリア)で遮光を検出したというイベントである。ペンダウンイベントは、接触検知部24が電子ペン4のペン先、又は、電子ペン4のペン尻のタッチを検知したというイベントである。また、指判別部29-1は、ジェスチャ処理部からジェスチャ中イベントを取得する。   The finger determination unit 29-1 acquires a touch detection image event and a pen-down event from the event distribution unit 25 for finger determination. The contact detection image event is an event in which light shielding is detected in the detection area of the contact sensor 115 (an area parallel to the screen that is several cm or less from the screen). The pen down event is an event in which the touch detection unit 24 detects a touch of the pen tip of the electronic pen 4 or the pen butt of the electronic pen 4. In addition, the finger determination unit 29-1 acquires an event during gesture from the gesture processing unit.

指判別部29-1は接触検知影像イベント、ペンダウンイベント、及び、ジェスチャ中イベントの有無、並びに、影像イベントの影像の大きさに応じて、指入力開始待機タイマー29-2による時間の計測(カウント)を開始する。また、指判別部29-1は指入力開始待機タイマー29-2がカウントを開始すると、座標値を時系列に蓄積(キューイング)する。   The finger determination unit 29-1 measures the time by the finger input start waiting timer 29-2 according to the presence / absence of the touch detection image event, the pen down event, the gesture event, and the size of the image of the image event ( Count). In addition, when the finger input start standby timer 29-2 starts counting, the finger determination unit 29-1 accumulates (queues) the coordinate values in time series.

指入力開始待機タイマー29-2が所定時間以上の時間をカウントすると、指判別部29-1は指で描画されていると判別して、マーカー処理部38にキューイングしていた座標を伝達する。マーカー処理部38は一連の座標をマーカー描画し、その後は取得した座標をマーカーの最後尾の座標としてマーカーの描画を継続する。   When the finger input start standby timer 29-2 counts a time equal to or longer than a predetermined time, the finger determination unit 29-1 determines that the finger is being drawn and transmits the coordinates queued to the marker processing unit 38. . The marker processing unit 38 draws a series of coordinates as a marker, and thereafter continues drawing the marker using the acquired coordinates as the last coordinate of the marker.

したがって、指判別部29-1が指であると判別するとマーカー処理部38がマーカーで描画し、電子ペンであると判別するとストローク処理部32がペンでストロークを描画する。指判別部29-1が指であると判別することをマーカーイベントが検知されたと称する場合がある。   Therefore, when the finger determination unit 29-1 determines that it is a finger, the marker processing unit 38 draws with a marker, and when it determines that it is an electronic pen, the stroke processing unit 32 draws a stroke with the pen. Determining that the finger determination unit 29-1 is a finger may be referred to as detecting a marker event.

なお、本実施例では後述する遠隔コンテキストにマーカーイベントが含まれるため、指判別部29-1、指入力開始待機タイマー29-2、マーカー処理部38について説明したが、詳細は実施例2にて説明する。   In the present embodiment, since the marker event is included in the remote context described later, the finger determination unit 29-1, the finger input start standby timer 29-2, and the marker processing unit 38 have been described, but the details will be described in the second embodiment. explain.

映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として映像出力器(ディスプレイ3)に対して表示する。また、映像重畳部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャ・イン・ピクチャする。更に、映像重畳部28は、ピクチャ・イン・ピクチャされてディスプレイ3の一部に表示された映像を、ディスプレイ3の全体に表示させるための切り替えを行う。   The video superimposing unit 28 displays the image superimposed by the display superimposing unit 36 described later as a video on the video output device (display 3). In addition, the video superimposing unit 28 performs picture-in-picture of the video sent from another video output device (such as the video conference terminal 7) with respect to the video from the video output device (such as the notebook PC 6). Further, the video superimposing unit 28 performs switching for displaying the video that is picture-in-picture and displayed on a part of the display 3 on the entire display 3.

画像処理部30は、各画像レイヤの重畳処理等を行う。適宜図16を用いて具体歴な重畳例を説明する。画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、マーカー処理部38、コンテキスト処理部39、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。   The image processing unit 30 performs superimposition processing of each image layer. Specific examples of superposition will be described with reference to FIG. The image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, a background generation unit 34, a layout management unit 35, a marker processing unit 38, a context processing unit 39, a display superimposing unit 36, and a page processing unit. 37, a file processing unit 40, a page data storage unit 300, and a remote license management table 310.

このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。この画像は、図16に示されている映像出力機器(ノートPC6等)からの出力画像(C)に相当する。   Among these, the image acquisition unit 31 acquires each frame as an image from the video acquired by the video acquisition unit 21. This image corresponds to an output image (C) from the video output device (notebook PC 6 or the like) shown in FIG.

ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントに基づいて、画像を描画したり、描画された画像を削除したり、描画された画像を編集する。このストローク描画による画像は、図16に示されているストローク画像(B)に相当する。また、このストローク等に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、操作データ記憶部840に記憶される。   The stroke processing unit 32 draws an image, deletes the drawn image, or edits the drawn image based on the event related to the stroke drawing assigned by the event distribution unit 25. The image by this stroke drawing corresponds to the stroke image (B) shown in FIG. In addition, the results of drawing, deleting, and editing an image based on the stroke and the like are stored in the operation data storage unit 840 as operation data described later.

UI画像生成部33は、電子黒板2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図16に示されているUI画像(A)に相当する。   The UI image generation unit 33 generates a UI (user interface) image set in advance on the electronic blackboard 2. This UI image corresponds to the UI image (A) shown in FIG.

背景生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。背景生成部34は、この受信したメディアデータを表示重畳部36に出力する。また、このメディアデータによる画像は、図16に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。   The background generation unit 34 receives media data from the page data read from the page data storage unit 300 by the page processing unit 37 from the page processing unit 37. The background generation unit 34 outputs the received media data to the display superimposing unit 36. The image based on the media data corresponds to the background image (D) shown in FIG. The pattern of the background image (D) is plain or grid display.

レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及び、UI画像生成部33(又は背景生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。   The layout management unit 35 provides the layout information indicating the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (or the background generation unit 34) to the display superimposing unit 36. Is managing. Thereby, the layout management unit 35 causes the display superimposing unit 36 to display the output image (C) and the stroke image (B) in the UI image (A) and the background image (D). It is possible to instruct whether to hide.

コンテキスト処理部39は、マーカーイベント、ジェスチャイベント、ページ作成・消去イベント、ファイル読み込みイベントを、通信制御部60の遠隔コンテキスト送信部68を介してサーバ機90に送信する。また、コンテキスト処理部39は、通信制御部60の遠隔コンテキスト受信部67から、マーカーイベント、ジェスチャイベント、ページ作成・消去イベント、ファイル読み込みイベントを取得する。また、通信制御部60の参加拠点管理テーブル610から、他拠点参加イベント、他拠点退出イベントを取得する。コンテキスト処理部39は、取得したイベントと拠点に応じて拠点画像を生成し、ディスプレイ3に表示する。なお、ページ作成・消去イベントはユーザがUI画像に対しページ作成又は消去の操作を行うことで発生する。ファイル読み込みイベントはファイル入力部42aがファイルを読み込むことで発生する。他拠点参加イベントは、参加拠点管理テーブル610に新しく拠点が登録されることで発生する。他拠点退出イベントは参加拠点管理テーブル610から拠点が削除されることで発生する。   The context processing unit 39 transmits a marker event, a gesture event, a page creation / deletion event, and a file read event to the server machine 90 via the remote context transmission unit 68 of the communication control unit 60. In addition, the context processing unit 39 acquires a marker event, a gesture event, a page creation / deletion event, and a file read event from the remote context receiving unit 67 of the communication control unit 60. Also, the other site participation event and the other site leaving event are acquired from the participating site management table 610 of the communication control unit 60. The context processing unit 39 generates a base image according to the acquired event and base and displays it on the display 3. Note that a page creation / deletion event occurs when a user performs a page creation or deletion operation on a UI image. The file read event occurs when the file input unit 42a reads a file. The other site participation event occurs when a new site is registered in the participating site management table 610. The other site exit event occurs when a site is deleted from the participating site management table 610.

表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、UI画像生成部33(背景生成部34)、マーカー処理部38、及び背景生成部34から出力された各画像のレイアウトを行う。   The display superimposing unit 36 is based on the layout information output from the layout management unit 35, and includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33 (background generation unit 34), a marker processing unit 38, and a background generation unit. The layout of each image output from 34 is performed.

ページ処理部37は、ストローク画像(B)のデータと出力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。ストローク画像(B)のデータは、図6に示されているストローク配列データIDで示されるストローク配列データ(各ストロークデータ)として、ページデータの一部を成す。出力画像(C)のデータは、図6に示されているメディアデータIDで示されているメディアデータとして、ページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。   The page processing unit 37 stores the data of the stroke image (B) and the data of the output image (C) in one page data and stores them in the page data storage unit 300. The data of the stroke image (B) forms part of page data as stroke arrangement data (each stroke data) indicated by the stroke arrangement data ID shown in FIG. The data of the output image (C) forms part of the page data as the media data indicated by the media data ID shown in FIG. Then, when this media data is read from the page data storage unit 300, it is handled as data of the background image (D).

また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、背景生成部34を介して表示重畳部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちのストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを削除したり複製したりすることもできる。   Further, the page processing unit 37 transmits the media data of the once stored page data to the display superimposing unit 36 via the background generating unit 34 so that the video superimposing unit 28 displays the background image (D). 3 can be displayed again. The page processing unit 37 can return the stroke arrangement data (each stroke data) in the page data to the stroke processing unit 32 so that the stroke can be re-edited. Further, the page processing unit 37 can delete or duplicate page data.

即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている出力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、背景生成部34に出力する。   That is, the data of the output image (C) displayed on the display 3 when the page processing unit 37 stores the page data in the page data storage unit 300 is temporarily stored in the page data storage unit 300 and then When read from the page data storage unit 300, it is read as media data indicating the background image (D). Then, the page processing unit 37 outputs stroke arrangement data indicating the stroke image (B) among the page data read from the page data storage unit 300 to the stroke processing unit 32. Further, the page processing unit 37 outputs media data indicating the background image (D) among the page data read from the page data storage unit 300 to the background generation unit 34.

表示重畳部36は、画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、背景生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトに従って重畳する。これにより、図16に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイアの構成となっている。   The display superimposing unit 36 includes an output image (C) from the image acquisition unit 31, a stroke image (B) from the stroke processing unit 32, a UI image (A) from the UI image generation unit 33, and a background generation unit 34. The background image (D) is superimposed according to the layout designated by the layout management unit 35. Accordingly, as shown in FIG. 16, each of the UI image (A), the stroke image (B), the output image (C), and the background image (D) is displayed in the order in which the user can see even if the images overlap. It has Leia composition.

また、表示重畳部36は、図16に示されている画像(C)と画像(D)を切り替えて画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示されている状態で、電子黒板2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、描画(C)を重畳対象から外し、画像(D)を表示させることができる。また、表示重畳部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。   The display superimposing unit 36 can also superimpose the image (A) and the image (B) exclusively by switching the image (C) and the image (D) shown in FIG. For example, when the cable 10 between the electronic blackboard 2 and the video output device (notebook PC 6 or the like) is disconnected while the image (A), the image (B), and the image (C) are initially displayed. According to the designation of the layout management unit 35, the drawing (C) can be removed from the superimposition target and the image (D) can be displayed. The display superimposing unit 36 also performs display enlargement, display reduction, and display area movement processing.

ページデータ記憶部300は、図6に示されているようなページデータを記憶する。図6は、ページデータを示す概念図である。ページデータは、ディスプレイ3に表示される1ページ分のデータ(ストローク配列データ(各ストロークデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、ここでは、図6乃至9に分けて、ページデータの内容を説明する。   The page data storage unit 300 stores page data as shown in FIG. FIG. 6 is a conceptual diagram showing page data. The page data is data for one page displayed on the display 3 (stroke arrangement data (each stroke data) and media data). Since there are many types of parameters included in the page data, the contents of the page data will be described here separately in FIGS.

ページデータは、図6に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開示時刻、ストロークやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。ストローク配列データは、後述の図16に示されているストローク画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、後述の16に示されている背景画像(D)がディスプレイ3上に表示されるためのデータである。   As shown in FIG. 6, the page data includes a page data ID for identifying an arbitrary page, a disclosure time indicating the start time of display of this page, and rewriting of the contents of the page by a stroke, a gesture, or the like. Are associated with the end time indicating the time when the operation is stopped, the stroke arrangement data ID for identifying the stroke arrangement data generated by the stroke of the electronic pen 4 or the user's hand H, and the media data ID for identifying the media data. Is remembered. The stroke arrangement data is data for displaying a stroke image (B) shown in FIG. The media data is data for displaying a background image (D) shown in 16 described later on the display 3.

このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、ストロークデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によって、アルファベット「T」を描く場合、二筆書きとなるため、ストロークデータIDが2つで一文字のアルファベット「T」が示されることになる。   With such page data, for example, when the user draws the alphabet “S” with the electronic pen 4, the stroke is written in one stroke, and therefore, one stroke data ID is displayed and one letter of the alphabet [S] is indicated. However, when the user draws the alphabet “T” with the electronic pen 4, it is written with two strokes, so that one stroke of the alphabet “T” is indicated by two stroke data IDs.

また、ストローク配列データは、図7に示されているように詳細な情報を示している。図7は、ストローク配列データを示す概念図である。図7に示されているように、1つのストローク配列データは、複数のストロークデータによって表される。そして、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データIDを示している。   The stroke arrangement data shows detailed information as shown in FIG. FIG. 7 is a conceptual diagram showing stroke arrangement data. As shown in FIG. 7, one stroke arrangement data is represented by a plurality of stroke data. One stroke data includes a stroke data ID for identifying the stroke data, a start time indicating the start time of writing one stroke, an end time indicating the end time of writing one stroke, the color of the stroke, A stroke width and coordinate array data ID for identifying an array of stroke passing points are shown.

更に、この座標配列データは、図8に示されているように詳細な情報を示している。図8は、座標配列データを示す概念図である。図8に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開示時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。   Further, the coordinate array data shows detailed information as shown in FIG. FIG. 8 is a conceptual diagram showing coordinate array data. As shown in FIG. 8, the coordinate array data includes one point (X coordinate value, Y coordinate value) on the display 3, and a time difference (ms from the disclosure time of the stroke when the one point is passed) ) And writing pressure information of the electronic pen 4 at this one point.

即ち、図8に示されている1点の集まりが、図7に示されている1つの座標配列データで示されている。例えば、ユーザが電子ペン4によって、アルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。   That is, the collection of one point shown in FIG. 8 is shown by one coordinate array data shown in FIG. For example, when the user draws the alphabet “S” with the electronic pen 4, it is drawn with a single stroke, but passes through a plurality of passing points before the drawing of “S”. Point information is shown.

また、図6に示されているページデータのうちのメディアデータは、図9に示されているように詳細な情報を示している。図9は、メディアデータを示す概念図である。図9に示されているように、メディアデータは、図6に示されているページデータにおけるメディアデータID、メディアデータのデータ種類、ページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻、ページデータによってディスプレイ3上に表示される画像の位置(X座標値、Y座標値)及び画像のサイズ(幅、高さ)、並びにメディアデータの内容を示すデータが関連付けられて示されている。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値,Y座標値)=(0,0)とした場合に、ページデータによって表示される画像の左上端の位置を示している。   Further, the media data in the page data shown in FIG. 6 shows detailed information as shown in FIG. FIG. 9 is a conceptual diagram showing media data. As shown in FIG. 9, the media data is stored in the page data storage unit 300 from the page processing unit 37, the media data ID in the page data shown in FIG. The recording time, the position of the image displayed on the display 3 by the page data (X coordinate value, Y coordinate value), the size of the image (width, height), and data indicating the contents of the media data are shown in association with each other. Has been. Among these, the position of the image displayed on the display 3 by the page data is displayed by the page data when the coordinates of the upper left corner of the display 3 are (X coordinate value, Y coordinate value) = (0, 0). The position of the upper left corner of the image to be displayed is shown.

図3に戻り、遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。この遠隔ライセンス管理テーブル310では、図10に示されているように、電子黒板2のプロダクトID、認証に用いられるライセンスID、及びライセンスの有効期限が関連付けて管理されている。   Returning to FIG. 3, the remote license management table 310 manages license data necessary for executing the remote sharing process. In the remote license management table 310, as shown in FIG. 10, the product ID of the electronic blackboard 2, the license ID used for authentication, and the expiration date of the license are managed in association with each other.

(ファイル処理部40の機能構成)
続いて、図4を用いて、図3に示されているファイル処理部40の機能構成を説明する。なお、図4は、ファイル処理部の機能ブロック図である。以下では、最初に遠隔共有処理を開始する電子黒板2を「主催装置」、既に開始されている遠隔共有処理に後から参加する電子黒板2を「参加装置」と称して説明する。
(Functional configuration of the file processing unit 40)
Next, the functional configuration of the file processing unit 40 shown in FIG. 3 will be described with reference to FIG. FIG. 4 is a functional block diagram of the file processing unit. Hereinafter, the electronic blackboard 2 that starts the remote sharing process first will be referred to as “host device”, and the electronic blackboard 2 that will participate in the remote sharing processing that has already been started will be referred to as “participating device”.

ファイル処理部40は、リカバリ処理部41、ファイル入力部42a、ファイル出力部42b、ファイル変換部43、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a、及び設定ファイル出力部49bを有している。更に、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部430、及び接続先管理テーブル440を有している。   The file processing unit 40 includes a recovery processing unit 41, a file input unit 42a, a file output unit 42b, a file conversion unit 43, a file transmission unit 44, an address book input unit 45, a backup processing unit 46, a backup output unit 47, and a setting management unit. 48, a setting file input unit 49a, and a setting file output unit 49b. Furthermore, the file processing unit 40 includes an address book management table 410, a backup data storage unit 420, a setting file storage unit 430, and a connection destination management table 440.

このうち、リカバリ処理部41は、電子黒板2が異常終了した後に、異常終了を検知し、未保存のページデータを復旧する。例えば、正常終了の場合は、ページデータがPDFファイルとしてファイル処理部40を介してUSB5に記録されるが、電源がダウンした等の異常終了の場合は、ページデータがページデータ記憶部300に記録されたままになっている。そのため、再び、電源オンになった際に、リカバリ処理部41は、ページデータ記憶部300からページデータを読み出すことで復旧させる。   Among these, the recovery processing unit 41 detects the abnormal end after the electronic blackboard 2 ends abnormally, and recovers the unsaved page data. For example, in the case of a normal end, the page data is recorded as a PDF file on the USB 5 via the file processing unit 40, but in the case of an abnormal end such as when the power is down, the page data is recorded in the page data storage unit 300 Has been done. Therefore, when the power is turned on again, the recovery processing unit 41 recovers by reading the page data from the page data storage unit 300.

ファイル入力部42aは、USBメモリ5から、PDFファイルを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。   The file input unit 42a reads a PDF file from the USB memory 5 and stores each page in the page data storage unit 300 as page data.

ファイル変換部43は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換する。   The file conversion unit 43 converts the page data stored in the page data storage unit 300 into a PDF format file.

ファイル出力部42bは、ファイル変換部43によって出力されたPDFファイルをUSBメモリ5に記録する。   The file output unit 42 b records the PDF file output by the file conversion unit 43 in the USB memory 5.

ファイル送信部44は、ファイル変換部43によって生成されたPDFファイルを、電子メールに添付して送信する。このファイルの送信先は、表示重畳部36によってディスプレイ3上にアドレス帳管理テーブル410の内容を表示し、ファイル送信部44がユーザによるタッチパネル等の入力装置の操作により、宛先の選択を受け付けることによって決定される。アドレス帳管理テーブル410には、図11に示されているように、宛先の名前及び宛先の電子メールのメールアドレスが関連付けて管理されている。また、ファイル送信部44が、ユーザによるタッチパネル等の入力装置の操作により、宛先としてのメールアドレスの入力を受け付けることもできる。   The file transmission unit 44 transmits the PDF file generated by the file conversion unit 43 by attaching it to an electronic mail. The transmission destination of the file is displayed by displaying the contents of the address book management table 410 on the display 3 by the display superimposing unit 36, and the file transmitting unit 44 accepts the selection of the destination by the operation of the input device such as a touch panel by the user. It is determined. In the address book management table 410, as shown in FIG. 11, the name of the destination and the mail address of the destination e-mail are managed in association with each other. Further, the file transmission unit 44 can accept an input of a mail address as a destination by an operation of an input device such as a touch panel by the user.

アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。   The address book input unit 45 reads a list file of e-mail addresses from the USB memory 5 and manages it in the address book management table 410.

バックアップ処理部46は、ファイル出力部42bによって出力されたファイルや、ファイル送信部44によって送信されたファイルを、バックアップデータ記憶部420に記憶することでバックアップする。なお、ユーザがバックアップ設定しない場合は、バックアップの処理は行われない。バックアップデータは、図12に示されているように、PDF形式で記憶される。   The backup processing unit 46 performs backup by storing the file output by the file output unit 42 b and the file transmitted by the file transmission unit 44 in the backup data storage unit 420. If the user does not set backup, backup processing is not performed. The backup data is stored in the PDF format as shown in FIG.

バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶の際には、ユーザによるタッチパネル等の入力装置の操作により、セキュリティーのためにパスワードが入力される。   The backup output unit 47 stores the backed up file in the USB memory 5. At the time of storage, a password is input for security by the operation of an input device such as a touch panel by the user.

設定管理部48は、電子黒板2の各種設定情報を設定ファイル記憶部430に記憶したり読み出したりして管理する。この各種設定情報としては、例えば、ネットワーク設定、日付や時刻の設定、地域や言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定、バックアップに関する設定が挙げられる。なお、ネットワーク設定は、例えば、電子黒板2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定、又はDNS(Domain Name System)の設定等である。   The setting management unit 48 stores and reads various setting information of the electronic blackboard 2 in the setting file storage unit 430 for management. Examples of the various setting information include network settings, date and time settings, region and language settings, mail server settings, address book settings, connection destination list settings, and backup settings. The network setting is, for example, an IP address setting of the electronic blackboard 2, a net mask setting, a default gateway setting, a DNS (Domain Name System) setting, or the like.

設定ファイル出力部49bは、電子黒板2の各種設定情報を、設定ファイルとしてUSBメモリ5に記録させる。なお、設定ファイルはセキュリティーによって、ユーザは中身を見ることができない。   The setting file output unit 49b records various setting information of the electronic blackboard 2 in the USB memory 5 as a setting file. Note that the settings file cannot be viewed by the user due to security.

設定ファイル入力部49aは、USBメモリ5に記憶されている設定ファイルを読み込み、各種設定情報を電子黒板の各種設定に反映させる。   The setting file input unit 49a reads a setting file stored in the USB memory 5 and reflects various setting information on various settings of the electronic blackboard.

アドレス帳入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスの一覧ファイルを読み込み、接続先管理テーブル440に管理する。なお、図13(a)に示されているように、接続先管理テーブル440は、電子黒板2が遠隔共有処理に参加しようとする参加装置である場合、この参加装置のユーザが主催装置としての役割を果たす電子黒板のIPアドレスを入力する手間を削減するために、予め管理しておくためのテーブルである。この接続先管理テーブル440では、参加されることが可能な主催装置としての電子黒板2が設置されている拠点の拠点名、主催装置としての電子黒板2のIPアドレス、及び、接続状態が関連付けて管理されている。この接続状態は、特許請求の範囲の「通信状態情報」の一例である。また、接続先管理テーブル440は特許請求の範囲の「状態記憶手段」の一例である。   The address book input unit 50 reads a list file of connection destination IP addresses for remote sharing processing from the USB memory 5 and manages it in the connection destination management table 440. As shown in FIG. 13A, when the electronic blackboard 2 is a participating device that intends to participate in the remote sharing process, the connection destination management table 440 indicates that the user of the participating device is a host device. It is a table for managing beforehand, in order to reduce the effort which inputs the IP address of the electronic blackboard which plays a role. In the connection destination management table 440, the base name of the base where the electronic blackboard 2 as the hosting device that can participate is installed, the IP address of the electronic blackboard 2 as the hosting device, and the connection state are associated with each other. It is managed. This connection state is an example of “communication state information” in the claims. The connection destination management table 440 is an example of the “state storage unit” in the claims.

図13(b)は接続状態の意味を説明する図の一例である。接続状態には、例えば、オフライン、オンライン、開催中、開催中、開催中(互換)、開催中(バージョン違い)の5種類がある。接続状態は、主催装置との通信の可否、会議の開催状態、参加可否の組み合わせで判断される。通信可否が「不能」であれば、開催状態も「不明」、参加可否も「不明」となるためオフラインと判断される。オンラインは、通信可否が「可能」だが、開催状態が「開催していない」ため参加可否が「不明」な状態である。通信可否が「可能」であり、開催状態も「開催している」、参加可否も「参加可能」であれば、開催中と判断される。なお、「開催している」とは、主催装置のユーザが所定の操作を行い、参加装置がページデータなどを共有可能な状態である。   FIG. 13B is an example for explaining the meaning of the connection state. There are five types of connection states, for example, offline, online, currently being held, being held, being held (compatible), and being held (different versions). The connection state is determined by a combination of whether communication with the hosting device is possible, whether the conference is held, and whether participation is possible. If the communication availability is “impossible”, the holding state is also “unknown” and the participation availability is “unknown”, so it is determined to be offline. In the online state, whether communication is possible is “possible”, but because the holding state is “not held”, the participation possibility is “unknown”. If the communication possibility is “possible”, the holding state is “held”, and the participation possibility is also “participable”, it is determined that the event is being held. Note that “hosting” means a state in which a user of the sponsoring device performs a predetermined operation and the participating devices can share page data and the like.

「開催中(互換)」は主催装置と参加装置のソフトウェアのバージョンが違うが、互換モードで参加が可能であるという状態である。互換モードではバージョンが古い方のソフトウェアの機能しか使用できない。   “Currently (Compatible)” is a state in which the host device and the participating device have different software versions, but participation is possible in the compatibility mode. In compatibility mode, only the functions of the older software can be used.

「開催中(バージョン違い)」は主催装置と参加装置のソフトウェアのバージョンが違うため、参加ができない状態である。この接続状態は、例えばバージョンが大きく異なるために参加できない状態である。   “Currently held (different version)” is a state in which participation is not possible because the software version of the sponsoring device is different from that of the participating device. This connection state is a state in which participation is not possible because, for example, the versions are greatly different.

但し、この場合には、参加装置のユーザは、主催装置との間で遠隔要求処理の開始するために、タッチパネル等の入力装置によって、主催装置のIPアドレスを入力する必要がある。そのため、参加装置のユーザは、電話や電子メール等によって、主催装置のユーザから、主催装置のIPアドレスを知得する。   In this case, however, the user of the participating device needs to input the IP address of the host device using an input device such as a touch panel in order to start remote request processing with the host device. Therefore, the user of the participating device obtains the IP address of the sponsoring device from the user of the sponsoring device by telephone or electronic mail.

参加拠点管理テーブル450は、電子黒板が主催装置である場合、現在、遠隔共有処理に参加している参加装置としての電子黒板を管理するテーブルである。この参加拠点管理テーブル450では、図14に示されているように、参加中の電子黒板2が設置されている拠点の名称及び当該電子黒板2のIPアドレスと拠点色が関連付けて管理されている。参加装置が複数の場合は、複数のIPアドレスが登録される。   The participation base management table 450 is a table for managing an electronic blackboard as a participating device that is currently participating in the remote sharing process when the electronic blackboard is a sponsor device. In the participating base management table 450, as shown in FIG. 14, the name of the base where the participating electronic blackboard 2 is installed, the IP address of the electronic blackboard 2, and the base color are managed in association with each other. . When there are a plurality of participating devices, a plurality of IP addresses are registered.

拠点色は、例えば会議への参加順で色が決まる。たとえば、拠点色は開催拠点(1番目)をマゼンタ、以降、2番目をシアン、3番目をオレンジ、4番目をグリーンとする。また、仮に、2番目の拠点が退出した場合、2番目以降の拠点の順序は繰り上がり、3番目の拠点がシアン、4番目の拠点がオレンジとなる。   The base color is determined, for example, in the order of participation in the conference. For example, for the base color, the host base (first) is magenta, the second is cyan, the third is orange, and the fourth is green. Also, if the second base leaves, the order of the second and subsequent bases is advanced, the third base is cyan, and the fourth base is orange.

また、参加拠点管理テーブルは、参加装置の参加時と退出時、遠隔接続処理部81が遠隔接続結果送信部72を介してクライアント機に送信する。クライアント機の遠隔開始処理部61又は遠隔参加処理部62は参加拠点管理テーブルを受信する。クライアント機の接続先管理テーブルで管理している拠点のうち、受信した参加拠点管理テーブルの拠点のIPアドレスが一致するもので、接続先管理テーブルに名称が設定されていない場合、参加拠点管理テーブルの該当拠点の名称が、接続先管理テーブルに登録される。   The participation base management table is transmitted from the remote connection processing unit 81 to the client machine via the remote connection result transmission unit 72 when the participating device joins and leaves. The remote start processing unit 61 or the remote participation processing unit 62 of the client machine receives the participation base management table. Of the bases managed in the connection destination management table of the client machine, if the IP addresses of the bases in the received participating base management table match and no name is set in the connection destination management table, the participating base management table Are registered in the connection destination management table.

(通信制御部60の機能構成)
次に、図5を用いて、通信制御部60の機能構成について説明する。図5は、通信制御部60の機能ブロック図である。通信制御部60は、通信ネットワーク9を介して、他の電子黒板2と行う通信や、サーバ機90における後述の通信制御部70と行う通信を制御する。そのため、通信制御部60は、遠隔開始処理部61、遠隔参加処理部62、遠隔画像送信部63、遠隔画像受信部64、遠隔操作送信部65、遠隔操作受信部66、遠隔コンテキスト送信部68、遠隔コンテキスト受信部67、及び参加拠点管理テーブル610を有している。
(Functional configuration of communication control unit 60)
Next, the functional configuration of the communication control unit 60 will be described with reference to FIG. FIG. 5 is a functional block diagram of the communication control unit 60. The communication control unit 60 controls communication with other electronic blackboards 2 and communication with the later-described communication control unit 70 in the server machine 90 via the communication network 9. Therefore, the communication control unit 60 includes a remote start processing unit 61, a remote participation processing unit 62, a remote image transmission unit 63, a remote image reception unit 64, a remote operation transmission unit 65, a remote operation reception unit 66, a remote context transmission unit 68, A remote context receiving unit 67 and a participating site management table 610 are provided.

このうち、遠隔開始処理部61は、同じ電子黒板2のサーバ機90に対して、新たに遠隔共有処理を開始する要求を行い、サーバ機90から要求の結果を受信する。この場合、遠隔開始処理部61は、遠隔ライセンス管理テーブル310を参照し、ライセンス情報(プロダクトID、ライセンスID、及び有効期限)が管理されている場合には、遠隔共有処理を開始する要求を行うことができる。但し、ライセンス情報が管理されていない場合には遠隔共有処理を開始する要求を行うことができない。   Among these, the remote start processing unit 61 makes a request for starting a new remote sharing process to the server machine 90 of the same electronic blackboard 2, and receives the request result from the server machine 90. In this case, the remote start processing unit 61 refers to the remote license management table 310 and makes a request to start remote sharing processing when license information (product ID, license ID, and expiration date) is managed. be able to. However, if the license information is not managed, a request to start remote sharing processing cannot be made.

参加拠点管理テーブル610は、電子黒板が主催装置である場合、現在、遠隔共有処理に参加している参加装置としての電子黒板を管理するテーブルである。この参加拠点管理テーブル610では、図14に示されているように、参加中の電子黒板2が設置されている拠点の名称及び当該電子黒板2のIPアドレスが関連付けて管理されている。   The participation base management table 610 is a table for managing an electronic blackboard as a participating device currently participating in the remote sharing process when the electronic blackboard is a sponsor device. In the participating site management table 610, as shown in FIG. 14, the name of the site where the participating electronic blackboard 2 is installed and the IP address of the electronic blackboard 2 are managed in association with each other.

遠隔参加処理部62は、通信ネットワーク9を介して、既に遠隔共有処理を開始している主催装置としての電子黒板2のサーバ機90における遠隔接続要求受信部71に対して、遠隔共有処理への参加要求を行う。この場合も、遠隔参加処理部62は、遠隔ライセンス管理テーブル310を参照する。また、遠隔参加処理部62が、既に開始されている遠隔共有処理に参加する場合には、接続先管理テーブル440を参照して、参加先の電子黒板2のIPアドレスを取得する。なお、遠隔参加処理部62によって接続先管理テーブルが参照されず、ユーザによるタッチパネル等の入力装置の操作により参加先の電子黒板2のIPアドレスが入力されてもよい。   The remote participation processing unit 62 transmits the remote connection processing to the remote sharing processing to the remote connection request receiving unit 71 in the server 90 of the electronic blackboard 2 as the hosting device that has already started the remote sharing processing via the communication network 9. Request participation. Also in this case, the remote participation processing unit 62 refers to the remote license management table 310. In addition, when the remote participation processing unit 62 participates in the remote sharing process that has already been started, the IP address of the electronic blackboard 2 of the participation destination is acquired with reference to the connection destination management table 440. Note that the remote participation processing unit 62 may not input the connection destination management table, and may input the IP address of the electronic blackboard 2 as a participation destination by an operation of an input device such as a touch panel by the user.

遠隔画像送信部63は、映像取得部21から画像取得部31を介して送られて来た出力画像(C)を、サーバ機90に送信する。   The remote image transmission unit 63 transmits the output image (C) sent from the video acquisition unit 21 via the image acquisition unit 31 to the server machine 90.

遠隔画像受信部64は、サーバ機90から、他の電子黒板2に接続された映像出力機器からの画像データを受信し、表示重畳部36に出力することで、遠隔共有処理を可能にする。   The remote image receiving unit 64 receives image data from a video output device connected to another electronic blackboard 2 from the server machine 90 and outputs it to the display superimposing unit 36, thereby enabling remote sharing processing.

遠隔操作送信部65は、遠隔共有処理に必要な各種操作データをサーバ機90に送信する。この各種操作データとしては、例えば、ストロークの追加、ストロークの削除、ストロークの編集(拡大、縮小、移動)、ページデータの記憶、ページデータの作成、ページデータの複製、ページデータの削除、表示されているページの切り替え等に関するデータが挙げられる。また、遠隔操作受信部66は、サーバ機90から、他の電子黒板2で入力された操作データを受信し、画像処理部30に出力することで、遠隔共有処理を行う。   The remote operation transmission unit 65 transmits various operation data necessary for remote sharing processing to the server machine 90. Examples of the operation data include adding a stroke, deleting a stroke, editing a stroke (enlarging, reducing, moving), storing page data, creating page data, duplicating page data, deleting page data, and displaying. Data related to the switching of the current page. In addition, the remote operation receiving unit 66 receives the operation data input from the other electronic blackboard 2 from the server machine 90 and outputs it to the image processing unit 30 to perform remote sharing processing.

遠隔コンテキスト送信部68はコンテキスト処理部39からマーカーイベント、ジェスチャイベント、ページ作成・消去イベント、ファイル読み込みイベントを取得し、遠隔コンテキストとしてサーバ機90に送信する。   The remote context transmission unit 68 acquires a marker event, a gesture event, a page creation / deletion event, and a file read event from the context processing unit 39 and transmits them to the server machine 90 as a remote context.

遠隔コンテキスト受信部67はサーバ機90から他の電子黒板で生じた上記イベント情報を取得し、画像処理部30のコンテキスト処理部39が拠点画像を表示する。   The remote context receiving unit 67 acquires the event information generated on the other electronic blackboard from the server machine 90, and the context processing unit 39 of the image processing unit 30 displays the base image.

〔サーバ機の機能構成〕
続いて、図5を用いて、サーバ機90の機能構成について説明する。サーバ機90は、各電子黒板2に設けられており、いずれの電子黒板2であっても、サーバ機としての役割を果たすことができる。そのため、サーバ機90は、通信制御部70、及びデータ管理部80を有している。
[Functional configuration of server machine]
Next, the functional configuration of the server machine 90 will be described with reference to FIG. The server machine 90 is provided in each electronic blackboard 2, and any electronic blackboard 2 can serve as a server machine. Therefore, the server machine 90 includes a communication control unit 70 and a data management unit 80.

(通信制御部70の機能構成)
次に、図5を用いて、通信制御部70の機能構成について説明する。
(Functional configuration of communication control unit 70)
Next, the functional configuration of the communication control unit 70 will be described with reference to FIG.

通信制御部70は、同じ電子黒板2内のクライアント機20における通信制御部60、及び、通信ネットワーク9を介して他の電子黒板2内のクライアント機20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。   The communication control unit 70 controls communication with the communication control unit 60 in the client machine 20 in the same electronic blackboard 2 and the communication control unit 70 in the client machine 20 in another electronic blackboard 2 via the communication network 9. . The data management unit 80 manages operation data, image data, and the like.

更に詳細に説明すると、通信制御部70は、遠隔接続要求受信部71、遠隔接続結果送信部72、遠隔画像受信部73、遠隔画像送信部74、遠隔操作受信部75、遠隔操作送信部76、遠隔コンテキスト受信部78、及び、遠隔コンテキスト送信部77、を有している。   More specifically, the communication controller 70 includes a remote connection request receiver 71, a remote connection result transmitter 72, a remote image receiver 73, a remote image transmitter 74, a remote operation receiver 75, a remote operation transmitter 76, The remote context receiving unit 78 and the remote context transmitting unit 77 are provided.

このうち、遠隔接続要求受信部71は、遠隔開始処理部61からの遠隔共有処理の開始要求を受信したり、遠隔参加処理部62からの遠隔共有処理に対する参加要求を受信したりする。遠隔接続結果送信部72は、遠隔開始処理部61へ遠隔共有処理の開始要求の結果を送信したり、遠隔参加処理部62へ遠隔共有処理に対する参加要求の結果を送信したりする。   Among these, the remote connection request receiving unit 71 receives a remote sharing processing start request from the remote start processing unit 61 or receives a participation request for remote sharing processing from the remote participation processing unit 62. The remote connection result transmission unit 72 transmits the result of the remote sharing processing start request to the remote start processing unit 61, or transmits the result of the participation request for the remote sharing processing to the remote participation processing unit 62.

遠隔画像受信部73は、遠隔画像送信部63からの画像データ(出力画像(C)のデータ)を受信し、後述の遠隔画像処理部82に送信する。遠隔画像送信部74は、遠隔画像処理部82から画像データを受信し、遠隔画像受信部64に対して、この画像データを送信する。   The remote image receiving unit 73 receives the image data (data of the output image (C)) from the remote image transmitting unit 63 and transmits it to the remote image processing unit 82 described later. The remote image transmission unit 74 receives image data from the remote image processing unit 82 and transmits this image data to the remote image reception unit 64.

遠隔操作受信部75は、遠隔操作送信部65からの操作データ(ストローク画像(B)等のデータ)を受信し、後述の遠隔操作処理部83に送信する。遠隔操作送信部76は、遠隔操作処理部83から操作データを受信し、遠隔操作受信部66に対して、この操作データを送信する。   The remote operation receiving unit 75 receives operation data (data such as a stroke image (B)) from the remote operation transmitting unit 65 and transmits it to the remote operation processing unit 83 described later. The remote operation transmission unit 76 receives operation data from the remote operation processing unit 83 and transmits this operation data to the remote operation reception unit 66.

遠隔コンテキスト受信部78はクライアント機から遠隔コンテキストを受信し、遠隔操作処理部83に出力する。遠隔操作処理部83は自拠点の識別情報(例えばIPアドレス)を追加し、遠隔コンテキスト送信部77に出力する。遠隔コンテキスト送信部77が各クライアント機に遠隔コンテキストと自拠点の識別情報を送信する。   The remote context receiver 78 receives the remote context from the client machine and outputs it to the remote operation processor 83. The remote operation processing unit 83 adds identification information (for example, an IP address) of the local site and outputs it to the remote context transmission unit 77. The remote context transmission unit 77 transmits the remote context and identification information of its own base to each client machine.

(データ管理部の機能構成)
次に、図5を用いて、データ管理部80の機能構成について説明する。データ管理部80は、遠隔接続処理部81、遠隔画像処理部82、遠隔操作処理部83、操作合成処理部84、及びページ処理部85を有している。更に、サーバ機90は、パスコード管理部810、参加拠点管理テーブル820、画像データ管理部830、操作データ記憶部840及び、ページデータ記憶部850、を有している。
(Functional configuration of the data management unit)
Next, the functional configuration of the data management unit 80 will be described with reference to FIG. The data management unit 80 includes a remote connection processing unit 81, a remote image processing unit 82, a remote operation processing unit 83, an operation composition processing unit 84, and a page processing unit 85. Further, the server 90 includes a passcode management unit 810, a participating site management table 820, an image data management unit 830, an operation data storage unit 840, and a page data storage unit 850.

このうち、遠隔接続処理部81は、遠隔共有処理の開始、及び遠隔共有処理の終了を行う。また、遠隔接続処理部81は、遠隔接続要求受信部71が、遠隔開始処理部61から遠隔共有処理の開始要求と共に受信したライセンス情報、又は、遠隔参加処理部62から遠隔共有処理の参加要求と共に受信したライセンス情報に基づいて、ライセンスの有無やライセンスの期間内であるかを確認する。更に、遠隔接続処理部81は、クライアント機としての他の電子黒板2からの参加要求が予め定められた参加可能数を超えていないかを確認する。   Among these, the remote connection processing unit 81 starts the remote sharing process and ends the remote sharing process. The remote connection processing unit 81 also receives the license information received by the remote connection request receiving unit 71 from the remote start processing unit 61 together with the remote sharing processing start request or the remote sharing processing unit 62 from the remote sharing processing participation request. Based on the received license information, it is confirmed whether there is a license and whether it is within the license period. Further, the remote connection processing unit 81 confirms whether or not the participation request from the other electronic blackboard 2 as the client machine exceeds the predetermined number of possible participations.

更に、遠隔接続処理部81は、他の電子黒板2から遠隔共有処理に対する参加要求があった際に送られて来たパスコードが、パスコード管理部810で管理されているパスコードと同じであるか否かを判断し、同じである場合には、遠隔共有処理の参加を許可する。なお、このパスコードは、新たに遠隔共有処理を開始する際に、遠隔接続処理部81によって発行され、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、主催装置としての電子黒板2のユーザから、電話や電子メール等により伝えられる。これにより、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、この電子黒板2にパスコードを入力して参加要求することで、参加が許可されることになる。なお、セキュリティーよりもユーザの使い勝手を優先して、ライセンス状況の確認だけで、パスコードの確認を省略してもよい。   Further, the remote connection processing unit 81 has the same passcode that is sent when another electronic blackboard 2 has requested to participate in remote sharing processing as the passcode managed by the passcode management unit 810. It is determined whether or not there is the same, and if they are the same, participation in the remote sharing process is permitted. This passcode is issued by the remote connection processing unit 81 when a new remote sharing process is started, and the user of the electronic blackboard 2 as a participating apparatus who intends to participate in the remote sharing process can It is transmitted from the user of the electronic blackboard 2 by telephone or e-mail. As a result, the user of the electronic blackboard 2 as a participating device who intends to participate in the remote sharing process inputs the pass code to the electronic blackboard 2 and requests participation, thereby permitting participation. Note that the user's usability is given priority over security, and the confirmation of the passcode may be omitted only by confirming the license status.

また、遠隔接続処理部81は、参加装置としての電子黒板2の遠隔参加処理部62から通信ネットワーク9を介して送られて来た参加要求に含まれる参加拠点情報を、サーバ機90の参加拠点管理テーブル820に記憶する。そして、遠隔接続処理部81は、参加拠点管理テーブル820に記憶されている遠隔拠点情報を読み出し、遠隔接続結果送信部72に送信する。遠隔接続結果送信部72は、同じ主催装置のクライアント機20における遠隔開始処理部61に遠隔拠点情報を送信する。遠隔開始処理部61は、参加拠点管理テーブルに610に、遠隔拠点情報を記憶する。これにより、主催装置では、クライアント機20及びサーバ機90の両方で、遠隔拠点情報を管理することになる。   In addition, the remote connection processing unit 81 uses the participation site information included in the participation request sent from the remote participation processing unit 62 of the electronic blackboard 2 as the participation device via the communication network 9 to the participation site of the server 90. Store in the management table 820. Then, the remote connection processing unit 81 reads out the remote site information stored in the participating site management table 820 and transmits it to the remote connection result transmission unit 72. The remote connection result transmission unit 72 transmits the remote base information to the remote start processing unit 61 in the client machine 20 of the same sponsor device. The remote start processing unit 61 stores the remote site information in 610 in the participating site management table. As a result, the host device manages the remote site information on both the client machine 20 and the server machine 90.

遠隔画像処理部82は、遠隔共有処理中の各電子黒板2のクライアント機(主催装置である自己の電子黒板のクライアント機を含む)に接続された映像出力機器(ノートPC6等)からの画像データ(出力画像(C))を受信して830に記憶すると共に、主催装置である自己の電子黒板2のサーバ機90に届いた時間順で遠隔共有処理すべき画像データの表示順を判定する。また、遠隔画像処理部82は、参加拠点管理テーブル820を参照し、遠隔共有処理に参加中の全ての電子黒板2のクライアント機20(主催装置である自己の電子黒板のクライアント機を含む)に、通信制御部70(遠隔画像送信部74)を介して、上記判定した順番で画像データを送信する。   The remote image processing unit 82 receives image data from a video output device (such as a notebook PC 6) connected to a client device of each electronic blackboard 2 (including a client device of its own electronic blackboard that is the hosting device) during remote sharing processing. (Output image (C)) is received and stored in 830, and the display order of the image data to be remotely shared is determined in the order of time of arrival at the server device 90 of the electronic blackboard 2 that is the host device. In addition, the remote image processing unit 82 refers to the participation base management table 820, and adds to all the client machines 20 of the electronic blackboard 2 participating in the remote sharing process (including the client machine of its own electronic blackboard that is the host device). The image data is transmitted in the determined order via the communication control unit 70 (remote image transmission unit 74).

遠隔操作処理部83は、遠隔共有処理中の各電子黒板2のクライアント機(主催装置である自己の電子黒板のクライアント機を含む)で描画されたストローク画像等の各種操作データ(ストローク画像(B)等)を受信し、主催装置である自己の電子黒板2のサーバ機90に届いた時間順で遠隔共有処理すべき画像の表示順を判定する。なお、各種操作データは、上述の各種操作データと同じである。また、遠隔操作処理部83は、参加拠点管理テーブル820を参照し、遠隔共有処理中の全ての電子黒板2のクライアント機20(主催装置である自己の電子黒板のクライアント機を含む)に操作データを送信する。   The remote operation processing unit 83 performs various types of operation data (stroke images (B, B, B) drawn on the client machine of each electronic blackboard 2 (including the client machine of its own electronic blackboard which is the hosting apparatus) during the remote sharing process. ) And the like, and the display order of the images to be remotely shared is determined in the order of time of arrival at the server 90 of the electronic blackboard 2 that is the host device. The various operation data is the same as the various operation data described above. Further, the remote operation processing unit 83 refers to the participating site management table 820 and operates the operation data on all the client machines 20 of the electronic blackboard 2 (including the client machine of its own electronic blackboard which is the hosting apparatus) during the remote sharing process. Send.

操作合成処理部84は、遠隔操作処理部83から出力された各電子黒板2の操作データを合成し、この合成結果としての操作データを、操作データ記憶部840に記憶するとともに遠隔操作処理部83に戻す。この操作データは、遠隔操作送信部76から、主催装置である電子黒板のクライアント機、及び参加装置である電子黒板のクライアント機のそれぞれに送信されることで、各電子黒板2で同じ操作データに係る画像が表示される。そのために、操作データは、図15に示されているように、SEQ(Sequence)、操作データの操作名、操作データの送信元である電子黒板2のIPアドレス及びクライアント機(サーバ機)のPort No.、操作データの送信先である電子黒板2のIPアドレス及びクライアント機(サーバ機)のPort No,、操作データの操作種類、操作データの操作対象、並びに操作データの内容を示すデータが関連付けられて示されている。例えば、SEQ1では、主催装置である電子黒板(IPアドレス:192.0.0.1)のクライアント機(Port No.:50001)でストロークが描画されると、同じ主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ機(Port No.:50000)に操作データが送られたことが示されている。この場合の操作種類は「STROKE」、操作対象はページデータID「p005」、及び、操作データの内容を示すデータはストロークを示すデータである。また、SEQ2では、主催装置である電子黒板(IPアドレス:192.0.0.1)のサーバ機(Port No.:50000)から、参加装置である他の電子黒板(IPアドレス:192.0.0.1)のクライアント機(Port No.:50001)に、操作データが送られたことが示されている。
なお、操作合成処理部84は、この操作合成処理部84に操作データが入力された順に合成を行うため、通信ネットワーク9が混雑していなければ、各電子黒板2のユーザによるストローク順に、遠隔共有処理中の全ての電子黒板2のディスプレイ3にストローク画像(B)が表示される。
The operation synthesis processing unit 84 synthesizes the operation data of each electronic blackboard 2 output from the remote operation processing unit 83, stores the operation data as a result of this synthesis in the operation data storage unit 840 and the remote operation processing unit 83. Return to. The operation data is transmitted from the remote operation transmission unit 76 to each of the electronic blackboard client machine that is the hosting apparatus and the electronic blackboard client machine that is the participating apparatus. Such an image is displayed. Therefore, as shown in FIG. 15, the operation data includes SEQ (Sequence), the operation name of the operation data, the IP address of the electronic blackboard 2 that is the transmission source of the operation data, and the Port of the client machine (server machine). No., the IP address of the electronic blackboard 2 that is the transmission destination of the operation data, the port number of the client machine (server machine), the operation type of the operation data, the operation target of the operation data, and the data indicating the contents of the operation data are associated Shown. For example, in SEQ1, when a stroke is drawn on the client machine (Port No .: 50001) of the electronic blackboard (IP address: 192.0.0.1) as the hosting device, the electronic blackboard (IP address: 192.0. 0.1) indicates that operation data has been sent to the server machine (Port No .: 50000). In this case, the operation type is “STROKE”, the operation object is the page data ID “p005”, and the data indicating the contents of the operation data is data indicating the stroke. In SEQ2, the client computer of the electronic blackboard (IP address: 192.0.0.1) that is the participating device from the server device (Port No .: 50000) of the electronic blackboard (IP address: 192.0.0.1) that is the host device. (Port No .: 50001) indicates that operation data has been sent.
The operation composition processing unit 84 performs composition in the order in which the operation data is input to the operation composition processing unit 84. Therefore, if the communication network 9 is not congested, remote sharing is performed in the order of strokes by the users of the electronic blackboards 2. A stroke image (B) is displayed on the displays 3 of all the electronic blackboards 2 being processed.

ページ処理部85は、クライアント機20の画像処理部30におけるページ処理部37と同様の機能を有し、サーバ機90でも、図6乃至図8に示されているページデータを、ページデータ記憶部850に記憶する。なお、ページデータ記憶部850は、画像処理部30におけるページデータ記憶部300と同じ内容であるため、その説明を省略する。   The page processing unit 85 has the same function as the page processing unit 37 in the image processing unit 30 of the client machine 20, and the server machine 90 also converts the page data shown in FIGS. 6 to 8 into a page data storage unit. Store in 850. Note that the page data storage unit 850 has the same contents as the page data storage unit 300 in the image processing unit 30, and therefore the description thereof is omitted.

<実施形態の処理又は動作>
続いて、図17及び図18を用いて、本実施形態の処理又は動作について説明する。なお、図17及び図18は、各電子黒板の処理を示したシーケンス図である。
図17及び図18に示す実施形態では、電子黒板2aが遠隔共有処理を主催する主催装置(サーバ機及びクライアント機)としての役割を果たしており、電子黒板2b,2cが遠隔共有処理に参加する参加装置(クライアント機)としての役割を果たす場合について説明する。また、ここでは、電子黒板2a,2b,2cには、それぞれディスプレイ3a,3b,3cが接続され、更に、それぞれノートPC6a,6b,6cが接続されている。また、電子黒板2a,2b,2cでは、それぞれ電子ペン4a,4b,4cが使用される。
<Process or Operation of Embodiment>
Subsequently, the processing or operation of the present embodiment will be described with reference to FIGS. 17 and 18. 17 and 18 are sequence diagrams showing the processing of each electronic blackboard.
In the embodiment shown in FIGS. 17 and 18, the electronic blackboard 2a serves as a hosting device (server machine and client machine) that hosts the remote sharing process, and the electronic blackboards 2b and 2c participate in the remote sharing process. A case where it plays a role as a device (client machine) will be described. Further, here, the displays 3a, 3b, 3c are connected to the electronic blackboards 2a, 2b, 2c, respectively, and further notebook PCs 6a, 6b, 6c are connected respectively. Moreover, in the electronic blackboards 2a, 2b, and 2c, electronic pens 4a, 4b, and 4c are used, respectively.

まずは、電子黒板2b,2cが遠隔共有処理に参加するための処理について説明する。 ユーザが電子黒板2aの電源スイッチをオンにすると、電子黒板2aのクライアント機20が起動する。そして、ユーザがタッチパネル等の入力装置によってサーバ機90を起動させる操作をすると、クライアント機20の遠隔開始処理部61から同じ電子黒板2aのサーバ機90における遠隔接続要求受信部71に、サーバ機90の処理を開始させる指示を出力する。これにより、電子黒板2aでは、クライアント機20だけでなくサーバ機90も各種処理を開始可能となる(ステップS21)。   First, a process for the electronic blackboards 2b and 2c to participate in the remote sharing process will be described. When the user turns on the power switch of the electronic blackboard 2a, the client machine 20 of the electronic blackboard 2a is activated. When the user performs an operation for starting the server machine 90 using an input device such as a touch panel, the server machine 90 is transferred from the remote start processing unit 61 of the client machine 20 to the remote connection request receiving unit 71 of the server machine 90 of the same electronic blackboard 2a. An instruction to start the process is output. Thereby, in the electronic blackboard 2a, not only the client machine 20 but also the server machine 90 can start various processes (step S21).

次に、電子黒板2aのクライアント機20におけるUI画像生成部33が電子黒板2aとの接続を確立するための接続情報を生成し、映像重畳部28が、UI画像生成部33から表示重畳部36を介して得た接続情報をディスプレイ3aに表示させる(ステップS22)。この接続情報には、主催装置のIPアドレス、及び今回の遠隔共有処理のために生成されたパスコードが含まれている。この場合、パスコード管理部810に記憶されているパスコードは、図5に示されている遠隔接続処理部81によって読み出され、遠隔接続結果送信部72、遠隔開始処理部61の順に送信される。更に、パスコードは、遠隔開始処理部61を含む通信制御部60から、図3に示されている画像処理部30に送信され、最終的にUI画像生成部33に入力される。これにより、接続情報には、パスコードが含まれる。そして、接続情報は、電子黒板2aのユーザによって、電話や電子メールにより、電子黒板2b,2cのユーザに伝えられる。   Next, the UI image generation unit 33 in the client machine 20 of the electronic blackboard 2a generates connection information for establishing a connection with the electronic blackboard 2a, and the video superimposition unit 28 receives the display superimposition unit 36 from the UI image generation unit 33. The connection information obtained through is displayed on the display 3a (step S22). This connection information includes the host device's IP address and the passcode generated for the current remote sharing process. In this case, the passcode stored in the passcode management unit 810 is read by the remote connection processing unit 81 shown in FIG. 5 and transmitted in the order of the remote connection result transmission unit 72 and the remote start processing unit 61. The Further, the passcode is transmitted from the communication control unit 60 including the remote start processing unit 61 to the image processing unit 30 illustrated in FIG. 3 and finally input to the UI image generation unit 33. Thereby, the connection information includes the passcode. Then, the connection information is transmitted to the users of the electronic blackboards 2b and 2c by telephone or electronic mail by the user of the electronic blackboard 2a.

なお、接続先管理テーブル440があれば、接続情報には、主催装置のIPアドレスが含まれていなくても、参加装置は参加要求を行うことができる。参加装置のUI画像生成部33が表示する参加のための画面例を図19に示す。   If there is the connection destination management table 440, even if the connection information does not include the IP address of the hosting device, the participating device can make a participation request. An example of a screen for participation displayed by the UI image generation unit 33 of the participation apparatus is shown in FIG.

次に、電子黒板2b,2cでは、各ユーザによるタッチパネル等の入力装置の操作によって接続情報の入力を受け付けると、各電子黒板2a,2bのクライアント機20における遠隔参加処理部62が、接続情報のIPアドレスに基づき、通信ネットワーク9を介して、電子黒板2aのサーバ機90における遠隔接続要求受信部71に対してパスコードを送信して参加要求を行う(ステップS23,S24)。これにより、通信制御部70の遠隔接続要求受信部71は、各電子黒板2b,2cから、参加要求(パスコードを含む)を受信し、このパスコードを遠隔接続処理部81に出力する。   Next, in the electronic blackboards 2b and 2c, when input of connection information is received by the operation of an input device such as a touch panel by each user, the remote participation processing unit 62 in the client machine 20 of each electronic blackboard 2a and 2b Based on the IP address, a participation request is made by transmitting a pass code to the remote connection request receiving unit 71 in the server 90 of the electronic blackboard 2a via the communication network 9 (steps S23 and S24). As a result, the remote connection request receiving unit 71 of the communication control unit 70 receives a participation request (including a passcode) from each of the electronic blackboards 2b and 2c, and outputs this passcode to the remote connection processing unit 81.

次に、遠隔接続処理部81は、電子黒板2b,2cの各クライアント機20から受信したパスコードに対し、パスコード管理部810で管理されているパスコードを用いて認証する(ステップS25)。そして、遠隔接続結果送信部72が、各電子黒板2b,2cのクライアント機20に認証結果を通知する(SステップS26,S27)。ステップS25の認証により、正当な電子黒板であると判断されていた場合には、主催装置である電子黒板2aと、参加装置である電子黒板2b,2cとの遠隔共有処理の通信が確立され、各電子黒板2b,2cのクライアント機20における遠隔参加処理部62が、それぞれ他の電子黒板との間の遠隔共有処理の開始を可能にする(ステップS28,S29)。   Next, the remote connection processing unit 81 authenticates the passcode received from each client machine 20 of the electronic blackboards 2b and 2c using the passcode managed by the passcode management unit 810 (step S25). And the remote connection result transmission part 72 notifies an authentication result to the client machine 20 of each electronic blackboard 2b, 2c (S step S26, S27). If it is determined by the authentication in step S25 that the electronic blackboard is a legitimate electronic blackboard, communication of remote sharing processing is established between the electronic blackboard 2a that is the hosting device and the electronic blackboards 2b and 2c that are participating devices. The remote participation processing unit 62 in the client machine 20 of each electronic blackboard 2b, 2c enables the start of remote sharing processing with each other electronic blackboard (steps S28, S29).

(出力画像の表示)
続いて、図17を用いて、遠隔共有処理における画像データの処理について説明する。
まず、電子黒板2bは、ディスプレイ3bに出力画像(C)を表示する(ステップS30)。具体的には、電子黒板2bの画像取得部31が、ノートPC6bから映像取得部21を介して、ノートPC6bで表示されている出力画像(C)のデータを受信し、表示重畳部36及び映像重畳部28を介してディスプレイ3bに送信することで、ディスプレイ3bは出力画像(C)を表示する。
(Output image display)
Next, image data processing in remote sharing processing will be described with reference to FIG.
First, the electronic blackboard 2b displays the output image (C) on the display 3b (step S30). Specifically, the image acquisition unit 31 of the electronic blackboard 2b receives the data of the output image (C) displayed on the notebook PC 6b from the notebook PC 6b via the video acquisition unit 21, and displays the display superimposing unit 36 and the video. By transmitting to the display 3b via the superimposing unit 28, the display 3b displays the output image (C).

次に、電子黒板2bの画像取得部31を含む画像処理部30が、遠隔画像送信部63に出力画像(C)のデータを送信することで、遠隔画像送信部63を含む通信制御部60が通信ネットワーク9を介して、主催装置である電子黒板2aの通信制御部70に出力画像(C)のデータを送信する(ステップS31)。これにより、電子黒板2aの遠隔画像受信部73は、出力画像(C)のデータを受信し、遠隔画像処理部82に出力することで、遠隔画像処理部82が画像データ管理部830に出力画像(C)のデータを記憶する。   Next, the image processing unit 30 including the image acquisition unit 31 of the electronic blackboard 2 b transmits the output image (C) data to the remote image transmission unit 63, so that the communication control unit 60 including the remote image transmission unit 63 is performed. The data of the output image (C) is transmitted to the communication control unit 70 of the electronic blackboard 2a that is the hosting device via the communication network 9 (step S31). Accordingly, the remote image receiving unit 73 of the electronic blackboard 2a receives the output image (C) data and outputs it to the remote image processing unit 82, so that the remote image processing unit 82 outputs the output image to the image data management unit 830. The data of (C) is stored.

次に、主催装置である電子黒板2aは、ディスプレイ3aに出力画像(C)を表示する(ステップS32)。具体的には、電子黒板2aの遠隔画像処理部82は、遠隔画像受信部73から受信した出力画像(C)のデータを、遠隔画像送信部74に出力する。遠隔画像送信部74は、同じ主催装置である電子黒板2aのクライアント機20における遠隔画像受信部64に、出力画像(C)のデータを出力する。遠隔画像受信部64は、表示重畳部36に出力画像(C)のデータを出力する。表示重畳部36は、映像重畳部28に出力画像(C)のデータを出力する。映像重畳部28はディスプレイ3aに出力画像(C)のデータを出力する。これにより、ディスプレイ3aは、出力画像(C)を表示する。   Next, the electronic blackboard 2a, which is the hosting device, displays the output image (C) on the display 3a (step S32). Specifically, the remote image processing unit 82 of the electronic blackboard 2 a outputs the output image (C) data received from the remote image receiving unit 73 to the remote image transmitting unit 74. The remote image transmission unit 74 outputs the data of the output image (C) to the remote image reception unit 64 in the client machine 20 of the electronic blackboard 2a which is the same host device. The remote image receiving unit 64 outputs the data of the output image (C) to the display superimposing unit 36. The display superimposing unit 36 outputs the output image (C) data to the video superimposing unit 28. The video superimposing unit 28 outputs the data of the output image (C) to the display 3a. Thereby, the display 3a displays the output image (C).

次に、主催装置としての電子黒板2aのサーバ機90における遠隔画像送信部74を含む通信制御部70は、通信ネットワーク9を介して、出力画像(C)のデータの送信元である電子黒板2b以外の電子黒板2cの通信制御部60に出力画像(C)のデータを送信する(ステップS33)。これにより、参加装置である電子黒板2cの遠隔画像受信部64は、出力画像(C)のデータを受信する。   Next, the communication control unit 70 including the remote image transmission unit 74 in the server machine 90 of the electronic blackboard 2a as the hosting device via the communication network 9 is the electronic blackboard 2b that is the transmission source of the data of the output image (C). The data of the output image (C) is transmitted to the communication control unit 60 of the electronic blackboard 2c other than (step S33). Thereby, the remote image receiving part 64 of the electronic blackboard 2c which is a participating apparatus receives the data of an output image (C).

次に、電子黒板2cは、ディスプレイ3cに出力画像(C)を表示する(ステップS34)。具体的には、電子黒板2cの遠隔画像受信部64が、上記ステップS33によって受信された出力画像(C)のデータを、電子黒板2cの表示重畳部36に出力する。表示重畳部36は、映像重畳部28に出力画像(C)のデータを出力する。映像重畳部28はディスプレイ3cに出力画像(C)のデータを出力する。これにより、ディスプレイ3cは、出力画像(C)を表示する。   Next, the electronic blackboard 2c displays the output image (C) on the display 3c (step S34). Specifically, the remote image receiving unit 64 of the electronic blackboard 2c outputs the data of the output image (C) received in step S33 to the display superimposing unit 36 of the electronic blackboard 2c. The display superimposing unit 36 outputs the output image (C) data to the video superimposing unit 28. The video superimposing unit 28 outputs the data of the output image (C) to the display 3c. Thereby, the display 3c displays the output image (C).

なお、出力画像(C)のデータだけでなく、UI画像(A)、及びストローク画像(B)の各データが、表示重畳部36に入力されている場合には、表示重畳部36により、重畳画像(A,B,C)が生成され、映像重畳部28はディスプレイ3cに重畳画像(A,B,C)のデータを出力する。また、テレビ会議端末7から映像重畳部28に、テレビ会議用の映像(E)のデータが送られて来ている場合には、映像重畳部28は、重畳画像(A,B,C)にピクチャ・イン・ピクチャによりテレビ会議用の映像(E)のデータを重畳して、ディスプレイ3cに出力する。   When not only the output image (C) data but also the UI image (A) and stroke image (B) data are input to the display superimposing unit 36, the display superimposing unit 36 superimposes them. An image (A, B, C) is generated, and the video superimposing unit 28 outputs the data of the superimposed image (A, B, C) to the display 3c. When video conferencing video (E) data is sent from the video conference terminal 7 to the video superimposing unit 28, the video superimposing unit 28 converts the video superimposing image (A, B, C). Video conferencing video (E) data is superimposed by picture-in-picture and output to the display 3c.

(重畳画像の表示)
続いて、図18を用いて、遠隔共有処理における重畳画像が表示される処理について説明する。
(Display of superimposed image)
Next, a process for displaying a superimposed image in the remote sharing process will be described with reference to FIG.

まず、電子黒板2bは、ユーザが電子ペン4bを用いて電子黒板2bにストローク画像(B)を描画する(ステップS41)。   First, in the electronic blackboard 2b, the user draws a stroke image (B) on the electronic blackboard 2b using the electronic pen 4b (step S41).

次に、電子黒板2bの表示重畳部36は、図16に示されているように、UI画像(A)、出力画像(C)、及び背景画像(D)に対して、ストローク画像(B)を重畳し、映像重畳部28が、電子黒板2bのディスプレイ3b上に、重畳された重畳画像(A,B,C,D)を表示させる(ステップS42)。具体的には、電子黒板2bのストローク処理部32が座標検知部22及び接触検知部24からイベント振分部25を介して、操作データとしてのストローク画像(B)のデータを受信し、表示重畳部36に送信する。これにより、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、ストローク画像(B)を重畳することができ、映像重畳部28が電子黒板2bのディスプレイ3b上に重畳画像(A,B,C)を表示させることができる。   Next, as shown in FIG. 16, the display superimposing unit 36 of the electronic blackboard 2b performs a stroke image (B) on the UI image (A), the output image (C), and the background image (D). And the image superimposing unit 28 displays the superimposed images (A, B, C, D) on the display 3b of the electronic blackboard 2b (step S42). Specifically, the stroke processing unit 32 of the electronic blackboard 2b receives the stroke image (B) data as the operation data from the coordinate detection unit 22 and the contact detection unit 24 via the event distribution unit 25, and displays the superimposed image. It transmits to the part 36. Accordingly, the display superimposing unit 36 can superimpose the stroke image (B) on the UI image (A) and the output image (C), and the video superimposing unit 28 is placed on the display 3b of the electronic blackboard 2b. The superimposed image (A, B, C) can be displayed.

次に、電子黒板2bのストローク処理部32を含む画像処理部30が、遠隔操作送信部65にストローク画像(B)のデータを送信することで、電子黒板2bの遠隔操作送信部65は、通信ネットワーク9を介して、主催装置である電子黒板2aの通信制御部70にストローク画像(B)のデータを送信する(ステップS43)。これにより、電子黒板2aの遠隔操作受信部75は、ストローク画像(B)のデータを受信し、遠隔操作処理部83に出力することで、遠隔操作処理部83が操作合成処理部84にストローク画像(B)のデータを出力する。このようにして、電子黒板2bで描画されたストローク画像(B)のデータは、描画される度に、主催装置である電子黒板2aの遠隔操作処理部83に順次送信される。このストローク画像(B)のデータは、図7に示されているストロークデータID毎に示されるデータである。よって、例えば、上述したように、ユーザが電子ペン4によってアルファベット「T」を描く場合は二筆書きとなるため、2つのストロークデータIDのそれぞれで示されるストローク画像(B)のデータが順次送信される。     Next, the image processing unit 30 including the stroke processing unit 32 of the electronic blackboard 2b transmits the stroke image (B) data to the remote operation transmission unit 65, so that the remote operation transmission unit 65 of the electronic blackboard 2b communicates. The data of the stroke image (B) is transmitted via the network 9 to the communication control unit 70 of the electronic blackboard 2a that is the hosting device (step S43). Thereby, the remote operation receiving unit 75 of the electronic blackboard 2a receives the data of the stroke image (B) and outputs it to the remote operation processing unit 83, so that the remote operation processing unit 83 sends the stroke image to the operation composition processing unit 84. The data of (B) is output. In this way, the data of the stroke image (B) drawn on the electronic blackboard 2b is sequentially transmitted to the remote operation processing unit 83 of the electronic blackboard 2a that is the hosting device every time it is drawn. The data of the stroke image (B) is data shown for each stroke data ID shown in FIG. Therefore, for example, as described above, when the user draws the alphabet “T” with the electronic pen 4, the stroke image (B) indicated by each of the two stroke data IDs is sequentially transmitted. Is done.

次に、主催装置である電子黒板2aは、ディスプレイ3aに、電子黒板2bから送られて来たストローク画像(B)のデータが含まれた重畳画像(A,B,C)を表示する(ステップS44)。具体的には、電子黒板2aの操作合成処理部84は、遠隔操作処理部83を介して順次送られて来た複数のストローク画像(B)のデータを合成して、操作データ記憶部840に記憶するとともに遠隔操作処理部83に戻す。これにより、隔操作処理部83は、操作合成処理部84から受信した、合成後のストローク画像(B)のデータを、遠隔操作送信部76に出力する。遠隔操作送信部76は、同じ主催装置である電子黒板2aのクライアント機20における遠隔操作受信部66に、合成後のストローク画像(B)のデータを出力する。遠隔操作受信部66は、画像処理部30における表示重畳部36に、合成後のストローク画像(B)のデータを出力する。よって、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、合成後のストローク画像(B)を重畳する。最後に、映像重畳部28が、表示重畳部36によって重畳された重畳画像(A,B,C)をディスプレイ3a上に表示させる。   Next, the electronic blackboard 2a, which is the hosting device, displays on the display 3a a superimposed image (A, B, C) including the data of the stroke image (B) sent from the electronic blackboard 2b (Step S). S44). Specifically, the operation composition processing unit 84 of the electronic blackboard 2a synthesizes the data of the plurality of stroke images (B) sequentially sent via the remote operation processing unit 83 and stores them in the operation data storage unit 840. Store and return to the remote operation processing unit 83. Thereby, the interval operation processing unit 83 outputs the data of the combined stroke image (B) received from the operation combining processing unit 84 to the remote operation transmitting unit 76. The remote operation transmitting unit 76 outputs the combined stroke image (B) data to the remote operation receiving unit 66 in the client machine 20 of the electronic blackboard 2a which is the same hosting device. The remote operation receiving unit 66 outputs the combined stroke image (B) data to the display superimposing unit 36 in the image processing unit 30. Therefore, the display superimposing unit 36 superimposes the combined stroke image (B) on the UI image (A) and the output image (C). Finally, the video superimposing unit 28 displays the superimposed image (A, B, C) superimposed by the display superimposing unit 36 on the display 3a.

次に、主催装置としての電子黒板2aのサーバ機90における遠隔操作送信部76を含む通信制御部70は、通信ネットワーク9を介して、ストローク画像(B)のデータの送信元である電子黒板2b以外の電子黒板2cの通信制御部60に、合成後のストローク画像(B)のデータを送信する(ステップS45)。これにより、参加装置である電子黒板2cの遠隔操作受信部66は、合成後のストローク画像(B)のデータを受信する。   Next, the communication control unit 70 including the remote operation transmission unit 76 in the server machine 90 of the electronic blackboard 2a as the hosting device via the communication network 9 is the electronic blackboard 2b that is the transmission source of the stroke image (B) data. The composite stroke image (B) data is transmitted to the communication control unit 60 of the electronic blackboard 2c other than (step S45). Thereby, the remote operation receiving part 66 of the electronic blackboard 2c which is a participating apparatus receives the data of the synthesized stroke image (B).

次に、電子黒板2cは、ディスプレイ3cに重畳画像(A,B,C)を表示する(ステップS34)。具体的には、電子黒板2cの遠隔操作受信部66が、上記ステップS45によって受信された合成後のストローク画像(B)のデータを、電子黒板2cの画像処理部30に出力する。画像処理部30の表示重畳部36は、UI画像(A)、及び出力画像(C)の各データと、合成後のストローク画像(B)のデータを重畳し、映像重畳部28に重畳画像(A,B,C)のデータを出力する。映像重畳部28は、ディスプレイ3cに重畳画像(A,B,C)のデータを出力する。これにより、ディスプレイ3cは、重畳画像(A,B,C)を表示する。   Next, the electronic blackboard 2c displays the superimposed image (A, B, C) on the display 3c (step S34). Specifically, the remote operation receiving unit 66 of the electronic blackboard 2c outputs the combined stroke image (B) data received in step S45 to the image processing unit 30 of the electronic blackboard 2c. The display superimposing unit 36 of the image processing unit 30 superimposes each data of the UI image (A) and the output image (C) and the data of the combined stroke image (B), and superimposes the superimposed image ( A, B, C) data is output. The video superimposing unit 28 outputs the data of the superimposed image (A, B, C) to the display 3c. Thereby, the display 3c displays a superimposed image (A, B, C).

なお、上記処理では、ディスプレイ3上に出力画像(C)が表示されているが、この出力画像(C)に代えて、背景画像(D)を表示してもよい。また、出力画像(C)と背景画像(D)との排他的な関係をやめて、出力画像(C)と背景画像(D)との両方を同時にディスプレイ3上に表示させてもよい。   In the above processing, the output image (C) is displayed on the display 3, but a background image (D) may be displayed instead of the output image (C). Alternatively, the exclusive relationship between the output image (C) and the background image (D) may be stopped, and both the output image (C) and the background image (D) may be displayed on the display 3 at the same time.

(参加の終了)
続いて、図18を用いて、参加装置が遠隔共有処理への参加を終了する処理について説明する。図18に示す実施形態では、電子黒板2cが参加を終了する処理が示されている。
(End of participation)
Next, a process in which the participating device ends participation in the remote sharing process will be described with reference to FIG. In the embodiment shown in FIG. 18, processing for the electronic blackboard 2c to finish participation is shown.

まず、電子黒板2cでは、ユーザによるタッチパネル等の入力装置の操作によって参加の終了要求を受け付けると、遠隔参加処理部62は、主催装置としての電子黒板2aのサーバ機90における遠隔接続要求受信部71に対して、参加の終了要求を行う(ステップS47)。これにより、通信制御部70の遠隔接続要求受信部71は、電子黒板2cから、参加の終了要求を受信し、遠隔接続処理部81に、電子黒板2cのIPアドレスとともに参加の終了要求を出力する。そして、電子黒板2aの遠隔接続処理部81は、遠隔接続要求受信部71から送られて来たIPアドレスに基づいて、参加拠点管理テーブル820から、参加の終了要求を行った電子黒板2cのIPアドレス及び電子黒板2cが設置されている拠点の名称を削除し、遠隔接続結果送信部72に、電子黒板2cのIPアドレス及び削除した旨の通知を出力する。   First, in the electronic blackboard 2c, when a participation end request is received by an operation of an input device such as a touch panel by the user, the remote participation processing unit 62 receives the remote connection request receiving unit 71 in the server machine 90 of the electronic blackboard 2a as the hosting device. In response to this, a request to end participation is made (step S47). Thereby, the remote connection request receiving unit 71 of the communication control unit 70 receives the participation end request from the electronic blackboard 2c, and outputs the participation end request together with the IP address of the electronic blackboard 2c to the remote connection processing unit 81. . Then, the remote connection processing unit 81 of the electronic blackboard 2a, based on the IP address sent from the remote connection request receiving unit 71, from the participation base management table 820, the IP of the electronic blackboard 2c that has requested participation. The address and the name of the base where the electronic blackboard 2c is installed are deleted, and the remote connection result transmission unit 72 outputs the IP address of the electronic blackboard 2c and a notification of the deletion.

次に、遠隔接続結果送信部72を含んだ通信制御部70が、通信ネットワーク9を介して、電子黒板2cのクライアント機20における通信制御部60に、参加の終了を指示する(ステップS48)。これにより、電子黒板2cにおける通信制御部60の遠隔参加処理部62が、遠隔共有処理の通信を切断することで、参加の終了処理を行うことで、参加が終了する(ステップS49)。   Next, the communication control unit 70 including the remote connection result transmission unit 72 instructs the communication control unit 60 in the client machine 20 of the electronic blackboard 2c to end participation via the communication network 9 (step S48). As a result, the remote participation processing unit 62 of the communication control unit 60 in the electronic blackboard 2c disconnects the communication of the remote sharing process, thereby completing the participation process, thereby completing the participation (step S49).

(参加のための画面例)
図19は、参加装置(電子黒板2b、2c)のディスプレイ3に表示される拠点のリストの表示例を示す図である。各参加装置は接続先管理テーブルを有しているものとする。以下、カッコ付きの番号で示す表示内容について説明する。参加装置のUI画像生成部33は、ユーザの操作に応じて図19の画面を表示する。
(Screen example for participation)
FIG. 19 is a diagram showing a display example of a list of bases displayed on the display 3 of the participating devices (electronic blackboards 2b and 2c). Each participating device has a connection destination management table. Hereinafter, display contents indicated by numbers with parentheses will be described. The UI image generation unit 33 of the participating device displays the screen of FIG. 19 according to the user's operation.

(1)画面の説明として以下の文章が表示される
「遠隔ホワイトボードに参加します
ホワイトボード拠点名を選択後、参加ボタンを押してください。」
(2)コンタクトリストから選択、又は、直接入力
ユーザはコンタクトリストから選択するか、IPアドレスを直接入力するかを選択できる。
(1) The following text will be displayed as an explanation of the screen: “Participate in the remote whiteboard. After selecting the name of the whiteboard base, press the join button.”
(2) Selection from the contact list or direct input The user can select whether to select from the contact list or directly enter an IP address.

(3)コンタクトリストから選択
「ホワイトボード拠点名」、「IPアドレス又はホスト名」「グループ名」で1つのレコードが構成されている。また、「ホワイトボード拠点名」、「IPアドレス又はホスト名」「グループ名」というラベルが表示される。また、1つのレコードには、アイコンとホワイトボード拠点名の先頭文字が表示される。これらについては次述する。
(3) One record is composed of “whiteboard base name”, “IP address or host name”, and “group name” selected from the contact list. In addition, labels of “whiteboard base name”, “IP address or host name”, and “group name” are displayed. In addition, an icon and the first character of the whiteboard base name are displayed in one record. These are described below.

グループ名としては、「group01」、「group02」があるが、このグループはホワイトボード拠点名の表示名の1文字目、IPアドレスなどで決まり、関係する拠点をグループ化する名称である。   There are “group01” and “group02” as group names. This group is determined by the first character of the display name of the whiteboard base name, the IP address, etc., and is a name for grouping related bases.

ユーザは、コンタクトリストのレコードを押下することで参加するホワイトボード拠点名(主催装置)を選択する。ホワイトボード拠点名を選択することで(6)のIPアドレスが表示される。選択したレコードを再度選択すると選択は解除される。   The user selects a whiteboard base name (host apparatus) to participate by pressing a record in the contact list. By selecting the whiteboard base name, the IP address (6) is displayed. Selecting the selected record again cancels the selection.

なお、レコードの先頭にアイコンがない場合、又は、後述するオンラインアイコン若しくは開催中アイコンがグレー(低輝度で)で表示されている場合、そのレコードはグレーで表示され、選択できない。アイコンの凡例は以下で説明する。
(4)スクロールバー
(5)グループ名を指定
ユーザは任意のグループ名を入力又は選択し、コンタクトリストに表示するレコードを絞り込むことができる。
(6)IPアドレス
コンタクトリストで選択されたホワイトボード拠点名のIPアドレスが表示される。
(7)参加する
ユーザが会議に参加することを入力するためのボタンである。
(8)キャンセル
ユーザが会議に参加することなく画面を閉じるためのボタンである。
(9)開催中アイコン
このラベルの拠点に対し参加可能であることを示すアイコンである。図13(b)の接続状態が「開催中」の場合に表示されるアイコンである。
(10)オンラインアイコン
このラベルの拠点がネットワーク接続しており、かつ、遠隔ライセンスがある状態を示すアイコンである。図13(b)の接続状態が「オンライン」の場合に表示されるアイコンである。
(11)開催中アイコン(参加不可)
拠点が会議を開催しているが、ソフトウェアのバージョンが異なり参加できない状態を表示するアイコンである。図ではアイコンがグレーで表示されている。図13(b)の接続状態が「開催中(バージョン違い)」の場合に表示されるアイコンである。
(12)互換モード開催中アイコン
互換モードで開催中であることを示すアイコンである。図13(b)の接続状態が「開催中(互換)」の場合に表示されるアイコンである。
(13)選択できない拠点のレコードの一例である
選択できない拠点のレコードは背景がグレーで表示される。図13(b)の接続状態が「オフライン」の場合、このようにアイコンが表示されない。
(14)選択された拠点のレコード
選択された拠点のレコードは所定の色(又は高輝度)で表示される。
(15)アイコンの凡例
オンラインアイコンに対し「オンライン」というラベル、開催中アイコンに対し「開催中」というラベル、互換モードで開催中アイコンに対し「互換モードで開催中」というラベルが表示されている
(16)ホワイトボード拠点名の先頭文字ラベル
ホワイトボード拠点名の先頭文字を区別するためのラベルである。
In addition, when there is no icon at the head of the record, or when an online icon or an ongoing icon described later is displayed in gray (with low luminance), the record is displayed in gray and cannot be selected. The icon legend is described below.
(4) Scroll bar (5) Specify group name The user can input or select an arbitrary group name to narrow down records to be displayed in the contact list.
(6) IP address Displays the IP address of the whiteboard base name selected in the contact list.
(7) Join This is a button for inputting that the user participates in the conference.
(8) Cancel A button for the user to close the screen without participating in the conference.
(9) Currently held icon This is an icon indicating that participation is possible for the base of this label. It is an icon displayed when the connection state in FIG.
(10) Online icon This is an icon indicating that the base of this label is connected to the network and there is a remote license. This icon is displayed when the connection state in FIG. 13B is “online”.
(11) Currently held icon (cannot participate)
This icon indicates that the site is holding a meeting, but the software version is different and it cannot participate. In the figure, the icon is displayed in gray. This icon is displayed when the connection state in FIG. 13B is “currently held (different versions)”.
(12) Compatibility mode holding icon This icon indicates that the compatibility mode is being held. This icon is displayed when the connection state in FIG. 13B is “currently held (compatible)”.
(13) A record of a base that cannot be selected, which is an example of a record of a base that cannot be selected, is displayed in gray. When the connection state in FIG. 13B is “offline”, the icon is not displayed in this way.
(14) Record of selected base The record of the selected base is displayed in a predetermined color (or high luminance).
(15) Icon Legend The “Online” label is displayed for the online icon, the “Ongoing” label is displayed for the ongoing icon, and the “Ongoing in compatible mode” label is displayed for the ongoing icon in the compatible mode. (16) First character label of the whiteboard base name This is a label for distinguishing the first character of the whiteboard base name.

〔遠隔コンテキストの送信〕
遠隔コンテキストとは、特定のイベントが検出された場合に、ディスプレイ3の画像にイベントの結果を反映させる前に、他拠点の電子黒板2に通知されるイベントの種類である。上記のように、遠隔コンテキストにより、マーカーイベント、ジェスチャイベント、ページ作成・消去イベント、ファイル読み込みイベント、他拠点参加イベント、他拠点退出イベントなどが他の拠点に通知される。遠隔コンテキストは、特許請求の範囲の操作内容通知情報の一例である。
[Send remote context]
The remote context is a type of event that is notified to the electronic blackboard 2 at another base before reflecting the result of the event on the image of the display 3 when a specific event is detected. As described above, marker events, gesture events, page creation / deletion events, file read events, other site participation events, other site exit events, and the like are notified to other sites by the remote context. The remote context is an example of operation content notification information in the scope of claims.

図20は、遠隔コンテキストの送信手順を示すフローチャート図の一例である。図20では、遠隔コンテキストとなるイベントを取得する操作拠点、クライアント機20と通信するサーバ機90、及び、遠隔コンテキストを受信する受信拠点が処理を行う。   FIG. 20 is an example of a flowchart showing a remote context transmission procedure. In FIG. 20, an operation base that acquires an event that is a remote context, a server machine 90 that communicates with the client machine 20, and a reception base that receives the remote context perform processing.

まず、操作拠点の電子黒板2はイベントを取得する(S110)。遠隔コンテキストとなるイベントは予め決まっているので、これらのイベントは、イベント振分部25、操作処理部26、ジェスチャ処理部27、指判別部29-1、などが検知する。   First, the electronic blackboard 2 at the operation base acquires an event (S110). Since the events that are remote contexts are determined in advance, these events are detected by the event distribution unit 25, the operation processing unit 26, the gesture processing unit 27, the finger determination unit 29-1, and the like.

コンテキスト処理部39は、イベントに対応して予め定められている遠隔コンテキスト名を決定し、操作拠点の識別情報(IPアドレスなどで良い)と共にサーバに送信する(S111)。遠隔コンテキスト名は例えば、遠隔コンテキスト(イベント名)などでよい。   The context processing unit 39 determines a predetermined remote context name corresponding to the event, and transmits it to the server together with operation base identification information (such as an IP address) (S111). The remote context name may be, for example, a remote context (event name).

この後、操作拠点は入力された座標やイベントに対応する操作内容を取得する(S112)。マーカーイベントであれば指の座標が取得され、ジェスチャイベントであればジェスチャの種類が取得される。ページ作成・消去イベントやファイル読み込みイベントではページ番号やファイル名が操作内容に含まれる。   Thereafter, the operation base acquires operation contents corresponding to the input coordinates and event (S112). If it is a marker event, the coordinates of the finger are acquired, and if it is a gesture event, the type of gesture is acquired. In the page creation / deletion event and file read event, the page number and file name are included in the operation content.

遠隔操作送信部65は、遠隔共有処理に必要な操作データをサーバ機90に送信する(S113)。   The remote operation transmission unit 65 transmits operation data necessary for remote sharing processing to the server machine 90 (S113).

サーバ機90の遠隔コンテキスト受信部78は、ステップS111で送信された遠隔コンテキストと操作拠点の識別情報を受信する(S114)。   The remote context receiving unit 78 of the server machine 90 receives the remote context and operation base identification information transmitted in step S111 (S114).

遠隔コンテキスト送信部77は、遠隔コンテキストと操作拠点の識別情報を、操作元拠点以外の、参加拠点管理テーブルに登録されている全ての拠点に送信する(S115)。   The remote context transmission unit 77 transmits the remote context and operation base identification information to all bases registered in the participating base management table other than the base of operation (S115).

受信拠点の遠隔コンテキスト受信部78は、遠隔コンテキストと操作拠点の識別情報を受信する(S116)。   The remote context receiving unit 78 of the receiving base receives the identification information of the remote context and the operating base (S116).

遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する(S117)。詳しくは後述するが、自拠点の参加拠点管理テーブルを参照し、操作元識別子に対応づけられた操作元名称と拠点色を取得し、操作アイコンと共にディスプレイ3に表示する。また、遠隔コンテキストはユーザに予告を行えば役割を終えるので、ストロークの目視や描画を阻害しないようにするため、自動で消去されることが好ましい。コンテキスト処理部39は、たとえば3秒表示後(特許請求の範囲の第1の所定時間の一例である)、1秒間(特許請求の範囲の第2の所定時間の一例である)かけてフェードアウト(徐々に輝度や色が薄くなり最終的に見えなくなる)するようなエフェクトで遠隔コンテキストを消去する。   The context processing unit 39 of the base that receives the remote context displays the remote context (S117). As will be described in detail later, an operation source name and a site color associated with the operation source identifier are acquired with reference to the participating site management table of the own site, and displayed on the display 3 together with the operation icon. Moreover, since the remote context will end its role if the user is notified, it is preferable that the remote context be automatically deleted so as not to obstruct the visual or drawing of the stroke. The context processing unit 39, for example, displays for 3 seconds (which is an example of the first predetermined time in the claims) and then fades out for 1 second (an example of the second predetermined time in the claims) ( Eliminate the remote context with an effect that gradually fades in brightness and color (and eventually disappears).

一方、サーバ機の遠隔操作受信部66は、ステップS113で送信された操作データを受信する(S118)。   On the other hand, the remote operation receiving unit 66 of the server machine receives the operation data transmitted in step S113 (S118).

遠隔操作送信部65は、操作元拠点以外の、参加拠点管理テーブルに登録されている全ての拠点に操作データを送信する(S119)。   The remote operation transmission unit 65 transmits the operation data to all the sites registered in the participating site management table other than the operation source site (S119).

受信拠点の遠隔操作受信部66は操作データを受信する(S120)。   The remote operation receiving unit 66 at the receiving base receives the operation data (S120).

受信拠点の画像処理部30は操作データをディスプレイ3に反映させる(S121)。例えば、ストロークやマーカーを表示し、ジェスチャに応じて拡大・縮小を行い、ページの作成などを行う。   The image processing unit 30 at the receiving base reflects the operation data on the display 3 (S121). For example, a stroke or a marker is displayed, and a page is created by enlarging or reducing according to the gesture.

以上のように、ステップS117で遠隔コンテキストを受信する拠点は、操作データを受信する前に、遠隔コンテキストにより操作元がどの拠点で、どのような操作を行ったかを知ることができるので、同じ場所に描画したり矛盾する操作を行ったりすることを回避できる。   As described above, the bases that receive the remote context in step S117 can know what operation is performed by the remote source and what kind of operation is performed by the remote context before receiving the operation data. It is possible to avoid drawing or performing contradictory operations.

図21は、遠隔コンテキストを受信した拠点がディスプレイ3に表示する遠隔コンテキストの一例を示す。図21には合計8個の遠隔コンテキストが表示されているが、これは説明のための図であり、同時に8個の遠隔コンテキストが表示されることは希である。   FIG. 21 shows an example of the remote context displayed on the display 3 by the site that has received the remote context. Although a total of eight remote contexts are displayed in FIG. 21, this is an explanatory diagram, and it is rare that eight remote contexts are displayed at the same time.

図21では1つの遠隔コンテキストに対し、アイコンと吹き出しがセットで表示されている。アイコンは遠隔コンテキスト(イベントの内容)に応じて予め定められている。また、吹き出しには拠点名が表示されている。   In FIG. 21, icons and speech balloons are displayed as a set for one remote context. The icon is predetermined according to the remote context (event content). The base name is displayed in the balloon.

(1)共有アイコンの押下
共有アイコンとは、ユーザが遠隔会議を主催すること又は会議に参加するために押下するアイコンであり、図21ではディスプレイ3の右上に表示されている。ユーザが共有アイコン301を押下した場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。具体的には、共有アイコンと同じアイコンと拠点名が記述された吹き出しを共有アイコン301の近くに表示する。なお、近くに表示するとは、共有アイコン301に対し、共有アイコンと同じアイコンと吹き出しが重畳しない最も近くに表示することを言う。
(1) Pressing of the shared icon The shared icon is an icon that the user presses to host a remote conference or participate in the conference, and is displayed on the upper right of the display 3 in FIG. When the user presses the shared icon 301, the context processing unit 39 of the base that receives the remote context displays the remote context. Specifically, a balloon in which the same icon as the shared icon and the site name are described is displayed near the shared icon 301. Note that “display near” means that the icon that is the same as the shared icon and the balloon that is not superimposed on the shared icon 301 are displayed closest to each other.

(2)USBメモリアイコンの押下
USBメモリアイコン302とは、ユーザがUSBメモリからファイルを読み出すために押下するアイコンであり、図21ではディスプレイ3の右側に表示されている。ユーザがUSBメモリアイコン302を押下した場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。具体的には、USBメモリアイコンと同じアイコンと拠点名が記述された吹き出しを、USBメモリアイコン302の近くに表示する。
(2) Pressing the USB Memory Icon The USB memory icon 302 is an icon that the user presses to read a file from the USB memory, and is displayed on the right side of the display 3 in FIG. When the user presses the USB memory icon 302, the context processing unit 39 at the site that receives the remote context displays the remote context. Specifically, a balloon in which the same icon as the USB memory icon and the site name are described is displayed near the USB memory icon 302.

(3)ジェスチャイベントの検知
ジェスチャイベントが検知された場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。ジェスチャイベントは任意の場所で発生するので、コンテキスト処理部39はジェスチャイベントが検知された座標の近くにジェスチャが検知されたことを示すアイコンと拠点名を表示する。ジェスチャには種々のものがあるが、実施例3にて説明するように例えば拡大がある。ジェスチャが検知されたことを示すアイコンはジェスチャに応じた形状であることが好ましく、図では拡大のジェスチャが検知されたことを示すアイコンが表示されている。
(3) Detection of Gesture Event When a gesture event is detected, the context processing unit 39 at the base that receives the remote context displays the remote context. Since the gesture event occurs at an arbitrary place, the context processing unit 39 displays an icon indicating that the gesture has been detected and a base name near the coordinates at which the gesture event has been detected. There are various types of gestures, and there is, for example, enlargement as described in the third embodiment. The icon indicating that a gesture has been detected preferably has a shape corresponding to the gesture. In the figure, an icon indicating that an enlargement gesture has been detected is displayed.

(4)ペンダウンイベントの検知
ペンダウンイベントが検知された場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。ペンダウンイベントは任意の場所で発生するので、コンテキスト処理部39はペンダウンイベントが検知された座標の近くにペンダウン(書き込みが始まる)が検知されたことを示すアイコンと拠点名を表示する。ペンダウンイベントが検知された座標の近くとは、ストロークの開始点の近くである。図では「4」というストロークの近くにアイコンと拠点名が表示されている。
(4) Detection of pen-down event When a pen-down event is detected, the context processing unit 39 of the base that receives the remote context displays the remote context. Since the pen-down event occurs at an arbitrary location, the context processing unit 39 displays an icon and a base name indicating that a pen-down (writing has started) is detected near the coordinates where the pen-down event is detected. Near the coordinates where the pen down event is detected is near the start of the stroke. In the figure, an icon and a site name are displayed near the stroke “4”.

(5)マーカーイベントの検知
マーカーイベントが検知された場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。マーカーイベントは任意の場所で発生するので、コンテキスト処理部39はマーカーイベントが検知された座標の近くにマーカーイベントが検知されたことを示すアイコンと拠点名を表示する。図では円弧上のマーカーの始点の近くにアイコンと拠点名が表示されている。
(5) Detection of marker event When a marker event is detected, the context processing unit 39 of the base that receives the remote context displays the remote context. Since the marker event occurs at an arbitrary location, the context processing unit 39 displays an icon indicating that the marker event has been detected and a base name near the coordinates at which the marker event has been detected. In the figure, an icon and a site name are displayed near the start point of the marker on the arc.

東京1で操作されたマーカーは、例えば、ユーザが電子黒板2で画像の共有を行っている遠隔地(福岡1や大阪2)に、この部分を注目してほしいとうアラートを示すためにユーザの指でマークされるものである。遠隔地(福岡1や大阪2)にいるユーザは、電子黒板2のディスプレイ3のどの部分に注目してよいかわからず、東京1が意図しないディスプレイ3の一部の領域に注目している場合がある。この際、東京1で遠隔地(福岡1や大阪2)に注目してほしい部分をマーカーで示すことにより、円滑なコミュニケーションの促進とつながる。ここでは、マーカーの具体的な活用例を説明したが、マーカー以外でももちろん活用可能である。   The marker operated in Tokyo 1 is, for example, to indicate an alert that the user wants to pay attention to this part to a remote location (Fukuoka 1 or Osaka 2) where the user shares an image on the electronic blackboard 2. It is marked with a finger. When a user in a remote area (Fukuoka 1 or Osaka 2) does not know which part of the display 3 of the electronic blackboard 2 should be noticed, Tokyo 1 is paying attention to a part of the display 3 that is not intended There is. At this time, by indicating with a marker the part of Tokyo 1 that you want to pay attention to in remote areas (Fukuoka 1 and Osaka 2), it will lead to the promotion of smooth communication. Here, a specific application example of the marker has been described, but it is of course possible to use other than the marker.

(6)ページ切り替えイベントの検知
ディスプレイ3の下部にページのサムネイル304が表示されている。ユーザはサムネイル304を押下することでディスプレイ3に表示されるページを切り替えることができる。この操作がページ切り替えイベントである。ページ切り替えイベントが検知された場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。コンテキスト処理部39はサムネイル304の近くに、ページ切り替えイベントが検知されたことを示すアイコン(サムネイルと同じ形状のアイコン)と拠点名を表示する。
(6) Page switching event detection A page thumbnail 304 is displayed at the bottom of the display 3. The user can switch the page displayed on the display 3 by pressing the thumbnail 304. This operation is a page switching event. When a page switching event is detected, the context processing unit 39 of the base that receives the remote context displays the remote context. Near the thumbnail 304, the context processing unit 39 displays an icon indicating that a page switching event has been detected (an icon having the same shape as the thumbnail) and a site name.

(7)新規ページ作成アイコンの押下
新規ページ作成アイコン303とは、ユーザがページを新たに作成するために押下するアイコンであり、図21ではディスプレイ3の右側に表示されている。ユーザが新規ページ作成アイコン303を押下した場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。具体的には、新規ページ作成アイコン303と同じアイコンと拠点名が記述された吹き出しを、押下された新規ページ作成アイコン303の近くに表示する。
(7) Press of New Page Creation Icon The new page creation icon 303 is an icon that the user presses to create a new page, and is displayed on the right side of the display 3 in FIG. When the user presses the new page creation icon 303, the context processing unit 39 at the site that receives the remote context displays the remote context. Specifically, a balloon describing the same icon and base name as the new page creation icon 303 is displayed near the pressed new page creation icon 303.

(8)キャプチャアイコンの押下
キャプチャアイコン305とは、ページに表示されている画像を取り込むために押下するアイコンであり、図21ではディスプレイ3の下部に表示されている。ユーザがキャプチャアイコン305を押下した場合、遠隔コンテキストを受信する拠点のコンテキスト処理部39は遠隔コンテキストを表示する。具体的には、キャプチャアイコン305と同じアイコンと拠点名が記述された吹き出しをキャプチャアイコン305の近くに表示する。
(8) Pressing the capture icon The capture icon 305 is an icon that is pressed to capture an image displayed on the page, and is displayed at the bottom of the display 3 in FIG. When the user presses the capture icon 305, the context processing unit 39 of the base that receives the remote context displays the remote context. Specifically, a balloon in which the same icon and the name of the base as the capture icon 305 are described is displayed near the capture icon 305.

なお、(1)〜(8)は一例に過ぎず、電子黒板2で行われる操作であれば遠隔コンテキストとして表示することができる。   Note that (1) to (8) are merely examples, and any operation performed on the electronic blackboard 2 can be displayed as a remote context.

ストロークやマーカーの描画のように、これからユーザ操作が画像に反映される場所の近くに操作を予告するアイコン等が表示されるので、ユーザは少なくとも同じ場所に描画することを躊躇し、描画場所が重複することなどを抑制できる。また、会議の相手がどのような操作を開始したかを事前に把握できるので、矛盾した操作を行うことを抑制できる。   Like a stroke or marker drawing, an icon or the like for notifying the operation will be displayed near the place where the user operation will be reflected in the image, so the user will hesitate to draw at least the same place, Duplication can be suppressed. In addition, since it is possible to grasp in advance what operation the other party has started, it is possible to suppress contradictory operations.

実施例1にて説明したように接触センサ115は電子ペンか指かに関わらずスクリーンに接触する遮蔽物の座標を検知できる。実施例1にて指による描画をマーカーイベントに割り当てたように、電子ペンか指かによって操作内容を変えられたら画像処理システム1の操作性が向上する。   As described in the first embodiment, the contact sensor 115 can detect the coordinates of the shielding object that touches the screen regardless of whether it is an electronic pen or a finger. As in the first embodiment, when the drawing by the finger is assigned to the marker event, the operability of the image processing system 1 is improved if the operation content can be changed by using the electronic pen or the finger.

遮蔽物が電子ペンであることを特定するには、電子ペンのペンダウンイベントを検知すればよい。しかし、遮蔽物が指であることを特定するためにペンダウンイベントのような仕組みを利用できないので、何らかの指判別処理が必要である。また、指判別処理に時間がかかると、指であると判別されるまでの座標が描画されず、ユーザが違和感を持つおそれがある。   In order to specify that the shielding object is an electronic pen, a pen down event of the electronic pen may be detected. However, since a mechanism such as a pen-down event cannot be used to specify that the shielding object is a finger, some kind of finger discrimination processing is necessary. Further, if it takes a long time for the finger discrimination process, the coordinates until the finger is discriminated are not drawn, and the user may feel uncomfortable.

そこで、本実施例では、ペンダウンイベントを用いずに指判別処理を行い、ユーザが違和感を覚えにくい画像処理システム1について説明する。なお、本実施例において、実施例1において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する。   Therefore, in this embodiment, an image processing system 1 that performs finger discrimination processing without using a pen-down event and makes it difficult for the user to feel uncomfortable will be described. In the present embodiment, the constituent elements denoted by the same reference numerals in the first embodiment perform the same functions, and therefore only the main constituent elements of the present embodiment will be mainly described.

図22(a)は、接触センサ115の概略構成図を示す。接触センサ115が赤外線遮断方式の場合、周辺発光部115a〜115dの光を電子ペン4又は指が遮断することを2つの受光装置115f、115gで撮影する。各受光装置115f、115gは水平方向に一次元に並んだ受光素子を有しており、2つの受光装置115f、115gのそれぞれでどの受光素子が光の遮断を検知したかにより、三角測量の原理で電子ペン4又は指の座標を検出する。図では4つの受光装置115e〜115hがあるが、受光装置は最低2つあればよい。また、周辺発光部115a〜115dは再帰性反射板でもよく、この場合は受光装置115e〜115hが発光機能を有している。   FIG. 22A shows a schematic configuration diagram of the contact sensor 115. When the contact sensor 115 is an infrared ray blocking method, the two light receiving devices 115f and 115g capture that the light from the peripheral light emitting units 115a to 115d is blocked by the electronic pen 4 or the finger. Each of the light receiving devices 115f and 115g has a light receiving element arranged one-dimensionally in the horizontal direction, and the principle of triangulation depends on which light receiving element detects the light blockage in each of the two light receiving devices 115f and 115g. To detect the coordinates of the electronic pen 4 or the finger. Although there are four light receiving devices 115e to 115h in the figure, it is sufficient that there are at least two light receiving devices. In addition, the peripheral light emitting units 115a to 115d may be retroreflecting plates. In this case, the light receiving devices 115e to 115h have a light emitting function.

図22(b)は接触センサ115の側面図を示す。周辺発光部115a〜115dはディスプレイ3よりも手前から検知エリアを形成しているため、電子ペン4がディスプレイ3に接触する前に受光装置115e〜115hは電子ペンを撮影する(接触検知影像イベント)。その後、電子ペン4がディスプレイ3に接触するとペンダウンイベントが検知される。したがって、接触センサ115が遮光を検出してからペンダウンイベントが検知されるまでに時間的な遅延が生じる。なお、検知エリアは、特許請求の範囲の表示面の一例である。   FIG. 22B shows a side view of the contact sensor 115. Since the peripheral light emitting units 115a to 115d form a detection area from the front of the display 3, the light receiving devices 115e to 115h photograph the electronic pen before the electronic pen 4 contacts the display 3 (contact detection image event). . Thereafter, when the electronic pen 4 contacts the display 3, a pen down event is detected. Accordingly, there is a time delay from when the contact sensor 115 detects the light shielding until the pen down event is detected. The detection area is an example of a display surface in the claims.

一方、ユーザが指でディスプレイ3に触れる場合、時間が経過してもペンダウンイベントが検知されることはない。本実施例ではこの時間を利用して、マーカーイベントを検知する。また、時間が経過する前に座標をキューイングしておくことで、指による書き始めから座標をマーカーとして描画する。   On the other hand, when the user touches the display 3 with his / her finger, the pen-down event is not detected even if time passes. In this embodiment, this time is used to detect a marker event. Also, by queuing the coordinates before the time elapses, the coordinates are drawn as markers from the beginning of writing with a finger.

図23は、指判別部29-1が指による描画であることを判別しマーカーを描画する手順を示すフローチャート図の一例である。   FIG. 23 is an example of a flowchart illustrating a procedure in which the finger determination unit 29-1 determines that drawing is performed with a finger and a marker is drawn.

イベント振分部25は座標検知部22が座標を検知したという接触検知影像イベントを取得し指判別部29-1に通知する(S210)。   The event distribution unit 25 acquires a contact detection image event that the coordinate detection unit 22 has detected the coordinates, and notifies the finger determination unit 29-1 of the contact detection image event (S210).

指判別部29-1は座標検知部22に撮影画像の太さを問い合わせ、太さがゼロと見なせる程度か否かを判定する(S211)。撮影画像の太さとは、遮光された領域の広さであり、受光装置115e〜115hの受光素子のうち光を検知しなくなった受光素子の数などにより判断される。なお、受光装置は2つあるので、2つの受光装置の受光素子の数の平均などで判断すればよい。太さがゼロと見なせるか否かを判定することで、ノイズにより遮光を検出した場合を排除し、指が遮光したことを検知できる。   The finger determination unit 29-1 inquires the coordinate detection unit 22 about the thickness of the captured image and determines whether the thickness can be regarded as zero (S211). The thickness of the captured image is the width of the light-shielded area, and is determined by the number of light receiving elements that no longer detect light among the light receiving elements of the light receiving devices 115e to 115h. Since there are two light receiving devices, it may be determined based on the average number of light receiving elements of the two light receiving devices. By determining whether or not the thickness can be regarded as zero, it is possible to eliminate the case where the light shielding is detected due to noise and to detect that the finger is shielded.

太さがゼロと見なせない場合(S211のNo)、指判別部29-1はペンダウン中か否かを判定する(S212)。すなわち、ペンダウンイベントが検出されているか否かが検出され、ペンダウン中であれば指でなく電子ペン4がディスプレイ3に触れていると判定できる。なお、ペンダウンイベントは特許請求の範囲の接触情報の一例である。   When the thickness cannot be regarded as zero (No in S211), the finger determination unit 29-1 determines whether the pen is down (S212). That is, whether or not a pen-down event is detected is detected, and if the pen is down, it can be determined that the electronic pen 4 is touching the display 3 instead of the finger. The pen down event is an example of contact information in the claims.

ペンダウン中でない場合(S212のNo)、指判別部29-1はジェスチャ中か否かを判定する(S213)。ジェスチャとは、拡大や縮小、ページめくりなどに対応する操作であり、ジェスチャ中とはジェスチャが検出されている過程であることをいう。ジェスチャ処理部がジェスチャを検出している間は、ジェスチャ中であると判定される。   If the pen is not down (No in S212), the finger determination unit 29-1 determines whether or not a gesture is being performed (S213). A gesture is an operation corresponding to enlargement / reduction, page turning, and the like, and “gesturing” means a process in which a gesture is detected. While the gesture processing unit detects the gesture, it is determined that the gesture is being performed.

一方、太さがゼロと見なせる場合(S211のYes)、ペンダウン中の場合(S212のYes)、又は、ジェスチャ中の場合(S213のYes)、指判別部29-1はマーカー描画中か否かを判定する(S214)。ステップS211〜S213の判定結果により指以外の物が遮光している可能性が高いと判定できるが、直前まで、ユーザがマーカー描画中である場合、それまでに描画された座標をマーカーの座標として、マーカー処理部38がサーバ機90に送信する(S215)。これにより、全てのマーカーの座標を共有できる。   On the other hand, if the thickness can be regarded as zero (Yes in S211), the pen is down (Yes in S212), or the gesture is in progress (Yes in S213), whether or not the finger determination unit 29-1 is drawing the marker? Is determined (S214). Although it can be determined that there is a high possibility that an object other than the finger is shielded from light according to the determination results in steps S211 to S213, if the user is drawing a marker until just before, the coordinates drawn so far are used as the coordinates of the marker. The marker processing unit 38 transmits to the server machine 90 (S215). Thereby, the coordinates of all the markers can be shared.

ステップS213に戻り、ジェスチャ中でない場合(S213のNo)、指判別部29-1は指入力開始待機タイマー29-2がスタートしているか否かを判定する(S216)。   Returning to step S213, if the gesture is not being performed (No in S213), the finger determination unit 29-1 determines whether or not the finger input start waiting timer 29-2 is started (S216).

指入力開始待機タイマー29-2がスタートしていない場合(S216のNo)、指判別部29-1は指入力開始待機タイマー29-2をスタートする(S217)。   If the finger input start standby timer 29-2 has not been started (No in S216), the finger determination unit 29-1 starts the finger input start standby timer 29-2 (S217).

指入力開始待機タイマー29-2がスタートしている場合(S216のYes)、指判別部29-1は取得座標をキューの末尾に追加する(S218)。   When the finger input start standby timer 29-2 is started (Yes in S216), the finger determination unit 29-1 adds the acquired coordinates to the end of the queue (S218).

次に、指判別部29-1は指入力開始待機タイマー29-2がタイムアウトしたか否かを判定する(S219)。タイムアウトの時間は、座標検知部22の検知エリアに指が侵入してからディスプレイ3に触れるまでなので例えば数百ミリ秒とする。タイムアウトしていない場合はステップS210からの処理を繰り返す。   Next, the finger determination unit 29-1 determines whether or not the finger input start standby timer 29-2 has timed out (S219). The time-out time is, for example, several hundred milliseconds since the finger enters the detection area of the coordinate detection unit 22 until it touches the display 3. If not timed out, the processing from step S210 is repeated.

タイムアウトした場合(S219のYes)、指判別部29-1はキューの先頭と、最末尾の点の距離を算出し、指の移動距離が閾値(例えば、50〔px〕)より大きいか否かを判定する(S219−2)。経過時間に加えて移動距離を判別することで、書き迷いなどの速度変化の小さい動作による不要なマーカー表示を抑制できる。   When time-out occurs (Yes in S219), the finger determination unit 29-1 calculates the distance between the head of the queue and the last point, and whether or not the finger movement distance is greater than a threshold (for example, 50 [px]). Is determined (S219-2). By discriminating the moving distance in addition to the elapsed time, unnecessary marker display due to an operation with a small speed change such as writing error can be suppressed.

指の移動距離が閾値より大きい場合(S219−2のYes)、指判別部29-1は指による描画であると判定し、マーカーイベントが発生する(S220)。   When the movement distance of the finger is larger than the threshold (Yes in S219-2), the finger determination unit 29-1 determines that the drawing is performed by the finger, and a marker event is generated (S220).

次に、マーカー処理部38は、キューに座標データがあるか否かを判定する(S221)。   Next, the marker processing unit 38 determines whether there is coordinate data in the queue (S221).

キューに座標データがある場合(S221のYes)、マーカー処理部38はキューの座標を先頭から線で連結してマーカーを描画する(S222)。線色は、参加拠点管理テーブルに登録された拠点色とする。これにより各拠点でどの拠点がマーカー描画したかを区別できる。また、マーカー線は電子ペンのストロークと区別できるように、ストロークよりも太い例えば20pxの太さとする。ただし、背景画像が視認できるように透過度を40%程度にしてもよい。また、描画したあとは、ユーザの操作を阻害しないように自動で消去されてよい。この場合、たとえば3秒表示後、1秒間かけてフェードアウトするようなエフェクトで消去することが好ましい。   When there is coordinate data in the queue (Yes in S221), the marker processing unit 38 draws a marker by connecting the coordinates of the queue with a line from the top (S222). The line color is the base color registered in the participating base management table. This makes it possible to distinguish which base has drawn the marker at each base. Also, the marker line is thicker than the stroke, for example, 20px thick so that it can be distinguished from the stroke of the electronic pen. However, the transparency may be about 40% so that the background image can be visually recognized. Moreover, after drawing, it may be automatically deleted so as not to hinder the user's operation. In this case, for example, it is preferable to erase with an effect of fading out for 1 second after displaying for 3 seconds.

キューに座標データがない場合(S221のNo)、マーカー処理部38は最後尾座標と取得座標を線で連結してマーカーを描画する(S223)。   When there is no coordinate data in the queue (No in S221), the marker processing unit 38 draws a marker by connecting the last coordinate and the acquired coordinate with a line (S223).

次に、マーカー処理部38は取得座標を最後尾座標として保存する(S224)。   Next, the marker processing unit 38 stores the acquired coordinates as the last coordinate (S224).

したがって、本実施例によれば、各拠点が指による描画をマーカーとして送信することで、電子ペン4でなく指を使用するという簡単な操作で、異なる態様で描画内容を表示できる。例えば、マーカーをストロークよりも太く描画すれば、強調したい議題などを簡単に示すことができるようになる。また、電子ペン4ではなく指で描画すればよいので、ユーザにとって自然な操作で実現できる。   Therefore, according to the present embodiment, each base transmits a drawing with a finger as a marker, so that the drawing content can be displayed in a different manner by a simple operation of using the finger instead of the electronic pen 4. For example, if the marker is drawn thicker than the stroke, the agenda to be emphasized can be easily shown. Moreover, since it is only necessary to draw with a finger instead of the electronic pen 4, it can be realized by a natural operation for the user.

実施例1,2ではジェスチャについて触れたが、従来、拡大・縮小のジェスチャは、ジェスチャ操作を行った拠点でのみ有効であり、他の拠点と共有されていなかった。   In the first and second embodiments, the gesture has been described. Conventionally, the enlargement / reduction gesture is effective only at the base where the gesture operation is performed, and is not shared with other bases.

しかしながら、拠点Aがページデータを拡大したためディスプレイ3に表示しきれない領域が生じた場合に、拠点Bでは拡大していないためストロークやマーカーを書き込んだ領域が拠点Aで表示されない場合があった。また、ストロークやマーカーだけでなく、画面が拡大されている場合、表示位置によっては実施例1の遠隔コンテキストも表示されない場合がある。   However, when an area that cannot be displayed on the display 3 occurs because the site A has expanded the page data, the area where the stroke or marker is written may not be displayed at the site A because the area is not enlarged at the site B. In addition to the strokes and markers, when the screen is enlarged, the remote context of the first embodiment may not be displayed depending on the display position.

そこで、本実施例では、ジェスチャによる拡大・縮小の操作を各拠点と共有する画像処理システム1について説明する。   Therefore, in the present embodiment, an image processing system 1 that shares an enlargement / reduction operation using a gesture with each site will be described.

図24は、本実施例の電子黒板の機能ブロック図の一例である。図3に示した機能ブロック図のうち指判別部29-1、指入力開始待機タイマー29-2、マーカー処理部38、及び、コンテキスト処理部39を有さない構成となっている。   FIG. 24 is an example of a functional block diagram of the electronic blackboard of the present embodiment. In the functional block diagram shown in FIG. 3, the finger determination unit 29-1, the finger input start standby timer 29-2, the marker processing unit 38, and the context processing unit 39 are not included.

ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたイベントに対し、ジェスチャの内容に対応したアフィン変換行列を作成する。アフェイン変換行列により、点のスケーリング(拡大・縮小)、回転、反転、及び、平行移動を表すことができる。本実施例は主に、拡大・縮小、並行移動を行うアフィン変換行列が作成される。なお、アフィン変換行列は特許請求の範囲の操作情報の一例である。   The gesture processing unit 27 creates an affine transformation matrix corresponding to the content of the gesture for the event determined to be a gesture operation by the event distribution unit 25. The affine transformation matrix can represent point scaling (enlargement / reduction), rotation, inversion, and translation. In this embodiment, an affine transformation matrix that performs enlargement / reduction and parallel movement is mainly created. The affine transformation matrix is an example of the operation information in the claims.

図25(a)はアフィン変換行列の一例を示す。アフィン変換行列は3×3の行列で表すことができ、左上の2×2の行列で拡大・縮小を、左下の1×2行列で平行移動を表すことができる。図25(a)の例では座標(x、y)をx方向に3倍して(y方向はそのまま)、x方向に3,y方向に4、平行移動している。したがって、操作元の拠点がアフィン変換行列を他の拠点に送信することで、他の拠点も同じように拡大・縮小、平行移動することが可能である。   FIG. 25A shows an example of an affine transformation matrix. The affine transformation matrix can be represented by a 3 × 3 matrix, and the upper left 2 × 2 matrix can be used for enlargement / reduction, and the lower left 1 × 2 matrix can be used for translation. In the example of FIG. 25A, the coordinates (x, y) are tripled in the x direction (y direction remains the same), and 3 in the x direction and 4 in the y direction are translated. Therefore, when the operation source site transmits the affine transformation matrix to other sites, the other sites can be similarly enlarged, reduced, and translated.

図25(b)はアフィン変換行列が点(2、1)に適用された場合の移動例を示している。点(2,1)が点(9,5)に表示されるが、これはアフィン変換行列の計算結果と一致する。   FIG. 25B shows an example of movement when the affine transformation matrix is applied to the point (2, 1). The point (2, 1) is displayed at the point (9, 5), which matches the calculation result of the affine transformation matrix.

ジェスチャ処理部27が作成したアフィン変換行列は画像処理部30に出力され、ジェスチャが反映された画像がディスプレイ3に表示される。また、アフィン変換行列はページデータ記憶部300に記憶される。操作拠点の遠隔操作送信部65はアフィン変換行列を通信制御部70の遠隔操作受信部75に送信し、遠隔操作処理部83を介して遠隔操作送信部76が、他の拠点のクライアント機20の遠隔操作受信部75にアフィン変換行列を送信する。他の拠点の画像処理部30は、ジェスチャが反映された画像がディスプレイ3に表示する。   The affine transformation matrix created by the gesture processing unit 27 is output to the image processing unit 30, and an image reflecting the gesture is displayed on the display 3. The affine transformation matrix is stored in the page data storage unit 300. The remote operation transmission unit 65 at the operation base transmits the affine transformation matrix to the remote operation reception unit 75 of the communication control unit 70, and the remote operation transmission unit 76 via the remote operation processing unit 83 transmits the affine transformation matrix of the client machine 20 at the other base. The affine transformation matrix is transmitted to the remote operation receiving unit 75. The image processing unit 30 at another base displays an image on which the gesture is reflected on the display 3.

図26は、2つの拠点でジェスチャを共有する手順を示すフローチャート図の一例である。以下では、操作元をA拠点、ジェスチャを受信する拠点をB拠点として説明する。   FIG. 26 is an example of a flowchart illustrating a procedure for sharing a gesture at two bases. In the following description, the operation source is A site, and the base that receives the gesture is B site.

まず、A拠点のジェスチャ処理部27はジェスチャを検出してアフィン変換行列を作成する(S310)。   First, the gesture processing unit 27 at the A site detects a gesture and creates an affine transformation matrix (S310).

次に、画像処理部30のページ処理部37はディスプレイ3に表示されている座標にアフィン変換を施すことで、ジェスチャが反映された画像をディスプレイ3に表示する(S320)。なお、アフェイン変換行列を送信するためアフィン変換行列はページと対応づけてページデータ記憶部300に記憶される。   Next, the page processing unit 37 of the image processing unit 30 performs an affine transformation on the coordinates displayed on the display 3, thereby displaying an image on which the gesture is reflected on the display 3 (S320). In order to transmit the affine transformation matrix, the affine transformation matrix is stored in the page data storage unit 300 in association with the page.

A拠点はアフィン変換行列をB拠点に送信する(S330)。具体的には、A拠点のクライアント機20の遠隔操作送信部65がアフィン変換行列をサーバ機90に出力する。サーバ機の遠隔操作受信部75はアフィン変換行列を受信して遠隔操作処理部83に出力する。遠隔操作処理部83は、参加拠点管理テーブルに登録されているB拠点のIPアドレスを読み出し、A拠点の拠点識別情報とアフィン変換行列を遠隔操作送信部76に出力する。これにより、遠隔操作送信部76は、B拠点の遠隔操作受信部66にA拠点の拠点識別情報とアフィン変換行列を送信する。   The A site transmits the affine transformation matrix to the B site (S330). Specifically, the remote operation transmission unit 65 of the client machine 20 at the A site outputs the affine transformation matrix to the server machine 90. The remote operation receiving unit 75 of the server machine receives the affine transformation matrix and outputs it to the remote operation processing unit 83. The remote operation processing unit 83 reads the IP address of the B site registered in the participating site management table, and outputs the site identification information and the affine transformation matrix of the A site to the remote operation transmitting unit 76. Thereby, the remote operation transmitting unit 76 transmits the base identification information and the affine transformation matrix of the A base to the remote operation receiving unit 66 of the B base.

B拠点の遠隔操作受信部66はアフィン変換行列を受信する(S340)。アフィン変換行列はB拠点の画像処理部30に出力され、画像処理部30はアフィン変換行列をページデータ記憶部300に記憶する。   The remote operation receiving unit 66 at site B receives the affine transformation matrix (S340). The affine transformation matrix is output to the image processing unit 30 at the B base, and the image processing unit 30 stores the affine transformation matrix in the page data storage unit 300.

B拠点のページ処理部37はページにすぐにアフィン変換行列を行うのでなく、A拠点でイベントが検出されているか否かを判定する(S350)。これは、A拠点でストロークやマーカーなどを描画している場合、B拠点でアフィン変換行列による拡大・縮小、平行移動すると、A拠点で入力された座標の表示位置を変更する必要が生じるためである。   The page processing unit 37 at the site B does not immediately perform the affine transformation matrix on the page, but determines whether an event is detected at the site A (S350). This is because, when a stroke or marker is drawn at the A site, if the enlargement / reduction or translation is performed using the affine transformation matrix at the B site, it is necessary to change the display position of the coordinates input at the A site. is there.

このため、ページ処理部37は遠隔操作受信部66が以下のイベントを受信したか否かを判定する。これらは主にページの表示内容が変更されるイベントである。
・ペンダウンイベント
・マーカーイベント
・ジェスチャ中
・リモートPC操作イベント
なお、リモートPC操作とは、PC6の映像をディスプレイ3に表示した状態で、座標検知部が検出した座標に基づきPC6を操作することをいう。すなわち、ユーザはディスプレイ3に対する操作でPC6を操作(アプリケーション起ち上げ、ウィンドウ開閉、ファイル選択など)することができる。また、ペンダウンイベントには、ストロークの消去、ストロークの変倍、ストロークの移動が含まれる。
Therefore, the page processing unit 37 determines whether or not the remote operation receiving unit 66 has received the following event. These are events that mainly change the display content of the page.
・ Pen-down event ・ Marker event ・ During gesture ・ Remote PC operation event Note that the remote PC operation means that the PC 6 is operated based on the coordinates detected by the coordinate detection unit in a state where the image of the PC 6 is displayed on the display 3. Say. That is, the user can operate the PC 6 by operating the display 3 (starting up an application, opening / closing a window, selecting a file, etc.). The pen-down event includes stroke deletion, stroke scaling, and stroke movement.

これらのイベントが検知されている場合(S350のYes)、ページ処理部37は1秒間待機する(S360)。1秒間とは一例であり、A拠点のイベントが途切れることを検出できる時間であればよい。   When these events are detected (Yes in S350), the page processing unit 37 waits for 1 second (S360). One second is an example, and any time can be used as long as it can be detected that the event at the base A is interrupted.

イベントが検知されない場合(S350のNo)、ページ処理部37はページデータ記憶部300に記憶しておいたアフィン変換行列をページに適用してジェスチャが反映された画像をディスプレイ3に表示する(S370)。   When the event is not detected (No in S350), the page processing unit 37 applies the affine transformation matrix stored in the page data storage unit 300 to the page and displays an image on which the gesture is reflected on the display 3 (S370). ).

以上のように、本実施例の画像処理システムはジェスチャについても他の拠点と共有でき、各拠点のユーザがページの同じ場所を視認できるようになる。また、ジェスチャを行った拠点のイベント待ちすることで、適切なタイミングで拡大・縮小などを行うことができる。   As described above, the image processing system according to the present embodiment can also share gestures with other bases, and users at each base can visually recognize the same place on the page. Also, by waiting for the event at the location where the gesture was performed, it is possible to perform enlargement / reduction at an appropriate timing.

1 画像処理システム
2 電子黒板(画像処理装置の一例)
3 ディスプレイ(表示手段の一例)
4 電子ペン
5 USBメモリ
6 ノートPC(情報処理端末の一例)
7 テレビ会議端末
8 PC
9 通信ネットワーク
20 クライアント機
30 画像処理部
60、70 通信制御部
80 データ管理部
90 サーバ機
1 Image processing system 2 Electronic blackboard (an example of an image processing device)
3 Display (an example of display means)
4 Electronic pen 5 USB memory 6 Notebook PC (an example of information processing terminal)
7 Video conference terminal 8 PC
DESCRIPTION OF SYMBOLS 9 Communication network 20 Client machine 30 Image processing part 60, 70 Communication control part 80 Data management part 90 Server machine

特許第5081088号公報Japanese Patent No. 5081088

Claims (7)

画像を表示する表示手段を含む複数の情報処理装置がネットワークを介して接続された画像処理システムであって、
第1の情報処理装置は、
操作を受け付ける操作受け付け手段と、
前記操作受け付け手段により受け付けられた操作を通知する操作内容通知情報を作成する操作内容通知情報作成手段と、
前記操作の操作内容が反映された画像を第1の情報処理装置の前記表示手段に表示させる第1の表示手段制御手段と、
前記操作内容通知情報及び前記操作内容を第2の情報処理装置に送信する送信手段と、を有し、
前記第2の情報処理装置は、
前記第1の情報処理装置から送信された前記操作内容通知情報を前記第2の情報処理装置の前記表示手段に表示させ、
前記第1の情報処理装置から送信された前記操作内容に基づいて、当該操作内容が反映された画像を前記第2の情報処理装置の前記表示手段に表示することを特徴とする画像処理システム。
An image processing system in which a plurality of information processing apparatuses including display means for displaying an image are connected via a network,
The first information processing apparatus
Operation accepting means for accepting an operation;
Operation content notification information creating means for creating operation content notification information for notifying the operation accepted by the operation accepting means;
First display means control means for displaying on the display means of the first information processing apparatus an image reflecting the operation content of the operation;
Transmission means for transmitting the operation content notification information and the operation content to a second information processing apparatus,
The second information processing apparatus
Displaying the operation content notification information transmitted from the first information processing apparatus on the display means of the second information processing apparatus;
An image processing system that displays an image reflecting the operation content on the display unit of the second information processing device based on the operation content transmitted from the first information processing device.
前記第1の情報処理装置は、前記表示手段に対し指示手段により指示された座標を検出する座標検出手段を更に備え、
前記操作受け付け手段は、前記座標検出手段が検出した座標に基づき操作を受け付け、
前記座標検出手段が指示手段を検出した場合、時間の計測を開始する時間計測手段と、
前記座標検出手段が検出した座標を時系列に蓄積する座標蓄積手段と、
前記指示手段が前記表示手段へ接触したことを示す接触情報を指示手段から受信する接触情報受信手段と、を有し、
前記接触情報受信手段が前記接触情報を受信する前に、前記時間計測手段が所定値以上の時間を計測した場合、第1又は第2の前記表示手段制御手段は、前記座標蓄積手段が蓄積している座標を予め定められた態様で連結して前記表示手段させる、
ことを特徴とする請求項1記載の画像処理システム。
The first information processing apparatus further includes coordinate detection means for detecting coordinates indicated by the instruction means for the display means,
The operation accepting means accepts an operation based on the coordinates detected by the coordinate detecting means,
A time measuring means for starting time measurement when the coordinate detecting means detects the indicating means;
Coordinate storage means for storing the coordinates detected by the coordinate detection means in time series;
Contact information receiving means for receiving contact information indicating that the instruction means has contacted the display means from the instruction means;
If the time measuring unit measures a time equal to or greater than a predetermined value before the contact information receiving unit receives the contact information, the coordinate storage unit stores the first or second display unit control unit. The display means by connecting the coordinates in a predetermined manner,
The image processing system according to claim 1.
前記操作内容通知情報は、前記第1の情報処理装置の識別情報及び前記操作受け付け手段が操作を受け付けた際に前記座標検出手段が検出した座標を含み、
前記第2の情報処理装置の表示手段の、前記操作内容通知情報に含まれる座標の周辺に、前記識別情報と前記操作内容通知情報を表示させる、
ことを特徴とする請求項2記載の画像処理システム。
The operation content notification information includes identification information of the first information processing apparatus and coordinates detected by the coordinate detection unit when the operation reception unit receives an operation,
Displaying the identification information and the operation content notification information around the coordinates included in the operation content notification information of the display unit of the second information processing apparatus;
The image processing system according to claim 2.
前記第2の情報処理装置の表示手段の、前記操作内容通知情報に応じて予め定められた場所に、前記識別情報と前記操作内容通知情報を表示させる、
ことを特徴とする請求項3記載の画像処理システム。
Displaying the identification information and the operation content notification information at a place predetermined according to the operation content notification information of the display means of the second information processing apparatus;
The image processing system according to claim 3.
前記第2の情報処理装置の表示手段に表示した前記識別情報と前記操作内容通知情報を、第1の所定時間表示した後、第2の所定時間をかけて徐々に消去する、ことを特徴とする請求項3又は4記載の画像処理システム。   The identification information and the operation content notification information displayed on the display unit of the second information processing apparatus are displayed for a first predetermined time, and then gradually deleted over a second predetermined time. The image processing system according to claim 3 or 4. 情報処理装置の識別情報に対応づけて、情報処理装置との通信状態を示す通信状態情報が登録された状態記憶手段と、
前記状態記憶手段を参照して、各情報処理装置の識別情報、及び、通信状態をリスト状に表示する情報処理装置リスト表示手段と、
を有することを特徴とする請求項1〜5いずれか1項記載の画像処理システム。
A state storage unit in which communication state information indicating a communication state with the information processing device is registered in association with the identification information of the information processing device;
With reference to the state storage means, identification information of each information processing apparatus, and information processing apparatus list display means for displaying a communication state in a list form;
The image processing system according to claim 1, comprising:
情報処理装置に対する操作を受け付ける操作受け付け手段と、
前記操作を通知する操作内容通知情報を作成する操作内容通知情報作成手段と、
前記操作内容通知情報を他の情報処理装置に送信した後に、前記操作の操作内容を他の情報処理装置に送信する送信手段と、を有し
前記操作内容通知情報と前記操作内容が反映された画像を前記他の情報処理装置の表示手段に表示させる情報処理装置であって、
前記操作内容が反映された画像を当該情報処理装置の表示手段に表示する表示手段制御手段、
を有することを特徴とする情報処理装置。
Operation accepting means for accepting an operation on the information processing apparatus;
Operation content notification information creating means for creating operation content notification information for notifying the operation;
A transmission unit that transmits the operation content of the operation to another information processing device after the operation content notification information is transmitted to the other information processing device; and the operation content notification information and the operation content are reflected An information processing apparatus for displaying an image on a display unit of the other information processing apparatus,
Display means control means for displaying on the display means of the information processing apparatus an image reflecting the operation content;
An information processing apparatus comprising:
JP2014180411A 2014-09-04 2014-09-04 Image processing system and information processing apparatus Expired - Fee Related JP5846270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014180411A JP5846270B2 (en) 2014-09-04 2014-09-04 Image processing system and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014180411A JP5846270B2 (en) 2014-09-04 2014-09-04 Image processing system and information processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013192282 Division 2013-09-17 2013-09-17

Publications (2)

Publication Number Publication Date
JP2015060592A true JP2015060592A (en) 2015-03-30
JP5846270B2 JP5846270B2 (en) 2016-01-20

Family

ID=52818004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014180411A Expired - Fee Related JP5846270B2 (en) 2014-09-04 2014-09-04 Image processing system and information processing apparatus

Country Status (1)

Country Link
JP (1) JP5846270B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3709634A1 (en) 2019-03-13 2020-09-16 Ricoh Company, Ltd. Communication management system, communication system, communication management device, image processing method, and carrier medium
CN114168098A (en) * 2021-12-10 2022-03-11 天津洪恩完美未来教育科技有限公司 Data synchronization method, device, equipment and storage medium of electronic whiteboard
US11416202B2 (en) 2019-08-19 2022-08-16 Ricoh Company, Ltd. Communication terminal, communication system, method of sharing data, and recording medium
US11647059B2 (en) 2020-03-13 2023-05-09 Ricoh Company, Ltd. Communication management apparatus, communication system, communication method, and non-transitory recording medium
US11675496B2 (en) 2021-03-17 2023-06-13 Ricoh Company, Ltd. Apparatus, display system, and display control method
US11799925B2 (en) 2020-09-16 2023-10-24 Ricoh Company, Ltd. Communication system, communication terminal, and screen sharing method
US12002231B2 (en) 2020-08-04 2024-06-04 Ricoh Company, Ltd. Communication system, method for communicating to share images, and non-transitory recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (en) * 2004-07-15 2006-02-02 Ricoh Co Ltd Screen sharing method and conference support system
JP2013065125A (en) * 2011-09-16 2013-04-11 Ricoh Co Ltd Screen sharing system, screen sharing terminal, electronic blackboard system and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (en) * 2004-07-15 2006-02-02 Ricoh Co Ltd Screen sharing method and conference support system
JP2013065125A (en) * 2011-09-16 2013-04-11 Ricoh Co Ltd Screen sharing system, screen sharing terminal, electronic blackboard system and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3709634A1 (en) 2019-03-13 2020-09-16 Ricoh Company, Ltd. Communication management system, communication system, communication management device, image processing method, and carrier medium
US11539764B2 (en) 2019-03-13 2022-12-27 Ricoh Company, Ltd. Communication management system, communication system, communication management device, image processing method, and non-transitory computer-readable medium
US12120158B2 (en) 2019-03-13 2024-10-15 Ricoh Company, Ltd. Communication management system, communication system, communication management device, image processing method, and non-transitory computer-readable medium
US11416202B2 (en) 2019-08-19 2022-08-16 Ricoh Company, Ltd. Communication terminal, communication system, method of sharing data, and recording medium
US11647059B2 (en) 2020-03-13 2023-05-09 Ricoh Company, Ltd. Communication management apparatus, communication system, communication method, and non-transitory recording medium
US12002231B2 (en) 2020-08-04 2024-06-04 Ricoh Company, Ltd. Communication system, method for communicating to share images, and non-transitory recording medium
US11799925B2 (en) 2020-09-16 2023-10-24 Ricoh Company, Ltd. Communication system, communication terminal, and screen sharing method
US11675496B2 (en) 2021-03-17 2023-06-13 Ricoh Company, Ltd. Apparatus, display system, and display control method
CN114168098A (en) * 2021-12-10 2022-03-11 天津洪恩完美未来教育科技有限公司 Data synchronization method, device, equipment and storage medium of electronic whiteboard

Also Published As

Publication number Publication date
JP5846270B2 (en) 2016-01-20

Similar Documents

Publication Publication Date Title
JP6094550B2 (en) Information processing apparatus and program
JP5846270B2 (en) Image processing system and information processing apparatus
JP6493546B2 (en) Electronic blackboard, storage medium, and information display method
JP6583432B2 (en) Image processing apparatus, image display method, and program
JP2016134014A (en) Electronic information board device, information processing method and program
US10645234B2 (en) Image processing apparatus, image processing system, and image processing method
JP6885416B2 (en) Electronic blackboards, image processing methods for electronic blackboards, and programs
US20180082663A1 (en) Information processing apparatus, image displaying method, and non-transitory computer readable medium
JP2016139322A (en) Image processor and electronic blackboard provided with the same
JP2018067018A (en) Electronic blackboard, image processing method, image processing program, and image processing system
JP2017076207A (en) Image processing device and image processing system
WO2017138233A1 (en) Image processing device, image processing system and image processing method
JP6036621B2 (en) System, information processing device
JP6589621B2 (en) Display device, camera position control method, and program
JP7298224B2 (en) Display device and display method
JP2022087633A (en) Display device, erasing method switching method, and program
WO2015186453A1 (en) Coordinate detection device, image processing device, and coordinate detection method
JP7363064B2 (en) Image processing device, method, and program
JP2016076775A (en) Image processing apparatus, image processing system, image processing method, and system
JP7388159B2 (en) Display device, display method
JP7383959B2 (en) Display device, usage providing method, program, image processing system
WO2016121403A1 (en) Information processing apparatus, image processing system, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R151 Written notification of patent or utility model registration

Ref document number: 5846270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees