JP2016076775A - Image processing apparatus, image processing system, image processing method, and system - Google Patents

Image processing apparatus, image processing system, image processing method, and system Download PDF

Info

Publication number
JP2016076775A
JP2016076775A JP2014204798A JP2014204798A JP2016076775A JP 2016076775 A JP2016076775 A JP 2016076775A JP 2014204798 A JP2014204798 A JP 2014204798A JP 2014204798 A JP2014204798 A JP 2014204798A JP 2016076775 A JP2016076775 A JP 2016076775A
Authority
JP
Japan
Prior art keywords
stroke
information
unit
divided
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014204798A
Other languages
Japanese (ja)
Inventor
岳志 堀内
Takeshi Horiuchi
岳志 堀内
宮本 篤
Atsushi Miyamoto
篤 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014204798A priority Critical patent/JP2016076775A/en
Publication of JP2016076775A publication Critical patent/JP2016076775A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a plurality of types of split stroke information, after an indicator enters a display screen until the indicator separates therefrom, to be handled as one unit of stroke information.SOLUTION: A first image processing section 30 includes a stroke processing section 32 for generating split stroke information continuously by splitting the stroke information in units of a constant time, starting at a moment in time when an electronic pen 4 enters a display screen, a communication control section 60 for transmitting the split stroke information, generated by the stroke processing section 32, to a second image processing section 30 while adding the continuation information indicating that the stroke is continuing, and a communication control section 60 for transmitting the split stroke information, generated by the stroke processing section 32, to the second image processing section while adding the end information indicating that the stroke has ended, when the electronic pen 4 separates from the display screen.SELECTED DRAWING: Figure 3

Description

本発明は、筆記されたストローク情報の共有に好適な画像処理装置、画像処理システム、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program suitable for sharing written stroke information.

インターネット等の通信ネットワークを介して遠隔地との間で、ユーザが文字や数字、図形等のストローク画像を描画可能な電子黒板を用いた情報共有システムが既に知られている。
電子黒板を用いた情報共有システムにおいて、送信側端末で生成したストローク情報を受信側端末に送信する際のタイミングを制御する方式として、二つの方式が知られている。
第1の方式は、電子ペン(指示体)が電子黒板の表示画面に進入してから離脱するまでの間に発生したストローク情報をまとめて送信する方式であり、第2の方式は、一定時間以内に筆記された際のストローク情報を逐次送信する方式である。
このような第2の方式の一例として、特許文献1には、ストローク情報を2つの端末間で共有する目的で、一定時間経過後に送信側端末に表示されているストローク情報を受信側端末に転送するシステムが開示されている。
An information sharing system using an electronic blackboard that allows a user to draw stroke images such as letters, numbers, and figures is already known with a remote place via a communication network such as the Internet.
In an information sharing system using an electronic blackboard, two methods are known as a method for controlling timing when transmitting stroke information generated by a transmitting terminal to a receiving terminal.
The first method is a method for collectively transmitting stroke information generated between the time when the electronic pen (indicator) enters the display screen of the electronic blackboard and the time when the electronic pen (indicator) leaves, and the second method is for a certain period of time. This is a method of sequentially transmitting stroke information when written within.
As an example of such a second method, Patent Document 1 discloses that stroke information displayed on a transmission-side terminal is transferred to a reception-side terminal after a certain period of time for the purpose of sharing stroke information between two terminals. A system is disclosed.

しかし、従来の第1の方式にあっては、送信側端末で電子ペンが表示画面に進入してから離脱するまでの時間が長時間に渡る場合、受信側端末でストローク情報が描画されていない時間が長時間に渡ることがあり、受信側のユーザがストローク画像の位置の変化を長時間に渡って視認できないといった問題があった。
一方、従来の第2の方式や、特許文献1にあっては、送信側端末では一定時間以内のストローク情報を逐次送信するため、一定時間以内の一単位のストローク情報が受信されることになり、電子ペンが表示画面に進入してから離脱するまでを一つのストローク情報として受信側端末において認識できないといった問題があった。
この結果、従来の受信側端末においては、一定時間以内での一単位のストローク情報に対しては、アンドゥ機能や削除機能といった機能操作を行えるが、電子ペンが表示画面に進入してから離脱するまでの一つのストローク情報を一定時間単位に分割して扱う場合、アンドゥ機能や削除機能といった機能操作を行えなかった。
本発明は、上記に鑑みてなされたもので、その目的は、指示体が表示画面に進入してから離脱するまでの1つのストローク情報を一定時間単位に分割して扱う場合でも、複数に分割されたストローク情報を1つのストローク情報に再現して扱うことを可能にすることにある。
However, in the first conventional method, when it takes a long time until the electronic pen enters the display screen and then leaves on the transmission side terminal, the stroke information is not drawn on the reception side terminal. There is a problem that the time may be extended for a long time, and the user on the receiving side cannot visually recognize the change of the position of the stroke image for a long time.
On the other hand, in the second conventional method and Patent Document 1, since the transmitting side terminal sequentially transmits stroke information within a certain time, one unit of stroke information within a certain time is received. There is a problem that the receiving terminal cannot recognize the stroke from when the electronic pen enters the display screen until it leaves.
As a result, in the conventional receiving side terminal, the function operation such as the undo function and the deletion function can be performed for one unit of stroke information within a certain period of time, but the electronic pen enters the display screen and then leaves. When one piece of stroke information up to this is divided into fixed time units, the function operations such as the undo function and the delete function cannot be performed.
The present invention has been made in view of the above, and its purpose is to divide a single piece of stroke information from when the indicator enters the display screen to when it leaves and divides it into a plurality of fixed time units. It is possible to reproduce and handle the stroke information as one stroke information.

請求項1記載の発明は、上記課題を解決するため、表示手段と、前記表示手段の表示画面に沿って移動することにより筆記操作を行う指示体と、前記表示画面に沿って移動する前記指示体の各筆記座標を検知する座標検知手段と、前記座標検知手段が検知した座標の座標情報に基づいて、前記筆記操作によるストロークについての座標情報をストローク情報として生成するストローク情報生成手段と、前記指示体が前記表示画面に進入した時点を始点として一定時間単位で前記ストローク情報を分割して分割ストローク情報を連続して生成する分割生成手段と、前記分割生成手段により生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して他の画像処理装置に送信する第1のストローク送信手段と、前記指示体が前記表示画面から離脱した場合に、前記分割生成手段により生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して前記他の画像処理装置に送信する第2のストローク送信手段と、を備えたことを特徴とする。   In order to solve the above problem, the invention according to claim 1 is a display unit, an indicator that performs a writing operation by moving along the display screen of the display unit, and the instruction that moves along the display screen. Coordinate detection means for detecting each writing coordinate of the body, stroke information generation means for generating, as stroke information, coordinate information about the stroke by the writing operation based on the coordinate information of the coordinates detected by the coordinate detection means, A division generation unit that continuously generates divided stroke information by dividing the stroke information in units of a fixed time starting from the time point when the indicator enters the display screen, and the divided stroke information generated by the division generation unit First stroke transmitting means for adding continuation information indicating that the stroke is continuing and transmitting the information to another image processing apparatus; When the writing indicator leaves the display screen, second information is sent to the other image processing apparatus by adding end information indicating the end of the stroke to the divided stroke information generated by the divided generation means. Stroke transmission means.

本態様によれば、指示体が表示画面に進入してから離脱するまでの1つのストローク情報を一定時間単位に分割して扱う場合でも、複数に分割されたストローク情報を1つのストローク情報に再現して扱うことが可能になる。   According to this aspect, even when one stroke information from when the indicator enters the display screen to when it leaves the display screen is divided into fixed time units, the divided stroke information is reproduced as one stroke information. Can be handled.

画像処理システムの全体構成図の一例である。1 is an example of an overall configuration diagram of an image processing system. 電子黒板のハードウェア構成図の一例である。It is an example of the hardware block diagram of an electronic blackboard. 電子黒板の機能ブロック図の一例である。It is an example of the functional block diagram of an electronic blackboard. ファイル処理部の機能ブロック図の一例である。It is an example of a functional block diagram of a file processing unit. 通信制御部の機能ブロック図の一例である。It is an example of the functional block diagram of a communication control part. ページデータの構成を示す概念図である。It is a conceptual diagram which shows the structure of page data. ストローク配列データの構成を示す概念図であるIt is a conceptual diagram which shows the structure of stroke arrangement | sequence data. 座標配列データの構成を示す概念図である。It is a conceptual diagram which shows the structure of coordinate arrangement | sequence data. メディアデータの構成を示す概念図である。It is a conceptual diagram which shows the structure of media data. 各画像レイヤの合成処理について説明するための概念図である。It is a conceptual diagram for demonstrating the synthetic | combination process of each image layer. 送信側電子黒板でペンが接近又は接触してから離脱するまでの間でストローク情報を送信するシーケンスについて説明するための図である。It is a figure for demonstrating the sequence which transmits stroke information after a pen approaches or contacts on a transmission side electronic blackboard until it leaves | separates. 送信側電子黒板において電子ペンがディスプレイ3に進入してから離脱するまでの分割ストローク情報を送信するためのフローチャートである。6 is a flowchart for transmitting divided stroke information from when the electronic pen enters the display 3 to when it leaves the display-side electronic blackboard. 受信側電子黒板において、分割ストローク情報を受信し、結合、描画するためのフローチャートである。6 is a flowchart for receiving, combining, and drawing divided stroke information in a receiving-side electronic blackboard. ページデータ記憶部のストローク管理テーブルのデータ構成について説明するための図である。It is a figure for demonstrating the data structure of the stroke management table of a page data storage part. 座標配列データの構成を示す概念図である。It is a conceptual diagram which shows the structure of coordinate arrangement | sequence data. 送信側電子黒板と受信側電子黒板との間で通信される分割ストローク情報のデータ構成について説明するための図である。It is a figure for demonstrating the data structure of the division | segmentation stroke information communicated between a transmission side electronic blackboard and a reception side electronic blackboard. 座標配列データの構成を示す概念図である。It is a conceptual diagram which shows the structure of coordinate arrangement | sequence data.

本発明の実施の形態を説明する。本発明は、ストローク情報が一定時間以内に受信端末側に表示でき、かつ受信端末側において、電子ペンが離脱するまでの一単位でストロークのアンドゥや削除などの操作ができる電子黒板情報共有システムの実現に際して、以下の特徴を有する。要するに、電子ペンが表示画面に進入した時点を始点として一定時間単位で分割ストローク情報を端末に送信し、かつ受信端末側において受信した複数の分割ストローク情報を一単位のストロークとして結合させるために、分割ストローク情報の終端フラグに真偽を設定して送信することが特徴になっている。
上記記載の本発明の特徴について、以下の図面を用いて詳細に解説する。
An embodiment of the present invention will be described. The present invention provides an electronic blackboard information sharing system in which stroke information can be displayed on the receiving terminal side within a certain time, and on the receiving terminal side, operations such as undoing and deleting strokes can be performed in one unit until the electronic pen is detached. In realization, it has the following features. In short, in order to transmit the divided stroke information to the terminal at a fixed time unit starting from the time when the electronic pen enters the display screen, and to combine the plurality of divided stroke information received at the receiving terminal side as one unit stroke, It is characterized in that the end flag of the divided stroke information is set to true / false and transmitted.
The features of the present invention described above will be described in detail with reference to the following drawings.

<システムの概要>
図1は、本実施形態の画像処理システムの全体構成図である。なお、図1では、説明を簡略化するために、2台の電子黒板2a、2b及びこれに付随する電子ペン4a、4b等を示しているだけであって、3台以上の電子黒板や電子ペン等を利用してもよい。電子黒板2a、2bは特許請求の範囲の情報処理装置の一例である。
<System overview>
FIG. 1 is an overall configuration diagram of an image processing system according to the present embodiment. In FIG. 1, only two electronic blackboards 2a and 2b and electronic pens 4a and 4b associated with the electronic blackboards 2a and 2b are shown to simplify the description. A pen or the like may be used. The electronic blackboards 2a and 2b are examples of the information processing apparatus in the claims.

図1に示されているように、画像処理システム1は、複数の電子黒板2a、2b、複数の電子ペン4a、4b、USBメモリ5a、5b、ノートPC(Personal Computer)6a、6b、テレビ(ビデオ)会議端末7a、7b、及びPC8を有する。また、電子黒板2a、2b、及びPC8は、通信ネットワーク9を介して通信可能に接続されている。更に、複数の電子黒板2a、2bには、それぞれディスプレイ3a、3bが設けられている。
また、電子黒板2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)による描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。
電子ペン4(指示体)は、ディスプレイ3a、3bの表示画面に沿って移動することにより筆記操作を行うものである。
As shown in FIG. 1, the image processing system 1 includes a plurality of electronic blackboards 2a and 2b, a plurality of electronic pens 4a and 4b, USB memories 5a and 5b, notebook PCs (Personal Computer) 6a and 6b, a television ( Video) having conference terminals 7a, 7b and PC8. The electronic blackboards 2a and 2b and the PC 8 are connected via a communication network 9 so that they can communicate with each other. Further, the plurality of electronic blackboards 2a and 2b are provided with displays 3a and 3b, respectively.
Further, on the electronic blackboard 2a, an image drawn by an event (touch of the pen tip of the electronic pen 4a or the pen tip of the electronic pen 4a on the display 3a) generated by the electronic pen 4a is displayed on the display 3a. Can do. Note that the image displayed on the display 3a can be changed based not only on the electronic pen 4a but also on an event (a gesture such as enlargement, reduction, or page turning) generated by the user's hand Ha or the like.
The electronic pen 4 (indicator) performs a writing operation by moving along the display screens of the displays 3a and 3b.

また、電子黒板2aには、USBメモリ5aが接続可能であり、電子黒板2aはUSBメモリ5aからPDF等の電子ファイルを読み出したり、電子黒板2aはUSBメモリ5aに電子ファイルを記録したりすることができる。また、電子黒板2aには、DisplayPort、DVI(Digital Visual Interface)、HDMI(登録商標)(High−Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、電子黒板2aでは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置のイベントと同様に、ノートPC6aに送信する。同じく、電子黒板2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、ノートPC6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、電子黒板2aと通信してもよい。   The electronic blackboard 2a can be connected to a USB memory 5a. The electronic blackboard 2a reads an electronic file such as PDF from the USB memory 5a, and the electronic blackboard 2a records an electronic file in the USB memory 5a. Can do. The electronic blackboard 2a is connected to a display port, DVI (Digital Visual Interface), HDMI (registered trademark) (High-Definition Multimedia Interface), and a cable 10a1 capable of communication according to a standard such as VGA (Video Graphics Array). A notebook PC 6a is connected. The electronic blackboard 2a generates an event by touching the display 3a, and transmits event information indicating the event to the notebook PC 6a in the same manner as an event of an input device such as a mouse or a keyboard. Similarly, a television (video) conference terminal 7a is connected to the electronic blackboard 2a via a cable 10a2 capable of communication according to the above-mentioned standards. Note that the notebook PC 6a and the video conference terminal 7a may communicate with the electronic blackboard 2a by wireless communication complying with various wireless communication protocols such as Bluetooth (registered trademark).

一方、電子黒板2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた電子黒板2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。   On the other hand, in the other bases where the electronic blackboard 2b is installed, the electronic blackboard 2b with the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conference terminal 7b, the cable 10b1, and the cable 10b2 in the same manner as described above. Is used. Furthermore, the image displayed on the display 3b can be changed based on an event caused by the user's hand Hb or the like.

これにより、一の拠点で電子黒板2aのディスプレイ3a上に描画された画像は、他の拠点で電子黒板2bのディスプレイ3b上にも表示され、逆に他の拠点で電子黒板2bのディスプレイ3b上に描画された画像は、一の拠点で電子黒板2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。   Thereby, the image drawn on the display 3a of the electronic blackboard 2a at one base is also displayed on the display 3b of the electronic blackboard 2b at another base, and conversely on the display 3b of the electronic blackboard 2b at another base. The image drawn on is displayed on the display 3a of the electronic blackboard 2a at one base. As described above, the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and thus is very convenient when used for a conference or the like at a remote location.

なお、以下では、複数の電子黒板のうち任意の電子黒板を示す場合には「電子黒板2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。
複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノードPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。
In the following, when an arbitrary electronic blackboard among the plurality of electronic blackboards is indicated, it is indicated as “electronic blackboard 2”. When an arbitrary display among a plurality of displays is shown, “display 3” is shown. When an arbitrary electronic pen among a plurality of electronic pens is indicated, it is indicated as “electronic pen 4”.
When an arbitrary USB memory is indicated among the plurality of USB memories, it is indicated as “USB memory 5”. When an arbitrary notebook PC is indicated among the plurality of notebook PCs, it is indicated as “node PC 6”. When an arbitrary video conference terminal is indicated among the plurality of video conference terminals, it is indicated as “video conference terminal 7”. In addition, “hand H” is used when an arbitrary hand among the hands of a plurality of users is shown. When an arbitrary cable is indicated among the plurality of cables, it is indicated as “cable 10”.

また、本実施形態では、画像処理装置の一例として、電子黒板を説明するが、これに限るものではなく、画像処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、情報処理端末の一例として、ノートPC6を説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、スマートフォン、PDA、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。更に、通信ネットワークには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。   In the present embodiment, an electronic blackboard is described as an example of an image processing device. However, the present invention is not limited to this, and other examples of the image processing device include electronic signboards (digital signage), sports and weather forecasts. It may be a telestrator to be used, a remote image (video) diagnostic device, or the like. The notebook PC 6 will be described as an example of the information processing terminal, but is not limited thereto, and other examples of the information processing terminal include a desktop PC, a tablet PC, a smartphone, a PDA, a digital video camera, and a digital camera. A terminal capable of supplying image frames such as a game machine may be used. Further, the communication network includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like. In this embodiment, a USB memory is described as an example of a recording medium. However, the present invention is not limited to this, and various recording media such as an SD card may be used as another example of the recording medium.

<電子黒板のハードウェア構成>
続いて、図2を用いて、本実施形態の電子黒板のハードウェア構成を説明する。なお、図2は、電子黒板のハードウェア構成図である。
<Hardware configuration of electronic blackboard>
Next, the hardware configuration of the electronic blackboard according to the present embodiment will be described with reference to FIG. FIG. 2 is a hardware configuration diagram of the electronic blackboard.

図2に示されているように、電子黒板2は、電子黒板2全体の動作を制御するCPU101、IPL等のCPU101の駆動に用いられるプログラムを記憶したROM102、CPU101のワークエリアとして使用されるRAM103、電子黒板2用のプログラム等の各種データを記憶するSSD104、通信ネットワーク9との通信を制御するネットワークコントローラ105、及び、USBメモリ5との通信を制御する外部記憶コントローラ106を備えている。   As shown in FIG. 2, the electronic blackboard 2 includes a CPU 101 that controls the operation of the electronic blackboard 2 as a whole, a ROM 102 that stores a program used to drive the CPU 101 such as an IPL, and a RAM 103 that is used as a work area of the CPU 101. , An SSD 104 for storing various data such as a program for the electronic blackboard 2, a network controller 105 for controlling communication with the communication network 9, and an external storage controller 106 for controlling communication with the USB memory 5.

また、電子黒板2は、ノートPC6がディスプレイに表示している静止画または動画を取り込むキャプチャデバイス111、グラフィクスを専門に扱うGPU(Graphics Processing Unit)112、及び、GPUからの出力画像をディスプレイ3やテレビ会議端末7へ出力するために画面表示の制御及び管理を行うディスプレイコントローラ113を備えている。   The electronic blackboard 2 also includes a capture device 111 that captures still images or moving images displayed on the display of the notebook PC 6, a GPU (Graphics Processing Unit) 112 that specializes in graphics, and an output image from the GPU on the display 3 or A display controller 113 that controls and manages screen display for output to the video conference terminal 7 is provided.

更に、電子黒板2は、接触センサ115の処理を制御するセンサコントローラ114、ディスプレイ3上に電子ペン4やユーザの手H等が接触したことを検知する接触センサ115を備えている。この接触センサ115は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置(不図示)が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻ってくる光を受光する方法である。接触センサ115は、物体によって遮断された2つの受発光装置が放射した赤外線のID(Identification)をセンサコントローラ114に出力し、センサコントローラ114が、物体の接触位置である座標位置を特定する。なお、以下に示す全てのIDは、識別情報の一例である。   The electronic blackboard 2 further includes a sensor controller 114 that controls processing of the contact sensor 115 and a contact sensor 115 that detects that the electronic pen 4 or the hand H of the user touches the display 3. The contact sensor 115 performs coordinate input and coordinate detection by an infrared ray blocking method. In this coordinate input and coordinate detection method, two light emitting / receiving devices (not shown) installed at both upper ends of the display 3 emit a plurality of infrared rays in parallel with the display 3, This is a method of receiving light that is reflected by the reflecting member provided on the light source and returns on the same optical path as the light path of the light emitted by the light receiving element. The contact sensor 115 outputs infrared IDs (Identification) emitted from the two light receiving and emitting devices blocked by the object to the sensor controller 114, and the sensor controller 114 specifies the coordinate position that is the contact position of the object. All IDs shown below are examples of identification information.

また、接触センサ115としては、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。   In addition, the contact sensor 115 is not limited to the infrared blocking method, and a capacitive touch panel that identifies a contact position by detecting a change in capacitance, or a contact position determined by a voltage change between two opposing resistance films. Various detection means such as a resistance film type touch panel to be identified and an electromagnetic induction type touch panel to identify a contact position by detecting electromagnetic induction caused by contact of a contact object with the display unit may be used.

また、電子黒板2は、電子ペンコントローラ116を備えている。この電子ペンコントローラ116は、電子ペン4と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。なお、電子ペンコントローラ116が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。   The electronic blackboard 2 includes an electronic pen controller 116. This electronic pen controller 116 communicates with the electronic pen 4 to determine whether or not there is a pen tip touch or a pen butt touch on the display 3. It should be noted that the electronic pen controller 116 may determine whether or not the user grips the part of the electronic pen 4 as well as the other electronic pen part, as well as the pen tip and the bottom of the electronic pen 4.

更に、電子黒板2は、CPU101、ROM102、RAM103、SSD104、ネットワークコントローラ105、外部記憶コントローラ106、キャプチャデバイス111、GPU112、及びセンサコントローラ114、及び、電子ペンコントローラ116を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン120を備えている。   Further, the electronic blackboard 2 includes the CPU 101, ROM 102, RAM 103, SSD 104, network controller 105, external storage controller 106, capture device 111, GPU 112, sensor controller 114, and electronic pen controller 116 as shown in FIG. Are provided with a bus line 120 such as an address bus and a data bus.

なお、電子黒板2用のプログラムは、CD−ROM等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。   The program for the electronic blackboard 2 may be recorded and distributed on a computer-readable recording medium such as a CD-ROM.

<電子黒板の機能構成>
続いて、図3乃至図10を用いて、電子黒板の機能構成について説明する。なお、先ずは、図3を用いて、電子黒板2の全体的な機能構成について説明する。図3は、電子黒板の機能ブロック図である。
<Functional configuration of electronic blackboard>
Next, the functional configuration of the electronic blackboard will be described with reference to FIGS. First, the overall functional configuration of the electronic blackboard 2 will be described with reference to FIG. FIG. 3 is a functional block diagram of the electronic blackboard.

電子黒板2は、図2に示されているハードウェア構成及びプログラムによって、図3に示されている各機能構成を有する。電子黒板2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、すでに開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。電子黒板2は、主要な機能として、クライアント機20及びサーバ機90を有している。即ち、電子黒板2の1台の筐体内に、クライアント機20及びサーバ機90が含まれている。
クライアント部20及びサーバ部90は、電子黒板2の1台の筐体内で実現される機能である。そして、電子黒板2が主催装置となる場合には、この電子黒板2では、クライアント部20とサーバ部90が実現される。
また、電子黒板2が参加装置となる場合には、この電子黒板2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図1において、電子黒板2aが主催装置で、電子黒板2bが参加装置となる場合、電子黒板2aのクライアント部20は、同じ電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2bのクライアント部20と通信を行う。一方、電子黒板2bのクライアント部20は、他の電子黒板2a内に実現されたサーバ部90を介して、他の電子黒板2aのクライアント部と通信を行う。
The electronic blackboard 2 has each functional configuration shown in FIG. 3 by the hardware configuration and program shown in FIG. The electronic blackboard 2 can be a “host device” that starts the remote sharing process first, and can also be a “participating device” that participates in the remote sharing process that has already started. The electronic blackboard 2 includes a client machine 20 and a server machine 90 as main functions. That is, the client machine 20 and the server machine 90 are included in one casing of the electronic blackboard 2.
The client unit 20 and the server unit 90 are functions realized in one housing of the electronic blackboard 2. When the electronic blackboard 2 is a hosting device, the electronic blackboard 2 implements the client unit 20 and the server unit 90.
Further, when the electronic blackboard 2 is a participating device, in the electronic blackboard 2, the client unit 20 is realized, but the server unit 90 is not realized. That is, in FIG. 1, when the electronic blackboard 2a is the hosting device and the electronic blackboard 2b is the participating device, the client unit 20 of the electronic blackboard 2a receives the other via the server unit 90 realized in the same electronic blackboard 2a. Communicate with the client unit 20 of the electronic blackboard 2b. On the other hand, the client unit 20 of the electronic blackboard 2b communicates with the client units of the other electronic blackboard 2a via the server unit 90 realized in the other electronic blackboard 2a.

〔クライアント機20の機能構成〕
続いて、主に図3乃至図5を用いて、クライアント機20の機能構成について説明する。クライアント機20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、指判別部29−1、指入力開始待機タイマ29−2、画像処理部30、及び通信制御部60を有する。
[Functional configuration of client machine 20]
Subsequently, the functional configuration of the client machine 20 will be described mainly using FIGS. 3 to 5. The client machine 20 includes a video acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25, an operation processing unit 26, a gesture processing unit 27, a video superimposition unit 28, and a finger determination unit 29. -1, a finger input start standby timer 29-2, an image processing unit 30, and a communication control unit 60.

このうち、映像取得部21は、ケーブル10に接続されたノートPC6等の映像出力機器の出力映像を取得する。映像取得部21は、映像出力機器(ノートPC6等)から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。   Among these, the video acquisition unit 21 acquires an output video of a video output device such as a notebook PC 6 connected to the cable 10. When the video acquisition unit 21 receives an image signal from a video output device (such as a notebook PC 6), the video acquisition unit 21 analyzes the image signal, and the resolution of an image frame that is a display image of the video output device formed by the image signal, Image information such as the update frequency of the image frame is derived and output to the image acquisition unit 31.

座標検知部22は、ディスプレイ3上でユーザによって生じたイベント(ディスプレイ3上にユーザの手Hがタッチされた動作等)の座標位置を検出する。また、座標検知部22は、タッチされた面積も検出する。座標検知部22は、ディスプレイ3の表示画面に沿って移動する電子ペン4の各筆記座標を検知して座標情報を出力する。   The coordinate detection unit 22 detects the coordinate position of an event (such as an operation in which the user's hand H is touched on the display 3) generated by the user on the display 3. The coordinate detection unit 22 also detects the touched area. The coordinate detection unit 22 detects each writing coordinate of the electronic pen 4 that moves along the display screen of the display 3 and outputs coordinate information.

自動調整部23は、電子黒板2の起動時に起動され、接触センサ115が座標検知部22に適切な値を出力できるように、接触センサ115の光センサ方式におけるセンサーカメラの画像処理のパラメータを調整する。   The automatic adjustment unit 23 is activated when the electronic blackboard 2 is activated, and adjusts the image processing parameters of the sensor camera in the optical sensor method of the contact sensor 115 so that the contact sensor 115 can output an appropriate value to the coordinate detection unit 22. To do.

接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)された動作等)を検出する。   The contact detection unit 24 detects an event (such as an operation in which the pen tip of the electronic pen 4 or the pen butt of the electronic pen 4 is pressed (touched) on the display 3).

イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。   The event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 to each event of stroke drawing, UI operation, and gesture operation.

図10は、各画像レイヤの合成処理について説明するための概念図である。
ここで、「ストローク描画」は、ディスプレイ3上に図10に示されている後述のストローク画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。
FIG. 10 is a conceptual diagram for explaining the composition processing of each image layer.
Here, “stroke drawing” is performed when the user presses the electronic pen 4 on the display 3 when a stroke image (B) described later shown in FIG. 10 is displayed on the display 3. In this state, the electronic pen 4 is moved and finally the electronic pen 4 is released from the display 3. By this stroke drawing, for example, alphabets “S” and “T” are drawn on the display 3. The “stroke drawing” includes not only drawing an image but also an event of deleting an already drawn image or editing a drawn image.

「UI操作」は、ディスプレイ3上に図10に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。   The “UI operation” is an event in which the user presses a predetermined position with the electronic pen 4 or the hand H when a UI image (A) (described later) shown in FIG. 10 is displayed on the display 3. . By this UI operation, for example, the color or width of a line drawn by the electronic pen 4 is set.

「ジェスチャ操作」は、ディスプレイ3上に図10に示されている後述のストローク画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。   The “gesture operation” is an event in which the user touches or moves the display 3 with the hand H when a stroke image (B) described later shown in FIG. 10 is displayed on the display 3. is there. By this gesture operation, for example, by moving the hand H while the user touches the display 3 with the hand H, the image can be enlarged (or reduced), the display area can be changed, or the page can be switched. it can.

操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素に従って、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたイベントに対し、座標の履歴などからジェスチャの内容を判別しジェスチャイベントを発生させる。   The operation processing unit 26 executes various operations according to the UI element in which the event is generated, from what is determined as the UI operation by the event distribution unit 25. Examples of the UI element include a button, a list, a check box, and a text box. The gesture processing unit 27 generates a gesture event by determining the content of the gesture from the history of coordinates and the like for the event determined to be a gesture operation by the event distribution unit 25.

指判別部29−1は、指によるスクリーンへの接触であることを判別する。座標検知部22は赤外線遮断方式と三角測量により座標を検知するので、電子ペン以外の指示具による接触を検知できる。このため、指判別部29−1により電子ペンの接触か、電子ペン以外の指示具による接触かを判別する。なお、電子ペン以外の指示具として指を例として説明するが、指でなくても赤外線の遮光は可能である。   The finger determination unit 29-1 determines that the finger is touching the screen. Since the coordinate detection unit 22 detects coordinates using an infrared ray blocking method and triangulation, it is possible to detect contact with an indicator other than an electronic pen. For this reason, it is discriminate | determined by the finger discrimination | determination part 29-1 whether it is a contact of an electronic pen, or a contact by pointing devices other than an electronic pen. In addition, although a finger is described as an example of an instruction tool other than the electronic pen, infrared rays can be shielded without using a finger.

指判別部29−1は指の判別のため、イベント振分部25から接触検知影像イベント、ペンダウンイベントを取得する。接触検知影像イベントは接触センサ115の検知エリア(スクリーンから数cm以下のスクリーンに平行なエリア)で遮光を検出したというイベントである。ペンダウンイベントは、接触検知部24が電子ペン4のペン先、又は、電子ペン4のペン尻のタッチを検知したというイベントである。また、ペンアップイベントは、接触検知部24が電子ペン4のペン先、又は、電子ペン4のペン尻が検知エリアからの離脱を検知したというイベントである。また、指判別部29−1は、ジェスチャ処理部からジェスチャ中イベントを取得する。   The finger determination unit 29-1 acquires a touch detection image event and a pen down event from the event distribution unit 25 for finger determination. The contact detection image event is an event in which light shielding is detected in the detection area of the contact sensor 115 (an area parallel to the screen that is several cm or less from the screen). The pen down event is an event in which the touch detection unit 24 detects a touch of the pen tip of the electronic pen 4 or the pen butt of the electronic pen 4. The pen-up event is an event in which the contact detection unit 24 detects that the pen tip of the electronic pen 4 or the pen bottom of the electronic pen 4 has left the detection area. In addition, the finger determination unit 29-1 acquires an event during gesture from the gesture processing unit.

指判別部29−1は接触検知影像イベント、ペンダウンイベント、及び、ジェスチャ中イベントの有無、並びに、影像イベントの影像の大きさに応じて、指入力開始待機タイマ29−2による時間の計測(カウント)を開始する。また、指判別部29−1は指入力開始待機タイマ29−2がカウントを開始すると、座標値を時系列に蓄積(キューイング)する。   The finger determination unit 29-1 measures the time by the finger input start waiting timer 29-2 according to the presence / absence of a touch detection image event, a pen-down event, a gesture event, and the size of the image of the image event ( Count). Also, when the finger input start standby timer 29-2 starts counting, the finger determination unit 29-1 accumulates (queues) the coordinate values in time series.

指入力開始待機タイマ29−2が所定時間以上の時間をカウントすると、指判別部29−1は指で描画されていると判別して、マーカー処理部38にキューイングしていた座標を伝達する。マーカー処理部38は一連の座標をマーカー描画し、その後は取得した座標をマーカーの最後尾の座標としてマーカーの描画を継続する。   When the finger input start standby timer 29-2 counts a time equal to or longer than a predetermined time, the finger determination unit 29-1 determines that the finger is being drawn, and transmits the coordinates queued to the marker processing unit 38. . The marker processing unit 38 draws a series of coordinates as a marker, and thereafter continues drawing the marker using the acquired coordinates as the last coordinate of the marker.

したがって、指判別部29−1が指であると判別するとマーカー処理部38がマーカーで描画し、電子ペンであると判別するとストローク処理部32がペンでストロークを描画する。指判別部29−1が指であると判別することをマーカーイベントが検知されたと称する場合がある。   Accordingly, when the finger determination unit 29-1 determines that it is a finger, the marker processing unit 38 draws with a marker, and when it determines that it is an electronic pen, the stroke processing unit 32 draws a stroke with the pen. Determining that the finger determination unit 29-1 is a finger may be referred to as detecting a marker event.

映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として映像出力器(ディスプレイ3)に対して表示する。また、映像重畳部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャ・イン・ピクチャする。更に、映像重畳部28は、ピクチャ・イン・ピクチャされてディスプレイ3の一部に表示された映像を、ディスプレイ3の全体に表示させるための切り替えを行う。   The video superimposing unit 28 displays the image superimposed by the display superimposing unit 36 described later as a video on the video output device (display 3). In addition, the video superimposing unit 28 performs picture-in-picture of the video sent from another video output device (such as the video conference terminal 7) with respect to the video from the video output device (such as the notebook PC 6). Further, the video superimposing unit 28 performs switching for displaying the video that is picture-in-picture and displayed on a part of the display 3 on the entire display 3.

画像処理部30は、各画像レイヤの重畳処理等を行う。具体的な重畳例について適宜図10を用いて説明する。画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、マーカー処理部38、コンテキスト処理部39、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。   The image processing unit 30 performs superimposition processing of each image layer. A specific example of superposition will be described with reference to FIG. 10 as appropriate. The image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, a background generation unit 34, a layout management unit 35, a marker processing unit 38, a context processing unit 39, a display superimposing unit 36, and a page processing unit. 37, a file processing unit 40, a page data storage unit 300, and a remote license management table 310.

このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。この画像は、図10に示されている映像出力機器(ノートPC6等)からの出力画像(C)に相当する。   Among these, the image acquisition unit 31 acquires each frame as an image from the video acquired by the video acquisition unit 21. This image corresponds to an output image (C) from the video output device (notebook PC 6 or the like) shown in FIG.

ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントに基づいて、画像を描画したり、描画された画像を削除したり、描画された画像を編集する。このストローク描画による画像は、図10に示されているストローク画像(B)に相当する。また、このストローク等に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、操作データ記憶部840に記憶される。   The stroke processing unit 32 draws an image, deletes the drawn image, or edits the drawn image based on the event related to the stroke drawing assigned by the event distribution unit 25. The image by the stroke drawing corresponds to the stroke image (B) shown in FIG. In addition, the results of drawing, deleting, and editing an image based on the stroke and the like are stored in the operation data storage unit 840 as operation data described later.

UI画像生成部33は、電子黒板2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図10に示されているUI画像(A)に相当する。   The UI image generation unit 33 generates a UI (user interface) image set in advance on the electronic blackboard 2. This UI image corresponds to the UI image (A) shown in FIG.

背景生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。背景生成部34は、この受信したメディアデータを表示重畳部36に出力する。また、このメディアデータによる画像は、図10に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。   The background generation unit 34 receives media data from the page data read from the page data storage unit 300 by the page processing unit 37 from the page processing unit 37. The background generation unit 34 outputs the received media data to the display superimposing unit 36. The image based on the media data corresponds to the background image (D) shown in FIG. The pattern of the background image (D) is plain or grid display.

レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及び、UI画像生成部33(又は背景生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。   The layout management unit 35 provides the layout information indicating the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (or the background generation unit 34) to the display superimposing unit 36. Is managing. Thereby, the layout management unit 35 causes the display superimposing unit 36 to display the output image (C) and the stroke image (B) in the UI image (A) and the background image (D). It is possible to instruct whether to hide.

コンテキスト処理部39は、マーカーイベント、ジェスチャイベント、ページ作成・消去イベント、ファイル読み込みイベントを、通信制御部60の遠隔コンテキスト送信部68を介してサーバ機90に送信する。また、コンテキスト処理部39は、通信制御部60の遠隔コンテキスト受信部67から、マーカーイベント、ジェスチャイベント、ページ作成・消去イベント、ファイル読み込みイベントを取得する。また、通信制御部60の参加拠点管理テーブル610から、他拠点参加イベント、他拠点退出イベントを取得する。コンテキスト処理部39は、取得したイベントと拠点に応じて拠点画像を生成し、ディスプレイ3に表示する。なお、ページ作成・消去イベントはユーザがUI画像に対しページ作成又は消去の操作を行うことで発生する。ファイル読み込みイベントはファイル入力部42aがファイルを読み込むことで発生する。他拠点参加イベントは、参加拠点管理テーブル610に新しく拠点が登録されることで発生する。他拠点退出イベントは参加拠点管理テーブル610から拠点が削除されることで発生する。   The context processing unit 39 transmits a marker event, a gesture event, a page creation / deletion event, and a file read event to the server machine 90 via the remote context transmission unit 68 of the communication control unit 60. In addition, the context processing unit 39 acquires a marker event, a gesture event, a page creation / deletion event, and a file read event from the remote context receiving unit 67 of the communication control unit 60. Also, the other site participation event and the other site leaving event are acquired from the participating site management table 610 of the communication control unit 60. The context processing unit 39 generates a base image according to the acquired event and base and displays it on the display 3. Note that a page creation / deletion event occurs when a user performs a page creation or deletion operation on a UI image. The file read event occurs when the file input unit 42a reads a file. The other site participation event occurs when a new site is registered in the participating site management table 610. The other site exit event occurs when a site is deleted from the participating site management table 610.

表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、UI画像生成部33(背景生成部34)、マーカー処理部38、及び背景生成部34から出力された各画像のレイアウトを行う。   The display superimposing unit 36 is based on the layout information output from the layout management unit 35, and includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33 (background generation unit 34), a marker processing unit 38, and a background generation unit. The layout of each image output from 34 is performed.

ページ処理部37は、ストローク画像(B)のデータと出力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。
ストローク画像(B)のデータは、図6に示されているストローク配列データIDで示されるストローク配列データ(各ストロークデータ)として、ページデータの一部を成す。出力画像(C)のデータは、図6に示されているメディアデータIDで示されているメディアデータとして、ページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。
The page processing unit 37 stores the data of the stroke image (B) and the data of the output image (C) in one page data and stores them in the page data storage unit 300.
The data of the stroke image (B) forms part of page data as stroke arrangement data (each stroke data) indicated by the stroke arrangement data ID shown in FIG. The data of the output image (C) forms part of the page data as the media data indicated by the media data ID shown in FIG. Then, when this media data is read from the page data storage unit 300, it is handled as data of the background image (D).

また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、背景生成部34を介して表示重畳部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちのストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを削除したり複製したりすることもできる。   Further, the page processing unit 37 transmits the media data of the once stored page data to the display superimposing unit 36 via the background generating unit 34 so that the video superimposing unit 28 displays the background image (D). 3 can be displayed again. The page processing unit 37 can return the stroke arrangement data (each stroke data) in the page data to the stroke processing unit 32 so that the stroke can be re-edited. Further, the page processing unit 37 can delete or duplicate page data.

即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている出力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、背景生成部34に出力する。   That is, the data of the output image (C) displayed on the display 3 when the page processing unit 37 stores the page data in the page data storage unit 300 is temporarily stored in the page data storage unit 300 and then When read from the page data storage unit 300, it is read as media data indicating the background image (D). Then, the page processing unit 37 outputs stroke arrangement data indicating the stroke image (B) among the page data read from the page data storage unit 300 to the stroke processing unit 32. Further, the page processing unit 37 outputs media data indicating the background image (D) among the page data read from the page data storage unit 300 to the background generation unit 34.

表示重畳部36は、画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、背景生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトに従って重畳する。これにより、図10に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイアの構成となっている。   The display superimposing unit 36 includes an output image (C) from the image acquisition unit 31, a stroke image (B) from the stroke processing unit 32, a UI image (A) from the UI image generation unit 33, and a background generation unit 34. The background image (D) is superimposed according to the layout designated by the layout management unit 35. As a result, as shown in FIG. 10, each of the UI image (A), the stroke image (B), the output image (C), and the background image (D) is displayed in the order in which the user can see even if the images overlap. It has Leia composition.

また、表示重畳部36は、図10に示されている画像(C)と画像(D)を切り替えて画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示されている状態で、電子黒板2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、描画(C)を重畳対象から外し、画像(D)を表示させることができる。また、表示重畳部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。   Further, the display superimposing unit 36 can also superimpose the image (A) and the image (B) exclusively by switching the image (C) and the image (D) shown in FIG. For example, when the cable 10 between the electronic blackboard 2 and the video output device (notebook PC 6 or the like) is disconnected while the image (A), the image (B), and the image (C) are initially displayed. According to the designation of the layout management unit 35, the drawing (C) can be removed from the superimposition target and the image (D) can be displayed. The display superimposing unit 36 also performs display enlargement, display reduction, and display area movement processing.

ページデータ記憶部300は、図6に示されているようなページデータを記憶する。図6は、ページデータの構成を示す概念図である。ページデータは、ディスプレイ3に表示される1ページ分のデータ(ストローク配列データ(各ストロークデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、ここでは、図6乃至図9に分けて、ページデータの内容を説明する。
なお、ページデータ記憶部300は、分割ストローク情報を管理・保存する分割ストローク管理テーブル300aと、ストローク情報を管理・保存するストローク管理テーブル300bを有する。
The page data storage unit 300 stores page data as shown in FIG. FIG. 6 is a conceptual diagram showing the configuration of page data. The page data is data for one page displayed on the display 3 (stroke arrangement data (each stroke data) and media data). Since there are many types of parameters included in the page data, the contents of the page data will be described here separately in FIGS.
The page data storage unit 300 includes a divided stroke management table 300a for managing / saving divided stroke information and a stroke management table 300b for managing / saving stroke information.

ページデータは、図6に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開示時刻、ストロークやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。ストローク配列データは、後述の図10に示されているストローク画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、後述の16に示されている背景画像(D)がディスプレイ3上に表示されるためのデータである。   As shown in FIG. 6, the page data includes a page data ID for identifying an arbitrary page, a disclosure time indicating the start time of display of this page, and rewriting of the contents of the page by a stroke, a gesture, or the like. Are associated with the end time indicating the time when the operation is stopped, the stroke arrangement data ID for identifying the stroke arrangement data generated by the stroke of the electronic pen 4 or the user's hand H, and the media data ID for identifying the media data. Is remembered. The stroke arrangement data is data for displaying a stroke image (B) shown in FIG. The media data is data for displaying a background image (D) shown in 16 described later on the display 3.

このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、ストロークデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によって、アルファベット「T」を描く場合、二筆書きとなるため、ストロークデータIDが2つで一文字のアルファベット「T」が示されることになる。   With such page data, for example, when the user draws the alphabet “S” with the electronic pen 4, the stroke is written in one stroke, and therefore, one stroke data ID is displayed and one letter of the alphabet [S] is indicated. However, when the user draws the alphabet “T” with the electronic pen 4, it is written with two strokes, so that one stroke of the alphabet “T” is indicated by two stroke data IDs.

また、ストローク配列データは、図7に示されているように詳細な情報を示している。図7は、ストローク配列データの構成を示す概念図である。図7に示されているように、1つのストローク配列データは、複数のストロークデータによって表される。そして、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データIDを示している。   The stroke arrangement data shows detailed information as shown in FIG. FIG. 7 is a conceptual diagram showing a configuration of stroke arrangement data. As shown in FIG. 7, one stroke arrangement data is represented by a plurality of stroke data. One stroke data includes a stroke data ID for identifying the stroke data, a start time indicating the start time of writing one stroke, an end time indicating the end time of writing one stroke, the color of the stroke, A stroke width and coordinate array data ID for identifying an array of stroke passing points are shown.

更に、この座標配列データは、図8に示されているように詳細な情報を示している。図8は、座標配列データの構成を示す概念図である。図8に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開示時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。
即ち、図8に示されている1点の集まりが、図7に示されている1つの座標配列データで示されている。例えば、ユーザが電子ペン4によって、アルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。
Further, the coordinate array data shows detailed information as shown in FIG. FIG. 8 is a conceptual diagram showing the configuration of the coordinate array data. As shown in FIG. 8, the coordinate array data includes one point (X coordinate value, Y coordinate value) on the display 3, and a time difference (ms from the disclosure time of the stroke when the one point is passed) ) And writing pressure information of the electronic pen 4 at this one point.
That is, the collection of one point shown in FIG. 8 is shown by one coordinate array data shown in FIG. For example, when the user draws the alphabet “S” with the electronic pen 4, it is drawn with a single stroke, but passes through a plurality of passing points before the drawing of “S”. Point information is shown.

また、図6に示されているページデータのうちのメディアデータは、図9に示されているように詳細な情報を示している。図9は、メディアデータの構成を示す概念図である。図9に示されているように、メディアデータは、図6に示されているページデータにおけるメディアデータID、メディアデータのデータ種類、ページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻、ページデータによってディスプレイ3上に表示される画像の位置(X座標値、Y座標値)及び画像のサイズ(幅、高さ)、並びにメディアデータの内容を示すデータが関連付けられて示されている。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値,Y座標値)=(0,0)とした場合に、ページデータによって表示される画像の左上端の位置を示している。   Further, the media data in the page data shown in FIG. 6 shows detailed information as shown in FIG. FIG. 9 is a conceptual diagram showing the configuration of media data. As shown in FIG. 9, the media data is stored in the page data storage unit 300 from the page processing unit 37, the media data ID in the page data shown in FIG. The recording time, the position of the image displayed on the display 3 by the page data (X coordinate value, Y coordinate value), the size of the image (width, height), and data indicating the contents of the media data are shown in association with each other. Has been. Among these, the position of the image displayed on the display 3 by the page data is displayed by the page data when the coordinates of the upper left corner of the display 3 are (X coordinate value, Y coordinate value) = (0, 0). The position of the upper left corner of the image to be displayed is shown.

図3に戻り、遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。この遠隔ライセンス管理テーブル310では、電子黒板2のプロダクトID、認証に用いられるライセンスID、及びライセンスの有効期限が関連付けて管理されている。   Returning to FIG. 3, the remote license management table 310 manages license data necessary for executing the remote sharing process. In the remote license management table 310, the product ID of the electronic blackboard 2, the license ID used for authentication, and the license expiration date are managed in association with each other.

(ファイル処理部40の機能構成)
続いて、図4を用いて、図3に示されているファイル処理部40の機能構成を説明する。なお、図4は、ファイル処理部の機能ブロック図である。以下では、最初に遠隔共有処理を開始する電子黒板2を「主催装置」、既に開始されている遠隔共有処理に後から参加する電子黒板2を「参加装置」と称して説明する。
(Functional configuration of the file processing unit 40)
Next, the functional configuration of the file processing unit 40 shown in FIG. 3 will be described with reference to FIG. FIG. 4 is a functional block diagram of the file processing unit. Hereinafter, the electronic blackboard 2 that starts the remote sharing process first will be referred to as “host device”, and the electronic blackboard 2 that will participate in the remote sharing processing that has already been started will be referred to as “participating device”.

ファイル処理部40は、リカバリ処理部41、ファイル入力部42a、ファイル出力部42b、ファイル変換部43、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a、及び設定ファイル出力部49bを有している。更に、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部430、及び接続先管理テーブル440を有している。
このうち、リカバリ処理部41は、電子黒板2が異常終了した後に、異常終了を検知し、未保存のページデータを復旧する。例えば、正常終了の場合は、ページデータがPDFファイルとしてファイル処理部40を介してUSBメモリ5に記録されるが、電源がダウンした等の異常終了の場合は、ページデータがページデータ記憶部300に記録されたままになっている。そのため、再び、電源オンになった際に、リカバリ処理部41は、ページデータ記憶部300からページデータを読み出すことで復旧させる。
The file processing unit 40 includes a recovery processing unit 41, a file input unit 42a, a file output unit 42b, a file conversion unit 43, a file transmission unit 44, an address book input unit 45, a backup processing unit 46, a backup output unit 47, and a setting management unit. 48, a setting file input unit 49a, and a setting file output unit 49b. Furthermore, the file processing unit 40 includes an address book management table 410, a backup data storage unit 420, a setting file storage unit 430, and a connection destination management table 440.
Among these, the recovery processing unit 41 detects the abnormal end after the electronic blackboard 2 ends abnormally, and recovers the unsaved page data. For example, in the case of a normal end, page data is recorded as a PDF file in the USB memory 5 via the file processing unit 40, but in the case of an abnormal end such as when the power is down, the page data is stored in the page data storage unit 300. Is still recorded. Therefore, when the power is turned on again, the recovery processing unit 41 recovers by reading the page data from the page data storage unit 300.

ファイル入力部42aは、USBメモリ5から、PDFファイルを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。
ファイル変換部43は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換する。
ファイル出力部42bは、ファイル変換部43によって出力されたPDFファイルをUSBメモリ5に記録する。
The file input unit 42a reads a PDF file from the USB memory 5 and stores each page in the page data storage unit 300 as page data.
The file conversion unit 43 converts the page data stored in the page data storage unit 300 into a PDF format file.
The file output unit 42 b records the PDF file output by the file conversion unit 43 in the USB memory 5.

ファイル送信部44は、ファイル変換部43によって生成されたPDFファイルを、電子メールに添付して送信する。このファイルの送信先は、表示重畳部36によってディスプレイ3上にアドレス帳管理テーブル410の内容を表示し、ファイル送信部44がユーザによるタッチパネル等の入力装置の操作により、宛先の選択を受け付けることによって決定される。
アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。
バックアップ処理部46は、ファイル出力部42bによって出力されたファイルや、ファイル送信部44によって送信されたファイルを、バックアップデータ記憶部420に記憶することでバックアップする。なお、ユーザがバックアップ設定しない場合は、バックアップの処理は行われない。
バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶の際には、ユーザによるタッチパネル等の入力装置の操作により、セキュリティーのためにパスワードが入力される。
The file transmission unit 44 transmits the PDF file generated by the file conversion unit 43 by attaching it to an electronic mail. The transmission destination of the file is displayed by displaying the contents of the address book management table 410 on the display 3 by the display superimposing unit 36, and the file transmitting unit 44 accepts the selection of the destination by the operation of the input device such as a touch panel by the user. It is determined.
The address book input unit 45 reads a list file of e-mail addresses from the USB memory 5 and manages it in the address book management table 410.
The backup processing unit 46 performs backup by storing the file output by the file output unit 42 b and the file transmitted by the file transmission unit 44 in the backup data storage unit 420. If the user does not set backup, backup processing is not performed.
The backup output unit 47 stores the backed up file in the USB memory 5. At the time of storage, a password is input for security by the operation of an input device such as a touch panel by the user.

設定管理部48は、電子黒板2の各種設定情報を設定ファイル記憶部430に記憶したり読み出したりして管理する。この各種設定情報としては、例えば、ネットワーク設定、日付や時刻の設定、地域や言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定、バックアップに関する設定が挙げられる。なお、ネットワーク設定は、例えば、電子黒板2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定、又はDNS(Domain Name System)の設定等である。
設定ファイル出力部49bは、電子黒板2の各種設定情報を、設定ファイルとしてUSBメモリ5に記録させる。なお、設定ファイルはセキュリティーによって、ユーザは中身を見ることができない。
設定ファイル入力部49aは、USBメモリ5に記憶されている設定ファイルを読み込み、各種設定情報を電子黒板の各種設定に反映させる。
アドレス帳入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスの一覧ファイルを読み込み、接続先管理テーブル440に管理する。
The setting management unit 48 stores and reads various setting information of the electronic blackboard 2 in the setting file storage unit 430 for management. Examples of the various setting information include network settings, date and time settings, region and language settings, mail server settings, address book settings, connection destination list settings, and backup settings. The network setting is, for example, an IP address setting of the electronic blackboard 2, a net mask setting, a default gateway setting, a DNS (Domain Name System) setting, or the like.
The setting file output unit 49b records various setting information of the electronic blackboard 2 in the USB memory 5 as a setting file. Note that the settings file cannot be viewed by the user due to security.
The setting file input unit 49a reads a setting file stored in the USB memory 5 and reflects various setting information on various settings of the electronic blackboard.
The address book input unit 50 reads a list file of connection destination IP addresses for remote sharing processing from the USB memory 5 and manages it in the connection destination management table 440.

(通信制御部60の機能構成)
次に、図5を用いて、通信制御部60の機能構成について説明する。図5は、通信制御部60の機能ブロック図である。通信制御部60は、通信ネットワーク9を介して、他の電子黒板2と行う通信や、サーバ機90における後述の通信制御部70と行う通信を制御する。そのため、通信制御部60は、遠隔開始処理部61、遠隔参加処理部62、遠隔画像送信部63、遠隔画像受信部64、遠隔操作送信部65、遠隔操作受信部66、遠隔コンテキスト送信部68、遠隔コンテキスト受信部67、及び参加拠点管理テーブル610を有している。
このうち、遠隔開始処理部61は、同じ電子黒板2のサーバ機90に対して、新たに遠隔共有処理を開始する要求を行い、サーバ機90から要求の結果を受信する。この場合、遠隔開始処理部61は、遠隔ライセンス管理テーブル310を参照し、ライセンス情報(プロダクトID、ライセンスID、及び有効期限)が管理されている場合には、遠隔共有処理を開始する要求を行うことができる。但し、ライセンス情報が管理されていない場合には遠隔共有処理を開始する要求を行うことができない。
(Functional configuration of communication control unit 60)
Next, the functional configuration of the communication control unit 60 will be described with reference to FIG. FIG. 5 is a functional block diagram of the communication control unit 60. The communication control unit 60 controls communication with other electronic blackboards 2 and communication with the later-described communication control unit 70 in the server machine 90 via the communication network 9. Therefore, the communication control unit 60 includes a remote start processing unit 61, a remote participation processing unit 62, a remote image transmission unit 63, a remote image reception unit 64, a remote operation transmission unit 65, a remote operation reception unit 66, a remote context transmission unit 68, A remote context receiving unit 67 and a participating site management table 610 are provided.
Among these, the remote start processing unit 61 makes a request for starting a new remote sharing process to the server machine 90 of the same electronic blackboard 2, and receives the request result from the server machine 90. In this case, the remote start processing unit 61 refers to the remote license management table 310 and makes a request to start remote sharing processing when license information (product ID, license ID, and expiration date) is managed. be able to. However, if the license information is not managed, a request to start remote sharing processing cannot be made.

参加拠点管理テーブル610は、電子黒板が主催装置である場合、現在、遠隔共有処理に参加している参加装置としての電子黒板を管理するテーブルである。
遠隔参加処理部62は、通信ネットワーク9を介して、既に遠隔共有処理を開始している主催装置としての電子黒板2のサーバ機90における遠隔接続要求受信部71に対して、遠隔共有処理への参加要求を行う。この場合も、遠隔参加処理部62は、遠隔ライセンス管理テーブル310を参照する。また、遠隔参加処理部62が、既に開始されている遠隔共有処理に参加する場合には、接続先管理テーブル440を参照して、参加先の電子黒板2のIPアドレスを取得する。なお、遠隔参加処理部62によって接続先管理テーブルが参照されず、ユーザによるタッチパネル等の入力装置の操作により参加先の電子黒板2のIPアドレスが入力されてもよい。
The participation base management table 610 is a table for managing an electronic blackboard as a participating device currently participating in the remote sharing process when the electronic blackboard is a sponsor device.
The remote participation processing unit 62 transmits the remote connection processing to the remote sharing processing to the remote connection request receiving unit 71 in the server 90 of the electronic blackboard 2 as the hosting device that has already started the remote sharing processing via the communication network 9. Request participation. Also in this case, the remote participation processing unit 62 refers to the remote license management table 310. In addition, when the remote participation processing unit 62 participates in the remote sharing process that has already been started, the IP address of the electronic blackboard 2 of the participation destination is acquired with reference to the connection destination management table 440. Note that the remote participation processing unit 62 may not input the connection destination management table, and may input the IP address of the electronic blackboard 2 as a participation destination by an operation of an input device such as a touch panel by the user.

遠隔画像送信部63は、映像取得部21から画像取得部31を介して送られて来た出力画像(C)を、サーバ機90に送信する。
遠隔画像受信部64は、サーバ機90から、他の電子黒板2に接続された映像出力機器からの画像データを受信し、表示重畳部36に出力することで、遠隔共有処理を可能にする。
遠隔操作送信部65は、遠隔共有処理に必要な各種操作データをサーバ機90に送信する。この各種操作データとしては、例えば、ストロークの追加、ストロークの削除、ストロークの編集(拡大、縮小、移動)、ページデータの記憶、ページデータの作成、ページデータの複製、ページデータの削除、表示されているページの切り替え等に関するデータが挙げられる。また、遠隔操作受信部66は、サーバ機90から、他の電子黒板2で入力された操作データを受信し、画像処理部30に出力することで、遠隔共有処理を行う。
遠隔コンテキスト送信部68はコンテキスト処理部39からマーカーイベント、ジェスチャイベント、ページ作成・消去イベント、ファイル読み込みイベントを取得し、遠隔コンテキストとしてサーバ機90に送信する。
遠隔コンテキスト受信部67はサーバ機90から他の電子黒板で生じた上記イベント情報を取得し、画像処理部30のコンテキスト処理部39が拠点画像を表示する。
The remote image transmission unit 63 transmits the output image (C) sent from the video acquisition unit 21 via the image acquisition unit 31 to the server machine 90.
The remote image receiving unit 64 receives image data from a video output device connected to another electronic blackboard 2 from the server machine 90 and outputs it to the display superimposing unit 36, thereby enabling remote sharing processing.
The remote operation transmission unit 65 transmits various operation data necessary for remote sharing processing to the server machine 90. Examples of the operation data include adding a stroke, deleting a stroke, editing a stroke (enlarging, reducing, moving), storing page data, creating page data, duplicating page data, deleting page data, and displaying. Data related to the switching of the current page. In addition, the remote operation receiving unit 66 receives the operation data input from the other electronic blackboard 2 from the server machine 90 and outputs it to the image processing unit 30 to perform remote sharing processing.
The remote context transmission unit 68 acquires a marker event, a gesture event, a page creation / deletion event, and a file read event from the context processing unit 39 and transmits them to the server machine 90 as a remote context.
The remote context receiving unit 67 acquires the event information generated on the other electronic blackboard from the server machine 90, and the context processing unit 39 of the image processing unit 30 displays the base image.

〔サーバ機の機能構成〕
続いて、図5を用いて、サーバ機90の機能構成について説明する。サーバ機90は、各電子黒板2に設けられており、いずれの電子黒板2であっても、サーバ機としての役割を果たすことができる。そのため、サーバ機90は、通信制御部70、及びデータ管理部80を有している。
[Functional configuration of server machine]
Next, the functional configuration of the server machine 90 will be described with reference to FIG. The server machine 90 is provided in each electronic blackboard 2, and any electronic blackboard 2 can serve as a server machine. Therefore, the server machine 90 includes a communication control unit 70 and a data management unit 80.

(通信制御部70の機能構成)
次に、図5を用いて、通信制御部70の機能構成について説明する。
通信制御部70は、同じ電子黒板2内のクライアント機20における通信制御部60、及び、通信ネットワーク9を介して他の電子黒板2内のクライアント機20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。
更に詳細に説明すると、通信制御部70は、遠隔接続要求受信部71、遠隔接続結果送信部72、遠隔画像受信部73、遠隔画像送信部74、遠隔操作受信部75、遠隔操作送信部76、遠隔コンテキスト受信部78、及び、遠隔コンテキスト送信部77、を有している。
このうち、遠隔接続要求受信部71は、遠隔開始処理部61からの遠隔共有処理の開始要求を受信したり、遠隔参加処理部62からの遠隔共有処理に対する参加要求を受信したりする。遠隔接続結果送信部72は、遠隔開始処理部61へ遠隔共有処理の開始要求の結果を送信したり、遠隔参加処理部62へ遠隔共有処理に対する参加要求の結果を送信したりする。
(Functional configuration of communication control unit 70)
Next, the functional configuration of the communication control unit 70 will be described with reference to FIG.
The communication control unit 70 controls communication with the communication control unit 60 in the client machine 20 in the same electronic blackboard 2 and the communication control unit 70 in the client machine 20 in another electronic blackboard 2 via the communication network 9. . The data management unit 80 manages operation data, image data, and the like.
More specifically, the communication controller 70 includes a remote connection request receiver 71, a remote connection result transmitter 72, a remote image receiver 73, a remote image transmitter 74, a remote operation receiver 75, a remote operation transmitter 76, The remote context receiving unit 78 and the remote context transmitting unit 77 are provided.
Among these, the remote connection request receiving unit 71 receives a remote sharing processing start request from the remote start processing unit 61 or receives a participation request for remote sharing processing from the remote participation processing unit 62. The remote connection result transmission unit 72 transmits the result of the remote sharing processing start request to the remote start processing unit 61, or transmits the result of the participation request for the remote sharing processing to the remote participation processing unit 62.

遠隔画像受信部73は、遠隔画像送信部63からの画像データ(出力画像(C)のデータ)を受信し、後述の遠隔画像処理部82に送信する。遠隔画像送信部74は、遠隔画像処理部82から画像データを受信し、遠隔画像受信部64に対して、この画像データを送信する。
遠隔操作受信部75は、遠隔操作送信部65からの操作データ(ストローク画像(B)等のデータ)を受信し、後述の遠隔操作処理部83に送信する。遠隔操作送信部76は、遠隔操作処理部83から操作データを受信し、遠隔操作受信部66に対して、この操作データを送信する。
遠隔コンテキスト受信部78はクライアント機から遠隔コンテキストを受信し、遠隔操作処理部83に出力する。遠隔操作処理部83は自拠点の識別情報(例えばIPアドレス)を追加し、遠隔コンテキスト送信部77に出力する。遠隔コンテキスト送信部77が各クライアント機に遠隔コンテキストと自拠点の識別情報を送信する。
The remote image receiving unit 73 receives the image data (data of the output image (C)) from the remote image transmitting unit 63 and transmits it to the remote image processing unit 82 described later. The remote image transmission unit 74 receives image data from the remote image processing unit 82 and transmits this image data to the remote image reception unit 64.
The remote operation receiving unit 75 receives operation data (data such as a stroke image (B)) from the remote operation transmitting unit 65 and transmits it to the remote operation processing unit 83 described later. The remote operation transmission unit 76 receives operation data from the remote operation processing unit 83 and transmits this operation data to the remote operation reception unit 66.
The remote context receiver 78 receives the remote context from the client machine and outputs it to the remote operation processor 83. The remote operation processing unit 83 adds identification information (for example, an IP address) of the local site and outputs it to the remote context transmission unit 77. The remote context transmission unit 77 transmits the remote context and identification information of its own base to each client machine.

(データ管理部の機能構成)
次に、図5を用いて、データ管理部80の機能構成について説明する。データ管理部80は、遠隔接続処理部81、遠隔画像処理部82、遠隔操作処理部83、操作合成処理部84、及びページ処理部85を有している。更に、サーバ機90は、パスコード管理部810、参加拠点管理テーブル820、画像データ管理部830、操作データ記憶部840及び、ページデータ記憶部850、を有している。
このうち、遠隔接続処理部81は、遠隔共有処理の開始、及び遠隔共有処理の終了を行う。また、遠隔接続処理部81は、遠隔接続要求受信部71が、遠隔開始処理部61から遠隔共有処理の開始要求と共に受信したライセンス情報、又は、遠隔参加処理部62から遠隔共有処理の参加要求と共に受信したライセンス情報に基づいて、ライセンスの有無やライセンスの期間内であるかを確認する。更に、遠隔接続処理部81は、クライアント機としての他の電子黒板2からの参加要求が予め定められた参加可能数を超えていないかを確認する。
更に、遠隔接続処理部81は、他の電子黒板2から遠隔共有処理に対する参加要求があった際に送られて来たパスコードが、パスコード管理部810で管理されているパスコードと同じであるか否かを判断し、同じである場合には、遠隔共有処理の参加を許可する。なお、このパスコードは、新たに遠隔共有処理を開始する際に、遠隔接続処理部81によって発行され、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、主催装置としての電子黒板2のユーザから、電話や電子メール等により伝えられる。これにより、遠隔共有処理に参加しようとする参加装置としての電子黒板2のユーザが、この電子黒板2にパスコードを入力して参加要求することで、参加が許可されることになる。なお、セキュリティーよりもユーザの使い勝手を優先して、ライセンス状況の確認だけで、パスコードの確認を省略してもよい。
(Functional configuration of the data management unit)
Next, the functional configuration of the data management unit 80 will be described with reference to FIG. The data management unit 80 includes a remote connection processing unit 81, a remote image processing unit 82, a remote operation processing unit 83, an operation composition processing unit 84, and a page processing unit 85. Further, the server 90 includes a passcode management unit 810, a participating site management table 820, an image data management unit 830, an operation data storage unit 840, and a page data storage unit 850.
Among these, the remote connection processing unit 81 starts the remote sharing process and ends the remote sharing process. The remote connection processing unit 81 also receives the license information received by the remote connection request receiving unit 71 from the remote start processing unit 61 together with the remote sharing processing start request or the remote sharing processing unit 62 from the remote sharing processing participation request. Based on the received license information, it is confirmed whether there is a license and whether it is within the license period. Further, the remote connection processing unit 81 confirms whether or not the participation request from the other electronic blackboard 2 as the client machine exceeds the predetermined number of possible participations.
Further, the remote connection processing unit 81 has the same passcode that is sent when another electronic blackboard 2 has requested to participate in remote sharing processing as the passcode managed by the passcode management unit 810. It is determined whether or not there is the same, and if they are the same, participation in the remote sharing process is permitted. This passcode is issued by the remote connection processing unit 81 when a new remote sharing process is started, and the user of the electronic blackboard 2 as a participating apparatus who intends to participate in the remote sharing process can It is transmitted from the user of the electronic blackboard 2 by telephone or e-mail. As a result, the user of the electronic blackboard 2 as a participating device who intends to participate in the remote sharing process inputs the pass code to the electronic blackboard 2 and requests participation, thereby permitting participation. Note that the user's usability is given priority over security, and the confirmation of the passcode may be omitted only by confirming the license status.

また、遠隔接続処理部81は、参加装置としての電子黒板2の遠隔参加処理部62から通信ネットワーク9を介して送られて来た参加要求に含まれる参加拠点情報を、サーバ機90の参加拠点管理テーブル820に記憶する。そして、遠隔接続処理部81は、参加拠点管理テーブル820に記憶されている遠隔拠点情報を読み出し、遠隔接続結果送信部72に送信する。遠隔接続結果送信部72は、同じ主催装置のクライアント部20における遠隔開始処理部61に遠隔拠点情報を送信する。遠隔開始処理部61は、参加拠点管理テーブルに610に、遠隔拠点情報を記憶する。これにより、主催装置では、クライアント部20及びサーバ部90の両方で、遠隔拠点情報を管理することになる。   In addition, the remote connection processing unit 81 uses the participation site information included in the participation request sent from the remote participation processing unit 62 of the electronic blackboard 2 as the participation device via the communication network 9 to the participation site of the server 90. Store in the management table 820. Then, the remote connection processing unit 81 reads out the remote site information stored in the participating site management table 820 and transmits it to the remote connection result transmission unit 72. The remote connection result transmission unit 72 transmits the remote base information to the remote start processing unit 61 in the client unit 20 of the same sponsor device. The remote start processing unit 61 stores the remote site information in 610 in the participating site management table. As a result, the host device manages remote site information in both the client unit 20 and the server unit 90.

遠隔画像処理部82は、遠隔共有処理中の各電子黒板2のクライアント機(主催装置である自己の電子黒板のクライアント機を含む)に接続された映像出力機器(ノードPC6等)からの画像データ(出力画像(C))を受信して画像データ管理部830に記憶すると共に、主催装置である自己の電子黒板2のサーバ機90に届いた時間順で遠隔共有処理すべき画像データの表示順を判定する。また、遠隔画像処理部82は、参加拠点管理テーブル820を参照し、遠隔共有処理に参加中の全ての電子黒板2のクライアント機20(主催装置である自己の電子黒板のクライアント機を含む)に、通信制御部70(遠隔画像送信部74)を介して、上記判定した順番で画像データを送信する。
遠隔操作処理部83は、遠隔共有処理中の各電子黒板2のクライアント機(主催装置である自己の電子黒板のクライアント機を含む)で描画されたストローク画像等の各種操作データ(ストローク画像(B)等)を受信し、主催装置である自己の電子黒板2のサーバ機90に届いた時間順で遠隔共有処理すべき画像の表示順を判定する。なお、各種操作データは、上述の各種操作データと同じである。また、遠隔操作処理部83は、参加拠点管理テーブル820を参照し、遠隔共有処理中の全ての電子黒板2のクライアント機20(主催装置である自己の電子黒板のクライアント機を含む)に操作データを送信する。
The remote image processing unit 82 receives image data from a video output device (node PC 6 or the like) connected to a client device of each electronic blackboard 2 (including a client device of its own electronic blackboard that is the hosting device) during remote sharing processing. (Output image (C)) is received and stored in the image data management unit 830, and the display order of the image data to be remotely shared in the order of time of arrival at the server device 90 of the electronic blackboard 2 that is the host device Determine. In addition, the remote image processing unit 82 refers to the participation base management table 820, and adds to all the client machines 20 of the electronic blackboard 2 participating in the remote sharing process (including the client machine of its own electronic blackboard that is the host device). The image data is transmitted in the determined order via the communication control unit 70 (remote image transmission unit 74).
The remote operation processing unit 83 performs various types of operation data (stroke images (B, B, B) drawn on the client machine of each electronic blackboard 2 (including the client machine of its own electronic blackboard which is the hosting apparatus) during the remote sharing process. ) And the like, and the display order of the images to be remotely shared is determined in the order of time of arrival at the server 90 of the electronic blackboard 2 that is the host device. The various operation data is the same as the various operation data described above. Further, the remote operation processing unit 83 refers to the participating site management table 820 and operates the operation data on all the client machines 20 of the electronic blackboard 2 (including the client machine of its own electronic blackboard which is the hosting apparatus) during the remote sharing process. Send.

操作合成処理部84は、遠隔操作処理部83から出力された各電子黒板2の操作データを合成し、この合成結果としての操作データを、操作データ記憶部840に記憶するとともに遠隔操作処理部83に戻す。この操作データは、遠隔操作送信部76から、主催装置である電子黒板のクライアント機、及び参加装置である電子黒板のクライアント機のそれぞれに送信されることで、各電子黒板2で同じ操作データに係る画像が表示される。
なお、操作合成処理部84は、この操作合成処理部84に操作データが入力された順に合成を行うため、通信ネットワーク9が混雑していなければ、各電子黒板2のユーザによるストローク順に、遠隔共有処理中の全ての電子黒板2のディスプレイ3にストローク画像(B)が表示される。
ページ処理部85は、クライアント機20の画像処理部30におけるページ処理部37と同様の機能を有し、サーバ機90でも、図6乃至図8に示されているページデータを、ページデータ記憶部850に記憶する。なお、ページデータ記憶部850は、画像処理部30におけるページデータ記憶部300と同じ内容であるため、その説明を省略する。
The operation synthesis processing unit 84 synthesizes the operation data of each electronic blackboard 2 output from the remote operation processing unit 83, stores the operation data as a result of this synthesis in the operation data storage unit 840 and the remote operation processing unit 83. Return to. The operation data is transmitted from the remote operation transmission unit 76 to each of the electronic blackboard client machine that is the hosting apparatus and the electronic blackboard client machine that is the participating apparatus. Such an image is displayed.
The operation composition processing unit 84 performs composition in the order in which the operation data is input to the operation composition processing unit 84. Therefore, if the communication network 9 is not congested, remote sharing is performed in the order of strokes by the users of the electronic blackboards 2. A stroke image (B) is displayed on the displays 3 of all the electronic blackboards 2 being processed.
The page processing unit 85 has the same function as the page processing unit 37 in the image processing unit 30 of the client machine 20, and the server machine 90 also converts the page data shown in FIGS. 6 to 8 into a page data storage unit. Store in 850. Note that the page data storage unit 850 has the same contents as the page data storage unit 300 in the image processing unit 30, and therefore the description thereof is omitted.

<実施形態の処理又は動作>
次に、図11乃至図17を参照して、本実施形態での処理及び動作について説明する。
図11は、送信側電子黒板2aに電子ペンが進入(接近又は接触)してから離脱するまでの間でストローク情報を送信するシーケンスについて説明するための図である。図11において、ステップS1xxは送信側電子黒板2aでの処理を表し、ステップS2xxは受信側電子黒板2bでの処理を表す。
送信側電子黒板2aにおいて、イベント振分部25は、電子ペン4がディスプレイ3に進入して接近又は接触するとペンダウンイベントを検知する(S101)。
送信側電子黒板2aに設けられた画像処理部30のストローク処理部32は、電子ペン4が表示画面に進入した時点を始点として一定時間単位でストローク情報を分割して分割ストローク情報を連続して生成する。送信側電子黒板2aは、電子ペン4がディスプレイ3に接触してから一定時間が経過した場合に、分割ストローク情報を受信側電子黒板2bに送信する(S103)。
ここで、ストローク処理部32は、生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して受信側電子黒板2bの画像処理部30に送信する。
この結果、送信側電子黒板2aから受信側電子黒板2bに、分割ストローク情報として、ストロークデータID、開始時刻、色、幅、座標配列、当該ストロークが継続中であることを表す継続情報として終端フラグ(:偽)が送信される(S109)。
一方、受信側電子黒板2bは、送信側電子黒板2aから送信された分割ストローク情報を受信する(S201)。
<Process or Operation of Embodiment>
Next, processing and operations in the present embodiment will be described with reference to FIGS.
FIG. 11 is a diagram for explaining a sequence for transmitting stroke information from when the electronic pen enters (approaches or contacts) to the transmitter-side electronic blackboard 2a until it leaves. In FIG. 11, step S1xx represents processing at the transmission-side electronic blackboard 2a, and step S2xx represents processing at the reception-side electronic blackboard 2b.
In the transmission-side electronic blackboard 2a, the event sorting unit 25 detects a pen-down event when the electronic pen 4 enters the display 3 and approaches or comes into contact (S101).
The stroke processing unit 32 of the image processing unit 30 provided on the transmission-side electronic blackboard 2a continuously divides the divided stroke information by dividing the stroke information by a certain time unit starting from the time when the electronic pen 4 enters the display screen. Generate. The transmission-side electronic blackboard 2a transmits the divided stroke information to the reception-side electronic blackboard 2b when a predetermined time has elapsed after the electronic pen 4 contacts the display 3 (S103).
Here, the stroke processing unit 32 adds continuation information indicating that the stroke is continuing to the generated divided stroke information, and transmits the continuation information to the image processing unit 30 of the reception-side electronic blackboard 2b.
As a result, from the transmission-side electronic blackboard 2a to the reception-side electronic blackboard 2b, as the divided stroke information, stroke data ID, start time, color, width, coordinate arrangement, and termination flag as continuation information indicating that the stroke is continuing (: False) is transmitted (S109).
On the other hand, the reception-side electronic blackboard 2b receives the divided stroke information transmitted from the transmission-side electronic blackboard 2a (S201).

ここで、送信側電子黒板2aで描画されたストローク画像が受信側電子黒板2bのディスプレイ3に表示されるまでの処理について説明する。
まず、送信側電子黒板2aは、ユーザが電子ペン4aを用いて電子黒板2aにストローク画像(B)を描画する。
Here, a process until the stroke image drawn on the transmission side electronic blackboard 2a is displayed on the display 3 of the reception side electronic blackboard 2b will be described.
First, in the transmission-side electronic blackboard 2a, the user draws a stroke image (B) on the electronic blackboard 2a using the electronic pen 4a.

次に、電子黒板2aの表示重畳部36は、図10に示されているように、UI画像(A)、出力画像(C)、及び背景画像(D)に対して、ストローク画像(B)を重畳し、映像重畳部28が、電子黒板2aのディスプレイ3a上に、重畳された重畳画像(A、B、C、D)を表示させる。具体的には、電子黒板2aのストローク処理部32が座標検知部21及び接触検知部24からイベント振分部25を介して、操作データとしてのストローク画像(B)のデータを受信し、表示重畳部36に送信する。これにより、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、ストローク画像(B)を重畳することができ、映像重畳部28が電子黒板2aのディスプレイ3a上に重畳画像(A、B、C)を表示させることができる。   Next, as shown in FIG. 10, the display superimposing unit 36 of the electronic blackboard 2a performs a stroke image (B) on the UI image (A), the output image (C), and the background image (D). And the video superimposing unit 28 causes the superimposed images (A, B, C, D) to be displayed on the display 3a of the electronic blackboard 2a. Specifically, the stroke processing unit 32 of the electronic blackboard 2a receives the data of the stroke image (B) as the operation data from the coordinate detection unit 21 and the contact detection unit 24 via the event distribution unit 25, and performs display superimposition. It transmits to the part 36. Accordingly, the display superimposing unit 36 can superimpose the stroke image (B) on the UI image (A) and the output image (C), and the video superimposing unit 28 is placed on the display 3a of the electronic blackboard 2a. Superimposed images (A, B, C) can be displayed.

次いで、電子黒板2aのストローク処理部32を含む画像処理部30が、遠隔操作送信部65にストローク画像(B)のデータを送信することで、電子黒板2aの遠隔操作送信部65は、通信ネットワーク2を介して、主催装置である電子黒板2bの通信制御部70にストローク画像(B)のデータを送信する。これにより、電子黒板2bの遠隔操作受信部75は、ストローク画像(B)のデータを受信し、遠隔操作処理部83に出力することで、遠隔操作処理部83が操作合成処理部84にストローク画像(B)のデータを出力する。このようにして、電子黒板2aで描画されたストローク画像(B)のデータは、描画される度に、主催装置である電子黒板2bの遠隔操作処理部83に順次送信される。このストローク画像(B)のデータは、図7に示されているストロークデータID毎に示されるデータである。   Next, the image processing unit 30 including the stroke processing unit 32 of the electronic blackboard 2a transmits the stroke image (B) data to the remote operation transmission unit 65, so that the remote operation transmission unit 65 of the electronic blackboard 2a is connected to the communication network. 2, the data of the stroke image (B) is transmitted to the communication control unit 70 of the electronic blackboard 2b which is the host apparatus. Accordingly, the remote operation receiving unit 75 of the electronic blackboard 2b receives the stroke image (B) data and outputs it to the remote operation processing unit 83, so that the remote operation processing unit 83 sends the stroke image to the operation composition processing unit 84. The data of (B) is output. In this way, the data of the stroke image (B) drawn on the electronic blackboard 2a is sequentially transmitted to the remote operation processing unit 83 of the electronic blackboard 2b that is the hosting device every time it is drawn. The data of the stroke image (B) is data shown for each stroke data ID shown in FIG.

次に、主催装置である電子黒板2bは、ディスプレイ3bに、電子黒板2aから送られて来たストローク画像(B)のデータが含まれた重畳画像(A、B、C)を表示する。具体的には、電子黒板2bの操作合成処理部84は、遠隔操作処理部83を介して順次送られて来た複数のストローク画像(B)のデータを合成して、操作データ記憶部840に記憶するとともに遠隔操作処理部83に戻す。これにより、遠隔操作処理部83は、操作合成処理部84から受信した、合成後のストローク画像(B)のデータを、遠隔操作送信部76に出力する。遠隔操作送信部76は、同じ主催装置である電子黒板2bのクライアント部20における遠隔操作受信部66に、合成後のストローク画像(B)のデータを出力する。遠隔操作受信部66は、画像処理部30における表示重畳部36に、合成後のストローク画像(B)のデータを出力する。よって、表示重畳部36は、UI画像(A)、及び出力画像(C)に対して、合成後のストローク画像(B)を重畳する。最後に、映像重畳部28が、表示重畳部36によって重畳された重畳画像(A、B、C)をディスプレイ3b上に表示させる。   Next, the electronic blackboard 2b, which is the hosting device, displays on the display 3b a superimposed image (A, B, C) including the data of the stroke image (B) sent from the electronic blackboard 2a. Specifically, the operation composition processing unit 84 of the electronic blackboard 2b synthesizes the data of the plurality of stroke images (B) sequentially sent via the remote operation processing unit 83 and stores them in the operation data storage unit 840. Store and return to the remote operation processing unit 83. As a result, the remote operation processing unit 83 outputs the combined stroke image (B) data received from the operation synthesis processing unit 84 to the remote operation transmission unit 76. The remote operation transmission unit 76 outputs the combined stroke image (B) data to the remote operation reception unit 66 in the client unit 20 of the electronic blackboard 2b, which is the same host device. The remote operation receiving unit 66 outputs the combined stroke image (B) data to the display superimposing unit 36 in the image processing unit 30. Therefore, the display superimposing unit 36 superimposes the combined stroke image (B) on the UI image (A) and the output image (C). Finally, the video superimposing unit 28 displays the superimposed image (A, B, C) superimposed by the display superimposing unit 36 on the display 3b.

さらに、図11に戻り、送信側電子黒板2aは、前回の分割ストローク情報の送信から一定時間が経過した場合に、分割ストローク情報を受信側電子黒板2bに送信する(S103’)。
この結果、送信側電子黒板2aから受信側電子黒板2bに、分割ストローク情報として、座標配列、当該ストロークが終了したことを表す終了情報として終端フラグ(:偽)が送信される(S109’)。
一方、受信側電子黒板2bは、送信側電子黒板2aから送信された分割ストローク情報を受信する(S201’)。
送信側電子黒板2aにおいて、イベント振分部25は、電子ペン4がディスプレイ3から離脱するとペンアップイベントを検知する(S102)。
送信側電子黒板2aは、電子ペン4がディスプレイ3から離脱した場合に、分割ストローク情報を受信側電子黒板2bに送信する(S109”)。この結果、送信側電子黒板2aから受信側電子黒板2bに、分割ストローク情報として、終了時刻、座標配列、座標検知が終了したことを表す座標検知終了情報として終端フラグ(:真)が送信される。
一方、受信側電子黒板2bは、送信側電子黒板2aから送信された分割ストローク情報を受信する(S201’)。
よって、例えば、上述したように、ユーザが電子ペン4によってアルファベット「T」を描く場合は二筆書きとなるため、2つのストロークデータIDのそれぞれで示されるストローク画像(B)のデータが順次送信される。この際、各ストローク画像は一定時間が経過した都度、分割されて順次送信される。
Further, returning to FIG. 11, the transmission-side electronic blackboard 2a transmits the divided stroke information to the reception-side electronic blackboard 2b when a predetermined time has elapsed since the previous transmission of the divided stroke information (S103 ′).
As a result, the coordinate array and the termination flag (: false) are transmitted as the end information indicating the end of the stroke as the divided stroke information from the transmission-side electronic blackboard 2a to the reception-side electronic blackboard 2b (S109 ′).
On the other hand, the reception-side electronic blackboard 2b receives the divided stroke information transmitted from the transmission-side electronic blackboard 2a (S201 ′).
In the transmission-side electronic blackboard 2a, the event distribution unit 25 detects a pen-up event when the electronic pen 4 is detached from the display 3 (S102).
When the electronic pen 4 is detached from the display 3, the transmission-side electronic blackboard 2a transmits the divided stroke information to the reception-side electronic blackboard 2b (S109 "). As a result, the transmission-side electronic blackboard 2a transmits to the reception-side electronic blackboard 2b. In addition, the end flag (: true) is transmitted as the coordinate detection end information indicating that the end time, the coordinate arrangement, and the coordinate detection are ended as the divided stroke information.
On the other hand, the reception-side electronic blackboard 2b receives the divided stroke information transmitted from the transmission-side electronic blackboard 2a (S201 ′).
Therefore, for example, as described above, when the user draws the alphabet “T” with the electronic pen 4, the stroke image (B) indicated by each of the two stroke data IDs is sequentially transmitted. Is done. At this time, each stroke image is divided and transmitted sequentially every time a fixed time has elapsed.

図12は、送信側電子黒板2aにおいて電子ペンがディスプレイ3に進入してから離脱するまでの分割ストローク情報を送信するためのフローチャートである。
電子ペン4がディスプレイ3に接近又は接触すると、イベント振分部25においてペンダウンイベントが検知され、ペンダウンイベントがストローク処理部32に出力される(S101)。この際、タイマによる計時を開始する。
次いで、電子ペン4がディスプレイ3から離脱すると、イベント振分部25においてペンアップイベントが検知され、ペンアップイベントがストローク処理部32に出力されるので、ストローク処理部32は、ペンアップイベントが入力されたか否かを判断する(S102)。
ストローク処理部32は、ペンアップイベントが入力されない場合(S102、NO)にステップS103に進む。一方、ペンアップイベントが入力された場合(S102、YES)にステップS104に進む。
ストローク処理部32は、ステップS101において接触検知があってから一定時間が経過したか否かを判断する(ステップS103)。ストローク処理部32は、一定時間が経過した場合(S103、YES)にステップS120に進む。一方、一定時間が経過していない場合(S103、NO)にステップS102に戻る。
FIG. 12 is a flowchart for transmitting the divided stroke information from when the electronic pen enters the display 3 to when it leaves the display side electronic blackboard 2a.
When the electronic pen 4 approaches or comes into contact with the display 3, a pen down event is detected by the event distribution unit 25, and the pen down event is output to the stroke processing unit 32 (S101). At this time, timing by a timer is started.
Next, when the electronic pen 4 is detached from the display 3, a pen-up event is detected by the event distribution unit 25, and the pen-up event is output to the stroke processing unit 32. It is determined whether or not it has been done (S102).
When the pen up event is not input (S102, NO), the stroke processing unit 32 proceeds to step S103. On the other hand, when a pen-up event is input (S102, YES), the process proceeds to step S104.
The stroke processing unit 32 determines whether or not a certain time has elapsed since the contact detection in step S101 (step S103). The stroke processing unit 32 proceeds to step S120 when a predetermined time has elapsed (S103, YES). On the other hand, when the predetermined time has not elapsed (S103, NO), the process returns to step S102.

ペンアップイベントが入力された場合に、ストローク処理部32は、分割ストローク情報の終端フラグを真に設定する(S104)。
次いで、ストローク処理部32は、分割ストローク情報に終了時刻を追加し(S105)、ステップS106に進む。
When a pen-up event is input, the stroke processing unit 32 sets the end flag of the divided stroke information to true (S104).
Next, the stroke processing unit 32 adds an end time to the divided stroke information (S105), and proceeds to step S106.

ストローク処理部32は、一定時間が経過した場合(S103、YES)に、ストローク処理部32は、分割ストローク情報の終端フラグを偽に設定し(S120)、ステップS106に進む。
ストローク処理部32は、電子ペンがディスプレイ3に進入して接近又は接触した後、初めて送信する分割ストローク情報か否かを判断する(S106)。ストローク処理部32は、初めて送信する分割ストローク情報である場合(S106、YES)にステップS107に進む。一方、初めて送信する分割ストローク情報ではない場合(S106、NO)にステップS108に進む。
次いで、ストローク処理部32は、ストロークデータID、開始時間、色、幅を分割ストローク情報に追加する(S107)。
次いで、ストローク処理部32は、未送信の座標配列データを分割ストローク情報に追加する(S108)。
次いで、ストローク処理部32は、分割ストローク情報を送信する(S109)。
When the fixed time has elapsed (S103, YES), the stroke processing unit 32 sets the end flag of the divided stroke information to false (S120), and proceeds to step S106.
The stroke processing unit 32 determines whether or not the divided stroke information is transmitted for the first time after the electronic pen enters the display 3 and approaches or comes into contact (S106). The stroke processing unit 32 proceeds to step S107 when the divided stroke information is transmitted for the first time (S106, YES). On the other hand, if it is not the divided stroke information transmitted for the first time (S106, NO), the process proceeds to step S108.
Next, the stroke processing unit 32 adds the stroke data ID, start time, color, and width to the divided stroke information (S107).
Next, the stroke processing unit 32 adds untransmitted coordinate array data to the divided stroke information (S108).
Next, the stroke processing unit 32 transmits the divided stroke information (S109).

次いで、ストローク処理部32は、終端フラグ(:真)の分割ストローク情報を送信したか否かを判断する(S110)。ストローク処理部32は、終端フラグ(:真)の分割ストローク情報を送信した場合(S10、YES)に処理を終了する。一方、終端フラグ(:真)の分割ストローク情報を送信していない場合(S110、NO)にステップS102に戻る。
なお、分割ストローク情報がストローク情報の最後の断片である場合には、上述したステップS104で終端フラグが真となるので、終端フラグが真の場合には1つのストローク情報のうちの全ての分割ストローク情報の送信が完了したことを示すので、受信側電子黒板2bにおいて分割ストローク情報の結合を促すこととなる。
また、上述したように、1つのストローク情報の最初の断片である分割ストローク情報を送信する場合には、ストロークの描画に必要な色・幅の情報とストロークの保存に必要なストロークデータIDを付与する。
さらに、電子ペン4がディスプレイ3から離脱されるまで、ステップS102からS110の間にあるステップをループする。一度、分割ストローク情報を送信するとループ(ステップS102からS110)を戻る間に分割ストローク情報はリセット(データクリア)されることとする。
このように、電子ペン4が表示画面に進入した時点を始点として一定時間単位でストローク情報を分割して分割ストローク情報を連続して生成し、生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して第2の画像処理部30に送信し、電子ペン4が表示画面から離脱した場合に、生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して第2の画像処理部30に送信するので、電子ペン4が表示画面に進入してから離脱するまでの1つのストローク情報を一定時間単位に分割して扱う場合でも、複数に分割されたストローク情報を1つのストローク情報に再現して扱うことが可能になる。
Next, the stroke processing unit 32 determines whether or not the divided stroke information of the end flag (: true) has been transmitted (S110). The stroke processing unit 32 ends the process when the divided stroke information of the end flag (: true) is transmitted (S10, YES). On the other hand, when the division stroke information of the end flag (: true) is not transmitted (S110, NO), the process returns to step S102.
When the divided stroke information is the last piece of the stroke information, the end flag becomes true in step S104 described above. Therefore, when the end flag is true, all the divided strokes in one stroke information are obtained. Since this indicates that the transmission of information has been completed, the reception-side electronic blackboard 2b prompts the division stroke information to be combined.
In addition, as described above, when the divided stroke information that is the first fragment of one stroke information is transmitted, the color / width information necessary for drawing the stroke and the stroke data ID necessary for storing the stroke are provided. To do.
Further, the steps between steps S102 to S110 are looped until the electronic pen 4 is detached from the display 3. Once the divided stroke information is transmitted, the divided stroke information is reset (data cleared) while returning from the loop (steps S102 to S110).
In this way, the stroke information is divided into fixed time units starting from the time point when the electronic pen 4 enters the display screen, and divided stroke information is continuously generated, and the stroke is continued in the generated divided stroke information. Continuation information indicating the presence is transmitted to the second image processing unit 30, and when the electronic pen 4 leaves the display screen, end information indicating the end of the stroke is generated in the generated divided stroke information. Is added and transmitted to the second image processing unit 30, so even if one stroke information from when the electronic pen 4 enters the display screen to when it leaves the screen is divided into fixed time units, it is divided into a plurality of pieces. It is possible to reproduce and handle the stroke information as one stroke information.

図13は、受信側電子黒板2bにおいて、分割ストローク情報を受信し、結合、描画するためのフローチャートである。
なお、ステップS201に示す分割ストローク情報の受信は、図11に示すシーケンス図のステップS201に対応している。すなわち、図13に示すフローチャートは分割ストローク情報を受信するたびに処理される。
通信制御部60は、通信ネットワーク9を介して送信側電子黒板2aから分割ストローク情報を受信する(S201)。
すなわち、通信制御部60は、送信側電子黒板2aから受信した分割ストローク情報を遠隔操作受信部66に出力し、遠隔操作受信部66は分割ストローク情報を画像処理部30に出力し、さらに、画像処理部30は分割ストローク情報をストローク処理部32に出力し、ストローク処理部32は分割ストローク情報をページ処理部37に出力し、さらに、ページ処理部37は分割ストローク情報をページデータ記憶部300に記憶する。
ページ処理部37は、これまでに受信した分割ストローク情報を、ページデータ記憶部300の分割ストロークテーブル300a内に記憶された分割ストローク情報と結合する(S202)。
ページ処理部37は、結合された分割ストローク情報を表示重畳部36に出力し、表示重畳部36において各レイヤ(A)〜(D)の画像を重畳した画像を生成して映像重畳部28に出力する。さらに、映像重畳部28において各レイヤの画像に映像信号を重畳した映像信号を生成し、ディスプレイ3の画面に描画する(S203)。
このように、新たに受信した分割ストローク情報に継続情報が付加されている場合には、分割ストローク管理テーブル300aに保存中の分割ストローク情報に新たな分割ストローク情報を結合して分割ストローク管理テーブル300aに保存することで、分割ストローク情報を一まとまりの情報として扱うことができる。
FIG. 13 is a flowchart for receiving, combining, and drawing divided stroke information in the reception-side electronic blackboard 2b.
In addition, reception of the division | segmentation stroke information shown to step S201 respond | corresponds to step S201 of the sequence diagram shown in FIG. That is, the flowchart shown in FIG. 13 is processed every time the divided stroke information is received.
The communication control unit 60 receives the divided stroke information from the transmission-side electronic blackboard 2a via the communication network 9 (S201).
That is, the communication control unit 60 outputs the divided stroke information received from the transmission-side electronic whiteboard 2a to the remote operation receiving unit 66, and the remote operation receiving unit 66 outputs the divided stroke information to the image processing unit 30. The processing unit 30 outputs the divided stroke information to the stroke processing unit 32, the stroke processing unit 32 outputs the divided stroke information to the page processing unit 37, and the page processing unit 37 further outputs the divided stroke information to the page data storage unit 300. Remember.
The page processing unit 37 combines the divided stroke information received so far with the divided stroke information stored in the divided stroke table 300a of the page data storage unit 300 (S202).
The page processing unit 37 outputs the combined divided stroke information to the display superimposing unit 36, generates an image in which the images of the respective layers (A) to (D) are superimposed in the display superimposing unit 36, and outputs the images to the video superimposing unit 28. Output. Further, the video superimposing unit 28 generates a video signal in which the video signal is superimposed on the image of each layer and draws it on the screen of the display 3 (S203).
Thus, when continuation information is added to the newly received divided stroke information, the new divided stroke information is combined with the divided stroke information being stored in the divided stroke management table 300a, and the divided stroke management table 300a. By storing in, the divided stroke information can be handled as a set of information.

次いで、ページ処理部37は、受信し分割ストローク情報の終端フラグが真か否かを判断する(S204)。受信し分割ストローク情報の終端フラグが真である場合(S204、YES)に、ステップS206に進む。一方、受信し分割ストローク情報の終端フラグが真ではなく偽である場合(S204、NO)に、ステップS205に進む。
受信し分割ストローク情報の終端フラグが偽である場合(S204、NO)、受信した分割ストローク情報を一時的にページデータ記憶部300の分割ストローク管理テーブル300aに記憶する(S205)。
Next, the page processing unit 37 determines whether the received end flag of the divided stroke information is true (S204). If the end flag of the received divided stroke information is true (S204, YES), the process proceeds to step S206. On the other hand, if the termination flag of the received divided stroke information is not true but false (S204, NO), the process proceeds to step S205.
If the end flag of the received divided stroke information is false (S204, NO), the received divided stroke information is temporarily stored in the divided stroke management table 300a of the page data storage unit 300 (S205).

一方、受信し分割ストローク情報の終端フラグが真である場合(S204、YES)、結合されたストローク情報をページデータ記憶部300のストローク管理テーブル300bに記憶する(S206)。
次いで、ページ処理部37は、ページデータ記憶部300の分割ストローク管理テーブル300aに記憶された分割ストローク情報を全て削除する(S207)。
上述したステップS204での判断処理により、このとき受信した分割ストローク情報の終端フラグが真であった場合、結合したストローク情報は送信側電子黒板2aにおいて電子ペン4がディスプレイ4に進入して接近又は接触してから離脱するまでの全ての分割ストローク情報を網羅していると判断できる。
よって、このストローク情報をステップS206、S207でこれまでに描画されたストローク情報全てを管理するストローク管理テーブル300bに移し替える。このストローク管理テーブル300bに保存することにより、他のストローク情報と同様の削除などの操作が可能になる。
これにより、分割ストローク情報の受信開始から終了情報までの結合後のストローク情報を一単位として削除することができる。また、結合後のストローク情報を一単位として表示位置を他の位置に移動することができる。
このように、通信ネットワークを介して分割ストローク情報を受信し、分割ストローク情報の受信開始から終了情報までの分割ストローク情報を結合して保存することで、受信開始から終了情報までの分割ストローク情報を一まとまりの情報として扱うことができる。
また、受信した分割ストローク情報に終了情報が付加されている場合には、分割ストローク管理テーブル300aに保存中の分割ストローク情報に新たな分割ストローク情報を結合し、結合後の一まとまりの分割ストローク情報をストローク情報としてストローク管理テーブル300bに保存するので、受信開始から終了情報までの分割ストローク情報を一まとまりの情報として扱うことができる。
さらに、ストローク情報をストローク管理テーブル300bに保存した後に、分割ストローク管理テーブル300aに保存中の分割ストローク情報を全て削除することで、分割ストローク管理テーブル300aから分割ストローク情報を全て削除することができる。
On the other hand, if the end flag of the received divided stroke information is true (S204, YES), the combined stroke information is stored in the stroke management table 300b of the page data storage unit 300 (S206).
Next, the page processing unit 37 deletes all the divided stroke information stored in the divided stroke management table 300a of the page data storage unit 300 (S207).
If the termination flag of the divided stroke information received at this time is true according to the determination processing in step S204 described above, the combined stroke information is approached by the electronic pen 4 entering the display 4 on the transmission-side electronic blackboard 2a. It can be determined that all pieces of divided stroke information from contact to separation are covered.
Therefore, the stroke information is transferred to the stroke management table 300b that manages all the stroke information drawn so far in steps S206 and S207. By saving in the stroke management table 300b, operations such as deletion similar to other stroke information can be performed.
As a result, the combined stroke information from the start of reception of the divided stroke information to the end information can be deleted as a unit. Further, the display position can be moved to another position with the combined stroke information as a unit.
In this way, the division stroke information is received via the communication network, and the division stroke information from the reception start to the end information is stored by combining and storing the division stroke information from the reception start to the end information of the division stroke information. It can be handled as a single piece of information.
If end information is added to the received divided stroke information, the new divided stroke information is combined with the divided stroke information stored in the divided stroke management table 300a, and the combined divided stroke information is combined. Is stored in the stroke management table 300b as stroke information, so that the divided stroke information from the reception start to the end information can be handled as a set of information.
Further, after the stroke information is stored in the stroke management table 300b, all the divided stroke information stored in the divided stroke management table 300a is deleted, whereby all the divided stroke information can be deleted from the divided stroke management table 300a.

図7に戻り、ストローク管理テーブルについて説明する。
CBSの通常のストローク管理と同様。ストロークを配列として持ち、またそれぞれのストロークが座標データを配列として持つ。
Returning to FIG. 7, the stroke management table will be described.
Same as CBS normal stroke management. Strokes are arranged as an array, and each stroke has coordinate data as an array.

図14は、ページデータ記憶部300のストローク管理テーブル300bのデータ構成について説明するための図である。
ストローク管理テーブル300bは、ストローク情報として、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データを示しており、結合完了前の1ストロークに対応している。
更に、この座標配列データは、図15に示されているように詳細な情報を示している。図15は、座標配列データの構成を示す概念図である。図15に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開示時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。
FIG. 14 is a diagram for explaining the data configuration of the stroke management table 300b of the page data storage unit 300.
In the stroke management table 300b, as stroke information, one stroke data includes a stroke data ID for identifying the stroke data, a start time indicating the start time of writing one stroke, and a write end time of one stroke. The coordinate arrangement data for identifying the end time shown, the stroke color, the stroke width, and the arrangement of the stroke passing points is shown, and corresponds to one stroke before the completion of the combination.
Further, the coordinate array data shows detailed information as shown in FIG. FIG. 15 is a conceptual diagram showing a configuration of coordinate array data. As shown in FIG. 15, the coordinate array data includes one point (X coordinate value, Y coordinate value) on the display 3, and a time difference (ms from the disclosure time of the stroke when passing through this one point. ) And writing pressure information of the electronic pen 4 at this one point.

図16は、送信側電子黒板と受信側電子黒板との間で通信される分割ストローク情報のデータ構成について説明するための図である。
分割ストローク管理テーブル300aは、分割ストローク情報として、1つの分割ストロークデータは、この分割ストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データ、この分割ストローク情報がストロークの終端であるか否かを表す終端フラグ(:偽)を示している。
更に、この座標配列データは、図17に示されているように詳細な情報を示している。図17は、座標配列データの構成を示す概念図である。図17に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開示時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。
なお、分割ストローク情報のうち開始時刻や色などの情報は、1つのストロークに対して1度送信すれば良いので、全ての分割ストローク情報の送信において開始時刻や色などの情報は送信されない。
FIG. 16 is a diagram for explaining the data structure of the divided stroke information communicated between the transmission-side electronic blackboard and the reception-side electronic blackboard.
In the divided stroke management table 300a, as divided stroke information, one divided stroke data includes a stroke data ID for identifying the divided stroke data, a start time indicating the start time of writing one stroke, and one stroke writing. End time indicating end time, stroke color, stroke width, coordinate array data for identifying the array of stroke passing points, and end flag indicating whether this divided stroke information is the end of the stroke (: False).
Further, the coordinate array data shows detailed information as shown in FIG. FIG. 17 is a conceptual diagram showing the configuration of coordinate array data. As shown in FIG. 17, the coordinate array data includes one point on the display 3 (X coordinate value, Y coordinate value), and a time difference (ms from the disclosure time of the stroke when the one point is passed. ) And writing pressure information of the electronic pen 4 at this one point.
Note that information such as the start time and color in the divided stroke information may be transmitted once for each stroke, and therefore information such as the start time and color is not transmitted in transmission of all the divided stroke information.

電子ペンが接近又は接触したタイミングから一定時間でストローク情報を端末に送信し、かつ受信端末側で電子ペンが接近又は接触してから離脱するまでの単位で結合させるために末端のストローク情報は終端フラグを真にして送信するので、電子黒板情報共有システムにおいて、ストローク情報が一定時間以内に受信端末側に表示でき、かつ受信端末側でストロークを電子ペンが表示画面に進入してから離脱するまでのストロークの一単位で扱うことができるので、アンドゥ機能や削除機能などの操作ができる。
なお、電子黒板の表示画面にはユーザが操作機能を選択するためのツールバーが表示されている。アンドゥ機能は1つのストロークを一単位としてディスプレイ3上に表示されているストロークを各ストローク単位で元に戻す機能をいう。また、削除機能は1つのストロークを一単位としてディスプレイ3上に表示されているストロークを各ストローク単位で選択して削除する機能をいう。
使用方法として、例えば、ディスプレイ3上に地図を表示しておき、A地点からZ地点に至るルートを筆記する際に、通過地点の異なる複数のルートをそれぞれストローク画像で描画した場合にも、1つのストロークを一単位としてアンドゥ機能や削除機能を用いることができる。
Stroke information is sent to the terminal at a fixed time from the timing when the electronic pen approaches or contacts, and the end stroke information is terminated at the receiving terminal side in order to be combined in units from the time the electronic pen approaches or contacts to the terminal. Since the flag is transmitted with the flag set to true, the stroke information can be displayed on the receiving terminal side within a certain time in the electronic blackboard information sharing system, and the stroke is displayed on the receiving terminal side until the electronic pen enters the display screen and then leaves. Since it can be handled by one unit of stroke, operations such as undo function and delete function can be performed.
A toolbar for the user to select an operation function is displayed on the display screen of the electronic blackboard. The undo function is a function for returning a stroke displayed on the display 3 by one stroke as a unit to each stroke unit. The deletion function is a function for selecting and deleting a stroke displayed on the display 3 in units of one stroke as one unit.
As a usage method, for example, when a map is displayed on the display 3 and a route from the point A to the point Z is written, a plurality of routes with different passing points are drawn as stroke images, respectively. The undo function and the delete function can be used with one stroke as one unit.

<本発明の実施態様例の構成、作用、効果>
<第1態様>
本態様の電子黒板2(画像処理装置)は、ディスプレイ3(表示手段)と、ディスプレイ3の表示画面に沿って移動することにより筆記操作を行う電子ペン4(指示体)と、表示画面に沿って移動する電子ペン4の各筆記座標を検知する座標検知部22(座標検知手段)と、座標検知部22が検知した座標の座標情報に基づいて、筆記操作によるストロークについての座標情報をストローク情報として生成するストローク処理部32(ストローク情報生成手段)と、電子ペン4が表示画面に進入した時点を始点として一定時間単位でストローク情報を分割して分割ストローク情報を連続して生成するストローク処理部32(分割生成手段)と、ストローク処理部32により生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して電子黒板2(他の画像処理装置)に送信する通信制御部60(第1のストローク送信手段)と、電子ペン4が表示画面から離脱した場合に、ストローク処理部32により生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して電子黒板2(他の画像処理装置)に送信する通信制御部60(第2のストローク送信手段)と、を備えたことを特徴とする。
本態様によれば、電子ペン4が表示画面に進入した時点を始点として一定時間単位でストローク情報を分割して分割ストローク情報を連続して生成し、生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して電子黒板2(他の画像処理装置)に送信し、電子ペン4が表示画面から離脱した場合に、生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して電子黒板2(他の画像処理装置)に送信するので、電子ペン4が表示画面に進入してから離脱するまでのストローク情報を一定時間単位に分割して扱う場合でも、複数に分割されたストローク情報をストローク情報に再現して扱うことが可能になる。
<Configuration, operation and effect of exemplary embodiment of the present invention>
<First aspect>
The electronic blackboard 2 (image processing apparatus) according to this aspect includes a display 3 (display means), an electronic pen 4 (indicator) that performs a writing operation by moving along the display screen of the display 3, and a display screen. Based on the coordinate information of the coordinates detected by the coordinate detection unit 22 (coordinate detection means) and the coordinates detected by the coordinate detection unit 22, the coordinate information about the stroke by the writing operation is stroke information. A stroke processing unit 32 (stroke information generating means) that generates the stroke as a starting point, and a stroke processing unit that continuously generates divided stroke information by dividing the stroke information in a fixed time unit starting from the time when the electronic pen 4 enters the display screen. 32 (division generation means) and the stroke is continued in the division stroke information generated by the stroke processing unit 32. A communication control unit 60 (first stroke transmission unit) that adds continuation information to be transmitted and transmits it to the electronic blackboard 2 (another image processing apparatus), and a stroke processing unit 32 when the electronic pen 4 leaves the display screen. A communication control unit 60 (second stroke transmitting means) that adds the end information indicating that the stroke has been completed to the divided stroke information generated by the above and transmits it to the electronic blackboard 2 (another image processing apparatus); It is characterized by having.
According to this aspect, the stroke information is divided into fixed time units starting from the time when the electronic pen 4 enters the display screen, and the divided stroke information is continuously generated, and the stroke continues in the generated divided stroke information. When the electronic pen 4 is detached from the display screen when the continuation information indicating that it is in the middle is added and transmitted to the electronic blackboard 2 (another image processing apparatus), the stroke ends in the generated divided stroke information. Since the end information indicating this is added and transmitted to the electronic blackboard 2 (another image processing apparatus), the stroke information from when the electronic pen 4 enters the display screen to when it leaves the display is divided into fixed time units. Even in this case, the stroke information divided into a plurality of pieces can be reproduced and handled as stroke information.

<第2態様>
本態様の画像処理システムは、第1態様記載の電子黒板2(画像処理装置)と、第2の電子黒板2(他の画像処理装置)と、を備えた画像処理システム1であって、第2の電子黒板2(他の画像処理装置)は、電子黒板2(画像処理装置)から通信ネットワークを介して分割ストローク情報を受信する通信制御部60(受信手段)と、分割ストローク情報の受信開始から終了情報までの分割ストローク情報を結合して分割ストローク管理テーブル300a(第1の記憶手段)に保存するストローク処理部32(結合保存手段)と、を備えたことを特徴とする。
本態様によれば、通信ネットワークを介して分割ストローク情報を受信し、分割ストローク情報の受信開始から終了情報までの分割ストローク情報を結合して保存することで、受信開始から終了情報までの分割ストローク情報を一まとまりの情報として扱うことができる。
<Second aspect>
The image processing system of this aspect is an image processing system 1 including the electronic blackboard 2 (image processing apparatus) described in the first aspect and the second electronic blackboard 2 (other image processing apparatus), The electronic blackboard 2 (another image processing apparatus) 2 receives a divided stroke information from the electronic blackboard 2 (image processing apparatus) via a communication network, and starts receiving divided stroke information. And a stroke processing unit 32 (combined storage unit) for combining and storing the divided stroke information from the end information to the end information in the divided stroke management table 300a (first storage unit).
According to this aspect, the divided stroke information from the reception start to the end information is received by receiving the divided stroke information via the communication network and combining and storing the divided stroke information from the reception start to the end information of the divided stroke information. Information can be handled as a group of information.

<第3態様>
本態様のストローク処理部32(結合保存手段)は、通信制御部60(受信手段)により新たに受信した分割ストローク情報に継続情報が付加されている場合には、分割ストローク管理テーブル300a(第1の記憶手段)に保存中の分割ストローク情報に新たな分割ストローク情報を結合して分割ストローク管理テーブル300a(第1の記憶手段)に保存することを特徴とする。
本態様によれば、新たに受信した分割ストローク情報に継続情報が付加されている場合には、分割ストローク管理テーブル300aに保存中の分割ストローク情報に新たな分割ストローク情報を結合して分割ストローク管理テーブル300aに保存することで、分割ストローク情報を一まとまりの情報として扱うことができる。
<Third aspect>
When the continuation information is added to the divided stroke information newly received by the communication control unit 60 (reception unit), the stroke processing unit 32 (combination storage unit) of this aspect has the divided stroke management table 300a (first The new stroke information is combined with the divided stroke information being stored in the storage means) and stored in the divided stroke management table 300a (first storage means).
According to this aspect, when continuation information is added to the newly received divided stroke information, the divided stroke management is performed by combining the new divided stroke information with the divided stroke information being stored in the divided stroke management table 300a. By storing in the table 300a, the divided stroke information can be handled as a set of information.

<第4態様>
本態様のストローク処理部32(結合保存手段)は、通信制御部60(受信手段)により受信した分割ストローク情報に終了情報が付加されている場合には、分割ストローク管理テーブル300a(第1の記憶手段)に保存中の分割ストローク情報に新たな分割ストローク情報を結合し、結合後の一まとまりの分割ストローク情報をストローク情報としてストローク管理テーブル300b(第2の記憶手段)に保存することを特徴とする。
本態様によれば、受信した分割ストローク情報に終了情報が付加されている場合には、分割ストローク管理テーブル300aに保存中の分割ストローク情報に新たな分割ストローク情報を結合し、結合後の一まとまりの分割ストローク情報をストローク情報としてストローク管理テーブル300bに保存するので、受信開始から終了情報までの分割ストローク情報を一まとまりの情報として扱うことができる。
<4th aspect>
When the end information is added to the divided stroke information received by the communication control unit 60 (reception unit), the stroke processing unit 32 (combination storage unit) of this aspect has a divided stroke management table 300a (first storage). And the new divided stroke information is combined with the divided stroke information that is being stored, and the combined divided stroke information is stored in the stroke management table 300b (second storage means) as stroke information. To do.
According to this aspect, when end information is added to the received divided stroke information, the new divided stroke information is combined with the divided stroke information being stored in the divided stroke management table 300a, and the combined pieces are combined. Since the divided stroke information is stored in the stroke management table 300b as stroke information, the divided stroke information from the reception start to the end information can be handled as a set of information.

<第5態様>
本態様のストローク処理部32(結合保存手段)は、ストローク情報をストローク管理テーブル300b(第2の記憶手段)に保存した後に、分割ストローク管理テーブル300a(第1の記憶手段)に保存中の分割ストローク情報を全て削除することを特徴とする。
本態様によれば、ストローク情報をストローク管理テーブル300bに保存した後に、分割ストローク管理テーブル300aに保存中の分割ストローク情報を全て削除することで、分割ストローク管理テーブル300aから分割ストローク情報を全て削除することができる。
<5th aspect>
The stroke processing unit 32 (combination storage unit) of this aspect stores the stroke information in the stroke management table 300b (second storage unit), and then stores the division information being stored in the divided stroke management table 300a (first storage unit). All the stroke information is deleted.
According to this aspect, after the stroke information is stored in the stroke management table 300b, all the divided stroke information is deleted from the divided stroke management table 300a by deleting all the divided stroke information stored in the divided stroke management table 300a. be able to.

<第6態様>
本態様の画像処理方法は、第1態様に記載の電子黒板2による画像処理方法であって、第1の画像処理部30は、電子ペン4が表示画面に進入した時点を始点として一定時間単位でストローク情報を分割して分割ストローク情報を連続して生成する分割生成ステップ(S120、S107、S108)と、生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して電子黒板2(他の画像処理装置)に送信する第1のストローク送信ステップ(S120、S109)と、電子ペン4が表示画面から離脱した場合に、生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して電子黒板2(他の画像処理装置)に送信する第2のストローク送信ステップ(S104、S109)と、を実行することを特徴とする。
本態様によれば、電子ペン4が表示画面に進入した時点を始点として一定時間単位でストローク情報を分割して分割ストローク情報を連続して生成し、生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して第2の画像処理部30に送信し、電子ペン4が表示画面から離脱した場合に、生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して電子黒板2(他の画像処理装置)に送信するので、電子ペン4が表示画面に進入してから離脱するまでのストローク情報を一定時間単位に分割して扱う場合でも、複数に分割されたストローク情報を1つのストローク情報に再現して扱うことが可能になる。
<Sixth aspect>
The image processing method of this aspect is an image processing method by the electronic blackboard 2 described in the first aspect, and the first image processing unit 30 is a unit of a fixed time starting from the time when the electronic pen 4 enters the display screen. In step S120, S107, S108, the stroke information is divided and the divided stroke information is continuously generated, and continuation information indicating that the stroke is continuing is added to the generated divided stroke information. The first stroke transmission step (S120, S109) to be transmitted to the electronic blackboard 2 (another image processing apparatus), and when the electronic pen 4 leaves the display screen, the stroke ends with the generated divided stroke information. A second stroke transmission step (S104, S109) for adding the end information indicating that it has been performed and transmitting it to the electronic blackboard 2 (another image processing apparatus) , Characterized in that the run.
According to this aspect, the stroke information is divided into fixed time units starting from the time when the electronic pen 4 enters the display screen, and the divided stroke information is continuously generated, and the stroke continues in the generated divided stroke information. When the electronic pen 4 leaves the display screen, the continuation information indicating that it is in the middle is added and transmitted to the second image processing unit 30. When the electronic pen 4 leaves the display screen, the generated divided stroke information indicates that the stroke has ended. Since the end information is added and transmitted to the electronic blackboard 2 (another image processing apparatus), even when the stroke information from when the electronic pen 4 enters the display screen to when it is released is divided into fixed time units, The stroke information divided into a plurality of pieces can be reproduced and handled as one piece of stroke information.

<第7態様>
本態様の電子黒板2(他の画像処理装置)は、電子黒板2(画像処理装置)から通信ネットワークを介して分割ストローク情報を受信する受信ステップ(S201)と、分割ストローク情報の受信開始から終了情報までの分割ストローク情報を結合して分割ストローク管理テーブル300a(第1の記憶手段)に保存する結合保存ステップ(S202)と、を実行することを特徴とする。
本態様によれば、通信ネットワークを介して分割ストローク情報を受信し、分割ストローク情報の受信開始から終了情報までの分割ストローク情報を結合して保存することで、受信開始から終了情報までの分割ストローク情報を一まとまりの情報として扱うことができる。
<Seventh aspect>
The electronic blackboard 2 (another image processing apparatus) according to this aspect receives the division stroke information from the electronic blackboard 2 (image processing apparatus) via the communication network (S201), and ends from the reception start of the division stroke information. A combined storage step (S202) is performed in which the divided stroke information up to the information is combined and stored in the divided stroke management table 300a (first storage means).
According to this aspect, the divided stroke information from the reception start to the end information is received by receiving the divided stroke information via the communication network and combining and storing the divided stroke information from the reception start to the end information of the divided stroke information. Information can be handled as a group of information.

<第8態様>
本態様のプログラムは、第6態様記載の各ステップをプロセッサに実行させることを特徴とするプログラム。
本態様によれば、各ステップをプロセッサに実行させることができる。
<Eighth aspect>
A program according to this aspect causes a processor to execute each step described in the sixth aspect.
According to this aspect, each step can be executed by the processor.

<第9態様>
本態様のプログラムは、第7態様記載の各ステップをプロセッサに実行させることを特徴とするプログラム。
本態様によれば、各ステップをプロセッサに実行させることができる。
<Ninth aspect>
A program according to this aspect causes a processor to execute each step described in the seventh aspect.
According to this aspect, each step can be executed by the processor.

1…画像処理システム、2…電子黒板、3…ディスプレイ、4…電子ペン、5…USBメモリ、6…ノートPC、7…テレビ会議端末、8…PC、9…通信ネットワーク、10a1…ケーブル、20…クライアント機、90…サーバ機、20…クライアント部、90…サーバ部、20…クライアント機、21…映像取得部、22…座標検知部、23…自動調整部、24…接触検知部、25…イベント振分部、26…操作処理部、27…ジェスチャ処理部28…映像重畳部、29…指判別部、29−1…指判別部、29−2…指入力開始待機タイマ、30…画像処理部、31…画像取得部、38…マーカー処理部、2…ストローク処理部、36…表示重畳部、33…UI画像生成部、34…背景生成部、35…レイアウト管理部、39…コンテキスト処理部、37…ページ処理部、40…ファイル処理部、41…リカバリ処理部、43…ファイル変換部、44…ファイル送信部、45…アドレス帳入力部、46…バックアップ処理部、47…バックアップ出力部、48…設定管理部、60…通信制御部、61…遠隔開始処理部、62…遠隔参加処理部、63…遠隔画像送信部、64…遠隔画像受信部、65…遠隔操作送信部、66…遠隔操作受信部、68…遠隔コンテキスト送信部、67…遠隔コンテキスト受信部、71…遠隔接続要求受信部、80…データ管理部、72…遠隔接続結果送信部、81…遠隔接続処理部、82…遠隔画像処理部、83…遠隔操作処理部、84…操作合成処理部、101…CPU、102…ROM、103…RAM、104…SSD、105…ネットワークコントローラ、106…外部記憶コントローラ、111…キャプチャデバイス、113…ディスプレイコントローラ、115…接触センサ、114…センサコントローラ、116…電子ペンコントローラ、112…GPU、120…バスライン、300…ページデータ記憶部、300a…分割ストローク管理テーブル、300b…ストローク管理テーブル、310…遠隔ライセンス管理テーブル、410…アドレス帳管理テーブル、420…バックアップデータ記憶部、430…設定ファイル記憶部、440…接続先管理テーブル、610…参加拠点管理テーブル、810…パスコード管理部、830…画像データ管理部、840…操作データ記憶部 DESCRIPTION OF SYMBOLS 1 ... Image processing system, 2 ... Electronic blackboard, 3 ... Display, 4 ... Electronic pen, 5 ... USB memory, 6 ... Notebook PC, 7 ... Video conference terminal, 8 ... PC, 9 ... Communication network, 10a1 ... Cable, 20 ... Client machine, 90 ... Server machine, 20 ... Client part, 90 ... Server part, 20 ... Client machine, 21 ... Video acquisition part, 22 ... Coordinate detection part, 23 ... Automatic adjustment part, 24 ... Contact detection part, 25 ... Event distribution unit, 26 ... operation processing unit, 27 ... gesture processing unit 28 ... video superimposition unit, 29 ... finger discrimination unit, 29-1 ... finger discrimination unit, 29-2 ... finger input start standby timer, 30 ... image processing , 31 ... Image acquisition unit, 38 ... Marker processing unit, 2 ... Stroke processing unit, 36 ... Display superimposition unit, 33 ... UI image generation unit, 34 ... Background generation unit, 35 ... Layout management unit, 39 ... Conte , Page processing unit, 40 ... file processing unit, 41 ... recovery processing unit, 43 ... file conversion unit, 44 ... file transmission unit, 45 ... address book input unit, 46 ... backup processing unit, 47 ... backup Output unit 48 ... Setting management unit 60 ... Communication control unit 61 ... Remote start processing unit 62 ... Remote participation processing unit 63 ... Remote image transmission unit 64 ... Remote image reception unit 65 ... Remote operation transmission unit 66 ... Remote operation receiving unit, 68 ... Remote context transmitting unit, 67 ... Remote context receiving unit, 71 ... Remote connection request receiving unit, 80 ... Data management unit, 72 ... Remote connection result transmitting unit, 81 ... Remote connection processing unit, 82 ... Remote image processing unit, 83 ... Remote operation processing unit, 84 ... Operation composition processing unit, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... SSD, 105 ... Network 106: External storage controller, 111 ... Capture device, 113 ... Display controller, 115 ... Contact sensor, 114 ... Sensor controller, 116 ... Electronic pen controller, 112 ... GPU, 120 ... Bus line, 300 ... Page data storage unit , 300a ... divided stroke management table, 300b ... stroke management table, 310 ... remote license management table, 410 ... address book management table, 420 ... backup data storage unit, 430 ... setting file storage unit, 440 ... connection destination management table, 610 ... Participating site management table, 810 ... passcode management unit, 830 ... image data management unit, 840 ... operation data storage unit

特開2009−218868公報JP 2009-218868 A

Claims (9)

表示手段と、
前記表示手段の表示画面に沿って移動することにより筆記操作を行う指示体と、
前記表示画面に沿って移動する前記指示体の各筆記座標を検知する座標検知手段と、
前記座標検知手段が検知した座標の座標情報に基づいて、前記筆記操作によるストロークについての座標情報をストローク情報として生成するストローク情報生成手段と、
前記指示体が前記表示画面に進入した時点を始点として一定時間単位で前記ストローク情報を分割して分割ストローク情報を連続して生成する分割生成手段と、
前記分割生成手段により生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して他の画像処理装置に送信する第1のストローク送信手段と、
前記指示体が前記表示画面から離脱した場合に、前記分割生成手段により生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して前記他の画像処理装置に送信する第2のストローク送信手段と、
を備えたことを特徴とする画像処理装置。
Display means;
An indicator for performing a writing operation by moving along the display screen of the display means;
Coordinate detection means for detecting each handwritten coordinate of the indicator that moves along the display screen;
Stroke information generating means for generating, as stroke information, coordinate information about a stroke by the writing operation based on coordinate information of coordinates detected by the coordinate detecting means;
A division generation unit that continuously generates divided stroke information by dividing the stroke information in units of a fixed time starting from a time when the indicator enters the display screen;
First stroke transmission means for adding continuation information indicating that the stroke is continuing to the divided stroke information generated by the division generation means and transmitting the information to another image processing apparatus;
When the indicator leaves the display screen, end information indicating the end of the stroke is added to the divided stroke information generated by the divided generation unit and transmitted to the other image processing apparatus. Stroke transmission means of
An image processing apparatus comprising:
請求項1に記載の画像処理装置と、他の画像処理装置と、を備えた画像処理システムであって、
前記他の画像処理装置は、
前記画像処理装置から通信ネットワークを介して前記分割ストローク情報を受信する受信手段と、
前記分割ストローク情報の受信開始から前記終了情報までの前記分割ストローク情報を結合して第1の記憶手段に保存する結合保存手段と、
を備えたことを特徴とする画像処理システム。
An image processing system comprising the image processing apparatus according to claim 1 and another image processing apparatus,
The other image processing apparatus includes:
Receiving means for receiving the divided stroke information from the image processing apparatus via a communication network;
A combined storage unit that combines the divided stroke information from the start of reception of the divided stroke information to the end information and stores the combined stroke information in a first storage unit;
An image processing system comprising:
前記結合保存手段は、
前記受信手段により新たに受信した前記分割ストローク情報に継続情報が付加されている場合には、前記第1の記憶手段に保存中の分割ストローク情報に前記新たな分割ストローク情報を結合して前記第1の記憶手段に保存することを特徴とする請求項2に記載の画像処理システム。
The binding storage means includes
In the case where continuation information is added to the divided stroke information newly received by the receiving means, the new divided stroke information is combined with the divided stroke information stored in the first storage means to The image processing system according to claim 2, wherein the image processing system is stored in one storage unit.
前記結合保存手段は、
前記受信手段により受信した前記分割ストローク情報に終了情報が付加されている場合には、前記第1の記憶手段に保存中の分割ストローク情報に前記新たな分割ストローク情報を結合し、前記結合後の一まとまりの分割ストローク情報をストローク情報として第2の記憶手段に保存することを特徴とする請求項3に記載の画像処理システム。
The binding storage means includes
When end information is added to the divided stroke information received by the receiving means, the new divided stroke information is combined with the divided stroke information stored in the first storage means, and 4. The image processing system according to claim 3, wherein a group of divided stroke information is stored in the second storage means as stroke information.
前記結合保存手段は、
前記ストローク情報を第2の記憶手段に保存した後に、前記第1の記憶手段に保存中の分割ストローク情報を全て削除することを特徴とする請求項4に記載の画像処理システム。
The binding storage means includes
5. The image processing system according to claim 4, wherein after the stroke information is stored in the second storage unit, all of the divided stroke information stored in the first storage unit is deleted.
請求項1に記載の画像処理装置による画像処理方法であって、
前記指示体が前記表示画面に進入した時点を始点として一定時間単位で前記ストローク情報を分割して分割ストローク情報を連続して生成する分割生成ステップと、
前記分割生成ステップにより生成された分割ストローク情報に当該ストロークが継続中であることを表す継続情報を付加して他の画像処理装置に送信する第1のストローク送信ステップと、
前記指示体が前記表示画面から離脱した場合に、前記分割生成ステップにより生成された分割ストローク情報に当該ストロークが終了したことを表す終了情報を付加して前記他の画像処理装置に送信する第2のストローク送信ステップと、を実行することを特徴とする画像処理方法。
An image processing method by the image processing apparatus according to claim 1,
A division generation step of continuously generating divided stroke information by dividing the stroke information in units of a fixed time starting from a time point when the indicator enters the display screen;
A first stroke transmission step of adding continuation information indicating that the stroke is continuing to the divided stroke information generated by the division generation step and transmitting the information to another image processing apparatus;
When the indicator leaves the display screen, end information indicating the end of the stroke is added to the divided stroke information generated by the divided generation step and transmitted to the other image processing apparatus. An image processing method comprising: performing a stroke transmission step of:
前記他の画像処理装置は、
前記画像処理装置から通信ネットワークを介して前記分割ストローク情報を受信する受信ステップと、
前記分割ストローク情報の受信開始から前記終了情報までの前記分割ストローク情報を結合して第1の記憶手段に保存する結合保存ステップと、を実行することを特徴とする請求項6に記載の画像処理方法。
The other image processing apparatus includes:
Receiving the divided stroke information from the image processing device via a communication network;
The image processing according to claim 6, further comprising: a combination storing step of combining the divided stroke information from the reception start of the divided stroke information to the end information and storing the combined stroke information in a first storage unit. Method.
請求項6に記載の各ステップをプロセッサに実行させることを特徴とするプログラム。   A program causing a processor to execute each step according to claim 6. 請求項7に記載の各ステップをプロセッサに実行させることを特徴とするプログラム。   A program for causing a processor to execute each step according to claim 7.
JP2014204798A 2014-10-03 2014-10-03 Image processing apparatus, image processing system, image processing method, and system Pending JP2016076775A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014204798A JP2016076775A (en) 2014-10-03 2014-10-03 Image processing apparatus, image processing system, image processing method, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014204798A JP2016076775A (en) 2014-10-03 2014-10-03 Image processing apparatus, image processing system, image processing method, and system

Publications (1)

Publication Number Publication Date
JP2016076775A true JP2016076775A (en) 2016-05-12

Family

ID=55950138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014204798A Pending JP2016076775A (en) 2014-10-03 2014-10-03 Image processing apparatus, image processing system, image processing method, and system

Country Status (1)

Country Link
JP (1) JP2016076775A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110244863A (en) * 2018-03-08 2019-09-17 和硕联合科技股份有限公司 Transmit the method and data transmission system of continuous data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110244863A (en) * 2018-03-08 2019-09-17 和硕联合科技股份有限公司 Transmit the method and data transmission system of continuous data
JP2019160296A (en) * 2018-03-08 2019-09-19 和碩聯合科技股▲ふん▼有限公司Pegatron Corporation Continuous data transmission method and data transmission system

Similar Documents

Publication Publication Date Title
JP6094550B2 (en) Information processing apparatus and program
US9754559B2 (en) Image processing apparatus
JP2016134014A (en) Electronic information board device, information processing method and program
JP6493546B2 (en) Electronic blackboard, storage medium, and information display method
WO2016121401A1 (en) Information processing apparatus and program
JP2016105241A (en) Image processor, image processing method, and program
US20180082663A1 (en) Information processing apparatus, image displaying method, and non-transitory computer readable medium
JP5846270B2 (en) Image processing system and information processing apparatus
US11294495B2 (en) Electronic whiteboard, method for image processing in electronic whiteboard, and recording medium containing computer program of electronic whiteboard
JP2017076207A (en) Image processing device and image processing system
JP6631643B2 (en) Image processing apparatus, image processing system, and image processing method
JP6036621B2 (en) System, information processing device
JP2016075976A (en) Image processing apparatus, image processing method, image communication system, and program
JP2016076775A (en) Image processing apparatus, image processing system, image processing method, and system
JP2022087633A (en) Display device, erasing method switching method, and program
JP2020154660A (en) Display device and display method
WO2015186453A1 (en) Coordinate detection device, image processing device, and coordinate detection method
JP7388159B2 (en) Display device, display method
JP7363064B2 (en) Image processing device, method, and program
JP7383959B2 (en) Display device, usage providing method, program, image processing system
WO2016121403A1 (en) Information processing apparatus, image processing system, and program