JP2011253307A - Information processing system and program - Google Patents

Information processing system and program Download PDF

Info

Publication number
JP2011253307A
JP2011253307A JP2010126129A JP2010126129A JP2011253307A JP 2011253307 A JP2011253307 A JP 2011253307A JP 2010126129 A JP2010126129 A JP 2010126129A JP 2010126129 A JP2010126129 A JP 2010126129A JP 2011253307 A JP2011253307 A JP 2011253307A
Authority
JP
Japan
Prior art keywords
information
object information
entry
coordinate
stroke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010126129A
Other languages
Japanese (ja)
Other versions
JP5640468B2 (en
Inventor
Yutaro Kotake
祐太郎 小竹
Kosuke Sugihara
弘祐 杉原
Masashi Imatsuji
諒志 今辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2010126129A priority Critical patent/JP5640468B2/en
Publication of JP2011253307A publication Critical patent/JP2011253307A/en
Application granted granted Critical
Publication of JP5640468B2 publication Critical patent/JP5640468B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing system capable of synchronizing handwritten strokes between PC devices and displaying the handwritten strokes without impairing operability, and a program for the system.SOLUTION: The information processing system includes a PC device, an input device electrically connected to the PC device, and a server device connected to the PC device through a communication network. First drawing means of the PC device performs drawing of a stroke on display means on the basis of entry information transmitted from the input device, and second drawing means of the PC device performs drawing on the display means on the basis of object information received from the server device by object information reception means. When the first drawing means performs drawing of a handwritten stroke on the basis of the entry information, the second drawing means delays drawing on the basis of the object information until drawing of the handwritten stroke is completed.

Description

本発明は、遠隔にあるPC装置間で手書きストロークの情報を共有する技術に関する。
近年、記入した情報を電子化する電子ペンが開発されており、その代表的なものとしてスウェーデンのAnoto社が開発した「アノトペン(Anoto pen)」が知られている。アノトペンは、所定のドットパターンが印刷された専用紙とともに使用される。アノトペンは、ペン先部に、文字等を書くための通常のインクカートリッジに加えて、専用紙に印刷されたドットパターンを撮像するための小型カメラと、撮像したドットパターンから専用紙における位置座標を演算するプロセッサと、演算された位置座標等を外部機器へ送信するデータ通信ユニットとを搭載している。ユーザが専用紙上にアノトペンで文字等を書いたり、専用紙上に図案化されている画像にチェックマークを記入したりすると、ペンの移動に伴って小型カメラが専用紙に印刷されたドットパターンを撮像し、プロセッサによって演算された連続する位置座標から、ユーザが書き込んだ文字、画像などの記入情報が認識される。そして、この記入情報が、データ通信ユニットによりアノトペンから近くのパーソナルコンピュータや携帯電話などの端末装置に送信される(例えば、特許文献1参照)。
The present invention relates to a technique for sharing handwritten stroke information between remote PC devices.
In recent years, electronic pens that digitize written information have been developed, and “Anot pen” developed by Swedish company Anoto is known as a representative one. Anotopen is used with dedicated paper on which a predetermined dot pattern is printed. In addition to the usual ink cartridge for writing characters, etc., the anotopen has a small camera for capturing the dot pattern printed on the dedicated paper and the position coordinates on the dedicated paper from the captured dot pattern. A processor for calculating and a data communication unit for transmitting the calculated position coordinates and the like to an external device are mounted. When the user writes characters on the special paper with an anotopen or puts a check mark on the image designed on the special paper, the small camera captures the dot pattern printed on the special paper as the pen moves. The entry information such as characters and images written by the user is recognized from the continuous position coordinates calculated by the processor. Then, this entry information is transmitted from the Anotopen by the data communication unit to a nearby terminal device such as a personal computer or a mobile phone (for example, see Patent Document 1).

特許文献2には、会議支援機能のための紙ベースの会議サービス管理ツールが開示されている。具体的には、紙ベースのツールは、ストロークを生成するために使用されることが可能なデジタルペンを含み、このストロークは、デジタルペンから、会議支援機能を提供するサービスに送信される。また、紙ベースのツールは、下層に画像パターンを有するデジタルペーパーをさらに含む。デジタルペンは、下層にあるドットパターンを認識し、その位置情報を、Bluetooth接続を介してコンピュータに送信することによって、デジタルペーパーの上における自身の位置を定める。デジタルペーパーは、下層に画像パターンを有し、フリーフォーム描画パッドと、会議場所適合部分と、ユーザ適合部分とを含んでいる。デジタルペンは、下層にあるドットパターンを認識し、その位置情報を、Bluetooth接続を介してコンピュータに送信することによって、紙の上における自身の位置を定める。次に、ペンの位置およびタイムスタンプされたペンの移動経路が、特定の会議サービスに対応するコマンドにマッピングされる。さらに、デジタルペンは、ポインタモードと可視ストロークモードとの間のモード遷移のための、圧力で作動する切り替え機能を有する。また、特許文献3には、座標系を変換するための座標変換関数を求めることでキャリブレーションを実現する技術が開示されている。また、特許文献4には、ディスプレイの配置するための、デジタルペンで読取り可能なドットパターンが印刷された透明シートの積層構造について記載されている。   Patent Document 2 discloses a paper-based conference service management tool for a conference support function. Specifically, the paper-based tool includes a digital pen that can be used to generate a stroke, which is transmitted from the digital pen to a service that provides a conference support function. The paper-based tool further includes digital paper having an image pattern in the lower layer. The digital pen recognizes the underlying dot pattern and sends its position information to the computer via a Bluetooth connection to determine its position on the digital paper. The digital paper has an image pattern in the lower layer, and includes a free-form drawing pad, a meeting place matching portion, and a user matching portion. The digital pen recognizes the underlying dot pattern and sends its position information to the computer via the Bluetooth connection to determine its position on the paper. The pen location and time stamped pen travel path is then mapped to a command corresponding to a particular conference service. In addition, the digital pen has a pressure activated switching function for mode transition between pointer mode and visible stroke mode. Patent Document 3 discloses a technique for realizing calibration by obtaining a coordinate conversion function for converting a coordinate system. Further, Patent Document 4 describes a laminated structure of transparent sheets on which a dot pattern readable by a digital pen for printing is printed.

特表2003−511761号公報Japanese translation of PCT publication No. 2003-511761 特開2008−217782号公報JP 2008-217782 A 登録実用新案3151886号公報Registered Utility Model No. 3151886 特開2008−269545号公報JP 2008-269545 A

遠隔会議などでは、手書きストロークの情報をPC装置間で共有できるとユーザにとって便宜な場合がある。具体的には、手書きストロークの情報をPC装置間で円滑に共有可能なように、ネットワーク上にサーバ装置を設け、サーバ装置を介して手書きストロークの情報の授受を行い、手書きストロークの表示を同期させる情報処理システムが考えられる。この情報処理システムにおいて、PC装置は、接続された入力デバイスに基づき手書きストロークの記入中に他のPC装置のユーザの手書きストロークの情報を受信する場合がある。このとき、他のPC装置から受信した手書きストロークの情報に基づき表示を変更すると、入力デバイスにより筆記中の手書きストロークが消去されたり、入力デバイスによる筆記中に表示がちらついたりするという問題がある。そこで、本発明は、操作性を損なうことなく、手書きストロークをPC装置間で同期させて表示することが可能な情報処理システム、及びそのシステムに供するプログラムを提供することを目的とする。   In a remote conference or the like, it may be convenient for a user to share handwritten stroke information between PC devices. Specifically, a server device is provided on the network so that handwritten stroke information can be shared smoothly between PC devices, handwritten stroke information is exchanged via the server device, and handwritten stroke display is synchronized. An information processing system to be used is considered. In this information processing system, the PC device may receive information on the handwritten strokes of the users of other PC devices during the entry of the handwritten strokes based on the connected input device. At this time, if the display is changed based on the handwritten stroke information received from another PC device, there is a problem that the handwritten stroke being written is erased by the input device or the display is flickering while writing by the input device. Therefore, an object of the present invention is to provide an information processing system capable of displaying handwritten strokes in synchronization between PC apparatuses without impairing operability, and a program provided for the system.

本発明に係る情報処理システムは、PC装置と、前記PC装置に電気的に接続し、手書きストロークに関する記入情報を生成する入力デバイスと、前記PC装置と通信網を介して接続するサーバ装置と、を備える情報処理システムであって、前記PC装置は、表示手段と、前記入力デバイスから前記記入情報を受信する記入情報受信手段と、前記記入情報に基づき前記表示手段に描画を行う第1描画手段と、前記サーバ装置から手書きストロークの1ストロークごとの描画に関する情報であるオブジェクト情報を受信するオブジェクト情報受信手段と、前記オブジェクト情報受信手段により受信したオブジェクト情報に基づき前記表示手段に描画を行う第2描画手段と、を備え、前記第2描画手段は、前記第1描画手段が前記記入情報に基づき手書きストロークの描画を行っている場合、当該手書きストロークの描画が完了するまで前記オブジェクト情報に基づく描画を遅延させる。   An information processing system according to the present invention includes a PC device, an input device that is electrically connected to the PC device and generates entry information related to a handwritten stroke, a server device that is connected to the PC device via a communication network, An information processing system comprising: display means; entry information receiving means for receiving the entry information from the input device; and first drawing means for drawing on the display means based on the entry information. And object information receiving means for receiving object information, which is information related to drawing of each handwritten stroke from the server device, and drawing on the display means based on the object information received by the object information receiving means. Drawing means, wherein the second drawing means is based on the entry information. If the product has been drawn handwritten strokes, delaying the rendering based on the object information to the drawing of the handwritten stroke is completed.

本情報処理システムによれば、PC装置の第1描画手段は、入力デバイスから送信された記入情報に基づき表示手段にストロークの描画を行い、PC装置の第2描画手段は、オブジェクト情報受信手段によりサーバ装置から受信した手書きストロークに関するオブジェクト情報に基づき表示手段に描画を行う。ここで、第2描画手段は、第1描画手段が記入情報に基づき手書きストロークの描画を行っている場合、当該手書きストロークの描画が完了するまでオブジェクト情報に基づく描画を遅延させる。このようにすることで、PC装置は、入力デバイスによりユーザが記入中に、サーバ装置から受信したオブジェクト情報に基づき表示を更新するのを防ぎ、手書きストロークを記入中での表示のちらつきや手書きストロークの消去を抑制することができる。従って、上記の情報処理システムによれば、操作性を損なうことなく、手書きストロークをPC装置間で同期させて表示することが可能となる。   According to the information processing system, the first drawing unit of the PC device draws a stroke on the display unit based on the entry information transmitted from the input device, and the second drawing unit of the PC device is operated by the object information receiving unit. Drawing is performed on the display means based on the object information relating to the handwritten stroke received from the server device. Here, when the first drawing means is drawing the handwritten stroke based on the entry information, the second drawing means delays the drawing based on the object information until the drawing of the handwritten stroke is completed. By doing in this way, the PC device prevents the display from being updated based on the object information received from the server device while the user is filling in with the input device, and the display flickering or handwriting stroke while writing the handwritten stroke. Can be suppressed. Therefore, according to the information processing system described above, it is possible to display handwritten strokes in synchronization between the PC devices without impairing operability.

上記の情報処理システムの一態様では、前記PC装置は、前記記入情報に基づき、前記手書きストロークの1ストロークごとにオブジェクト情報を生成するオブジェクト情報生成手段と、前記サーバ装置に前記オブジェクト情報を送信するオブジェクト情報送信手段と、前記サーバ装置に対し所定間隔ごとに他のPC装置から送信されたオブジェクト情報の有無の問い合わせを行うオブジェクト情報問い合わせ手段と、をさらに備え、前記オブジェクト情報受信手段は、前記他のPC装置から送信されたオブジェクト情報が前記サーバ装置に存在する場合、当該オブジェクト情報を、前記サーバ装置から受信する。この態様では、情報処理システムにおける各PC装置は、サーバ装置からオブジェクト情報の授受を円滑に行うことができ、手書きストロークを同期して表示することができる。   In one aspect of the information processing system, the PC device transmits object information to the server device and object information generation means for generating object information for each stroke of the handwritten stroke based on the entry information. Object information sending means, and object information inquiry means for making an inquiry about the presence or absence of object information sent from another PC device at predetermined intervals to the server device, wherein the object information receiving means When the object information transmitted from the PC device exists in the server device, the object information is received from the server device. In this aspect, each PC device in the information processing system can smoothly exchange object information from the server device, and can display handwritten strokes synchronously.

上記の情報処理システムの他の一態様では、前記表示手段は、複数のページを表示し、前記オブジェクト情報は、前記記入情報から特定されたページ番号を含み、前記第2描画手段は、前記オブジェクト情報に含まれるページ番号と、前記表示手段により表示中のページのページ番号とが一致する場合に、当該オブジェクト情報について前記オブジェクト情報に基づく描画を行う。この態様では、PC装置は、表示手段により表示されるページが複数ある場合に、オブジェクト情報に含まれるページ番号に基づき、当該オブジェクト情報に相当する手書きストロークを描画すべきか否か的確に判断することができる。   In another aspect of the information processing system, the display unit displays a plurality of pages, the object information includes a page number specified from the entry information, and the second drawing unit includes the object When the page number included in the information matches the page number of the page being displayed by the display means, the object information is drawn based on the object information. In this aspect, when there are a plurality of pages displayed by the display unit, the PC device accurately determines whether or not the handwritten stroke corresponding to the object information should be drawn based on the page number included in the object information. Can do.

上記の情報処理システムの他の一態様では、前記オブジェクト情報は、前記記入情報から特定された線種情報を含み、前記第2描画手段は、当該オブジェクト情報について前記線種情報に基づき前記オブジェクト情報に基づく描画を行う。ここで、「線種情報」とは、PC装置の表示手段に描画される手書きストロークの線幅、線色などが該当する。このように、オブジェクト情報に線種情報を含めることで、手書きストロークの線種も含めて各PC装置の表示を同期させることができる。   In another aspect of the information processing system, the object information includes line type information specified from the entry information, and the second drawing unit is configured to perform the object information on the object information based on the line type information. Draw based on. Here, “line type information” corresponds to the line width, line color, etc. of the handwritten stroke drawn on the display means of the PC device. Thus, by including the line type information in the object information, it is possible to synchronize the display of each PC device including the line type of the handwritten stroke.

上記の情報処理システムの他の一態様では、前記入力デバイスは、コード化パターンが形成された入力用紙からコード化パターンを読み取る電子ペンであり、前記第2描画手段は、前記記入情報受信手段が受信した記入情報がペンアップを示す場合、当該記入情報を送信した電子ペンに対応する1ストローク分の手書きストロークの描画が完了したと判断する。このようにすることで、PC装置は、入力デバイスが電子ペンの場合に、受信したオブジェクト情報に基づき手書きストロークを描画するタイミングを的確に把握することができ、操作性の低下を抑制することができる。   In another aspect of the information processing system, the input device is an electronic pen that reads a coded pattern from an input sheet on which the coded pattern is formed, and the second drawing unit includes the entry information receiving unit. When the received entry information indicates pen-up, it is determined that the drawing of one stroke corresponding to the electronic pen that transmitted the entry information has been completed. By doing in this way, when the input device is an electronic pen, the PC device can accurately grasp the timing of drawing a handwritten stroke based on the received object information, and can suppress a decrease in operability. it can.

上記の情報処理システムの他の一態様では、前記入力デバイスはマウスであり、前記第2描画手段は、前記マウスの左クリックの押下が終了したと判断した場合、当該マウスに対応する1ストローク分の手書きストロークの描画が完了したと判断する。このようにすることで、PC装置は、入力デバイスがマウスの場合に、受信したオブジェクト情報に基づき手書きストロークを描画するタイミングを的確に把握することができ、操作性の低下を抑制することができる。   In another aspect of the information processing system described above, when the input device is a mouse and the second drawing unit determines that the left click of the mouse has been completed, the second drawing unit performs one stroke corresponding to the mouse. It is determined that the drawing of the handwritten stroke has been completed. By doing in this way, when the input device is a mouse, the PC device can accurately grasp the timing of drawing a handwritten stroke based on the received object information, and can suppress a decrease in operability. .

上記の情報処理システムの他の一態様では、前記オブジェクト情報生成手段は、前記手書きストロークの1ストロークに相当する各記入情報が示す座標点に基づき滑らかな曲線を生成し、当該曲線に基づきオブジェクト情報を生成する。このようにすることで、PC装置は、受信したオブジェクト情報に基づき手書きストロークを滑らかな曲線で描画することができる。   In another aspect of the information processing system, the object information generation unit generates a smooth curve based on coordinate points indicated by each entry information corresponding to one stroke of the handwritten stroke, and the object information based on the curve Is generated. In this way, the PC device can draw a handwritten stroke with a smooth curve based on the received object information.

上記の情報処理システムの他の一態様では、前記オブジェクト情報は、前記各記入情報が示す座標点の座標系から、前記表示手段により前記手書きストロークを表示する対象となるページを基準とした座標系に変換された前記曲線を構成する座標点の集合を含む。このように、PC装置は、手書きストロークを表示する対象となるページを基準とした座標系に曲線を構成する各座標点を変換することで、曲線を構成する各座標点のページ中での相対的な位置を規定することができる。従って、この態様では、PC装置は、表示手段の画面解像度が異なる他のPC装置によってオブジェクト情報が生成された場合であっても、位置ずれ等を生じることなくオブジェクト情報に基づき手書きストロークを適切に表示することができる。   In another aspect of the information processing system, the object information is a coordinate system based on a page on which the handwritten stroke is displayed by the display unit from a coordinate system of a coordinate point indicated by each entry information. A set of coordinate points constituting the curve converted into. In this way, the PC device converts each coordinate point constituting the curve into a coordinate system based on the page on which the handwritten stroke is to be displayed as a reference, so that each coordinate point constituting the curve is relative to the page. Specific positions can be defined. Therefore, in this aspect, even when the PC device generates object information by another PC device having a different screen resolution of the display means, the handwriting stroke is appropriately performed based on the object information without causing misalignment or the like. Can be displayed.

上記の情報処理システムの他の一態様では、前記第2描画手段は、前記オブジェクト情報に含まれる前記手書きストロークに相当する座標点を滑らかな曲線に変換後、前記表示手段に当該曲線の描画を行う。この態様によっても、PC装置は、受信したオブジェクト情報に基づき手書きストロークを滑らかな曲線で描画することができる。   In another aspect of the information processing system, the second drawing unit converts the coordinate point corresponding to the handwritten stroke included in the object information into a smooth curve, and then draws the curve on the display unit. Do. Also according to this aspect, the PC device can draw a handwritten stroke with a smooth curve based on the received object information.

上記の情報処理システムの他の一態様では、前記PC装置は、外部入力に基づき遠隔会議モードか否かの設定を切り替えるモード切替手段をさらに備え、前記オブジェクト情報受信手段は、前記遠隔会議モードの場合にのみ、オブジェクト情報を受信する。   In another aspect of the information processing system, the PC device further includes a mode switching unit that switches a setting as to whether or not the remote conference mode is set based on an external input, and the object information receiving unit is configured to switch the remote conference mode. Only when the object information is received.

本発明に係るプログラムは、手書きストロークに関する記入情報を生成する入力デバイスと電気的に接続し、かつ、通信網を介してサーバ装置と接続し、表示手段を備えるPC装置に搭載され実行されるプログラムであって、前記入力デバイスから前記記入情報を受信する記入情報受信手段、前記記入情報に基づき前記表示手段に描画を行う第1描画手段、前記サーバ装置から手書きストロークの1ストロークごとの描画に関する情報であるオブジェクト情報を受信するオブジェクト情報受信手段、前記オブジェクト情報受信手段により受信したオブジェクト情報に基づき前記表示手段に描画を行う第2描画手段、として前記PC装置を機能させ、前記第2描画手段は、前記第1描画手段が前記記入情報に基づき手書きストロークの描画を行っている場合、当該手書きストロークの描画が完了するまで前記オブジェクト情報に基づく描画を遅延させる。   The program according to the present invention is a program that is electrically connected to an input device that generates entry information related to handwritten strokes, is connected to a server device via a communication network, and is installed and executed in a PC device that includes display means. Completion information receiving means for receiving the entry information from the input device, first drawing means for drawing on the display means based on the entry information, and information relating to drawing of each handwritten stroke from the server device The PC apparatus functions as an object information receiving means for receiving object information, and a second drawing means for drawing on the display means based on the object information received by the object information receiving means, wherein the second drawing means The first drawing means draws a handwritten stroke based on the entry information. If it is, delaying the rendering based on the object information to the drawing of the handwritten stroke is completed.

上記のプログラムの一態様では、前記記入情報に基づき、前記手書きストロークの1ストロークごとにオブジェクト情報を生成するオブジェクト情報生成手段、前記サーバ装置に前記オブジェクト情報を送信するオブジェクト情報送信手段、前記サーバ装置に対し所定間隔ごとに他のPC装置から送信されたオブジェクト情報の有無の問い合わせを行うオブジェクト情報問い合わせ手段、としてさらに前記PC装置を機能させ、前記オブジェクト情報受信手段は、前記他のPC装置から送信されたオブジェクト情報が前記サーバ装置に存在する場合、当該オブジェクト情報を、前記サーバ装置から受信する。   In one aspect of the program, object information generating means for generating object information for each stroke of the handwritten stroke based on the entry information, object information transmitting means for transmitting the object information to the server apparatus, and the server apparatus The PC device further functions as an object information inquiry means for inquiring the presence / absence of object information transmitted from another PC device at predetermined intervals, and the object information receiving means transmits from the other PC device. When the object information that has been set exists in the server device, the object information is received from the server device.

上記のプログラムの他の一態様では、前記表示手段は、複数のページを表示し、前記オブジェクト情報は、前記記入情報から特定されたページ番号を含み、前記第2描画手段は、前記オブジェクト情報に含まれるページ番号と、前記表示手段により表示中のページのページ番号とが一致する場合に、当該オブジェクト情報について前記描オブジェクト情報に基づく画を行う。   In another aspect of the program, the display unit displays a plurality of pages, the object information includes a page number specified from the entry information, and the second drawing unit includes the object information. When the included page number matches the page number of the page being displayed by the display means, an image based on the drawing object information is performed on the object information.

上記のプログラムの他の一態様では、前記オブジェクト情報は、前記記入情報から特定された線種情報を含み、前記第2描画手段は、当該オブジェクト情報について前記線種情報に基づき前記オブジェクト情報に基づく描画を行う。   In another aspect of the program, the object information includes line type information specified from the entry information, and the second drawing unit is based on the object information based on the line type information for the object information. Draw.

上記のプログラムの他の一態様では、前記入力デバイスは、コード化パターンが形成された入力用紙からコード化パターンを読み取る電子ペンであり、前記第2描画手段は、前記記入情報受信手段が受信した記入情報がペンアップを示す場合、当該記入情報を送信した電子ペンに対応する1ストローク分の手書きストロークの描画が完了したと判断する。   In another aspect of the program, the input device is an electronic pen that reads an encoded pattern from an input sheet on which the encoded pattern is formed, and the second drawing unit is received by the entry information receiving unit. When the entry information indicates pen-up, it is determined that the drawing of one stroke corresponding to the electronic pen that transmitted the entry information has been completed.

上記のプログラムの他の一態様では、前記入力デバイスはマウスであり、前記第2描画手段は、前記マウスの左クリックの押下が終了したと判断した場合、当該マウスに対応する1ストローク分の手書きストロークの描画が完了したと判断する。   In another aspect of the above program, when the input device is a mouse, and the second drawing means determines that the left click of the mouse has been pressed, handwriting for one stroke corresponding to the mouse is performed. It is determined that stroke drawing has been completed.

上記のプログラムの他の一態様では、前記オブジェクト情報生成手段は、前記手書きストロークの1ストロークに相当する各記入情報が示す座標点に基づき滑らかな曲線を生成し、当該曲線に基づきオブジェクト情報を生成する。   In another aspect of the program, the object information generation unit generates a smooth curve based on coordinate points indicated by each entry information corresponding to one stroke of the handwritten stroke, and generates object information based on the curve. To do.

上記のプログラムの他の一態様では、前記オブジェクト情報は、前記各記入情報が示す座標点の座標系から、前記表示手段により前記手書きストロークを表示する対象となるページを基準とした座標系に変換された前記曲線を構成する座標点の集合を含む。   In another aspect of the program, the object information is converted from a coordinate system of coordinate points indicated by the entry information into a coordinate system based on a page on which the handwritten stroke is displayed by the display unit. A set of coordinate points constituting the curved line.

上記のプログラムの他の一態様では、前記第2描画手段は、前記オブジェクト情報に含まれる前記手書きストロークに相当する座標点を滑らかな曲線に変換後、前記表示手段に当該曲線の描画を行う。   In another aspect of the above program, the second drawing unit converts the coordinate point corresponding to the handwritten stroke included in the object information into a smooth curve, and then draws the curve on the display unit.

上記のプログラムの他の一態様では、外部入力に基づき遠隔会議モードか否かの設定を切り替えるモード切替手段として前記PC装置をさらに機能させ、前記オブジェクト情報受信手段は、前記遠隔会議モードの場合にのみ、オブジェクト情報を受信する。   In another aspect of the program, the PC device is further functioned as a mode switching unit that switches a setting as to whether or not the remote conference mode is set based on an external input, and the object information receiving unit is configured to operate in the remote conference mode. Only receive object information.

これらのプログラムをPC装置にインストールして機能させることで、本発明に係る印刷システムを構成させることができる。   The printing system according to the present invention can be configured by installing these programs in a PC device and causing them to function.

本発明によれば、PC装置は、手書きストロークの情報をPC装置間で円滑に共有可能なように、ネットワーク上のサーバ装置から手書きストロークに関するオブジェクト情報の授受を行い、サーバ装置を介して他のPC装置との間で手書きストロークの表示を同期させることができる。また、PC装置は、入力デバイスから送信された記入情報に基づき手書きストロークの描画を行っている場合、当該手書きストロークの描画が完了するまでオブジェクト情報に基づく描画を遅延させることで、入力デバイスによりユーザが記入中に、サーバ装置から受信したオブジェクト情報に基づき表示を更新するのを防ぐことができる。従って、上記の情報処理システムによれば、手書きストロークの記入中に他のPC装置が生成したオブジェクト情報を受信した場合であっても、手書きストロークを記入中での表示がちらついたり、書き込み中の手書きストロークが消去されたりするのを防ぎ、操作性の低下を抑制することができる。よって、上記の情報処理システムによれば、操作性を損なうことなく、手書きストロークをPC装置間で同期させて表示することが可能となる。   According to the present invention, the PC device exchanges handwritten stroke object information from the server device on the network so that the handwritten stroke information can be smoothly shared between the PC devices. The handwritten stroke display can be synchronized with the PC device. Further, when the handwritten stroke is drawn based on the entry information transmitted from the input device, the PC device delays the drawing based on the object information until the drawing of the handwritten stroke is completed. Can be prevented from being updated based on the object information received from the server device. Therefore, according to the information processing system described above, even when the object information generated by another PC device is received during the entry of the handwritten stroke, the display during the entry of the handwritten stroke flickers or is being written. It is possible to prevent the handwritten stroke from being erased, and to suppress a decrease in operability. Therefore, according to the information processing system described above, it is possible to display handwritten strokes in synchronization between the PC devices without impairing operability.

第1実施形態における情報処理システムのシステム構成図である。It is a system configuration figure of the information processing system in a 1st embodiment. ドットパターンにおけるドットの配置と変換される値との関係を示す説明図である。It is explanatory drawing which shows the relationship between the arrangement | positioning of the dot in a dot pattern, and the value converted. (a)は、ドットパターンを模式的に示し、(b)は、それに対応する情報の例を示す図である。(A) shows a dot pattern typically, and (b) is a figure showing an example of information corresponding to it. 電子ペンの構造を示す概略図である。It is the schematic which shows the structure of an electronic pen. 電子ペンからPC装置へ送信する記入情報のデータ構造を模式的に示す図である。It is a figure which shows typically the data structure of the entry information transmitted to a PC apparatus from an electronic pen. 図5中に用いられている記号を説明した表である。It is the table | surface explaining the symbol used in FIG. PC装置及びサーバ装置の概略構成図である。It is a schematic block diagram of PC apparatus and a server apparatus. オブジェクト情報のデータ構造を模式的に示す図である。It is a figure which shows the data structure of object information typically. 座標定義情報のデータ構造を模式的に示す図であって、(a)は、PC装置2Aにより記憶される座標定義情報、(b)は、PC装置2Bにより記憶される座標定義情報、を例示した図である。It is a figure which shows the data structure of coordinate definition information typically, Comprising: (a) is the coordinate definition information memorize | stored by PC apparatus 2A, (b) illustrates the coordinate definition information memorize | stored by PC apparatus 2B. FIG. (a)は、ページ番号と背景画像の情報との関係を規定するデータベース、(b)は、線種変更指示エリアに対応する線幅の情報を規定するデータベースである。(A) is a database defining the relationship between page numbers and background image information, and (b) is a database defining line width information corresponding to the line type change instruction area. 入力デバイス、ペンID、記入状態、開始座標、終了座標が関連付けられたデータベースである。This is a database in which an input device, a pen ID, an entry state, a start coordinate, and an end coordinate are associated. オブジェクト情報、オブジェクト情報の送信元、及びオブジェクトIDが関連付けられたデータベースである。It is a database in which object information, a transmission source of object information, and an object ID are associated with each other. PC装置のディスプレイ上に表示される表示アプリケーションの表示例である。It is an example of a display of the display application displayed on the display of PC apparatus. 第1実施形態において、オブジェクト情報送信側の処理手順を示すフローチャートである。5 is a flowchart illustrating a processing procedure on the object information transmission side in the first embodiment. 第1実施形態において、リアルタイム描画処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of real-time drawing processing in the first embodiment. 第1実施形態において、オブジェクト情報の生成処理及び記憶処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of object information generation processing and storage processing in the first embodiment. 第1実施形態において、描画更新処理の手順を示すフローチャートである。5 is a flowchart illustrating a procedure of drawing update processing in the first embodiment. 第1実施形態において、表示更新処理の手順を示すフローチャートである。5 is a flowchart illustrating a procedure of display update processing in the first embodiment. 第1実施形態において、オブジェクト情報の照会及び受信処理の手順を示すフローチャートである。5 is a flowchart illustrating a procedure of object information inquiry and reception processing in the first embodiment. 描画対象線の表示例である。It is an example of a display of a drawing object line. 描画対象線の表示例である。It is an example of a display of a drawing object line. 座標点に基づき生成した曲線の概念図である。It is a conceptual diagram of the curve produced | generated based on the coordinate point. オブジェクト情報に基づき描画された曲線の表示例である。It is a display example of a curve drawn based on object information. 表示アプリケーション中の表示領域の表示例である。It is an example of a display of the display area in a display application. 表示アプリケーション中の表示領域の表示例である。It is an example of a display of the display area in a display application. 第1実施形態の変形例1に係るオブジェクト情報の生成処理及び記憶処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the production | generation process and storage process of object information which concern on the modification 1 of 1st Embodiment. 第1実施形態の変形例1に係る描画更新処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the drawing update process which concerns on the modification 1 of 1st Embodiment. 第1実施形態の変形例1に係る表示更新処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the display update process which concerns on the modification 1 of 1st Embodiment. 第2実施形態における情報処理システムのシステム構成図である。It is a system configuration figure of the information processing system in a 2nd embodiment. 第2実施形態におけるスクリーンの表示例を示す。The example of a display of the screen in 2nd Embodiment is shown. 第2実施形態において、オブジェクト情報の照会及び受信処理の手順を示すフローチャートである。In 2nd Embodiment, it is a flowchart which shows the procedure of the inquiry and reception process of object information. 第3実施形態における情報処理システムのシステム構成図である。It is a system configuration figure of an information processing system in a 3rd embodiment. 第4実施形態におけるPC装置のディスプレイ上での表示アプリケーションの表示例を示す。The example of a display of the display application on the display of PC apparatus in 4th Embodiment is shown. 第4実施形態において、オブジェクト情報の照会及び受信処理の手順を示すフローチャートである。In a 4th embodiment, it is a flow chart which shows a procedure of inquiry and reception processing of object information.

以下、図面を参照しながら、本発明の実施の形態である第1実施形態乃至第5実施形態について順に説明する。   Hereinafter, first to fifth embodiments, which are embodiments of the present invention, will be described in order with reference to the drawings.

<第1実施形態>
まず、本発明に係る第1実施形態について説明する。
<First Embodiment>
First, a first embodiment according to the present invention will be described.

[情報処理システムの構成]
図1は、第1実施形態に係る情報処理システム10の構成を示す。図1に示すように、第1実施形態に係る情報処理システム10は、ユーザが使用する電子ペン1(1A、1B、1C)と、ドットパターンが印刷されている入力用紙4(4A、4B)及び指示用紙5(5A、5B)と、電子ペン1から記入情報等を受信して処理するPC(Personal Computer)装置2(2A、2B)と、PC装置2とインターネットなどの通信網を介して通信を行うサーバ装置3とを備える。
[Configuration of information processing system]
FIG. 1 shows a configuration of an information processing system 10 according to the first embodiment. As shown in FIG. 1, the information processing system 10 according to the first embodiment includes an electronic pen 1 (1A, 1B, 1C) used by a user and an input paper 4 (4A, 4B) on which a dot pattern is printed. And an instruction sheet 5 (5A, 5B), a PC (Personal Computer) device 2 (2A, 2B) that receives and processes the entry information from the electronic pen 1, and the PC device 2 via a communication network such as the Internet. And a server device 3 that performs communication.

図1では、このような情報処理システム10を遠隔会議システムに用いている。そして、電子ペン1の記入内容がサーバ装置3を介してPC装置2AとPC装置2Bとで同期される。以下、各構成要素について説明する。   In FIG. 1, such an information processing system 10 is used for a remote conference system. Then, the entry contents of the electronic pen 1 are synchronized between the PC device 2A and the PC device 2B via the server device 3. Hereinafter, each component will be described.

(入力用紙)
まず、入力用紙(電子ペン用用紙)4について説明する。会議資料として、1枚または複数枚の入力用紙4が作成される。入力用紙4には、入力エリア401が設定されており、プリンター(不図示)により、その略全面に後述する位置座標を示すドットパターン(コード化パターン)および後述する図10(a)で規定されるページ番号に対応する背景画像の絵柄が印刷される。ドットパターンは、電子ペン1により読み取ることができるように赤外線を吸収するカーボンを含んだインクにより印刷される。また、入力エリア401には、入力用紙4のページ番号ごとに、ページ番号に割り当てられたドットパターンが印刷される。背景画像は、印刷されたドットパターンの上に、電子ペン1によるドットパターンの読み取りを阻害しないよう、赤外域に吸収性を持たないインクにより印刷される。なお、背景画像の上に、ドットパターンが印刷されてもよい。
(Input paper)
First, the input paper (electronic pen paper) 4 will be described. As a meeting material, one or a plurality of input sheets 4 are created. An input area 401 is set on the input sheet 4 and is defined by a printer (not shown) with a dot pattern (coding pattern) indicating position coordinates to be described later and a later-described FIG. The background image corresponding to the page number to be printed is printed. The dot pattern is printed with an ink containing carbon that absorbs infrared rays so that the electronic pen 1 can read the dot pattern. Further, in the input area 401, for each page number of the input paper 4, a dot pattern assigned to the page number is printed. The background image is printed on the printed dot pattern with ink that does not absorb in the infrared region so as not to hinder reading of the dot pattern by the electronic pen 1. A dot pattern may be printed on the background image.

(指示用紙)
指示用紙5にも、入力用紙4と同様に、その略全面にドットパターンが印刷される。指示用紙5には、線種変更指示エリア(線種指示エリア)501、502が設定されており、PC装置2で描画するストロークの線種を電子ペン1で指示する用紙である。線種変更指示エリア501、502は、当該エリアをタップした電子ペン1に対し、PC装置2で描画する入力用紙4での筆記内容の線種を、後述する図10(b)の規定内容に従い変更するための指示エリアである。線種変更指示エリア501には、線幅「細」に対応付けられたドットパターンが印刷され、線種変更指示エリア502には、線幅「太」に対応付けられたドットパターンが印刷される。さらに、指示用紙5には、に指示エリアを区切る枠線や線種を表す文字が、赤外域に吸収性を持たないインクにより印刷される。
(Instruction sheet)
Similar to the input paper 4, a dot pattern is also printed on the instruction paper 5 on substantially the entire surface thereof. In the instruction sheet 5, line type change instruction areas (line type instruction areas) 501 and 502 are set, and the electronic pen 1 instructs the line type of a stroke drawn by the PC device 2. The line type change instruction areas 501 and 502 indicate the line type of the writing content on the input paper 4 drawn by the PC device 2 for the electronic pen 1 tapping the area in accordance with the specified content of FIG. This is an instruction area for changing. In the line type change instruction area 501, a dot pattern associated with the line width “thin” is printed, and in the line type change instruction area 502, a dot pattern associated with the line width “thick” is printed. . Furthermore, on the instruction sheet 5, characters representing a frame line and a line type that divide the instruction area are printed with ink that does not absorb in the infrared region.

(ドットパターン)
続いて、入力用紙4や指示用紙5に印刷されたアノト方式のドットパターン(コード化パターン)について図2及び図3を用いて説明する。図2は、ドットパターンのドットとそのドットが変換される値との関係を説明する図である。図2に示すように、ドットパターンの各ドットは、その位置によって所定の値に対応付けられている。すなわち、ドットの位置を仮想格子の基準位置(縦線及び横線の交差点)から上下左右のどの方向にシフトするかによって、各ドットは、0〜3の値に対応付けられている。また、各ドットの値は、さらに、X座標用の第1ビット値及びY座標用の第2ビット値に変換できる。このようにして対応付けられた情報の組合せにより、入力用紙4や指示用紙5の位置座標が決定されるよう構成されている。なお、入力用紙4と指示用紙5とでは座標領域が重ならないようドットパターンが形成される。
(Dot pattern)
Next, an Anoto dot pattern (coded pattern) printed on the input paper 4 and the instruction paper 5 will be described with reference to FIGS. FIG. 2 is a diagram for explaining the relationship between dots of a dot pattern and values to which the dots are converted. As shown in FIG. 2, each dot of the dot pattern is associated with a predetermined value depending on its position. That is, each dot is associated with a value of 0 to 3 depending on which direction the top, bottom, left, or right is shifted from the reference position of the virtual grid (the intersection of the vertical and horizontal lines). The value of each dot can be further converted into a first bit value for the X coordinate and a second bit value for the Y coordinate. The position coordinates of the input sheet 4 and the instruction sheet 5 are determined by the combination of the information thus associated. A dot pattern is formed on the input paper 4 and the instruction paper 5 so that the coordinate areas do not overlap.

図3(a)は、あるドットパターンの配列を示している。図3(a)に示すように、縦横約2mmの範囲内に6×6個のドットが、入力用紙4や指示用紙5上のどの部分から6×6ドットを取ってもユニークなパターンとなるように配置されている。これら36個のドットにより形成されるドットパターンは位置座標(例えば、そのドットパターンが入力用紙4や指示用紙5上のどの位置にあるのか)を保持している。図3(b)は、図3(a)に示す各ドットを、格子の基準位置からのシフト方向によって、図2に示す規則性に基づいて対応づけられた値に変換したものである。この変換は、ドットパターンの画像を撮影する電子ペン1によって行われる。   FIG. 3A shows an arrangement of a certain dot pattern. As shown in FIG. 3A, 6 × 6 dots within a range of about 2 mm in length and width form a unique pattern no matter what part of the input paper 4 or instruction paper 5 is taken. Are arranged as follows. The dot pattern formed by these 36 dots holds position coordinates (for example, where the dot pattern is on the input paper 4 or the instruction paper 5). FIG. 3B is a diagram in which each dot shown in FIG. 3A is converted into a value associated with the regularity shown in FIG. 2 according to the shift direction from the reference position of the lattice. This conversion is performed by the electronic pen 1 that captures an image of a dot pattern.

(電子ペン)
次に、電子ペン1について図4を用いて説明する。図4は、電子ペン1の構造を示す概略図である。図4に示すように、電子ペン1は、その筐体101の内部に、ペン部104、LED105、CMOSカメラ106、圧力センサ107、CPU等により構成されるプロセッサ108、ROMやRAMといったメモリ109、リアルタイムクロック110、アンテナ等により構成される通信ユニット111及びバッテリー112を備える。ペン部104の先端は、ペン先部103となっており、ユーザは、電子ペン1のペン先部103を入力用紙4や指示用紙5上に当接させて、ストローク(手書きストローク)を記入したり、タップ(ペン先部103による指示用紙5への軽叩)したりする。ここで、電子ペン1のペン先部103が入力用紙4等に最初に接触することを「ペンダウン」と呼び、接触している(当接している)状態からペン先部103が離れることを「ペンアップ」と呼ぶ。電子ペン1のペンダウンからペンアップまでの間に記入される軌跡が1つのストロークとなり、文字や図形等は、1つ又は複数個のストロークからなる。なお、ペン部104は、インクが充填されたものでなくともよい。
(Electronic pen)
Next, the electronic pen 1 will be described with reference to FIG. FIG. 4 is a schematic diagram showing the structure of the electronic pen 1. As shown in FIG. 4, the electronic pen 1 includes a pen unit 104, an LED 105, a CMOS camera 106, a pressure sensor 107, a processor 108 including a CPU, a memory 109 such as a ROM and a RAM, A communication unit 111 including a real time clock 110, an antenna, and the like, and a battery 112 are provided. The tip of the pen unit 104 is a pen point unit 103, and the user touches the pen point unit 103 of the electronic pen 1 on the input sheet 4 or the instruction sheet 5 and enters a stroke (handwritten stroke). Or tapping (tapping the instruction sheet 5 with the pen tip 103). Here, the first contact of the pen tip portion 103 of the electronic pen 1 with the input paper 4 or the like is referred to as “pen down”, and the removal of the pen tip portion 103 from the contacted (contacted) state “ Called “pen-up”. A trajectory written between the pen-down and pen-up of the electronic pen 1 is one stroke, and characters, figures, etc. are composed of one or a plurality of strokes. The pen unit 104 need not be filled with ink.

バッテリー112は電子ペン1内の各部品に電力を供給するためのものであり、例えば電子ペン1のキャップ(図示せず)の脱着により電子ペン1自体の電源のオン/オフを行うよう構成させてもよい。リアルタイムクロック110は、現在時刻(タイムスタンプ)を示す時刻情報を発信し、プロセッサ108に供給する。圧力センサ107は、ユーザが電子ペン1により入力用紙4等に文字やマークを書いたりタップしたりする際にペン先部103からペン部104を通じて与えられる圧力、即ち筆圧を検出し、その値をプロセッサ108へ伝送する。   The battery 112 is for supplying electric power to each component in the electronic pen 1. For example, the battery 112 is configured to turn on / off the electronic pen 1 itself by attaching and detaching a cap (not shown) of the electronic pen 1. May be. The real time clock 110 transmits time information indicating the current time (time stamp) and supplies the time information to the processor 108. The pressure sensor 107 detects the pressure applied through the pen unit 104 from the pen point unit 103 when the user writes or taps a character or mark on the input paper 4 or the like with the electronic pen 1, that is, the writing pressure. Is transmitted to the processor 108.

プロセッサ108は、圧力センサ107から与えられる筆圧データに基づいて、LED105及びCMOSカメラ106のスイッチのオン/オフを切替える。即ち、ユーザが電子ペン1で入力用紙4等に文字などを書くと、ペン先部103に筆圧がかかり、圧力センサ107によって所定値以上の筆圧が検出されたときに、プロセッサ108は、ユーザが記入を開始したと判定して、LED105及びCMOSカメラ106を作動させる。そして、通信ユニット111が、圧力センサ107により検出されたペンダウン情報(以後、「ペンダウン情報PD」と呼ぶ。)と、後述する電子ペン1の識別情報(以後、「ペンID」と呼ぶ。)とを関連付けて、記入情報としてPC装置2へ送信する。また、ユーザが1つのストロークを記入し終えて電子ペン1を入力用紙4等から離すと、圧力センサ107は、所定値以上の筆圧が検出されなくなることでペンアップを検出する。すると、通信ユニット111が、圧力センサ107により検出されたペンアップ情報(以後、「ペンアップ情報PU」と呼ぶ。)とペンIDとを関連付けて、記入情報としてPC装置2へ送信する。   The processor 108 switches on / off the switches of the LED 105 and the CMOS camera 106 based on the writing pressure data supplied from the pressure sensor 107. That is, when the user writes characters or the like on the input paper 4 or the like with the electronic pen 1, the pen pressure is applied to the pen tip portion 103, and when the pressure sensor 107 detects a writing pressure higher than a predetermined value, the processor 108 It is determined that the user has started entry, and the LED 105 and the CMOS camera 106 are activated. Then, the communication unit 111 detects pen down information (hereinafter referred to as “pen down information PD”) detected by the pressure sensor 107 and identification information (hereinafter referred to as “pen ID”) of the electronic pen 1 described later. Are transmitted to the PC device 2 as entry information. When the user finishes entering one stroke and moves the electronic pen 1 away from the input paper 4 or the like, the pressure sensor 107 detects a pen-up because the writing pressure exceeding a predetermined value is not detected. Then, the communication unit 111 associates the pen-up information detected by the pressure sensor 107 (hereinafter referred to as “pen-up information PU”) and the pen ID, and transmits the information as entry information to the PC device 2.

LED105とCMOSカメラ106は、電子ペン1のペン先部103付近に取り付けられており、筐体101におけるLED105及びCMOSカメラ106と対向する部分には、開口部102が形成されている。LED105は、入力用紙4上のペン先部103近傍に向けて赤外線を照明する。その領域は、ペン先部103が入力用紙4等に接触する位置とはわずかにずれている。CMOSカメラ106には、赤外線を透過し赤外線以外を遮断する赤外線フィルタが設けられており、CMOSカメラ106は、LED105によって照明された領域内におけるドットパターンを撮影し、そのドットパターンの画像データをプロセッサ108に供給する。ここで、カーボンは赤外線を吸収するため、LED105によって照射された赤外線は、ドットに含まれるカーボンによって吸収される。そのため、ドットの部分は、赤外線の反射量が少なく、ドット以外の部分は赤外線の反射量が多い。CMOSカメラ106の撮影により、赤外線の反射量の違いから閾値を設けることによって、カーボンを含むドットの領域とそれ以外の領域を区別することができる。したがって、入力用紙4に背景画像が印刷されていた場合でも、印刷したインクは赤外域に吸収性を持たないため、プロセッサ108は、ドットパターンを認識することができる。CMOSカメラ106の受光面側に、ノイズを低減して座標検出の精度性を高めるため、赤外光を選択的に透過する赤外線透過フィルタを備えてもよい。なお、CMOSカメラ106による撮影領域は、図3(a)に示すような約2mm×約2mmの大きさを含む範囲であり、CMOSカメラ106の撮影は毎秒50〜100回程度の定間隔で行われる。   The LED 105 and the CMOS camera 106 are attached near the pen tip portion 103 of the electronic pen 1, and an opening 102 is formed in a portion of the housing 101 that faces the LED 105 and the CMOS camera 106. The LED 105 illuminates infrared rays toward the vicinity of the pen tip portion 103 on the input paper 4. The area is slightly shifted from the position where the pen tip 103 contacts the input paper 4 or the like. The CMOS camera 106 is provided with an infrared filter that transmits infrared rays and blocks non-infrared rays. The CMOS camera 106 captures a dot pattern in an area illuminated by the LED 105 and processes image data of the dot pattern as a processor. 108. Here, since carbon absorbs infrared rays, the infrared rays irradiated by the LED 105 are absorbed by the carbon contained in the dots. Therefore, the dot portion has a small amount of infrared reflection, and the portion other than the dot has a large amount of infrared reflection. By photographing with the CMOS camera 106, a threshold value is provided based on the difference in the amount of reflected infrared light, so that a dot region containing carbon can be distinguished from other regions. Therefore, even when a background image is printed on the input paper 4, the printed ink does not absorb in the infrared region, so the processor 108 can recognize the dot pattern. In order to reduce noise and improve the accuracy of coordinate detection, an infrared transmission filter that selectively transmits infrared light may be provided on the light receiving surface side of the CMOS camera 106. Note that the shooting area by the CMOS camera 106 is a range including a size of about 2 mm × about 2 mm as shown in FIG. 3A, and the shooting by the CMOS camera 106 is performed at regular intervals of about 50 to 100 times per second. Is called.

プロセッサ108は、ユーザの記入が行われる間、CMOSカメラ106によって供給される画像データのドットパターンから、ユーザが記入するストローク(筆跡)の入力用紙4等におけるX、Y座標(以後、単に「座標データ」または「座標情報」とも呼ぶ。)を連続的に演算していく。すなわち、プロセッサ108は、CMOSカメラ106によって供給される、図3(a)に示されるようなドットパターンの画像データを図3(b)に示すデータ配列に変換し、さらに、X座標ビット値・Y座標ビット値に変換して、そのデータ配列から所定の演算方法によりX、Y座標データを演算する。そして、プロセッサ108は、リアルタイムクロック110から発信される現在時刻(タイムスタンプ:記入された時刻情報)、筆圧データ及びX、Y座標データを関連付ける。以後、これらの関連付けたデータを、まとめて「座標属性情報」と呼ぶ。なお、入力用紙4等における6×6のドットパターンは、入力用紙4内で重複することはないため、ユーザが電子ペン1で文字等を記入すると、記入された位置が入力用紙4等のどの位置に当たるかを、プロセッサ108による座標演算により特定することができる。   While the user performs the entry, the processor 108 uses the dot pattern of the image data supplied by the CMOS camera 106 to determine the X and Y coordinates (hereinafter referred to simply as “coordinates”) on the input sheet 4 of the stroke (handwriting) to be entered by the user. Data "or" coordinate information ") is calculated continuously. That is, the processor 108 converts the image data of the dot pattern as shown in FIG. 3A supplied by the CMOS camera 106 into the data array shown in FIG. The data is converted into a Y coordinate bit value, and X and Y coordinate data are calculated from the data array by a predetermined calculation method. Then, the processor 108 associates the current time (time stamp: entered time information) transmitted from the real-time clock 110, writing pressure data, and X and Y coordinate data. Hereinafter, these associated data are collectively referred to as “coordinate attribute information”. Since the 6 × 6 dot pattern on the input sheet 4 or the like does not overlap in the input sheet 4, when the user enters characters or the like with the electronic pen 1, Whether it corresponds to the position can be specified by coordinate calculation by the processor 108.

メモリ109には、電子ペン1を識別するための「pen01」といったペンID、ペン製造者番号、ペンソフトウェアのバージョン等のプロパティ情報が記憶されている。そして、通信ユニット111は、ペンIDと、時刻情報(タイムスタンプ)と、筆圧データと、X、Y座標データとを関連付けて、記入情報としてPC装置2へ送信する。通信ユニット111によるPC装置2への送信は、Bluetooth(登録商標)などの無線送信によって、即時的かつ逐次的に行われる。ここで、電子ペン1のペンダウンからペンアップまでの間に生成されてPC装置2に送信された1個又は複数個の座標属性情報は、PC装置2によりストローク情報として記憶される。換言すると、1つのストロークは、1個又は複数個のX、Y座標の組(以後、「座標点」とも呼ぶ。)からなり、PC装置2は、ペンダウン情報PD及びペンアップ情報PUによって、1つのストロークを構成する1個又は複数個の座標属性情報を認識する。   The memory 109 stores property information such as a pen ID such as “pen01” for identifying the electronic pen 1, a pen manufacturer number, and a pen software version. Then, the communication unit 111 associates the pen ID, time information (time stamp), writing pressure data, and X and Y coordinate data, and transmits them to the PC device 2 as entry information. Transmission to the PC device 2 by the communication unit 111 is immediately and sequentially performed by wireless transmission such as Bluetooth (registered trademark). Here, one or more pieces of coordinate attribute information generated between the pen-down and pen-up of the electronic pen 1 and transmitted to the PC device 2 are stored as stroke information by the PC device 2. In other words, one stroke is composed of one or a plurality of sets of X and Y coordinates (hereinafter also referred to as “coordinate points”), and the PC device 2 uses the pen-down information PD and the pen-up information PU. One or more coordinate attribute information constituting one stroke is recognized.

次に、図5、図6を参照して、電子ペン1より送信される記入情報について説明する。図5は、電子ペン1により送信される記入情報を模式的に示した図である。なお、図6は、図5中に用いられている記号を説明した表である。ユーザが電子ペン1を用いて入力用紙4にストロークを記入する際、まず、電子ペン1を入力用紙4に接触させる。すると、電子ペン1の圧力センサ107によってペン先部103にかかる筆圧を検出する。電子ペン1のプロセッサ108は、圧力センサ107によって所定値以上の筆圧が検出されたと判断すると、電子ペン1の入力用紙4への接触を示すペンダウン情報PDと、電子ペン1の識別情報であるペンID等とを関連付けた記入情報を生成して、通信ユニット111に、その記入情報をPC装置2へ送信させる。ユーザは、電子ペン1のペン先部103の入力用紙4への接触後、ペン先部103を移動させてストロークを描くが、プロセッサ108も引き続き、演算により求めた座標情報(X,Y)と、圧力センサ107により検出される筆圧データ(P)、リアルタイムクロック110により発信された時刻情報(T)とを含む座標属性情報、及びペンIDを関連付けた記入情報を、CMOSカメラ106によるドットパターンの撮影周期に応じて、逐次生成し、通信ユニット111に当該記入情報を順次、PC装置2へ送信させる。ユーザがストロークを描き終え、電子ペン1を入力用紙4から離すと、圧力センサ107は筆圧を検出しなくなるため、プロセッサ108は、圧力センサ107によって所定値以上の筆圧が検出されなくなったと判断して、電子ペン1の入力用紙4への離脱を示すペンアップ情報PUと、電子ペン1の識別情報であるペンID等とを関連付けた記入情報を生成して、通信ユニット111に、その記入情報をPC装置2へ送信させる。このように、ユーザの一つのストロークの記入により、電子ペン1によって生成される座標属性情報の集合を「ストローク情報」と呼ぶ。   Next, the entry information transmitted from the electronic pen 1 will be described with reference to FIGS. FIG. 5 is a diagram schematically showing entry information transmitted by the electronic pen 1. FIG. 6 is a table explaining symbols used in FIG. When a user writes a stroke on the input paper 4 using the electronic pen 1, first, the electronic pen 1 is brought into contact with the input paper 4. Then, the pressure sensor 107 of the electronic pen 1 detects the writing pressure applied to the pen tip portion 103. When the processor 108 of the electronic pen 1 determines that the writing pressure equal to or higher than the predetermined value is detected by the pressure sensor 107, the pen down information PD indicating the contact of the electronic pen 1 with the input paper 4 and the identification information of the electronic pen 1 are provided. The entry information associated with the pen ID or the like is generated, and the communication unit 111 transmits the entry information to the PC device 2. After the user touches the input paper 4 of the pen tip portion 103 of the electronic pen 1, the user moves the pen tip portion 103 to draw a stroke. The processor 108 continues to obtain the coordinate information (X, Y) obtained by the calculation. , Coordinate attribute information including writing pressure data (P) detected by the pressure sensor 107, time information (T) transmitted by the real-time clock 110, and entry information in association with the pen ID, a dot pattern by the CMOS camera 106 The communication unit 111 sequentially generates the entry information according to the shooting period of time and causes the communication unit 111 to sequentially transmit the entry information to the PC device 2. When the user finishes drawing the stroke and moves the electronic pen 1 away from the input paper 4, the pressure sensor 107 does not detect the writing pressure. Therefore, the processor 108 determines that the writing pressure exceeding the predetermined value is not detected by the pressure sensor 107. Then, entry information in which the pen-up information PU indicating the removal of the electronic pen 1 to the input paper 4 and the pen ID which is the identification information of the electronic pen 1 are generated is generated, and the entry information is entered in the communication unit 111. Information is transmitted to the PC device 2. As described above, a set of coordinate attribute information generated by the electronic pen 1 when the user enters one stroke is referred to as “stroke information”.

(PC装置)
次に、PC装置2Aについて説明する。なお、PC装置2Bの構成はPC装置2Aと同様であるため、異なる点以外は、その説明を省略する。PC装置2Aは、ハードウェアとして、電子ペン1とのデータ通信が可能なアンテナ装置、CPU等のプロセッサ、ROMやRAMといったメモリ、ディスプレイ、マウスやキーボード等で構成されるパーソナルコンピュータ等で構成される。図7は、PC装置2Aの機能ブロック図である。PC装置2Aは、機能的には、マウスやキーボードといった入力手段21、受信手段22、処理手段24、記憶手段25、表示手段26、及び送信手段27を備える。PC装置2Aは、電子ペン1から受信した入力用紙4等に関する記入情報に基づいて所定の処理を行うものである。
(PC device)
Next, the PC device 2A will be described. Since the configuration of the PC device 2B is the same as that of the PC device 2A, the description thereof is omitted except for differences. The PC device 2 </ b> A includes, as hardware, an antenna device capable of data communication with the electronic pen 1, a processor such as a CPU, a memory such as ROM and RAM, a display, a personal computer including a mouse and a keyboard, and the like. . FIG. 7 is a functional block diagram of the PC device 2A. The PC device 2A functionally includes an input unit 21, such as a mouse or a keyboard, a receiving unit 22, a processing unit 24, a storage unit 25, a display unit 26, and a transmission unit 27. The PC device 2 </ b> A performs a predetermined process based on the entry information regarding the input sheet 4 received from the electronic pen 1.

受信手段22は、アンテナ受信回路等により構成され、電子ペン1から記入情報を受信したりサーバ装置3からオブジェクト情報を受信したりして、受信した情報を処理手段24に伝送する。表示手段26は、ディスプレイ等によって構成され、処理手段24によって指示された内容を表示する。送信手段27は、処理手段24の指示による入力用紙4及び指示用紙5の印刷指示(出力命令)をプリンターに送信する。また、送信手段27は、処理手段24によって指示された情報をサーバ装置に送信する。プリンターやサーバ装置3へのデータ送信方式は、有線式であっても無線式であってもよい。   The receiving means 22 is constituted by an antenna receiving circuit or the like, receives entry information from the electronic pen 1 or receives object information from the server device 3, and transmits the received information to the processing means 24. The display means 26 is constituted by a display or the like, and displays the contents instructed by the processing means 24. The transmission unit 27 transmits a print instruction (output command) for the input sheet 4 and the instruction sheet 5 according to an instruction from the processing unit 24 to the printer. Further, the transmission unit 27 transmits the information instructed by the processing unit 24 to the server device. The data transmission method to the printer or server device 3 may be wired or wireless.

処理手段24は、CPU等のプロセッサによって構成され、PC装置2Aの全体の制御を行う。具体的には、処理手段24は、図13で後述する表示アプリケーション6を実行することで、所定の背景画像に重畳して電子ペン1による入力エリア401A内への記入内容が描画されたページ(以後、単に「ページ」とも呼ぶ。)画像を、表示手段26に表示させる。各ページは、ページ番号を有し、後述する図10(a)に示すデータベースにより特定の背景画像と関連付けられている。また、処理手段24は、入力用紙4又は指示用紙5の印刷指示を検知した場合、後述する図9、図10に示すテーブル又はマップを参照して印刷情報を生成し、各印刷サイズに合った異なる座標領域を示すドットパターンを各用紙に割当てる。以後では、入力用紙4のうち入力エリア401に割当てられたドットパターンの座標領域又はその座標空間を、「入力エリア401の座標系」と呼ぶ。記入情報に含まれる座標情報は、入力エリア401の座標系により規定されている。   The processing means 24 is constituted by a processor such as a CPU and controls the entire PC device 2A. Specifically, the processing unit 24 executes a display application 6 described later with reference to FIG. 13, thereby superimposing a predetermined background image on a page (in which input content in the input area 401 </ b> A by the electronic pen 1 is drawn ( Hereinafter, it is also simply referred to as “page”.) The image is displayed on the display means 26. Each page has a page number and is associated with a specific background image by a database shown in FIG. When the processing unit 24 detects a print instruction for the input sheet 4 or the instruction sheet 5, the processing unit 24 generates print information with reference to tables or maps shown in FIGS. A dot pattern indicating a different coordinate area is assigned to each sheet. Hereinafter, the coordinate area of the dot pattern assigned to the input area 401 or the coordinate space of the input paper 4 is referred to as “the coordinate system of the input area 401”. The coordinate information included in the entry information is defined by the coordinate system of the input area 401.

また、電子ペン1によって、入力用紙4への記入の際にドットパターンを読み取ることによって生成された記入情報を、PC装置2Aが受信すると、処理手段24は、記入情報に含まれる座標情報から図9、図10に示すテーブル又はマップを参照してページ番号及び背景画像を特定して表示手段26にそのページを表示させ、記入情報に基づくストロークを当該ページに重ねて描画し表示手段26に表示させる。また、処理手段24は、ユーザによる入力手段21の操作により、記憶指示を検知すると、ストローク情報をそのページに組み込んで、新たな背景画像を生成して記憶手段25に保存する。   Further, when the PC device 2A receives the entry information generated by reading the dot pattern when filling in the input paper 4 with the electronic pen 1, the processing unit 24 calculates the figure from the coordinate information included in the entry information. 9. Referring to the table or map shown in FIG. 10, the page number and the background image are specified, the page is displayed on the display means 26, and the stroke based on the entry information is drawn on the page and displayed on the display means 26. Let Further, when the processing unit 24 detects the storage instruction by the operation of the input unit 21 by the user, the processing unit 24 incorporates the stroke information into the page, generates a new background image, and stores it in the storage unit 25.

なお、ストロークを表示するにあたって、処理手段24は、電子ペン1から受信した記入情報の中にペンダウン情報PDが含まれることを識別すると、最新のストローク情報を記憶するための記憶領域を記憶手段25に設定させる。そして、処理手段24は、受信した記入情報の中にペンアップ情報PUが含まれることを検出するまで、或いは、受信した記入情報の中に次のペンダウン情報PDが含まれることを検出するまで、受信した記入情報の中に含まれる座標属性情報を最新のストローク情報の一部として記憶手段25に記憶させる。   When displaying the stroke, when the processing unit 24 identifies that the pen-down information PD is included in the entry information received from the electronic pen 1, the storage unit 25 stores a storage area for storing the latest stroke information. To set. And until the processing means 24 detects that the pen-up information PU is included in the received entry information or until it detects that the next pen-down information PD is included in the received entry information, The coordinate attribute information included in the received entry information is stored in the storage means 25 as a part of the latest stroke information.

また、処理手段24は、ペンダウン情報PDを受信してからペンアップ情報PUを検出するまでに受信した座標属性情報に基づき、1ストローク単位でのストロークの描画に必要な情報(以後、「オブジェクト情報」と呼ぶ。)を生成する。具体的には、オブジェクト情報は、ストローク情報が示す各座標点が、所定の補間関数を用いて滑らかな曲線を描くように補間され、かつ、入力エリア401の座標系から、後述する背景画像の座標系に変換されたX、Y座標の集合を含む情報である。図8は、オブジェクト情報のデータ構造の一例を示す図である。図8に示すように、オブジェクト情報は、「ページ番号」と、所定の補間関数によりストローク情報から生成された曲線を構成する座標データの集合(以後、「曲線座標データ」と呼ぶ。)であって、入力エリア401の座標系から、当該入力エリア401に対応する背景画像(ページ)の座標系に変換されたX、Y座標の集合である「曲線座標データ」と、「ペンID」と、ストロークの線種を特定する情報である「線種情報」と、を有する。ここで、「背景画像の座標系」とは、表示アプリケーション6に表示された背景画像(ページ)を基準とした座標系であって、例えば背景画像の所定の点(例えば左上隅)を原点とし、当該背景画像内での相対的な位置を規定する座標系を指す。また、線種情報とは、具体的には、指示用紙5の線種変更指示エリア501、502への電子ペン1による操作に基づき定められた線幅の情報を示す。そして、処理手段24は、送信手段27により、処理手段24が生成したオブジェクト情報をサーバ装置3へ送信する。さらに、処理手段24は、サーバ装置3から、サーバ装置3が記憶しているオブジェクト情報を受信手段22により受信する。この具体的な説明については、[処理フロー]のセクションで詳しく説明する。   The processing means 24 also receives information necessary for drawing strokes in units of one stroke (hereinafter referred to as “object information”) based on the coordinate attribute information received from the time when the pen-down information PD is received until the pen-up information PU is detected. "). Specifically, the object information is interpolated so that each coordinate point indicated by the stroke information draws a smooth curve using a predetermined interpolation function, and the background image described later is input from the coordinate system of the input area 401. This is information including a set of X and Y coordinates converted into a coordinate system. FIG. 8 is a diagram illustrating an example of the data structure of the object information. As shown in FIG. 8, the object information is a “page number” and a set of coordinate data (hereinafter referred to as “curve coordinate data”) that constitutes a curve generated from stroke information by a predetermined interpolation function. Then, “curve coordinate data” which is a set of X and Y coordinates converted from the coordinate system of the input area 401 to the coordinate system of the background image (page) corresponding to the input area 401, “pen ID”, And “line type information” which is information for specifying the stroke line type. Here, the “background image coordinate system” is a coordinate system based on the background image (page) displayed in the display application 6, and for example, a predetermined point (for example, the upper left corner) of the background image is set as the origin. A coordinate system that defines a relative position in the background image. Further, the line type information specifically indicates information on the line width determined based on the operation of the electronic pen 1 on the line type change instruction areas 501 and 502 of the instruction sheet 5. Then, the processing unit 24 transmits the object information generated by the processing unit 24 to the server device 3 by the transmission unit 27. Further, the processing unit 24 receives the object information stored in the server device 3 from the server device 3 by the receiving unit 22. This specific description will be described in detail in the [Processing Flow] section.

記憶手段25は、ROMやRAMといったメモリによって構成される。記憶手段25は、表示アプリケーション6や、プリンターへの電子ペン用用紙の印刷指示を可能とするためのプリンタドライバ等のプログラムを記憶する。また、記憶手段25は、処理手段24の処理命令により、電子ペン1から受信した記入情報をペンID毎に記憶したり、プログラムの実行により生成される所定のデータを記憶したりする。   The storage unit 25 is configured by a memory such as a ROM or a RAM. The storage unit 25 stores a program such as a display application 6 and a printer driver for enabling an instruction to print electronic pen paper to the printer. In addition, the storage unit 25 stores the entry information received from the electronic pen 1 for each pen ID or the predetermined data generated by the execution of the program according to the processing instruction of the processing unit 24.

記憶手段25は、広範囲の座標領域のドットパターンに関する情報を有しており、処理手段24の指示により、各入力エリア401及び線種変更指示エリア501、502に割当てられたドットパターンの特定の座標領域に関する定義情報を記憶する。図9(a)は、PC装置2Aの記憶手段25に記憶され、各入力エリア401及び線種変更指示エリア501、502に関連付けて記憶される座標領域を含む情報(以後、「座標定義情報」とも呼ぶ。)を示すデータ構造である。図9(b)は、PC装置2Bの記憶手段25により記憶される座標定義情報を示すデータ構造である。図9(a)、(b)に示すように、印刷される各用紙に設定された各エリアに印刷されるドットパターンの座標領域に対して、ドットパターンアドレス、エリアの種別、ページ番号が対応付けられて記憶される。各入力エリア401及び線種変更指示エリア501、502に関連付けられるドットパターンの座標領域は、角の位置座標(Xn,Yn)、高さ(Y方向)、幅(X方向)で規定される。   The storage unit 25 has information regarding dot patterns in a wide range of coordinate areas, and specific coordinates of the dot patterns assigned to the input areas 401 and the line type change instruction areas 501 and 502 in accordance with instructions from the processing unit 24. Stores definition information about the area. FIG. 9A shows information including coordinate areas stored in the storage unit 25 of the PC device 2A and stored in association with each input area 401 and the line type change instruction areas 501 and 502 (hereinafter referred to as “coordinate definition information”). It is also called a data structure. FIG. 9B is a data structure showing coordinate definition information stored by the storage unit 25 of the PC device 2B. As shown in FIGS. 9A and 9B, the dot pattern address, the area type, and the page number correspond to the coordinate area of the dot pattern printed in each area set on each paper to be printed. Attached and memorized. The dot pattern coordinate area associated with each input area 401 and line type change instruction areas 501 and 502 is defined by corner position coordinates (Xn, Yn), height (Y direction), and width (X direction).

なお、ドットパターンは、予め記憶せずに、処理手段24によって所定のアルゴリズムにより生成されるようにしてもよい。また、座標定義情報は、表示アプリケーション6自体の指示により処理手段24が生成してもよいし、当該表示アプリケーション6の機能を拡張するために付加されたプラグインのプログラムの指示によって、処理手段24が生成するようにしてもよい。   The dot pattern may be generated by a predetermined algorithm by the processing unit 24 without being stored in advance. The coordinate definition information may be generated by the processing unit 24 according to an instruction from the display application 6 itself, or the processing unit 24 according to an instruction of a plug-in program added to extend the function of the display application 6. May be generated.

また、記憶手段25は、処理手段24の指示により、入力用紙4に印刷される1または複数の背景画像の1つを1ページとしたときの、各ページに対応するページ番号と、これに対応する背景画像の情報とを関連付けて記憶すると共に、各線種変更指示エリア501、502に対応する、表示手段26に表示するストロークの線幅の情報を記憶する。図10(a)は、各ページに対応するページ番号と、これに対応する背景画像の情報との関係を規定するデータベースの一例である。図10(a)に示すデータベースは、「ページ番号」と、背景画像のPC装置2中での保存名称を示す「背景画像」と、背景画像のサイズを示す「画像サイズ」とを有する。各ページ番号に対応する背景画像は、絵柄や文字又は記入枠として入力用紙4の入力エリア401に印刷される。背景画像は、白紙の絵柄であってもよい。背景画像は、例えば、図面、設計図、企画書、報告書などの会議資料における1ページ分の絵柄等に用いられる。例えば全15ページの会議資料からは、15の背景画像が生成されて、それぞれページ番号と画像サイズとが関連付けられる。図10(b)は、線種変更指示エリア501、502に対応する線幅の情報を規定するデータベースの一例である。図10(b)に示すデータベースは、線種変更指示が「細」か「太」かを示す「線種変更指示エリア」と、その線種変更指示エリアにより設定される線幅のポイント数を示す「線幅」とを有する。   Further, the storage means 25 corresponds to the page number corresponding to each page when one of the one or more background images printed on the input paper 4 is set as one page according to the instruction of the processing means 24. The information of the background image to be stored is stored in association with each other, and the stroke width information displayed on the display unit 26 corresponding to each of the line type change instruction areas 501 and 502 is stored. FIG. 10A is an example of a database that defines the relationship between the page number corresponding to each page and the background image information corresponding thereto. The database shown in FIG. 10A includes a “page number”, a “background image” indicating a storage name of the background image in the PC device 2, and an “image size” indicating the size of the background image. The background image corresponding to each page number is printed in the input area 401 of the input sheet 4 as a picture, a character, or an entry frame. The background image may be a blank pattern. The background image is used for, for example, a picture of one page in a conference material such as a drawing, a design drawing, a plan document, and a report. For example, 15 background images are generated from all 15 pages of conference materials, and the page number and the image size are associated with each other. FIG. 10B is an example of a database that defines line width information corresponding to the line type change instruction areas 501 and 502. The database shown in FIG. 10B includes a “line type change instruction area” indicating whether the line type change instruction is “thin” or “thick”, and the number of points of the line width set by the line type change instruction area. “Line width” shown.

ここで、図9(a)、(b)に示す座標定義情報の具体例について補足説明する。線種変更指示エリア501と線種変更指示エリア502とは、同一の指示用紙5に印刷されるため、同一のドットパターンアドレス「10.30.19.1」に関連付けられた、異なる座標領域のドットパターンが割り当てられている。線幅「細」の線種変更指示エリア501には、座標領域「(x8,y8)、H8、W8」のドットパターンが割り当てられ、線幅「太」の線種変更指示エリア502には、「(x9,y9)、H9、W9」のドットパターンが割り当てられている。一方、入力エリア401については、複数ページの会議資料であれば、基本的には、1ページごとに異なる入力用紙4に印刷されるため、印刷されたページのページ番号を特定できるように、1ページごとに入力エリア401が必要となる。そこで、入力エリア401には、印刷されるページに対応するページ番号ごとに、異なるドットパターンアドレスに関連付けられた、異なる座標領域のドットパターンが割り当てられている。例えば、図9(a)に示すように、ページ番号「P01」の入力エリア401には、座標領域「(x1,y1)、H1、W1」のドットパターンが割り当てられ、「P02」の入力エリア401には、「(x2,y2)、H2、W2」のドットパターンが割り当てられている。また、2ページ分の背景画像が2面付け印刷により同一の入力用紙4に印刷される場合もある。2面付け印刷される各ページには、通常の1面付け印刷とは異なる、同一のドットパターンアドレスに関連付けられた、それぞれ異なる座標領域のドットパターンが割り当てられている。図9(b)の例では、ドットパターンアドレス「10.30.20.1.5」に関連付けられた入力用紙4には、ページ番号「P01」、「P02」に対応する2つの背景画像が2面付け印刷されていることを示す。2面付け印刷された入力用紙4では、ページ番号「P01」の入力エリア401には、座標領域「(x10,y10)、H10、W10」のドットパターンが割り当てられ、「P02」の入力エリア401には、「(x11,y11)、H11、W11」のドットパターンが割り当てられている。   Here, a specific example of the coordinate definition information shown in FIGS. 9A and 9B will be supplementarily described. Since the line type change instruction area 501 and the line type change instruction area 502 are printed on the same instruction sheet 5, they have different coordinate areas associated with the same dot pattern address “10.30.19.1”. A dot pattern is assigned. The dot pattern of the coordinate area “(x8, y8), H8, W8” is assigned to the line type change instruction area 501 of the line width “thin”, and the line type change instruction area 502 of the line width “thick” A dot pattern “(x9, y9), H9, W9” is assigned. On the other hand, the input area 401 is basically printed on a different input sheet 4 for each page if it is a multi-page meeting material, so that the page number of the printed page can be specified. An input area 401 is required for each page. Therefore, in the input area 401, dot patterns of different coordinate areas associated with different dot pattern addresses are assigned for each page number corresponding to the page to be printed. For example, as shown in FIG. 9A, the dot area of the coordinate area “(x1, y1), H1, W1” is assigned to the input area 401 of the page number “P01”, and the input area of “P02” A dot pattern “(x2, y2), H2, W2” is assigned to 401. In some cases, two pages of background images are printed on the same input paper 4 by two-sided printing. Each page to be subjected to two-sided printing is assigned a dot pattern in a different coordinate area associated with the same dot pattern address, which is different from normal one-sided printing. In the example of FIG. 9B, the input paper 4 associated with the dot pattern address “10.30.20.1.5” has two background images corresponding to the page numbers “P01” and “P02”. Indicates that two-sided printing is being performed. In the input sheet 4 printed with two pages, the dot pattern of the coordinate area “(x10, y10), H10, W10” is assigned to the input area 401 of the page number “P01”, and the input area 401 of “P02” Is assigned a dot pattern of “(x11, y11), H11, W11”.

さらに、記憶手段25は、PC装置2Aに接続されている電子ペン1やマウスなどの入力デバイスの記入状態等の管理を行う。図11(a)は、PC装置2Aに接続されている入力デバイス、当該入力デバイスの識別情報であるデバイスID(以後、「ペンID」と総称する。)、入力デバイスの記入状態、開始座標、終了座標、及び線種が関連付けられたデータベースである。なお、開始座標及び終了座標については、[処理フロー]のセクションで述べる。   Furthermore, the storage means 25 manages the entry status of input devices such as the electronic pen 1 and mouse connected to the PC device 2A. FIG. 11A shows an input device connected to the PC device 2A, a device ID that is identification information of the input device (hereinafter collectively referred to as “pen ID”), an input device entry state, start coordinates, It is a database in which end coordinates and line types are associated. The start coordinates and end coordinates will be described in the [Processing Flow] section.

図11(a)に示す例では、ペンIDが「Pen1A」である電子ペン1Aは、記入状態が「書込描画中」となっている。「書込描画中」とは、電子ペン1が入力エリア401へ記入中であって、同一のストロークに対応する記入情報により特定される座標点を当該記入情報の生成順序に従い結んだ線(以後、「描画対象線」と呼ぶ。)が描画されて、表示手段26により表示されている状態を示す。描画対象線は、より具体的には、補間関数により曲線が生成される前に記入情報に基づき表示手段26により一時的に表示される線である。「書込描画中」に対応する記入状態では、電子ペン1Aにより記入されている入力用紙4に印刷された背景画像に対応するページ番号と、表示アプリケーション6により表示されている背景画像に対応するページ番号とが一致している。一方、ペンIDが「Pen1B」である電子ペン1Bは、記入状態が「書込中」となっている。これは、電子ペン1Bが入力エリア401へ記入中であるが、描画対象線が表示手段26により表示されていない状態を指す。具体的には、この場合、電子ペン1Aにより記入されている入力用紙4に対応するページ番号と、表示アプリケーション6により表示されているページ番号とが異なっている。また、ペンIDが「Mouse」のマウスは、記入状態が「書込描画中」又は「書込中」のいずれにも該当していない空欄「−」となっている。この場合、上述のマウスは、表示アプリケーション6に表示されたページ内への入力を行っていない。   In the example shown in FIG. 11A, the electronic pen 1A whose pen ID is “Pen1A” has the entry state “writing drawing”. “Writing / drawing” means that the electronic pen 1 is filling in the input area 401 and connects the coordinate points specified by the entry information corresponding to the same stroke in accordance with the generation order of the entry information (hereinafter referred to as the entry information). , Referred to as “rendering target line”), and shows the state displayed by the display means 26. More specifically, the drawing target line is a line temporarily displayed by the display unit 26 based on the entry information before the curve is generated by the interpolation function. In the entry state corresponding to “Writing / Drawing”, the page number corresponding to the background image printed on the input sheet 4 filled with the electronic pen 1A and the background image displayed by the display application 6 are associated. The page number matches. On the other hand, for the electronic pen 1B whose pen ID is “Pen1B”, the entry state is “writing”. This indicates a state in which the electronic pen 1B is filling in the input area 401 but the drawing target line is not displayed by the display means 26. Specifically, in this case, the page number corresponding to the input sheet 4 entered with the electronic pen 1A is different from the page number displayed by the display application 6. In addition, the mouse whose pen ID is “Mouse” has a blank “-” whose entry state does not correspond to either “writing drawing” or “writing”. In this case, the mouse described above does not perform input into the page displayed on the display application 6.

図11(b)は、PC装置2Bに接続されている入力デバイス、ペンID(デバイスID)、記入状態、開始座標、及び終了座標を関連付けたデータベースの一例である。図11(b)では、ペンIDが「Pen1C」である電子ペン1Cは、記入状態が「書込中」となっており、表示アプリケーション6の表示領域に表示されていない入力エリア401へ記入中の状態であることを示す。ペンIDが「Pen1D」であるペン1Dは、記入状態が「書込描画中」又は「書込中」のいずれにも該当せず、入力エリア401へ記入していない状態を示す。ペンIDが「Mouse」のマウスは、表示アプリケーション6の表示領域内への入力を行っていない状態を示す。   FIG. 11B is an example of a database in which an input device connected to the PC device 2B, a pen ID (device ID), an entry state, a start coordinate, and an end coordinate are associated with each other. In FIG. 11B, the electronic pen 1 </ b> C whose pen ID is “Pen1C” has the entry state “writing” and is filling in the input area 401 that is not displayed in the display area of the display application 6. It shows that it is the state of. The pen 1D whose pen ID is “Pen1D” does not correspond to either the “writing drawing” or “writing” state, and indicates a state in which the pen ID is not written in the input area 401. A mouse whose pen ID is “Mouse” indicates a state in which no input is made in the display area of the display application 6.

(サーバ装置)
次に、サーバ装置3について再び図7を参照して説明する。サーバ装置3は、ハードウェアとして、PC装置2とのデータ通信が可能な通信装置、CPU等のプロセッサ、ROMやRAMといったメモリ等で構成されるコンピュータ等で構成される。サーバ装置3は、図7に示すように、機能的には、受信手段32、処理手段34、記憶手段35、及び送信装置37を備える。概略的には、サーバ装置3は、オブジェクト情報の送信、受信、及び管理を行う。
(Server device)
Next, the server apparatus 3 will be described again with reference to FIG. The server device 3 is configured as a hardware such as a communication device capable of data communication with the PC device 2, a processor such as a CPU, a memory such as a ROM or RAM, and the like. As shown in FIG. 7, the server device 3 functionally includes a reception unit 32, a processing unit 34, a storage unit 35, and a transmission device 37. Schematically, the server device 3 performs transmission, reception, and management of object information.

受信手段32は、PC装置2から送信されるオブジェクト情報等を受信する。送信装置37は、処理手段34の指示により、オブジェクト情報をPC装置2に送信する。処理手段34は、CPU等のプロセッサによって構成され、サーバ装置3の全体の制御を行う。具体的には、処理手段34は、PC装置2A、2Bから送信されたオブジェクト情報に対し識別情報(以後、「オブジェクトID」と呼ぶ。)を付与する。このオブジェクトIDは、後述するように、生成された順序が把握可能なように通し番号が付される。また、処理手段34は、PC装置2A、2BからオブジェクトIDを含む問合せ情報が送信された場合、当該オブジェクトIDに基づき送信すべきオブジェクト情報を特定し、送信手段37に送信させる。この具体的な処理については、[処理フロー]のセクションで詳しく説明する。   The receiving unit 32 receives object information and the like transmitted from the PC device 2. The transmission device 37 transmits the object information to the PC device 2 according to an instruction from the processing unit 34. The processing means 34 is constituted by a processor such as a CPU, and controls the entire server device 3. Specifically, the processing unit 34 provides identification information (hereinafter referred to as “object ID”) to the object information transmitted from the PC devices 2A and 2B. As will be described later, this object ID is given a serial number so that the generated order can be grasped. Further, when the inquiry information including the object ID is transmitted from the PC devices 2A and 2B, the processing unit 34 specifies the object information to be transmitted based on the object ID, and causes the transmission unit 37 to transmit it. This specific process will be described in detail in the [Process Flow] section.

記憶手段35は、ROMやRAMといったメモリによって構成される。記憶手段35は、オブジェクト情報とオブジェクトIDとオブジェクト情報の送信元のPC装置2の識別情報(送信元情報)とを関連付けて記憶する。図12は、オブジェクト情報、オブジェクト情報の送信元、及びオブジェクトIDが関連付けられたデータベースの一例である。図12では、「オブジェクト情報」の欄には、「Obj01」乃至「Obj59」が記憶されている。各「Obj01」乃至「Obj59」は、オブジェクト情報のサーバ装置3内での保存名称を示す。また、「送信元情報」の欄には、「PC装置2A」又は「PC装置2B」が記載されている。実際には、記憶手段35は、送信元情報として、PC装置2のIPアドレス、MACアドレス(Media Access Control Address)等の固有の識別情報を記憶する。「オブジェクトID」の欄には、「ID001」乃至「ID059」が記載されている。このように、オブジェクトIDには、生成順序が識別可能なように通し番号が付される。これにより、後述するように、サーバ装置3は、必要なオブジェクト情報のみをPC装置2に送信し、通信量を低減させることが可能となる。   The storage means 35 is configured by a memory such as a ROM or a RAM. The storage unit 35 stores the object information, the object ID, and the identification information (transmission source information) of the PC device 2 that is the transmission source of the object information in association with each other. FIG. 12 is an example of a database in which object information, a transmission source of object information, and an object ID are associated with each other. In FIG. 12, “Obj01” to “Obj59” are stored in the “object information” column. Each of “Obj01” to “Obj59” indicates a storage name of the object information in the server device 3. In the “transmission source information” column, “PC device 2A” or “PC device 2B” is described. Actually, the storage unit 35 stores unique identification information such as an IP address of the PC device 2 and a MAC address (Media Access Control Address) as transmission source information. In the “object ID” column, “ID001” to “ID059” are described. In this way, serial numbers are assigned to the object IDs so that the generation order can be identified. As a result, as will be described later, the server device 3 can transmit only necessary object information to the PC device 2 to reduce the amount of communication.

(表示アプリケーション)
図13は、PC装置2のディスプレイ上に表示される表示アプリケーション6の一例を示す。表示アプリケーション6は、表示領域601と、各操作ボタン602乃至607を備える。表示領域601は、入力エリア401への電子ペン1による書き込み内容を、当該入力エリア401に対応する背景画像と共に、ページ番号ごとに表示する。具体的には、処理手段24は、図10(a)に示すデータベースを参照し、操作ボタン602、603等によって指定されたページ番号に対応する背景画像を読み出し、表示領域601に表示させると共に、記入情報及びオブジェクト情報に基づきストロークを描画して、背景画像に重畳して表示する。「前」と表示された操作ボタン602(「前ボタン602」とも呼ぶ。)は、表示領域601の表示内容を、1つ小さいページ番号に対応するページに遷移させる場合に押下されるボタンである。「次」と表示された操作ボタン603(「次ボタン603」とも呼ぶ。)は、表示領域601の表示内容を、1つ大きいページ番号に対応するページに遷移させる場合に押下されるボタンである。「拡大」と表示された操作ボタン604(「拡大ボタン604」とも呼ぶ。)は、表示領域601の表示内容を、所定比率だけ拡大して表示する場合に押下されるボタンである。「縮小」と表示された操作ボタン605(「縮小ボタン605」とも呼ぶ。)は、表示領域601の表示内容を、所定比率だけ縮小して表示する場合に押下されるボタンである。「遠隔」と表示された操作ボタン606(「遠隔ボタン606」とも呼ぶ。)は、後述する遠隔会議モードのオン及びオフを切り替える場合に押下されるボタンである。遠隔会議モードの実行中では、PC装置2は、電子ペン1から受信した記入情報から生成したオブジェクト情報をサーバ装置3へ送信する。これに加え、PC装置2は、遠隔会議モードの実行中では、他のPC装置2よりサーバ装置3が受信完了したオブジェクト情報の有無の問い合わせを所定時間幅ごとに行い、当該オブジェクト情報を受信する。「終了」と表示された操作ボタン607(「終了ボタン607」とも呼ぶ。)は、表示アプリケーション6を終了する場合に押下されるボタンである。なお、好適には、表示領域601の表示内容を拡大したり縮小したりできるようにして、表示アプリケーション6の画面内に、スクロールバーやスクロールボタン等を設けて、表示領域601の表示範囲を変更できるようにするとよい。
(Display application)
FIG. 13 shows an example of the display application 6 displayed on the display of the PC device 2. The display application 6 includes a display area 601 and operation buttons 602 to 607. The display area 601 displays the contents written by the electronic pen 1 in the input area 401 for each page number together with the background image corresponding to the input area 401. Specifically, the processing means 24 reads the background image corresponding to the page number specified by the operation buttons 602, 603, etc. with reference to the database shown in FIG. A stroke is drawn based on the entry information and the object information, and is displayed superimposed on the background image. An operation button 602 displayed as “Previous” (also referred to as “Previous button 602”) is a button that is pressed when the display content of the display area 601 is changed to a page corresponding to the page number one smaller. . An operation button 603 displayed as “next” (also referred to as “next button 603”) is a button that is pressed when the display content of the display area 601 is transitioned to a page corresponding to the next larger page number. . An operation button 604 displayed as “enlarge” (also referred to as “enlarge button 604”) is a button that is pressed when the display content of the display area 601 is enlarged and displayed by a predetermined ratio. An operation button 605 displayed as “reduction” (also referred to as “reduction button 605”) is a button that is pressed when the display content of the display area 601 is reduced by a predetermined ratio and displayed. An operation button 606 displayed as “remote” (also referred to as “remote button 606”) is a button that is pressed when turning on and off a remote conference mode to be described later. During execution of the remote conference mode, the PC device 2 transmits object information generated from the entry information received from the electronic pen 1 to the server device 3. In addition to this, during execution of the remote conference mode, the PC device 2 makes an inquiry about the presence or absence of object information that the server device 3 has received from other PC devices 2 for each predetermined time interval, and receives the object information. . An operation button 607 displayed as “END” (also referred to as “END button 607”) is a button that is pressed when the display application 6 is ended. Preferably, the display contents of the display area 601 can be enlarged or reduced, and the display range of the display area 601 is changed by providing a scroll bar, a scroll button, or the like in the screen of the display application 6. You should be able to do it.

[処理フロー]
次に、第1実施形態の情報処理システム10による処理フローについて図14乃至図19を用いて説明する。PC装置2は、以下に説明するオブジェクト情報送信側の処理(図14乃至図17参照)とオブジェクト情報受信側の処理(図19及び図17参照)とを並行して実行すると共に、前ボタン602や次ボタン603が押下された場合の表示更新処理(図18参照)を実行する。
[Processing flow]
Next, a processing flow by the information processing system 10 according to the first embodiment will be described with reference to FIGS. The PC device 2 executes the processing on the object information transmission side (see FIGS. 14 to 17) and the processing on the object information reception side (see FIGS. 19 and 17) described below in parallel and a front button 602. Or a display update process (see FIG. 18) when the next button 603 is pressed.

(オブジェクト情報送信側の処理)
図14は、第1実施形態において、電子ペン1及びPC装置2によって実行されるオブジェクト情報送信側の処理手順を示すフローチャートである。図14に示す処理フローは、電子ペン1により記入情報が生成されるごとに繰り返し実行される。
(Processing on the object information sending side)
FIG. 14 is a flowchart illustrating a processing procedure on the object information transmission side executed by the electronic pen 1 and the PC device 2 in the first embodiment. The processing flow shown in FIG. 14 is repeatedly executed each time entry information is generated by the electronic pen 1.

ユーザが、入力用紙4又は指示用紙5に対し電子ペン1で文字等を記入すると、電子ペン1は、ペンダウン時には、ペンダウン情報PD及びペンIDが関連付けられた記入情報をPC装置2へ送信する。また、電子ペン1は、ストロークの記入中では、ストロークに沿ってドットパターンが撮像されて演算された座標情報を含む座標属性情報とペンIDとが関連付けられた記入情報をPC装置2へ送信する。そして、電子ペン1は、ペンアップ時には、ペンアップ情報PU及びペンIDが関連付けられた記入情報をPC装置2へ送信する(ステップS101)。   When the user enters characters or the like on the input sheet 4 or the instruction sheet 5 with the electronic pen 1, the electronic pen 1 transmits entry information associated with the pen-down information PD and the pen ID to the PC device 2 at the time of pen-down. In addition, during the entry of the stroke, the electronic pen 1 transmits to the PC device 2 entry information in which the coordinate attribute information including the coordinate information obtained by imaging the dot pattern along the stroke and the pen ID is associated with the pen ID. . Then, at the time of pen-up, the electronic pen 1 transmits entry information associated with the pen-up information PU and the pen ID to the PC device 2 (step S101).

PC装置2では、受信手段22が、電子ペン1から送信された記入情報を受信すると、処理手段24は、記憶手段25に、その記入情報を記憶させる(ステップS201)。次に、処理手段24は、その記入情報から座標情報を認識したか否か、即ちその記入情報に座標情報が含まれるか否かを判定する(ステップS202)。   In the PC device 2, when the receiving unit 22 receives the entry information transmitted from the electronic pen 1, the processing unit 24 causes the storage unit 25 to store the entry information (step S201). Next, the processing means 24 determines whether or not coordinate information has been recognized from the entry information, that is, whether or not the entry information includes coordinate information (step S202).

そして、座標情報を認識したと判断した場合(ステップS202;Yes)、処理手段24は、入力エリア401へ記入されたか否か判定する(ステップS203)。具体的には、処理手段24は、記憶手段25に記憶された座標定義情報(図9参照)を参照し、認識した座標情報が入力エリア401を示す座標領域に含まれるか否か判定する。そして、処理手段24は、入力エリア401へ記入されたと判断した場合(ステップS203;Yes)、記入情報に含まれるペンIDの記入状態を「書込描画中」に設定する(ステップS204)。具体的には、処理手段24は、図11に示す入力デバイスの記入状態を記録するデータベース中で、当該ペンIDに対応する記入状態を「書込描画中」に設定する。そして、処理手段24は、リアルタイム描画処理を実行する(ステップS205)。リアルタイム描画処理については別途フローチャートを用いて説明する。一方、処理手段24は、入力エリア401へ記入されていないと判断した場合(ステップS203;No)、即ち、入力エリア401外の入力用紙4上又は指示用紙5上に記入されたと判断した場合、線種変更指示エリア501、502へ記入されたか否か判定する(ステップS206)。そして、線種変更指示エリア501、502へ記入されたと判断した場合(ステップS206;Yes)、処理手段24は、ペンIDの線種情報を、記入された線種変更指示エリア501、502で規定された線種に更新する(ステップS207)。具体的には、処理手段24は、ペンIDの線種情報を、図9のデータベースに基づき特定し、図11に示すデータベースに、対象となるペンIDに対応させて記憶手段25に記憶する。一方、線種変更指示エリア501、502への記入ではないと判断した場合(ステップS206;No)、処理手段24は、後述するステップS209の処理を実行する。   If it is determined that the coordinate information has been recognized (step S202; Yes), the processing unit 24 determines whether or not the input is made in the input area 401 (step S203). Specifically, the processing unit 24 refers to the coordinate definition information (see FIG. 9) stored in the storage unit 25 and determines whether or not the recognized coordinate information is included in the coordinate area indicating the input area 401. If the processing unit 24 determines that the input area 401 has been entered (step S203; Yes), it sets the entry state of the pen ID included in the entry information to “writing and drawing” (step S204). Specifically, the processing unit 24 sets the entry state corresponding to the pen ID to “writing drawing” in the database that records the entry state of the input device shown in FIG. Then, the processing means 24 executes a real time drawing process (step S205). The real-time drawing process will be described separately using a flowchart. On the other hand, when the processing unit 24 determines that the input area 401 is not filled in (step S203; No), that is, when it is determined that the entry is made on the input sheet 4 or the instruction sheet 5 outside the input area 401, It is determined whether or not the line type change instruction areas 501 and 502 have been entered (step S206). If it is determined that the line type change instruction areas 501 and 502 have been entered (step S206; Yes), the processing unit 24 defines the line type information of the pen ID in the entered line type change instruction areas 501 and 502. The updated line type is updated (step S207). Specifically, the processing unit 24 specifies the line type information of the pen ID based on the database of FIG. 9 and stores it in the storage unit 25 in the database shown in FIG. 11 in association with the target pen ID. On the other hand, when it is determined that the entry is not in the line type change instruction areas 501 and 502 (step S206; No), the processing unit 24 executes a process of step S209 described later.

一方、ステップS202で、座標情報を認識していないと判断した場合(ステップS202;No)、処理手段24は、その記入情報にペンアップ情報PUが含まれるか否かを判定する(ステップS208)。ペンアップ情報PUが含まれると判断した場合(ステップS208:Yes)、処理手段24は、ペンIDの記入状態は「書込中」または「書込描画中」であるか否か判定する(ステップS209)。具体的には、処理手段24は、図11を参照し、記入情報に対応するペンIDの記入状態が「書込中」または「書込描画中」であるか否か判定する。そして、ペンIDの記入状態が「書込中」または「書込描画中」であると判断した場合(ステップS209;Yes)、処理手段24は後述する図16のフローチャートの処理を実行する。一方、記入情報にペンアップ情報PUが含まれていない場合(ステップS208;No)、又は、ペンIDの記入状態が「書込中」及び「書込描画中」でない場合(ステップS209;No)、処理手段24は、フローチャートの処理を終了する。   On the other hand, when it is determined in step S202 that the coordinate information is not recognized (step S202; No), the processing unit 24 determines whether the entry information includes pen-up information PU (step S208). . When it is determined that the pen-up information PU is included (step S208: Yes), the processing unit 24 determines whether the pen ID entry state is “writing” or “writing drawing” (step). S209). Specifically, the processing unit 24 refers to FIG. 11 and determines whether the entry state of the pen ID corresponding to the entry information is “writing” or “writing drawing”. If it is determined that the pen ID entry state is “Writing” or “Writing / Drawing” (Step S209; Yes), the processing unit 24 executes the processing of the flowchart of FIG. On the other hand, when the pen-up information PU is not included in the entry information (step S208; No), or when the entry state of the pen ID is not “writing” and “writing drawing” (step S209; No). The processing unit 24 ends the process of the flowchart.

(リアルタイム描画処理)
図15は、ステップS205のリアルタイム描画処理の手順を示すフローチャートである。図15に示すフローチャートの処理は、ステップS203で入力エリア401への記入であると判定され、かつ、ペンIDの記入状態を「書込描画中」に設定した後に実行される。
(Real-time drawing process)
FIG. 15 is a flowchart showing the procedure of the real-time drawing process in step S205. The process of the flowchart shown in FIG. 15 is executed after it is determined in step S203 that the entry is made in the input area 401 and the entry state of the pen ID is set to “writing drawing”.

まず、処理手段24は、対象となるペンIDに対応する開始座標が記憶手段25に記憶されているか否か判定する(ステップS301)(図11参照)。ここで、「開始座標」とは、描画対象線である各線分の始点となる座標を指す。そして、ペンIDの開始座標が存在しない場合(ステップS301;No)、ステップS202で認識した座標情報をペンIDの開始座標として記憶手段25に記憶する(ステップS309)。具体的には、処理手段24は、図11に示すデータベースに、認識した座標情報を開始座標として対象となるペンIDに対応させて記憶手段25に記憶させる。一方、処理手段24は、ペンIDの開始座標が存在する場合(ステップS301;Yes)、認識した座標情報をペンIDの終了座標として記憶手段25の記憶・更新を行う(ステップS302)。ここで、「終了座標」とは、描画対象線である各線分の終点となる座標を指す。次に、処理手段24は、開始座標と終了座標を結んだ線分を入力エリア401の座標系から背景画像の座標系に変換して、描画対象線として記憶・更新する(ステップS303)。   First, the processing means 24 determines whether or not the start coordinates corresponding to the target pen ID are stored in the storage means 25 (step S301) (see FIG. 11). Here, the “starting coordinate” refers to a coordinate that is a starting point of each line segment that is a drawing target line. If the start coordinate of the pen ID does not exist (step S301; No), the coordinate information recognized in step S202 is stored in the storage unit 25 as the start coordinate of the pen ID (step S309). Specifically, the processing unit 24 stores the recognized coordinate information in the database shown in FIG. 11 in the storage unit 25 as the start coordinate in association with the target pen ID. On the other hand, when the start coordinate of the pen ID exists (step S301; Yes), the processing unit 24 stores and updates the storage unit 25 using the recognized coordinate information as the end coordinate of the pen ID (step S302). Here, the “end coordinate” refers to a coordinate that is an end point of each line segment that is a drawing target line. Next, the processing means 24 converts the line segment connecting the start coordinate and the end coordinate from the coordinate system of the input area 401 to the coordinate system of the background image, and stores / updates it as a drawing target line (step S303).

次に、処理手段24は、描画対象線が表示領域601に含まれるか否か判定する(ステップS304)。即ち、この場合、処理手段24は、電子ペン1により記入された入力エリア401に対応するページ番号と表示領域601に表示されているページ番号とが一致し、かつ、背景画像の座標系に変換された描画対象線の全部または一部が表示領域601に相当する座標領域内に存在するか否か判定する。そして、処理手段24は、描画対象線が表示領域601に一部でも含まれる場合(ステップS304;Yes)、図11に示すデータベースから対象となるペンIDに設定されている線種情報を読み込む(ステップS305)。次に、処理手段24は、読み込んだ線種情報に基づいて描画対象線を表示画面上、即ち表示領域601上に一時描画する(ステップS306)。このとき、処理手段24は、表示領域601での背景画像の表示範囲と拡大・縮小率に合わせて、表示領域601に含まれる描画対象線を描画する。一方、処理手段24は、描画対象線が表示領域601に全く含まれないと判断した場合(ステップS304;No)、対象となるペンIDの記入状態を「書込中」に設定する(ステップS308)。   Next, the processing means 24 determines whether or not the drawing target line is included in the display area 601 (step S304). That is, in this case, the processing means 24 matches the page number corresponding to the input area 401 entered with the electronic pen 1 and the page number displayed in the display area 601 and converts it into the coordinate system of the background image. It is determined whether all or part of the drawn line to be drawn exists in a coordinate area corresponding to the display area 601. When the drawing target line is partially included in the display area 601 (step S304; Yes), the processing unit 24 reads the line type information set for the target pen ID from the database illustrated in FIG. Step S305). Next, the processing means 24 temporarily draws the drawing target line on the display screen, that is, on the display area 601 based on the read line type information (step S306). At this time, the processing unit 24 draws the drawing target line included in the display area 601 in accordance with the display range of the background image in the display area 601 and the enlargement / reduction ratio. On the other hand, when the processing unit 24 determines that the drawing target line is not included in the display area 601 (step S304; No), the processing unit 24 sets the writing state of the target pen ID to “writing” (step S308). ).

そして、処理手段24は、ステップS306又はステップS308の終了後、終了座標を対象となるペンIDの開始座標として記憶・更新する(ステップS307)。   Then, the processing means 24 stores / updates the end coordinates as the start coordinates of the target pen ID after step S306 or step S308 (step S307).

(オブジェクト情報の生成処理及び記憶処理)
図16は、図14のステップS209に続いて実行される、オブジェクト情報送信側の生成処理及びオブジェクト情報受信側の記憶処理の手順を示すフローチャートである。図16に示すフローチャートの処理は、図14に示すフローチャートのステップS208でペンアップ情報PUが認識され、若しくは、ステップS202で座標情報を認識したが、ステップS203、S206でそれぞれ入力エリア401、線種変更エリア501、502への記入ではないと判断され、かつ、ステップS209でペンIDの記入状態が「書込中」または「書込描画中」であった場合に、PC装置2により実行される。
(Object information generation processing and storage processing)
FIG. 16 is a flowchart illustrating the procedure of the generation process on the object information transmission side and the storage process on the object information reception side, which is executed subsequent to step S209 in FIG. In the processing of the flowchart shown in FIG. 16, the pen-up information PU is recognized in step S208 of the flowchart shown in FIG. 14, or the coordinate information is recognized in step S202, but the input area 401 and the line type are respectively detected in steps S203 and S206. This is executed by the PC device 2 when it is determined that the change areas 501 and 502 are not filled in, and the pen ID entry state is “writing” or “writing drawing” in step S209. .

まず、処理手段24は、該当するペンIDの記入状態が「書込中」または「書込描画中」に受信した座標情報よりストローク情報を認識する(ステップS401)。ここで、「ストローク情報」とは、図5に示すように、電子ペン1がペンダウンからペンアップまでに認識したX、Y座標情報に、時刻情報T、記入時の筆圧データPを対応付けた座標属性情報の集合を指す。なお、ステップS206で「No」と判断された場合、即ち、電子ペン1により、記入中の入力エリア401から外れて記入された場合は、ペンアップしたものと見なして、ストローク情報を認識する(ステップS401)。そして、処理手段24は、入力エリア401内のストローク情報から補間関数によって曲線を算出する(ステップS402)。ここで、「補間」とは、あるデータ列の各区間内の開始点と終了点を通る近似曲線を求めることを指す。従って、処理手段24は、実際の筆跡(手書きストローク)に近い曲線をストローク情報より補間関数を用いて算出する。ここで、処理手段24は、公知の種々の補間関数を用いた補間方法を適用可能であり、例えばスプライン補間やラグランジュ補間によりストローク情報から曲線を算出する。次に、処理手段24は、算出した曲線からオブジェクト情報を生成し、記憶手段25に記憶させる(ステップS403)。具体的には、処理手段24は、算出した曲線に対応する曲線座標データを生成する。このとき、曲線座標データ(曲線を構成する座標データの集合)は、算出した曲線を高精度に描くため、ストローク情報に含まれる座標データの集合よりも数の多い集合となり、各座標データが示す座標点の間の距離が短くなる。そして、処理手段24は、当該曲線座標データを、入力エリア401の座標系から入力エリア401に対応する背景画像(ページ)の座標系に変更し、ストローク情報に含まれるX、Y座標データから特定した入力エリア401に対応するページ番号、ペンID、ペンIDから特定した線種情報を対応付けて、オブジェクト情報を生成し記憶する。   First, the processing means 24 recognizes stroke information from the coordinate information received when the corresponding pen ID entry state is “Writing” or “Writing / Drawing” (Step S401). Here, as shown in FIG. 5, “stroke information” is associated with time information T and writing pressure data P at the time of entry with X and Y coordinate information recognized by the electronic pen 1 from pen down to pen up. A set of coordinate attribute information. If it is determined as “No” in step S206, that is, if the electronic pen 1 is entered out of the input area 401 being filled in, it is regarded as pen-up and stroke information is recognized ( Step S401). Then, the processing means 24 calculates a curve from the stroke information in the input area 401 using an interpolation function (step S402). Here, “interpolation” refers to obtaining an approximate curve that passes through the start point and end point in each section of a data string. Accordingly, the processing means 24 calculates a curve close to the actual handwriting (handwritten stroke) from the stroke information using the interpolation function. Here, the processing means 24 can apply an interpolation method using various known interpolation functions, and calculates a curve from stroke information by, for example, spline interpolation or Lagrangian interpolation. Next, the processing means 24 generates object information from the calculated curve and stores it in the storage means 25 (step S403). Specifically, the processing unit 24 generates curve coordinate data corresponding to the calculated curve. At this time, the curve coordinate data (a set of coordinate data constituting the curve) is a set having a larger number than the set of coordinate data included in the stroke information in order to draw the calculated curve with high accuracy, and each coordinate data indicates The distance between coordinate points is shortened. Then, the processing unit 24 changes the curve coordinate data from the coordinate system of the input area 401 to the coordinate system of the background image (page) corresponding to the input area 401, and specifies from the X and Y coordinate data included in the stroke information. The object number is generated and stored in association with the page type corresponding to the input area 401, the pen ID, and the line type information specified from the pen ID.

次に、処理手段24は、対象となるペンIDの記入状態と開始座標をクリアする(ステップS404)。即ち、処理手段24は、図11に示すデータベースから対象となるペンIDの記入状態及び開始座標を消去する。そして、処理手段24は、描画更新処理を行う(ステップS405)。描画更新処理については、別途、図17のフローチャートを用いて詳細に説明する。次に、処理手段24は、遠隔会議モード中であるか否か判定する(ステップS406)。なお、遠隔会議モードは、遠隔ボタン606によりオンまたはオフが切り替えられる。そして、遠隔会議モード中でない場合(ステップS406;No)、処理手段24は、フローチャートの処理を終了する。一方、遠隔会議モード中の場合(ステップS406;Yes)、処理手段24は、ステップS403で記憶したオブジェクト情報をサーバ装置3へ送信する(ステップS407)。このとき、処理手段24は、オブジェクト情報と共に、MACアドレスなどの送信元情報を、サーバ装置3へ送信する。これに対し、サーバ装置3の処理手段34は、受信手段32により受信したオブジェクト情報に、送信元情報を関連付けて記憶手段35に記憶する(ステップS501)。さらに、サーバ装置3の処理手段34は、オブジェクト情報に固有のID(識別情報)であるオブジェクトIDを通し番号順に付与する(ステップS502)。そして、サーバ装置3の処理手段34は、図12に示すように、オブジェクト情報と送信元情報とオブジェクトIDとを関連付けてデータベースを記憶手段35に記憶させる。   Next, the processing means 24 clears the entry state and start coordinates of the target pen ID (step S404). That is, the processing unit 24 erases the entry state and start coordinates of the target pen ID from the database shown in FIG. Then, the processing unit 24 performs a drawing update process (step S405). The drawing update process will be separately described in detail with reference to the flowchart of FIG. Next, the processing means 24 determines whether or not it is in the remote conference mode (step S406). Note that the remote conference mode is switched on or off by a remote button 606. If the remote conference mode is not being executed (step S406; No), the processing unit 24 ends the process of the flowchart. On the other hand, when in the remote conference mode (step S406; Yes), the processing unit 24 transmits the object information stored in step S403 to the server device 3 (step S407). At this time, the processing unit 24 transmits source information such as a MAC address to the server device 3 together with the object information. On the other hand, the processing unit 34 of the server device 3 associates the source information with the object information received by the receiving unit 32 and stores it in the storage unit 35 (step S501). Further, the processing means 34 of the server device 3 assigns object IDs, which are unique IDs (identification information), to the object information in the order of serial numbers (step S502). Then, the processing unit 34 of the server apparatus 3 stores the database in the storage unit 35 in association with the object information, the transmission source information, and the object ID, as shown in FIG.

(描画更新処理)
図17は、ステップS405の描画更新処理の手順を示すフローチャートである。まず、処理手段24は、図11のデータベースを参照し、記入状態が「書込描画中」のペンIDが存在するか否か判定する(ステップS601)。そして、記入状態が「書込描画中」のペンIDが存在しない場合(ステップS601;No)、即ち、ステップS303乃至S306に基づき電子ペン1の筆記内容をリアルタイムで描画中ではない場合、処理手段24は、一時描画している描画対象線を表示画面上よりクリアする(ステップS602)。そして、処理手段24は、PC装置2内に記憶されている表示領域601内のオブジェクト情報を表示画面上に描画・更新する(ステップS603)。具体的には、処理手段24は、表示領域601で表示している背景画像に対応するページ番号と同じページ番号を持ち、表示範囲に含まれるオブジェクト情報を記憶手段25より読み出し、表示領域601での背景画像の表示範囲と拡大・縮小率に合わせて、曲線座標データに基づく曲線をオブジェクト情報に含まれる線種で表示領域601に描画・更新する。
(Drawing update process)
FIG. 17 is a flowchart showing the procedure of the drawing update process in step S405. First, the processing unit 24 refers to the database of FIG. 11 and determines whether or not there is a pen ID whose entry state is “writing and drawing” (step S601). If there is no pen ID whose entry state is “writing and drawing” (step S601; No), that is, if the writing content of the electronic pen 1 is not being drawn in real time based on steps S303 to S306, the processing means 24 clears the temporarily drawn drawing target line from the display screen (step S602). Then, the processing means 24 draws and updates the object information in the display area 601 stored in the PC device 2 on the display screen (step S603). Specifically, the processing unit 24 has the same page number as the page number corresponding to the background image displayed in the display area 601, reads object information included in the display range from the storage unit 25, and displays in the display area 601. In accordance with the display range of the background image and the enlargement / reduction ratio, a curve based on the curve coordinate data is drawn / updated in the display area 601 with the line type included in the object information.

一方、記入状態が「書込描画中」のペンIDが存在する場合(ステップS601;Yes)、即ち、ステップS303乃至S306に基づき電子ペン1の筆記内容をリアルタイムで描画中の場合、処理手段24は、フローチャートの処理を終了する。即ち、処理手段24は、ステップS602、S603に基づく表示内容の更新によって、一時描画中の描画対象線が筆記途中でクリアされたり、表示画面がちらついたりすることを防ぐため、「書込描画中」のペンIDが存在する場合には、表示内容を更新しない。   On the other hand, when there is a pen ID whose entry state is “writing and drawing” (step S601; Yes), that is, when the writing content of the electronic pen 1 is being drawn in real time based on steps S303 to S306, the processing means 24. Ends the process of the flowchart. That is, the processing unit 24 updates the display contents based on steps S602 and S603 to prevent the drawing target line being temporarily drawn from being cleared during writing or the display screen to flicker. The display content is not updated when the pen ID “” exists.

なお、処理手段24は、上述したステップS601の処理に代えて、ペンダウンしている電子ペン1が存在するか否かを判定してもよい。即ち、処理手段24は、ペンダウン情報PD又は座標情報を含む記入情報を送信している電子ペン1が存在するか否か判定し、上記電子ペン1が存在する場合には、ステップS602、S603に基づく表示内容の更新を行わない。この場合は、表示領域601に含まれない入力エリア401へのペンダウンがある場合でも、表示領域601の表示内容が更新されない。   Note that the processing unit 24 may determine whether or not there is the electronic pen 1 that is pen-down, instead of the processing in step S601 described above. That is, the processing means 24 determines whether or not there is an electronic pen 1 that is transmitting pen-down information PD or entry information including coordinate information. If the electronic pen 1 is present, the processing unit 24 proceeds to steps S602 and S603. Do not update the display content based on it. In this case, even when there is a pen down to the input area 401 not included in the display area 601, the display content of the display area 601 is not updated.

(表示更新処理)
図18は、表示領域601の表示内容を変更する表示更新処理の手順を示すフローチャートである。PC装置2は、図18に示すフローチャートの処理を、所定の周期に従い繰り返し実行する。
(Display update processing)
FIG. 18 is a flowchart showing the procedure of display update processing for changing the display content of the display area 601. The PC device 2 repeatedly executes the processing of the flowchart shown in FIG. 18 according to a predetermined cycle.

まず、処理手段24は、表示領域601を変更すべきか否か判定する(ステップS701)。即ち、処理手段24は、ユーザによる表示アプリケーション6の前ボタン602、次ボタン603、拡大ボタン604、又は縮小ボタン605の押下により、表示領域601により表示するページを変更するよう指示されたか否か判定する。そして、処理手段24は、表示領域601の表示内容を変更するよう指示されていないと判断した場合(ステップS701;No)、フローチャートの処理を終了する。   First, the processing means 24 determines whether or not the display area 601 should be changed (step S701). That is, the processing unit 24 determines whether or not the user has instructed to change the page to be displayed in the display area 601 by pressing the previous button 602, the next button 603, the enlarge button 604, or the reduce button 605 of the display application 6. To do. Then, when the processing unit 24 determines that an instruction to change the display contents of the display area 601 has not been given (step S701; No), the processing of the flowchart ends.

一方、処理手段24は、表示領域601の表示内容を変更するよう指示されたと判断した場合(ステップS701;Yes)、一時描画している描画対象線を表示画面上よりクリアする(ステップS702)。そして、処理手段24は、描画済みのオブジェクト情報と、表示済みの背景画像を表示画面上よりクリアする(ステップS703)。そして、処理手段24は、変更された表示領域601に対応する背景画像を表示する(ステップS704)。即ち、処理手段24は、変更先のページ番号に対応する背景画像を表示範囲内で表示領域601に表示する。次に処理手段24は、PC装置2内に記憶されている表示領域601内のオブジェクト情報を表示画面上に描画・更新する(ステップS705)。具体的には、処理手段24は、表示領域601で表示している背景画像に対応するページ番号と同じページ番号を持ち、かつ表示範囲に含まれるオブジェクト情報を記憶手段25より読み出し、表示領域601での背景画像の表示範囲と拡大・縮小率に合わせて表示領域601に描画・更新する。   On the other hand, when it is determined that the processing unit 24 has been instructed to change the display contents of the display area 601 (step S701; Yes), the temporarily drawn drawing target line is cleared from the display screen (step S702). Then, the processing unit 24 clears the drawn object information and the displayed background image from the display screen (step S703). Then, the processing unit 24 displays a background image corresponding to the changed display area 601 (step S704). That is, the processing unit 24 displays the background image corresponding to the page number of the change destination in the display area 601 within the display range. Next, the processing means 24 draws / updates the object information in the display area 601 stored in the PC device 2 on the display screen (step S705). Specifically, the processing unit 24 reads out the object information having the same page number corresponding to the background image displayed in the display area 601 and included in the display range from the storage unit 25, and displays the display area 601. The display area 601 is drawn / updated in accordance with the display range of the background image and the enlargement / reduction ratio.

(オブジェクト情報の照会及び受信処理の概要)
図19は、第1実施形態において、PC装置2Aが、更新分のオブジェクト情報についてサーバ装置3へ照会し、該当するオブジェクト情報を受信する処理手順を示すフローチャートである。PC装置2Aは、図19の処理フローを、所定の周期に従い繰り返し実行する。なお、ここでは、説明の便宜上、PC装置2Aを対象とした処理について述べるが、PC装置2Bも、同様に、図19の処理フローと同様の処理を、所定の周期に従い繰り返し実行する。
(Overview of object information inquiry and reception processing)
FIG. 19 is a flowchart illustrating a processing procedure in which the PC apparatus 2A inquires the server apparatus 3 about updated object information and receives the corresponding object information in the first embodiment. The PC device 2A repeatedly executes the processing flow of FIG. 19 according to a predetermined cycle. Here, for convenience of explanation, processing for the PC device 2A will be described, but the PC device 2B also repeatedly executes processing similar to the processing flow of FIG. 19 according to a predetermined cycle.

まず、PC装置2Aの処理手段24は、遠隔会議モードが開始されたか否か判定する(ステップS801)。即ち、処理手段24は、遠隔ボタン606が押下されたか否か判定する。そして、遠隔モードが開始されない場合(ステップS801;No)、処理手段24は、フローチャートの処理を終了する。一方、処理手段24は、遠隔会議モードが開始された場合(ステップS801;Yes)、記憶されているオブジェクトIDのうち、最終のオブジェクトIDをサーバ装置3へ送信する(ステップS802)。ここで、「最終のオブジェクトID」とは、図16のステップS502でサーバ装置3によって付与されたオブジェクトIDのうち、通し番号が最も大きい最新に付与されたオブジェクトIDを指す。また、処理手段24は、最終のオブジェクトIDと共に、PC装置2AのMACアドレスなどの送信元情報を、サーバ装置3へ送信する。また、処理手段24は、最終のオブジェクトIDを送信した時刻を、照会時刻情報として記憶手段25に一時記憶・更新する。   First, the processing unit 24 of the PC device 2A determines whether or not the remote conference mode has been started (step S801). That is, the processing means 24 determines whether or not the remote button 606 has been pressed. If the remote mode is not started (step S801; No), the processing unit 24 ends the process of the flowchart. On the other hand, when the remote conference mode is started (step S801; Yes), the processing unit 24 transmits the final object ID among the stored object IDs to the server device 3 (step S802). Here, the “final object ID” refers to the latest object ID assigned the largest serial number among the object IDs assigned by the server apparatus 3 in step S502 of FIG. In addition, the processing unit 24 transmits source information such as the MAC address of the PC device 2 </ b> A to the server device 3 together with the final object ID. The processing unit 24 temporarily stores and updates the time when the last object ID is transmitted in the storage unit 25 as reference time information.

これに対し、サーバ装置3の処理手段34は、PC装置2Aの最終のオブジェクトIDを受信する(ステップS901)。そして、サーバ装置3の処理手段34は、PC装置2A以外から送信された、更新されたオブジェクト情報が存在するか否か判定する(ステップS902)。具体的には、サーバ装置3の処理手段34は、図12に示すデータベースから、PC装置2Aの送信元情報と異なる送信元情報と関連付けられたオブジェクト情報であって、最終のオブジェクトIDより大きいオブジェクトIDに対応するオブジェクト情報があるか否か判定する。そして、サーバ装置3の処理手段34は、上述のオブジェクト情報が存在する場合(ステップS902;Yes)、当該オブジェクト情報を更新分のオブジェクト情報として送信する(ステップS903)。一方、更新分のオブジェクト情報が存在しない場合(ステップS902;No)、サーバ装置3の処理手段34は、フローチャートの処理を終了する。   On the other hand, the processing means 34 of the server device 3 receives the final object ID of the PC device 2A (step S901). Then, the processing unit 34 of the server device 3 determines whether there is updated object information transmitted from other than the PC device 2A (step S902). Specifically, the processing unit 34 of the server device 3 is the object information associated with the transmission source information different from the transmission source information of the PC device 2A from the database shown in FIG. It is determined whether there is object information corresponding to the ID. Then, when the above-described object information exists (step S902; Yes), the processing unit 34 of the server device 3 transmits the object information as updated object information (step S903). On the other hand, when there is no updated object information (step S902; No), the processing unit 34 of the server device 3 ends the process of the flowchart.

PC装置2Aの処理手段24は、ステップS802の実行後、更新分のオブジェクト情報を受信したか否か判定する(ステップS803)。そして、処理手段24は、更新分のオブジェクト情報を受信したと判断した場合(ステップS803;Yes)、更新部のオブジェクト情報を記憶手段25に記憶させる(ステップS804)。そして、処理手段24は、更新分のオブジェクト情報に付与されているオブジェクトIDを記憶する(ステップS805)。このとき、処理手段24は、更新分のオブジェクト情報に付与されているオブジェクトIDのうち最大のオブジェクトIDを、ステップS802で使用する最終のオブジェクトIDとして記憶する。次に、処理手段24は、更新分のオブジェクト情報を対象に、図17で説明した描画更新処理を実行する(ステップS806)。   After executing step S802, the processing unit 24 of the PC device 2A determines whether or not the updated object information has been received (step S803). If the processing unit 24 determines that the updated object information has been received (step S803; Yes), the processing unit 24 stores the object information of the update unit in the storage unit 25 (step S804). Then, the processing unit 24 stores the object ID given to the updated object information (step S805). At this time, the processing means 24 stores the maximum object ID among the object IDs assigned to the updated object information as the final object ID used in step S802. Next, the processing unit 24 executes the drawing update process described with reference to FIG. 17 for the updated object information (step S806).

そして、ステップS806の実行後、又は、更新分のオブジェクト情報を受信しなかった場合(ステップS803;No)、処理手段24は、ステップS802の実行時(照会時刻)から所定時間経過したか否か判定する(ステップS807)。ここで、PC装置2Aのパフォーマンス負荷を低減するため、例えば上述の所定時間を1秒に設定するとよい。この場合、処理手段24は、1秒ごとに、ステップS802乃至S806及びS808の処理を実行することになる。そして、ステップS802の実行時から所定時間経過していない場合(ステップS807;No)、処理手段24は、所定時間経過するまで待機する。一方、ステップS802の実行時から所定時間経過したと判断した場合(ステップS807;Yes)、遠隔会議モードが終了するか否か判定する(ステップS808)。即ち、処理手段24は、遠隔会議モードの開始後、遠隔ボタン606が押下されたか否か判定する。そして、処理手段24は、遠隔会議モードが終了したと判断した場合(ステップS808;Yes)、フローチャートの処理を終了する。一方、処理手段24は、遠隔会議モードが終了していないと判断した場合(ステップS808;No)、ステップS802へ処理を進める。   Then, after the execution of step S806 or when the updated object information has not been received (step S803; No), the processing means 24 determines whether or not a predetermined time has elapsed since the execution of step S802 (reference time). Determination is made (step S807). Here, in order to reduce the performance load of the PC device 2A, for example, the predetermined time may be set to 1 second. In this case, the processing unit 24 executes the processes of steps S802 to S806 and S808 every second. When the predetermined time has not elapsed since the execution of step S802 (step S807; No), the processing unit 24 waits until the predetermined time elapses. On the other hand, when it is determined that a predetermined time has elapsed since the execution of step S802 (step S807; Yes), it is determined whether or not the remote conference mode is ended (step S808). That is, the processing unit 24 determines whether or not the remote button 606 has been pressed after the start of the remote conference mode. If the processing unit 24 determines that the remote conference mode has ended (step S808; Yes), the processing unit 24 ends the processing of the flowchart. On the other hand, if the processing means 24 determines that the remote conference mode has not ended (step S808; No), the processing proceeds to step S802.

[曲線描画処理の具体例]
図15乃至図17のフローチャートに示す曲線描画処理の具体例について、図20乃至図23を参照してさらに詳しく説明する。図20は、表示領域601に表示される描画対象線の表示例を示す。図20において、座標点T(1)乃至T(6)(かっこ内の数字は生成順序を示す。以後、図20乃至図23において同じ。)は、記入情報から認識した座標情報が示す座標であって、図15のステップS302、S307、S309で開始座標又は/及び終了座標に設定された座標を示す。また、描画対象線L(1)乃至L(5)は、ステップS303で生成された描画対象線を示す。なお、図20、21では、説明の便宜上、背景画像の表示を省略する。
[Specific example of curve drawing processing]
A specific example of the curve drawing process shown in the flowcharts of FIGS. 15 to 17 will be described in more detail with reference to FIGS. FIG. 20 shows a display example of a drawing target line displayed in the display area 601. In FIG. 20, coordinate points T (1) to T (6) (the numbers in parentheses indicate the generation order. Hereinafter, the same applies to FIGS. 20 to 23) are the coordinates indicated by the coordinate information recognized from the entry information. The coordinates set as the start coordinates and / or the end coordinates in steps S302, S307, and S309 in FIG. 15 are shown. The drawing target lines L (1) to L (5) indicate the drawing target lines generated in step S303. 20 and 21, the display of the background image is omitted for convenience of explanation.

まず、最初に、座標点T(1)に相当する座標情報が電子ペン1から送信される記入情報から認識された場合、処理手段24は、座標点T(1)を対象のペンIDの開始座標として記憶手段25に記憶させる(ステップS309参照)。次に、座標点T(2)に相当する座標情報が記入情報から認識された場合、処理手段24は、座標点T(2)を終了座標として記憶すると共に(ステップS302参照)、開始座標である座標点T(1)と終了座標である座標点T(2)を結んだ線分に基づき描画対象線L(1)を生成し(ステップS303参照)、ペンIDに設定されている線種で(ステップS305参照)、表示画面上に一時描画する(ステップS306参照)。その後、処理手段24は、座標点T(2)を開始座標として更新記憶する(ステップS307参照)。次に、座標点T(3)に相当する座標情報が記入情報から認識された場合、処理手段24は、座標点T(3)を終了座標として更新記憶すると共に(ステップS302参照)、開始座標である座標点T(2)と終了座標である座標点T(3)を結んだ線分に基づき描画対象線L(2)を生成し(ステップS303参照)、ペンIDに設定されている線種で(ステップS305参照)、表示画面上に一時描画する(ステップS306参照)。その後、処理手段24は、座標点T(3)を開始座標として更新記憶する(ステップS307参照)。そして、処理手段24は、座標点T(4)乃至T(6)に相当する座標情報を認識した場合にも、同様の処理を行う。図20は、処理手段24が座標点T(6)を終了座標として記憶し、開始座標として記憶されている座標点T(5)とを結ぶ線分である描画対象線L(5)を一時描画する直前の表示領域601を示す。そして、図21は、処理手段24がステップS305で読み込んだ線分情報で描画対象線L(5)を表示画面上に一時描画した際の表示領域601の表示例を示す。   First, when the coordinate information corresponding to the coordinate point T (1) is recognized from the entry information transmitted from the electronic pen 1, the processing means 24 starts the pen ID for the target coordinate point T (1). The coordinates are stored in the storage means 25 (see step S309). Next, when the coordinate information corresponding to the coordinate point T (2) is recognized from the entry information, the processing unit 24 stores the coordinate point T (2) as the end coordinate (see step S302) and uses the start coordinate. A drawing target line L (1) is generated based on a line segment connecting a certain coordinate point T (1) and the end coordinate point T (2) (see step S303), and the line type set in the pen ID. (See step S305), the image is temporarily drawn on the display screen (see step S306). Thereafter, the processing means 24 updates and stores the coordinate point T (2) as the start coordinate (see step S307). Next, when the coordinate information corresponding to the coordinate point T (3) is recognized from the entry information, the processing means 24 updates and stores the coordinate point T (3) as the end coordinate (see step S302) and the start coordinate. A drawing target line L (2) is generated based on a line segment connecting the coordinate point T (2) as the end point and the coordinate point T (3) as the end coordinate (see step S303), and the line set in the pen ID The seed is temporarily drawn on the display screen (see step S306). Thereafter, the processing means 24 updates and stores the coordinate point T (3) as the start coordinate (see step S307). Then, the processing unit 24 performs the same processing when the coordinate information corresponding to the coordinate points T (4) to T (6) is recognized. In FIG. 20, the processing means 24 stores the coordinate point T (6) as the end coordinate, and temporarily draws the drawing target line L (5), which is a line segment connecting the coordinate point T (5) stored as the start coordinate. A display area 601 immediately before drawing is shown. FIG. 21 shows a display example of the display area 601 when the processing object 24 temporarily draws the drawing target line L (5) on the display screen with the line segment information read in step S305.

図22は、座標点T(6)に対応する記入情報を受信後、次に、ペンアップ情報PUを含む記入情報を受信した場合に、処理手段24が座標点T(1)乃至T(6)に基づき生成した曲線L(1−6)の概念図を示す。この場合、処理手段24は、スプライン補間やラグランジュ補間などで用いられる所定の補間関数を用いて座標点T(1)乃至T(6)に基づき、曲線L(1−6)を生成する(ステップS402参照)。なお、図22に示す曲線L(1−6)は、表示領域601上には表示されず、後述する図23の曲線Obj(1−6)が表示領域601上に表示される。図23は、曲線L(1−6)に基づきオブジェクト情報が生成され(ステップS403参照)、当該オブジェクト情報に基づき描かれた曲線Obj(1−6)を示す。図23に示すように、処理手段24は、描画対象線L(1)乃至L(6)を表示領域601から消去して(ステップS602参照)、オブジェクト情報に含まれる線種情報に基づき指定された線種で曲線Objを描いて、表示領域601に表示している(ステップS603参照)。   In FIG. 22, after receiving the entry information corresponding to the coordinate point T (6) and then receiving the entry information including the pen-up information PU, the processing unit 24 performs the coordinate points T (1) to T (6). ) Shows a conceptual diagram of the curve L (1-6) generated based on the above. In this case, the processing unit 24 generates a curve L (1-6) based on the coordinate points T (1) to T (6) using a predetermined interpolation function used in spline interpolation, Lagrangian interpolation, or the like (step S1). (See S402). Note that the curve L (1-6) shown in FIG. 22 is not displayed on the display area 601 and the curve Obj (1-6) of FIG. 23 described later is displayed on the display area 601. FIG. 23 shows a curve Obj (1-6) drawn based on the object information, in which object information is generated based on the curve L (1-6) (see step S403). As shown in FIG. 23, the processing unit 24 deletes the drawing target lines L (1) to L (6) from the display area 601 (see step S602), and is designated based on the line type information included in the object information. The curve Obj is drawn with the selected line type and displayed in the display area 601 (see step S603).

[表示例]
次に、表示領域601の表示例について、図24及び図25を用いて説明する。なお、説明の便宜上、図24、25では、背景画像の絵柄等を省略する。
[Display example]
Next, a display example of the display area 601 will be described with reference to FIGS. For convenience of explanation, the background image pattern and the like are omitted in FIGS.

まず、電子ペン1Aのみにより入力エリア401に記入がなされている場合について図24を用いて説明する。図24(a)は、電子ペン1Aのペンアップ直前のPC装置2Aの表示領域601の表示内容を示す。この場合、電子ペン1Aの記入状態が「書込描画中」であり、処理手段24は、リアルタイム描画処理によって、電子ペン1Aから送信された記入情報に対応する描画対象線をPC装置2Aの表示領域601に一時描画している(ステップS306参照)。図24(b)は、電子ペン1Aのペンアップ直後のPC装置2Aの表示領域601の表示内容を示す。この場合、電子ペン1Aの記入状態はクリアされて(ステップS404参照)、処理手段24は、さらに、描画更新処理によって、表示領域601に一時描画されている描画対象線をクリアする(ステップS602参照)。図24(c)は、PC装置2Aによって生成されたオブジェクト情報に基づき曲線が描画された際の表示領域601の表示内容を示す。処理手段24は、ステップS401乃至S403の処理に基づき生成、記憶したオブジェクト情報より、曲線を表示領域601に描画している(ステップS603参照)。   First, the case where the input area 401 is filled only with the electronic pen 1A will be described with reference to FIG. FIG. 24A shows the display contents of the display area 601 of the PC device 2A immediately before pen-up of the electronic pen 1A. In this case, the entry state of the electronic pen 1A is “Writing / Drawing”, and the processing unit 24 displays the drawing target line corresponding to the entry information transmitted from the electronic pen 1A by the real-time drawing process. The image is temporarily drawn in the area 601 (see step S306). FIG. 24B shows display contents of the display area 601 of the PC device 2A immediately after pen-up of the electronic pen 1A. In this case, the entry state of the electronic pen 1A is cleared (see step S404), and the processing unit 24 further clears the drawing target line temporarily drawn in the display area 601 by the drawing update process (see step S602). ). FIG. 24C shows the display content of the display area 601 when a curve is drawn based on the object information generated by the PC device 2A. The processing means 24 draws a curve in the display area 601 based on the object information generated and stored based on the processing in steps S401 to S403 (see step S603).

次に、電子ペン1A及び電子ペン1Bにより入力エリア401に記入がなされている場合について図25を用いて説明する。図25(a)は、電子ペン1Aがペンアップ直前かつ電子ペン1Bがペンダウン中でのPC装置2Aの表示領域601の表示内容を示す。なお、図25において、「i」は、電子ペン1Aで記入した描画対象線を示し、「ii」は、電子ペン1Bで記入した描画対象線を示す。図25(a)では、電子ペン1Aと電子ペン1Bの記入状態はそれぞれ「書込描画中」となっており、電子ペン1A及び電子ペン1Bで記入した描画対象線が表示領域601に一時描画されている(ステップS306参照)。図25(b)は、電子ペン1Aがペンアップ直後かつ電子ペン1Bがペンアップ直前のPC装置2Aの表示領域601の表示内容を示す。図25(b)では、電子ペン1Aの記入状態が空欄、電子ペン1Bの記入状態が「書込描画中」となっている。このとき、処理手段24は、ステップS401乃至S403に基づき電子ペン1Aの描画対象線からオブジェクト情報を生成・記憶しているが、電子ペン1Bが書込描画中であるため、図25(a)から引き続き、電子ペン1Aの描画対象線が一時描画されている(ステップS601;Yes参照)。図25(c)は、電子ペン1Aがペンアップ後ペンダウンされておらずかつ電子ペン1Bがペンアップ直後の、PC装置2Aの表示領域601の表示内容を示す。図25(c)では、電子ペン1A、1Bの記入状態がいずれも空欄になっており(ステップS601;No参照)、処理手段24は、表示領域601に一時描画されている描画対象線をクリアする(ステップS602参照)。図25(d)は、ステップS401乃至S403で生成、記憶された電子ペン1A、1Bにそれぞれ対応するオブジェクト情報に基づき、曲線を表示領域601に描画した場合のPC装置2Aの表示領域601の表示内容を示す。このとき、処理手段24は、それぞれのオブジェクト情報に含まれる線種情報に基づき、指定された線種でオブジェクト情報に含まれる座標情報に基づきそれぞれの曲線を描く(ステップS603参照)。   Next, the case where entry is made in the input area 401 with the electronic pen 1A and the electronic pen 1B will be described with reference to FIG. FIG. 25A shows the display contents of the display area 601 of the PC device 2A when the electronic pen 1A is immediately before pen-up and the electronic pen 1B is pen-down. In FIG. 25, “i” indicates a drawing target line written with the electronic pen 1A, and “ii” indicates a drawing target line written with the electronic pen 1B. In FIG. 25A, the writing states of the electronic pen 1A and the electronic pen 1B are “writing drawing”, and the drawing target lines written with the electronic pen 1A and the electronic pen 1B are temporarily drawn in the display area 601. (See step S306). FIG. 25B shows display contents of the display area 601 of the PC device 2A immediately after the electronic pen 1A is pen-up and the electronic pen 1B is immediately before pen-up. In FIG. 25B, the entry state of the electronic pen 1A is blank, and the entry state of the electronic pen 1B is “writing drawing”. At this time, the processing unit 24 generates and stores object information from the drawing target line of the electronic pen 1A based on steps S401 to S403. However, since the electronic pen 1B is in writing and drawing, FIG. Since then, the drawing target line of the electronic pen 1A is temporarily drawn (see step S601; Yes). FIG. 25C shows display contents of the display area 601 of the PC device 2A when the electronic pen 1A is not pen-down after pen-up and the electronic pen 1B is immediately after pen-up. In FIG. 25C, the entry states of the electronic pens 1A and 1B are both blank (step S601; see No), and the processing unit 24 clears the drawing target line temporarily drawn in the display area 601. (See step S602). FIG. 25D shows the display area 601 of the PC device 2A when a curve is drawn in the display area 601 based on the object information corresponding to the electronic pens 1A and 1B generated and stored in steps S401 to S403. Show the contents. At this time, the processing means 24 draws each curve based on the coordinate information included in the object information with the specified line type based on the line type information included in the respective object information (see step S603).

[第1実施形態の情報処理システムによる作用効果]
第1実施形態の情報処理システムによれば、各PC装置2は、サーバ装置3がオブジェクト情報を管理することによって、サーバから送信されたオブジェクト情報に基づき、遠隔会議を行う他のPC装置2と表示内容を共有することが可能となる。また、例えば一方のPC装置2の画面を画像情報として他方のPC装置2へ配信することで手書き情報を共有する従来の情報処理システムと比較して、第1実施形態の情報処理システムは、表示内容を同期するのに必要なオブジェクト情報のみをサーバ装置3から受信するため、ネットワーク負荷が小さく、かつ異なるPC装置2と接続された2以上の電子ペン1により同時に記入することも可能となる。さらに、他の例として、PC装置2双方のカーソルの動きをサーバ装置3へ送信し、サーバ装置3で描画を行うと共にその画像情報各PC装置に配信する従来の情報処理システムと比較しても、第1実施形態の情報処理システムは、自ら記入したストローク情報をサーバ装置3へ送信して描画する必要がなく、表示の遅延等を防ぐことができ、ネットワーク負荷も低減することができる。また、第1実施形態の情報処理システムでは、PC装置2の画面解像度などが異なっても、ストローク情報は入力エリア401の座標系から当該入力エリア401に対応する背景画像の座標系に変更されているため、表示の際に位置ずれが生じない。
[Operational effects of the information processing system according to the first embodiment]
According to the information processing system of the first embodiment, each PC device 2 is managed by the server device 3 managing object information, and the other PC devices 2 that perform a remote conference based on the object information transmitted from the server. The display contents can be shared. Further, for example, the information processing system according to the first embodiment displays a screen compared to a conventional information processing system that shares handwritten information by distributing the screen of one PC device 2 to the other PC device 2 as image information. Since only the object information necessary to synchronize the contents is received from the server device 3, the network load is small, and it is possible to simultaneously fill in with two or more electronic pens 1 connected to different PC devices 2. Furthermore, as another example, the movement of the cursor of both PC devices 2 is transmitted to the server device 3, and the server device 3 performs drawing and compares the image information to each PC device. The information processing system according to the first embodiment does not need to send and draw the stroke information entered by itself to the server device 3, can prevent display delay and the like, and can reduce the network load. In the information processing system of the first embodiment, even if the screen resolution of the PC device 2 is different, the stroke information is changed from the coordinate system of the input area 401 to the coordinate system of the background image corresponding to the input area 401. As a result, there is no displacement in the display.

また、第1実施形態の情報処理システムでは、PC装置2が電子ペン1の記入情報をリアルタイムで描画している間は、描画対象線から補間関数による曲線に表示内容を更新しないため、電子ペン1によるストロークを記入中に表示内容の更新により一時描画中の描画対象線が筆記途中でクリアされたり、表示画面がちらつくのを防ぐことができる。   In the information processing system of the first embodiment, while the PC device 2 is drawing the entry information of the electronic pen 1 in real time, the display content is not updated from the drawing target line to the curve by the interpolation function. It is possible to prevent the drawing target line being temporarily drawn from being cleared in the middle of writing or flickering of the display screen by updating the display contents while the stroke of 1 is being entered.

さらに、第1実施形態の情報処理システムでは、サーバ装置3からオブジェクト情報を受信した場合であっても、接続する電子ペン1の記入情報をリアルタイムで描画している間は、受信したオブジェクト情報を描画しないため、電子ペン1によるストロークを記入中に表示内容の更新により一時描画中の描画対象線が筆記途中にクリアされたり、表示画面がちらつくのを防ぐことができる。   Further, in the information processing system according to the first embodiment, even when the object information is received from the server device 3, the received object information is not displayed while the entry information of the connected electronic pen 1 is drawn in real time. Since drawing is not performed, it is possible to prevent the drawing target line being temporarily drawn from being cleared during writing by updating the display contents while the stroke by the electronic pen 1 is being entered, or to prevent the display screen from flickering.

[第1実施形態の変形例]
次に、第1実施形態の変形例について説明する。以下の変形例は、任意に組み合わせて上述の第1実施形態に適用してもよい。
[Modification of First Embodiment]
Next, a modification of the first embodiment will be described. The following modifications may be applied in any combination to the first embodiment described above.

(変形例1)
第1実施形態では、PC装置2は、ストローク情報から補間関数によって曲線の算出後オブジェクト情報を生成し、他のPC装置2によって生成されたオブジェクト情報を受信した場合には、当該オブジェクト情報に基づき曲線を表示領域601に表示した。これに代えて、PC装置2は、オブジェクト情報の算出時には補間関数による曲線を求めず、表示領域601への描画時に補間関数により曲線を算出してストロークを描画してもよい。これにより、PC装置2は、送受信するオブジェクト情報のデータ量が過大になるのを防ぎ、ネットワーク負荷を低減させる。これについて、上述した第1実施形態と異なる処理を実行する部分を、図26乃至28を参照して説明する。
(Modification 1)
In the first embodiment, the PC device 2 generates object information after calculating a curve from the stroke information using an interpolation function, and receives object information generated by another PC device 2 based on the object information. A curve is displayed in the display area 601. Instead of this, the PC device 2 may draw the stroke by calculating the curve by the interpolation function at the time of drawing in the display area 601 without obtaining the curve by the interpolation function at the time of calculating the object information. Thereby, the PC device 2 prevents the data amount of the object information to be transmitted and received from becoming excessive, and reduces the network load. This will be described with reference to FIGS. 26 to 28 for a portion that executes processing different from that of the first embodiment described above.

図26は、変形例1に係るオブジェクト情報の生成処理及び記憶処理の手順を示すフローチャートである。まず、処理手段24は、記入状態が「書込中」または「書込描画中」に受信した座標情報よりストローク情報を認識する(ステップS421)。そして、処理手段24は、入力エリア401内のストローク情報からオブジェクト情報を生成し、記憶手段25に記憶させる(ステップS422)。具体的には、処理手段24は、ストローク情報に含まれるX、Y座標データと、X、Y座標データから特定した入力エリア401に対応するページ番号と、ストローク情報に含まれるペンIDと、ペンIDから特定した線種情報とを対応付けて、オブジェクト情報として生成・記憶する。その後、処理手段24は、第1実施形態のステップS404乃至S407(図16参照)と同様の処理を、ステップS423乃至S426で実行する。   FIG. 26 is a flowchart illustrating a procedure of object information generation processing and storage processing according to the first modification. First, the processing means 24 recognizes stroke information from the coordinate information received when the entry state is “writing” or “writing drawing” (step S421). Then, the processing unit 24 generates object information from the stroke information in the input area 401 and stores it in the storage unit 25 (step S422). Specifically, the processing means 24 includes X, Y coordinate data included in the stroke information, a page number corresponding to the input area 401 specified from the X, Y coordinate data, a pen ID included in the stroke information, and a pen The line type information specified from the ID is associated and generated and stored as object information. Thereafter, the processing unit 24 performs the same processing as Steps S404 to S407 (see FIG. 16) of the first embodiment in Steps S423 to S426.

図27は、変形例1に係るステップS424の描画更新処理の手順を示すフローチャートである。記入状態が「書込描画中」のペンIDが存在しないと判断した場合(ステップS621;No)、処理手段24は、一時描画している描画対象線を表示画面上よりクリアする(ステップS622)。そして、処理手段24は、PC装置2内に記憶されている表示領域601内のオブジェクト情報から補間関数によって曲線を算出する(ステップS623)。具体的には、処理手段24は、表示領域601で表示している背景画像に対応するページ番号と同じページ番号を持ち、表示範囲に含まれるオブジェクト情報を記憶手段25より読み出し、当該オブジェクト情報の座標データが示す各座標点から補間関数により曲線を算出する。そして、処理手段24は、算出した曲線を表示画面上に描画・更新する(ステップS624)。この場合、処理手段24は、表示領域601での背景画像の表示範囲と拡大・縮小率に合わせて表示領域601に当該曲線を該当する線種で描画する。   FIG. 27 is a flowchart illustrating the procedure of the drawing update process in step S424 according to the first modification. When it is determined that there is no pen ID whose entry state is “writing and drawing” (step S621; No), the processing unit 24 clears the drawing target line temporarily drawn from the display screen (step S622). . Then, the processing means 24 calculates a curve by an interpolation function from the object information in the display area 601 stored in the PC device 2 (step S623). Specifically, the processing unit 24 has the same page number as the page number corresponding to the background image displayed in the display area 601, reads object information included in the display range from the storage unit 25, and stores the object information A curve is calculated from each coordinate point indicated by the coordinate data by an interpolation function. Then, the processing means 24 draws / updates the calculated curve on the display screen (step S624). In this case, the processing means 24 draws the curve with the corresponding line type in the display area 601 in accordance with the display range of the background image in the display area 601 and the enlargement / reduction ratio.

図28は、変形例1に係る表示更新処理の手順を示すフローチャートである。処理手段24は、ユーザによる前ボタン602、次ボタン603、拡大ボタン604、又は縮小ボタン605の押下により、表示領域601の表示内容を変更するよう指示されたと判断した場合(ステップS721;Yes)、一時描画している描画対象線を表示画面上よりクリアし(ステップS722)、描画済みのオブジェクト情報と、表示済みの背景画像を表示画面上よりクリアし(ステップS723)、変更された表示領域601に対応する背景画像を表示する(ステップS724)。次に処理手段24は、PC装置2内に記憶されている表示領域601内のオブジェクト情報から補間関数によって曲線を算出する(ステップS725)。具体的には、処理手段24は、表示領域601で表示している背景画像に対応するページ番号と同じページ番号を持ち、表示範囲に含まれるオブジェクト情報を記憶手段25より読み出し、当該オブジェクト情報の座標データが示す各座標点から補間関数により曲線を算出する。そして、処理手段24は、算出した曲線を表示画面上に描画・更新する(ステップS726)。この場合、処理手段24は、表示領域601での背景画像の表示範囲と拡大・縮小率に合わせて表示領域601に当該曲線を該当する線種で描画する。   FIG. 28 is a flowchart illustrating a procedure of display update processing according to the first modification. When the processing unit 24 determines that the user has instructed to change the display content of the display area 601 by pressing the previous button 602, the next button 603, the enlargement button 604, or the reduction button 605 (step S721; Yes), The drawing line to be temporarily drawn is cleared from the display screen (step S722), the drawn object information and the displayed background image are cleared from the display screen (step S723), and the changed display area 601 is displayed. A background image corresponding to is displayed (step S724). Next, the processing means 24 calculates a curve by an interpolation function from the object information in the display area 601 stored in the PC device 2 (step S725). Specifically, the processing unit 24 has the same page number as the page number corresponding to the background image displayed in the display area 601, reads object information included in the display range from the storage unit 25, and stores the object information A curve is calculated from each coordinate point indicated by the coordinate data by an interpolation function. Then, the processing means 24 draws / updates the calculated curve on the display screen (step S726). In this case, the processing means 24 draws the curve with the corresponding line type in the display area 601 in accordance with the display range of the background image in the display area 601 and the enlargement / reduction ratio.

なお、処理手段24は、図27のステップS623、S624及び図28のステップS725、S726の処理に代えて、オブジェクト情報から補間関数によって曲線を算出後、その曲線座標データを記憶手段25に記憶させてもよい。そして、処理手段24は、対象となるオブジェクト情報に対応する曲線座標データが記憶手段25により既に記憶されている場合には、補間関数を用いて曲線を算出することなく、当該曲線座標データを記憶手段25より読み出し、該当する線種で表示画面上に描画・更新する。   Note that the processing unit 24 calculates the curve from the object information using the interpolation function instead of the processing of steps S623 and S624 in FIG. 27 and steps S725 and S726 in FIG. 28, and stores the curve coordinate data in the storage unit 25. May be. Then, when the curve coordinate data corresponding to the target object information is already stored in the storage unit 25, the processing unit 24 stores the curve coordinate data without calculating the curve using the interpolation function. Read from the means 25 and draw / update on the display screen with the corresponding line type.

(変形例2)
第1実施形態では、線種変更指示エリア501、502は、入力エリア401が印刷された入力用紙4とは別の用紙である指示用紙5に印刷された。これに代えて、線種変更指示エリア501、502は、入力用紙4上に入力エリア401と共に印刷されてもよい。この場合、入力用紙4は、指示用紙5としても機能する。また、第1実施形態では、情報処理システム10は、線種変更指示エリア501、502により2種類の線幅を指定可能であった。これに代えて、情報処理システム10は、線幅を指定可能なエリアを指示用紙5に3以上設け、3種類以上の線幅を指定可能であってもよい。さらに、情報処理システム10は、線幅に代えて、またはこれに加え、線の色や、実線、破線、鎖線といった線のスタイルを指定可能なエリアを指示用紙5上に複数設けてもよい。
(Modification 2)
In the first embodiment, the line type change instruction areas 501 and 502 are printed on the instruction sheet 5 which is a sheet different from the input sheet 4 on which the input area 401 is printed. Instead, the line type change instruction areas 501 and 502 may be printed together with the input area 401 on the input paper 4. In this case, the input sheet 4 also functions as the instruction sheet 5. In the first embodiment, the information processing system 10 can designate two types of line widths using the line type change instruction areas 501 and 502. Instead of this, the information processing system 10 may be provided with three or more areas where the line width can be specified on the instruction sheet 5 and can specify three or more types of line widths. Furthermore, the information processing system 10 may provide a plurality of areas on the instruction sheet 5 in which the line color, the line style such as the solid line, the broken line, and the chain line can be designated instead of or in addition to the line width.

(変形例3)
情報処理システム10は、図1に示す構成に加え、サーバ装置3から所定時間ごとにオブジェクト情報を受信し、受信したオブジェクト情報をPC装置上で描画する閲覧専用のPC装置を設けてもよい。
(Modification 3)
In addition to the configuration shown in FIG. 1, the information processing system 10 may be provided with a viewing-only PC device that receives object information from the server device 3 every predetermined time and draws the received object information on the PC device.

(変形例4)
上記第1実施形態において、コード化パターンはアノト方式のドットパターンであったが、位置座標を示すコード化パターンであれば、アノト方式のドットパターンに限られない。
(Modification 4)
In the first embodiment, the coding pattern is an Anoto dot pattern. However, the coding pattern is not limited to the Anoto dot pattern as long as it is a coding pattern indicating position coordinates.

(変形例5)
上記第1実施形態では、オブジェクトIDは、通し番号が付され、PC装置2は、サーバ装置3に対し、最後のオブジェクトIDを送信することで、更新分のオブジェクト情報を要求していた。これに代えて、PC装置2は、サーバ装置3に対し、受信した全てのオブジェクトID又はそれに相当する情報をサーバ装置3に対し送信することで、更新分のオブジェクト情報を要求してもよい。この場合、必ずしもオブジェクト情報は通し番号でなくともよい。または、PC装置2は、時間情報を含むオブジェクト情報を生成することとして、サーバ装置3に対し、受信済みのオブジェクト情報に含まれる時間情報のうち最新の時間情報を送信することで、更新分のオブジェクト情報を要求してもよい。時間情報としては、対応するストローク情報のペンアップ直前の記入情報に含まれる時間情報、又はオブジェクト情報の生成時刻とすればよい。
(Modification 5)
In the first embodiment, the object ID is assigned a serial number, and the PC device 2 requests the updated object information by transmitting the last object ID to the server device 3. Instead, the PC device 2 may request updated object information by transmitting all the received object IDs or information corresponding thereto to the server device 3. In this case, the object information is not necessarily a serial number. Alternatively, the PC device 2 generates the object information including the time information, and transmits the latest time information among the time information included in the received object information to the server device 3, thereby updating the updated information. Object information may be requested. The time information may be the time information included in the entry information immediately before pen-up of the corresponding stroke information, or the generation time of the object information.

<第2実施形態>
次に、第2実施形態について説明する。第2実施形態が第1実施形態と異なる点は、ドットパターンが印刷されたスクリーン8にプロジェクタ7によってPC装置2の表示手段26の画面を投影させることで、入力用紙4に代えてスクリーン8上で電子ペン1の記入を行う点である。以後では、第1実施形態と同様の部分については、適宜説明を省略する。
Second Embodiment
Next, a second embodiment will be described. The second embodiment is different from the first embodiment in that the screen of the display unit 26 of the PC device 2 is projected by the projector 7 onto the screen 8 on which the dot pattern is printed, so that the input paper 4 is replaced with the screen 8. The point is that the electronic pen 1 is filled in. Hereinafter, the description of the same parts as those in the first embodiment will be omitted as appropriate.

図29は、第2実施形態に係る情報処理システム100Aの構成を示す。なお、図29では、説明の便宜上、遠隔会議を行う1台のPC装置2C及びその周辺要素のみを示し、サーバ装置3及び他のPC装置2を図示していない。図29に示すように、第2実施形態に係る情報処理システム100Aは、主に電子ペン1と、PC装置2Cと、指示用紙5と、プロジェクタ7と、スクリーン8とを備える。   FIG. 29 shows the configuration of an information processing system 100A according to the second embodiment. In FIG. 29, for convenience of explanation, only one PC device 2C that performs a remote conference and its peripheral elements are shown, and the server device 3 and other PC devices 2 are not shown. As shown in FIG. 29, the information processing system 100A according to the second embodiment mainly includes an electronic pen 1, a PC device 2C, an instruction sheet 5, a projector 7, and a screen 8.

図29では、このような情報処理システム100Aを第1実施形態と同様、遠隔会議システムに用いている。PC装置2Cには、ディスプレイ201の表示画面と同じ画像をスクリーン8に投影するプロジェクタ7が接続されている。そして、PC装置2Cは、第1実施形態と同様、サーバ装置3を介して、他のPC装置2とオブジェクト情報の授受を行う。   In FIG. 29, such an information processing system 100A is used in the remote conference system as in the first embodiment. A projector 7 that projects the same image as the display screen of the display 201 onto the screen 8 is connected to the PC device 2C. The PC device 2 </ b> C exchanges object information with other PC devices 2 via the server device 3 as in the first embodiment.

スクリーン8は、電子ペン1に筆圧がかかるよう硬めの素材からなるマグネット板801と、用紙802と、投影領域803とを有する。用紙802には、電子ペン1により読み取ることができるよう赤外線を吸収するカーボンを含んだインクにより略全面にドットパターンが印刷され、さらにドットパターンが例えば透明なEB硬化樹脂層などで保護されている。投影領域803は、PC装置2Cのディスプレイ201に表示する内容と同じ画像がプロジェクタ7によって投影され、電子ペン1を用いてストロークが記入される領域である。投影領域803に合わせてプロジェクタ7が画像を投影するように、プロジェクタ7とスクリーン8との距離、及びプロジェクタ7の仰角などが予め調整される。ここで、プロジェクタ7による画像の投影範囲が、投影領域803とぴったり一致しない場合でも、後述するキャリブレーション処理によって、スクリーン8条の位置座標が投影された画像のどの位置に該当するかを、PC装置2Cは把握することができる。スクリーン8は、本発明における「入力用紙」の一例である。   The screen 8 includes a magnet plate 801 made of a hard material so that writing pressure is applied to the electronic pen 1, a sheet 802, and a projection region 803. A dot pattern is printed on substantially the entire surface of the paper 802 with ink containing carbon that absorbs infrared rays so that it can be read by the electronic pen 1, and the dot pattern is protected by, for example, a transparent EB cured resin layer. . The projection area 803 is an area in which the same image as the content displayed on the display 201 of the PC device 2 </ b> C is projected by the projector 7 and a stroke is written using the electronic pen 1. The distance between the projector 7 and the screen 8, the elevation angle of the projector 7 and the like are adjusted in advance so that the projector 7 projects an image in accordance with the projection area 803. Here, even when the projection range of the image by the projector 7 does not exactly coincide with the projection region 803, it is possible to determine which position in the projected image the position coordinates of the screen strip 8 correspond to by the calibration process described later. The device 2C can grasp it. The screen 8 is an example of the “input paper” in the present invention.

PC装置2Cの処理手段24は、キャリブレーション用マークを少なくとも2以上、ディスプレイ201に表示させることにより、プロジェクタ7に対し、スクリーン8にもキャリブレーション用マークを投影させ、キャリブレーション用マークが投影された位置のドットパターンを電子ペン1に読み取らせて記入情報を受信することで、スクリーン8のドットパターンにかかる座標系をディスプレイ201にかかる座標系に変換するための座標変換関数を求めて、記憶手段25に記憶する(キャリブレーション処理機能)。さらに、処理手段24は、そのキャリブレーション処理により求められた座標変換関数を用いて、スクリーン8のドットパターンにかかる座標系のデータを受信したときに、ディスプレイ201にかかる座標系のデータに変換し、ストロークを描画したり、所定の処理を行ったりする。   The processing unit 24 of the PC device 2C causes the projector 7 to project the calibration mark onto the screen 8 by displaying at least two calibration marks on the display 201, and the calibration mark is projected. A coordinate conversion function for converting the coordinate system related to the dot pattern on the screen 8 to the coordinate system related to the display 201 is obtained by causing the electronic pen 1 to read the dot pattern at the selected position and receiving the entry information, and store it. Store in the means 25 (calibration processing function). Further, the processing means 24 converts the coordinate system data relating to the dot pattern of the screen 8 to the coordinate system data relating to the display 201 using the coordinate transformation function obtained by the calibration process. , Strokes are drawn or predetermined processing is performed.

図30は、プロジェクタ7によって投影された投影領域803内の表示アプリケーション6の表示領域601に相当するエリア(以後、「入力エリア401C」と呼ぶ。)に、ユーザが電子ペン1により記入中である場合のスクリーン8の表示例を示す。この場合、PC装置2Cの処理手段24は、電子ペン1より受信した記入情報に含まれる投影領域803上の座標データを、キャリブレーション処理によって算出した座標変換関数によって、ディスプレイ201上の座標データへ変換する。そして、処理手段24は、変換した座標データより入力エリア401Cへの記入であると判断した場合、描画処理を実行して、表示アプリケーション6の表示領域601に表示中の背景画像に重畳して、電子ペン1のストロークを表示する。ここで、処理手段24は、第1実施形態では図9に示すデータベースを参照して記入情報に含まれる座標情報から処理対象となるページ番号を特定した。これに代えて、第2実施形態では、処理手段24は、ドットパターンが示す座標情報ではページ番号が区別できないため、電子ペン1の記入情報を受信時に表示アプリケーション6により表示している背景画像に対応するページ番号を処理対象のページ番号として特定する。   FIG. 30 shows that the user is filling in an area with the electronic pen 1 in an area corresponding to the display area 601 of the display application 6 in the projection area 803 projected by the projector 7 (hereinafter referred to as “input area 401C”). The example of a display of the screen 8 in the case is shown. In this case, the processing unit 24 of the PC device 2C converts the coordinate data on the projection area 803 included in the entry information received from the electronic pen 1 into the coordinate data on the display 201 using the coordinate conversion function calculated by the calibration process. Convert. When the processing unit 24 determines that the input is made in the input area 401C from the converted coordinate data, the processing unit 24 executes a drawing process and superimposes the background image being displayed on the display area 601 of the display application 6, The stroke of the electronic pen 1 is displayed. Here, in the first embodiment, the processing unit 24 refers to the database shown in FIG. 9 and specifies the page number to be processed from the coordinate information included in the entry information. Instead, in the second embodiment, the processing unit 24 cannot distinguish the page number from the coordinate information indicated by the dot pattern, so that the entry information of the electronic pen 1 is displayed on the background image displayed by the display application 6 at the time of reception. The corresponding page number is specified as the page number to be processed.

次に、第1実施形態で説明した図14乃至図19に示す処理フローと異なる処理部分について説明する。図31は、第1実施形態の図14に相当する第2実施形態の処理手順を示すフローチャートである。図31に示すように、第2実施形態では、図14に比べステップS223の処理が新たに加えられている。具体的には、PC装置2Cにおいて、受信手段22が、電子ペン1から送信された記入情報を受信すると、処理手段24は、記憶手段25に、その記入情報を記憶させる(ステップS221)。次に、処理手段24は、その記入情報から座標情報を認識した場合(ステップS222;Yes)、キャリブレーション処理により求められた座標変換関数を用いて、座標情報の座標系を変換する(ステップS223)。具体的には、処理手段24は、座標情報の座標系を、スクリーン8のドットパターンにかかる座標系から、座標変換関数によって、ディスプレイ201上の座標系へ変換する。その後、処理手段24は、ステップS224乃至S230の処理を、ステップS203乃至S209(図14参照)と同様に実行する。   Next, processing portions different from the processing flows shown in FIGS. 14 to 19 described in the first embodiment will be described. FIG. 31 is a flowchart showing a processing procedure of the second embodiment corresponding to FIG. 14 of the first embodiment. As shown in FIG. 31, in the second embodiment, the process of step S223 is newly added compared to FIG. Specifically, when the receiving unit 22 receives the entry information transmitted from the electronic pen 1 in the PC device 2C, the processing unit 24 stores the entry information in the storage unit 25 (step S221). Next, when the coordinate information is recognized from the entry information (step S222; Yes), the processing unit 24 converts the coordinate system of the coordinate information using the coordinate conversion function obtained by the calibration process (step S223). ). Specifically, the processing unit 24 converts the coordinate system of the coordinate information from the coordinate system related to the dot pattern on the screen 8 to the coordinate system on the display 201 by the coordinate conversion function. Thereafter, the processing unit 24 executes the processes of steps S224 to S230 in the same manner as steps S203 to S209 (see FIG. 14).

第2実施形態においては、リアルタイム描画処理、オブジェクト情報の生成処理及び記憶処理、描画更新処理、表示更新処理、オブジェクト情報の照会及び受信処理、変形例等については、第1実施形態と同様である。   In the second embodiment, real-time drawing processing, object information generation processing and storage processing, drawing update processing, display update processing, object information inquiry and reception processing, modification examples, and the like are the same as in the first embodiment. .

[第2実施形態の情報処理システムによる作用効果]
第2実施形態の情報処理システム100Aによれば、PC装置2Cは、サーバから送信されたオブジェクト情報に基づき、遠隔会議を行う他のPC装置2とスクリーン8上で表示内容を共有することが可能となると共に、スクリーン8上での電子ペン1の筆記内容を入力用紙4上での筆記内容と同様に処理することができる。また、第2実施形態の情報処理システム100Aでは、キャリブレーション処理を行うことで、座標変換関数を用いて、スクリーン8のドットパターンにかかる座標系から、ディスプレイ201上の座標系へ座標情報が変換されているため、表示の際に位置ずれが生じない。
[Operational effects of the information processing system of the second embodiment]
According to the information processing system 100A of the second embodiment, the PC device 2C can share the display content on the screen 8 with another PC device 2 that performs a remote conference based on the object information transmitted from the server. At the same time, the writing contents of the electronic pen 1 on the screen 8 can be processed in the same manner as the writing contents on the input paper 4. In the information processing system 100A of the second embodiment, the coordinate information is converted from the coordinate system related to the dot pattern on the screen 8 to the coordinate system on the display 201 using the coordinate conversion function by performing the calibration process. For this reason, no positional deviation occurs during display.

<第3実施形態>
次に、第3実施形態について説明する。第3実施形態が第2実施形態と異なる点は、スクリーン8に代えて、PC装置2のディスプレイに貼り付け可能な透明シートを用いる点である。以下では、第3実施形態と第1実施形態及び第2実施形態とが同様の部分については同じ符号を付し、適宜その説明を省略する。
<Third Embodiment>
Next, a third embodiment will be described. The third embodiment differs from the second embodiment in that a transparent sheet that can be attached to the display of the PC device 2 is used instead of the screen 8. Hereinafter, the same reference numerals are given to the same parts in the third embodiment, the first embodiment, and the second embodiment, and the description thereof will be omitted as appropriate.

図32は、第3実施形態に係る情報処理システム100Bの概略構成例を示す。なお、図32では、説明の便宜上、遠隔会議を行う1台のPC装置2D及びその周辺要素のみを示し、サーバ装置3及び他のPC装置2を図示していない。図32に示すように、情報処理システム100Bは、主に電子ペン1と、PC装置2Dと、指示用紙5と、透明シート9とを備える。透明シート9には、電子ペン1により読み取ることができるよう赤外線を反射する材料を含んだインクにより略全面にドットパターンが印刷され、PC装置2のディスプレイ201に貼り付けられる。透明シート9は、本発明における「入力用紙」の一例である。また、第2実施形態と同様、PC装置2Dの処理手段24は、キャリブレーション用マークを少なくとも2以上、ディスプレイ201に表示させ、キャリブレーション用マークが投影された位置のドットパターンを電子ペン1に読み取らせて記入情報を受信することで、透明シート9のドットパターンにかかる座標系をディスプレイ201にかかる座標系に変換するための座標変換関数を求める(キャリブレーション処理機能)。さらに、処理手段24は、そのキャリブレーション処理により求められた座標変換関数を用いて、透明シート9のドットパターンにかかる座標系のデータを受信したときに、ディスプレイ201にかかる座標系のデータに変換し、ストロークを描画したり、所定の処理を行ったりする。なお、透明シート9の構造は、特許文献4に記載の発明を採用することができる。また、電子ペン1は、透明シート9に印刷された、赤外線を反射するドットパターンも、撮像画像の二値化後の反転などにより、読み取ることができるようにするとよい。   FIG. 32 shows a schematic configuration example of an information processing system 100B according to the third embodiment. In FIG. 32, for convenience of explanation, only one PC device 2D that performs a remote conference and its peripheral elements are shown, and the server device 3 and other PC devices 2 are not shown. As shown in FIG. 32, the information processing system 100B mainly includes an electronic pen 1, a PC device 2D, an instruction sheet 5, and a transparent sheet 9. A dot pattern is printed on substantially the entire surface of the transparent sheet 9 with ink containing a material that reflects infrared rays so that it can be read by the electronic pen 1, and is attached to the display 201 of the PC device 2. The transparent sheet 9 is an example of the “input paper” in the present invention. Similarly to the second embodiment, the processing unit 24 of the PC device 2D displays at least two or more calibration marks on the display 201, and the dot pattern at the position where the calibration marks are projected is displayed on the electronic pen 1. A coordinate conversion function for converting the coordinate system related to the dot pattern of the transparent sheet 9 to the coordinate system related to the display 201 is obtained by reading and receiving the entry information (calibration processing function). Further, the processing means 24 converts the coordinate system data relating to the dot pattern of the transparent sheet 9 into the coordinate system data relating to the display 201 using the coordinate transformation function obtained by the calibration process. Then, strokes are drawn or predetermined processing is performed. In addition, the structure of the patent document 4 can be employ | adopted for the structure of the transparent sheet 9. FIG. In addition, the electronic pen 1 is preferably configured to be able to read the dot pattern printed on the transparent sheet 9 and reflecting infrared rays by inversion after binarization of the captured image.

第3実施形態においては、オブジェクト情報送信側の処理概要、リアルタイム描画処理、オブジェクト情報の生成処理及び記憶処理、描画更新処理、表示更新処理、オブジェクト情報の照会及び受信処理、変形例等については、第2実施形態と同様である。   In the third embodiment, processing outline on the object information transmission side, real-time drawing processing, object information generation processing and storage processing, drawing update processing, display update processing, object information inquiry and reception processing, modification examples, etc. This is the same as in the second embodiment.

[第3実施形態の情報処理システムによる作用効果]
第3実施形態の情報処理システム100Bによれば、PC装置2Dは、サーバから送信されたオブジェクト情報に基づき、遠隔会議を行う他のPC装置2と表示内容を共有することが可能となると共に、透明シート9を介したディスプレイ201上での電子ペン1の筆記内容を処理することができる。また、第3実施形態の情報処理システム100Bでは、キャリブレーション処理を行うことで、第2実施形態と同様、表示の際に位置ずれが生じない。
[Operational effects of the information processing system of the third embodiment]
According to the information processing system 100B of the third embodiment, the PC device 2D can share display contents with other PC devices 2 that conduct a remote conference based on the object information transmitted from the server. The written content of the electronic pen 1 on the display 201 via the transparent sheet 9 can be processed. Further, in the information processing system 100B of the third embodiment, by performing the calibration process, as in the second embodiment, no positional deviation occurs during display.

<第4実施形態>
次に、第4実施形態について説明する。第4実施形態が第1〜第3実施形態と異なる点は、マウスなどのポインティングデバイスのドラッグ操作によって、表示アプリケーション6の表示領域601に相当するエリア(以後、「入力エリア401E」と呼ぶ。)内へストロークを直接記入する点である。即ち、第4実施形態の情報処理システムは、遠隔会議を行うユーザが使用するPC装置2Eと、サーバ装置3とを最小構成として備える。以下では、第4実施形態と第1〜第3実施形態とが同様の部分については同じ符号を付し、適宜その説明を省略する。
<Fourth embodiment>
Next, a fourth embodiment will be described. The fourth embodiment differs from the first to third embodiments in that an area corresponding to the display area 601 of the display application 6 (hereinafter referred to as “input area 401E”) by a drag operation of a pointing device such as a mouse. This is the point where the stroke is directly entered. That is, the information processing system of the fourth embodiment includes a PC device 2E used by a user who performs a remote conference and a server device 3 as a minimum configuration. Hereinafter, the same reference numerals are given to the same parts in the fourth embodiment and the first to third embodiments, and the description thereof will be omitted as appropriate.

図33は、第4実施形態におけるPC装置2Eのディスプレイ201上での表示アプリケーション6の表示例を示す。図33に示すように、第4実施形態では、PC装置2Eのユーザは、マウスなどのポインティングデバイスのドラッグ操作によって、マウスポインタ608を移動操作し、処理手段24は、入力エリア401Eでのマウスポインタ608の移動軌跡を手書きストロークとして処理する。具体的には、処理手段24は、ポインティングデバイスから入力されるマウスポインタ608の移動軌跡情報を所定時間幅でサンプリングした表示領域601上の座標系(即ち、背景画像の座標系)での座標点を座標情報として特定する。ここで、「移動軌跡情報」は、電子ペン1が生成する記入情報と、座標情報を有する点で共通し、電子ペン1が生成する記入情報と同様、本発明における「記入情報」の一例である。なお、移動軌跡情報と電子ペン1が生成する記入情報とは、データの内容及び形式が必ずしも一致する必要はなく、異なるデータの内容及び形式であってもよい。   FIG. 33 shows a display example of the display application 6 on the display 201 of the PC device 2E in the fourth embodiment. As shown in FIG. 33, in the fourth embodiment, the user of the PC device 2E moves the mouse pointer 608 by dragging a pointing device such as a mouse, and the processing means 24 moves the mouse pointer in the input area 401E. The movement locus of 608 is processed as a handwritten stroke. Specifically, the processing unit 24 coordinates points in the coordinate system (that is, the coordinate system of the background image) on the display area 601 obtained by sampling the movement trajectory information of the mouse pointer 608 input from the pointing device with a predetermined time width. Is specified as coordinate information. Here, the “movement trajectory information” is common to the entry information generated by the electronic pen 1 and the coordinate information, and is similar to the entry information generated by the electronic pen 1 and is an example of “entry information” in the present invention. is there. Note that the movement trajectory information and the entry information generated by the electronic pen 1 do not necessarily have the same data content and format, and may have different data content and format.

図34は、第4実施形態において、PC装置2Eによって実行されるオブジェクト情報送信側の処理手順を示すフローチャートである。図34に示す処理フローは、ポインティングデバイスの一例であるマウスからの入力信号を受信するごとに実行される。   FIG. 34 is a flowchart illustrating a processing procedure on the object information transmission side executed by the PC device 2E in the fourth embodiment. The processing flow shown in FIG. 34 is executed every time an input signal from a mouse which is an example of a pointing device is received.

まず、PC装置2Eの処理手段24は、マウスの左ボタンが押下されたか否か判定する(ステップS241)。そして、マウスの左ボタンが押下されたと判断した場合(ステップS241;Yes)、処理手段24は、入力エリア401E上にマウスポインタ608が含まれるか否か判定する(ステップS242)。そして、入力エリア401E上にマウスポインタ608が含まれる場合(ステップS242;Yes)、処理手段24は、ペンIDの記入情報を「書込描画中」に設定する(ステップS243)。このとき、図11に示すデータベースの最後の行に示すように、PC装置2は、マウスのペンIDを例えば「Mouse」として記憶し、識別する。そして、処理手段24は、図15のフローチャートに基づきリアルタイム描画処理を行い、マウスポインタ608の移動に従って描画対象線を作成し、ディスプレイ201上に描画する(ステップS244)。   First, the processing means 24 of the PC device 2E determines whether or not the left button of the mouse has been pressed (step S241). If it is determined that the left button of the mouse has been pressed (step S241; Yes), the processing unit 24 determines whether or not the mouse pointer 608 is included on the input area 401E (step S242). When the mouse pointer 608 is included on the input area 401E (step S242; Yes), the processing unit 24 sets the entry information of the pen ID to “being written” (step S243). At this time, as shown in the last line of the database shown in FIG. 11, the PC device 2 stores and identifies the mouse pen ID as “Mouse”, for example. Then, the processing means 24 performs real-time drawing processing based on the flowchart of FIG. 15, creates a drawing target line according to the movement of the mouse pointer 608, and draws it on the display 201 (step S244).

一方、マウスの左ボタンが押下されていないと判断した場合(ステップS241;No)、又は、入力エリア401E上にマウスポインタ608が含まれないと判断した場合(ステップS242;No)、処理手段24は、当該マウスのペンIDの記入状態が「書込中」または「書込描画中」であるか否か判定する(ステップS245)。そして、処理手段24は、マウスのペンIDの記入状態が「書込中」または「書込描画中」の場合(ステップS245;Yes)には、図16のフローチャートの処理(オブジェクト情報の生成処理及び記憶処理)を実行する。一方、マウスのペンIDの記入状態が「書込中」及び「書込描画中」でない場合(ステップS245;No)、処理手段24は、フローチャートの処理を終了する。   On the other hand, when it is determined that the left button of the mouse is not pressed (step S241; No), or when it is determined that the mouse pointer 608 is not included on the input area 401E (step S242; No), the processing unit 24. Determines whether the pen ID entry state of the mouse is “writing” or “writing drawing” (step S245). Then, when the entry state of the mouse pen ID is “Writing” or “Writing / Drawing” (step S245; Yes), the processing means 24 performs the processing (object information generation processing) of the flowchart of FIG. And storage processing). On the other hand, when the entry state of the pen ID of the mouse is not “writing” or “writing drawing” (step S245; No), the processing unit 24 ends the processing of the flowchart.

なお、上述の第4実施形態において、ポインティングデバイスによる手書きストロークは、固定の線種で描画されるが、これに代えて、表示アプリケーション6の表示領域601に相当するエリアに、入力エリア401E及び線種変更指示エリア501E、502Eを設けて、ポインティングデバイスによる手書きストロークを表示する際の線種をユーザが指定できるようにしてもよい。この場合、図34のフローチャートは次のように変更する。ステップS242で、入力エリア401Eにマウスポインタ608が含まれないと判断した場合(ステップS242;No)、処理手段24は、線種変更指示エリア501E、502Eにマウスポインタ608が含まれるか否かを判定する(図14ステップS206参照)。そして、処理手段24は、そして、線種変更指示エリア501E、502Eへ記入されたと判断した場合、処理手段24は、マウスのペンIDの線種情報を、線種変更指示エリア501、502で規定された線種に更新する(図14ステップS207参照)。一方、線種変更指示エリア501、502への記入ではないと判断した場合、処理手段24は、ステップS245の処理を実行する。   In the fourth embodiment described above, the handwritten stroke by the pointing device is drawn with a fixed line type. Instead, the input area 401E and the line are included in the area corresponding to the display area 601 of the display application 6. The seed change instruction areas 501E and 502E may be provided so that the user can specify the line type when displaying the handwritten stroke by the pointing device. In this case, the flowchart of FIG. 34 is changed as follows. If it is determined in step S242 that the mouse pointer 608 is not included in the input area 401E (step S242; No), the processing unit 24 determines whether or not the mouse pointer 608 is included in the line type change instruction areas 501E and 502E. Determination is made (see step S206 in FIG. 14). If the processing unit 24 determines that the line type change instruction areas 501E and 502E have been entered, the processing unit 24 defines the line type information of the mouse pen ID in the line type change instruction areas 501 and 502. The updated line type is updated (see step S207 in FIG. 14). On the other hand, if it is determined that the entry is not in the line type change instruction areas 501 and 502, the processing unit 24 executes the process of step S245.

なお、第4実施形態においては、リアルタイム描画処理、オブジェクト情報の生成処理及び記憶処理、描画更新処理、表示更新処理、オブジェクト情報の照会及び受信処理、変形例等については、第1〜3実施形態と同様である。   In the fourth embodiment, real-time drawing processing, object information generation processing and storage processing, drawing update processing, display update processing, object information inquiry and reception processing, modification examples, and the like are described in the first to third embodiments. It is the same.

[第4実施形態の情報処理システムによる作用効果]
第4実施形態の情報処理システムによれば、PC装置2Eは、サーバから送信されたオブジェクト情報に基づき、遠隔会議を行う他のPC装置2と表示内容を共有することが可能となると共に、マウス等のポインティングデバイスにより筆記内容を受け付けることができる。また、第4実施形態の情報処理システムに必要な最小構成は、サーバ装置3とPC装置2Eのみであるため、ユーザは、比較的容易に第4実施形態による情報処理システムを構築することができる。
[Operational effects of the information processing system of the fourth embodiment]
According to the information processing system of the fourth embodiment, the PC device 2E can share display contents with another PC device 2 that conducts a remote conference based on the object information transmitted from the server, and the mouse. Written content can be received by a pointing device such as. Further, since the minimum configuration necessary for the information processing system of the fourth embodiment is only the server device 3 and the PC device 2E, the user can construct the information processing system according to the fourth embodiment relatively easily. .

<第5実施形態>
第5実施形態では、第1〜第4実施形態が任意に組み合わされて情報処理システムが構築される。具体的には、情報処理システムの各PC装置2は、第1乃至第4実施形態の任意の1又は複数の実施の形態が選択され、適用される。例えば、遠隔会議に用いられる1のPC装置2は、第1実施形態に基づき入力用紙4に対する記入情報を電子ペン1から受信し、同じ遠隔会議に用いられる別のPC装置2は、第2実施形態に基づきスクリーン8に対する記入情報を電子ペン1から受信してもよい。さらに別の例では、遠隔会議に用いられるPC装置2は、第3実施形態に基づき透明シート9に対する記入情報を電子ペン1から受信すると共に、第4実施形態に基づきマウスポインタ608の軌跡を記入情報として特定してもよい。第5実施形態の作用効果については、第1〜第4実施形態と同様である。
<Fifth Embodiment>
In the fifth embodiment, the information processing system is constructed by arbitrarily combining the first to fourth embodiments. Specifically, any one or a plurality of embodiments of the first to fourth embodiments are selected and applied to each PC device 2 of the information processing system. For example, one PC device 2 used for a remote conference receives entry information for the input form 4 from the electronic pen 1 based on the first embodiment, and another PC device 2 used for the same remote conference is a second embodiment. The entry information for the screen 8 may be received from the electronic pen 1 based on the form. In yet another example, the PC device 2 used for the remote conference receives entry information for the transparent sheet 9 from the electronic pen 1 based on the third embodiment, and fills in the locus of the mouse pointer 608 based on the fourth embodiment. It may be specified as information. The operational effects of the fifth embodiment are the same as those of the first to fourth embodiments.

1、1A、1B、1C…電子ペン
2、2A、2B、2C、2D、2E…PC装置
3…サーバ装置
4…入力用紙
5…指示用紙
6…表示アプリケーション
7…プロジェクタ
8…スクリーン
9…透明シート
10、100A、100B…情報処理システム
21…入力手段
22、32…受信手段
24、34…処理手段
25、35…記憶手段
26…表示手段
27、37…送信手段
DESCRIPTION OF SYMBOLS 1, 1A, 1B, 1C ... Electronic pen 2, 2A, 2B, 2C, 2D, 2E ... PC apparatus 3 ... Server apparatus 4 ... Input paper 5 ... Instruction paper 6 ... Display application 7 ... Projector 8 ... Screen 9 ... Transparent sheet 10, 100A, 100B ... information processing system 21 ... input means 22, 32 ... reception means 24, 34 ... processing means 25, 35 ... storage means 26 ... display means 27, 37 ... transmission means

Claims (20)

PC装置と、
前記PC装置に電気的に接続し、手書きストロークに関する記入情報を生成する入力デバイスと、
前記PC装置と通信網を介して接続するサーバ装置と、を備える情報処理システムであって、
前記PC装置は、
表示手段と、
前記入力デバイスから前記記入情報を受信する記入情報受信手段と、
前記記入情報に基づき前記表示手段に描画を行う第1描画手段と、
前記サーバ装置から手書きストロークの1ストロークごとの描画に関する情報であるオブジェクト情報を受信するオブジェクト情報受信手段と、
前記オブジェクト情報受信手段により受信したオブジェクト情報に基づき前記表示手段に描画を行う第2描画手段と、を備え、
前記第2描画手段は、
前記第1描画手段が前記記入情報に基づき手書きストロークの描画を行っている場合、当該手書きストロークの描画が完了するまで前記オブジェクト情報に基づく描画を遅延させることを特徴とする情報処理システム。
A PC device;
An input device that is electrically connected to the PC device and generates entry information relating to a handwritten stroke;
A server device connected to the PC device via a communication network, and an information processing system comprising:
The PC device
Display means;
Entry information receiving means for receiving the entry information from the input device;
First drawing means for drawing on the display means based on the entry information;
Object information receiving means for receiving object information which is information related to drawing of each handwritten stroke from the server device;
Second drawing means for drawing on the display means based on the object information received by the object information receiving means,
The second drawing means includes
When the first drawing means is drawing a handwritten stroke based on the entry information, the information processing system delays drawing based on the object information until drawing of the handwritten stroke is completed.
前記PC装置は、
前記記入情報に基づき、前記手書きストロークの1ストロークごとにオブジェクト情報を生成するオブジェクト情報生成手段と、
前記サーバ装置に前記オブジェクト情報を送信するオブジェクト情報送信手段と、
前記サーバ装置に対し所定間隔ごとに他のPC装置から送信されたオブジェクト情報の有無の問い合わせを行うオブジェクト情報問い合わせ手段と、をさらに備え、
前記オブジェクト情報受信手段は、前記他のPC装置から送信されたオブジェクト情報が前記サーバ装置に存在する場合、当該オブジェクト情報を、前記サーバ装置から受信することを特徴とする請求項1に記載の情報処理システム。
The PC device
Object information generating means for generating object information for each stroke of the handwritten stroke based on the entry information;
Object information transmitting means for transmitting the object information to the server device;
Object information inquiry means for making an inquiry about the presence or absence of object information transmitted from another PC device at predetermined intervals to the server device,
2. The information according to claim 1, wherein the object information receiving unit receives the object information from the server device when the object information transmitted from the other PC device exists in the server device. Processing system.
前記表示手段は、複数のページを表示し、
前記オブジェクト情報は、前記記入情報から特定されたページ番号を含み、
前記第2描画手段は、前記オブジェクト情報に含まれるページ番号と、前記表示手段により表示中のページのページ番号とが一致する場合に、当該オブジェクト情報について前記オブジェクト情報に基づく描画を行うことを特徴とする請求項1または2に記載の情報処理システム。
The display means displays a plurality of pages,
The object information includes a page number specified from the entry information,
When the page number included in the object information matches the page number of the page being displayed by the display means, the second drawing means performs drawing based on the object information for the object information. The information processing system according to claim 1 or 2.
前記オブジェクト情報は、前記記入情報から特定された線種情報を含み、
前記第2描画手段は、当該オブジェクト情報について前記線種情報に基づき前記オブジェクト情報に基づく描画を行うことを特徴とする請求項1乃至3のいずれか一項に記載の情報処理システム。
The object information includes line type information specified from the entry information,
The information processing system according to any one of claims 1 to 3, wherein the second drawing unit performs drawing based on the object information based on the line type information with respect to the object information.
前記入力デバイスは、コード化パターンが形成された入力用紙からコード化パターンを読み取る電子ペンであり、
前記第2描画手段は、前記記入情報受信手段が受信した記入情報がペンアップを示す場合、当該記入情報を送信した電子ペンに対応する1ストローク分の手書きストロークの描画が完了したと判断することを特徴とする請求項1乃至4のいずれか一項に記載の情報処理システム。
The input device is an electronic pen that reads a coded pattern from an input sheet on which a coded pattern is formed,
When the entry information received by the entry information receiving means indicates a pen-up, the second drawing means determines that the drawing of one stroke corresponding to the electronic pen that has transmitted the entry information has been completed. The information processing system according to any one of claims 1 to 4, wherein:
前記入力デバイスはマウスであり、
前記第2描画手段は、前記マウスの左クリックの押下が終了したと判断した場合、当該マウスに対応する1ストローク分の手書きストロークの描画が完了したと判断することを特徴とする請求項1乃至4のいずれか一項に記載の情報処理システム。
The input device is a mouse;
The second drawing means, when it is determined that the left click of the mouse is finished, it is determined that the drawing of one stroke corresponding to the mouse is completed. 5. The information processing system according to any one of 4.
前記オブジェクト情報生成手段は、前記手書きストロークの1ストロークに相当する各記入情報が示す座標点に基づき滑らかな曲線を生成し、当該曲線に基づきオブジェクト情報を生成することを特徴とする請求項2に記載の情報処理システム。   The object information generation means generates a smooth curve based on coordinate points indicated by each entry information corresponding to one stroke of the handwritten stroke, and generates object information based on the curve. The information processing system described. 前記オブジェクト情報は、前記各記入情報が示す座標点の座標系から、前記表示手段により前記手書きストロークを表示する対象となるページを基準とした座標系に変換された前記曲線を構成する座標点の集合を含むことを特徴とする請求項7に記載の情報処理システム。   The object information is a coordinate point constituting the curve converted from a coordinate system of coordinate points indicated by each entry information to a coordinate system based on a page on which the handwritten stroke is displayed by the display means. The information processing system according to claim 7, comprising a set. 前記第2描画手段は、前記オブジェクト情報に含まれる前記手書きストロークに相当する座標点を滑らかな曲線に変換後、前記表示手段に当該曲線の描画を行うことを特徴とする請求項1乃至6のいずれか一項に記載の情報処理システム。   The said 2nd drawing means draws the said curve on the said display means, after converting the coordinate point corresponded to the said handwritten stroke contained in the said object information into a smooth curve. The information processing system according to any one of the above. 前記PC装置は、
外部入力に基づき遠隔会議モードか否かの設定を切り替えるモード切替手段をさらに備え、
前記オブジェクト情報受信手段は、前記遠隔会議モードの場合にのみ、オブジェクト情報を受信することを特徴とする請求項1乃至9のいずれか一項に記載の情報処理システム。
The PC device
Further comprising mode switching means for switching the setting of whether or not the remote conference mode based on external input,
The information processing system according to claim 1, wherein the object information receiving unit receives object information only in the remote conference mode.
手書きストロークに関する記入情報を生成する入力デバイスと電気的に接続し、かつ、通信網を介してサーバ装置と接続し、表示手段を備えるPC装置に搭載され実行されるプログラムであって、
前記入力デバイスから前記記入情報を受信する記入情報受信手段、
前記記入情報に基づき前記表示手段に描画を行う第1描画手段、
前記サーバ装置から手書きストロークの1ストロークごとの描画に関する情報であるオブジェクト情報を受信するオブジェクト情報受信手段、
前記オブジェクト情報受信手段により受信したオブジェクト情報に基づき前記表示手段に描画を行う第2描画手段、として前記PC装置を機能させ、
前記第2描画手段は、
前記第1描画手段が前記記入情報に基づき手書きストロークの描画を行っている場合、当該手書きストロークの描画が完了するまで前記オブジェクト情報に基づく描画を遅延させることを特徴とするプログラム。
A program that is electrically connected to an input device that generates entry information related to handwritten strokes, and that is connected to a server device via a communication network and is installed and executed in a PC device that includes display means
Entry information receiving means for receiving the entry information from the input device;
First drawing means for drawing on the display means based on the entry information;
Object information receiving means for receiving object information which is information relating to drawing of each handwritten stroke from the server device;
Causing the PC device to function as second drawing means for drawing on the display means based on the object information received by the object information receiving means;
The second drawing means includes
When the first drawing means draws a handwritten stroke based on the entry information, the program delays the drawing based on the object information until the drawing of the handwritten stroke is completed.
前記記入情報に基づき、前記手書きストロークの1ストロークごとにオブジェクト情報を生成するオブジェクト情報生成手段、
前記サーバ装置に前記オブジェクト情報を送信するオブジェクト情報送信手段、
前記サーバ装置に対し所定間隔ごとに他のPC装置から送信されたオブジェクト情報の有無の問い合わせを行うオブジェクト情報問い合わせ手段、としてさらに前記PC装置を機能させ、
前記オブジェクト情報受信手段は、前記他のPC装置から送信されたオブジェクト情報が前記サーバ装置に存在する場合、当該オブジェクト情報を、前記サーバ装置から受信することを特徴とする請求項11に記載のプログラム。
Object information generating means for generating object information for each stroke of the handwritten stroke based on the entry information;
Object information transmitting means for transmitting the object information to the server device;
The PC device further functions as an object information inquiry means for making an inquiry about the presence or absence of object information transmitted from another PC device at predetermined intervals to the server device,
12. The program according to claim 11, wherein the object information receiving unit receives the object information from the server device when the object information transmitted from the other PC device exists in the server device. .
前記表示手段は、複数のページを表示し、
前記オブジェクト情報は、前記記入情報から特定されたページ番号を含み、
前記第2描画手段は、前記オブジェクト情報に含まれるページ番号と、前記表示手段により表示中のページのページ番号とが一致する場合に、当該オブジェクト情報について前記オブジェクト情報に基づく描画を行うことを特徴とする請求項11または12に記載のプログラム。
The display means displays a plurality of pages,
The object information includes a page number specified from the entry information,
When the page number included in the object information matches the page number of the page being displayed by the display means, the second drawing means performs drawing based on the object information for the object information. The program according to claim 11 or 12.
前記オブジェクト情報は、前記記入情報から特定された線種情報を含み、
前記第2描画手段は、当該オブジェクト情報について前記線種情報に基づき前記オブジェクト情報に基づく描画を行うことを特徴とする請求項11乃至13のいずれか一項に記載のプログラム。
The object information includes line type information specified from the entry information,
The program according to claim 11, wherein the second drawing unit performs drawing based on the object information based on the line type information for the object information.
前記入力デバイスは、コード化パターンが形成された入力用紙からコード化パターンを読み取る電子ペンであり、
前記第2描画手段は、前記記入情報受信手段が受信した記入情報がペンアップを示す場合、当該記入情報を送信した電子ペンに対応する1ストローク分の手書きストロークの描画が完了したと判断することを特徴とする請求項11乃至14のいずれか一項に記載のプログラム。
The input device is an electronic pen that reads a coded pattern from an input sheet on which a coded pattern is formed,
When the entry information received by the entry information receiving means indicates a pen-up, the second drawing means determines that the drawing of one stroke corresponding to the electronic pen that has transmitted the entry information has been completed. 15. The program according to any one of claims 11 to 14, wherein:
前記入力デバイスはマウスであり、
前記第2描画手段は、前記マウスの左クリックの押下が終了したと判断した場合、当該マウスに対応する1ストローク分の手書きストロークの描画が完了したと判断することを特徴とする請求項11乃至14のいずれか一項に記載のプログラム。
The input device is a mouse;
12. The second drawing unit, when it is determined that the left click of the mouse is finished, it is determined that drawing of a handwritten stroke for one stroke corresponding to the mouse is completed. 14. The program according to any one of 14.
前記オブジェクト情報生成手段は、前記手書きストロークの1ストロークに相当する各記入情報が示す座標点に基づき滑らかな曲線を生成し、当該曲線に基づきオブジェクト情報を生成することを特徴とする請求項12に記載のプログラム。   The object information generation means generates a smooth curve based on coordinate points indicated by each entry information corresponding to one stroke of the handwritten stroke, and generates object information based on the curve. The listed program. 前記オブジェクト情報は、前記各記入情報が示す座標点の座標系から、前記表示手段により前記手書きストロークを表示する対象となるページを基準とした座標系に変換された前記曲線を構成する座標点の集合を含むことを特徴とする請求項17に記載のプログラム。   The object information is a coordinate point constituting the curve converted from the coordinate system of the coordinate point indicated by each entry information into a coordinate system based on a page on which the handwritten stroke is displayed by the display unit. The program according to claim 17, comprising a set. 前記第2描画手段は、前記オブジェクト情報に含まれる前記手書きストロークに相当する座標点を滑らかな曲線に変換後、前記表示手段に当該曲線の描画を行うことを特徴とする請求項11乃至16のいずれか一項に記載のプログラム。   The said 2nd drawing means draws the said curve on the said display means after converting the coordinate point corresponded to the said handwritten stroke contained in the said object information into a smooth curve. The program as described in any one. 外部入力に基づき遠隔会議モードか否かの設定を切り替えるモード切替手段として前記PC装置をさらに機能させ、
前記オブジェクト情報受信手段は、前記遠隔会議モードの場合にのみ、オブジェクト情報を受信することを特徴とする請求項11乃至19のいずれか一項に記載のプログラム。
Further functioning the PC device as mode switching means for switching the setting of whether or not the remote conference mode based on external input,
The program according to any one of claims 11 to 19, wherein the object information receiving unit receives object information only in the remote conference mode.
JP2010126129A 2010-06-01 2010-06-01 Information processing system and program Active JP5640468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010126129A JP5640468B2 (en) 2010-06-01 2010-06-01 Information processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010126129A JP5640468B2 (en) 2010-06-01 2010-06-01 Information processing system and program

Publications (2)

Publication Number Publication Date
JP2011253307A true JP2011253307A (en) 2011-12-15
JP5640468B2 JP5640468B2 (en) 2014-12-17

Family

ID=45417208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010126129A Active JP5640468B2 (en) 2010-06-01 2010-06-01 Information processing system and program

Country Status (1)

Country Link
JP (1) JP5640468B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135422A (en) * 2011-12-27 2013-07-08 Ricoh Co Ltd Image synthesizing apparatus, terminal device, image synthesizing system, and program
JP2013222324A (en) * 2012-04-17 2013-10-28 Ricoh Co Ltd Information sharing device, information sharing system, drawing processing method, and program
JP2014191217A (en) * 2013-03-27 2014-10-06 Secom Co Ltd Image projection system, screen, and projector
JP2015056844A (en) * 2013-09-13 2015-03-23 株式会社リコー Communication terminal and communication method
JP2015095019A (en) * 2013-11-11 2015-05-18 大日本印刷株式会社 Receiving device, receiving system, and program
JP2015099424A (en) * 2013-11-18 2015-05-28 株式会社リコー Information processing terminal, information processing method, program, and information processing system
JP2016170640A (en) * 2015-03-13 2016-09-23 大日本印刷株式会社 Handwriting aggregation system, handwriting aggregation method and program
JP2017509977A (en) * 2014-02-21 2017-04-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for improving power consumption on touch devices
WO2022134180A1 (en) * 2020-12-25 2022-06-30 安徽鸿程光电有限公司 Handwriting display method and apparatus, electronic device, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (en) * 2004-07-15 2006-02-02 Ricoh Co Ltd Screen sharing method and conference support system
JP2006091033A (en) * 2004-09-15 2006-04-06 Ricoh Co Ltd Teleconference system
JP2008257530A (en) * 2007-04-06 2008-10-23 Halc Co Ltd Electronic pen input data processing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031359A (en) * 2004-07-15 2006-02-02 Ricoh Co Ltd Screen sharing method and conference support system
JP2006091033A (en) * 2004-09-15 2006-04-06 Ricoh Co Ltd Teleconference system
JP2008257530A (en) * 2007-04-06 2008-10-23 Halc Co Ltd Electronic pen input data processing system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135422A (en) * 2011-12-27 2013-07-08 Ricoh Co Ltd Image synthesizing apparatus, terminal device, image synthesizing system, and program
JP2013222324A (en) * 2012-04-17 2013-10-28 Ricoh Co Ltd Information sharing device, information sharing system, drawing processing method, and program
JP2014191217A (en) * 2013-03-27 2014-10-06 Secom Co Ltd Image projection system, screen, and projector
JP2015056844A (en) * 2013-09-13 2015-03-23 株式会社リコー Communication terminal and communication method
JP2015095019A (en) * 2013-11-11 2015-05-18 大日本印刷株式会社 Receiving device, receiving system, and program
JP2015099424A (en) * 2013-11-18 2015-05-28 株式会社リコー Information processing terminal, information processing method, program, and information processing system
US10268348B2 (en) 2013-11-18 2019-04-23 Ricoh Company, Ltd. Information processing terminal, information processing method, and information processing system
JP2017509977A (en) * 2014-02-21 2017-04-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for improving power consumption on touch devices
JP2016170640A (en) * 2015-03-13 2016-09-23 大日本印刷株式会社 Handwriting aggregation system, handwriting aggregation method and program
WO2022134180A1 (en) * 2020-12-25 2022-06-30 安徽鸿程光电有限公司 Handwriting display method and apparatus, electronic device, and storage medium

Also Published As

Publication number Publication date
JP5640468B2 (en) 2014-12-17

Similar Documents

Publication Publication Date Title
JP5640468B2 (en) Information processing system and program
JP5560913B2 (en) Stroke display device and program
JP2010079834A (en) Device for determination of mounting position of coordinate detection device and electronic board system
JP5353219B2 (en) Board writing system, computer apparatus and program
JP3151886U (en) Information processing system
JP2014052407A (en) Computer device, program, and information processing system
JP5828671B2 (en) Information processing apparatus and information processing method
JP5408513B2 (en) Electronic pen system and program thereof
JP5440397B2 (en) Information processing system and program
JP2012063974A (en) Stroke display system and program
JP3156526U (en) Information processing system
JP5024019B2 (en) Terminal device and program thereof
JP2012118586A (en) Computer device and program thereof
JP5157973B2 (en) Projection input / output system and program thereof
JP2014199525A (en) Computer device and program
JP6187172B2 (en) Receiving device, receiving system, and program
JP2012155739A (en) Electronic pen system, terminal device and program therefor
JP5201020B2 (en) Projection input / output system and program thereof
JP5267950B2 (en) Information processing system and program thereof
JP5866949B2 (en) Electronic pen system and program
JP2013084148A (en) Electronic pen system and program
JP5370557B2 (en) Board writing system, computer apparatus and program
JP3154685U (en) Information processing system
JP2014142854A (en) Computer device, electronic pen system, and program
JP5464024B2 (en) Printing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140521

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141013

R150 Certificate of patent or registration of utility model

Ref document number: 5640468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150