JP5440926B2 - Information processing system and program thereof - Google Patents

Information processing system and program thereof Download PDF

Info

Publication number
JP5440926B2
JP5440926B2 JP2009235564A JP2009235564A JP5440926B2 JP 5440926 B2 JP5440926 B2 JP 5440926B2 JP 2009235564 A JP2009235564 A JP 2009235564A JP 2009235564 A JP2009235564 A JP 2009235564A JP 5440926 B2 JP5440926 B2 JP 5440926B2
Authority
JP
Japan
Prior art keywords
position coordinates
display
information
screen
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009235564A
Other languages
Japanese (ja)
Other versions
JP2011081738A (en
Inventor
祐太郎 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009235564A priority Critical patent/JP5440926B2/en
Publication of JP2011081738A publication Critical patent/JP2011081738A/en
Application granted granted Critical
Publication of JP5440926B2 publication Critical patent/JP5440926B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、位置座標を示すコード化パターンを用いて情報を入力することができる情報処理システムに関し、特に、コード化パターンの位置座標をコンピュータ装置の表示画面の位置座標に変換後の情報処理に関する。   The present invention relates to an information processing system capable of inputting information using a coded pattern indicating position coordinates, and more particularly to information processing after converting the position coordinates of a coded pattern into position coordinates on a display screen of a computer device. .

近年、記入した情報を電子化する電子ペンが開発されており、その代表的なものとしてスウェーデンのAnoto 社が開発した「アノトペン(Anoto pen )」が知られている。アノトペンは、所定のアルゴリズムによりパターン化された位置座標を示すドットパターンが印刷された専用紙とともに使用される。アノトペンは、ペン先部に、専用紙に印刷されたドットパターンを撮像するための小型カメラと、撮像したドットパターンから専用紙における位置座標を演算するプロセッサと、演算された位置座標等を外部機器へ送信するデータ通信ユニットとを搭載している。ユーザが専用紙上にアノトペンで文字等を書いたり、専用紙上に図案化されている画像にチェックマークを記入したりすると、ペンの移動に伴って小型カメラが専用紙に印刷されたドットパターンを撮像し、プロセッサによって演算された連続する位置座標から、ユーザが書き込んだ文字、画像などの記入情報が認識される。そして、この記入情報が、データ通信ユニットによりアノトペンから近くのパーソナルコンピュータや携帯電話などの端末装置に送信される(例えば、特許文献1参照)。   In recent years, electronic pens that digitize written information have been developed, and “Anoto pen” developed by Swedish company Anoto is known as a representative example. Anotopen is used together with special paper on which a dot pattern indicating a position coordinate patterned by a predetermined algorithm is printed. Anotopen has a small camera for imaging the dot pattern printed on the dedicated paper at the pen tip, a processor for calculating the position coordinates on the dedicated paper from the captured dot pattern, and the calculated position coordinates etc. It is equipped with a data communication unit that transmits to. When the user writes characters on the special paper with an anotopen or puts a check mark on the image designed on the special paper, the small camera captures the dot pattern printed on the special paper as the pen moves. The entry information such as characters and images written by the user is recognized from the continuous position coordinates calculated by the processor. Then, this entry information is transmitted from the Anotopen by the data communication unit to a nearby terminal device such as a personal computer or a mobile phone (for example, see Patent Document 1).

また、このような電子ペンと、コンピュータ、プロジェクター及びスクリーンを用いて、スクリーンに電子ペンで記入ないし走査すると、それに応じてコンピュータが所定の処理を行うとともに、コンピュータの表示画面をプロジェクターでスクリーンに投影するシステムが提案されている(例えば、特許文献2〜5)。電子ペンは、スクリーンに形成されたドットパターンを読み取り、コンピュータは、電子ペンから送信された情報に基づき、その位置座標を解析して、その位置座標に応じた処理を行うというものであり、これにより、インクのない電子ペンであっても、スクリーン上を電子ペンでなぞれば、その筆跡に応じて、プロジェクターから線が描画された画像を投影したり、画像の制御やソフトウェアを操作したりできるとされている。   In addition, using such an electronic pen, a computer, a projector, and a screen, when the screen is filled in or scanned with the electronic pen, the computer performs a predetermined process accordingly and projects the computer display screen onto the screen with the projector. The system which performs is proposed (for example, patent documents 2-5). The electronic pen reads the dot pattern formed on the screen, and the computer analyzes the position coordinates based on the information transmitted from the electronic pen and performs processing according to the position coordinates. Even if an electronic pen without ink is used, if you trace the screen with an electronic pen, you can project an image with lines drawn from the projector, control the image, and operate software. It is supposed to be possible.

また、ホワイトボードにパソコンの画面がプロジェクターによって投影され、ホワイトボードにマーカーで記入した座標を座標読取装置で超音波又は赤外線により読み取ってパソコンに送信することで、パソコンの画面上でクリックなどをすることができるシステムにおいて、最初にキャリブレーション用のポイントをプロジェクターにより投影し、マーカーでポイントを指示させることで、ホワイトボードの座標とパソコン画面の座標とをキャリブレーションすることも提案されている(特許文献6)。   Also, the computer screen is projected on the whiteboard by the projector, and the coordinates entered with the markers on the whiteboard are read with the coordinate reader using ultrasonic or infrared rays and sent to the computer, so that the user clicks on the computer screen. In a system capable of calibrating, it is also proposed to calibrate the coordinates of the whiteboard and the coordinates of the personal computer screen by first projecting a calibration point by a projector and instructing the point with a marker (patent) Reference 6).

また、コンピュータのディスプレイに、ドットパターンが印刷された透明シートを貼り付け、電子ペンで透明シートに手書きをすることにより、ドットパターンを電子ペンで読み取らせつつ、コンピュータに手書き入力することが提案されている(例えば、特許文献7)。さらには、コンピュータのディスプレイにおける位置座標と,そのディスプレイに貼り付けられた透明シートのドットパターンにおける位置座標とをキャリブレーションするために、ディスプレイの四隅付近のドットパターンを電子ペンで読み取らせることも提案されている(特許文献8)。   In addition, it has been proposed that a transparent sheet on which a dot pattern is printed is pasted on a computer display and handwritten on the transparent sheet with an electronic pen so that the dot pattern can be read with the electronic pen and handwritten on the computer. (For example, Patent Document 7). Furthermore, in order to calibrate the position coordinates in the computer display and the position coordinates in the dot pattern of the transparent sheet attached to the display, it is also proposed to read the dot pattern near the four corners of the display with an electronic pen. (Patent Document 8).

特表2003−511761号公報Japanese translation of PCT publication No. 2003-511761 特開2008−152755号公報JP 2008-152755 A 特開2002−149331号公報JP 2002-149331 A 特開2008−154211号公報JP 2008-155421 A 特表2003−508831号公報Special table 2003-508831 gazette 特開2007−233999号公報JP 2007-233999 A 特開2003−256122号公報JP 2003-256122 A 特開2008−165384号公報JP 2008-165384 A

このようなシステムにおいては、キャリブレーションによって、電子ペンの処理から得られたドットパターンにおける位置座標をディスプレイの位置座標に変換できるとしても、実行しているアプリケーションによっては、電子ペンからの情報を選別して処理しなければならない。   In such a system, even if the position coordinates in the dot pattern obtained from the processing of the electronic pen can be converted into the position coordinates of the display by calibration, the information from the electronic pen is selected depending on the running application. Must be processed.

そこで、本発明は、位置座標を示すコード化パターンが形成されたスクリーンないし透明シートの位置座標を、コンピュータ装置の表示手段における表示画面上の位置座標に変換する情報処理システムにおいて、読取手段によりコード化パターンを読み取って得られた情報を選別して処理するよう構成させることを目的とする。   Accordingly, the present invention provides an information processing system for converting position coordinates of a screen or a transparent sheet on which a coding pattern indicating position coordinates is formed into position coordinates on a display screen of a display unit of a computer device. It is an object to select and process information obtained by reading a digitized pattern.

本発明に係る情報処理システムは、位置座標を示すコード化パターンが形成されたスクリーンと、前記コード化パターンを読み取る読取手段と、前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置と、前記コンピュータ装置からの画像信号を受信して、前記スクリーンに画像を投影するプロジェクターとを備える情報処理システムであって、
前記コンピュータ装置は、前記読取手段から送信されたコード化パターンに関する情報を受信する受信手段と、拡大ボタン、縮小ボタン、および書き込み領域を有する移動可能なウィンドウを表示手段に表示し、前記受信手段により受信した情報に含まれるコード化パターンの位置座標を前記表示手段の表示画面における位置座標に変換し、その座標変換された位置座標が書き込み領域内にある場合に前記座標変換された位置座標に基づいてストロークを前記書き込み領域に描画してファイルに保存し、座標変換された位置座標が前記拡大ボタンまたは前記縮小ボタンを指示するものと認識した場合には指示されたボタンに応じて前記書き込み領域を拡大または縮小するとともに、描画したストロークを前記書き込み領域の表示倍率および位置に合わせて表示し、その表示倍率および位置での前記書き込み領域への書き込みを受けると座標変換された位置座標に基づいてストロークを描画して同じファイルに保存する処理手段とを備えることを特徴とする。
An information processing system according to the present invention receives a screen on which a coding pattern indicating position coordinates is formed, a reading unit that reads the coding pattern, and information on the coding pattern transmitted from the reading unit, An information processing system comprising a computer device that performs processing according to the information, and a projector that receives an image signal from the computer device and projects an image on the screen,
The computer apparatus displays on the display means a receiving means for receiving information on the coding pattern transmitted from the reading means , and a movable window having an enlarge button, a reduce button, and a writing area. converts the position coordinates of the coded pattern contained in the received information to the position coordinates on the display screen of the display unit, the coordinate conversion position coordinates if the coordinates transformed coordinates is in the writing area Based on the drawing button, the stroke is drawn in the writing area and saved in a file. When the coordinate position is recognized as indicating the enlargement button or the reduction button, the writing area is determined according to the designated button. And zooming in and out the drawn stroke with the display magnification of the writing area and Characterized in that it comprises processing means for displaying in accordance with the location, is stored in the display magnification and the receiving writing to the writing area when the coordinate transformed same file by drawing a stroke on the basis of the position coordinates in the position And

この情報処理システムによれば、読取手段によってスクリーンに形成されたコード化パターンを読み取ると、読取手段は、コンピュータ装置へコード化パターンに関する情報を送信する。コンピュータ装置は、読取手段からコード化パターンに関する情報を受信して当該情報に応じた処理を行うとともに、スクリーンに画像を投影するプロジェクターへ画像信号を送信する。このような情報処理システムにおいて、処理手段は、拡大ボタン、縮小ボタン、および書き込み領域を有する移動可能なウィンドウを表示手段に表示し、受信手段により受信した情報に含まれるコード化パターンの位置座標を表示手段の表示画面における位置座標に変換したうえで、その座標変換された位置座標が書き込み領域内にある場合にはその座標変換された位置座標に基づいてストロークを書き込み領域に描画してファイルに保存し、座標変換された位置座標が前記拡大ボタンまたは前記縮小ボタンを指示するものと認識した場合には指示されたボタンに応じて前記書き込み領域を拡大または縮小するとともに、描画したストロークを前記書き込み領域の表示倍率および位置に合わせて表示し、その表示倍率および位置での前記書き込み領域への書き込みを受けると座標変換された位置座標に基づいてストロークを描画して同じファイルに保存するが、座標変換された位置座標が書き込み領域内にない場合には、書き込み領域にストロークとして取り込まないようにすることができる。 According to this information processing system, when the coded pattern formed on the screen is read by the reading means, the reading means transmits information on the coded pattern to the computer device. Computer system receives the information about the coded pattern from the reading unit, performs a process corresponding to the information, and transmits the image signal to the projector for projecting an image onto a screen. In such an information processing system, the processing means displays a movable window having an enlargement button, a reduction button, and a writing area on the display means, and the position coordinates of the coding pattern included in the information received by the receiving means. After converting to the position coordinates on the display screen of the display means, if the position coordinates that have been converted are within the writing area, a stroke is drawn in the writing area based on the position coordinates that have been converted to a file. When the saved position coordinate is recognized as indicating the enlargement button or the reduction button, the writing area is enlarged or reduced according to the designated button, and the drawn stroke is written. Display according to the display magnification and position of the area, and write at the display magnification and position. When you draw a stroke based on when receiving a write to see area coordinates transformed coordinates Suruga stored in the same file, the coordinate conversion position coordinates are not in the write region, as a stroke in the write-in area It can be prevented from taking in.

または、本発明に係る情報処理システムは、位置座標を示すコード化パターンが形成された透明シートと、前記コード化パターンを読み取る読取手段と、前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置とを備える情報処理システムであって、
前記透明シートは前記コンピュータ装置の表示手段の表示画面に貼付されており、前記コンピュータ装置は、前記読取手段から送信されたコード化パターンに関する情報を受信する受信手段と、拡大ボタン、縮小ボタン、および書き込み領域を有する移動可能なウィンドウを表示手段に表示し、前記受信手段により受信した情報に含まれるコード化パターンの位置座標を前記表示手段の表示画面における位置座標に変換し、その座標変換された位置座標が書き込み領域内にある場合に前記座標変換された位置座標に基づいてストロークを前記書き込み領域に描画してファイルに保存し、座標変換された位置座標が前記拡大ボタンまたは前記縮小ボタンを指示するものと認識した場合には指示されたボタンに応じて前記書き込み領域を拡大または縮小するとともに、描画したストロークを前記書き込み領域の表示倍率および位置に合わせて表示し、その表示倍率および位置での前記書き込み領域への書き込みを受けると座標変換された位置座標に基づいてストロークを描画して同じファイルに保存する処理手段とを備えることを特徴とする。
Alternatively, the information processing system according to the present invention receives a transparent sheet on which a coding pattern indicating position coordinates is formed, a reading unit that reads the coding pattern, and information related to the coding pattern transmitted from the reading unit. An information processing system including a computer device that performs processing according to the information,
The transparent sheet is affixed to a display screen of a display unit of the computer device, and the computer device includes a reception unit that receives information related to a coding pattern transmitted from the reading unit, an enlargement button, a reduction button, and displayed on the display means a moveable window having a writing area, and converts the position coordinates of the coded pattern contained in the received information by the receiving means to the position coordinates on the display screen of the display unit, which is the coordinate transformation coordinates are stored in a file to draw the stroke on the basis of the coordinate conversion position coordinates on the writing area in some cases in the write area, the coordinate conversion position coordinates of the enlargement button or the reduction button If it is recognized that the instruction is to be given, the writing area is enlarged according to the designated button. Is reduced, and the drawn stroke is displayed in accordance with the display magnification and position of the writing area, and when the writing to the writing area at the display magnification and position is received, the stroke is converted based on the coordinate position converted. And processing means for drawing and saving the same file .

この情報処理システムによれば、読取手段によって透明シートに形成されたコード化パターンを読み取ると、読取手段は、コンピュータ装置へコード化パターンに関する情報を送信する。コンピュータ装置は、読取手段からコード化パターンに関する情報を受信して、当該情報に応じた処理を行うとともに、透明シートに画像を投影するプロジェクターへ画像信号を送信する。このような情報処理システムにおいて、処理手段は、拡大ボタン、縮小ボタン、および書き込み領域を有する移動可能なウィンドウを表示手段に表示し、受信手段により受信した情報に含まれるコード化パターンの位置座標を表示手段の表示画面における位置座標に変換したうえで、その座標変換された位置座標が書き込み領域内にある場合にはその座標変換された位置座標に基づいてストロークを書き込み領域に描画してファイルに保存し、座標変換された位置座標が前記拡大ボタンまたは前記縮小ボタンを指示するものと認識した場合には指示されたボタンに応じて前記書き込み領域を拡大または縮小するとともに、描画したストロークを前記書き込み領域の表示倍率および位置に合わせて表示し、その表示倍率および位置での前記書き込み領域への書き込みを受けると座標変換された位置座標に基づいてストロークを描画して同じファイルに保存するが、座標変換された位置座標が書き込み領域内にない場合には、書き込み領域にストロークとして取り込まないようにすることができる。 According to this information processing system, when the encoded pattern formed on the transparent sheet is read by the reading unit, the reading unit transmits information on the encoded pattern to the computer device. The computer apparatus receives information on the coding pattern from the reading unit, performs processing according to the information, and transmits an image signal to a projector that projects an image on a transparent sheet. In such an information processing system, the processing means displays a movable window having an enlargement button, a reduction button, and a writing area on the display means, and the position coordinates of the coding pattern included in the information received by the receiving means. After converting to the position coordinates on the display screen of the display means, if the position coordinates that have been converted are within the writing area, a stroke is drawn in the writing area based on the position coordinates that have been converted to a file. When the saved position coordinate is recognized as indicating the enlargement button or the reduction button, the writing area is enlarged or reduced according to the designated button, and the drawn stroke is written. Display according to the display magnification and position of the area, and write at the display magnification and position. When you draw a stroke based on when receiving a write to see area coordinates transformed coordinates Suruga stored in the same file, the coordinate conversion position coordinates are not in the write region, as a stroke in the write-in area It can be prevented from taking in.

また、上記情報処理システムにおいて、前記処理手段は、前記受信手段により前記情報を受信した時に、前記座標変換するための座標変換関数を定義していないと判断した場合は、座標変換関数を求めるためのキャリブレーション処理を開始するよう構成するとよい。これにより、読取手段でコード化パターンを読み取っても、コンピュータ装置が受信した情報を適切に認識することができない場合に、コード化パターンの位置座標を表示手段の表示画面における位置座標に変換する座標変換関数を求めるためのキャリブレーション処理を開始するため、コンピュータ装置が受信した情報を適切に認識できるようになる。   In the information processing system, when the processing means receives the information by the receiving means and determines that the coordinate conversion function for the coordinate conversion is not defined, the processing means obtains the coordinate conversion function. It may be configured to start the calibration process. Thus, even when the coded pattern is read by the reading means, when the information received by the computer device cannot be properly recognized, the coordinates for converting the position coordinates of the coded pattern into the position coordinates on the display screen of the display means Since the calibration process for obtaining the conversion function is started, the information received by the computer apparatus can be appropriately recognized.

また、本発明に係るプログラムは、上記情報処理システムにおけるコンピュータ装置としてコンピュータを機能させることを特徴とする。このプログラムをコンピュータ装置にインストールすることにより、上記のコンピュータ装置を実現し、情報処理システムを構成することができる。 A program according to the present invention causes a computer to function as a computer device in the information processing system. By installing this program in a computer device, the above computer device can be realized and an information processing system can be configured.

本発明によれば、位置座標を示すコード化パターンが形成されたスクリーンないし透明シートの位置座標と、コンピュータ装置の表示手段における表示画面上の位置座標との間で精度の高いキャリブレーション処理を行うことができる。   According to the present invention, highly accurate calibration processing is performed between the position coordinates of a screen or a transparent sheet on which a coding pattern indicating position coordinates is formed and the position coordinates on the display screen of the display unit of the computer device. be able to.

第1実施形態における情報処理システムのシステム構成図である。It is a system configuration figure of the information processing system in a 1st embodiment. ドットパターンにおけるドットの配置と変換される値との関係を示す説明図である。It is explanatory drawing which shows the relationship between the arrangement | positioning of the dot in a dot pattern, and the value converted. (a)は、ドットパターンを模式的に示し、(b)は、それに対応する情報の例を示す図である。(A) shows a dot pattern typically, and (b) is a figure showing an example of information corresponding to it. 電子ペンの構造を示す概略図である。It is the schematic which shows the structure of an electronic pen. コンピュータ装置の機能ブロック図である。It is a functional block diagram of a computer apparatus. 第1実施形態におけるキャリブレーション起動処理のフロー図である。It is a flowchart of the calibration starting process in 1st Embodiment. 第1実施形態におけるキャリブレーション処理のフロー図である。It is a flowchart of the calibration process in 1st Embodiment. 第1実施形態においてスクリーンに投影されたキャリブレーション用マークの画像を示す図である。It is a figure which shows the image of the mark for a calibration projected on the screen in 1st Embodiment. コンピュータ装置の表示画面上における表示基準点の位置座標を示す図である。It is a figure which shows the position coordinate of the display reference point on the display screen of a computer apparatus. スクリーン上における認識基準点の位置座標と同一認識範囲について示す図である。It is a figure shown about the same recognition range as the position coordinate of the recognition reference point on a screen. スクリーンに投影された画像を示す図である。It is a figure which shows the image projected on the screen. 手書き入力アプリケーションが起動した表示画面が、スクリーンに投影された画像を示す図である。It is a figure which shows the image which the display screen which the handwriting input application started starts projecting on the screen. 手書き入力アプリケーションの書き込み領域に電子ペンで手書き文字等を記入して入力する処理のフロー図である。It is a flowchart of the process which writes and inputs a handwritten character etc. with an electronic pen in the writing area of a handwriting input application. 電子ペンによって、図12に示すスクリーンに投影された書き込み領域内に書き込んでいる様子を示す図である。It is a figure which shows a mode that it writes in the writing area projected on the screen shown in FIG. 12 with an electronic pen. 電子ペンの操作により、手書き入力アプリケーションのウィンドウを図14に示す位置から移動させる様子を示す図である。It is a figure which shows a mode that the window of a handwriting input application is moved from the position shown in FIG. 14 by operation of an electronic pen. 電子ペンによって、図15に示すスクリーンに投影された書き込み領域内に続けて書き込んでいる様子を示す図である。It is a figure which shows a mode that it writes in the writing area projected on the screen shown in FIG. 15 with an electronic pen. 電子ペンによって、図16に示すスクリーン上の拡大ボタンをタップして書き込み領域を拡大させる様子を示す図である。It is a figure which shows a mode that a writing area is expanded by tapping the enlargement button on the screen shown in FIG. 16 with an electronic pen. 電子ペンによって、図17に示すスクリーンに投影されている拡大された書き込み領域内に、さらに続けてストロークを書き込んでいる様子を示す図である。It is a figure which shows a mode that the stroke is further written in the enlarged writing area projected on the screen shown in FIG. 17 with an electronic pen. 図18に示すスクリーンに投影されているウィンドウにおいて、書き込み領域内の表示させる領域を変え、さらに続けてストロークを書き込んでいる様子を示す図である。It is a figure which shows a mode that the area | region displayed in a writing area | region is changed and the stroke is continuously written in the window projected on the screen shown in FIG. 電子ペンによって、図19に示す書き込み領域を全体的に表示させた様子を示す図である。It is a figure which shows a mode that the writing area | region shown in FIG. 19 was displayed entirely with the electronic pen. 第2実施形態における情報処理システムのシステム構成図である。It is a system configuration figure of the information processing system in a 2nd embodiment.

以下、図面を参照して、本発明の好適な情報処理システムについて詳細に説明する。   Hereinafter, a preferred information processing system of the present invention will be described in detail with reference to the drawings.

<第1実施形態>
[情報処理システムのシステム構成]
図1は、本第1実施形態における情報処理システム10のシステム構成図である。図1に示すように、本第1実施形態における情報処理システム10は、ユーザが使用する電子ペン1(読取手段)と、電子ペン1から記入情報等を受信して処理するコンピュータ装置2と、コンピュータ装置2のディスプレイ(表示手段)26の表示内容をスクリーン4に投影するプロジェクター3とから構成される。
<First Embodiment>
[System configuration of information processing system]
FIG. 1 is a system configuration diagram of an information processing system 10 in the first embodiment. As shown in FIG. 1, the information processing system 10 in the first embodiment includes an electronic pen 1 (reading unit) used by a user, a computer device 2 that receives and processes entry information from the electronic pen 1, and The projector 3 is configured to project the display content of the display (display means) 26 of the computer device 2 onto the screen 4.

[スクリーン]
まず、スクリーン4について説明する。スクリーン4は、電子ペン1に十分に筆圧がかかる程度に硬いマグネット板(ホワイトボード)401の前面に、後述するドットパターン(コード化パターン)が印刷により全面に形成された用紙402を上からマグネットで押さえ付けたり、あるいは糊、粘着剤あるいは接着剤等で貼りつけたりしたものである。なお、マグネット板401の代わりに部屋の壁面等を利用してもよい。また、用紙402の代わりに、ドットパターンが印刷されたプラスチック製のシートでもよく、あるいは、マグネット板(ホワイトボード)401にドットパターンを直接形成してもよい。ユーザが電子ペン1によってスクリーン4に文字などを書くと、電子ペン1は、ペン先部の移動軌跡に沿って、用紙402に印刷されたドットパターンを局所的、連続的に読み取り、スクリーン4におけるその局所位置の座標を算出し、その電子データ(記入情報)をコンピュータ装置2へ送信する。一方、プロジェクター3は、コンピュータ装置2から画像信号を受信して、表示手段26に表示された画像と同じ画像をスクリーン4に領域403に投影する。
[screen]
First, the screen 4 will be described. The screen 4 has a sheet 402 having a dot pattern (coded pattern), which will be described later, formed on the entire surface by printing on the front surface of a magnet board (white board) 401 that is hard enough to apply sufficient pressure to the electronic pen 1 from above. They are pressed with a magnet, or pasted with glue, adhesive or adhesive. A wall surface of a room may be used instead of the magnet plate 401. Further, instead of the paper 402, a plastic sheet on which a dot pattern is printed may be used, or the dot pattern may be directly formed on a magnet plate (white board) 401. When the user writes a character or the like on the screen 4 with the electronic pen 1, the electronic pen 1 reads the dot pattern printed on the paper 402 locally and continuously along the movement locus of the pen tip portion. The coordinates of the local position are calculated, and the electronic data (entry information) is transmitted to the computer device 2. On the other hand, the projector 3 receives the image signal from the computer apparatus 2 and projects the same image as the image displayed on the display unit 26 onto the screen 4 in the area 403.

なお、コンピュータ装置2においてキャリブレーション処理が実行されると、コンピュータ装置2の表示画面に対応する位置座標を、スクリーン4上で電子ペン1により正確に入力可能な座標入力領域403が定義され、その定義情報がコンピュータ装置2の記憶手段25に記憶される。   When the calibration process is executed in the computer apparatus 2, a coordinate input area 403 in which position coordinates corresponding to the display screen of the computer apparatus 2 can be accurately input on the screen 4 by the electronic pen 1 is defined. Definition information is stored in the storage means 25 of the computer apparatus 2.

[ドットパターン]
続いて、スクリーン4の用紙402に印刷されているアノト方式のドットパターン(コード化パターン)について説明する。図2は、用紙402に印刷されたドットパターンのドットとそのドットが変換される値との関係を説明する図である。図2に示すように、ドットパターンの各ドットは、その位置によって所定の値に対応付けられている。すなわち、ドットの位置を格子の基準位置(縦線及び横線の交差点)から上下左右のどの方向にシフトするかによって、各ドットは、0〜3の値に対応付けられている。また、各ドットの値は、さらに、X座標用の第1ビット値及びY座標用の第2ビット値に変換できる。このようにして対応付けられた情報の組合せにより、スクリーン4上の位置座標が決定されるよう構成されている。このドットパターンは、赤外線を吸収するカーボンを含有するインクによって印刷されている。
[Dot pattern]
Next, an Anoto dot pattern (coded pattern) printed on the sheet 402 of the screen 4 will be described. FIG. 2 is a diagram illustrating the relationship between the dots of the dot pattern printed on the paper 402 and the values to which the dots are converted. As shown in FIG. 2, each dot of the dot pattern is associated with a predetermined value depending on its position. In other words, each dot is associated with a value of 0 to 3 depending on which direction the top, bottom, left, or right is shifted from the reference position of the grid (intersection of the vertical line and horizontal line). The value of each dot can be further converted into a first bit value for the X coordinate and a second bit value for the Y coordinate. The position coordinates on the screen 4 are determined by the combination of information thus associated. This dot pattern is printed with an ink containing carbon that absorbs infrared rays.

図3(a)は、ある位置のドットパターンの配列を示している。図3(a)に示すように、縦横約2mmの範囲内に6×6個のドットが、スクリーン4上のどの部分から6×6ドットを取ってもユニークなパターンとなるように配置されている。これら36個のドットにより形成されるドットパターンは、用紙402における相対的な位置座標及びドットパターンアドレス(コード化パターンアドレス)を保持している。図3(b)は、図3(a)に示す各ドットを、格子の基準位置からのシフト方向によって、図2に示す規則性に基づいて対応づけられた値に変換したものである。この変換は、ドットパターンの画像を撮影する電子ペン1によって行われる。   FIG. 3A shows an arrangement of dot patterns at a certain position. As shown in FIG. 3A, 6 × 6 dots are arranged within a range of about 2 mm in length and width so that a unique pattern can be obtained regardless of where 6 × 6 dots are taken on the screen 4. Yes. The dot pattern formed by these 36 dots holds relative position coordinates on the paper 402 and a dot pattern address (coded pattern address). FIG. 3B is a diagram in which each dot shown in FIG. 3A is converted into a value associated with the regularity shown in FIG. 2 according to the shift direction from the reference position of the lattice. This conversion is performed by the electronic pen 1 that captures an image of a dot pattern.

[電子ペン]
次に、電子ペン1について説明する。図4は、電子ペン1の構造を示す概略図である。図4に示すように、電子ペン1は、その筐体101の内部に、ペン部104、LED105、CMOSカメラ106、圧力センサ107、CPU等により構成されるプロセッサ108、ROMやRAMといったメモリ109、リアルタイムクロック110、アンテナ等により構成される通信ユニット111及びバッテリー112を備える。ペン部104の先端は、ペン先部103となっており、ユーザは、電子ペン1のペン先部103をスクリーン4の用紙402に当接させて、文字等のストロークを記入したり、タップ(ペン先部103によるスクリーン4への軽叩)したりする。ここで、電子ペン1のペン先部103が用紙402等に最初に接触することをペンダウンと呼び、接触している(当接している)状態からペン先部103が離れることをペンアップと呼ぶ。電子ペン1のペンダウンからペンアップまでの間に記入される軌跡が1つのストロークとなり、文字や図形等は、1つ又は複数個のストロークからなる。なお、電子ペン1は、プロジェクター3により投影されるスクリーン4に、タップしたり文字を記入したりするのに用いるものであるので、ペン部104は、インクが充填されたものでなくともよい。
[Electronic pen]
Next, the electronic pen 1 will be described. FIG. 4 is a schematic diagram showing the structure of the electronic pen 1. As shown in FIG. 4, the electronic pen 1 includes a pen unit 104, an LED 105, a CMOS camera 106, a pressure sensor 107, a processor 108 including a CPU, a memory 109 such as a ROM and a RAM, A communication unit 111 including a real time clock 110, an antenna, and the like, and a battery 112 are provided. The tip of the pen unit 104 is a pen point unit 103, and the user brings the pen point unit 103 of the electronic pen 1 into contact with the paper 402 of the screen 4 to enter strokes of characters or the like, or tap ( Lightly hitting the screen 4 with the pen tip 103. Here, the first contact of the pen tip 103 of the electronic pen 1 with the paper 402 or the like is called pen-down, and the removal of the pen tip 103 from the contacted (contacted) state is called pen-up. . A trajectory written between the pen-down and pen-up of the electronic pen 1 is one stroke, and characters, figures, etc. are composed of one or a plurality of strokes. Since the electronic pen 1 is used for tapping or writing characters on the screen 4 projected by the projector 3, the pen unit 104 does not have to be filled with ink.

バッテリー112は電子ペン1内の各部品に電力を供給するためのものであり、例えば電子ペン1のキャップ(図示せず)の脱着により電子ペン1自体の電源のオン/オフを行うよう構成させてもよい。リアルタイムクロック110は、現在時刻(タイムスタンプ)を示す時刻情報を発信し、プロセッサ108に供給する。圧力センサ107は、ユーザが電子ペン1によりスクリーン4に文字やマークを書いたりタップしたりする際にペン先部103からペン部104を通じて与えられる圧力、即ち筆圧を検出し、その値をプロセッサ108へ伝送する。   The battery 112 is for supplying electric power to each component in the electronic pen 1. For example, the battery 112 is configured to turn on / off the electronic pen 1 itself by attaching and detaching a cap (not shown) of the electronic pen 1. May be. The real time clock 110 transmits time information indicating the current time (time stamp) and supplies the time information to the processor 108. The pressure sensor 107 detects the pressure applied through the pen unit 104 from the pen tip unit 103 when the user writes or taps a character or mark on the screen 4 with the electronic pen 1, that is, the writing pressure, and the value is detected by the processor. To 108.

プロセッサ108は、圧力センサ107から与えられる筆圧データに基づいて、LED105及びCMOSカメラ106のスイッチのオン/オフを切換える。即ち、ユーザが電子ペン1でスクリーン4に文字などを書くと、ペン先部103に筆圧がかかり、圧力センサ107によって所定値以上の筆圧が検出されたときに、プロセッサ108は、ユーザが記入を開始したと判定して、LED105及びCMOSカメラ106を作動させる。また、ユーザが1つのストロークを記入し終えて電子ペン1をスクリーン4から離すと、圧力センサ107は、所定値以上の筆圧が検出されなくなることでペンアップを検出する。   The processor 108 switches on / off the switches of the LED 105 and the CMOS camera 106 based on the writing pressure data supplied from the pressure sensor 107. That is, when a user writes a character or the like on the screen 4 with the electronic pen 1, the pen pressure is applied to the pen tip portion 103, and when the pressure sensor 107 detects a writing pressure higher than a predetermined value, the processor 108 It is determined that entry has started, and the LED 105 and the CMOS camera 106 are operated. Further, when the user finishes entering one stroke and moves the electronic pen 1 away from the screen 4, the pressure sensor 107 detects pen-up because no writing pressure exceeding a predetermined value is detected.

LED105とCMOSカメラ106は、電子ペン1のペン先部103付近に取り付けられており、筐体101におけるLED105及びCMOSカメラ106と対向する部分には、開口部102が形成されている。LED105は、スクリーン4上のペン先部103近傍に向けて赤外線を照明する。その領域は、ペン先部103がスクリーン4に接触する位置とはわずかにずれている。CMOSカメラ106は、LED105によって照明された領域内におけるドットパターンを撮影し、そのドットパターンの画像データをプロセッサ108に供給する。ここで、カーボンは赤外線を吸収するため、LED105によって照射された赤外線は、ドットに含まれるカーボンによって吸収される。そのため、ドットの部分は、赤外線の反射量が少なく、ドット以外の部分は赤外線の反射量が多い。したがって、CMOSカメラ106の撮影により、赤外線の反射量の違いから閾値を設けることによって、カーボンを含むドットの領域とそれ以外の領域を区別することができる。なお、CMOSカメラ106による撮影領域は、図3(a)に示すような約2mm×約2mmの大きさを含む範囲であり、CMOSカメラ106の撮影は毎秒50〜100回程度の定間隔で行われる。   The LED 105 and the CMOS camera 106 are attached near the pen tip portion 103 of the electronic pen 1, and an opening 102 is formed in a portion of the housing 101 that faces the LED 105 and the CMOS camera 106. The LED 105 illuminates infrared rays toward the vicinity of the pen tip portion 103 on the screen 4. The region is slightly shifted from the position where the pen tip portion 103 contacts the screen 4. The CMOS camera 106 captures a dot pattern in the area illuminated by the LED 105 and supplies image data of the dot pattern to the processor 108. Here, since carbon absorbs infrared rays, the infrared rays irradiated by the LED 105 are absorbed by the carbon contained in the dots. Therefore, the dot portion has a small amount of infrared reflection, and the portion other than the dot has a large amount of infrared reflection. Therefore, by photographing with the CMOS camera 106, by setting a threshold value based on the difference in the amount of reflected infrared light, it is possible to distinguish the dot region containing carbon from the other regions. Note that the shooting area by the CMOS camera 106 is a range including a size of about 2 mm × about 2 mm as shown in FIG. 3A, and the shooting by the CMOS camera 106 is performed at regular intervals of about 50 to 100 times per second. Is called.

プロセッサ108は、ユーザの記入が行われる間、CMOSカメラ106によって供給される画像データのドットパターンから、ユーザが記入するストローク(筆跡)のスクリーン4上におけるX,Y座標(単に「位置座標」、「座標データ」とも呼ぶ)とスクリーン4に固有のドットパターンアドレス(コード化パターンアドレス)とを連続的に演算していく。すなわち、プロセッサ108は、CMOSカメラ106によって供給される、図3(a)に示されるようなドットパターンの画像データを図3(b)に示すデータ配列に変換し、さらに、X座標ビット値及びY座標ビット値に変換して、そのデータ配列から所定の演算方法によりX,Y座標データ及びドットパターンアドレスを演算する。そしてプロセッサ108は、リアルタイムクロック110から発信される現在時刻(タイムスタンプ:記入された時刻情報)、筆圧データ、ドットパターンアドレス及びX,Y座標データとを関連付ける。なお、スクリーン4における6×6のドットパターンは、スクリーン4内で重複することはないため、ユーザが電子ペン1で文字等を記入すると、記入された位置がスクリーン4のどの位置に当たるかを、プロセッサ108による座標演算により特定することができる。   The processor 108 performs X and Y coordinates (simply “position coordinates”, “position coordinates” on the screen 4 of the stroke (handwriting) to be entered by the user from the dot pattern of the image data supplied by the CMOS camera 106 during the user entry. (Also called “coordinate data”) and dot pattern addresses (coded pattern addresses) unique to the screen 4 are continuously calculated. That is, the processor 108 converts the image data of the dot pattern as shown in FIG. 3 (a) supplied by the CMOS camera 106 into the data array shown in FIG. 3 (b). The data is converted into a Y coordinate bit value, and X, Y coordinate data and a dot pattern address are calculated from the data array by a predetermined calculation method. Then, the processor 108 associates the current time (time stamp: entered time information) transmitted from the real-time clock 110, the writing pressure data, the dot pattern address, and the X and Y coordinate data. Since the 6 × 6 dot pattern on the screen 4 does not overlap in the screen 4, when the user enters characters or the like with the electronic pen 1, it indicates which position on the screen 4 the entered position corresponds to. It can be specified by coordinate calculation by the processor 108.

メモリ109には、電子ペン1を識別するための「pen01」といったペンID、ペン製造者番号、ペンソフトウェアのバージョン等のプロパティ情報が記憶されている。そして、通信ユニット111は、ペンID(電子ペン識別情報)と、時刻情報(タイムスタンプ)と、筆圧データと、ドットパターンアドレスと、X,Y座標データとを関連付けて、記入情報としてコンピュータ装置2へ送信する。通信ユニット111によるコンピュータ装置2への送信は、Bluetooth(登録商標)などの無線送信によって、即時的かつ逐次的に行われる。   The memory 109 stores property information such as a pen ID such as “pen01” for identifying the electronic pen 1, a pen manufacturer number, and a pen software version. Then, the communication unit 111 associates a pen ID (electronic pen identification information), time information (time stamp), writing pressure data, dot pattern address, and X, Y coordinate data, and enters computer information as entry information. 2 to send. Transmission to the computer apparatus 2 by the communication unit 111 is performed immediately and sequentially by wireless transmission such as Bluetooth (registered trademark).

[コンピュータ装置]
次に、コンピュータ装置2について説明する。コンピュータ装置2は、ハードウェアとして、電子ペン1とのデータ通信が可能なアンテナ装置、CPU等のプロセッサ、ROMやRAMといったメモリ、ディスプレイ、マウスやキーボード等で構成されるパーソナルコンピュータ等で構成される。図5は、コンピュータ装置2の機能ブロック図である。コンピュータ装置2は、機能的には、マウスやキーボードといった入力手段21、受信手段22、処理手段24、記憶手段25、表示手段26及び送信手段27を備える。そして、コンピュータ装置2は、電子ペン1から受信した記入情報に基づいて所定の処理を行う。
[Computer device]
Next, the computer apparatus 2 will be described. The computer device 2 includes, as hardware, an antenna device capable of data communication with the electronic pen 1, a processor such as a CPU, a memory such as ROM and RAM, a display, a personal computer including a mouse and a keyboard, and the like. . FIG. 5 is a functional block diagram of the computer apparatus 2. Functionally, the computer apparatus 2 includes an input unit 21 such as a mouse and a keyboard, a reception unit 22, a processing unit 24, a storage unit 25, a display unit 26, and a transmission unit 27. Then, the computer device 2 performs a predetermined process based on the entry information received from the electronic pen 1.

受信手段22は、アンテナや受信回路等により構成され、電子ペン1から記入情報を受信し、処理手段24に伝送する。送信手段27は、処理手段24の指示によって、表示手段26の画像表示に用いられる画像信号をプロジェクター3に送信するもので、プロジェクター3へのデータ送信方式は、有線式であっても無線式であってもよい。表示手段26は、ディスプレイ等によって構成され、処理手段24によって指示された内容を表示する。   The receiving unit 22 includes an antenna, a receiving circuit, and the like, and receives entry information from the electronic pen 1 and transmits it to the processing unit 24. The transmission unit 27 transmits an image signal used for displaying an image on the display unit 26 to the projector 3 according to an instruction from the processing unit 24. A data transmission method to the projector 3 is a wireless method even if a wired method is used. There may be. The display means 26 is constituted by a display or the like, and displays the contents instructed by the processing means 24.

記憶手段25は、ハードディスクやROM、RAMといったメモリによって構成される。記憶手段25には、スクリーン4上のドットパターン(コード化パターン)における位置座標とコンピュータ装置2の表示手段26における表示画面上の位置座標とのキャリブレーション処理を行うためのプログラムが記憶されている。このプログラムに関して、記憶手段25は、キャリブレーション処理の際に表示される表示基準点、認識基準点等の位置座標やキャリブレーション用マークの画像等を記憶する。さらに、記憶手段25には、電子ペン1でスクリーン4に手書きを行うことによって生成された記入情報を処理するプログラム等も記憶されている。また、記憶手段25には、手書き入力アプリケーション等の様々なアプリケーションがインストールされて記憶されている。   The storage means 25 is configured by a memory such as a hard disk, ROM, or RAM. The storage means 25 stores a program for calibrating the position coordinates in the dot pattern (coded pattern) on the screen 4 and the position coordinates on the display screen in the display means 26 of the computer device 2. . With respect to this program, the storage means 25 stores position coordinates such as display reference points and recognition reference points displayed during the calibration process, images of calibration marks, and the like. Further, the storage means 25 also stores a program for processing entry information generated by handwriting on the screen 4 with the electronic pen 1. In the storage unit 25, various applications such as a handwriting input application are installed and stored.

処理手段24は、CPU等のプロセッサによって構成され、受信手段22により電子ペン1から受信した記入情報に基づいて、表示手段26に対して種々の形態で記入内容を表示させたり、記憶手段25に記憶されたキャリブレーション処理を行うプログラムを起動させて、キャリブレーション処理を行ったりする。また、処理手段24は、記憶手段25に記憶された手書き入力アプリケーション等のアプリケーションを起動させて実行する。さらに、処理手段24は、表示手段26に表示させる画像と同じ画像を同期させてプロジェクター3に投影させるための画像信号を、送信手段27に対してプロジェクター3へ送信させる。   The processing means 24 is constituted by a processor such as a CPU, and based on the entry information received from the electronic pen 1 by the receiving means 22, displays the entry contents in various forms on the display means 26, or causes the storage means 25 to display it. A stored program for performing calibration processing is activated to perform calibration processing. Further, the processing unit 24 activates and executes an application such as a handwriting input application stored in the storage unit 25. Further, the processing unit 24 causes the transmission unit 27 to transmit to the projector 3 an image signal for causing the projector 3 to project the same image as the image displayed on the display unit 26 in synchronization.

プロジェクター3は、コンピュータ装置2の送信手段27から受信した画像信号に基づいて、表示手段26に表示された画像と同様の画像をスクリーン4の領域403に投影して映し出す。   The projector 3 projects an image similar to the image displayed on the display unit 26 onto the area 403 of the screen 4 based on the image signal received from the transmission unit 27 of the computer apparatus 2.

<キャリブレーション起動処理のフロー>
次に、図6を参照して、情報処理システム10におけるキャリブレーション起動処理について説明する。
<Calibration startup process flow>
Next, calibration start processing in the information processing system 10 will be described with reference to FIG.

図6は、キャリブレーション起動処理のフロー図である。まず、ユーザが、電子ペン1を用いて、スクリーン4の用紙402上に記入ないしタップを行う。すると、電子ペン1は、圧力センサ107によって所定値以上の筆圧が検出されたことにより用紙402への接触を検出し、LED105によって赤外線を照射しつつカメラ106によって筆跡に沿ってドットパターンを撮像し、プロセッサ108によって、撮像されたドットパターンの画像データから筆跡に沿った位置座標を連続的に演算し、当該位置座標、リアルタイムクロック110により発信された現在時刻、筆圧データ(以上、「ストローク情報」)及びペンIDと関連付けて、記入情報として即時的且つ逐次的にコンピュータ装置2へ送信する(ステップS101)。   FIG. 6 is a flowchart of the calibration activation process. First, the user performs writing or tapping on the paper 402 of the screen 4 using the electronic pen 1. Then, the electronic pen 1 detects contact with the paper 402 when the pressure sensor 107 detects a writing pressure equal to or higher than a predetermined value, and images a dot pattern along the handwriting with the camera 106 while irradiating infrared rays with the LED 105. Then, the processor 108 continuously calculates the position coordinates along the handwriting from the image data of the captured dot pattern, and the position coordinates, the current time transmitted by the real-time clock 110, the writing pressure data (hereinafter referred to as “stroke”). Information ") and the pen ID are transmitted to the computer apparatus 2 immediately and sequentially as entry information (step S101).

コンピュータ装置2では、受信手段22が、電子ペン1から記入情報(ストローク情報及びペンID)を受信すると、その記入情報を記憶手段25に記憶する(ステップS201)。そして、処理手段24は、座標変換関数が定義されているか否かを確認する(ステップS202)。処理手段24は、座標変換関数が定義されていないと認識した場合は(ステップS202:No)、キャリブレーション処理を開始する(ステップS204、後述図7参照)。したがって、キャリブレーション処理が実行されていない状態のときに、ユーザが、電子ペン1でスクリーン4に書き込もうとすれば、キャリブレーション処理が開始される。一方、処理手段24は、座標変換関数が定義されていると認識した場合(ステップS202:Yes)、受信した記入情報のスクリーン4上のドットパターンによる位置座標を、座標変換関数を用いて、ストローク変換処理によって、ディスプレイ(表示画面)201上の位置座標に変換して、種々の処理を行う(ステップS203、後述図13参照)。   In the computer apparatus 2, when the receiving means 22 receives the entry information (stroke information and pen ID) from the electronic pen 1, the entry information is stored in the storage means 25 (step S201). Then, the processing means 24 checks whether or not a coordinate conversion function is defined (step S202). If the processing unit 24 recognizes that the coordinate conversion function is not defined (step S202: No), it starts a calibration process (step S204, see FIG. 7 described later). Therefore, if the user tries to write on the screen 4 with the electronic pen 1 when the calibration process is not executed, the calibration process is started. On the other hand, when the processing means 24 recognizes that the coordinate conversion function is defined (step S202: Yes), the position coordinates of the received entry information by the dot pattern on the screen 4 are stroked using the coordinate conversion function. By the conversion process, it is converted into position coordinates on the display (display screen) 201 and various processes are performed (step S203, see FIG. 13 described later).

<キャリブレーション処理>
次に、図6のステップS204におけるキャリブレーション処理について、図7〜図10を参照しつつ説明する。
<Calibration process>
Next, the calibration process in step S204 of FIG. 6 will be described with reference to FIGS.

図7は、キャリブレーション処理のフロー図である。図8は、スクリーン4に投影されたキャリブレーション用マークの画像を示す図である。   FIG. 7 is a flowchart of the calibration process. FIG. 8 is a diagram illustrating an image of a calibration mark projected on the screen 4.

処理手段24は、キャリブレーション処理を開始すると、表示手段26の表示画面201に第1キャリブレーション用マーク601を表示させるとともに、図8に示すように、プロジェクター3に対して、スクリーン4上に、第1キャリブレーション用マーク601を投影させて、ユーザに電子ペン1による第1キャリブレーション用マーク601の基準点(同心円の中心)でのペンアップを促す(ステップS301)。例えば、図8のように、処理手段24は、「ペン先が的の中心に触れたところで上げてください」といった指示メッセージを表示させたり、同様の音声による指示を出力させたりする。   When the processing unit 24 starts the calibration process, the processing unit 24 displays the first calibration mark 601 on the display screen 201 of the display unit 26 and, as shown in FIG. The first calibration mark 601 is projected, and the user is prompted to perform pen-up at the reference point (center of the concentric circle) of the first calibration mark 601 with the electronic pen 1 (step S301). For example, as shown in FIG. 8, the processing means 24 displays an instruction message such as “Please raise when the pen tip touches the center of the target” or output a similar voice instruction.

続いて、ユーザが電子ペン1を用いて、ペンダウンした状態で第1キャリブレーション用マーク601が投影された位置(同心円の中心)までペン先を移動させてからペンアップする。すると、電子ペン1は、ストローク情報を生成し、ペンIDと関連付けて、記入情報としてコンピュータ装置2へ送信する(ステップS401)。このように、電子ペン1が、記入情報をコンピュータ装置2へ送信すると、コンピュータ装置2では、受信手段22が、電子ペン1から記入情報(ストローク情報及びペンID)を受信し、その記入情報を記憶手段25に記憶する(ステップS302)。処理手段24は、電子ペン1より記入情報を受信手段22によって受信すると、記入情報のうち、ペンアップの位置座標を抽出して、第1キャリブレーション用マーク601が投影された位置宛てに指示された用紙402上の第1認識基準点として、記憶手段25に記憶する(ステップS303)。   Subsequently, the user uses the electronic pen 1 to move the pen tip to the position (center of the concentric circle) where the first calibration mark 601 is projected in the pen-down state, and then performs the pen-up. Then, the electronic pen 1 generates stroke information, associates it with the pen ID, and transmits it as entry information to the computer device 2 (step S401). As described above, when the electronic pen 1 transmits the entry information to the computer device 2, in the computer device 2, the receiving unit 22 receives the entry information (stroke information and pen ID) from the electronic pen 1, and receives the entry information. It memorize | stores in the memory | storage means 25 (step S302). When the receiving means 22 receives the entry information from the electronic pen 1, the processing means 24 extracts the pen-up position coordinates from the entry information and is directed to the position where the first calibration mark 601 is projected. The first recognition reference point on the sheet 402 is stored in the storage means 25 (step S303).

さらに、処理手段24は、表示手段26の表示画面201に第2キャリブレーション用マーク602を表示させるとともに、プロジェクター3に対して、スクリーン4上に、第2キャリブレーション用マーク602を投影させて(図8参照)、ユーザに電子ペン1による第2キャリブレーション用マーク602が投影された位置でのペンタッチとそれに続くペンアップを促す(ステップS304)。   Further, the processing unit 24 displays the second calibration mark 602 on the display screen 201 of the display unit 26 and causes the projector 3 to project the second calibration mark 602 on the screen 4 ( 8), the user is prompted to perform a pen touch and a subsequent pen-up at the position where the second calibration mark 602 is projected by the electronic pen 1 (step S304).

続いて、ユーザが電子ペン1を用いて、第2キャリブレーション用マーク602が投影された位置(同心円の中心)にペン先が当接した後でペンアップすると、電子ペン1は、ストローク情報を生成し、ペンIDと関連付けて、記入情報としてコンピュータ装置2へ送信する(ステップS402)。このように、電子ペン1が、記入情報をコンピュータ装置2へ送信すると、コンピュータ装置2では、受信手段22が、電子ペン1から記入情報(ストローク情報及びペンID)を受信し、その記入情報を記憶手段25に記憶する(ステップS305)。   Subsequently, when the user uses the electronic pen 1 to pen up after the pen tip comes into contact with the position (center of the concentric circle) where the second calibration mark 602 is projected, the electronic pen 1 displays the stroke information. It is generated, associated with the pen ID, and transmitted as entry information to the computer apparatus 2 (step S402). As described above, when the electronic pen 1 transmits the entry information to the computer device 2, in the computer device 2, the receiving unit 22 receives the entry information (stroke information and pen ID) from the electronic pen 1, and receives the entry information. It memorize | stores in the memory | storage means 25 (step S305).

処理手段24は、受信した記入情報からペンアップの位置座標を抽出し、そのペンアップの位置座標が第1認識基準点の同一認識範囲外にあるか否かを判定する(ステップS306)。ここで、同一認識範囲というのは、ユーザが意識せずに同じキャリブレーション用マークを二回以上ペンタッチしてしまったと認識できる範囲であり、スクリーン4の大きさなどに応じて、用紙402上に印刷されたドットパターン座標上の数値範囲(例えば数cm)を設定するとよい。そして、処理手段24が、ペンアップの位置座標は第1認識基準点の同一認識範囲内にあると判定した場合(ステップS306:No)、そのペンアップの位置座標は第2認識基準点として採用することができないため、処理フローを終了するが、ペンアップの位置座標が第1認識基準点の同一認識範囲外にあると判定した場合(ステップS306:Yes)、処理手段24は、そのペンアップの位置座標を、第2キャリブレーション用マーク602が投影された位置宛てに指示された用紙402上の第2認識基準点として、記憶手段25に記憶する(ステップS307)。   The processing unit 24 extracts the pen-up position coordinates from the received entry information, and determines whether or not the pen-up position coordinates are outside the same recognition range of the first recognition reference point (step S306). Here, the same recognition range is a range in which the user can recognize that the same calibration mark has been pen-touched twice or more without being conscious of it, and is displayed on the paper 402 according to the size of the screen 4 or the like. A numerical range (for example, several centimeters) on the printed dot pattern coordinates may be set. When the processing unit 24 determines that the pen-up position coordinate is within the same recognition range of the first recognition reference point (step S306: No), the pen-up position coordinate is adopted as the second recognition reference point. However, if it is determined that the position coordinates of the pen-up are outside the same recognition range of the first recognition reference point (step S306: Yes), the processing unit 24 performs the pen-up. Is stored in the storage unit 25 as the second recognition reference point on the sheet 402 instructed to the position where the second calibration mark 602 is projected (step S307).

そして、処理手段24は、ドットパターンの演算による用紙402上の第1,第2認識基準点の座標値(投影された第1,第2キャリブレーション用マーク601,602の同心円の中心点における座標値)と、表示手段26の表示画面201上における第1,第2キャリブレーション用マーク601,602の同心円の中心点である第1,2表示基準点における座標値)とに基づいて、用紙402上の位置座標から、コンピュータ装置2における表示画面201上の位置座標を演算するための座標変換関数を求めて定義し、記憶手段25に記憶する(ステップS308)。それとともに、処理手段24は、キャリブレーション処理の結果、電子ペン1によりスクリーン4上で位置座標が表示画面201に対応して正確に入力可能な座標入力領域403を確定し、その座標領域を定義して、記憶手段25に記憶する。   The processing unit 24 then calculates the coordinate values of the first and second recognition reference points on the paper 402 by the dot pattern calculation (the coordinates at the center point of the concentric circles of the projected first and second calibration marks 601 and 602). Value) and the coordinate value at the first and second display reference points that are the center points of the concentric circles of the first and second calibration marks 601 and 602 on the display screen 201 of the display means 26). From the upper position coordinates, a coordinate conversion function for calculating the position coordinates on the display screen 201 in the computer apparatus 2 is obtained and defined, and stored in the storage means 25 (step S308). At the same time, as a result of the calibration process, the processing means 24 determines a coordinate input area 403 on which the position coordinates can be accurately input on the screen 4 by the electronic pen 1 corresponding to the display screen 201, and defines the coordinate area. And stored in the storage means 25.

ここで、キャリブレーション用の演算式の求め方について、図9及び図10を参照して説明する。   Here, a method of obtaining the calculation formula for calibration will be described with reference to FIGS.

図9は、コンピュータ装置2の表示画面201上における第1,第2表示基準点の位置座標を示す図である。図9に示すように、コンピュータ装置2の表示手段(ディスプレイ)26の表示画面201において、X軸を右方向、Y軸を下方向にとり、以下の座標を次のようにする。
左上端点:座標202(Xamin ,Yamin )、
右下端点:座標203(Xamax ,Yamax )、
第1表示基準点:座標204(Xa1 ,Ya1 )、
第2表示基準点:座標205(Xa2 ,Ya2 )、
ただし、Xamin ≦ Xa1< Xa2≦ Xamax、
Yamin ≦ Ya1< Ya2≦ Yamax、
FIG. 9 is a diagram showing the position coordinates of the first and second display reference points on the display screen 201 of the computer apparatus 2. As shown in FIG. 9, on the display screen 201 of the display means (display) 26 of the computer apparatus 2, the X axis is the right direction, the Y axis is the downward direction, and the following coordinates are as follows.
Upper left point: Coordinate 202 (Xamin, Yamin),
Lower right corner point: coordinates 203 (Xamax, Yamax),
First display reference point: coordinates 204 (Xa1, Ya1),
Second display reference point: coordinates 205 (Xa2, Ya2),
However, Xamin ≤ Xa1 <Xa2 ≤ Xamax,
Yamin ≤ Ya1 <Ya2 ≤ Yamax,

図10は、スクリーン4の用紙402上における第1,第2認識基準点の位置座標を示す図である。第1,第2認識基準点は、コンピュータ装置2の表示画面201上における第1,第2表示基準点がスクリーン4に投影され、電子ペン1によって指示されたドットパターン(コード化パターン)の解析に基づく位置座標である。図10に示すように、プロジェクター3によってスクリーン4に投影される座標入力領域403において、X軸を右方向、Y軸を下方向にとり、以下の座標を次のようにする。
左上端点:座標404(Xb0 ,Yb0 )、
座標入力領域403の左上端点:座標405(Xbmin ,Ybmin )、
座標入力領域403の右下端点:座標406(Xbmax ,Ybmax )、
第1認識基準点:座標407(Xb1 ,Yb1 )、
第2認識基準点:座標408(Xb2 ,Yb2 )、
ただし、Xb0 ≦ Xbmin≦ Xb1< Xb2≦ Xbmax、
Yb0 ≦ Ybmin≦ Yb1< Yb2≦ Ybmax、
FIG. 10 is a diagram illustrating the position coordinates of the first and second recognition reference points on the sheet 402 of the screen 4. As the first and second recognition reference points, the first and second display reference points on the display screen 201 of the computer apparatus 2 are projected on the screen 4 and the dot pattern (coded pattern) indicated by the electronic pen 1 is analyzed. The position coordinates based on As shown in FIG. 10, in the coordinate input area 403 projected onto the screen 4 by the projector 3, the X axis is in the right direction, the Y axis is in the downward direction, and the following coordinates are as follows.
Upper left corner point: coordinates 404 (Xb0, Yb0),
Upper left point of coordinate input area 403: coordinates 405 (Xbmin, Ybmin),
Lower right corner point of coordinate input area 403: coordinates 406 (Xbmax, Ybmax),
First recognition reference point: coordinates 407 (Xb1, Yb1),
Second recognition reference point: coordinates 408 (Xb2, Yb2),
However, Xb0 ≤ Xbmin ≤ Xb1 <Xb2 ≤ Xbmax,
Yb0 ≤ Ybmin ≤ Yb1 <Yb2 ≤ Ybmax,

すると、コンピュータ装置2の表示領域201における第1表示基準点の座標204(Xa1 ,Ya1 )及び第2表示基準点の座標205(Xa2 ,Ya2 )が、スクリーン4の用紙402上のドットパターンにおける第1認識基準点の座標407(Xb1 ,Yb1 )及び第2認識基準点の座標408(Xb2 ,Yb2 )にそれぞれ対応する。そして、スクリーン4に投影される座標入力領域403を規定する左上端点座標405(Xbmin ,Ybmin )及び右下端点座標406(Xbmax ,Ybmax )(長方形状の座標入力領域403における対角の各頂点)は次の数式で表すことができる。

[数式1] Xbmin= Xb1−(Xa1 − Xamin)×(Xb2 − Xb1)/(Xa2 − Xa1)
[数式2] Ybmin= Yb1−(Ya1 − Yamin)×(Yb2 − Yb1)/(Ya2 − Ya1)

[数式3] Xbmax= Xb2+(Xamax − Xa2)×(Xb2 − Xb1)/(Xa2 − Xa1)
[数式4] Ybmax= Yb2+(Yamax − Ya2)×(Yb2 − Yb1)/(Ya2 − Ya1)

この座標値を対頂角点とする長方形状の領域から、座標入力領域403を規定することができる。
Then, the coordinates 204 (Xa 1, Ya 1) of the first display reference point and the coordinates 205 (Xa 2, Ya 2) of the second display reference point in the display area 201 of the computer device 2 are the first in the dot pattern on the paper 402 of the screen 4. The coordinates correspond to the coordinates 407 (Xb1, Yb1) of the first recognition reference point and the coordinates 408 (Xb2, Yb2) of the second recognition reference point, respectively. Then, the upper left corner point coordinates 405 (Xbmin, Ybmin) and the lower right corner point coordinates 406 (Xbmax, Ybmax) defining the coordinate input area 403 projected on the screen 4 (each vertex of the diagonal in the rectangular coordinate input area 403) Can be expressed as:

[Formula 1] Xbmin = Xb1− (Xa1−Xamin) × (Xb2−Xb1) / (Xa2−Xa1)
[Formula 2] Ybmin = Yb1− (Ya1−Yamin) × (Yb2−Yb1) / (Ya2−Ya1)

[Formula 3] Xbmax = Xb2 + (Xamax−Xa2) × (Xb2−Xb1) / (Xa2−Xa1)
[Formula 4] Ybmax = Yb2 + (Yamax−Ya2) × (Yb2−Yb1) / (Ya2−Ya1)

The coordinate input area 403 can be defined from a rectangular area having the coordinate value as the vertical angle point.

そして、スクリーン4の用紙402上のドットパターンで規定される位置座標(Xbn,Ybn)から、コンピュータ装置2の表示手段26における表示画面201上の位置座標(Xan,Yan)は、次の式で求めることができる。

[数式5] Xan= Xamin+[ Xbn −(Xbmin−Xb0 )] ×(Xa2 − Xa1)/(Xb2 −Xb1)
[数式6] Yan= Yamin+[ Ybn −(Ybmin−Yb0 )] ×(Ya2 − Ya1)/(Yb2 −Yb1)

よって、処理手段24は、上式により、スクリーン4上の位置座標(Xbn ,Ybn )を、コンピュータ装置2の表示画面201上の位置座標(Xan ,Yan )に変換して、各種処理を行っていく。なお、スクリーン4に対するプロジェクター3の角度によって、演算式の項に歪みを補正する所定の係数をかけるようにしてもよい。
Then, from the position coordinates (Xbn, Ybn) defined by the dot pattern on the paper 402 of the screen 4, the position coordinates (Xan, Yan) on the display screen 201 in the display means 26 of the computer device 2 are expressed by the following equations. Can be sought.

[Formula 5] Xan = Xamin + [Xbn− (Xbmin−Xb0)] × (Xa2−Xa1) / (Xb2−Xb1)
[Formula 6] Yan = Yamin + [Ybn− (Ybmin−Yb0)] × (Ya2−Ya1) / (Yb2−Yb1)

Therefore, the processing means 24 converts the position coordinates (Xbn, Ybn) on the screen 4 to the position coordinates (Xan, Yan) on the display screen 201 of the computer apparatus 2 by the above formula, and performs various processes. Go. Note that a predetermined coefficient for correcting distortion may be applied to the term of the arithmetic expression depending on the angle of the projector 3 with respect to the screen 4.

キャリブレーション処理後、スクリーン4上で位置座標が表示画面201に対応して正確に入力可能であるとして定義された座標入力領域403内において、ユーザが、電子ペン1を用いて文字等を書き込む。すると、電子ペン1は、筆跡のストロークに応じたストローク情報を生成し、ペンIDと対応付けた記入情報をコンピュータ装置2へ送信する(ステップS101)。コンピュータ装置2では、受信手段22によって記入情報を受信すると、処理手段24は、その記入情報を記憶手段25に記憶し(ステップS201)、座標変換関数が定義されていると判断し(ステップS202:Yes)、受信した記入情報に含まれるスクリーン4上の位置座標(Xbn ,Ybn )を、キャリブレーション処理によって得られた座標変換関数を用い、コンピュータ装置2の表示画面201上の位置座標(Xan ,Yan )に変換して、変換後の位置座標と、表示画面201に配置されている機能ボタンやアイコンが重なる場合に、機能ボタン等に応じた各種処理を行ったり、ストロークを描画したりしていく(ステップS203)。   After the calibration process, the user writes characters or the like using the electronic pen 1 in the coordinate input area 403 that is defined on the screen 4 so that the position coordinates can be accurately input corresponding to the display screen 201. Then, the electronic pen 1 generates stroke information corresponding to the stroke of the handwriting, and transmits entry information associated with the pen ID to the computer device 2 (step S101). In the computer apparatus 2, when the entry information is received by the receiving means 22, the processing means 24 stores the entry information in the storage means 25 (step S201), and determines that a coordinate conversion function is defined (step S202: Yes), the position coordinates (Xbn, Ybn) on the screen 4 included in the received entry information are converted into the position coordinates (Xan, Ybn) on the display screen 201 of the computer apparatus 2 using the coordinate conversion function obtained by the calibration process. Yan), when the converted position coordinates overlap with the function buttons and icons arranged on the display screen 201, various processes corresponding to the function buttons and the like are performed, and strokes are drawn. (Step S203).

<手書き入力処理>
次に、座標変換関数が定義されている場合に、電子ペン1から受信する記入情報に対してコンピュータ装置2の処理手段24が行う各種処理の一例として、キャリブレーション処理後に、手書き入力アプリケーションを起動して、電子ペン1により手書き入力する処理を、図6、図13のフローチャート及び図11〜図20の画像例を用いて説明する。なお、手書き入力アプリケーションとして、例えばキーボード入力によりテキスト文字も入力できるプレゼンテーション用のアプリケーションを用いるとよい。
<Handwriting input process>
Next, as an example of various processes performed by the processing unit 24 of the computer device 2 on the entry information received from the electronic pen 1 when the coordinate conversion function is defined, the handwriting input application is started after the calibration process. The process of handwriting input with the electronic pen 1 will be described with reference to the flowcharts of FIGS. 6 and 13 and the image examples of FIGS. As a handwriting input application, for example, a presentation application that can also input text characters by keyboard input may be used.

まず、図6及び図11を参照して、手書き入力アプリケーションを起動する処理について説明する。図11は、コンピュータ装置2の表示手段26の表示画面がスクリーン4の座標入力領域403にプロジェクター3によって投影された画像を示す図である。図11に示すように、座標入力領域403の左側に、様々なアプリケーションを起動するアイコン画像が投影されている。ここで、アイコン画像701は、手書き入力アプリケーションのアイコンが投影された画像である。この画面において、電子ペン1でアイコン画像701をタップすると、電子ペン1は、アイコン画像701上にあるドットパターンを読取り、そのドットパターンから用紙402における位置座標を演算したうえ、その座標データを含む記入情報をコンピュータ装置2へ送信する。コンピュータ装置2では、受信手段22が記入情報を受信し、記憶手段25に記憶させる(ステップS201)。そして、処理手段24は、座標変換関数が定義されているため(ステップS202:Yes)、記入情報に含まれる座標データを、座標変換関数によって表示手段26の表示画面201上の位置座標に変換し、変換後の位置座標により、電子ペン1によって手書き入力アプリケーションのアイコン画像701がタップされたことを認識して、手書き入力アプリケーションを起動させる(ステップS203)。   First, with reference to FIG.6 and FIG.11, the process which starts a handwriting input application is demonstrated. FIG. 11 is a diagram illustrating an image in which the display screen of the display unit 26 of the computer apparatus 2 is projected by the projector 3 on the coordinate input area 403 of the screen 4. As shown in FIG. 11, icon images for starting various applications are projected on the left side of the coordinate input area 403. Here, the icon image 701 is an image in which an icon of a handwriting input application is projected. On this screen, when the icon image 701 is tapped with the electronic pen 1, the electronic pen 1 reads the dot pattern on the icon image 701, calculates the position coordinates on the paper 402 from the dot pattern, and includes the coordinate data. The entry information is transmitted to the computer apparatus 2. In the computer apparatus 2, the receiving means 22 receives the entry information and stores it in the storage means 25 (step S201). Since the coordinate conversion function is defined (step S202: Yes), the processing unit 24 converts the coordinate data included in the entry information into position coordinates on the display screen 201 of the display unit 26 using the coordinate conversion function. Based on the converted position coordinates, the electronic pen 1 recognizes that the icon image 701 of the handwriting input application has been tapped, and starts the handwriting input application (step S203).

図12は、処理手段24により手書き入力アプリケーションが起動されたコンピュータ装置2の表示画面が、スクリーン4の座標入力領域403にプロジェクター3によって投影された画像を示す図である。処理手段24は、手書き入力アプリケーションの起動により、ウィンドウ702を表示させている。また、処理手段24は、ウィンドウ702内に、書き込み領域703を表示させている。ユーザは、拡大ボタン704、縮小ボタン705を電子ペン1でタップすることにより、書き込み領域703を拡大させたり、縮小させたりすることができる。   FIG. 12 is a diagram showing an image projected by the projector 3 on the coordinate input area 403 of the screen 4 on the display screen of the computer apparatus 2 in which the handwriting input application is activated by the processing means 24. The processing unit 24 displays the window 702 by starting the handwriting input application. Further, the processing means 24 displays a writing area 703 in the window 702. The user can enlarge or reduce the writing area 703 by tapping the enlargement button 704 and the reduction button 705 with the electronic pen 1.

次に、図13を参照して、図6に示すステップS203の処理の一例である、手書き入力アプリケーションのスクリーン4における書き込み領域703に電子ペン1で手書き文字等を記入して入力する処理等を説明する。なお、この処理は、キャリブレーション処理により座標変換関数が設定されていると判断された後(図6ステップS202参照)に処理される。   Next, referring to FIG. 13, a process of entering and inputting handwritten characters and the like with the electronic pen 1 in the writing area 703 on the screen 4 of the handwriting input application, which is an example of the process of step S <b> 203 shown in FIG. 6. explain. This process is performed after it is determined that the coordinate conversion function is set by the calibration process (see step S202 in FIG. 6).

図13に示すように、コンピュータ装置2では、処理手段24は、キャリブレーション処理により求められた座標変換関数により、電子ペン1から受信した記入情報に含まれるスクリーン4上のドットパターンにおける位置座標を、ディスプレイ(表示画面)201上の位置座標に変換する(ステップS501)。そして、処理手段24は、その変換後の位置座標が書き込み領域703内にあるか否か判定し(ステップS502)、書き込み領域703内にあると判断した場合(ステップS502:Yes)は、書き込み領域703の表示倍率・位置に合わせて変換後の位置座標に応じてストロークを描画するとともに、手書き入力アプリケーションのファイルに記入内容としてストロークのデータを保存していく(ステップS503)。一方、処理手段24は、変換後の位置座標が書き込み領域703内にないと判断した場合(ステップS502:No)、ストロークを記入内容としては取り込まないが、変換後の位置座標がディスプレイ201上に配置されている機能ボタンやアイコンの位置に重なる場合は機能ボタンやアイコンへのタップ等と認識してそれに応じた処理を行い、何ら意味をなさない位置座標であれば不処理として、ステップS201で記憶手段25に記憶した記入情報を消去する(ステップS504)。   As shown in FIG. 13, in the computer apparatus 2, the processing unit 24 calculates the position coordinates in the dot pattern on the screen 4 included in the entry information received from the electronic pen 1 by the coordinate conversion function obtained by the calibration process. Then, it is converted into position coordinates on the display (display screen) 201 (step S501). Then, the processing unit 24 determines whether or not the converted position coordinates are within the writing area 703 (step S502), and when determining that the position coordinates are within the writing area 703 (step S502: Yes), The stroke is drawn according to the converted position coordinates in accordance with the display magnification / position of 703, and the stroke data is stored as the entry contents in the file of the handwriting input application (step S503). On the other hand, if the processing unit 24 determines that the converted position coordinates are not within the writing area 703 (step S502: No), the processing unit 24 does not capture the stroke as the entry content, but the converted position coordinates are displayed on the display 201. If it overlaps with the position of the function button or icon that has been placed, it is recognized as a tap on the function button or icon, etc., and processing is performed accordingly. The entry information stored in the storage means 25 is erased (step S504).

例えば、電子ペン1が、拡大ボタン704又は縮小ボタン705上のスクリーン4のドットパターンを読み取り、位置座標を演算したうえで、その座標データを含む記入情報をコンピュータ装置2へ送信すると(ステップS101)、コンピュータ装置2では、受信手段22が記入情報を受信し、記憶手段25に記憶させ(ステップS201)、処理手段24は、座標変換関数が定義されているため(ステップS202:Yes)、記入情報に含まれる座標データの変換処理等を実行する(ステップS203)。具体的には、図13に示すように、コンピュータ装置2において、処理手段24は、記入情報に含まれるスクリーン4上の座標データを、座標変換関数によって表示手段26の表示画面201上の位置座標に変換する(ステップS501)。さらに処理手段24は、変換後の位置座標が書き込み領域内に含まれないが(ステップS502:No)、電子ペン1によって手書き入力アプリケーションの拡大ボタン704又は縮小ボタン705がタップされたことを認識して、書き込み領域703を拡大させたり、縮小させたりする(ステップS504)。このとき、処理手段24は、書き込み領域703に書き込まれてコンピュータ装置2に取り込まれたストロークを、書き込み領域703の拡大・縮小に応じて相似的に拡大ないし縮小させる。   For example, when the electronic pen 1 reads the dot pattern on the screen 4 on the enlarge button 704 or the reduce button 705, calculates the position coordinates, and transmits entry information including the coordinate data to the computer apparatus 2 (step S101). In the computer apparatus 2, the receiving means 22 receives the entry information and stores it in the storage means 25 (step S201), and the processing means 24 defines the coordinate transformation function (step S202: Yes), so the entry information A conversion process of the coordinate data included in the data is executed (step S203). Specifically, as shown in FIG. 13, in the computer device 2, the processing unit 24 converts the coordinate data on the screen 4 included in the entry information into the position coordinates on the display screen 201 of the display unit 26 using a coordinate conversion function. (Step S501). Further, the processing unit 24 recognizes that the enlargement button 704 or the reduction button 705 of the handwriting input application is tapped with the electronic pen 1 although the converted position coordinates are not included in the writing area (step S502: No). Thus, the writing area 703 is enlarged or reduced (step S504). At this time, the processing unit 24 similarly enlarges or reduces the stroke written in the writing area 703 and taken into the computer apparatus 2 according to the enlargement / reduction of the writing area 703.

続いて、このような処理を、図14〜図20を参照して具体的な書き込み例により説明する。なお、キャリブレーション処理により座標変換関数が設定されていると判断するまで(図6ステップS202参照)の処理は簡略に説明する。   Subsequently, such processing will be described with reference to FIGS. 14 to 20 by specific writing examples. The process until it is determined that the coordinate conversion function is set by the calibration process (see step S202 in FIG. 6) will be briefly described.

図14は、ユーザが電子ペン1によって、図12に示すスクリーン4に投影された書き込み領域703内に、「A B C D E」と書き込んでいる様子を示している。電子ペン1は、書き込み領域703内にストロークが記入される都度、記入情報を生成してコンピュータ装置2へ送信する(ステップS101)。そして、コンピュータ装置2では、記入情報を受信すると記憶手段25に記憶させる(ステップS201)。さらに、処理手段24は、座標変換関数が定義されていると判断し(ステップS202:Yes)、ステップS203の処理を行う。具体的には、図13に示すように、まず、処理手段24は、座標変換関数により、受信した記入情報に含まれるスクリーン4上のドットパターンにおける位置座標をディスプレイ201上の位置座標に変換する(ステップS501)。そして、処理手段24は、その変換後の位置座標が書き込み領域703内にあると判定し(ステップS502:Yes)、書き込み領域703の表示倍率・位置に合わせて変換後の位置座標に応じて、「A B C D E」とストロークを描画し、表示手段26に表示させるとともに、ファイルにデータを保存していく(ステップS503)。処理手段24は、表示手段26への表示に同期して送信手段27から画像信号をプロジェクター3に送信させるため、スクリーン4の座標入力領域403にも表示手段26と同じ画像が投影される。このとき、表示手段26に描画されたストロークが、スクリーン4上に電子ペン1の軌跡に沿って投影されることとなる。   FIG. 14 shows a state where the user writes “A B C D E” in the writing area 703 projected onto the screen 4 shown in FIG. Whenever a stroke is entered in the writing area 703, the electronic pen 1 generates entry information and transmits it to the computer apparatus 2 (step S101). When the computer apparatus 2 receives the entry information, it is stored in the storage means 25 (step S201). Further, the processing unit 24 determines that a coordinate conversion function is defined (step S202: Yes), and performs the process of step S203. Specifically, as shown in FIG. 13, first, the processing means 24 converts the position coordinates in the dot pattern on the screen 4 included in the received entry information into the position coordinates on the display 201 by the coordinate conversion function. (Step S501). Then, the processing unit 24 determines that the converted position coordinates are in the writing area 703 (step S502: Yes), and according to the converted position coordinates in accordance with the display magnification / position of the writing area 703, The stroke “A B C D E” is drawn and displayed on the display means 26, and the data is stored in a file (step S503). Since the processing unit 24 causes the image signal from the transmission unit 27 to be transmitted to the projector 3 in synchronization with the display on the display unit 26, the same image as the display unit 26 is projected on the coordinate input area 403 of the screen 4. At this time, the stroke drawn on the display means 26 is projected on the screen 4 along the locus of the electronic pen 1.

図15は、電子ペン1の操作により、手書き入力アプリケーションのウィンドウ702を図14に示す位置から移動させる様子を示す図である。図15に示すように、ユーザは、電子ペン1でスクリーン4に投影されたウィンドウ702上縁の横長のバーにペンダウンして、ウインドウ702を画像投影領域403の左上方にドラッグしたとする。この場合、電子ペン1からドラッグ操作のストロークによる記入情報が送信され(ステップS101)、コンピュータ装置2では、受信した記入情報を記憶手段25に記憶させる(ステップS201)。さらに処理手段24は、座標変換関数が定義されていると認識し(ステップS202:Yes)、続いて、ステップS203の具体的処理に移り、図13に示すように、座標変換関数により、受信した記入情報に含まれるスクリーン4上のドットパターンにおける位置座標をディスプレイ201上の位置座標に変換する(ステップS501)。そして、処理手段24は、その変換後の位置座標が書き込み領域703内にないと判定(ステップS502:No)するが、ウィンドウ702の上縁バーのドラッグと認識すると、そのドラッグのストロークに応じて、ウィンドウ702を移動させる(ステップS504)。このとき、処理手段24は、書き込み領域703に既に書き込まれた文字等も合わせて、ウィンドウ702とともに移動させる。処理手段24は、表示手段26への表示に同期して送信手段27から画像信号をプロジェクター3に送信させるため、ウィンドウ702の移動がプロジェクター3によりスクリーン4に投影される。   FIG. 15 is a diagram illustrating a state in which the window 702 of the handwriting input application is moved from the position illustrated in FIG. 14 by the operation of the electronic pen 1. As shown in FIG. 15, it is assumed that the user drags down the window 702 to the horizontally long bar on the upper edge of the window 702 projected on the screen 4 with the electronic pen 1 and drags the window 702 to the upper left of the image projection area 403. In this case, entry information by the stroke of the drag operation is transmitted from the electronic pen 1 (step S101), and the computer apparatus 2 stores the received entry information in the storage unit 25 (step S201). Further, the processing means 24 recognizes that the coordinate transformation function is defined (step S202: Yes), and then proceeds to the specific processing of step S203, and receives the coordinate transformation function as shown in FIG. The position coordinates in the dot pattern on the screen 4 included in the entry information are converted into the position coordinates on the display 201 (step S501). Then, the processing unit 24 determines that the converted position coordinates are not within the writing area 703 (step S502: No). However, if the processing unit 24 recognizes that the upper edge bar of the window 702 is dragged, the processing unit 24 responds to the drag stroke. The window 702 is moved (step S504). At this time, the processing means 24 moves the characters and the like already written in the writing area 703 together with the window 702. The processing unit 24 causes the projector 3 to project the movement of the window 702 onto the screen 4 in order to transmit the image signal from the transmission unit 27 to the projector 3 in synchronization with the display on the display unit 26.

図16は、電子ペン1によって、図15に示すスクリーン4に投影された書き込み領域703内に、さらに続けて「F G H I J」と書き込んでいる様子を示している。電子ペン1では、書き込み領域703内にストロークが記入される都度、記入情報を生成してコンピュータ装置2へ送信する(ステップS101)。そして、コンピュータ装置2では、受信した記入情報を記憶手段25に記憶させ(ステップS201)、座標変換関数が定義されていると認識する(ステップS202:Yes)。続いて、処理手段24は、座標変換関数により、受信した記入情報に含まれるスクリーン4上のドットパターンにおける位置座標をディスプレイ201上の位置座標に変換する(ステップS501)。そして、処理手段24は、その変換後の位置座標が書き込み領域703内にあると判定し(ステップS502:Yes)、書き込み領域703の現在の表示倍率・位置に合わせて変換後の位置座標に応じて、「F G H I J」とストロークを追加して描画し、表示手段26に表示させるとともに、ファイルにストロークのデータを保存していく(ステップS503)。処理手段24は、表示手段26への表示に同期して送信手段27から画像信号をプロジェクター3に送信させるため、スクリーン4の座標入力領域403にも表示手段26と同じ画像が投影され、表示手段26に描画されたストロークが、スクリーン4上に電子ペン1の軌跡に沿って投影される。   FIG. 16 shows a state in which “F G H I J” is further written in the writing area 703 projected onto the screen 4 shown in FIG. 15 by the electronic pen 1. In the electronic pen 1, every time a stroke is entered in the writing area 703, entry information is generated and transmitted to the computer apparatus 2 (step S101). Then, the computer device 2 stores the received entry information in the storage means 25 (step S201), and recognizes that a coordinate conversion function is defined (step S202: Yes). Subsequently, the processing unit 24 converts the position coordinates in the dot pattern on the screen 4 included in the received entry information into the position coordinates on the display 201 using the coordinate conversion function (step S501). Then, the processing means 24 determines that the converted position coordinates are in the writing area 703 (step S502: Yes), and according to the converted position coordinates in accordance with the current display magnification / position of the writing area 703. Then, “F G H I J” and a stroke are added and rendered, displayed on the display means 26, and the stroke data is stored in a file (step S503). Since the processing unit 24 transmits the image signal from the transmission unit 27 to the projector 3 in synchronization with the display on the display unit 26, the same image as the display unit 26 is projected on the coordinate input area 403 of the screen 4. The stroke drawn on 26 is projected on the screen 4 along the locus of the electronic pen 1.

図17は、電子ペン1によって、図16に示すスクリーン4上の拡大ボタン704をタップして書き込み領域703を拡大表示させる様子を示す図である。ユーザが、電子ペン1でスクリーン4上の拡大ボタン704をタップすると、電子ペン1は、拡大ボタン704上のドットパターンを読み取って位置座標を演算し、記入情報を生成する。そして、電子ペン1は記入情報を随時送信する(ステップS101)。コンピュータ装置2では、受信した記入情報を記憶手段25に記憶させるとともに(ステップS201)、座標変換関数が定義されていると認識する(ステップS202:Yes)。そして、処理手段24は、座標変換関数により、受信した記入情報に含まれるスクリーン4上のドットパターンにおける位置座標を、ディスプレイ201上の位置座標に変換する(ステップS501)。そして、処理手段24は、その変換後の位置座標が書き込み領域703内にないと判定するが(ステップS502:No)、拡大ボタン704がタップされたと認識し、書き込み領域703を拡大させる(ステップS504)。このとき、処理手段24は、書き込み領域703のストロークを相似的に拡大させるとともに、書き込み領域703全体を表示できなくなったことを認識して、縦方向のスクロールバー706及び横方向のスクロールバー707を表示させる。なお、処理手段24は、表示手段26への表示に同期して送信手段27から画像信号をプロジェクター3に送信させるため、スクリーン4の座標入力領域403にも表示手段26と同じ画像が投影される。   FIG. 17 is a diagram showing a state in which the writing area 703 is enlarged and displayed by tapping the enlargement button 704 on the screen 4 shown in FIG. 16 with the electronic pen 1. When the user taps the enlargement button 704 on the screen 4 with the electronic pen 1, the electronic pen 1 reads the dot pattern on the enlargement button 704, calculates the position coordinates, and generates entry information. And the electronic pen 1 transmits entry information at any time (step S101). The computer apparatus 2 stores the received entry information in the storage means 25 (step S201) and recognizes that a coordinate conversion function is defined (step S202: Yes). Then, the processing means 24 converts the position coordinates in the dot pattern on the screen 4 included in the received entry information into the position coordinates on the display 201 by the coordinate conversion function (step S501). Then, the processing unit 24 determines that the converted position coordinates are not in the writing area 703 (step S502: No), but recognizes that the enlarge button 704 has been tapped, and enlarges the writing area 703 (step S504). ). At this time, the processing unit 24 enlarges the stroke of the writing area 703 similarly, recognizes that the entire writing area 703 cannot be displayed, and displays the vertical scroll bar 706 and the horizontal scroll bar 707. Display. Since the processing unit 24 causes the image signal to be transmitted from the transmission unit 27 to the projector 3 in synchronization with the display on the display unit 26, the same image as the display unit 26 is projected on the coordinate input area 403 of the screen 4. .

図18は、電子ペン1によって、図17に示すスクリーン4に投影されている拡大された書き込み領域703内に、さらに続けてストロークを書き込んでいる様子を示している。また、図19は、図18に示すスクリーン4に投影されているウィンドウ702において、電子ペン1のドラッグ操作によってスクロールバー706、707を移動させて書き込み領域703内の表示させる領域を変え、さらに続けて「E」という文字を囲むようなストロークを書き込んでいる様子を示している。図18及び図19のいずれにおいても、図6及び図13に示すフロー図に従って、処理手段24の処理により、書き込み領域703の表示倍率・位置に合わせて、ストロークが入力される。図20は、電子ペン1によって、図19に示すスクリーン4上の縮小ボタン705をタップして書き込み領域703全体を表示させた様子を示す図である。図20においても、図6及び図13に示すフロー図に従って、処理手段24の処理により、書き込み領域703が相似的に縮小されて、全体表示されている。   FIG. 18 shows a state in which the electronic pen 1 continues to write strokes in the enlarged writing area 703 projected on the screen 4 shown in FIG. FIG. 19 shows the display area in the writing area 703 changed by moving the scroll bars 706 and 707 by dragging the electronic pen 1 in the window 702 projected on the screen 4 shown in FIG. This shows a state where a stroke surrounding the letter “E” is being written. In both FIG. 18 and FIG. 19, the stroke is input in accordance with the display magnification / position of the writing area 703 by the processing of the processing means 24 according to the flowcharts shown in FIG. 6 and FIG. FIG. 20 is a diagram showing a state in which the entire writing area 703 is displayed by tapping the reduction button 705 on the screen 4 shown in FIG. 19 with the electronic pen 1. Also in FIG. 20, according to the flowcharts shown in FIGS. 6 and 13, the writing area 703 is similarly reduced by the processing of the processing means 24 and displayed as a whole.

<本第1実施形態の作用効果>
本第1実施形態における情報処理システム10においては、処理手段24によってキャリブレーション処理を実行する際、電子ペン1をペンアップした座標を基準として認識することで、精度の高い座標入力面と座標表示面との相対位置座標の定義(座標変換関数の定義)が実現できる。また、キャリブレーション処理を実行する際に基準点として取得する座標が、すでに基準点として記憶されている座標の同一認識範囲内の座標に含まれるか否かを判定することによって、ユーザの連続的な筆記操作による誤設定を防止したり、再設定がすぐに実施できたりし、利便性が向上する。
<Operational effect of the first embodiment>
In the information processing system 10 according to the first embodiment, when the calibration process is executed by the processing unit 24, the coordinate input surface and the coordinate display with high accuracy are recognized by recognizing the pen 1 as a reference when the pen-up coordinate is used. Definition of relative position coordinates with the surface (definition of coordinate transformation function) can be realized. Further, by determining whether or not the coordinates acquired as the reference point when executing the calibration process are included in the coordinates within the same recognition range of the coordinates already stored as the reference point, the user's continuous This makes it possible to prevent erroneous settings due to simple writing operations and to perform resetting immediately, improving convenience.

また、処理手段24により手書き入力アプリケーションを起動して、プロジェクター3により投影させて、ドットパターンが形成されたスクリーン4に電子ペン1で手書き入力することができる。このとき、電子ペン1の記入位置が書き込み領域703内にある場合に、電子ペン1から送信された記入情報に含まれる座標データを座標変換して、ストロークとして描画させることができる。   In addition, a handwriting input application can be started by the processing unit 24 and projected by the projector 3, and handwritten input can be performed with the electronic pen 1 on the screen 4 on which the dot pattern is formed. At this time, when the entry position of the electronic pen 1 is in the writing area 703, the coordinate data included in the entry information transmitted from the electronic pen 1 can be coordinate-transformed and drawn as a stroke.

<第2実施形態>
次に、第2実施形態における情報処理システム100を説明する。第2実施形態の説明では、第1実施形態と異なる構成を中心に説明する。また、第2実施形態において、第1実施形態と同じ符号を付している構成は、特に言及しないものについては、第1実施形態と同様の構成である。
Second Embodiment
Next, the information processing system 100 in the second embodiment will be described. In the description of the second embodiment, the configuration different from the first embodiment will be mainly described. In the second embodiment, the same reference numerals as those in the first embodiment are the same as those in the first embodiment unless otherwise specified.

図21は、本第2実施形態における情報処理システム100のシステム構成図である。第1実施形態においては、情報処理システム10を、スクリーン4とプロジェクター3を用いて構成したが、本第2実施形態では、図21に示すように、情報処理システム100では、電子ペン1によって読取可能なドットパターン(コード化パターン)を透明シート8に印刷し、その透明シート8をコンピュータ装置2の表示画面201に貼り付けている。   FIG. 21 is a system configuration diagram of the information processing system 100 according to the second embodiment. In the first embodiment, the information processing system 10 is configured by using the screen 4 and the projector 3. However, in the second embodiment, as shown in FIG. 21, the information processing system 100 reads with the electronic pen 1. A possible dot pattern (coded pattern) is printed on the transparent sheet 8, and the transparent sheet 8 is pasted on the display screen 201 of the computer device 2.

このような構成としたとき、キャリブレーション処理を行う場合には、電子ペン1を表示画面201に対してストローク記入、タップ等して操作することができる。この第2実施形態において、キャリブレーション処理は第1実施形態と同様にして行われる。また、処理手段24により手書き入力アプリケーションを起動して手書き入力するときも、キャリブレーション処理により座標変換関数が定義されているため、ドットパターンが形成された透明シート8の上から書き込み領域703内に電子ペン1で書き込むようにすれば、第1実施形態と同様の処理が行われる。その他の処理も、第1実施形態と同様である。   In such a configuration, when the calibration process is performed, the electronic pen 1 can be operated by entering strokes, tapping, and the like on the display screen 201. In the second embodiment, the calibration process is performed in the same manner as in the first embodiment. In addition, when the handwriting input application is started by the processing means 24 and handwritten input is performed, the coordinate conversion function is defined by the calibration process, so that the writing area 703 is placed on the transparent sheet 8 on which the dot pattern is formed. If writing is performed with the electronic pen 1, the same processing as in the first embodiment is performed. Other processes are the same as those in the first embodiment.

本第2実施形態の場合、赤外線を選択的に反射する特性を有するインクにより透明シート8にドットパターンを印刷し、電子ペン1では、プロセッサ108には、CMOSカメラ106によって撮像された画像データから、赤外線反射の強い部分領域をドットであると認識するよう閾値を設けて判定させてもよい。その閾値は、ディスプレイから透明シート8を透過してくる赤外線と、ドットによって反射される赤外線とを区別できるよう設定する。   In the case of the second embodiment, a dot pattern is printed on the transparent sheet 8 with ink having a characteristic of selectively reflecting infrared rays. In the electronic pen 1, the processor 108 uses image data captured by the CMOS camera 106 based on image data. In addition, a threshold value may be set so that a partial region having strong infrared reflection is recognized as a dot. The threshold value is set so that the infrared rays transmitted through the transparent sheet 8 from the display can be distinguished from the infrared rays reflected by the dots.

<本第2実施形態の作用効果>
本第2実施形態における情報処理システム100においても、第1実施形態における情報処理システム10と同様の作用効果を奏するとともに、電子ペン1によって読取可能なドットパターン(コード化パターン)を印刷した透明シート8をコンピュータ装置2の表示画面201に貼り付けているため、ユーザがコンピュータ装置2にタップすることにより手元で操作を行うことができる。
<Operational effects of the second embodiment>
The information processing system 100 according to the second embodiment also has the same effects as the information processing system 10 according to the first embodiment, and a transparent sheet on which a dot pattern (coded pattern) that can be read by the electronic pen 1 is printed. Since 8 is pasted on the display screen 201 of the computer apparatus 2, the user can perform an operation at hand by tapping the computer apparatus 2.

〔変形例〕
上記第1,第2実施形態では、2点の位置座標に基づいて、キャリブレーション処理を行ったが、3点以上の位置座標に基づいて、キャリブレーション処理を行ってもよい。また、上記第1実施形態では、プロジェクター3として、フロントタイプのプロジェクターを例に挙げたが、リアプロジェクターにも適用することができる。また、ドットパターン(コード化パターン)は、アノト方式に限らなくともよい。
[Modification]
In the first and second embodiments, the calibration process is performed based on the position coordinates of two points. However, the calibration process may be performed based on the position coordinates of three or more points. In the first embodiment, a front-type projector has been described as an example of the projector 3, but the projector 3 can also be applied to a rear projector. Further, the dot pattern (coded pattern) is not limited to the Anoto method.

また、上記第1,第2実施形態において、電子ペン1はインクカートリッジを有していないものとしたが、ペン部104をインクカートリッジとして電子ペン1で用紙402に直接文字等を書くことができるようにしてもよい。この場合、コンピュータ装置2では、電子ペン1で描かれたストロークを表示手段26には表示するが、プロジェクター3では投影しないような画像信号をコンピュータ装置2からプロジェクター3へ出力するようにするとよい。また、電子ペン1のCMOSカメラ106によって撮像された画像データからドットを認識しやすくするため、CMOSカメラ106に照射される光が赤外線だけとなるように、赤外線透過フィルターを電子ペン1の開口部102付近に設けてもよい。   In the first and second embodiments, the electronic pen 1 does not have an ink cartridge. However, it is possible to write characters or the like directly on the paper 402 with the electronic pen 1 using the pen unit 104 as an ink cartridge. You may do it. In this case, in the computer device 2, the stroke drawn with the electronic pen 1 is displayed on the display unit 26, but an image signal that is not projected by the projector 3 may be output from the computer device 2 to the projector 3. Further, in order to make it easy to recognize dots from the image data captured by the CMOS camera 106 of the electronic pen 1, an infrared transmission filter is provided in the opening of the electronic pen 1 so that only the infrared light is irradiated to the CMOS camera 106. You may provide near 102.

本投影型入出力システムは、学校の授業や企業での会議室、講演会、プレゼンテーションなどで利用することができる。   The projection input / output system can be used in school classes, conference rooms, lectures, and presentations at companies.

1…電子ペン
2…コンピュータ装置
21…入力手段
22…受信手段
24…処理手段
25…記憶手段
26…表示手段
27…送信手段
201…表示画面
202…表示画面の左上端点座標
203…表示画面の右下端点座標
204…第1表示基準点の座標
205…第2表示基準点の座標
3…プロジェクター
4…スクリーン
401…マグネット板(ホワイトボード)
402…用紙
403…画像投影領域・座標入力領域
404…左上端点座標
405…座標入力領域の左上端点座標
406…座標入力領域の右下端点座標
407…第1認識基準点の座標
408…第2認識基準点の座標
601…第1キャリブレーション用マーク
602…第2キャリブレーション用マーク
7…同一認識範囲
701…アイコン画像
702…ウィンドウ
703…書き込み領域
704…拡大ボタン
705…縮小ボタン
706,707…スクロールバー
8…透明シート
10,100…情報処理システム
DESCRIPTION OF SYMBOLS 1 ... Electronic pen 2 ... Computer apparatus 21 ... Input means 22 ... Receiving means 24 ... Processing means 25 ... Memory | storage means 26 ... Display means 27 ... Transmission means 201 ... Display screen 202 ... The upper left point coordinate of a display screen 203 ... Right of a display screen Lower end point coordinates 204 ... first display reference point coordinates 205 ... second display reference point coordinates 3 ... projector 4 ... screen 401 ... magnet board (white board)
402: Paper 403 ... Image projection area / coordinate input area 404 ... Upper left end point coordinates 405 ... Upper left end point coordinates of the coordinate input area 406 ... Lower right end point coordinates of the coordinate input area 407 ... First recognition reference point coordinates 408 ... Second recognition Reference point coordinates 601 ... first calibration mark 602 ... second calibration mark 7 ... identical recognition range 701 ... icon image 702 ... window 703 ... writing area 704 ... enlarge button 705 ... reduction button 706,707 ... scroll bar 8 ... Transparent sheet 10,100 ... Information processing system

Claims (4)

位置座標を示すコード化パターンが形成されたスクリーンと、
前記コード化パターンを読み取る読取手段と、
前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置と、
前記コンピュータ装置からの画像信号を受信して、前記スクリーンに画像を投影するプロジェクターとを備える情報処理システムであって、
前記コンピュータ装置は、
前記読取手段から送信されたコード化パターンに関する情報を受信する受信手段と、
拡大ボタン、縮小ボタン、および書き込み領域を有する移動可能なウィンドウを表示手段に表示し、前記受信手段により受信した情報に含まれるコード化パターンの位置座標を前記表示手段の表示画面における位置座標に変換し、その座標変換された位置座標が書き込み領域内にある場合に前記座標変換された位置座標に基づいてストロークを前記書き込み領域に描画してファイルに保存し、座標変換された位置座標が前記拡大ボタンまたは前記縮小ボタンを指示するものと認識した場合には指示されたボタンに応じて前記書き込み領域を拡大または縮小するとともに、描画したストロークを前記書き込み領域の表示倍率および位置に合わせて表示し、その表示倍率および位置での前記書き込み領域への書き込みを受けると座標変換された位置座標に基づいてストロークを描画して同じファイルに保存する処理手段と
を備えることを特徴とする情報処理システム。
A screen on which a coding pattern indicating position coordinates is formed;
Reading means for reading the coded pattern;
A computer device that receives information on the coding pattern transmitted from the reading unit and performs processing according to the information;
An information processing system comprising: a projector that receives an image signal from the computer device and projects an image on the screen;
The computer device includes:
Receiving means for receiving information on the coding pattern transmitted from the reading means;
Conversion enlargement button, reduction button, and then displayed on the display means a moveable window having a write area, the position coordinates of the coded pattern contained in the received information by the receiving means to the position coordinates on the display screen of the display unit and, stored in the coordinate conversion position coordinates by drawing a stroke on the basis of the coordinate conversion position coordinates when in the write area on the writing area file, the coordinate conversion position coordinates the When it is recognized that the enlarge button or the reduce button is designated, the writing area is enlarged or reduced according to the designated button, and the drawn stroke is displayed in accordance with the display magnification and the position of the writing area. When the writing to the writing area at the display magnification and position is received, the coordinates are converted. The information processing system characterized in that it comprises a processing means for storing the same file to draw the stroke based on the location coordinates.
位置座標を示すコード化パターンが形成された透明シートと、
前記コード化パターンを読み取る読取手段と、
前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置とを備える情報処理システムであって、
前記透明シートは前記コンピュータ装置の表示手段の表示画面に貼付されており、
前記コンピュータ装置は、
前記読取手段から送信されたコード化パターンに関する情報を受信する受信手段と、
拡大ボタン、縮小ボタン、および書き込み領域を有する移動可能なウィンドウを表示手段に表示し、前記受信手段により受信した情報に含まれるコード化パターンの位置座標を前記表示手段の表示画面における位置座標に変換し、その座標変換された位置座標が書き込み領域内にある場合に前記座標変換された位置座標に基づいてストロークを前記書き込み領域に描画してファイルに保存し、座標変換された位置座標が前記拡大ボタンまたは前記縮小ボタンを指示するものと認識した場合には指示されたボタンに応じて前記書き込み領域を拡大または縮小するとともに、描画したストロークを前記書き込み領域の表示倍率および位置に合わせて表示し、その表示倍率および位置での前記書き込み領域への書き込みを受けると座標変換された位置座標に基づいてストロークを描画して同じファイルに保存する処理手段と
を備えることを特徴とする情報処理システム。
A transparent sheet on which a coded pattern indicating position coordinates is formed;
Reading means for reading the coded pattern;
An information processing system comprising: a computer device that receives information related to the coding pattern transmitted from the reading unit and performs processing according to the information;
The transparent sheet is affixed to the display screen of the display means of the computer device,
The computer device includes:
Receiving means for receiving information on the coding pattern transmitted from the reading means;
Conversion enlargement button, reduction button, and then displayed on the display means a moveable window having a write area, the position coordinates of the coded pattern contained in the received information by the receiving means to the position coordinates on the display screen of the display unit and, stored in the coordinate conversion position coordinates by drawing a stroke on the basis of the coordinate conversion position coordinates when in the write area on the writing area file, the coordinate conversion position coordinates the When it is recognized that the enlarge button or the reduce button is designated, the writing area is enlarged or reduced according to the designated button, and the drawn stroke is displayed in accordance with the display magnification and the position of the writing area. When the writing to the writing area at the display magnification and position is received, the coordinates are converted. The information processing system characterized in that it comprises a processing means for storing the same file to draw the stroke based on the location coordinates.
前記処理手段は、前記受信手段により前記情報を受信した時に、前記座標変換するための座標変換関数を定義していないと判断した場合は、座標変換関数を求めるためのキャリブレーション処理を開始することを特徴とする請求項1又は2に記載の情報処理システム。   If the processing means determines that a coordinate conversion function for converting the coordinates is not defined when the information is received by the receiving means, the processing means starts a calibration process for obtaining the coordinate conversion function. The information processing system according to claim 1 or 2. 請求項1〜3のうちいずれか一項に記載のコンピュータ装置としてコンピュータを機能させることを特徴とするプログラム。A program that causes a computer to function as the computer apparatus according to claim 1.
JP2009235564A 2009-10-09 2009-10-09 Information processing system and program thereof Expired - Fee Related JP5440926B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009235564A JP5440926B2 (en) 2009-10-09 2009-10-09 Information processing system and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009235564A JP5440926B2 (en) 2009-10-09 2009-10-09 Information processing system and program thereof

Publications (2)

Publication Number Publication Date
JP2011081738A JP2011081738A (en) 2011-04-21
JP5440926B2 true JP5440926B2 (en) 2014-03-12

Family

ID=44075705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009235564A Expired - Fee Related JP5440926B2 (en) 2009-10-09 2009-10-09 Information processing system and program thereof

Country Status (1)

Country Link
JP (1) JP5440926B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209596A (en) * 2015-01-30 2017-09-26 惠普发展公司有限责任合伙企业 Input equipment is calibrated to display using input equipment

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013076720A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Computer device, electronic pen system and program
JP5862395B2 (en) * 2012-03-22 2016-02-16 大日本印刷株式会社 Terminal device, content reproduction system, and program
JP2014013433A (en) * 2012-07-03 2014-01-23 Dainippon Printing Co Ltd Terminal device, content reproduction system, and program
JP6044198B2 (en) * 2012-09-05 2016-12-14 大日本印刷株式会社 Computer apparatus, program, and information processing system
CN108230661A (en) * 2018-02-09 2018-06-29 广州视源电子科技股份有限公司 Infrared remote control system, method, infrared electronic white board and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305496A (en) * 1995-05-09 1996-11-22 Matsushita Electric Ind Co Ltd Information processor
US8368954B2 (en) * 2006-01-31 2013-02-05 Kenji Yoshida Image processing method
JP4759415B2 (en) * 2006-03-20 2011-08-31 株式会社リコー Image display device and image display method
JP3137005U (en) * 2007-08-29 2007-11-08 大日本印刷株式会社 Terminal device
JP3151886U (en) * 2009-04-28 2009-07-09 大日本印刷株式会社 Information processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209596A (en) * 2015-01-30 2017-09-26 惠普发展公司有限责任合伙企业 Input equipment is calibrated to display using input equipment
CN107209596B (en) * 2015-01-30 2020-12-08 惠普发展公司,有限责任合伙企业 Calibrating an input device to a display using the input device

Also Published As

Publication number Publication date
JP2011081738A (en) 2011-04-21

Similar Documents

Publication Publication Date Title
JP4544482B1 (en) Information processing system and program thereof
JP3151886U (en) Information processing system
JP5664301B2 (en) Computer device, electronic pen input system, and program
JP5440926B2 (en) Information processing system and program thereof
JP5353219B2 (en) Board writing system, computer apparatus and program
JP5664303B2 (en) Computer apparatus, input system, and program
JP6044198B2 (en) Computer apparatus, program, and information processing system
KR101395723B1 (en) Electronic blackboard system
JP4894905B2 (en) Information processing system and display processing program
JP5157973B2 (en) Projection input / output system and program thereof
JP3174897U (en) Teaching material content display system, computer apparatus thereof, and sheet used therefor
JP5256700B2 (en) Terminal device and program thereof
JP5413315B2 (en) Information processing system and display processing program
JP5201020B2 (en) Projection input / output system and program thereof
JP5024019B2 (en) Terminal device and program thereof
JP5257486B2 (en) Computer apparatus, input system, and program
JP2012022430A (en) Information processing system and program thereof
JP5664300B2 (en) Computer apparatus, input system, and program
JP5678697B2 (en) Computer apparatus, input system, and program
JP2012063974A (en) Stroke display system and program
JP5305256B2 (en) Terminal device and program thereof
JP2011060115A (en) Information processing system and display processing program
JP5104904B2 (en) Information processing system and display processing program
JP2013020402A (en) Computer device, stroke display system and program
JP2014142854A (en) Computer device, electronic pen system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees