JP3151886U - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP3151886U
JP3151886U JP2009002757U JP2009002757U JP3151886U JP 3151886 U JP3151886 U JP 3151886U JP 2009002757 U JP2009002757 U JP 2009002757U JP 2009002757 U JP2009002757 U JP 2009002757U JP 3151886 U JP3151886 U JP 3151886U
Authority
JP
Grant status
Application
Patent type
Prior art keywords
screen
image
position
display
means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009002757U
Other languages
Japanese (ja)
Inventor
祐太郎 小竹
祐太郎 小竹
Original Assignee
大日本印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

【課題】キャリブレーション処理を行うにあたって、電子ペンによって読み取らせるドットパターンの位置を分かりやすく案内する情報処理システムを提供する。 A carrying out the calibration process, to provide an information processing system for guiding clarity the position of the dot pattern to be read by an electronic pen.
【解決手段】情報処理システムは、位置座標を示すドットパターンが形成されたスクリーン4と、そのドットを読み取る電子ペン1と、その電子ペン1から送信された記入情報を受信して、当該情報に応じた処理を行うコンピュータ装置と、そのコンピュータ装置からの画像信号を受信して、スクリーン4に画像を投影するプロジェクターとを備える。 An information processing system includes a screen 4 which dot patterns are formed which indicates the position coordinates, the digital pen 1 which reads the dot receives the entry information transmitted from the electronic pen 1, to the information comprising a computer system for performing corresponding processing, it receives the image signal from the computer device, and a projector for projecting an image on a screen 4. コンピュータ装置は、キャリブレーション処理機能を有し、スクリーン4に画像投影領域を示すイメージ画像を表示して、電子ペン1でタップする位置を案内する。 Computer device has a calibration processing function, to display the images indicating the image projection area on the screen 4, for guiding the position where the tap with the electronic pen 1.
【選択図】図8 .FIELD 8

Description

本考案は、位置座標を示すコード化パターンを用いて情報を入力することができる情報処理システムに関し、特に、コード化パターンの位置座標とコンピュータ装置の表示画面の位置座標とのキャリブレーション処理に関する。 This invention relates to an information processing system capable of inputting information by using a coded pattern indicative of a position coordinate, in particular, relates to the calibration process the position coordinates of the display screen of the position coordinates and the computer device of the coding pattern.

近年、記入した情報を電子化する電子ペンが開発されており、その代表的なものとしてスウェーデンのAnoto 社が開発した「アノトペン(Anoto pen)」が知られている。 In recent years, have been developed electronic pen to electronic information that you fill out, the Swedish Anoto developed by the company "Anoto pen (Anoto pen)" is known as the typical ones. アノトペンは、所定のアルゴリズムによりパターン化された位置座標を示すドットパターンが印刷された専用紙とともに使用される。 Anoto pen is used with special paper which dot patterns are printed showing the patterned position coordinates by a predetermined algorithm. アノトペンは、ペン先部に、専用紙に印刷されたドットパターンを撮像するための小型カメラと、撮像したドットパターンから専用紙における位置座標を演算するプロセッサと、演算された位置座標等を外部機器へ送信するデータ通信ユニットとを搭載している。 Anoto pen is the pen tip portion, the processor and the computed position coordinates such as an external device that calculates the position coordinates of the special paper from a small camera and a dot pattern imaging for imaging a dot pattern printed on special paper It is equipped with a data communication unit to be sent to. ユーザが専用紙上にアノトペンで文字等を書いたり、専用紙上に図案化されている画像にチェックマークを記入したりすると、ペンの移動に伴って小型カメラが専用紙に印刷されたドットパターンを撮像し、プロセッサによって演算された連続する位置座標から、ユーザが書き込んだ文字、画像などの記入情報が認識される。 Or writing characters or the like users in Anoto pen dedicated paper, or when you place a check mark in the image being stylized dedicated paper, imaging the dot pattern miniature camera is printed on special paper with the pen movement and, from the position coordinates continuously calculated by the processor, a character written by the user, entered information such as an image is recognized. そして、この記入情報が、データ通信ユニットによりアノトペンから近くのパーソナルコンピュータや携帯電話などの端末装置に送信される(例えば、特許文献1参照)。 Then, the entry information is transmitted to the terminal device, such as a nearby personal computer or a cellular phone from the Anoto pen by the data communication unit (e.g., see Patent Document 1).

また、このような電子ペンと、コンピュータ、プロジェクター及びスクリーンを用いて、スクリーンに電子ペンで記入ないし走査すると、それに応じてコンピュータが所定の処理を行うとともに、コンピュータの表示画面をプロジェクターでスクリーンに投影するシステムが提案されている(例えば、特許文献2〜5)。 The projection used and such an electronic pen, computer, projector and screen, the fill or scanned by an electronic pen on the screen, along with the computer performs a predetermined processing in response thereto, to screen a display screen of a computer in the projector system which has been proposed (e.g., Patent documents 2-5). 電子ペンは、スクリーンに形成されたドットパターンを読み取り、コンピュータは、電子ペンから送信された情報に基づき、その位置座標を解析して、その位置座標に応じた処理を行うというものであり、これにより、インクのない電子ペンであっても、スクリーン上を電子ペンでなぞれば、その筆跡に応じて、プロジェクターから線が描画された画像を投影したり、画像の制御やソフトウェアを操作したりできるとされている。 Electronic pen reads the dot pattern formed on the screen, the computer, on the basis of the information transmitted from the electronic pen, analyzes the position coordinates are those that performs processing according to the position coordinates, which accordingly, even without ink pen, if Nazore on the screen with the electronic pen, in accordance with the handwriting, or by projecting the image line is drawn from the projector, and manipulate images of the control and software It is to be able to.

また、ホワイトボードにパソコンの画面がプロジェクターによって投影され、ホワイトボードにマーカーで記入した座標を座標読取装置で超音波又は赤外線により読み取ってパソコンに送信することで、パソコンの画面上でクリックなどをすることができるシステムにおいて、最初にキャリブレーション用のポイントをプロジェクターにより投影し、マーカーでポイントを指示させることで、ホワイトボードの座標とパソコン画面の座標とをキャリブレーションすることも提案されている(特許文献6)。 Further, the whiteboard computer screen is projected by a projector, by transmitting to the personal computer is read by ultrasonic or infrared coordinates filled out a marker on a whiteboard in the coordinate reading device, the like clicking on the screen of the personal computer in a system that may be initially points for calibration and projected by a projector, by instructing the point markers, it has also been proposed to calibrate the coordinates of the computer screen whiteboard (Patent Document 6).

また、コンピュータのディスプレイに、ドットパターンが印刷された透明シートを貼り付け、電子ペンで透明シートに手書きをすることにより、ドットパターンを電子ペンで読み取らせつつ、コンピュータに手書き入力することが提案されている(例えば、特許文献7)。 Further, the display of the computer, paste the transparent sheet which dot patterns are printed, by handwriting on the transparent sheet with the electronic pen, while read the dot pattern with the electronic pen, it is proposed to handwriting input to a computer and are (for example, Patent Document 7). さらには、コンピュータのディスプレイにおける位置座標と、そのディスプレイに貼り付けられた透明シートのドットパターンにおける位置座標とをキャリブレーションするために、ディスプレイの四隅付近のドットパターンを電子ペンで読み取らせることも提案されている(特許文献8)。 Furthermore, proposed the position coordinates in the display of the computer, the position coordinates in the dot pattern of the transparent sheet which is adhered to the display to calibrate, also to read the dot pattern in the vicinity of the four corners of the display with the electronic pen is (Patent Document 8).

特表2003−511761号公報 JP-T 2003-511761 JP 特開2008−152755号公報 JP 2008-152755 JP 特開2002−149331号公報 JP 2002-149331 JP 特開2008−154211号公報 JP 2008-154211 JP 特表2003−508831号公報 JP-T 2003-508831 JP 特開2007−233999号公報 JP 2007-233999 JP 特開2003−256122号公報 JP 2003-256122 JP 特開2008−165384号公報 JP 2008-165384 JP

キャリブレーション処理のため、電子ペン等にドットパターンを読み取らせる作業は、システムの製造時に製造者が行う場合や出荷後にユーザが行う場合が考えられる。 For calibration process, working to read the dot pattern to the electronic pen or the like, if the user performs contemplated or if after shipping by the manufacturer at the time of manufacture of the system is performed. そのため、どのような者がキャリブレーション処理を行うにあたっても、どの位置のドットパターンを電子ペン等に読み取らせるのかを分かりやすく案内する必要がある。 Therefore, any person even when performs the calibration process, it is necessary to guide the dot pattern which position easy to understand whether to read an electronic pen or the like.

そこで、本考案は、キャリブレーション処理を行うにあたって、電子ペン等の読取手段によって読み取らせるコード化パターン(ドットパターン)の位置を分かりやすく案内するシステムを提供することを目的とする。 The present invention is, in performing the calibration process, and to provide a system for guiding clarity the position of the coded pattern to be read by the reading means such as an electronic pen (dot pattern).

本考案に係る情報処理システムは、位置座標を示すコード化パターンが形成されたスクリーンと、前記コード化パターンを読み取る読取手段と、前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置と、前記コンピュータ装置からの画像信号を受信して、前記スクリーンに画像を投影するプロジェクターとを備える情報処理システムであって、 The information processing system according to the present invention receives and screens the code pattern indicating the position coordinates formed, and reading means for reading said coded pattern, the information about the coding pattern transmitted from the reading means, processing and computer apparatus for performing in accordance with the information, receives the image signal from the computer device, an information processing system and a projector for projecting an image on the screen,
前記コンピュータ装置は、 The computer device,
スクリーンに画像が投影されたイメージ画像を表示するとともに前記読取手段で指示する位置を案内するための案内画像を記憶する記憶手段と、 Storage means for storing guide image for guiding the position designated by the reading means with the screen in the image display the images projected,
前記案内画像を読み出して前記表示手段に表示させ、前記読取手段によって読み取られた前記指示位置のコード化パターンにより演算された前記スクリーン上の位置座標を、前記コンピュータ装置の表示手段における表示画面上の位置座標に変換するための座標変換関数を求める処理手段とを備えることを特徴とする。 Reading the guide image is displayed on the display unit, the position coordinates on the screen calculated by the coding pattern of the directing positions read by said reading means, on the display screen of the display unit of the computer system characterized in that it comprises processing means for obtaining a coordinate transformation function for transforming the position coordinates.

上記情報処理システムによれば、読取手段によってスクリーンに形成されたコード化パターンを読み取ると、読取手段は、コンピュータ装置へコード化パターンに関する情報を送信する。 According to the information processing system, reads the formed screen by the reading means coding pattern, reading means transmits information about the coding pattern to a computer device. コンピュータ装置は、スクリーンに画像を投影するプロジェクターへ画像信号を送信するとともに、読取手段からコード化パターンに関する情報を受信する。 Computing device to the projector for projecting an image on a screen and transmits the image signal, it receives the information about the coded pattern from the reading unit. このような情報処理システムにおいて、コンピュータ装置の表示手段に、案内画像として、スクリーンに画像が投影されたイメージ画像が、処理手段により記憶手段から読み出されて表示される。 In such an information processing system, the display means of the computer device, as a guide image, images which the image is projected on the screen is displayed is read from the storage means by the processing means. ユーザは、その案内画像に応じて、電子ペンでスクリーンを指示すれば、電子ペンは、指示した位置におけるコード化パターンを読み取って、当該コード化パターンに関する情報をコンピュータ装置へ送信する。 The user, in accordance with the guidance image, if instructed to screen with the electronic pen, electronic pen reads the coding pattern at the indicated position, transmits information about the coded pattern to the computer device. コンピュータ装置は、その情報を受信し、処理手段により、スクリーン上の位置座標をコンピュータ装置の表示手段における表示画面上の位置座標に変換するための座標変換関数を求める。 Computer device receives the information, the processing means calculates a coordinate transformation function for transforming the position coordinates on the screen to the position coordinates on the display screen of the display unit of the computer device.

または、本考案に係る情報処理システムは、位置座標を示すコード化パターンが形成された透明シートと、前記コード化パターンを読み取る読取手段と、前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置とを備える情報処理システムであって、 Or, the information processing system according to the present invention includes receiving a transparent sheet coded pattern is formed which indicates the position coordinates, and reading means for reading said coded pattern, the information about the coding pattern transmitted from the reading means and an information processing system comprising a computer apparatus that performs processing corresponding to the information,
前記透明シートは、前記コンピュータ装置の表示手段の表示画面に貼付されており、 The transparent sheet is affixed to the display screen of the display means of the computer device,
前記コンピュータ装置は、 The computer device,
前記表示画面のイメージ画像を表示するとともに前記読取手段で指示する位置を案内するための案内画像を記憶する記憶手段と、 Storage means for storing guide image for guiding the position designated by the reading means displays an image of the display screen,
前記案内画像を読み出して前記表示手段に表示させ、前記読取手段によって読み取られた前記指示位置のコード化パターンにより演算された前記透明シート上の位置座標を、前記コンピュータ装置の表示手段における表示画面上の位置座標に変換するための座標変換関数を求める処理手段とを備えることを特徴とする。 Reading the guide image is displayed on the display unit, the reading position coordinates of the indicated position coding on the transparent sheet which is calculated by the pattern read by means, on the display screen of the display unit of the computer system characterized in that it comprises processing means for obtaining a coordinate transformation function for transforming the position coordinates.

上記情報処理システムによれば、読取手段によって透明シートに形成されたコード化パターンを読み取ると、読取手段は、コンピュータ装置へコード化パターンに関する情報を送信する。 According to the information processing system, when reading a code pattern formed on the transparent sheet by the reading means, reading means transmits information about the coding pattern to a computer device. コンピュータ装置は、読取手段からコード化パターンに関する情報を受信する。 Computer device receives information about the coded pattern from the reading unit. このような情報処理システムにおいて、コンピュータ装置の表示手段に、案内画像として、表示画面のイメージ画像が、処理手段により記憶手段から読み出されて表示される。 In such an information processing system, the display means of the computer device, as a guide image, image of the display screen is displayed is read from the storage means by the processing means. ユーザは、その案内画像に応じて、電子ペンで表示画面を透明シートの上から指示すれば、電子ペンは、指示した位置におけるコード化パターンを読み取って、当該コード化パターンに関する情報をコンピュータ装置へ送信する。 The user, in accordance with the guidance image, if instructed to display the screen with the electronic pen over the transparent sheet, the electronic pen reads the coding pattern in the indicated position, the information about the coded pattern to the computer apparatus Send. コンピュータ装置は、その情報を受信し、処理手段により、透明シート上の位置座標をコンピュータ装置の表示手段における表示画面上の位置座標に変換するための座標変換関数を求める。 Computer device receives the information, the processing means calculates a coordinate transformation function for transforming the position coordinates on the transparent sheet to the position coordinates on the display screen of the display unit of the computer device.

上述の情報処理システムにおいて、前記処理手段は、前記案内画像を前記表示画面よりも小さい範囲で中央に表示させ、前記読取手段で指示する前記指示位置は、前記表示画面の角隅に対応する位置とするとよい。 In the above-described information processing system, the processing means, the guide image is displayed in the center in a range smaller than the display screen, the pointing position designated by the reading means corresponds to the corner of the display screen position or equal to. この構成により、読取手段で指示する指示位置には、案内画像は表示されないため、指示の障害とならず、また、指示位置を表示画面の角隅とすることで、座標変換関数の精度を高めることができる。 With this configuration, an instruction position indicated by the reading means, since the guide image is not displayed, not an obstacle to the instructions, also, by the corners of the display screen indicated position, increase the accuracy of the coordinate transformation function be able to.

さらには、上述の情報処理システムにおいて、前記読取手段で指示する前記指示位置を矢印で示すよう構成するとよい。 Further, in the above-mentioned information processing system, the instruction position designated by the reading means may be configured as shown by the arrow. この構成により、より分かりやすく、読取手段による指示位置を示すことができる。 This structure can exhibit more understandable, the position indicated by the reading means.

本考案によれば、キャリブレーション処理を行うにあたり、電子ペン等の読取手段によって読み取らせるコード化パターンの位置を分かりやすく案内することができる。 According to the present invention, when performing the calibration process, can be guided clarity the position of the coded pattern to be read by the reading means such as an electronic pen.

第1実施形態における情報処理システムのシステム構成図である。 It is a system configuration diagram of an information processing system in the first embodiment. ドットパターンにおけるドットの配置と変換される値との関係を示す説明図である。 It is an explanatory view showing the relationship between the value to be converted to the arrangement of dots in a dot pattern. (a)は、ドットパターンを模式的に示し、(b)は、それに対応する情報の例を示す図である。 (A) shows a dot pattern schematically, (b) are diagrams showing an example of the information corresponding thereto. 電子ペンの構造を示す概略図である。 It is a schematic diagram showing a structure of an electronic pen. コンピュータ装置の機能ブロック図である。 It is a functional block diagram of a computer system. 第1実施形態におけるキャリブレーション起動処理のフロー図である。 It is a flow diagram of a calibration starting process in the first embodiment. キャリブレーション処理のフロー図である。 It is a flow diagram of a calibration process. スクリーンに認識基準点1の案内画像が投影された状態を示す図である。 Guide image recognition reference point 1 on the screen is a diagram showing a state of being projected. スクリーンに認識基準点2の案内画像が投影された状態を示す図である。 Guide image of the screen on the recognition reference point 2 is a diagram showing a state of being projected. コンピュータ装置の表示画面上における位置座標を示す図である。 Is a diagram showing the positional coordinates on the display screen of the computer device. スクリーン上における認識基準点の位置座標を示す図である。 It is a diagram illustrating the position coordinates of the recognized reference points on the screen. キャリブレーション処理後のスクリーンにおけるストローク描画を示す図である。 It is a diagram illustrating a stroke drawn on the screen after the calibration process. 第1実施形態における案内画像の変形例を示す図である。 It is a diagram showing a modified example of a guide image in the first embodiment. 第2実施形態におけるキャリブレーション起動処理のフロー図である。 It is a flow diagram of a calibration starting process in the second embodiment. スクリーンに認識基準点1の案内画像が投影された状態を示す図である。 Guide image recognition reference point 1 on the screen is a diagram showing a state of being projected. スクリーンに認識基準点2の案内画像が投影された状態を示す図である。 Guide image of the screen on the recognition reference point 2 is a diagram showing a state of being projected. コンピュータ装置の表示画面上における位置座標を示す図である。 Is a diagram showing the positional coordinates on the display screen of the computer device. スクリーン上における認識基準点の位置座標を示す図である。 It is a diagram illustrating the position coordinates of the recognized reference points on the screen. 他の実施形態における情報処理システムのシステム構成図である。 Is a system configuration diagram of an information processing system according to another embodiment. コンピュータ装置の表示画面に案内画像が表示された状態を示す図である。 It is a diagram showing a state where the guide image is displayed on the display screen of the computer device.

以下、図面を参照して、本考案の情報処理システムについて詳細に説明する。 Hereinafter, with reference to the accompanying drawings, it will be described in detail the information processing system of the present invention.

<第1実施形態> <First Embodiment>
[情報処理システムのシステム構成] [System Configuration of Information Processing System]
図1は、本第1実施形態における情報処理システム10のシステム構成図である。 Figure 1 is a system configuration diagram of an information processing system 10 according to the first embodiment. 図1に示すように、本第1実施形態における情報処理システム10は、ユーザが使用する電子ペン(読取手段)1と、電子ペン1から記入情報等を受信して処理するコンピュータ装置2と、コンピュータ装置2の表示手段26に表示される画像をスクリーン4に投影するプロジェクター3とから構成される。 1, the information processing system 10 according to the first embodiment includes an electronic pen (reading means) 1 used by the user, the computer device 2 for receiving and processing entry information, etc. from the electronic pen 1, composed of the projector 3 for projecting an image displayed on the display unit 26 of the computer device 2 to the screen 4.

[スクリーン] [screen]
まず、スクリーン4について説明する。 First, a description will be given of the screen 4. スクリーン4は、電子ペン1に十分に筆圧がかかる程度に硬いマグネット板(ホワイトボード)401の前面に、後述するドットパターン(コード化パターン)が印刷により全面に形成された用紙402を上からマグネットで押さえ付けたり、あるいは糊、粘着剤等で貼りつけたりしたものである。 Screen 4 is harder magnet plate to the extent that sufficiently pen pressure is applied to the digital pen 1 on the front of the (whiteboard) 401, from the top sheet 402 dot pattern (coding pattern) is formed on the entire surface by printing to be described later or pressed down by a magnet, or glue, is obtained by or attached with an adhesive or the like. なお、マグネット板401の代わりに部屋の壁面等を利用してもよい。 It is also possible to use the wall of a room or the like in place of the magnet plate 401. また、用紙402の代わりに、ドットパターンが印刷されたシートでもよく、あるいは、ホワイトボード40にドットパターンを直接形成してもよい。 In place of the sheet 402 may be a sheet having a dot pattern is printed, or may be formed a dot pattern directly on the whiteboard 40. ユーザが電子ペン1によってスクリーン4に文字などを書くと、電子ペン1は、ペン先部の移動軌跡に沿って、用紙402に印刷されたドットパターンを局所的、連続的に読み取り、スクリーン4におけるその局所位置の座標を算出し、その電子データ(記入情報)をコンピュータ装置2へ送信する。 When the user writes the characters on the screen 4 by an electronic pen 1, the electronic pen 1 along the moving locus of the pen tip portion reads a dot pattern printed on the sheet 402 locally, continuously, in the screen 4 calculating the coordinates of the local position, and transmits the electronic data (fill data) to the computer device 2. 一方、プロジェクター3は、コンピュータ装置2から画像信号を受信して、表示手段26に表示された画像と同じ画像をスクリーン4の画像投影領域403に投影する。 On the other hand, the projector 3 receives the image signal from the computer unit 2 to project the same image as the image displayed on the display unit 26 in the image projection area 403 of the screen 4.

[ドットパターン] [Dot pattern]
続いて、スクリーン4の用紙402に印刷されているアノト方式のドットパターン(コード化パターン)について説明する。 The following describes the dot pattern of the Anoto method that is printed on the sheet 402 of the screen 4 (coding pattern). 図2は、用紙402に印刷されたドットパターンのドットとそのドットが変換される値との関係を説明する図である。 Figure 2 is a diagram dot and the dot of the dot pattern printed on the sheet 402 will be described the relationship between the value to be converted. 図2に示すように、ドットパターンの各ドットは、その位置によって所定の値に対応付けられている。 As shown in FIG. 2, each dot of the dot pattern are associated with a predetermined value by its position. すなわち、ドットの位置を格子の基準位置(縦線及び横線の交差点)から上下左右のどの方向にシフトするかによって、各ドットは、0〜3の値に対応付けられている。 That is, depending on whether shifts in any direction of up, down, left and right positions of the dot from the reference position of the grid (vertical and horizontal line intersections), each dot is associated with a value of 0-3. また、各ドットの値は、さらに、X座標用の第1ビット値及びY座標用の第2ビット値に変換できる。 The value of each dot can be further converted into the second bit value for a first bit value and the Y coordinate for X coordinate. このようにして対応付けられた情報の組合せにより、スクリーン4上の位置座標が決定されるよう構成されている。 The combination of information associated in this manner, the position coordinates on the screen 4 is configured to be determined. このドットパターンは、赤外線を吸収するカーボンを含有するインクによって印刷されている。 The dot pattern is printed with ink containing carbon that absorbs infrared radiation.

図3(a)は、ある位置のドットパターンの配列を示している。 FIGS. 3 (a) shows the arrangement of the dot pattern of a certain position. 図3(a)に示すように、縦横約2mmの範囲内に6×6個のドットが、スクリーン4上のどの部分から6×6ドットを取ってもユニークなパターンとなるように配置されている。 As shown in FIG. 3 (a), 6 × 6 dots in the range of aspect about 2mm is, take the 6 × 6 dots from any part of the screen 4 is disposed such that a unique pattern there. これら36個のドットにより形成されるドットパターンは、用紙402における相対的な位置座標及びドットパターンアドレス(コード化パターンアドレス)を保持している。 Dot pattern formed by these 36 dots retains the relative position coordinates and the dot pattern address (coded pattern address) in the paper 402. 図3(b)は、図3(a)に示す各ドットを、格子の基準位置からのシフト方向によって、図3に示す規則性に基づいて対応づけられた値に変換したものである。 FIG. 3 (b), each dot shown in FIG. 3 (a), the shift direction from the reference position of the grating is obtained by converting the value associated based on the regularity shown in FIG. この変換は、ドットパターンの画像を撮影する電子ペン1によって行われる。 This conversion is performed by an electronic pen 1 for capturing an image of a dot pattern.

[電子ペン] [Electronic pen]
次に、電子ペン1について説明する。 Next, a description will be given of an electronic pen 1. 図4は、電子ペン1の構造を示す概略図である。 Figure 4 is a schematic diagram showing a structure of an electronic pen 1. 図4に示すように、電子ペン1は、その筐体101の内部に、ペン部104、LED105、CMOSカメラ106、圧力センサ107、CPU等により構成されるプロセッサ108、ROMやRAMといったメモリ109、リアルタイムクロック110、アンテナ等により構成される通信ユニット111及びバッテリー112を備える。 As shown in FIG. 4, the electronic pen 1, the interior of the housing 101, the pen unit 104, LED 105, CMOS camera 106, a pressure sensor 107, composed of a CPU such as a processor 108, ROM or memory 109 such as RAM, real-time clock 110, a communication unit 111 and the battery 112 constituted by an antenna or the like. ペン部104の先端は、ペン先部103となっており、ユーザは、電子ペン1のペン先部103をスクリーン4の用紙402に当接させて、文字を記入したり、タップ(ペン先部103によるスクリーン4への軽叩)したりする。 Tip of the pen unit 104 has a pen tip portion 103, the user, the pen tip portion 103 of the electronic pen 1 is brought into contact with the sheet 402 of the screen 4, or fill in the text, tap (pen tip portion 103 or light 叩) to the screen 4 by. なお、電子ペン1は、プロジェクター3により投影されるスクリーン4に、タップしたり文字を記入したりするのに用いるものであるので、ペン部104は、インクが充填されたものでなくともよい。 The electronic pen 1, the screen 4 is projected by the projector 3, so those used to or fill characters to tap, the pen unit 104 may not be construed filled with ink.

バッテリー112は電子ペン1内の各部品に電力を供給するためのものであり、例えば電子ペン1のキャップ(図示せず)の脱着により電子ペン1自体の電源のオン/オフを行うよう構成させてもよい。 Battery 112 is used to supply power to each component in the electronic pen 1, is configured to perform power on / off of the electronic pen 1 itself, for example, by desorption of the electronic pen 1 cap (not shown) it may be. リアルタイムクロック110は、現在時刻(タイムスタンプ)を示す時刻情報を発信し、プロセッサ108に供給する。 Real-time clock 110 transmits the time information indicating the current time (time stamp) to the processor 108. 圧力センサ107は、ユーザが電子ペン1によりスクリーン4に文字やマークを書いたりタップしたりする際にペン先部103からペン部104を通じて与えられる圧力、即ち筆圧を検出し、その値をプロセッサ108へ伝送する。 The pressure sensor 107, the user detects the pressure, i.e. the pen pressure applied from the pen tip portion 103 through the pen unit 104 when to tap or write letters or marks on the screen 4 by the electronic pen 1, the processor that value transmission to 108.

プロセッサ108は、圧力センサ107から与えられる筆圧データに基づいて、LED105及びCMOSカメラ106のスイッチのオン/オフを切換える。 The processor 108, based on the writing pressure data supplied from the pressure sensor 107, switches the LED105 and on / off switch of the CMOS camera 106. 即ち、ユーザが電子ペン1でスクリーン4に文字などを書くと、ペン先部103に筆圧がかかり、圧力センサ107によって所定値以上の筆圧が検出されたときに、プロセッサ108は、ユーザが記入を開始したと判定して、LED105及びCMOSカメラ106を作動させる。 That is, when the user writes the characters to the screen 4 with the electronic pen 1, it takes writing pressure to the pen tip portion 103, when the pen pressure above a predetermined value is detected by the pressure sensor 107, processor 108, user It determines that it has begun to fill actuates the LED105 and CMOS camera 106.

LED105とCMOSカメラ106は、電子ペン1のペン先部103付近に取り付けられており、筐体101におけるLED105及びCMOSカメラ106と対向する部分には、開口部102が形成されている。 LED105 a CMOS camera 106 is mounted in the vicinity of the pen tip portion 103 of the electronic pen 1, the portion facing the LED105 and CMOS camera 106 of the housing 101, openings 102 are formed. LED105は、スクリーン4上のペン先部103近傍に向けて赤外線を照明する。 LED105 illuminates infrared rays toward the pen point portion 103 near on the screen 4. その領域は、ペン先部103がスクリーン4に接触する位置とはわずかにずれている。 That region nib portion 103 is slightly offset from the position in contact with the screen 4. CMOSカメラ106は、LED105によって照明された領域内におけるドットパターンを撮影し、そのドットパターンの画像データをプロセッサ108に供給する。 CMOS camera 106 captures a dot pattern in the illuminated area by the LED 105, and supplies the image data of the dot pattern to the processor 108. ここで、カーボンは赤外線を吸収するため、LED105によって照射された赤外線は、ドットに含まれるカーボンによって吸収される。 Here, carbon in order to absorb infrared radiation, the infrared radiation applied by LED 105, is absorbed by the carbon contained in the dots. そのため、ドットの部分は、赤外線の反射量が少なく、ドット以外の部分は赤外線の反射量が多い。 Therefore, portions of the dots, the amount of reflected infrared radiation is small, portions other than the dot reflection of infrared is large. したがって、CMOSカメラ106の撮影により、赤外線の反射量の違いから閾値を設けることによって、カーボンを含むドットの領域とそれ以外の領域を区別することができる。 Therefore, the photographing of the CMOS camera 106, by providing a threshold value from a difference infrared reflection amount can be distinguished area and other areas of the dots containing carbon. なお、CMOSカメラ106による撮影領域は、図3(a)に示すような約2mm×約2mmの大きさを含む範囲であり、CMOSカメラ106の撮影は毎秒50〜100回程度の定間隔で行われる。 The image-capturing area by CMOS camera 106 is a range that includes the size of about 2mm × about 2mm as shown in FIG. 3 (a), taking CMOS camera 106 lines at regular intervals of about every second 50 to 100 times divide.

プロセッサ108は、ユーザの記入が行われる間、CMOSカメラ106によって供給される画像データのドットパターンから、ユーザが記入するストローク(筆跡)のスクリーン4上におけるX,Y座標(単に「位置座標」、「座標データ」とも呼ぶ)とスクリーン4に固有のドットパターンアドレス(コード化パターンアドレス)とを連続的に演算していく。 Processor 108, while the entry of the user is performed, the dot pattern of the image data supplied by the CMOS camera 106, X on the screen 4 of the stroke (handwriting) for the user to fill out, Y-coordinate (simply "position coordinates" also referred to as "coordinate data") and will continuously calculating a specific dot pattern address (coded pattern address) to the screen 4. すなわち、プロセッサ108は、CMOSカメラ106によって供給される、図3(a)に示されるようなドットパターンの画像データを図3(b)に示すデータ配列に変換し、さらに、X座標ビット値及びY座標ビット値に変換して、そのデータ配列から所定の演算方法によりX,Y座標データ及びドットパターンアドレスを演算する。 That is, the processor 108 is provided by a CMOS camera 106, converts the data array shown in FIG. 3 (b) the image data of the dot pattern as shown in FIG. 3 (a), further, X-coordinate bit values ​​and is converted into Y-coordinate bit values, calculates X, Y coordinate data and the dot pattern address by a predetermined calculation method from the data sequence. そしてプロセッサ108は、リアルタイムクロック110から発信される現在時刻(タイムスタンプ:記入された時刻情報)、筆圧データ、ドットパターンアドレス及びX,Y座標データとを関連付ける。 The processor 108, the current time transmitted from the real-time clock 110 (time stamp: Time information written), pen pressure associated data, dot pattern address and X, and Y coordinate data. なお、スクリーン4における6×6のドットパターンは、スクリーン4内で重複することはないため、ユーザが電子ペン1で文字等を記入すると、記入された位置がスクリーン4のどの位置に当たるかを、プロセッサ108による座標演算により特定することができる。 Incidentally, the dot pattern of 6 × 6 in screen 4, since not be duplicated in the screen 4, when the user entered the characters or the like with the electronic pen 1, or fill position strikes the position of the screen 4 throat, it can be identified by the coordinate calculation by the processor 108.

メモリ109には、電子ペン1を識別するための「pen01」といったペンID、ペン製造者番号、ペンソフトウェアのバージョン等のプロパティ情報が記憶されている。 The memory 109, a pen ID such as "pen01" for identifying the digital pen 1, the pen manufacturer number, the property information of the versions such as pen software is stored. そして、通信ユニット111は、ペンID(電子ペン識別情報)と、時刻情報(タイムスタンプ)と、筆圧データと、ドットパターンアドレスと、X,Y座標データとを関連付けて、記入情報としてコンピュータ装置2へ送信する。 The communication unit 111 includes a pen ID (electronic pen identification information), and time information (time stamp), in association with the writing pressure data, and the dot pattern address, X, and Y coordinate data, computer as entry information and transmits it to the 2. 通信ユニット111によるコンピュータ装置2への送信は、Bluetooth(登録商標)などの無線送信によって、即時的かつ逐次的に行われる。 Transmission by the communication unit 111 to the computer device 2, by wireless transmission such as Bluetooth (registered trademark), immediate and performed sequentially.

[コンピュータ装置] [Computer system]
次に、コンピュータ装置2について説明する。 Next, a description about the computer device 2. コンピュータ装置2は、ハードウェアとして、電子ペン1とのデータ通信が可能なアンテナ装置、CPU等のプロセッサ、ROMやRAMといったメモリ、ディスプレイ、マウスやキーボード等で構成されるパーソナルコンピュータ等で構成される。 Computer system 2 is configured as hardware, data communication possible antenna device of the electronic pen 1, a processor such as a CPU, a memory such as ROM and a RAM, a display, a personal computer or the like in composed of a mouse or a keyboard . 図5は、コンピュータ装置2の機能ブロック図である。 Figure 5 is a functional block diagram of the computer device 2. コンピュータ装置2は、機能的には、マウスやキーボードといった入力手段21、受信手段22、処理手段24、記憶手段25、表示手段26及び送信手段27を備える。 Computer apparatus 2 is functionally provided with an input means 21 such as a mouse or a keyboard, the receiving means 22, processing means 24, memory means 25, display means 26 and transmitting means 27. そして、コンピュータ装置2は、電子ペン1から受信した記入情報に基づいて所定の処理を行う。 Then, the computer unit 2 performs a predetermined process based on the entry information received from the electronic pen 1.

受信手段22は、アンテナや受信回路等により構成され、電子ペン1から記入情報を受信し、処理手段24に伝送する。 Receiving means 22 is constituted by an antenna and receiving circuits or the like, receives the entry information from the electronic pen 1 is transmitted to the processing means 24. 送信手段27は、処理手段24の指示によって、表示手段26の画像表示に用いられる画像信号をプロジェクター3に送信するもので、プロジェクター3へのデータ送信方式は、有線式であっても無線式であってもよい。 Transmission means 27, an instruction processing unit 24, intended to transmit an image signal used for image display of the display unit 26 to the projector 3, the data transmission scheme to a projector 3 may be a wired wirelessly it may be. 表示手段26は、ディスプレイ等によって構成され、処理手段24によって指示された内容を表示する。 Display means 26 is constituted by a display, and displays contents instructed by the processing means 24.

記憶手段25は、ハードディスクやROM、RAMといったメモリによって構成される。 Storage means 25 is composed of a hard disk or a ROM, a memory such as RAM. 記憶手段25には、スクリーン4上のドットパターン(コード化パターン)による位置座標とコンピュータ装置2の表示手段26における表示画面上の位置座標との位置合わせ(キャリブレーション)処理を行うためのプログラムや案内画像が記憶されている。 The storage means 25, Ya program for aligning (calibration) process of the position coordinates on the display screen of the display unit 26 of the position coordinates and the computer device 2 by dot patterns on the screen 4 (coding pattern) guide image is stored. このプログラムに関して、記憶手段25は、キャリブレーション処理の際に表示手段26に表示されるウィンドウ6の表示座標範囲、表示基準点、認識基準点等の位置座標等を記憶する。 In this program, the storage unit 25 stores display coordinate range of the window 6 which is displayed on the display unit 26 during the calibration process, the display reference point, the position coordinates such as recognition reference point. さらに、記憶手段25には、電子ペン1でスクリーン4に手書きを行うことによって生成された記入情報を処理するプログラム等も記憶されている。 Further, the storage unit 25, programs for processing entry information generated by performing handwriting on the screen 4 with the electronic pen 1 is also stored.

処理手段24は、CPU等のプロセッサによって構成され、受信手段22により電子ペン1から受信した記入情報に基づいて、表示手段26に対して種々の形態で記入内容を表示させたり、記憶手段25に記憶されたキャリブレーション処理を行うプログラムを起動させて、キャリブレーション処理を行ったりする。 Processing means 24 is constituted by a processor such as a CPU, based on the entry information received from the electronic pen 1 by receiving means 22, or to display the entry content in various forms with respect to the display unit 26, the storage means 25 the program for stored calibration process is activated, or perform calibration process. また、処理手段24は、表示手段26に表示させる画像と同じ画像を同期させてプロジェクター3に投影させるための画像信号を、送信手段27に対してプロジェクター3へ送信させる。 The processing unit 24, an image signal to be projected to synchronize the same image as the image to be displayed on the display unit 26 to the projector 3 to transmit to the projector 3 to the transmission unit 27.

プロジェクター3は、コンピュータ装置2の送信手段27から受信した画像信号に基づいて、表示手段26に表示された画像と同様の画像をスクリーン4の画像投影領域403に映し出す。 The projector 3 based on the image signal received from the transmitting unit 27 of the computer device 2, displaying an image similar to the display image on the display unit 26 in the image projection area 403 of the screen 4.

<キャリブレーション起動処理のフロー> <Flow of calibration start-up process>
次に、図6〜図11を参照して、情報処理システム10におけるキャリブレーションの処理について説明する。 Next, with reference to FIGS. 6-11, describes the processing of the calibration in the information processing system 10.

図6は、キャリブレーション起動処理のフロー図である。 Figure 6 is a flow diagram of a calibration starting process. まず、ユーザが、電子ペン1を用いて、スクリーン4の用紙402上に記入ないしタップを行う。 First, the user uses the electronic pen 1, fills out or tap on the sheet 402 of the screen 4. すると、電子ペン1は、圧力センサ107によって所定値以上の筆圧が検出されたことにより用紙402への接触を検出し、LED105によって赤外線を照射しつつカメラ106によって筆跡に沿ってドットパターンを撮像し、プロセッサ108によって、撮像されたドットパターンの画像データから筆跡に応じた位置座標を演算し、当該位置座標、リアルタイムクロック110により発信された現在時刻、筆圧データ(以上、「ストローク情報」)及びペンIDと関連付けて、記入情報として即時且つ逐次的にコンピュータ装置2へ送信する(ステップS101)。 Then, the electronic pen 1 detects the contact of the paper 402 by the writing pressure of greater than a predetermined value by the pressure sensor 107 is detected, imaging a dot pattern along the handwriting by the camera 106 while irradiating infrared rays by LED105 and, by the processor 108 calculates the position coordinates corresponding to the handwriting from the image data of the imaged dot pattern, the position coordinates, the current time originated by real time clock 110, the pen pressure data (or "stroke information") and in association with the pen ID, immediate and sequentially transmitted to the computer device 2 as entry information (step S101).

コンピュータ装置2では、受信手段22が、電子ペン1から記入情報(ストローク情報及びペンID)を受信すると、その記入情報を記憶手段25に記憶する(ステップS201)。 In the computer device 2, the receiving means 22 receives the entry information (stroke information and pen ID) from the electronic pen 1, and stores the entry information in the storage unit 25 (step S201). そして、処理手段24は、キャリブレーション処理を行うための座標変換関数が定義されているか否かを確認する(ステップS202)。 Then, the processing unit 24 checks whether or not the coordinate transformation functions for the calibration process is defined (step S202). 処理手段24は、座標変換関数が定義されていないと認識した場合は(ステップS202:No)、キャリブレーション処理が実行されていないとして、キャリブレーション処理を開始する(ステップS204)。 Processing means 24, for a recognized coordinate transformation function is not defined (step S202: No), the calibration process is not running, start the calibration process (step S204). したがって、キャリブレーション処理が実行されていない状態のときに、ユーザが、電子ペン1でスクリーン4に書き込もうとすれば、キャリブレーション処理が開始される。 Therefore, in a state where the calibration process is not executed, the user, if an electronic pen 1 tries to write to the screen 4, the calibration process is started.

一方、処理手段24は、座標変換関数が定義されていると認識した場合(ステップS202:Yes)、受信した記入情報のスクリーン4上のドットパターンによる位置座標を、座標変換関数を用いて、ディスプレイ201上の位置座標に変換して、ストロークを描画する(ステップS203)。 On the other hand, the processing means 24, when recognizing the coordinate transformation function is defined (step S202: Yes), the position coordinates by the dot patterns on the screen 4 of the received entry information, using the coordinate transformation function, the display is converted into the position coordinates on the 201, to draw the stroke (step S203).

<キャリブレーション処理> <Calibration process>
次に、図6のステップS204におけるキャリブレーション処理について、図7〜図11を参照しつつ説明する。 Below, the calibration process in step S204 of FIG. 6 will be described with reference to FIGS. 7-11.

図7は、キャリブレーション処理のフロー図である。 Figure 7 is a flow diagram of a calibration process. 図8及び図9は、キャリブレーション処理中に、表示画面201の画像が投影されたスクリーン4の状態を示している。 8 and 9, in the calibration process, an image of the display screen 201 shows a state of the screen 4 which is projected. 処理手段24は、キャリブレーション処理を開始すると、図8に示すように、キャリブレーション処理を案内するための案内画像を記憶手段25から読み出してウィンドウ6に表示させ、スクリーン4の画像投影領域403の左上隅を電子ペンでタップするよう案内する(操作ガイドA1:ステップS401)。 Processing means 24 starts the calibration process, as shown in FIG. 8, a guide image for guiding the calibration processing from the storage unit 25 is displayed in the window 6, the image projection area 403 of the screen 4 the upper-left corner to guide to tap with the electronic pen (operation guide A1: step S401). ここで、案内画像として、スクリーン4と画像投影領域403とを模したイメージ画像が表示され、タップする位置(画像投影領域403の左上隅601)が分かりやすく案内される。 Here, as a guidance image, the screen 4 and displayed image image simulating an image projection area 403, the position of the tap (upper left corner 601 of the image projection area 403) is guided clarity. すなわち、案内画像には、スクリーン4に画像が投影されたイメージ画像とともに、「投影された画像の左上隅をペンで触れてください」といったメッセージと、タップ位置に対応する位置を示す人影が表示される。 In other words, the guide image, along with the images on which the image is projected on the screen 4, human figure that shows a message such as "Please touch the upper-left corner of the projected image with the pen", the position corresponding to the tap position is displayed that. なお、電子ペン1によるタップの障害とならないように、処理手段24は、案内画像を表示画面201よりも小さい範囲のウィンドウ6で中央に表示させる。 Incidentally, so as not to disorder of the tap with the electronic pen 1, the processing means 24, the center display window 6 in the range smaller than the display screen 201 of the guide image. この案内画像は動画であっても静止画であってもよい。 The guide image may be a still image may be moving. また、スクリーンの形状は製品により様々あるため、案内画像で表示するイメージ画像は、スクリーンの一般的な形状とすればよい。 Further, since the shape of the screen is different depending on the product, images to be displayed in the guide image may be a general shape of the screen.

その画像に応じて、ユーザが電子ペン1を用いて、画像投影領域403の左上隅601へタップすると、電子ペン1は、タップ位置におけるドットパターンを読み取ってストローク情報を生成し、ペンIDと対応づけて得られた記入情報をコンピュータ装置2へ送信する(ステップS301)。 Depending on the image, the user uses the electronic pen 1, touch the top left corner 601 of the image projection area 403, the electronic pen 1 generates the stroke information by reading a dot pattern in the tap position, corresponding to the pen ID the entry information obtained in association transmitted to the computer device 2 (step S301).

コンピュータ装置2では、電子ペン1より記入情報を受信手段22によって受信すると、処理手段24は、記入情報のうち、ペンアップの位置座標を、用紙402上の認識基準点1として、記憶手段25に記憶する(ステップS402)。 In the computer device 2, when received by the receiving means 22 from the entry information electronic pen 1, the processing unit 24, among the entry information, the position coordinates of the pen-up, as the recognition reference point 1 on the paper 402, in the storage means 25 stored (step S402). さらに、図9に示すように、処理手段24は、ウィンドウ6に案内画像を表示して、その案内画像により、スクリーン4の画像投影領域403の右下隅を電子ペンでタップするよう案内する(操作ガイドA2:ステップS403)。 Furthermore, as shown in FIG. 9, the processing unit 24 displays a guide image in the window 6, by the guide image, the lower right corner of the image projection area 403 of the screen 4 for guiding to tap electronic pen (Operation guide A2: step S403). ここでも、ステップS401と同様に、案内画像として、スクリーン4と画像投影領域403とを模したイメージ画像とともに、「投影された画像の右下隅をペンで触れてください」といったメッセージと、タップ位置に対応する位置を示す人影が表示され、タップする位置(画像投影領域403の右下隅602)が分かりやすく案内される。 Again, similarly to step S401, as a guide image, the screen 4 and the image projection area 403 together with the image image simulating a message "Please touch the bottom right corner of the projected image with the pen", the tap position appears empty indicating the corresponding position, a position for tapping (the lower right corner 602 of the image projection area 403) is guided clarity. その画像に応じて、ユーザが電子ペン1を用いて、画像投影領域403の右下隅602へタップすると、電子ペン1は、タップ位置におけるドットパターンを読み取ってストローク情報を生成し、ペンIDと対応づけて得られた記入情報をコンピュータ装置2へ送信する(ステップS302)。 Depending on the image, the user with the digital pen 1, and tap into the lower-right corner 602 of the image projection area 403, the electronic pen 1 generates the stroke information by reading a dot pattern in the tap position, corresponding to the pen ID the entry information obtained in association transmitted to the computer device 2 (step S302).

コンピュータ装置2では、電子ペン1より記入情報を受信手段22によって受信すると、処理手段24は、記入情報のうち、ペンアップの位置座標を、用紙402上の認識基準点2として、記憶手段25に記憶する(ステップS404)。 In the computer device 2, when received by the receiving means 22 from the entry information electronic pen 1, the processing unit 24, among the entry information, the position coordinates of the pen-up, as the recognition reference point 2 on the paper 402, in the storage means 25 stored (step S404). そして、処理手段24は、ドットパターンの演算による用紙402上の認識基準点1,2の座標値に基づいて、スクリーン4の用紙402上の位置座標から、コンピュータ装置2における表示画面201上の位置座標を演算するための座標変換関数を求めて、記憶手段25に記憶する。 Then, the processing means 24, based on the coordinate values ​​of the recognition reference point 1 and 2 on the paper 402 by the calculation of the dot pattern, the position coordinates on the sheet 402 of the screen 4, the position on the display screen 201 in the computer system 2 seeking coordinate transformation function for calculating the coordinates in the storage unit 25. それとともに、処理手段24は、キャリブレーション処理の結果、電子ペン1によりスクリーン4上で位置座標が表示画面201に対応して正確に入力可能な座標入力領域(画像投影領域)403を確定し、その座標領域を定義して、記憶手段25に記憶する(ステップS405)。 At the same time, the processing means 24, the result of the calibration process, corresponding to the position coordinate display screen 201 on the screen 4 to confirm the exact fillable coordinate input region (image projection area) 403 by the electronic pen 1, define the coordinate area in the storage unit 25 (step S405).

ここで、キャリブレーション処理における座標変換関数の求め方について、図10及び図11を参照して説明する。 Here, how to obtain the coordinate transformation function in the calibration process will be described with reference to FIGS. 10 and 11.

図10は、コンピュータ装置2の表示画面201上における位置座標を示す図である。 Figure 10 is a diagram showing the positional coordinates on the display screen 201 of the computer device 2. 図10に示すように、コンピュータ装置2の表示手段(ディスプレイ)26の表示画面201において、X軸を右方向、Y軸を下方向にとり、以下の座標を次のようにする。 As shown in FIG. 10, the display screen 201 of the display unit (display) 26 of the computer device 2, taking the right direction on the X axis, the Y-axis downward, the following coordinates as follows.
左上隅の端点:座標202(Xamin,Yamin)、 The upper-left corner of the end point: coordinates 202 (Xamin, Yamin),
右下隅の端点:座標203(Xamax,Yamax)、 The lower-right corner of the end point: coordinates 203 (Xamax, Yamax),
ただし、Xamin < Xamax、 However, Xamin <Xamax,
Yamin < Yamax、 Yamin <Yamax,

図11は、スクリーン4の用紙402上における認識基準点1,2の位置座標を示す図である。 Figure 11 is a diagram illustrating the position coordinates of the recognized reference points 1 and 2 on the sheet 402 of the screen 4. 認識基準点1,2は、コンピュータ装置2の表示画面201がスクリーン4に投影されて規定される座標入力領域403上の左上隅の端点、右下隅の端点を、電子ペン1によって筆記して得られたドットパターン(コード化パターン)の解析に基づく位置座標である。 Recognition reference point 1 and 2, the upper left corner of the end point on the coordinate input region 403 where the display screen 201 of the computer device 2 is defined is projected on the screen 4, the end point of the lower right corner, and writing the electronic pen 1 obtained was the position coordinates based on the analysis of the dot pattern (coding pattern). 図11に示すように、プロジェクター3によってスクリーン4に投影される座標入力領域(画像投影領域)403において、X軸を右方向、Y軸を下方向にとり、以下の座標を次のようにする。 As shown in FIG. 11, in the coordinate input region (image projection area) 403 which is projected by the projector 3 onto the screen 4, taking the right direction on the X axis, the Y-axis downward, the following coordinates as follows.
用紙402の左上隅の端点:座標405(Xb0,Yb0)、 The upper-left corner of the end point of the paper 402: coordinate 405 (Xb0, Yb0),
座標入力領域403の左上隅の端点(認識基準点1):座標406(Xbmin,Ybmin)、 Upper left corner of the end point of the coordinate input region 403 (recognition reference point 1): coordinates 406 (Xbmin, Ybmin),
座標入力領域403の右下隅の端点(認識基準点2):座標407(Xbmax,Ybmax)、 Lower right corner of the end points of the coordinate input region 403 (recognition reference point 2): the coordinates 407 (Xbmax, Ybmax),
ただし、Xb0 ≦ Xbmin < Xbmax 、 However, Xb0 ≦ Xbmin <Xbmax,
Yb0 ≦ Ybmin < Ybmax 、 Yb0 ≦ Ybmin <Ybmax,

すると、コンピュータ装置2の表示画面201における左上隅の端点の座標202(Xamin,Yamin)及び右下隅の端点の座標203(Xamax,Yamax)が、スクリーン4の用紙402上のドットパターンにおける認識基準点1の座標406(Xbmin,Ybmin)及び認識基準点2の座標407(Xbmax,Ybmax)にそれぞれ対応する。 Then, the upper-left corner of the end point of coordinates 202 on the display screen 201 of the computer device 2 (Xamin, Yamin) and the lower right corner of the end point coordinates 203 (Xamax, Yamax) is recognized reference point in a dot pattern on the paper 402 in the screen 4 1 the coordinates 406 (Xbmin, Ybmin) and the recognition reference point 2 of coordinates 407 (Xbmax, Ybmax) correspond to. つまり、この認識基準点1、認識基準点2の座標値を対角の各頂点とする長方形状の領域から、ステップS203における座標入力領域403を規定することができる。 That is, the recognition reference point 1, the rectangular area to each vertex coordinates diagonal recognition reference point 2, it is possible to define the coordinate input region 403 in step S203.

そして、スクリーン4の用紙402上のドットパターンで規定される位置座標(Xbn,Ybn)から、コンピュータ装置2の表示手段26における表示画面201上の位置座標(Xan,Yan)は、次の座標変換関数で求めることができる。 Then, the position coordinates (Xbn, Ybn) defined by the dot pattern on the paper 402 of the screen 4 from the position coordinates on the display screen 201 of the display unit 26 of the computer device 2 (Xan, Yan), the following coordinate transformation it can be determined by the function.

[数式1] Xan = Xamin+{ Xbn−(Xbmin−Xb0)} ×(Xamax−Xamin)/(Xbmax−Xbmin) [Equation 1] Xan = Xamin + {Xbn- (Xbmin-Xb0)} × (Xamax-Xamin) / (Xbmax-Xbmin)
[数式2] Yan = Yamin+{ Ybn−(Ybmin−Yb0)} ×(Yamax−Yamin)/(Ybmax−Ybmin) [Equation 2] Yan = Yamin + {Ybn- (Ybmin-Yb0)} × (Yamax-Yamin) / (Ybmax-Ybmin)

よって、処理手段24は、上式により、スクリーン4上の位置座標(Xbn,Ybn)を、コンピュータ装置2の表示画面201上の位置座標(Xan,Yan)に変換して、各種処理を行っていく。 Thus, the processing means 24, from the above equation, the position coordinates on the screen 4 (Xbn, Ybn) and is converted into the position coordinates on the display screen 201 of the computer device 2 (Xan, Yan), performs various processing go. なお、スクリーン4に対するプロジェクター3の角度によって、座標変換関数の項に歪みを補正する所定の係数をかけるようにしてもよい。 Incidentally, the angle of the projector 3 to the screen 4, may be multiplied by a predetermined coefficient for correcting the distortion in terms of the coordinate transformation function.

キャリブレーション処理後、スクリーン4上で位置座標が表示画面201に対応して正確に入力可能であるとして定義された座標入力領域403内において、ユーザが、電子ペン1を用いて文字等を書き込む。 After the calibration process, in the coordinate input region 403 that is defined as a position coordinate on the screen 4 is exactly be input corresponding to the display screen 201, the user writes a character or the like using an electronic pen 1. すると、電子ペン1は、筆跡のストロークに応じたストローク情報を生成し、ペンIDと対応付けた記入情報をコンピュータ装置2へ送信する(ステップS101)。 Then, the electronic pen 1 generates the stroke information corresponding to handwriting stroke, it transmits the entry information that associates with the pen ID to the computer device 2 (step S101). コンピュータ装置2では、受信手段22によって記入情報を受信すると、処理手段24は、その記入情報を記憶手段25に記憶し(ステップS201)、座標変換関数が定義されていると判断し(ステップS202:Yes)、記入情報のストローク情報に含まれる位置座標(Xbn,Ybn)を、キャリブレーション処理によって得られた座標変換関数を用い、コンピュータ装置2の表示画面201上の位置座標(Xan,Yan)に変換して、ストロークを描画したり、各種処理を行ったりしていく。 In the computer device 2, when receiving the entry information by the receiving means 22, the processing unit 24 stores the entry information in the storage unit 25 (step S201), determines that the coordinate transformation function is defined (step S202: yes), the position coordinates included in the stroke information of the entry information (Xbn, the Ybn), using the coordinate transformation function obtained by the calibration process, the position coordinates on the display screen 201 of the computer device 2 (Xan, Yan) conversion to, or draw a stroke, going to or perform various types of processing.

つまり、図12に示すように、ユーザが、スクリーン4の座標入力領域403内に電子ペン1で文字等を記入すると、コンピュータ装置2は、筆跡に応じたストロークの線分を描画し、スクリーン4上の筆跡とずれることなく、ストロークの線分をプロジェクター3によって投影させる。 That is, as shown in FIG. 12, when the user enter characters such as an electronic pen 1 in the coordinate input region 403 of the screen 4, the computer device 2 draws a line segment of stroke corresponding to the handwriting, the screen 4 without deviation and handwriting above, projecting the line of the stroke by the projector 3. また、キャリブレーション処理によって、スクリーン4上の位置座標とコンピュータ装置2の表示手段26における表示画面201上の位置座標とが座標変換関数による座標変換により位置合わせされているため、スクリーン4の座標入力領域403内に投影されたメニューやアイコンを電子ペン1で選択することにより、アプリケーションを操作したり起動させたりすることも可能となる。 Also, the calibration process, since the position coordinates on the display screen 201 of the display unit 26 of the position coordinates and the computer device 2 on the screen 4 is aligned by the coordinate transformation by the coordinate transformation function, the coordinate input screen 4 by selecting the menu or icon which is projected in the area 403 with the electronic pen 1, it becomes possible or to start or operate the application.

<本第1実施形態の作用効果> <Effects of the First Embodiment>
本第1実施形態における情報処理システム10においては、処理手段24は、ウィンドウ6に案内画像を表示して、キャリブレーション処理のためのタップ位置を案内しているため、ユーザにとっても簡易に電子ペン1によるタップを行うことができる。 This in the information processing system 10 according to the first embodiment, the processing means 24 displays a guide image in the window 6, since the guiding tap position for the calibration process, a simple electronic pen even for users it is possible to perform the tap by 1. また、キャリブレーション処理のためのタップ位置が、スクリーン4の画像投影領域403の左上隅と右下隅であるため、タップする位置としてユーザに分かりやすく、しかも、タップ位置を中央寄りとするよりも、キャリブレーションによる座標変換関数の精度を向上させることができる。 Also, the tap position for the calibration process, since it is the upper left and lower right corners of the image projection area 403 of the screen 4, clarity to the user as a position of the tap, moreover, rather than a tap position as close to the center, it is possible to improve the accuracy of the coordinate transformation function according to the calibration. また、案内画像が表示されるウィンドウ6は、表示画面201よりも小さい範囲で中央に表示されるため、電子ペン1によるタップの障害ともならない。 Further, the window 6 which guide image is displayed, to be displayed in the center in a range smaller than the display screen 201, does not become an obstacle to the tap with the electronic pen 1.

〔変形例〕 [Modification]
なお、上記第1実施形態は次のように構成してもよい。 Incidentally, the first embodiment may be configured as follows.

上記第1実施形態においては、キャリブレーション処理のためのタップ位置をスクリーン4に投影されている表示画面201の画像投影領域403の左上隅及び右下隅としたが、その代わりに、左下隅及び右上隅としてもよく、あるいは、4つある画像投影領域403の隅のうち、3つでも4つ全部としてもよい。 In the first embodiment, although the upper left corner and lower right corner of the image projection area 403 of the display screen 201 which is projecting the tap position for the calibration process on the screen 4, but instead, the lower left corner and upper right it may be a corner, or, among the four corners of an image projection area 403, may be 3 any time all four. このとき、座標変換関数は適宜修正すればよく、画像投影領域403の隅の3点以上とすれば、スクリーン4の製造過程や壁面等に貼り付けた際などに生じる、用紙402に印刷されているドットパターンによる座標軸とスクリーン4に投影されている表示画面201の画像投影領域403による座標軸との回転角度(傾き)が算出され、さらにキャリブレーション処理の精度が高まる。 In this case, it is sufficient appropriately corrected coordinate transformation function, if the corner of three or more image projection area 403 occurs like when adhered to the manufacturing process and a wall surface of the screen 4, is printed on the sheet 402 the angle of rotation of the coordinate axis of the image projection area 403 of the display screen 201 that is projected on the coordinate axis and the screen 4 by dot patterns are (inclination) calculates increases the further calibration processing accuracy.

また、図7に示すキャリブレーション処理のフロー図のステップS401,S403においては、図13に示すように、ウィンドウ6の案内画像とともに、タップ位置を指し示す矢印701を処理手段24が表示手段26に表示させてもよい。 Further, in step S401, S403 of the flow diagram of the calibration process shown in FIG. 7, as shown in FIG. 13, the display together with the guide image of the window 6, the processing means 24 display means 26 the arrow 701 pointing to the tap position it may be. このとき、処理手段24は、矢印701を点滅させたり、矢印701がタップ位置に近づいていくようなアニメーション表示をさせたりして、目立たせるようにしてもよい。 At this time, the processing unit 24, or flashes the arrow 701, and or to an animation display as an arrow 701 approaches the tap position, may be made to stand out. また、情報処理システム10のプロジェクター3を、フロントプロジェクター・タイプのものとしたが、リアプロジェクター・タイプのものとしてもよく、この場合、ドットパターンが印刷されたスクリーン4を画像が結像する程度の透明にするとよい。 Further, the projector 3 of the information processing system 10, it is assumed in the front projector type, may be as a rear projector type, in this case, the extent to which the screen 4 a dot pattern is printed image is imaged it may be transparent.

<第2実施形態> <Second Embodiment>
次に、第2実施形態における情報処理システム11を説明する。 Next, the information processing system 11 according to the second embodiment. 第2実施形態の説明では、第1実施形態と異なる構成を中心に説明する。 In the description of the second embodiment will be described focusing on different configurations from the first embodiment. また、第2実施形態において、第1実施形態と同じ符号を付している構成は、特に言及しないものについては、第1実施形態と同様の構成である。 In the second embodiment, configurations are denoted by the same reference numerals as in the first embodiment, for those otherwise mentioned, the same configuration as the first embodiment.

第2実施形態においては、キャリブレーション処理におけるタップ位置、案内画像および座標変換関数が異なる。 In the second embodiment, the tap position in the calibration process, the guide image and the coordinate transformation function differently. この点について、図14〜図18を用いて説明する。 This will be described with reference to FIGS. 14 to 18.

図14は、第2実施形態の情報処理システム11におけるキャリブレーション処理のフロー図である。 Figure 14 is a flow diagram of a calibration process in the information processing system 11 of the second embodiment. 第1実施形態では、認識基準点1のために、スクリーン4の画像投影領域403の左上隅をタップ位置とした(図7:ステップS401、図8参照)。 In the first embodiment, for recognition reference point 1, to the upper left corner of the image projection area 403 of the screen 4 and the tap position (FIG. 7; see step S401, FIG. 8). 第2実施形態では、図15に示すように、処理手段24は、ウィンドウ6内であって表示画面201の中央に円状のマーク8を表示させるともに、ウィンドウ6に、マーク8の中心(表示基準点)を電子ペン1でタップするよう案内する「円の中心をペンで触れてください」といったメッセージ画像を表示させる(操作ガイドB1:ステップS601)。 In the second embodiment, as shown in FIG. 15, the processing unit 24 are both to display the circular mark 8 in the center of the display screen 201 a in window 6, the window 6, the center of the mark 8 (Display a reference point) to display a message image such as "please touch the pen to the center of the circle" to guide to tap with the electronic pen 1 (operation guide B1: step S601). ユーザが、その画像に応じて、電子ペン1を用いてマーク8の中心へタップすると、電子ペン1は、タップ位置におけるドットパターンを読み取ってストローク情報を生成し、ペンIDと対応づけて得られた記入情報をコンピュータ装置2へ送信する(ステップS501)。 User, according to the image, tap the center of the mark 8 with the digital pen 1, the electronic pen 1 generates the stroke information by reading a dot pattern in the tap position, obtained in association with the pen ID It transmits the entered information to the computer device 2 (step S501).

コンピュータ装置2では、電子ペン1より記入情報を受信手段22によって受信すると、処理手段24は、記入情報のうち、ペンアップの位置座標を、用紙402上の認識基準点1として、記憶手段25に記憶する(ステップS602)。 In the computer device 2, when received by the receiving means 22 from the entry information electronic pen 1, the processing unit 24, among the entry information, the position coordinates of the pen-up, as the recognition reference point 1 on the paper 402, in the storage means 25 stored (step S602). さらに、図16に示すように、処理手段24は、ウィンドウ6に案内画像を表示して、その案内画像により、スクリーン4の画像投影領域403の右下隅を電子ペンでタップするよう案内する(操作ガイドB2:ステップS603)。 Furthermore, as shown in FIG. 16, the processing unit 24 displays a guide image in the window 6, by the guide image, the lower right corner of the image projection area 403 of the screen 4 for guiding to tap electronic pen (Operation Guide B2: step S603). ここで、第1実施形態と同様に、案内画像には、スクリーン4と画像投影領域403とを模したイメージ画像とともに、「投影された画像の右下隅をペンで触れてください。」といったメッセージと、タップ位置に対応する位置を示す人影が表示され、タップする位置(画像投影領域403の右下隅602)が分かりやすく案内される。 Here, as in the first embodiment, the guide image with the image image simulating a screen 4 and an image projection area 403, "Please touch the bottom right corner of the projected image with the pen." Such messages and , appears empty indicating a position corresponding to the tap position, the position of the tap (lower right corner 602 of the image projection area 403) is guided clarity. その画像に応じて、ユーザが電子ペン1を用いて、画像投影領域403の右下隅602へタップすると、電子ペン1は、タップ位置におけるドットパターンを読み取ってストローク情報を生成し、ペンIDと対応づけて得られた記入情報をコンピュータ装置2へ送信する(ステップS502)。 Depending on the image, the user with the digital pen 1, and tap into the lower-right corner 602 of the image projection area 403, the electronic pen 1 generates the stroke information by reading a dot pattern in the tap position, corresponding to the pen ID the entry information obtained in association transmitted to the computer device 2 (step S502).

コンピュータ装置2では、電子ペン1より記入情報を受信手段22によって受信すると、処理手段24は、記入情報のうち、ペンアップの位置座標を、用紙402上の認識基準点2として、記憶手段25に記憶する(ステップS604)。 In the computer device 2, when received by the receiving means 22 from the entry information electronic pen 1, the processing unit 24, among the entry information, the position coordinates of the pen-up, as the recognition reference point 2 on the paper 402, in the storage means 25 stored (step S604). そして、処理手段24は、ドットパターンの演算による用紙402上の認識基準点1,2の座標値に基づいて、用紙402上の位置座標から、コンピュータ装置2における表示画面201上の位置座標を演算するための座標変換関数を求めて、記憶手段25に記憶する。 Then, the processing means 24, based on the coordinate values ​​of the recognition reference point 1 and 2 on the paper 402 by the calculation of the dot pattern, the position coordinates on the sheet 402, calculates the position coordinates on the display screen 201 in the computer system 2 seeking coordinate transformation function for in the storage unit 25. それとともに、処理手段24は、キャリブレーション処理の結果、電子ペン1によりスクリーン4上で位置座標が表示画面201に対応して正確に入力可能な座標入力領域(画像投影領域)403を確定し、その座標領域を定義して、記憶手段25に記憶する(ステップS605)。 At the same time, the processing means 24, the result of the calibration process, corresponding to the position coordinate display screen 201 on the screen 4 to confirm the exact fillable coordinate input region (image projection area) 403 by the electronic pen 1, define the coordinate area in the storage unit 25 (step S605).

ここで、キャリブレーション用の座標変換関数の求め方について、図17及び図18を参照して説明する。 Here, how to obtain the coordinate transformation function for calibration will be described with reference to FIGS. 17 and 18.

図17は、コンピュータ装置2の表示画面201上における位置座標を示す図である。 Figure 17 is a diagram showing the positional coordinates on the display screen 201 of the computer device 2. 図17に示すように、コンピュータ装置2の表示手段(ディスプレイ)26の表示画面201において、X軸を右方向、Y軸を下方向にとり、以下の座標を次のようにする。 As shown in FIG. 17, the display screen 201 of the display unit (display) 26 of the computer device 2, taking the right direction on the X axis, the Y-axis downward, the following coordinates as follows.
左上隅の端点:座標202(Xamin,Yamin)、 The upper-left corner of the end point: coordinates 202 (Xamin, Yamin),
右下隅の端点:座標203(Xamax,Yamax)、 The lower-right corner of the end point: coordinates 203 (Xamax, Yamax),
表示基準点(マーク8の中心):座標204(Xa1,Ya1)、 Display reference point (the center of the mark 8): coordinates 204 (Xa1, Ya1),
ただし、Xamin ≦ Xa1 ≦ Xamax、(Xamin ≠ Xamax) However, Xamin ≦ Xa1 ≦ Xamax, (Xamin ≠ Xamax)
Yamin ≦ Ya1 ≦ Yamax、(Yamin ≠ Yamax) Yamin ≦ Ya1 ≦ Yamax, (Yamin ≠ Yamax)

図18は、スクリーン4の用紙402上における認識基準点1,2の位置座標を示す図である。 Figure 18 is a diagram illustrating the position coordinates of the recognized reference points 1 and 2 on the sheet 402 of the screen 4. 認識基準点1は、コンピュータ装置2の表示画面201上における表示基準点のマーク8がスクリーン4に投影され、電子ペン1によって指示されたドットパターン(コード化パターン)の解析に基づく位置座標である。 Recognition reference point 1, the mark 8 of the display reference point on the display screen 201 of the computer device 2 is projected on the screen 4 is the position coordinates based on the analysis of the dot pattern is instructed (coding pattern) by the electronic pen 1 . 認識基準点2は、コンピュータ装置2の表示画面201がスクリーン4に投影されて規定される座標入力領域403上の右下隅の端点を、電子ペン1によって筆記して得られたドットパターンの解析に基づく位置座標である。 Recognition reference point 2, the end point of the lower right corner of the coordinate input region 403 in which the display screen 201 of the computer device 2 is defined is projected on the screen 4, the analysis of the dot pattern obtained by writing with the electronic pen 1 is the position coordinates based. 図18に示すように、プロジェクター3によってスクリーン4に投影される座標入力領域(画像投影領域)403において、X軸を右方向、Y軸を下方向にとり、以下の座標を次のようにする。 As shown in FIG. 18, in the coordinate input region (image projection area) 403 which is projected by the projector 3 onto the screen 4, taking the right direction on the X axis, the Y-axis downward, the following coordinates as follows.
用紙402の左上隅の端点:座標405(Xb0,Yb0)、 The upper-left corner of the end point of the paper 402: coordinate 405 (Xb0, Yb0),
座標入力領域403の左上隅の端点:座標406(Xbmin,Ybmin)、 Upper left corner of the end point of the coordinate input region 403: coordinates 406 (Xbmin, Ybmin),
座標入力領域403の右下隅の端点(認識基準点2):座標407(Xbmax,Ybmax)、 Lower right corner of the end points of the coordinate input region 403 (recognition reference point 2): the coordinates 407 (Xbmax, Ybmax),
表示基準点(マーク8の中心)(認識基準点1):座標408(Xb1,Yb1)、 Display reference point (the center of the mark 8) (the recognition reference point 1): coordinates 408 (Xb1, Yb1),
ただし、Xb0 ≦ Xbmin < Xb1 ≦ Xbmax、 However, Xb0 ≦ Xbmin <Xb1 ≦ Xbmax,
Yb0 ≦ Ybmin < Yb1 ≦ Ybmax、 Yb0 ≦ Ybmin <Yb1 ≦ Ybmax,

すると、コンピュータ装置2の表示画面201における表示基準点の座標204(Xa1,Ya1)及び右下端点の座標203(Xamax,Yamax)が、スクリーン4の用紙402上のドットパターンにおける認識基準点1の座標408(Xb1,Yb1)及び認識基準点2の座標407(Xbmax,Ybmax)にそれぞれ対応する。 Then, the coordinates 204 of the display reference point on the display screen 201 of the computer device 2 (Xa1, Ya1) and the coordinates 203 of the lower right end point (Xamax, Yamax) is the recognition reference point 1 in the dot pattern on the paper 402 in the screen 4 coordinates 408 (Xb1, Yb1) and recognizes the reference point 2 of coordinates 407 (Xbmax, Ybmax) correspond to. そして、スクリーン4に投影される座標入力領域403を規定する左上端点座標406(Xbmin,Ybmin)は次の数式で表すことができる。 Then, upper left end point coordinates 406 that defines a coordinate input area 403 that is projected on the screen 4 (Xbmin, Ybmin) can be expressed by the following equation.

[数式3] Xbmin = Xb1 − (Xa1 − Xamin)×(Xbmax − Xb1)/(Xamax − Xa1) [Equation 3] Xbmin = Xb1 - (Xa1 - Xamin) × (Xbmax - Xb1) / (Xamax - Xa1)
[数式4] Ybmin = Yb1 − (Ya1 − Yamin)×(Ybmax − Yb1)/(Yamax − Ya1) [Equation 4] Ybmin = Yb1 - (Ya1 - Yamin) × (Ybmax - Yb1) / (Yamax - Ya1)

したがって、処理手段24は、数式3,4により演算した座標406と、認識基準点2の座標値を対角の各頂点とする長方形状の領域から、ステップS203における座標入力領域403を規定することができる。 Thus, the processing means 24, to define the coordinates 406 calculated according to Equation 3 and 4, a rectangular region to each vertex coordinates diagonal recognition reference point 2, the coordinate input region 403 in step S203 can.

そして、スクリーン4の用紙402上のドットパターンで規定される位置座標(Xbn,Ybn)から、コンピュータ装置2の表示手段26における表示画面201上の位置座標(Xan,Yan)は、次の座標変換関数で求めることができる。 Then, the position coordinates (Xbn, Ybn) defined by the dot pattern on the paper 402 of the screen 4 from the position coordinates on the display screen 201 of the display unit 26 of the computer device 2 (Xan, Yan), the following coordinate transformation it can be determined by the function.

[数式5] Xan = Xamin+{ Xbn − (Xbmin−Xb0)} ×(Xamax−Xa1)/(Xbmax−Xb1) [Equation 5] Xan = Xamin + {Xbn - (Xbmin-Xb0)} × (Xamax-Xa1) / (Xbmax-Xb1)
[数式6] Yan = Yamin+{ Ybn − (Ybmin−Yb0)} ×(Yamax−Ya1)/(Ybmax−Yb1) [Equation 6] Yan = Yamin + {Ybn - (Ybmin-Yb0)} × (Yamax-Ya1) / (Ybmax-Yb1)

よって、処理手段24は、上式により、スクリーン4上の位置座標(Xbn,Ybn)を、コンピュータ装置2の表示画面201上の位置座標(Xan,Yan)に変換して、各種処理を行っていく。 Thus, the processing means 24, from the above equation, the position coordinates on the screen 4 (Xbn, Ybn) and is converted into the position coordinates on the display screen 201 of the computer device 2 (Xan, Yan), performs various processing go. なお、スクリーン4に対するプロジェクター3の角度によって、座標変換関数の項に歪みを補正する所定の係数をかけるようにしてもよい。 Incidentally, the angle of the projector 3 to the screen 4, may be multiplied by a predetermined coefficient for correcting the distortion in terms of the coordinate transformation function.

<本第2実施形態の作用効果> <Effects of the Second Embodiment>
本第2実施形態の情報処理システム11においては、認識基準点1用のタップ位置が、スクリーン4に投影された表示画面201の画像投影領域403の上隅ではなく、画像投影領域403の中央であるため、上隅では、ユーザが電子ペン1でタップするのに届かなくとも、上隅よりも低い画像投影領域403の中央には届きやすい。 This in the information processing system 11 of the second embodiment, the tap position for recognition reference point 1 is not a corner of the image projection area 403 of the display screen 201 projected on the screen 4, at the center of the image projection area 403 there, in the corner, without reaching to the user taps with the electronic pen 1, easily reach the center of the lower image projection area 403 than corner. しかも、画像投影領域403の中央に表示されるマーク8には、一緒に表示されるメッセージの吹き出し矢印等でタップする位置であることが案内されるため分かりやすい。 Moreover, the marks 8 to be displayed in the center of the image projection area 403, easy to understand because it is guided a position to tap balloon arrow like messages that are displayed together. また、電子ペン1で画像投影領域403の右下隅602をタップする場合には、案内画像は、表示画面201よりも小さい範囲のウィンドウ6で中央に表示されるため、タップの障害とならない。 Furthermore, when tapping the lower right corner 602 of the image projection area 403 with the electronic pen 1, the guide image is to be displayed in the center window 6 smaller range than the display screen 201, does not obstruct the tap.

〔変形例〕 [Modification]
なお、上記第2実施形態は次のように構成してもよい。 Incidentally, the second embodiment may be configured as follows.

上記第2実施形態においては、表示基準点を表示画面201の中央に表示させて、認識基準点1用のタップ位置を画像投影領域403の中央としたが、これに限られない。 In the above-described second embodiment, to display the display reference point on the center of the display screen 201, but the tap position for recognition reference point 1 and the center of the image projection area 403 is not limited thereto. また、認識基準点2用のタップ位置は、画像投影領域403の右下隅に限らず、他の隅であってもよい。 Also, the tap position for recognition reference point 2 is not limited to the lower right corner of the image projection area 403, may be other corners. また、キャリブレーション用のタップ位置は、3点以上としてもよい。 Also, the tap position for calibration may be three or more points. また、認識基準点2用のタップ位置を指す矢印を、第1実施形態の変形例と同様に、図13の矢印701のように表示させてもよい。 Also, the arrow pointing to the tap position for recognition reference point 2, similarly to the modification of the first embodiment, may be displayed as arrows 701 in FIG. 13. また、情報処理システム11のプロジェクター3を、フロントプロジェクター・タイプのものとしたが、リアプロジェクター・タイプのものとし、ドットパターンが印刷されたスクリーン4を画像が結像する程度の透明にするとよい。 Further, the projector 3 of the information processing system 11, it is assumed in the front projector type, and those of the rear projector type, may screen 4 a dot pattern is printed image is transparent enough to imaging.

〔他の実施形態〕 Other Embodiments
本考案は、上記実施形態に限られない。 This invention is not limited to the above embodiment.

上記第1,2実施形態においては、情報処理システム10,11を、プロジェクター3を用いて構成したが、図19に示すように、情報処理システム100において、電子ペン1によって読取可能なドットパターン(コード化パターン)を透明シート9に印刷し、その透明シート9をコンピュータ装置2の表示画面201に貼り付けた構成としてもよい。 In the above-described first and second embodiments, the information processing system 10, 11 is formed by using a projector 3, as shown in FIG. 19, in the information processing system 100, reading by an electronic pen 1 can dot pattern ( print the coding pattern) in the transparent sheet 9 may have a structure in which paste the transparent sheet 9 on the display screen 201 of the computer device 2. このとき、キャリブレーション処理を行う場合には、図20に示すように、処理手段24は、表示画面201に、当該表示画面201とその枠とのイメージ画像を案内画像として表示させ、その案内画像によって電子ペン1でタップする位置を案内する。 In this case, when performing the calibration process, as shown in FIG. 20, the processing unit 24, the display screen 201 to display the image of the the display screen 201 and the frame as a guide image, the guide image to guide the position to tap with the electronic pen 1 by. ユーザは、透明シート9の上から、表示画面201上の案内されたタップ位置を、電子ペン1を用いてタップして、ドットパターンを読み取らせることとなる。 User, from above the transparent sheet 9, the guided tap position on the display screen 201, by tapping with the digital pen 1, and thus to read the dot pattern.

この場合、赤外線を選択的に反射する特性を有するインキにより透明シート9にドットパターンを印刷し、電子ペン1では、プロセッサ108には、CMOSカメラ106によって撮像された画像データから、赤外線反射の強い部分領域をドットであると認識するよう閾値を設けて判定させてもよい。 In this case, to print a dot pattern on a transparent sheet 9 by an ink having a property of selectively reflecting infrared radiation, the electronic pen 1, the processor 108, the image data captured by the CMOS camera 106, strong infrared reflection the partial area may be determined by providing a threshold value to recognize as a dot. その閾値は、ディスプレイから透明シート9を透過してくる赤外線と、ドットによって反射される赤外線とを区別できるよう設定する。 The threshold is set to be distinguished and infrared rays coming through the transparent sheet 9 from the display, and infrared rays reflected by the dot.

また、上記実施形態において、電子ペン1はインクカートリッジを有していないものとしたが、ペン部104をインクカートリッジとして電子ペン1で用紙402に直接文字等を書くことができるようにしてもよい。 In the above embodiment, the electronic pen 1 has been assumed that does not have the ink cartridge may be the pen unit 104 to be able to write characters directly like a sheet 402 with the electronic pen 1 as an ink cartridge . この場合、コンピュータ装置2では、電子ペン1で描かれたストロークを表示画面201には表示するが、プロジェクター3では投影しないような画像信号をコンピュータ装置2からプロジェクター3へ出力するようにするとよい。 In this case, the computer device 2, may While the display screen 201 depicted stroke with the electronic pen 1 is displayed, the image signal which does not project in the projector 3 from the computer 2 to be output to the projector 3. また、電子ペン1のCMOSカメラ106によって撮像された画像データからドットを認識しやすくするため、CMOSカメラ106に照射される光が赤外線だけとなるように、赤外線透過フィルターを電子ペン1の開口部102付近に設けてもよい。 Further, in order to easily recognize the dot from the image data captured by the CMOS camera 106 of the electronic pen 1, so that the light irradiated to the CMOS camera 106 is only an infrared, an infrared transmission filter of the electronic pen 1 opening 102 may be provided in the vicinity. また、ドットパターン(コード化パターン)は、アノト方式に限らなくともよい。 Further, the dot pattern (coding pattern) may not limited to the Anoto scheme.

情報処理システムは、学校の授業や企業での会議室、講演会、プレゼンテーションなどで利用することができる。 Information processing system, it is possible to use conference room in the classroom or corporate school, lectures, presentations and the like.

1…電子ペン 2…コンピュータ装置 21…入力手段 22…受信手段 24…処理手段 25…記憶手段 26…表示手段 27…送信手段 201…表示画面 3…プロジェクター 4…スクリーン 401…マグネット板(ホワイトボード) 1 ... electronic pen 2 ... computer device 21 ... Input means 22 ... receiving unit 24 ... processing means 25 ... storage means 26 ... display unit 27 ... transmitting unit 201 ... display screen 3 ... Projector 4 ... screen 401 ... Magnet plate (whiteboard)
402…用紙 403…座標入力領域(画像投影領域) 402 ... sheet 403 ... coordinate input region (image projection area)
6…ウィンドウ 9…透明シート 10,11,100…情報処理システム 6 ... window 9 ... transparent sheet 10,11,100 ... information processing system

Claims (4)

  1. 位置座標を示すコード化パターンが形成されたスクリーンと、 And screen coding pattern is formed which indicates the position coordinates,
    前記コード化パターンを読み取る読取手段と、 Reading means for reading said coded pattern,
    前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置と、 Receives information about the coding pattern transmitted from the reading means, and a computer device that performs processing corresponding to the information,
    前記コンピュータ装置からの画像信号を受信して、前記スクリーンに画像を投影するプロジェクターとを備える情報処理システムであって、 It receives the image signal from the computer device, an information processing system and a projector for projecting an image on the screen,
    前記コンピュータ装置は、 The computer device,
    スクリーンに画像が投影されたイメージ画像を表示するとともに前記読取手段で指示する位置を案内するための案内画像を記憶する記憶手段と、 Storage means for storing guide image for guiding the position designated by the reading means with the screen in the image display the images projected,
    前記案内画像を読み出して前記表示手段に表示させ、前記読取手段によって読み取られた前記指示位置のコード化パターンにより演算された前記スクリーン上の位置座標を、前記コンピュータ装置の表示手段における表示画面上の位置座標に変換するための座標変換関数を求める処理手段とを備えることを特徴とする情報処理システム。 Reading the guide image is displayed on the display unit, the position coordinates on the screen calculated by the coding pattern of the directing positions read by said reading means, on the display screen of the display unit of the computer system the information processing system characterized in that it comprises processing means for obtaining a coordinate transformation function for transforming the position coordinates.
  2. 位置座標を示すコード化パターンが形成された透明シートと、 A transparent sheet coded pattern is formed which indicates the position coordinates,
    前記コード化パターンを読み取る読取手段と、 Reading means for reading said coded pattern,
    前記読取手段から送信されたコード化パターンに関する情報を受信して、当該情報に応じた処理を行うコンピュータ装置とを備える情報処理システムであって、 Receives information about transmitted coded pattern from said reading means, an information processing system comprising a computer apparatus that performs processing corresponding to the information,
    前記透明シートは、前記コンピュータ装置の表示手段の表示画面に貼付されており、 The transparent sheet is affixed to the display screen of the display means of the computer device,
    前記コンピュータ装置は、 The computer device,
    前記表示画面のイメージ画像を表示するとともに前記読取手段で指示する位置を案内するための案内画像を記憶する記憶手段と、 Storage means for storing guide image for guiding the position designated by the reading means displays an image of the display screen,
    前記案内画像を読み出して前記表示手段に表示させ、前記読取手段によって読み取られた前記指示位置のコード化パターンにより演算された前記透明シート上の位置座標を、前記コンピュータ装置の表示手段における表示画面上の位置座標に変換するための座標変換関数を求める処理手段とを備えることを特徴とする情報処理システム。 Reading the guide image is displayed on the display unit, the reading position coordinates of the indicated position coding on the transparent sheet which is calculated by the pattern read by means, on the display screen of the display unit of the computer system the information processing system characterized in that it comprises processing means for obtaining a coordinate transformation function for transforming the position coordinates.
  3. 前記処理手段は、前記案内画像を前記表示画面よりも小さい範囲で中央に表示させ、 It said processing means to display the guide image in the center with a smaller range than the display screen,
    前記読取手段で指示する前記指示位置は、前記表示画面の角隅に対応する位置であることを特徴とする請求項1又は2に記載の情報処理システム。 The indication position, an information processing system according to claim 1 or 2, characterized in that a position corresponding to the corner of the display screen indicated by the reading means.
  4. 前記案内画像は、前記読取手段で指示する前記指示位置を矢印で示すことを特徴とする請求項1〜3のいずれか一項に記載の情報処理システム。 The guide image is an information processing system according to claim 1, characterized in that indicating the instruction position designated by the reading means by an arrow.
JP2009002757U 2009-04-28 2009-04-28 Information processing system Expired - Fee Related JP3151886U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009002757U JP3151886U (en) 2009-04-28 2009-04-28 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009002757U JP3151886U (en) 2009-04-28 2009-04-28 Information processing system

Publications (1)

Publication Number Publication Date
JP3151886U true true JP3151886U (en) 2009-07-09

Family

ID=54856248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009002757U Expired - Fee Related JP3151886U (en) 2009-04-28 2009-04-28 Information processing system

Country Status (1)

Country Link
JP (1) JP3151886U (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011060115A (en) * 2009-09-11 2011-03-24 Dainippon Printing Co Ltd Information processing system and display processing program
JP2011081738A (en) * 2009-10-09 2011-04-21 Dainippon Printing Co Ltd Information processing system and program for the same
JP2011126225A (en) * 2009-12-21 2011-06-30 Hitachi Solutions Ltd Frontal projection type electronic blackboard system and method for starting calibration
JP2011143557A (en) * 2010-01-12 2011-07-28 Panasonic Corp Electronic pen system
JP2011253343A (en) * 2010-06-02 2011-12-15 Dainippon Printing Co Ltd Information processing system and display processing program
JP2012014237A (en) * 2010-06-29 2012-01-19 Dainippon Printing Co Ltd Information processing system and display processing program
JP2012022430A (en) * 2010-07-13 2012-02-02 Dainippon Printing Co Ltd Information processing system and program thereof
WO2014193136A1 (en) * 2013-05-29 2014-12-04 최우혁 Electronic device, control method of electronic device and computer readable recording medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011060115A (en) * 2009-09-11 2011-03-24 Dainippon Printing Co Ltd Information processing system and display processing program
JP2011081738A (en) * 2009-10-09 2011-04-21 Dainippon Printing Co Ltd Information processing system and program for the same
JP2011126225A (en) * 2009-12-21 2011-06-30 Hitachi Solutions Ltd Frontal projection type electronic blackboard system and method for starting calibration
JP2011143557A (en) * 2010-01-12 2011-07-28 Panasonic Corp Electronic pen system
JP2011253343A (en) * 2010-06-02 2011-12-15 Dainippon Printing Co Ltd Information processing system and display processing program
JP2012014237A (en) * 2010-06-29 2012-01-19 Dainippon Printing Co Ltd Information processing system and display processing program
JP2012022430A (en) * 2010-07-13 2012-02-02 Dainippon Printing Co Ltd Information processing system and program thereof
WO2014193136A1 (en) * 2013-05-29 2014-12-04 최우혁 Electronic device, control method of electronic device and computer readable recording medium
CN105247574A (en) * 2013-05-29 2016-01-13 五大洋有限公司 Electronic device, control method of electronic device and computer readable recording medium
US9998671B2 (en) 2013-05-29 2018-06-12 Oceans Co., Ltd. Electronic apparatus, method of controlling the same, and computer-readable recording medium
CN105247574B (en) * 2013-05-29 2018-09-21 五大洋有限公司 The method of controlling an electronic device, an electronic device and a computer-readable recording medium

Similar Documents

Publication Publication Date Title
EP0622722B1 (en) Interactive copying system
US6760009B2 (en) Coordinate position inputting/detecting device, a method for inputting/detecting the coordinate position, and a display board system
US7295193B2 (en) Written command
US20050264541A1 (en) Information input/output apparatus, information input/output control method, and computer product
US20110102599A1 (en) Mobile terminal including projector and control method thereof
US6958747B2 (en) Method for making a product
JP2000298544A (en) Input/output device and its method
US20120263381A1 (en) Handwriting input/output system, handwriting input sheet, information input system, and information input assistance sheet
JP2000105671A (en) Coordinate input and detecting device, and electronic blackboard system
WO2008002239A1 (en) Operation control and data processing in an electronic pen
JP3137005U (en) Terminal equipment
US20080285070A1 (en) Electronic writing instrument, computer system, electronic writing method and computer readable medium
JP2007048135A (en) Method for acquiring coordinate position on projection plane using dmd
JP2000043484A (en) Electronic whiteboard system
JP4291405B1 (en) Mouse with a dot pattern reading function
JP2004139534A (en) Document creating system, book for creating document, and method for creating document
JP2008176802A (en) Coordinate input/detection device and electronic blackboard system
JP2003508831A (en) Systems and devices for electronic recording of handwritten information
JP2004048296A (en) Handwritten message system, writing material, message paper, handwritten message method, and handwritten message program
JP2000259338A (en) Input system, display system, presentation system and information storage medium
CN1388925A (en) Pen type optical mouse device and method of controlling the same
US20090078475A1 (en) Coding and Decoding Methods and Apparatuses
US20130011065A1 (en) Input-output device and information input-output system
US20100073330A1 (en) Methods and Devices Relating To Transfer of Non-Pen Stroke Data
JP2009251925A (en) Electronic pen system and its program

Legal Events

Date Code Title Description
R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120617

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120617

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130617

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees