JP2011103092A - Information processing system and display processing program - Google Patents

Information processing system and display processing program Download PDF

Info

Publication number
JP2011103092A
JP2011103092A JP2009258426A JP2009258426A JP2011103092A JP 2011103092 A JP2011103092 A JP 2011103092A JP 2009258426 A JP2009258426 A JP 2009258426A JP 2009258426 A JP2009258426 A JP 2009258426A JP 2011103092 A JP2011103092 A JP 2011103092A
Authority
JP
Japan
Prior art keywords
character
entry area
movement path
calculated
inclination angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009258426A
Other languages
Japanese (ja)
Other versions
JP4894905B2 (en
Inventor
Hirosuke Sugihara
弘祐 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009258426A priority Critical patent/JP4894905B2/en
Publication of JP2011103092A publication Critical patent/JP2011103092A/en
Application granted granted Critical
Publication of JP4894905B2 publication Critical patent/JP4894905B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing system which improves a degree of freedom in handwritten character input in consideration of habits or a posture of a user who inputs characters, or the like. <P>SOLUTION: On a screen 4 in which an encoded pattern indicating coordinate positions is formed, handwritten characters are input to a character input area 406 by an electronic pen 1 which is provided with an imaging device and successively recognizes the coordinate positions by the pattern. An inclination angle (θ) of the input character string is calculated from the coordinate positions, and a character writing area 206 of a computer apparatus 2 is rotated based on the calculated inclination angle (θ). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、位置座標を示すコード化パターンを用いて情報を入力することができる情報処理システムに関し、特に、ユーザが文字や記号などを記入するための領域の制御に関する。   The present invention relates to an information processing system capable of inputting information using a coding pattern indicating position coordinates, and more particularly to control of an area for a user to enter characters, symbols, and the like.

近年、記入した情報を電子化する電子ペンが開発されており、その代表的なものとしてスウェーデンのAnoto社が開発した「アノトペン(Anoto Pen)」が知られている。アノトペンは、所定のアルゴリズムによりパターン化された位置座標を示すドットパターンが印刷された専用紙(以下、単に「専用紙」という。)とともに使用される。   In recent years, electronic pens that digitize written information have been developed, and “Anoto Pen” developed by Anoto, Sweden, is known as a representative one. Anotopen is used together with dedicated paper (hereinafter, simply referred to as “exclusive paper”) on which a dot pattern indicating position coordinates patterned by a predetermined algorithm is printed.

具体的には、アノトペンは、ペン先部に、専用紙に印刷されたドットパターンを撮像するための小型カメラと、撮像したドットパターンから専用紙における位置座標を演算するプロセッサと、演算された位置座標等を外部機器へ送信するデータ通信ユニットとを搭載している。また、ユーザが専用紙上にアノトペンで文字等を書いた場合に、または、専用紙上に図案化されている画像にチェックマークを記入した場合に、ペンの移動に伴って小型カメラが専用紙に印刷されたドットパターンを撮像して、プロセッサによって演算された連続する位置座標から、ユーザが記入した文字、記号または図形などの情報(以下、「記入情報」という。)が生成される。その後、この生成された記入情報が、データ通信ユニットによりアノトペンから近くのパーソナルコンピュータや携帯電話などの端末装置に送信される(例えば、特許文献1参照)。   Specifically, the anotopen has a small camera for capturing a dot pattern printed on dedicated paper at the pen tip, a processor for calculating position coordinates on the dedicated paper from the captured dot pattern, and a calculated position. It is equipped with a data communication unit that transmits coordinates etc. to external devices. In addition, when a user writes characters on the special paper with an anotopen, or when a check mark is entered in the image designed on the special paper, the small camera prints on the special paper as the pen moves. The captured dot pattern is imaged, and information (hereinafter referred to as “entry information”) such as characters, symbols, or figures entered by the user is generated from successive position coordinates calculated by the processor. Thereafter, the generated entry information is transmitted from the Anotopen to a terminal device such as a nearby personal computer or mobile phone by the data communication unit (see, for example, Patent Document 1).

また、コンピュータ装置の表示画面上を専用のペンその他のもので触れることによって文字や記号を記入し、それらの情報を取得する情報処理システムが提案されている。そして、その一つとして、所定の画面上の領域にユーザによって手書きされた文字を記入するための文字記入領域を用いるものが知られている。例えば、このような文字記入領域を用いるシステムとしては、文字記入領域が予め設定されており、当該文字記入領域に手書きされた文字又は記号などを取得させることによって、文字の記入を行う記入者(いわゆる、ユーザ)に対してその記入時の負担を軽減させる(例えば、特許文献2)。   In addition, an information processing system has been proposed in which characters and symbols are entered by touching a display screen of a computer device with a dedicated pen or the like and the information is acquired. As one of them, there is known one using a character entry area for entering a character handwritten by a user in an area on a predetermined screen. For example, as a system using such a character entry area, a character entry area is set in advance, and a person who fills in a character by acquiring a handwritten character or symbol in the character entry area ( The burden at the time of entry is reduced for a so-called user (for example, Patent Document 2).

さらに、このような情報処理システムを自動車などの移動体におけるナビゲーション装置の入力インターフェースとして用いるものも知られている(例えば、特許文献3)。このシステムにおいては、ユーザの指示に基づいて文字記入領域の傾斜角度が設定されるとともに、当該設定された傾斜角度に基づいて記入された文字又は記号の情報が取得される。   Furthermore, what uses such an information processing system as an input interface of the navigation apparatus in moving bodies, such as a car, is also known (for example, patent documents 3). In this system, the inclination angle of the character entry area is set based on the user's instruction, and information on the characters or symbols entered based on the set inclination angle is acquired.

一方、文字記入領域を設定せずに、ユーザに自由に文字又は記号を記入させ、それらの記入された文字又は記号に基づいて、筆記された文字列としての方向(筆記方向)、文字の大きさ及び各文字の方向(文字方向)を解析する情報処理システムも知られている(例えば、特許文献4)。   On the other hand, without setting a character entry area, the user can freely enter characters or symbols, and based on those characters or symbols, the direction as a written character string (writing direction), the size of the character An information processing system that analyzes the direction of each character (character direction) is also known (for example, Patent Document 4).

特表2003−511761号公報Japanese translation of PCT publication No. 2003-511761 特開平8−50530号公報JP-A-8-50530 特開2008−250679号公報JP 2008-250679 A 特開2002−175498号公報JP 2002-175498 A

しかしながら、特許文献2乃至4に記載の手書き文字を入力するシステムの何れにおいても、スムーズな文字入力を実行させるためのシステムとしては構築されていない。   However, none of the systems for inputting handwritten characters described in Patent Documents 2 to 4 is constructed as a system for executing smooth character input.

例えば、特許文献2に記載の情報処理システムにあっては、傾斜された文字記入領域に文字を記入させる旨の記載はあるものの、文字記入中における文字記入領域の移動または回転など当該文字記入領域の範囲を変化させる旨の記載は無い。したがって、この情報処理システムは、ユーザの癖または当該ユーザの文字入力中における状況によっては、文字の入力中においてユーザが文字入力をスムーズに実行することが難しい場合がある。   For example, in the information processing system described in Patent Document 2, although there is a description that characters are entered in the inclined character entry area, the character entry area such as movement or rotation of the character entry area during character entry There is no description to change the range. Therefore, in this information processing system, it may be difficult for the user to smoothly perform character input during character input depending on the user's habit or the situation during the user's character input.

また、特許文献3に記載のナビゲーション装置にあっては、文字を記入する前にユーザによって文字記入領域の傾斜が設定され、当該文字記入領域が固定されている旨が記載されているものの、文字記入領域の移動または回転など、文字記入中に当該文字記入領域の範囲を変化させる旨の記載は無い。したがって、特許文献2と同様に、このナビゲーション装置は、ユーザの癖または当該ユーザの文字入力中における状況によっては、文字の入力中においてユーザが文字入力をスムーズに実行することが難しい場合がある。   In addition, in the navigation device described in Patent Document 3, it is described that the inclination of the character entry area is set by the user before the character is entered and the character entry area is fixed. There is no description to change the range of the character entry area during character entry, such as movement or rotation of the entry area. Therefore, as in Patent Literature 2, depending on the situation of the user's habit or the user's character input, it may be difficult for the user to smoothly execute the character input during character input.

一方、特許文献4に記載の情報処理システムにあっては、そもそも、文字の入力位置を補助し、かつ、認識処理などの処理負担を軽減するための文字記入領域を表示させる機能が無く、文字が記入される位置が固定されていないので、文字記入領域の範囲を変化させる概念そのものがない。   On the other hand, the information processing system described in Patent Document 4 does not have a function of displaying a character entry area for assisting a character input position and reducing a processing load such as recognition processing. Since the position where the character is entered is not fixed, there is no concept of changing the range of the character entry area.

本発明は、上記課題を解決するためになされたものであり、その目的は、ユーザの癖または当該ユーザの文字入力中における状況を勘案し、文字の入力中においてユーザが文字入力をスムーズに実行することが可能な情報処理システム及び表示処理プログラムを提供することにある。   The present invention has been made to solve the above-mentioned problems, and its purpose is to allow the user to smoothly input characters during character input in consideration of the user's habit or the situation during character input by the user. Another object is to provide an information processing system and a display processing program that can be used.

(1)上記課題を解決するため、本発明は、ユーザによる操作に基づいて位置座標を示すコード化パターンが形成されたスクリーン上を移動した際に、前記コード化パターンを移動経路に沿って読み取る読取手段と、前記読取手段によって読み取ったコード化パターンのデータに基づいて移動経路の座標を算出する算出手段と、前記算出された移動経路の座標に基づいて形成される当該移動経路の形状を、画像として前記スクリーンに投影する投影手段に出力する投影出力手段と、前記スクリーン上に投影される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段と、を備え、前記回転制御手段が、前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させる構成を有している。   (1) In order to solve the above-described problem, the present invention reads the coded pattern along a movement path when moving on a screen on which a coded pattern indicating position coordinates is formed based on an operation by a user. Reading means, calculation means for calculating the coordinates of the movement path based on the data of the coded pattern read by the reading means, and the shape of the movement path formed based on the calculated coordinates of the movement path, Projection output means for outputting to the projection means for projecting onto the screen as an image, and character entry for processing the shape of the movement path as a character in an area formed in a part of the image projected on the screen Rotation control means for rotating the area based on the shape of the movement path in the character entry area, and the rotation control means is the user A character string composed of the shape of the movement path of the reading means during the entry of the character moving in the character entry area by the reading means based on the operation, and in the character entry area being entered The inclination angle of the character string is calculated, and the character entry area is rotated based on the calculated inclination angle.

この構成により、本発明は、ユーザによって読取手段が移動させられて文字記入領域内に文字が入力されると、読取手段の移動経路が入力された文字列としてスクリーンに投影されるとともに、当該文字の記入中にユーザによって入力された文字列の傾斜角度を算出し、算出された傾斜角度に基づいてこの文字記入領域を回転させることができる。したがって、本発明は、ユーザの癖または当該ユーザのスクリーンに対する立ち位置による記入状況など、文字入力中におけるユーザの状況を勘案して文字の入力中にユーザにスムーズに文字を入力させることができる。   With this configuration, when the reading means is moved by the user and a character is input into the character entry area, the present invention projects the moving path of the reading means onto the screen as the input character string, and It is possible to calculate the inclination angle of the character string input by the user during the entry of, and rotate the character entry area based on the calculated inclination angle. Therefore, according to the present invention, it is possible to allow the user to smoothly input a character during character input in consideration of the user's situation during character input, such as a user's habit or an entry state depending on the user's standing position on the screen.

(2)上記課題を解決するため、本発明は、ユーザによる操作に基づいて位置座標を示すコード化パターンが形成された光透過性シート上を移動した際に、前記コード化パターンを移動経路に沿って読み取る読取手段と、前記読取手段によって読み取ったコード化パターンのデータに基づいて移動経路の座標を算出する算出手段と、前記算出された移動経路の座標に基づいて形成される当該移動経路の形状を、画像として前記光透過性シートの背面から、当該光透過性シートの前面から視覚可能に表示する表示手段に出力する表示出力手段と、前記光透過性シート上に表示される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段と、を備え、前記回転制御手段が、前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させる構成を有している。   (2) In order to solve the above-described problem, the present invention uses the coded pattern as a movement path when moving on a light-transmitting sheet on which a coded pattern indicating position coordinates is formed based on an operation by a user. Reading means for reading along, calculation means for calculating the coordinates of the movement path based on the data of the coded pattern read by the reading means, and the movement path formed based on the calculated coordinates of the movement path Display output means for outputting a shape as an image from a back surface of the light transmissive sheet to a display means for visual display from the front surface of the light transmissive sheet; and one of images displayed on the light transmissive sheet. A character entry area for processing the shape of the movement path as a character is formed based on the shape of the movement path in the character entry area. Rotation control means, and the rotation control means has a shape of a movement path of the reading means while the reading means is entering a character moving in the character entry area based on an operation of the user. The character string is configured to calculate an inclination angle of the character string in the character entry area being entered, and to rotate the character entry area based on the calculated inclination angle. .

この構成により、本発明は、ユーザによって読取手段が移動させられて文字記入領域内に文字が入力されると、読取手段の移動経路が入力された文字列として光透過性シートに表示されるとともに、当該文字の記入中にユーザによって入力された文字列の傾斜角度を算出し、算出された傾斜角度に基づいてこの文字記入領域を回転させることができる。したがって、本発明は、ユーザの癖または当該ユーザのスクリーンに対する立ち位置による記入状況など、文字入力中におけるユーザの状況を勘案して文字の入力中にユーザにスムーズに文字を入力させることができる。   With this configuration, when the reading unit is moved by the user and a character is input into the character entry area, the moving path of the reading unit is displayed on the light transmissive sheet as the input character string. The inclination angle of the character string input by the user during the entry of the character can be calculated, and the character entry area can be rotated based on the calculated inclination angle. Therefore, according to the present invention, it is possible to allow the user to smoothly input a character during character input in consideration of the user's situation during character input, such as a user's habit or an entry state depending on the user's standing position on the screen.

(3)上記情報処理システムにおいて、前記回転制御手段が、前記文字の記入中であって所定のタイミング毎に、前記文字列の傾斜角度を算出し、当該傾斜角度が算出される毎に前記文字記入領域を回転させる構成としてもよい。   (3) In the information processing system, the rotation control unit calculates an inclination angle of the character string at every predetermined timing while the character is being entered, and the character is calculated each time the inclination angle is calculated. It is good also as a structure which rotates an entry area.

この構成により、ユーザによって読取手段が移動させられて文字記入領域内に文字が入力されると、所定のタイミング毎にユーザによって入力された文字列の傾斜角度を算出し、算出された傾斜角度に基づいてこの文字記入領域を回転させることができる。したがって、ユーザの癖または当該ユーザのスクリーンに対する立ち位置による記入状況など、文字入力におけるユーザの状況の変化に合わせて文字記入領域を回転させることができるので、文字の入力中にユーザの状況が変化してもユーザにスムーズに文字を入力させることができる。   With this configuration, when the reading means is moved by the user and a character is input in the character entry area, the inclination angle of the character string input by the user is calculated every predetermined timing, and the calculated inclination angle is set. Based on this, the character entry area can be rotated. Therefore, the character entry area can be rotated in accordance with changes in the user's situation in character input, such as the entry situation depending on the user's habit or the user's standing position on the screen, so that the user's situation changes during character input. Even so, the user can input characters smoothly.

(4)さらに、上記情報処理システムにおいて、前記文字記入領域内の前記移動経路の形状に基づいて文字認識を実行する文字認識処理手段を更に有し、前記回転制御手段が、前記所定のタイミングとして前記文字認識処理手段によって一文字認識される毎に、当該一文字として認識された際に用いられた移動経路群に基づいて前記文字列の傾斜角度を算出する構成とするとよい。   (4) The information processing system may further include character recognition processing means for executing character recognition based on the shape of the movement path in the character entry area, and the rotation control means may be configured as the predetermined timing. Each time the character recognition processing unit recognizes one character, the inclination angle of the character string may be calculated based on the movement path group used when the character is recognized as the character.

この構成により、一文字毎に文字列の傾斜角度を算出することができるので、ユーザが記入した文字列を的確に把握しつつ、文字列の傾斜角度を算出することができる。したがって、ユーザが記入した文字列に的確に対応させて文字記入領域を回転させることができる。   With this configuration, the inclination angle of the character string can be calculated for each character. Therefore, the inclination angle of the character string can be calculated while accurately grasping the character string entered by the user. Therefore, it is possible to rotate the character entry area so as to accurately correspond to the character string entered by the user.

(5)さらにまた、上記情報処理システムにおいて、前記回転制御手段が、前記文字の認識処理手段によって一文字認識される毎に、当該認識された文字の移動経路群に基づいて定められる基準点を求め、当該求められた各基準点に基づいて前記文字列の傾斜角度を算出する構成とするとよい。   (5) Furthermore, in the information processing system, each time the rotation control unit recognizes one character by the character recognition processing unit, a reference point determined based on a movement path group of the recognized character is obtained. The inclination angle of the character string may be calculated based on the obtained reference points.

この構成により、各文字の中心点若しくは重心などの所定の演算により算出された点または各文字の座標上の最上点若しくは最下点など予め定められたサンプルとなる点に基づいて文字列の傾斜角度を算出することができるので、各文字の算出点またはサンプル点などの基準点を比較するだけで文字列の傾斜角度を算出することができる。したがって、容易にかつ確実にこの文字列の傾斜角度を算出することができる。   With this configuration, the inclination of the character string is based on a point calculated by a predetermined calculation such as the center point or the center of gravity of each character, or a predetermined sample point such as the uppermost point or the lowermost point on the coordinates of each character. Since the angle can be calculated, the inclination angle of the character string can be calculated simply by comparing the reference point such as the calculation point or sample point of each character. Therefore, the inclination angle of this character string can be calculated easily and reliably.

(6)また、上記情報処理システムにおいて、前記文字認識処理手段が、前記文字記入領域を回転させている場合には、当該文字記入領域の傾斜角度に基づいて、前記文字列を構成する移動経路を、回転する前の文字記入領域に相当する移動経路に変換して前記文字列の文字認識を再度実行する構成とするのが好ましい。   (6) Further, in the information processing system, when the character recognition processing unit rotates the character entry area, a movement path that forms the character string based on an inclination angle of the character entry area. Is preferably converted into a movement path corresponding to the character entry area before rotation, and character recognition of the character string is executed again.

この構成により、文字記入領域の回転角度に基づいて、読取手段の移動経路を、回転する前の文字記入領域に対応する移動経路に変換することができるので、記入された各文字における傾斜が生じていない状態によって文字列の認識処理を再度実行することができる。したがって、文字認識の精度を向上させることができる。   With this configuration, since the moving path of the reading means can be converted into a moving path corresponding to the character entry area before the rotation based on the rotation angle of the character entry area, an inclination occurs in each entered character. The character string recognition process can be executed again depending on the status of the character string not being displayed. Therefore, the accuracy of character recognition can be improved.

(7)また、上記情報処理システムにおいて、前記回転制御手段が、前記所定のタイミングとして前記移動経路の構成要素である一ストロークが特定される毎に、当該各ストロークに含まれる前記移動経路の座標群に基づいて前記文字列の傾斜角度を算出して前記文字記入領域を回転させる構成とするとよい。   (7) In the information processing system, each time the rotation control unit specifies one stroke that is a component of the movement path as the predetermined timing, the coordinates of the movement path included in each stroke It is preferable that the character entry area is rotated by calculating the inclination angle of the character string based on the group.

この構成により、移動経路のストローク毎に、文字列の傾斜角度を算出することができるので、ユーザの記入した文字における形状を確実に把握しつつ、文字列の傾斜角度を算出することができるとともに、ストロークの形状さえ特定されれば、文字列の傾斜角度を算出することができるので、文字認識処理との連動など複雑な処理を実行することなく、文字列の傾斜角度を算出することができる。   With this configuration, the inclination angle of the character string can be calculated for each stroke of the movement path, so that the inclination angle of the character string can be calculated while reliably grasping the shape of the character entered by the user. Since the stroke angle of the character string can be calculated as long as the shape of the stroke is specified, the tilt angle of the character string can be calculated without executing complicated processing such as interlocking with the character recognition processing. .

(8)さらに、上記情報処理システムにおいて、前記回転制御手段が、前記一ストロークが特定される毎に、各ストロークに含まれる前記移動経路の座標群に基づいて定められる基準点を求め、当該求められた各基準点に基づいて前記文字列の傾斜角度を算出する構成とするとよい。   (8) Further, in the information processing system, each time the one stroke is specified, the rotation control unit obtains a reference point determined based on a coordinate group of the movement path included in each stroke, and obtains the reference point. The inclination angle of the character string may be calculated based on each reference point.

この構成により、各ストロークの中心点などの所定の演算により算出された点または各ストロークの最上点若しくは最下点など予め定められたサンプル点に基づいて文字列の傾斜角度を算出することができるので、各文字の算出点またはサンプル点などの基準点を比較するだけで文字列の傾斜角度を算出することができる。したがって、容易にかつ確実にこの文字列の傾斜角度を算出することができる。   With this configuration, the inclination angle of the character string can be calculated based on a point calculated by a predetermined calculation such as the center point of each stroke or a predetermined sample point such as the highest point or the lowest point of each stroke. Therefore, the inclination angle of the character string can be calculated simply by comparing the reference point such as the calculation point or sample point of each character. Therefore, the inclination angle of this character string can be calculated easily and reliably.

(9)また、上記情報処理システムにおいて、前記文字記入領域内の前記移動経路の形状に基づいて文字認識を実行する文字認識処理手段を更に備える構成とするとよい。   (9) The information processing system may further include character recognition processing means for performing character recognition based on the shape of the movement path in the character entry area.

この構成により、文字列の傾斜角度の算出とは別の処理として文字認識の処理を実行することができるので、文字列の傾斜角度の算出と文字認識を連動させる必要がなく、それぞれの処理を簡易に構築することができる。   With this configuration, the character recognition process can be executed as a process separate from the calculation of the inclination angle of the character string, so there is no need to link the calculation of the inclination angle of the character string and the character recognition. It can be constructed easily.

(10)さらに、上記情報処理システムにおいて、前記文字認識処理手段が、前記文字記入領域を回転させている場合には、当該文字記入領域の回転角度に基づいて、前記読取手段の移動経路を回転する前の文字記入領域に相当する移動経路に変換して前記文字認識を実行する構成を有するとよい。   (10) Further, in the information processing system, when the character recognition processing means rotates the character entry area, the movement path of the reading means is rotated based on the rotation angle of the character entry area. It is preferable that the character recognition is performed by converting to a movement path corresponding to the character entry area before the character entry.

この構成により、文字記入領域の回転角度に基づいて、読取手段の移動経路を、回転する前の文字記入領域に対応する移動経路に変換することができるので、記入された各文字における傾斜が生じていない状態によって文字列の認識処理を実行することができる。したがって、文字認識の精度を向上させることができる。   With this configuration, since the moving path of the reading means can be converted into a moving path corresponding to the character entry area before the rotation based on the rotation angle of the character entry area, an inclination occurs in each entered character. The character string recognition process can be executed depending on the state of the character that is not. Therefore, the accuracy of character recognition can be improved.

(11)また、上記情報処理システムにおいて、前記回転制御手段が、前記文字列の傾斜角度が既に算出されている場合には、当該既に算出された一以上の第1の傾斜角度と新規に算出された第2の傾斜角度とに基づいて新たな第3の傾斜角度を算出し、当該算出された第3の傾斜角度に基づいて前記文字記入領域を回転させる構成とするとよい。   (11) In the information processing system, when the rotation angle of the character string has already been calculated, the rotation control unit newly calculates one or more first inclination angles that have already been calculated. A new third tilt angle may be calculated based on the second tilt angle and the character entry area may be rotated based on the calculated third tilt angle.

この構成により、既に記入された文字列を勘案して傾斜角度を算出することができるので、文字記入領域の回転をユーザの記入状況に併せて確実に回転させることができる。   With this configuration, the inclination angle can be calculated in consideration of the already entered character string, so that the rotation of the character entry area can be reliably rotated in accordance with the user entry situation.

(12)また、上記情報処理システムにおいて、前記スクリーンに投影される画像と同一の画像が表示される表示手段の表示制御を行う表示制御手段と、前記算出手段によって算出された座標を、前記表示手段の表示画面の座標に変換する座標変換手段と、を更に備え、前記回転制御手段が、前記座標変換手段によって変換された座標に基づいて、前記文字記入領域を回転させる構成とするとよい。   (12) In the information processing system, the display control unit that performs display control of a display unit that displays the same image as the image projected on the screen, and the coordinates calculated by the calculation unit are displayed on the display unit. It is preferable to further comprise coordinate conversion means for converting the display screen coordinates of the means, wherein the rotation control means rotates the character entry area based on the coordinates converted by the coordinate conversion means.

この構成により、算出手段によって算出された座標が座標変換手段によって表示手段の表示画面の座標に変換されたうえで、文字記入領域を回転させるので、スクリーンと表示手段の表示画面の異なる座標系を用いても文字記入領域の回転処理を確実に実行することができる。   With this configuration, the coordinates calculated by the calculation means are converted into the coordinates of the display screen of the display means by the coordinate conversion means, and the character entry area is rotated, so that different coordinate systems for the screen and the display screen of the display means are used. Even if it is used, the rotation process of the character entry area can be surely executed.

(13)あるいは、上記情報処理システムにおいて、前記算出手段によって算出された座標を、前記表示手段の表示画面の座標に変換する座標変換手段を更に備え、前記回転制御手段が、前記座標変換手段によって変換された座標に基づいて、前記文字記入領域を回転させる構成とするとよい。   (13) Alternatively, in the information processing system, the information processing system further includes coordinate conversion means for converting the coordinates calculated by the calculation means into coordinates on a display screen of the display means, and the rotation control means is controlled by the coordinate conversion means. The character entry area may be rotated based on the converted coordinates.

この構成により、算出手段によって算出された座標が座標変換手段によって表示手段の表示画面の座標に変換されたうえで、文字記入領域を回転させるので、スクリーンと表示手段の表示画面の異なる座標系を用いても文字記入領域の回転処理を確実に実行することができる。   With this configuration, the coordinates calculated by the calculation means are converted into the coordinates of the display screen of the display means by the coordinate conversion means, and the character entry area is rotated, so that different coordinate systems for the screen and the display screen of the display means are used. Even if it is used, the rotation process of the character entry area can be surely executed.

(14)また、上記課題を解決するため、位置座標を示すコード化パターンを読み取るとともに移動経路の座標を算出する電子ペンが、ユーザによる操作に基づいて当該コード化パターンが形成されたスクリーン上を移動した際に、当該電子ペンの移動経路を示す形状を当該スクリーンに表示するための情報処理を行うコンピュータにより実行される表示処理プログラムであって、前記コンピュータを、前記算出された移動経路の座標に基づいて形成される当該移動経路の形状を、画像として前記スクリーンに投影する投影手段に出力する投影出力手段、前記スクリーン上に投影される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段、として機能させるとともに、前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させるように前記コンピュータを前記回転制御手段として更に機能させる構成を有している。   (14) Further, in order to solve the above-described problem, an electronic pen that reads the coded pattern indicating the position coordinates and calculates the coordinates of the movement path is displayed on the screen on which the coded pattern is formed based on the operation by the user. A display processing program executed by a computer that performs information processing for displaying a shape indicating a movement path of the electronic pen on the screen when moved, the computer displaying the coordinates of the calculated movement path A projection output means for outputting the shape of the movement path formed on the basis of the image to a projection means for projecting the image on the screen as an image, an area formed in a part of the image projected on the screen, and the movement A character entry area for processing the shape of the route as a character is based on the shape of the movement route in the character entry area. It functions as a rotation control means for rotating, and is constituted by the shape of the moving path of the reading means while the reading means is writing a character moving in the character entry area based on the user's operation. The computer is used as the rotation control means so as to calculate an inclination angle of the character string in the character entry area being entered and to rotate the character entry area based on the calculated inclination angle. Furthermore, it has the structure which makes it function.

上記プログラムをコンピュータ装置にインストールすることにより、本発明に係る情報処理システムを構成させることができる。   An information processing system according to the present invention can be configured by installing the above program in a computer device.

(15)また、上記課題を解決するため、位置座標を示すコード化パターンを読み取るとともに移動経路の座標を算出する電子ペンが、ユーザによる操作に基づいて当該コード化パターンが形成されたスクリーン上を移動した際に、当該電子ペンの移動経路を示す形状を当該スクリーンに表示するための情報処理を行うコンピュータにより実行される表示処理プログラムであって、前記コンピュータを、前記算出された移動経路の座標に基づいて当該移動経路の形状を画像として前記光透過性シートの背面から、当該光透過性シートの前面から視覚可能に表示する表示手段に出力する表示出力手段、前記光透過性シート上に表示される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段、として機能させるとともに、前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させるように前記コンピュータを前記回転制御手段として更に機能させる構成を有している。   (15) Further, in order to solve the above-described problem, an electronic pen that reads the coded pattern indicating the position coordinates and calculates the coordinates of the movement path is displayed on the screen on which the coded pattern is formed based on the operation by the user. A display processing program executed by a computer that performs information processing for displaying a shape indicating a movement path of the electronic pen on the screen when moved, the computer displaying the coordinates of the calculated movement path Display output means for outputting the shape of the movement path as an image from the back surface of the light transmissive sheet to the display means for visual display from the front surface of the light transmissive sheet, and displayed on the light transmissive sheet. A character entry area for processing the shape of the movement path as a character, which is an area formed in a part of the image to be processed. While functioning as a rotation control means that rotates based on the shape of the movement path in the character entry area, and while the reading means is entering characters that are moving in the character entry area based on the operation of the user , A character string composed of the shape of the movement path of the reading means, calculating the inclination angle of the character string in the character entry area being entered, and the character entry area based on the calculated inclination angle The computer further functions as the rotation control means so as to rotate the computer.

上記プログラムをコンピュータ装置にインストールすることにより、本発明に係る情報処理システムを構成させることができる。   An information processing system according to the present invention can be configured by installing the above program in a computer device.

本発明は、ユーザによって読取手段が移動させられて文字記入領域内に文字が入力されると、読取手段の移動経路が入力された文字列としてスクリーンに投影されるとともに、当該文字の記入中にユーザによって入力された文字列の傾斜角度を算出し、算出された傾斜角度に基づいてこの文字記入領域を回転させることができる。したがって、本発明は、ユーザの癖または当該ユーザのスクリーンに対する立ち位置による記入状況など、文字入力中におけるユーザの状況を勘案して文字の入力中にユーザにスムーズに文字を入力させることができる。   In the present invention, when a reading means is moved by a user and a character is input into a character entry area, the movement path of the reading means is projected on a screen as an input character string, The inclination angle of the character string input by the user can be calculated, and the character entry area can be rotated based on the calculated inclination angle. Therefore, according to the present invention, it is possible to allow the user to smoothly input a character during character input in consideration of the user's situation during character input, such as a user's habit or an entry state depending on the user's standing position on the screen.

第1実施形態における情報処理システムのシステム構成図である。It is a system configuration figure of the information processing system in a 1st embodiment. ドットパターンにおけるドットの配置とそのドットが変換される値との関係を説明する図である。It is a figure explaining the relationship between the arrangement | positioning of the dot in a dot pattern, and the value into which the dot is converted. ドットパターンを説明するための図であり、(a)は、ドットパターンを模式的に示し、(b)は、それに対応する情報の例を示す。It is a figure for demonstrating a dot pattern, (a) shows a dot pattern typically, (b) shows the example of the information corresponding to it. 電子ペンの構造を示す概略図であるとともに、その機能を示すブロック図である。It is the schematic which shows the structure of an electronic pen, and is a block diagram which shows the function. コンピュータ装置の機能ブロック図である。It is a functional block diagram of a computer apparatus. 第1実施形態における第1認識処理を説明するための図である。It is a figure for demonstrating the 1st recognition process in 1st Embodiment. 第1実施形態において文字記入領域の回転制御処理を説明するための図(I)であり、(a)は、文字列の傾斜角度における算出例を説明するための図、及び、(b)は、算出された傾斜角度に基づいて回転される文字記入領域の一例である。It is a figure (I) for explaining rotation control processing of a character entry field in a 1st embodiment, (a) is a figure for explaining the example of calculation in the inclination angle of a character string, and (b). It is an example of the character entry area | region rotated based on the calculated inclination | tilt angle. 第1実施形態において文字記入領域の回転制御処理を説明するための図(II)であり、(a)は、3文字目が記入されたときの文字列における傾斜角度の算出例を説明するための図、及び、(b)は、算出された傾斜角度に基づいて回転される文字記入領域の一例である。It is a figure (II) for demonstrating the rotation control process of a character entry area | region in 1st Embodiment, (a) is for demonstrating the example of calculation of the inclination angle in a character string when the 3rd character is entered. FIG. 4B and FIG. 4B are examples of the character entry area rotated based on the calculated tilt angle. 第1実施形態の情報処理システムにおける第1認識処理を伴う回転制御処理を含む表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the display process including the rotation control process accompanying the 1st recognition process in the information processing system of 1st Embodiment. 第1実施形態の情報処理システムにおける第2認識処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the 2nd recognition process in the information processing system of 1st Embodiment. 第1実施形態の第1変形例に関する文字記入領域の回転制御処理を説明するための図であって、文字列の傾斜角度における算出例を説明するための図である。It is a figure for demonstrating the rotation control process of the character entry area regarding the 1st modification of 1st Embodiment, Comprising: It is a figure for demonstrating the example of calculation in the inclination angle of a character string. 第1実施形態の第2変形例に関する文字記入領域の回転制御処理を説明するための図であって、文字列の傾斜角度における算出例を説明するための図である。It is a figure for demonstrating the rotation control process of the character entry area regarding the 2nd modification of 1st Embodiment, Comprising: It is a figure for demonstrating the example of calculation in the inclination angle of a character string. 第1実施形態の第3変形例に関する文字記入領域の回転制御処理を説明するための図であって、文字列の傾斜角度における算出例を説明するための図である。It is a figure for demonstrating the rotation control process of the character entry area regarding the 3rd modification of 1st Embodiment, Comprising: It is a figure for demonstrating the example of calculation in the inclination angle of a character string. 第1実施形態の第4変形例に関する文字記入領域の回転制御処理を説明するための図であって、(a)は、3文字目が記入されたときの文字列における傾斜角度の算出例を説明するための図、及び、(b)は、算出された傾斜角度に基づいて回転される文字記入領域の一例である。It is a figure for demonstrating the rotation control process of the character entry area | region regarding the 4th modification of 1st Embodiment, Comprising: (a) is a calculation example of the inclination angle in a character string when the 3rd character is entered. The figure for explanation and (b) are examples of the character entry area rotated based on the calculated inclination angle. 第1実施形態の第5変形例に関する文字記入領域の回転制御処理を説明するための図であって、3文字目が記入されたときの文字列における傾斜角度の算出例を説明するための図である。It is a figure for demonstrating the rotation control processing of the character entry area regarding the 5th modification of 1st Embodiment, Comprising: The figure for demonstrating the example of calculation of the inclination angle in a character string when the 3rd character is entered It is. 第2実施形態において文字記入領域の回転制御処理を説明するための図であって、文字列の傾斜角度における算出例を説明するための図である。It is a figure for demonstrating the rotation control process of a character entry area | region in 2nd Embodiment, Comprising: It is a figure for demonstrating the example of calculation in the inclination angle of a character string. 第2実施形態の情報処理システムにおける回転制御処理を含む表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the display process containing the rotation control process in the information processing system of 2nd Embodiment. 第3実施形態における情報処理システムの構成を示すシステム構成図である。It is a system configuration figure showing the composition of the information processing system in a 3rd embodiment.

以下、本発明の各実施形態について、図面を参照しながら説明する。なお、以下に説明する実施形態は、プロジェクターによって予め定められたコード化パターンを有するスクリーンに所定の画像を投影させつつ、ユーザによってスクリーン及び電子ペンを用いて記入された記入情報を当該画像に重畳させる情報処理システムに、本発明の情報処理システム及び表示処理プログラムを適用した場合の実施形態である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the embodiment described below, a predetermined image is projected on a screen having a predetermined coding pattern by a projector, and entry information entered by a user using a screen and an electronic pen is superimposed on the image. This is an embodiment when the information processing system and the display processing program of the present invention are applied to the information processing system to be executed.

<第1実施形態>
はじめに、図1〜図15の各図を用いて第1実施形態に係る情報処理システム10について説明する。
<First Embodiment>
First, the information processing system 10 according to the first embodiment will be described with reference to FIGS.

[情報処理システムのシステム構成]
まず、情報処理システム10の構成について説明する。なお、図1は、情報処理システム10の構成を示すシステム構成図である。
[System configuration of information processing system]
First, the configuration of the information processing system 10 will be described. FIG. 1 is a system configuration diagram showing the configuration of the information processing system 10.

情報処理システム10は、図1に示すように、ユーザによって使用され、ユーザの手書きによりスクリーン4に記入された文字、記号または図形などのストローク(筆跡)に応じて記入情報を生成する電子ペン1と、当該電子ペン1によって生成された記入情報を受信して所定の処理を実行するコンピュータ装置2と、コンピュータ装置2から出力された画像信号を受信し、コンピュータ装置2が有する表示手段26に表示される画像と同一の画像を同期してスクリーン4に投影するプロジェクター3とから構成される。   As shown in FIG. 1, the information processing system 10 is an electronic pen 1 that is used by a user and generates entry information according to strokes (handwriting) of characters, symbols, figures, or the like written on the screen 4 by handwriting of the user. The computer apparatus 2 that receives the entry information generated by the electronic pen 1 and executes a predetermined process; and the image signal output from the computer apparatus 2 is received and displayed on the display means 26 of the computer apparatus 2. And a projector 3 that projects the same image as the image to be projected onto the screen 4 in synchronization.

なお、電子ペン1は、本発明の読取手段及び算出手段を構成し、コンピュータ装置2は、本発明の投影出力手段、回転制御手段、文字認識処理手段、表示制御手段及び座標変換手段を構成する。また、プロジェクター3は、本発明の投影手段を構成する。   The electronic pen 1 constitutes reading means and calculation means of the present invention, and the computer apparatus 2 constitutes projection output means, rotation control means, character recognition processing means, display control means, and coordinate conversion means of the present invention. . Further, the projector 3 constitutes a projection unit of the present invention.

[スクリーン]
次に、本実施形態におけるスクリーン4について説明する。
[screen]
Next, the screen 4 in the present embodiment will be described.

スクリーン4は、電子ペン1に十分に筆圧がかかる程度に硬いマグネット板401と、後述するドットパターン(コード化パターン)が印刷により全面に形成された用紙402とから構成される。特に、用紙402は、マグネット板401の前面に、用紙402の上から図示しないマグネットによって押さえ付けることによって、または、糊、粘着剤等で貼りつけることによって固定されている。なお、マグネット板401の代わりにホワイトボード、パーティションボード又は部屋の壁面等を利用してもよい。また、用紙402の代わりに、ドットパターンが印刷されたシートでもよく、又は、スクリーン4にドットパターンが直接形成されていてもよい。   The screen 4 includes a magnet plate 401 that is hard enough to apply a sufficient writing pressure to the electronic pen 1 and a sheet 402 on which a dot pattern (coded pattern) described later is formed on the entire surface by printing. In particular, the paper 402 is fixed to the front surface of the magnet plate 401 by pressing it from above the paper 402 with a magnet (not shown) or by adhering it with glue, adhesive or the like. Instead of the magnet plate 401, a white board, a partition board, a wall surface of a room, or the like may be used. Further, instead of the paper 402, a sheet on which a dot pattern is printed may be used, or the dot pattern may be directly formed on the screen 4.

[ドットパターン]
次に、図2及び図3を用いて本実施形態におけるスクリーン4の用紙402に印刷されているアノト方式のドットパターン(コード化パターン)について説明する。なお、図2は、ドットパターンのドットとそのドットが変換される値との関係を説明する図である。また、図3は、ドットパターンを説明するための図である。
[Dot pattern]
Next, an Anoto dot pattern (coded pattern) printed on the sheet 402 of the screen 4 in this embodiment will be described with reference to FIGS. FIG. 2 is a diagram for explaining the relationship between the dots of the dot pattern and the values to which the dots are converted. FIG. 3 is a diagram for explaining a dot pattern.

図2に示すように、ドットパターンの各ドットは、その位置によって所定の値に対応付けられている。すなわち、ドットの位置を仮想格子の基準位置(縦線及び横線の交差点)から上下左右のどの方向にシフトするかによって、各ドットは、0〜3の値に対応付けられている。また、各ドットの値は、さらに、X座標用の第1ビット値及びY座標用の第2ビット値に変換できるので、このようにして対応付けられた情報の組合せにより、スクリーン4上の位置座標が決定されるよう構成されている。なお、ドットパターンは、赤外線を吸収するカーボンを含有するインクによって印刷されている。   As shown in FIG. 2, each dot of the dot pattern is associated with a predetermined value depending on its position. That is, each dot is associated with a value of 0 to 3 depending on which direction the top, bottom, left, or right is shifted from the reference position of the virtual grid (the intersection of the vertical and horizontal lines). Further, since the value of each dot can be further converted into the first bit value for the X coordinate and the second bit value for the Y coordinate, the position on the screen 4 is determined by the combination of the information thus associated. Coordinates are configured to be determined. The dot pattern is printed with ink containing carbon that absorbs infrared rays.

図3(a)は、ある位置のドットパターンの配列を示している。図3(a)に示すように、縦横約2mmにおける範囲内に6×6の36個のドット(以下、「6×6ドット」という。)が、スクリーン4(用紙402)上のどの部分から6×6ドットを取ってもユニークなパターンとなるように配置されている。これら36個のドットにより形成されるドットパターンは、スクリーン4(用紙402)上における相対的な位置座標を保持している。なお、図3(b)は、図3(a)に示す各ドットを、仮想格子の基準位置からのシフト方向によって、図2に示す規則性に基づいて対応づけられた値に変換したものである。この変換は、ドットパターンの画像を撮影する電子ペン1によって行われる。   FIG. 3A shows an arrangement of dot patterns at a certain position. As shown in FIG. 3 (a), 6 × 6 36 dots (hereinafter referred to as “6 × 6 dots”) within a range of about 2 mm in length and width are from which part on the screen 4 (paper 402). Even if 6 × 6 dots are taken, they are arranged so as to form a unique pattern. A dot pattern formed by these 36 dots holds relative position coordinates on the screen 4 (paper 402). Note that FIG. 3B is a diagram in which each dot shown in FIG. 3A is converted to a value associated with the regularity shown in FIG. 2 according to the shift direction from the reference position of the virtual lattice. is there. This conversion is performed by the electronic pen 1 that captures an image of a dot pattern.

[電子ペン]
次に、図4を用いて本実施形態における電子ペン1の構造とその動作について説明する。なお、図4は、電子ペン1の構造を示す概略図であるとともに、その機能を示すブロック図である。
[Electronic pen]
Next, the structure and operation of the electronic pen 1 in this embodiment will be described with reference to FIG. FIG. 4 is a schematic diagram showing the structure of the electronic pen 1 and a block diagram showing its function.

電子ペン1は、プロジェクター3により画像投影されるスクリーン4への、タップ(ペン先部103によるスクリーン4への軽叩)及び文字や記号または図形の記入に用いられる。また、ユーザによって電子ペン1を用いてスクリーン4上にタップされると、又は、文字、記号または図形が描かれると、電子ペン1は、後述するペン先部103のスクリーン4上の移動経路(以下、「筆跡」、「ストローク」ともいう。)に沿って、用紙402に印刷されたドットパターンを局所的、かつ、連続的に読み取る。そして、電子ペン1は、スクリーン4におけるその局所位置の座標を算出するとともに、その算出した位置座標データをコンピュータ装置2へ送信する。   The electronic pen 1 is used for tapping on the screen 4 on which an image is projected by the projector 3 (light tapping on the screen 4 by the pen tip 103) and entering characters, symbols, or figures. When the user taps the screen 4 using the electronic pen 1 or draws a character, a symbol, or a figure, the electronic pen 1 moves the movement path ( Hereinafter, the dot pattern printed on the paper 402 is read locally and continuously along “handwriting” and “stroke”. Then, the electronic pen 1 calculates the coordinates of the local position on the screen 4 and transmits the calculated position coordinate data to the computer device 2.

具体的には、電子ペン1は、図4に示すように、その筐体101の内部に、ペン部104、LED105、CMOSカメラ106、圧力センサ107、CPU等により構成されるプロセッサ108、ROMやRAMといったメモリ109、リアルタイムクロック110、アンテナ等により構成される通信ユニット111及びバッテリー112を備える。ペン部104の先端は、ペン先部103となっており、ペン先部103は、文字などの記入又はタップを行う際に、ユーザによってスクリーン4の用紙402に当接される。なお、電子ペン1によって、スクリーン4に記入された筆跡は、コンピュータ装置2の処理によりプロジェクター3によって投影されるため、ペン部104には、インクが充填されていないものがよいが、消去可能なインクが充填されたものであってもよい。   Specifically, as shown in FIG. 4, the electronic pen 1 includes a processor 108 including a pen unit 104, an LED 105, a CMOS camera 106, a pressure sensor 107, a CPU, a ROM, A memory 109 such as a RAM, a real-time clock 110, a communication unit 111 including an antenna and the like, and a battery 112 are provided. The tip of the pen unit 104 is a pen point unit 103, and the pen point unit 103 is brought into contact with the sheet 402 of the screen 4 by the user when writing or tapping characters or the like. The handwriting written on the screen 4 by the electronic pen 1 is projected by the projector 3 by the processing of the computer device 2, so that the pen unit 104 may be not filled with ink, but can be erased. It may be filled with ink.

バッテリー112は、電子ペン1内の各部材に電力を供給するためのものであり、例えば、電子ペン1のキャップ(図示せず)の脱着により電子ペン1自体の電源のオン/オフを行うように構成されている。リアルタイムクロック110は、現在時刻(タイムスタンプ)を示す時刻情報を発信し、プロセッサ108に供給する。圧力センサ107は、ユーザが電子ペン1によりスクリーン4に文字などを記入したりタップしたりする際に、ペン先部103からペン部104を通じて与えられる圧力、すなわち、筆圧を検出し、その値をプロセッサ108へ伝送する。   The battery 112 is for supplying electric power to each member in the electronic pen 1. For example, the power of the electronic pen 1 itself is turned on / off by detaching a cap (not shown) of the electronic pen 1. It is configured. The real time clock 110 transmits time information indicating the current time (time stamp) and supplies the time information to the processor 108. The pressure sensor 107 detects the pressure applied from the pen tip portion 103 through the pen portion 104 when the user enters a character or the like on the screen 4 with the electronic pen 1 or taps it, that is, the writing pressure. Is transmitted to the processor 108.

プロセッサ108は、圧力センサ107から与えられる筆圧データに基づいて、電子ペン1のペンダウン(スクリーン4に接触してストロークが書き出しされること)及びペンアップ(接触している状態からペン先部103が離れること)を判定してLED105及びCMOSカメラ106のスイッチのオン/オフを切換える。すなわち、ユーザが電子ペン1によってスクリーン4に文字などを記入すると、ペン先部103に筆圧がかかり、圧力センサ107によって所定値以上の筆圧が検出されるので、プロセッサ108は、ユーザが記入を開始したと判定して、LED105及びCMOSカメラ106を作動させる。そして、ユーザがスクリーン4から電子ペン1を離すと、圧力センサ107によって所定値以上の筆圧の検出がされなくなるので、その際には、プロセッサ108は、ユーザが1つの筆跡の記入を終了したと判定して、LED105及びCMOSカメラ106の作動を終了させる。   Based on the pen pressure data provided from the pressure sensor 107, the processor 108 performs pen-down of the electronic pen 1 (the stroke is written by touching the screen 4) and pen-up (from the touched state to the pen tip portion 103). And the switch of the LED 105 and the CMOS camera 106 is turned on / off. That is, when the user enters characters or the like on the screen 4 with the electronic pen 1, the pen pressure is applied to the pen tip portion 103, and the pressure sensor 107 detects a writing pressure higher than a predetermined value. The LED 105 and the CMOS camera 106 are operated. Then, when the user releases the electronic pen 1 from the screen 4, the pressure sensor 107 does not detect a writing pressure higher than a predetermined value. At this time, the processor 108 finishes entering one handwriting. And the operation of the LED 105 and the CMOS camera 106 is terminated.

LED105及びCMOSカメラ106は、電子ペン1のペン先部103付近に取り付けられており、筐体101におけるLED105及びCMOSカメラ106と対向する部分には、開口部102が形成されている。LED105は、スクリーン4上のペン先部103近傍に向けて赤外線を照射する。赤外線が照射される領域は、ペン先部103がスクリーン4に接触する位置とはわずかにずれるように構成されている。CMOSカメラ106は、LED105によって照明された領域内における上述したドットパターンを撮影し、そのドットパターンの画像データをプロセッサ108に供給する。   The LED 105 and the CMOS camera 106 are attached in the vicinity of the pen tip portion 103 of the electronic pen 1, and an opening 102 is formed in a portion of the housing 101 that faces the LED 105 and the CMOS camera 106. The LED 105 irradiates infrared rays toward the vicinity of the pen tip portion 103 on the screen 4. The region irradiated with infrared rays is configured to be slightly shifted from the position where the pen tip portion 103 contacts the screen 4. The CMOS camera 106 captures the above-described dot pattern in the area illuminated by the LED 105 and supplies image data of the dot pattern to the processor 108.

上述のように、ドットパターンは、赤外線を吸収するカーボンを含有するインクによって印刷されているので、LED105によって照射された赤外線は、ドットの位置においては吸収される。その結果、ドットの部分は、赤外線の反射量が少なく、ドット以外の部分は赤外線の反射量が多くなる。このため、CMOSカメラ106の撮影により、赤外線の反射量の違いから閾値を設けることによって、カーボンを含むドットの領域とそれ以外の領域を区別することができる。なお、CMOSカメラ106による撮影領域は、図3(a)に示すような約2mm×約2mmの大きさを含む範囲であり、CMOSカメラ106の撮影は毎秒50〜100回程度の定間隔で行われる。   As described above, since the dot pattern is printed with ink containing carbon that absorbs infrared rays, the infrared rays irradiated by the LED 105 are absorbed at the positions of the dots. As a result, the dot portion has a small amount of infrared reflection, and the portion other than the dot has a large amount of infrared reflection. For this reason, by taking a picture with the CMOS camera 106, by setting a threshold value based on the difference in the amount of reflected infrared rays, it is possible to distinguish the dot area containing carbon from the other areas. Note that the shooting area of the CMOS camera 106 is a range including a size of about 2 mm × about 2 mm as shown in FIG. Is called.

プロセッサ108は、ユーザによってスクリーン4に文字等が記入されている間、すなわち、圧力センサ107から与えられる筆圧データに基づいてLED105及びCMOSカメラ106のスイッチがオンの状態のときに、CMOSカメラ106によって供給される各画像データのドットパターン毎に、スクリーン4上におけるX、Y座標(以下、単に「位置座標」又は「座標データ」ともいう。)及びドットパターンアドレスを個々に演算していく。すなわち、プロセッサ108は、CMOSカメラ106によって供給される、図3(a)に示されるようなドットパターンの画像データを、図3(b)に示すデータ配列に変換し、さらに、X座標ビット値及びY座標ビット値に変換して、そのデータ配列から所定の演算方法によりX,Y座標データ及びドットパターンアドレスを演算する。   The processor 108 operates while the characters or the like are written on the screen 4 by the user, that is, when the LED 105 and the CMOS camera 106 are switched on based on the writing pressure data supplied from the pressure sensor 107. For each dot pattern of each image data supplied by, X and Y coordinates (hereinafter also simply referred to as “position coordinates” or “coordinate data”) and dot pattern addresses on the screen 4 are individually calculated. That is, the processor 108 converts the image data of the dot pattern as shown in FIG. 3A supplied by the CMOS camera 106 into the data array shown in FIG. And the Y coordinate bit value, and the X, Y coordinate data and the dot pattern address are calculated from the data array by a predetermined calculation method.

なお、上述のように、スクリーン4における6×6のドットパターンは、スクリーン4内で重複することはないため、ユーザが電子ペン1で文字等を記入すると、記入された位置がスクリーン4のどの位置に当たるかを、プロセッサ108による座標演算により特定することができる。そして、プロセッサ108は、リアルタイムクロック110から発信される現在時刻(T)と、筆圧データ(P)と、X,Y座標データ及びドットパターンアドレスとを関連付けて一の座標属性情報を生成する。   As described above, since the 6 × 6 dot pattern on the screen 4 does not overlap within the screen 4, when the user enters characters or the like with the electronic pen 1, Whether it corresponds to the position can be specified by coordinate calculation by the processor 108. Then, the processor 108 generates one coordinate attribute information by associating the current time (T) transmitted from the real-time clock 110, the pen pressure data (P), the X and Y coordinate data, and the dot pattern address.

メモリ109には、電子ペン1を識別するための「pen01」などのペンID(電子ペン識別情報)、ペン製造者番号、ペンソフトウェアのバージョン等のプロパティ情報が記憶されている。そして、通信ユニット111は、座標属性情報等にペンIDが関連付けられた各記入情報をコンピュータ装置2へ順次送信する。通信ユニット111によるコンピュータ装置2への送信は、Bluetooth(登録商標)などの無線送信によって即時的かつ逐次的に行われる。   The memory 109 stores property information such as pen ID (electronic pen identification information) such as “pen01” for identifying the electronic pen 1, pen manufacturer number, and pen software version. Then, the communication unit 111 sequentially transmits each entry information in which the pen ID is associated with the coordinate attribute information or the like to the computer device 2. Transmission to the computer apparatus 2 by the communication unit 111 is immediately and sequentially performed by wireless transmission such as Bluetooth (registered trademark).

次に、電子ペン1よりコンピュータ装置2へ送信される記入情報について説明する。ユーザが電子ペン1を用いてスクリーン4にストローク(筆跡)を記入する際には、まず、電子ペン1をスクリーン4に接触させる。すると、電子ペン1の圧力センサ107によってペン先部103にかかる筆圧を検出する。電子ペン1のプロセッサ108は、圧力センサ107によって所定値以上の筆圧が検出されたと判断すると、電子ペン1の用紙402(スクリーン4)への接触を示すペンダウン情報PDと、電子ペン1の識別情報であるペンID等とを関連付けた記入情報を生成して、通信ユニット111に、その記入情報をコンピュータ装置2へ送信させる。   Next, entry information transmitted from the electronic pen 1 to the computer device 2 will be described. When a user writes a stroke (handwriting) on the screen 4 using the electronic pen 1, first, the electronic pen 1 is brought into contact with the screen 4. Then, the pressure sensor 107 of the electronic pen 1 detects the writing pressure applied to the pen tip portion 103. When the processor 108 of the electronic pen 1 determines that the pressure sensor 107 has detected a writing pressure of a predetermined value or more, the pen down information PD indicating the contact of the electronic pen 1 with the paper 402 (screen 4) and the identification of the electronic pen 1 are detected. The entry information associated with the pen ID, which is information, is generated, and the communication unit 111 transmits the entry information to the computer apparatus 2.

また、ユーザは、電子ペン1のペン先部103を用紙402(スクリーン4)に接触させた後、筆圧を維持しつつ、ペン先部103を移動させてストロークを描くが、電子ペン1のプロセッサ108も引き続き、演算により求めた座標情報(X,Y)及びドットパターンアドレスと、圧力センサ107により検出される筆圧データ(P)、リアルタイムクロック110により発信された時刻情報(T)とを含む座標属性情報及びペンIDを関連付けた記入情報を、CMOSカメラ106によるドットパターンの撮影周期に応じて、逐次生成し、通信ユニット111に当該記入情報を順次コンピュータ装置2へ送信させる。   Further, the user draws a stroke by moving the pen tip portion 103 while maintaining the writing pressure after the pen tip portion 103 of the electronic pen 1 is brought into contact with the paper 402 (screen 4). The processor 108 continues to obtain the coordinate information (X, Y) and the dot pattern address obtained by the calculation, the pen pressure data (P) detected by the pressure sensor 107, and the time information (T) transmitted by the real time clock 110. The entry information that associates the coordinate attribute information and the pen ID with each other is sequentially generated according to the imaging cycle of the dot pattern by the CMOS camera 106, and the communication unit 111 sequentially transmits the entry information to the computer apparatus 2.

そして、ユーザがストロークを描き終えて電子ペン1を用紙402(スクリーン4)から離すと、圧力センサ107は、筆圧を検出しなくなるため、プロセッサ108は、圧力センサ107によって所定値以上の筆圧が検出されなくなったと判断する。すると、プロセッサ108は、電子ペン1の用紙402(スクリーン4)への離脱を示すペンアップ情報PUと、電子ペン1の識別情報であるペンID等とを関連付けた記入情報を生成して、通信ユニット111に、その記入情報をコンピュータ装置2へ送信させる。このように、電子ペン1がペンダウンと判定してからペンアップと判定するまでに、すなわち、ユーザの一つのストロークの記入により、電子ペン1によって生成される座標属性情報の集合をストローク情報と呼ぶ。   When the user finishes drawing the stroke and moves the electronic pen 1 away from the paper 402 (screen 4), the pressure sensor 107 does not detect the writing pressure. Is no longer detected. Then, the processor 108 generates entry information that associates the pen-up information PU indicating that the electronic pen 1 is detached from the paper 402 (screen 4) with the pen ID that is the identification information of the electronic pen 1, and performs communication. The unit 111 is made to send the entry information to the computer apparatus 2. As described above, a set of coordinate attribute information generated by the electronic pen 1 from when the electronic pen 1 is determined to be pen-down to when the electronic pen 1 is determined to be pen-up, that is, when one stroke is entered by the user is referred to as stroke information. .

[コンピュータ装置]
次に、図1及び図5の各図を用いて本実施形態のコンピュータ装置2について説明する。なお、図5は、コンピュータ装置2の各機能を示す機能ブロック図である。
[Computer device]
Next, the computer apparatus 2 of this embodiment will be described with reference to FIGS. 1 and 5. FIG. 5 is a functional block diagram showing each function of the computer apparatus 2.

コンピュータ装置2は、例えば、パーソナルコンピュータであって、ハードウェアとして、電子ペン1とのデータ通信が可能なアンテナ装置、CPU等のプロセッサ、ROMやRAMといったメモリ、ディスプレイ、マウスやキーボード等によって構成される。また、コンピュータ装置2は、図5を示すように、機能的には、マウスやキーボードなどから構成される入力手段21、受信手段22、処理手段24、記憶手段25、表示手段26及び送信手段27を備え、電子ペン1から受信した記入情報に基づいて所定の処理を行う。   The computer device 2 is, for example, a personal computer, and includes, as hardware, an antenna device capable of data communication with the electronic pen 1, a processor such as a CPU, a memory such as ROM and RAM, a display, a mouse, a keyboard, and the like. The In addition, as shown in FIG. 5, the computer device 2 is functionally composed of an input unit 21, a receiving unit 22, a processing unit 24, a storage unit 25, a display unit 26, and a transmitting unit 27, each of which includes a mouse and a keyboard. And performing predetermined processing based on the entry information received from the electronic pen 1.

受信手段22は、アンテナや受信回路等により構成され、電子ペン1から送信された各記入情報を順次受信し、処理手段24に伝送する。   The receiving unit 22 includes an antenna, a receiving circuit, and the like, and sequentially receives each entry information transmitted from the electronic pen 1 and transmits it to the processing unit 24.

処理手段24は、CPU等のプロセッサによって構成される。処理手段24は、所定のキャリブレーション処理及びキャリブレーション処理の結果に基づいて表示手段26に表示するための座標変換処理を実行する。キャリブレーション処理としては、処理手段24は、スクリーン4上のドットパターンによる位置座標をコンピュータ装置2の表示手段26における表示エリア201上の位置座標に座標変換するための座標変換関数を求める。   The processing means 24 is constituted by a processor such as a CPU. The processing unit 24 executes a coordinate conversion process for displaying on the display unit 26 based on a predetermined calibration process and a result of the calibration process. As the calibration process, the processing unit 24 obtains a coordinate conversion function for converting the position coordinates of the dot pattern on the screen 4 into the position coordinates on the display area 201 in the display unit 26 of the computer device 2.

また、処理手段24は、表示手段26の表示エリア201上における文字記入領域206の制御処理、文字記入領域206がスクリーン4に投影された文字記入領域406内に記入された文字又は記号を構成するストロークの座標データが座標変換関数により座標変換された後の座標データの認識処理及び表示手段26における各種の表示制御処理を実行する。特に、処理手段24は、文字認識処理と連動して文字記入領域206の回転制御の処理(以下、単に「回転制御処理」又は「回転処理」という。)を行う。具体的には、処理手段24は、ユーザが電子ペン1により文字記入領域406に文字を記入すると、電子ペン1から送信された記入情報に含まれる座標データを座標変換関数により座標変換して、一文字毎に文字認識を行いつつ、入力された文字列の傾斜角度(θ)を算出し、この算出された傾斜角度(θ)に基づいて文字記入領域206を回転させる。   Further, the processing means 24 constitutes a character or symbol entered in the character entry area 406 projected on the screen 4 by controlling the character entry area 206 on the display area 201 of the display means 26. The process of recognizing the coordinate data after the coordinate data of the stroke is transformed by the coordinate transformation function and various display control processes in the display means 26 are executed. In particular, the processing means 24 performs a rotation control process (hereinafter simply referred to as “rotation control process” or “rotation process”) of the character entry area 206 in conjunction with the character recognition process. Specifically, when the user enters a character in the character entry area 406 with the electronic pen 1, the processing unit 24 converts the coordinate data included in the entry information transmitted from the electronic pen 1 with a coordinate conversion function, While performing character recognition for each character, the inclination angle (θ) of the input character string is calculated, and the character entry area 206 is rotated based on the calculated inclination angle (θ).

処理手段24は、上述のような各処理を実行するために、図5に示すように、キャリブレーション処理部241と、座標変換部242と、文字認識処理部243と、文字記入領域制御部244と、表示制御部245とを有している。なお、文字認識処理部243及び文字記入領域制御部244を含めて、処理手段24の各部の詳細については後述する。   As shown in FIG. 5, the processing unit 24 performs a process as described above, as shown in FIG. 5, a calibration processing unit 241, a coordinate conversion unit 242, a character recognition processing unit 243, and a character entry region control unit 244. And a display control unit 245. The details of each part of the processing means 24 including the character recognition processing unit 243 and the character entry area control unit 244 will be described later.

記憶手段25は、ハードディスク又はROM、RAMなどのメモリによって構成される。そして、記憶手段25には、キャリブレーション処理を実行するためのプログラム(以下、「キャリブレーションプログラム」という。)と、文字記入領域206を回転させる回転制御処理を実行するためのプログラム(以下、「文字記入領域回転プログラム」という。)と、文字記入領域回転プログラムと連動して実行される文字認識処理のプログラム(以下、「文字認識プログラム」という。)とが予め記憶されている。   The storage means 25 is constituted by a hard disk or a memory such as a ROM or a RAM. The storage means 25 stores a program for executing calibration processing (hereinafter referred to as “calibration program”) and a program for executing rotation control processing for rotating the character entry area 206 (hereinafter referred to as “calibration program”). And a character recognition processing program (hereinafter referred to as a “character recognition program”) that is executed in conjunction with the character entry region rotation program.

具体的には、キャリブレーションプログラムに関しては、表示手段26に表示するキャリブレーション用マークの表示エリア201上の位置座標及び形状等の情報、スクリーン4の用紙402に印刷されているドットパターンの座標領域の値が記憶手段25に記憶される。また、文字記入領域回転プログラムに関しては、表示手段26に表示される文字記入領域206の座標領域の初期値、その範囲を画定表示するためのマーク(以下、「画定マーク」ともいう。)207の形状など、画定マーク207の初期座標及びその他の文字記入領域206の回転制御処理に必要な各情報が記憶手段25に予め記憶されている。さらに、文字認識プログラムに関しては、表示手段26に表示された文字記入領域206に基づいてスクリーン4上に投影された文字記入領域406内に描かれ、文字記入領域406への記入として取り込まれたストローク群によって形成される形状パターンの照合に用いる、各文字又は記号に関するパターンの情報(以下、「パターン情報」という。)その他の文字認識処理に必要な情報が記憶手段25に予め記憶されている。   Specifically, with regard to the calibration program, information such as position coordinates and shape on the display area 201 of the calibration mark displayed on the display means 26, the coordinate area of the dot pattern printed on the paper 402 of the screen 4 Is stored in the storage means 25. As for the character entry area rotation program, the initial value of the coordinate area of the character entry area 206 displayed on the display means 26 and a mark (hereinafter also referred to as “definition mark”) 207 for demarcating and displaying the range. Each information necessary for the rotation control processing of the initial coordinates of the demarcation mark 207 and other character entry area 206 such as the shape is stored in the storage means 25 in advance. Further, with respect to the character recognition program, a stroke drawn in the character entry area 406 projected on the screen 4 based on the character entry area 206 displayed on the display means 26 and captured as an entry in the character entry area 406. Information on a pattern relating to each character or symbol (hereinafter referred to as “pattern information”) and other information necessary for character recognition processing used for collation of the shape pattern formed by the group is stored in the storage means 25 in advance.

上記のデータに加えて、記憶手段25には、ユーザがスクリーン4に文字、記号又は図形を記入した際に電子ペン1によって生成されたストローク毎の各記入情報が記憶されるとともに、後述する各文字認識対象ストロークSTの各ストローク情報が記憶される。また、記憶手段25には、キャリブレーション処理により求められた座標変換関数、回転制御処理によって回転された文字記入領域206の座標領域の値、及び、座標変換により文字記入領域206に入力された文字列の傾斜角度(=文字記入領域の回転角度)(θ)など、キャリブレーション処理、文字認識処理(第1認識処理及び第2認識処理)並びに回転制御処理の各処理中または処理後に、各プログラムに沿って又は各処理中におけるユーザの指示に従って生成された各種のデータが記憶される。   In addition to the above data, the storage means 25 stores each entry information for each stroke generated by the electronic pen 1 when the user enters characters, symbols, or figures on the screen 4. Each stroke information of the character recognition target stroke ST is stored. Further, the storage means 25 stores the coordinate conversion function obtained by the calibration process, the value of the coordinate area of the character entry area 206 rotated by the rotation control process, and the character input to the character entry area 206 by the coordinate conversion. Each program during or after calibration processing, character recognition processing (first recognition processing and second recognition processing), and rotation control processing, such as column inclination angle (= rotation angle of character entry area) (θ) Various types of data generated in accordance with user instructions in accordance with or during each process are stored.

表示手段26は、液晶又は有機ELなどのディスプレイ等によって構成され、処理手段24によって指示された内容を表示するものであり、図1に示すように、表示手段26の表示エリア201には、処理手段24の表示制御部245の処理により、認識文字表示位置マーク205と、文字記入領域206と、画定マーク207とを表示する。   The display means 26 is constituted by a display such as a liquid crystal or an organic EL, and displays the contents instructed by the processing means 24. As shown in FIG. The recognized character display position mark 205, the character entry area 206, and the demarcation mark 207 are displayed by the processing of the display control unit 245 of the means 24.

送信手段27は、処理手段24の指示によって、表示手段26の画像表示に用いられる画像信号をプロジェクター3へ送信する。このため、スクリーン4には、コンピュータ装置2の表示エリア201に表示された画像と同じ画像が同期して、プロジェクター3によって画像投影領域403に拡大されて投影される。また、図1に示す例では、表示エリア201に表示された、画定マーク207により画定された文字記入領域206は、それぞれスクリーン4上に、対応する画定マーク407により画定された文字記入領域406として投影される。なお、送信手段27によるプロジェクター3へのデータ送信方式は、有線式であっても無線式であってもよい。   The transmission unit 27 transmits an image signal used for image display on the display unit 26 to the projector 3 according to an instruction from the processing unit 24. For this reason, the same image as the image displayed in the display area 201 of the computer apparatus 2 is synchronized with the screen 4 and is enlarged and projected onto the image projection area 403 by the projector 3. In the example shown in FIG. 1, the character entry areas 206 defined by the definition marks 207 displayed in the display area 201 are respectively displayed as character entry areas 406 defined by the corresponding definition marks 407 on the screen 4. Projected. The data transmission method to the projector 3 by the transmission unit 27 may be a wired method or a wireless method.

[処理手段]
次に、図5とともに図6〜図8の各図を用いて処理手段24における各部の詳細について説明する。なお、図6は、第1認識処理を説明するための図である。また、図7は、文字記入領域の回転制御処理を説明するための図(I)であり、特に、図7(a)は、文字列の傾斜角度(θ)における算出例を説明するための図、及び、図7(b)は、算出された傾斜角度(θ)に基づいて回転される文字記入領域の一例である。さらに、図8は、文字記入領域の回転制御処理を説明するための図(II)であり、特に、図8(a)は、3文字目が記入されたときの文字列における傾斜角度(θ)の算出例を説明するための図、及び、図8(b)は、算出された傾斜角度(θ)に基づいて回転される文字記入領域の一例である。
[Processing means]
Next, details of each part in the processing means 24 will be described with reference to FIGS. 6 to 8 together with FIG. FIG. 6 is a diagram for explaining the first recognition process. FIG. 7 is a diagram (I) for explaining the rotation control process of the character entry area. In particular, FIG. 7 (a) is a diagram for explaining an example of calculating the inclination angle (θ) of the character string. FIG. 7 and FIG. 7B are examples of the character entry area that is rotated based on the calculated inclination angle (θ). Further, FIG. 8 is a diagram (II) for explaining the rotation control processing of the character entry area. In particular, FIG. 8A shows an inclination angle (θ in the character string when the third character is entered. ) And FIG. 8B are examples of the character entry area rotated based on the calculated inclination angle (θ).

(1)キャリブレーション処理部
キャリブレーション処理部241は、記憶手段25に記憶されたキャリブレーションプログラムに従って、スクリーン4上のドットパターンによる位置座標を、表示手段26における表示エリア201上の位置座標に変換するための座標変換関数を求める。具体的には、キャリブレーション処理部241は、表示手段26の表示エリア201に2箇所以上のキャリブレーション用マークを表示させるとともに、スクリーン4に対してプロジェクター3によりキャリブレーション用マークを投影させる。そして、電子ペン1によってスクリーン4に投影されたキャリブレーション用マークをタップすることによって生成されたスクリーン4上の座標データを受信手段22が受信すると、キャリブレーション処理部241は、キャリブレーション用マークに係る表示手段26の表示エリア201上の位置座標と、スクリーン4上におけるドットパターンの位置座標との対応関係を取得して座標変換関数を算出する。なお、キャリブレーション処理部241は、この算出した座標変換関数を記憶手段25に記憶する。
(1) Calibration processing unit The calibration processing unit 241 converts the position coordinates of the dot pattern on the screen 4 into the position coordinates on the display area 201 in the display unit 26 according to the calibration program stored in the storage unit 25. To obtain a coordinate transformation function. Specifically, the calibration processing unit 241 displays two or more calibration marks in the display area 201 of the display unit 26 and causes the projector 3 to project the calibration marks on the screen 4. When the receiving unit 22 receives coordinate data on the screen 4 generated by tapping the calibration mark projected on the screen 4 by the electronic pen 1, the calibration processing unit 241 uses the calibration mark as a calibration mark. The coordinate conversion function is calculated by acquiring the correspondence between the position coordinates on the display area 201 of the display means 26 and the position coordinates of the dot pattern on the screen 4. The calibration processing unit 241 stores the calculated coordinate conversion function in the storage unit 25.

(2)座標変換部
座標変換部242は、電子ペン1から送信されて受信したストローク毎の各記入情報に含まれるスクリーン4上のX、Y座標データを、キャリブレーション処理部241によって求めた座標変換関数に基づいて、表示手段26の表示エリア201上におけるストロークのX、Y座標に変換する。そして、座標変換部242は、この変換後のX,Y座標(以下、「較正座標」ともいう。)をストローク毎に記憶手段25に記憶する。
(2) Coordinate conversion unit The coordinate conversion unit 242 uses the calibration processing unit 241 to calculate the X and Y coordinate data on the screen 4 included in each entry information for each stroke transmitted from the electronic pen 1 and received. Based on the conversion function, the X and Y coordinates of the stroke on the display area 201 of the display means 26 are converted. Then, the coordinate conversion unit 242 stores the converted X and Y coordinates (hereinafter also referred to as “calibration coordinates”) in the storage unit 25 for each stroke.

また、このとき、座標変換部242は、一のストロークの各較正座標が文字記入領域206の座標領域の範囲内であると認識すると、文字記入領域406の座標領域内に記入されたストローク(以下、「文字認識対象ストローク」という。)STと判断し、これらの各記入情報をこの文字認識対象ストロークSTのストローク情報として記憶手段25に記憶する。すなわち、座標変換部242は、文字認識対象ストロークST毎に、X、Y座標が較正座標に書き換えられた各記入情報を、文字認識処理の際に必要となる筆順を特定するための時刻情報(T)などの情報とともに、記憶手段25に記憶する。   At this time, when the coordinate conversion unit 242 recognizes that each calibration coordinate of one stroke is within the range of the coordinate area of the character entry area 206, the stroke (hereinafter referred to as the stroke entered in the coordinate area of the character entry area 406). This is referred to as “character recognition target stroke”.) ST is determined, and each entry information is stored in the storage unit 25 as stroke information of the character recognition target stroke ST. That is, for each character recognition target stroke ST, the coordinate conversion unit 242 uses the time information for specifying the stroke order required for the character recognition process, for each piece of entry information in which the X and Y coordinates are rewritten to the calibration coordinates. It is stored in the storage means 25 together with information such as T).

(3)文字認識処理部
文字認識処理部243は、記憶手段25に記憶された文字認識処理プログラムに従って、文字記入領域206内に入力された電子ペン1のストロークについて文字認識処理を実行する。特に、文字認識処理部243は、ユーザの文字記入中に、回転制御処理と連動し、ストローク情報に含まれる時刻情報に基づいて特定される筆順に従って一文字毎のストローク群を特定するための認識処理(以下、「第1認識処理」という。)と、ユーザの指示に基づいて記入が完了した文字列の文字認識を行う認識処理(以下、「第2認識処理」という。)とを実行する。そして、文字認識処理部243は、第1認識処理及び第2認識処理の両認識処理とも、OCR(Optical Character Reader)などの文字認識を行うプログラムと同様に、文字認識対象ストローク(文字記入領域406に電子ペン1で記入され、文字記入領域206に入力されたストローク)STにおける座標変換されたX、Y座標群から形成されるパターンと記憶手段25に予め記憶された各文字や記号のパターン情報とを照合して文字または記号を特定する。
(3) Character Recognition Processing Unit The character recognition processing unit 243 performs character recognition processing on the stroke of the electronic pen 1 input in the character entry area 206 according to the character recognition processing program stored in the storage unit 25. In particular, the character recognition processing unit 243 is a recognition process for specifying a stroke group for each character according to the stroke order specified based on the time information included in the stroke information in conjunction with the rotation control process during the user's character entry. (Hereinafter referred to as “first recognition process”) and a recognition process (hereinafter referred to as “second recognition process”) for recognizing a character string that has been entered based on a user instruction. The character recognition processing unit 243 performs the character recognition target stroke (character entry area 406) in the same way as a program for performing character recognition such as OCR (Optical Character Reader) in both the first recognition process and the second recognition process. The stroke formed by the electronic pen 1 and input to the character entry area 206) The pattern formed from the coordinate-converted X and Y coordinate groups in ST and the pattern information of each character or symbol stored in advance in the storage means 25 Is used to identify a character or symbol.

第1認識処理としては、文字認識処理部243は、座標変換部242によって特定された文字認識対象ストロークST毎に、筆順に従って新規に文字認識対象ストロークSTtとして判断されたストロークの各記入情報と、既に文字認識対象ストローク(STn〜ST(t−1))として判断された他のストロークの各記入情報と、から形成されるストローク群の形状パターンに基づいて、これらのストローク(STn〜ST(t−1))によって形成されるストローク群の形状パターンが一文字として認識可能か否か、且つ、新規に判断された文字認識対象ストロークSTtも含む文字の一部分となり得るか否か、換言すると、文字認識対象ストロークSTtは次の文字のストロークであるか否かを判断する。そして、文字認識処理部243は、当該ストローク群(STn〜ST(t−1))の形状パターンが一文字として認識可能かつ文字認識対象ストロークSTtは次の文字のストロークであると判断した場合には、文字記入領域制御部244にこの一文字を形成するストローク群(STn〜ST(t−1))に基づいて回転制御処理を実行させる。その一方、文字認識処理部243は、一文字として認識できないと判断した場合には、次の文字認識対象ストロークST(t+1)が特定されたときに、ストローク(STn〜STt)によって形成されるストローク群の形状パターンが一文字として認識可能か否かを判断する。このように、文字認識処理部243は、文字認識対象ストロークST毎に一文字認識可能か否か判断し、一文字毎に各文字を形成するストローク群を特定するよう構成されている。   As the first recognition processing, the character recognition processing unit 243, for each character recognition target stroke ST specified by the coordinate conversion unit 242, each entry information of the stroke newly determined as the character recognition target stroke STt according to the stroke order; These strokes (STn to ST (t) are based on the stroke pattern shape pattern formed from each entry information of other strokes already determined as character recognition target strokes (STn to ST (t-1)). -1)), whether the shape pattern of the stroke group can be recognized as one character and whether it can be a part of the character including the newly determined character recognition target stroke STt, in other words, character recognition It is determined whether the target stroke STt is a stroke of the next character. When the character recognition processing unit 243 determines that the shape pattern of the stroke group (STn to ST (t-1)) can be recognized as one character and the character recognition target stroke STt is a stroke of the next character, The character entry area control unit 244 causes the rotation control process to be executed based on the stroke group (STn to ST (t−1)) that forms this one character. On the other hand, when the character recognition processing unit 243 determines that the character cannot be recognized as one character, the stroke group formed by the strokes (STn to STt) when the next character recognition target stroke ST (t + 1) is specified. It is determined whether or not the shape pattern can be recognized as one character. As described above, the character recognition processing unit 243 is configured to determine whether or not one character can be recognized for each character recognition target stroke ST, and to specify a stroke group that forms each character for each character.

具体的には、図6に示すように、ユーザによって入力される文字が「明日」の場合であって、座標変換部242によって第1〜第9の文字認識対象ストローク(以下、単に、それぞれ「第nストローク」という。)ST1〜ST9が順次特定される場合に、文字認識処理部243は、第1ストロークST1から第8ストロークST8までのそれぞれのストロークが新規の文字認識対象ストロークSTtとして判断されたときには、それらの第1ストロークST1〜第8ストロークST8に基づいては一文字として認識しない。しかしながら、文字認識処理部243は、その後に第9ストロークST9が新規の文字認識対象ストロークSTtとして判断されたときには、第9ストロークST9が次の文字のストロークであると判断して第1ストロークST1〜第8ストロークST8を一文字「明」の文字として認識する。すなわち、まず、第4ストロークST4が新規の文字認識対象ストロークSTtと判断されたときには、第1ストロークST1〜第4ストロークST4のストローク群によって「日」の文字として認識可能ではあるが、その文字が「日」そのものなのか「時」などの更に異なる文字の一部分であるのかは次の第5ストロークST5を含めて判断される必要がある。さらに、第8ストロークST8が新規の文字認識対象ストロークSTtと判断されたときには、第1ストロークST1〜第8ストロークST8のストローク群によって「明」の文字として認識可能ではあるが、その文字が「明」そのものなのか「盟」などの更に異なる文字の一部分であるのかは次の第9ストロークST9を含めて判断される必要がある。したがって、文字認識処理部243は、確実に一文字のストローク群を特定するために、新規に特定された文字認識対象ストロークSTtを判断の対象に用いるものの、一文字として特定するストローク群に含めずに第1認識処理を実行している。また、文字認識処理部243は、二文字目以降の文字認識処理に関しては、一文字認識する毎に、既に文字認識に用いられた第nストロークSTnから第mストロークSTm(m>n)のストローク群を除き、その後に特定された第(m+1)ストロークST(m+1)以降のストローク群に基づいて、第1認識処理を実行する。   Specifically, as shown in FIG. 6, the character input by the user is “Tomorrow”, and the coordinate conversion unit 242 performs first to ninth character recognition target strokes (hereinafter, simply “ When the ST1 to ST9 are sequentially specified, the character recognition processing unit 243 determines that each stroke from the first stroke ST1 to the eighth stroke ST8 is a new character recognition target stroke STt. If it occurs, it is not recognized as one character based on the first stroke ST1 to the eighth stroke ST8. However, when the ninth stroke ST9 is subsequently determined as the new character recognition target stroke STt, the character recognition processing unit 243 determines that the ninth stroke ST9 is the stroke of the next character and determines the first stroke ST1 to ST1. The eighth stroke ST8 is recognized as one character “bright”. That is, first, when it is determined that the fourth stroke ST4 is a new character recognition target stroke STt, it can be recognized as a “day” character by the stroke group of the first stroke ST1 to the fourth stroke ST4, but the character is Whether it is “day” itself or a part of a different character such as “time” needs to be determined including the next fifth stroke ST5. Further, when it is determined that the eighth stroke ST8 is a new character recognition target stroke STt, it can be recognized as a “bright” character by the stroke group of the first stroke ST1 to the eighth stroke ST8. It is necessary to determine whether it is a part of a different character such as “Correspondence” or “Alliance”, including the next ninth stroke ST9. Therefore, the character recognition processing unit 243 uses the newly specified character recognition target stroke STt as a determination target in order to reliably specify a stroke group of one character, but does not include it in the stroke group specified as one character. 1 recognition processing is executed. Further, the character recognition processing unit 243 performs the stroke group from the nth stroke STn to the mth stroke STm (m> n) already used for character recognition every time one character is recognized for the character recognition processing for the second and subsequent characters. The first recognition process is executed based on the stroke group after the (m + 1) th stroke ST (m + 1) specified thereafter.

第2認識処理としては、文字認識処理部243は、文字記入領域206に文字又は記号などのユーザによる入力が実行された後であって、コンピュータ装置2などの図示しない認識開始キーまたは座標入力領域(画像投影領域)403内の図示しない認識開始領域若しくは電子ペン1の文字記入領域406内でのタップ動作を検知した場合に、ユーザの記入が完了したと判断し、文字記入領域206内に含まれている文字列を一括的に文字認識する。特に、文字認識処理部243は、上述のようなユーザの指示が入力されると、文字記入領域206内の記入情報として記憶手段25に記憶されているストロークの各較正座標(すなわち、電子ペン1のスクリーン4上のストロークの座標データに対応する、表示手段26の表示画面上における当該ストロークの座標データ群)を回転角度(θ)及び回転中心の座標データに基づいて逆回転させ(−θの回転行列を乗算し)、その座標変換後の座標データに基づいて文字認識を行う。すなわち、回転制御処理によって文字記入領域206が回転していると判断された場合には(例えば、記憶手段25によって回転フラグ情報が記憶されている場合には)、文字認識処理部243は、第2認識処理として、各文字認識対象ストロークSTの各較正座標群に対して、文字記入領域206において予め定められた点(後述する基点B)の座標を回転の中心として、記憶されている回転角度(θ)だけ逆回転させる(−θの回転行列をかける)ことによって各ストロークの較正座標を正規化するとともに、この正規化後のX,Y座標群によって形成されるパターンに対して文字認識処理を実行する。これにより、傾斜して記入された文字又は記号を傾斜の無い水平に書かれた状態に直すことができるので、文字等の特定に関する精度、すなわち、文字認識における認識精度を向上させることができる。また、第2認識処理が実行された場合には、次に記入される文字列を認識するために、文字記入領域206内に表示されている全てのストローク(すなわち、文字認識対象ストロークSTとして特定されて記憶手段25に記憶されている全てのストローク)と、後述する基準点220及び傾斜角度(θ)の各データは記憶手段25から消去される。また、文字認識処理部243は、第2認識処理の結果認識された文字列のテキストデータを、記憶手段25に記憶させる。   As the second recognition process, the character recognition processing unit 243 performs a recognition start key or a coordinate input area (not shown) such as the computer apparatus 2 after the user has input characters or symbols in the character entry area 206. (Image projection area) When a tap operation in the recognition start area (not shown) in the 403 or the character entry area 406 of the electronic pen 1 is detected, it is determined that the user's entry has been completed, and is included in the character entry area 206 Recognize characters in a batch. In particular, when the user's instruction as described above is input, the character recognition processing unit 243 receives each calibration coordinate of the stroke (that is, the electronic pen 1) stored in the storage unit 25 as entry information in the character entry area 206. The coordinate data group of the stroke on the display screen of the display means 26 corresponding to the coordinate data of the stroke on the screen 4 is reversely rotated based on the rotation angle (θ) and the coordinate data of the rotation center (−θ The character is recognized based on the coordinate data after the coordinate conversion. That is, when it is determined that the character entry area 206 is rotated by the rotation control process (for example, when the rotation flag information is stored by the storage unit 25), the character recognition processing unit 243 2 As a recognition process, for each calibration coordinate group of each character recognition target stroke ST, the rotation angle stored with the coordinates of a point (base point B described later) in the character entry area 206 as the center of rotation is stored. The calibration coordinates of each stroke are normalized by reversely rotating by (θ) (by applying a rotation matrix of −θ), and character recognition processing is performed on the pattern formed by the normalized X and Y coordinate groups. Execute. Thereby, since the character or symbol written with inclination can be changed into the state written horizontally without inclination, the precision regarding identification of a character etc., ie, the recognition precision in character recognition, can be improved. In addition, when the second recognition process is executed, all strokes displayed in the character entry area 206 (ie, character recognition target strokes ST) are identified in order to recognize the character string to be entered next. All strokes stored in the storage means 25), reference point 220 and inclination angle (θ) data to be described later are deleted from the storage means 25. Further, the character recognition processing unit 243 stores the text data of the character string recognized as a result of the second recognition process in the storage unit 25.

(4)文字記入領域制御部
文字記入領域制御部244は、記憶手段25に記憶された文字記入領域206の座標領域の初期値及びその範囲を画定表示するための画定マーク207の情報に基づいて、図1に示すように、表示手段26の表示エリア201に画定マーク207を表示させる。特に、文字記入領域制御部244は、初期設定として、表示手段26の表示エリア201の左下隅に、画定マーク207を用いることによって横長の長方形状の文字記入領域206を表示させる。そして、文字記入領域制御部244は、図1に示すように、この画像と同一の画像をスクリーン4に投影させるための画像信号を、送信手段27を介してプロジェクター3に送信する。
(4) Character entry area control section The character entry area control section 244 is based on the initial value of the coordinate area of the character entry area 206 stored in the storage means 25 and information on the demarcation mark 207 for demarcating and displaying the range. As shown in FIG. 1, a demarcation mark 207 is displayed in the display area 201 of the display means 26. In particular, the character entry area control unit 244 displays a horizontally long rectangular character entry area 206 by using a demarcation mark 207 in the lower left corner of the display area 201 of the display means 26 as an initial setting. Then, as shown in FIG. 1, the character entry area control unit 244 transmits an image signal for projecting the same image as this image on the screen 4 to the projector 3 via the transmission unit 27.

なお、これにより、スクリーン4の左下隅に、画定マーク407によって特定可能な文字記入領域406が表示される。また、図1においては、文字記入領域206,406が外枠表示されているが、文字記入領域206,406が黄色その他の色を用いて強調表示されていてもよく、記入情報の記入を促すための罫線(下線)によって文字記入領域206,406が表示されるようにしてもよい。   As a result, a character entry area 406 that can be specified by the demarcation mark 407 is displayed in the lower left corner of the screen 4. In FIG. 1, the character entry areas 206 and 406 are displayed in an outer frame, but the character entry areas 206 and 406 may be highlighted using yellow or other colors to prompt entry of entry information. The character entry areas 206 and 406 may be displayed by a ruled line (underline).

また、文字記入領域制御部244は、ユーザによってスクリーン4上の文字記入領域406に文字が記入され、文字記入領域206に入力されると、文字記入領域回転プログラムに従って、文字の記入中であって一文字認識される毎に、ユーザによって記入された文字列の傾斜角度(θ)を算出し、この算出された傾斜角度(θ)に基づいて文字記入領域206を回転させる。すなわち、電子ペン1によって文字記入領域406内に記入された文字に関するストローク情報が生成され、かつ、この記入された文字のストローク情報に基づいて座標変換部242によって座標変換されて文字記入領域206内に入力されたストロークが文字認識対象ストロークSTと特定されると、文字記入領域制御部244は、文字認識処理部243の第1認識処理と連動し、文字認識処理部243によって一文字認識される毎に、一文字を形成するストローク群に基づいて、認識された文字の基準点220を算出する。そして、文字記入領域制御部244は、算出された文字の基準点220に基づいて文字列の傾斜角度(θ)を更に算出し、予め定められた基点Bに基づいて算出された傾斜角度(θ)と同一の角度(以下、「回転角度」という。)(θ)を有するように文字記入領域206を回転制御する。   In addition, the character entry area control unit 244, when a character is entered in the character entry area 406 on the screen 4 by the user and input to the character entry area 206, the character entry area control unit 244 is in the process of entering characters according to the character entry area rotation program. Each time a character is recognized, the inclination angle (θ) of the character string entered by the user is calculated, and the character entry area 206 is rotated based on the calculated inclination angle (θ). That is, stroke information related to characters entered in the character entry area 406 by the electronic pen 1 is generated, and coordinate conversion is performed by the coordinate conversion unit 242 based on the stroke information of the entered characters. When the stroke input to is identified as the character recognition target stroke ST, the character entry area control unit 244 is linked with the first recognition processing of the character recognition processing unit 243 and each time one character is recognized by the character recognition processing unit 243. In addition, the reference point 220 of the recognized character is calculated based on the stroke group forming one character. The character entry area control unit 244 further calculates the inclination angle (θ) of the character string based on the calculated reference point 220 of the character, and calculates the inclination angle (θ calculated based on the predetermined base point B). ) Is controlled so as to have the same angle (hereinafter referred to as “rotation angle”) (θ).

具体的には、文字記入領域制御部244は、図7(a)に示すように、一文字目の第1文字W1が認識されると、認識された第1文字W1を形成するストローク群に基づいて、座標変換された表示手段26の表示エリア201の座標上の最上点221a、最下点222a、最左点223a及び最右点224aを認識する。そして、文字記入領域制御部244は、これらの最上点221a、最下点222a、最左点223a及び最右点224aの各点に基づいて文字のストローク群の中心となる基準点220aを求める。また、文字記入領域制御部244は、同様にして、二文字目の第2文字W2が認識されると、認識された第2文字W2を形成するストローク群に基づいて、最上点221b、最下点222b、最左点223b及び最右点224bを認識し、これらの各点からの基準点220bを求める。なお、以下、第n文字Wnの基準点220χを第n基準点220χと呼ぶ。そして、第2基準点220bが算出されると、文字記入領域制御部244は、この第2基準点220bと既に求めてある第1基準点220aとによって形成される直線Lの座標上の傾きαを文字列の傾斜角度(θ)として算出する。さらに、文字記入領域制御部244は、図7(b)に示すように、文字記入領域206の左上を基点Bとして、この算出された傾斜角度(θ(=α))と同一の回転角度(θ)を有するように文字記入領域206を回転させる。そして、ユーザが文字記入中であっても、傾斜角度(θ)が算出されれば、文字記入領域206は回転制御されるので、文字記入領域制御部244は、図7(b)に示すように、ユーザが第3文字W3を入力中であっても、傾斜角度(θ(=α))が算出されれば、文字記入領域206が回転制御される。   Specifically, as shown in FIG. 7A, the character entry area control unit 244, when the first character W1 of the first character is recognized, is based on the stroke group that forms the recognized first character W1. Thus, the uppermost point 221a, the lowermost point 222a, the leftmost point 223a, and the rightmost point 224a on the coordinates of the display area 201 of the display means 26 after the coordinate conversion are recognized. Then, the character entry area control unit 244 obtains a reference point 220a serving as the center of the character stroke group based on the uppermost point 221a, the lowermost point 222a, the leftmost point 223a, and the rightmost point 224a. Similarly, when the second character W2 of the second character is recognized, the character entry area control unit 244 determines the highest point 221b and the lowest point based on the stroke group that forms the recognized second character W2. The point 222b, the leftmost point 223b, and the rightmost point 224b are recognized, and the reference point 220b from each of these points is obtained. Hereinafter, the reference point 220χ of the nth character Wn is referred to as the nth reference point 220χ. When the second reference point 220b is calculated, the character entry area control unit 244 determines the inclination α on the coordinates of the straight line L formed by the second reference point 220b and the already obtained first reference point 220a. Is calculated as the inclination angle (θ) of the character string. Further, as shown in FIG. 7B, the character entry area control unit 244 uses the upper left corner of the character entry area 206 as a base point B, and the rotation angle (θ (= α)) equal to the calculated inclination angle (θ (= α)). The character entry area 206 is rotated to have θ). Even if the user is entering characters, if the inclination angle (θ) is calculated, the character entry region 206 is controlled to rotate, so that the character entry region control unit 244 is as shown in FIG. Even if the user is inputting the third character W3, if the inclination angle (θ (= α)) is calculated, the character entry area 206 is controlled to rotate.

また、算出された基準点220が一つの場合には、すなわち、図7(a)において第1文字W1として文字「明」のみ認識され、算出された基準点が220aだけの場合には、文字記入領域制御部244は、傾斜角度(θ)を算出することができないので、文字列の傾斜角度(θ)を算出せずに文字記入領域206の回転制御処理を行わない。その一方、文字記入領域制御部244は、3文字以上の複数の文字が認識され、既に一以上の文字列の傾斜角度(θ)が算出されている場合には、すなわち、文字記入領域206が予め定められた位置(傾斜角度(θ)=0)から既に回転している場合には、既に算出された傾斜角度(θ)(以下、「第1傾斜角度(θ1)」という。)と新規に算出された傾斜角度(θ)(以下、「第2傾斜角度(θ2)」という。)とに基づいて新たな傾斜角度(θ)(以下、「第3傾斜角度(θ3)」という。)を算出し、算出された第3傾斜角度(θ3)に基づいて文字記入領域206を回転させる。特に、図8(a)及び(b)示すように、1文字目と2文字目とによって形成される直線L1の傾きα(すなわち、第1傾斜角度(θ1=α))が既に算出されている場合に、3文字目の認識が実行されて第3基準点220cが求められると、第1基準点220aと第3基準点220cによって形成される直線L2の座標上の傾きβを第2傾斜角度(θ2)として算出する。そして、文字記入領域制御部244は、第1傾斜角度(θ1(=α))(=回転角度(θ))と今回算出された第2傾斜角度(θ2(=β))に基づいて(式1)の演算を実行して新たな傾きγ(すなわち、第3傾斜角度(θ3))を算出し、図8(b)に示すように、文字記入領域206の左上の点を基点Bとして、算出された第3傾斜角度(θ3(=γ))と同一の回転角度(θ)を有するように、既に第1傾斜角度(θ1(=α))によって回転されている文字記入領域206を更に回転させる。   If the calculated reference point 220 is one, that is, only the character “bright” is recognized as the first character W1 in FIG. 7A, and the calculated reference point is only 220a, the character Since the entry area control unit 244 cannot calculate the inclination angle (θ), the entry area control unit 244 does not calculate the inclination angle (θ) of the character string and does not perform the rotation control process of the character entry area 206. On the other hand, when a plurality of three or more characters are recognized and the inclination angle (θ) of one or more character strings has already been calculated, the character entry region control unit 244, that is, the character entry region 206 When the rotation has already started from a predetermined position (tilt angle (θ) = 0), the calculated tilt angle (θ) (hereinafter referred to as “first tilt angle (θ1)”) and a new one are newly added. Based on the calculated tilt angle (θ) (hereinafter referred to as “second tilt angle (θ2)”), a new tilt angle (θ) (hereinafter referred to as “third tilt angle (θ3)”). And the character entry area 206 is rotated based on the calculated third inclination angle (θ3). In particular, as shown in FIGS. 8A and 8B, the inclination α (that is, the first inclination angle (θ1 = α)) of the straight line L1 formed by the first character and the second character has already been calculated. If the third reference point 220c is obtained by executing the recognition of the third character, the inclination β on the coordinates of the straight line L2 formed by the first reference point 220a and the third reference point 220c is set to the second inclination. Calculated as the angle (θ2). Then, the character entry area control unit 244 is based on the first inclination angle (θ1 (= α)) (= rotation angle (θ)) and the second inclination angle (θ2 (= β)) calculated this time (formula 1) is performed to calculate a new inclination γ (that is, the third inclination angle (θ3)), and the upper left point of the character entry area 206 is set as a base point B as shown in FIG. The character entry area 206 that has already been rotated by the first tilt angle (θ1 (= α)) so as to have the same rotation angle (θ) as the calculated third tilt angle (θ3 (= γ)) is further provided. Rotate.

Figure 2011103092
Figure 2011103092

なお、4文字目以降の文字認識処理も同様に、第1傾斜角度(θ1)及び第2傾斜角度(θ2)に基づいて第3傾斜角度(θ3)を算出して文字記入領域206を回転させる。例えば、図8の例によれば、3文字目の認識の際に文字記入領域制御部244により(式1)の演算によって算出された傾斜角度γが、4文字目を認識した際に実行される回転制御処理においては第1傾斜角度(θ1)に該当し、4文字目の文字の図示しない基準点に基づいて算出される直線の傾きは、第2傾斜角度(θ2)に該当することとなる。   Similarly, in the character recognition processing for the fourth and subsequent characters, the third tilt angle (θ3) is calculated based on the first tilt angle (θ1) and the second tilt angle (θ2), and the character entry area 206 is rotated. . For example, according to the example of FIG. 8, the inclination angle γ calculated by the calculation of (Equation 1) by the character entry area control unit 244 at the time of recognition of the third character is executed when the fourth character is recognized. In the rotation control process, the inclination of the straight line calculated based on the reference point (not shown) of the fourth character corresponds to the second inclination angle (θ2). Become.

(5)表示制御手段
表示制御部245は、キャリブレーション処理の際、キャリブレーション処理部241の指示により、キャリブレーション用マークを表示手段26の表示エリア201に表示させる。また、表示制御部245は、文字記入領域制御部244の指示により、文字記入領域206及び画定マーク207を表示させること、及び、電子ペン1を用いた操作による文字記入領域206の回転中及び回転後の状態をリアルタイムで表示手段26の表示エリア201に表示させることが可能である。また、表示制御部245は、電子ペン1から送信された記入情報の座標データが座標変換部242によって座標変換された位置座標(較正座標)によるストロークを、表示手段26の表示エリア201に表示させる。
(5) Display Control Unit The display control unit 245 displays a calibration mark in the display area 201 of the display unit 26 according to an instruction from the calibration processing unit 241 during the calibration process. Further, the display control unit 245 displays the character entry region 206 and the demarcation mark 207 according to an instruction from the character entry region control unit 244, and rotates and rotates the character entry region 206 by an operation using the electronic pen 1. It is possible to display the later state in the display area 201 of the display means 26 in real time. Further, the display control unit 245 causes the display area 201 of the display unit 26 to display a stroke based on the position coordinates (calibration coordinates) obtained by coordinate conversion of the coordinate data of the entry information transmitted from the electronic pen 1 by the coordinate conversion unit 242. .

特に、表示制御部245は、第2認識処理が実行された場合には、文字記入領域206に表示されている文字、記号及びその他の図形など、手書きされたストロークの表示を消去し、第2認識処理の文字認識によって特定された文字及び記号のテキストデータを、文字入力する位置として定められた場所に表示させる。具体的には、コンピュータ装置2がテキストエディタ等のプログラムを実行中で、表示手段26の表示エリア201にそのプログラムウインドウ(図1に示す認識文字表示位置マーク205)を表示している場合には、表示制御部245は、文字認識によって特定された文字等のテキストデータを、認識文字表示位置マーク205上の文字入力用のカーソルのある位置に表示させる。このとき、表示制御部245は、文字認識後のテキストデータ候補を一旦、文字記入領域206または図示しない候補文字表示領域に表示して、コンピュータ装置2などの図示しない確定キーまたは座標入力領域403内の図示しない確定領域または電子ペン1の文字記入領域406内もしくは図示しない候補文字表示領域内でのタップ動作を検知することで、定められた文字入力位置に表示させるように構成してもよい。   In particular, when the second recognition process is executed, the display control unit 245 erases the display of handwritten strokes such as characters, symbols, and other graphics displayed in the character entry area 206, and the second The text data of the character and the symbol specified by the character recognition in the recognition process is displayed at a place determined as a character input position. Specifically, when the computer device 2 is executing a program such as a text editor and the program window (the recognized character display position mark 205 shown in FIG. 1) is displayed in the display area 201 of the display means 26. The display control unit 245 displays text data such as a character specified by character recognition at a position where the character input cursor is located on the recognized character display position mark 205. At this time, the display control unit 245 temporarily displays the text data candidates after character recognition in the character entry area 206 or a candidate character display area (not shown), and in the confirmation key or coordinate input area 403 (not shown) such as the computer device 2. It may be configured to display at a predetermined character input position by detecting a tap operation in a fixed region (not shown) or a character entry region 406 of the electronic pen 1 or a candidate character display region (not shown).

また、表示制御部245は、スクリーン4に種々の画像を投影して表示させるために、表示エリア201に表示する各画像を同期させてプロジェクター3に投影させるための画像信号をそれぞれ送信手段27に出力し、プロジェクター3へ送信させる。なお、プロジェクター3は、コンピュータ装置2の送信手段27から受信した画像信号に基づいて、表示手段26に表示された画像と同様の画像をスクリーン4の画像投影領域403に映し出す。   In addition, the display control unit 245 projects image signals for projecting the projector 3 in synchronization with the images displayed on the display area 201 in order to project and display various images on the screen 4. Output and send to the projector 3. The projector 3 projects an image similar to the image displayed on the display unit 26 on the image projection area 403 of the screen 4 based on the image signal received from the transmission unit 27 of the computer apparatus 2.

[第1認識処理を伴う回転制御処理]
次に、図9を用いて情報処理システム10における第1認識処理を伴う回転制御処理の動作について、記入情報の受信に伴う各種の処理とともに説明する。なお、図9は、第1認識処理を伴う回転制御処理を含む表示処理を示すフローチャートである。
[Rotation control process with first recognition process]
Next, the operation of the rotation control process involving the first recognition process in the information processing system 10 will be described with reference to FIG. 9 together with various processes accompanying the reception of entry information. FIG. 9 is a flowchart showing a display process including a rotation control process with a first recognition process.

本動作処理においては、予めキャリブレーション処理部241によりキャリブレーション処理が実行され、座標変換関数が求められて記憶手段25に記憶されており、座標変換部242による座標変換が行われる状態にある。そして、文字記入領域制御部244は、記憶手段25に記憶された文字記入領域206の座標領域の初期値を参照して、図1に示すように、表示手段26の表示エリア201の左下に、長方形状の画定マーク207によって画定される文字記入領域206を表示させている。また、この画像と同じ画像を示すための画像信号が、送信手段27からプロジェクター3へ送信されているため、プロジェクター3により、スクリーン4の画像投影領域403の左下には、画定マーク407によって画定される文字記入領域406が投影されて表示されている。   In this operation processing, calibration processing is executed in advance by the calibration processing unit 241, a coordinate conversion function is obtained and stored in the storage unit 25, and coordinate conversion is performed by the coordinate conversion unit 242. Then, the character entry area control unit 244 refers to the initial value of the coordinate area of the character entry area 206 stored in the storage means 25, and as shown in FIG. 1, at the lower left of the display area 201 of the display means 26, A character entry area 206 defined by a rectangular definition mark 207 is displayed. In addition, since an image signal for indicating the same image as this image is transmitted from the transmission unit 27 to the projector 3, the projector 3 defines the image projection area 403 of the screen 4 with a demarcation mark 407. A character entry area 406 is projected and displayed.

まず、記入者であるユーザによってスクリーン4上に一のストロークが記入されると、電子ペン1は、この記入されたストロークの各記入情報をコンピュータ装置2に順次送信する(ステップS101)。具体的には、電子ペン1は、圧力センサ107によって検出した筆圧に基づいてペンダウンが検知されてユーザによってストロークの開始を認識すると、LED105及びCMOSカメラ106をオンにし、圧力センサ107によってペンアップが検出されてユーザによるストロークの終了を認識するまで、所定の時間間隔毎にスクリーン4のドットパターンを撮影し、当該撮影された画像毎に、ペンID、時刻情報(T)及びX,Y座標データを含む記入情報を生成して順次コンピュータ装置2に送信する。   First, when one stroke is entered on the screen 4 by the user who is the writer, the electronic pen 1 sequentially transmits each entry information of the entered stroke to the computer device 2 (step S101). Specifically, when the pen is detected based on the pen pressure detected by the pressure sensor 107 and the start of the stroke is recognized by the user, the electronic pen 1 turns on the LED 105 and the CMOS camera 106, and the pressure sensor 107 pens up. Until the end of the stroke is recognized by the user, the dot pattern on the screen 4 is photographed at predetermined time intervals, and the pen ID, time information (T), and X, Y coordinates are taken for each photographed image. The entry information including the data is generated and sequentially transmitted to the computer apparatus 2.

また、コンピュータ装置2において電子ペン1から送信された各記入情報(ストローク情報)の受信を開始すると、処理手段24は、当該記入情報をペンID毎に記憶手段25に順次記憶させる(ステップS201)。   Further, when the computer device 2 starts receiving each entry information (stroke information) transmitted from the electronic pen 1, the processing means 24 sequentially stores the entry information in the storage means 25 for each pen ID (step S201). .

次いで、座標変換部242は、記憶手段25に記憶されている座標変換関数に基づいて、受信した各記入情報の座標データを表示手段26の表示エリア201に表示するための座標に順次変換する(ステップS202)。そして、座標変換部242は、座標変換後の較正座標のデータをストローク毎にペンIDに対応付けて記憶手段25に順次記憶させるとともに、座標変換後の較正座標のデータを当該較正座標に基づいてストロークとして描画して表示手段26の表示エリア201に表示する(ステップS203)。なお、ステップS203の処理のときに、送信手段27は、表示手段26の表示エリア201に表示されている画像と同一の画像、すなわち、描画されたストロークを含む画像をスクリーン4に投影するための画像信号をプロジェクター3へ送信する。   Next, the coordinate conversion unit 242 sequentially converts the received coordinate data of each entry information into coordinates for displaying in the display area 201 of the display unit 26 based on the coordinate conversion function stored in the storage unit 25 ( Step S202). The coordinate conversion unit 242 sequentially stores the calibration coordinate data after coordinate conversion in the storage unit 25 in association with the pen ID for each stroke, and the coordinate coordinate data after coordinate conversion is based on the calibration coordinates. Drawing as a stroke and displaying it in the display area 201 of the display means 26 (step S203). In the process of step S203, the transmission unit 27 projects the same image as the image displayed in the display area 201 of the display unit 26, that is, an image including a drawn stroke on the screen 4. An image signal is transmitted to the projector 3.

次いで、座標変換部242は、受信された各記入情報に対して、座標変換部242によって座標変換された各記入情報の座標(較正座標)が文字記入領域206内に含まれるか否かを判断する(ステップS204)。すなわち、座標変換部242は、受信した各記入情報から構成されるストロークが文字認識対象ストロークSTに該当するか否かを判断する。この場合において、スクリーン4上の文字記入領域406は、表示手段26の表示エリア201の文字記入領域206に対応するため、ユーザがスクリーン4上の文字記入領域406内に文字又は記号を入力することによって送信されたストロークの各記入情報における座標データから、座標変換部242による座標変換により、表示エリア201における文字記入領域206にこのストロークが含まれていることを認識することができる。   Next, the coordinate conversion unit 242 determines whether or not the coordinates (calibration coordinates) of the entry information coordinate-converted by the coordinate conversion unit 242 are included in the character entry area 206 for each received entry information. (Step S204). That is, the coordinate conversion unit 242 determines whether or not the stroke configured from the received entry information corresponds to the character recognition target stroke ST. In this case, since the character entry area 406 on the screen 4 corresponds to the character entry area 206 of the display area 201 of the display means 26, the user inputs a character or symbol into the character entry area 406 on the screen 4. It can be recognized from the coordinate data in each entry information of the stroke transmitted by that the character entry area 206 in the display area 201 includes this stroke by coordinate conversion by the coordinate conversion unit 242.

ステップS204の処理において、座標変換部242が、各較正座標に基づいて、受信された各記入情報から構成されるストロークが文字記入領域206に含まれていると判断した場合には、すなわち、文字認識対象ストロークSTであると特定した場合には(ステップS204:Yes)、座標変換部242は、この文字認識対象ストロークSTを記憶手段25に記憶して、文字認識処理部243によるステップS205の一文字毎のストローク群を特定するための認識処理、すなわち、第1認識処理に移行する。一方、座標変換部242は、較正座標に基づいて受信された各記入情報から構成されるストロークが文字記入領域206に含まれていないと判断した場合には(ステップS204:No)、本動作処理を終了させる。   In the process of step S204, when the coordinate conversion unit 242 determines that the stroke composed of the received entry information is included in the character entry area 206 based on each calibration coordinate, that is, the character When it is determined that the stroke is the recognition target stroke ST (step S204: Yes), the coordinate conversion unit 242 stores the character recognition target stroke ST in the storage unit 25, and the character recognition processing unit 243 performs one character of step S205. The process proceeds to a recognition process for specifying each stroke group, that is, a first recognition process. On the other hand, when the coordinate conversion unit 242 determines that the stroke formed from each piece of entry information received based on the calibration coordinates is not included in the character entry area 206 (step S204: No), this operation process End.

受信された各記入情報から構成されるストロークが文字認識対象ストロークSTであると判断されると(ステップS204:Yes)、文字認識処理部243は、受信された各記入情報から構成されるストロークに基づいて較正座標を用いて第1認識処理を実行する(ステップS205)。具体的には、文字認識処理部243は、既に特定された他の文字認識対象ストロークSTn〜ST(t−1)が存在する場合には、新規に特定された文字認識対象ストロークSTt及び他の文字認識対象ストロークSTn〜ST(t−1)を用いて総合的に文字認識処理を実行する。   If it is determined that the stroke composed of the received entry information is the character recognition target stroke ST (step S204: Yes), the character recognition processing unit 243 converts the stroke composed of the received entry information into a stroke. Based on the calibration coordinates, the first recognition process is executed (step S205). Specifically, the character recognition processing unit 243, when there are already specified other character recognition target strokes STn to ST (t-1), newly specified character recognition target stroke STt and other character recognition target strokes STt. Character recognition processing is comprehensively executed using the character recognition target strokes STn to ST (t-1).

次いで、文字認識処理部243は、ステップS205の第1認識処理の結果、文字認識対象ストロークST群が一文字認識できるか否かを判断する(ステップS206)。そして、文字認識処理部243が一文字認識できると判断した場合には(ステップS206:Yes)、文字記入領域制御部244によるステップS207の処理に移行し、文字認識処理部243が一文字認識できないと判断した場合には(ステップS206:No)、文字認識処理部243は本動作処理を終了させる。   Next, the character recognition processing unit 243 determines whether or not the character recognition target stroke ST group can be recognized as a result of the first recognition processing in step S205 (step S206). When the character recognition processing unit 243 determines that one character can be recognized (step S206: Yes), the process proceeds to step S207 by the character entry area control unit 244, and the character recognition processing unit 243 determines that one character cannot be recognized. If it has been performed (step S206: No), the character recognition processing unit 243 ends the operation processing.

文字認識処理部243が一文字認識できると判断した場合(ステップS206:Yes)、文字記入領域制御部244は、ステップS206において認識された一文字を構成するストローク群の各較正座標に基づいて認識された一文字の基準点220tを算出して記憶手段25に記憶させる(ステップS207)。続いて、文字記入領域制御部244は、この算出された基準点220tが第1文字W1の第1基準点220aであるか否かを判断して(ステップS208)、第1基準点220aでないと判断した場合には(ステップS208:No)、ステップS209の処理に移行する。一方、文字記入領域制御部244は、ステップS207で算出された基準点220tが第1基準点220aであると判断した場合には(ステップS208:Yes)、すなわち、ステップS205において認識された文字が第1文字W1の場合には、傾斜角度(θ)を算出せずに、本動作処理を終了させる。   When the character recognition processing unit 243 determines that one character can be recognized (step S206: Yes), the character entry area control unit 244 is recognized based on each calibration coordinate of the stroke group constituting one character recognized in step S206. One character reference point 220t is calculated and stored in the storage means 25 (step S207). Subsequently, the character entry area control unit 244 determines whether or not the calculated reference point 220t is the first reference point 220a of the first character W1 (step S208), and is not the first reference point 220a. If it is determined (step S208: No), the process proceeds to step S209. On the other hand, when the character entry area control unit 244 determines that the reference point 220t calculated in step S207 is the first reference point 220a (step S208: Yes), that is, the character recognized in step S205 is the same. In the case of the first character W1, the operation process is terminated without calculating the inclination angle (θ).

文字記入領域制御部244は、ステップS207で算出された基準点220tが第1基準点220aでないと判断した場合には(ステップS208:No)、文字記入領域制御部244は、算出された基準点220tに基づいて文字列の傾斜角度(θ)を算出して文字記入領域206を回転させる(ステップS209)。図7及び図8に示す例では、文字記入領域制御部244は、ステップ207において算出された基準点220tが第2文字W2の第2基準点220bの場合には、既に算出されている第1文字W1の第1基準点220aと今回算出された第2基準点220bとに基づいて形成される直線L1の傾きを第1傾斜角度(θ1)として算出する。さらに、文字記入領域制御部244は、算出された基準点220が第3基準点220cである場合には、既に算出されている第1基準点220aと新規に算出された第3基準点220cに基づいて第2傾斜角度(θ2)を算出して、さらに、既に算出された第1傾斜角度(θ1)と新規に算出した第2傾斜角度(θ2)とに基づいて(式1)の演算によって第3傾斜角度(θ3)を文字列の傾斜角度(θ)として算出する(ステップS209)。   When the character entry area control unit 244 determines that the reference point 220t calculated in step S207 is not the first reference point 220a (step S208: No), the character entry area control unit 244 determines that the calculated reference point Based on 220t, the inclination angle (θ) of the character string is calculated to rotate the character entry area 206 (step S209). In the example shown in FIGS. 7 and 8, the character entry area control unit 244 determines that the first already calculated first reference point 220t calculated in step 207 is the second reference point 220b of the second character W2. The inclination of the straight line L1 formed based on the first reference point 220a of the character W1 and the second reference point 220b calculated this time is calculated as the first inclination angle (θ1). Further, when the calculated reference point 220 is the third reference point 220c, the character entry area control unit 244 determines whether the calculated first reference point 220a and the newly calculated third reference point 220c are the same. The second inclination angle (θ2) is calculated based on the calculation result, and further, the calculation of (Equation 1) is performed based on the already calculated first inclination angle (θ1) and the newly calculated second inclination angle (θ2). The third inclination angle (θ3) is calculated as the inclination angle (θ) of the character string (step S209).

次いで、文字記入領域制御部244は、算出した傾斜角度(θ)と同一の回転角度(θ)となるように、文字記入領域206を、画定マーク207を表示手段26の表示エリア201に表示させつつ、回転させる(ステップS209)。なおこのとき、プロジェクター3によって、コンピュータ装置2の表示手段26と同じ画像がスクリーン4の画像投影領域403に投影されているため、スクリーン4に投影されている文字記入領域406も、文字記入領域206の回転に合わせて回転する。   Next, the character entry area control unit 244 displays the character entry area 206 in the display area 201 of the display means 26 so that the rotation angle (θ) is the same as the calculated tilt angle (θ). While rotating (step S209). At this time, since the projector 3 projects the same image as the display unit 26 of the computer apparatus 2 onto the image projection area 403 of the screen 4, the character entry area 406 projected on the screen 4 is also the character entry area 206. Rotate according to the rotation.

最後に、文字記入領域制御部244は、ステップS209において算出された傾斜角度(θ)及び回転された回転後の文字記入領域206の座標領域を記憶手段25に記憶させて(ステップS210)、本動作処理を終了させる。   Finally, the character entry area control unit 244 causes the storage unit 25 to store the tilt angle (θ) calculated in step S209 and the rotated coordinate area of the character entry area 206 after the rotation (step S210). The operation process is terminated.

[第2認識処理]
次に、図10を用いて本第1実施形態における情報処理システム10の第2認識処理の動作について説明する。なお、図10は、第2認識処理の動作を示すフローチャートである。
[Second recognition process]
Next, the operation of the second recognition process of the information processing system 10 in the first embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing the operation of the second recognition process.

まず、コンピュータ装置2においてこのコンピュータ装置2に設けられた図示しない認識開始キーが認識される等、所定の動作に基づく文字認識処理の開始指示を認識すると(ステップS301)、文字認識処理部243は、各文字認識対象ストローク(電子ペン1により文字記入領域406に記入されて文字記入領域206に入力されたストローク)STの各較正座標に対して、ステップS209において算出された回転角度(θ)の分、逆回転させ(−θの回転行列をかけて)、各文字認識対象ストロークSTを正規化する(ステップS302)。なお、このときに、文字記入領域206を初期値、すなわち、記憶手段25に記憶されている初期の座標の位置に戻してもよいし、そのままの位置を保持してもよい。   First, when the computer device 2 recognizes a start instruction for character recognition processing based on a predetermined operation, such as a recognition start key (not shown) provided in the computer device 2 is recognized (step S301), the character recognition processing unit 243 For each calibration coordinate of each character recognition target stroke (stroke entered in the character entry area 406 by the electronic pen 1 and input into the character entry area 206), the rotation angle (θ) calculated in step S209 is calculated. The character recognition target stroke ST is normalized by rotating it in reverse (by applying a rotation matrix of −θ) (step S302). At this time, the character entry area 206 may be returned to the initial value, that is, the position of the initial coordinates stored in the storage means 25, or the position as it is may be held.

そして、文字認識処理部243は、記憶手段25に記録されているパターン情報を照合して、正規化された文字記入領域206内のX,Y座標群によるパターン(各文字認識対象ストロークST群の形状)から一または複数の文字または記号を認識する認識処理を行う(ステップS303)。次いで、文字認識処理部243は、文字認識された文字、記号等を文字記入領域206から消去し、さらに文字認識に用いた文字認識対象ストロークST等の各データを記憶手段25から消去して、文字認識後に特定された文字及び記号のテキストデータを、記憶手段25に記憶させると共に、表示エリア201の文字入力する位置として定められた場所に表示させて(ステップS304)、本処理を終了させる。   Then, the character recognition processing unit 243 collates the pattern information recorded in the storage unit 25, and the pattern based on the X and Y coordinate groups in the normalized character entry area 206 (for each character recognition target stroke ST group). Recognition processing for recognizing one or more characters or symbols from the shape) is performed (step S303). Next, the character recognition processing unit 243 deletes the characters, symbols, and the like that have been character-recognized from the character entry area 206, and further deletes each data such as the character recognition target stroke ST used for character recognition from the storage means 25, The text data of the characters and symbols specified after the character recognition is stored in the storage means 25 and displayed at a position determined as a character input position in the display area 201 (step S304), and this processing is terminated.

[第1実施形態の作用効果]
以上のように、本実施形態の情報処理システム10は、ユーザによって電子ペン1を用いてスクリーン4上の文字記入領域406内に文字が記入されると、ストローク(電子ペン1の移動経路)が、コンピュータ装置2の表示手段26の文字記入領域206に入力された文字列としてスクリーン4に投影されるとともに、当該文字の記入中であって一文字認識される毎にユーザによって入力された文字列の傾斜角度(θ)を算出し、算出された傾斜角度(θ)に基づいて文字記入領域206(406)を回転させることができる。したがって、情報処理システム10は、文字記入中に文字列が右肩上がり(左肩上がり)になる、又は、当該文字列が右肩下がり(左肩下がり)になるなど、ユーザの癖または当該ユーザのスクリーンに対する立ち位置による記入状況を勘案して文字記入におけるユーザの状況の変化に併せて文字記入領域を回転させることができるので、コンピュータ装置2への文字の入力にあたって、ユーザにスムーズにスクリーン上4で文字を記入させることができる。
[Effects of First Embodiment]
As described above, in the information processing system 10 according to the present embodiment, when a character is entered in the character entry area 406 on the screen 4 by the user using the electronic pen 1, a stroke (movement path of the electronic pen 1) is generated. The character string inputted to the character entry area 206 of the display means 26 of the computer device 2 is projected on the screen 4 and the character string inputted by the user every time one character is recognized while the character is being entered. The tilt angle (θ) can be calculated, and the character entry area 206 (406) can be rotated based on the calculated tilt angle (θ). Accordingly, the information processing system 10 may cause the user's habit or the user's screen such that the character string rises to the right (upward to the left) or the character string goes down to the right (downward to the left) during character entry. The character entry area can be rotated in accordance with the change of the user's situation in the character entry in consideration of the entry situation depending on the standing position with respect to the character, so that the user can smoothly enter the character on the screen 4 when inputting the character into the computer device 2. Lets you fill in letters.

また、本実施形態の情報処理システム10は、一文字毎に文字列の傾斜角度(θ)を算出することができるので、ユーザが記入した文字列を的確に把握しつつ、文字列の傾斜角度(θ)を算出することができる。したがって、情報処理システム10は、ユーザが電子ペン1を用いて記入した文字列に的確に対応させて文字記入領域206(406)を回転させることができる。   In addition, since the information processing system 10 according to the present embodiment can calculate the inclination angle (θ) of the character string for each character, the inclination angle of the character string ( θ) can be calculated. Therefore, the information processing system 10 can rotate the character entry area 206 (406) in an appropriate manner corresponding to the character string entered by the user using the electronic pen 1.

また、本実施形態の情報処理システム10は、各文字の基準点220を比較するだけで文字列の傾斜角度(θ)を算出することができるので、容易にかつ確実にこの文字列の傾斜角度(θ)を算出することができる。   Further, since the information processing system 10 of the present embodiment can calculate the inclination angle (θ) of the character string simply by comparing the reference points 220 of the respective characters, the inclination angle of the character string can be easily and reliably obtained. (Θ) can be calculated.

また、本実施形態の情報処理システム10は、文字記入領域206(406)の回転角度(θ)に基づいて、各ストローク(電子ペン1の移動経路)を、回転する前の文字記入領域206(406)に対応するストロークに変換することができるので、記入された各文字における傾斜が生じていない状態によって文字列の認識処理を再度実行することができる。この結果、情報処理システム10は、文字認識の精度を向上させることができる。   In addition, the information processing system 10 according to the present embodiment, based on the rotation angle (θ) of the character entry area 206 (406), sets each stroke (movement path of the electronic pen 1) to the character entry area 206 (before the rotation) ( 406), the character string recognition process can be executed again according to a state in which no inclination occurs in each entered character. As a result, the information processing system 10 can improve the accuracy of character recognition.

また、本実施形態の情報処理システム10は、文字列の傾斜角度(θ)が既に算出されている場合には、既に算出された一以上の第1傾斜角度(θ1)と新規に算出された第2傾斜角度(θ2)とに基づいて新たな第3傾斜角度(θ3)を算出し、この算出された第3傾斜角度(θ3)に基づいて文字記入領域206(406)を回転させることができるので、既に記入された文字列を勘案して傾斜角度(θ)を算出することができる。したがって、情報処理システム10は、文字記入領域206(406)の回転をユーザの記入状況に併せて確実に回転させることができる。   In addition, when the inclination angle (θ) of the character string has already been calculated, the information processing system 10 according to the present embodiment is newly calculated as one or more first inclination angles (θ1) that have already been calculated. A new third tilt angle (θ3) is calculated based on the second tilt angle (θ2), and the character entry area 206 (406) is rotated based on the calculated third tilt angle (θ3). Therefore, the inclination angle (θ) can be calculated in consideration of the already entered character string. Therefore, the information processing system 10 can reliably rotate the character entry area 206 (406) in accordance with the user entry situation.

また、本実施形態の情報処理システム10は、スクリーン4上の座標が座標変換部242によって表示手段26の表示エリア201の座標に変換されたうえで、文字記入領域206(406)を回転させるので、スクリーン4と表示手段26の表示エリア201の異なる座標系を用いても文字記入領域406(206)の回転制御処理を確実に実行することができる。   In the information processing system 10 according to the present embodiment, the coordinates on the screen 4 are converted into the coordinates of the display area 201 of the display unit 26 by the coordinate conversion unit 242 and then the character entry area 206 (406) is rotated. Even if different coordinate systems are used for the screen 4 and the display area 201 of the display means 26, the rotation control processing of the character entry area 406 (206) can be reliably executed.

[変形例]
次に、図11〜図15の各図を用いて第1実施形態の情報処理装置の第1〜第5変形例について説明する。なお、図11〜図13の各図はそれぞれ、第1〜第3変形例に関する文字記入領域の回転制御処理を説明するための図であって、ぞれぞれの変形例における文字列の傾斜角度(θ)における算出例を説明するための図である。また、図14は、第4変形例に関する文字記入領域の回転制御処理を説明するための図であり、特に、図14(a)は、3文字目が記入されたときの文字列における傾斜角度(θ)の算出例を説明するための図、及び、図14(b)は、算出された傾斜角度(θ)に基づいて回転される文字記入領域の一例である。さらに、図15は、第5変形例に関する文字記入領域の回転制御処理を説明するための図であって、3文字目が記入されたときの文字列における傾斜角度(θ)の算出例を説明するための図である。
[Modification]
Next, first to fifth modifications of the information processing apparatus according to the first embodiment will be described with reference to FIGS. Each of FIGS. 11 to 13 is a diagram for explaining the rotation control processing of the character entry area regarding the first to third modifications, and the inclination of the character string in each modification. It is a figure for demonstrating the example of calculation in an angle ((theta)). FIG. 14 is a diagram for explaining the rotation control processing of the character entry area according to the fourth modified example. In particular, FIG. 14A shows the inclination angle in the character string when the third character is entered. FIG. 14B and FIG. 14B for explaining an example of calculating (θ) are examples of the character entry area rotated based on the calculated inclination angle (θ). Further, FIG. 15 is a diagram for explaining the rotation control processing of the character entry area regarding the fifth modified example, and explains an example of calculating the inclination angle (θ) in the character string when the third character is entered. It is a figure for doing.

第1変形例の情報処理システム10は、第1実施形態の文字認識処理部243において、一文字に属する文字認識対象ストロークSTによって求められた複数の座標に基づいて各文字の基準点220を算出している点に代えて、一文字に属する各文字認識対象ストロークSTの全ての座標(サンプル点)Sに基づいて各文字における基準点220を算出して文字列の傾斜角度(θ)を算出する点に特徴がある。なお、その他の構成は、第1実施形態と同一である。   In the information processing system 10 of the first modification, the character recognition processing unit 243 of the first embodiment calculates the reference point 220 of each character based on a plurality of coordinates obtained by the character recognition target stroke ST belonging to one character. Instead of calculating the reference point 220 for each character based on all the coordinates (sample points) S of each character recognition target stroke ST belonging to one character, the inclination angle (θ) of the character string is calculated. There is a feature. Other configurations are the same as those of the first embodiment.

具体的には、第1変形例の情報処理システム10においては、文字記入領域制御部244は、図11に示すように、一文字に属する各文字認識対象ストロークSTの全ての較正座標(サンプル点)Sに基づいて、X座標及びY座標の平均(以下、「平均座標」という。)を算出し、算出された平均座標を第1文字W1の第1基準点220a及び第2文字W2の第2基準点220bとして設定する。そして、情報処理システム10は、第1実施形態と同様に、第1基準点220a及び第2基準点220bによって形成される直線Lの座標上の傾きαを傾斜角度(θ)として算出するように構成されている。また、三文字目以降においても、文字記入領域制御部244は、同様に、一文字に属する各文字認識対象ストロークSTの全ての較正座標(サンプル点)Sに基づいて算出された平均座標を基準点220として算出し、算出された基準点220に基づいて傾斜角度(θ)を算出する。この構成により、第1変形例の情報処理システム10は、各文字の平均座標を基準点220として文字列の傾斜角度(θ)を算出することができるので、容易にかつ確実にこの文字列の傾斜角度(θ)を算出することができる。   Specifically, in the information processing system 10 of the first modified example, the character entry area control unit 244, as shown in FIG. 11, all calibration coordinates (sample points) of each character recognition target stroke ST belonging to one character. Based on S, the average of the X coordinate and the Y coordinate (hereinafter referred to as “average coordinate”) is calculated, and the calculated average coordinates are used as the second reference point 220a of the first character W1 and the second reference point of the second character W2. Set as reference point 220b. Then, as in the first embodiment, the information processing system 10 calculates the inclination α on the coordinates of the straight line L formed by the first reference point 220a and the second reference point 220b as the inclination angle (θ). It is configured. Also, after the third character, the character entry area control unit 244 similarly uses the average coordinates calculated based on all the calibration coordinates (sample points) S of each character recognition target stroke ST belonging to one character as a reference point. 220, and the tilt angle (θ) is calculated based on the calculated reference point 220. With this configuration, the information processing system 10 according to the first modified example can calculate the inclination angle (θ) of the character string using the average coordinates of each character as the reference point 220. The tilt angle (θ) can be calculated.

なお、第1変形例においては、一文字毎に算出された平均座標を基準点220として用いているが、一文字に属する各文字認識対象ストロークSTの全ての較正座標(サンプル点)Sに基づいて各文字の重心となる座標(以下、「重心座標」という。)を算出し、この算出された重心座標を各文字の各基準点220として用いてもよい。また、この重心座標を算出するにあたっては、較正座標(サンプル点)Sに基づいて算出する点に代えて、一文字に属する各文字認識対象ストロークSTによって囲まれる多角形の領域を特定し、この特定された多角形の領域に基づいて重心座標を求めるなど種々の算出方法を用いてもよい。   In the first modification, the average coordinate calculated for each character is used as the reference point 220. However, based on all the calibration coordinates (sample points) S of each character recognition target stroke ST belonging to one character. It is also possible to calculate coordinates (hereinafter referred to as “centroid coordinates”) that serve as the center of gravity of the character, and use the calculated center of gravity coordinates as the reference points 220 of each character. In calculating the barycentric coordinates, instead of the points calculated based on the calibration coordinates (sample points) S, a polygonal region surrounded by each character recognition target stroke ST belonging to one character is specified, and this specification is performed. Various calculation methods may be used such as obtaining the barycentric coordinates based on the polygonal area.

第2変形例の情報処理システム10は、第1実施形態の文字認識処理部243において、一文字に属する文字認識対象ストロークSTによって求められた複数の座標に基づいて各文字の基準点220を算出している点に代えて、各文字の最下点222を各基準点220として用いる点に特徴がある。なお、その他の構成は、第1実施形態と同一である。   In the information processing system 10 of the second modification, the character recognition processing unit 243 of the first embodiment calculates the reference point 220 of each character based on a plurality of coordinates obtained by the character recognition target stroke ST belonging to one character. Instead, the lowest point 222 of each character is used as each reference point 220. Other configurations are the same as those of the first embodiment.

具体的には、第2変形例の情報処理システム10においては、図12に示すように、文字記入領域制御部244が、第1文字W1の最下点222aを第1基準点220aとして設定するとともに、第2文字W2の最下点222bを第2基準点220bとして設定し、これらの第1基準点220a(=222a)及び第2基準点220b(=222b)によって形成される直線Lの座標上の傾きαを傾斜角度(θ)として算出するように構成されている。また、三文字目以降においても、文字記入領域制御部244は、同様に、一文字毎に最下点222を基準点220として設定し、この設定された基準点220に基づいて傾斜角度(θ)を算出する。この構成により、第2変形例の情報処理システム10は、各文字の座標上の最下点222を基準点220として文字列の傾斜角度(θ)を算出することができるので、上述と同様に、容易にかつ確実にこの文字列の傾斜角度(θ)を算出することができる。   Specifically, in the information processing system 10 of the second modified example, as shown in FIG. 12, the character entry area control unit 244 sets the lowest point 222a of the first character W1 as the first reference point 220a. In addition, the lowest point 222b of the second character W2 is set as the second reference point 220b, and the coordinates of the straight line L formed by the first reference point 220a (= 222a) and the second reference point 220b (= 222b). The upper inclination α is calculated as the inclination angle (θ). Similarly, after the third character, the character entry area control unit 244 similarly sets the lowest point 222 as the reference point 220 for each character, and the inclination angle (θ) based on the set reference point 220. Is calculated. With this configuration, the information processing system 10 according to the second modification can calculate the inclination angle (θ) of the character string using the lowest point 222 on the coordinates of each character as the reference point 220. The inclination angle (θ) of the character string can be calculated easily and reliably.

第3変形例の情報処理システム10は、第1実施形態の文字認識処理部243において、一文字に属する文字認識対象ストロークSTによって求められた複数の座標に基づいて各文字の基準点220を算出している点に代えて、各文字の最上点221を各基準点220として用いる点に特徴がある。なお、その他の構成は、第1実施形態と同一である。   In the information processing system 10 of the third modification, the character recognition processing unit 243 of the first embodiment calculates the reference point 220 of each character based on a plurality of coordinates obtained by the character recognition target stroke ST belonging to one character. Instead, the uppermost point 221 of each character is used as each reference point 220. Other configurations are the same as those of the first embodiment.

具体的には、第3変形例の情報処理システム10においては、図13に示すように、文字記入領域制御部244が、第1文字W1の最上点221aを第1基準点220aとして設定するとともに、第2文字W2の最上点221bを第2基準点220bとして設定し、これらの第1基準点220a(=221a)及び第2基準点220b(=221b)によって形成される直線Lの座標上の傾きαを傾斜角度(θ)として算出するように構成されている。また、三文字目以降においても、文字記入領域制御部244は、同様に、文字毎に最上点221を基準点220として設定し、この設定された基準点220に基づいて傾斜角度(θ)を算出する。この構成により、第3変形例の情報処理システム10は、各文字の座標上の最上点221を基準点220として文字列の傾斜角度(θ)を算出することができるので、上述と同様に、容易にかつ確実にこの文字列の傾斜角度(θ)を算出することができる。   Specifically, in the information processing system 10 of the third modified example, as shown in FIG. 13, the character entry area control unit 244 sets the uppermost point 221a of the first character W1 as the first reference point 220a. The uppermost point 221b of the second character W2 is set as the second reference point 220b, and the coordinates of the straight line L formed by the first reference point 220a (= 221a) and the second reference point 220b (= 221b) are set. The inclination α is calculated as the inclination angle (θ). Similarly, after the third character, the character entry area control unit 244 similarly sets the uppermost point 221 as the reference point 220 for each character, and sets the inclination angle (θ) based on the set reference point 220. calculate. With this configuration, the information processing system 10 according to the third modified example can calculate the inclination angle (θ) of the character string using the uppermost point 221 on the coordinates of each character as the reference point 220. The inclination angle (θ) of this character string can be calculated easily and reliably.

第4変形例の情報処理システム10は、第1実施形態の文字認識処理部243において、3文字目以降の傾斜角度(θ)を(式1)によって算出する点に代えて、第1傾斜角度(θ1(=α))及び第2傾斜角度(θ2(=β))と(式2)とに基づいて3文字目以降の第3傾斜角度(θ3(=γ))を算出する点に特徴がある。なお、その他の構成は、第1実施形態と同一である。   In the information processing system 10 of the fourth modification example, the character recognition processing unit 243 of the first embodiment replaces the point of calculating the inclination angle (θ) of the third and subsequent characters with (Equation 1), instead of the first inclination angle. The third tilt angle (θ3 (= γ)) after the third character is calculated based on (θ1 (= α)) and the second tilt angle (θ2 (= β)) and (Expression 2). There is. Other configurations are the same as those of the first embodiment.

Figure 2011103092
Figure 2011103092

具体的には、第4変形例の情報処理システム10においては、図14(a)及び(b)に示すように、文字記入領域制御部244が、1文字目と2文字目の基準点220a及び220bとによって形成される直線L1の傾きαを第1傾斜角度(θ1)として既に算出されている場合に、3文字目の認識が実行されて第3基準点220cが求められると、第2基準点220bと第3基準点220cによって形成される直線L2の座標上の傾きβを第2傾斜角度(θ2)として算出する。そして、文字記入領域制御部244は、算出された第1傾斜角度(θ1(=α))と第2傾斜角度(θ2(=β))に基づいて(式2)の演算を実行して新たな傾きγを第3傾斜角度(θ3)として算出し、図14(b)に示すように、文字記入領域206の左上の点を基点Bとして、算出された第3傾斜角度(θ3(=γ))が全体の回転角度になるように既に傾斜角度(θ1(=α)によって回転された文字記入領域206を回転させる。この構成により、第4変形例の情報処理システム10は、文字列の傾斜角度(θ)が既に算出されている場合には、この既に算出された一以上の第1傾斜角度(θ1)と新規に算出された第2傾斜角度(θ2)とに基づいて新たな第3傾斜角度(θ3)を算出し、この算出された第3傾斜角度(θ3)に基づいて文字記入領域206を回転させるので、既に記入された文字列を勘案して傾斜角度(θ)を算出することができるとともに、文字記入領域206(406)の回転をユーザの記入状況に併せて確実に回転させることができる。   Specifically, in the information processing system 10 according to the fourth modified example, as shown in FIGS. 14A and 14B, the character entry area control unit 244 has the reference point 220a for the first character and the second character. And 220b, when the inclination α of the straight line L1 is already calculated as the first inclination angle (θ1), when the third character is recognized and the third reference point 220c is obtained, the second reference point 220c is obtained. The inclination β on the coordinates of the straight line L2 formed by the reference point 220b and the third reference point 220c is calculated as the second inclination angle (θ2). Then, the character entry area control unit 244 executes the calculation of (Equation 2) based on the calculated first inclination angle (θ1 (= α)) and second inclination angle (θ2 (= β)), and performs a new operation. 14 is calculated as a third inclination angle (θ3), and the calculated third inclination angle (θ3 (= γ) with the upper left point of the character entry area 206 as a base point B as shown in FIG. )) Is rotated so that the character entry area 206 that has already been rotated by the inclination angle (θ1 (= α) is rotated so that the rotation angle becomes the entire rotation angle. With this configuration, the information processing system 10 of the fourth modified example When the inclination angle (θ) has already been calculated, a new first angle is calculated based on the already calculated one or more first inclination angles (θ1) and the newly calculated second inclination angle (θ2). Three tilt angles (θ3) are calculated, and based on the calculated third tilt angle (θ3) Since the character entry area 206 is rotated, the inclination angle (θ) can be calculated in consideration of the already entered character string, and the rotation of the character entry area 206 (406) can be reliably performed in accordance with the user's entry situation. Can be rotated.

なお、4文字目以降の文字認識処理も同様に、第1傾斜角度(θ1)及び第2傾斜角度(θ2)に基づいて第3傾斜角度(θ3)を算出して文字記入領域206を回転させる。例えば、図14の例によれば、3文字目の認識の際に文字記入領域制御部244により(式1)の演算によって算出された傾斜角度γが、4文字目を認識した際に実行される回転制御処理においては第1傾斜角度(θ1)に該当し、4文字目の文字の図示しない基準点に基づいて算出される直線の傾きは、第2傾斜角度(θ2)に該当することとなる。   Similarly, in the character recognition processing for the fourth and subsequent characters, the third tilt angle (θ3) is calculated based on the first tilt angle (θ1) and the second tilt angle (θ2), and the character entry area 206 is rotated. . For example, according to the example of FIG. 14, the inclination angle γ calculated by the calculation of (Equation 1) by the character entry area control unit 244 at the time of recognition of the third character is executed when the fourth character is recognized. In the rotation control process, the inclination of the straight line calculated based on the reference point (not shown) of the fourth character corresponds to the second inclination angle (θ2). Become.

第5変形例の情報処理システム10は、第1実施形態の文字認識処理部243において、3文字目以降の傾斜角度(θ)を(式1)によって算出する点に代えて、第1基準点220aと認識された最後の第n文字Wnの基準点220χとによって形成される直線Lの傾きβを傾斜角度(θ)として算出する点に特徴がある。なお、その他の構成は、第1実施形態と同一である。   In the information processing system 10 according to the fifth modification, the character recognition processing unit 243 according to the first embodiment replaces the point of calculating the inclination angle (θ) of the third character and thereafter with (Equation 1) instead of the first reference point. The characteristic is that the inclination β of the straight line L formed by the reference point 220χ of the last nth character Wn recognized as 220a is calculated as the inclination angle (θ). Other configurations are the same as those of the first embodiment.

具体的には、第5変形例の情報処理システム10においては、図15に示すように、第5文字W5の基準点220eが第5文字W5を形成する各文字認識対象ストロークSTに基づいて算出されると、文字記入領域制御部424は、この算出された第5基準点220eと最初に認識された第1文字W1の基準点220aに形成される直線Lの傾きβを傾斜角度(θ)として設定し、文字記入領域206の左上の点を基点Bとして、算出された傾斜角度(θ(=β))と全体の角度として同一の回転角度(θ)になるように、既に回転されている文字記入領域206を回転させる。   Specifically, in the information processing system 10 of the fifth modified example, as shown in FIG. 15, the reference point 220e of the fifth character W5 is calculated based on each character recognition target stroke ST that forms the fifth character W5. Then, the character entry area control unit 424 calculates the inclination β of the straight line L formed between the calculated fifth reference point 220e and the reference point 220a of the first character W1 recognized first as the inclination angle (θ). And the upper left point of the character entry area 206 is set as the base point B, and the calculated inclination angle (θ (= β)) and the rotation angle (θ) as the entire angle have already been rotated. The character entry area 206 is rotated.

なお、上記の各変形例を含み第1実施形態においては、ドットパターン(コード化パターン)は、アノト方式に限らなくともよい。また、第1実施形態においては、文字記入領域206の左上隅を基点Bとして用いているが、右下隅、右上隅、左下隅又は中心点など所定の点を文字記入領域206の基点Bとして用いてもよい。   In addition, in 1st Embodiment including each said modification, a dot pattern (coding pattern) does not need to be restricted to an Anoto system. In the first embodiment, the upper left corner of the character entry area 206 is used as the base point B. However, a predetermined point such as the lower right corner, upper right corner, lower left corner, or center point is used as the base point B of the character entry area 206. May be.

また、本実施形態の情報処理システム10は、記入者であるユーザの確定指示に基づいて認識された文字又は記号を特定するように構成できるとともに、ワードプロセッサなどの外部アプリケーションと連動させてこのアプリケーションの記入に用いることもできる。   In addition, the information processing system 10 according to the present embodiment can be configured to identify a character or symbol recognized based on the confirmation instruction of the user who is the writer, and is linked to an external application such as a word processor. It can also be used for entry.

<第2実施形態>
次に、図16及び図17の各図を用いて第2実施形態に係る情報処理システムについて説明する。
Second Embodiment
Next, an information processing system according to the second embodiment will be described with reference to FIGS. 16 and 17.

第2実施形態の情報処理システム10は、第1実施形態において第1認識処理を行いつつ傾斜角度(θ)を算出する等の回転制御処理を行う点に代えて、第1認識処理を行わずに、文字記入領域206内に入力されたものと特定された文字認識対象ストロークSTに基づいて傾斜角度(θ)を算出する点に特徴がある。なお、本実施形態において、第1実施形態と同一の部材や同一の処理については、同一の符号を付してその説明を省略する。また、第2実施形態の情報処理システム10においては、文字認識処理部243は、第1認識処理を実行せずに、第2認識処理のみ実行する。   The information processing system 10 according to the second embodiment does not perform the first recognition process instead of performing the rotation control process such as calculating the tilt angle (θ) while performing the first recognition process in the first embodiment. Further, there is a feature in that the inclination angle (θ) is calculated based on the character recognition target stroke ST identified as being input in the character entry area 206. In the present embodiment, the same members and the same processes as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted. In the information processing system 10 of the second embodiment, the character recognition processing unit 243 executes only the second recognition process without executing the first recognition process.

[文字記入領域制御部]
次に、図16を用いて本第2実施形態における回転制御処理を説明する。なお、図16は、回転制御処理を説明するための図である。
[Character entry area control section]
Next, the rotation control process in the second embodiment will be described with reference to FIG. FIG. 16 is a diagram for explaining the rotation control process.

文字記入領域制御部244は、ユーザによって文字記入領域406に文字が記入されて記入情報の送信により文字記入領域206にストロークが入力されると、文字記入領域回転プログラムに従って、文字の記入中であって文字認識対象ストロークSTが特定される毎に、その文字認識対象ストロークSTの中心点cの座標を算出する。そして、文字記入領域制御部244は、算出された各中心点cの座標に基づいてユーザによって記入された文字列の傾斜角度(θ)を算出し、この算出された傾斜角度(θ)に基づいて文字記入領域206を回転させる。特に、文字記入領域制御部244は、新規に算出した中心点ctと既に算出された中心点c1〜中心点c(t−1)とに基づいて、最小二乗法などの所定の演算を実行して一の直線Lの傾きαを文字列の傾斜角度(θ)として算出し、基点Bに基づいて算出された傾斜角度(θ)と同一の回転角度(θ)を有するように文字記入領域206を回転制御する。   When a character is entered in the character entry area 406 by the user and a stroke is entered in the character entry area 206 by transmission of entry information, the character entry area control unit 244 determines whether a character is being entered according to the character entry area rotation program. Each time the character recognition target stroke ST is specified, the coordinates of the center point c of the character recognition target stroke ST are calculated. Then, the character entry area control unit 244 calculates the inclination angle (θ) of the character string entered by the user based on the calculated coordinates of each center point c, and based on the calculated inclination angle (θ). The character entry area 206 is rotated. In particular, the character entry area control unit 244 executes a predetermined calculation such as a least square method based on the newly calculated center point ct and the already calculated center points c1 to c (t−1). Is calculated as the inclination angle (θ) of the character string and has the same rotation angle (θ) as the inclination angle (θ) calculated based on the base point B. Rotation control.

具体的には、図16に示すように、ユーザによって電子ペン1を用いてスクリーン4における文字記入領域406内に文字「明日」が記入され、電子ペン1より送信された記入情報の座標データを座標変換部242によって座標変換し、文字記入領域206内に入力された各ストロークが第1ストロークST1から第12ストロークST12までの文字認識対象ストロークSTであると特定されると、特定された第1ストロークST1から第12ストロークST12までストローク毎に、それぞれ、各記入情報に基づいて各文字認識対象ストロークの第1中心点c1から第12中心点c12までの各中心点cの座標(X、Y座標)を座標値の平均等から順次算出する。すなわち、文字記入領域制御部244は、新規に中心点ctの座標が算出される毎に、新規に算出した中心点ctと既に算出された中心点c1〜c(t−1)に基づいて、最小二乗法などの所定の演算を実行し、一の直線Lの傾きαを文字列の傾斜角度(θ)として算出する。そして、文字記入領域制御部244は、基点Bに基づいて、算出された傾斜角度(θ)と同一の回転角度(θ)を有するように文字記入領域206を回転制御する。例えば、文字記入領域制御部244は、第10中心点c10を新規に算出した場合には、既に算出された第1中心点c1から第9中心点c9と新規算出された第10中心点c10とに基づいて最小二乗法など所定の演算を実行し、一の直線Lの傾きαを文字列の傾斜角度(θ)として算出する。   Specifically, as shown in FIG. 16, the character “Tomorrow” is entered in the character entry area 406 on the screen 4 by the user using the electronic pen 1, and the coordinate data of the entry information transmitted from the electronic pen 1 is used. When the coordinate conversion unit 242 performs coordinate conversion and each stroke input in the character entry area 206 is specified as the character recognition target stroke ST from the first stroke ST1 to the twelfth stroke ST12, the specified first is specified. For each stroke from the stroke ST1 to the twelfth stroke ST12, the coordinates (X, Y coordinates) of each center point c from the first center point c1 to the twelfth center point c12 of each character recognition target stroke based on each entry information, respectively. ) Are sequentially calculated from the average of the coordinate values. That is, each time the coordinates of the center point ct are newly calculated, the character entry area control unit 244 is based on the newly calculated center point ct and the already calculated center points c1 to c (t−1). A predetermined calculation such as a least square method is executed, and the inclination α of one straight line L is calculated as the inclination angle (θ) of the character string. Then, based on the base point B, the character entry area control unit 244 controls the rotation of the character entry area 206 so as to have the same rotation angle (θ) as the calculated inclination angle (θ). For example, when the character entry area control unit 244 newly calculates the tenth center point c10, the first center point c1 to the ninth center point c9 already calculated and the newly calculated tenth center point c10 Then, a predetermined calculation such as a least square method is executed, and the inclination α of one straight line L is calculated as the inclination angle (θ) of the character string.

なお、文字記入領域制御部244は、文字認識対象ストロークSTとして特定された文字列の書き始めの数ストローク(例えば、第1ストロークST1から第8ストロークST8まで)に関しては、ストロークの方向及び長さなどによって正確に直線Lの傾きαを算出することができないので、文字列の傾斜角度(θ)を算出せずに文字記入領域206の回転制御処理を行わない。すなわち、通常、文字は上から下に向かって記入されることが多いので、最初の数ストロークだけでは誤った下向きの傾きと認識される可能性があり、それに伴う誤認識を排除するために、文字列の書き始めの数ストロークに関しては、文字列の傾斜角度(θ)を算出せずに文字記入領域206の回転制御処理を行わない。   Note that the character entry area control unit 244 determines the stroke direction and length for the first few strokes (for example, from the first stroke ST1 to the eighth stroke ST8) of the character string specified as the character recognition target stroke ST. Thus, the inclination α of the straight line L cannot be calculated accurately, and therefore the rotation control processing of the character entry area 206 is not performed without calculating the inclination angle (θ) of the character string. In other words, since characters are usually written from top to bottom, the first few strokes may be recognized as an erroneous downward slope, and in order to eliminate the associated misrecognition, For several strokes at the beginning of writing a character string, the rotation control processing of the character entry area 206 is not performed without calculating the inclination angle (θ) of the character string.

[回転制御処理]
次に、図17を用いて本第2実施形態の情報処理システム10における回転制御処理の動作について、記入情報の受信に伴う各種の処理とともに説明する。なお、図17は、回転制御処理を含む表示処理を示すフローチャートである。
[Rotation control processing]
Next, the operation of the rotation control process in the information processing system 10 of the second embodiment will be described with reference to FIG. 17 together with various processes associated with the reception of entry information. FIG. 17 is a flowchart showing display processing including rotation control processing.

本動作処理においては、予めキャリブレーション処理部241によりキャリブレーション処理が実行され、座標変換関数が求められて記憶手段25に記憶されており、座標変換部242による座標変換が行われる状態にある。そして、文字記入領域制御部244は、記憶手段25に記憶された文字記入領域206の座標領域の初期値を参照して、第1実施形態と同様に、表示手段26の表示エリア201の左下に、長方形状の画定マーク207によって画定される文字記入領域206を表示させている。また、この画像と同じ画像を示すための画像信号が、送信手段27からプロジェクター3へ送信されているため、プロジェクター3により、スクリーン4の画像投影領域403の左下には、画定マーク407によって画定される文字記入領域406が投影されて表示されている。   In this operation processing, calibration processing is executed in advance by the calibration processing unit 241, a coordinate conversion function is obtained and stored in the storage unit 25, and coordinate conversion is performed by the coordinate conversion unit 242. Then, the character entry area control unit 244 refers to the initial value of the coordinate area of the character entry area 206 stored in the storage means 25, and in the lower left of the display area 201 of the display means 26, as in the first embodiment. A character entry area 206 defined by a rectangular demarcation mark 207 is displayed. In addition, since an image signal for indicating the same image as this image is transmitted from the transmission unit 27 to the projector 3, the projector 3 defines the image projection area 403 of the screen 4 with a demarcation mark 407. A character entry area 406 is projected and displayed.

まず、記入者であるユーザによってスクリーン4上に一のストロークが記入されると、電子ペン1は、この記入されたストロークの各記入情報をコンピュータ装置2に順次送信する(ステップS401)。具体的には、電子ペン1は、圧力センサ107によって検出した筆圧に基づいてペンダウンが検知されてユーザによってストロークの開始を認識すると、LED105及びCMOSカメラ106をオンにし、圧力センサ107によってペンアップが検出されてユーザによるストロークの終了を認識するまで、所定の時間間隔毎にスクリーン4のドットパターンを撮影し、この撮影された画像毎に、ペンID、時刻情報(T)及びX,Y座標データを含む記入情報を生成して順次コンピュータ装置2に送信する。   First, when one stroke is entered on the screen 4 by the user who is the writer, the electronic pen 1 sequentially transmits each entry information of the entered stroke to the computer device 2 (step S401). Specifically, when the pen is detected based on the pen pressure detected by the pressure sensor 107 and the start of the stroke is recognized by the user, the electronic pen 1 turns on the LED 105 and the CMOS camera 106, and the pressure sensor 107 pens up. Until the end of stroke is recognized by the user, the dot pattern on the screen 4 is photographed at predetermined time intervals, and the pen ID, time information (T), and X, Y coordinates are taken for each photographed image. The entry information including the data is generated and sequentially transmitted to the computer apparatus 2.

また、コンピュータ装置2において電子ペン1から送信された各記入情報(ストローク情報)の受信を開始すると、処理手段24は、この記入情報をペンID毎に記憶手段25に順次記憶させる(ステップS501)。   When the computer apparatus 2 starts receiving each entry information (stroke information) transmitted from the electronic pen 1, the processing means 24 sequentially stores the entry information in the storage means 25 for each pen ID (step S501). .

次いで、座標変換部242は、記憶手段25に記憶されている座標変換関数に基づいて、受信した各記入情報の座標データを表示手段26の表示エリア201に表示するための座標に順次変換する(ステップS502)。次いで、座標変換部242は、座標変換後の較正座標のデータを、ストローク毎にペンIDに対応付けて記憶手段25に順次記憶させるとともに、この較正座標に基づいてストロークを描画して表示手段26の表示エリア201に表示する(ステップS503)。なお、ステップS503の処理のときに、送信手段27は、表示手段26の表示エリア201に表示されている画像と同一の画像、すなわち、描画されたストロークを含む画像をスクリーン4に投影するための画像信号をプロジェクター3へ送信する。   Next, the coordinate conversion unit 242 sequentially converts the received coordinate data of each entry information into coordinates for displaying in the display area 201 of the display unit 26 based on the coordinate conversion function stored in the storage unit 25 ( Step S502). Next, the coordinate conversion unit 242 sequentially stores the calibration coordinate data after the coordinate conversion in the storage unit 25 in association with the pen ID for each stroke, and draws the stroke based on the calibration coordinate to display the display unit 26. Are displayed in the display area 201 (step S503). In the process of step S503, the transmission unit 27 projects the same image as the image displayed in the display area 201 of the display unit 26, that is, an image including a drawn stroke on the screen 4. An image signal is transmitted to the projector 3.

次いで、座標変換部242は、受信された各記入情報に対して、座標変換部242によって座標変換された各記入情報の座標(較正座標)が文字記入領域206内に含まれるか否かを判断する(ステップS504)。すなわち、座標変換部242は、受信した各記入情報から構成されるストロークが文字認識対象ストロークSTに該当するか否かを判断する。この場合において、スクリーン4上の文字記入領域406は、表示手段26の表示エリア201の文字記入領域206に対応するため、ユーザがスクリーン4上の文字記入領域406内に文字又は記号を入力することによって送信されたストロークの各記入情報における座標データから、座標変換部242による座標変換により、表示エリア201における文字記入領域206にこのストロークが含まれていることを認識することができる。   Next, the coordinate conversion unit 242 determines whether or not the coordinates (calibration coordinates) of the entry information coordinate-converted by the coordinate conversion unit 242 are included in the character entry area 206 for each received entry information. (Step S504). That is, the coordinate conversion unit 242 determines whether or not the stroke configured from the received entry information corresponds to the character recognition target stroke ST. In this case, since the character entry area 406 on the screen 4 corresponds to the character entry area 206 of the display area 201 of the display means 26, the user inputs a character or symbol into the character entry area 406 on the screen 4. It can be recognized from the coordinate data in each entry information of the stroke transmitted by that the character entry area 206 in the display area 201 includes this stroke by coordinate conversion by the coordinate conversion unit 242.

ステップS504の処理において、座標変換部242が、較正座標に基づいて、受信された各記入情報から構成されるストロークが文字記入領域206に含まれていると判断した場合には、すなわち、文字認識対象ストロークSTであると特定した場合には(ステップS504:Yes)、座標変換部242は、この文字認識対象ストロークSTを記憶手段25に記憶させて、文字記入領域制御部244によるステップS505の処理に移行する。一方、座標変換部242は、較正座標に基づいて受信された各記入情報から構成されるストロークが文字記入領域206に含まれていないと判断した場合には、すなわち、文字認識対象ストロークSTでないと特定した場合には(ステップS504:No)、本動作処理を終了させる。   In the process of step S504, when the coordinate conversion unit 242 determines that the stroke formed from each received entry information is included in the character entry area 206 based on the calibration coordinates, that is, character recognition. If the target stroke ST is identified (step S504: Yes), the coordinate conversion unit 242 stores the character recognition target stroke ST in the storage unit 25, and the character entry region control unit 244 performs the process of step S505. Migrate to On the other hand, if the coordinate conversion unit 242 determines that the stroke formed from each piece of entry information received based on the calibration coordinates is not included in the character entry area 206, that is, it is not the character recognition target stroke ST. If specified (step S504: No), the operation process is terminated.

ステップS504の処理において、受信された各記入情報から構成されるストロークが文字認識対象ストロークSTであると判断されると(ステップS504:Yes)、文字記入領域制御部244は、その文字認識対象ストロークSTの中心点cの座標を算出して記憶手段25に記憶させる(ステップS505)。次いで、文字記入領域制御部244は、既に一定数以上の文字認識対象ストロークSTが文字認識領域206に入力されているか否か、換言すると、記憶手段25に一定数以上の文字認識対象ストロークSTが記憶されているか否か判断する(ステップS506)。   When it is determined in the process of step S504 that the stroke formed from the received entry information is the character recognition target stroke ST (step S504: Yes), the character entry area control unit 244 determines the character recognition target stroke. The coordinates of the center point c of ST are calculated and stored in the storage means 25 (step S505). Next, the character entry area control unit 244 determines whether or not a predetermined number or more of character recognition target strokes ST has already been input to the character recognition area 206, in other words, a predetermined number or more of character recognition target strokes ST is stored in the storage unit 25. It is determined whether it is stored (step S506).

ステップS506の処理において、文字記入領域制御部244は、既に一定数以上の文字認識対象ストロークSTが文字認識領域206に入力されていると判断した場合には(ステップS506:Yes)、ステップS506の処理に移行する。一方、文字記入領域制御部244は、まだ一定数以上の文字認識対象ストロークSTが文字認識領域206に入力されていないと判断した場合には(ステップS506:No)、本動作処理を終了させる。   In the process of step S506, if the character entry area control unit 244 determines that a predetermined number or more of character recognition target strokes ST have already been input to the character recognition area 206 (step S506: Yes), the process proceeds to step S506. Transition to processing. On the other hand, when the character entry area control unit 244 determines that a predetermined number or more of character recognition target strokes ST have not yet been input to the character recognition area 206 (step S506: No), the operation processing is terminated.

ステップS507の処理に移行すると、文字記入領域制御部244は、新規に文字認識対象ストロークSTtとして特定されたストロークの中心点cとして算出された中心点ctの座標と、既に算出された文字認識対象ストロークSTn〜ST(t−1)の各中心点cn〜c(t−1)の座標とに基づいて、最小二乗法など所定の演算を実行し、傾斜角度(θ)を算出して、文字記入領域206を回転させる(ステップS507)。すなわち、文字記入領域制御部244は、算出された傾斜角度(θ)と同一の回転角度(θ)となるように、文字記入領域206を、画定マーク207を表示手段26の表示エリア201に表示させつつ、回転させる(ステップS507)。このとき、プロジェクター3によって、コンピュータ装置2の表示手段26と同じ画像がスクリーン4の画像投影領域403に投影されているため、スクリーン4に投影されている文字記入領域406も、文字記入領域206の回転に合わせて回転する。   When the process proceeds to step S507, the character entry area control unit 244 determines the coordinates of the center point ct calculated as the center point c of the stroke newly specified as the character recognition target stroke STt, and the character recognition target already calculated. Based on the coordinates of the center points cn to c (t-1) of the strokes STn to ST (t-1), a predetermined calculation such as a least square method is executed to calculate an inclination angle (θ) The entry area 206 is rotated (step S507). That is, the character entry area control unit 244 displays the character entry area 206 and the demarcation mark 207 in the display area 201 of the display means 26 so that the rotation angle (θ) is the same as the calculated inclination angle (θ). Rotate while rotating (step S507). At this time, since the projector 3 projects the same image as the display unit 26 of the computer device 2 onto the image projection area 403 of the screen 4, the character entry area 406 projected on the screen 4 is also the character entry area 206. Rotate to rotate.

最後に、文字記入領域制御部244は、ステップS507において算出された傾斜角度(θ)及び回転された文字記入領域206の座標領域を記憶手段25に記憶させて(ステップS508)、本動作処理を終了させる。   Finally, the character entry area control unit 244 stores the tilt angle (θ) calculated in step S507 and the coordinate area of the rotated character entry area 206 in the storage means 25 (step S508), and performs this operation process. Terminate.

[第2実施形態の作用効果]
以上のように、本実施形態の情報処理システム10は、第1実施形態と同様に、ユーザによって電子ペン1を用いてスクリーン4上の文字記入領域406内に文字が記入されると、ストローク(電子ペン1の移動経路)が、コンピュータ装置2の表示手段26の文字記入領域206に入力された文字列としてスクリーン4に投影されるとともに、当該文字の記入中であってストロークが特定される毎にユーザによって入力された文字列の傾斜角度(θ)を算出し、算出された傾斜角度(θ)に基づいて文字記入領域206(406)を回転させることができる。したがって、情報処理システム10は、ユーザの癖または当該ユーザのスクリーンに対する立ち位置による記入状況など、文字記入中におけるユーザの状況を勘案して又は文字記入におけるユーザの状況の変化に併せて文字記入領域206(406)を回転させることができるので、コンピュータ装置2への文字の入力にあたって、ユーザにスムーズにスクリーン上4で文字を記入させることができる。
[Effects of Second Embodiment]
As described above, the information processing system 10 according to the present embodiment, as in the first embodiment, when a character is entered in the character entry area 406 on the screen 4 by the user using the electronic pen 1, the stroke ( The movement path of the electronic pen 1) is projected onto the screen 4 as a character string input to the character entry area 206 of the display means 26 of the computer device 2, and each time a stroke is specified while the character is being entered. The inclination angle (θ) of the character string input by the user can be calculated, and the character entry area 206 (406) can be rotated based on the calculated inclination angle (θ). Therefore, the information processing system 10 takes into account the user's situation during character entry, such as the entry situation depending on the user's habit or the user's standing position on the screen, or in accordance with the change of the user situation in the character entry. 206 (406) can be rotated, so that the user can smoothly enter characters on the screen 4 when inputting characters to the computer apparatus 2.

また、本実施形態の情報処理システム10は、ストローク毎に文字列の傾斜角度(θ)を算出することができ、ユーザが記入したストロークを的確に把握しつつ、文字列の傾斜角度(θ)を算出することができるので、ユーザが記入した文字列に的確に対応させて文字記入領域206(406)を回転させることができる。   In addition, the information processing system 10 according to the present embodiment can calculate the inclination angle (θ) of the character string for each stroke, and accurately grasp the stroke entered by the user, and the inclination angle (θ) of the character string. Therefore, the character entry area 206 (406) can be rotated in an appropriate manner corresponding to the character string entered by the user.

また、本実施形態の情報処理システム10は、各ストロークの中心点cにのみに基づいて文字列の傾斜角度(θ)を算出することができるので、容易にかつ確実にこの文字列の傾斜角度(θ)を算出することができる。   Further, since the information processing system 10 of the present embodiment can calculate the inclination angle (θ) of the character string based only on the center point c of each stroke, the inclination angle of the character string can be easily and reliably obtained. (Θ) can be calculated.

また、本実施形態の情報処理システム10は、文字記入領域制御部244による文字列の傾斜角度(θ)の算出のために文字認識処理部243による認識処理の結果を使用しないので、文字列の傾斜角度(θ)の算出と文字認識を連動させる必要がなく、それぞれの処理を簡易に構築することができる。   In addition, the information processing system 10 according to the present embodiment does not use the result of the recognition process by the character recognition processing unit 243 for the calculation of the inclination angle (θ) of the character string by the character entry region control unit 244. It is not necessary to link the calculation of the tilt angle (θ) and character recognition, and each process can be easily constructed.

また、本実施形態の情報処理システム10は、文字記入領域206(406)の回転角度(θ)に基づいて、各ストローク(電子ペン1の移動経路)を、回転する前の文字記入領域206(406)に対応するストロークに変換することができるとともに記入された各文字における傾斜が生じていない状態によって文字列の認識処理を実行することができるので、効率的に文字認識の精度を向上させることができる。   In addition, the information processing system 10 according to the present embodiment, based on the rotation angle (θ) of the character entry area 206 (406), sets each stroke (movement path of the electronic pen 1) to the character entry area 206 (before the rotation) ( 406) and the character string recognition process can be executed in a state where no inclination is generated in each written character, so that the accuracy of character recognition can be improved efficiently. Can do.

また、本実施形態の情報処理システム10は、スクリーン4上の座標が座標変換部242によって表示手段26の表示エリア201上の座標に変換されたうえで、文字記入領域406(206)を回転させるので、スクリーン4と表示手段26の表示エリア201の異なる座標系を用いても文字記入領域406(206)の回転制御処理を確実に実行することができる。   Further, the information processing system 10 of the present embodiment rotates the character entry area 406 (206) after the coordinates on the screen 4 are converted into the coordinates on the display area 201 of the display means 26 by the coordinate conversion unit 242. Therefore, even if different coordinate systems are used for the screen 4 and the display area 201 of the display means 26, the rotation control process for the character entry area 406 (206) can be reliably executed.

[変形例]
なお、本実施形態の情報処理システム10は、第1実施形態と同様に、ドットパターン(コード化パターン)を、アノト方式に限らなくともよい。また、本実施形態においても、文字記入領域206の左上隅を基点Bとして用いているが、右下隅、右上隅、左下隅又は中心点など所定の点を文字記入領域206の基点Bとして用いてもよい。
[Modification]
Note that the information processing system 10 of the present embodiment may not be limited to the Anoto method for the dot pattern (coded pattern), as in the first embodiment. In the present embodiment, the upper left corner of the character entry area 206 is used as the base point B. However, a predetermined point such as the lower right corner, upper right corner, lower left corner, or center point is used as the base point B of the character entry area 206. Also good.

また、本実施形態の情報処理システム10は、第1実施形態と同様に、記入者であるユーザの確定指示に基づいて認識された文字又は記号を特定するように構成できるとともに、ワードプロセッサなどの外部アプリケーションと連動させてこのアプリケーションの記入に用いることもできる。   Further, the information processing system 10 of the present embodiment can be configured to identify a character or symbol recognized based on the confirmation instruction of the user who is the writer, as in the first embodiment, and can be configured to be external to a word processor or the like. It can also be used to fill in this application in conjunction with the application.

また、本実施形態の情報処理システム10は、文字列の傾斜角度(θ)を算出する際に各ストロークの中心点cを用いているが、最上点、最下点、最右点又は最左点などサンプルとなる点を用いることが可能である。   In addition, the information processing system 10 of the present embodiment uses the center point c of each stroke when calculating the inclination angle (θ) of the character string, but the uppermost point, the lowermost point, the rightmost point, or the leftmost point. A sample point, such as a point, can be used.

<第3実施形態>
次に、図18を用いて第3実施形態に係る情報処理システムについて説明する。なお、図18は、本第3実施形態における情報処理システム100の構成を示すシステム構成図である。
<Third Embodiment>
Next, an information processing system according to the third embodiment will be described with reference to FIG. FIG. 18 is a system configuration diagram showing the configuration of the information processing system 100 in the third embodiment.

第3実施形態の情報処理システム100は、第1,第2実施形態においてプロジェクター3を用いてスクリーン4に画像を表示するとともにスクリーン4を用いてストロークの記入を行う点に代えて、コンピュータ装置2上に配設された透明又は半透明の光透過性シートを用いてストロークの記入を行う点に特徴がある。なお、本実施形態において、第1,第2実施形態と同一の部材や同一の処理については、同一の符号を付してその説明を省略する。   The information processing system 100 according to the third embodiment replaces the computer device 2 in place of displaying an image on the screen 4 using the projector 3 and entering a stroke using the screen 4 in the first and second embodiments. It is characterized in that strokes are entered using a transparent or translucent light-transmitting sheet disposed above. In the present embodiment, the same members and the same processes as those in the first and second embodiments are denoted by the same reference numerals, and the description thereof is omitted.

本第3実施形態の情報処理システム100は、図18に示すように、電子ペン1によって読取可能なドットパターン(コード化パターン)が印刷された光透過性シート9を有している。光透過性シート9は、コンピュータ装置2の表示エリア201の前面に貼り付けられるとともに、表示エリア201に表示された画像が光透過性シート9の前面から視覚可能に表示される。ドットパターンは、赤外線を選択的に反射する特性を有するインキによって光透過性シート9に印刷されている。   As shown in FIG. 18, the information processing system 100 according to the third embodiment includes a light-transmitting sheet 9 on which a dot pattern (coded pattern) that can be read by the electronic pen 1 is printed. The light transmissive sheet 9 is pasted on the front surface of the display area 201 of the computer apparatus 2, and an image displayed on the display area 201 is displayed visually from the front surface of the light transmissive sheet 9. The dot pattern is printed on the light transmissive sheet 9 with ink having a characteristic of selectively reflecting infrared rays.

電子ペン1では、プロセッサ108には、CMOSカメラ106によって撮像された画像データから、赤外線反射の強い部分領域をドットであると認識するよう閾値を設けて判定される。その閾値は、ディスプレイから光透過性シート9を透過してくる赤外線のみの場合と、電子ペン1のLED105から照射した赤外線がドットによって反射されることによる赤外線が含まれる場合とを区別できるよう設定される。   In the electronic pen 1, the processor 108 is determined by providing a threshold value from the image data captured by the CMOS camera 106 so as to recognize a partial region with strong infrared reflection as a dot. The threshold value is set so as to be able to distinguish between the case where only the infrared rays transmitted through the light-transmitting sheet 9 from the display and the case where the infrared rays irradiated from the LEDs 105 of the electronic pen 1 are reflected by the dots are included. Is done.

なお、電子ペン1のCMOSカメラ106によって撮像された画像データからドットを認識しやすくするため、CMOSカメラ106に照射される光が赤外線だけとなるように、赤外線透過フィルターを電子ペン1の開口部102付近に設けてもよい。また、本実施形態のドットパターンは、アノト方式に限らなくともよい。また、本第3実施形態の情報処理システム100は、第1実施形態の変形例及び第2実施形態の各例を適宜適用可能である。   In order to make it easy to recognize dots from the image data captured by the CMOS camera 106 of the electronic pen 1, an infrared transmission filter is provided in the opening of the electronic pen 1 so that only the infrared light is irradiated to the CMOS camera 106. You may provide near 102. Further, the dot pattern of this embodiment is not limited to the Anoto method. In addition, the information processing system 100 of the third embodiment can be appropriately applied to the modification of the first embodiment and the examples of the second embodiment.

本発明の情報処理システムは、学校の授業や企業等での会議、講演会、プレゼンテーション、ワードプロセッサ等の外部アプリケーションでのペン入力操作などで利用することができる。   The information processing system of the present invention can be used for pen input operations in external applications such as school classes, business meetings, lectures, presentations, and word processors.

c … 中心点
ST … 文字認識対象ストローク
W … 文字
1 … 電子ペン
2 … コンピュータ装置
3 … プロジェクター
4 … スクリーン
9 … 光透過性シート
21 … 入力手段
22 … 受信手段
24 … 処理手段
25 … 記憶手段
26 … 表示手段
27 … 送信手段
103 … ペン先部
106 … CMOSカメラ
107 … 圧力センサ
108 … プロセッサ
109 … メモリ
111 … 通信ユニット
201 … 表示エリア
206 … 文字記入領域
207 … 画定マーク
220 … 基準点
221 … 最上点
222 … 最下点
223 … 最左点
224 … 最右点
241 … キャリブレーション処理部
242 … 座標変換部
243 … 文字認識処理部
244 … 文字記入領域制御部
245 … 表示制御部
401 … マグネット板(ホワイトボード)
402 … 用紙
403 … 座標入力領域(画像投影領域)
406 … 文字記入領域
407 … 画定マーク
10,100 … 情報処理システム
c ... Center point ST ... Character recognition target stroke W ... Character 1 ... Electronic pen 2 ... Computer device 3 ... Projector 4 ... Screen 9 ... Light transmissive sheet 21 ... Input means 22 ... Receiving means 24 ... Processing means 25 ... Storage means 26 ... Display means 27 ... Transmission means 103 ... Pen tip section 106 ... CMOS camera 107 ... Pressure sensor 108 ... Processor 109 ... Memory 111 ... Communication unit 201 ... Display area 206 ... Character entry area 207 ... Delimitation mark 220 ... Reference point 221 ... Top Point 222 ... Bottom point 223 ... Leftmost point 224 ... Rightmost point 241 ... Calibration processing unit 242 ... Coordinate conversion unit 243 ... Character recognition processing unit 244 ... Character entry area control unit 245 ... Display control unit 401 ... Magnet plate ( Whiteboard)
402 ... Paper 403 ... Coordinate input area (image projection area)
406 ... Character entry area 407 ... Delimitation mark 10, 100 ... Information processing system

Claims (15)

ユーザによる操作に基づいて位置座標を示すコード化パターンが形成されたスクリーン上を移動した際に、前記コード化パターンを移動経路に沿って読み取る読取手段と、
前記読取手段によって読み取ったコード化パターンのデータに基づいて移動経路の座標を算出する算出手段と、
前記算出された移動経路の座標に基づいて形成される当該移動経路の形状を、画像として前記スクリーンに投影する投影手段に出力する投影出力手段と、
前記スクリーン上に投影される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段と、
を備え、
前記回転制御手段は、前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させることを特徴とする情報処理システム。
Reading means for reading the coded pattern along a movement path when moving on a screen on which a coded pattern indicating position coordinates is formed based on an operation by a user;
Calculating means for calculating the coordinates of the movement path based on the data of the coded pattern read by the reading means;
A projection output means for outputting the shape of the movement path formed based on the calculated coordinates of the movement path to a projection means for projecting the shape on the screen as an image;
A character entry area for processing the shape of the movement path as a character, which is an area formed in a part of an image projected on the screen, based on the shape of the movement path in the character entry area Rotation control means for rotating;
With
The rotation control means is a character string composed of the shape of the movement path of the reading means while the reading means is writing a character moving in the character entry area based on the operation of the user. An information processing system, wherein an inclination angle of a character string in the character entry area being entered is calculated, and the character entry area is rotated based on the calculated inclination angle.
ユーザによる操作に基づいて位置座標を示すコード化パターンが形成された光透過性シート上を移動した際に、前記コード化パターンを移動経路に沿って読み取る読取手段と、
前記読取手段によって読み取ったコード化パターンのデータに基づいて移動経路の座標を算出する算出手段と、
前記算出された移動経路の座標に基づいて形成される当該移動経路の形状を、画像として前記光透過性シートの背面から、当該光透過性シートの前面から視覚可能に表示する表示手段に出力する表示出力手段と、
前記光透過性シート上に表示される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段と、
を備え、
前記回転制御手段は、前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させることを特徴とする情報処理システム。
A reading unit that reads the coded pattern along a movement path when moving on a light-transmitting sheet on which a coded pattern indicating position coordinates is formed based on an operation by a user;
Calculating means for calculating the coordinates of the movement path based on the data of the coded pattern read by the reading means;
The shape of the movement path formed based on the calculated coordinates of the movement path is output as an image from the back surface of the light transmissive sheet to a display unit that is visibly displayed from the front surface of the light transmissive sheet. Display output means;
A character entry area for processing the shape of the movement path as a character, which is an area formed in a part of an image displayed on the light transmissive sheet, and the shape of the movement path in the character entry area Rotation control means for rotating based on
With
The rotation control means is a character string composed of the shape of the movement path of the reading means while the reading means is writing a character moving in the character entry area based on the operation of the user. An information processing system, wherein an inclination angle of a character string in the character entry area being entered is calculated, and the character entry area is rotated based on the calculated inclination angle.
請求項1または2に記載の情報処理システムにおいて、
前記回転制御手段は、前記文字の記入中であって所定のタイミング毎に、前記文字列の傾斜角度を算出し、当該傾斜角度が算出される毎に前記文字記入領域を回転させることを特徴とする情報処理システム。
The information processing system according to claim 1 or 2,
The rotation control means calculates an inclination angle of the character string at every predetermined timing while the character is being entered, and rotates the character entry area every time the inclination angle is calculated. Information processing system.
請求項3に記載の情報処理システムにおいて、
前記文字記入領域内の前記移動経路の形状に基づいて文字認識を実行する文字認識処理手段を更に有し、
前記回転制御手段は、前記所定のタイミングとして前記文字認識処理手段によって一文字認識される毎に、当該一文字として認識された際に用いられた移動経路群に基づいて前記文字列の傾斜角度を算出することを特徴とする情報処理システム。
The information processing system according to claim 3,
Further comprising character recognition processing means for performing character recognition based on the shape of the movement path in the character entry area;
Each time the character recognition processing unit recognizes one character as the predetermined timing, the rotation control unit calculates an inclination angle of the character string based on a moving path group used when the character is recognized as the one character. An information processing system characterized by this.
請求項4に記載の情報処理システムにおいて、
前記回転制御手段は、前記文字の認識処理手段によって一文字認識される毎に、当該認識された文字の移動経路群に基づいて定められる基準点を求め、当該求められた各基準点に基づいて前記文字列の傾斜角度を算出することを特徴とする情報処理システム。
The information processing system according to claim 4,
The rotation control means obtains a reference point determined based on a movement path group of the recognized character every time one character is recognized by the character recognition processing means, and based on each of the obtained reference points An information processing system that calculates an inclination angle of a character string.
請求項4または5に記載の情報処理システムにおいて、
前記文字認識処理手段は、前記文字記入領域を回転させている場合には、当該文字記入領域の傾斜角度に基づいて、前記文字列を構成する移動経路を、回転する前の文字記入領域に相当する移動経路に変換して前記文字列の文字認識を再度実行することを特徴とする情報処理システム。
The information processing system according to claim 4 or 5,
In the case where the character entry area is rotated, the character recognition processing means corresponds to the character entry area before the rotation of the moving path constituting the character string based on the inclination angle of the character entry area. An information processing system, wherein the character recognition of the character string is executed again after being converted to a moving route.
請求項3に記載の情報処理システムにおいて、
前記回転制御手段は、前記所定のタイミングとして前記移動経路の構成要素である一ストロークが特定される毎に、当該各ストロークに含まれる前記移動経路の座標群に基づいて前記文字列の傾斜角度を算出して前記文字記入領域を回転させることを特徴とする情報処理システム。
The information processing system according to claim 3,
The rotation control means determines the inclination angle of the character string based on the coordinate group of the movement path included in each stroke each time one stroke that is a component of the movement path is specified as the predetermined timing. An information processing system for calculating and rotating the character entry area.
請求項7に記載の情報処理システムにおいて、
前記回転制御手段は、前記一ストロークが特定される毎に、各ストロークに含まれる前記移動経路の座標群に基づいて定められる基準点を求め、当該求められた各基準点に基づいて前記文字列の傾斜角度を算出することを特徴とする情報処理システム。
The information processing system according to claim 7,
The rotation control unit obtains a reference point determined based on a coordinate group of the movement path included in each stroke each time the one stroke is specified, and the character string based on the obtained reference point An information processing system characterized by calculating an inclination angle of.
請求項7または8に記載の情報処理システムにおいて、
前記文字記入領域内の前記移動経路の形状に基づいて文字認識を実行する文字認識処理手段を更に備えることを特徴とする情報処理システム。
The information processing system according to claim 7 or 8,
An information processing system, further comprising character recognition processing means for executing character recognition based on a shape of the movement path in the character entry area.
請求項9に記載の情報処理システムにおいては、
前記文字認識処理手段は、前記文字記入領域を回転させている場合には、当該文字記入領域の回転角度に基づいて、前記読取手段の移動経路を回転する前の文字記入領域に相当する移動経路に変換して前記文字認識を実行することを特徴とする情報処理システム。
In the information processing system according to claim 9,
When the character recognition processing means is rotating the character entry area, the movement path corresponding to the character entry area before rotating the movement path of the reading means based on the rotation angle of the character entry area. An information processing system, wherein the character recognition is performed after conversion into a character string.
請求項3乃至10の何れか一項に記載の情報処理システムにおいて、
前記回転制御手段は、前記文字列の傾斜角度が既に算出されている場合には、当該既に算出された一以上の第1の傾斜角度と新規に算出された第2の傾斜角度とに基づいて新たな第3の傾斜角度を算出し、当該算出された第3の傾斜角度に基づいて前記文字記入領域を回転させることを特徴とする情報処理システム。
The information processing system according to any one of claims 3 to 10,
When the inclination angle of the character string has already been calculated, the rotation control means is based on the already calculated one or more first inclination angles and the newly calculated second inclination angle. An information processing system that calculates a new third inclination angle and rotates the character entry area based on the calculated third inclination angle.
請求項1に記載の情報処理システムにおいて、
前記スクリーンに投影される画像と同一の画像が表示される表示手段の表示制御を行う表示制御手段と、
前記算出手段によって算出された座標を、前記表示手段の表示画面の座標に変換する座標変換手段と、
を更に備え、
前記回転制御手段は、前記座標変換手段によって変換された座標に基づいて、前記文字記入領域を回転させることを特徴とする情報処理システム。
The information processing system according to claim 1,
Display control means for performing display control of display means for displaying the same image as the image projected on the screen;
Coordinate conversion means for converting the coordinates calculated by the calculation means into coordinates on a display screen of the display means;
Further comprising
The information processing system, wherein the rotation control means rotates the character entry area based on the coordinates converted by the coordinate conversion means.
請求項2に記載の情報処理システムにおいて、
前記算出手段によって算出された座標を、前記表示手段の表示画面の座標に変換する座標変換手段を更に備え、
前記回転制御手段は、前記座標変換手段によって変換された座標に基づいて、前記文字記入領域を回転させることを特徴とする情報処理システム。
The information processing system according to claim 2,
A coordinate conversion means for converting the coordinates calculated by the calculation means into coordinates on a display screen of the display means;
The information processing system, wherein the rotation control means rotates the character entry area based on the coordinates converted by the coordinate conversion means.
位置座標を示すコード化パターンを読み取るとともに移動経路の座標を算出する電子ペンが、ユーザによる操作に基づいて当該コード化パターンが形成されたスクリーン上を移動した際に、当該電子ペンの移動経路を示す形状を当該スクリーンに表示するための情報処理を行うコンピュータにより実行される表示処理プログラムであって
前記コンピュータを、
前記算出された移動経路の座標に基づいて形成される当該移動経路の形状を、画像として前記スクリーンに投影する投影手段に出力する投影出力手段、
前記スクリーン上に投影される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段、
として機能させるとともに、
前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させるように前記コンピュータを前記回転制御手段として更に機能させることを特徴とする表示処理プログラム。
When the electronic pen that reads the coding pattern indicating the position coordinates and calculates the coordinates of the movement path moves on the screen on which the coding pattern is formed based on an operation by the user, the movement path of the electronic pen is changed. A display processing program executed by a computer that performs information processing for displaying a shape to be displayed on the screen.
Projection output means for outputting the shape of the movement path formed based on the calculated coordinates of the movement path to the projection means for projecting the image on the screen as an image;
A character entry area for processing the shape of the movement path as a character, which is an area formed in a part of an image projected on the screen, based on the shape of the movement path in the character entry area Rotation control means for rotating,
And function as
A character string composed of the shape of the movement path of the reading means while the reading means is writing the character moving in the character entry area based on the user's operation, and the character being entered A display processing program for calculating an inclination angle of a character string in an entry area and further causing the computer to function as the rotation control means so as to rotate the character entry area based on the calculated inclination angle. .
位置座標を示すコード化パターンを読み取るとともに移動経路の座標を算出する電子ペンが、ユーザによる操作に基づいて当該コード化パターンが形成されたスクリーン上を移動した際に、当該電子ペンの移動経路を示す形状を当該スクリーンに表示するための情報処理を行うコンピュータにより実行される表示処理プログラムであって
前記コンピュータを、
前記算出された移動経路の座標に基づいて当該移動経路の形状を画像として前記光透過性シートの背面から、当該光透過性シートの前面から視覚可能に表示する表示手段に出力する表示出力手段、
前記光透過性シート上に表示される画像の一部に形成される領域であって前記移動経路の形状を文字として処理するための文字記入領域を、当該文字記入領域内の前記移動経路の形状に基づいて回転させる回転制御手段、
として機能させるとともに、
前記ユーザの操作に基づいて前記読取手段が前記文字記入領域内を移動している文字の記入中に、前記読取手段の移動経路の形状から構成される文字列であって当該記入中の前記文字記入領域内における文字列の傾斜角度を算出し、当該算出された傾斜角度に基づいて前記文字記入領域を回転させるように前記コンピュータを前記回転制御手段として更に機能させることを特徴とする表示処理プログラム。
When the electronic pen that reads the coding pattern indicating the position coordinates and calculates the coordinates of the movement path moves on the screen on which the coding pattern is formed based on an operation by the user, the movement path of the electronic pen is changed. A display processing program executed by a computer that performs information processing for displaying a shape to be displayed on the screen.
Display output means for outputting the shape of the movement path based on the calculated movement path as an image from the back surface of the light transmissive sheet to the display means for visual display from the front surface of the light transmissive sheet,
A character entry area for processing the shape of the movement path as a character, which is an area formed in a part of an image displayed on the light transmissive sheet, and the shape of the movement path in the character entry area Rotation control means for rotating based on
And function as
A character string composed of the shape of the movement path of the reading means while the reading means is writing the character moving in the character entry area based on the user's operation, and the character being entered A display processing program for calculating an inclination angle of a character string in an entry area and further causing the computer to function as the rotation control means so as to rotate the character entry area based on the calculated inclination angle. .
JP2009258426A 2009-11-11 2009-11-11 Information processing system and display processing program Expired - Fee Related JP4894905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009258426A JP4894905B2 (en) 2009-11-11 2009-11-11 Information processing system and display processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009258426A JP4894905B2 (en) 2009-11-11 2009-11-11 Information processing system and display processing program

Publications (2)

Publication Number Publication Date
JP2011103092A true JP2011103092A (en) 2011-05-26
JP4894905B2 JP4894905B2 (en) 2012-03-14

Family

ID=44193396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009258426A Expired - Fee Related JP4894905B2 (en) 2009-11-11 2009-11-11 Information processing system and display processing program

Country Status (1)

Country Link
JP (1) JP4894905B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011233102A (en) * 2010-04-30 2011-11-17 Brother Ind Ltd Input control device, input control method and input control program
WO2013161261A1 (en) * 2012-04-26 2013-10-31 パナソニック株式会社 Display control system and indicating device
WO2014033848A1 (en) * 2012-08-29 2014-03-06 株式会社日立製作所 Calibration device and calibration method
KR101467295B1 (en) * 2013-03-18 2014-12-01 주식회사 피엔에프 Information input device and method
JP7404958B2 (en) 2020-03-23 2023-12-26 株式会社リコー Input devices, input methods, and programs
JP7473832B1 (en) 2022-12-01 2024-04-24 富士通クライアントコンピューティング株式会社 Electronic devices and programs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072691A (en) * 2005-09-06 2007-03-22 Canon Inc Handwritten character recognition device and handwritten character recognition method
JP2008084136A (en) * 2006-09-28 2008-04-10 Kyocera Corp Portable electronic equipment
JP2008250679A (en) * 2007-03-30 2008-10-16 Aisin Aw Co Ltd Navigation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072691A (en) * 2005-09-06 2007-03-22 Canon Inc Handwritten character recognition device and handwritten character recognition method
JP2008084136A (en) * 2006-09-28 2008-04-10 Kyocera Corp Portable electronic equipment
JP2008250679A (en) * 2007-03-30 2008-10-16 Aisin Aw Co Ltd Navigation device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011233102A (en) * 2010-04-30 2011-11-17 Brother Ind Ltd Input control device, input control method and input control program
WO2013161261A1 (en) * 2012-04-26 2013-10-31 パナソニック株式会社 Display control system and indicating device
WO2014033848A1 (en) * 2012-08-29 2014-03-06 株式会社日立製作所 Calibration device and calibration method
JPWO2014033848A1 (en) * 2012-08-29 2016-08-08 株式会社日立製作所 Calibration apparatus and calibration method
KR101467295B1 (en) * 2013-03-18 2014-12-01 주식회사 피엔에프 Information input device and method
JP7404958B2 (en) 2020-03-23 2023-12-26 株式会社リコー Input devices, input methods, and programs
JP7473832B1 (en) 2022-12-01 2024-04-24 富士通クライアントコンピューティング株式会社 Electronic devices and programs

Also Published As

Publication number Publication date
JP4894905B2 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
JP4894905B2 (en) Information processing system and display processing program
JP5664301B2 (en) Computer device, electronic pen input system, and program
JP2010079834A (en) Device for determination of mounting position of coordinate detection device and electronic board system
JP5353219B2 (en) Board writing system, computer apparatus and program
JP3151886U (en) Information processing system
JP5664303B2 (en) Computer apparatus, input system, and program
JP2007226577A (en) Data input processing system, and terminal device using digital pen, and computer program thereof
JP4544482B1 (en) Information processing system and program thereof
JP6044198B2 (en) Computer apparatus, program, and information processing system
JP5440926B2 (en) Information processing system and program thereof
JP5708113B2 (en) Computer apparatus and program thereof
JP3174897U (en) Teaching material content display system, computer apparatus thereof, and sheet used therefor
JP5413315B2 (en) Information processing system and display processing program
JP5257486B2 (en) Computer apparatus, input system, and program
JP5157973B2 (en) Projection input / output system and program thereof
JP3156526U (en) Information processing system
JP5104904B2 (en) Information processing system and display processing program
JP2011060115A (en) Information processing system and display processing program
JP5664300B2 (en) Computer apparatus, input system, and program
JP6160082B2 (en) Computer apparatus, evaluation system, and program
JP2012063974A (en) Stroke display system and program
JP5678697B2 (en) Computer apparatus, input system, and program
JP5201020B2 (en) Projection input / output system and program thereof
JP2013020402A (en) Computer device, stroke display system and program
JP2012022430A (en) Information processing system and program thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111212

R150 Certificate of patent or registration of utility model

Ref document number: 4894905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees