JP3882805B2 - Handwriting information generation method, handwriting information generation device, and character input device - Google Patents

Handwriting information generation method, handwriting information generation device, and character input device Download PDF

Info

Publication number
JP3882805B2
JP3882805B2 JP2003366107A JP2003366107A JP3882805B2 JP 3882805 B2 JP3882805 B2 JP 3882805B2 JP 2003366107 A JP2003366107 A JP 2003366107A JP 2003366107 A JP2003366107 A JP 2003366107A JP 3882805 B2 JP3882805 B2 JP 3882805B2
Authority
JP
Japan
Prior art keywords
authentication
character
handwriting information
image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003366107A
Other languages
Japanese (ja)
Other versions
JP2005128940A (en
Inventor
郁彦 西尾
和生 原岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003366107A priority Critical patent/JP3882805B2/en
Publication of JP2005128940A publication Critical patent/JP2005128940A/en
Application granted granted Critical
Publication of JP3882805B2 publication Critical patent/JP3882805B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To create handwriting information from drawing on a certain drawing surface without requiring dedicated paper or the like on which a special pattern for detection of a drawing position is printed. <P>SOLUTION: This device includes a contact detection means 101 for detecting contact made by drawing to a certain drawing surface 200; an image input means 102 which, as drawing takes place, moves over the drawing surface 200 detected for contact by the contact detection means 101 and which sequentially samples partial images 203 in an input area 201 moved as drawing on the drawing surface 200 takes place; a movement detection means 107 for comparing the positions of features 204 present in the plurality of partial images 203 sampled by the image input means 102 to detect the movement of the drawing position; and a handwriting information creation means 108 for creating handwriting information 205 on the basis of the movement of the drawing position detected by the movement detection means 107. <P>COPYRIGHT: (C)2005,JPO&amp;NCIPI

Description

本発明は、任意の被描画表面への描画に連動して移動される被入力域で取り込まれた複数の部分画像に顕在する特徴の位置を比較して検出された描画位置の移動変化に基づき筆跡情報を生成することによって、この被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができるようにした筆跡情報生成方法、筆跡情報生成装置及び文字入力装置に関する。   The present invention is based on the movement change of the drawing position detected by comparing the positions of features that appear in a plurality of partial images captured in an input area that is moved in conjunction with drawing on an arbitrary drawing surface. The present invention relates to a handwriting information generation method, a handwriting information generation device, and a character input device that can acquire character information and graphic information from handwriting information generated from drawing on a drawing surface by generating handwriting information. .

従来、PDA(Personal Digital Assistant)等の携帯型情報機器においては、タッチパネル方式の表示装置とペン型の操作装置とを組み合わせた文字入力装置が利用されてきた。最近では、超音波を発振する特殊なペン型の操作装置と超音波受信装置とを組み合わせ、この超音波受信装置によりペン型の操作装置の位置を随時測定してその動きを記録することによって、フリーハンドで書かれた文字を入力することができる装置も知られている。   Conventionally, in a portable information device such as a PDA (Personal Digital Assistant), a character input device in which a touch panel display device and a pen-type operation device are combined has been used. Recently, by combining a special pen-type operating device that oscillates ultrasonic waves and an ultrasonic receiving device, by measuring the position of the pen-type operating device at any time with this ultrasonic receiving device, and recording its movement, There is also known an apparatus capable of inputting a freehand written character.

このような従来の文字入力装置では、ペン型の操作装置の位置を検出するために、タッチパネル方式の表示装置又は超音波受信装置等が必須であったことから、文字入力装置の小型化が制限されていた。   In such a conventional character input device, in order to detect the position of the pen-type operation device, a touch panel type display device or an ultrasonic receiving device is indispensable, and thus downsizing of the character input device is limited. It had been.

そこで、赤外線照射LED(Light-Emitting Diode)と近赤外線のみを感知するCCD(Charge Coupled Device)とを備えたペンと、位置情報を含む特殊パターンが赤外線吸収インクにより印刷された専用紙とを組み合わせ、この専用紙表面上をペンが描画のために移動するとき、LEDから照射された赤外線の専用紙による反射光をCCDで撮影して得られる特殊パターンの暗視像から位置情報を取得することによって、このペンの移動を感知して筆跡情報を生成することができるようにした移動感知デバイスに関する技術が開示されている。   Therefore, a pen equipped with an infrared irradiation LED (Light-Emitting Diode) and a CCD (Charge Coupled Device) that senses only near-infrared light is combined with a special paper on which a special pattern including position information is printed with infrared absorbing ink. When the pen moves on the surface of the dedicated paper for drawing, position information is acquired from a night vision image of a special pattern obtained by photographing the reflected light of the infrared dedicated paper irradiated from the LED with the CCD. Discloses a technique relating to a movement sensing device that can sense the movement of the pen and generate handwriting information.

この移動感知デバイスによれば、タッチパネル方式の表示装置及び超音波受信装置等の装置を必要とせずに、フリーハンドで描画された任意の情報を、ペンの移動から生成された筆跡情報に基づき取得することができるので、このペンと通信可能範囲に設置された任意の情報機器に、フリーハンドで描画された情報を入力することができる。このペンは、通常のペン程度の大きさであるから携帯に便利である。従って、この移動感知デバイスの技術は、文字入力装置の小型化に効果がある。   According to this movement sensing device, any information drawn freehand is acquired based on handwriting information generated from the movement of the pen, without the need for devices such as a touch panel display device and an ultrasonic receiving device. Therefore, information drawn freehand can be input to an arbitrary information device installed in a communication range with the pen. Since this pen is about the size of a normal pen, it is convenient to carry. Therefore, the technology of this movement sensing device is effective in reducing the size of the character input device.

特表2003−500752号公報(第8図及び第9図、段落番号[0114]乃至[0126]及び[0328]乃至[0373])Japanese translation of PCT publication No. 2003-500722 (FIGS. 8 and 9, paragraph numbers [0114] to [0126] and [0328] to [0373])

しかしながら、特許文献1に記載された移動感知デバイスでは、赤外線吸収インクにより特殊なパターンが印刷された専用紙を、LED及びCCDを備えたペンと共に携帯しなければならなかったため、この特殊なパターンの印刷された専用紙がない場合には、入力操作を実行することができないという問題があった。   However, in the movement sensing device described in Patent Document 1, a special paper on which a special pattern is printed with infrared absorbing ink has to be carried with a pen equipped with an LED and a CCD. When there is no printed dedicated paper, there is a problem that the input operation cannot be executed.

本発明は、上記問題を解決し、描画位置を検出するための位置情報を含む特殊なパターンが印刷された専用紙等を必要とせずに、描画から筆跡情報を生成することができる筆跡情報生成方法、筆跡情報生成装置及び文字入力装置を提供することを目的とする。   The present invention solves the above-described problems and can generate handwriting information from drawing without requiring special paper on which a special pattern including position information for detecting the drawing position is printed. It is an object to provide a method, a handwriting information generation device, and a character input device.

上記課題を解決するために、本発明に係る筆跡情報生成方法は、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を生成する方法であって、被描画表面に顕在する特徴を示す認証パターンを記憶するステップと、描画による被描画表面との接触を検出するステップと、この接触を検出された被描画表面における被入力域で部分画像を逐次取り込むステップと、ここに取り込まれた複数の部分画像に顕在する特徴と、予め記憶された被描画表面に顕在する特徴を示す認証パターンとを比較照合して認証/拒絶を判断するステップと、この認証の判断結果に基づいて描画位置の移動変化を検出するステップと、ここに検出された描画位置の移動変化に基づき筆跡情報を生成するステップとを有することを特徴とする。
In order to solve the above-described problem, the handwriting information generation method according to the present invention sequentially captures and captures partial images of a surface to be drawn in an input area that is moved in conjunction with drawing on any surface to be drawn. a method of generating a handwriting information by drawing from the partial image, and storing an authentication pattern that shows a characteristic manifested in the drawing surface, comprising the steps of: detecting a contact between the drawing surface by the portrayal, the contact A step of sequentially capturing a partial image in an input area on the detected surface to be drawn; a feature that appears in the plurality of partial images captured here; and an authentication pattern that indicates a feature that appears on the surface to be drawn that is stored in advance and determining comparison and collation with the authentication / reject, and detecting a movement change of the drawing position on the basis of the judgment result of the authentication, the mobile detected change in drawing position here Characterized by a step of generating a handwriting information based.

本発明に係る筆跡情報生成方法によれば、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を生成する場合であって、認証と判断された場合に、この被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができる。
According to the handwriting information generation method according to the present invention, partial images of a drawing surface are sequentially captured in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and handwriting by drawing from the captured partial images. In the case of generating information, when it is determined as authentication, character information and graphic information can be acquired from handwriting information generated from drawing on the drawing surface.

本発明に係る筆跡情報生成装置は、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を生成する装置であって、この描画による被描画表面との接触を検出する接触検出手段と、この接触検出手段により接触検出された被描画表面上方を描画に連動して移動すると共に、この被描画表面における被入力域で部分画像を逐次取り込む画像入力手段と、被描画表面に顕在する特徴を示す認証パターンを記憶する認証パターン記憶手段と、画像入力手段により取り込まれた複数の部分画像に顕在する特徴と、認証パターン記憶手段に記憶された認証パターンとを比較照合して認証/拒絶を判断する認証手段と、この認証手段により判断された認証に基づいて描画位置の移動変化を検出する移動検出手段と、この移動検出手段により検出された描画位置の移動変化に基づき筆跡情報を生成する筆跡情報生成手段とを備えることを特徴とする。
The handwriting information generation apparatus according to the present invention sequentially captures a partial image of a drawing surface in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and draws handwriting information by drawing from the captured partial image. A generating device that detects contact with the surface to be drawn by the drawing, moves above the surface of the drawing that has been contact-detected by the contact detecting means, and moves along with the drawing; and sequentially capturing image input means a partial image in the input area of the surface, an authentication pattern storage means for storing an authentication pattern that shows a characteristic manifested in the drawing surface, manifested in a plurality of partial images captured by the images input means and features, an authentication means for determining comparison and collation with the authentication / reject the stored authentication pattern authentication pattern storage means, based on the authentication that has been judged by the authentication means Dzu A movement detecting means for detecting a movement change of the drawing position Te, characterized in that it comprises a handwriting information generating means for generating handwriting information based on the movement detected change in drawing position by the movement detection means.

本発明に係る筆跡情報生成装置によれば、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を生成する場合に、認証パターン記憶手段には被描画表面に顕在する特徴を示す認証パターンが記憶される。これを前提にして、描画による被描画表面との接触が接触検出手段により検出され、接触検出された被描画表面上方を画像入力手段が描画に連動して移動するようになされる。そして、この画像入力手段によって、被描画表面における被入力域で部分画像が描画に連動して逐次取り込まれる。ここで取り込まれた複数の部分画像に顕在する特徴と、認証パターン記憶手段に記憶された認証パターンとが認証手段によって比較照合されて認証/拒絶が判断される。この認証手段により判断された認証に基づいて移動検出手段は描画位置の移動変化を検出する。この描画位置の移動変化に基づいて筆跡情報生成手段により筆跡情報が生成される。従って、認証と判断された場合に、被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができる。
According to the handwriting information generation apparatus according to the present invention, partial images of a drawing surface are sequentially captured in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and handwriting by drawing from the captured partial images. When the information is generated, the authentication pattern storage means stores an authentication pattern indicating a feature that appears on the drawing surface. On the premise of this, contact with the surface to be drawn due to drawing is detected by the contact detection means, and the image input means moves in conjunction with the drawing above the surface of the drawing to which contact has been detected. And by this image input means, a partial image is sequentially taken in with the drawing in the input area on the drawing surface. The features that appear in the plurality of partial images captured here and the authentication pattern stored in the authentication pattern storage means are compared and verified by the authentication means to determine authentication / rejection. The movement detection means based on the determined authentication by the authentication means detects the movement changes drawing position. Handwriting information is generated by the handwriting information generating means based on the movement change of the drawing position. Therefore, when it is determined as authentication, character information and graphic information can be acquired from handwriting information generated from drawing on the drawing surface.

本発明に係る文字入力装置は、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を文字入力する装置であって、この描画による被描画表面との接触を検出する接触検出手段と、この接触検出手段により接触検出された被描画表面上方を描画に連動して移動すると共に、この被描画表面における被入力域で部分画像を逐次取り込む画像入力手段と、被描画表面に顕在する特徴を示す認証パターンを記憶する認証パターン記憶手段と、画像入力手段により取り込まれた複数の部分画像に顕在する特徴と、認証パターン記憶手段に記憶された認証パターンとを比較照合して認証/拒絶を判断する認証手段と、この認証手段により判断された認に基づいて描画位置の移動変化を検出する移動検出手段と、この移動検出手段により検出された描画位置の移動変化に基づき筆跡情報を生成する筆跡情報生成手段と、この筆跡情報生成手段により生成された筆跡情報を文字認識して文字コードに変換する文字認識手段と、この文字認識手段から入力される前記文字コードをコード化文字列として記憶する文字列記憶手段とを備えることを特徴とする。
A character input device according to the present invention sequentially captures a partial image of a drawing surface in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and draws handwriting information by drawing from the captured partial image. An input device that detects contact with the drawing surface by drawing and moves above the drawing surface detected by the contact detection means in conjunction with the drawing. and sequentially capturing image input means a partial image in the input area of the surface, an authentication pattern storage means for storing an authentication pattern that shows a characteristic manifested in the drawing surface, manifested in a plurality of partial images captured by the images input means and features, an authentication means for determining comparison and collation with the authentication / reject an authentication pattern stored in the authentication pattern storage means, based on the authentication that has been judged by the authentication means Movement detecting means for detecting a movement change of the drawing position, handwriting information generating means for generating handwriting information based on the movement change of the drawing position detected by the movement detecting means, and a handwriting generated by the handwriting information generating means Character recognition means for recognizing information to convert it into a character code, and character string storage means for storing the character code input from the character recognition means as a coded character string.

本発明に係る文字入力装置によれば、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を文字入力する場合に、本発明に係る筆跡情報生成装置が応用される。従って、認証と判断された場合に、被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができる。
According to the character input device of the present invention, the partial image of the drawing surface is sequentially captured in the input area that is moved in conjunction with the drawing on the arbitrary drawing surface, and the handwriting information by drawing from the captured partial image. When inputting characters, the handwriting information generating apparatus according to the present invention is applied. Therefore, when it is determined as authentication, character information and graphic information can be acquired from handwriting information generated from drawing on the drawing surface.

本発明に係る筆跡情報生成方法によれば、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を生成する場合に、取り込まれた複数の部分画像に顕在する特徴と、予め記憶された被描画表面に顕在する特徴を示す認証パターンとを比較照合して認証/拒絶を判断し、認証に基づいて描画位置の移動変化を検出し、この描画位置の移動変化に基づき筆跡情報を生成するようになされる。
According to the handwriting information generation method according to the present invention, partial images of a drawing surface are sequentially captured in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and handwriting by drawing from the captured partial images. when generating information, and features manifested in a plurality of partial images captured, and compares and collates the authentication pattern indicating a characteristic of overt determines authentication / rejection prestored be drawn surface, authentication detecting a movement change of the drawing position on the basis of, it is adapted to generate the handwriting information based on the movement change of the drawing position.

この構成によって、この被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができるため、従来必須であったタッチパネル又は特殊用紙等の特別な装置を必要とせずにフリーハンドによる文字入力を実現することができる。   With this configuration, character information and graphic information can be acquired from handwriting information generated from drawing on the surface to be drawn, so that a special device such as a touch panel or special paper, which has been conventionally required, is not required. Freehand character input can be realized.

本発明に係る筆跡情報生成装置によれば、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を生成する場合に、取り込まれた複数の部分画像に顕在する特徴と、認証パターン記憶手段に記憶された認証パターンとを比較照合して認証/拒絶を判断する認証手段を備え、認証に基づいて描画位置の移動変化を検出し、この描画位置の移動変化に基づき筆跡情報を生成するものである。
According to the handwriting information generation apparatus according to the present invention, partial images of a drawing surface are sequentially captured in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and handwriting by drawing from the captured partial images. when generating information includes a feature that manifested in a plurality of partial images captured, the authentication means for determining comparison and collation with the authentication / reject the stored authentication pattern authentication pattern storage means, the authentication Based on this, a movement change of the drawing position is detected, and handwriting information is generated based on the movement change of the drawing position.

この構成によって、この被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができるため、従来必須であったタッチパネル又は特殊用紙等の特別な装置を必要とせずにフリーハンドによる文字入力を実現することができる。   With this configuration, character information and graphic information can be acquired from handwriting information generated from drawing on the surface to be drawn, so that a special device such as a touch panel or special paper, which has been conventionally required, is not required. Freehand character input can be realized.

本発明に係る文字入力装置によれば、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を文字入力する場合に、本発明に係る筆跡情報生成装置を応用するものである。   According to the character input device of the present invention, the partial image of the drawing surface is sequentially captured in the input area that is moved in conjunction with the drawing on the arbitrary drawing surface, and the handwriting information by drawing from the captured partial image. When inputting characters, the handwriting information generating apparatus according to the present invention is applied.

従って、この被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができるため、従来必須であったタッチパネル又は特殊用紙等の特別な装置を必要とせずにフリーハンドによる文字入力を実現することができる。   Therefore, since character information and graphic information can be obtained from handwriting information generated from drawing on the surface to be drawn, a free hand can be used without requiring a special device such as a touch panel or special paper, which has been conventionally required. Character input by can be realized.

以下、添付の図面を参照しながら、本発明に係る筆跡情報生成方法、筆跡情報生成装置及び文字入力装置の実施に最良の形態について説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of a handwriting information generation method, a handwriting information generation device, and a character input device according to the present invention will be described with reference to the accompanying drawings.

本実施形態では、任意の被描画表面への描画に連動して移動される被入力域で被描画表面の部分画像を逐次取り込み、取り込まれた部分画像から描画による筆跡情報を生成する場合に、取り込まれた複数の部分画像に顕在する特徴の位置を比較して描画位置の移動変化を検出する移動検出手段を備え、この描画位置の移動変化に基づき筆跡情報を生成する。これによって、この被描画表面への描画から生成された筆跡情報により文字情報及び図形情報を取得することができるようにしたものである。   In the present embodiment, when a partial image of a drawing surface is sequentially captured in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and handwriting information by drawing is generated from the captured partial image, A movement detecting means is provided for detecting the movement change of the drawing position by comparing the positions of the features that appear in the plurality of captured partial images, and the handwriting information is generated based on the movement change of the drawing position. Thus, character information and graphic information can be acquired from handwriting information generated from drawing on the surface to be drawn.

[1]第1の実施形態
図1は、本発明の第1の実施形態としての文字入力装置100の構成例を示す略式概念図であり、図2は、文字入力装置100の構成例を示すブロック図である。
[1] First Embodiment FIG. 1 is a schematic conceptual diagram showing a configuration example of a character input device 100 as a first embodiment of the present invention, and FIG. 2 shows a configuration example of the character input device 100. It is a block diagram.

文字入力装置100は、図1に示すように、その外観形状がペン型となされ、任意の被描画表面200に文字及び図形等を容易に描画することができる形態となされている。ここで描画とは、任意の被描画表面200と文字入力装置100との接点を移動させることによって、この被描画表面200上に文字及び図形等の軌跡を描くことをいい、例えば、文字入力装置100がインク等を供給しない状態で文字又は図形等の軌跡が描画され、筆跡が被描画表面200に残存しない所謂仮想描画も含む。   As shown in FIG. 1, the character input device 100 has a pen-shaped appearance and can easily draw characters, figures, and the like on an arbitrary drawing surface 200. Here, drawing refers to drawing a trajectory of characters and figures on the drawing surface 200 by moving a contact point between an arbitrary drawing surface 200 and the character input device 100. For example, the character input device Also included is a so-called virtual drawing in which a trajectory such as a character or a graphic is drawn in a state where 100 does not supply ink or the like, and a handwriting does not remain on the drawing surface 200.

このペン型の文字入力装置100(以下、ペン100と記載)は、接触検出手段101、画像入力手段102、全体画像入力手段103及び表示手段104を備えて構成される。   The pen-type character input device 100 (hereinafter referred to as a pen 100) includes a contact detection unit 101, an image input unit 102, an entire image input unit 103, and a display unit 104.

接触検出手段101は、圧力センサ等からなるタッチセンサであって、このタッチセンサ101が、例えば、通常のペンのペン先に該当する位置に設置されており、描画による被描画表面200との接触を検出する。   The contact detection unit 101 is a touch sensor composed of a pressure sensor or the like. The touch sensor 101 is installed at a position corresponding to the pen tip of a normal pen, for example, and is in contact with the drawing surface 200 by drawing. Is detected.

画像入力手段102は、電荷結合素子(CCD:Charge Coupled Device)からなる固体撮像装置であって、タッチセンサ101により接触検出された被描画表面200への描画に連動して移動する位置に設置される。CCD102は、その撮影範囲、即ち、描画に連動して移動される被入力域202で被描画表面200の部分画像を、例えば、1/30(秒)間隔のように、所定の時間間隔で逐次取り込む。   The image input means 102 is a solid-state imaging device made up of a charge coupled device (CCD), and is installed at a position that moves in conjunction with drawing on the drawing surface 200 detected by the touch sensor 101 in contact. The The CCD 102 sequentially captures partial images of the drawing surface 200 in a shooting range, that is, an input area 202 that is moved in conjunction with drawing at predetermined time intervals such as 1/30 (second) intervals. take in.

全体画像入力手段103は、CCD102と同様の固体撮像装置であって、CCD102よりも被描画表面200の広範囲の画像を入力(撮影)可能な位置、例えば、CCD102よりも更に被描画表面200から離れた位置に取り付けられる。このCCD103は、被描画表面200においてペン100により描画される全域となる全被描画領域201の画像を入力する。   The whole image input means 103 is a solid-state image pickup device similar to the CCD 102, and is located farther from the drawing surface 200 than the CCD 102, for example, at a position where a wide range image of the drawing surface 200 can be input (photographed). It can be attached to the position. The CCD 103 inputs an image of the entire drawing area 201 that is the entire area drawn by the pen 100 on the drawing surface 200.

表示手段104は、液晶表示装置(LCD:Liquid Crystal Display)等を有して構成され、被描画表面200に描画された筆跡(ストローク:Stroke)を筆跡情報(ストローク情報)として表示する。   The display unit 104 includes a liquid crystal display (LCD) or the like, and displays handwriting (stroke) drawn on the drawing surface 200 as handwriting information (stroke information).

このペン100は、図2に示すように、上述したタッチセンサ(接触検出部)101、CCD(画像入力部)102、CCD(全体画像入力部)103及び表示手段(表示部)104の他に、被描画領域検出部(被描画領域検出手段)105、被描画領域記憶部(被描画領域記憶手段)106、移動検出部(移動検出手段)107、ストローク生成部(筆跡情報生成手段)108、ストローク記憶部(筆跡情報記憶手段)109、文字認識部(文字認識手段)110、文字列記憶部(文字列記憶手段)111、送信処理部(送信手段)112、認識指示入力部113及び異常検出出力部114を更に備えて構成される。   As shown in FIG. 2, the pen 100 includes a touch sensor (contact detection unit) 101, a CCD (image input unit) 102, a CCD (overall image input unit) 103, and a display unit (display unit) 104. A drawing region detection unit (drawing region detection unit) 105, a drawing region storage unit (drawing region storage unit) 106, a movement detection unit (movement detection unit) 107, a stroke generation unit (handwriting information generation unit) 108, Stroke storage unit (handwriting information storage unit) 109, character recognition unit (character recognition unit) 110, character string storage unit (character string storage unit) 111, transmission processing unit (transmission unit) 112, recognition instruction input unit 113, and abnormality detection An output unit 114 is further provided.

被描画領域検出部105、移動検出部107、ストローク生成部108及び文字認識部110の機能は、ペン100全体を制御するための制御プログラムが予め格納されたROM(Read Only Memory)と、このROMに格納された制御プログラムを実行してペン100を制御するCPU(Central Processing Unit)とに付与される。このCPUには、DRAM(Dynamic Random Access Memory)がチップセットとして付設され、ワークエリアとして使用可能に構成される。また、被描画領域記憶部106及びストローク記憶部109の機能は、DRAM等の半導体メモリに付与され、文字列記憶部111の機能は、フラッシュメモリ等の不揮発性メモリに付与される。   The functions of the drawing area detection unit 105, the movement detection unit 107, the stroke generation unit 108, and the character recognition unit 110 are a ROM (Read Only Memory) in which a control program for controlling the pen 100 as a whole is stored in advance, and this ROM. Is given to a CPU (Central Processing Unit) that controls the pen 100 by executing the control program stored therein. This CPU is provided with a DRAM (Dynamic Random Access Memory) as a chip set so that it can be used as a work area. Further, the functions of the drawing area storage unit 106 and the stroke storage unit 109 are given to a semiconductor memory such as a DRAM, and the function of the character string storage unit 111 is given to a nonvolatile memory such as a flash memory.

接触検出部101は、ストローク生成部108に接続され、画像入力部(CCD)102は移動検出部107に接続され、全体画像入力部(CCD)103は被描画領域検出部105に接続され、表示部104は文字列記憶部111に接続される。   The contact detection unit 101 is connected to the stroke generation unit 108, the image input unit (CCD) 102 is connected to the movement detection unit 107, and the entire image input unit (CCD) 103 is connected to the drawing area detection unit 105 for display. The unit 104 is connected to the character string storage unit 111.

被描画領域検出部105は、全体画像入力部103及び被描画領域記憶部106に接続され、全体画像入力部103により入力された全被描画領域201の画像から、この全被描画領域201を検出する。   The drawing area detection unit 105 is connected to the whole image input unit 103 and the drawing area storage unit 106 and detects the whole drawing area 201 from the image of the whole drawing area 201 input by the whole image input unit 103. To do.

被描画領域記憶部106は、被描画領域検出部105及び移動検出部107に接続され、被描画領域検出部105により検出された全被描画領域201に顕在する特徴を記憶する。これによって、この全被描画領域201に顕在する特徴が、被描画表面200の画像パターンとしてペン100に設定される。   The drawing area storage unit 106 is connected to the drawing area detection unit 105 and the movement detection unit 107, and stores the features that appear in all the drawing areas 201 detected by the drawing area detection unit 105. As a result, features that appear in the entire drawing area 201 are set in the pen 100 as an image pattern of the drawing surface 200.

移動検出部107は、画像入力部102、被描画領域記憶部106、ストローク生成部108及び検出異常出力部114に接続され、画像入力手段102により取り込まれた複数の部分画像に顕在する特徴の位置を比較して描画位置、即ち、ペン100の位置の移動変化を検出する。   The movement detection unit 107 is connected to the image input unit 102, the drawing area storage unit 106, the stroke generation unit 108, and the detection abnormality output unit 114, and the positions of features that appear in a plurality of partial images captured by the image input unit 102. Are compared, and the movement change of the drawing position, that is, the position of the pen 100 is detected.

また、移動検出部107は、ペン100の移動変化が大きい場合、全被描画領域201に顕在する特徴を被描画領域記憶部106から読み出し、この被描画領域記憶部106に記憶された全被描画領域201に顕在する特徴と、被描画表面200の部分画像に顕在する特徴とを比較し、この比較結果よりペン100の移動変化を検出する。この場合に、ペン100による描画が全被描画領域201外で実行されたために移動検出に失敗したとき、この移動検出の失敗を検出異常出力部114に送出する。   In addition, when the movement change of the pen 100 is large, the movement detection unit 107 reads out the features that appear in the entire drawing area 201 from the drawing area storage unit 106 and stores all the drawing objects stored in the drawing area storage unit 106. The feature that appears in the region 201 is compared with the feature that appears in the partial image of the drawing surface 200, and the movement change of the pen 100 is detected from the comparison result. In this case, when the movement detection fails because the drawing with the pen 100 is executed outside the entire drawing area 201, the failure of the movement detection is sent to the detection abnormality output unit 114.

ストローク生成部108は、接触検出部101、移動検出部107及びストローク記憶部109に接続され、移動検出部107により検出された描画位置の移動変化に基づき筆跡情報、即ち、ストローク情報を生成する。具体的には、ストローク生成部108は、接触検出部101により検出されたペン100と被描画表面200との接触状態と、移動検出部107により検出されたペン100の移動状態とから、ペン100と被描画領域200とが接触してから離れるまでのペン100の移動を1本のストロークと認識し、ペン100により描画されたストロークをストローク情報として生成する。   The stroke generation unit 108 is connected to the contact detection unit 101, the movement detection unit 107, and the stroke storage unit 109, and generates handwriting information, that is, stroke information based on the movement change of the drawing position detected by the movement detection unit 107. Specifically, the stroke generation unit 108 detects the pen 100 from the contact state between the pen 100 and the drawing surface 200 detected by the contact detection unit 101 and the movement state of the pen 100 detected by the movement detection unit 107. The movement of the pen 100 from the contact with the drawing area 200 to the separation of the drawing area 200 is recognized as one stroke, and the stroke drawn by the pen 100 is generated as stroke information.

ストローク記憶部109は、ストローク生成部108及び文字認識部110に接続され、ストローク生成部108により生成されたストローク情報を逐次記憶する。   The stroke storage unit 109 is connected to the stroke generation unit 108 and the character recognition unit 110, and sequentially stores the stroke information generated by the stroke generation unit 108.

文字認識部110は、ストローク記憶部109、文字列記憶部111及び認識指示入力部113に接続され、ストローク生成部108により生成されたストローク情報をストローク記憶部109から読み出し、このストローク情報を文字認識して文字コードに変換する。   The character recognition unit 110 is connected to the stroke storage unit 109, the character string storage unit 111, and the recognition instruction input unit 113, reads the stroke information generated by the stroke generation unit 108 from the stroke storage unit 109, and recognizes the stroke information as character recognition. To convert to character code.

具体的には、文字認識部110は、認識指示入力部113からの文字認識開始の指示入力を契機(トリガ:Trigger)として、ストローク記憶部109に記憶された1本以上のストロークに係るストローク群を復元するストローク情報を読み出し、このストローク情報に基づき復元されるストローク群から1文字を構成することにより文字を認識する。そして、文字認識部110は、この文字に対応する文字コードを予め規格化された文字コード、例えばUnicode(Universal multi-octet coded character set:ISO/IEC10646)等から検索することによって、ストローク情報を文字コードに変換する。   Specifically, the character recognizing unit 110 uses a group of strokes related to one or more strokes stored in the stroke storage unit 109 as triggered by the input of a character recognition start instruction from the recognition instruction input unit 113 (Trigger). Is read out, and a character is recognized by composing one character from a group of strokes restored based on the stroke information. The character recognition unit 110 retrieves the stroke information from the character code corresponding to the character by searching from a character code standardized in advance, such as Unicode (Universal multi-octet coded character set: ISO / IEC10646). Convert to code.

文字列記憶部111は、表示部104、文字認識部110及び送信処理部112に接続され、文字認識部110から入力される文字コードをコード化文字列として記憶する。この文字列記憶部111は、記憶したコード化文字列を表示部104に随時送出する他、外部からの指示に応じて送信処理部112にも送出する。   The character string storage unit 111 is connected to the display unit 104, the character recognition unit 110, and the transmission processing unit 112, and stores a character code input from the character recognition unit 110 as a coded character string. The character string storage unit 111 sends the stored encoded character string to the display unit 104 as needed, and also sends it to the transmission processing unit 112 in response to an instruction from the outside.

従って、表示部104は、上述したように、ストローク記憶部109に記憶されたストローク情報を画像表示するだけではなく、文字列記憶部111に記憶されたコード化文字列に対応する図形文字を生成して表示することもできる。   Accordingly, as described above, the display unit 104 not only displays an image of the stroke information stored in the stroke storage unit 109 but also generates a graphic character corresponding to the coded character string stored in the character string storage unit 111. Can also be displayed.

即ち、表示部104は、未認識ストローク群をフリーハンドで描画された情報としてイメージ表示することができ、且つ、ストローク群からコード変換された文字コードに対応する図形文字をフォント表示することもできる。なお、ここで図形文字とは、日本語を含む各国語及び記号等で構成され、上述の規格化された文字コードでフォント表示可能な全ての文字を含む文字群である。   That is, the display unit 104 can display an image of the unrecognized stroke group as information drawn by freehand, and can also display a graphic character corresponding to the character code converted from the stroke group in font. . Here, the graphic character is a character group including all characters that can be displayed in font with the above-mentioned standardized character code, which is composed of national languages including Japanese and symbols.

送信処理部112は、文字列記憶部111に接続され、Bluetooth(R)規格若しくはCDMA(Code Division Multiple Access:符号分割多元接続)規格等の無線通信規格に準拠して構成された通信ポート又は赤外線通信規格に対応した出力ポートを有して構成される。送信処理部112は、文字列記憶部111に記憶されたコード化文字列を外部からの指示に応じて読み出し、このコード化文字列を、通信可能範囲にあるPDA(Personal Digital Assistant:携帯端末)及びPC(Personal Computer:パソコン)等の任意の外部機器に送信する。   The transmission processing unit 112 is connected to the character string storage unit 111, and is configured to comply with a wireless communication standard such as Bluetooth (R) standard or CDMA (Code Division Multiple Access) standard, or an infrared port. It has an output port corresponding to the communication standard. The transmission processing unit 112 reads the encoded character string stored in the character string storage unit 111 according to an instruction from the outside, and the encoded character string is a PDA (Personal Digital Assistant: portable terminal) within a communicable range. And an arbitrary external device such as a PC (Personal Computer).

また、送信処理部112は、文字列記憶部111に記憶されたコード化文字列を上述の外部機器にメール送信可能に、電子メールを作成処理する機能も有する。   The transmission processing unit 112 also has a function of creating an e-mail so that the encoded character string stored in the character string storage unit 111 can be e-mailed to the external device.

認識指示入力部113は、文字認識部110に接続され、認識開始を指示するように入力操作される入力ボタン(図示せず)等を有して構成される。認識指示入力部113は、上記入力ボタンが操作されて文字認識開始が指示された場合、即ち1文字の入力終了が明示された場合、又は接触検出部101による接触検出が所定時間に亘りなされなかった場合、文字認識部110に文字認識の開始を指示する。   The recognition instruction input unit 113 is connected to the character recognition unit 110 and has an input button (not shown) that is input to instruct the start of recognition. The recognition instruction input unit 113 operates when the input button is operated to instruct the start of character recognition, that is, when the end of input of one character is clearly indicated, or contact detection by the contact detection unit 101 is not performed for a predetermined time. If this happens, the character recognition unit 110 is instructed to start character recognition.

検出異常出力部114は、LED(Light-Emitting Diode:発光ダイオード)のような発光装置又は扁平コアレス振動モータ等からなるバイブレータ(振動装置)を有して構成される。検出異常出力部114は、移動検出部107に接続され、移動検出部107から移動検出の失敗を通知されたとき、この移動検出の失敗を発光又は振動により外部に通知する。   The detection abnormality output unit 114 includes a light emitting device such as an LED (Light-Emitting Diode) or a vibrator (vibration device) including a flat coreless vibration motor. The detection abnormality output unit 114 is connected to the movement detection unit 107, and when the movement detection unit 107 is notified of the failure in movement detection, the detection abnormality output unit 114 notifies the outside of the movement detection failure by light emission or vibration.

次に、ペン100の動作について、図3乃至図6を参照しながら説明する。図3は、ペン100の使用例を示す略式概念図であり、図4は、CCD103による全被描画領域201aの画像入力例を示す略式概念図であり、図5は、移動検出部107による描画位置の特定方法を説明する図であり、図6は、移動検出部107による描画位置の移動変化の検出方法を説明する図である。   Next, the operation of the pen 100 will be described with reference to FIGS. FIG. 3 is a schematic conceptual diagram showing an example of use of the pen 100, FIG. 4 is a schematic conceptual diagram showing an example of image input of the entire drawing area 201a by the CCD 103, and FIG. FIG. 6 is a diagram for explaining a method for detecting a change in drawing position by the movement detection unit 107. FIG.

上述したように構成されたペン100の電源をオン状態とし、例えば図3に示すように、掌紋204が特徴として顕在する掌200aを被描画表面200とし、この掌200a上方で描画の準備をすると、CCD103により掌200aが撮影され、この掌200aの画像が被描画領域検出部105に入力される。   When the power of the pen 100 configured as described above is turned on, for example, as shown in FIG. 3, the palm 200a that is characterized by the palm print 204 is set as the drawing surface 200, and preparation for drawing is performed above the palm 200a. The palm 103 a is photographed by the CCD 103, and an image of the palm 200 a is input to the drawing area detection unit 105.

被描画領域検出部105では、図4に示すように、CCD103により撮影された範囲の掌201aが全被描画領域201として検出される。ここで検出された掌201aの画像は、被描画領域記憶部106に記憶(保存)されることによって、掌紋、指紋及び指形状等の特徴204が、掌200aに顕在する特徴として、ペン100に設定される。   In the drawing area detection unit 105, as shown in FIG. 4, the palm 201 a in the range photographed by the CCD 103 is detected as the entire drawing area 201. The image of the palm 201a detected here is stored (saved) in the drawing area storage unit 106, so that features 204 such as a palm print, a fingerprint, and a finger shape appear on the pen 100 as features that appear on the palm 200a. Is set.

ペン100により掌200aに描画を行い、例えば、掌200aの部分画像203aが、CCD102により取り込まれた場合、移動検出部107は、この部分画像203aと被描画領域記憶部106に記憶された掌201aの画像とでパターンマッチング処理を実行する。このパターンマッチング処理において、部分画像203aに含まれる掌紋及び親指形状等の特徴204aと掌201aの画像に含まれる特徴204とを一致(マッチング)させるように比較解析が実行され、部分画像203aは被入力域202aで取り込まれたことが比較結果として導出される。   For example, when drawing is performed on the palm 200 a by the pen 100 and a partial image 203 a of the palm 200 a is captured by the CCD 102, the movement detection unit 107 detects the palm 201 a stored in the partial image 203 a and the drawing area storage unit 106. The pattern matching process is executed on the image. In this pattern matching process, a comparative analysis is performed so that the features 204a such as palm print and thumb shape included in the partial image 203a are matched (matched) with the features 204 included in the image of the palm 201a. What has been captured in the input area 202a is derived as a comparison result.

従って、このパターンマッチング処理により、掌201aの画像201aにおける部分画像203aの該当位置を特定することができるので、移動検出部107は、部分画像203aがCCD102により取り込まれた時点で、掌200aに対するペン100の絶対位置を特定(検知)して位置座標に変換することができる。   Therefore, this pattern matching processing can specify the corresponding position of the partial image 203a in the image 201a of the palm 201a. Therefore, the movement detection unit 107 can detect the pen for the palm 200a when the partial image 203a is captured by the CCD 102. 100 absolute positions can be identified (detected) and converted to position coordinates.

ペン100によって、例えば、平仮名「あ」を掌200aに描画する場合、図5(a)に示すように、始点205bを有する最初のストロークを描画すると、タッチセンサ101により始点205bでの接触が検出がされ、この描画に連動して移動される被入力域202bで、CCD102により部分画像203bが取り込まれる。この部分画像203bには、掌紋204bが掌201bに顕在する特徴として含まれる。   For example, when drawing the hiragana “a” on the palm 200a with the pen 100, as shown in FIG. 5A, when the first stroke having the start point 205b is drawn, the touch sensor 101 detects contact at the start point 205b. The partial image 203b is captured by the CCD 102 in the input area 202b moved in conjunction with the drawing. This partial image 203b includes a palm print 204b as a feature that appears on the palm 201b.

更に、図5(b)に示すように、始点205cを有する2番目のストロークを描画すると、タッチセンサ101により始点205cでの接触が検出され、この描画に連動して移動される被入力域202cで、CCD102により部分画像203cが取り込まれる。この部分画像203cには、上述の部分画像203bと同様に、掌紋204bが掌201bに顕在する特徴として含まれる。   Further, as shown in FIG. 5B, when the second stroke having the start point 205c is drawn, the touch sensor 101 detects the contact at the start point 205c, and the input area 202c is moved in conjunction with the drawing. Thus, the partial image 203 c is captured by the CCD 102. Similar to the partial image 203b described above, the partial image 203c includes the palm print 204b as a feature that appears on the palm 201b.

移動検出部107は、CCD102により取り込まれた部分画像203bと部分画像203cに顕在する特徴、即ち、掌紋204bの位置を比較してペン100の移動変化を検出する。具体的には、移動検出部107は、部分画像203bに含まれる掌紋204bと部分画像203cに含まれる掌紋204bとをマッチングさせることによって、始点205bを有するストロークの掌201bに対する絶対位置と、始点205cを有するストロークの掌201bに対する絶対位置とを特定して位置座標に変換する。   The movement detection unit 107 detects the movement change of the pen 100 by comparing the features that appear in the partial image 203b and the partial image 203c captured by the CCD 102, that is, the position of the palm print 204b. Specifically, the movement detection unit 107 matches the palm pattern 204b included in the partial image 203b with the palm pattern 204b included in the partial image 203c, thereby determining the absolute position of the stroke having the start point 205b with respect to the palm 201b and the start point 205c. The absolute position of the stroke with respect to the palm 201b is specified and converted into position coordinates.

これによって、図5(c)に示すように、始点205bを有するストロークと始点205cを有するストロークとの位置関係を2次元位置座標(x、y)で表すことができるので、ストローク生成部108は、移動検出部107により決定された複数のストローク間の位置関係を表す位置座標に基づいて、一連のストロークからなるストローク群205dを復元するストローク情報を生成することができる。   As a result, as shown in FIG. 5C, the positional relationship between the stroke having the start point 205b and the stroke having the start point 205c can be expressed by two-dimensional position coordinates (x, y). Based on the position coordinates representing the positional relationship between the plurality of strokes determined by the movement detection unit 107, stroke information for restoring the stroke group 205d composed of a series of strokes can be generated.

この例では、平仮名「あ」を構成するストローク群205dは、被入力域202b,202cに同一特徴204bが含まれるような被描画領域で描画されているので、CCD103により掌201aの画像を入力しなくても、CCD102から逐次入力される部分画像203b,203cからペン100の移動変化を検出できると共に、複数のストローク間の位置関係を再構築することができる。もちろん、部分画像203b,203cだけではなく、部分画像203b又は部分画像203cと掌201aの画像との間でパターンマッチングを実行することによって、複数のストローク間の位置関係を再構築しても良い。   In this example, since the stroke group 205 d constituting the hiragana “a” is drawn in the drawing area in which the same features 204 b are included in the input areas 202 b and 202 c, the image of the palm 201 a is input by the CCD 103. Even without this, it is possible to detect the movement change of the pen 100 from the partial images 203b and 203c sequentially input from the CCD 102, and to reconstruct the positional relationship between a plurality of strokes. Of course, the positional relationship between a plurality of strokes may be reconstructed by executing pattern matching between the partial image 203b or the partial image 203c and the palm image 201a as well as the partial images 203b and 203c.

このようにして2本のストローク群205dを描画した後、図6(a)に示すように、新たに3番目のストローク205eを追加描画すると、例えば、図6(b)に示す部分画像203dがCCD102により取り込まれ、続いて、図6(c)に示す部分画像203eがCCD102により取り込まれる。   After drawing the two stroke groups 205d in this manner, as shown in FIG. 6A, when a third stroke 205e is newly drawn, the partial image 203d shown in FIG. Subsequently, the partial image 203e shown in FIG. 6C is captured by the CCD 102.

これら時間的に連続して取り込まれた2枚の部分画像203d,203eに対してパターンマッチング処理を実行し、図6(d)に示すように、これらの部分画像203d,203eを重ね合わせることによって、これら2枚の部分画像203d,203eのずれから、ペン100の2次元的な移動変化量を検出することができる。即ち、移動検出部107は、これら2枚の部分画像203d,203eのずれ量を解析することによって、ペン100と掌200aとの接点が、部分画像203d,203eの取込時に存在していた位置(x、y)の相対的移動を、ベクトルVの始点(a1,b1)及び終点(a2,b2)を用いて座標表現することができる。   A pattern matching process is performed on these two partial images 203d and 203e captured continuously in time, and as shown in FIG. 6D, these partial images 203d and 203e are overlaid. The two-dimensional movement change amount of the pen 100 can be detected from the deviation between the two partial images 203d and 203e. That is, the movement detection unit 107 analyzes the amount of deviation between the two partial images 203d and 203e, so that the contact point between the pen 100 and the palm 200a is present when the partial images 203d and 203e are captured. The relative movement of (x, y) can be expressed in coordinates using the start point (a1, b1) and end point (a2, b2) of the vector V.

ストローク生成部108は、図6(e)に示すように、移動検出部107により検出された始点(a1,b1)と終点(a2,b2)とを結ぶようにストローク205eを更新してストローク205fを構成することによって、所定の時間間隔で取り込まれた部分画像203d,203eから、ペン100と掌200aとの接点、即ち、描画位置の移動変化に基づいて、この描画によるストローク情報を生成することができる。   As shown in FIG. 6E, the stroke generation unit 108 updates the stroke 205e so as to connect the start point (a1, b1) and the end point (a2, b2) detected by the movement detection unit 107, and the stroke 205f. To generate stroke information by this drawing based on the contact between the pen 100 and the palm 200a, that is, the movement change of the drawing position, from the partial images 203d and 203e captured at predetermined time intervals. Can do.

ストローク生成部108は、タッチセンサ101により接触が検出されなくなったとき、1本のストロークが入力されたと判断し、この追加描画されたストローク205fを復元するストローク情報を生成する。そして、先に描画された2本のストローク205dにストローク205fを追加して復元可能に、ここで生成されたストローク情報をストローク記憶部109に記憶する。   The stroke generation unit 108 determines that one stroke has been input when contact is no longer detected by the touch sensor 101, and generates stroke information for restoring this additional drawn stroke 205f. Then, the stroke information generated here is stored in the stroke storage unit 109 so that it can be restored by adding the stroke 205f to the previously drawn two strokes 205d.

ここで文字認識開始を指示するための入力ボタン(図示せず)を操作すると、ストローク記憶部109に記憶されたストローク情報が、文字認識部110により読み出され、文字認識処理が開始される。   When an input button (not shown) for instructing the start of character recognition is operated here, the stroke information stored in the stroke storage unit 109 is read out by the character recognition unit 110, and the character recognition process is started.

このとき、図6(f)に示すように、平仮名「あ」を構成するためのストローク群205d,205fが、ストローク記憶部109から読み出されたストローク情報に基づき復元されてビットマップ(Bit Map)に転写される。これにより描画された平仮名「あ」のビットマップ画像(イメージ)が生成され、LCD104にストローク情報として表示される。従って、描画された文字がペン100に正しく入力されたか否かを素早く確認することができる。   At this time, as shown in FIG. 6 (f), the stroke groups 205 d and 205 f for constructing the hiragana “a” are restored based on the stroke information read from the stroke storage unit 109, and the bitmap (Bit Map ). As a result, a bitmap image (image) of the hiragana “a” drawn is generated and displayed on the LCD 104 as stroke information. Therefore, it can be quickly confirmed whether or not the drawn characters are correctly input to the pen 100.

文字認識部110は、このビットマップに転写された平仮名「あ」のオンビットポイント(On-Bit Point)と、規格化された文字コードに対応したフォントを生成するときのオンビットポイントとをマッチング処理することによって、描画されたストローク群205d,205fに最も近似した1文字(最近似文字)を検索する。そして、文字認識部110は、ここで検索された最近似文字に対応する文字コードを、文字認識の結果として文字列記憶部111に入力する。これによって、文字認識部110は、ストローク生成部108により生成されたストローク情報を文字認識して文字コードに変換することができる。   The character recognition unit 110 matches the on-bit point of the hiragana “a” transferred to the bitmap with the on-bit point when generating a font corresponding to the standardized character code. By processing, one character (most approximate character) that is closest to the drawn stroke groups 205d and 205f is searched. Then, the character recognition unit 110 inputs the character code corresponding to the closest character searched here into the character string storage unit 111 as a result of character recognition. As a result, the character recognition unit 110 can recognize the stroke information generated by the stroke generation unit 108 and convert it into a character code.

文字列記憶部111に入力された文字コードは、平仮名「あ」の文字認識以前に文字認識された文字に対応する文字コードに続けて記憶される。これによって、ペン100により描画された一連の文字は、コード化文字列として文字列記憶部111に記憶される。   The character code input to the character string storage unit 111 is stored following the character code corresponding to the character recognized before the character recognition of the hiragana character “a”. Accordingly, a series of characters drawn by the pen 100 is stored in the character string storage unit 111 as a coded character string.

文字列記憶部111に記憶されたコード化文字列は、LCD104に随時送出され、ビットマップイメージの「あ」をフォント「あ」に置換するように表示が切り換えられる。このため、読み易くフォント表示された文字列によって、入力済の文字列を確認しながら描画による文字入力を継続することができる。   The encoded character string stored in the character string storage unit 111 is sent to the LCD 104 as needed, and the display is switched so that the font image “A” is replaced with the font “A”. For this reason, it is possible to continue character input by drawing while confirming the input character string with the character string displayed in an easy-to-read font.

文字入力を完了し、例えば、Bluetooth規格に対応したPDA等によりペン100との通信を開始してペン100に入力文字列の伝送(送信)を指示すると、文字列記憶部111に記憶されたコード化文字列が、送信処理部112により読み出され、指示された形態で外部のPDAに伝送されるように情報処理されて送信される。   When the character input is completed and, for example, communication with the pen 100 is started by a PDA or the like compatible with the Bluetooth standard and the pen 100 is instructed to transmit (transmit) the input character string, the code stored in the character string storage unit 111 is stored. The converted character string is read by the transmission processing unit 112, processed and transmitted so as to be transmitted to an external PDA in the designated form.

これによって、ペン100によりフリーハンドで入力された文字列が、このPDA等に伝送されるので、PDA等のタッチパネル式の小型画面上で入力ペンを操作し、又は、小型キーボードからキー入力する必要がなくなる。従って、PDAのように操作部が小型で使い勝手が悪い外部機器の操作性を向上させることができる。   As a result, since a character string input freehand by the pen 100 is transmitted to the PDA or the like, it is necessary to operate the input pen on a touch panel type small screen such as a PDA or to input a key from a small keyboard. Disappears. Therefore, it is possible to improve the operability of an external device such as a PDA that has a small operation unit and poor usability.

このように、第1の実施形態に係るペン100によれば、掌200aに顕在する掌紋、指紋及び指形状等の特徴204をリファレンスとして利用することによって、タッチパネル方式の表示装置又は描画位置を検出するための特殊なパターンが印刷された専用紙等を必要とせずにペン100の動きをストローク情報として記録(記憶)することができるので、ペン100のみによりフリーハンドで文字を入力することができるようになる。   As described above, according to the pen 100 according to the first embodiment, the touch panel display device or the drawing position is detected by using the features 204 such as the palm print, the fingerprint, and the finger shape that appear on the palm 200a as a reference. Since the movement of the pen 100 can be recorded (stored) as stroke information without the need for special paper or the like on which a special pattern is printed, characters can be input freehand only with the pen 100. It becomes like this.

次に、本発明に係る筆跡情報生成方法として、上述したペン100による筆跡情報生成例を説明する。図7及び図8は、ペン100による筆跡情報生成例を示すフローチャートである。   Next, as a handwriting information generation method according to the present invention, an example of handwriting information generation by the above-described pen 100 will be described. 7 and 8 are flowcharts showing examples of handwriting information generation by the pen 100. FIG.

このペン100による筆跡情報生成例では、被描画表面に係る掌200aへの描画に連動して移動される被入力域202で掌200aの部分画像203を逐次取り込み、取り込まれた部分画像203から描画によるストローク情報を生成する場合に、取り込まれた複数の部分画像203に顕在する特徴204の位置を比較して描画位置の移動変化を検出し、この描画位置の移動変化に基づきストローク情報(筆跡情報)を生成することを前提とする。   In the example of handwriting information generation by the pen 100, the partial image 203 of the palm 200a is sequentially captured in the input area 202 that is moved in conjunction with the rendering on the palm 200a on the surface to be rendered, and the drawing is performed from the captured partial image 203. When the stroke information is generated by the above, the movement of the drawing position is detected by comparing the positions of the features 204 that appear in the captured partial images 203, and the stroke information (handwriting information) is detected based on the movement change of the drawing position. ).

これを前提として、ペン100の電源をオン状態にすると、図7に示すフローチャートのステップS1で、CCD103により全被描画領域201aの画像が取り込まれる。   On the premise of this, when the power of the pen 100 is turned on, the image of the entire drawing area 201a is captured by the CCD 103 in step S1 of the flowchart shown in FIG.

ステップS2で、電源がオフ状態である場合、ストローク情報の生成を終了するが、電源はオン状態であるから次のステップS3に進み、ここで描画による掌200aとの接触がタッチセンサ101により検出されると、ペン100での描画によるストロークの入力が開始されたと判断され、次のステップS4で、接触が検出された掌200aにおける被入力域202で、CCD102により部分画像203が撮影され取り込まれる。   If the power is off in step S2, the generation of stroke information is terminated. However, since the power is on, the process proceeds to the next step S3, where the touch sensor 101 detects contact with the palm 200a by drawing. Then, it is determined that stroke input by drawing with the pen 100 has started, and in step S4, the partial image 203 is photographed and captured by the CCD 102 in the input area 202 of the palm 200a where contact is detected. .

ステップS5で、移動検出部107は、取り込まれた部分画像203に顕在する特徴204の位置と、先に取り込まれた全被描画領域201aに顕在する特徴204の位置とを比較し、次のステップS6で、ペン100の位置、即ち、描画位置を検出し、その位置座標(a,b)を、部分画像203の取込時点での描画位置(x,y)とみなす。   In step S5, the movement detection unit 107 compares the position of the feature 204 that appears in the captured partial image 203 with the position of the feature 204 that appears in the entire drawing area 201a that has been previously captured, and the next step In S6, the position of the pen 100, that is, the drawing position is detected, and the position coordinates (a, b) are regarded as the drawing position (x, y) at the time of capturing the partial image 203.

ステップS7で、移動検出部107がペン100の位置の検出に失敗したと判断した場合、ステップS8に進み、検出異常出力部114によるLEDの点滅又はバイブレーション(振動)等によって、検出失敗をユーザに通知し、ステップS2に戻る。そして、ペン100の位置検出に成功するか、又は、電源がオフされるまで、ステップS2乃至ステップS8のループを繰り返す。   If it is determined in step S7 that the movement detection unit 107 has failed to detect the position of the pen 100, the process proceeds to step S8, and detection failure is notified to the user by LED blinking or vibration (vibration) by the detection abnormality output unit 114. Notify and return to step S2. The loop from step S2 to step S8 is repeated until the position of the pen 100 is successfully detected or the power is turned off.

ステップS7で、移動検出部107がペン100の位置の検出に成功した場合、ステップS9に進み、検出したペンの位置座標(a,b)を、部分画像203の取込時点での描画位置(x、y)として一時的に記憶し、ステップS3に戻る。   If the movement detection unit 107 succeeds in detecting the position of the pen 100 in step S7, the process proceeds to step S9, and the detected position coordinates (a, b) of the pen are represented by the drawing position at the time when the partial image 203 is captured ( x, y) is temporarily stored, and the process returns to step S3.

そして、ステップS3で、タッチセンサ101による掌200aとの接触が検出されなくなるまで、ステップS3乃至ステップS9のループを繰り返すことによって、掌200aにおける被入力域202で、部分画像203がCCD102により逐次取り込まれ、移動検出部107は、CCD102により取り込まれた複数の部分画像203に顕在する特徴の位置を比較して、ペン100の位置の移動変化を検出する。   Then, in step S3, the partial image 203 is sequentially captured by the CCD 102 in the input area 202 in the palm 200a by repeating the loop of steps S3 to S9 until the touch sensor 101 no longer detects contact with the palm 200a. Then, the movement detection unit 107 compares the positions of features that appear in the plurality of partial images 203 captured by the CCD 102 and detects the movement change of the position of the pen 100.

ステップS3で、タッチセンサによる接触が検出されない場合、図8に示すフローチャートのステップS10に移行して、ストローク生成部108は、部分画像203の取込時点での描画位置(x,y)として記憶された複数のペン100の位置座標(a,b)を連結することによって筆跡情報(ストローク情報)を生成し、このストローク情報をストローク記憶部109に記憶する。   If contact by the touch sensor is not detected in step S3, the process proceeds to step S10 in the flowchart shown in FIG. 8, and the stroke generation unit 108 stores the drawing position (x, y) at the time of capturing the partial image 203. The handwriting information (stroke information) is generated by connecting the position coordinates (a, b) of the plurality of pens 100, and the stroke information is stored in the stroke storage unit 109.

次のステップS11で、文字認識開始を指示する入力がない場合、ステップS2に戻って次のストロークの入力を待ち、上述と同様にして、ストローク情報の生成と記憶とを継続する。   If there is no input instructing the start of character recognition in the next step S11, the process returns to step S2 to wait for the input of the next stroke, and the generation and storage of stroke information is continued in the same manner as described above.

ステップS11で、入力ボタン等により文字認識開始を指示し、又は、所定時間、例えば2秒間に亘り描画を実行しないと、認識指示入力部113から文字認識部110に文字認識開始の指示が送出される。これによって、文字認識部110は文字認識開始と判断する。認識指示入力部113から文字認識開始の指示がない場合、文字認識せずにステップS2に戻る。   In step S11, if the start of character recognition is instructed by an input button or the like, or if drawing is not executed for a predetermined time, for example, 2 seconds, an instruction to start character recognition is sent from the recognition instruction input unit 113 to the character recognition unit 110. The As a result, the character recognition unit 110 determines that character recognition has started. If there is no instruction to start character recognition from the recognition instruction input unit 113, the process returns to step S2 without character recognition.

文字認識部110は、ステップS11で、文字認識開始と判断した場合、次のステップS12で、文字認識されていないストローク群を復元するストローク情報をストローク記憶部109から読み出して文字認識処理を実行し、ステップS13で、文字認識処理により検索された最近似文字に対応する文字コードにストローク情報を変換し、ステップS14で、このストローク情報から変換された文字コードを、認識結果として文字列記憶部111に記憶する。   If the character recognition unit 110 determines in step S11 that character recognition has started, then in step S12, the character recognition unit 110 reads stroke information for restoring a stroke group that has not been character-recognized from the stroke storage unit 109 and executes character recognition processing. In step S13, the stroke information is converted into a character code corresponding to the most approximate character searched by the character recognition process. In step S14, the character code converted from the stroke information is converted into a character string storage unit 111 as a recognition result. To remember.

これによって、文字認識処理毎に文字コードが認識結果として文字列記憶部111に蓄積されるので、一連のストローク入力によるコード化文字列を文字列記憶部111に記憶することができる。   As a result, the character code is accumulated as a recognition result in the character string storage unit 111 for each character recognition process, so that a coded character string based on a series of stroke inputs can be stored in the character string storage unit 111.

このように文字列記憶部111に記憶された文字コードは、表示部14に逐次送出され、ステップS15で、掌200aに描画した図形文字が文字(フォント)表示される。   The character codes stored in the character string storage unit 111 in this manner are sequentially sent to the display unit 14, and the graphic characters drawn on the palm 200a are displayed as characters (fonts) in step S15.

次のステップS16で、認識結果の送信指示がなかった場合、そのままステップS2に戻り、このステップS2で電源がオフ状態にされるまで、ストローク情報の生成及び記憶並びに文字認識処理及びコード化文字列の蓄積を継続する。   If there is no instruction to transmit the recognition result in the next step S16, the process returns to step S2 as it is, and generation and storage of stroke information, character recognition processing, and coded character string until the power is turned off in step S2. Will continue to accumulate.

ステップS16で、認識結果の送信指示があった場合、次のステップS17に進み、送信処理部112は、文字列記憶部111に記憶されたコード化文字列を読み出し、送信指示を送出したPDA等の外部機器に、Bluetooth規格に基づく無線技術によりコード化文字列を送信してからステップS2に戻る。そして、このステップS2で、電源がオフ状態とされたとき、ストローク情報の生成を終了する。   If there is an instruction to transmit the recognition result in step S16, the process proceeds to the next step S17, in which the transmission processing unit 112 reads the encoded character string stored in the character string storage unit 111, and the PDA that has transmitted the transmission instruction. After the encoded character string is transmitted to the external device by the wireless technology based on the Bluetooth standard, the process returns to step S2. In step S2, when the power is turned off, the generation of the stroke information is finished.

以上説明したように、本発明に係る筆跡情報生成方法によれば、この被描画表面への描画から生成されたストローク情報より文字情報及び図形情報等を取得することができるため、これら文字情報及び図形情報等をコード変換してPDA等の外部機器に伝送入力することができる。従って、従来のフリーハンドによる入力が可能な装置では必須であったタッチパネル方式の入力装置又は特殊用紙等の特別な装置を必要とせずに、フリーハンドによる文字入力を各種情報機器で実現することができるようになる。   As described above, according to the handwriting information generation method according to the present invention, character information and graphic information can be obtained from stroke information generated from drawing on the surface to be drawn. Graphic information and the like can be code-converted and transmitted to an external device such as a PDA. Accordingly, it is possible to realize freehand character input by various information devices without requiring a touch panel type input device or a special device such as special paper, which is essential in a conventional device capable of freehand input. become able to.

なお、本実施形態では、表示部としてLCD104を例示したが、本発明における表示手段は、特にLCDに限定されることはなく、画像表示機能を備えた有機EL(Electro Luminescence)表示装置及び電子ペーパー等の省電力化及び小型化が可能な薄型表示装置であれば良い。   In the present embodiment, the LCD 104 is exemplified as the display unit. However, the display means in the present invention is not particularly limited to the LCD, and an organic EL (Electro Luminescence) display device and an electronic paper having an image display function. Any thin display device capable of reducing power consumption and downsizing can be used.

また、本実施形態では、外部機器へのコード化文字列の伝送入力例として、Bluetooth規格に準拠したPDA等の情報機器との通信を例示したが、外部機器にコード化文字列を電子メールとして送信するように構成しても、本実施形態と同じ作用効果を得ることができる。   In this embodiment, as an example of transmission input of a coded character string to an external device, communication with an information device such as a PDA conforming to the Bluetooth standard is illustrated. However, the coded character string is sent to an external device as an e-mail. Even if it is configured to transmit, the same effect as this embodiment can be obtained.

本発明に係る文字入力装置を適用可能な外部機器は、特にPDA等の情報機器に限定されず、携帯電話及び電子レンジ等の一般家電製品にも適用することができる。   The external device to which the character input device according to the present invention can be applied is not particularly limited to an information device such as a PDA, and can also be applied to general home appliances such as a mobile phone and a microwave oven.

例えば、本発明に係る文字入力装置による文字入力機能を携帯電話に内蔵することによって、この携帯電話に付属されるペン型文字入力装置を用いて入力された文字列を、この携帯電話に予め記憶されたアドレス帳、電話帳及びメモ帳等への文字入力又は電子メール作成及び編集用の文字情報として、直接入力することもできる。   For example, by incorporating a character input function of the character input device according to the present invention in a mobile phone, a character string input using a pen-type character input device attached to the mobile phone is stored in advance in the mobile phone. It is also possible to directly input text information to the address book, telephone book, memo pad, etc., or text information for e-mail creation and editing.

これによって、携帯電話の限られた数の小さなボタンを操作することなくアドレス帳、電話帳、メモ帳及び電子メール等の作成及び編集を、1本の小さなペンのみで実行することができるので、携帯電話に付与された「場所と時間を選ばずに情報処理可能である」という機能をフル活用できるようになる。   This allows you to create and edit address books, phone books, notepads, e-mails, etc. with just one small pen without having to operate a limited number of small buttons on your mobile phone. It will be possible to make full use of the function “can process information regardless of location and time” given to mobile phones.

この場合、送信処理部112は、携帯電話で使用可能な公知のCDMA規格に準拠した無線方式により通信可能に構成されるか、又は、携帯電話に通常実装される赤外線通信ポートを転用可能に構成される。   In this case, the transmission processing unit 112 is configured to be communicable by a wireless method compliant with a well-known CDMA standard that can be used in a mobile phone, or to be diverted from an infrared communication port that is normally mounted on the mobile phone. Is done.

また、例えば、上述した携帯電話の構成を応用し、本発明に係る文字入力装置の文字入力機能を電子レンジ等の所謂情報家電に内蔵することによって、高機能化された電子レンジ等にレシピ等を入力する場合にも便利に利用できる。   Further, for example, by applying the above-described configuration of the mobile phone and incorporating the character input function of the character input device according to the present invention in a so-called information home appliance such as a microwave oven, a recipe or the like can be added to a highly functional microwave oven or the like. It can also be used conveniently when entering.

本実施形態では、被描画表面として掌200aを例示したが、本発明に係る文字入力装置による描画が可能な被描画表面は、特に掌に限定されることはなく、掌紋のように位置座標設定の基準となり得る特徴が顕在し、かつ、接触検出手段による接触検出が可能な程度の強度を備えていれば、その素材及び形状は特に限定されず、例えば、任意の文字情報が印刷された文書等の記録紙、模様がプリントされた壁紙等の特殊用紙及び布並びに木目の板材表面及び模様が形成された樹脂板表面等であっても、被描画表面として使用することができる。   In the present embodiment, the palm 200a is illustrated as the drawing surface. However, the drawing surface that can be drawn by the character input device according to the present invention is not particularly limited to the palm, and the position coordinates can be set like a palm print. The material and the shape are not particularly limited as long as the characteristics that can be used as a reference are obvious and the contact detection means can detect the contact. For example, a document on which arbitrary character information is printed Recording paper such as paper, special paper such as wallpaper on which a pattern is printed, and cloth, as well as the surface of a wood plate material and the surface of a resin plate on which a pattern is formed, can be used as the drawing surface.

[2]第2の実施形態
図9は、本発明の第2の実施形態としての文字入力装置300の構成例を示すブロック図である。この第2の実施形態としての文字入力装置300は、画像入力部102が被描画領域検出部105にも接続され、上述した文字入力装置100で全体画像入力部103に割り当てられていた機能が、画像入力部102に割り当てられている点で、文字入力装置100と相違する。
[2] Second Embodiment FIG. 9 is a block diagram showing a configuration example of a character input device 300 as a second embodiment of the present invention. In the character input device 300 according to the second embodiment, the image input unit 102 is also connected to the drawing area detection unit 105, and the function assigned to the entire image input unit 103 in the character input device 100 described above is It is different from the character input device 100 in that it is assigned to the image input unit 102.

よって、図9に示すブロック図において、文字入力装置100と同じ機能には、図2に示すブロック図と同一符号を付与して詳細説明を省略し、以下、文字入力装置100との相違点についてのみ説明する。   Therefore, in the block diagram shown in FIG. 9, the same functions as those of the character input device 100 are given the same reference numerals as those in the block diagram shown in FIG. Only explained.

文字入力装置300は、図1に示したペン100と同様の外観形状に構成され、上述したように、画像入力部102、即ち、ペン先近傍に設置されたCCD102にCCD103、即ち、全体画像入力手段の機能を割り当てるように構成される。よって、文字入力装置300(以下、ペン300と記載)には、CCD103は実装されない。   The character input device 300 is configured to have the same external shape as the pen 100 shown in FIG. 1, and as described above, the image input unit 102, that is, the CCD 102 installed in the vicinity of the pen tip, the CCD 103, that is, the entire image input. It is configured to assign the function of the means. Therefore, the CCD 103 is not mounted on the character input device 300 (hereinafter referred to as the pen 300).

ペン300を使用する場合、電源をオン状態にした後、CCD102を被描画表面200に向け、被入力域202で全被描画領域201を塗りつぶすようにペン300を一定時間移動させることによって、CCD102は、全被描画領域201の画像を複数の部分画像として逐次分割入力することができる。   When the pen 300 is used, after turning on the power, the CCD 102 is directed to the surface 200 to be drawn, and the pen 300 is moved for a certain time so as to fill the entire drawing area 201 in the input area 202. The image of the entire drawing area 201 can be sequentially divided and input as a plurality of partial images.

被描画領域検出部105は、このCCD102に接続され、CCD102により分割入力された複数の部分画像から全被描画領域201の画像を再構成して全被描画領域201を検出する。   The drawing area detection unit 105 is connected to the CCD 102 and reconstructs an image of the entire drawing area 201 from a plurality of partial images divided and input by the CCD 102 to detect the entire drawing area 201.

この構成によって、本実施形態に係るペン300によれば、CCDの実装個数を1個に削減することができるので、ペン100と比較して、より安価に製造することができる。また、部品数の減少により故障率も減少させることが可能となる。   With this configuration, according to the pen 300 according to the present embodiment, the number of CCDs mounted can be reduced to one, so that the pen 300 can be manufactured at a lower cost than the pen 100. In addition, the failure rate can be reduced by reducing the number of parts.

[3]第3の実施形態
図10は、本発明の第3の実施形態としての文字入力装置400の構成例を示すブロック図である。この第3の実施形態としての文字入力装置400は、認証パターン記憶手段として機能するユーザ情報記憶部401と、認証手段として機能するユーザ認証部402とを更に備えている点で、文字入力装置300と相違する。
[3] Third Embodiment FIG. 10 is a block diagram showing a configuration example of a character input device 400 as a third embodiment of the present invention. The character input device 400 according to the third embodiment further includes a user information storage unit 401 that functions as an authentication pattern storage unit and a user authentication unit 402 that functions as an authentication unit. Is different.

よって、図10に示すブロック図において、文字入力装置300と同じ機能には、図9に示すブロック図と同一符号を付与して説明を省略し、以下、文字入力装置300との相違点についてのみ説明する。   Therefore, in the block diagram shown in FIG. 10, the same functions as those of the character input device 300 are given the same reference numerals as those in the block diagram shown in FIG. 9 and description thereof is omitted. Hereinafter, only differences from the character input device 300 will be described. explain.

文字入力装置400は、図9に示したペン300と同様の外観形状に構成され、上述したように、ユーザ情報記憶部401と、ユーザ認証部402とを備える。ユーザ情報記憶部401はユーザ認証部402に接続され、CCD102から取り込まれる部分画像に顕在する特徴と比較するための認証パターンを記憶する。被描画表面200として掌200aを使用する場合、ユーザの掌200aに顕在する掌紋204を認証パターンとして予めユーザ情報記憶部401に記憶する。   The character input device 400 is configured in the same external shape as the pen 300 shown in FIG. 9 and includes the user information storage unit 401 and the user authentication unit 402 as described above. The user information storage unit 401 is connected to the user authentication unit 402 and stores an authentication pattern for comparison with features that appear in the partial image captured from the CCD 102. When the palm 200a is used as the drawing surface 200, the palm print 204 that appears on the user's palm 200a is stored in advance in the user information storage unit 401 as an authentication pattern.

ユーザ認証部402は、ユーザ情報記憶部401、CCD102及び被描画領域検出部105に接続され、ユーザ情報記憶部401に認証パターンとして記憶された掌紋204と、CCD102から取り込まれた部分画像に顕在する掌紋204とを比較照合し、この照合結果に基づいて認証/拒絶を判断する。   The user authentication unit 402 is connected to the user information storage unit 401, the CCD 102, and the drawing area detection unit 105, and is manifested in the palm print 204 stored as an authentication pattern in the user information storage unit 401 and a partial image captured from the CCD 102. The palm print 204 is compared and collated, and authentication / rejection is determined based on the collation result.

ユーザ認証部402により認証と判断された場合、移動検出部107は、ペン400の位置を検出し、この検出結果より描画位置の移動変化を検出する。これによりストローク生成部108は、ユーザ認証部402により認証と判断された場合にのみ、ストローク情報を生成することができるようになる。   When the user authentication unit 402 determines that the authentication is performed, the movement detection unit 107 detects the position of the pen 400 and detects a change in the drawing position based on the detection result. Thus, the stroke generation unit 108 can generate stroke information only when the user authentication unit 402 determines that the authentication is successful.

一方、ユーザ認証部402により拒絶と判断された場合、移動検出部107の動作は無効化されるので、ストローク生成部108は、ストローク情報を生成することができない。   On the other hand, when the user authentication unit 402 determines that the object is rejected, the operation of the movement detection unit 107 is invalidated, so that the stroke generation unit 108 cannot generate stroke information.

従って、本実施形態に係るペン400によれば、認証パターンとして指紋又は掌紋等をユーザ情報記憶部401に予め記憶させてユーザとして登録された者のみに限定し、ペン400による文字入力機能を有効化させて使用可能とすることができる。このため、文字入力装置に情報漏洩対策を施すようなセキュリティが重視される場合に、便利に利用できる。   Therefore, according to the pen 400 according to the present embodiment, the character input function by the pen 400 is effectively limited to only those who have been stored in advance in the user information storage unit 401 as fingerprints or palm prints as authentication patterns. Can be used. For this reason, it can be conveniently used when security is important, such as taking measures against information leakage in a character input device.

以上、本発明の実施形態及びその効果について詳細に説明してきたが、本発明は、これら第1乃至第3の実施形態の構成に限定されるものではなく、本願明細書に添付した特許請求の範囲により規定された本発明の適用範囲から逸脱せずに、上述した実施形態の構成が有する機能を達成可能な構成であれば、どのようなものであっても適用することができる。   As mentioned above, although embodiment of this invention and its effect were described in detail, this invention is not limited to the structure of these 1st thru | or 3rd embodiment, The claim attached to this-application specification Any configuration that can achieve the function of the configuration of the above-described embodiment without departing from the scope of application of the present invention defined by the scope can be applied.

本発明に係る文字入力装置の構成例を示す略式概念図である。It is a schematic conceptual diagram which shows the structural example of the character input device which concerns on this invention. 文字入力装置100の構成例を示すブロック図である。2 is a block diagram illustrating a configuration example of a character input device 100. FIG. 文字入力装置100の使用例を示す略式概念図である。4 is a schematic conceptual diagram showing an example of use of the character input device 100. FIG. 全被描画領域201の画像入力例を示す略式概念図である。5 is a schematic conceptual diagram showing an example of image input of the entire drawing area 201. FIG. 描画位置の特定方法を説明する図である。It is a figure explaining the identification method of a drawing position. 描画位置の移動変化の検出方法を説明する図である。It is a figure explaining the detection method of the movement change of a drawing position. 文字入力装置100による筆跡情報生成例を示すフローチャート(その1)である。5 is a flowchart (part 1) illustrating an example of handwriting information generation by the character input device. 文字入力装置100による筆跡情報生成例を示すフローチャート(その2)である。12 is a flowchart (part 2) illustrating an example of handwriting information generation by the character input device. 文字入力装置300の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a character input device 300. FIG. 文字入力装置400の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a character input device 400. FIG.

符号の説明Explanation of symbols

100,300,400・・・文字入力装置、101・・・接触検出手段、102・・・画像入力手段、103・・・全体画像入力手段、104・・・表示手段、105・・・被描画領域検出手段、106・・・被描画領域記憶手段、107・・・移動検出手段、108・・・筆跡情報生成手段、109・・・筆跡情報記憶手段、110・・・文字認識手段、111・・・文字列記憶手段、112・・・送信手段、200・・・被描画表面、201・・・全被描画領域、202・・・部分画像、203・・・被入力域、204・・・部分画像に顕在する特徴、205・・・筆跡情報、401・・・認証パターン記憶手段、402・・・認証手段
DESCRIPTION OF SYMBOLS 100,300,400 ... Character input device, 101 ... Contact detection means, 102 ... Image input means, 103 ... Whole image input means, 104 ... Display means, 105 ... Drawing Area detection means 106 ... Draw area storage means 107 ... Movement detection means 108 ... Handwriting information generation means 109 109 Handwriting information storage means 110 ... Character recognition means 111 · ..Character string storage means, 112... Transmission means, 200... Drawing surface, 201... All drawing area, 202. Features appearing in the partial image, 205 ... handwriting information, 401 ... authentication pattern storage means, 402 ... authentication means

Claims (5)

任意の被描画表面への描画に連動して移動される被入力域で当該被描画表面の部分画像を逐次取り込み、取り込まれた当該部分画像から前記描画による筆跡情報を生成する方法であって、
前記被描画表面に顕在する特徴を示す認証パターンを記憶するステップと、
前記描画による前記被描画表面との接触を検出するステップと、
前記接触を検出された前記被描画表面における前記被入力域で前記部分画像を逐次取り込むステップと、
取り込まれた複数の前記部分画像に顕在する特徴と、予め記憶された前記被描画表面に顕在する特徴を示す認証パターンとを比較照合して認証/拒絶を判断するステップと
前記認証の判断結果に基づいて描画位置の移動変化を検出するステップと
検出された前記描画位置の移動変化に基づき前記筆跡情報を生成するステップとを有する
ことを特徴とする筆跡情報生成方法。
A method of sequentially capturing a partial image of the surface to be drawn in an input area that is moved in conjunction with drawing on an arbitrary surface to be drawn, and generating handwriting information by the drawing from the captured partial image,
Storing an authentication pattern indicating a feature that is manifested on the surface to be drawn;
Detecting contact with the drawing surface by the drawing ;
And sequentially take write No step the partial image at the object input area in said detected object rendering surface the contact,
A step of judging authentication / rejection by comparing and comparing a feature that appears in the plurality of captured partial images and an authentication pattern that indicates a feature that appears in advance on the drawing surface;
Detecting a movement change of the drawing position on the basis of the determination result of the authentication,
And a step of generating the handwriting information based on the detected movement change of the drawing position.
任意の被描画表面への描画に連動して移動される被入力域で当該被描画表面の部分画像を逐次取り込み、取り込まれた当該部分画像から前記描画による筆跡情報を生成する装置であって、
前記描画による前記被描画表面との接触を検出する接触検出手段と、
前記接触検出手段により接触検出された前記被描画表面上方を前記描画に連動して移動すると共に、当該被描画表面における前記被入力域で前記部分画像を逐次取り込む画像入力手段と、
前記被描画表面に顕在する特徴を示す認証パターンを記憶する認証パターン記憶手段と
前記画像入力手段により取り込まれた複数の前記部分画像に顕在する特徴と、前記認証パターン記憶手段に記憶された認証パターンとを比較照合して認証/拒絶を判断する認証手段と、
前記認証手段により判断された認証に基づいて描画位置の移動変化を検出する移動検出手段と、
前記移動検出手段により検出された前記描画位置の移動変化に基づき前記筆跡情報を生成する筆跡情報生成手段と
を備えることを特徴とする筆跡情報生成装置。
A device that sequentially captures partial images of the drawing surface in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and generates handwriting information by the drawing from the captured partial images,
Contact detection means for detecting contact with the drawing surface by the drawing;
An image input unit that moves in conjunction with the drawing on the drawing surface detected by the contact detection unit and sequentially captures the partial image in the input area on the drawing surface;
An authentication pattern storage means for storing an authentication pattern indicating a characteristic that appears on the drawing surface ;
Authentication means for comparing / matching the features that appear in the partial images captured by the image input means with the authentication patterns stored in the authentication pattern storage means to determine authentication / rejection;
A movement detecting means for detecting a movement change of the drawing position on the basis of authentication that has been determined by the authentication means,
Handwriting information generating means, comprising: handwriting information generating means for generating the handwriting information based on the movement change of the drawing position detected by the movement detecting means.
記認証パターン記憶手段には、
前記認証パターンとして掌紋又は指紋に係る情報が記憶され、
前記認証手段は、
前記画像入力手段により掌画像が取り込まれた場合、当該掌画像に顕在する掌紋又は指紋と、前記認証パターンとして記憶された掌紋又は指紋とを比較照合する
ことを特徴とする請求項2に記載の文字入力装置。
The front Ki認 license pattern storage means,
Information related to palm print or fingerprint is stored as the authentication pattern,
The authentication means includes
The palm pattern or fingerprint that appears in the palm image and the palm pattern or fingerprint stored as the authentication pattern are compared and collated when a palm image is captured by the image input means. Character input device.
任意の被描画表面への描画に連動して移動される被入力域で当該被描画表面の部分画像を逐次取り込み、取り込まれた当該部分画像から前記描画による筆跡情報を文字入力する装置であって、
前記描画による前記被描画表面との接触を検出する接触検出手段と、
前記接触検出手段により接触検出された前記被描画表面上方を前記描画に連動して移動すると共に、当該被描画表面における前記被入力域で前記部分画像を逐次取り込む画像入力手段と、
前記被描画表面に顕在する特徴を示す認証パターンを記憶する認証パターン記憶手段と
前記画像入力手段により取り込まれた複数の前記部分画像に顕在する特徴と、前記認証パターン記憶手段に記憶された認証パターンとを比較照合して認証/拒絶を判断する認証手段と、
前記認証手段により判断された認証に基づいて描画位置の移動変化を検出する移動検出手段と、
前記移動検出手段により検出された前記描画位置の移動変化に基づき前記筆跡情報を生成する筆跡情報生成手段と、
前記筆跡情報生成手段により生成された前記筆跡情報を文字認識して文字コードに変換する文字認識手段と、
前記文字認識手段から入力される前記文字コードをコード化文字列として記憶する文字列記憶手段と
を備えることを特徴とする文字入力装置。
A device that sequentially captures partial images of the drawing surface in an input area that is moved in conjunction with drawing on an arbitrary drawing surface, and inputs handwriting information by the drawing from the captured partial images. ,
Contact detection means for detecting contact with the drawing surface by the drawing;
An image input unit that moves in conjunction with the drawing on the drawing surface detected by the contact detection unit and sequentially captures the partial image in the input area on the drawing surface;
An authentication pattern storage means for storing an authentication pattern indicating a characteristic that appears on the drawing surface ;
Authentication means for comparing / matching the features that appear in the partial images captured by the image input means with the authentication patterns stored in the authentication pattern storage means to determine authentication / rejection;
A movement detecting means for detecting a movement change of the drawing position on the basis of authentication that has been determined by the authentication means,
Handwriting information generating means for generating the handwriting information based on the movement change of the drawing position detected by the movement detecting means;
Character recognition means for recognizing the handwriting information generated by the handwriting information generation means and converting it into a character code;
A character input device comprising: character string storage means for storing the character code input from the character recognition means as a coded character string.
記認証パターン記憶手段には、
前記認証パターンとして掌紋又は指紋に係る情報が記憶され、
前記認証手段は、
前記画像入力手段により掌画像が取り込まれた場合、当該掌画像に顕在する掌紋又は指紋と、前記認証パターンとして記憶された掌紋又は指紋とを比較照合する
ことを特徴とする請求項4に記載の文字入力装置。
The front Ki認 license pattern storage means,
Information related to palm print or fingerprint is stored as the authentication pattern,
The authentication means includes
The palm pattern or fingerprint that appears in the palm image and the palm pattern or fingerprint stored as the authentication pattern are compared and collated when a palm image is captured by the image input means. Character input device.
JP2003366107A 2003-10-27 2003-10-27 Handwriting information generation method, handwriting information generation device, and character input device Expired - Fee Related JP3882805B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003366107A JP3882805B2 (en) 2003-10-27 2003-10-27 Handwriting information generation method, handwriting information generation device, and character input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003366107A JP3882805B2 (en) 2003-10-27 2003-10-27 Handwriting information generation method, handwriting information generation device, and character input device

Publications (2)

Publication Number Publication Date
JP2005128940A JP2005128940A (en) 2005-05-19
JP3882805B2 true JP3882805B2 (en) 2007-02-21

Family

ID=34644552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003366107A Expired - Fee Related JP3882805B2 (en) 2003-10-27 2003-10-27 Handwriting information generation method, handwriting information generation device, and character input device

Country Status (1)

Country Link
JP (1) JP3882805B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007109024A (en) * 2005-10-13 2007-04-26 Hitachi Maxell Ltd Digital pen
TWI301590B (en) * 2005-12-30 2008-10-01 Ibm Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition
JP2011034548A (en) * 2009-07-10 2011-02-17 Osaka Prefecture Univ System and method for acquiring handwritten pattern
JP5355769B1 (en) 2012-11-29 2013-11-27 株式会社東芝 Information processing apparatus, information processing method, and program
WO2022034744A1 (en) * 2020-08-11 2022-02-17 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0836461A (en) * 1994-07-25 1996-02-06 Nippon Telegr & Teleph Corp <Ntt> Method for deciding and processing various kinds of tip of pen and handwriting information input device with monitor
JPH08101739A (en) * 1994-09-30 1996-04-16 Yashima Denki Co Ltd Storage pen unit

Also Published As

Publication number Publication date
JP2005128940A (en) 2005-05-19

Similar Documents

Publication Publication Date Title
US7345673B2 (en) Input unit arrangement
US20010035861A1 (en) Controlling and electronic device
US7295193B2 (en) Written command
KR101026630B1 (en) Universal computing device
EP1532577B1 (en) Position-coding pattern
US8577148B2 (en) Image combining apparatus and image combining program
JP2003298689A (en) Cellular telephone
WO2001061454A1 (en) Controlling an electronic device
JP5353219B2 (en) Board writing system, computer apparatus and program
US20140241591A1 (en) Information obtaining device, display control system, and biometric authentication system
EP1697880A1 (en) Method, apparatus, computer program and storage medium for recording a movement of a user unit
US20070085859A1 (en) Pattern detection using an optical navigation device
US20040203411A1 (en) Mobile communications device
JP3882805B2 (en) Handwriting information generation method, handwriting information generation device, and character input device
JP2009217465A (en) Input device, input operation reception method, and program thereof
MX2007002821A (en) A method for using a pointing device.
JP2009187365A (en) Portable equipment, user confirmation system, key input method and computer program
JP5084087B2 (en) Handwriting command
AU759166B2 (en) Device and method for recording hand-written information
JP5256700B2 (en) Terminal device and program thereof
EP1382006B1 (en) Business card with a position-coding pattern
JP2012256088A (en) Electronic pen, terminal device, and program
JP2012063974A (en) Stroke display system and program
JP5305256B2 (en) Terminal device and program thereof
JP4816809B1 (en) Computer apparatus, input system, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091124

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121124

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees