JPH06318271A - Information processor - Google Patents

Information processor

Info

Publication number
JPH06318271A
JPH06318271A JP10663893A JP10663893A JPH06318271A JP H06318271 A JPH06318271 A JP H06318271A JP 10663893 A JP10663893 A JP 10663893A JP 10663893 A JP10663893 A JP 10663893A JP H06318271 A JPH06318271 A JP H06318271A
Authority
JP
Japan
Prior art keywords
input
pen
hand
information processing
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10663893A
Other languages
Japanese (ja)
Other versions
JP3209378B2 (en
Inventor
Shinichi Sunakawa
伸一 砂川
Eisaku Tatsumi
栄作 巽
Kazutoshi Shimada
和俊 島田
Noriyuki Suzuki
範之 鈴木
Katsuhiko Nagasaki
克彦 長崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10663893A priority Critical patent/JP3209378B2/en
Priority to US08/233,888 priority patent/US5644653A/en
Priority to DE69434194T priority patent/DE69434194D1/en
Priority to EP94107061A priority patent/EP0623891B1/en
Priority to KR1019940010031A priority patent/KR0148247B1/en
Publication of JPH06318271A publication Critical patent/JPH06318271A/en
Application granted granted Critical
Publication of JP3209378B2 publication Critical patent/JP3209378B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PURPOSE:To make it possible to accurately recognize even different hand- writting without requesting specific setting to a user. CONSTITUTION:Which part of a palm rest in a device is used for resting a hand holding a pen 8 to input a character by the pen 8 is detected by hand sensors 9, 10 and either one of a right hand pattern matching dictionary 40 and a left hand pattern matching dictionary 41 is selected based upon the detected result. The stroke information of an inputted hand-written character is recognized based upon the selected dictionary.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は情報処理装置、詳しくは
座標入力装置上で手書文字を入力し、その入力された内
容に基づいて文字認識する情報処理装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, and more particularly to an information processing apparatus for inputting handwritten characters on a coordinate input device and recognizing characters based on the input contents.

【0002】[0002]

【従来の技術】従来、この種の情報処理装置として、パ
ーソナルコンピュータ、ワードプロセッサ等がある。こ
れらの装置はディスプレイ上に文書やプログラム等の文
字データを表示して、編集、検索、その他の処理を行な
っている。
2. Description of the Related Art Conventionally, personal computers, word processors and the like have been known as information processing apparatuses of this type. These devices display character data such as documents and programs on the display and perform editing, searching, and other processing.

【0003】さらに、手書き文字や図形などを情報処理
装置内に入力する装置として、入力ペンやタブレットで
構成される種々の座標入力装置を使用したものが考案さ
れている。これらの装置では、入力された軌跡を記憶、
出力するものの他に入力された文字パターンをもとに、
パターンマッチング法を用いて文字認識を行ない、入力
を行なう装置も種々提案されていた。
Further, as a device for inputting handwritten characters and figures into the information processing device, there have been devised devices using various coordinate input devices composed of an input pen and a tablet. These devices store the input trajectory,
In addition to what is output, based on the input character pattern,
Various devices for performing character recognition and inputting using the pattern matching method have been proposed.

【0004】これら、パターンマッチングを行なう装置
では、文字パターンとの照合を行なうためのパターンマ
ッチング辞書が用意され、入力を予想される様々な筆跡
に対して最高の文字認識率を示すように最適化が行なわ
れている。
In these pattern matching apparatuses, a pattern matching dictionary for matching with a character pattern is prepared and optimized so as to show the highest character recognition rate for various handwritings expected to be input. Is being carried out.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、パター
ンマッチング辞書は完全ではないため、入力される筆跡
によってはしばしば誤認識を行うことがあった。従っ
て、ユーザは装置に認識され易い筆跡で文字を書く必要
があり、入力に注意が必要であった。
However, since the pattern matching dictionary is not perfect, the recognition error is often made depending on the input handwriting. Therefore, the user needs to write a character with a handwriting that is easily recognized by the device, and needs to be careful in inputting.

【0006】考えられる一つの解決策としては、筆跡の
特徴ごとに数種類のパターンマッチング辞書を持ち、切
り換えて使用することである。
One conceivable solution is to have several types of pattern matching dictionaries for each feature of handwriting, and switch and use them.

【0007】しかしながら、この方法においては、筆跡
の特徴が異なるユーザが入力を行なおうとする度に辞書
の切り換えの作業を行わねばならず、更にはユーザは現
在使用中のパターンマッチング辞書が何なのか把握せね
ばならず、非常に面倒になることが予想される。
However, in this method, each time a user with different handwriting characteristics tries to make an input, he / she has to switch the dictionaries, and the user needs to know what pattern matching dictionary is currently in use. It is expected that it will be very troublesome.

【0008】[0008]

【課題を解決するための手段】本発明はかかる問題に鑑
み成されたものであり、ユーザに何ら特別な設定をさせ
ることなく、異なる筆跡があっても的確に認識すること
が可能な情報処理装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and information processing capable of accurately recognizing different handwriting without requiring the user to make any special settings. The purpose is to provide a device.

【0009】この課題を解決するため、本発明の情報処
理装置は以下に示す構成を備える。すなわち、手書き文
字を認識する情報処理装置において、手書き文字の入力
者を判別する判別手段と、該判別手段の判別結果に基づ
いて、文字認識する場合に参照される複数の辞書の中か
ら1つを選択する選択手段と、該選択手段によって選択
された辞書を参照して文字認識する手段とを備える。
In order to solve this problem, the information processing apparatus of the present invention has the following configuration. That is, in an information processing apparatus for recognizing handwritten characters, one of a plurality of dictionaries referred to when recognizing a character based on a discrimination means for discriminating an input person of the handwritten character and the discrimination means. And a character recognizing unit referring to the dictionary selected by the selecting unit.

【0010】また、他の発明は操作者に向かって正立し
た像を表示させることを可能にする情報処理装置を提供
しようとするものである。
Another aspect of the present invention is to provide an information processing apparatus that enables an operator to display an upright image.

【0011】手に持って所望とする位置を指定する入力
手段を備えた情報処理装置において、像を表示する表示
手段と、前記入力手段の操作者の方向を検出する検出手
段と、該検出手段の結果に基づいて、前記表示手段によ
る表示像の方向を変更する手段とを備える。
In an information processing apparatus provided with an input means for holding a desired position and designating a desired position, a display means for displaying an image, a detection means for detecting the direction of the operator of the input means, and the detection means. And a means for changing the direction of the display image by the display means based on the result.

【0012】[0012]

【作用】かかる本発明の構成において、例えば、利き腕
や筆圧等によって入力者を判別し、その判別結果に基づ
いて文字認識用辞書を切り換える。
In the structure of the present invention, the input person is discriminated by, for example, the dominant arm or the writing pressure, and the character recognition dictionary is switched based on the discrimination result.

【0013】[0013]

【実施例】以下、添付図面を参照して本発明に係る好適
な一実施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A preferred embodiment of the present invention will be described in detail below with reference to the accompanying drawings.

【0014】<装置外観の説明(図2)>図2は本実施
例における情報処理装置の概略構成を示す斜視図であ
る。本実施例の装置は入力ペンで入力タブレット上の座
標位置を指示することにより、情報の入力を行なう座標
入力装置を入力手段として備える。
<Explanation of Appearance of Apparatus (FIG. 2)> FIG. 2 is a perspective view showing a schematic configuration of an information processing apparatus in this embodiment. The apparatus of this embodiment is provided with a coordinate input device as input means for inputting information by designating a coordinate position on the input tablet with an input pen.

【0015】図中、8は座標の指示を行なう入力ペンで
あり、7は入力を行なう入力タブレットである。22,
23はユーザが入力を行なう時に手の平をのせるための
パームレストであって、パームレスト22は右手で入力
を行なう時に用い、パームレスト23は左手用である。
尚、入力タブレット7は透明になっており、その下には
液晶ディスプレイが設けられ、ユーザがペン8を用いて
入力したストロークを順次検出し、そのストロークを線
で表示する。従って、通常の紙上にペンで書くかの如く
本装置を使用することが可能になっている。
In the figure, 8 is an input pen for designating coordinates, and 7 is an input tablet for inputting. 22,
Reference numeral 23 is a palm rest for placing a palm on the user's input, the palm rest 22 is used for inputting with the right hand, and the palm rest 23 is for the left hand.
The input tablet 7 is transparent, and a liquid crystal display is provided below the input tablet 7. The strokes input by the user using the pen 8 are sequentially detected, and the strokes are displayed as lines. Therefore, it is possible to use the present device as if writing with a pen on ordinary paper.

【0016】尚、実施例の装置は単なる文字認識装置で
はなく、文書の編集等を行う装置であるが、その編集内
容に本発明の特徴があるのではないので、以下では文字
認識に係る説明のみを行う。
It should be noted that the apparatus of the embodiment is not a simple character recognition apparatus but an apparatus for editing a document, but since the edited contents do not have the characteristics of the present invention, the description regarding the character recognition will be given below. Only do.

【0017】<装置構成の説明(図1)>図1は本実施
例における情報処理装置の概略構成を示すブロック図で
ある。図において、CPU1はROM2に格納された後
述するプログラムに従い、RAM3に制御データを格納
しながら情報処理装置全体を制御する。4はプリンタ、
キーボード、或いはモデム等の周辺機器を接続し、デー
タの入出力を行なうI/Oポートである。5は液晶で構
成され、画像,文字データ等の表示を行なう表示出力部
である。尚、表示出力部5は必ずしも液晶で構成される
必要はなく、CRTディスプレイやその他の方式のディ
スプレイであっても構わない。
<Description of Device Configuration (FIG. 1)> FIG. 1 is a block diagram showing a schematic configuration of the information processing device in this embodiment. In the figure, a CPU 1 controls the entire information processing apparatus while storing control data in a RAM 3 according to a program to be described later stored in a ROM 2. 4 is a printer,
An I / O port for connecting a keyboard or a peripheral device such as a modem to input / output data. Reference numeral 5 denotes a display output unit which is composed of a liquid crystal and which displays an image, character data and the like. The display output unit 5 does not necessarily have to be made of liquid crystal, and may be a CRT display or another type of display.

【0018】11は座標の入力を行う座標入力装置であ
り、本実施例においては、抵抗膜を用いたデジタイザを
使用した。勿論、他の方式を採用しても良い。
Reference numeral 11 is a coordinate input device for inputting coordinates, and in this embodiment, a digitizer using a resistance film was used. Of course, other methods may be adopted.

【0019】7は抵抗膜を用いた透明な入力タブレット
であり、指示ペン8によってタブレット面を押圧指示す
ることで座標入力を行うものである。この入力タブレッ
ト7は、表面にITO等の材料を蒸着あるいは印刷する
などして抵抗膜を形成したガラス板とPETフイルムと
で構成されており、ガラス板とフイルムそれぞれの抵抗
膜面が向き合うように重ねて配置してある。そして、こ
れら両者の間には微小なシリコンゴムなどのスペーサ
(図示せず)が配置されており、フイルムの表面を押圧
したときだけ押圧点において両者の抵抗膜が接触するよ
うになっている。また、ガラス板,フイルムとも抵抗膜
の両端部には、該抵抗膜への電圧の印加ないしは電位の
計測の為の端子として導体パターンが形成されている。
Reference numeral 7 denotes a transparent input tablet using a resistance film, which is used to input coordinates by pressing the tablet surface with a pointing pen 8. The input tablet 7 is composed of a PET film and a glass plate on which a resistance film is formed by vapor-depositing or printing a material such as ITO on the surface, and the resistance film surfaces of the glass plate and the film face each other. They are arranged on top of each other. A spacer (not shown) such as a minute silicon rubber is arranged between the two, so that the resistance films of both of them come into contact with each other at the pressing point only when the surface of the film is pressed. Further, both the glass plate and the film have conductor patterns formed at both ends of the resistance film as terminals for applying a voltage to the resistance film or measuring a potential.

【0020】6は抵抗膜の両端への一定電圧の印加と電
位の計測を行う押圧点検出回路であり、計測された電位
の大きさにより押圧位置を検知する。
Reference numeral 6 is a pressing point detection circuit for applying a constant voltage to both ends of the resistance film and measuring the potential, and detects the pressing position by the magnitude of the measured potential.

【0021】9及び10はそれぞれパームレスト22,
23に圧力が加えられているかを検知する手付きセンサ
である。ユーザが入力を行なおうとしてパームレスト2
2、あるいは23に手を置いた時に手付きセンサ9,1
0はこれを検知してCPU1に出力を行なう。手付きセ
ンサ9,10の検知手段は押圧力を検知する方式だけで
なく、温度の検知やパームレスト上の容量の変化などの
方式であってももちろんよい。
9 and 10 are palm rests 22,
It is a hand-held sensor that detects whether pressure is applied to 23. Palm rest 2 when user tries to make input
Sensors with hands 9 and 1 when hands are placed on 2 or 23
0 detects this and outputs to CPU1. The detection means of the hand-held sensors 9 and 10 is not limited to the method of detecting the pressing force, but may be the method of detecting the temperature or the change of the capacitance on the palm rest.

【0022】40及び41は文字認識処理を行う場合の
参照される辞書であり、詳細は後述する。
Reference numerals 40 and 41 are dictionaries to be referred to when performing character recognition processing, and details will be described later.

【0023】<処理の説明(図3〜図5)>上記構成に
おける実施例の装置における文字認識を簡単に説明する
と、パームレスト22に手が置かれている状態を検出す
ると、そのユーザは右手で指示ペン8を持っていると判
断する。逆にパームレスト23に手が置かれていること
を検出すると、そのユーザは左手に指示ペン8を持って
いると判断する。そして、この判断結果に基づいて文字
認識する場合の辞書40、41を切り換える。
<Description of Processing (FIGS. 3 to 5)> A brief description will be given of character recognition in the apparatus of the embodiment having the above-described configuration. When a state where a hand is placed on the palm rest 22 is detected, the user uses his / her right hand. It is determined that the user has the pointing pen 8. On the contrary, when it is detected that the hand is placed on the palm rest 23, it is determined that the user holds the pointing pen 8 in the left hand. Then, the dictionaries 40 and 41 for character recognition are switched based on the result of this judgment.

【0024】図3は、文字の認識入力を行う場合の表示
出力部5の表示画面の一部を示している。図中、符号3
0は文字を入力できる領域を示す文字入力枠である。文
字入力枠30中に書き込むように、文字入力枠30上の
入力タブレット7に入力ペン8により入力を行なうと、
文字パターンは、パターンマッチング法等を用いてCP
U1により文字認識され文書ファイル中に入力される。
FIG. 3 shows a part of the display screen of the display output unit 5 when the character recognition input is performed. Reference numeral 3 in the figure
Reference numeral 0 is a character input box indicating an area in which characters can be input. When writing with the input pen 7 on the character input frame 30 so as to write in the character input frame 30,
For the character pattern, use the pattern matching method to create a CP
Characters are recognized by U1 and input into the document file.

【0025】文字認識の開始タイミングは、例えば1つ
の入力枠に入力してから所定時間経過した場合、或い
は、所定のペン指示(文字認識指示)を行った場合、或
いは、次の入力枠にペン入力が開始された場合である。
The character recognition start timing is, for example, when a predetermined time elapses after inputting in one input box, when a predetermined pen instruction (character recognition instruction) is given, or when a pen is input in the next input box. This is the case when input is started.

【0026】図4、図5は、文字パターンのパターンマ
ッチングを行なうためのにパターンマッチング辞書の構
造を示している。辞書40は右手入力者用のパターンマ
ッチング辞書であり、41は左手入力者用のパターンマ
ッチング辞書である。すなわち、パターンマッチング辞
書40,41はそれぞれ右利き,左利きの操作者による
様々な筆跡に対して最高の認識率を示すように最適化さ
れている。
FIGS. 4 and 5 show the structure of a pattern matching dictionary for pattern matching of character patterns. The dictionary 40 is a pattern matching dictionary for the right-hand input person, and 41 is a pattern matching dictionary for the left-hand input person. That is, the pattern matching dictionaries 40 and 41 are optimized to show the highest recognition rate for various handwritings by right-handed and left-handed operators, respectively.

【0027】次に、本実施例における処理動作を図6に
示すフローチャートに従って以下に説明する。尚、この
フローチャートに係るプログラムはROM2に格納され
ているものである。
Next, the processing operation in this embodiment will be described below with reference to the flowchart shown in FIG. The program according to this flowchart is stored in the ROM 2.

【0028】本実施例においては、文字パターン入力時
にパームレスト22,23の押圧を検知してパターンマ
ッチング処理時に参照するパターンマッチング辞書を切
換えるという動作を行なう。
In the present embodiment, the operation of detecting the pressing of the palm rests 22 and 23 at the time of inputting a character pattern and switching the pattern matching dictionary to be referred to at the time of pattern matching processing is performed.

【0029】まず、ステップS101において、座標の
入力があるか判定する。肯定であれば、ステップS10
2へ、否定であればステップS101へ戻って入力され
るのを待つ。ペン入力を検出した場合、ステップS10
2に進んで、入力された座標の軌跡より文字パターンの
入力を行ない、一文字分の入力が終了したならばステッ
プS103へ進む。
First, in step S101, it is determined whether coordinates have been input. If affirmative, step S10
If the answer is 2, the process returns to step S101 and waits for the input. If pen input is detected, step S10
In step 2, the character pattern is input from the locus of the input coordinates, and when the input of one character is completed, the process proceeds to step S103.

【0030】ステップS103では、手付きセンサ
(左)10より左パームレスト23の押圧状態を入力す
る。続くステップS104では同様に手付きセンサ
(右)9より右パームレスト23の押圧状態を入力す
る。ステップS105では、ステップS103の結果を
判定し、左センサが押圧されていればステップS106
へ、否定であればステップS107へ進む。ステップS
106では、パターンマッチング辞書として、左手入力
者間の辞書41をセットしステップS110へ進む。
In step S103, the pressed state of the left palm rest 23 is input from the hand-held sensor (left) 10. Similarly, in step S104, the pressed state of the right palm rest 23 is input from the hand-held sensor (right) 9. In step S105, the result of step S103 is determined, and if the left sensor is pressed, step S106 is performed.
If NO, the process proceeds to step S107. Step S
At 106, the dictionary 41 between the left-hand input persons is set as the pattern matching dictionary, and the process proceeds to step S110.

【0031】また、ステップS107に処理が進んだ場
合には、ステップS104の結果を判定し、右センサが
押圧されていればステップS108へ、否定であればス
テップS109へ進む。ステップS108では、パター
ンマッチング辞書として右手入力者用の辞書40をセッ
トしステップS110へ進む。
If the process proceeds to step S107, the result of step S104 is determined. If the right sensor is pressed, the process proceeds to step S108, and if the result is negative, the process proceeds to step S109. In step S108, the dictionary 40 for the right-handed person is set as the pattern matching dictionary, and the process proceeds to step S110.

【0032】いずれのパームレストでも手による押下が
検出できなかった場合、これはセンサの異常や入力者の
入力する方向が違う場合(装置に対して逆さに入力した
場合)などが考えられる。この場合、ペン入力を無効と
するのではなく、単にアラームの出力を行ないステップ
S110へ進む。但し、この場合にはユーザがどちらの
手にペンをもっているのか特定できないので、辞書は直
前で選択されたものを採用する。
When the pressing by the hand cannot be detected in any of the palm rests, it is considered that the sensor is abnormal or the input direction of the input person is different (when the input is upside down with respect to the device). In this case, instead of invalidating the pen input, an alarm is simply output and the process proceeds to step S110. However, in this case, since it is not possible to identify which hand the user holds the pen, the dictionary selected immediately before is adopted.

【0033】さて、ステップS110に処理が進むと、
入力された文字パターンと選択されている辞書をもと
に、パターンマッチングを行なう。続くステップS11
1ではパターンマッチングの結果の文字コードを表示出
力部5上の所定位置に出力する。
Now, when the processing proceeds to step S110,
Pattern matching is performed based on the input character pattern and the selected dictionary. Continued Step S11
In 1, the character code resulting from the pattern matching is output to a predetermined position on the display output unit 5.

【0034】以上説明したように、本実施例によれば、
左右パームレスト22、23への押圧を検知して、パタ
ーンマッチング辞書を切換えることにより、ユーザは何
ら設定を行うことなく、左右それぞれの利き腕に最適化
したパターンマッチング辞書を使い分けることができ、
文字認識率を向上させた好適な情報処理装置を実現する
ことができる。
As described above, according to this embodiment,
By detecting the pressing on the left and right palm rests 22 and 23 and switching the pattern matching dictionaries, the user can use the pattern matching dictionaries optimized for the right and left dominant arms without making any setting.
It is possible to realize a suitable information processing apparatus with an improved character recognition rate.

【0035】また、本実施例においては、パターンマッ
チング辞書として、右手入力用,左手入力用の二種類を
切り換えて使用したが、さらに複数の辞書を加えて切換
えるようにしてもよい。例えば、第3の辞書として右
手,左手の辞書を持つことが考えられる。この場合、図
5のステップS109において、共用辞書にセットする
処理を行うことにより、もしセンサが異常を示した場
合、あるいは前回と違う利き腕の人間が入力を行なった
場合にも高い文字認識率を維持することが可能となる。
Further, in the present embodiment, two types of pattern matching dictionaries, one for right-hand input and the other for left-hand input, are switched and used, but a plurality of dictionaries may be added and switched. For example, it is possible to have a right-hand dictionary and a left-hand dictionary as the third dictionary. In this case, in step S109 of FIG. 5, a high character recognition rate is obtained even if the sensor indicates an abnormality or a person with a dominant hand different from the previous time performs input by performing the processing of setting in the common dictionary. It is possible to maintain.

【0036】[第2の実施例の説明]前述した実施例
(第1の実施例)では入力者の特徴として右手入力者か
左手入力者かによってパターンマッチング辞書を切換え
ていたが、本第2の実施例においては、入力者の筆圧に
よって辞書を切換える構成について説明する。
[Explanation of Second Embodiment] In the above-mentioned embodiment (first embodiment), the pattern matching dictionaries are switched depending on whether the input person is the right-hand input person or the left-hand input person. In this embodiment, a configuration in which the dictionary is switched according to the writing pressure of the input person will be described.

【0037】尚、本第2の実施例における装置の概略構
成は前述した第1の実施例と同様であり、説明は省略す
る。なお、図1で手付きセンサ9,10は前述した実施
例では押圧があるか否かの2値出力を行なっていたが、
本第2の実施例においては、押圧された圧力に応じて多
値の出力を行なう。これによって複数の操作者を識別す
るものである。
The schematic structure of the apparatus according to the second embodiment is similar to that of the first embodiment described above, and the description thereof will be omitted. Although the hand-held sensors 9 and 10 in FIG. 1 output binary values indicating whether or not they are pressed in the above-described embodiment,
In the second embodiment, multi-valued output is performed according to the pressed pressure. This identifies a plurality of operators.

【0038】以上の構成において、文字パターンの入力
が行なわれた時に押圧センサ9,10はパームレスト2
2,23に加えられた圧力をCPU1に出力する。CP
U1は検知された圧力に応じて高筆圧,中筆圧,低筆圧
それぞれに最適化されたパターンマッチング辞書に切換
えてパターンマッチングを行なう。
In the above structure, when the character pattern is input, the pressure sensors 9 and 10 are operated by the palm rest 2.
The pressure applied to 2, 23 is output to the CPU 1. CP
U1 performs pattern matching by switching to a pattern matching dictionary optimized for high writing pressure, medium writing pressure, and low writing pressure according to the detected pressure.

【0039】以上説明したように、本実施例によれば入
力者の筆圧を検知することによってもパターンマッチン
グ辞書を切換えることが可能となり、文字認識率を向上
させた情報処理装置を実現することができる。また、入
力者の筆圧の他に、ペンの右手或いは左手持ちを検出す
ることを併用すれば、より多くの人間の識別が行えるこ
とになる。
As described above, according to this embodiment, it is possible to switch the pattern matching dictionaries by detecting the writing pressure of the input person, and to realize an information processing apparatus with an improved character recognition rate. You can In addition to the writing pressure of the input person, detection of holding the right or left hand of the pen is also used, so that more humans can be identified.

【0040】尚、本第2の実施例では、ペンの筆圧で個
人識別を行ったが、その個人別の辞書を有するというわ
けではない(勿論容量的に問題がなければ構わない)。
つまり、筆圧が大小は、個人を識別するのに有効である
が、筆跡の特徴が似通っていれば、同じ辞書を用いて文
字認識してもよいからである。この場合、辞書は有限の
N個だけ用意しておき、各個人毎(N人以上)の筆圧や
利き腕などの情報と参照する辞書の対応関係のテーブル
を用意しておけば、少なくとも文字認識率の向上が期待
できる。
In the second embodiment, the individual identification is performed by the pen pressure, but it does not have a dictionary for each individual (of course, there is no problem in capacity).
That is, although the writing pressure is effective for identifying an individual, if the characteristics of the handwriting are similar, the characters may be recognized using the same dictionary. In this case, if only a limited number of N dictionaries are prepared, and if a table of correspondence between the information such as writing pressure and dominant arm of each individual (N or more) and the dictionary to be referred to is prepared, at least character recognition The rate can be expected to improve.

【0041】[第3の実施例の説明]次に本発明に係る
第3の実施例を関係する図面を参照して詳細に説明す
る。
[Explanation of Third Embodiment] A third embodiment of the present invention will now be described in detail with reference to the accompanying drawings.

【0042】前述した第1の実施例では、入力者の利き
腕を判定するのに左右のパームレストへの押圧を用いた
構成を説明したが、本実施例では入力ペンを接続するコ
ネクタを複数用意し、接続位置により判定を行う場合を
説明する。
In the above-described first embodiment, the configuration in which the left and right palm rests are pressed to determine the dominant arm of the input person has been described, but in this embodiment, a plurality of connectors for connecting the input pens are prepared. A case where the determination is performed based on the connection position will be described.

【0043】<装置外観の説明(図8)>図8は本第3
の実施例における情報処理装置の概略構成を示す斜視図
である。本第3の実施例においては、座標入力装置とし
て超音波デジタイザを用いている。
<Explanation of Appearance of Device (FIG. 8)> FIG.
3 is a perspective view showing a schematic configuration of an information processing apparatus in the embodiment of FIG. In the third embodiment, an ultrasonic digitizer is used as the coordinate input device.

【0044】同図において、18は液晶表示板に重ねら
れ、座標位置の入力を行う入力タブレットである。12
は座標の指示を行う入力ペンであり、接続ケーブル26
を介して伝えられる信号によって駆動される。24,2
5は装置と入力ペン12を接続するためのペンコネクタ
である。右手入力者はペンコネクタ(右)24、左手入
力者はペンコネクタ(左)25を入力ペン12と接続す
ることにより、接続ケーブル26が邪魔にならずに入力
が行えるように構成されている。
In the figure, reference numeral 18 denotes an input tablet which is placed on the liquid crystal display plate and which inputs coordinate positions. 12
Is an input pen for instructing coordinates, and the connecting cable 26
Driven by the signal transmitted through. 24, 2
Reference numeral 5 denotes a pen connector for connecting the device and the input pen 12. By connecting the pen connector (right) 24 for the right-hand input person and the pen connector (left) 25 for the left-hand input person to the input pen 12, the connection cable 26 can be input without obstruction.

【0045】<装置構成の説明(図6)>図7は本第3
の実施例における情報処理装置の概略構成を示すブロッ
ク図である。なお、同図において前述した第1の実施例
と同一の構成要素については同一番号を付し、特に説明
を行わない。
<Description of Device Configuration (FIG. 6)> FIG. 7 shows the third embodiment.
3 is a block diagram showing a schematic configuration of an information processing apparatus in the embodiment of FIG. In the figure, the same components as those in the first embodiment described above are designated by the same reference numerals and will not be described in particular.

【0046】図中、18は超音波センサである圧電素子
16A ,16B ,16C を入力面の周辺部に配置したタ
ブレットである。17はタブレット18周辺を包囲する
様に配置された弾性波を吸収する反射防止部材である。
13は超音波振動紙14及びペン先15から成る入力ペ
ン、12は振動子駆動回路で、入力ペン13に設けられ
た超音波振動子14を駆動していいる。19は受信波形
検出回路で、各センサよりの超音波受信信号を入力して
検出している。
In the figure, 18 is a tablet in which piezoelectric elements 16A, 16B and 16C which are ultrasonic sensors are arranged in the peripheral portion of the input surface. Reference numeral 17 is an antireflection member that absorbs elastic waves and is arranged so as to surround the periphery of the tablet 18.
Reference numeral 13 is an input pen including an ultrasonic vibrating paper 14 and a pen tip 15. Reference numeral 12 is a vibrator driving circuit for driving the ultrasonic vibrator 14 provided in the input pen 13. Reference numeral 19 denotes a reception waveform detection circuit, which receives and detects ultrasonic reception signals from the respective sensors.

【0047】振動子駆動回路12がCPU1のスタート
信号により作動されることによりパルス信号を発生す
る。このパルス信号は、コードを介して入力ペン13の
超音波振動子14に印加されて振動子14が駆動する。
この結果、ペン先15より超音波が発振される。この状
態で、ペン先15をタブレット18の入力面上に押圧す
ると、ペン先15より発振された超音波が弾性波として
タブレット18上を伝播され、その超音波信号がセンサ
16A ,16B ,16C により受信される。弾性波が押
圧点から各センサに受信されるまでに遅延時間tg が生
じるので、これをスタート信号と同期させて、受信波形
検出回路19により受信して測定する。受信波形検出回
路19の出力は演算制御部11で演算され、ペン先15
の指示点の座標位置が検出できる。
The oscillator drive circuit 12 is operated by the start signal of the CPU 1 to generate a pulse signal. This pulse signal is applied to the ultrasonic transducer 14 of the input pen 13 via a code to drive the transducer 14.
As a result, ultrasonic waves are emitted from the pen tip 15. When the pen tip 15 is pressed against the input surface of the tablet 18 in this state, the ultrasonic wave oscillated by the pen tip 15 is propagated as an elastic wave on the tablet 18, and the ultrasonic signal is detected by the sensors 16A, 16B, 16C. Be received. Since a delay time tg occurs before the elastic wave is received by each sensor from the pressing point, this is synchronized with the start signal and is received by the reception waveform detection circuit 19 for measurement. The output of the received waveform detection circuit 19 is calculated by the calculation control unit 11, and the pen tip 15
The coordinate position of the designated point can be detected.

【0048】20,21はそれぞれペンコネクタ24,
25に入力ペンが接続されていることを検知するペンコ
ネクタセンサである。ペンコネクタセンサ(右)20,
(左)21によってCPU1は入力ペン12が左右どち
らのコネクタに接続されているか検知する。
Reference numerals 20 and 21 denote pen connectors 24, respectively.
25 is a pen connector sensor that detects that an input pen is connected to 25. Pen connector sensor (right) 20,
By (left) 21, the CPU 1 detects which of the left and right connectors the input pen 12 is connected to.

【0049】本第3の実施例におけるCPU1の制御処
理手順も、図6に示した手順に従えば良い。
The control processing procedure of the CPU 1 in the third embodiment may follow the procedure shown in FIG.

【0050】具体的には、ステップS101、S102
は、前述した第1の実施例と同じである。また、ステッ
プS102、及びS103はペンコネクタセンサ20、
21じからの信号を検出することになる。そして、ステ
ップS105〜ステップS109では、ペンコネクタセ
ンサ20、21からの信号に基づいて、辞書を選択し、
ステップS110、S111においては選択された辞書
を元に入力されたストロークに対する文字認識、及びそ
の認識された文字コード出力を行う。
Specifically, steps S101 and S102.
Is the same as in the first embodiment described above. Further, steps S102 and S103 are performed by the pen connector sensor 20,
The signal from No. 21 will be detected. Then, in steps S105 to S109, a dictionary is selected based on the signals from the pen connector sensors 20 and 21,
In steps S110 and S111, character recognition for a stroke input based on the selected dictionary and output of the recognized character code are performed.

【0051】以上説明したように、本第3の実施例によ
れば、入力ペンの接続されている位置を検知して、パタ
ーンマッチング辞書を切換えることにより、前述した実
施例と全く同様な効果を得ることができる。
As described above, according to the third embodiment, by detecting the connected position of the input pen and switching the pattern matching dictionary, the same effect as that of the above-described embodiments can be obtained. Obtainable.

【0052】[第4の実施例の説明]ところで、ペンに
よる座標データ入力手段を備えた装置において、入力座
標データの入力方向を特定するには、画面上にて使用者
に入力方向を選択することを選択することを促す画面を
表示して、使用者が選択したい入力方向に応じた入力動
作を行うか(第1の手法)、或いはペンの傾きを検出
し、その結果に基づいて入力方向を特定すること(第2
の手法)が考えられる。尚、ペンの傾きを検出する機構
としては、例えばペン内部に水銀スイッチを設けたり、
ペン内部に発光素子と受光素子を備えてペンが垂直の時
のみ発光素子から発せられた光が受光素子に入射される
ような構造にすることが考えらる。
[Explanation of the Fourth Embodiment] By the way, in an apparatus having a coordinate data input means by a pen, in order to specify the input direction of the input coordinate data, the user selects the input direction on the screen. Display a screen prompting the user to select an input direction, and perform an input operation according to the input direction that the user wants to select (first method), or detect the tilt of the pen and input the input direction based on the result. To identify (second
Method) is considered. As a mechanism for detecting the inclination of the pen, for example, a mercury switch is provided inside the pen,
It is conceivable that the light emitting element and the light receiving element are provided inside the pen so that the light emitted from the light emitting element enters the light receiving element only when the pen is vertical.

【0053】しかし、第1の手法では、使用者が入力方
向を変えようとする度に選択操作をしなければならず操
作が不便である。また、第2の手法は、ペンの機構が複
雑になる他、ペンの持ち方に個人差があるため個人毎に
登録する必要がある。
However, the first method is inconvenient because the user must make a selection operation each time he wants to change the input direction. In the second method, the mechanism of the pen is complicated, and the way of holding the pen varies from person to person, so it is necessary to register each person.

【0054】本第4の実施例は操作者による手つきを検
出し、この検出結果に基づいて入力方向を特定すること
でかかる問題を一掃する。以下、第4の実施例を添付図
面に従って説明する。
The fourth embodiment eliminates such a problem by detecting the touch by the operator and specifying the input direction based on the detection result. The fourth embodiment will be described below with reference to the accompanying drawings.

【0055】図9に本第4の実施例におけるハードウェ
ア構成図を示す。101は抵抗膜方式のデジタイザA、
102は同じく超音波方式のデジタイザB、103はL
CD(液晶ディスプレイ)、104はデジタイザ面に接
することにより座標データの入力が行なえるペン、10
5はペン104を所定の周波数で振動させるためのペン
駆動回路、106はデジタイザAにおける座標検出回路
(手つき検出回路)でありペンの入力と入力時の手つき
の結果から座標を検出する。107はデジタイザBにお
ける座標検出回路であり、ペンの入力座標を検出する。
108は入力方向判定回路であり、手つき検出回路10
6と座標検出回路107の検出結果を入力としてペン入
力がどの方向から行なわれたかを判定する。また、使用
者が右利きであるか左利きであるかを記憶する。109
はCPUであり全体の制御を行なう。110は表示制御
回路であり、CPU109よりの命令によってLCD1
03及び表示用メモリ111を制御する。112はRA
M、113はROMである。
FIG. 9 shows a hardware configuration diagram in the fourth embodiment. 101 is a resistive film type digitizer A,
102 is an ultrasonic type digitizer B, and 103 is L
CD (Liquid Crystal Display) 104 is a pen that can input coordinate data by touching the digitizer surface.
Reference numeral 5 denotes a pen drive circuit for vibrating the pen 104 at a predetermined frequency, and reference numeral 106 denotes a coordinate detection circuit (touch detection circuit) in the digitizer A, which detects coordinates from the input of the pen and the result of the touch at the time of input. A coordinate detection circuit 107 in the digitizer B detects the input coordinates of the pen.
Reference numeral 108 denotes an input direction determination circuit, which is a touch detection circuit 10.
6 and the detection result of the coordinate detection circuit 107 are used as input to determine from which direction the pen input is made. It also stores whether the user is right-handed or left-handed. 109
Is a CPU and controls the entire system. Reference numeral 110 denotes a display control circuit, which is instructed by the CPU 109 to display the LCD 1
03 and the display memory 111. 112 is RA
M and 113 are ROMs.

【0056】ここで抵抗膜方式における入力座標の検出
の原理を図10を用いて説明する。
Here, the principle of detecting the input coordinates in the resistance film method will be described with reference to FIG.

【0057】座標入力部には2枚の抵抗膜フイルム20
1,202がシリコンゴム等のスペーサを介して所定距
離だけ離して配置してある。これら抵抗膜は通常は接触
していないが、座標入力面に押圧指示がなされると、そ
の押圧点において2つの抵抗膜が接触するようになって
いる。また図示のように、2枚の抵抗膜の対抗する2辺
にはそれぞれ直交方向に電極が設けられており、これら
の電極には座標検出回路に接続されて所定の電圧が印加
される。図2に示すように2枚の抵抗膜の両端の電極を
A,B,C,Dとする。
The coordinate input section has two resistive film films 20.
1, 202 are arranged apart from each other by a predetermined distance via a spacer such as silicon rubber. These resistance films are not normally in contact with each other, but when a pressing instruction is given to the coordinate input surface, the two resistance films come into contact with each other at the pressing point. Further, as shown in the drawing, electrodes are provided in orthogonal directions on two opposing sides of the two resistance films, and a predetermined voltage is applied to these electrodes by being connected to a coordinate detection circuit. As shown in FIG. 2, electrodes on both ends of the two resistive films are designated as A, B, C, and D.

【0058】さて、図11は押圧がなされていない状態
を示しているが、押圧がなされると図12、図13のよ
うに接触点Pで2枚の抵抗膜が接触する。座標検出回路
107は図12ないし図13のようにA,B或はC,D
間に所定電圧Vccを印加し入力抵抗が充分高い電圧検
出回路を用いてC(ないしD)点、或はA(ないしB)
点で接触点Pにおける分圧を検出する。これにより座標
値のX,Y成分を検出する。従って、座標検出回路10
7は例えば図10のように構成になる。
Although FIG. 11 shows a state where no pressure is applied, when pressure is applied, the two resistance films make contact at the contact point P as shown in FIGS. The coordinate detection circuit 107 has A, B or C, D as shown in FIGS.
By applying a predetermined voltage Vcc between them and using a voltage detection circuit with a sufficiently high input resistance, point C (or D) or point A (or B)
The partial pressure at the contact point P is detected at the point. As a result, the X and Y components of the coordinate value are detected. Therefore, the coordinate detection circuit 10
7 has a structure as shown in FIG. 10, for example.

【0059】図示において、203は図12ないし図1
3の回路接続を切り替えるための切り替え回路である。
204はXY切り替え回路203を介して得られる接触
点の分圧を切り替えるための切り替え回路である。20
4はXY切り替え回路203を介して得られる接触点の
分圧を測定するためのオペアンプで、図示のように入力
抵抗が高いボルテージフォロワとして構成してあり、接
触点と検出点の間の抵抗膜による電圧降下を無視できる
ようになっている。オペアンプ204の入力端子は数M
オーム程度の高抵抗により接地電位にプルダウンされて
おり、抵抗膜による入力がない場合にはオペアンプ20
4を介して0Vが検出される。そして、オペアンプ20
3により検出された電圧情報はA/Dコンバータ205
を介してCPU109に入力される。
In the figure, reference numeral 203 designates FIGS.
3 is a switching circuit for switching the circuit connection of No. 3.
Reference numeral 204 is a switching circuit for switching the partial pressure of the contact point obtained via the XY switching circuit 203. 20
Reference numeral 4 denotes an operational amplifier for measuring the partial pressure of the contact point obtained via the XY switching circuit 203, which is configured as a voltage follower having a high input resistance as shown in the drawing, and is a resistance film between the contact point and the detection point. The voltage drop due to is negligible. The input terminal of the operational amplifier 204 is several M
It is pulled down to the ground potential by a high resistance of about ohms, and when there is no input by the resistance film, the operational amplifier 20
0V is detected via 4. And the operational amplifier 20
The voltage information detected by 3 is the A / D converter 205.
Is input to the CPU 109 via.

【0060】次に図9のハードウェア構成を用いた入力
方向判定回路108の動作について述べる。本第4の実
施例では上下左右4方向からの入力に対して判定を行な
う。先ず最初に機器の使用者は右利きであるか左利きで
あるかの登録を行なう。これは使用者に対してどちらか
を選択させる画面を表示して、使用者がペン入力を行な
うことにより登録がなされる。登録の結果は入力方向判
定回路108に記憶される。
Next, the operation of the input direction determination circuit 108 using the hardware configuration of FIG. 9 will be described. In the fourth embodiment, the determination is made with respect to inputs from four directions of up, down, left and right. First, the user of the device registers whether the device is right-handed or left-handed. This is done by displaying a screen for the user to select one of them and performing a pen input by the user for registration. The registration result is stored in the input direction determination circuit 108.

【0061】この状態で使用者が画面に対してペン入力
を行なったとする。すなわち、ペン駆動回路105によ
って駆動されたペン104を画面に接触点P(x1,y
1)で接触させると、ペン104の振動がデジタイザB
に伝わり座標検出回路107にて入力座標が検出され
る。説明を簡単にすれば、ペン104によって与えられ
た振動(超音波)はデジタイザBの表面をそのペン接触
点を中心として回りに伝播していく。従って、ペン10
4を駆動していから伝播してきた振動を検出するまでの
遅延時間を計数すれば、ペン104の指示位置までの距
離を算出できる。実施例では、この振動検出回路を複数
個設け、それでもってペン104の指示位置を検出す
る。尚、この場合、超音波方式の性質上、手つきは影響
を受けない。尚、通常、ものをペンで画く場合には、ペ
ン(先)のみを盤面(タブレット)に接触させる以外
に、手の一部を接触することになる。ここで言う「手つ
き」の意味はかかる意味である。
In this state, it is assumed that the user performs pen input on the screen. That is, the pen 104 driven by the pen drive circuit 105 is moved to the touch point P (x1, y
The vibration of the pen 104 causes digitizer B
The input coordinates are detected by the coordinate detection circuit 107. In brief, the vibration (ultrasonic wave) given by the pen 104 propagates around the surface of the digitizer B around the pen contact point. Therefore, the pen 10
If the delay time from the driving of No. 4 to the detection of the propagated vibration is counted, the distance to the designated position of the pen 104 can be calculated. In the embodiment, a plurality of this vibration detection circuit is provided, and the pointing position of the pen 104 is detected by using the vibration detection circuit. In this case, due to the nature of the ultrasonic system, the hand is not affected. Incidentally, when drawing an object with a pen, normally, not only the pen (tip) is brought into contact with the board surface (tablet), but also a part of the hand is brought into contact. The meaning of "touch" here is such a meaning.

【0062】さて、ペン104で超音波振動による座標
検出を行っている場合、上述したように手の一部が盤面
に接触する。この手つき位置をデジタイザAでもって検
出する。
When the pen 104 is performing coordinate detection by ultrasonic vibration, part of the hand comes into contact with the board surface as described above. This hand position is detected by the digitizer A.

【0063】ここで手つきによる接触点をQ(x2,y
2)とすると、図12、13は図14〜17の状態のい
ずれかになる。図10における座標系を採用したとき、
接触点Qのx座標が接触点Pのx座標より小さい場合は
図14、大きい場合は図15となる。同様に、接触点Q
のy座標が接触点Pのy座標より小さい場合は図16、
大きい場合は図17となる。
Here, the contact point by the touch is Q (x2, y
2), one of the states shown in FIGS. When the coordinate system in FIG. 10 is adopted,
If the x-coordinate of the contact point Q is smaller than the x-coordinate of the contact point P, the result is shown in FIG. Similarly, contact point Q
16 is smaller than the y coordinate of the contact point P in FIG.
When it is larger, it is as shown in FIG.

【0064】これをペン入力と手つきの位置関係でみる
と、図18のようになる。図18の領域Aに手つきがあ
った場合は図14かつ図16である。同様に、領域B,
C,Dに手つきがあった場合はそれぞれ、図15かつ図
16,図15かつ図17,図4かつ図17となる。この
時抵抗膜方式のデジタイザAの検出系で検出される電位
は、手つきがない場合の電位に比して異なった電位とな
る。
FIG. 18 shows the positional relationship between the pen input and the touch. When the area A in FIG. 18 is touched, it is FIG. 14 and FIG. Similarly, area B,
When C and D are touched, respectively, it becomes FIG. 15 and FIG. 16, FIG. 15 and FIG. 17, FIG. 4 and FIG. At this time, the potential detected by the detection system of the resistance film type digitizer A is different from the potential when there is no hand.

【0065】今、図14での場合を考えてみる。手つき
がないとした場合、すなわち、図11の場合のC(ない
しD)点の電位Vc(ないしVd)は、超音波方式のデ
ジタイザBの検出計で検出された(x1,y1)を用い
て次のように表される。ここでは、但しLCDは640
*480ドット構成としている。
Now consider the case in FIG. If there is no touch, that is, the potential Vc (or Vd) at the point C (or D) in the case of FIG. 11 is detected by the detector of the ultrasonic digitizer B (x1, y1). It is expressed as follows. Here, however, the LCD is 640
* 480 dot configuration.

【0066】 Vc=Vd=(x1/640)*Vcc (a) つぎに、手つきを考慮した場合、Vc(ないしVd)と
図14におけるVc’(ないしVd’)を比較すると、
図12と図14から明らかに Vc(=Vd)<Vc’(=Vd’) (b) 同様に図15のときは、 Vc(=Vd)>Vc’(=Vd’) (c) となる。これより、手つきとペンによる入力座標の関係
がx軸に関して判定できる。
Vc = Vd = (x1 / 640) * Vcc (a) Next, when considering the handling, comparing Vc (or Vd) with Vc ′ (or Vd ′) in FIG.
It is clear from FIGS. 12 and 14 that Vc (= Vd) <Vc ′ (= Vd ′) (b). Similarly, in the case of FIG. 15, Vc (= Vd)> Vc ′ (= Vd ′) (c). . From this, it is possible to determine the relationship between the touch and the input coordinates with the pen with respect to the x axis.

【0067】同様に図16,図17の場合には、y軸に
関して判定できる。
Similarly, in the case of FIG. 16 and FIG. 17, it is possible to make a judgment about the y-axis.

【0068】従って、入力方向判定回路108では、次
の判定ルールに基づいて入力方向の判定を行なう。
Therefore, the input direction determination circuit 108 determines the input direction based on the following determination rule.

【0069】 1)Vc(=Vd)<Vc’(=Vd’) かつ Va(=Vb)<Va’(=Vb’) かつ 使用者は
右利き 或いは、 Vc(=Vd)>Vc’(=Vd’) かつ Va(=Vb)<Va’(=Vb’) かつ 使用者は
左利き ならば、入力方向(操作者の存在方向)は、図18のE
の方向である。
1) Vc (= Vd) <Vc '(= Vd') and Va (= Vb) <Va '(= Vb') and the user is right-handed, or Vc (= Vd)> Vc '(= Vd ′) and Va (= Vb) <Va ′ (= Vb ′) and the user is left-handed, the input direction (the direction in which the operator exists) is E in FIG.
Direction.

【0070】 2)Vc(=Vd)>Vc’(=Vd’) かつ Va(=Vb)<Va’(=Vb’) かつ使用者は右
利き 或いは、 Vc(=Vd)>Vc’(=Vd’) かつ Va(=Vb)<Va’(=Vb’) かつ使用者は左
利き ならば、入力方向は、図18のFの方向である。
2) Vc (= Vd)> Vc '(= Vd') and Va (= Vb) <Va '(= Vb') and the user is right-handed, or Vc (= Vd)> Vc '(= Vd ') and Va (= Vb) <Va' (= Vb ') and the user is left-handed, the input direction is the direction F in FIG.

【0071】 3)Vc(=Vd)>Vc’(=Vd’) かつ Va(=Vb)>Va’(=Vb’) かつ使用者は右
利き 或いは、 Vc(=Vd)<Vc’(=Vd’) かつ Va(=Vb)>Va’(=Vb’) かつ使用者は左
利き ならば、入力方向は、図18のGの方向である。
3) Vc (= Vd)> Vc '(= Vd') and Va (= Vb)> Va '(= Vb') and the user is right-handed, or Vc (= Vd) <Vc '(= Vd ') and Va (= Vb)>Va' (= Vb ') and the user is left-handed, the input direction is the direction G in FIG.

【0072】 4)Vc(=Vd)<Vc’(=Vd’) かつ Va(=Vb)>Va’(=Vb’) かつ使用者は右
利き 或いは、 Vc(=Vd)<Vc’(=Vd’) かつ Va(=Vb)<Va’(=Vb’) かつ使用者は左
利き ならば、入力方向は、図18のHの方向である。
4) Vc (= Vd) <Vc '(= Vd') and Va (= Vb)> Va '(= Vb') and the user is right-handed, or Vc (= Vd) <Vc '(= Vd ′) and Va (= Vb) <Va ′ (= Vb ′) and the user is left-handed, the input direction is the direction H in FIG.

【0073】入力方向判定結果はLCD103での画面
表示方向の制御に用いられる。
The input direction determination result is used to control the screen display direction on the LCD 103.

【0074】図19にはRAM112内の全画面領域6
01と表示領域602の関係について示す。CPU10
9は表示領域のデータを表示用メモリ111に表示制御
回路110を通して転送することにより表示を行なう。
即ち、表示領域或いは表示領域内のデータの転送順序を
変更することにより、図20に示す如く、表示画面の表
示方向は変更される。
FIG. 19 shows the entire screen area 6 in the RAM 112.
01 and the display area 602 will be described. CPU10
9 displays data by transferring the data in the display area to the display memory 111 through the display control circuit 110.
That is, by changing the display area or the transfer order of data in the display area, the display direction of the display screen is changed as shown in FIG.

【0075】以下、図21を用いて画面表示方向制御の
動作フローを説明する。尚、図示の制御処理手順に係る
プログラムはROM113に格納されているものであ
る。
The operation flow of the screen display direction control will be described below with reference to FIG. The program related to the illustrated control processing procedure is stored in the ROM 113.

【0076】先ず、ステップS801では入力方向判定
回路108による判定を行ない、ステップS802にて
判定された入力方向に応じたデータ取り込み及びデータ
変換を選択する。
First, in step S801, the input direction determination circuit 108 makes a determination, and selects data acquisition and data conversion according to the input direction determined in step S802.

【0077】すなわち、図18において、操作者がG方
向にいると判断された場合には、RAM領域601中の
表示領域602内のデータをそのまま(変換無し)に表
示用メモリ111に転送する。
That is, in FIG. 18, when it is determined that the operator is in the G direction, the data in the display area 602 in the RAM area 601 is transferred to the display memory 111 as it is (without conversion).

【0078】また、図18において、操作者がE,F,
Gのいずれかの方向に位置していると判断した場合に
は、ステップS804、S806、S808の対応する
処理に進み、RAM領域601中の表示しようとするデ
ータを取り込み、それぞれに適した回転処理(ステップ
S805、S807、S809)を行う(或いは表示用
メモリ111に書き込む方向を決定する)。
Further, in FIG. 18, the operator selects E, F,
If it is determined that the image is located in either direction of G, the process proceeds to the corresponding process of steps S804, S806, S808, the data to be displayed in the RAM area 601 is fetched, and the rotation process suitable for each is performed. (Steps S805, S807, S809) are performed (or the writing direction in the display memory 111 is determined).

【0079】いずれにしても、処理がステップS810
に進むことになるが、ここでは、表示制御回路110を
通して表示用メモリ111に先の処理で変換されたデー
タを転送し、ステップS811で表示制御回路110が
表示用メモリ111のデータをLCD103に出力する
ことにより表示画面の表示方向が変更される。
In any case, the process is step S810.
Here, the data converted in the previous process is transferred to the display memory 111 through the display control circuit 110, and the display control circuit 110 outputs the data in the display memory 111 to the LCD 103 in step S811. By doing so, the display direction of the display screen is changed.

【0080】以上の動作により、使用者がある方向から
ペン入力を行なうと、自動的に該入力方向を検出して、
該入力方向に応じた画面表示方向を得ることが出来る。
By the above operation, when the user performs pen input from a certain direction, the input direction is automatically detected,
A screen display direction corresponding to the input direction can be obtained.

【0081】尚、上記説明では、ペンによる接触点Pと
手つきによる接触点Qの位置関係を検出するのに、デジ
タイザBで検出されたPの座標から導き出された電位
と、デジタイザAで検出された電位を比較することによ
り行なったが、これをデジタイザBで検出された座標と
デジタイザAで検出された電位から導き出された座標と
の比較によってもよい。
In the above description, in order to detect the positional relationship between the contact point P by the pen and the contact point Q by the hand, the potential derived from the coordinates of P detected by the digitizer B and the digitizer A are detected. However, this may be performed by comparing the coordinates detected by the digitizer B with the coordinates derived from the potential detected by the digitizer A.

【0082】[第5の実施例の説明]前述の第4の実施
例では、抵抗膜方式のデジタイザと超音波方式のデジタ
イザを重ねて構成することによりペン入力座標と手つき
の検出を行なったが、もちろんこれを他の構成としても
よい。また、入力方向判定結果についても、画面表示方
向を変えるために用いるのではなく、他の処理を行なう
ために用いてもよい。本第5の実施例では、手つき検出
を画面の縁にパームレストを兼ねたスイッチをつけるこ
とにより行ない、入力方向判定結果を入力文字認識に用
いる場合について述べる。また、本実施例では上下2方
向の入力方向判定を行ない、同時に使用者の右利き左利
きの判定も行なう。
[Explanation of Fifth Embodiment] In the fourth embodiment described above, the pen input coordinates and the touch are detected by superposing the resistive film type digitizer and the ultrasonic type digitizer. Of course, this may have another configuration. Also, the input direction determination result may be used not for changing the screen display direction but for performing other processing. In the fifth embodiment, a case will be described in which hand detection is performed by attaching a switch that also functions as a palm rest to the edge of the screen, and the input direction determination result is used for input character recognition. In addition, in this embodiment, the input direction is determined in two directions, up and down, and at the same time, the user's right-handed and left-handed determination is performed.

【0083】図22に本第5の実施例におけるハードウ
ェア構成図を示す。901〜904は手つきを検出する
ためのパッドであり、使用者がペン入力を行なうときの
手つきをパッドに内蔵された圧力連鎖(不図示)で検出
する。また、図23に装置の外観図の一例を示す。
FIG. 22 shows a hardware configuration diagram in the fifth embodiment. Reference numerals 901 to 904 denote pads for detecting a touch, and a touch when a user inputs a pen is detected by a pressure chain (not shown) built in the pad. 23 shows an example of an external view of the device.

【0084】いま、使用者がある方向からペン入力を行
なうと、デジタイザ102及び座標検出回路107によ
り入力座標が検出される。同時に手つき検出パッド90
1〜904のいずれかに手をつくことにより、手つき検
出回路905〜908のいずれかで手つき検出が行なわ
れる。検出の結果、入力方向の判定は以下の様になる。
When the user inputs a pen from a certain direction, the digitizer 102 and the coordinate detection circuit 107 detect the input coordinates. At the same time, the hand-held detection pad 90
By touching any of 1 to 904, the touch detection is performed by any of the touch detection circuits 905 to 908. As a result of the detection, the input direction is determined as follows.

【0085】(a)手つき検出回路905にて検出→入
力方向は図18のG、使用者は右利き (b)手つき検出回路906にて検出→入力方向は図1
8のG、使用者は左利き (c)手つき検出回路907にて検出→入力方向は図1
8のE、使用者は右利き (b)手つき検出回路908にて検出→入力方向は図1
8のE、使用者は左利き 上記の動作によりペン入力が上下どちらの方向からなさ
れたか、使用者は右利きか左利きかが判定される。さ
て、入力方向判定結果は入力された文字を認識するため
のデータ変換に用いられる。入力方向判定結果が上方向
だった場合は、入力データの変換を行なう。変換式は以
下の通りである。ここでは、LCD103は640*4
80ドット構成としている。
(A) Detection by hand detection circuit 905 → input direction is G in FIG. 18, user is right-handed (b) detection by hand detection circuit 906 → input direction is FIG.
8 G, user is left-handed (c) Detected by hand detection circuit 907 → input direction is as shown in FIG.
8E, the user is right-handed (b) Detected by the hand-hold detection circuit 908 → the input direction is as shown in FIG.
8E, user is left-handed It is determined by the above operation whether the pen input is from the up or down direction and whether the user is right-handed or left-handed. Now, the input direction determination result is used for data conversion for recognizing the input character. If the input direction determination result is upward, the input data is converted. The conversion formula is as follows. Here, the LCD 103 is 640 * 4.
It has a structure of 80 dots.

【0086】 (x,y)=(640−x1,480−y1) 入力方向判定結果が下方向の場合は変換を行なわない。(X, y) = (640-x1, 480-y1) If the input direction determination result is downward, no conversion is performed.

【0087】図24に本第5の実施例における動作フロ
ーチャートを示す。
FIG. 24 shows an operation flowchart in the fifth embodiment.

【0088】ステップS1101にて手つき検出の有
無、ステップS1102にて入力座標検出の有無を調
べ、両者ともあった場合には手つき検出結果に応じてそ
の後の処理を行なう。
In step S1101, presence / absence of hand detection is checked, and in step S1102, presence / absence of input coordinate detection is checked. If both are present, subsequent processing is performed according to the hand detection result.

【0089】ここで、手つき検出回路907にて検出さ
れたときは、ステップS1103にて入力座標データを
上記変換式に従い変換する。そしてステップS1104
にて認識辞書を右利き用にセットする。
Here, when detected by the hand detection circuit 907, the input coordinate data is converted in accordance with the above conversion formula in step S1103. And step S1104
Sets the recognition dictionary for right-handed users.

【0090】また、手つき検出回路908にて検出され
たときは、同様にステップS1103の変換を行ない、
ステップS1105にて認識辞書を左利き用にセットす
る。手つき検出回路905,906にて検出されたとき
は、データ変換は行なわずにステップS1104或いは
ステップS1105に進む。
When detected by the hand detection circuit 908, the conversion of step S1103 is similarly performed,
In step S1105, the recognition dictionary is set for the left-handed person. When detected by the hand detection circuits 905 and 906, the data conversion is not performed and the process proceeds to step S1104 or step S1105.

【0091】次に、ステップS1107にて認識辞書と
変換データのパターンマッチングを行なう。最後にステ
ップS1108にて認識結果を画面に表示する。
Next, in step S1107, pattern matching between the recognition dictionary and the converted data is performed. Finally, in step S1108, the recognition result is displayed on the screen.

【0092】本第5の実施例では手つきの検出を手つき
検出パッドを用いて構成することにより前述実施例に比
して低コストで機器を構成することが可能となる。ま
た、入力方向に応じて入力データを変換することによ
り、入力方向毎に認識辞書を用意する事がなくなり右利
き用と左利き用の2種類の認識辞書を持てば良い。さら
に、入力方向の判定と同時に使用者の利き腕の判定も自
動的に行ない、各々に応じた認識辞書を用いることによ
り、使用者は右利きあるいは左利きであることを意識す
ることなく、常に高い認識率を得ることが可能となる。
In the fifth embodiment, since the detection of the hand movement is configured by using the hand detection pad, the device can be constructed at a lower cost than the above-mentioned embodiments. Further, by converting the input data according to the input direction, there is no need to prepare a recognition dictionary for each input direction, and it is sufficient to have two types of recognition dictionaries for right-handed and left-handed. Furthermore, the user's dominant hand is automatically determined at the same time as the input direction is determined, and by using the recognition dictionary corresponding to each, the user is always aware of whether the user is right-handed or left-handed. It is possible to get a rate.

【0093】尚、本第4、第5の実施例では手つき検出
手段として2つのデジタイザを用いる場合と、手つき検
出パッドを用いる場合について示したが、もちろん他の
構成によってもよい。さらに、入力方向判定結果につい
ても本文中では画面表示方向制御や文字認識動作に用い
る場合を示したが、もちろん他の制御に用いてもよいこ
とはいうまでもない。
In the fourth and fifth embodiments, the case where two digitizers are used as the hand detecting means and the case where the hand detecting pad is used are shown, but of course, other configurations may be used. Further, regarding the input direction determination result, the case where it is used for the screen display direction control and the character recognition operation is shown in the text, but it goes without saying that it may be used for other control.

【0094】また、第4の実施例では、ペン操作者の方
向を検出し、その方向に対して正立像を表示するもので
あったが、操作者の方向が特定できるので、それを第1
〜第3、及び第5の実施例の文字認識に適応させても良
い。かかる構成とすることで、如何なる方向からの手書
き文字でも認識できるようになる。
Further, in the fourth embodiment, the direction of the pen operator is detected and the erect image is displayed in that direction.
~ It may be adapted to the character recognition of the third and fifth embodiments. With this configuration, handwritten characters from any direction can be recognized.

【0095】また、本発明は、複数の機器から構成され
るシステムに適用しても、1つの機器から成る装置に適
用しても良い。また、本発明はシステム或は装置にプロ
グラムを供給することによって達成される場合にも適用
できることは言うまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0096】以上説明したように、本実施例によれば、
文字パターンが左右どちらの手により入力されたか検知
し、パターンマッチング辞書を切換えることにより、ユ
ーザは何ら設定を行うことなく、左右それぞれの入力に
最適化したパターンマッチング辞書を使い分けることが
でき、文字認識率を向上させた誤認式の少ない好適な情
報処理装置を提供することができる。
As described above, according to this embodiment,
By detecting whether the character pattern is input by the left or right hand and switching the pattern matching dictionary, the user can use the pattern matching dictionary optimized for each input without making any settings. It is possible to provide a preferable information processing apparatus having a high rate and a small number of false positives.

【0097】また、他の実施例によれば、ペン入力の入
力方向の判定を、使用者がなんら意識することなく行な
うことが出来るようになる。
According to another embodiment, the input direction of pen input can be determined without the user's awareness.

【0098】[0098]

【発明の効果】以上説明したように本発明によれば、ユ
ーザに何ら特別な設定をさせることなく、異なる筆跡が
あっても的確に認識することが可能になる。
As described above, according to the present invention, it is possible to accurately recognize even different handwriting without requiring the user to make any special setting.

【0099】また、操作者に向かって常に正立した像を
表示させることが可能になる。
Further, it becomes possible to always display an upright image to the operator.

【0100】[0100]

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施例における情報処理装置のブロック
構成図である。
FIG. 1 is a block configuration diagram of an information processing apparatus according to a first embodiment.

【図2】第1の実施例における情報処理装置の装置外観
斜視図である。
FIG. 2 is an external perspective view of the information processing apparatus according to the first embodiment.

【図3】第1の実施例における情報処理装置の文字入力
画面の説明図である。
FIG. 3 is an explanatory diagram of a character input screen of the information processing device according to the first embodiment.

【図4】第1の実施例における情報処理装置の右手入力
用のパターンマッチング辞書の構成例を示す図である。
FIG. 4 is a diagram showing a configuration example of a pattern matching dictionary for right-hand input of the information processing apparatus in the first embodiment.

【図5】第1の実施例における情報処理装置の左手入力
用のパターンマッチング辞書の構成例を示す図である。
FIG. 5 is a diagram showing a configuration example of a pattern matching dictionary for left-hand input of the information processing apparatus in the first embodiment.

【図6】第1の実施例における動作処理手順を示すフロ
ーチャートである。
FIG. 6 is a flowchart showing an operation processing procedure in the first embodiment.

【図7】第3の実施例における情報処理装置のブロック
構成図である。
FIG. 7 is a block configuration diagram of an information processing apparatus in a third embodiment.

【図8】第3の実施例における情報処理装置の概略外観
斜視図である。
FIG. 8 is a schematic external perspective view of an information processing apparatus according to a third embodiment.

【図9】第4の実施例における情報処理装置のブロック
構成図である。
FIG. 9 is a block configuration diagram of an information processing apparatus in a fourth embodiment.

【図10】第4の実施例における座標検出回路周辺のブ
ロック構成図である。
FIG. 10 is a block configuration diagram around a coordinate detection circuit in a fourth embodiment.

【図11】第4の実施例における抵抗膜による座標検出
の原理を説明するための図である。
FIG. 11 is a diagram for explaining the principle of coordinate detection by a resistance film in the fourth embodiment.

【図12】第4の実施例における抵抗膜による座標検出
の原理を説明するための図である。
FIG. 12 is a diagram for explaining the principle of coordinate detection by a resistance film in the fourth embodiment.

【図13】第4の実施例における抵抗膜による座標検出
の原理を説明するための図である。
FIG. 13 is a diagram for explaining the principle of coordinate detection by a resistance film in the fourth embodiment.

【図14】第4の実施例における手つき検出の原理を説
明するための図である。
FIG. 14 is a diagram for explaining the principle of hand detection in the fourth embodiment.

【図15】第4の実施例における手つき検出の原理を説
明するための図である。
FIG. 15 is a diagram for explaining the principle of hand detection in the fourth embodiment.

【図16】第4の実施例における手つき検出の原理を説
明するための図である。
FIG. 16 is a diagram for explaining the principle of hand detection in the fourth embodiment.

【図17】第4の実施例における手つき検出の原理を説
明するための図である。
FIG. 17 is a diagram for explaining the principle of hand detection in the fourth embodiment.

【図18】第4の実施例における手つき領域の判定基準
を示す図である。
FIG. 18 is a diagram showing criteria for determining a touched area in the fourth embodiment.

【図19】第4の実施例における画面全体と表示領域の
関係を示す図である。
FIG. 19 is a diagram showing the relationship between the entire screen and the display area in the fourth embodiment.

【図20】第4の実施例における表示方向とその表示内
容の関係を示す図である。
FIG. 20 is a diagram showing a relationship between a display direction and its display content in the fourth embodiment.

【図21】第4の実施例における制御処理手順を示すフ
ローチャートである。
FIG. 21 is a flow chart showing a control processing procedure in the fourth embodiment.

【図22】第5の実施例における情報処理装置のブロッ
ク構成図である。
FIG. 22 is a block diagram of the information processing device in the fifth embodiment.

【図23】第5の実施例における情報処理装置の外観斜
視図である。
FIG. 23 is an external perspective view of an information processing device according to a fifth embodiment.

【図24】第5の実施例における制御処理手順を示すフ
ローチャートである。
FIG. 24 is a flowchart showing a control processing procedure in the fifth embodiment.

【符号の説明】[Explanation of symbols]

1 CPU 2 ROM 3 RAM 4 I/Oポート 5 表示出力部 6 押圧点検出回路 7 入力タブレット 8 入力ペン 9 手付きセンサ(右) 10 手付きセンサ(左) 11 座標入力装置 12 振動子駆動回路 13 入力ペン 14 振動子 15 ペン先 16A ,16B ,16C 圧電素子 17 反射防止部材 18 入力タブレット 19 受信波形検出回路 20 ペンコネクタセンサ(右) 21 ペンコネクタセンサ(左) 22 パームレスト(右) 23 パームレスト(左) 24 ペンコネクタ(右) 25 ペンコネクタ(左) 26 接続ケーブル 30 文字入力枠 1 CPU 2 ROM 3 RAM 4 I / O Port 5 Display Output Unit 6 Push Point Detection Circuit 7 Input Tablet 8 Input Pen 9 Hand Sensor (Right) 10 Hand Sensor (Left) 11 Coordinate Input Device 12 Transducer Drive Circuit 13 Input Pen 14 Transducer 15 Pen tip 16A, 16B, 16C Piezoelectric element 17 Antireflection member 18 Input tablet 19 Received waveform detection circuit 20 Pen connector sensor (right) 21 Pen connector sensor (left) 22 Palm rest (right) 23 Palm rest (left) 24 Pen connector (right) 25 Pen connector (left) 26 Connection cable 30 Character input frame

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 範之 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 長崎 克彦 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Noriyuki Suzuki 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Katsuhiko Nagasaki 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Within the corporation

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 手書き文字を認識する情報処理装置にお
いて、 手書き文字の入力者を判別する判別手段と、 該判別手段の判別結果に基づいて、文字認識する場合に
参照される複数の辞書の中から1つを選択する選択手段
と、 該選択手段によって選択された辞書を参照して文字認識
する手段とを備えることを特徴とする情報処理装置。
1. An information processing apparatus for recognizing handwritten characters, wherein a discriminating means for discriminating a person who inputs the handwritten character, and a plurality of dictionaries referred to when recognizing the character based on the discrimination result of the discriminating means. An information processing apparatus comprising: a selection unit that selects one from among the above, and a unit that recognizes a character by referring to the dictionary selected by the selection unit.
【請求項2】 前記判別手段は、入力者が右手入力者で
あるか、あるいは左手入力者であるかを検知する手段で
あることを特徴とする請求項第1項に記載の情報処理装
置。
2. The information processing apparatus according to claim 1, wherein the discriminating means is means for detecting whether the input person is a right-hand input person or a left-hand input person.
【請求項3】 前記判別手段は、入力者の筆圧を検知す
る手段であることを特徴とする請求項第1項に記載の情
報処理装置。
3. The information processing apparatus according to claim 1, wherein the determination unit is a unit that detects the writing pressure of the input person.
【請求項4】 手に持って所望とする位置を指定する入
力手段を備えた情報処理装置において、 像を表示する表示手段と、 前記入力手段の操作者の方向を検出する検出手段と、 該検出手段の結果に基づいて、前記表示手段による表示
像の方向を変更する手段とを備えることを特徴とする情
報処理装置。
4. An information processing apparatus having an input means for holding a desired position and designating a desired position, a display means for displaying an image, and a detection means for detecting the direction of the operator of the input means. An information processing apparatus, comprising: means for changing the direction of the image displayed by the display means based on the result of the detection means.
【請求項5】 前記検出手段は、前記入力手段による指
示位置と前記入力手段を持った操作者の手一部の位置と
に基づいて、操作者の位置を検出することを特徴とする
請求項第4項に記載の情報処理装置。
5. The detection means detects the position of the operator based on the position pointed by the input means and the position of a part of the hand of the operator holding the input means. The information processing device according to item 4.
JP10663893A 1993-05-07 1993-05-07 Information processing apparatus and control method thereof Expired - Fee Related JP3209378B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP10663893A JP3209378B2 (en) 1993-05-07 1993-05-07 Information processing apparatus and control method thereof
US08/233,888 US5644653A (en) 1993-05-07 1994-04-26 Information processing apparatus and control method thereof having user character recognition
DE69434194T DE69434194D1 (en) 1993-05-07 1994-05-05 Facility for adapting the recognition to different users and facility for determining the direction of writing
EP94107061A EP0623891B1 (en) 1993-05-07 1994-05-05 System for adapting the recognition to different users and system for detecting the writing direction
KR1019940010031A KR0148247B1 (en) 1993-05-07 1994-05-07 Information processing apparatus and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10663893A JP3209378B2 (en) 1993-05-07 1993-05-07 Information processing apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JPH06318271A true JPH06318271A (en) 1994-11-15
JP3209378B2 JP3209378B2 (en) 2001-09-17

Family

ID=14438667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10663893A Expired - Fee Related JP3209378B2 (en) 1993-05-07 1993-05-07 Information processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP3209378B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028603A (en) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd Terminal device and program
EP2662756A1 (en) * 2012-05-11 2013-11-13 BlackBerry Limited Touch screen palm input rejection
JP2014092809A (en) * 2012-10-31 2014-05-19 Toshiba Corp Electronic device and drawing method
WO2019244645A1 (en) * 2018-06-20 2019-12-26 ソニー株式会社 Program, recognition device, and recognition method
JP2020087059A (en) * 2018-11-28 2020-06-04 株式会社オカムラ Tablet input assistance tool

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028603A (en) * 2009-07-28 2011-02-10 Nec Casio Mobile Communications Ltd Terminal device and program
EP2662756A1 (en) * 2012-05-11 2013-11-13 BlackBerry Limited Touch screen palm input rejection
JP2014092809A (en) * 2012-10-31 2014-05-19 Toshiba Corp Electronic device and drawing method
WO2019244645A1 (en) * 2018-06-20 2019-12-26 ソニー株式会社 Program, recognition device, and recognition method
US11493997B2 (en) 2018-06-20 2022-11-08 Sony Corporation Program, recognition apparatus, and recognition method
JP2020087059A (en) * 2018-11-28 2020-06-04 株式会社オカムラ Tablet input assistance tool

Also Published As

Publication number Publication date
JP3209378B2 (en) 2001-09-17

Similar Documents

Publication Publication Date Title
US6992660B2 (en) Information processing apparatus, program and coordinate input method
EP2717120B1 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
JP4751422B2 (en) Multi-mode switching input device and electronic system
EP1607852B1 (en) Object position detector with edge motion feature and gesture recognition
EP0623891B1 (en) System for adapting the recognition to different users and system for detecting the writing direction
US20060028457A1 (en) Stylus-Based Computer Input System
US9064772B2 (en) Touch screen system having dual touch sensing function
JPH0778120A (en) Hand-held arithmetic unit and processing method of input signal in hand-held arithmetic unit
US20030048260A1 (en) System and method for selecting actions based on the identification of user&#39;s fingers
TWI396123B (en) Optical touch system and operating method thereof
WO2011142151A1 (en) Portable information terminal and method for controlling same
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
US20220334671A1 (en) Touch screen controller for determining relationship between a user&#39;s hand and a housing of an electronic device
JP2001236174A (en) Device for inputting handwritten character and method for recognizing handwritten character
KR200477008Y1 (en) Smart phone with mouse module
JPH0854981A (en) Pressure-sensitive input device for electronic apparatus
JP3209378B2 (en) Information processing apparatus and control method thereof
JP3161794B2 (en) Pen input device and pen input method
US11836297B2 (en) Keyboard with capacitive key position, key movement, or gesture input sensors
KR20200019426A (en) Inferface method of smart touch pad and device therefor
JPH0594564A (en) Data processing system
JPH11143608A (en) Method and device for character input
JPH10154224A (en) Data processor
JP2002351605A (en) Coordinate input device
KR19990049089A (en) How to detect position of touch panel

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080713

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees