JPH06131111A - Device and method for character recognition - Google Patents

Device and method for character recognition

Info

Publication number
JPH06131111A
JPH06131111A JP4284357A JP28435792A JPH06131111A JP H06131111 A JPH06131111 A JP H06131111A JP 4284357 A JP4284357 A JP 4284357A JP 28435792 A JP28435792 A JP 28435792A JP H06131111 A JPH06131111 A JP H06131111A
Authority
JP
Japan
Prior art keywords
area
character
tablet
pen
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4284357A
Other languages
Japanese (ja)
Other versions
JP3113747B2 (en
Inventor
Satoshi Emura
里志 江村
Mariko Takenouchi
磨理子 竹之内
Minoru Takakura
穂 高倉
Ichiro Nakao
一郎 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP04284357A priority Critical patent/JP3113747B2/en
Publication of JPH06131111A publication Critical patent/JPH06131111A/en
Application granted granted Critical
Publication of JP3113747B2 publication Critical patent/JP3113747B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To provide a specifying means for a recognition object area and an editing means for a recognition result for the character recognition device. CONSTITUTION:The character recognition device is equipped with the pen 12 used for coordinate position input and the tablet 13 with a display and further equipped with an image display means 14 which displays an inputted image on the display of the tablet and a recognition object image data extracting means 15 which extracts recognition object image data by encircling a recognition object image area, including a recognition object character in an image displayed by the image display means 14, with an unspecific-shape closed curve by using the pen 12. Further, the device is equipped with an extracted character string recognizing means 16 which recognizes the characters in the extracted recognition object image data, an extracted character string display means 17 which displays the extracted character string on the display, a gesture recognizing means 18 which recognizes the gesture input of the pen 12 as an editing command, and an extracted character string editing means 19 which performs an editing process for the extracted character string.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、命令入力手段として入
力ペンとタブレットとを用いた文字認識装置及び文字認
識方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device and a character recognition method using an input pen and a tablet as command input means.

【0002】[0002]

【従来の技術】近年、文字認識装置を利用して文字や図
形などを含む文書の修正・編集作業が一般的に行われて
いる。従来の文字認識装置は、文字領域の指定やコマン
ドの指定等の座標位置入力手段としてマウスを用いてい
た。例えば、表示画面上に表示された入力画像中から特
定の文字領域を抽出する場合には、使用者は、マウスを
移動させて画面上のカーソルマークを矩形領域の始点と
終点とに移動させて矩形領域を指定することによって、
この矩形領域に囲まれた範囲内の文字領域を抽出するよ
うに操作していた。
2. Description of the Related Art In recent years, correction / editing of documents including characters and figures has been generally performed by using a character recognition device. A conventional character recognition device uses a mouse as a coordinate position input means for designating a character area and a command. For example, when extracting a specific character area from the input image displayed on the display screen, the user moves the mouse to move the cursor mark on the screen to the start and end points of the rectangular area. By specifying a rectangular area,
The operation was performed so as to extract the character area within the range surrounded by this rectangular area.

【0003】また、認識動作の実行や認識データの編集
等を指示する場合には、予め表示されたメニューボタン
または、使用者からの何らかの指示をきっかけに表示さ
れるメニューボタンをマウスでクリックする操作を行っ
ていた。
When instructing execution of a recognition operation or editing of recognition data, an operation of clicking a menu button displayed in advance or a menu button displayed in response to some instruction from the user with a mouse Was going on.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、最近の
文字認識装置に対しては、指示入力操作や編集命令入力
操作等の操作性の向上が要求されている。従来の文字認
識装置に使用されているマウスは、キーボードに比べて
操作が容易であるが、入力画像中の領域指定は矩形領域
に限定されており、またマウスの形状が扱いにくいと感
じられる場合があるなど、使用者にとって必ずしも扱い
易い装置ではなかった。
However, recent character recognition devices are required to have improved operability such as instruction input operation and edit command input operation. The mouse used in the conventional character recognition device is easier to operate than the keyboard, but when the area designation in the input image is limited to the rectangular area, and the shape of the mouse seems to be difficult to handle. However, the device was not always easy for the user to handle.

【0005】したがって、本発明は上記問題点に鑑みて
なされたもので、特定の画像領域の認識動作や編集動作
の指示操作性に優れた文字認識装置及び文字認識方法を
提供することを目的とする。
Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a character recognizing device and a character recognizing method which are excellent in operability of instructing an operation of recognizing a specific image area or an editing operation. To do.

【0006】[0006]

【課題を解決するための手段】請求項1の発明に係る文
字認識装置は、座標位置を入力するためのペンと、座標
読み取り領域を有し、この座標読み取り領域上で動かさ
れる前記ペンの軌跡の座標値を読み取るタブレットと、
文字領域を含む文書の画像データを入力する入力手段
と、タブレットの座標読み取り領域と対応付けられた表
示領域を有する表示手段と、表示領域に画像データを表
示させる画像表示手段と、入力された画像データを表示
領域に表示しているとき、領域抽出モードにあり、この
領域抽出モードにおいて使用者がペンでタブレットの座
標読み取り領域上をなぞると、ペンで指定された範囲に
相当する文字領域の画像データを抽出し表示するように
制御する制御手段と、制御手段により抽出された文字領
域の画像データを文字コードに変換するデータ変換手段
と、抽出された文字領域を表示手段の表示領域に表示す
る抽出文字列表示手段とを備えている。
A character recognition apparatus according to the invention of claim 1 has a pen for inputting a coordinate position and a coordinate reading area, and a locus of the pen moved on the coordinate reading area. A tablet that reads the coordinate values of
Input means for inputting image data of a document including a character area, display means having a display area associated with a coordinate reading area of a tablet, image display means for displaying image data in the display area, and input image When the data is displayed in the display area, it is in the area extraction mode. In this area extraction mode, when the user traces the coordinate reading area of the tablet with the pen, the image of the character area corresponding to the range specified by the pen is displayed. Control means for controlling to extract and display the data, data converting means for converting the image data of the character area extracted by the control means into a character code, and displaying the extracted character area in the display area of the display means. And an extracted character string display means.

【0007】請求項2の発明に係る文字認識装置では、
請求項1の文字認識装置に対して、さらに表示手段の表
示領域が、タブレットの座標読み取り領域に重複するよ
うにタブレットに設けられている。請求項3の発明に係
る文字認識装置では、請求項2の文字認識装置に対し
て、制御手段が、領域抽出モードにあるときに、使用者
がペンを用いてタブレットの座標読み取り領域上に不定
形閉曲線をなぞることによって、その不定形閉曲線の内
部に含まれる全ての文字列を抽出するように制御動作を
行う。
In the character recognition device according to the invention of claim 2,
In addition to the character recognition device of claim 1, the display area of the display means is further provided on the tablet so as to overlap the coordinate reading area of the tablet. In the character recognition device according to the invention of claim 3, in contrast to the character recognition device of claim 2, when the control means is in the area extraction mode, the user does not use the pen to display on the coordinate reading area of the tablet. By tracing the regular closed curve, the control operation is performed so as to extract all the character strings included in the irregular closed curve.

【0008】請求項4の発明に係る文字認識装置では、
請求項2の文字認識装置に対して、制御手段が、領域抽
出モードにあるときに、使用者がペンを用いてタブレッ
トの座標読み取り領域上に不定形閉曲線をなぞることに
よって、少なくともその一部が不定形閉曲線の内部に含
まれる文字列を行単位で抽出するように制御動作を行
う。
In the character recognition device according to the invention of claim 4,
With respect to the character recognition device according to claim 2, when the control means is in the area extraction mode, the user traces an irregular closed curve on the coordinate reading area of the tablet with a pen so that at least a part of it is obtained. The control operation is performed so that the character string included in the irregular closed curve is extracted line by line.

【0009】請求項5の発明に係る文字認識装置では、
請求項1ないし4の文字認識装置に対して、さらに制御
手段が、領域抽出モードと文字編集モードとに切り換え
可能であり、領域抽出モードにおいてペン操作により領
域抽出処理が行われ、文字編集モードにおいては、使用
者がペンを用いてタブレット上に行う描画操作をコマン
ド入力として認識するように制御動作を行う。
In the character recognition device according to the invention of claim 5,
In the character recognition device according to any one of claims 1 to 4, the control means can further switch between a region extraction mode and a character editing mode, and the region extraction processing is performed by a pen operation in the region extraction mode, and in the character editing mode. Performs a control operation so that the user recognizes a drawing operation performed on the tablet by using the pen as a command input.

【0010】請求項6の発明に係る文字認識装置は、請
求項5の文字認識装置に対して、さらに、識別されたコ
マンドに基づいて、抽出された前記文字領域の文字デー
タの編集処理を行う編集手段を備えている。請求項7の
発明は、入力ペンとタブレットを用いて、表示装置に表
示された画像中から所望の文字領域を抽出する文字認識
方法であって、表示された画像中の所望の文字領域を取
り囲むように、入力ペンを用いてタブレットの座標読み
取り領域上に不定形閉曲線を描くことによって、不定形
閉曲線に囲まれた領域を黒画素とし、かつ不定形閉曲線
の外側の領域を白画素とする抽出領域選択画像データを
作成するステップと、表示された画像の画像データと抽
出領域選択画像データとの画素毎の論理積をとることに
よって所望の文字領域のみを表示する画像データを作成
するステップとを備えている。
A character recognition apparatus according to a sixth aspect of the present invention is the same as the character recognition apparatus according to the fifth aspect, and further edits the extracted character data of the character area based on the identified command. Equipped with editing means. A seventh aspect of the present invention is a character recognition method for extracting a desired character area from an image displayed on a display device by using an input pen and a tablet, and enclosing the desired character area in the displayed image. As described above, by extracting an irregular closed curve on the coordinate reading area of the tablet using the input pen, the area surrounded by the irregular closed curve becomes black pixels, and the area outside the irregular closed curve becomes white pixels. A step of creating area selection image data, and a step of creating image data displaying only a desired character area by taking a logical product of each pixel of the image data of the displayed image and the extraction area selection image data. I have it.

【0011】請求項8の発明は、入力ペンとタブレット
を用いて、表示装置に表示された画像中から所望の文字
領域を抽出する文字認識方法であって、表示された画像
中の所望の文字領域の少なくとも一部を含むように、入
力ペンを用いてタブレットの座標読み取り領域上に不定
形閉曲線を描くステップと、不定形閉曲線に囲まれた領
域から上下左右方向に画像データを走査し、白画素領域
が所定範囲に渡って連続する位置を各々上限、下限、左
限、右限として検出し、この範囲内にある画像データを
所望の文字領域のみを表示する画像データとして抽出す
るステップとを備えている。
According to an eighth aspect of the present invention, there is provided a character recognition method for extracting a desired character area from an image displayed on a display device by using an input pen and a tablet, wherein a desired character in the displayed image is displayed. To draw at least a part of the area, draw an irregular closed curve on the coordinate reading area of the tablet using the input pen, and scan the image data vertically and horizontally from the area surrounded by the irregular closed curve, and Detecting the positions where the pixel regions are continuous over a predetermined range as the upper limit, the lower limit, the left limit, and the right limit, respectively, and extracting image data within this range as image data for displaying only a desired character region. I have it.

【0012】[0012]

【作用】請求項1に係る文字認識装置は、座標認識手段
としてタブレットとペンを備え、タブレットの座標読み
取り領域上をペンでなぞる動作によって紙に鉛筆書きす
るような感覚で任意形状の図形描画が可能である。そし
て、制御手段は、領域抽出モードでは、ペン入力された
描画領域を認識して、この領域に対応する画像データを
抽出する。
The character recognition device according to claim 1 is provided with a tablet and a pen as the coordinate recognition means, and draws a figure in an arbitrary shape as if drawing a pencil on paper by tracing the coordinate reading area of the tablet with the pen. It is possible. Then, in the area extraction mode, the control unit recognizes the drawing area input by the pen and extracts the image data corresponding to this area.

【0013】請求項2の文字認識装置は、タブレットの
座標読み取り領域と表示画面が重複しているため、ペン
を用いた画像抽出領域の指定が容易に行える。請求項3
及び請求項7の発明では、ペンで不定形閉曲線で取り囲
んだ領域内の全ての画像データを抽出することができ
る。請求項4及び請求項8の発明では、ペンを用いて大
まかな領域を指定することにより、文章中の行間や段落
などの区切りを検出して抽出するので、抽出しようとす
る領域を正確に指定しなくても、所望の領域を抽出する
ことができる。
In the character recognition device of the second aspect, since the coordinate reading area of the tablet and the display screen overlap, it is possible to easily specify the image extraction area using the pen. Claim 3
According to the invention of claim 7, it is possible to extract all the image data in the area surrounded by the irregular closed curve with the pen. In the inventions of claim 4 and claim 8, the rough area is specified by using the pen, and the line breaks or paragraphs in the sentence are detected and extracted. Therefore, the area to be extracted is accurately specified. It is possible to extract a desired area without doing so.

【0014】請求項5及び請求項6の文字認識装置は、
制御手段によって文字編集モードに切り換わると、ペン
を用いて入力された描画図形をコマンド入力信号として
受取り、その図形パターンを識別してコマンドが判断さ
れ、領域抽出モードで抽出された文字データに対して入
力コマンドに対応した編集処理が行われる。
The character recognition device of claim 5 and claim 6,
When the control means switches to the character edit mode, the drawing figure input using the pen is received as a command input signal, the figure pattern is identified, the command is judged, and the character data extracted in the area extraction mode is detected. Edit processing corresponding to the input command is performed.

【0015】[0015]

【実施例】以下、本発明の実施例による文字認識装置に
ついて、図面を参照しながら説明する。図1は、本発明
の実施例における文字認識装置の構成を示すブロック図
である。図1を参照して、本発明による文字認識装置
は、大別して、画像データを入力するための画像入力部
10と、入力画像データを記憶する画像データ記憶部1
1と、座標入力用のペン12と、ディスプレイ付きタブ
レット13と、画像データの抽出・編集動作を制御する
制御部とを有する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A character recognition device according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a character recognition device according to an embodiment of the present invention. Referring to FIG. 1, the character recognition device according to the present invention is roughly classified into an image input unit 10 for inputting image data and an image data storage unit 1 for storing input image data.
1, a pen 12 for inputting coordinates, a tablet 13 with a display, and a control unit for controlling the image data extraction / editing operation.

【0016】画像入力部10は、外部ファイルやスキャ
ナ等から画像データを読み込む動作を行う。画像データ
記憶部11は、入力された画像データを文字などの表示
対象の黒画素を1、背景の白画素を0で示した2値のド
ットパターンで記憶する。ディスプレイ付きタブレット
13は、画像を表示する画面を有し、この画面上をペン
12でポインティングしたりなぞったりすることによ
り、ペン12の軌跡座標値が読み取られる。このディス
プレイ付きタブレット13は、表示画像上を直接ペン1
2で指定することができるため、紙に鉛筆書きするよう
な感覚で操作でき、操作性に優れている。
The image input section 10 performs an operation of reading image data from an external file, a scanner or the like. The image data storage unit 11 stores the input image data in a binary dot pattern in which a black pixel to be displayed such as a character is 1 and a white pixel in the background is 0. The tablet 13 with a display has a screen for displaying an image, and the locus coordinate value of the pen 12 is read by pointing or tracing on the screen with the pen 12. This tablet 13 with a display directly draws the pen 1 on the displayed image.
Since it can be specified by 2, it can be operated like a pencil writing on paper and has excellent operability.

【0017】制御部は、主に領域抽出モード時に動作す
る認識対象画像データ抽出手段15、抽出文字列認識手
段16、抽出文字列表示手段17と、主に文字編集モー
ド時に動作するジェスチャ認識手段18、抽出文字列編
集手段19とから構成される。なお、後で詳述するが、
領域抽出モードは入力された画像データの中から所望の
文字列の画像データを抽出して表示する動作モードであ
り、文字編集モードは、入力ペンでコマンドを入力し、
抽出した文字列に対して種々の編集動作を行う動作モー
ドである。
The control unit mainly operates the recognition target image data extracting unit 15, the extracted character string recognizing unit 16, the extracted character string displaying unit 17, and the gesture recognizing unit 18 mainly operating in the character edit mode. , Extraction character string editing means 19. In addition, as will be described in detail later,
The area extraction mode is an operation mode in which image data of a desired character string is extracted from the input image data and displayed, and the character edit mode is to input a command with an input pen,
This is an operation mode in which various editing operations are performed on the extracted character string.

【0018】認識対象画像データ抽出手段15は、使用
者がペン12で指示したタブレット13のディスプレイ
上の領域座標を受取り、この領域に対応する文字領域の
画像データを入力された画像データ中から抽出して抽出
文字列認識手段16に出力する。抽出文字列認識手段1
6は、抽出された文字領域の画像データを文字単位で認
識し、文字コードに変換し、抽出文字列表示手段17に
出力するとともに保持する。
The recognition target image data extracting means 15 receives the area coordinates on the display of the tablet 13 designated by the user with the pen 12, and extracts the image data of the character area corresponding to this area from the input image data. And outputs it to the extracted character string recognition means 16. Extracted character string recognition means 1
6 recognizes the image data of the extracted character area in character units, converts it into a character code, outputs it to the extracted character string display means 17, and holds it.

【0019】抽出文字列表示手段17は、抽出した文字
列をタブレット13のディスプレイ上に入力画像とは異
なる表示領域、例えば異なるウインドウ等に表示する。
ジェスチャ認識手段18は、文字編集モードにおいて、
抽出文字列の表示領域に対して入力ペン12による描画
入力動作が行われた場合に、描画図形から対応するコマ
ンドを解釈する。
The extracted character string display means 17 displays the extracted character string on the display of the tablet 13 in a display area different from the input image, such as a different window.
The gesture recognition means 18 is
When the drawing input operation by the input pen 12 is performed on the display area of the extracted character string, the corresponding command is interpreted from the drawing figure.

【0020】抽出文字列編集手段19は、ジェスチャ認
識手段18で認識したコマンドの内容に応じて抽出文字
列に種々の編集動作を行う。編集結果は、抽出文字列表
示手段17によってディスプレイ上に表示される。次
に、この文字認識装置の動作について説明する。図2な
いし図4は、文字認識装置の動作手順を示す動作フロー
である。図2に示すように、この文字認識装置の動作
は、主に文字領域抽出動作と文字編集動作に分けられ、
図3に文字領域抽出動作のフローが、また図4に文字編
集動作のフローが示されている。
The extracted character string editing means 19 performs various editing operations on the extracted character string according to the content of the command recognized by the gesture recognition means 18. The edited result is displayed on the display by the extracted character string display means 17. Next, the operation of this character recognition device will be described. 2 to 4 are operation flows showing the operation procedure of the character recognition device. As shown in FIG. 2, the operation of the character recognition device is mainly divided into a character area extracting operation and a character editing operation,
FIG. 3 shows a flow of the character area extracting operation, and FIG. 4 shows a flow of the character editing operation.

【0021】まず、文字領域認識動作(領域抽出モー
ド)について説明する。画像入力手段10は、スキャナ
あるいはファイルから文字列を含む画像を読み込む(画
像入力ステップ)。画像記憶手段11は、画像入力手段
10で読み込んだ画像を、文字などの黒画素を1、背景
の白画素を0とした2値データで記憶する。
First, the character area recognition operation (area extraction mode) will be described. The image input means 10 reads an image containing a character string from a scanner or a file (image input step). The image storage means 11 stores the image read by the image input means 10 as binary data in which black pixels such as characters are 1 and white pixels in the background are 0.

【0022】画像表示手段14は画像記憶手段11で記
憶している画像データをディスプレイつきタブレット1
3のディスプレイ上に表示する(画像表示ステップ)。
使用者は、ディスプレイつきタブレット13に表示され
た画像中で、認識したい文字を含む画像領域を、ペン1
2を用いて抽出する。ここで、文字画像領域の抽出方法
には2つの方法がある。
The image display means 14 displays the image data stored in the image storage means 11 on the tablet 1 with a display.
3 is displayed on the display (image display step).
In the image displayed on the tablet 13 with a display, the user selects an image area including a character to be recognized by the pen 1
Extract with 2. Here, there are two methods for extracting the character image area.

【0023】まず第1の方法について、図5を用いて説
明する。図5(a)に示すように、使用者は、入力ペン
12を用いて画面上の抽出すべき文字領域の周囲を囲む
不定形閉曲線20を描く。認識対象画像データ抽出手段
15は、不定形閉曲線20の軌跡の座標値等を求める。
そして、図5(b)に示すような、入力画像領域と同じ
大きさであって、不定形閉曲線の内部の全ての画素が黒
画素であることを示す「1」であり、不定形閉曲線の外
部の全ての画素が白画素であることを示す「0」から構
成される選択領域画像データを作成する。その後、入力
画像データと選択領域画像データとの画素毎の論理積を
とることにより、不定形閉曲線20で囲まれた領域以外
の画素が白画素に変換され、図5(c)に示すように、
不定形閉曲線20の内部の画像データのみが抽出され
る。
First, the first method will be described with reference to FIG. As shown in FIG. 5A, the user uses the input pen 12 to draw an irregular closed curve 20 surrounding the character region to be extracted on the screen. The recognition target image data extraction means 15 obtains the coordinate value of the locus of the irregular closed curve 20 and the like.
Then, as shown in FIG. 5B, the pixel size is the same as that of the input image area and is "1" indicating that all the pixels inside the irregular closed curve are black pixels. Selected area image data composed of "0" indicating that all the external pixels are white pixels is created. After that, the logical product of the input image data and the selected area image data is taken for each pixel to convert the pixels other than the area surrounded by the irregular closed curve 20 into white pixels, as shown in FIG. ,
Only the image data inside the irregular closed curve 20 is extracted.

【0024】さらに、第2の方法について図6を用いて
説明する。図6(a)に示すように、使用者は、ディス
プレイつきタブレット13に表示された画像中で、抽出
したい文字領域の一部にペン12を用いて不定形閉曲線
21の印をつける。認識対象画像データ抽出手段15
は、不定形閉曲線21の座標情報を受け取って以下のよ
うに処理を行う。図6(b)を参照して、認識対象画像
データ抽出手段15は、まず不定形閉曲線21のx座標
の最小値xmin、最大値xmax、y座標の最小値y
min、最大値ymaxを求める。次に、y座標の最小
値yminを起点として、不定形閉曲線のx座標の最小
値xminから最大値xmaxまでの範囲を上へ走査し
て、xminからxmaxまでの範囲の画素が全てが白
画素「0」となる画素の行が、初めてNy行以上連続し
たy座標を認識対象領域の上限のy座標ysとする。同
様に、y座標の最大値ymaxを起点として、不定形閉
曲線のx座標の最小値xminから最大値xmaxまで
の範囲を下へ走査して、xminからxmaxまでの範
囲の画素が全てが白画素「0」になる画素の行が、初め
てNy行以上連続したy座標を認識対象領域の下限のy
座標yeとする。
Further, the second method will be described with reference to FIG. As shown in FIG. 6A, the user uses the pen 12 to mark the irregular closed curve 21 on a part of the character region to be extracted in the image displayed on the tablet 13 with a display. Recognition target image data extraction means 15
Receives the coordinate information of the irregular closed curve 21 and performs the following processing. With reference to FIG. 6B, the recognition target image data extraction unit 15 firstly, the minimum value xmin, the maximum value xmax, and the minimum value y of the y coordinate of the irregular closed curve 21.
min and maximum value ymax are obtained. Next, starting from the minimum value ymin of the y coordinate, the range from the minimum value xmin to the maximum value xmax of the x coordinate of the irregular closed curve is scanned upward, and all the pixels in the range from xmin to xmax are white pixels. The y-coordinate in which the row of pixels that become “0” continues for Ny rows or more for the first time is set as the upper-limit y-coordinate ys of the recognition target area. Similarly, starting from the maximum value ymax of the y coordinate, the range from the minimum value xmin to the maximum value xmax of the x coordinate of the irregular closed curve is scanned downward, and all the pixels in the range from xmin to xmax are white pixels. For the first time, a row of pixels which becomes “0” has a continuous y coordinate of Ny rows or more.
The coordinate is ye.

【0025】今度は、x座標の最小値xminを起点と
して、不定形閉曲線のy座標の最小値yminから最大
値ymaxまでの範囲を左へ走査して、yminからy
maxまでの範囲の画素が全てが白画素「0」となる画
素の行が、初めてNx行以上連続したx座標を認識対象
領域の上限のx座標xsとする。同様に、x座標の最大
値xmaxを起点として、不定型閉曲線のy座標の最小
値yminから最大値ymaxまでの範囲を右へ走査し
て、yminからymaxまでの範囲の画素が全てが白
画素「0」になる画素の行が、初めてNx行以上連続し
たx座標を認識対象領域の下限のx座標xeとする。そ
して、上限、下限のy座標、左限、右限のx座標で囲ま
れた画像ブロックを抽出文字領域の画像データとして抽
出する。
This time, starting from the minimum value xmin of the x coordinate, the range from the minimum value ymin of the y coordinate of the irregular closed curve to the maximum value ymax is scanned to the left, and from ymin to y.
A row of pixels in which all the pixels in the range up to max are white pixels “0” has the consecutive x coordinates for Nx rows or more as the upper limit x coordinate xs of the recognition target area. Similarly, starting from the maximum value xmax of the x coordinate, the range from the minimum value ymin to the maximum value ymax of the y coordinate of the indeterminate closed curve is scanned to the right, and all the pixels in the range from ymin to ymax are white pixels. The x-coordinate in which the row of pixels which becomes “0” is consecutive for Nx rows or more for the first time is set as the lower limit x-coordinate xe of the recognition target area. Then, the image block surrounded by the upper and lower y coordinates and the left and right x coordinates is extracted as image data of the extracted character area.

【0026】なお、第2の方法の他の例として、上下限
及び左右限の走査は、不定形閉曲線21の重心位置(G
x、Gy)から開始してもよい。また、左右限の走査開
始の起点をxmin、xmaxとし、上下限の走査開始
の起点を重心位置Gyとしてもよい。さらに、走査領域
の幅や走査の順序は任意に設定してもよい。このように
して抽出された文字領域の画像データは、抽出文字列認
識手段16によって、画素単位の画像データから文字コ
ードに変換され保持される。
As another example of the second method, the scanning of the upper and lower limits and the left and right limits is performed by using the position of the center of gravity (G
x, Gy). Alternatively, the starting points of the left and right scanning starts may be xmin and xmax, and the starting points of the upper and lower scanning limits may be the barycentric position Gy. Further, the width of the scanning area and the order of scanning may be set arbitrarily. The image data of the character area extracted in this way is converted from the image data in pixel units into a character code and held by the extracted character string recognition means 16.

【0027】抽出文字列表示手段17は、抽出文字列認
識手段16で抽出された文字列をタブレット13のディ
スプレイの画面上に表示する(抽出文字領域の表示ステ
ップ)。以上が領域抽出モードでの動作である。つぎ
に、文字編集動作について説明する。この動作モードで
は、使用者がペン12でタブレット上をなぞって描画す
る動作(この動作をジェスチャと称する)からコマンド
を認識して、抽出された文字列に対して種々の編集動作
が行われる。
The extracted character string display means 17 displays the character string extracted by the extracted character string recognition means 16 on the screen of the display of the tablet 13 (extracted character area display step). The above is the operation in the region extraction mode. Next, the character editing operation will be described. In this operation mode, the user recognizes a command from an operation of drawing with the pen 12 on the tablet (this operation is called a gesture), and various editing operations are performed on the extracted character string.

【0028】まず、タブレット13のディスプレイ画面
上の抽出文字列表示領域をペン12でなぞる動作はジェ
スチャとして受け付けられるように設定される。そし
て、使用者がペン12で予め定められた図形をなぞる
と、その図形の座標値等の軌跡データがジェスチャ認識
手段18に与えられる。ジェスチャ認識手段18は、ジ
ェスチャの意味を解釈して所定の処理コマンドを識別し
て、抽出文字列編集手段19に処理命令を与える。ここ
で、図7は、ジェスチャ形状の例を示す図である。図
中、矢印はジェスチャの筆跡の向きを示している。
First, the operation of tracing the extracted character string display area on the display screen of the tablet 13 with the pen 12 is set so as to be accepted as a gesture. Then, when the user traces a predetermined figure with the pen 12, locus data such as coordinate values of the figure is given to the gesture recognition means 18. The gesture recognition means 18 interprets the meaning of the gesture, identifies a predetermined processing command, and gives a processing command to the extracted character string editing means 19. Here, FIG. 7 is a diagram showing an example of a gesture shape. In the figure, the arrow indicates the direction of the handwriting of the gesture.

【0029】図7(a)に例示するようなジェスチャA
が描かれた場合、ジェスチャ認識手段18は、抽出文字
列編集手段19にジェスチャAが描かれたこととジェス
チャAの開始座標及び終了座標とを通知する。抽出文字
列編集手段19は、ジェスチャの開始座標及び終了座標
とから、抽出文字列中のどの文字又は文字列が対象とな
るかを計算し、例えば、該当文字を反転表示するなどし
て選択されたことを表示する。
Gesture A as illustrated in FIG.
When is drawn, the gesture recognition unit 18 notifies the extracted character string editing unit 19 that the gesture A is drawn and the start coordinate and the end coordinate of the gesture A. The extracted character string editing means 19 calculates which character or character string in the extracted character string is the target from the start coordinates and the end coordinates of the gesture, and selects the character by highlighting the corresponding character, for example. Display that.

【0030】また、ジェスチャAに続いて図7(b)に
例示するようなジェスチャBが描かれた場合、ジェスチ
ャ認識手段18は文字列の次候補への変換コマンド入力
と認識する。そして、抽出文字列編集手段19は、ジェ
スチャAによって選択されている文字を次候補に訂正す
る。次候補とは現在表示されている候補文字の次に確か
らしい候補文字である。
When a gesture B as illustrated in FIG. 7B is drawn after the gesture A, the gesture recognition means 18 recognizes that the conversion command is input to the next candidate of the character string. Then, the extracted character string editing means 19 corrects the character selected by the gesture A to the next candidate. The next candidate is the most likely candidate character next to the currently displayed candidate character.

【0031】さらに、図7(c)に例示するようなジェ
スチャCの場合には、選択されている文字または文字列
の選択候補を画面上に全て表示する。さらに、図7
(d)に例示するようなジェスチャDの場合には、選択
されている文字又は文字列を削除する。このような編集
処理が行われた後、編集後の抽出文字列が抽出文字列表
示手段17によってタブレット13のディスプレイ上に
表示される。
Further, in the case of the gesture C as illustrated in FIG. 7C, all selection candidates of the selected character or character string are displayed on the screen. Furthermore, FIG.
In the case of the gesture D as illustrated in (d), the selected character or character string is deleted. After such editing processing is performed, the extracted character string after editing is displayed on the display of the tablet 13 by the extracted character string display means 17.

【0032】さらに、使用者の指示によって次の処理が
行われる。なお、上記実施例で説明したジェスチャは例
示に過ぎず、種々の図形をコマンドと関連付けて使用す
ることができる。また、上記実施例では、ディスプレイ
付きタブレットを使用したが、タブレットと分離したデ
ィスプレイ装置を使用してもかまわない。
Further, the following processing is performed according to the user's instruction. The gestures described in the above embodiment are merely examples, and various figures can be used in association with commands. In addition, although the tablet with the display is used in the above embodiment, a display device separate from the tablet may be used.

【0033】[0033]

【発明の効果】このように、本発明の文字認識装置は、
座標入力手段としてペンとタブレットを備え、領域抽出
モード時には、タブレット上をペンでなぞることによっ
て、画像表示手段に表示された画像上の所望の領域の画
像データを抽出するように制御されるので、鉛筆書きの
感覚で不定形閉曲線を用いた領域抽出指示が行え、文字
認識動作の操作性が向上する。
As described above, the character recognition device of the present invention is
A pen and a tablet are provided as coordinate input means, and in the area extraction mode, by tracing the tablet with the pen, it is controlled so as to extract image data of a desired area on the image displayed on the image display means. The area extraction instruction using an irregular closed curve can be performed as if writing with a pencil, and the operability of the character recognition operation is improved.

【0034】また、文字編集モードでは、抽出した文字
領域の表示画面に対してペンを用いた描画動作をコマン
ド入力として受けとるように構成されているので、簡便
な描画動作で文字列の編集動作の指示を容易に行わせる
ことができる。さらに、請求項7及び8に係る発明で
は、ペンでタブレット上に不定形閉曲線を描画すること
によって、所望の文字領域を認識することができるの
で、複雑な領域指定や大まかな領域指定が可能となり、
操作性が向上する。
Further, in the character edit mode, the drawing operation using the pen is received as a command input on the display screen of the extracted character area, so that the character string editing operation can be performed by a simple drawing operation. Instructions can be easily given. Furthermore, in the inventions according to claims 7 and 8, a desired character region can be recognized by drawing an irregular closed curve on the tablet with a pen, so that complicated region designation or rough region designation is possible. ,
Operability is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例における文字認識装置の構成を
示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a character recognition device according to an embodiment of the present invention.

【図2】図1に示す文字認識装置の動作手順を示すメイ
ンフロー図である。
FIG. 2 is a main flowchart showing an operation procedure of the character recognition device shown in FIG.

【図3】図1に示す文字認識装置の動作手順を示すサブ
フロー図である
FIG. 3 is a sub-flow diagram showing an operation procedure of the character recognition device shown in FIG.

【図4】図1に示す文字認識装置の動作手順を示すサブ
フロー図である
FIG. 4 is a sub-flow diagram showing an operation procedure of the character recognition device shown in FIG.

【図5】本発明の文字認識装置の文字領域抽出動作の一
例を説明するための模式図である。
FIG. 5 is a schematic diagram for explaining an example of a character area extracting operation of the character recognition device of the present invention.

【図6】本発明の文字認識装置の文字領域抽出動作の他
の例を説明するための模式図である。
FIG. 6 is a schematic diagram for explaining another example of the character region extracting operation of the character recognition device of the present invention.

【図7】ジェスチャの形状の例を示す図である。FIG. 7 is a diagram showing an example of the shape of a gesture.

【符号の説明】[Explanation of symbols]

10 画像入力手段 11 画像記憶手段 12 ペン 13 ディスプレイつきタブレット 14 画像表示手段 15 認識対象画像データ抽出手段 16 抽出文字列認識手段 17 抽出文字列表示手段 18 ジェスチャ認識手段 19 抽出文字列編集手段 10 Image Input Means 11 Image Storage Means 12 Pen 13 Tablet with Display 14 Image Display Means 15 Recognition Target Image Data Extraction Means 16 Extracted Character String Recognition Means 17 Extracted Character String Display Means 18 Gesture Recognition Means 19 Extracted Character String Editing Means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中尾 一郎 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Ichiro Nakao 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 座標位置を入力するためのペンと、 座標読み取り領域を有し、この座標読み取り領域上で動
かされる前記ペンの軌跡の座標値を読み取るタブレット
と、 文字領域を含む文書の画像データを入力する入力手段
と、 前記タブレットの座標読み取り領域と対応付けられた表
示領域を有する表示手段と、 前記表示領域に前記画像データを表示させる画像表示手
段と、 入力された画像データを表示領域に表示しているとき領
域抽出モードにあり、この領域抽出モードにおいて使用
者が前記ペンで前記タブレットの座標読み取り領域上を
なぞると、前記ペンで指定された範囲に相当する文字領
域の画像データを抽出し表示するように制御する制御手
段と、 前記制御手段により抽出された文字領域の画像データを
文字コードに変換するデータ変換手段と、 抽出された文字領域を前記表示手段の表示領域に表示す
る抽出文字列表示手段とを備えた、文字認識装置。
1. A pen for inputting coordinate positions, a tablet having a coordinate reading area, reading a coordinate value of a locus of the pen moved on the coordinate reading area, and image data of a document including a character area. Input means for inputting, a display means having a display area associated with the coordinate reading area of the tablet, image display means for displaying the image data in the display area, and input image data in the display area. In the area extraction mode while displaying, when the user traces the coordinate reading area of the tablet with the pen in this area extraction mode, the image data of the character area corresponding to the range specified by the pen is extracted. And a control means for controlling so that the image data of the character area extracted by the control means is converted into a character code. A character recognition device comprising: a data conversion means; and an extracted character string display means for displaying the extracted character area in the display area of the display means.
【請求項2】 前記表示手段の表示領域は、 前記タブレットの座標読み取り領域に重複するように前
記タブレットに設けられていることを特徴とする、請求
項1記載の文字認識装置。
2. The character recognition device according to claim 1, wherein the display area of the display means is provided on the tablet so as to overlap the coordinate reading area of the tablet.
【請求項3】 前記制御手段は、領域抽出モードにある
ときに、使用者が前記ペンを用いて前記タブレットの座
標読み取り領域上に不定形閉曲線をなぞることによっ
て、その不定形閉曲線の内部に含まれる全ての文字列を
抽出することを特徴とする、請求項2記載の文字認識装
置。
3. The control means is included in an irregular closed curve when the user traces the irregular closed curve on the coordinate reading area of the tablet with the pen when in the area extraction mode. The character recognition device according to claim 2, wherein all the character strings to be extracted are extracted.
【請求項4】 前記制御手段は、領域抽出モードにある
ときに、使用者が前記ペンを用いて前記タブレットの座
標読み取り領域上に不定形閉曲線をなぞることによっ
て、少なくともその一部が前記不定形閉曲線の内部に含
まれる文字列を行単位で抽出することを特徴とする、請
求項2記載の文字認識装置。
4. The control means, when in the area extraction mode, the user traces an irregular closed curve on the coordinate reading area of the tablet with the pen, so that at least a part of the irregular curve is the irregular shape. The character recognition device according to claim 2, wherein the character string included in the closed curve is extracted in units of lines.
【請求項5】 前記制御手段は、領域抽出モードと文字
編集モードとに切り換え可能であり、前記領域抽出モー
ドにおいてペン操作により領域抽出処理が行われ、文字
編集モードにおいては、使用者が前記ペンを用いて前記
タブレット上に行う描画操作をコマンド入力として認識
することを特徴とする、請求項1ないし請求項4のいず
れかに記載の文字認識装置。
5. The control means is switchable between a region extraction mode and a character editing mode, and a region extraction process is performed by a pen operation in the region extraction mode. In the character editing mode, the user operates the pen. The character recognition device according to any one of claims 1 to 4, wherein a drawing operation performed on the tablet is recognized as a command input using.
【請求項6】 該文字認識装置は、さらに、 識別されたコマンドに基づいて、抽出された前記文字領
域の文字データの編集処理を行う編集手段を備えること
を特徴とする、請求項5記載の文字認識装置。
6. The character recognition device according to claim 5, further comprising editing means for editing the extracted character data of the character area based on the identified command. Character recognizer.
【請求項7】 入力ペンとタブレットを用いて、表示装
置に表示された画像中から所望の文字領域を抽出する文
字認識方法であって、 表示された画像中の所望の文字領域を取り囲むように、
入力ペンを用いてタブレットの座標読み取り領域上に不
定形閉曲線を描くことによって、不定形閉曲線に囲まれ
た領域を黒画素とし、かつ不定形閉曲線の外側の領域を
白画素とする抽出領域選択画像データを作成するステッ
プと、 表示された前記画像の画像データと前記抽出領域選択画
像データとの画素毎の論理積をとることによって所望の
文字領域のみを表示する画像データを作成するステップ
とを備えた、文字認識方法。
7. A character recognition method for extracting a desired character region from an image displayed on a display device by using an input pen and a tablet, the method comprising enclosing a desired character region in the displayed image. ,
An extraction area selection image in which the area surrounded by the irregular closed curve is made black pixels and the area outside the irregular closed curve is made white pixels by drawing an irregular closed curve on the coordinate reading area of the tablet using the input pen. A step of creating data, and a step of creating image data for displaying only a desired character area by taking a logical product of each pixel of the image data of the displayed image and the extraction area selection image data Character recognition method.
【請求項8】 入力ペンとタブレットを用いて、表示装
置に表示された画像中から所望の文字領域を抽出する文
字認識方法であって表示された画像中の所望の文字領域
の少なくとも一部を含むように、入力ペンを用いてタブ
レットの座標読み取り領域上に不定形閉曲線を描くステ
ップと、 前記不定形閉曲線に囲まれた領域から上下左右方向に画
像データを走査し、白画素領域が所定範囲に渡って連続
する位置を各々上限、下限、左限、右限として検出し、
この範囲内にある画像データを所望の文字領域のみを表
示する画像データとして抽出するステップとを備えた、
文字認識方法。
8. A character recognition method for extracting a desired character region from an image displayed on a display device using an input pen and a tablet, wherein at least a part of the desired character region in the displayed image is displayed. In order to include, the step of drawing an irregular closed curve on the coordinate reading area of the tablet using the input pen, and scanning the image data vertically and horizontally from the area surrounded by the irregular closed curve, the white pixel area is a predetermined range Detects consecutive positions over the upper limit, lower limit, left limit, right limit,
A step of extracting the image data within this range as image data for displaying only a desired character area,
Character recognition method.
JP04284357A 1992-10-22 1992-10-22 Character recognition device and character recognition method Expired - Lifetime JP3113747B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04284357A JP3113747B2 (en) 1992-10-22 1992-10-22 Character recognition device and character recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04284357A JP3113747B2 (en) 1992-10-22 1992-10-22 Character recognition device and character recognition method

Publications (2)

Publication Number Publication Date
JPH06131111A true JPH06131111A (en) 1994-05-13
JP3113747B2 JP3113747B2 (en) 2000-12-04

Family

ID=17677548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04284357A Expired - Lifetime JP3113747B2 (en) 1992-10-22 1992-10-22 Character recognition device and character recognition method

Country Status (1)

Country Link
JP (1) JP3113747B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165753A (en) * 1997-08-27 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Character string input method and device and storage medium storing character string input program
JP2009070242A (en) * 2007-09-14 2009-04-02 Ricoh Co Ltd Area division method and device, and program
JP2012181708A (en) * 2011-03-01 2012-09-20 Ubiquitous Entertainment Inc Spreadsheet control program, spreadsheet controller and spreadsheet control method
CN102763511A (en) * 2012-08-14 2012-11-07 张书祥 Seed taking device with adjustable accuracy and bunch planting device with adjustable accuracy
EP2930605A1 (en) 2014-04-08 2015-10-14 Fujitsu Limited Information processing apparatus and information processing program
CN113392833A (en) * 2021-06-10 2021-09-14 沈阳派得林科技有限责任公司 Method for identifying type number of industrial radiographic negative image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165753A (en) * 1997-08-27 1999-03-09 Nippon Telegr & Teleph Corp <Ntt> Character string input method and device and storage medium storing character string input program
JP2009070242A (en) * 2007-09-14 2009-04-02 Ricoh Co Ltd Area division method and device, and program
JP2012181708A (en) * 2011-03-01 2012-09-20 Ubiquitous Entertainment Inc Spreadsheet control program, spreadsheet controller and spreadsheet control method
CN102763511A (en) * 2012-08-14 2012-11-07 张书祥 Seed taking device with adjustable accuracy and bunch planting device with adjustable accuracy
EP2930605A1 (en) 2014-04-08 2015-10-14 Fujitsu Limited Information processing apparatus and information processing program
US9921742B2 (en) 2014-04-08 2018-03-20 Fujitsu Limited Information processing apparatus and recording medium recording information processing program
CN113392833A (en) * 2021-06-10 2021-09-14 沈阳派得林科技有限责任公司 Method for identifying type number of industrial radiographic negative image

Also Published As

Publication number Publication date
JP3113747B2 (en) 2000-12-04

Similar Documents

Publication Publication Date Title
US5583543A (en) Pen input processing apparatus
JP4742132B2 (en) Input device, image processing program, and computer-readable recording medium
JP4637455B2 (en) User interface utilization method and product including computer usable media
JP2001005599A (en) Information processor and information processing method an d recording medium recording information processing program
EP0607926A2 (en) Information processing apparatus with a gesture editing function
JP2000123114A (en) Handwritten character input device and storage medium
US5761340A (en) Data editing method and system for a pen type input device
JPH07295940A (en) Electronic equipment
JPH06131110A (en) Information processor
JP3113747B2 (en) Character recognition device and character recognition method
JP3388451B2 (en) Handwriting input device
JPH05189149A (en) Information processor
JP3085552B2 (en) Character input / cursor instruction determination method in online handwriting input device
JP4441966B2 (en) Handwritten character input device and recording medium recording program for realizing the same
JP2005108032A (en) Handwriting processing device
JPH07200723A (en) Method and device for recognizing character
JP3785205B2 (en) Tablet input device and tablet input method
JPH07287634A (en) Document preparing device and graphic preparing method thereof
JPH0728801A (en) Image data processing method and device therefor
JPH06131109A (en) Information processor
JP2660795B2 (en) Handwriting input editing method
JP4155059B2 (en) Electronic blackboard system
JPH0728950A (en) Handwritten character recognition device
JPH0962786A (en) Character recognizer
JPH0769905B2 (en) Document creation / editing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080922

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080922

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110922

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120922

Year of fee payment: 12