JPS6235988A - Inputting system - Google Patents

Inputting system

Info

Publication number
JPS6235988A
JPS6235988A JP60176758A JP17675885A JPS6235988A JP S6235988 A JPS6235988 A JP S6235988A JP 60176758 A JP60176758 A JP 60176758A JP 17675885 A JP17675885 A JP 17675885A JP S6235988 A JPS6235988 A JP S6235988A
Authority
JP
Japan
Prior art keywords
inner frame
information
section
image information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60176758A
Other languages
Japanese (ja)
Inventor
Akio Murata
明男 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP60176758A priority Critical patent/JPS6235988A/en
Publication of JPS6235988A publication Critical patent/JPS6235988A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily read a handwritten document including a graphic by judging image information written in a frame as characters and judging image information that crosses the frame as graphics. CONSTITUTION:When inputting characters, one character is written in an inner frame 17, and when inputting a graphic, the graphic is drawn unconscious of the inner frame 17. A reading section 8 reads the image information from a paper 7 and stores in an image storage section 13. A position detecting section 14 calculates positional information 18 from image information by a mark 9 and marks 91-94 and sends to a judging section 19. The judging section 19 judges image information 21 from the image storage section 13 from the positional information 18, and when the image information 21 is at the position of the inner frame 17, converts it to character code 24 by a converting section 20, and when the information crosses the middle frame 17 and extends to adjoining inner frame, stores the image data 21 as it is in a storage section 25.

Description

【発明の詳細な説明】 〔概要〕 用紙に記録された文字及び図形の読取入力において、桝
目を形成する枠形が印刷された用紙を用い、枠内に書か
れたイメージ情報は文字と判定、該枠内を越えるイメー
ジ情報は図形と判定する人〔卒業I−の利用分野〕 本発明は文字・図形を読取って入力する入力方式の改良
に関する。
[Detailed Description of the Invention] [Summary] In reading and inputting characters and figures recorded on paper, paper on which a frame shape forming a square is printed is used, image information written within the frame is determined to be text, Person who determines that image information that exceeds the frame is a figure [Field of application for Graduation I-] The present invention relates to an improvement in an input method for reading and inputting characters and figures.

文字と図形とが混在して記録された用紙を読取って入力
する方式の簡略化が望まれている。
It is desired to simplify the method of reading and inputting paper on which a mixture of characters and figures are recorded.

〔従来の技術〕[Conventional technology]

従来例を図によって説明する。第4図は従来例を説明す
るブロック図である。
A conventional example will be explained using figures. FIG. 4 is a block diagram illustrating a conventional example.

文字、図形を人力する方式として、従来は、タブレット
盤1を用いる方法が用いられている。タブシソ1〜盤1
には文字域2と図形域3とが設けられている。文字入力
の際は、文字域2の樹形表記4内に1文字づつ文字を書
くことにより、処理装置5が判別処理を行い、出力装置
(表示装置、プリンタ等)6に文字が出力される。一方
図形入力の際は、図形域3に所望の図形を描くことによ
り、図形情I[3の人力が行われる。
Conventionally, a method using a tablet board 1 has been used to manually create characters and graphics. Tabshiso 1 ~ Board 1
A character area 2 and a graphic area 3 are provided. When inputting characters, by writing one character at a time in the tree notation 4 of the character area 2, the processing device 5 performs a discrimination process, and the characters are output to the output device (display device, printer, etc.) 6. . On the other hand, when inputting a figure, by drawing a desired figure in the figure area 3, the figure information I [3 is manually inputted.

入力用具としては、スクイラス或いは特殊ペンを用いる
方法があり、またタブレット盤1に、直接文字、図形を
書く (又は描()方法、或いは半透明の用紙をタブレ
ット盤1の十に乗せて、その上から文字、図形を書く 
(又は描く)方法等が採用されている。
As an input tool, you can use a stylus or a special pen, or you can write (or draw) characters or figures directly on the tablet board 1, or you can place a translucent paper on the top of the tablet board 1 and write it. Write letters and shapes from above
(or drawing) method etc. is adopted.

〔発明が解決しようとする問題点1 以上で明らかなように、文字及び図形を人力する従来方
式では、タブレット盤を必要とし、また特殊な入力用具
を必要とするという問題点があった。
[Problem to be Solved by the Invention 1] As is clear from the above, the conventional method of manually inputting characters and figures has the problem of requiring a tablet board and special input tools.

〔問題点を解決するための手段〕[Means for solving problems]

用紙7に記録された情報を、読取部8によって読取り記
憶部25に格納するシステムにおいて、桝目11を形成
する内枠17及び該内枠17の位置を示すマーク9及び
91乃至94が印刷された用紙7と、 読取部8による入力情報12を格納するイメージ記憶部
13と、 入力情報12内の四隅のマー°り91乃至94のイメー
ジ情報により検出された位置情1[115を出力する位
置検出部14と、 位置情報15に基づき内枠17の位置を示す位置情報j
8を算出する処理部16と、 イメージ記憶部13内の、位置情報18で指定されるイ
メージデータ21が、内枠17内の位置に在るデータで
あるが否かを判別し、内枠17の範囲を越えるデータの
ときは、該イメージデータ21を記10部25へ送り、
内枠17内のデータのときは変換部20を起動する判別
部19と、イメージデータ21と文字パターン23とを
比較し、一致したとき文字コード24を出方する変換部
20と、 文字パターン23が格納された文字パターン部とを備え
ている。
In a system in which information recorded on paper 7 is read by a reading unit 8 and stored in a storage unit 25, an inner frame 17 forming a square 11 and marks 9 and 91 to 94 indicating the position of the inner frame 17 are printed. A paper 7, an image storage unit 13 that stores the input information 12 from the reading unit 8, and a position detection unit that outputs position information 1 [115] detected based on the image information of the four corner marks 91 to 94 in the input information 12. 14, and position information j indicating the position of the inner frame 17 based on the position information 15.
8, and determines whether the image data 21 specified by the position information 18 in the image storage unit 13 is located within the inner frame 17, and If the data exceeds the range of , send the image data 21 to section 10 25,
A determining unit 19 that starts the converting unit 20 when the data is within the inner frame 17; a converting unit 20 that compares the image data 21 and the character pattern 23 and outputs a character code 24 when they match; and the character pattern 23. and a character pattern section in which are stored.

〔作用〕[Effect]

読取部8により用紙7を読取り、マーク9及び91乃至
94のマークによるイメージ情報から算21が内枠17
の位置内に在るときは、文字コーl′24に変換し、あ
るいは該イメージ情?821が内枠17を越え隣なる内
枠17に及ぶときは、イメージデータ21のまま記憶部
25に格納する。
The reading unit 8 reads the paper 7 and calculates 21 from the image information from the marks 9 and 91 to 94 in the inner frame 17.
If it is within the position, convert it to the character call l'24, or write the image information? When the image data 821 exceeds the inner frame 17 and extends to the adjacent inner frame 17, the image data 21 is stored in the storage unit 25 as is.

〔実施例〕〔Example〕

以下、本発明を図面によって説明する。第2図は本発明
の一実施例を説明するブロック図、第3図は本発明の一
実施例を説明する用紙の平面図である。
Hereinafter, the present invention will be explained with reference to the drawings. FIG. 2 is a block diagram for explaining one embodiment of the present invention, and FIG. 3 is a plan view of a sheet for explaining one embodiment of the present invention.

第2図に示す入力方式は、予め用紙7上に書か用紙7は
、第3図(alに示す如(桝目11を形成する内枠17
が、例えば青色(右1頃斜の斜線で示が印刷されている
。このうちマーク91乃至94しJ、用紙7の四隅の位
置検出用であり、マーク9は、内枠17の位置検出用で
ある。なお第3図(blは、用紙7の部分拡大図であり
、境界線10i11内枠Ii’iJ志の境界をボし、ま
たスペースSはマーク9間の間隔を示すものである。
In the input method shown in FIG. 2, the paper 7 is written on the paper 7 in advance, and the paper 7 is inserted into the inner frame 17 forming the squares 11 as shown in FIG. 3 (al).
is, for example, blue (marks 91 to 94 are printed with diagonal lines on the right). Marks 91 to 94 are for detecting the position of the four corners of the paper 7, and mark 9 is for detecting the position of the inner frame 17. In addition, FIG. 3 (bl is a partially enlarged view of the sheet 7, and the boundary line 10i11 borders the inner frame Ii'iJ), and the space S indicates the interval between the marks 9.

文字を入力する場合は、内枠17内に、それぞれ1文字
を記入する。また図形を入力する場合は、内枠17の各
桝目に亘って図形を描く。換言すれば、図形入力の場合
は、内枠17を意識せずに図形を描くことになる。
When entering characters, write one character in each of the inner frames 17. When inputting a figure, the figure is drawn across each square of the inner frame 17. In other words, when inputting a figure, the figure is drawn without being aware of the inner frame 17.

L記の方法で、用紙7に記録された文字、図形の読取り
入力を第2図によって説明する。
The reading and inputting of characters and figures recorded on the paper 7 using the method described in L will be explained with reference to FIG.

■読取部8に用紙7を読をらせると、読俄られた入力情
報(1゛ノドイメージ情報)12は、イメージ記憶部1
3に格納される。なおこのとき、用紙7に印fullさ
れていたマークのイメージ情報も、同時に読取・格納さ
れるが、内枠17は青色であるので、読取られない ■位置検出部14は、第3図(il+に示す用紙7の左
十隅のマーク91に相当するマークイメージ情報を基点
として、イメージ記憶部13内を、ビット毎に調べて、
マーク91乃至94に相当する位置情報15を検出する
■When the reading unit 8 reads the paper 7, the read input information (1゛ throat image information) 12 is stored in the image storage unit 1.
3. At this time, the image information of the mark fully stamped on the paper 7 is also read and stored at the same time, but since the inner frame 17 is blue, it is not read. Based on the mark image information corresponding to the mark 91 at the tenth left corner of the paper 7 shown in FIG.
Position information 15 corresponding to marks 91 to 94 is detected.

■処理部16は、この位置情報15により、内枠17の
位置情報18を算出し、これを判別部19へ送る。なお
内枠とは、第3図[b)に示す如く桝目11を形成する
樹形部分である。
(2) The processing section 16 calculates the position information 18 of the inner frame 17 based on the position information 15, and sends this to the determination section 19. Note that the inner frame is a tree-shaped portion that forms the squares 11 as shown in FIG. 3 [b].

■判別部19は、イメージ記憶部13内にアクセスし、
与えられた位置情報18によるアドレス、即ち第3図(
blに示す如く、内枠17と、境界線10との間を、ビ
ット華位で走査して、イメージ情報の有無を調べる。な
お境界線10は、第3図+11)に示すマーク9間のス
ペースSの中心位置がら算出する。イメージ情報が検出
されなかったときは、位置情報18を、変換部20に通
知する。
■The determination unit 19 accesses the image storage unit 13,
The address based on the given location information 18, that is, the address shown in FIG. 3 (
As shown in bl, the space between the inner frame 17 and the boundary line 10 is scanned in bit order to check the presence or absence of image information. Note that the boundary line 10 is calculated from the center position of the space S between the marks 9 shown in FIG. 3+11). When no image information is detected, the position information 18 is notified to the conversion unit 20.

■変換部20は、該位置情報18によるアドレスのイメ
ージデータ21を、イメージ記憶部13から取出し、こ
れを、文字パターン部22の文字パターンデータ23と
比較し、一致したとき、これに応じた文字コード24を
出力する。なお文字として解読不能なものは、イメージ
データ21のままで出力する。
(2) The conversion unit 20 takes out the image data 21 of the address based on the position information 18 from the image storage unit 13, compares it with the character pattern data 23 of the character pattern unit 22, and when they match, the corresponding character Output code 24. Note that characters that cannot be read as characters are output as image data 21 as is.

■文字コード24 L:I記憶部(データハソファ)2
5に格納される。
■Character code 24 L: I storage section (data storage) 2
It is stored in 5.

■前記■項における判別処理によって、内枠17と境界
線10との間に、イメージ情報が認られたときは、その
アドレスのイメージデータ21、をそのまま記憶部25
へ転送する。
■If image information is found between the inner frame 17 and the boundary line 10 through the determination process in the above paragraph (■), the image data 21 at that address is stored in the storage unit 25 as is.
Transfer to.

以上の処理により、読取部8によって用紙7の入力情報
12が読取られた際、内枠17内の情報は文字コード2
4に変換され、その他は図形情報と見放され、図形イメ
ージデータ21のまま、記憶部25に格納される。
Through the above processing, when the input information 12 on the paper 7 is read by the reading section 8, the information in the inner frame 17 is changed to the character code 2.
4, and the rest are ignored as graphic information and stored in the storage unit 25 as graphic image data 21.

〔発明の効果〕〔Effect of the invention〕

本発明は、図形を含む手書き文書の読取りを容易とし、
また読取情報が圧縮されるので、記f#部の容量を削減
し得ると共に、該読取情報の転送効率を向上するなどの
効果をもたらす利点を有する。
The present invention facilitates the reading of handwritten documents including graphics,
Furthermore, since the read information is compressed, the capacity of the storage f# section can be reduced, and the transfer efficiency of the read information can be improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理ブロック図、 第2図は本発明の一実施例を説明するブロック図、 第3図は本発明の一実施例を説明するフローチャート、 第4図は従来例を説明するブロック図、図において、 1はタブレット盤、2は文字域、3は図形域、4は樹形
表記、5ば処理装置、6は出力装置、7は用紙、8は読
取部、9,91乃至94はマーク、10は境界線、11
は桝目、12は人力情報、13はイメージ記憶部、14
は位置検出部、15.18は位置情報、16は処理部、
17は内枠、I9は判別部、20は変換部、2Iはイメ
ージ情報、22は文字パターン部、23は文字パターン
、24は文字コード、25は記憶部を示す。
Fig. 1 is a block diagram of the principle of the present invention, Fig. 2 is a block diagram explaining an embodiment of the present invention, Fig. 3 is a flowchart explaining an embodiment of the present invention, and Fig. 4 explains a conventional example. In the block diagram, 1 is a tablet board, 2 is a character area, 3 is a graphic area, 4 is a tree notation, 5 is a processing device, 6 is an output device, 7 is paper, 8 is a reading unit, 9, 91 94 is a mark, 10 is a boundary line, 11
is the square, 12 is the human power information, 13 is the image storage section, 14
is a position detection unit, 15.18 is position information, 16 is a processing unit,
17 is an inner frame, I9 is a discrimination section, 20 is a conversion section, 2I is image information, 22 is a character pattern section, 23 is a character pattern, 24 is a character code, and 25 is a storage section.

Claims (1)

【特許請求の範囲】 用紙7に記録された情報を、読取部8によって読取り記
憶部25に格納するシステムにおいて、桝目11を形成
する内枠17及び該内枠17の位置を示すマーク9及び
91乃至94が印刷された用紙7と、 読取部8による入力情報12内の四隅のマーク91乃至
94のイメージ情報により検出された位置情報15を出
力する位置検出部14と、 位置情報で指定される位置のイメージデータ21が、内
枠17内の位置に在るデータであるか否かを判別し、内
枠17の範囲を越えるデータのときは、該イメージデー
タ21を記憶部25へ送り、内枠17内のデータのとき
は、変換部20を起動する判別部19と、 イメージデータ21を文字コード24に変換出力する変
換部20と、 を備え、 読取部8により用紙7を読取り、マークによるイメージ
情報から算出された位置に応じて、イメージ情報21を
判別し、該イメージ情報21が内枠17の位置内に在る
ときは、文字コード24に変換し、あるいは該イメージ
情報21が内枠17を越え隣なる内枠17に及ぶときは
、イメージデータ21のまま記憶部25に格納すること
を特徴とする入力方式。
[Claims] In a system in which information recorded on a sheet of paper 7 is read by a reading unit 8 and stored in a storage unit 25, an inner frame 17 forming a square 11 and marks 9 and 91 indicating the position of the inner frame 17 are provided. a paper 7 on which marks 91 to 94 are printed; a position detection unit 14 that outputs position information 15 detected from the image information of the four corner marks 91 to 94 in the input information 12 by the reading unit 8; It is determined whether the image data 21 of the position is data at a position within the inner frame 17, and if the data exceeds the range of the inner frame 17, the image data 21 is sent to the storage section 25 and stored within the inner frame 17. When the data is in the frame 17, the reading section 8 reads the paper 7, and includes a determining section 19 that starts the converting section 20, and a converting section 20 that converts and outputs the image data 21 to a character code 24. The image information 21 is determined according to the position calculated from the image information, and if the image information 21 is within the position of the inner frame 17, it is converted to a character code 24, or the image information 21 is When the image data exceeds 17 and reaches the adjacent inner frame 17, the input method stores the image data 21 as it is in the storage section 25.
JP60176758A 1985-08-09 1985-08-09 Inputting system Pending JPS6235988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60176758A JPS6235988A (en) 1985-08-09 1985-08-09 Inputting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60176758A JPS6235988A (en) 1985-08-09 1985-08-09 Inputting system

Publications (1)

Publication Number Publication Date
JPS6235988A true JPS6235988A (en) 1987-02-16

Family

ID=16019297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60176758A Pending JPS6235988A (en) 1985-08-09 1985-08-09 Inputting system

Country Status (1)

Country Link
JP (1) JPS6235988A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02297687A (en) * 1989-05-12 1990-12-10 Oki Electric Ind Co Ltd Character recognizing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02297687A (en) * 1989-05-12 1990-12-10 Oki Electric Ind Co Ltd Character recognizing device

Similar Documents

Publication Publication Date Title
JP3604483B2 (en) Document information management system and document information management method
JPS6235988A (en) Inputting system
JPH08161473A (en) Tag information processing unit
WO2001015429A1 (en) Method for converting drawing to electronic data
JPH0782530B2 (en) Handwriting recognition device
JPH0388085A (en) Optical character reader
JP2578747B2 (en) Handwritten information processing method
JPS6170584A (en) Adaptive scrolling system for document
JP2003157407A (en) Ocr form, form issuing system and form reading system
JPH03214287A (en) Character recognizing device
JPH06195330A (en) Document editing device having recognizing function for format information
JPH0844887A (en) Document preparing device
JPH01151876A (en) Printer
JPS5866149A (en) Word processor
JPS6385593A (en) Word processor
JPH0474257A (en) Word processing system
JPS63250687A (en) Document data editing apparatus
JPS63182770A (en) Document production/output device
JPH02103193A (en) Method for reading card and code data thereof
JPH0464188A (en) Method and device for generating document format
JPS62231389A (en) Character recognizing device
JPS6049433A (en) Registration system of external character pattern
JPS638988A (en) Character reader
JPS62106579A (en) Image processing system
JPS638875A (en) Image processor