JPH0481071A - Digital copying device - Google Patents

Digital copying device

Info

Publication number
JPH0481071A
JPH0481071A JP2192067A JP19206790A JPH0481071A JP H0481071 A JPH0481071 A JP H0481071A JP 2192067 A JP2192067 A JP 2192067A JP 19206790 A JP19206790 A JP 19206790A JP H0481071 A JPH0481071 A JP H0481071A
Authority
JP
Japan
Prior art keywords
image
information
recognized
digital copying
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2192067A
Other languages
Japanese (ja)
Inventor
Junichi Ota
太田 準一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2192067A priority Critical patent/JPH0481071A/en
Publication of JPH0481071A publication Critical patent/JPH0481071A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Or Security For Electrophotography (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PURPOSE:To obtain an editing function, whose operation is comparatively easy, to make a fair copy at high level by writing recognized graphic information, information of connection between graphics and separated character information into a memory means as output pictures. CONSTITUTION:The picture information of a bit map inputted by a picture reading means (image scanner) 100 is written in a memory (means) 330 and afterwards divided into characters and graphics. The information divided as graphics is encoded for each small pattern such as a line segment, etc., and converted to vector information. Continuously, the relation of connection between recognized graphics is recognized, and the recognized graphic information, the information of connection between graphics and the information of first separated characters is prepared as output picture information. Thus, an output picture replaced with a registered clear graphic pattern and made into the fair copy is generated.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、例えば手書き図面の清書などに利用できるデ
ジタル複写装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a digital copying device that can be used, for example, for making fair copies of handwritten drawings.

[従来の技術] 図面を作成する場合、きれいな図形や文字を描くには、
定規などを使用しなければならないので非常に時間がか
かる。従って1作図時間を短縮したい時には、手書きで
図面を作成することになる。
[Conventional technology] When creating drawings, in order to draw beautiful shapes and characters,
It is very time consuming as you have to use rulers etc. Therefore, if you want to shorten the time required to create one drawing, you will need to create the drawing by hand.

この種の手書き図面をきれいに書き直すには、専門のト
レーサを使う場合が多いが、この作業は手作業なので時
間がかかるし、コストも高い。
Professional tracers are often used to cleanly redraw handwritten drawings of this type, but this work is manual, time consuming, and expensive.

比較的大型のコンピュータシステムを有する部門では、
手書き図面の画像情報をデジタイザやイメージスキャナ
で読取って、その画像をCADシステムに入力し、編集
等を行なって清書する場合もある。しかしこの場合でも
、画像の入力や編集にかなりの時間を要するし、これを
扱うにはコンピュータを操作するための専門知識が必要
であり、しかも高価なシステムが必要である。
In departments with relatively large computer systems,
In some cases, the image information of a handwritten drawing is read with a digitizer or an image scanner, the image is input into a CAD system, and the drawing is edited and printed. However, even in this case, it takes a considerable amount of time to input and edit images, requires specialized knowledge in operating computers, and requires an expensive system.

[発明が解決しようとする課題] デジタル複写機を利用する場合、原稿上の画像全体の移
動、領域の切取り1重ね合わせなどの編集を施して図面
のハードコピーを出力することが可能である。しかし、
図面の清書のような細かい編集処理はできない。また1
例えば図面中の画像の中で文字だけを消したい場合があ
るが、このような操作も従来の複写機ではできない。
[Problems to be Solved by the Invention] When using a digital copying machine, it is possible to output a hard copy of a drawing after performing editing such as moving the entire image on the document, cutting out areas, and overlapping the images. but,
Detailed editing processes such as fine-printing drawings cannot be performed. Also 1
For example, you may want to erase only text from an image in a drawing, but this type of operation is not possible with conventional copying machines.

そこで本発明においては、比較的操作が簡単で、清書な
どの高度な編集機能を備えるデジタル複写装置を安価に
提供することを課題とする。
Therefore, it is an object of the present invention to provide a digital copying device that is relatively easy to operate and has advanced editing functions such as fair copying at a low cost.

[課゛題を解決するための手段] 上記課題を解決するために、本発明においては、原稿画
像を微小画素情報の集合として読取る画像読取手段、該
手段の読取った情報を蓄積するメモリ手段、及び該メモ
リ手段に蓄積された画像情報を出力する出力手段、を含
むデジタル複写装置(とおいて:前記メモリ手段に蓄積
された入力画像情報を1文字左図形とに分離する文字/
図形分離手段;分離された図形の情報を線分等の各パタ
ーン毎に符号化する符号化手段:符号化された各パター
ン間の接続関係、パターン数、及び角度に基づいて図形
を認識する図形認識手段:認識された複数の図形の接続
関係を認識する接続認識手段:及び認識された図形情報
9図形間の接続情報、及び分離された文字情報を出力画
像として前記メモリ手段に書込む、出力画像作成手段、
を設ける。
[Means for Solving the Problems] In order to solve the above problems, the present invention provides an image reading means for reading a document image as a set of minute pixel information, a memory means for storing the information read by the means, and an output means for outputting the image information stored in the memory means;
Figure separation means: Encoding means that encodes information on separated figures for each pattern such as a line segment: A figure that recognizes figures based on the connection relationships between encoded patterns, the number of patterns, and angles. Recognition means: A connection recognition means for recognizing connection relationships between a plurality of recognized figures; and the recognized figure information; connection information between nine figures; and separated character information, written in the memory means as an output image; output. image creation means;
will be established.

[作用] 本発明によれば、画像読取手段(例えばイメージスキャ
ナ)によって入力されるヒツトマツプの画像情報は、メ
モリ手段に書込まれた後、文字と図形とに区分される。
[Operation] According to the present invention, image information of a human map input by an image reading means (for example, an image scanner) is written into a memory means and then classified into characters and figures.

図形として区分された情報は、線分等の小パターン毎に
符号化され、いわゆるベクトル情報(例えば始点の座標
と終点の座標とで線分パターンを示す)に変換される。
Information classified as figures is encoded for each small pattern such as a line segment, and converted into so-called vector information (for example, a line segment pattern is indicated by the coordinates of a starting point and the coordinates of an ending point).

更に、この符号化情報のパターン間の接続関係、バタン
数、及び角度に基づいてそれらが示す図形が認識される
。続いて、認識された図形同志の接続関係が認識され、
認識された図形情報9図形間の接続情報、及び最初に分
離された文字の情報が、出力画像情報として作成される
Furthermore, the shapes represented by the patterns of the encoded information are recognized based on the connection relationships, number of clicks, and angles between the patterns of the encoded information. Next, the connection relationships between the recognized shapes are recognized,
Recognized graphic information 9 Connection information between the graphics and information on the first separated characters are created as output image information.

例えば1手書き図面を原稿画像として入力する場合、入
力画像中の図形を構成する線分等は、曲がり、傾き、は
み出しなどを生じている場合が多い。しかし、それらの
線分が構成する図形を予め登録しである特定の図形パダ
ーンと同一であると認識することによって、変形した入
力図形バタンを、登録されたきれいな図形パターンによ
って置き換えることができ、それによって清書された出
力画像を生成する二とができる。
For example, when a handwritten drawing is input as a manuscript image, line segments and the like constituting figures in the input image are often curved, tilted, protruded, and the like. However, by registering the shapes made up of those line segments in advance and recognizing them as being the same as a specific shape pattern, it is possible to replace the deformed input shape button with the registered beautiful shape pattern. It is possible to generate a clean-cut output image using the following method.

文字情報と図形情報とを予め分離しておくことによって
、出力画像への文字の出力の有無を簡星に切換える二と
ができる。
By separating character information and graphic information in advance, it is possible to switch whether or not characters are output to an output image.

ところで1図形の認識は非常に難しいので、図形の誤認
識を生じる場合はよくある。誤認識を生じた画像をその
まま出力すると、入力された原稿画像と清書図面の内容
とが異なるので、清書図面を使用できない。そこで後述
する本発明の好ましい実施例においては、キーボードか
らの入力、マークベンによる領域指定、又は座標入力装
置による位置指定によって特定される図形に対し、認識
図形の修正を可能にする。この修正機能によって、認識
の難しい手書き図面の場合であっても、正しい清書図面
を出力可能になる。
However, since it is very difficult to recognize a single figure, erroneous recognition of figures often occurs. If the erroneously recognized image is output as is, the contents of the input manuscript image and the fair drawing will be different, so the fair drawing cannot be used. Therefore, in a preferred embodiment of the present invention, which will be described later, it is possible to modify a recognized figure for a figure specified by input from a keyboard, area specification using a mark ben, or position specification using a coordinate input device. This correction function makes it possible to output correct clean-cut drawings even in the case of handwritten drawings that are difficult to recognize.

本発明の他の目的及び特徴は、以下の、図面を参興した
実施例説明により明らかになろう。
Other objects and features of the present invention will become clear from the following description of embodiments with reference to the drawings.

[実施例] 第1図に、本発明を実施する一形式のテンダル複写機の
機構部の構成を示す。第1図を参照すると、二のデジタ
ル複写機は、大きく分けて上部のイメージスキャナ10
0とその下に配置されたレザプリンタ200で構成され
ている。
[Embodiment] FIG. 1 shows the structure of a mechanical section of a type of tendall copying machine that implements the present invention. Referring to FIG. 1, the second digital copying machine is roughly divided into an upper image scanner 10.
0 and a laser printer 200 placed below it.

イメージスキャナ100の最上部に、原稿を載置するコ
ンタクトガラスが配置されており、その下方に光学走査
系が設けられている。原稿は、光学走査系の露光ランプ
1によって露光され、その反射光、つまり画像光が光学
走査系に備わった各種ミラー及びレンズ2を通って受光
部3に結像される。この受光部3には、後述する一次元
CCDイメージセンサが設けられている。光学走査系は
、機械的な駆動系によって図面の左右方向に駆動される
ので、原稿面の各部の露光によって得られる画像光が順
次に、つまり1ライン毎にイメージセンサに読取られる
A contact glass on which a document is placed is placed at the top of the image scanner 100, and an optical scanning system is provided below it. A document is exposed to light by an exposure lamp 1 of an optical scanning system, and its reflected light, that is, image light, passes through various mirrors and lenses 2 provided in the optical scanning system and forms an image on a light receiving section 3. This light receiving section 3 is provided with a one-dimensional CCD image sensor, which will be described later. Since the optical scanning system is driven by a mechanical drive system in the horizontal direction of the drawing, the image light obtained by exposing each part of the document surface is sequentially read by the image sensor, line by line.

イメージセンサによって読取られた画像情報は。The image information read by the image sensor.

後述する処理によって出力画像に変換され、レザプリン
タ200の書込装置4から出力されるレザ光を変調する
。画像情報によって変調されるレーザ光は、書込用の光
学系を通って、感光体トラム5の表面に結像される。感
光体トラム5の表面は、予めメインチャージャ6によっ
て全面が均に所定の高電位に帯電しており、画像光の照
射を受けると、光強度に応じて電位が変化し、画像に対
応する電位分布、つまり静電潜像が形成される。
The laser light is converted into an output image through processing described later and is output from the writing device 4 of the laser printer 200, which modulates the laser light. The laser beam modulated by the image information passes through a writing optical system and is imaged onto the surface of the photoreceptor tram 5. The entire surface of the photoreceptor tram 5 is uniformly charged to a predetermined high potential by the main charger 6 in advance, and when it is irradiated with image light, the potential changes depending on the light intensity, and the potential corresponding to the image is changed. distribution, that is, an electrostatic latent image is formed.

感光体ドラム5に形成された静電潜像は、それが現像ユ
ニフト7を通過する時にトナーの吸着によって可視化さ
れ、トナー像を形成する。
The electrostatic latent image formed on the photoreceptor drum 5 is made visible by adsorption of toner when it passes through the developing unit 7, forming a toner image.

一方、給紙カセット12又は13のうち選択されたもの
から記録紙が繰り出され、その記録紙は感光体ドラム5
上のトナー像の形成タイミングに同期して感光体ドラム
5の表面に重なるように送り込まれる。続いて、転写チ
ャージャの付勢により、感光体ドラム5上のトナー像は
記録紙に転写される。更に1分離チャージャ9の付勢に
よって、トナー像が転写された記録紙は感光体トラム5
から分離して定着ユニット14に向かう。記録紙上のト
ナー像は、定着ユニット14によって記録紙に定着され
、その後、記録紙は複写機の外に排出される。
On the other hand, recording paper is fed out from the paper feed cassette 12 or 13 selected, and the recording paper is fed to the photoreceptor drum 5.
The toner image is fed so as to overlap the surface of the photosensitive drum 5 in synchronization with the formation timing of the upper toner image. Subsequently, the toner image on the photosensitive drum 5 is transferred onto the recording paper by the urging of the transfer charger. Furthermore, by the energization of the charger 9 for one minute, the recording paper onto which the toner image has been transferred is transferred to the photoreceptor tram 5.
The image is separated from the camera and goes to the fixing unit 14. The toner image on the recording paper is fixed onto the recording paper by the fixing unit 14, and then the recording paper is ejected from the copying machine.

画像の転写及び記録紙の分離が終了した後、感光体トラ
ム5の表面は、クリーニングユニット10によってクリ
ーニングされ、次回の画像形成に備える。
After the image transfer and recording paper separation are completed, the surface of the photoreceptor tram 5 is cleaned by the cleaning unit 10 in preparation for the next image formation.

第2図に、第1図のデジタル複写機の電装部の構成を示
す。第2図を参昭して説明する。イメジスキャナ100
においては、CCDイメイメージセンサ0によって読取
られたヒントマツプ形式の原稿画像の信号は、A/D変
換器120によってデジタル信号(この例では8ヒツト
)に変換された後、シェーディング補正ユニット130
によって濃度レベルのばらつきに関する補正を受け。
FIG. 2 shows the configuration of the electrical equipment of the digital copying machine shown in FIG. 1. This will be explained with reference to FIG. image scanner 100
, the signal of the original image in the hint map format read by the CCD image sensor 0 is converted into a digital signal (8 signals in this example) by the A/D converter 120 and then sent to the shading correction unit 130.
Corrections were made for density level variations.

メモリユニット330に記憶される。メモリユニット3
30は1画像の1フレ一ム分の記憶領域の他に、編集用
の記憶領域や出力画像用の記憶領域を備えている。編集
ユニット340は、後述するように、メモリユニット3
30上の入力画像情報を処理し、出力画像情報を生成す
る。この例では様々な図形についてその特徴パラメータ
を登録した図形辞書350が備わっており、編集ユニッ
ト340はその辞書を利用して画像情報中の図形を認識
する。
It is stored in memory unit 330. Memory unit 3
30 includes a storage area for one frame of one image, as well as an editing storage area and an output image storage area. The editing unit 340 includes the memory unit 3 as described below.
The input image information on 30 is processed to generate output image information. In this example, a figure dictionary 350 is provided in which characteristic parameters of various figures are registered, and the editing unit 340 uses this dictionary to recognize figures in image information.

メモリユニット330上で生成された出力画像情報は、
各画素の黒/白に対応する二値情報の形でレーザプリン
タ200に印加され、バンファ220を通り、LDドラ
イバ230を通ってレーザダイオード240に付勢信号
として印加される。
The output image information generated on the memory unit 330 is
The signal is applied to the laser printer 200 in the form of binary information corresponding to black/white of each pixel, passes through the bumper 220, passes through the LD driver 230, and is applied as an energizing signal to the laser diode 240.

従って、出力画像情報に応じて変調されたレーザ光をレ
ーザダイオード240が出力する。このレザ光が書込装
置4から出力され、書込用の光学走査系を介して感光体
ドラム5の表面に照射される。
Therefore, the laser diode 240 outputs laser light modulated according to the output image information. This laser light is output from the writing device 4 and is irradiated onto the surface of the photosensitive drum 5 via a writing optical scanning system.

オペレータからの指示は、この複写機の上面に配置され
た操作ボード310からのキー人力によって実施される
。メイン制御ユニット320は、操作ポート310上の
各種表示を制御するとともに、操作ホード310からの
キー人力を読取って読取の開始1編集処理の内容1画像
のノ\−トコピ開始などを各部に指示する。
Instructions from the operator are carried out by keystrokes from an operation board 310 arranged on the top of the copying machine. The main control unit 320 controls various displays on the operation port 310, and also reads key input from the operation port 310 and instructs each section to start reading, 1 content of editing process, 1 image start copying, etc. .

第1図の複写機の編集処理を主体とした動作の内容を第
3図に示す。第3図の各処理についてまず概略を説明す
る。
FIG. 3 shows the contents of the operation of the copying machine shown in FIG. 1, mainly editing processing. First, an outline of each process shown in FIG. 3 will be explained.

ステップ51では、原稿画像をイメージスキャナ100
によって読取り、読んだ画像データを各画素毎の黒/白
に対応する二値情報に変換してメモリユニット330に
記憶する。次のステップ52では、メモリユニット33
0に記憶された画像データを処理し、画像データの中に
含まれる文字成分と図形成分とを分離する。例えば、第
4a図に示すような画像を原稿画像として読込んだ場合
には、ステップ52の処理によって、第4b図に示す図
形画像と第4c図に示す文字画像とに分離された2組の
画像データが得られる。
In step 51, the original image is transferred to the image scanner 100.
The read image data is converted into binary information corresponding to black/white for each pixel and stored in the memory unit 330. In the next step 52, the memory unit 33
The image data stored in 0 is processed to separate character components and graphic components contained in the image data. For example, when an image as shown in FIG. 4a is read as a manuscript image, the process of step 52 separates two sets of graphic images shown in FIG. 4b and character images shown in FIG. 4c. Image data is obtained.

次のステップ53では、分離された図形成分の画像デー
タを処理し、ベクトル化データに変換する。即ち、連続
性のある画素群のパターンをそれに近似した線分パダー
/として認識し、各線分を示す一連の符号、つまり始点
と終点の各座標(x。
In the next step 53, the separated graphic component image data is processed and converted into vectorized data. That is, a continuous pixel group pattern is recognized as a line segment padder that approximates it, and a series of codes indicating each line segment, that is, each coordinate (x) of the starting point and ending point.

y)データを得る。例えば第4b図の図形画像を処理す
ると、曲がりのある線分が一つの直線として認識される
ので、第4d図に示すように、線分の曲がりが修正され
た画像が生成される。
y) Obtain data. For example, when the graphic image shown in FIG. 4b is processed, a curved line segment is recognized as a straight line, so an image in which the curve of the line segment is corrected is generated as shown in FIG. 4d.

次のステップ54では、多数の線分を示すベクトル化デ
ータを処理し、各線分の端点間の接続状態(座標間の距
離)に応じて関連のある線分をグループ化し、各々のグ
ループについて線分の接続関係(線分間の角度、線分の
数等)から図形の形状を認識する。第4d図のベクトル
化データを処理すると、例えば第4e図に示す画像成分
が図形として認識され、第4f図に示す残った画像成分
(線分情報)は図形間の接続線や矢印である。
In the next step 54, the vectorized data representing a large number of line segments is processed, related line segments are grouped according to the connection status (distance between coordinates) between the end points of each line segment, and the line segments for each group are Recognize the shape of a figure from the connection relationship between the minutes (angle between line segments, number of line segments, etc.). When the vectorized data shown in Fig. 4d is processed, the image components shown in Fig. 4e, for example, are recognized as figures, and the remaining image components (line segment information) shown in Fig. 4f are connection lines and arrows between figures.

続くステップ55では、ステップ54で認識されなかっ
た残った線分と、認識された図形との接続関係や線分の
長さに基づいて、各線分を第4g図に示す接続線や第4
h図に示す矢印として各々認識し分類する。
In the following step 55, each line segment is converted into a connecting line shown in FIG.
Each is recognized and classified as an arrow shown in figure h.

次のステップ56では、オペレータによるキ操作により
予め指定されたモードに従って、出力画像を選択する。
In the next step 56, an output image is selected according to a mode specified in advance by a key operation by the operator.

出力画像モードには、文字を含むモードと文字を削除す
るモードとが設けられており、文字を含むモートが指定
されている時には、ステップ52で分離された文字成分
の画像情報を、メモリユニット330上の出力画像領域
に書込む。
The output image mode includes a mode that includes characters and a mode that deletes characters. When a mote that includes characters is specified, the image information of the character components separated in step 52 is stored in the memory unit 330. Write to the output image area above.

文字を含まないモードの時には1文字酸分の画像情報は
出力画像領域に書込まない。
When the mode does not include characters, image information for one character is not written to the output image area.

続くステップ57では、認識された図形や接続線等のベ
クトルデータを、水平方向及び垂直方向に整列(線分の
傾き、端点のはみ出し等を修正)し、矢印の開き角度や
長さを揃えた後、メモリユニット330上の出力画像領
域にビットマツプ情報に変換して書込む。これによって
、出力画像領域には、第41図又は第4j図に示すよう
な出力画像情報が生成される。
In the subsequent step 57, vector data such as recognized figures and connection lines are aligned horizontally and vertically (correcting the slope of line segments, protruding end points, etc.), and the opening angles and lengths of arrows are aligned. Thereafter, it is converted into bitmap information and written into the output image area on the memory unit 330. As a result, output image information as shown in FIG. 41 or FIG. 4j is generated in the output image area.

ステップ58では、ステップ57までの処理で作成され
た出力画像の情報をレーザプリンタ20Oに出力し、修
正された画像のハードコピーを作成する。これによって
、手書き原稿図面の清書が完了する。
In step 58, the information on the output image created in the processes up to step 57 is output to the laser printer 20O to create a hard copy of the corrected image. This completes the fair copying of the handwritten manuscript drawing.

第3図では処理の概略だけが示されているが実際にはス
テップ54において、図形の誤認識が生じる可能性があ
るので、誤認識があった場合には、修正モートの処理が
実行される。プリンタ200から出力された出力画像の
ハードコピー上で図形のまちがいが見つかった場合には
、操作ボード310上の修正モードキーを押下すること
によって修正モードに入る。例えば、第4a図に示す入
力画像に対して第5a図に示す画像が出力された場合に
は、図形の誤認識があるので修正モードを実行する必要
がある。修正モードでは、まず最初に、第5b図に示す
ように操作ボード310の表示部に図形の位置を指定す
るようにメツセージが表示されるので、こ二で、位置を
特定する番号をテンキーから入力する。この実施例では
、左から右に向かって、及び上から下に向かって順番に
各図形に番号が付けられるので、例えば第5b図の誤認
識図形は4番の位置にあり、その番号をテンキーから入
力する3次に第5c図に示すように操作ボート310の
表示部に正しい図形を特定する番号を指定するようにメ
ツセージが表示されるので、正しい図形に予め割り当て
られた番号をテンキーから入力する。この例では、横長
の長方形が図形の1番に予め登録されているので、テン
キーから1を入力すると、誤認識された6角形の図形が
、第5d図に示すように横長の長方向の図形に置き換え
られる。この後で修正モードを終了すると、修正された
情報に基づいて再び出力画像がメモリユニット330上
に作成され、この画像がレーザプリンタ200によって
ハードコピーされる。
Although only the outline of the process is shown in FIG. 3, in reality there is a possibility that the figure may be misrecognized in step 54, so if there is a misrecognition, correction mote processing is executed. . If a graphic error is found on the hard copy of the output image output from the printer 200, the correction mode is entered by pressing the correction mode key on the operation board 310. For example, if the image shown in FIG. 5a is output in response to the input image shown in FIG. 4a, there is a misrecognition of the figure, so it is necessary to execute the correction mode. In the modification mode, first a message is displayed on the display of the operation board 310 asking you to specify the position of the figure as shown in Figure 5b, so enter the number to specify the position using the numeric keypad. do. In this embodiment, each shape is numbered in order from left to right and from top to bottom, so for example, the misrecognized shape in FIG. 3. Next, as shown in Figure 5c, a message will be displayed on the display of the operation boat 310 asking you to specify the number that identifies the correct shape, so enter the number that has been assigned in advance to the correct shape using the numeric keypad. do. In this example, a horizontally long rectangle is registered as shape number 1 in advance, so when you enter 1 from the numeric keypad, the erroneously recognized hexagonal shape is changed to a horizontally long rectangle as shown in Figure 5d. replaced by After this, when the modification mode is terminated, an output image is again created on the memory unit 330 based on the modified information, and this image is hard-copied by the laser printer 200.

次に第3図の各ステップの処理について、具体的な処理
の内容を説明する。
Next, the specific contents of each step in FIG. 3 will be explained.

ステップ52 互いに隣接する黒画素の集合について、その輪郭を追跡
し、各集合の輪郭の大きさ(幅及び高さ)を求める。そ
して、求めた大きさと予め定めたしきい値(固定値)と
の大小関係を比較し、その結果に応じてその画素集合が
文字か図形かを識別する。
Step 52: Trace the outlines of sets of black pixels adjacent to each other, and determine the size (width and height) of the outline of each set. Then, the obtained size is compared with a predetermined threshold value (fixed value), and based on the result, it is determined whether the pixel set is a character or a figure.

輪郭の追跡については次のように処理する。まず、入力
画像をラスク走査し、追跡を開始する黒画素をさがす。
Contour tracking is processed as follows. First, the input image is rask-scanned to find a black pixel to start tracking.

そしてその黒画素から、外側の輪郭線の場合には反時計
回りに、内側の輪郭線の場合には時計回りに輪郭画素を
追跡し、追跡開始画素の位置に戻ったらその画素集合の
追跡を終了する。この処理を、追跡が終了していない画
素がなくなるまで繰り返す。1つの黒画素集合について
輪郭を追跡した例を第6a図に示す。なお第6a図では
、ハンチングを施した画素が黒画素を示し。
Then, from that black pixel, contour pixels are traced counterclockwise in the case of an outer contour line, clockwise in the case of an inner contour line, and when it returns to the position of the tracing start pixel, that pixel set is traced. finish. This process is repeated until there are no more pixels for which tracking has not been completed. An example of tracing the outline of one black pixel set is shown in FIG. 6a. In FIG. 6a, pixels subjected to hunting indicate black pixels.

それ以外の画素は白画素を示す。この例では、輪郭線の
方向として第6b図に示すように、0〜7の8種類の方
向を用いた。第6a図を参照すると、まず30のように
ラスク走査し、追跡開始画素を捜す。この例では(i+
1.j)の位置で追跡開始画素が見つかり、ラスク走査
における1つ前の画素が白画素なので、外側の輪郭線と
みなして、この位置から反時計方向に追跡を開始する。
Other pixels indicate white pixels. In this example, eight types of directions 0 to 7 were used as the directions of the contour line, as shown in FIG. 6b. Referring to FIG. 6a, a rask scan is first performed as shown in 30 to search for a tracking start pixel. In this example (i+
1. The tracking start pixel is found at position j), and since the previous pixel in the rask scan is a white pixel, it is regarded as the outer contour line and tracking is started counterclockwise from this position.

次に、第6b図の4の方向から反時計回りに近傍画素を
調べ、最初に見つかった黒画素の方向を輪郭線の方向と
する。その次に、追跡の中心画素をその黒画素に移動し
、前回の輪郭線の方向−2の方向から反時計回りに近傍
画素を調べ、これを追跡開始画素にたどり着くまで繰り
返す。この結果第6a図に矢印で示すような輪郭線の追
跡結果が得られる。
Next, neighboring pixels are checked counterclockwise from direction 4 in FIG. 6b, and the direction of the first black pixel found is set as the direction of the contour line. Next, the center pixel of tracking is moved to that black pixel, neighboring pixels are checked counterclockwise from the direction of the previous contour line -2, and this is repeated until the tracking start pixel is reached. As a result, a contour tracing result as shown by the arrow in FIG. 6a is obtained.

この追跡結果のうち、外側の輪郭線の場合だけ、それを
輪郭データとしてメモリユニット330に記憶する。こ
の例では、輪郭データは、第6c図に示すように、輪郭
線の座標の最小値と最大値に基づいて、開始位置(最小
値)と長さ(最大値最小値)の値として表現される。第
6a図の黒画素集合の例では1.第6c図の輪郭データ
から分かるように、開始位置のX座標が1.X座標がJ
Among the tracing results, only the outer contour line is stored in the memory unit 330 as contour data. In this example, the contour data is expressed as starting position (minimum) and length (maximum, minimum) values based on the minimum and maximum coordinates of the contour, as shown in Figure 6c. Ru. In the example of the black pixel set in FIG. 6a, 1. As can be seen from the contour data in Figure 6c, the X coordinate of the starting position is 1. The X coordinate is J
.

X方向の長さが5(画素)、y方向の長さが4(画素)
になっている。
The length in the X direction is 5 (pixels) and the length in the y direction is 4 (pixels).
It has become.

上記の追跡の結果得られた輪郭データのうちx、 37
方向の各長さに基づいて、その黒画素集合の大きさを判
定し、その画像がノイズか1文字力又は図形かを判定す
る。つまり、予めノイズ画情の大きさの上限L1及び文
字画像の大きさの上闘L2を定めておき、第7a図に示
すように、各軸郭データの長さX、YがともにLlより
小さい場合にはノイズ画像と判定し、長さX、Yがとも
(こLlより太きくL2より小さい場合に文字画像と判
定し、それ以外は図形画像と判定する。このや定結果は
、図形1文字、ノイズの区分を示す情鳴にコード化し、
第7b図に示すような形で、輪剰データ(第6c図)の
並びと対応する順番で記惜する。
Of the contour data obtained as a result of the above tracking, x, 37
Based on each length in the direction, the size of the black pixel set is determined, and it is determined whether the image is noise, a single character, or a figure. In other words, the upper limit L1 of the size of the noise image and the upper limit L2 of the size of the character image are determined in advance, and as shown in FIG. 7a, the lengths X and Y of each axis data are both smaller than Ll. If the lengths Coded into emotional sounds that indicate the classification of letters and noise,
The information is recorded in the form shown in FIG. 7b in an order corresponding to the arrangement of the surplus data (FIG. 6c).

但し、イメージスキャナで原稿を読取る時に。However, when reading the original with an image scanner.

画像の縮小や拡大を実施する場合には、判定すこ各画像
の大きさが通常と異なるので、読取倍率Rに基づいて次
のように補正されたしきい値Ll’及びL2’ を用い
て判定する。
When reducing or enlarging an image, the size of each image is different from the normal size, so the threshold value Ll' and L2' corrected as follows based on the reading magnification R are used for judgment. do.

L1’= LI  X  R L2’ =  L2  X  R ステップ53 二の実施例のへ〃トル化処理においては、公知の技術を
用いており1例えば電子通信学会論文誌1985年4月
Vo1.16g−D No、4(845−852頁)や
、特開昭62〜286177号公報に開示されているよ
うに、線図形画像の両側の輪郭線を追跡しつつ、その中
心線を求め、これを折れ線ヘクトルとして近似表現する
方法を用いている。
L1'= LI X R L2' = L2 As disclosed in No. 4 (pages 845-852) and Japanese Patent Application Laid-open No. 1986-286177, the center line is determined while tracing the contour lines on both sides of the line figure image, and this is converted into a polyline hector. An approximate representation method is used.

ステップ54・ (1)まず、各線分の端点近傍で別の線分がつながって
いるか否かを調べ、つながっていない線分は除去する。
Step 54 (1) First, it is checked whether or not another line segment is connected near the end point of each line segment, and unconnected line segments are removed.

この処理を、つなかつていない線分がなくなるまで繰り
返す。例えば第7C図に示す画像の線分データを処理す
る時には、第1回目の処理で■で示す線分が除去され、
第2回目の処理では■で示す線分が除去され、第3回目
の処理では■で示す線分が除去されて処理が終了する。
This process is repeated until there are no unconnected line segments. For example, when processing the line segment data of the image shown in FIG. 7C, the line segments indicated by ■ are removed in the first processing,
In the second process, the line segment indicated by ■ is removed, and in the third process, the line segment indicated by ■ is removed, and the process ends.

(2)上記処理の後で残った線分のうち、同じ線分を2
回通らないように最小のループを捜す。分岐になったら
、線分間の角度の符号が同一の方向を優先する。開始点
に戻れば、1つのループの抽出が完了する。この処理を
繰り返して、図形の候補となる線分グループを抽出する
。この結果、例えば第7d図に■、■で示すような線分
グループが検出される。
(2) Among the line segments remaining after the above processing, the same line segment is
Find the smallest loop without going through it twice. When a branch occurs, priority is given to the direction in which the sign of the angle between the line segments is the same. Returning to the starting point completes the extraction of one loop. This process is repeated to extract line segment groups that are candidate figures. As a result, line segment groups as shown by ■ and ■ in FIG. 7d, for example, are detected.

(3)上記処理によって抽出された線分グループについ
て、その特徴量(線分の数、長さの比、角度等ンを図形
辞書350に登録されている各種図形の特徴量と比較し
、特徴量の近似した図形をその線分グループの示す図形
として認識する。特徴量の近い図形が見つからない場合
には、上記(2)の処理に戻って、別のループを捜す。
(3) For the line segment groups extracted by the above process, compare their feature quantities (number of line segments, length ratio, angle, etc.) with the feature quantities of various figures registered in the figure dictionary 350, and A figure with similar quantities is recognized as the figure indicated by the line segment group. If a figure with similar quantity of features cannot be found, the process returns to the above process (2) and searches for another loop.

ステップ55ニ ステップ54で認識されなかった残りの線分は■図形間
の接続線(両端で接続)、■図形につながる線分(一端
だけ接続)、■孤立線分(両端とも接続しない)、及び
■矢印の頭(2つの短い線分で長い線分と接続ンの4つ
に分類される。この分類は1次のような処理によって実
行される。
The remaining line segments that were not recognized in Step 55 and Step 54 are: ■ Connecting lines between figures (connected at both ends), ■ Line segments connected to figures (connected at one end), ■ Isolated line segments (not connected at both ends), and ■Arrow head (two short line segments are classified into four types: long line segments and connections. This classification is performed by the following first-order processing.

(1)線分の端部に接続する図形があるか否かを調べる
。これによって、1記(D 、 <2’l、■が判定で
きる。
(1) Check whether there is a figure connected to the end of the line segment. With this, 1.(D, <2'l, ■) can be determined.

(2)上記(1)で判定した■又は■の線分について、
矢印の頭か否かを判定する。
(2) Regarding the line segment marked ■ or ■ determined in (1) above,
Determine whether it is the head of the arrow.

次に、もう1つの実施例について説明する。この実施例
では、装置の構成及び動作の大部分は前記実施例と同一
であるが、図形の誤認識が生じた場合の修正処理が変更
されている。即ち、第8b図に示すように、画像の清書
出力(ハードコピー)において例えば第5a図に示すよ
うな図形の誤認識がみつかった場合には、オペレータが
ハードコピー上において、第8a図のように、誤認識図
形を予め定められた特性のマークベンによって囲み。
Next, another example will be described. In this embodiment, most of the configuration and operation of the device are the same as those in the previous embodiment, but the correction process when a figure is misrecognized is changed. That is, as shown in FIG. 8b, if an erroneous recognition of a figure as shown in FIG. 5a is found in the clean-up output (hard copy) of the image, the operator may check the hard copy as shown in FIG. Then, the misrecognized shapes are surrounded by marks with predetermined characteristics.

その領域をマーキングする。マーキングされたハードコ
ピーを原稿としてイメージスキャナ100で読取る。今
回の画像読取りにおいては、マーキングされた領域の位
置を識別する。マーキングベンのインクは、一般の画像
に比べて濃度が小さ(。
Mark the area. The marked hard copy is read as a document by an image scanner 100. In this image reading, the position of the marked area is identified. Marking Ben's ink has a lower density than regular images.

その濃度はほぼ一定であるので、二値化される前の画像
データを処理し、atの識別によってマ−キングされた
領域を検出する。この領域内に位置する図形を、誤認識
図形として、前の出力画像の元になった図形データ群の
中から抽出する。ここで操作ボードから正しい図形パタ
ーンを特定する番号が入力されると、その番号のV形に
よって、誤認識図形が置き換えられる。この後、認識口
形の修正された画像について、再び出力画像が作成され
、それがプリンタ200によって71−トコピーされる
Since its density is approximately constant, the image data before being binarized is processed and the marked area is detected by identifying at. A figure located within this area is extracted as an erroneously recognized figure from the figure data group that was the source of the previous output image. When a number specifying a correct graphic pattern is input from the operation board, the erroneously recognized graphic is replaced by the V shape of that number. Thereafter, an output image is created again for the image with the recognized mouth shape corrected, and the output image is copied 71 by the printer 200.

誤認識した図形が複数存在する時には、複数の領域をマ
ーキングし、複数の位置を指定する必要がある。この場
合には、正しい図形の番号を入力する際に、各領域の位
置情報(例えば領域の中心位置)を第8C図に示すよう
に操作ボード上の表示器に表示して、現在の修正図形の
位置が分かるようにする。なお、位置を示す数値を表示
する代わりに、第8d図に示すように、修正対象の図形
を表示するように変更してもよい。
When there are multiple misrecognized figures, it is necessary to mark multiple areas and specify multiple positions. In this case, when inputting the correct figure number, the position information of each area (for example, the center position of the area) is displayed on the display on the operation board as shown in Figure 8C, and the current modified figure number is displayed. Make sure you know the location. Note that instead of displaying the numerical value indicating the position, the figure to be corrected may be displayed as shown in FIG. 8d.

また、誤認識した図形位置の指定と正しい図形を特定す
る番号の指定の両方をマーキングによって行なってもよ
い。即ち、第9a回に示すように。
Further, both the designation of the position of the erroneously recognized figure and the designation of the number specifying the correct figure may be performed by marking. That is, as shown in episode 9a.

マークベンによって領域を指定する囲みを記入し、更に
その囲みの中に番号をマー々ぺ〉で記入する。
Write a box specifying the area using Mark Ben, and then write a number in Mark Pen in the box.

この場合、マーキングされたl\−トコピーをイメシス
キャナで読取り、マーク画像から領域指定情報と図形番
号指定情報とを自動的に識別し、それらに基づいて修正
処理を実行すれば、修正のだめのオペレータのキー人力
は不要になる(第9b図参即) この場合のマーク画像の識別は、例えば第9C図に示す
処理によって実行しつる。第9C図の処理においては、
まず、読み込んだマーク画像の輪郭を追跡した後、各々
の輪郭の位置と大きさからそれらの包含関係(内側か外
側か)を判定し、外側ならば領域指定と判断し、その領
域内にある図形データを誤認識図形とみなす。判定結果
が内側ならば、図形番号指定と判断し、その部分の画像
を切り出して文字認識を実施し、正しい図形の番号を検
出する。もしも図形番号の認識ができなし1時には、操
作ボードのテンキーによる番号指定に切換えればよい。
In this case, if the marked copy is read with an image scanner, the area designation information and figure number designation information are automatically identified from the marked image, and correction processing is executed based on them, the operator can make the corrections. No key manual effort is required (see Figure 9b immediately).Identification of the mark image in this case can be carried out, for example, by the process shown in Figure 9C. In the process of FIG. 9C,
First, after tracing the contours of the read mark image, the inclusion relationship (inside or outside) is determined based on the position and size of each contour.If it is outside, it is determined that the area is specified, and if the The figure data is regarded as an incorrectly recognized figure. If the determination result is inside, it is determined that the figure number has been specified, and that part of the image is cut out and character recognition is performed to detect the correct figure number. If the figure number cannot be recognized, you can switch to number designation using the numeric keys on the operation board.

マーク画像の識別は、第9d図の処理に示すように1輪
郭の大きさの判定によって行なうこともできる。つまり
、輪郭追跡した結果の大きさが予め定められたしきい値
以上であれば領域指定とみなし、そうでなければ図形番
号指定とみなす。他の処理は第9c図の場合と同一であ
る。
Mark images can also be identified by determining the size of one contour, as shown in the process of FIG. 9d. That is, if the size of the result of contour tracing is equal to or larger than a predetermined threshold value, it is regarded as area designation, otherwise it is regarded as graphic number designation. Other processing is the same as in the case of FIG. 9c.

また、第1O図に示すように、互いにインクの濃度の異
なる2種類のマーキングベンを用意しておき、その一方
を領域指定に利用し、他方を図形番号指定に利用すれば
、画像濃度の識別により、特別な処理を行なわなくとも
、領域指定と図形番号指定とを区別することができる。
In addition, as shown in Figure 1O, if two types of marking pens with different ink densities are prepared and one is used to specify the area and the other is used to specify the figure number, it is possible to identify the image density. This makes it possible to distinguish between area designation and graphic number designation without any special processing.

この場合のマーク画像識別処理を第11図に示す。The mark image identification process in this case is shown in FIG.

次にもう1つの実施例について説明する。この実施例で
は、誤認識図形の修正のために、第12図に示すように
、複写機の原稿押え板の上部に、出力画像等を表示でき
るグラフインク表示装置と座標入力用の透明なタブレッ
ト装置とが重なって一体になった装置が設けられている
。タブレット装置には、位置を指定するためのスタイラ
スベ/が接続されている。
Next, another embodiment will be described. In this embodiment, in order to correct erroneously recognized figures, as shown in FIG. A device is provided in which the devices are overlapped and integrated. A stylus bar for specifying a position is connected to the tablet device.

誤認識図形の修正に関する処理の内容を第13図に示す
。例えば第5a図に示すような誤認識が生じた場合には
、出力画像の一部分が表示装置に表示され、所定のキー
操作によって表示画像をスクロールさせ、画像の全体を
見ることができるので、オペレータは、誤認識図形をタ
ブレット装置を透かして見ながら、それを囲むようにタ
ブレット上でスタイラスペンを移動する(第14a図参
照)。これによって、修正すべき図形の位置が読み取ら
れるので、その位置の図形が修正対象として特定される
。この後、誤認識図形に対応する正しい図形の番号をテ
ンキーを使用して入力する。
FIG. 13 shows the contents of the process related to correction of misrecognized figures. For example, if a misrecognition as shown in Figure 5a occurs, a portion of the output image is displayed on the display device, and the operator can scroll the displayed image by operating a predetermined key to see the entire image. While looking through the tablet device at the misrecognized figure, move the stylus pen on the tablet so as to surround it (see Figure 14a). As a result, the position of the figure to be corrected is read, and the figure at that position is specified as the object to be corrected. Thereafter, use the numeric keypad to input the number of the correct figure corresponding to the incorrectly recognized figure.

修正が終了すると、再び出力画像が生成され、これがプ
リンタによってハードコピーされる。
Once the modifications have been completed, an output image is again generated, which is then hard-copied by the printer.

スタイラスペンの操作によって、誤認識図形の位置と正
しい図形の番号の両方を指定することも可能である。つ
まり、第14b図に示すように、誤認識した図形を囲む
ようにスタイラスペンを移動し、続いて正しい図形を特
定する番号(この例では1)の形になるように、スタイ
ラスペ/を移動する。二の場合、第15a[i>及び第
15b図に示すように処理されるので、テンキーを操作
して番号を入力する必要はない。
It is also possible to specify both the position of the misrecognized figure and the number of the correct figure by operating the stylus pen. In other words, as shown in Figure 14b, move the stylus so as to surround the misrecognized shape, and then move the stylus so that it forms the shape of the number (1 in this example) that identifies the correct shape. do. In case 2, the processing is performed as shown in Figures 15a[i> and 15b, so there is no need to operate the numeric keypad to input the number.

なお1図形番号と図形形状との対応関係を、表示装置上
′に表示してもよい。
Note that the correspondence between a graphic number and a graphic shape may be displayed on the display device.

1つの変形実施例について説明する。この実施例では、
第12図と同様の装置を利用し、第14a図に示すよう
に、スタイラスペンによって誤認識図形の位置を指定す
るが、第15c図に示すように、正しい図形を指定する
操作を、その図形の形状をスタイラスペンによって直接
入力することによって実行する。スタイラスペンによっ
て入力された形状は、図形辞書の特徴パラメータと比較
され それと返りした図形が認識される。そして誤認識
図形は、認識された図形によって置き換えられる。二の
場合の修正操作の内容を第]、 5 d図に示し、修正
処理の内容を第15e図に示す。
One modified example will be described. In this example,
Using a device similar to that shown in Fig. 12, the position of the misrecognized figure is specified with a stylus pen as shown in Fig. 14a, but the operation for specifying the correct figure is performed on that figure as shown in Fig. 15c. This is done by directly inputting the shape of the object using a stylus pen. The shape entered with the stylus pen is compared with the feature parameters in the shape dictionary, and the returned shape is recognized. The misrecognized figure is then replaced by the recognized figure. The contents of the modification operation in case 2 are shown in Figures 5 and 5d, and the contents of the modification process are shown in Figure 15e.

スタイラスペ/によって人力される情報の処理について
説明する。第17図に示すように、スタイラスペンから
の入力に対して、所定時間毎に座標データをサンプリン
グし、サシプリングした各点間を結ぶ線分の角度誤差(
第16a図)や、おる点とその2つ先の点とを結んだと
きの距離誤差(第16b図)が予め定められたしきい値
以下となるように直線近似し、点の数を減らすとともに
、直線部と曲線部を識別する。
Processing of information input manually using a stylus pen will be explained. As shown in Figure 17, coordinate data is sampled at predetermined intervals in response to input from the stylus pen, and the angular error (
The number of points is reduced by approximating the line so that the distance error (Fig. 16b) when connecting the current point and the point two points ahead (Fig. 16a) is less than a predetermined threshold. At the same time, distinguish between straight parts and curved parts.

[効果] 以上のとおり本発明によれば、次のような効果が得られ
る。
[Effects] As described above, according to the present invention, the following effects can be obtained.

請求項1 手書き図面を原稿画像として入力する場合には、入力画
像中の図形を構成する線分等が1曲がり。
Claim 1: When inputting a handwritten drawing as a manuscript image, each line segment or the like constituting a figure in the input image has one bend.

傾き、はみ出しなどを生じている場合が多いが。In many cases, it may be tilted or protrude.

それらの線分が構成する図形を予め登録しである特定の
図形パターンと同一であると認識することによって、変
形した入力図形パターンを、登録されたきれいな図形パ
ターンによって置き換えることができ、それによって消
iされた出力画像を生成することができる。
By registering the shapes made up of those line segments in advance and recognizing them as being the same as a certain specific shape pattern, the deformed input shape pattern can be replaced by the registered clean shape pattern, thereby erasing it. It is possible to generate an i-imaged output image.

請求項2 文字情報と図形情報とが予め分離されているので、操作
ボードからの指示によって、出力画像への文字の出力の
有無を簡単に切換える二とができる。
Claim 2: Since the character information and the graphic information are separated in advance, it is possible to easily switch between outputting characters on the output image and whether or not characters are to be outputted in response to an instruction from the operation board.

請求項3 図形の誤認識が生じた場合でも、それを修正して正しい
画像を出力できる。
Claim 3: Even if a figure is misrecognized, it can be corrected and a correct image can be output.

請求項4〜7゜ 図形の誤認識に対する位置などをマーキングによって指
定するので、修正のだめの操作が簡単である。
Claims 4 to 7: Since the position of the erroneously recognized figure is specified by marking, the correction operation is easy.

請求項8 実際にハードコピーをする前に出力画像が表示手段によ
って表示されるので、図形の誤認識がある場合に、修正
を実行した後でハードコピーを実行することができ、無
駄なコピーの発生頻度を小さくしうる。
Claim 8: Since the output image is displayed by the display means before actually making a hard copy, if there is a misrecognition of a figure, the hard copy can be made after corrections are made, thereby eliminating unnecessary copies. The frequency of occurrence can be reduced.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は一実施例のデジタル複写機の機構部の構成を示
す正面図である。 第2図は、第1図の装置の電装部の横線の概略を示すブ
ロック図である。 第3図は、第1図の装置の動作の概略を示すフローチャ
ートである。 第4a図、第4b図、第4c図、第4d図9第4e図、
第4f図、第4g図、第4h図、第41図、及び第4J
図は、入力画像又は編集処理中の全体もしくは一部の画
像の内容を示す平面図である。 第5a図、第5b図、第5c図及び第5d図は、それぞ
れ、誤認識の発生した画像、修正対象位置を指定する時
の操作ボードの外観、正しい図形を指定する時の操作ボ
ードの外観、及び修正された画像を示す平面図である。 第6a図は輪郭線追跡処理の例を示す処理対象画像の平
面図、第6b図は輪郭線追跡処理の方向の区分を示す平
面図、第6c図は処理の結果得られた輪郭データの内容
を示すメモリマツプである。 第7a図は文字1図形及びノイズの識別の処理を示すフ
ローチャート、第7b図は識別の結果得られたデータの
配列を示すメモリマツプ、第7c図は図形候補抽出時の
線分パターンの例を示す平面図、第7d図はループ抽出
時の線分パターンの例を示す平面図である。 第8a図及び第9a図はマーキングされた画像の一部分
を示す平面図、第8b図及び第9b図は各々の実施例に
おける清書コピー出力の操作手順を示すフローチャート
、第8c図及び第8d図は修正モード時の操作ボードの
外観を示す平面図である。 第9c図、第9d図及び第11図はマーキング画像に対
する処理を示すフローチャート、第10図は一般の画像
とマークの濃度を示すグラフである。 第12図は一実施例の装置の外観を示す斜視図、第13
図、第15a図及び第15d図は清書コピ出力の操作手
順を示すフローチャート、第14a図、第14b図及び
15c図は表示された画像とその上におけるスタイラス
ペンの移動軌跡を示す平面図、第15b図及び第15e
図は修正処理の手順を示すフローチャート、第16a図
及び第16b図は、サンプリノブされた3、←と角度誤
差及び距離誤差の関係を示す平面図、第17図はスタイ
ラスペンの移動軌跡と処理結果を示す平面図である。 1 露光ランプ    2 レンズ 3 受光部      4 書込装置 5、g光体トラム   6°、メインチャージャ7 現
像ユニット 100°イメージスキヤナ 110:CCDイメージセンサ 120:A/D変換器 200 レーザプリンタ310
゛操作ボード  330 メモリユニット340 編集
ユニット 3500図形辞書宝 図 弔 図 第4a区 人力44に 声4b区 主走査方向X 第6c図 輪郭データ 第7a図 文字 図形の判定 第7C図 図影候梢の抽出 第7b図 判定結果 第7d図 ループ抽出 第9a図 修正(位置と正しい図形番号) 第9b図 修正のフロー(2) 第8a図 修正(位置指定) 第8C図 修正(図形番号入力) 第8b図 修正のフロ 第8d図 修正(図形番号人力) 第9C図 領域と番号の判定フロー 声]O図 豹フ諮径良ペン升1リフL畏2 ふ東 マー7 に象] マーク 画豪1 第12図 タブレット + 画偉表示部 第13図 修正の操作フロー 第14a図 修正(位置指定) スタイラスペンの軌跡 第14b図 修正(正しい図形番号) 正しい図形番号 第15a図 修正の操作フロー(2) 第15c図 修正(正しい図ll1B状) 第 15b図 処理フロー 第15d図 修正の操作フロー(3) 区 区 (a) スタイラスペンの軌跡 第17図 (b) サンプリング点 (C1 直線近似
FIG. 1 is a front view showing the structure of a mechanical section of a digital copying machine according to an embodiment. FIG. 2 is a block diagram schematically showing the electrical equipment section of the apparatus shown in FIG. 1 in horizontal lines. FIG. 3 is a flow chart showing an outline of the operation of the apparatus shown in FIG. Figure 4a, Figure 4b, Figure 4c, Figure 4d, Figure 4e,
Figures 4f, 4g, 4h, 41, and 4J
The figure is a plan view showing the contents of an input image or a whole or part of an image undergoing editing processing. Figures 5a, 5b, 5c, and 5d are images in which misrecognition has occurred, the appearance of the operation board when specifying the position to be corrected, and the appearance of the operation board when specifying the correct figure, respectively. , and a plan view showing the corrected image. Fig. 6a is a plan view of an image to be processed showing an example of contour tracing processing, Fig. 6b is a plan view showing divisions in the direction of contour tracing processing, and Fig. 6c is the content of contour data obtained as a result of the processing. This is a memory map showing the Fig. 7a is a flowchart showing the process of character 1 figure and noise identification, Fig. 7b is a memory map showing the arrangement of data obtained as a result of identification, and Fig. 7c is an example of a line segment pattern when extracting figure candidates. A plan view, FIG. 7d is a plan view showing an example of a line segment pattern at the time of loop extraction. Figures 8a and 9a are plan views showing a portion of the marked image, Figures 8b and 9b are flowcharts showing the operating procedure for outputting a fair copy in each embodiment, and Figures 8c and 8d are FIG. 3 is a plan view showing the appearance of the operation board in a correction mode. FIGS. 9c, 9d, and 11 are flowcharts showing processing for marking images, and FIG. 10 is a graph showing the density of general images and marks. FIG. 12 is a perspective view showing the appearance of the device of one embodiment;
Figures 15a and 15d are flowcharts showing the operating procedure for outputting a fair copy; Figures 14a, 14b and 15c are plan views showing the displayed image and the movement locus of the stylus pen thereon; Figures 15b and 15e
The figure is a flowchart showing the procedure of correction processing, Figures 16a and 16b are plan views showing the relationship between sample knob 3, ←, angle error and distance error, and Figure 17 is the movement trajectory of the stylus pen and the processing result. FIG. 1 Exposure lamp 2 Lens 3 Light receiving unit 4 Writing device 5, g light tram 6°, main charger 7 Developing unit 100° Image scanner 110: CCD image sensor 120: A/D converter 200 Laser printer 310
゛Operation board 330 Memory unit 340 Editing unit 3500 Graphic dictionary Treasure map funeral map Section 4a Voice to 44 Human power Section 4b Section Main scanning direction Fig. 7b Judgment results Fig. 7d Loop extraction Fig. 9a Correction (position and correct figure number) Fig. 9b Correction flow (2) Fig. 8a Correction (position specification) Fig. 8C Correction (figure number input) Fig. 8b Correction flow Figure 8d Correction (figure number manual) Figure 9C Judgment flow of area and number Voice] Figure tablet + Graphic display area Figure 13 Operation flow for correction Figure 14a Correction (position specification) Stylus pen trajectory Figure 14B Correction (correct figure number) Correct figure number Figure 15A Operation flow for correction (2) Section 15c Figure correction (correct figure 11B shape) Figure 15b processing flow Figure 15d operation flow for correction (3) Section (a) Stylus pen trajectory Figure 17 (b) Sampling point (C1 Linear approximation

Claims (8)

【特許請求の範囲】[Claims] (1)原稿画像を微小画素情報の集合として読取る画像
読取手段、該手段の読取った情報を蓄積するメモリ手段
、及び該メモリ手段に蓄積された画像情報を出力する出
力手段、を含むデジタル複写装置において: 前記メモリ手段に蓄積された入力画像情報を、文字と図
形とに分離する文字/図形分離手段;分離された図形の
情報を線分等の各パターン毎に符号化する符号化手段; 符号化された各パターン間の接続関係、パターン数、及
び角度に基づいて図形を認識する図形認識手段; 認識された複数の図形の接続関係を認識する接続認識手
段;及び 認識された図形情報、図形間の接続情報、 及び分離された文字情報を出力画像として前記メモリ手
段に書込む、出力画像作成手段;を設けたことを特徴と
する、デジタル複写装置。
(1) A digital copying device that includes an image reading means for reading a document image as a set of minute pixel information, a memory means for storing the information read by the means, and an output means for outputting the image information stored in the memory means. In: Character/figure separation means for separating input image information stored in the memory means into characters and figures; encoding means for encoding information on the separated figures for each pattern such as a line segment; A figure recognition means for recognizing a figure based on the connection relationship between each of the recognized patterns, the number of patterns, and an angle; A connection recognition means for recognizing the connection relationship between a plurality of recognized figures; and the recognized figure information, the figure A digital copying apparatus comprising: an output image creation means for writing connection information between the characters and separated character information into the memory means as an output image.
(2)指示に応じて、分離された文字情報の出力画像へ
の登録の有無を選択する選択手段、を備える前記請求項
1記載のデジタル複写装置。
2. The digital copying apparatus according to claim 1, further comprising: (2) selection means for selecting whether or not to register the separated character information in the output image in accordance with an instruction.
(3)指定された位置の図形について、図形認識の結果
を修正する修正手段を備える、前記請求項1記載のデジ
タル複写装置。
(3) The digital copying apparatus according to claim 1, further comprising a correction means for correcting the result of figure recognition for a figure at a designated position.
(4)前記修正手段は、予め定められた画像濃度を識別
することによって、指定された図形の位置を判別する、
前記請求項3記載のデジタル複写装置。
(4) The correction means determines the position of the specified figure by identifying a predetermined image density.
The digital copying apparatus according to claim 3.
(5)前記修正手段は、予め定められた画像濃度の領域
の輪郭パターンを検出し、複数の輪郭パターンの包含関
係から、各輪郭パターンが領域を示すものかそれ以外か
を自動的に識別する、前記請求項3記載のデジタル複写
装置。
(5) The correction means detects the contour pattern of a region with a predetermined image density, and automatically identifies whether each contour pattern indicates a region or not based on the inclusion relationship of the plurality of contour patterns. 4. A digital copying apparatus according to claim 3.
(6)前記修正手段は、予め定められた画像濃度の領域
の輪郭パターンを検出し、検出した輪郭パターンの大き
さの大小によって、各輪郭パターンが領域を示すものか
文字パターンを示すものかを自動的に識別する、前記請
求項3記載のデジタル複写装置。
(6) The correction means detects contour patterns of a region of a predetermined image density, and determines whether each contour pattern indicates a region or a character pattern depending on the size of the detected contour pattern. 4. The digital reproduction apparatus of claim 3, wherein the digital reproduction apparatus automatically identifies.
(7)前記修正手段は、予め定められた少なくとも2種
類の特定画像濃度を識別し、第1の特定画像濃度と第2
の特定画像濃度との区分によって、画像中の指定パター
ンが領域の指定か文字の指定かを自動的に識別する、前
記請求項3記載のデジタル複写装置。
(7) The correction means identifies at least two types of predetermined specific image densities, and the first specific image density and the second specific image density.
4. The digital copying apparatus according to claim 3, wherein whether the designated pattern in the image is an area designation or a character designation is automatically identified based on the distinction between the specified image density and the specific image density.
(8)二次元画像情報を表示する表示手段と二次元位置
情報入力手段を備え、前記修正手段は、二次元位置情報
入力手段によって指定される位置を画像とともに表示手
段に表示し、指定された位置の図形について、図形認識
の結果を修正する、前記請求項3記載のデジタル複写装
置。
(8) A display means for displaying two-dimensional image information and a two-dimensional position information input means, the modification means displaying the position specified by the two-dimensional position information input means together with the image on the display means, 4. The digital copying apparatus according to claim 3, wherein the result of figure recognition is corrected with respect to the figure at the position.
JP2192067A 1990-07-20 1990-07-20 Digital copying device Pending JPH0481071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2192067A JPH0481071A (en) 1990-07-20 1990-07-20 Digital copying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2192067A JPH0481071A (en) 1990-07-20 1990-07-20 Digital copying device

Publications (1)

Publication Number Publication Date
JPH0481071A true JPH0481071A (en) 1992-03-13

Family

ID=16285078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2192067A Pending JPH0481071A (en) 1990-07-20 1990-07-20 Digital copying device

Country Status (1)

Country Link
JP (1) JPH0481071A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011018274A (en) * 2009-07-10 2011-01-27 Fuji Xerox Co Ltd Image processor and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011018274A (en) * 2009-07-10 2011-01-27 Fuji Xerox Co Ltd Image processor and program

Similar Documents

Publication Publication Date Title
US5528732A (en) Reprographic device for making copies with multi-spaced lines
JP3504054B2 (en) Document processing apparatus and document processing method
US5257074A (en) Image forming apparatus
US5642473A (en) Paper saving reprographic device
US5745664A (en) Image synthesizing method and image recording apparatus which electronically synthesizes an image with a page of information
JPH0512492A (en) Device for automatically digitizing border line
EP0701224B1 (en) Method for interpreting hand drawn diagrammatic user interface commands
US4962432A (en) Selective retrieval of data from microfilm images of different forms by reading a memory index form cord (bar code) recorded on each image frame
US6947596B2 (en) Character recognition method, program and recording medium
JP2003346078A (en) Two-dimensional code reader, image input device, method for reading two-dimensional code, image input method, its program, and recording medium recording the program
JP3186246B2 (en) Document reading device
JPH0481071A (en) Digital copying device
JPS58208865A (en) Document producing device
JP3247723B2 (en) Image relocation copier
JP2003046746A (en) Method and apparatus for processing image
JP4159948B2 (en) Two-dimensional code reading device, two-dimensional code reading method, two-dimensional code reading program, and storage medium
JPH05292294A (en) Digital copying machine
JP3064305B2 (en) Digital copier
JP3244768B2 (en) Copy machine with image direction designation function
JP3186712B2 (en) Document reading device
JP3489788B2 (en) Original image processing device
JPS63187870A (en) Copying machine for clean copy
JP2006107290A (en) Image processor and method thereof
JP2022047314A (en) Information processing apparatus, information processing method, and program
JPH04323772A (en) Graphic identification code input device