JPH03294973A - Image processor - Google Patents

Image processor

Info

Publication number
JPH03294973A
JPH03294973A JP2096989A JP9698990A JPH03294973A JP H03294973 A JPH03294973 A JP H03294973A JP 2096989 A JP2096989 A JP 2096989A JP 9698990 A JP9698990 A JP 9698990A JP H03294973 A JPH03294973 A JP H03294973A
Authority
JP
Japan
Prior art keywords
image
mark
area
document
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2096989A
Other languages
Japanese (ja)
Other versions
JP2896919B2 (en
Inventor
Masahisa Yano
矢野 雅久
Yoshiyuki Yamashita
山下 義征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2096989A priority Critical patent/JP2896919B2/en
Publication of JPH03294973A publication Critical patent/JPH03294973A/en
Application granted granted Critical
Publication of JP2896919B2 publication Critical patent/JP2896919B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PURPOSE:To cope flexibly with the variation of the use environment and need and to enhance the operability by extracting document/drawing images in a mark, based on a color characteristic of a mark on a document, and outputting them successively in accordance with an area output sequence being output information for forming a pair with its color characteristic. CONSTITUTION:The processor is constituted of an image input part 1, a mode switching part 2, a learning part 3, an image extracting part 4 and an image synthesizing part 5. In such a state, learning paper in which output information for forming a pair of a color characteristic of a mark added to document/ drawing and an area output sequence is mentioned is learned, registered as output information, and based on the color characteristic of the mark, an image in the area of the mark added to the document/drawing is extracted, and outputted successively in accordance with the area output sequence being the output information for forming a pair with its color characteristic. In such a way, the image processor having excellent operability which can cope flexibly with the variation of the use environment and need.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は任意の領域の画像を抽出する画像処理装置に関
するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing device that extracts an image of an arbitrary region.

〔従来技術〕[Prior art]

従来、この種の分野の技術としては、特開昭57−41
770号公報に開示きれた画像処理装置があった。
Conventionally, as a technology in this kind of field, Japanese Patent Application Laid-Open No. 57-41
There was an image processing device that was fully disclosed in Publication No. 770.

この画像処理装置は、入力用紙上の2色の画像を別々に
読み取る2色読取装置と、この2色読取装置の出力から
入力用紙が領域指定、入力画像指定、出力画像指定のう
ちのいずれのためのものであるかを判別する種別マーク
検出器と、この種別マーク検出器により領域指定と判別
された入力用紙に対する2色読取装置の出力から該入力
用紙に第1の色で書かれた入力画像から抜き取るための
抜取領域を示す情報を検出する第1の検出器と、種別マ
ーク検出器により領域指定と判別された入力用紙に対す
る上記2色読取装置の出力から該入力用紙に第2の色で
書かれた出力画像にはめ込むための挿入領域を示す情報
を検出する第2の検出器と、上記種別マーク検出器によ
り領域指定と判別された入力用紙に対する上記2色読取
装置の出力から該入力用紙に書かれた抜取領域と挿入領
域との対応関係を示す情報を検出する第3の検出器と、
上記3つの検出器の出力が入力された上記種別マーク検
出器により入力画像指定と判別された入力用紙の画像の
うち第1の検出器の出力の抜取領域の画像を、上記種別
マーク検出器により出力画像指定と判別された入力用紙
の画像の上記第2の検出器の出力の上記抜取領域と対応
関係にある挿入領域にはめ込み出力する画像人変え装置
を備えて画像を作成していた。
This image processing device includes a two-color reading device that separately reads two-color images on an input sheet, and an output from the two-color reading device that determines whether the input sheet is designated as an area, an input image, or an output image. a type mark detector that determines whether the type mark is for an area specified by the type mark detector; and an input written in the first color on the input paper from the output of the two-color reading device for the input paper determined by the type mark detector to specify an area; A first detector detects information indicating a sampling area to be extracted from an image, and a second color is applied to the input paper from the output of the two-color reading device for the input paper that is determined to be an area specified by the type mark detector. a second detector that detects information indicating an insertion area to be inserted into the output image written in , and a second detector that detects information indicating an insertion area to be inserted into the output image written in . a third detector that detects information indicating a correspondence relationship between the extraction area and the insertion area written on the paper;
The image of the sampling area of the output of the first detector is selected from among the input paper images determined to be input image designated by the type mark detector to which the outputs of the three detectors are inputted, by the type mark detector. An image is created using an image changing device that inserts and outputs an image of the input paper that has been determined to be an output image designated into an insertion area that corresponds to the sampling area of the output of the second detector.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら、上記構成の画像処理装置では下記のよう
な問題点があった。
However, the image processing apparatus having the above configuration has the following problems.

(1)異なる形式の原稿から或いは同一の形式でも任意
の領域から画像を抽出する場合、毎回、抜取り(抽出)
領域を設定するための用紙を作成する必要があり、用紙
の作成及び登録のために多くの時間を要すると共に操作
が繁雑になる。
(1) When extracting images from manuscripts in different formats or from arbitrary regions in the same format, sampling (extraction) is performed each time.
It is necessary to create a form for setting the area, and it takes a lot of time to create and register the form, and the operation becomes complicated.

(2)複数枚の原稿の異なる領域からの画像を抽出する
場合、前記原稿毎に抽出領域を設定するための用紙を作
成し、上記構成の装置を複数回動作させる必要があり、
用紙作成及び登録時間に多くの時間を要するばかりでな
く、操作が繁雑で誤操作の危険もある。
(2) When extracting images from different areas of multiple documents, it is necessary to create a form for setting the extraction area for each document and operate the device configured as described above multiple times;
Not only does it take a lot of time to create forms and register, but the operations are complicated and there is a risk of erroneous operation.

本発明は上述の点に鑑みてなされたもので、上述の問題
点を除去するために原稿上のマークの色特性と領域出力
順序を一対とする出力情報を記載した学習用紙を学習し
、出力情報として登録しておき、前記色特性に基づいて
マーク内の原稿画像を抽出し、当該色特性と一対の出力
情報である領域出力順序に従って順次出力するようにし
、使用環境やニーズの変化に柔軟に対応できる操作性の
優れた画像処理装置を提供することを目的とする。
The present invention has been made in view of the above-mentioned problems, and in order to eliminate the above-mentioned problems, a study sheet is learned and outputted in which output information is written as a pair of color characteristics of marks on a document and an area output order. The image is registered as information, the original image within the mark is extracted based on the color characteristics, and is output sequentially according to the area output order, which is a pair of output information with the color characteristics, making it flexible to changes in the usage environment and needs. An object of the present invention is to provide an image processing device with excellent operability that can handle the following situations.

〔課題を解決するための手段〕[Means to solve the problem]

上記課題を解決するため本発明は原稿上の任意の領域の
画像を抽出する画像処理装置において、用紙上に記載き
れているマーク及び/又は文字9図形、写真等の画像の
濃淡及び色の一方又は双方に応じた情報を出力する画像
入力部と、学習モードと原稿読取モードとを切換えるモ
ード切換部と、該モード切換部が学習モードの場合学習
用紙上のマークの色特性を学習し、用紙上のマーク位置
に基づいて決定した領域出力順序と前記色特性を一対と
する出力情報を登録する学習部と、前記モード切換部が
原稿読取モードの場合前記出力情報の色春性と一致する
マーク内の原稿画像を抽出し、当該色特性と一対の領域
出力順序に従って順次出力する画像抽出部とを設けた。
In order to solve the above-mentioned problems, the present invention provides an image processing device that extracts an image of an arbitrary area on a document. Alternatively, there is an image input section that outputs information corresponding to both modes, a mode switching section that switches between learning mode and original reading mode, and when the mode switching section is in learning mode, it learns the color characteristics of the marks on the learning paper, and a learning unit that registers output information that pairs the area output order determined based on the mark position above and the color characteristics; and a mark that matches the color sensitivity of the output information when the mode switching unit is in document reading mode. An image extracting unit is provided which extracts a document image within the document and sequentially outputs the image in accordance with the color characteristic and the output order of the pair of regions.

また、前記モード切換部は学習用紙上及び原稿の一方又
は双方の所定の領域の画像の種類に基づいて切換えるよ
うにした。
Further, the mode switching section is configured to switch based on the type of image in a predetermined area on the study paper and/or the manuscript.

〔作用〕[Effect]

本発明は上記の如く原稿上のマークの色特性と領域出力
順序とを一対とする出力情報を記載した学習用紙を学習
して出力情報として登録しておき、前記色特性に基づい
てマーク内の原稿画像を抽出し、当該色特性と一対の出
力情報である領域出力順序に従って順次出力するように
したので、従来のように異なる形式の原稿から或いは同
一の形式でも任意の領域から画像を抽出する場合、毎回
、抽出領域を設定するだめの用紙を作成する必要や、複
数枚の原稿の異なる領域からの画像を抽出する場合、原
稿毎に抽出領域を設定するための用紙を作成し、装置を
複数回動作させる必要なく、使用環境やニーズの変化に
柔軟に対応できる、操作性の優れた画像処理装置となる
As described above, the present invention learns a study paper in which output information is written as a pair of color characteristics of marks on a document and an area output order, and registers the results as output information. Since the original image is extracted and outputted sequentially according to the area output order, which is a pair of output information with the color characteristics, it is now possible to extract images from originals in different formats, or from arbitrary areas even in the same format, as in the past. If you need to create a separate sheet of paper to set the extraction area each time, or if you want to extract images from different areas of multiple documents, you may need to create a sheet of paper to set the extraction area for each document and install the device. The image processing device has excellent operability and can flexibly respond to changes in the usage environment and needs without the need for multiple operations.

〔実施例〕〔Example〕

(− 以下、本発明の実施例を図面会基ついて説明する。 (− Embodiments of the present invention will be described below with reference to the drawings.

第1図は本発明の実施例である画像処理装置の構成を示
すブロック図である。図示するように画像処理装置は、
画像入力部1、モード切換部2、学習部3、画像抽出部
4及び画像合成部5で構成される。
FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to an embodiment of the present invention. As shown in the figure, the image processing device is
It is composed of an image input section 1, a mode switching section 2, a learning section 3, an image extraction section 4, and an image composition section 5.

画像入力部1は第3図及び第4図に示すような用紙を、
主走査を水平方向(XX)とし、副走査を垂直方向(Y
Y)として走査し、用紙上に記載きれているマーク及び
/又は文書1図面の濃淡及び色の一方又は双方に応じた
色情報、例えば濃度多値レベル信号またはR(赤)、G
(緑)、B(青)の多値レベル信号を色情報としてモー
ド切換部2へ出力する。
The image input unit 1 receives sheets of paper as shown in FIGS. 3 and 4,
The main scanning is in the horizontal direction (XX), and the sub-scanning is in the vertical direction (Y).
Y), and the mark completely written on the paper and/or the color information corresponding to one or both of the shading and color of the document 1 drawing, such as a density multi-level signal or R (red), G
(green) and B (blue) multilevel signals are output to the mode switching unit 2 as color information.

モード切換部2は図示しないスイッチなどによって、学
習モード或いは原稿読取モードを設定する。このモード
切換部2が学習モードに設定されている場合には、画像
入力部1の出力を学習部3に出力すると共に、学習起動
信号を出力する。
The mode switching unit 2 sets a learning mode or a document reading mode using a switch (not shown) or the like. When the mode switching unit 2 is set to the learning mode, it outputs the output of the image input unit 1 to the learning unit 3, and also outputs a learning activation signal.

モード切換部2が原稿読取りモードに設定されている場
合には、画像入力部1の出力を画像抽出部4に出力する
と共に画像抽出起動信号を出力する。学習部3は前記学
習起動信号によって動作が開始され、第3図に示すよう
な学習用紙のマークの色特性を学習し、用紙上のマーク
位置に基づいて決定した領域出力順序信号と前記色特性
を一対とする出力情報を登録する。
When the mode switching unit 2 is set to the original reading mode, it outputs the output of the image input unit 1 to the image extraction unit 4 and outputs an image extraction activation signal. The learning section 3 is started to operate by the learning activation signal, learns the color characteristics of the marks on the learning paper as shown in FIG. Register the output information as a pair.

画像抽出部4は前記画像抽出起動信号によって動作を開
始し、モード切換部2を経由して画像入力部1から出力
きれる原稿用紙の色情報を入力して、前記出力情報の色
特性と一致するマークの領域内への原稿画像を抽出し、
当該色特性と一対の出力情報である領域出力順序に従っ
て、画像合成部5へ出力する。
The image extraction section 4 starts its operation in response to the image extraction activation signal, inputs the color information of the document paper that can be outputted from the image input section 1 via the mode switching section 2, and matches the color characteristics of the output information. Extract the original image within the marked area,
The image is output to the image composition unit 5 in accordance with the color characteristic and the region output order, which is a pair of output information.

画像合成部5は前記画像抽出部4から出力されるマーク
の領域内の原稿画像を合成し、図示しないCRTやプリ
ンタ等へ表示する。
The image composition section 5 composes the document images within the mark area outputted from the image extraction section 4, and displays the composite images on a CRT, printer, etc. (not shown).

第2図は原稿上のマークを色毎に分類するための原理を
示す色特性の説明図であって、同図(a)はマークの色
度座標の範囲を示す色度図、同図(b)はマークの濃度
範囲の説明図である。
FIG. 2 is an explanatory diagram of color characteristics showing the principle for classifying marks on a document by color; FIG. 2(a) is a chromaticity diagram showing the range of chromaticity coordinates of marks; b) is an explanatory diagram of the density range of the mark.

第2図(a)の原理を用いる場合、画像入力部1は例え
ばRGB系の濃度多値レベル信号を出力できるカラース
キャナが必要である。また、第2図(b)の原理を用い
る場合、画像入力部1は濃度多値レベル信号を出力でき
るモノクロスキャナ又は上記カラースキャナが必要であ
る。
When using the principle shown in FIG. 2(a), the image input section 1 requires a color scanner capable of outputting, for example, an RGB density multilevel signal. Further, when using the principle shown in FIG. 2(b), the image input section 1 requires a monochrome scanner or the color scanner described above that can output a density multilevel signal.

第2図(a)の色度図は公知の方法により作成したもの
を概略的に示したものであって、RGB系の濃度信号を
座標変換式(1)を用いて、XYZ系に変換し、 X =2.7689R+1.7517G +1.130
2BY=    R+4.5907G+0.0601B
    (1)Z =      0.0565G +
 5.5943B求められた、X、Y、Zをもとに式(
2)を用いて色度座標x、yを計算し、 x=X/(X+Y十Z) y=Y/(X+Y+Z)         (2)求め
られた色度座標x、yによる直交座標を用いたものであ
る。
The chromaticity diagram in Fig. 2(a) is a schematic diagram created by a known method, in which RGB density signals are converted to the XYZ system using coordinate conversion formula (1). , X = 2.7689R + 1.7517G + 1.130
2BY=R+4.5907G+0.0601B
(1) Z = 0.0565G +
5.5943B Based on the obtained X, Y, and Z, the formula (
2) Calculate the chromaticity coordinates x, y, x=X/(X+Y+Z) y=Y/(X+Y+Z) (2) Using orthogonal coordinates based on the calculated chromaticity coordinates x, y It is.

前記X + 3’は色相と彩度を表わすものであり、Y
は明度を表わすものである。
The above X + 3' represents hue and saturation, and Y
represents brightness.

上述のRGB系からXYZ系への変換式〔式(1)〕及
び色相と彩度を表わすx、yを求める計算式〔式(2)
〕はそれぞれR,G、Bを入力し、x、y、zを出力す
るROM及びX、Y、Zを入力し、X r 3’を整数
形式で出力するROMを用いて変換することによって、
計算時間が不要となり処理の高速化がはかれる。
The above-mentioned conversion formula from the RGB system to the XYZ system [Formula (1)] and the calculation formula for calculating x and y representing hue and saturation [Formula (2)]
] is converted using a ROM that inputs R, G, B and outputs x, y, z, and a ROM that inputs X, Y, Z and outputs X r 3' in integer format,
This eliminates the need for calculation time and speeds up the processing.

第2図(b)の場合は領域抽出対象の文書2図面が白、
黒で表現されるものであって、原稿上のマークの濃度レ
ベルが前記白、黒の濃度と重ならない濃度レベルであっ
て、前記マークの色が色毎に互いに重ならない濃度レベ
ルを持つ色を選択することによって色の分類が可能とな
る。また、前記明度Yを同様に表現してもよい。
In the case of Figure 2(b), the second drawing of the document to be extracted is white;
A color that is expressed in black, the density level of the mark on the document is a density level that does not overlap with the density of the white and black, and the color of the mark has a density level that does not overlap with each other for each color. Color classification is possible by selection. Further, the brightness Y may be expressed similarly.

第3図は学習用紙の説明図であって、同図(a)は出力
順序があらかじめ決められた枠内に学習マークを記入す
る例、同時(b)は白紙の用紙に学習マークを記入する
例である。
Figure 3 is an explanatory diagram of the learning paper, where (a) is an example of writing learning marks in a frame whose output order is predetermined, and (b) is an example of writing learning marks on a blank sheet of paper at the same time. This is an example.

第3図(a)において、m g 、 、 m g 、 
、 m g8.・・・・・は(ΔX!、Δyy)の大き
さを持つ矩形の記入枠であって、学習用紙の原点(0、
0)から所定の距離(X X r + 13’ r )
に記入枠の頂点を持ち、VVzのピッチであらかじめ黒
で印刷されたものとする。また、図に示すように、前記
記入枠mgl、mg、、mgs、−””に対応して、出
力順序を明示するための記事(「出力順序1」。
In FIG. 3(a), m g , , m g ,
, m g8. ... is a rectangular entry frame with a size of (ΔX!, Δyy), and is located at the origin (0,
0) to a predetermined distance (X X r + 13' r )
Assume that the apex of the entry frame is at , and is printed in black in advance at a pitch of VVz. Furthermore, as shown in the figure, an article ("output order 1") for specifying the output order corresponds to the entry frames mgl, mg, , mgs, -"".

1出力順序2」、「出力順序1」、・・・・・)が印刷
される。
1 output order 2'', ``output order 1'', etc.) are printed.

なお、前記記事及び記入枠m g 1. m g t 
、 mgl、・・・・・の色、形状、数及び位置関係は
第3図(a)に限定きれるものではない。
In addition, the above article and entry frame m g1. m g t
, mgl, . . . colors, shapes, numbers, and positional relationships are not limited to those shown in FIG. 3(a).

第3図(b)はあらかじめ定められた規則に従って、学
習マークを記入するための用紙である。前記規則とは、
例えば次のようなものがある。
FIG. 3(b) shows a form for filling in learning marks according to predetermined rules. The above rules are:
For example:

■使用する用紙は画像抽出対象の原稿と類似した特性の
用紙を用いること。
- Use paper with similar characteristics to the original from which the image is to be extracted.

■学習マークは絶対に接触しないように離して記入する
こと。
■Learning marks should be written at a distance so that they do not touch each other.

■学習用紙に記載した色の順(上から下)に追記マーク
領域内の原稿画像が出力される。
■The original images within the additional mark area are output in the order of the colors written on the study paper (from top to bottom).

なお、前学習用紙には読取に先行して、原稿のマークに
合わせて所望の色を記載しておく。以下の説明において
、記載するマークg+は赤、g。
It should be noted that the desired color is written on the pre-study sheet prior to reading to match the mark on the manuscript. In the following explanation, the mark g+ written in red is g.

は緑、g、は青とする。is green, and g is blue.

第2図(a)に前記マークの色度図上での位置を概略的
に示した。
FIG. 2(a) schematically shows the position of the mark on the chromaticity diagram.

第4図は画像入力部1へ入力される原稿用紙の説明図で
あって、特許広報を文書2図面の画像例とし、該文書2
図面上に学習用紙の領域出力順序に合わせてマークm、
1y mI* v mar p mat + mssを
追記した原稿である。図において、マークm。
FIG. 4 is an explanatory diagram of the manuscript paper input to the image input unit 1, with patent public relations as an image example of the document 2 drawing, and the document 2
Mark m on the drawing according to the area output order on the study paper.
This is a manuscript with the following added: 1y mI* v mar p mat + mss. In the figure, mark m.

1、ml、は最初に出力する領域を示す色の追記マーク
であって、第3画におけるマークg、に対応する。マー
クm□2m、は2番目に出力する領域を示す色の追記マ
ークであって、第3図におけるマークg、に対応する。
1, ml is a color additional mark indicating the area to be output first, and corresponds to mark g in the third stroke. The mark m□2m is a color additional mark indicating the area to be outputted second, and corresponds to the mark g in FIG. 3.

マークm□は3番目に出力する領域を示す色の追記マー
クであって、第3図におけるマークg、に対応する。な
お、同一の色特性のマークが2つ以上存在する場合、該
マークの位置のYY座標、次にXX座標の昇順に該マー
ク領域内の画像を出力するものとする。
The mark m□ is a colored additional mark indicating the third output area, and corresponds to the mark g in FIG. Note that if two or more marks with the same color characteristics exist, images within the mark area are output in ascending order of the YY coordinates of the mark position, then the XX coordinates.

次に学習部3の動作について、第2図及び第3図を用い
て説明する。ここで使用する学習用紙の記入枠の色、形
状、数2位置関係及び規則はあらかじめ学習部3に設定
されているものとする。
Next, the operation of the learning section 3 will be explained using FIGS. 2 and 3. It is assumed that the color, shape, number 2 positional relationship, and rules of the entry frame of the learning sheet used here are set in advance in the learning section 3.

また、学習する色特性は公知の如何なる色特性を用いて
学習してもよいが、本発明では前述の第2図(a)の色
度図を用いて学習するものとし、前述の色度座標x、y
を整数化、例えば100倍した整数値X%、y%をアド
レスとする2次元メモリ(カラーマツプ)で色度図を構
成するものとする。
Further, the color characteristics to be learned may be learned using any known color characteristics, but in the present invention, learning is performed using the chromaticity diagram of FIG. 2(a) described above, and the chromaticity coordinates described above x, y
It is assumed that a chromaticity diagram is constructed using a two-dimensional memory (color map) whose addresses are integer values X% and y% obtained by multiplying by 100, for example.

なお、以下の説明において、用紙平面の座標系は色特性
を表わす、x、y、zとの混乱を避けるため主走査或い
は水平方向をXX1副走査或いは垂直方向をYYと表現
する。
In the following description, the coordinate system of the paper plane will be expressed as XX1 for the main scanning or horizontal direction, and YY for the vertical direction to avoid confusion with x, y, and z, which represent color characteristics.

用紙上の座標と走査時の座標は通常一致しないjlが多
いが説明を簡単にするため、ここでは用紙の左上端を走
査開始点〔原点(0,0))、右下端を走査終了点(x
end、 yend)とする座標系で走査するものとす
る。
The coordinates on the paper and the coordinates during scanning usually do not match in many cases, but to simplify the explanation, we will use the upper left corner of the paper as the scanning start point [origin (0, 0)), and the lower right corner as the scanning end point ( x
It is assumed that the scanning is performed using a coordinate system of (end, yend).

主走査を水平方向(XX)、副走査を垂直方向(YY)
として、第3図(a)に示す学習用紙を走査し、走査点
が記入枠内にあって(記入枠判定)走査点の色特性が有
彩色の場合には、モード切換部2を経由して画像入力部
1から入力きれるRGB系の濃度信号を前述の式(1)
 、 (2)を用いて色度座標X + 3’に変換し、
更に整数化したX%。
Main scan in horizontal direction (XX), sub-scan in vertical direction (YY)
When the study paper shown in FIG. 3(a) is scanned, and if the scanning point is within the entry frame (writing frame judgment) and the color characteristics of the scanning point are chromatic, The RGB density signal that can be input from the image input unit 1 is expressed by the above equation (1).
, (2) to convert to chromaticity coordinate X + 3',
Furthermore, X% is converted into an integer.

y%をアドレスとするカラーマツプ上に領域出力順序番
号iを書き込む。ここで、カラーマツプは学習に先行し
て0に初期化されているものとする。なお、前記有彩色
か否かの判定は公知の方法、例えばR,G、Hの濃度信
号レベルが夫々異なっているか、全て同レベルかを判定
して行なう。また、前記領域出力順序番号は走査点の座
標値とあらかじめ設定されている記入枠の位置との比較
によって求める。第3図(b)に示す学習用紙の場合に
は、前記記入枠判定の処理を削除し、前述と同一の動作
で処理させるようにする。但し、領域出力順序番号iは
、前行の副走査線には有彩色が存在し、原稿の副走査線
上には有彩色が存在しない時、+1計数するように構成
しておくことで実現する。
Write area output order number i on the color map with address y%. Here, it is assumed that the color map is initialized to 0 prior to learning. Note that the determination as to whether the color is a chromatic color or not is performed using a known method, for example, by determining whether the density signal levels of R, G, and H are different from each other or are all at the same level. Further, the area output order number is obtained by comparing the coordinate values of the scanning point and the position of a preset entry frame. In the case of the study paper shown in FIG. 3(b), the process of determining the entry space is deleted and the process is performed in the same manner as described above. However, the area output order number i can be achieved by configuring the area to be counted by +1 when a chromatic color exists on the sub-scanning line of the previous row and no chromatic color exists on the sub-scanning line of the document. .

なお、領域出力順序番号の初期値は1である。Note that the initial value of the area output order number is 1.

第2図(a)に前述の説明で学習、登録したマークの色
度座標の範囲と出力順序CI> 、 <2) 。
FIG. 2(a) shows the range of chromaticity coordinates and the output order of the marks learned and registered in the above explanation CI>, <2).

(3)を例示した。(3) is exemplified.

次に、画像抽出部4のマーク識別処理、マーク領域内の
画像抽出処理について第2図及び第4図乃至第6図を用
いて説明する。
Next, the mark identification process and the image extraction process in the mark area by the image extraction section 4 will be explained using FIG. 2 and FIGS. 4 to 6.

マーク識別処理は次のようにして行なう。画像入力部1
が第4図に示すような原稿を走査して出力詐れるRGB
の濃度信号を前述の式(1) 、 (2)を用いて色度
座標X t Vに変換し、更に整数化したX%、y%を
求め、該X%、y%をアドレスとするカラーマツプの出
力がO以外の場合走査点がマーク上にあると識別する。
Mark identification processing is performed as follows. Image input section 1
The RGB output is incorrect when scanning a document like the one shown in Figure 4.
Convert the density signal into the chromaticity coordinates X t V using the above equations (1) and (2), calculate the integer X% and y%, and create a color map using the X% and y% as addresses. If the output of is other than O, it is determined that the scanning point is on the mark.

マーク領域内の画像抽出処理について、第5図、第6図
を用いて説明する。
The image extraction process within the mark area will be explained using FIGS. 5 and 6.

第5図において、副走査YYI行では出力情報に設定さ
れている色特性を持つ画素は検出されないが、YYZ行
では出力順序jを持−つマーク画像が前述のマーク識別
処理によって識別され、更にYYS行では前記マーク画
像に狭まれた画像(XWY3〜Xm’r3の間の画像)
が存在するため、当該挾まれた画像を抽出対象の画像と
し、第6図(a)、(b)、(C)に示すようなフレー
ムバッファのうち出力順序jに対応するフレームバッフ
ァに順次蓄積する。
In FIG. 5, pixels with the color characteristics set in the output information are not detected in the sub-scanning YYI row, but in the YYZ row, a mark image with the output order j is identified by the mark identification process described above, and further In the YYS row, the image narrowed by the mark image (image between XWY3 and Xm'r3)
Therefore, the interposed image is selected as the image to be extracted, and is sequentially stored in the frame buffer corresponding to the output order j among the frame buffers shown in FIGS. 6(a), (b), and (C). do.

前述の手順で順次マーク画像に挾まれた画像を抽出し、
蓄積していくが副走査がYYn−1行に達するとマーク
画像に挾まれた画像の抽出は行なわれない。副走査がY
Ynに達するとマーク画像も存在しなくなるため、出力
順序jに対応するマーク画像の抽出処理は終了する。
Extract the images sandwiched between the marked images one by one according to the above steps,
Although the data is accumulated, when the sub-scanning reaches row YYn-1, the image sandwiched between the mark images is not extracted. Sub-scan is Y
When Yn is reached, there are no more mark images, so the process of extracting mark images corresponding to output order j ends.

なお、1つのマーク領域の抽出処理終了時、該マークに
対応するフレームバッファの最終アドレスのうち少なく
とも副走査方向のアドレス最終格納アドレスとして保存
しておき、再度同一の出力順序を持つマーク領域内の画
像を抽出する場合、前記アドレスの次のアドレスから、
抽出した画像を蓄積する。
Note that when the extraction process for one mark area is completed, at least the address in the sub-scanning direction among the final addresses of the frame buffer corresponding to the mark is saved as the final storage address, and the extraction processing for the mark area with the same output order is saved again. When extracting an image, from the address next to the above address,
Accumulate the extracted images.

第6図(a)、(b)、(c)は第4図に示す原稿から
抽出した画像をフレームバッファに格納した例を示す図
である。
FIGS. 6(a), (b), and (c) are diagrams showing an example in which images extracted from the original shown in FIG. 4 are stored in a frame buffer.

画像合成部5は抽出した領域数、抽出した画像を格納し
たフレームバッファの最終格納アドレスを参照して、出
力順序1のフレームバッファから順次画像を抽出し、出
力用画像メモリ、CRT。
The image synthesis unit 5 refers to the number of extracted regions and the final storage address of the frame buffer in which the extracted images are stored, and sequentially extracts images from the frame buffer of output order 1, and outputs the images to the output image memory and CRT.

プリンタ等に出力する。Output to a printer, etc.

第7図は1つのフレームバッファFBuと領域テーブル
Taを用いて、マーク領域内から抽出した画像を保存し
た例を示す図である。
FIG. 7 is a diagram showing an example in which an image extracted from within a marked area is saved using one frame buffer FBu and area table Ta.

第7図に示すような格納形式とする場合、画像抽出部4
は原稿から抽出した画像を抽出順に順次フレームバッフ
ァFBuに格納し、少なくとも抽出した領域毎にフレー
ムバッファFBuへ格納スる時の先頭アドレスとマーク
の出力順序を表わす番号を一対とするデータを領域テー
ブルTaに格納する。
If the storage format shown in FIG. 7 is used, the image extraction unit 4
stores the images extracted from the document in the frame buffer FBu in the order in which they were extracted, and creates an area table containing data that includes a pair of the start address and the number representing the order in which marks are output at least for each extracted area when stored in the frame buffer FBu. Store in Ta.

前述のように、領域テーブルTaによって画像の抽出順
序を示して抽出画像を出力するようにしてもよい。
As described above, the extracted images may be output by indicating the extraction order of the images using the area table Ta.

画像合成部5は領域テーブルに格納されている出力順序
と先頭アドレスに基づいてフレームバッファFBuの画
像を抽出して出力する。
The image synthesis unit 5 extracts and outputs the image of the frame buffer FBu based on the output order and the start address stored in the area table.

第8図は前述の処理によって第4図に示す原稿から抽出
した画像を合成して得られた合成画像例を示す図である
FIG. 8 is a diagram showing an example of a composite image obtained by combining images extracted from the original shown in FIG. 4 through the above-described processing.

本発明の画像処理装置は、前述の説明から明らかなよう
に、抽出領域を示すマークの色によって画像出力順序が
定義されているので、複数枚の原稿から必要な画像を抽
出し合成する場合にも対処することができる。
As is clear from the above description, in the image processing apparatus of the present invention, the image output order is defined by the color of the mark indicating the extraction area. can also be dealt with.

第9図(b)は第4図に示す原稿を1枚目とし、第9図
(a)に示す原稿を2枚目とする複数枚の原稿から必要
領域を抽出し合成した合成画像を示す図である。
FIG. 9(b) shows a composite image obtained by extracting and synthesizing necessary areas from multiple originals, with the original shown in FIG. 4 as the first sheet and the original as shown in FIG. 9(a) as the second sheet. It is a diagram.

なお、画像抽出部4及び画像合成部5の処理は前述の方
法に限定されるものではない。
Note that the processing by the image extracting section 4 and the image synthesizing section 5 is not limited to the above-mentioned method.

例えば、画像抽出部4の処理としては第10図に示すよ
うに、連結マーク画像の外接枠を検出し、当該外接枠内
の画像を抽出する方法。又は、第11図に示すように画
像を水平及び垂直方向に走査し、両方向とマーク画像に
挾まれた領域を抽出する方法、或いはマーク画像の輪郭
を検出し連結画像の塗りつぶしの手法を用いてマーク内
の画像を抽出方法等々がある。
For example, as shown in FIG. 10, the image extraction unit 4 may detect a circumscribed frame of a connected mark image and extract an image within the circumscribed frame. Alternatively, as shown in Fig. 11, a method of scanning the image in the horizontal and vertical directions and extracting the area between the mark images in both directions, or a method of detecting the outline of the mark image and filling in the connected image. There are various methods for extracting images within the mark.

また、画像合成部5の処理方法としては、第1図に示す
ように、出力順序1,2.3に対応してあらかじめ設定
している領域に抽出した画像を出力する方法等々がある
Further, as a processing method of the image synthesizing section 5, as shown in FIG. 1, there is a method of outputting the extracted image to a preset area corresponding to output order 1, 2, 3, and the like.

また、前述の処理はマーク画像を閉ループについてのみ
説明したが、塗り潰しマーク等領域を表現できる形状の
マークに対応できるように画像抽出部4及び画像合成部
5を構成してもよい。
Furthermore, although the above-described processing has been described only for mark images in a closed loop, the image extracting section 4 and the image synthesizing section 5 may be configured so as to be able to handle marks having a shape that can express an area, such as a filled mark.

また、学習用紙か原稿かを判別できるマーク、例えば用
紙の上辺に近い領域に所定長、所定巾の黒の線分を記載
しておき、前記マークの有無を判別できる機能をモード
切換部2に付加しておくことによって、学習用紙読取と
原稿読取との切換を自動化することもできる。
In addition, a mark that can be used to distinguish whether it is a study paper or a manuscript, for example, a black line segment of a predetermined length and a predetermined width, is written in an area near the top of the paper. By adding this, it is also possible to automate switching between reading the study paper and reading the manuscript.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、原稿上のマークの
色特性と領域出力順序とを一対とする出力情報を記載し
た学習用紙を学習して出力情報として登録しておき、前
記色特性に基づいてマーク内の原稿画像を抽出し、当該
色特性と一対の出力情報である領域出力順序に従って順
次出力するようにしたので、使用環境やニーズの変化に
柔軟に対応できる、操作性の優れた画像処理装置を実現
することができるという優れた効果が得られる。
As explained above, according to the present invention, a study paper in which output information is written as a pair of color characteristics of marks on a document and an area output order is learned and registered as output information, and the color characteristics are registered as output information. The system extracts the original image within the mark based on the color characteristics and sequentially outputs it according to the area output order, which is a pair of output information. An excellent effect can be obtained in that an image processing device can be realized.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例を示すブロック図、第2図は色
特性の説明図で、同図(a)はマークの色度座標の範囲
の説明図、同図(b)はマークの濃度範囲の説明図、第
3図(a)、(b)はそれぞれ学習用紙の説明図、第4
図は入力原稿の説明図、第5図は画像抽出の説明図、第
6図(a)。 (b)、(c)はフレームバッファへの格納例を示す図
、第7図はフレームバッファと領域テーブルによる抽出
画像例を示す図、第8図は合成画像例を示す図、第9図
は2枚の原稿による画像合成を説明するための図で、同
図(a)は2枚目の入力原稿を示す図、同図(b)は合
成画像を示す図、第10図は画像抽出部の他の処理の説
明図、第11図は画像抽出部の他の処理の説明図、第1
2図は画像合成部の他の処理の説明図である。 図中、1・・・・画像入力部、2・・・・モード切換部
、3・・・・学習部、4・・・・画像抽出部、5・・・
・画像合成部。
FIG. 1 is a block diagram showing an embodiment of the present invention, and FIG. 2 is an explanatory diagram of color characteristics. FIG. An explanatory diagram of the density range, Figures 3 (a) and (b) are explanatory diagrams of the study paper, and Figure 4
The figure is an explanatory diagram of an input manuscript, FIG. 5 is an explanatory diagram of image extraction, and FIG. 6(a). (b) and (c) are diagrams showing an example of storage in a frame buffer, Figure 7 is a diagram showing an example of an extracted image using the frame buffer and area table, Figure 8 is a diagram showing an example of a composite image, and Figure 9 is a diagram showing an example of a composite image. These are diagrams for explaining image composition using two originals, in which (a) shows the second input original, (b) shows the composite image, and Fig. 10 shows the image extraction section. FIG. 11 is an explanatory diagram of other processing of the image extraction section.
FIG. 2 is an explanatory diagram of other processing of the image composition section. In the figure, 1... image input section, 2... mode switching section, 3... learning section, 4... image extraction section, 5...
・Image synthesis section.

Claims (2)

【特許請求の範囲】[Claims] (1)文書/図面とマークの記載された原稿を読み取っ
て、このマークの色特性に応じた抽出を前記文書/図面
に対して行ない合成画像を作成する画像処理装置におい
て、 用紙上に記載されているマーク及び/又は画像の濃淡及
び色の一方又は双方に応じた情報を出力する画像入力部
と、 学習モードと原稿読取モードとを切り換えるモード切換
部と、 該モード切換部が学習モードの場合には学習用紙上のマ
ークの色特性を学習し、該学習用紙上のマーク位置に基
づいて決定した領域出力順序と前記色特性を一対とする
出力情報を登録する学習部と、 前記モード切換部が原稿読取モードの場合には前記出力
情報の色特性と一致するマーク内の原稿画像を抽出し、
当該色特性と一対の領域出力順序に従って画像合成部に
順次出力する画像抽出部を設けたことを特徴とする画像
処理装置。
(1) An image processing device that reads a document/drawing and a manuscript with marks written on it, performs extraction on the document/drawing according to the color characteristics of the mark, and creates a composite image. an image input section that outputs information according to one or both of the shading and color of the mark and/or image; a mode switching section that switches between a learning mode and a document reading mode; and when the mode switching section is in the learning mode. a learning unit that learns the color characteristics of the marks on the learning paper and registers output information that pairs the area output order determined based on the mark position on the learning paper and the color characteristics; and the mode switching unit. is in the document reading mode, extracts the document image within the mark that matches the color characteristics of the output information,
An image processing device comprising: an image extracting section that sequentially outputs images to an image synthesizing section according to the color characteristics and the output order of the pair of regions.
(2)前記モード切換部は学習用紙上及び原稿の一方又
は双方の所定領域の画像の種類に基づいて切換えるよう
にしたことを特徴とする請求項(1)記載の画像処理装
置。
(2) The image processing apparatus according to claim 1, wherein the mode switching section is configured to switch the mode based on the type of image in a predetermined area on one or both of the study paper and the manuscript.
JP2096989A 1990-04-12 1990-04-12 Image processing device Expired - Lifetime JP2896919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2096989A JP2896919B2 (en) 1990-04-12 1990-04-12 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2096989A JP2896919B2 (en) 1990-04-12 1990-04-12 Image processing device

Publications (2)

Publication Number Publication Date
JPH03294973A true JPH03294973A (en) 1991-12-26
JP2896919B2 JP2896919B2 (en) 1999-05-31

Family

ID=14179615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2096989A Expired - Lifetime JP2896919B2 (en) 1990-04-12 1990-04-12 Image processing device

Country Status (1)

Country Link
JP (1) JP2896919B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium
JP2019096178A (en) * 2017-11-27 2019-06-20 株式会社東芝 Image processor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5572926B2 (en) * 2008-07-18 2014-08-20 カシオ計算機株式会社 Display device, display method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium
JP2019096178A (en) * 2017-11-27 2019-06-20 株式会社東芝 Image processor

Also Published As

Publication number Publication date
JP2896919B2 (en) 1999-05-31

Similar Documents

Publication Publication Date Title
JPH0552700B2 (en)
CN101753764B (en) Image processing apparatus and method, image reading apparatus, and image sending method
US5592310A (en) Image processing method and apparatus
JP4337251B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
JPH04282968A (en) Color type discrimination device for original
US6041205A (en) Image processing apparatus for laying out plurality of images in conformity with image orientation
JPH04233368A (en) Color document reader
JPH03294973A (en) Image processor
JP4167680B2 (en) Document reading apparatus and document reading method
JP4453979B2 (en) Image reproducing apparatus, image reproducing method, program, and recording medium
JP3536165B2 (en) Image processing device and image output device
JPH0424879A (en) Picture processor
JPH041864A (en) Image processor
JPS6033333B2 (en) Original reading device
JPH03263277A (en) Picture processor
JPH0424878A (en) Image processor
JP2947566B2 (en) In-frame area detection device
JPS6363907B2 (en)
JPH03225477A (en) Image processor
JPH03263273A (en) Picture processor
JPH02295351A (en) Picture processing system
JPS62100884A (en) Picture processor
JPH03263274A (en) Picture processor
JPH03288275A (en) Image processor
JPH03294974A (en) Image processing method