JPH041864A - Image processor - Google Patents

Image processor

Info

Publication number
JPH041864A
JPH041864A JP2103330A JP10333090A JPH041864A JP H041864 A JPH041864 A JP H041864A JP 2103330 A JP2103330 A JP 2103330A JP 10333090 A JP10333090 A JP 10333090A JP H041864 A JPH041864 A JP H041864A
Authority
JP
Japan
Prior art keywords
image
area
mark
output order
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2103330A
Other languages
Japanese (ja)
Inventor
Masahisa Yano
矢野 雅久
Yoshiyuki Yamashita
山下 義征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2103330A priority Critical patent/JPH041864A/en
Publication of JPH041864A publication Critical patent/JPH041864A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PURPOSE:To obtain an image processor which can flexibly deal with the changes of a working environment and the needs with high operability by providing an extracted area learning part and an image extracting part which extracts an image out of an original image based on the format information when a mode switch part is set in an original read mode and outputs the extracted image based on the output order. CONSTITUTION:When a mode switch part 2 is set in an original read mode, the output of an image input part 1 is sent to an image extracting part 5 and at the same time an image extraction start signal is outputted. A format learning part 4 starts its operation by a format learning start signal and extracts and registers a format setting area of a learning form and the position and the size of a color mark showing an extracting area on the learning format as the format information. The image extracting part 5 starts its operation by an image extraction start signal to extract an image out of an original image and outputs the extracted image based on the output order. Thus an image of a desired area is outputted. Thus it is possible to obtain an image processor which can flexibly deal with the changes of a working environment and the needs with high operability.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は文書9図面、写真等が掲載された原稿から任意
の領域の画像を抽出し、該抽出した画像を合成する画像
処理装置に関するものである。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to an image processing device that extracts an image of an arbitrary area from a document containing drawings, photographs, etc., and synthesizes the extracted images. It is.

〔従来技術〕[Prior art]

従来、この種の分野の技術としては、例えば特開昭57
−41770号公報に開示されている画像処理装置があ
る。
Conventionally, as a technology in this kind of field, for example, Japanese Patent Application Laid-open No. 57
There is an image processing device disclosed in Japanese Patent No. -41770.

この画像処理装置は、入力用紙上の2色の画像を別々に
読み取る2色読取装置と、この2色読取装置の出力から
上記入力用紙が領域指定、入力画像指定、出力画像指定
のうちのいずれのためのものであるかを判定する種別マ
ーク検出器と、この種別マーク検出器により領域指定と
判別された入力用紙に対する上記2色読取装置の出力か
ら該入力用紙に第1の色で書かれた入力画像から抜き取
るための抜取領域を示す情報を検出する第1の検出器と
、上記種別マーク検出器により領域指定と判別された入
力用紙に対する上記2色読取装置の出力から該入力用紙
に第2の色で書かれた出力画像にはめ込むたの挿入領域
を示す情報を検出する第2の検出器と、上記種別マーク
検出器により領域指定と判別された入力用紙に対する上
記2色読取装置の出力から該入力用紙に書かれた上記抜
取領域と挿入領域との対応関係を示す情報を検出する第
3の検出器と、上記3つの検出器の出力が入力され上記
種別マーク検出器により入力画像指定と判別きれた入力
用紙の画像のうち上記第1の検出器の出力の抜取領域の
画像を、上記種別マーク検出器により出力画像と判別さ
れた入力用紙の画像の上記第2の検出器の出力の上記抜
取領域と対応関係にある挿入領域にはめ込み出力する画
素入替装置とを備えて合成画像を作成していた。
This image processing device includes a two-color reading device that separately reads two-color images on an input sheet, and an output from the two-color reading device that determines whether the input sheet has an area designation, an input image designation, or an output image designation. a type mark detector that determines whether the input sheet is designated by the type mark detector; a first detector that detects information indicating a sampling area to be extracted from an input image; and a first detector that detects information indicating a sampling area to be extracted from an input image; a second detector for detecting information indicating an insertion area inset in an output image written in two colors; and an output of the two-color reading device for an input sheet that is determined to be an area designation by the type mark detector. A third detector detects information indicating the correspondence between the extraction area and the insertion area written on the input sheet, and the outputs of the three detectors are inputted, and the type mark detector specifies the input image. The image of the sampling area of the output of the first detector among the images of the input paper that has been successfully determined as the output image is the output of the second detector of the image of the input paper that has been determined as the output image by the type mark detector. A composite image is created by including a pixel replacement device that fits into and outputs an insertion area that corresponds to the above-mentioned extraction area.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら上記従来構成の画像処理装置では下記のよ
うな問題点があった。
However, the image processing apparatus with the conventional configuration described above has the following problems.

(1〉原稿の所定領域を抽出して合成領域の任意の領域
に再配置する場合、抽出のための領域枠と再配置のため
の領域枠が重複したり、又は枠間を結ぶド接続線が複雑
に交錯して再配置の設定が困難になる。
(1> When extracting a predetermined area of a document and relocating it to an arbitrary area in the compositing area, the area frame for extraction and the area frame for relocation may overlap, or there may be a connection line between the frames. are intertwined in a complicated manner, making it difficult to set up relocation.

び合成のための用紙の作成及び登録操作が増加し、長時
間を要する。
This increases the number of paper creation and registration operations for compositing and compositing, which takes a long time.

本発明は上述の点に鑑みてなされたもので、出力順序を
示すマークの色特性と文書2図面、写真等の画像の所望
の領域を抽出するためのマークの位置及び大きさとを領
域抽出及び出力のための書式情報として学習し、該書式
情報のうちマークの位置及び大きさに基づいて、前記画
像の所望の領域の画像を抽出し、前記色特性に基づいて
、前記所望の領域の画像を出力するようにし、使用環境
やニーズの変化に柔軟に対応できる操作性の優れた画像
処理装置を提供することを目的とする。
The present invention has been made in view of the above-mentioned points, and the present invention has been made in view of the above-mentioned points. Learn as format information for output, extract an image of a desired area of the image based on the position and size of the mark from the format information, and extract an image of the desired area based on the color characteristics. The purpose of the present invention is to provide an image processing device with excellent operability that can flexibly respond to changes in the usage environment and needs.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は上記課題を解決するため原稿上の任意の領域の
画像を抽出する画像抽出装置を下記の如く構成した。
In order to solve the above problems, the present invention has configured an image extraction device for extracting an image of an arbitrary area on a document as described below.

用紙上に記載記載されているマーク及び/又は画像の濃
淡及び色の一方又は双方に応じた情報を出力する画像入
力部と、学習モードと原稿読取モードとを切換えるモー
ド切換部と、モード切換部が学習モードの場合には学習
用紙上の出力順序マークの色特性を学習し、出力順序マ
ークの位置に基づいて決定した出力順序と色特性を一対
とする出力情報を登録する出力順序学習部と、学習用紙
上の抽出領域マークから色特性を持つ領域抽出マーク毎
に当該領域抽出マーク位置及び大きさを書式情報として
抽出登録する抽出領域学習部と、モード切換部が原稿読
取モードの場合には書式情報に基づいて原稿画像内の画
像を抽出し、当該抽出した画像を出力順序に基づいて出
力する画像抽出部とを具備することを特徴とする。
an image input section that outputs information according to one or both of the shading and color of marks and/or images written on paper; a mode switching section that switches between a learning mode and a document reading mode; and a mode switching section. an output order learning unit that learns the color characteristics of the output order mark on the learning paper when the is in the learning mode, and registers output information as a pair of the output order and color characteristics determined based on the position of the output order mark; , an extraction area learning unit that extracts and registers the position and size of the area extraction mark as format information for each area extraction mark with color characteristics from the extraction area marks on the learning paper; and when the mode switching unit is in the document reading mode. The present invention is characterized by comprising an image extracting section that extracts an image within a document image based on format information and outputs the extracted image based on an output order.

また、モード切換部は学習用紙上及び原稿の一方又は双
方の所定の領域の画像の種類に基づいて切換えるように
したことを特徴とする。
Further, the mode switching section is characterized in that the mode switching section is configured to switch based on the type of image in a predetermined area on one or both of the study paper and the manuscript.

順序学習部は学習用紙の出力順序設定領域のマークの色
特性を学習し、用紙上のマークの位置に基づいて決定し
た出力順序と色特性を一対とする出力情報を登録する。
The order learning unit learns the color characteristics of the marks in the output order setting area of the learning sheet, and registers output information that pairs the output order and color characteristics determined based on the positions of the marks on the sheet.

抽出領域学習部は、学習用紙の書式設定領域、又は学習
用紙上の抽出領域を示すカラーマークから、色特性を持
つカラーマークを選択し、当該カラーマークの位置及び
太ききを書式情報として抽出・登録する。
The extraction area learning unit selects a color mark with color characteristics from the format setting area of the study paper or the color mark indicating the extraction area on the study paper, and extracts the position and thickness of the color mark as format information. register.

画像抽出部は、画像抽出起動信号によって動作を開始し
、書式情報に基づいて、原稿画像内の画像を抽出し、当
該抽出した画像を前記出力順序に基づいて出力する。
The image extraction section starts its operation in response to an image extraction activation signal, extracts an image within the document image based on the format information, and outputs the extracted image based on the output order.

従って、出力順序を示すマークの色特性と画像の所望の
領域を抽出するためのマークの位置及び大きさを領域抽
出及び出力のための書式情報として学習し、この書式情
報のうちマークの位置及び大きさに基づいて画像から所
望の領域の画像を抽出し、色特性に基づいて、所望の領
域の画像を出力するので、使用環境やニーズの変化に柔
軟に対応できる操作性の優れたものとなる。
Therefore, the color characteristics of the mark indicating the output order and the position and size of the mark for extracting the desired area of the image are learned as format information for area extraction and output, and among this format information, the position and size of the mark are learned. It extracts an image of a desired area from an image based on its size, and outputs an image of the desired area based on its color characteristics, making it highly operable and able to respond flexibly to changes in the usage environment and needs. Become.

〔実施例〕〔Example〕

以下、本発明の実施例を図面に基づいて説明する。 Embodiments of the present invention will be described below based on the drawings.

第1図は本発明の画像処理装置の構成を示すブロック図
である。図示するように、画像処理装置は、画像入力部
1、モード切換部2、出力順序学習部3、書式学習部4
、画像抽出部5及び画像合成部6を具備する構成である
FIG. 1 is a block diagram showing the configuration of an image processing apparatus according to the present invention. As shown in the figure, the image processing device includes an image input section 1, a mode switching section 2, an output order learning section 3, and a format learning section 4.
, an image extraction section 5, and an image composition section 6.

画像入力部1は、第3図、第6図に示すような用紙を、
主走査を水平方向(XX)、副走査を垂直方向(YY)
として走査し、用紙上に記載されているマーク及び/又
は文書9図面の濃淡及び色の一方又は双方に応じた色情
報、例えば濃度多値レベル信号またはR(赤)、G(緑
)、B(青)の多値レベル信号を色情報としてモード切
換部2へ出力する。
The image input unit 1 inputs sheets of paper as shown in FIGS. 3 and 6,
Main scan in horizontal direction (XX), sub-scan in vertical direction (YY)
Marks written on the paper and/or document 9 Color information corresponding to one or both of the shading and color of the drawing, such as a density multi-level signal or R (red), G (green), B The (blue) multilevel signal is output to the mode switching section 2 as color information.

モード切換部2は、図示しないスイッチ等によって学習
モード或いは原稿読取モードを設定できるようになって
いる。モード切換部2が学習モードに設定されている場
合には画像入力部1の出力を出力順序学習部3及び書式
学習部4に出力すると共に、学習起動信号を出力する。
The mode switching unit 2 can set a learning mode or a document reading mode using a switch (not shown) or the like. When the mode switching unit 2 is set to the learning mode, it outputs the output of the image input unit 1 to the output order learning unit 3 and format learning unit 4, and outputs a learning activation signal.

また、モード切換部2が原稿読取モードに設定されてい
る場合には画像入力部1の出力を画像抽出部5に出力す
ると共に、画像抽出起動信号を出力する。
Further, when the mode switching section 2 is set to the original reading mode, the output of the image input section 1 is outputted to the image extraction section 5, and an image extraction start signal is outputted.

出力順序学習部3は、前記学習起動信号によて動作が開
始され、第3図に示すような学習用紙の出力順序設定領
域のマークの色特性を学習し、用紙上のマークの位置に
基づいて決定した出力順序と前記色特性とを一対とする
出力情報を登録すると共に、書式学習起動信号を書式学
習部に出力すが開始され、第3図に示すような学習用紙
の書式設定領域、又は第4図に示す学習用紙上の抽出領
域を示すカラーマークから、前記色特性を持つカラーマ
ークを選択し、当該カラーマークの位置及び大きさを書
式情報として抽出・登録する。
The output order learning section 3 is started to operate by the learning start signal, learns the color characteristics of the marks in the output order setting area of the study paper as shown in FIG. At the same time, a format learning start signal is started to be output to the format learning section, and the formatting area of the learning sheet as shown in FIG. 3 is registered. Alternatively, a color mark having the above-mentioned color characteristics is selected from the color marks indicating the extraction area on the study paper shown in FIG. 4, and the position and size of the color mark are extracted and registered as format information.

画像抽出部5は、画像抽出起動信号によって動作を開始
し、前記書式情報に基づいて、原稿画像内の画像を抽出
し、当該抽出した画像を前記出力順序に基づいて出力す
る。
The image extraction unit 5 starts operating in response to the image extraction activation signal, extracts an image within the document image based on the format information, and outputs the extracted image based on the output order.

画像合成部6は、画像抽出部5から出力されるカラーマ
ーク領域内の原稿画像を合成し、図示しないCRTやプ
リンタ等に表示する。
The image composition section 6 composes the document images within the color mark area outputted from the image extraction section 5 and displays the composite images on a CRT, printer, etc. (not shown).

第2図は原稿上のマークを色毎に分類するための原理を
示す色特性の説明図であって、同図(a)はマークの色
度座標の範囲を示す色度図、同図(b)はマークの濃度
範囲の説明図である。
FIG. 2 is an explanatory diagram of color characteristics showing the principle for classifying marks on a document by color; FIG. 2(a) is a chromaticity diagram showing the range of chromaticity coordinates of marks; b) is an explanatory diagram of the density range of the mark.

第2図(a)に示す原理を用いる場合には、画像入力部
1に、例えばRGB系の濃度多値レベル信号を出力でき
るカラースキャナが必要である。
When using the principle shown in FIG. 2(a), the image input section 1 requires a color scanner capable of outputting, for example, an RGB density multilevel signal.

また第2図(b)に示す原理を用いる場合には画像入力
部1に濃度多値レベル信号を出力できるモノクロスキャ
ナ又は上記カラースキャナが必要である。
Further, when using the principle shown in FIG. 2(b), a monochrome scanner or the above-mentioned color scanner that can output a density multilevel signal to the image input section 1 is required.

第2図(a)の色度図は公知の方法により作成したもの
でを概略的に示したのであって、RGB系の濃度信号を
座標変換式(1)を用いてXYZ系に変換し、 X −2,7689R+ 1.7517G + 1.1
302BY =    R+ 4.5907 G + 
0.0601 BZ−0,0565G+5.5943B
    (1)求められたX、Y、Zをもとに式(2)
を用いて色度座標X、7を計算し、 x=X/(X+Y+Z) y−Y/(X+y+z)          (2)求
められた色度座標x + Fによる直交座標を用いたも
のである。前記x、yは色相と彩度を表わすものであり
、Yは明度を表わすものである。
The chromaticity diagram in FIG. 2(a) was created by a known method and is schematically shown, in which the RGB density signal is converted to the XYZ system using the coordinate conversion formula (1), X -2,7689R+ 1.7517G + 1.1
302BY = R+ 4.5907 G+
0.0601 BZ-0,0565G+5.5943B
(1) Formula (2) based on the obtained X, Y, and Z
The chromaticity coordinates X, 7 are calculated using x=X/(X+Y+Z) y-Y/(X+y+z) (2) Orthogonal coordinates based on the obtained chromaticity coordinates x+F are used. The x and y represent hue and saturation, and Y represents lightness.

上述のRGB系からXYZ系への変換式〔式(1)〕及
び色相と彩度を表わすX、7を求める計算式〔式(2)
はそれぞれR,G、Bを入力し、x、y、zを出力する
ROM及びx、y、zを入力し!、yを整数形式で出力
するROMを用いて変換することによって、計算時間を
不要とし、処理の高速化をはかることができる。
The above-mentioned conversion formula from the RGB system to the XYZ system [Formula (1)] and the calculation formula for calculating X and 7 representing hue and saturation [Formula (2)]
inputs R, G, and B, and outputs x, y, and z from a ROM and inputs x, y, and z! , y can be converted using a ROM that outputs them in integer format, thereby eliminating the need for calculation time and speeding up the processing.

第2図(b)の場合には、領域抽出対象の文書0図面が
白、黒で表現されたものであって、原稿上のマークの濃
度レベルが前記白、黒の濃度と重ならない濃度レベルで
あって、前記マークの色が色毎に互いに重なる濃度レベ
ルを持つ色を選択することによって色の分類が可能とな
る。また、前記Yを同様に表現してもよい。
In the case of FIG. 2(b), the document 0 drawing from which the region is to be extracted is expressed in white and black, and the density level of the mark on the document does not overlap with the density of the white and black. The colors can be classified by selecting colors of the marks that have density levels that overlap each other. Moreover, the above Y may be expressed similarly.

第3図は学習用紙の説明図であって、学習用紙出力順序
設定領域と書式設定領域の2つの領域で構成され、2つ
の領域は分割マークmbによって分割され、通常、書式
設定領域の大きさは処理対象の文書1図面を同一の大き
さを持ち、分割マークmbは文書4図面の用紙の上辺と
対応する。
FIG. 3 is an explanatory diagram of the study paper, which is composed of two areas: a study paper output order setting area and a format setting area. The two areas are divided by a division mark mb, and the size of the format setting area is usually has the same size as the document 1 drawing to be processed, and the division mark mb corresponds to the upper side of the paper of the document 4 drawing.

出力順序設定領域においてm g I + m g *
 + !n gl、・・・・は(ΔXX、Δyy)の大
きさを持った矩形の記入枠であって、学習用紙の原点(
0゜O)から所定の距離(X X + + 3’ V 
、)に記入枠の頂点を持ち、XX、のピッチであらかじ
め黒で印刷されているものとする。また、図に示すよう
に、前記記入枠に対して、出力順序を明示するための記
事(’ I J s ’ 2 J + ’ 3J *・
・・・)が印刷されている。
m g I + m g * in the output order setting area
+! n gl,... is a rectangular entry frame with a size of (ΔXX, Δyy), and is located at the origin of the study sheet (
0°O) to a predetermined distance (X X + + 3' V
Assume that the apex of the entry frame is at , ) and is printed in black in advance with a pitch of XX. In addition, as shown in the figure, an article (' I J s ' 2 J + ' 3 J *・
) is printed.

なお、前記記事及び記入枠mg 1. m g z r
 m gl、・・・・の色、形状、数及び位置関係は第
3図に限定きれるものではない。
In addition, the above article and entry frame mg 1. m g z r
The colors, shapes, numbers, and positional relationships of m gl, . . . are not limited to those shown in FIG.

また、出力順序設定領域の記入を削除し、予め定められ
た規則に従って、学習マークを記入してもよい。この規
則としては、例えば次のようなものである。
Alternatively, entries in the output order setting area may be deleted and learning marks may be entered in accordance with predetermined rules. Examples of this rule are as follows.

■使用する用紙は画像抽出対象の原稿と類似した特性の
用紙を用いること。
- Use paper with similar characteristics to the original from which the image is to be extracted.

■学習マークは絶対に接触しないように離して記入する
こと。
■Learning marks should be written at a distance so that they do not touch each other.

■学習用紙に記載した色の順(左から右)を出力順序と
する。
■The order of colors written on the study paper (from left to right) is the output order.

なお、前記学習用紙の出力順序設定領域には、読取に先
行して書式設定領域内の領域抽出マークに合わせて所望
の色を記載しておく。以下の説明において記載するマー
クg工は赤、glは緑、gsは青とする。
In addition, in the output order setting area of the study paper, a desired color is written in accordance with the area extraction mark in the format setting area prior to reading. In the following explanation, the mark g is shown in red, GL is shown in green, and gs is shown in blue.

第2rXJ(a)に前記マークの色度図上での位置を概
略的に示した。
2nd rXJ(a) schematically shows the position of the mark on the chromaticity diagram.

第3図の書式設定記入領域に記載されるマークは文書1
図面から抽出する領域を示すものであって、文書9図面
と1:1の位置関係を保って記入する・マークmIhm
1*、mate m1g、mHは出力順序設定領域に示
す出力順序に合わせて、第6図に示す原稿に対応して記
入したものである。
The mark written in the formatting entry area in Figure 3 is Document 1
Mark mIhm indicates the area to be extracted from the drawing, and should be entered in a 1:1 positional relationship with the document 9 drawing.
1*, mate m1g, mH are entered in accordance with the output order shown in the output order setting area and correspond to the original shown in FIG.

図において、マークm、、、m、、は最初に出力する領
域を示す色の抽出領域マークであって、出力順序設定領
域におけるg+に対応する。マークm。
In the figure, marks m, , m, are colored extraction area marks indicating the area to be output first, and correspond to g+ in the output order setting area. mark m.

1、m、、は2番目に出力する領域を示す色の抽出領域
マークであって出力順序設定領域におけるglに対応す
る。ms、は3番目に出力する領域を示す色の抽出領域
マークであって、出力順序設定領域におけるgsに対す
る。
1, m, . are color extraction area marks indicating the area to be output second, and correspond to gl in the output order setting area. ms is a color extraction area mark indicating the third output area, and corresponds to gs in the output order setting area.

なお、同一の色のマークが2つ以上存在する場合、該マ
ークのYY座標、次にXX座標の昇順に該マーク領域内
の画像を出力するものとする。
Note that if two or more marks of the same color exist, images within the mark area are output in ascending order of the YY coordinates of the mark, then the XX coordinates of the mark.

また、第3図における出力順序設定領域と書式設定領域
とを別の用紙にすれば、出方順序と書式設定とを独立し
て設定することが可能となるため、指定の自由度が増す
Furthermore, if the output order setting area and the format setting area in FIG. 3 are made on separate sheets of paper, the output order and format setting can be set independently, increasing the degree of freedom in specification.

第4図は書式設定を独立して設定するようにした場合の
書式設定領域を示す用紙を示す図であって、第3図に示
すように原稿と独立して抽出領域を記載した学習用紙を
用いてもよいが、原稿上の追記マークそのものを書式設
定のために使用するようにしてもよい。第4図において
、マークm。
FIG. 4 is a diagram showing a paper showing the formatting area when formatting is set independently, and as shown in FIG. Alternatively, the postscript mark itself on the document may be used for formatting. In FIG. 4, mark m.

1 、 mjs 、 mar 、 man 、 mjs
は第3図と同じ意味を持つ。
1, mjs, mar, man, mjs
has the same meaning as in Figure 3.

第4図に示すようにすることにより、書式設定が簡単に
行なえることになる。
By doing as shown in FIG. 4, formatting can be done easily.

次に、第1図の出力順序学習部3の動作について第2図
及び第3図を用いて説明する。ここで学習用紙の記入枠
の色、形状、数9位置関係及び規則は予め出力順序学習
部3に設定されているものとする。
Next, the operation of the output order learning section 3 shown in FIG. 1 will be explained using FIGS. 2 and 3. Here, it is assumed that the color, shape, positional relationship, and rules of the entry frames of the learning sheet are set in advance in the output order learning section 3.

また、学習する色特性は公知の如何なる色特性を用いて
学習してもよいが、本発明では前述の第2図(a)の色
度図を用いて学習するものとし、前述の色度座標X +
 Fを整数化、例えば100倍した整数値X%、y%を
アドレスとする2次元メモリ(カラーマツプ)で色度図
を構成するものとする。
Further, the color characteristics to be learned may be learned using any known color characteristics, but in the present invention, learning is performed using the chromaticity diagram of FIG. 2(a) described above, and the chromaticity coordinates described above X +
It is assumed that a chromaticity diagram is constructed from a two-dimensional memory (color map) whose addresses are integer values X% and y% obtained by converting F into an integer, for example, 100 times it.

なお、以下の説明において用紙平面の座標系は色特性を
表わすX、Y、Zとの混乱を避けるため、主走査或いは
水平方向をXX、副走査或いは垂直方向をYYと表現す
る。
In the following description, to avoid confusion with X, Y, and Z representing color characteristics, the coordinate system of the paper plane will be expressed as XX for the main scanning or horizontal direction, and YY for the sub-scanning or vertical direction.

また、用紙上の座標と走査時の座標は通常一致しない場
合が多いが説明を簡単にするため、ここでは用紙の左上
端を走査開始点〔原点(0゜0)〕、右下端を走査終了
点(xend、 yend)とする座標系で走査してい
くものとする。
Also, the coordinates on the paper and the coordinates during scanning usually do not match, but for the sake of simplicity, here we will use the upper left corner of the paper as the scanning start point [origin (0°0)] and the lower right corner as the scanning end point. It is assumed that scanning is performed using a coordinate system with points (xend, yend).

主走査を水平方向(XX)、副走査を垂直方向(YY)
として第3図に示す学習用紙を走査し、走査点が記入枠
内にあって(記入枠判定)走査点の色特性が有彩色の場
合にはモード切換部2を経由して画像入力部1から入力
されるRGB系の濃度信号を前述の式(1)、(2)を
用いて色度座標X。
Main scan in horizontal direction (XX), sub-scan in vertical direction (YY)
The study paper shown in FIG. 3 is scanned as shown in FIG. The RGB system density signal input from the chromaticity coordinate X is calculated using the above-mentioned equations (1) and (2).

yに変換し、更に整数化したX%、y%をアドレスとす
るカラーマツプ上に領域出力順番号iを書き込み、該カ
ラーマツプを出力情報とする。
The area output order number i is written on a color map whose addresses are X% and y%, which are converted into y and further converted into integers, and the color map is used as output information.

ここでカラーマツプは学習に先行して0に初期化されて
いるものとする。
Here, it is assumed that the color map is initialized to 0 prior to learning.

なお、前記有彩色か否かの判定は公知の方法、例えばR
,G、Bの濃度信号レベルが夫々異なっていることによ
って行なう。
Note that the determination as to whether the color is a chromatic color or not is performed using a known method, for example, R
, G, and B have different density signal levels.

また前記領域出力順序番号は走査点の座標値と予め設定
されている記入枠の位置との比較によって求める。
Further, the area output order number is obtained by comparing the coordinate values of the scanning point and the position of a preset entry frame.

前述した出力順序設定領域の記入枠を削除した場合には
、前記記入枠判定の処理を削除し、前述と同一の動作で
処理させるようにする。但し、領域出力順序番号iは、
各主走査線上で所定の長さにわたって有彩色の切れが存
在する時+1計数するように構成しておくことで実現す
る。但し、領域出力順序番号の初期値は1である。
When the entry frame in the output order setting area described above is deleted, the processing for determining the entry space is deleted and the same operation as described above is performed. However, the area output order number i is
This is achieved by configuring the system to count +1 when a chromatic color break exists over a predetermined length on each main scanning line. However, the initial value of the area output order number is 1.

第2図(a)に前述の説明で学習、登録したマークの色
の色度座標の範囲と出力順序を例示した。
FIG. 2(a) illustrates the range and output order of the chromaticity coordinates of the colors of the marks learned and registered in the above explanation.

なお、出力順序設定と書式設定を別用紙とし独立して学
習するような構成とする場合は、出力順序学習部で示し
た手順で使用する色の色特性番号を予め色特性マツプに
登録しておく。出力順序学習部3で出力順序設定領域を
学習する場合は、出力順序設定領域に記載されている色
の特性を前記色特性マツプを参照して検出し、検出した
色特性番号と出力順序設定領域の位置に基づいて定めら
れる出力順序を一対のデータとする出力順序テーブルを
作成し、前記色特性マツプと出力順序テーブルとを出力
情報とする。
In addition, if you configure the configuration so that output order settings and format settings are learned independently on separate sheets, register the color characteristic numbers of the colors used in the procedure shown in the output order learning section in advance in the color characteristic map. put. When learning the output order setting area in the output order learning section 3, the characteristics of the colors described in the output order setting area are detected by referring to the color characteristic map, and the detected color characteristic number and the output order setting area are detected. An output order table is created in which the output order determined based on the position of is a pair of data, and the color characteristic map and the output order table are used as output information.

次に書式学習部4のマーク識別処理、書式抽出処理につ
いて第3図〜第5図を用いて説明する。
Next, mark identification processing and format extraction processing of the format learning section 4 will be explained using FIGS. 3 to 5.

マーク識別処理は次のようにして行なう。画像入力部1
が第3図の書式設定領域に示すような学習用紙を走査し
て出力されるRGBの濃度信号を前述の式(1) 、 
(2)を用いて色度座標x、yに変換し、更に整数化し
たX%、y%を求め、該X%、y%をアドレスとするカ
ラーマツプの出力が0以外の場合には走査点がマーク上
にあると識別する。
Mark identification processing is performed as follows. Image input section 1
The RGB density signal outputted by scanning the study paper as shown in the format setting area of FIG. 3 is expressed by the above equation (1),
(2) is used to convert the chromaticity coordinates to x, y, and then calculate the integer X%, y%. If the output of the color map whose address is the X%, y% is other than 0, the scanning point is on the mark.

なお、出力順序設定と書式設定を別紙とし、独立して学
習するような構成とする場合は、画像入力部1が第4図
に示すような学習用紙を走査して出力されるRGBの濃
度信号から前述の手順でもとめられたX%、y%をアド
レスとする色特性マツプ出力が0以外の場合、走査点が
マーク上にあると識別する。従って、前述の出力情報を
独立して、色特性マツプに基づいて書式情報を学習する
こととなる。
In addition, if the configuration is such that the output order setting and format setting are made into separate sheets and studied independently, the image input section 1 scans the study sheet as shown in FIG. 4 and outputs the RGB density signal. If the color characteristic map output whose addresses are X% and y% determined in the above-described procedure is other than 0, it is determined that the scanning point is on the mark. Therefore, format information is learned based on the color characteristic map independently of the output information described above.

書式抽出処理は次のようにして行なう、第5図において
、副走査YYI行まではマーク画像は検出されないが、
YY2行ではマーク画像が検出される。該マーク画像が
検出されると、同一色特性で連結しているマーク画像毎
に位置及び大きさを求めるために走査点の座標(XX、
YY)を用いてマーク画像の4隅の角点を求めるための
処理を行なう。例えば特願昭63−002028号に詳
細に開示きれている原理を基づいて式(3)の計算を行
なう。
The format extraction process is performed as follows. In FIG. 5, no mark image is detected up to the sub-scanning YYI line;
A mark image is detected in row YY2. When the mark image is detected, the coordinates (XX,
YY) is used to perform processing to find the corner points of the four corners of the mark image. For example, equation (3) is calculated based on the principle disclosed in detail in Japanese Patent Application No. 63-002028.

左上の角点−MIN(XX+YY) 左下の角点−MIN(XX−YY) 右上の角点−MAX(XX+YY) 右下の角点−MAX(XX−YY)    (3)また
、マーク画像が連結しているか否かの判定は公知の技術
例えば特公昭60−55868号に詳細に開示されてい
るように下式(4)を用いて行なう。
Upper left corner point - MIN (XX + YY) Lower left corner point - MIN (XX - YY) Upper right corner point - MAX (XX + YY) Lower right corner point - MAX (XX - YY) (3) Also, mark images are connected The determination as to whether or not this is the case is carried out using a known technique such as the following equation (4) as disclosed in detail in Japanese Patent Publication No. 60-55868.

X X < + −t )jb≦x x 、 1vXX
<+−s>j−’;:XXxb           
(4)但し、XX<+−I>sbr XX(t−tt3
mハ夫々走査YY行の前走査行Y Y + −+の色特
性0から色特性にへの変化点及び色特性kから色特性O
への変化点ペアのX座標を示し、X X + + −、
X X l1mは夫々走査行Y、の色特性0から前記色
特性と同一の色特性にへの変化点及び前記色特性0への
変化点ペアのX座標を示す。
X X < + -t)jb≦x x, 1vXX
<+-s>j-';:XXxb
(4) However, XX<+-I>sbr XX(t-tt3
The change point from the color characteristic 0 to the color characteristic of the previous scan line Y Y + -+ of the scan YY line and the color characteristic k to the color characteristic O
Indicates the X coordinate of the pair of change points to, X X + + −,
X X l1m respectively represent the X coordinates of the change point from the color characteristic 0 to the same color characteristic as the color characteristic and the pair of change points to the color characteristic 0 in the scanning row Y.

前述の処理を繰り返し行ない、副走査がYY。The above process is repeated until the sub-scan is YY.

行まで達するとマーク画像が消滅するので前述で求めた
4隅の角点の座標と色特性にの番号とを書式情報とする
。前述の方法は閉ループ図形のみではなく、塗り潰し図
形にも対処可能である。
Since the mark image disappears when it reaches the line, the coordinates of the four corner points and the number of the color characteristics obtained above are used as format information. The method described above can be applied not only to closed-loop figures but also to filled figures.

前述の方法で第3図の書式設定領域又は第4図の学習用
紙を全面走査して、マークmst 1m5z em、□
2m□9m、1毎に4隅の角点の座標と色特性の番号と
を求め書式情報とする。
Scan the entire formatting area in Figure 3 or the study paper in Figure 4 using the method described above, and mark the marks mst 1m5z em, □
The coordinates of the corner points of the four corners and the number of the color characteristic are obtained for every 2 m □ 9 m and used as format information.

なお、書式情報の位置、大きさを表わす情報を4隅の角
点から求められるマーク画像の外接枠としてもよい。前
述の説明において、出力順序設定と書式設定とを夫々独
立して学習する場合には、モード切換部2の学習モード
更に色マツプ学習モード、領域出力順序学習モードに分
割して切換える。
Note that the information representing the position and size of the format information may be the circumscribed frame of the mark image determined from the corner points of the four corners. In the above description, when learning the output order setting and format setting independently, the learning mode of the mode switching section 2 is further divided into a color map learning mode and a region output order learning mode.

次に画像抽出部5の処理について説明する。先ず、出力
順序設定と書式設定とが一体の書式情報として登録され
る場合の説明を行なう。
Next, the processing of the image extraction section 5 will be explained. First, a case where output order settings and format settings are registered as integrated format information will be explained.

画像入力部1が第6図に示す原稿を走査して、走査点(
XX、YY)が前記書式情報が示す領域にある場合には
、画像入力部1の出力を書式設定の色特性番号に対応す
るフレームバッファに順次蓄積する。
The image input unit 1 scans the document shown in FIG.
XX, YY) is in the area indicated by the format information, the output of the image input unit 1 is sequentially accumulated in the frame buffer corresponding to the color characteristic number of the format setting.

続いて、出力順序設定と書式設定とが独立に行なわれ、
夫々独立の情報である出力順序テーブルと書式情報とし
て登録される場合の説明を行なう。
Subsequently, output ordering and formatting are done independently,
A case where the output order table and format information are registered as independent information will be explained.

画像入力部1が第6図に示す原稿を走査して、走査点(
XX、YY)が、前記書式情報が示す領域内にある場合
には、書式情報に登録されている色特性番号が出力順序
テーブルに存在するか否かを判定し、存在する場合は前
記色特性番号と一対の出力順序番号に対応するフレーム
バッファに画像入力部1の出力を順次蓄積する。
The image input unit 1 scans the document shown in FIG.
XX, YY) is within the area indicated by the format information, it is determined whether the color characteristic number registered in the format information exists in the output order table, and if it exists, the color characteristic number is The output of the image input unit 1 is sequentially accumulated in the frame buffer corresponding to the output sequence number and the pair of output order numbers.

なお、一つのマーク領域に対応する書式情報について画
像の抽出処理が終了した時、該マークに対応するフレー
ムバッファの最終アドレスのうち少なくとも副走査方向
のアドレスを最終格納アドレスとして保存しておき、再
度同一の出力順序を持つマーク領域内の画像を抽出する
場合、前記アドレスの次のアドレスから抽出した画像を
蓄積する。
Note that when the image extraction process for the format information corresponding to one mark area is completed, at least the address in the sub-scanning direction of the final address of the frame buffer corresponding to the mark is saved as the final storage address, and then the image is extracted again. When extracting images within a mark area having the same output order, images extracted from the address next to the address are stored.

第7図は第6図に示す原稿から抽出した画像をフレーム
バッファに格納した例を示す図である。
FIG. 7 is a diagram showing an example in which images extracted from the original shown in FIG. 6 are stored in a frame buffer.

画像合成部6は抽出した領域数、抽出した画像を格納し
たフレームバッファの数、フレームバッファの最終格納
アドレスを参照して出力順序1のフレームバッファ1か
ら順次画像を抽出し、出力用画像メモリ、CRT、プリ
ンタ等に出力する。
The image synthesis unit 6 sequentially extracts images from the frame buffer 1 in the output order 1 by referring to the number of extracted areas, the number of frame buffers storing the extracted images, and the final storage address of the frame buffer, and outputs images from the output image memory, Output to CRT, printer, etc.

第8図は1つのフレームバッファと領域テーブルを用い
てマーク領域から抽出した画像を保存した例を示す図で
ある。
FIG. 8 is a diagram showing an example in which an image extracted from a marked area is saved using one frame buffer and an area table.

第8図のような格納形式とする場合には、画像抽出部5
は、原稿から抽出した画像を抽出順に順次フレームバッ
ファに格納し、少なくとも抽出した領域毎にフレームバ
ッファへ格納する時の先頭アドレスとマークの出力順序
を表わす番号を一対とするデータを領域テーブルに格納
する。
When using the storage format as shown in FIG. 8, the image extraction unit 5
stores the images extracted from the document in the frame buffer sequentially in the order in which they were extracted, and at least stores data in the area table that is a pair of the start address and the number representing the mark output order when storing in the frame buffer for each extracted area. do.

前記のように領域テーブルによって画像の抽出順序を示
して抽出画像を出力するようにしてもよい。
As described above, the extracted images may be output by indicating the extraction order of the images using a region table.

画像合成部6は領域テーブルに格納される出力順序と先
頭アドレスに基づいてフレームバッファの画像を抽出出
力する。
The image synthesis unit 6 extracts and outputs the images in the frame buffer based on the output order and the start address stored in the area table.

なお、画像抽出部5及び画像合成部6の処理は前述の方
法に限定されるものではない。
Note that the processing by the image extracting section 5 and the image synthesizing section 6 is not limited to the above-mentioned method.

また、原稿下学習用紙が麺判定できるマーク、更に色特
性学習用紙、領域出力順序学習用紙、書式学習用紙を判
別できるマークを用紙上に付加し、前記マークの有無を
判別できる機能をモード切換部2に付加しておくことに
よって、モード切換の動作を自動化することができる。
In addition, we have added marks on the paper that can be used to determine if the lower manuscript study paper is a noodle, as well as marks that can be used to identify color characteristics study paper, area output order study paper, or format study paper, and have added a function to the mode switching section that allows you to determine the presence or absence of the marks. 2, the mode switching operation can be automated.

なお、前記マークは例えば用紙の上辺に近い領域に所定
長、所定幅、所定数の黒の線分を記載したものである。
Note that the mark is, for example, a black line segment of a predetermined length, a predetermined width, and a predetermined number written in an area near the top side of the paper.

〔発明の効果〕〔Effect of the invention〕

以上詳細に説明したように本発明によれば、出力順序を
示すマークの色特性と画像の所望の領域を抽出するため
のマークの位置及び大きさを領域抽出及び出力のための
書式情報として学習し、書式情報のうちマークの位置及
び大きさに基づいて画像から所望の領域の画像を抽出し
、前記色特性に基づいて、前記所望の領域の画像を出力
するようにしたので、使用環境やニーズの変化に柔軟に
対応できる操作性の優れた画像処理装置を提供できると
いう優れた効果が得られる。
As explained in detail above, according to the present invention, the color characteristics of the mark indicating the output order and the position and size of the mark for extracting a desired region of the image are learned as format information for region extraction and output. However, the image of the desired area is extracted from the image based on the position and size of the mark in the format information, and the image of the desired area is output based on the color characteristics. An excellent effect can be obtained in that an image processing device with excellent operability that can flexibly respond to changes in needs can be provided.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の画像処理装置の構成を示すブロック図
、第2図は色特性の説明図、第3図は学習用紙の説明図
、第4図は書式設定領域を示す用紙例を示す図、第5図
は抽出領域マーク検出の説明図、第6図は原稿例を示す
図、第7図はフレームバッファへの格納例を示す図、第
8図はフレームバッファと領域テーブルによる抽出画像
例を示す図、第9図は合成画像例を示す図である。 図中、1・・・・画像入力部、2・・・・モード切換部
、3・・・・出力順序学習部、4・・・・書式学習部、
5・・・・画像抽出部、6・・・・画像合成部。 特許出願人 沖電気工業株式会社 代理人 弁理士 熊 谷 隆(外1名)g肴牝n説明口 1入會灸L4!ta を禾 410φ−5例丘Aミ暉6
0第4図 デll@th411牲 第3図 □主えt(XX) 第5図 厘祁例す足1団 第 6図 中41ベデー7゛)し く2)フL−ムパ・/今 7L−ムノく’−、7ア七411Nチー7“Jしく?J
月噛工1歌伸1吉ヌ、11過第8図 合板11淑例Δ元1品 第9 図
FIG. 1 is a block diagram showing the configuration of the image processing device of the present invention, FIG. 2 is an explanatory diagram of color characteristics, FIG. 3 is an explanatory diagram of a study paper, and FIG. 4 is an example of a paper showing a formatting area. Figure 5 is an explanatory diagram of extraction area mark detection, Figure 6 is a diagram showing an example of a document, Figure 7 is a diagram showing an example of storage in a frame buffer, and Figure 8 is an extracted image using a frame buffer and area table. FIG. 9 is a diagram showing an example of a composite image. In the figure, 1: image input section, 2: mode switching section, 3: output order learning section, 4: format learning section,
5... image extraction section, 6... image synthesis section. Patent applicant Oki Electric Industry Co., Ltd. Agent Patent attorney Takashi Kumagaya (1 other person) ta 410φ-5 example hill Ami 6
0 Fig. 4 Dell @ th411 Fig. 3 □ Main t (XX) Fig. 5 An example of foot 1 group Fig. 6 41 bed 7゛) Shikuku 2) Fu L-Mupa / Now 7 L- Munoku'-, 7 A7 411 N Chi 7 "J Shikoku? J
Tsukigami 1 Uta Shin 1 Yoshinu, 11 over figure 8 plywood 11 example

Claims (2)

【特許請求の範囲】[Claims] (1)文書/図面とマークの記載された原稿を読み取っ
て、このマークの色特性に応じた抽出を前記文書/図面
に対して行ない合成画像を作成する画像処理装置におい
て、 用紙上に記載されているマーク及び/又は画像の濃淡及
び色の一方又は双方に応じた情報を出力する画像入力部
と、 学習モードと原稿読取モードとを切換えるモード切換部
と、 前記モード切換部が学習モードの場合には学習用紙上の
出力順序マークの色特性を学習し、出力順序マークの位
置に基づいて決定した出力順序と前記色特性を一対とす
る出力情報を登録する出力順序学習部と、 学習用紙上の抽出領域マークから前記色特性を持つ領域
抽出マーク毎に当該領域抽出マーク位置及び大きさを書
式情報として抽出登録する抽出領域学習部と、 前記モード切換部が原稿読取モードの場合には前記書式
情報に基づいて原稿画像内の画像を抽出し、当該抽出し
た画像を前記出力順序に基づいて出力する画像抽出部と
を具備することを特徴とする画像処理装置。
(1) An image processing device that reads a document/drawing and a manuscript with marks written on it, performs extraction on the document/drawing according to the color characteristics of the mark, and creates a composite image. an image input section that outputs information according to one or both of the shading and color of the mark and/or image; a mode switching section that switches between a learning mode and a document reading mode; when the mode switching section is in the learning mode; includes an output order learning unit that learns the color characteristics of the output order mark on the study paper and registers output information that pairs the output order determined based on the position of the output order mark and the color characteristics; an extraction area learning unit that extracts and registers the position and size of the area extraction mark as format information for each area extraction mark having the color characteristics from the extraction area mark of the image data; An image processing apparatus comprising: an image extraction section that extracts an image in a document image based on information and outputs the extracted image based on the output order.
(2)前記モード切換部は学習用紙上及び原稿の一方又
は双方の所定の領域の画像の種類に基づいて切換えるよ
うにしたことを特徴とする請求項(1)記載の画像処理
装置。
(2) The image processing apparatus according to claim 1, wherein the mode switching section is configured to switch the mode based on the type of image in a predetermined area on one or both of the study paper and the document.
JP2103330A 1990-04-18 1990-04-18 Image processor Pending JPH041864A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2103330A JPH041864A (en) 1990-04-18 1990-04-18 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2103330A JPH041864A (en) 1990-04-18 1990-04-18 Image processor

Publications (1)

Publication Number Publication Date
JPH041864A true JPH041864A (en) 1992-01-07

Family

ID=14351159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2103330A Pending JPH041864A (en) 1990-04-18 1990-04-18 Image processor

Country Status (1)

Country Link
JP (1) JPH041864A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009785A (en) * 2006-06-30 2008-01-17 Fuji Xerox Co Ltd Image processing system and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009785A (en) * 2006-06-30 2008-01-17 Fuji Xerox Co Ltd Image processing system and image processing program

Similar Documents

Publication Publication Date Title
US9552537B2 (en) Color conversion method and profile generation method
JP4772888B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof
US6657746B1 (en) Look-up table constructing method and color conversion apparatus
JPH0552700B2 (en)
EP0369702A2 (en) Image processing apparatus and method
US8427696B2 (en) Color processing method and apparatus thereof
JP4337251B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
US5566004A (en) Image editing apparatus having function of displaying position relation between image and sheet on which image is formed
JP4077148B2 (en) Color reproduction characteristic display device and color reproduction characteristic display program storage medium
JP4481840B2 (en) Information processing method and apparatus
EP0477904B1 (en) Method and apparatus for generating images of reduced size
JP2896919B2 (en) Image processing device
US5361141A (en) Image processor
JPH041864A (en) Image processor
US20070279660A1 (en) Color image processing apparatus
JP3003375B2 (en) Color image processing equipment
US6809742B1 (en) Image editing device permitting user to register desired patterns
JPH0424879A (en) Picture processor
JPH0962662A (en) Document processor
JPH06208357A (en) Document processor
JPH03225477A (en) Image processor
JP3209997B2 (en) Image processing device
JPH0424878A (en) Image processor
JPH03263273A (en) Picture processor
JPH03263277A (en) Picture processor