JPH03288275A - Image processor - Google Patents

Image processor

Info

Publication number
JPH03288275A
JPH03288275A JP8939090A JP8939090A JPH03288275A JP H03288275 A JPH03288275 A JP H03288275A JP 8939090 A JP8939090 A JP 8939090A JP 8939090 A JP8939090 A JP 8939090A JP H03288275 A JPH03288275 A JP H03288275A
Authority
JP
Japan
Prior art keywords
image
input
color
extracted
classification number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8939090A
Other languages
Japanese (ja)
Inventor
Masahisa Yano
矢野 雅久
Yoshiyuki Yamashita
山下 義征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP8939090A priority Critical patent/JPH03288275A/en
Publication of JPH03288275A publication Critical patent/JPH03288275A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE:To easily extract an optional area of an image shown on an input original and to flexibly deal with various picture processing modes set after extraction of the optional image area by providing an image input part, a sort No. setting part, and an image extracting part. CONSTITUTION:An image input part 13 inputs an optical signal S from an input original and outputs the information for each picture element in response to one or both of the gradation and the color of an image. A sort No. setting part 15 sets the sort Nos based on the difference of gradations or the difference of colors of the image. Then an image extracting part 17 extracts an image part corresponding to the connection of picture elements having the same information or an image part enclosed by the picture elements having the same information as the individual areas and at the same time gives the sort Nos. to these extracted areas. In such a constitution, an optional area can be easily extracted out of an image shown on the input original. Then it is possible to quickly deal with the change of the environments and the needs for use of an image processor. In other words, it is possible to flexibly deal with various picture processing modes.

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は、画像処理装置に間するもので、特に入力原
稿上の画像の任意の領域を抽出出来然も抽出した領域毎
に分類番号を付与することにより抽出後の処理の便宜が
図れる画像処理装置に関するものである。
Detailed Description of the Invention (Industrial Application Field) The present invention relates to an image processing device, and in particular, it is capable of extracting any region of an image on an input document and also assigning a classification number to each extracted region. The present invention relates to an image processing apparatus that can facilitate post-extraction processing by adding the following information.

(従来の技術) 原稿、帳票等のような入力原稿上の画像から任意の領域
を抽出し処理する製画の一例として、例えば特開昭57
−41770号公報に開示の画像処理装置かあった。
(Prior Art) As an example of image production in which an arbitrary area is extracted and processed from an image on an input document such as a manuscript or a form, for example, Japanese Patent Laid-Open No. 57
There was an image processing device disclosed in Japanese Patent No. 41770.

この画像処理装置は、入力用紙上の2色の画像を別々に
読み取る2色読取装置と、この2色読取装置の出力から
上記入力用紙が領域指定、入力画像指定、出力画像指定
のうちのいずれのためのものであるかを判別する種別マ
ーク検出器と、この種別マーク検出器により領域指定と
判別された入力用紙に対する上記2色読取装置の出力か
ら該入力用紙に第1の色で書かれた入力画像から抜き取
るための抜取領域を示す情報を検出する第1の検出器と
、上記種別マーク検出器により領域指定と判別された入
力用紙に対する第2の色で書かれた出力画像にはめ込む
ための挿入m11iを示す情報を検出する第2の検出器
と、上記種別マーク検出器により領域指定と判別された
入力用紙に対する上記2色読取装貫の出力から該入力用
紙に書かれた上記抜取領域と挿入領域との対応関係を示
す情報を検出する第3の検出器と、上記3つの検出器の
出力が入力され上記種別マーク検出器により入力画像指
定と判別された入力用紙のうち上記第1の検出器の出力
の抜取領域の画像を、上記種別マーク検出器により出力
画像指定と判別された入力用紙の画像の上記第2の検出
器の出力の上記抜取領域と対応関係にある挿入領域には
め込み出力する画素入れ替装盲とを具えでいた。
This image processing device includes a two-color reading device that separately reads two-color images on an input sheet, and an output from the two-color reading device that determines whether the input sheet has an area designation, an input image designation, or an output image designation. and a type mark detector for determining whether the input sheet is designated by the type mark detector, and a type mark detector for determining whether the input sheet is designated as an area by the type mark detector. a first detector for detecting information indicating a sampling area to be extracted from the input image; and a first detector for detecting information indicating a sampling area to be extracted from the input image; a second detector for detecting information indicating the insertion m11i of the input paper, and the extraction area written on the input paper from the output of the two-color reading device for the input paper that is determined to be an area designation by the type mark detector. and a third detector that detects information indicating the correspondence between the insertion area and the insertion area; The image of the sampling area of the output of the second detector is inserted into the insertion area corresponding to the sampling area of the output of the second detector of the input paper image determined by the type mark detector as output image designation. It was equipped with a pixel replacement system for inset output.

そして、この画像処理装置によれば、原稿とは別に用意
した入力用紙を用い当該原稿の画像の抜き取り領域及び
抜き取った画像部分を出力画像のどこにはめ込むかを予
め登録した後、この製雪に原稿をセットすることにより
、原稿上の画像の一部を出力画像にはめ込むことが出来
た。
According to this image processing device, after registering in advance the extraction area of the image of the original document and where in the output image the extracted image part is to be inserted using an input sheet prepared separately from the original document, the original is added to the snowmaking machine. By setting , it was possible to fit part of the image on the document into the output image.

(発明が解決しようとする課題) しかしながら、上述の画像処理装置では、原稿の形式が
変る毎に、また、同じ形式の原稿であっても抜き取り領
域(以下、抽出領域という、)が変る毎に、これらに対
応する入力用紙を作製しざらにこれを用いて画像の抽出
領域の登録を行う必要があった。このため、作業が煩雑
でありかつ多大な時間が必要であった。
(Problem to be Solved by the Invention) However, in the above-mentioned image processing apparatus, each time the format of the document changes, or even if the document has the same format, the extraction area (hereinafter referred to as the extraction area) changes. , it was necessary to create corresponding input forms and use these to register image extraction areas. Therefore, the work is complicated and requires a lot of time.

また、画像の抽出領域を装置に登録するための用紙が原
稿とは別の用紙であるので、登録した形式とは異なる原
稿を装置に誤ってセットした場合誤処理されてしまう場
合があった。
Further, since the paper used to register the image extraction area in the device is a different paper from the original, if a document with a format different from the registered format is mistakenly set in the device, it may be processed incorrectly.

また、抽出した領域を出力画像の予め定めた領域に自動
的に出力することは出来たが、抽出画像位百と合成画像
位百とが一義的に決定されており、任意のレイアウトで
編集したい場合等抽出処理後の画像処理の態様に柔軟に
対応出来る構成ではなかった。
Also, although it was possible to automatically output the extracted area to a predetermined area of the output image, the extraction image position and the composite image position are uniquely determined, so I would like to edit it with an arbitrary layout. The structure was not capable of flexibly responding to the image processing mode after the extraction process.

従って、抽出した画像を後続する処理例えば編集、デー
タファイル化、検索等の処理等のように、形式の異なる
種々の文献の種々の領域を抽出する場合、また、抽出処
理後に種々の態様での画像処理を行うような場合には不
向きてあった。
Therefore, when extracting various areas of various documents in different formats, such as subsequent processing of extracted images such as editing, data file creation, search, etc., and when extracting various areas of various documents in different formats, and after extraction processing in various ways. It was not suitable for image processing.

この発明はこのような点に鑑みなされたものであり、従
ってこの発明の目的は、入力原稿上の画像の任意の領域
の抽出を容易に行え然も抽出後の画像処理の種々の態様
に柔軟に対応することが出来る画像抽出が可能な画像処
理装置を提供することにある。
The present invention has been made in view of the above points, and an object of the present invention is to easily extract any region of an image on an input document while being flexible in various aspects of image processing after extraction. An object of the present invention is to provide an image processing device capable of extracting images that can correspond to the following.

(課題を解決するための手段) この目的の達成を図るため、この発明によれば、入力原
稿上の画像の任意の領域を抽出し処理する画像処理装置
においで、 入力原稿からの光信号を入力し画像の濃淡及び色の一方
又は双方に応じた情報を画素毎に出力する画像入力部と
、 画像の濃淡の違い及び色の違いの一方又は双方に基づい
た分類番号を設定する分類番号設定部と、 前述の情報が同一である画素同士の連なりに対応する画
像部分又は前述の情報か同一である画素によって囲まれ
る画像部分を個々の領域として抽出すると共に該領域に
前述の分類番号を付与する画像抽出部とを具えたことを
特徴とする。
(Means for Solving the Problems) In order to achieve this object, according to the present invention, an optical signal from an input document is processed in an image processing device that extracts and processes an arbitrary region of an image on an input document. An image input section that inputs and outputs information for each pixel according to the shading and/or color of the image, and a classification number setting that sets a classification number based on the difference in shading and/or the color of the image. Extracting the image portion corresponding to a series of pixels having the same information or the image portion surrounded by the pixels having the same information as an individual region, and assigning the classification number to the region. It is characterized by comprising an image extraction section that performs the following operations.

(作用) このような構成の作用について具体例により説明する。(effect) The operation of such a configuration will be explained using a specific example.

例えば特許公告公報(以下、公告公報)から公告番号、
発明の名称、発明者名、出願人名、特許請求の範囲及び
図面をそれぞれ抽出しデータファイルを作製する場合及
びこれらをデイスプレィ、プリンタ等の出力媒体に出力
する場合を考える。
For example, the publication number from the patent publication publication (hereinafter referred to as the publication publication),
Let us consider the case where the title of the invention, the inventor's name, the applicant's name, the claims, and the drawings are each extracted to create a data file, and where these are output to an output medium such as a display or printer.

公告公報上の画像の例えば公告番号及び発明の名称に当
たる部分を例えば赤色の追記マークでそれぞれ囲み、発
明者名及び出願人名に当たる部分を例えば緑色の追記マ
ークでそれぞれ囲み、特許請求の範囲及び図面に当たる
部分を例えば青色の追記マークによってそれぞれ囲むと
いう処理を例えばオペレータが予めしでおくと、或は、
上述の色を用いた追記マーク(−カラーマークと称する
こともある)の代りに濃度が互いに異なる複数の追記マ
ーク(以下、濃度マークと称することもある)を選択的
(こ用いて公告番号等を囲む処理をしておくと、この発
明の画像処理装置の構成によれば、画像入力部は公告公
報からの光信号を入力し追記マーク部分を含む画像の濃
淡及び色の一方又は双方に応じた情報を画素毎に出力す
る。
For example, the parts of the image on the public notice that correspond to the publication number and the title of the invention are surrounded by red addendum marks, and the parts corresponding to the inventor's name and applicant's name are surrounded by green addendum marks, and the claims and drawings are enclosed. For example, if the operator performs a process of enclosing each part with a blue add mark, for example, or
Instead of the above-mentioned postscript marks using colors (sometimes referred to as -color marks), multiple postscript marks with different densities (hereinafter also referred to as density marks) are selectively used (this is used to mark public notice numbers, etc.). According to the configuration of the image processing apparatus of the present invention, the image input section inputs the optical signal from the public notice and processes the image according to the shading and/or color of the image including the additional mark part. outputs information for each pixel.

また、画像抽出部は、画像の濃淡及び色の一方又は双方
に応じた情報が同一である画素によって囲まれる画像部
分を個々の領域として抽出することが出来るので、上述
の例であれば、カラーマーク又は濃度マークで囲まれた
画像部分を1つの領域としで抽出する。或は、公告番号
等をカラーマーク或は濃度マークで塗りつぶすようにし
た場合は、画像抽出部は同一である画素同士の連なりに
対応する画像部分を個々の領域として抽出することが出
来るので、この場合も各塗りつぶされた画像部分を個々
の領域として抽出する。このようにこの発明の画像処理
装置では、入力原稿に直接追記マーク等を施すことによ
り領域抽出が行える。
In addition, the image extraction unit can extract as individual regions image parts surrounded by pixels that have the same information according to one or both of image shading and color, so in the above example, color An image portion surrounded by marks or density marks is extracted as one region. Alternatively, if the public notice number, etc. is filled in with a color mark or density mark, the image extraction unit can extract image parts corresponding to a series of identical pixels as individual regions. In this case, each filled-in image portion is extracted as an individual region. As described above, in the image processing apparatus of the present invention, area extraction can be performed by directly applying a postscript mark or the like to an input document.

ざらに、この画像抽出部は、抽出された画像部分毎に分
類番号を付与する。ここで、この分類番号は、分類番号
設定部により追記マークに対応させて予め設定しておく
ことが出来る。従って、画像抽出部で抽出された各領域
は同一の情報を持つ領域毎に所望通り自動的に分類され
る。換言すれば、入力原稿の記載内容の意味と、色とを
一義的に対応させることが出来るので、抽出領域指定の
把握が容易になる。これがため、例えば、異なる分類番
号間の各領域をある順序で出力したい場合には分類番号
の順番をこの順序に並べて指定することにより行え、ま
た、分類番号毎の画像を出力したい場合にはその分類番
号を指定することにより行えるので、抽出処理後の画像
処理の種々の態様に柔軟に対応することが出来る。
Roughly speaking, this image extraction unit assigns a classification number to each extracted image portion. Here, this classification number can be set in advance by the classification number setting section in correspondence with the additional mark. Therefore, each region extracted by the image extraction section is automatically classified as desired into regions having the same information. In other words, it is possible to uniquely associate the meaning of the written content of the input document with the color, making it easier to understand the extraction area designation. Therefore, for example, if you want to output each region between different classification numbers in a certain order, you can do so by arranging the classification numbers in this order, and if you want to output images for each classification number, you can do so by specifying the order of the classification numbers. Since this can be done by specifying the classification number, it is possible to flexibly respond to various aspects of image processing after extraction processing.

(実施例) 以下、図面を参照してこの発明の画像処理装置の実施例
につき説明する。
(Embodiments) Hereinafter, embodiments of the image processing apparatus of the present invention will be described with reference to the drawings.

K1」10列詮朋 第1図は、実施例の画像処理装M11の構成を示したブ
ロック図である。
FIG. 1 is a block diagram showing the configuration of the image processing device M11 of the embodiment.

この実施例の画像処理装置FIIは、画像入力部13と
、分類番号設定部15と、画像抽出部17と、画像合成
部19と、図示を省略しであるがキーボード、マウス、
ライトベン、タッチパネル及び又はディジタイザ及びC
RT等を有する入出力部と、画像データを出力する出力
端子21とを具えている。この出力端子21には、プリ
ンタ、外部コンピュータ等のような種々の外部機器を接
続出来る。
The image processing device FII of this embodiment includes an image input section 13, a classification number setting section 15, an image extraction section 17, an image composition section 19, a keyboard, a mouse, and a keyboard (not shown).
Light Ben, touch panel and/or digitizer and C
It includes an input/output section having an RT and the like, and an output terminal 21 that outputs image data. Various external devices such as a printer, an external computer, etc. can be connected to this output terminal 21.

ここで、画像入力部73は、入力原稿例えば第2図に示
すような公告公報を、主走査方向を水平方向(X X)
とし副走査方向を垂直方向(Y Y)として走査して光
信号Sを入力し、入力原稿の画像の濃淡及び色の情報、
例えば濃度多値レベル信号(以下、濃度情報と称するこ
ともある。)や、日(赤)、G(緑)及びB(青)各々
の多値レベル信号(以下、色情報と称することもある。
Here, the image input unit 73 inputs an input document, for example, a public notice as shown in FIG.
The optical signal S is input by scanning with the sub-scanning direction set to the vertical direction (YY), and information on the shading and color of the image of the input document,
For example, a density multilevel signal (hereinafter sometimes referred to as density information), a multilevel signal for each of day (red), G (green), and B (blue) (hereinafter sometimes referred to as color information). .

)の一方又は双方を画素毎に画像抽出部17に出力する
ものである。この画像入力部13は、濃度情報のみを得
たい場合であれば、例えば濃度多値レベル信号を出力出
来るモノクロスキャナーで構成出来、また、色情報のみ
若しくは色情報及び濃度情報を得たい場合であれば、日
、G、日毎の多値レベル信号を出力することが出来るカ
ラースキャナーで構成出来る。
) is output to the image extraction unit 17 for each pixel. This image input section 13 can be configured with a monochrome scanner capable of outputting a multilevel density signal, for example, if only density information is desired, or if only color information or color information and density information is desired to be obtained. For example, it can be configured with a color scanner that can output multi-level signals for each day, G, and day.

また、分類番号設定部]5は、画像の濃淡の違い及び色
の違いの一方又は双方に基づいた分類番号を設定するも
のである。詳細は後述するが、この実施例の分類番号設
定部]5は、色(または濃度)を識別するためのカラー
マツプ用の2次元メモリを具えでいる。
Further, the classification number setting unit] 5 sets a classification number based on one or both of the difference in shading and the difference in color of the image. Although details will be described later, the classification number setting unit 5 of this embodiment includes a two-dimensional memory for a color map for identifying colors (or densities).

また、画像抽出部17は、画像入力部13がら出力され
る画像の色情報及び濃度情報の一方又は双方を入力し、
この実施例の場合は、色情報が同一である画素1こよっ
て囲まれる画像部分を個々の領域として抽出する。ざら
に、抽出した領域の色情報に応し対応する分類番号即ち
分類番号設定部15で設定されている分類番号を付与す
る。ざらに、この画像抽出部17は、抽出した領域の画
像及び付与された分類番号を画像合成部19に出力する
。なお、詳細は後述するが、この実施例の画像抽出部1
7は、抽出した画像を格納するためのフレームバッファ
を具えでいる。
The image extraction unit 17 also inputs one or both of color information and density information of the image output from the image input unit 13,
In this embodiment, image portions surrounded by pixel 1 having the same color information are extracted as individual regions. Roughly, a corresponding classification number, that is, a classification number set by the classification number setting section 15, is assigned according to the color information of the extracted area. Roughly speaking, this image extracting section 17 outputs the image of the extracted area and the assigned classification number to the image synthesizing section 19. Although the details will be described later, the image extraction unit 1 of this embodiment
7 comprises a frame buffer for storing the extracted images.

また、画像合成部19は、画像抽出部17から出力され
た画像を、所定の手順で或はオペレータにより図示しな
いキーボードを介し入力される指示に従い、例えばCR
Tやプリンタに対し出力する。
In addition, the image synthesis section 19 converts the image output from the image extraction section 17 into, for example, a CR
Output to T or printer.

ロ         び 次に、分類番号設定部15による分類番号の設定方法と
、画像抽出部17における抽出領域への1゜分類番号の
付与方法とにつき説明する。なお、説明の都合上、この
実施例では、入力原稿である公告公報は、第2図及び第
8図(A)に示すように、これの発明者名及び出願人名
に当たる部分を例えば赤色の追記マークm11又はm 
+ 2で囲み、公告番号及び発明の名称に当たる部分を
例えば緑色の追記マークm21又はm22によって囲み
、特許請求の範囲及び図面(第8図(A)9照)に当た
る部分を例えば青色の追記マークm3.又はm32によ
って囲むという処理を例えばオペレータが予めしである
ものとする。さらに、画像入力部13は、公告公報の走
査領域の色情報を画像抽出部17に出力するものとする
Next, a method of setting a classification number by the classification number setting unit 15 and a method of assigning a 1° classification number to an extraction area in the image extraction unit 17 will be explained. For convenience of explanation, in this example, the input manuscript, the public notice, has the inventor's name and applicant's name added, for example, in red, as shown in FIGS. 2 and 8 (A). mark m11 or m
+ 2, the part corresponding to the publication number and the title of the invention is surrounded by, for example, a green addendum mark m21 or m22, and the part corresponding to the claims and drawings (see Figure 8 (A) 9) is marked, for example, by a blue addendum mark m3. .. Alternatively, it is assumed that the operator has previously performed the process of enclosing by m32. Further, it is assumed that the image input section 13 outputs color information of the scanning area of the gazette to the image extraction section 17.

先ず、画像処理製雪の初期条件設定時において、オペレ
ータは、追記マーク用の各色に対応する色見本と分類番
号とが対応づけられた形式の色特性テーブルを参照しな
がら、公告公報に使用されている(使用しようとする)
追記マークの色とこれに対応する分類番号jとを図示し
ない入力部により分類番号設定部15に入力する。ここ
で、色特性テーブルとしては種々のものを用いることが
出来る0例えば、色と分類番号とを紙面に印刷しである
もの、色と分類番号とをCRT上に表示させたもの、或
は第3図(A)に示すような色度図等である。いずれの
色特性テーブルにおいても、画像抽出部17で色識別の
誤りが生じにくくするために類似しない色を追記マーク
として用いるのが良い、M3図(A)の色度図の場合で
考えれば色度座標が互いに離れている色を追記マーク用
の色として用いこれら色に分類番号を付与するのが良く
、図示例では赤、緑、青、黄色を追記マーク用の色とし
この順に分類番号(1)〜(4)を与えている0分類番
号設定部15は、入力された色と分類番号を記憶する。
First, when setting the initial conditions for image processing snowmaking, the operator refers to a color characteristic table in a format in which color samples and classification numbers corresponding to each color for addendum marks are associated with each other, and determines which colors are used in public notices. is (trying to use)
The color of the additional mark and the corresponding classification number j are input to the classification number setting section 15 through an input section (not shown). Here, various types of color characteristic tables can be used. For example, one in which the color and classification number are printed on paper, one in which the color and classification number are displayed on a CRT, or one in which the color and classification number are displayed on a CRT. This is a chromaticity diagram such as that shown in FIG. 3(A). In any color characteristic table, it is better to use dissimilar colors as additional marks in order to make color identification errors less likely to occur in the image extraction unit 17. Considering the case of the chromaticity diagram in M3 diagram (A), It is best to use colors whose degree coordinates are far apart from each other as the colors for the postscript marks and assign classification numbers to these colors. In the illustrated example, red, green, blue, and yellow are the colors for the postscript marks, and the classification numbers ( The 0 classification number setting section 15 that provides 1) to (4) stores the input color and classification number.

この記憶は、この実施例の場合、第3図(A)の色度図
に対応させた2次元メモリであって、色度座標x、y!
整数化(例えば100倍)した整数値X%、y%をアド
レスとする2次元メモリを用意し、この2次元メモリの
追記マークの色と対応するアドレスには各色毎に0以外
の所定値を書き込みそれ以外のアドレスにはoを書き込
むことで行っている。
In this embodiment, this memory is a two-dimensional memory corresponding to the chromaticity diagram of FIG. 3(A), and has chromaticity coordinates x, y!
Prepare a two-dimensional memory whose addresses are integer values X% and y% that have been converted into integers (for example, multiplied by 100), and set a predetermined value other than 0 for each color in the address corresponding to the color of the add mark in this two-dimensional memory. Writing is performed by writing o to other addresses.

なお、この2次元メモリを、以下、カラーマ・ノブと称
することもある。
Note that this two-dimensional memory may hereinafter be referred to as a colorma knob.

方、画像抽出部17は画像入力部13から入力される画
素毎のR,G、B毎の濃度多値レベル信号を公知の座標
変換式■を用いてXYZ表色系の3刺激値X、Y、Zに
変換し1、さらにこれら3刺激値を基に公知の0式を用
いて色度座標x、 yを計算する。なお、x、yは色相
と彩度を表すものであり、Yは明度を表すものである。
On the other hand, the image extracting unit 17 converts the R, G, and B density multilevel signals for each pixel input from the image input unit 13 into tristimulus values X, The chromaticity coordinates x, y are calculated using the well-known formula 0 based on these tristimulus values. Note that x and y represent hue and saturation, and Y represents lightness.

また、0式及び0式共に公知の式であり、この場合は文
献([新版色の常識J  (1987)p、88. p
62、日本規格協会発行)から引用している。
In addition, both the 0 formula and the 0 formula are known formulas, and in this case, the literature ([New Edition Color Common Sense J (1987) p. 88. p.
62, published by the Japanese Standards Association).

ざらに画像抽出部17は、この色度座標x、 y%10
0倍しカラーマツプのアドレスX%、y%を算出しこれ
らX%、y%によってカラーマツプをアクセスする。そ
して、カラーマツプのアクセスされたアドレスに書き込
まれている傭が0である場合は、当該画素は追記マーク
が付された領域でない領域にある画素と判断し、0以外
の値である場合は当該画素はある色の追記マーク上にあ
る画素と判断する。何色の追記マーク上の画素かという
ことはカラーマツプに書き込まれている値から判断出来
、この結果、分類番号の付与が出来る。
The rough image extraction unit 17 extracts these chromaticity coordinates x, y%10
Addresses X% and y% of the color map multiplied by 0 are calculated, and the color map is accessed using these X% and y%. If the value written in the accessed address of the color map is 0, the pixel is determined to be in an area that is not marked with an addendum mark, and if the value is other than 0, the pixel is is determined to be a pixel located on a postscript mark of a certain color. The color of the pixel on the additional mark can be determined from the value written in the color map, and as a result, a classification number can be assigned.

なお、上述のR,G、B毎の濃度多値レベル信号から3
刺激値X、Y、Zへの変換は、R,G。
In addition, from the above-mentioned R, G, and B density multilevel signals, 3
Conversion to stimulus values X, Y, Z is R, G.

Bの各信号を入力し3刺激値を出力する専用ROMを用
いて行い、3刺激値からX%、y%への変換は3刺激値
を入力してX%、y%を出力する専用ROMを用いて行
うようにし、計算処理を無くし高速化を図るのが良い。
Conversion from tristimulus values to X% and y% is performed using a dedicated ROM that inputs each signal of B and outputs tristimulus values. It is better to do this using , eliminating calculation processing and speeding up the process.

画」E癒比11ト列説用 次に、第4図、第5図(A)〜(C)及び篤6図を参照
してこの実施例の画像処理製雪における画像抽出処理に
ついて異体的に説明する。ここで、第4図は入力原稿の
一部を模式的に示した図である。第4図中、31は原稿
、33は抽出画像、35は背景の画像、37は追記マー
クの画像である。また、第5図(A)〜(C)は、フレ
ームバッファへの抽出画像の格納例を示した図であり、
第5図(A)〜(C)は分類番号1〜3の抽出画像用の
フレームバ・ンファの内容をそれぞれ示した図である。
Next, with reference to Figure 4, Figures 5 (A) to (C), and Figure 6, we will explain the image extraction process in the image processing snowmaking of this embodiment. Explain. Here, FIG. 4 is a diagram schematically showing a part of the input document. In FIG. 4, 31 is a document, 33 is an extracted image, 35 is a background image, and 37 is an image of a postscript mark. Moreover, FIGS. 5(A) to 5(C) are diagrams showing examples of storing extracted images in the frame buffer,
FIGS. 5A to 5C are diagrams showing the contents of frame buffers for extracted images of classification numbers 1 to 3, respectively.

また、第6図は、フレームバッファへの抽出画像の格納
例の他の例を示した図である。
Further, FIG. 6 is a diagram showing another example of storing an extracted image in a frame buffer.

第4図に示した原稿部分において、副走査YY1行では
追記マークの色情報を持つ画素は検出されないが、YY
2行では分類番号jが付与された色iの追記マークの色
情報を持つ画素が検出される。追記マークの色情報を持
つ画素の検出は既に説明したカラーマツプを参照する処
理で行える。
In the document portion shown in FIG. 4, pixels with color information of the add mark mark are not detected in the sub-scanning YY1 line, but YY
In the second row, pixels having color information of a write-once mark of color i to which a classification number j is assigned are detected. Detection of pixels having color information of additional marks can be performed by referring to the color map described above.

さらに、YYS行では追記マークの色情報を持つ画素に
挟まれた画像(Xwv3〜X 8Y3間の画像)が存在
するため、当該挟まれた画像は抽出対象の画像とされる
0画像抽出部17は、この抽出対象の画@をフレームバ
ッファ中の分類番号j用のフレームバッファに格納する
Furthermore, in the YYS line, since there is an image sandwiched between pixels having color information of the add mark (an image between Xwv3 and X8Y3), the 0 image extraction unit 17 determines that the sandwiched image is the image to be extracted. stores this extraction target image @ in the frame buffer for classification number j in the frame buffer.

上述した手順で順次に追記マーク画像に挟まれた画像を
抽出しフレームバッファに格納してゆくが、副走査がY
Yl、、行に達すると追記マークの色情報を持つ画素で
挾まれる画像がなくなるので画像抽出は行われない、ざ
らに、副走査がYYr1行に達すると追記マークの色情
報を持つ画素も存在しなくなるので、分類番号jに対応
する追記マークで囲まれた領域の画像抽出が終了する。
The images sandwiched between the additional mark images are sequentially extracted and stored in the frame buffer using the above-mentioned procedure, but if the sub-scan is Y
When the Yl line is reached, there are no more images sandwiched between the pixels that have the color information of the addendum mark, so image extraction is not performed. Since it no longer exists, image extraction of the area surrounded by the postscript mark corresponding to the classification number j is completed.

なお、分類番号jが設定されている追記マークで囲った
1つの領域の抽出処理が終了したら、該分類番号イこ対
応するフレームバッファの当該抽出領域を格納した最終
アドレスのうち少なくとも副走査方向のアドレスを最終
格納アドレスとして画像抽出部17は保存しておき、次
に同一分類番号Jか設定されている追記マークで囲まれ
た領域を抽出する際には前記最終格納アドレスの次のア
ドレスからこの抽出画像を格納するのが良い。
When the extraction process for one area surrounded by the write-once mark where the classification number j is set is completed, at least the final address in the sub-scanning direction where the extraction area of the frame buffer corresponding to the classification number j is stored is completed. The image extracting unit 17 saves the address as the final storage address, and next time when extracting the area surrounded by the addendum mark set with the same classification number J, start from the address next to the final storage address. It is better to store the extracted image.

第2図に示した公告公報がら追記マークm、〜m3.に
よって囲まれた領域を各々上述の手順により抽出した場
合、分類番号(1)、(2)及び(3)用のフレームバ
ッファには、M51E (A)〜(C)のように抽出画
像が格納される。
Addendum marks m, ~m3. When the areas surrounded by are each extracted using the above procedure, the extracted images are stored in the frame buffers for classification numbers (1), (2), and (3) as shown in M51E (A) to (C). be done.

なお、フレームバッファへの格納方法は第5図(A)〜
(C)に示した例に限られるものではなく、例えば、抽
出した各画像を1つのフレームバッファに格納しても勿
論良い、第6図はこのような格納例を説明するための図
である。この場合はフレームバッファには、抽出順に各
抽出画像を格納するが、この際、フレームバッファにお
ける各抽出画像毎の先頭アドレスと、各抽出画像の分類
番号とを一対とするデータを領域テーブルとして格納す
る。
The storage method in the frame buffer is shown in Figure 5 (A) ~
It is not limited to the example shown in (C), and of course, each extracted image may be stored in one frame buffer. FIG. 6 is a diagram for explaining such a storage example. . In this case, each extracted image is stored in the frame buffer in the order of extraction, but at this time, data containing a pair of the start address of each extracted image in the frame buffer and the classification number of each extracted image is stored as an area table. do.

巳望3JはULl雄朋 次に、画像合成部の動作説明を行う0画像合成部19は
、例えばオペレータにより指定される出力モードに応し
、画像抽出部17において抽出された画像を合成してC
RT上に或は出力端子21を介しプリンタ等tこ出力す
る。
Mibo 3J will explain the operation of the image compositing section to Yutoji ULl. C
The data is outputted to the RT or via the output terminal 21 to a printer or the like.

従って例えば、フレームバッファに第6図のように格納
された抽出画像に間してオペレータが、例えば分類番号
(1)、(2)、(3)の順に出力する旨の指定を入力
すると、フレームバッファに格納されている順番とは異
なった順番、即ち原稿から抽出した領域内の画像を追記
した色fこ対応して付与した順番に従った順番で第7図
に示すよう各抽出画像は合成され出力される。なお、同
一分類番号の抽出画像間においては特別の指定がない限
りフレームバッファのアドレスの昇順に従って各抽出画
像は出力される。
Therefore, for example, if an operator inputs a designation to output the extracted images stored in the frame buffer as shown in Figure 6 in the order of classification numbers (1), (2), and (3), the frame The extracted images are combined as shown in Figure 7 in an order different from the order stored in the buffer, that is, in an order according to the order in which the images in the area extracted from the original are added and the corresponding colors are added. and output. Note that among extracted images having the same classification number, unless otherwise specified, each extracted image is output in ascending order of frame buffer addresses.

また、この発明の画蛍処理装M(こおいては、入力原稿
が複数枚になっている場合でも各ページの所望の画像部
分を所定の追記マークによって囲み抽出処理を行うこと
により、それぞれの抽出画像には所望の分類番号が付与
されるので、入力原稿が複数枚の場合でも所望の画像合
成が出来る。
In addition, the image processing device M of the present invention (in this case, even when there are multiple input manuscripts, the desired image portion of each page is enclosed and extracted using predetermined postscript marks, so that each Since a desired classification number is assigned to the extracted image, desired image synthesis can be performed even when there are a plurality of input documents.

例えば、入力原稿の1枚目が第2図に示したものであり
2枚目が第8図(A)に示したものである場合、画像抽
出部17はm、、”−m32の各追記マークで囲まれた
部分の画像をそれぞれ抽出する。そして、画像合成を分
類番号(1)〜(3)の抽出画像層に行う旨の指示がオ
ペレータよりなされたとすると、合成画像は第8図CB
)に示すようなものになる。
For example, if the first sheet of the input document is shown in FIG. 2 and the second sheet is shown in FIG. The images of the parts surrounded by the marks are each extracted.Then, if the operator gives an instruction to perform image synthesis on the extracted image layers with classification numbers (1) to (3), the synthesized image will be as shown in Figure 8 CB.
).

変形、1λ睨朋 この発明は上述の実施例のみに限られるものではなく以
下に説明するような種々の変形を加えることが出来る。
Modifications, 1λ This invention is not limited to the above-described embodiments, but can be modified in various ways as described below.

例えば上述の実施例では、分類番号の設定及び領域抽出
を色情報に基づいて具体的には色度図及び色度座標に基
づいて行っていたが、分類番号の設定及び領域抽出は、
画像の濃度情報を用いで行っても良い、第3図(8)は
、分類番号の設定及び領域抽出を濃度情報により行う場
合の、入力原稿上の背景の濃度、文字・図形の濃度及び
抽出したい画像部分を囲むマーク部の濃度の違え方の一
例を示したものである。即ち、背景部の濃度範囲と、文
字・図形部の濃度範囲との間の濃度範囲をマーク部の濃
度とし、しかもこのマーク部の濃度妃囲内においで複数
のマーク(図示例では第1〜第3の3つの追記マーク)
の濃度が重ならないようにすれば、分類番号設定及び領
域抽出が可能なことか分る。
For example, in the above embodiment, the classification number setting and area extraction were performed based on color information, specifically, the chromaticity diagram and chromaticity coordinates, but the classification number setting and area extraction were
Figure 3 (8) shows the background density, text/figure density and extraction on the input document when setting the classification number and extracting the area using the density information. This figure shows an example of how to change the density of a mark portion surrounding a desired image portion. That is, the density range between the density range of the background part and the density range of the characters/figures part is taken as the density range of the mark part, and within the density range of this mark part, a plurality of marks (in the illustrated example, the first to 3 additional marks)
It can be seen that it is possible to set the classification number and extract the area if the densities of the two do not overlap.

なお、濃度情報を用いる場合は、画像入力部]3は、濃
度多値レベル信号が得られるモノクロスキャナーで構成
するだけで良い。しかし、カラースキャナーを用いた場
合でも0式で求まる刺激値のうちの明度を示すY値を用
いることにより濃度情報は得られる。
Note that when density information is used, the image input unit] 3 may simply be configured with a monochrome scanner capable of obtaining density multi-level signals. However, even when a color scanner is used, density information can be obtained by using the Y value indicating the brightness of the stimulus values determined by the equation 0.

また、上述の実施例では、入力原稿の抽出したい両g1
部分を色の異なる追記マーク又は濃度の異なる追記マー
クで囲むことにより領域抽出を行う例であったか、抽出
したい画像部分を画像部分とは異なる色情報又は濃度情
報が得られる追記マークによって塗りつぶしであいでも
よい。この場合は画像抽出部は、同一の色情報(濃度情
報)が得られる画素が連なる領域を抽出する。
In addition, in the above embodiment, both g1 of the input document to be extracted
This was an example in which area extraction is performed by surrounding a part with postscript marks of different colors or postscript marks of different densities, or it is also possible to fill in the image part to be extracted with postscript marks that provide color information or density information different from that of the image part. . In this case, the image extraction unit extracts a region where pixels from which the same color information (density information) can be obtained are connected.

(発明の効果) 上述した説明からも明らかなように、この発明の画像処
理装置によれば、入力原稿の画像の追記マークによって
囲まれた部分又はこれらマークによって塗りつぶした部
分を自動的に抽出することが出来、然も、抽出した画像
部分には所定の分類番号を付与出来る。
(Effects of the Invention) As is clear from the above description, the image processing device of the present invention automatically extracts the portion of the input document image surrounded by the additional marks or the portion filled in by these marks. Moreover, a predetermined classification number can be assigned to the extracted image portion.

従って、抽出輸域の指定を入力原稿とは別の入力用紙を
用いで行う必要が全くないので入力用紙を用いていた場
合の問題点は解決される。ざらに、領域抽出処理後の画
像処理例えば画像合成処理等において抽出画像に付与し
た分類番号を用いて種々の処理が可能になる。
Therefore, there is no need to designate the extraction import area using an input form separate from the input manuscript, and the problems that would otherwise arise when input forms are used are solved. In general, various processes can be performed using the classification number assigned to the extracted image in image processing such as image synthesis processing after region extraction processing.

これかため、入力原稿上の画像の任意の領域の抽出を容
易に行え然も画像処理装置を使用する環境やニーズの変
化に対応即ち画像処理の種々の態様に柔軟に対応するこ
とが出来る画像処理袋Hを提供することが出来る。
Therefore, it is possible to easily extract any region of the image on the input document, while also being able to respond flexibly to various aspects of image processing in response to changes in the environment and needs in which the image processing device is used. A processing bag H can be provided.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、実施例の画像処理袋Mを示すブロック図、 第2図は、入力原稿の説明図、 第3図(A)は、追記マークの色度座標の範囲の説明図
、 第3図(B)は、追記マークの濃度範囲の説明図、 第4図は、画像抽出の説明図、 篤5図(A)〜(C)は、フレームバッファへの格納例
を示す図、 第6図は、フレームバッファへの格納例の他の例を示す
図、 第7図は、第6図に対応の合成画像例を示す図、 第8図(A)及び(B)は、入力原稿が複数枚の画像合
成例を示す図である。 ・・・光信号、 3・・・画像入力部、 7・・・画像抽出部、 1・・・出力端子 7.〜m3□・・・追記マーク ト・・原稿、 5・・・背景の画像 7・・・追記マーク (設定色i)
FIG. 1 is a block diagram showing the image processing bag M of the embodiment; FIG. 2 is an explanatory diagram of an input document; FIG. Figure (B) is an explanatory diagram of the density range of recordable marks; Figure 4 is an explanatory diagram of image extraction; Figures 5 (A) to (C) are diagrams illustrating an example of storage in a frame buffer; The figure shows another example of storage in the frame buffer. Figure 7 shows an example of a composite image corresponding to Figure 6. Figures 8 (A) and (B) show an input document FIG. 3 is a diagram illustrating an example of combining multiple images. . . . Optical signal, 3. Image input section, 7. Image extraction section, 1.. Output terminal 7. ~m3□...Additional mark...Original, 5...Background image 7...Additional mark (setting color i)

Claims (1)

【特許請求の範囲】[Claims] (1)入力原稿上の画像の任意の領域を抽出し処理する
画像処理装置において、 入力原稿からの光信号を入力し画像の濃淡及び色の一方
又は双方に応じた情報を画素毎に出力する画像入力部と
、 画像の濃淡の違い及び色の違いの一方又は双方に基づい
た分類番号を設定する分類番号設定部と、 前記情報が同一である画素同士の連なりに対応する画像
部分又は前記情報が同一である画素によって囲まれる画
像部分を個々の領域として抽出すると共に該領域に前記
分類番号を付与する画像抽出部とを具えたこと を特徴とする画像処理装置。
(1) An image processing device that extracts and processes an arbitrary area of an image on an input document, which inputs optical signals from the input document and outputs information corresponding to the shading and/or color of the image for each pixel. an image input unit; a classification number setting unit that sets a classification number based on one or both of the difference in shading and color of the image; and the image portion or the information corresponding to a series of pixels having the same information. An image processing device comprising: an image extracting unit that extracts as an individual region an image portion surrounded by pixels having the same number, and assigns the classification number to the region.
JP8939090A 1990-04-04 1990-04-04 Image processor Pending JPH03288275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8939090A JPH03288275A (en) 1990-04-04 1990-04-04 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8939090A JPH03288275A (en) 1990-04-04 1990-04-04 Image processor

Publications (1)

Publication Number Publication Date
JPH03288275A true JPH03288275A (en) 1991-12-18

Family

ID=13969335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8939090A Pending JPH03288275A (en) 1990-04-04 1990-04-04 Image processor

Country Status (1)

Country Link
JP (1) JPH03288275A (en)

Similar Documents

Publication Publication Date Title
US6151421A (en) Image composing apparatus and method having enhanced design flexibility
US7747074B2 (en) Selection of decorative picture suitable for input picture
US20070064279A1 (en) Image processing apparatus, image processing method, and computer program product
EP0854440A2 (en) Image processing apparatus capable of synthesizing images based on transmittance data
JPH08154172A (en) Image processing method, image file and file for image processing
JP2006350521A (en) Image forming device and image forming program
JPH06121159A (en) Color image processor
US5802535A (en) Document processing apparatus for editing and generating documents
JPS59104854A (en) Method for outputting picture layout in picture inputting/outputting device
JPH03288275A (en) Image processor
EP0612054A1 (en) Invisible marking of electronic images
JP4148114B2 (en) Image processing apparatus and processing method
JP2896919B2 (en) Image processing device
JPH03225477A (en) Image processor
JPH03117271A (en) Picture processor
JPS617774A (en) Color picture output device
JPH09274643A (en) Image processor and image output device
JP3669008B2 (en) Image processing apparatus and image processing method
JPH0424879A (en) Picture processor
JP2005144875A (en) Printed image color reproduction system
JP2633051B2 (en) Image processing device
JPH02128291A (en) Picture input system
JPH03171975A (en) Color image processor
JPH041864A (en) Image processor
JPH03263277A (en) Picture processor