JPS6163158A - Picture editing device - Google Patents

Picture editing device

Info

Publication number
JPS6163158A
JPS6163158A JP59184688A JP18468884A JPS6163158A JP S6163158 A JPS6163158 A JP S6163158A JP 59184688 A JP59184688 A JP 59184688A JP 18468884 A JP18468884 A JP 18468884A JP S6163158 A JPS6163158 A JP S6163158A
Authority
JP
Japan
Prior art keywords
image
data
color
image data
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59184688A
Other languages
Japanese (ja)
Other versions
JP2635958B2 (en
Inventor
Naoto Kawamura
尚登 河村
Yoshinobu Mita
三田 良信
Tadashi Yoshida
正 吉田
Katsuto Idei
出井 克人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP59184688A priority Critical patent/JP2635958B2/en
Publication of JPS6163158A publication Critical patent/JPS6163158A/en
Application granted granted Critical
Publication of JP2635958B2 publication Critical patent/JP2635958B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PURPOSE:To edit pictures at a high speed with use of a small capacity picture memory by storing sequentially respective edited picture data, which are obtained by applying the graphic processing and color processing to color picture data and sentence information, in the same picture data area set in picture memory. CONSTITUTION:A light absorbing body 53 is so placed to cover the upper surface of an original 11 placed on an original platen 52, and pre-scanned at a high speed prior to the picture detection of an optical system device 51. A light receiving element 17 is caused to detect a picture and the size of the original 11. Then edited data and character information are keyed in 3b to a picture processing menu displayed on the screen of a display device 3, and respective edited picture data, which are obtained by applying the graphic processing and color processing to color picture data and character information in accordance with the detected original size and the edited data, are sequentially stored in the same picture data area set in a picture memory 5. Thus a small capacity picture memory can edit pictures at a high speed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、カラープリンタ、特に電子写真をベースと
したカラープリンタに接続するための画像編集システム
に係り、高密度カラー画像を簡易に高速で編集すること
ができる画像編集装置に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an image editing system for connecting to a color printer, particularly an electrophotographic color printer, which allows high-density color images to be easily and quickly produced. The present invention relates to an image editing device that can perform editing.

〔従来技術とその問題点〕[Prior art and its problems]

従来、半導体レーザを光源としたレーザコピー機・プリ
ンタまたはレーザコピー機は画像のディジタル記録かで
きるため、現在広く利用されつつある。このレーザ・ビ
ーム・プリンタ(以下LBPという)またはレーザコピ
ー機(以下LC,!:いう)をカラー化したものが広く
市場から要求されている。現在、カラーLBPまたはカ
ラーLCを実現する方法として感光体ドラムを1つ使用
して行うlドラム方式と、感光体ドラムを4つ使用して
行う4ドラム方式があり、また、感光体ドラムを3つ使
用するものもある。このうち、4ドラム方式によるカラ
ーLCにおいては、通常印字前に高密度に画像を読み取
り、原稿毎にDISC等の記憶装置に一旦格納しておき
、順次読み出して原稿編集作業を行うため、大容量の画
像メモリーを必要とし、非常に高価なものとなる。  
  ・また、現在市場に登場しているちととしては例え
ば、レスポンス300シリーズ(商品名:サイテ−/ 
’)社製)、5TUD’l0−800シu−ズ(商品名
:クロッフィールド社製)、ページマチック(商品名二
大日本インキ社製)等があり、いずれも大型で高価な上
、処理が汎用的であるため処理時間がかかるという欠点
があった。
2. Description of the Related Art Conventionally, laser copy machines/printers or laser copy machines using a semiconductor laser as a light source are currently becoming widely used because they can digitally record images. Color versions of this laser beam printer (hereinafter referred to as LBP) or laser copy machine (hereinafter referred to as LC) are widely demanded in the market. Currently, there are two methods for realizing color LBP or color LC: the 1-drum method, which uses one photoreceptor drum, and the 4-drum method, which uses four photoreceptor drums. Some use one. Among these, color LCs using a 4-drum system usually read images at high density before printing, temporarily store each document in a storage device such as a DISC, and read them out sequentially to edit the document, so they have a large capacity. It requires several image memory and is very expensive.
・In addition, examples of products currently appearing on the market include the Response 300 series (product name: Cyte/
), 5TUD'10-800 Series (product name: Croffield), Pagematic (product name: Nippon Ink Company), etc., all of which are large and expensive, and are difficult to process. Since it is general-purpose, it has the disadvantage that it takes a long processing time.

〔発明の目的〕 この発明は上記の欠点を除去するためになされたもので
、ディスプレイに表示される画像処理メニューに編集デ
ータおよび文字情報をキー入力し、光学走査により検出
された原稿サイズおよび編集データに応じてカラー画像
データおよび文章情報に図形処理および色処理を施した
各編集画像データを画像メモリに設定される同一画像デ
ータ領域に順次格納することにより、小容量の画像メモ
リで高速に画像編集できる画像編集装置を提供すること
を目的とする。
[Object of the Invention] The present invention has been made to eliminate the above-mentioned drawbacks. Editing data and character information are key-inputted into an image processing menu displayed on a display, and the original size and editing detected by optical scanning are performed. By sequentially storing each edited image data in which color image data and text information are subjected to graphics processing and color processing according to the data in the same image data area set in the image memory, images can be created at high speed with a small capacity image memory. The purpose is to provide an image editing device that can be edited.

以下この発明について説明する。This invention will be explained below.

〔実施例〕〔Example〕

第1図はこの発明の一実施例を示す画像編集装置の構成
ブロック図であり、1は例えばCOD等で構成される画
像読取り装置で、画像はRed(以下単にRという)、
Green (以下単にGという)、Blue(以下単
にBという)の3色に分解して読み取られる。2はこの
発明の制御部をなすコントローラで、モニタ部3のディ
スプレイ3aを見ながらキーボード3bより入力する画
像処理メニューにより動作する。4はパイプラインプロ
セッサで、後述する拡大、縮小、並行移動、エツジ処理
、マスキング、2値化等を行う。
FIG. 1 is a configuration block diagram of an image editing device showing an embodiment of the present invention. Reference numeral 1 denotes an image reading device composed of, for example, COD, and the image is Red (hereinafter simply referred to as R).
It is separated and read into three colors: Green (hereinafter simply referred to as G) and Blue (hereinafter simply referred to as B). Reference numeral 2 denotes a controller which constitutes a control section of the present invention, and is operated by an image processing menu inputted from a keyboard 3b while looking at a display 3a of a monitor section 3. A pipeline processor 4 performs enlargement, reduction, parallel movement, edge processing, masking, binarization, etc., which will be described later.

5は画像メモリで、コントローラ2およびパイプライン
プロセッサ4で処理された画像データおよび画像形成に
必要な制御情報を格納する。6は4ドラムカラーLBP
またはカラーLC等の像形成装置である。7は信号バス
、8は文字コードメモリで、キーボード3bより入力す
るテキストデータ(文章)を格納する。なお、キーボー
ド3bはこの発明のキー入力手段をなすものである。
An image memory 5 stores image data processed by the controller 2 and pipeline processor 4 and control information necessary for image formation. 6 is 4 drum color LBP
Alternatively, it is an image forming device such as a color LC. 7 is a signal bus, and 8 is a character code memory, which stores text data (sentences) input from the keyboard 3b. Note that the keyboard 3b constitutes key input means of the present invention.

次に動作について説明する。Next, the operation will be explained.

画像読取りセンサ1により読み取られた3色R,G、B
の画像データ(各色8ビット)は後述のコントローラ2
およびパイプラインプロセッサ4により処理され画像メ
モリ5へ記憶される。一方、プリントアウトするときは
画像メモリ5に格納された画像情報を像形成装置5へ出
力すればそのハードコピーが得られる。なお、コントロ
ーラ2はモニタ部3により作成された画像処理メニュー
(データまたはパラメータ)に応じて画像読取リセンサ
1が読み取った画像データに図形処理を行い、さらにパ
イプラインプロセッサ4で色処理を行い画像メモリ5に
格納される。
Three colors R, G, B read by image reading sensor 1
The image data (8 bits for each color) is sent to controller 2, which will be described later.
The image is then processed by the pipeline processor 4 and stored in the image memory 5. On the other hand, when printing out, the image information stored in the image memory 5 is outputted to the image forming device 5 to obtain a hard copy thereof. Note that the controller 2 performs graphical processing on the image data read by the image reading resensor 1 according to the image processing menu (data or parameters) created by the monitor unit 3, and further performs color processing in the pipeline processor 4 and stores the data in the image memory. It is stored in 5.

次にコントローラ2およびパイプラインプロセッサ4の
構成について第2図を参照しながら説明する。
Next, the configurations of the controller 2 and pipeline processor 4 will be explained with reference to FIG. 2.

この図で、2,4.5は第1図と同一のものを示し、2
aは画像データの拡大、縮小処理を行う拡大−縮小処理
部、2bは画像データの並行移動を行う並行移動処理部
、4aは画像データのエツジ処理を行うエツジ強調処理
部、4bは画像データのマスク処理を行うマスキング処
理部、4Cは前記画像メモリ5へ格納する画像データを
2値化する2値化回路である。
In this figure, 2, 4.5 indicates the same thing as in Figure 1, and 2.
2b is a parallel movement processing unit that performs parallel movement of image data; 4a is an edge enhancement processing unit that performs edge processing of image data; 4b is an edge enhancement processing unit that performs edge processing of image data; A masking processing section 4C that performs mask processing is a binarization circuit that binarizes image data to be stored in the image memory 5.

次に動作について簡単に説明する。Next, the operation will be briefly explained.

コントローラ2より受けた編集データまたはパラメータ
があらかじめセットされた状態で、R2O,Bの画像デ
ータがコントローラ2に入力され、画像メニューに応じ
て画像データが拡大−縮小処理部2aで拡大−縮小処理
、並行移動処理部2bで並行移動処理が行われ、続いて
、パイプラインプロセッサ4のエツジ強調処理部4aで
エツジ処理、マスキング処理部4bでマスク処理等を順
に行い、色別に処理された画像データを2値化回路4C
により符号化したカラー画像データに変換して、画像メ
モリ5の指定領域に格納する。
With the editing data or parameters received from the controller 2 set in advance, the image data of R2O and B is input to the controller 2, and the image data is subjected to enlargement/reduction processing in the enlargement/reduction processing section 2a according to the image menu. The parallel movement processing unit 2b performs parallel movement processing, then the edge enhancement processing unit 4a of the pipeline processor 4 performs edge processing, and the masking processing unit 4b performs mask processing, etc., to process image data for each color. Binarization circuit 4C
The image data is converted into encoded color image data and stored in a designated area of the image memory 5.

次に第3図に示す合成画像のレイアウトを参照しながら
編集動作について説明する。
Next, the editing operation will be explained with reference to the layout of the composite image shown in FIG.

この図で、A、B、Cは編集する画像、Dは合成画像で
ある。なお、作成する合成画像りが例えばA4サイズで
あるとする。また、画像A、Bのオリジナル原稿サイズ
はA4サイズであり、画像CはA4サイズ原稿の一部で
あるとする。
In this figure, A, B, and C are images to be edited, and D is a composite image. It is assumed that the composite image to be created is, for example, A4 size. Further, it is assumed that the original document size of images A and B is A4 size, and image C is a part of the A4 size document.

まず、画像メモリ5に下地色をぬりつぶし合成画像りの
領域を形成する。続いて、画像Aを拡大−縮小処理部2
aで縮小し、並行移動処理部2bで合成画像りの所定位
置に移動させ、画像メモリ5に格納する0次いで、画像
Bを同じく拡大−縮小処理部2aで縮小し、並行移動処
理部2bで合成画像り内の所定位置に移動させ、画像メ
モリ5に格納する。続いて、画像Cを拡大−縮小処理部
2aで縮小し、並行移動処理部2bで合成画像り内の所
定位置に移動させ、さらにマスキング処理部4bで所定
個所のマスクを施し画像メモリ5に格納する。このよう
に、合成画像り内に画像A。
First, an area of a composite image is formed in the image memory 5 by filling in the base color. Next, the image A is enlarged/reduced by the processing unit 2.
Then, the image B is reduced in size by the enlargement/reduction processing part 2a, moved to a predetermined position in the composite image by the parallel movement processing part 2b, and stored in the image memory 5. The image is moved to a predetermined position within the composite image and stored in the image memory 5. Subsequently, the image C is reduced by the enlargement/reduction processing section 2a, moved to a predetermined position within the composite image by the parallel movement processing section 2b, and then masked at a predetermined location by the masking processing section 4b and stored in the image memory 5. do. In this way, image A is included in the composite image.

B、Cを順にぬりつぶすことにより、最終的な合成画像
りが得られる。
By sequentially filling in B and C, the final composite image is obtained.

次に第4図(a)を参照しながらテキストデータの編集
作業について説明する。
Next, text data editing work will be explained with reference to FIG. 4(a).

この図で、A−D、A、、B1 、C1、C2。In this figure, A-D, A,, B1, C1, C2.

Sl、S2は第3図と同一のものを示し、5l(Xs 
1  、Ys 1 )は合成画像り上での文章S1の左
上座標を示し、32  (Xs2 、Ys2)は合成画
像り上での文章S2の左上座標を示す。なお、一般に、
カラm−ディスプレイは解像度が低く細い文字を出力す
るのは不向きであるため、テキストデータの編集は下記
の方法によるものが考えられる。
Sl and S2 are the same as in Fig. 3, and 5l (Xs
1, Ys1) indicates the upper left coordinates of the sentence S1 on the composite image, and 32 (Xs2, Ys2) indicates the upper left coordinates of the sentence S2 on the composite image. Furthermore, in general,
Since the color m-display has a low resolution and is not suitable for outputting thin characters, the following method may be used to edit text data.

(a)ディスプレイ3aにモノクロ高精細ディスプレイ
を使用し、テキストデータの編集を行い、各カラー画像
A、B、Cの枠組を/\ッチの密度で表現し編集を行う
(a) A monochrome high-definition display is used as the display 3a, text data is edited, and the framework of each color image A, B, and C is expressed and edited at a density of /\titch.

(b)ディスプレイ3aにモノクロ高精細ディスプレイ
およびカラーディスプレイを使用し、モノクロ高精細デ
ィスプレイ上でテキストデータの編集を行い、カラーデ
ィスプレイ上で各カラー画像A、B、Cの枠組を編集す
る。
(b) A monochrome high-definition display and a color display are used as the display 3a, text data is edited on the monochrome high-definition display, and the framework of each color image A, B, and C is edited on the color display.

(C)ディスプレイ3aにカラーディスプレイを使用し
、テキストデータおよび各カラー画像A。
(C) A color display is used as the display 3a, and text data and each color image A are displayed.

B、Cの枠組の編集を行う。Edit frameworks B and C.

このうち、(a)、(b)はコスト面で問題があり、こ
の発明では(C)による方法を採用している。なお、テ
キストデータの編集はワードプロセッサ等でディスプレ
イ3aを使用し行なわれる。以下、(C)の方法に沿っ
てテキストデータの編集について説明する。
Of these, methods (a) and (b) have problems in terms of cost, and the present invention employs method (C). The text data is edited using a word processor or the like using the display 3a. Editing text data will be described below in accordance with method (C).

まず、第3図に示す各画像A−Cの枠組情報At  +
 B1+ Cr  l C2(7)入力後、第4図(a
)に示す文章Slおよび、S 2の左上座標S! (X
s 1 、Ys 1) 、S2 (XS2.Ys2)を
キーボード3bより与え、文章S1およびS2のテキス
トデータがキーボード3bより入力されると、図示しな
いキャラクタジェネレータ(CG)がドツト情報を発生
させることによりテキストデータをディスプレイ3aに
表示させるとともに、コード情報に変換された文章S1
およびS2のテキストデータが文字コードメモリ8に格
納される。この際、文字コードメモリ8に例えばA4サ
イズに相当する原稿を1ペ一ジ分収納しようと構成する
場合は、この原稿に書き込める文字数は最小文字サイズ
を3mmとして、(210/3) X (2!37/3
)=6930文字となり、これをアスキーコードですべ
て記憶するには約7にバイトの記憶領域が必要になるが
、これは画像メモリ5に比べてかなり少量となる。この
ため、第4図(b)に示されるように文章S1がページ
メモリとなる文字コードメモリ8の左上から順に格納さ
れる。従って、文章S2は2枚目の文字コードメモリ8
に同様に格納される。通常、文字コードメモリ8はA4
サイズの原稿を10ペ一ジ程度格納できる。
First, frame information At + of each image A to C shown in FIG.
After inputting B1+ Cr l C2 (7), Figure 4 (a
) and the upper left coordinates S of S2! (X
s 1 , Ys 1), S2 (XS2.Ys2) are given from the keyboard 3b, and when the text data of sentences S1 and S2 is input from the keyboard 3b, a character generator (CG) not shown generates dot information. The text data is displayed on the display 3a, and the text S1 is converted into code information.
The text data of S2 and S2 are stored in the character code memory 8. At this time, if the character code memory 8 is configured to store one page of a document equivalent to A4 size, for example, the number of characters that can be written in this document is (210/3) x (2), assuming a minimum character size of 3 mm. !37/3
) = 6930 characters, and to store all of them in ASCII code requires a storage area of approximately 7 bytes, which is considerably smaller than the image memory 5. Therefore, as shown in FIG. 4(b), the sentences S1 are sequentially stored from the upper left of the character code memory 8, which serves as a page memory. Therefore, the sentence S2 is the second character code memory 8.
is stored in the same way. Normally, the character code memory 8 is A4
It can store about 10 pages of original size.

このように、文章StおよびS2の入力が終了すると、
文字コードメモリ8に格納されているテキストデータの
コー・ド情報の原点を既に入力されている座標St  
(Xs 1 、Ys t)、32  (Xs2.Ys2
)に応じてシフトし、画像メモリ5に形成される合成画
像りの画像データ領域中に高精細な例えば40X40の
文字フォントを使用して書き込む。これは画像メモリ5
がビットデータまたは画像データを格納するため、1ビ
ツトプレーンまたは2ビツトプレーンで構成されている
ためである。なお、文字コードメモリ8への記憶方法は
後述の画像データと共通形式で取り扱うものとする。ま
た、記憶媒体としてはICメモリ以外にフロッピーディ
スク等が使用でき、画像データ同様、文章毎に拡大、縮
小が可能となる。さらに、ディスプレイ3bがカラーデ
ィスプレイの場合は編集する文字が細いとテキストデー
タがつぶれる恐れがあるが、テキストデータ入力時点で
2倍に拡大して編集し、画像メモリ5に書き込む時点で
所望の大きさに修正すればテキストデータが欠けること
はなくなる。さらに、テキストデータは画像メモリ5に
色を指定して格納することができる。
In this way, when the input of sentences St and S2 is completed,
The origin of the code information of the text data stored in the character code memory 8 is the coordinate St that has already been input.
(Xs 1 , Ys t), 32 (Xs2.Ys2
) and write in the image data area of the composite image formed in the image memory 5 using a high-definition character font of, for example, 40×40. This is image memory 5
This is because it stores bit data or image data, so it is composed of 1-bit plane or 2-bit plane. Note that the storage method in the character code memory 8 is handled in a common format with image data, which will be described later. Further, as a storage medium, a floppy disk or the like can be used in addition to an IC memory, and like image data, each text can be enlarged or reduced. Furthermore, if the display 3b is a color display, there is a risk that the text data will be distorted if the characters to be edited are thin. If you correct it, the text data will no longer be missing. Furthermore, the text data can be stored in the image memory 5 by specifying a color.

次に第4図(c)に示す画像レイアウトを参照しながら
編集データの入力動作について具体的に説明する。
Next, the editing data input operation will be specifically explained with reference to the image layout shown in FIG. 4(c).

この図で、A−Dは第3図と同一のものを示し、AI 
 (Xa 、 Ya )は合成画像り上での原稿Aの左
上座標を示し、B、(Xb 、Yb)は合成画像り上で
の原稿Bの左上座標を示し、Ct  (Xc 1. Y
c t )は合成画像り上での原稿Cの左上座標ヲ示シ
、C2(XC2、YO2)t’3よびC3(Xa3  
、Ya3)は画像Cのトリミング座標を示している。Z
Rはズーミング・レシオ(以下ZRと呼ぶ)であり、Z
R= 1は等倍を表す。
In this figure, A-D indicates the same thing as in Figure 3, and AI
(Xa, Ya) indicates the upper left coordinates of document A on the composite image, B, (Xb, Yb) indicate the upper left coordinates of document B on the composite image, and Ct (Xc 1. Y
c t ) indicates the upper left coordinates of the document C on the composite image, C2 (XC2, YO2) t'3 and C3 (Xa3
, Ya3) indicate the trimming coordinates of the image C. Z
R is the zooming ratio (hereinafter referred to as ZR), and Z
R=1 represents the same size.

まず、操作者はディスプレイ3aに表示される第5図の
画像処理メニューを見ながら下記の手順に従ってキーボ
ード3bより編集データをキー入力する。
First, while viewing the image processing menu shown in FIG. 5 displayed on the display 3a, the operator inputs editing data using the keyboard 3b according to the following procedure.

■ 合成画像りの下地の色をR,G、Bの値から決め、
キーボード3bより入力してディスプレイ3aに表示す
る。
■ Determine the background color of the composite image from the R, G, and B values,
It is input from the keyboard 3b and displayed on the display 3a.

■ 合成画像り上における画像Aの位置座標A1 (X
a  、Ya )を決め、キーボード3bより入力して
ディスプレイ3aに表示する。
■ Position coordinates A1 (X
a, Ya) is determined, inputted from the keyboard 3b, and displayed on the display 3a.

■ 画像Aの大きさを決定するZ R(=0.4 )を
決め、キーボード3bより入力してディスプレイ3aに
表示する。
(2) Determine Z R (=0.4), which determines the size of image A, and input it from the keyboard 3b to display it on the display 3a.

■ 合成画像り上における画像Bの位置座標Bl (X
b  、Yb) を決め、キーボード3bより入力して
ディスプレイ3aに表示する。
■ Position coordinates Bl (X
b, Yb) is determined, input from the keyboard 3b, and displayed on the display 3a.

■ 画像Bの大きさを決定するZR(=0.5 )を決
め、キーボード3bより入力してディスプレイ3aに表
示する。
(2) Determine ZR (=0.5), which determines the size of image B, and input it from the keyboard 3b to display it on the display 3a.

■ 合成画像り上における画像Cの位置座標C1(Xc
 t、Yc 1 )を決め、キーボード3bより入力し
てディスプレイ3aに表示する。
■ Position coordinates C1 (Xc
t, Yc 1 ) is determined, input from the keyboard 3b, and displayed on the display 3a.

■ 画像Cの大きさを決定するZR(=0.5 )を決
め、キーボード3bより入力してディスプレイ3aに表
示する。
(2) Determine ZR (=0.5), which determines the size of image C, and input it from the keyboard 3b to display it on the display 3a.

■ 画像Cのトリミング位置座標C2 (Xa2.Ya2)およびC3(Xa3゜Yc 3 )
を決め、キーボード3bより入力してディスプレイ3a
に表示する。
■ Trimming position coordinates C2 (Xa2.Ya2) and C3 (Xa3°Yc 3 ) of image C
, enter it from the keyboard 3b and display it on the display 3a.
to be displayed.

なお、ディスプレイ3aがカラー表示可能であれば、こ
の上記各手順に応じてディスプレイ3aに編集する画像
A−Cの配置を例えば、画像A。
Note that if the display 3a is capable of color display, the arrangement of images A to C to be edited on the display 3a according to each of the above steps is, for example, image A.

Bの枠組を下地の色とは異ったグリーンで与え、画像C
に相当する全画面(第4図(C)に破線で示す)を淡い
赤で図形表示させると、画像の重なった個所はイエロー
になり、画像Cのトリミング個所を濃い赤で図形表示さ
せ、残った画像Cの部分を消去し画像Bとの重なった部
分も赤で図形表示させることにより、容易に合成画像り
のレイアウトを把握できる。また、ディスプレイ3aに
表示される画像処理メニューに各画像のデータのインプ
ットが終了すると、後述するコントローラ2の指定レジ
スタに各データまたはパラメータが格納される。さらに
各座標値を直接インプットせずにパラメータで与え、内
部で発生させるようにしてもよい、また、トリミング座
標値は簡便のため矩形で与え、円形の場合は半径と中心
座標で与える。
Give the frame of B a green color different from the base color, and create the image C.
When the entire screen corresponding to C (indicated by the broken line in Figure 4 (C)) is graphically displayed in light red, the overlapping parts of the images are displayed in yellow, the trimmed area of image C is graphically displayed in dark red, and the remaining parts are displayed in light red. The layout of the composite image can be easily grasped by erasing the portion of image C that was created and displaying the overlapping portion with image B in red. Further, when inputting the data of each image to the image processing menu displayed on the display 3a is completed, each data or parameter is stored in a designated register of the controller 2, which will be described later. Furthermore, each coordinate value may not be input directly but may be given as a parameter and generated internally. Also, for convenience, the trimming coordinate value is given as a rectangle, and in the case of a circle, it is given as radius and center coordinates.

次に画像の編集作業について説明する。Next, image editing work will be explained.

画像処理メニュー作成後、複数枚の原稿を一枚づつマニ
ュアルでセットするかまたは自動原稿送り装置(ADF
)により自動セットすることにより各原稿を読取り、原
稿を読取る毎にコントローラ2およびパイプラインプロ
セッサ4で所定の画像処理を施し、画像処理メニューに
応じて画像メモリ5に書き込む、この操作をすべての原
稿に対して行うことにより、合成画像の編集作業を終了
する。このように、この発明は、作成された画像処理メ
ニューに基づいて画像編集を行うため、大容量の画像フ
ァイルメモリを必要とせず短時間で画像処理ができる。
After creating the image processing menu, either manually load multiple originals one by one or use the automatic document feeder (ADF).
), each document is read by automatically setting the document, each time a document is read, the controller 2 and the pipeline processor 4 perform predetermined image processing, and write it to the image memory 5 according to the image processing menu. This operation is performed for all documents. By doing so, the editing work of the composite image is completed. In this manner, the present invention performs image editing based on the created image processing menu, so image processing can be performed in a short time without requiring a large capacity image file memory.

第6図(a)、(b)はこの発明の原稿読取り原理を説
明する図および要部の拡大図で、11は原稿、12は原
稿送りローラ、13は前記原稿送りローラ12を駆動さ
せるサーボモータで、ZRの値により回転速度を可変す
る。14は原稿照射ランプ、15は反射光を走査するミ
ラー、16は前記ミラー15からの反射光を集光するレ
ンズである。17は前記画像読取り装置1を構成する受
光素子で、R用のストライプフィルタ18R,G用のス
トライブフィルタ18G、B用のストライプフィルタ1
8Bに沿って3列ある。
6(a) and 6(b) are diagrams illustrating the document reading principle of the present invention and enlarged views of essential parts, in which 11 is a document, 12 is a document feed roller, and 13 is a servo that drives the document feed roller 12. The rotation speed of the motor is varied depending on the ZR value. 14 is a document irradiation lamp; 15 is a mirror that scans the reflected light; and 16 is a lens that focuses the reflected light from the mirror 15. Reference numeral 17 denotes a light receiving element constituting the image reading device 1, which includes an R stripe filter 18R, a G stripe filter 18G, and a B stripe filter 1.
There are three rows along 8B.

次に動作について説明する。Next, the operation will be explained.

画像処理メニューに応じて順に原稿11をセットすると
、ZRの値に比例した回転速度でサーボモータ13が駆
動し始め、原稿照射ランプ14が原稿11を露光し、そ
の反射光がミラー15を介してレンズ16に走査され、
集光された反射光が各ストライブフィルタ18R,18
G、18Bにより色分解され受光素子17により画像デ
ータとして検知される。
When the originals 11 are set in order according to the image processing menu, the servo motor 13 starts to drive at a rotation speed proportional to the ZR value, the original irradiation lamp 14 exposes the original 11, and the reflected light is transmitted through the mirror 15. scanned by the lens 16,
The focused reflected light passes through each stripe filter 18R, 18.
G and 18B are color separated and detected as image data by the light receiving element 17.

次にコントローラ2の構成について第7図を参照しなが
ら説明する。
Next, the configuration of the controller 2 will be explained with reference to FIG. 7.

この図で、1,4.5は第1図と同じものを示し、21
は前記画像読取り装置1の受光素子17により検知され
た画像データを各色毎に選別するセレクタ、22a、2
2bは前記セレクタ21により選別された画像データを
画素毎に格納する1ラインメモリ、23は前記1ライン
メモリ22aまたは1ラインメモリ22bに書き込まれ
た画像データを各色毎にパイプラインプロセッサ4に送
出するセレクタ、24はXクロックジェネレータ、25
はXクロックジェネレータ、26はl/ZRの値に応じ
てXクロックジェネレータ24のクロックf、を分周す
るXクロック分周器、27はXクロックジェネレータ2
5のクロックF1を分周するYクロック分周器、28は
ZRデータレジスタ、29は前記Xクロックジェネレー
タ24により発生するクロックf1をカウントしてアド
レス決定するXアドレスカウンタ、30はは前記Xクロ
ックジェネレータ25により発生するクロックF、をカ
ウントしてアドレス決定するXアドレスカウンタ、31
はズームアドレスカウンタで、Xクロック分周器26に
より分周されたクロックf2をカウントしセレクタ32
aまたはセレクタ32bに与える。33は前記キーボー
ド3bより入力された位置座標のX成分を格納するxル
ジスタ、34は前記キーボード3bより入力された位置
座標のX成分を格納するYルジスタ、35aは前記Xア
ドレスカウンタ29とXレジスタ33のアドレス値を加
算する加算器、35bは前記Xアドレスカウンタ3oと
Yレジスタ34のアドレス値を加算する加算器、36は
前記キーボード3bより入力されたトリミング位置の左
上座標のX成分を格納するx2レジスタ、37は前記キ
ーボード3bより入力されたトリミング位置の左上座標
のX成分を格納するY2レジスタ、38aは前記加算器
35aのアドレス値とx2レジスタのアドレス値を比較
するコンパレータ、38bは前記加算器35bのアドレ
ス値とY2レジスタのアドレス値を比較するコンパレー
タ、39は前記キーボード3bより入力されたトリミン
グ位置の右下座標のX成分を格納するx3レジスタ、4
0は前記キーボード3bより入力されたトリミング位置
の右下座標のX成分を格納するY3レジスタ、41aは
前記加算器35aのアドレス値とx3レジスタのアドレ
ス値を比較するコンパレータ、41bは前記加算器35
bのアドレス値とY3レジスタのアドレス値を比較する
コンパレータ、42はゲート回路、43は前記サーボモ
ータ13の駆動速度をZHの値に応じて設定するライン
送り機構である。44は読出しバス、45.46は書込
みバスある。
In this figure, 1, 4.5 indicate the same as in Figure 1, and 21
are selectors 22a, 2 for sorting image data detected by the light receiving element 17 of the image reading device 1 for each color;
2b is a 1-line memory that stores image data selected by the selector 21 for each pixel; 23 is a memory that sends the image data written in the 1-line memory 22a or 22b to the pipeline processor 4 for each color; Selector, 24, X clock generator, 25
is an X clock generator, 26 is an X clock frequency divider that divides the clock f of the X clock generator 24 according to the value of l/ZR, and 27 is an X clock generator 2.
28 is a ZR data register, 29 is an X address counter that counts the clock f1 generated by the X clock generator 24 to determine an address, and 30 is the X clock generator. an X address counter 31 that counts the clock F generated by 25 and determines the address;
is a zoom address counter that counts the clock f2 divided by the X clock frequency divider 26 and sends it to the selector 32.
a or selector 32b. 33 is an x register that stores the X component of the position coordinate input from the keyboard 3b, 34 is a Y register that stores the X component of the position coordinate input from the keyboard 3b, and 35a is the X address counter 29 and the X register. An adder 35b adds the address values of the X address counter 3o and the Y register 34, and an adder 36 stores the X component of the upper left coordinate of the trimming position input from the keyboard 3b. x2 register; 37 is a Y2 register that stores the X component of the upper left coordinate of the trimming position input from the keyboard 3b; 38a is a comparator that compares the address value of the adder 35a with the address value of the x2 register; 38b is the adder; 39 is an x3 register that stores the X component of the lower right coordinate of the trimming position input from the keyboard 3b; 4
0 is a Y3 register that stores the X component of the lower right coordinate of the trimming position input from the keyboard 3b, 41a is a comparator that compares the address value of the adder 35a with the address value of the x3 register, and 41b is the adder 35.
42 is a gate circuit, and 43 is a line feed mechanism that sets the drive speed of the servo motor 13 in accordance with the value of ZH. 44 is a read bus, and 45.46 is a write bus.

次に動作について説明する。Next, the operation will be explained.

画像読取り装置1の受光素子17はXクロックジェネレ
ータ24の発生するクロックflに同期して原稿11を
8ビツトのR,G、B信号にA/D変換して、各画素毎
に1ラインメモリ22a。
The light receiving element 17 of the image reading device 1 A/D converts the original 11 into 8-bit R, G, and B signals in synchronization with the clock fl generated by the .

22bにセレクタ21を介して交互に書き込まれる。こ
の書込みアドレスはXアドレスカウンタ29に指令され
るもので、そのアドレス値が書込みバス45を介してセ
レクタ32a、セレクタ32bに送出され、例えば書込
み中の1ラインメモリ22aに与えられる。このとき、
1ラインメモリ22bでは、ズームアドレスカウンタ3
1より読出しバス44を介して指令されるアドレス値に
応じて格納されている画像データを読出し、セレクタ2
3介してパイプラインプロセッサ4に送出する。なお、
ズームアドレスカウンタ31で発生されるクロックf2
はXクロックジェネレータ24のクロックf1をXクロ
ック分周器26により1/ZR倍して生成する。このた
め、ZR>1のときは、周波数はf2くflとなり、Z
R<1のときは、周波数はf2>f、となる。
22b via the selector 21. This write address is commanded to the X address counter 29, and the address value is sent to the selector 32a and selector 32b via the write bus 45, and is applied to, for example, the 1-line memory 22a that is being written. At this time,
In the 1-line memory 22b, the zoom address counter 3
1 reads out the stored image data according to the address value commanded via the readout bus 44, and
3 to the pipeline processor 4. In addition,
Clock f2 generated by zoom address counter 31
is generated by multiplying the clock f1 of the X clock generator 24 by 1/ZR by the X clock frequency divider 26. Therefore, when ZR>1, the frequency becomes f2 × fl, and Z
When R<1, the frequency becomes f2>f.

次にクロックf1をXクロック分周器26により1/Z
R倍にする理由について述べる。
Next, the clock f1 is divided by 1/Z by the X clock frequency divider 26.
The reason for multiplying by R will be explained.

例えば、ZR=0.5すなわち、原稿サイズを172に
縮小する場合は、今、1ラインメモリ22aが書込み中
であるとすると、1ラインメモリ22bは下記の読出し
クロックf2で・f2=f、Xi/ZR=2f。
For example, when reducing the original size to ZR=0.5, that is, 172, and if the 1-line memory 22a is currently being written, the 1-line memory 22b will be read at the following read clock f2, f2=f, Xi /ZR=2f.

読み出されるが、クロックf1で画像メモリ5に書き込
まれるため、画像メモリ5に格納されるlラインメモリ
22bの画像データは2度読み出される。従って、画像
サイズが主走査方向に172に縮小される。なお、2値
化回路4eの図示しない端子に入力されるクロックf1
で画像データをラッチしている。
However, since it is written into the image memory 5 at the clock f1, the image data stored in the l-line memory 22b stored in the image memory 5 is read out twice. Therefore, the image size is reduced to 172 in the main scanning direction. Note that the clock f1 input to a terminal (not shown) of the binarization circuit 4e
The image data is latched with .

一方、副走査方向はYクロックジェネレータ25から発
生するクロックF1をYアドレスカウンタ3oでカウン
トしたアドレス値を画像メモリ5のYアドレス端に入力
する。また、Yクロック分周器27により、クロックF
1をZRデータレジスタ28より与えられるZR(=0
.5)を1/ZR倍したクロックF2がライン送り機構
43にパルス入力されるため、サーボモータ13の送り
速度が2倍になる。このとき、受光素子17はXクロッ
クジェネレータ24の発生するクロックf、に同期して
原稿11を読み取るため。
On the other hand, in the sub-scanning direction, the address value obtained by counting the clock F1 generated from the Y clock generator 25 by the Y address counter 3o is input to the Y address end of the image memory 5. In addition, the Y clock frequency divider 27 allows the clock F
1 is given from the ZR data register 28 (=0
.. Since the clock F2 obtained by multiplying 5) by 1/ZR is input as a pulse to the line feed mechanism 43, the feed speed of the servo motor 13 is doubled. At this time, the light receiving element 17 reads the original 11 in synchronization with the clock f generated by the X clock generator 24.

1ライン毎に間引かれた画像データとなり、全体として
副走査方向が1/2に縮小される。なお。
The image data is thinned out line by line, and the overall sub-scanning direction is reduced to 1/2. In addition.

クロックF2およびクロックf2はプログラマブルなP
LL回路で容易に生成できる。
Clock F2 and clock f2 are programmable P
It can be easily generated using an LL circuit.

次に画像データの並行移動について説明する。Next, parallel movement of image data will be explained.

キーボード3bより入力された位置座標のX成分はXレ
ジスタ33に、Y成分はYレジスタ34に格納されてい
るので、加算器35a、35bを介してそれぞれのアド
レス値が画像メモリ5のXアドレス端、Yアドレス端に
入力され、画像データが並行シフトされる。
Since the X component of the position coordinate input from the keyboard 3b is stored in the X register 33 and the Y component in the Y register 34, the respective address values are stored at the X address end of the image memory 5 via adders 35a and 35b. , Y address end, and the image data is shifted in parallel.

次に画像データのトリミング動作について説明する。Next, the image data trimming operation will be explained.

キーボード3bより入力されたトリミング左上座標のX
成分はXレジスタ36に、Y成分はYレジスタ37に格
納されており、同じくキーボード3bより入力されたト
リミング右下座標のX成分はXレジスタ39に、Y成分
はYレジスタ40に格納されていて、それぞれコンパレ
ータ35a。
X of the top left coordinate of trimming input from keyboard 3b
The component is stored in the X register 36, the Y component in the Y register 37, the X component of the lower right trimming coordinate input from the keyboard 3b is stored in the X register 39, and the Y component is stored in the Y register 40. , each comparator 35a.

35bおよびコンパレータ41a、41bで対応するア
ドレス値との比較を行うことにより、ゲート回路42で
トリミング用のウィンドを生成させ画像メモリ5に対し
ライトイネーブル信号(WE)を送出する。このように
、初期に作成した画像処理メニューテーブルに基づいて
画像の縮小。
35b and comparators 41a and 41b, the gate circuit 42 generates a trimming window and sends a write enable signal (WE) to the image memory 5. In this way, the image is reduced based on the image processing menu table created initially.

拡大1位置移動1合成等の編集を行った編集画像データ
を画像メモリ5に格納するため、画像処理メニューテー
ブル作成を除く画像編集は、単に原稿のセットのみで済
み、通常のページアップシステムに比べ高速化され、編
集作業はリアルタイム処理となる。
Edited image data that has been edited such as enlargement, position movement, and compositing is stored in the image memory 5, so image editing other than creating an image processing menu table only requires setting the original, which is faster than a normal page-up system. The speed is increased, and editing work becomes real-time processing.

次に原稿サイズの異なる複数の画像編集作業について説
明する。
Next, a description will be given of a plurality of image editing operations for different document sizes.

原稿サイズが第8図に示されるようにそれぞれ異なる場
合は画像Al  + Bl  * CIのそれぞれの原
寸(縦長、横長)を考慮しなければならず、下記(I)
〜(I[)の方法により原稿サイズを検知することがで
きる。
If the original sizes are different as shown in Figure 8, the original size (vertical, horizontal) of each image Al + Bl * CI must be considered, and the following (I)
The document size can be detected by the method of ~(I[).

(I)  画像At  * Bl  + c、の各原稿
サイズを例えばA4.B4.A5等の定形サイズまたは
210mmX 297+am等の長さを直接入力する。
(I) The original size of the image At*Bl+c is set to, for example, A4. B4. Directly enter a standard size such as A5 or a length such as 210mm x 297+am.

(■) ディジタイザを使用して画像At。(■) Image At using a digitizer.

B、、C,の四隅または対角の2点の座標を入力し、各
原稿サイズを自動認識させる。
Input the coordinates of the four corners or two diagonal points of B, C, and the size of each document is automatically recognized.

(II[)  画像Al  + Bl  + c、につ
いてそれぞれ光学スキャンを行い、原稿サイズを認識さ
せる上記(I)〜(II)の方法のうち、(I)による
ものは操作者が常にデータを入力する必要があり、手間
がかかり、かつ、入力ミスをする可能性が高い。また、
(II)によるものはディジタイザを必要とするため、
コスト高になる。ゆえに、この発明では、(I[[)に
よるものを採用する。以下、(I[[)による原稿サイ
ズ検知動作について説明する。
(II[) Image Al + Bl + c, respectively, are optically scanned and the original size is recognized. Among the methods (I) to (II) above, in the method (I), the operator always inputs data. It is necessary, time-consuming, and there is a high possibility of input errors. Also,
(II) requires a digitizer, so
The cost will be high. Therefore, in this invention, the one based on (I[[) is adopted. The document size detection operation using (I[[) will be described below.

第9図はこの発明の原稿サイズ検知手段の機構を示す内
部断面図であり、11,14,15゜16.17は第6
図(a)と同一のものを示し、51は光学系ユニットで
、原稿11.原稿照射ランプ14.15はミラー、16
はレンズ、17は受光素子を納めており、矢印方向に移
動する。
FIG. 9 is an internal sectional view showing the mechanism of the document size detection means of the present invention, and 11, 14, 15°, 16.17 are the 6th
51 is an optical system unit, original 11. Original irradiation lamp 14.15 is a mirror, 16
A lens is housed therein, and a light receiving element is housed at 17, which moves in the direction of the arrow.

52は原稿台ガラス、53は黒紙等の光吸収体である。52 is a document table glass, and 53 is a light absorbing material such as black paper.

なお、原稿11の四隅は白部であるとする。It is assumed that the four corners of the document 11 are white.

次に動作について説明する。Next, the operation will be explained.

原稿台ガラス52上に載置された原稿11の上面全体を
覆うように光吸収体53を載置させ、光学系ユニット5
1を画像検知に先立ち高速にブリスキャンさせると、受
光素子17に画像レベルが第1O図に示すように検出さ
れる。すなわち、光吸収体53のレベルを示すダークレ
ベル点DLと原稿11のレベルを示すホワイトレベル点
WLとの境目にレベル転移点t1およびt2ができ、こ
のレベル転移点t1とレベル転移点t2との間を・図示
しないカウンタでカウントすることにより、原稿11の
横長aおよび縦長すを検知でき、これより原稿サイズが
認識される。
A light absorber 53 is placed so as to cover the entire upper surface of the original 11 placed on the original table glass 52, and the optical system unit 5
1 is blisscanned at high speed prior to image detection, the image level is detected by the light receiving element 17 as shown in FIG. 1O. That is, level transition points t1 and t2 are created at the boundary between the dark level point DL indicating the level of the light absorber 53 and the white level point WL indicating the level of the original 11, and the level transition points t1 and t2 are By counting the time with a counter (not shown), the horizontal length a and the vertical length of the document 11 can be detected, and the document size can be recognized from this.

なお、光吸収体53の代りに鏡面にして、照射ランプ1
4から発せられる光の拡散を受光素子17で検知し、上
記カウンタでレベル転移点t1およびレベル転移点上2
間をカウントしてもよい、また、原稿11が黒い場合は
、光吸収体53の代りに完全光反射体となる白紙を使用
すればよい。
Note that a mirror surface is used instead of the light absorber 53, and the irradiation lamp 1
The light receiving element 17 detects the diffusion of the light emitted from 4, and the counter detects the level transition point t1 and the level transition point 2 above the level transition point.
Alternatively, if the original 11 is black, a blank sheet of paper, which is a perfect light reflector, may be used instead of the light absorber 53.

次に検知した横長aおよび縦長すと編集画像におけるズ
ームレシオの設定について説明する。
Next, the setting of the zoom ratio for the detected horizontally long a and vertically long edited images will be explained.

モニタ部3のディスプレイ3aに表示される画像処理メ
ニューにキーボード3bより編集画像での各原稿11の
横長a′および縦長b′を上記ブリスキャン前に入力し
ておくと、受光素子17が検知した横長aおよび縦長す
とから水平方向のズームレシオZRhおよび垂直方向の
ズームレシオZRvが、下記のように演算され、 ZRh=a’/a ZRマ= b ’/b 水平方向および垂直方向毎に設けられる図示しないズー
ムレシオレジスタにそれぞれ格納される。
If the horizontal length a' and vertical length b' of each document 11 in the edited image are entered into the image processing menu displayed on the display 3a of the monitor section 3 using the keyboard 3b before the above-mentioned Briscan, the light receiving element 17 will detect the The horizontal zoom ratio ZRh and the vertical zoom ratio ZRv are calculated from the horizontal and vertical dimensions as follows: ZRh=a'/a ZRma=b'/b Set for each horizontal and vertical direction. are respectively stored in zoom ratio registers (not shown).

この操作を各原稿11に対して行うことにより、画像処
理メニューに編集データが書き込まれていく、なお、上
記ズームレシオレジスタに格納された水平方向のズーム
レシオZRhと垂直方向のズームレシオZRvとの差が
大きい場合は、編集画像が歪曲するので、両者のMax
 ZR(ZRh 。
By performing this operation on each document 11, editing data is written to the image processing menu. Note that the horizontal zoom ratio ZRh and vertical zoom ratio ZRv stored in the zoom ratio register are If the difference is large, the edited image will be distorted, so the Max
ZR (ZRh.

ZRv)をとり、大きい方を両ズームレシオレジスタに
それぞれ格納するようにすれば、画像歪を防げる。
Image distortion can be prevented by taking ZRv) and storing the larger one in both zoom ratio registers.

次に第11図を参照しながら画像データの色処理につい
て説明する。
Next, color processing of image data will be explained with reference to FIG.

第11図は第7図のマスキング処理部4bの内部構成ブ
ロック図であり、61は反射データを濃度データに変換
するLOG変換回路、62は前記LOG変換回路61の
出力を非線形変換するUCR墨回路で、最小値検出回路
62a 、UCR・γ回路62b、加算器62c、加算
器6211+、加算器62yで構成される。63は前記
UCR墨回路62により、非線形のシアン(C)、マゼ
ンダ(M)、イエロー(Y)に変換された各濃度データ
にマスキング係数を乗するマスキング回路で、RAMで
構成する乗算器83c、、乗算器63m1  、乗算器
63y1と加算器63c2.加算器63m2.加算器6
3y2により構成される。
FIG. 11 is a block diagram of the internal configuration of the masking processing section 4b in FIG. 7, in which 61 is a LOG conversion circuit that converts reflection data into density data, and 62 is a UCR black circuit that nonlinearly converts the output of the LOG conversion circuit 61. It is composed of a minimum value detection circuit 62a, a UCR/γ circuit 62b, an adder 62c, an adder 6211+, and an adder 62y. 63 is a masking circuit that multiplies each density data converted into nonlinear cyan (C), magenta (M), and yellow (Y) by the UCR black circuit 62 by a masking coefficient, and includes a multiplier 83c constituted by a RAM; , multiplier 63m1, multiplier 63y1 and adder 63c2 . Adder 63m2. Adder 6
It is composed of 3y2.

64はγ変換回路で、RAM64c 、RAM64m 
、RAM64yで構成される。65はCPUで、マスキ
ング係数を各乗算器63c、。
64 is a γ conversion circuit, RAM64c, RAM64m
, RAM64y. 65 is a CPU which applies masking coefficients to each multiplier 63c.

乗算器63mt、乗算器63y1に与えるとともに、γ
変換係数を各RAM84c 、RAM64m。
It is given to the multiplier 63mt and the multiplier 63y1.
Conversion coefficients are stored in each RAM84c and RAM64m.

RAM64y  、64kに与える。Give to RAM64y, 64k.

次に動作について説明する。Next, the operation will be explained.

ニー、ジ強調処理部4aで処理された8ビツトのR,G
、8画像データは、LOG変換回路61が発生する一1
ag xデータにより濃度データC,M。
8-bit R and G processed by the knee and center emphasis processing unit 4a
, 8 image data is generated by the LOG conversion circuit 61.
Concentration data C, M based on ag x data.

Yに変換され、次段のUCR墨回路62の最小値検出回
路62aにて濃度データC,M、Yの最小値が検出され
、グレー成分(無援色成分)が抽出される0次いで、検
出した最小値をUCR・γ回路62bにより非線形に変
換し符号を反転させた信号を加算器62C1加算器62
m、加算器62yに入力し、画像データC,M、Yとの
減算を行い1次段のマスキング回路63へ画像データC
,,M、、Y、を出力する。マスキング回路63では乗
算器63c、、乗算器63m1 、乗算器63y!にキ
ーボード3bより第12図(L)に示すマスキング係数
(3×3のマトリクスデータ)をあらかじめ入力してお
き、画像データC,,M、、Y、との乗算Ct Xa6
0 、MIXaQ l  r Y I X ao 2を
演算し、これらを加算器63C2で加算し画像データC
2を得る。この操作を各画像データM、、Y、について
行い、画像データM2.Y2を次段のγ変換回路64に
出力する。つまり、下記の行列演算を行ったものに等し
い。
The minimum value of the density data C, M, and Y is detected by the minimum value detection circuit 62a of the UCR black circuit 62 at the next stage, and the gray component (unsupported color component) is extracted. The minimum value is non-linearly converted by the UCR/γ circuit 62b and the signal whose sign is inverted is sent to the adder 62C1.
m, is input to the adder 62y, subtracted from the image data C, M, and Y, and the image data C is sent to the primary stage masking circuit 63.
,,M,,Y, are output. In the masking circuit 63, multipliers 63c, , multiplier 63m1, multiplier 63y! The masking coefficient (3×3 matrix data) shown in FIG. 12 (L) is input in advance from the keyboard 3b, and multiplied by the image data C, , M, , Y, Ct Xa6
0, MIXaQ l r Y I
Get 2. This operation is performed for each image data M, , Y, and image data M2. Y2 is output to the next stage γ conversion circuit 64. In other words, it is equivalent to performing the following matrix operation.

続いて、既にキーボード3bより入力している第12図
(b)に示すγ変換係数α、β、nに対して、CPU6
5が例えば下記の演算を各濃度データ毎に行い、 x’=α(X−β)nx>β =Ox<β 得られたデータ値x′(8ビツト値)をγ補正値として
γ変換回路64の各RAM64c 、RAM64m 、
RAM64y 、RAM64kに与え、画像データC2
、M2 、Y2および最小値検出回路82aの出力に2
に対してγ補正を行い画像データC3、M3  、Y3
  、に3を得る。
Next, the CPU 6 inputs the γ conversion coefficients α, β, and n shown in FIG. 12(b) that have already been input from the keyboard 3b.
For example, 5 performs the following calculation for each density data, x'=α(X-β)nx>β=Ox<β. 64 RAM64c, RAM64m,
Provide image data C2 to RAM64y and RAM64k.
, M2, Y2 and the output of the minimum value detection circuit 82a.
γ correction is performed on the image data C3, M3, Y3
, we get 3.

次に第13図のフローチャートを参照しながら画像デー
タの色処理について説明する。なお、5INS4は各ス
テップを示す。
Next, color processing of image data will be explained with reference to the flowchart in FIG. Note that 5INS4 indicates each step.

まず、合成画像りのサイズおよび下地色を入力する(5
1)、次いで、マスキング係数、γ変換係数を順にキー
ボード3bより入力する(S 2)。
First, input the size and background color of the composite image (5
1) Next, the masking coefficient and the γ conversion coefficient are input in order from the keyboard 3b (S2).

(S3)、続いて、画像データの終了を判断しくS4)
、NoならばステップS2へ戻り、YESならば処理を
終了する。なお、上記の操作は編集データ入力と同時に
行う、また、マスキング係数、γ変換係数はある変換に
対して任意に定まる色標本を基にコード化したものを入
力している。
(S3), then determine the end of the image data (S4)
, if No, the process returns to step S2, and if YES, the process ends. The above operations are performed simultaneously with the input of the editing data, and the masking coefficients and γ conversion coefficients are input coded based on color samples arbitrarily determined for a certain conversion.

このように、画像読取り→画像編集→2値化(多値化)
→画像メモリ5への格納動作が編集データに基づいて行
われるため、画像編集が高速化される。
In this way, image reading → image editing → binarization (multi-value conversion)
→Since the storage operation to the image memory 5 is performed based on the editing data, image editing is speeded up.

なお、上記実施例ではパイプラインプロセッサ4を構成
するエツジ強調処理部4cおよびマスキング処理部4d
に与えるパラメータまたはデータが固定されているが、
それぞれにレジスタを設けることにより、各画像に応じ
て変えることも可能となる。
Note that in the above embodiment, the edge enhancement processing section 4c and the masking processing section 4d that constitute the pipeline processor 4 are
The parameters or data given to are fixed, but
By providing a register for each, it becomes possible to change it depending on each image.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、この発明はあらかじめ設定された
画像データの編集手順を表す画像処理メニューおよび編
集画像の配置を示す編集図形を表示するディスプレイと
、編集画像に加える文章情報および画像処理メニューに
所望の編集データを入力するキー入力手段と、このキー
入力手段より入力された文章情報をコード化した文字コ
ード情報をページ単位で記憶する文字コードメモリと、
同じくキー入力手段より入力された編集データおよび原
稿サイズ検知手段が検知した原稿サイズに応じてカラー
画像データおよび文字コードメモリに記憶されている文
字コード情報に図形処理および色処理を施した各編集画
像データを画像メモリに設定される同一画像データ領域
に順次格納する制御部を設けたので1画像メモリの容量
を極力小さくでき、装置を廉価に構成できる。また、原
稿サイズの異なる複数の画像データの編集処理が単に読
取り操作で達成でき、処理時間を大幅に短縮できる等の
利点を有する。
As described above, the present invention provides a display that displays an image processing menu representing a preset image data editing procedure and an editing figure showing the arrangement of the edited image, and a display that displays text information to be added to the edited image and a desired image processing menu. a key input means for inputting editing data; a character code memory for storing character code information obtained by encoding the text information inputted by the key input means on a page-by-page basis;
Each edited image is obtained by subjecting color image data and character code information stored in the character code memory to graphic processing and color processing in accordance with the editing data inputted from the key input means and the original size detected by the original size detection means. Since a control section is provided that sequentially stores data in the same image data area set in the image memory, the capacity of one image memory can be minimized, and the apparatus can be configured at low cost. Further, it has the advantage that editing processing of a plurality of image data of different document sizes can be achieved simply by a reading operation, and processing time can be significantly shortened.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実旅例を示す画像編集装置の構成
ブロック図、第2図は第1図に示すパイプラインプロセ
ッサの構成ブロック図、第3図、第4図(a)、(b)
、(c)はテキストデータおよび合成画像のレイアウト
を示す図、第5図は画像処理メニューを説明する図、第
6図(L)  、  (b)はこの発明の原稿読取り原
理を説明する図および要部の拡大図、第7図は第1図に
示すコントローラの構成ブロック図、第8図は原稿サイ
ズを説明する図、第9図はこの発明の原稿サイズ読取り
機構を示す内部断面図、第10図は画像レベル変動を示
す図、第11図は第7図のマスキング処理部の内部構成
ブロック図、第12図(a)、(b)はマスキング係数
およびγ変換係数を説明する図、tJIJ13図はこの
発明の色処理の一例を示すフローチャートである。 図中、1は画像読取り装置、2はコントローラ、2aは
拡大−縮小処理部、2bは並行移動処理部、3はモニタ
、3aはディスプレイ、3bはキーボード、4はパイプ
ラインプロセッサ、4aはエツジ強調゛処理部、4bは
マスキング処理部、4cは2値化回路、5は画像メモリ
、6は像形成装置、7は信号バス、8は文字コードメモ
リ、11は原稿、12は原稿送りローラ、13はサーボ
モータ、14は原稿照射ランプ、15はミラー、16は
レンズ、17は受光素子、18R918G、18Bはス
トライプフィルタ、21゜23.32a  、32bは
セレクタ、22a 。 22bはlラインメモリ、24はXクロックジェネレー
タ、25はYクロックジェネレータ、26はXクロック
分周器、27はYクロック分周器、28はZRデータレ
ジスタ、29はx7ドレスカウンタ、3oはYアドレス
カウンタ、31はズームアドレスカウンタ、33はxル
ジスタ、34はY1L/ジスタ、35a、35bは加算
器、36はX2レジスタ、37はY2L/ジスタ、38
a 。 38b  、41a  、41bはコンパレータ、39
はX3レジスタ、40はY2レジスタ、42はゲート回
路、43はライン送り装置、44は読出しバス、45.
46は書込みバス、51は光学系ユニット、52は原稿
台ガラス、53は光吸収体、61はLOG変換回路、6
2はUCR墨回路、62aは最小値検出回路、62bは
UCR・γ回路、62c 、62m 、62y 、63
c2 。 63m2,63yzは加算器、83ct。 63m l 、63y sは乗算器、63はマスキング
、64はγ変換回路、64c  、64m 、647は
RAM、65はCPUである。 第4図 (a) (b)                 (c)QC
Xct廊2) C](Xczfcy)第5図 第6図 (a)      (b) 第12図 (a) (b) 第13図
FIG. 1 is a block diagram of the configuration of an image editing device showing an example of the present invention; FIG. 2 is a block diagram of the pipeline processor shown in FIG. 1; FIGS. b)
, (c) are diagrams showing the layout of text data and composite images, FIG. 5 is a diagram explaining the image processing menu, and FIGS. 7 is a block diagram of the configuration of the controller shown in FIG. 1; FIG. 8 is a diagram explaining document size; FIG. 9 is an internal sectional view showing the document size reading mechanism of the present invention; FIG. Figure 10 is a diagram showing image level fluctuations, Figure 11 is a block diagram of the internal configuration of the masking processing section in Figure 7, Figures 12 (a) and (b) are diagrams explaining masking coefficients and γ conversion coefficients, tJIJ13 The figure is a flowchart showing an example of color processing according to the present invention. In the figure, 1 is an image reading device, 2 is a controller, 2a is an enlargement/reduction processing unit, 2b is a parallel movement processing unit, 3 is a monitor, 3a is a display, 3b is a keyboard, 4 is a pipeline processor, and 4a is an edge enhancement゛Processing unit, 4b is a masking processing unit, 4c is a binarization circuit, 5 is an image memory, 6 is an image forming device, 7 is a signal bus, 8 is a character code memory, 11 is a document, 12 is a document feed roller, 13 14 is a servo motor, 14 is an original irradiation lamp, 15 is a mirror, 16 is a lens, 17 is a light receiving element, 18R918G, 18B is a stripe filter, 21° 23.32a, 32b is a selector, 22a. 22b is the l line memory, 24 is the X clock generator, 25 is the Y clock generator, 26 is the X clock frequency divider, 27 is the Y clock frequency divider, 28 is the ZR data register, 29 is the x7 address counter, 3o is the Y address Counter, 31 is zoom address counter, 33 is x register, 34 is Y1L/register, 35a, 35b is adder, 36 is X2 register, 37 is Y2L/register, 38
a. 38b, 41a, 41b are comparators, 39
40 is an X3 register, 40 is a Y2 register, 42 is a gate circuit, 43 is a line sending device, 44 is a read bus, 45.
46 is a write bus, 51 is an optical system unit, 52 is an original table glass, 53 is a light absorber, 61 is a LOG conversion circuit, 6
2 is a UCR black circuit, 62a is a minimum value detection circuit, 62b is a UCR/γ circuit, 62c, 62m, 62y, 63
c2. 63m2, 63yz is an adder, 83ct. 63ml, 63ys are multipliers, 63 is masking, 64 is a γ conversion circuit, 64c, 64m, 647 is a RAM, and 65 is a CPU. Figure 4 (a) (b) (c) QC
Xct Corridor 2) C] (Xczfcy) Figure 5 Figure 6 (a) (b) Figure 12 (a) (b) Figure 13

Claims (1)

【特許請求の範囲】[Claims] 画像読取り装置で検知した複数枚のカラー画像データを
画像メモリに格納し、印字指令に応じて前記画像メモリ
より編集された編集画像データを画像出力装置に送出す
る画像編集装置において、前記画像読取り装置が検知し
た前記カラー画像データの画像レベル転移点間を計測し
て原稿サイズを検知する原稿サイズ検知手段と、あらか
じめ設定された前記カラー画像データの編集手順を表す
画像処理メニューおよび編集画像の配置を示す編集図形
を表示するディスプレイと、前記編集画像に加える文章
情報および前記画像処理メニューに所望の編集データを
キー入力するキー入力手段と、このキー入力手段より入
力された前記文章情報をコード化した文字コード情報を
ページ単位で記憶する文字コードメモリと、前記キー入
力手段より入力された前記編集データおよび前記原稿サ
イズ検知手段が検知した原稿サイズに応じて前記カラー
画像データおよび文字コードメモリに記憶されている前
記文字コード情報に図形処理および色処理を施した各編
集画像データを前記画像メモリに設定される同一画像デ
ータ領域に順次格納する制御部を設けたことを特徴とす
る画像編集装置。
In an image editing device that stores color image data of a plurality of sheets detected by an image reading device in an image memory, and sends edited image data edited from the image memory to an image output device in response to a print command, the image reading device document size detection means for detecting the document size by measuring between image level transition points of the color image data detected by the color image data, and an image processing menu representing a preset editing procedure for the color image data and an arrangement of edited images a display for displaying an editing figure shown in FIG. a character code memory that stores character code information on a page-by-page basis; and a character code memory that stores color image data and character code information in accordance with the editing data inputted from the key input means and the original size detected by the original size detection means. 1. An image editing device comprising: a control unit that sequentially stores edited image data obtained by subjecting said character code information to graphics processing and color processing in the same image data area set in said image memory.
JP59184688A 1984-09-05 1984-09-05 Image processing method Expired - Lifetime JP2635958B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59184688A JP2635958B2 (en) 1984-09-05 1984-09-05 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59184688A JP2635958B2 (en) 1984-09-05 1984-09-05 Image processing method

Publications (2)

Publication Number Publication Date
JPS6163158A true JPS6163158A (en) 1986-04-01
JP2635958B2 JP2635958B2 (en) 1997-07-30

Family

ID=16157629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59184688A Expired - Lifetime JP2635958B2 (en) 1984-09-05 1984-09-05 Image processing method

Country Status (1)

Country Link
JP (1) JP2635958B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01192274A (en) * 1988-01-28 1989-08-02 Konica Corp Picture processing unit
EP0605402A1 (en) * 1986-05-02 1994-07-06 Scitex Corporation Ltd. Color separation scanning of an input picture and fitting a picture into a layout page

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5757365A (en) * 1980-09-25 1982-04-06 Canon Inc Picture processor
JPS57196347A (en) * 1981-05-28 1982-12-02 Sony Corp Picture editing device
JPS5911062A (en) * 1982-07-09 1984-01-20 Fuji Photo Film Co Ltd Image input and output system
JPS5967764A (en) * 1982-10-08 1984-04-17 Canon Inc Image processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5757365A (en) * 1980-09-25 1982-04-06 Canon Inc Picture processor
JPS57196347A (en) * 1981-05-28 1982-12-02 Sony Corp Picture editing device
JPS5911062A (en) * 1982-07-09 1984-01-20 Fuji Photo Film Co Ltd Image input and output system
JPS5967764A (en) * 1982-10-08 1984-04-17 Canon Inc Image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0605402A1 (en) * 1986-05-02 1994-07-06 Scitex Corporation Ltd. Color separation scanning of an input picture and fitting a picture into a layout page
JPH01192274A (en) * 1988-01-28 1989-08-02 Konica Corp Picture processing unit

Also Published As

Publication number Publication date
JP2635958B2 (en) 1997-07-30

Similar Documents

Publication Publication Date Title
JP2007174317A (en) Image processor and program
JPS6163158A (en) Picture editing device
JPH11298716A (en) Image processor
JP2000246862A (en) Image inspecting apparatus and sheet for result of inspection
EP0600613A2 (en) Improvements in image processing
JP3221516B2 (en) Image processing method and apparatus
JPS6163159A (en) Picture editing device
JPH04257844A (en) Method and device for editing image
JP2812401B2 (en) Image processing device
JP3318991B2 (en) Document editing method and apparatus
JP3211446B2 (en) Document processing device
JPS62173472A (en) Generating method for illustration picture-like image
JP3669008B2 (en) Image processing apparatus and image processing method
JP2699366B2 (en) Image processing device coordinate input device
JP2957050B2 (en) Image data enlarger
JPH02277174A (en) Picture processing method
JPH0946510A (en) Image forming device
JPS6163157A (en) Picture editing device
JP3249231B2 (en) Method and apparatus for masking a microfilm reader
JP3262296B2 (en) Print control method and apparatus for microfilm reader
JP4590168B2 (en) Image processing device
JP3014257B2 (en) Document reading device
JP2001078016A (en) Picture processor
JPH0662221A (en) Designating method for editing command and editing area for image processor
JP2003230002A (en) Image rotation processing method, image processing apparatus, and image forming device provided with the same

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term