JPH03240363A - Digital picture processing unit - Google Patents

Digital picture processing unit

Info

Publication number
JPH03240363A
JPH03240363A JP2037024A JP3702490A JPH03240363A JP H03240363 A JPH03240363 A JP H03240363A JP 2037024 A JP2037024 A JP 2037024A JP 3702490 A JP3702490 A JP 3702490A JP H03240363 A JPH03240363 A JP H03240363A
Authority
JP
Japan
Prior art keywords
line
processing
document
black
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2037024A
Other languages
Japanese (ja)
Inventor
Kazuyuki Onishi
一幸 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2037024A priority Critical patent/JPH03240363A/en
Publication of JPH03240363A publication Critical patent/JPH03240363A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Or Original Feeding In Electrophotography (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Dot-Matrix Printers And Others (AREA)

Abstract

PURPOSE:To attain required 'line' processing accurately by reading a document picture digitally, obtaining the position information of lines and applying processing to each line. CONSTITUTION:When an original 4 is set, the picture information by a CCD array 2 is read and stored in a memory 12 in 2-dimension. Then a picture information processing section 13 applies recognition processing of 'lines' to be processed. In this case, the position information of the lines of the document in X, Y directions is obtained. Thus, the processing area is obtained and the processing is implemented to the area. Thus, after the processing is implemented to the picture information the memory 12, the picture information is converted into a laser beam and radiates onto a photosensitive material 8.

Description

【発明の詳細な説明】 (al産業上の利用分野 この発明は文書画像を読み取り、読み取った画像情報に
対して行申位で網掛処理、トリミング等の加工処理を行
うデジタル画像処理装置に関する伽)従来の技術 近年の複写機においては原稿画像の一部分に対して網掛
処理、トリミング、マスキング等の加工処理を行う機能
を備えたものがある。このように原稿画像の一部分に対
して加工処理を行う場合、従来はテンキーやタブレフト
等を用いてユーザが処理部分の座標を入力していた。
Detailed Description of the Invention (Al Industrial Application Field This invention relates to a digital image processing device that reads a document image and processes the read image information such as shading and trimming at the line level) 2. Description of the Related Art Some copying machines in recent years are equipped with functions to perform processing such as shading, trimming, and masking on a portion of a document image. When processing a portion of a document image in this manner, conventionally, the user inputs the coordinates of the processing portion using a numeric keypad, tablet left, or the like.

(C1発明が解決しようとする課題 ところが従来のようにユーザ自身が処理部分の座標入力
を行う方法ではその入力作業が煩雑であった。また原稿
は座標入力が終わった後原稿台上に複写可能なようにセ
ットされるが、このとき原稿の位置が僅かでもずれてい
ると網掛処理等の加工処理が行われる部分がずれて画像
品質か低下してしまう問題があった。原稿台への原稿の
セットは手動で行われるためセット位置の位置ずれが生
じ易く、上述したような加工位置のずれは発生し易かっ
た。特に文書画像においては上述したような処理部分の
ずれが生じると文書が判読できなくなってしまうことが
あった。
(C1 Problem to be solved by the invention) However, in the conventional method in which the user inputs the coordinates of the processing part himself, the input work is complicated.Also, after the coordinate input is completed, the original can be copied onto the document table. However, if the position of the original is shifted even slightly, the area where processing such as shading will be performed will be shifted and the image quality will deteriorate. Since the setting is done manually, the setting position is likely to be misaligned, and the processing position described above is likely to be misaligned.Especially in document images, if the processing portion is misaligned as described above, the document becomes illegible. There were times when I couldn't do it.

この発明は文書画像において上述したような加工処理部
分のずれが発生するのを防止することのできる画像処理
装置を提供することを目的とする(d1課題を解決する
ための手段 この発明は、文書画像をデジタル的に読み取る手段と、
読み取った画像情報から行の位置情報を求める手段と、
この行の位置情報に基づいて行ごとの加工処理を行う手
段と、を設けたことを特徴とする。
An object of the present invention is to provide an image processing apparatus that can prevent the above-mentioned misalignment of processed parts from occurring in a document image (means for solving problem d1). a means for digitally reading images;
means for obtaining line position information from the read image information;
The present invention is characterized in that it includes means for performing processing processing for each row based on the position information of this row.

te)作用 文書画像においてはほぼ行単位で網掛処理、トリミング
等の加工処理が行われる。したがって行数を入力しその
行数に基づいて加工処理が行われれば、直接処理座標を
入力する必要がない。この発明においては文書画像はデ
ジタル的に読み取られ、行の位置情報を求める手段によ
って“行“の認識がされる。そのため加工処理を行う“
行゛を入力するだけで正確に必要とする“行°°の加工
処理を行うことができる。
te) In the working document image, processing such as shading and trimming is performed almost line by line. Therefore, if the number of rows is input and processing is performed based on the number of rows, there is no need to directly input processing coordinates. In this invention, a document image is digitally read, and "lines" are recognized by means for obtaining line position information. Therefore, processing “
Just by inputting the row ゛, you can accurately process the required "row °°."

(f)実施例 第5図はこの発明の実施例であるデジタル複写機の正面
概略図、第4図は同複写機の要部ブロック図である。こ
の複写機はCCDアレイ(文書画像をデジタル的に読み
取る手段)を用いて画像情報を読み取り、読み取った画
像情報を必要に応じて加工処理したのちその画像情報を
レーザ光に変換して感光体を露光し印刷を行う。
(f) Embodiment FIG. 5 is a schematic front view of a digital copying machine which is an embodiment of the present invention, and FIG. 4 is a block diagram of the main parts of the same copying machine. This copying machine reads image information using a CCD array (a means for digitally reading document images), processes the read image information as necessary, and then converts the image information into laser light to drive the photoreceptor. Expose and print.

複写機本体の上面には透明な硬質ガラス体からなる原稿
台5が備えられている。原稿台5の下方にはLEDアレ
イ3およびCCDアレイ2を備える走査部1が設けられ
ている。走査部1は原稿台5に沿って移動し原稿台5上
に載置された原稿4を走査する。すなわちLEDアレイ
3が原稿4に光を照射し、CCDアレイ2が原稿反射光
を検出する。走査部1は原稿読み取り制御部11で制御
され、検出された原稿反射光の状態(画像情報)は画像
メモリ12に記憶される。この画像メモリ12に記憶さ
れた画像情報には必要に応じて網掛処理、トリミング等
の加工処理が画像情報処理部13によって施される。作
業用メモリ16はこの加工処理時に用いられるメモリで
ある。必要に応じて加工処理された画像メモリ12の画
像情報はレーザユニット7によってレーザ光に変換され
る。そしてこのレーザ光が帯電処理された感光体8へ導
かれ、通常の電子写真複写機と同様に現像。
A document table 5 made of transparent hard glass is provided on the top surface of the copying machine main body. A scanning section 1 including an LED array 3 and a CCD array 2 is provided below the document table 5 . The scanning unit 1 moves along the document table 5 and scans the document 4 placed on the document table 5. That is, the LED array 3 irradiates light onto the original 4, and the CCD array 2 detects the reflected light from the original. The scanning unit 1 is controlled by an original reading control unit 11, and the state (image information) of the detected original reflected light is stored in an image memory 12. The image information stored in the image memory 12 is subjected to processing such as hatching and trimming by the image information processing section 13 as necessary. The working memory 16 is a memory used during this processing. The image information in the image memory 12, which has been processed as necessary, is converted into laser light by the laser unit 7. This laser light is then guided to a charged photoreceptor 8, and developed in the same way as in a normal electrophotographic copying machine.

用紙への像転写、定着処理がされて画像が形成される。An image is formed by transferring and fixing the image onto paper.

画像情報を加工処理する命令は複写機本体の上面に配置
された操作部から入力される。第3図は操作部の平面図
である。
Commands for processing image information are input from an operation unit located on the top of the copying machine main body. FIG. 3 is a plan view of the operating section.

操作部には加工処理の選択を行う処理選択キー21、文
書原稿が“′縦書き“か“横書き”かを入力する文書原
稿キー22、加工処理を行う開始行と終了行とを指定す
る行指定キー23,24、テンキー25、プリントスイ
ッチ26等が設けられている。
The operation section includes a process selection key 21 for selecting a process, a document key 22 for inputting whether the document is "vertically written" or "horizontally written", and a line for specifying the start line and end line for the process. Designation keys 23, 24, a numeric keypad 25, a print switch 26, etc. are provided.

処理選択キー21を押下すると押下ごとにトリミング、
マスキング、N4掛のモードが順に設定されてゆく。ま
た、文書原稿キー22を押下するとその押下ごとに行横
モード、行縦モードが設定される。これは走査部1によ
り原稿4を走査する方向は決まっており、その走査方向
に対して文書の“行゛が平行か垂直かを予め知るためで
あり、行°°を認識する上で必要な情報である。行指定
キー23.24は、加工処理を開始する゛行゛をテンキ
ー25により指定したのち行指定キー13を押下し、さ
らに加工処理を終了する“行゛°をテンキーにより指定
して行指定キー24を押下すれば設定される。
When the process selection key 21 is pressed, trimming is performed each time the process selection key 21 is pressed.
Masking and N4 modes are set in order. Further, when the document original key 22 is pressed, the line horizontal mode and the line vertical mode are set each time the document original key 22 is pressed. This is because the direction in which the document 4 is scanned by the scanning unit 1 is determined, and it is necessary to know in advance whether the "line" of the document is parallel or perpendicular to the scanning direction, and it is necessary to recognize the line °°. This is information.The line designation keys 23 and 24 are used to specify the line to start processing using the numeric keypad 25, press the line specification key 13, and then specify the line to end the processing using the numeric keypad. The setting is made by pressing the row designation key 24.

ここで第2図(A)に示したような原稿4aの3行めと
4行めを網掛処理する場合を例に手順を説明する。なお
この原稿4aはそのままCCDアレイ2によって読み取
られた画像情報に対応しており、文書の文字に対応する
部分の画素42は黒く、行間および文字間対応する部分
の画素41は白くなっている。なお実際の画素は図に示
した状態よりも小さく設定されている。第1図はその処
理手順を示したフローチャートである。
Here, the procedure will be explained using as an example the case where the third and fourth lines of the document 4a as shown in FIG. 2(A) are shaded. Note that this document 4a corresponds to image information read by the CCD array 2 as it is, and pixels 42 in portions corresponding to characters of the document are black, and pixels 41 in portions corresponding to line spacing and character spacing are white. Note that the actual pixels are set smaller than the state shown in the figure. FIG. 1 is a flowchart showing the processing procedure.

まず原稿4aを原稿台5上にセットする。この場合原稿
を図示のように横書きになるようにセ・ソトしたとする
と文書原稿モードは行横モードとなる。そして処理選択
キー21により網掛モードを入力するとともに、行指定
キー23.24およびテンキー25を用いて処理行(3
〜4)を入力し、プリントスイッチ26を操作すれば処
理が開始される。なお以下、文書の行を“行′”で示し
、CCDアレイ2によって読み取られる画像情報の画素
の行を“LINE”“で示す。
First, the original 4a is set on the original table 5. In this case, if the original is set so that it is written horizontally as shown in the figure, the document original mode becomes the line-horizontal mode. Then, use the process selection key 21 to input the shading mode, and use the line designation keys 23 and 24 and the numeric keypad 25 to input the process line (3
-4) is input and the print switch 26 is operated to start the process. In the following, a line of a document is indicated by "line", and a line of pixels of image information read by the CCD array 2 is indicated by "LINE".

プリントスイッチ26が操作されるとまず、加工処理を
行う開始行と終了行がそれぞれ°’5TART  行”
および”5TOP  行°゛に記憶される(nl→n2
)。また複写用紙のサイズに基づいて、X方向、Y方向
の最大画素数°”MAX  LINE  X’”および
“MAX  LINE  Y”がそれぞれ求められて記
憶される(n3)。これらの処理の後CCDアレイ2に
よる画像情報の読み取りが行われ、画像メモリ12に記
憶される(n4→n5)。この画像情報は第2図(A)
に示したように2次元的に記憶される。すなわち、「“
MAX  LINE  X”X’“MAX  LINE
  Y」の画素数の画像情報が画像メモリ12に記憶さ
れる。原稿全面の画像情報の読み取り、記憶が完了すれ
ば加工処理を行うべき゛行°゛の認識処理が行われる(
n6)。
When the print switch 26 is operated, the start line and end line for processing are respectively ``5TART line''.
and stored in “5TOP row °” (nl→n2
). Also, based on the size of the copy paper, the maximum number of pixels in the X direction and the Y direction ``MAX LINE X''' and ``MAX LINE Y'' are respectively determined and stored (n3). After these processes, the image information is read by the CCD array 2 and stored in the image memory 12 (n4→n5). This image information is shown in Figure 2 (A)
It is stored two-dimensionally as shown in . In other words, ““
MAX LINE
Image information with a number of pixels of "Y" is stored in the image memory 12. Once the image information of the entire surface of the document has been read and stored, recognition processing for the lines to be processed is performed (
n6).

まず最初に文書の“行゛°に沿った方向のLINE上、
すなわちこの例ではY方向のLINE上における文字の
始まり位置(1s t  BLACK JLINE  
Yl)と終わり位置(LAST  BLACK[LIN
E  Yl)、および黒画素数(COUNT  BLA
CK CL INE  Yl)を、各LINEについて
求める。まずnilにおいてY方向のLINE数、すな
わちY=1にし、そのLINE上における1 s t 
 BLACK rL INEx]、LAST  BLA
CK [LINE  IFおよびC0UNT  BLA
CK[LINE  1]を求めたのち(n12.SUB
  AA)、次のLINEに進んで(n13)同様の処
理を行う(n12)。これを画像情報の下端(MAX 
 LINE  Y)まで行って(n14)全てのLIN
EYについてのデータを求める(ri12)。
First, on the LINE in the direction along the “line” of the document,
In other words, in this example, the starting position of the character on LINE in the Y direction (1s t BLACK JLINE
Yl) and end position (LAST BLACK[LIN
E Yl), and the number of black pixels (COUNT BLA
CK CL INE Yl) is determined for each LINE. First, set the number of LINEs in the Y direction in nil, that is, Y = 1, and 1 s t on that LINE
BLACK rL INEx], LAST BLA
CK [LINE IF and COUNT BLA
After finding CK [LINE 1] (n12.SUB
AA), proceed to the next LINE (n13) and perform the same process (n12). This is the lower end of the image information (MAX
Go to LINE Y) (n14) All LIN
Obtain data regarding EY (ri12).

なおC0UNT  BLACK cL INE  Yl
は第2図(A)の右側に示したようにCLINEY]上
における黒画素数であり、この数がLEVELaを越え
たときそのLINEが文書の行中であると判断され、L
EVELa以下のときにはそのLINEは行間であると
判断される。また、第2図(B)は1st  BLAC
KとLASTBLACKとの座標例を示しており、LI
NEY上の1st  BLACK[LINE  y]は
そのLINE  y上において最初に黒画素が出るX方
向の座標であり、LAST  BLACK [L IN
E  y]はLINE  y上において最後に黒画素が
出るX方向の座標である。LINE  y+nにおける
1st  BLACKCLINE  y+nコ、LAS
T  BLACK [L INE  y+n]も同様に
X方向の座標で示される。この1stBLACK、LA
ST  BLACKは加工処理を行うとき、X方向の加
工範囲を知るために必要なデータである。
Furthermore, C0UNT BLACK cL INE Yl
is the number of black pixels on [CLINEY] as shown on the right side of Figure 2 (A), and when this number exceeds LEVELa, it is determined that the LINE is in the line of the document, and L
When it is less than EVELa, the LINE is determined to be between lines. In addition, Fig. 2 (B) shows the 1st BLAC
An example of the coordinates of K and LASTBLACK is shown, and LI
1st BLACK [LINE y] on NEY is the coordinate in the X direction where the first black pixel appears on that LINE y, and LAST BLACK [LINE y]
E y] is the coordinate in the X direction where the last black pixel appears on LINE y. 1st BLACKCLINE y+n on LINE y+n, LAS
T BLACK [L INE y+n] is also indicated by coordinates in the X direction. This 1st BLACK, LA
ST BLACK is data necessary to know the processing range in the X direction when performing processing.

ここで1st  BLACK、LAST  BLACK
を求めるSUB  AAの説明をする。
Here 1st BLACK, LAST BLACK
I will explain SUB AA to find.

まずX方向のLINE数であるLINE  XやC0U
NT  BLACKI:LINE  Yl、Ist  
 BLACK  l:L INE  Yl 、LAST
  BLACK CL INE  Ylをリセットする
(n21)。そしてX方向に沿って、画素が黒(文字部
)か白(余白部)であるかを順次判別してゆく(n22
−n23)。そのLINE  Yが行間の部分であれば
MAX  LINE  Xになるまで白画素が判別され
続けるが(n24)、行中のLjNEであるならばいず
れ黒画素が判別される。そこでその最初の黒画素の座標
(LINE  X)を1 s t  BLACK [L
 INE  Ylとして記憶しくn25)、これととも
にC0UNT  BLACK[LINEYlへの黒画素
数の加算およびLAST  BLACKrL[NE  
Ylの設定が行われる(n26)。この各画素が黒か白
かの判別はMAX  LINE  Xまで行われ(n2
7〜n30)、その間に黒画素があればC0UNTBL
ACKCLINE  YEが加算されるとともに、LA
ST  BLACKCLINE  Ylが更新されてゆ
<(n28→n29)。この結果、LAST  BLA
CK [L INE  Ylは常にそのLINE  Y
上における黒画素の最後部の座標が記憶され、そのLI
NE  Y上において黒画素の範囲が分かる。
First, the number of LINEs in the X direction, LINE X and C0U
NT BLACKI:LINE Yl, Ist
BLACK l:L INE Yl, LAST
Reset BLACK CL INE Yl (n21). Then, along the X direction, it is sequentially determined whether the pixel is black (character area) or white (margin area) (n22
-n23). If LINE Y is between lines, white pixels will continue to be determined until it reaches MAX LINE X (n24), but if LINE Y is LjNE in a line, black pixels will be determined eventually. Therefore, the coordinates of the first black pixel (LINE X) are 1 s t BLACK [L
INE Yl n25), along with this, add the number of black pixels to COUNT BLACK[LINEYl and LAST BLACKrL[NE
Setting of Yl is performed (n26). This determination of whether each pixel is black or white is performed up to MAX LINE X (n2
7 to n30), if there is a black pixel between them, C0UNTBL
ACKCLINE YE is added and LA
ST BLACKCLINE Yl has been updated (n28→n29). As a result, LAST BLA
CK [L INE Yl is always that LINE Y
The coordinates of the rearmost black pixel on the top are stored and its LI
The range of black pixels on NE Y can be found.

次に網掛処理が行われる領域が求められる。処理範囲は
“行°”ごとに設定されてゆく。まず、処理の開始行“
’5TART  行゛°が5EARCHに設定されてそ
の行の処理領域が求められる(n15、n17)。この
とき、処理開始行から数えた行数として“”POINT
’“を設定しておく(016)。この例の場合まず3行
め(PO[NT=1)の網掛領域が求められる。この3
行めの網掛領域を具体的に図示すると第2図(C)にお
いて斜線領域30で示した範囲である。この斜vA領域
30を求めるため以下の処理を行う。
Next, the area to be shaded is determined. The processing range is set for each "row". First, the process start line “
'5TART row '° is set to 5EARCH, and the processing area of that row is determined (n15, n17). At this time, ""POINT is the number of rows counted from the processing start row.
'" is set (016). In this example, the shaded area of the third row (PO[NT=1) is first found.
Specifically, the shaded area in the second row is the area shown by the diagonally shaded area 30 in FIG. 2(C). In order to obtain this oblique vA area 30, the following processing is performed.

まず、Y方向の座標を求める。n31においてLINE
  Yおよび゛行゛はリセットする。そしてLINE 
 Yを一つづつ加算してゆき、その都度そのLINEの
COU N T  B L A CKのLEVELを判
別する(n 32−+n 33 ) 。C0UNT  
BLACKのLEVELがa値を越えていれば前述した
ようにそのLINEは行中であり、a値以下であれば行
間である。そして行間から行中に移るときに“行′”を
カウントアツプする(n34)。すなわちこの処理で文
書の行が認識されてゆ((行の位置情報を求める手段)
。この処理を行数が検索行(3行め)に達するまで続け
る(n32→n33→n34→n35.n36→n37
)。5EARCHの行が検索されればn38に進み、ま
ず検索行のY方向のLINE数を記憶する。そしてその
“′行゛が終わるまでLINE数をY方向に進め、“行
°゛の終わりのY方向のLINE数を記憶する(n39
→n40→n41)。このときn38.n40で記憶さ
れた数値が第2図(C)の処理領域30のY方向の座標
5TARTY  ARRjllと5TOP  Y  A
RRCt3である。
First, find the coordinates in the Y direction. LINE on n31
Y and row are reset. And LINE
Y is added one by one, and each time the LEVEL of the COUNTBLACK of that LINE is determined (n32-+n33). C0UNT
If the BLACK LEVEL exceeds the a value, the LINE is in line, as described above, and if it is below the a value, it is between lines. Then, when moving from between lines to inside a line, "line'" is counted up (n34). In other words, this process recognizes the lines of the document ((means for obtaining line position information)
. Continue this process until the number of lines reaches the search line (3rd line) (n32→n33→n34→n35.n36→n37
). If the line 5EARCH is searched, the process advances to n38, and first the number of LINEs in the Y direction of the search line is stored. Then, advance the number of LINEs in the Y direction until the end of that "'line", and memorize the number of LINEs in the Y direction at the end of the "'line" (n39
→n40→n41). At this time n38. The values stored in n40 are the Y-direction coordinates 5TARTY ARRjll and 5TOP YA of the processing area 30 in FIG. 2(C).
It is RRCt3.

次にn42以降においてX方向の座標を求める。これは
前述のn38.n40で記憶された座標5TART  
Y  ARR[1]と5TOP  YARRIIl]と
の間で最前部の1st  BLACKELINE  X
]の座標と、最後部のT−A S TBLACK [L
 INE  X3の座標とを求めることによって得られ
る。すなわち5TART  YARR[1]のPO3I
TIONから始めて(n42)、5TOP  Y  A
RR[1]  (n49)に達するまでの間、1st 
 BLACKが一番小さ(なるときの値と(n43→n
44→n45→n、46)、LAST  BLACKが
一番大きくなるときの値と(n43.n47→n48)
と、を求める。これが、処理領域30の5TARTX 
 ARRrl] と、5TOP X ARR[1]であ
る。
Next, coordinates in the X direction are determined after n42. This is the above-mentioned n38. Coordinates stored in n40 5TART
1st BLACKELINE X at the front between Y ARR[1] and 5TOP YARRII
] and the rearmost T-A S TBLACK [L
It is obtained by determining the coordinates of INE X3. That is, PO3I of 5TART YARR[1]
Starting from TION (n42), 5TOP Y A
1st until reaching RR[1] (n49)
The value when BLACK is the smallest (and (n43→n
44→n45→n, 46), the value when LAST BLACK becomes the largest and (n43.n47→n48)
and seek. This is 5TARTX of processing area 30
ARRrl] and 5TOP X ARR[1].

以上のようにして処理を行う最初の行の処理領域が求め
られればn、 17にて検索する°“行″“SEA、 
RCHを加算し、次の行における処理領域を求める。例
えば4行めであれば第2図(C)の斜線Q域31である
。そしてこの処理を5TOP行に達するまで行い(n1
9)、全ての処理領域を求める。
If the processing area of the first row to be processed is found as described above, search at n, 17 ° “Row” “SEA,”
Add RCH and find the processing area in the next row. For example, if it is the fourth row, it is the diagonally shaded Q area 31 in FIG. 2(C). Then, this process is performed until reaching 5 TOP rows (n1
9) Find all processing areas.

このようにして処理領域が求められるとその領域に対し
て加工処理が行われる(n7)。例えば網掛処理の場合
にはn51において網点パターンが読み出され、SUB
  ABの処理で求められた処理範囲内の領域に対して
ILINEごとに網点パターンと画像パターンとのオア
処理が行われる(n52→n53→n54)。
Once the processing area is determined in this way, processing is performed on the area (n7). For example, in the case of halftone processing, the halftone pattern is read out in n51, and the SUB
OR processing between the halftone dot pattern and the image pattern is performed for each ILINE on the area within the processing range determined by the AB processing (n52→n53→n54).

以上のように画像メモリ12の画像情報に加工処理が行
われたのち、この画像情報がレーザ光に変換されて感光
体8に照射される。なおこの例では網掛処理を行う例を
示しているが、求めた行の範囲に応じてトリミング、マ
スキング等の処理が行われる場合もある。
After the image information in the image memory 12 is processed as described above, this image information is converted into laser light and is irradiated onto the photoreceptor 8. Note that although this example shows an example in which shading processing is performed, processing such as trimming and masking may also be performed depending on the range of the determined rows.

fg)発明の効果 以上のようにこの発明によれば加工処理を行う領域の座
標が装置自身により認識され、外部から座標入力を行う
必要がない。したがって入力した座標に合わせて原稿を
セットする必要もなく、入力座標と原稿セット位置との
ズレにより処理領域がずれてしまうこともない。また、
座標入力の煩雑な作業も解消される。
fg) Effects of the Invention As described above, according to the present invention, the coordinates of the area to be processed are recognized by the apparatus itself, and there is no need to input coordinates from the outside. Therefore, there is no need to set the original in accordance with the input coordinates, and the processing area will not shift due to a discrepancy between the input coordinates and the original setting position. Also,
The complicated work of inputting coordinates is also eliminated.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の実施例である複写機における画像処
理の処理手順を示したフローチャート、第2図(A)〜
(C)は画像情報の座標を示した図、第3図は同複写機
の操作部の平面図、第4図および第5図は同複写機の要
部ブロックおよび正面概略図である。 1−走査部、2−CCDアレイ、3−LEDアレイ、4
−原稿、7−レーザユニ・7ト。
FIG. 1 is a flowchart showing the procedure of image processing in a copying machine which is an embodiment of the present invention, and FIGS.
(C) is a diagram showing coordinates of image information, FIG. 3 is a plan view of the operation section of the copying machine, and FIGS. 4 and 5 are main block and front schematic views of the copying machine. 1-Scanning unit, 2-CCD array, 3-LED array, 4
-Manuscript, 7-laser unit 7.

Claims (1)

【特許請求の範囲】[Claims] (1)文書画像をデジタル的に読み取る手段と、読み取
った画像情報から行の位置情報を求める手段と、この行
の位置情報に基づいて行ごとの加工処理を行う手段と、
を設けたことを特徴とするデジタル画像処理装置。
(1) means for digitally reading a document image; means for determining line position information from the read image information; and means for processing each line based on the line position information;
A digital image processing device characterized by being provided with.
JP2037024A 1990-02-16 1990-02-16 Digital picture processing unit Pending JPH03240363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2037024A JPH03240363A (en) 1990-02-16 1990-02-16 Digital picture processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2037024A JPH03240363A (en) 1990-02-16 1990-02-16 Digital picture processing unit

Publications (1)

Publication Number Publication Date
JPH03240363A true JPH03240363A (en) 1991-10-25

Family

ID=12486083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2037024A Pending JPH03240363A (en) 1990-02-16 1990-02-16 Digital picture processing unit

Country Status (1)

Country Link
JP (1) JPH03240363A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57197671A (en) * 1981-05-29 1982-12-03 Nec Corp Editing method for picture and character train
JPS58101374A (en) * 1981-12-11 1983-06-16 Nec Corp Character segmenting device
JPS63158677A (en) * 1986-12-23 1988-07-01 Sharp Corp Row segmenting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57197671A (en) * 1981-05-29 1982-12-03 Nec Corp Editing method for picture and character train
JPS58101374A (en) * 1981-12-11 1983-06-16 Nec Corp Character segmenting device
JPS63158677A (en) * 1986-12-23 1988-07-01 Sharp Corp Row segmenting method

Similar Documents

Publication Publication Date Title
JP3630705B2 (en) Digital copying machine
JP2695484B2 (en) Color scanner
US5867279A (en) Copying machine adapted to copy images of two or more originals on a single sheet of paper
GB2178923A (en) Image processing apparatus
JPH07245700A (en) Digital copying machine
JPH11177774A (en) Detector for original
US5666207A (en) Image processing apparatus
JPH03240363A (en) Digital picture processing unit
US6809742B1 (en) Image editing device permitting user to register desired patterns
EP0689166B1 (en) An automatic image quality controlling apparatus for use in an electronic copier
JPS6146671A (en) Area designation system
JPS6212279A (en) Original reader
JP3539079B2 (en) Image editing device
JP2607727B2 (en) Image processing device having operation history management function
JPH07154584A (en) Image edit device
JPH11177773A (en) Detector for original
JP3376607B2 (en) Rectangular area reading processing device
JP3151729B2 (en) Image reading device and image forming device
JP3407304B2 (en) Image forming device
JPH0758938A (en) Image editing device
JP3658396B2 (en) Image recording apparatus and control method thereof
JPH0746390A (en) Picture editing device
JPH0574984B2 (en)
JPH02105676A (en) Image input/output system and automatic setting method for signal processing condition
JPH07111584A (en) Image edit device