JPH03180980A - Image processor - Google Patents

Image processor

Info

Publication number
JPH03180980A
JPH03180980A JP31901989A JP31901989A JPH03180980A JP H03180980 A JPH03180980 A JP H03180980A JP 31901989 A JP31901989 A JP 31901989A JP 31901989 A JP31901989 A JP 31901989A JP H03180980 A JPH03180980 A JP H03180980A
Authority
JP
Japan
Prior art keywords
image data
area
density
black
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31901989A
Other languages
Japanese (ja)
Inventor
Atsushi Kakimoto
柿本 厚志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP31901989A priority Critical patent/JPH03180980A/en
Publication of JPH03180980A publication Critical patent/JPH03180980A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To make it possible to change the density of image data by modulating the area of image data to be edited in each optional matrix unit. CONSTITUTION:A grating size to be a picture element unit for editing the image data displayed on the screen of a display 2 is specified by a keyboard 5 or a pointing device 6. Area modulation for inverting bits from white to black or from black to white in accordance with a fixed rule correspondingly to color conversion instructed in each grating unit to gradually adjust the density of the image data. Thus, an image processor capable of changing the density of image data can be obtained.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、作成された、あるいは読込まれた文字、画像
、図形などのデータ(画像データ)をドツトパターンに
展開した後に、任意のサイズのマトリックスを単位とし
て編集する機能を有する画像処理装置に関するものであ
る。
[Detailed Description of the Invention] [Industrial Application Field] The present invention develops created or read data such as characters, images, and figures (image data) into a dot pattern, and then develops it into a dot pattern of any size. The present invention relates to an image processing device having a function of editing a matrix as a unit.

[従来の技術] 作成された、あるいは外部から読込まれた画像データを
画面上に表示して、その画像データの色などを変更でき
る、例えばパーソナルコンピュータなどの画像処理装置
がある。このような装置では、例えばマウスなどにより
表示されている画像データの領域を指定して、その領域
の色を指定することにより、その領域を所望の色で塗り
潰すことができる。
[Prior Art] There is an image processing device, such as a personal computer, that can display created or externally read image data on a screen and change the color of the image data. In such a device, by specifying an area of displayed image data using a mouse, for example, and specifying a color for that area, that area can be filled in with a desired color.

[発明が解決しようとしている課題1 ところが従来の場合では、指示された領域に対応する全
てのビットデータを°“1゛或はO゛にして、白または
黒あるいは指示された色に塗りつぶす濃度変換を行って
いる。従って、画像データの指示された領域全体を、例
えば中間調の濃度で表現されるような微妙な濃淡のバラ
ンス等を調整することが非常に困難であった。
[Problem to be Solved by the Invention 1] However, in the conventional case, density conversion is performed in which all bit data corresponding to a specified area is changed to ``1'' or 0'' and filled with white, black, or a specified color. Therefore, it is extremely difficult to adjust the delicate balance of shading, such as that expressed by halftone density, for the entire designated area of image data.

本発明は上記従来例に鑑みてなされたもので、編集した
い画像データを任意のマトリックス単位で面積変調し、
画像データの濃淡を変更できる画像処理装置を提案する
ことを目的とする。
The present invention has been made in view of the above-mentioned conventional example, and involves area-modulating image data to be edited in arbitrary matrix units.
The purpose of this invention is to propose an image processing device that can change the shading of image data.

[課題を解決するための手段] 上記目的を達成するために本発明の画像処理装置は以下
の様な構成からなる。即ち、 画像データを表示し、前記画像データ変更できる画像処
理装置であって、前記画像データを表示する表示手段と
、前記表示手段に表示された画像データを分割する分割
領域のサイズを指定する領域指定手段と、前記領域指定
手段により指定された領域の濃度を変更する濃度変更手
段とを備える。
[Means for Solving the Problems] In order to achieve the above object, an image processing apparatus of the present invention has the following configuration. That is, an image processing device capable of displaying image data and changing the image data, comprising: a display means for displaying the image data; and an area for specifying the size of a division area into which the image data displayed on the display means is divided. The image forming apparatus includes a specifying means, and a density changing means for changing the density of the area specified by the area specifying means.

[作用] 以上の構成において、画像データを表示する表示手段に
表示された画像データを分割する、分割領域のサイズを
指定し、これら指定された領域の濃度を変更するように
動作する。
[Operation] The above configuration operates by specifying the size of the divided area into which the image data displayed on the display means for displaying the image data is specified, and by changing the density of these specified areas.

[実施例] 以下、添付図面を参照して本発明の好適な実施例を詳細
に説明する。
[Embodiments] Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[画像処理装置の説明 (第1図、第2図)]第1図は
本発明の実施例の画像処理装置の実施例の全体構成を示
すブロック図である。
[Description of Image Processing Apparatus (FIGS. 1 and 2)] FIG. 1 is a block diagram showing the overall configuration of an embodiment of an image processing apparatus according to an embodiment of the present invention.

図中、1は画像処理装置全体を制御する制御部で、この
内部構成は第2図を参照して詳しく後述する。2はCR
Tなどのデイスプレィで、画像データや制御部1よりの
処理データなどを表示する。3は編集対象となる画像デ
ータを読取って入力するイメージ・スキャナである。4
はプリンタで、画像データなどを記録紙などに印刷する
ことができる。5は各種操作を指示するキーボードであ
る。6は表示装置2に表示されたデータイメージに対し
て操作位置を指示する、マウスなどのポインティングデ
バイスである。
In the figure, reference numeral 1 denotes a control section that controls the entire image processing apparatus, and the internal configuration thereof will be described in detail later with reference to FIG. 2 is CR
Image data, processing data from the control section 1, etc. are displayed on a display such as T. 3 is an image scanner that reads and inputs image data to be edited. 4
is a printer that can print image data etc. onto recording paper. 5 is a keyboard for instructing various operations. Reference numeral 6 denotes a pointing device such as a mouse, which instructs the operation position with respect to the data image displayed on the display device 2.

7〜8は編集結果である画像データ等を記憶・保存する
ディスクなどの外部記憶媒体である。これらの記憶媒体
は、直接制御部1に接続されていてもよく、通信回線等
を介して接続されていてもよい。9は通信回線および通
信手段であり、これを介して他の処理装置や外部記憶媒
体とデータのやりとりが可能となる。
Reference numerals 7 to 8 designate external storage media such as disks for storing and preserving image data, etc., which are editing results. These storage media may be directly connected to the control unit 1 or may be connected via a communication line or the like. Reference numeral 9 denotes a communication line and communication means, through which data can be exchanged with other processing devices and external storage media.

第2図は制御部1の概略構成を示すブロック図である。FIG. 2 is a block diagram showing a schematic configuration of the control section 1. As shown in FIG.

図において、11はバス19を介して制御部1に接続さ
れている周辺機器全体を制御するCPUである。12は
、例えば第7図や第9図に示す処理を実行するCPU1
1のプログラムや各種データを記憶しているROMであ
る。13はワークエリアとして使用されるRAMで、編
集対象となる画像データ等を記憶している。14はデイ
スプレィ2に表示される画像データ格納するビデオメモ
リ (VRAM)である。
In the figure, reference numeral 11 denotes a CPU that controls all peripheral devices connected to the control unit 1 via a bus 19. 12 is a CPU 1 that executes the processing shown in FIGS. 7 and 9, for example.
This is a ROM that stores the 1 program and various data. A RAM 13 is used as a work area and stores image data to be edited. 14 is a video memory (VRAM) for storing image data displayed on the display 2;

15は前述した各メモリを管理するためのメモリ管理部
、16はデイスプレィ2に表示されている画像(内部的
にはVRAM16に展開されているデータ)に対して、
移動あるいは回転等の画像操作を制御するラスタ・オペ
レーション部である。17は外部記憶媒体7〜8や、デ
ータ入出力用周辺機器3〜6との間でデータのやりとり
を制御するためのデータI10制御部である。18は通
信回線9を介して、他の処理装置や外部記憶装置及びデ
ータ人出力周辺機器とのデータのやりとりを制御するた
めの通信制御部である。19はCPUI 1と上記各処
理部との間でデータのやりとりを行うバスである。
15 is a memory management unit for managing each memory mentioned above; 16 is a memory management unit for managing the image displayed on the display 2 (internally data developed in the VRAM 16);
This is a raster operation unit that controls image operations such as movement and rotation. Reference numeral 17 denotes a data I10 control unit for controlling data exchange with the external storage media 7-8 and the data input/output peripheral devices 3-6. Reference numeral 18 denotes a communication control unit for controlling data exchange with other processing devices, external storage devices, and data output peripheral devices via the communication line 9. Reference numeral 19 denotes a bus for exchanging data between the CPUI 1 and each of the processing units described above.

〈処理概要の説明〉 上述した構成において、本実施例の画像処理装置が実行
する制御動作を以下に説明する。
<Explanation of Processing Overview> In the above-described configuration, the control operation executed by the image processing apparatus of this embodiment will be described below.

ここでは、編集対象である画像データがビデオメモリ1
4に展開されてデイスプレィ2に表示されている状態で
、画像データの編集が実行される。この画像データの表
示は、ビット単位で黒がオン(1)、白がオフ(0)で
表示される場合で説明するが、この画像データのビット
データが(1)が白というように逆であってもよく、こ
の例に限定されるものではない。
Here, the image data to be edited is stored in video memory 1.
4 and displayed on the display 2, editing of the image data is executed. The display of this image data will be explained based on the case where black is displayed as on (1) and white as off (0) in bit units, but the bit data of this image data may be reversed such that (1) is white. It is not limited to this example.

第3図は画像データの一例を示す図である。FIG. 3 is a diagram showing an example of image data.

第3図において、領域20で囲まれている矩形部分の拡
大表示が参照番号21で示されいる。この拡大表示にお
ける各画素は、VRAM14上の1ビツトに対応してい
る。即ち、第3図の白部分が0′°、黒部分が“°l°
°のビットに対応している。
In FIG. 3, an enlarged representation of the rectangular portion enclosed by area 20 is indicated by reference numeral 21. In FIG. Each pixel in this enlarged display corresponds to one bit on the VRAM 14. In other words, the white part in Figure 3 is 0'°, and the black part is "°l°".
° bits are supported.

いま、従来のドツト編集方式で、拡大領域21上の任意
の領域を指定して、複数ドツトからなる当該領域全体を
黒→白または、白−黒へと反転する場合、その指定され
た領域が全体的に、黒から白或は白から黒に反転するだ
けである。従って、その指定された領域内を段階的に濃
淡の階調を付けて調整することは非常に困難であった。
Now, when using the conventional dot editing method to specify an arbitrary area on the enlarged area 21 and invert the entire area consisting of multiple dots from black to white or from white to black, the specified area is The entire image is simply reversed from black to white or from white to black. Therefore, it is very difficult to adjust the specified area by adding gradations of light and shade in stages.

そこで、本実施例では、キーボード5或はポインティン
グデバイス6などにより、デイスプレィ2の画面上で、
表示されている画像データの編集する画素単位である格
子サイズを指定する。そして、その格子単位に指示され
た色変換に対応して、一定の規則に従って白→黒あるい
は黒から白へとビットを反転させる面積変調を行なうこ
とにより、段階的に画像データの濃淡を調整するように
している。
Therefore, in this embodiment, on the screen of the display 2 using the keyboard 5 or pointing device 6,
Specifies the grid size, which is the pixel unit of the displayed image data to be edited. Then, in accordance with the color conversion specified for each grid, the shading of the image data is adjusted in stages by performing area modulation that inverts bits from white to black or from black to white according to a certain rule. That's what I do.

第4図は第3図に示した画像データを格子単位に区切っ
た場合を示す図である。
FIG. 4 is a diagram showing a case where the image data shown in FIG. 3 is divided into grid units.

第4図は、第3図の拡大領域21に対し、キーボード5
から3×3の格子情報を人力し、領域21を3×3の編
集格子40で区切った時の状態を示している。
FIG. 4 shows the keyboard 5 for the enlarged area 21 in FIG.
This figure shows the state when the 3×3 grid information is manually inputted from the screen and the region 21 is divided into 3×3 editing grids 40.

第5図は3×3の編集格子の濃度変化例を示す図で、全
てが黒の画素からなる格子が白くなってゆく段階を示し
ている。この操作を指示する例としては、例えば黒→白
への段階的変化は、ポインティングデバイス(PD)6
により、デイスプレィ2上の白ペンキ刷毛のアイコンを
指示して、PD6によりその領域内で刷毛アイコン等を
往復移動して塗布操作を行うことにより実行される。ま
た、白→黒の変化は黒ペンキ刷毛のアイコンを選択し、
編集領域21内で刷毛アイコン等を往復移動させること
により実行される。
FIG. 5 is a diagram showing an example of density change in a 3×3 editing grid, showing a stage in which a grid consisting of all black pixels becomes white. As an example of instructing this operation, for example, a stepwise change from black to white is indicated by pointing device (PD) 6.
This is executed by pointing the white paint brush icon on the display 2 and moving the brush icon etc. back and forth within that area using the PD 6 to perform the application operation. Also, to change from white to black, select the black paint brush icon,
This is executed by moving the brush icon etc. back and forth within the editing area 21.

このような表示例を示したのが第6図である。FIG. 6 shows an example of such a display.

第6図(A)は白→黒への階調変化を行っている例な示
し、23は白→黒への諧調変化を行なう黒刷毛アイコン
を示す。第6図(B)は同様に、黒−白への階調変化を
行っている例を示す図で、25は白刷毛アイコンを示し
ている。
FIG. 6A shows an example of changing the gradation from white to black, and 23 indicates a black brush icon that changes the gradation from white to black. Similarly, FIG. 6(B) is a diagram showing an example in which the gradation is changed from black to white, and 25 indicates a white brush icon.

<CPUIIによる制御手順の説明〉 第7図は実施例の画像処理装置のCPTJIIの制御手
順を示すフローチャートで、この制御処理は、キーボー
ド5などより入力された画像データの濃度変換指示を検
知することにより開始される。
<Description of control procedure by CPUII> FIG. 7 is a flowchart showing the control procedure of CPTJII of the image processing apparatus of the embodiment. This control process involves detecting a density conversion instruction of image data inputted from the keyboard 5 or the like. is started by.

まず、ステップS】で刷毛の種類を選択する。First, select the type of brush in step S].

これは前述したように、画像データの色を白くする(明
るくする)ための白ペンキ刷毛、或は画像データの色を
黒くする(暗(する)黒ペンキ刷毛のいずれかを選択す
る処理を示している。次にステップS2に進み、キーボ
ード5より入力され1す る、前述した画像データ濃度を変換する画素単位である
編集格子サイズ(mXn)を入力する。次にステップS
3に進み、PD6あるいはキーボード5で指示された刷
毛カーソルで指示されたデイスプレィ2の表示画面の位
置をもとに、どの格子が指示されているかを判定する。
As mentioned above, this refers to the process of selecting either the white paint brush to whiten (brighten) the color of image data or the black paint brush to darken (darken) the color of image data. Next, the process proceeds to step S2, where the editing grid size (mXn), which is a pixel unit for converting the image data density described above, is inputted from the keyboard 5 and set to 1.Next, step S2 is entered.
Proceeding to step 3, based on the position on the display screen of the display 2 indicated by the brush cursor indicated on the PD 6 or the keyboard 5, it is determined which grid is indicated.

次にステップS4に進み、ステップS2で指示された編
集格子の階調を算出する(これは、編集格子中の黒のビ
ット数iをカウントすることにより求めることができる
。但し、O≦i≦(mXn−1))。次にステップS5
に進み、現状のVRAM14中での編集格子のパターン
と、その位置に関するデータをRAM13にセーブする
。これは以降に述べる取り消し処理(ステップS7)の
ために保存しておくもので、編集された回数分を取り消
し処理ができるように、編集を行なう前の2 格子データがそれぞれ異なるバッファにセーブされる。
Next, the process proceeds to step S4, and the gradation of the editing grid specified in step S2 is calculated (this can be obtained by counting the number of black bits i in the editing grid. However, O≦i≦ (mXn-1)). Next step S5
Then, the current editing grid pattern in the VRAM 14 and data regarding its position are saved in the RAM 13. This is saved for the undo process (step S7) described later, and the two grid data before editing are each saved in different buffers so that the undo process can be performed for the number of times the edits have been made. .

次にステップS6に進み、指示されている操作が刷毛塗
り操作か取消操作かを判別する。取消操作のときはステ
ップS6からステップS7に進み、ステップS5で保存
された1操作前のVRAM14の状態をRAM13のバ
ッファより読み出してVRAM14に格納し、表示画面
と1対1に対応しているVRAM14の内容を1つ前の
状態に戻す。
Next, the process proceeds to step S6, where it is determined whether the instructed operation is a brush painting operation or a cancellation operation. In the case of a cancellation operation, the process advances from step S6 to step S7, and the state of the VRAM 14 from one operation before the operation saved in step S5 is read from the buffer of the RAM 13 and stored in the VRAM 14, which is in one-to-one correspondence with the display screen. Returns the contents to the previous state.

一方、刷毛塗り操作のときはステップS8に進み、ステ
ップS1により指示された刷毛種に従って処理を分岐す
る。即ち、黒刷毛が指示された時にはステップS9へ処
理を移し、編集格子中の1つの白ドツトを黒ドツトに反
転して黒の階調を+lしくその格子の黒ドツト数iを+
1する)、i+1 ((i+1)≦nXm−1)にして
VRAM14に格納する。これにより、ステップS3で
指示された編集格子の階調が+1されて表示される。こ
の黒ドツトの追加は、例えば前述した第5図の矢印方向
と反対の方向に向かって行われる。
On the other hand, in the case of a brush painting operation, the process proceeds to step S8, and the process branches according to the brush type instructed in step S1. That is, when the black brush is instructed, the process moves to step S9, inverts one white dot in the editing grid to a black dot, increases the black gradation by +l, and increases the number i of black dots in the grid.
1), i+1 ((i+1)≦nXm-1) and stores it in the VRAM 14. As a result, the gradation of the editing grid designated in step S3 is increased by +1 and displayed. This addition of black dots is performed, for example, in the direction opposite to the direction of the arrow in FIG. 5 mentioned above.

逆に、白刷毛の時はステップS8からステップSIOに
進み、編集格子中の1つの黒ドツトを反転して白ドツト
にして黒の階調を1つ下げ(黒ドツトの数iを−IL、
(i−1≧O))、その結果をVRAM14に記憶する
。これにより、ステップS3で指示された編集格子の階
調が−1されて表示される。この白刷毛塗りの処理は、
例えば第5図の矢印方向にドツト数を減らしていくこと
により行われる。
Conversely, when using a white brush, the process advances from step S8 to step SIO, where one black dot in the editing grid is inverted, turned into a white dot, and the black gradation is lowered by one (the number of black dots is -IL,
(i-1≧O)), and the result is stored in the VRAM 14. As a result, the gradation of the editing grid designated in step S3 is reduced by -1 and displayed. This white brush painting process is
For example, this is done by decreasing the number of dots in the direction of the arrow in FIG.

こうして、指示された処理が終了するとステップSll
に進み、処理終了の指示があったか否かを判定し、終了
指示があれば処理終了へ、そうでなければステップS3
へ進み、前述した処理を実行する。
In this way, when the instructed processing is completed, step Sll
Step S3 determines whether there is an instruction to end the process, and if there is an instruction to end the process, the process ends; otherwise, the process goes to step S3.
Proceed to and execute the process described above.

[他の実施例 (第8図、第9図)] 上述した実施例では、マウスなどのPD6により刷毛カ
ーソルを画面上で移動して、表示画面上で指示された編
集格子中の黒ドツト或は白ドツト数を増やした画像デー
タをVRAM14に作成して、表示されている画像デー
タの階調を変更していたが、ここでは編集格子から間引
く、あるいは付加するドツトパターンを指定することに
より、指示された画像領域の階調を変更するようにして
いる。
[Other Embodiments (FIGS. 8 and 9)] In the embodiments described above, the brush cursor is moved on the screen using the PD6 such as a mouse, and the black dot or black dot in the editing grid specified on the display screen is moved. In the previous example, image data with an increased number of white dots was created in the VRAM 14 to change the gradation of the displayed image data, but here, by specifying the dot pattern to be thinned out or added to the editing grid, The gradation of the designated image area is changed.

この実施例では、前述の実施例の刷毛に代わりスポイト
のアイコンを指示することにより実施される。第8図に
はこのスポイトアイコンを用いて実行される吸上げパタ
ーンと吐出しパターン、およびこれに伴う処理が例示さ
れている。
This embodiment is implemented by pointing to a dropper icon instead of the brush in the previous embodiment. FIG. 8 exemplifies the suction pattern and discharge pattern executed using this dropper icon, and the associated processing.

第8図(A)において、26はスポイトパターンを示し
、いよ例えば編集格子パターン27に対してスポイト吸
上げを実行すると、スポイトパターン26のドツト26
 a、 26 bに対応する、編集格子27のドツト2
7a、27bが吸上げられて28で示すパターンの格子
に変化する。なおこの時、編集格子27のスポイトパタ
ーン26cに対応するドツト位置に黒画素がないため、
編集格子のこのドツト部分は変更されない。
In FIG. 8(A), reference numeral 26 indicates a dropper pattern, and when the dropper suction is finally performed on, for example, the editing grid pattern 27, the dot 26 of the dropper pattern 26
Dot 2 of the editing grid 27 corresponding to a, 26 b
7a and 27b are sucked up and changed into a grid pattern shown at 28. Note that at this time, since there is no black pixel at the dot position corresponding to the dropper pattern 26c of the editing grid 27,
This dot part of the editing grid remains unchanged.

第8図(B)は吸上げパターン29による吐出し処理を
示している。この吸上げパターン29は、第8図(A)
において編集格子パターン27とスポイトパターン26
との論理積として得られたものである。ここで、編集格
子30に対して吸上げパターン29による吐出しくドツ
ト追加)を行うと、格子30のドツトパターンと吸上げ
パターン26との論理和をとった格子パターン31が形
成される。なお、このスポイト吐出し処理において、吸
上げパターン29でなくスポイトパターン26を用いて
吐出し処理を行うようにしてもよいことはもちろんであ
る。
FIG. 8(B) shows the discharge process using the suction pattern 29. This suction pattern 29 is shown in FIG.
Edit grid pattern 27 and dropper pattern 26 in
It is obtained as the logical product of Here, when ejection dots are added to the editing grid 30 using the wicking pattern 29, a lattice pattern 31 is formed by taking the logical sum of the dot pattern of the lattice 30 and the wicking pattern 26. Note that in this dropper discharge process, it is of course possible to perform the discharge process using the dropper pattern 26 instead of the suction pattern 29.

上述した他の実施例の制御をフローチャートに示すと第
9図の如くなる。
The control of the other embodiment described above is shown in a flowchart as shown in FIG.

先ず、ステップS21でキーボード5からスポイトパタ
ーン26の種類を設定し、次にステップS22でキーボ
ード5により指示される、編集格子パターンサイズm 
x nを入力する。次にステップ323に進み、デイス
プレィ2上のPD6等で指示されるカーソルの位置に対
応する、VRAM14中の編集格子の位置を算出する。
First, in step S21, the type of dropper pattern 26 is set using the keyboard 5, and then in step S22, the edit grid pattern size m is specified using the keyboard 5.
Enter x n. Next, the process proceeds to step 323, where the position of the editing grid in the VRAM 14 corresponding to the position of the cursor indicated by the PD 6 or the like on the display 2 is calculated.

ステップS24でその指定された編集格子データを比較
演算等のため、RAM13の編集用バッファに格納する
。そしてステップS25で、現状のVRAM14におけ
る、その指示された編集格子パターンと、その位置に関
するデータをRAM13に保存する。これは前述した第
7図のステップS5と同様に、取り消し処理時における
データ復帰のためである。
In step S24, the designated editing grid data is stored in the editing buffer of the RAM 13 for comparison calculations and the like. Then, in step S25, the instructed editing grid pattern and data regarding its position in the current VRAM 14 are stored in the RAM 13. This is for restoring data at the time of cancellation processing, similar to step S5 in FIG. 7 described above.

次にステップS26に進み、スポイトによる吸い上げか
吐出しか、あるいは取消しかを判定する。スポイト吸上
げであるならステップS27へ、吐出しならばステップ
328に、取り消し処理であるならステップS29に分
岐する。
Next, the process proceeds to step S26, where it is determined whether to suck up or discharge using the dropper, or to cancel. If it is a dropper suction, the process branches to step S27, if it is a discharge, the process branches to step 328, and if it is a cancellation process, the process branches to step S29.

ステップS27の吸上げ処理では、編集バッファのパタ
ーンデータ(ステップS23で指示された編集格子パタ
ーン)と、スポイトパターンとを各々ビット単位で論理
積をとり(この結果を「吸上げパターン」と呼び、例え
ば第8図(B)の29で示す)、編集バッファのパター
ンから「吸い上げパターン」を差引いた格子パターンデ
ータを作成する。そして、この編集結果パターンデータ
をVRAM14の対応するアドレスに書込む。このよう
にして作成された格子パターンデータの例が、第8図(
A)の28で示されている。
In the siphoning process in step S27, the pattern data in the editing buffer (the edited lattice pattern specified in step S23) and the dropper pattern are logically ANDed bit by bit (this result is called the ``siphoning pattern''). For example, as shown by 29 in FIG. 8(B)), lattice pattern data is created by subtracting the "siphoning pattern" from the pattern in the editing buffer. This edited result pattern data is then written to the corresponding address in the VRAM 14. An example of grid pattern data created in this way is shown in Figure 8 (
It is indicated by 28 in A).

一方、吐出し処理のときはステップ828に進み、前述
のステップS27で求めて記憶された吸上げパターン(
29)と、編集格子パターンとの論理和を取る。こうし
て、第8図(B)に示すように、黒のドツトが増えたパ
ターン31を作成して、編集結果としてVRAM14の
該当領域に書き換える。
On the other hand, in the case of discharge processing, the process proceeds to step 828, and the suction pattern (
29) and the edited grid pattern. In this way, as shown in FIG. 8(B), a pattern 31 in which black dots are increased is created and rewritten in the corresponding area of the VRAM 14 as the editing result.

又、取り消し処理のときはステップS29に進 9 み、RAM13のバッファにステップS25で記憶され
た状態を読み出し、これによってVRAM14を書き換
えて1つ前の状態に戻す。こうしてステップS27.S
28  S29の処理が終了するとステップS30に進
み、処理終了の指示があったか否かを判定し終了指示が
あったら終了し、そうでなければステップS23に戻り
、処理を続行する。
In addition, in the case of cancellation processing, the process advances to step S29, where the state stored in step S25 is read into the buffer of the RAM 13, thereby rewriting the VRAM 14 to return to the previous state. In this way, step S27. S
28 When the process of S29 is completed, the process proceeds to step S30, and it is determined whether or not there is an instruction to end the process. If there is an instruction to end the process, the process ends, and if not, the process returns to step S23 and continues the process.

以上説明したように本実施例によれば、編集したいデー
タのパタンを、任意の画素マトリックス単位に区分けし
て、その画素マトリクス単位で出力するドツト増減を行
うことにより、画像データの濃度を微細に変更できる効
果がある。
As explained above, according to this embodiment, the pattern of data to be edited is divided into arbitrary pixel matrix units, and the density of image data is finely adjusted by increasing or decreasing the output dots in units of pixel matrices. There are effects that can be changed.

またこの実施例では、画素単位を3×3のマトリクスと
したが、これに限定されるものでなく、また、マトリク
ス単位での濃度変換は第5図に限 0 定されるものでないことはもちろんである。
Furthermore, in this embodiment, the pixel unit is a 3 x 3 matrix, but it is not limited to this, and the density conversion in the matrix unit is of course not limited to that shown in FIG. It is.

[発明の効果] 以上説明したように本発明によれば、編集したい画像デ
ータを、任意のマトリックス単位で面積変調することに
より、画像データの濃淡を変更することができる効果が
ある。
[Effects of the Invention] As described above, according to the present invention, the density of the image data can be changed by area-modulating the image data to be edited in arbitrary matrix units.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例の画像処理装置の基本構成を
示すブッロク構成図、 第2図は第1図の制御部の概略構成を示すブロック図、 第3図は画像データのデイスプレィ表示例を示す図、 第4図は第3図の画像データを拡大して示す図、 第5図は編集格子パターン白くしていく例を示す遷移図
、 第6図(A)は黒刷毛アイコンによる領域の濃度を濃く
する場合を示した図、第6図(B)は白刷毛アイコンに
よる領域を濃度を白くする動作例を示す図、 第7図は実施例の画像処理装置における画像編集処理を
示すフローチャート、 第8図(A)(B)はスポイトパターンを用いて画像濃
度を変更する例を示す概念図、そして第9図は他の実施
例のスポイト処理の制御例を示すフローチャートである
。 図中、l・・・制御部、2・・・デイスプレィ、3・・
・スキャナ、4・・・プリンタ、5・・・キーボード、
6・・・ポインティングデバイス(PD)、7.8・・
・外部記憶媒体、9・・・通信回線、10・・・他処理
装置、11・・・CPU、12・・・ROM、13・・
・RAM、14・・・ 3 ビデオメモリ (VRAM) 23・・・黒刷毛アイコ ン、 5・・・白刷毛アイコン、 6・・・スポイトパ ターン、 29・・・吸上げパターンである。 特 許 出 願 人 キャノン株式会社  4
FIG. 1 is a block diagram showing the basic configuration of an image processing device according to an embodiment of the present invention, FIG. 2 is a block diagram showing a schematic configuration of the control section in FIG. 1, and FIG. 3 is a display table of image data. Figure 4 is an enlarged view of the image data in Figure 3. Figure 5 is a transition diagram showing an example of whitening the edited grid pattern. Figure 6 (A) is a black brush icon. A diagram showing a case where the density of an area is increased, FIG. 6(B) is a diagram showing an example of the operation of increasing the density of an area using a white brush icon, and FIG. FIGS. 8A and 8B are conceptual diagrams showing an example of changing the image density using a dropper pattern, and FIG. 9 is a flowchart showing an example of controlling the dropper process in another embodiment. In the figure, l...control unit, 2...display, 3...
・Scanner, 4...Printer, 5...Keyboard,
6... Pointing device (PD), 7.8...
- External storage medium, 9... Communication line, 10... Other processing device, 11... CPU, 12... ROM, 13...
- RAM, 14... 3 Video memory (VRAM) 23... Black brush icon, 5... White brush icon, 6... Dropper pattern, 29... Suction pattern. Patent applicant Canon Co., Ltd. 4

Claims (4)

【特許請求の範囲】[Claims] (1)画像データを表示し、前記画像データ変更できる
画像処理装置であつて、 前記画像データを表示する表示手段と、 前記表示手段に表示された画像データを分割する分割領
域のサイズを指定する領域指定手段と、前記領域指定手
段により指定された領域の濃度を変更する濃度変更手段
と、 を備えることを特徴とする画像処理装置。
(1) An image processing device capable of displaying image data and changing the image data, which specifies a display means for displaying the image data and a size of a division area into which the image data displayed on the display means is divided. An image processing apparatus comprising: an area specifying means; and a density changing means for changing the density of the area specified by the area specifying means.
(2)前記濃度変更手段は前記領域指定手段により指定
された領域の表示されるドット数の割合を変更して、前
記画像データの濃度を変更するようにしたことを特徴と
する請求項第1項に記載の画像処理装置。
(2) The density changing means changes the density of the image data by changing the ratio of the number of dots displayed in the area specified by the area specifying means. The image processing device described in .
(3)前記画像データはm×nドットのマトリクス領域
単位に分割されるようにしたことを特徴とする請求項第
1項あるいは第2項に記載の画像処理装置。
(3) The image processing apparatus according to claim 1 or 2, wherein the image data is divided into matrix area units of m×n dots.
(4)前記表示手段に表示された画像データのうち濃度
変換したい領域を指示する指示手段を更に含み、前記領
域指定手段は前記指示手段により指示された領域を分割
するサイズを指定するようにしたことを特徴とする請求
項第1項乃至第3項のいずれかに記載の画像処理装置。
(4) The device further includes instruction means for specifying an area to be subjected to density conversion among the image data displayed on the display means, and the area specification means specifies a size for dividing the area specified by the instruction means. The image processing apparatus according to any one of claims 1 to 3, characterized in that:
JP31901989A 1989-12-11 1989-12-11 Image processor Pending JPH03180980A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31901989A JPH03180980A (en) 1989-12-11 1989-12-11 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31901989A JPH03180980A (en) 1989-12-11 1989-12-11 Image processor

Publications (1)

Publication Number Publication Date
JPH03180980A true JPH03180980A (en) 1991-08-06

Family

ID=18105600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31901989A Pending JPH03180980A (en) 1989-12-11 1989-12-11 Image processor

Country Status (1)

Country Link
JP (1) JPH03180980A (en)

Similar Documents

Publication Publication Date Title
US6763146B2 (en) Method and system for image processing
JPH06333006A (en) Image processor
JPH04284246A (en) Coloring treatment method of picrure region
GB2183428A (en) Pattern forming apparatus
JPH03180980A (en) Image processor
JP3221516B2 (en) Image processing method and apparatus
JP3345192B2 (en) Liquid crystal display
JP3472013B2 (en) Image processing apparatus and control method thereof
JPH04186288A (en) Image display method and device
JPH0343787A (en) Image display device
JP2511731B2 (en) Halftone image processor
JP2513636B2 (en) Image processing device
JPH11328391A (en) Processor and method for image processing
JPH0594167A (en) Method for displaying picture
JPS62208176A (en) Image processor
JPH0150941B2 (en)
GB2220331A (en) Image processing
JPH0342785A (en) Bit map display device
JPH0721828B2 (en) Image processing method
EP0410744B1 (en) Graphics processor trapezoidal fill instruction method and apparatus
JPH08212339A (en) Image processor
JPH01270173A (en) Picture processor
JPH03166665A (en) Image processor
JPH08328539A (en) Image display method and device
JPH05281943A (en) Multi-screen display device