JPH01219964A - Image processor - Google Patents

Image processor

Info

Publication number
JPH01219964A
JPH01219964A JP63044443A JP4444388A JPH01219964A JP H01219964 A JPH01219964 A JP H01219964A JP 63044443 A JP63044443 A JP 63044443A JP 4444388 A JP4444388 A JP 4444388A JP H01219964 A JPH01219964 A JP H01219964A
Authority
JP
Japan
Prior art keywords
image
data
image data
brush pattern
pattern data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63044443A
Other languages
Japanese (ja)
Inventor
Shigeki Yamada
茂樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP63044443A priority Critical patent/JPH01219964A/en
Publication of JPH01219964A publication Critical patent/JPH01219964A/en
Priority to US07/630,797 priority patent/US5038223A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To save the memory by using an (n)-(m) bit portion and the subsequent bits of a storage means as a work area, after an image processing of (n) bits per picture element is ended. CONSTITUTION:A CPU 1 inputs original image data through an image data I/O 26, and stores in image memories 14-16. An edge detecting part 4 executes an extraction of an edge part, based on the original image data of the image memories 14-16. This edge part is replaced with multivalued brush pattern data from a brush pattern selecting part 8 and a brush pattern rotating part 9. I the image memories 14-16, image data brought to gradation conversion and degeneration is stored, by which the remaining bit portion of the image memories 14-16 is used as a working area. Brush pattern data is brought to picture drawing by a picture drawing part 10, and a texture image is synthesized by an image synthesizing part 12.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像処理装置に関し、特に画素当りnビットの
画像データを前記nより小さいmビットの画像データに
階調変換して出力する画像処理装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an image processing device, and particularly to image processing that converts n-bit image data per pixel into m-bit image data smaller than n and outputs the gradation-converted image data. Regarding equipment.

[従来の技術] 従来、この種の装置では、画像処理等のいわゆるワーク
エリアとして別個の記憶手段を設けていた。
[Prior Art] Conventionally, this type of apparatus has been provided with a separate storage means as a so-called work area for image processing and the like.

[発明が解決しようとする課題] しかし、これでは多くのメモリ容量を必要とし、きわめ
て不経済であった。
[Problems to be Solved by the Invention] However, this requires a large memory capacity and is extremely uneconomical.

本発明は上述した従来技術の欠点を除去するものであり
、その目的とする所は、メモリ容量を格段に節約した画
像処理装置を提供することにある。
The present invention eliminates the above-mentioned drawbacks of the prior art, and its purpose is to provide an image processing device that significantly saves memory capacity.

[課題を解決するための手段] 本発明の画像処理装置は上記の目的を達成するために、
画素当りnビットの画像データを記憶する記憶手段と、
前記記憶手段のn−mビット分以下をワークエリアとし
て使用する処理手段と、前記記憶手段の残りのビット分
をmビットの画像データに階調変換する階調変換手段を
備えることをその概要とする。
[Means for Solving the Problems] In order to achieve the above object, the image processing device of the present invention has the following features:
storage means for storing n bits of image data per pixel;
The outline of the present invention includes processing means for using n-m bits or less of the storage means as a work area, and tone conversion means for converting the remaining bits of the storage means into m-bit image data. do.

[作用] かかる構成において、記憶手段は例えば画素当り8ビツ
トの画像データを記憶する。処理手段は例えば前記記憶
手段の8−3=5ビット分以下をワークエリアとして使
用する。階調変換手段は前記記憶手段の残りのビット分
を3ビツトの画像データに階調変換する。このようにし
て画像メモリを有効利用できる。
[Operation] In this configuration, the storage means stores, for example, 8-bit image data per pixel. The processing means uses, for example, 8-3=5 bits or less of the storage means as a work area. The gradation conversion means converts the remaining bits of the storage means into 3-bit image data. In this way, image memory can be used effectively.

[実施例の説明] 以下、添付図面に従って本発明の実施例を詳細に説明す
る。
[Description of Embodiments] Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

第1図は本発明による実施例の画像処理装置のブロック
構成図である。図において、1はコントロールプロセッ
サユニット(CPU)であり、本実施例装置の主制御を
行う。2はCPUメモリであり、前記CPU1が実行す
る例えば第2図の絵画化処理プログラム及び該処理に必
要なパラメータ等を不図示のROM又はRAM内に記憶
している。、3はCPUバスであり、CPU1のアドレ
スバス、データバス及び制御バスから成る。
FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. In the figure, reference numeral 1 denotes a control processor unit (CPU), which performs main control of the apparatus of this embodiment. Reference numeral 2 denotes a CPU memory, which stores, for example, the painting processing program shown in FIG. 2, which is executed by the CPU 1, and parameters necessary for the processing in a ROM or RAM (not shown). , 3 is a CPU bus, which consists of an address bus, a data bus, and a control bus for the CPU 1.

26は画像データI10であり、これに不図示の画像読
取装置又は画像出力装置を接続することで絵画化処理前
後の画像データの入出力を行える。14〜16は画素当
り8ビツトのイメージメモリであり、前記画像データl
1026を介して読み込んだR(赤)、G(緑)、B(
青)の3原色の原画像データを夫々記憶する。17は同
じく画素当り8ビツトのテクスチュアメモリであり、例
えば油絵で使用するようなキャンバス(編目模様)の画
像データを記憶する。19は画素当り8ビツトのワーク
メモリであり、前記イメージメモリ14〜16の画像デ
ータについて行なった演算処理結果を一時的に記憶する
。20は画素当り16ビツトの16ビツトメモリであり
、同じくイメージメモリ14〜16の画像データについ
て行なった積和結果等を一時的に記憶する。
Reference numeral 26 denotes image data I10, and by connecting an image reading device or an image output device (not shown) to this, it is possible to input and output the image data before and after the painting process. 14 to 16 are image memories of 8 bits per pixel, which store the image data l.
R (red), G (green), B (
Original image data of three primary colors (blue) are stored respectively. Reference numeral 17 denotes a texture memory of 8 bits per pixel, which stores image data of a canvas (knit pattern) such as that used in oil painting, for example. Reference numeral 19 denotes a work memory of 8 bits per pixel, which temporarily stores the results of arithmetic processing performed on the image data in the image memories 14 to 16. Reference numeral 20 denotes a 16-bit memory with 16 bits per pixel, which temporarily stores the product-sum results etc. performed on the image data of the image memories 14-16.

21〜23は高速度RAMから成るルックアップテーブ
ル(LUT)であり、CPU1により階調変換テーブル
を書き変え可能な各256X8ビツトの記憶容量を持つ
。該LUT21〜23のアドレスラインは各8本(O〜
255番地)であり、アドレスデータは夫々イメージメ
モリ14〜16出力の画像データ(0〜255階調)に
よって与えられる。一方、各LU721〜23の続出デ
ータラインは各8本で構成され、これらはビデオバス2
4に接続されている。また各LUT21〜23にはCP
Uバス3が直接接続されており、これを介してCPU1
はLUT21〜23の内容をいつでも読み書きできる。
Reference numerals 21 to 23 are look-up tables (LUTs) made of high-speed RAM, each having a storage capacity of 256×8 bits, allowing the CPU 1 to rewrite the gradation conversion table. Each of the LUTs 21 to 23 has eight address lines (O to
255 address), and the address data is given by image data (0 to 255 gradations) output from the image memories 14 to 16, respectively. On the other hand, the successive data lines of each LU721 to 23 are composed of eight lines, and these are connected to the video bus 2.
Connected to 4. In addition, each LUT21 to 23 has a CP
U bus 3 is directly connected to CPU 1 through this.
can read and write the contents of LUTs 21 to 23 at any time.

25はビデオコントローラであり、これに不図示のCR
7表示装置又はビデオプリンタ等を接続することで絵画
化処理前後の画像データをモニタリングできる。
25 is a video controller, which includes a CR (not shown).
7 By connecting a display device, video printer, etc., image data before and after painting processing can be monitored.

4はエツジ検出部であり、前記イメージメモリ14〜1
6中の各画像データを色合成したイメージデータから原
画像中のエツジ部分を検出し、これを2値化して、結果
の2値化エツジデータを出力する。これは原画像データ
中のエツジ部分(コントラスト部分)と平坦部分とで発
生させる筆パターンの性質及び形状を異ならしめるため
である。5は太線化処理部であり、エツジ検出部4出力
の2値化エツジデータに対してパターンの太線化処理を
行う。6はごみ処理部であり、太線化処理した太線化パ
ターン中から、孤立した面積の小さい雑音パターンを取
り除き、必要なエツジパターン部分だけを残す。11は
エツジ方向検出部であり、検出したエツジ部分の方向性
有無及びその方向を検出することにより、後述する筆パ
ターン選択部8ににおける適正な筆パターンの選択を可
能ならしめる。7は描画位置発生部であり、不図示のラ
ンダム関数発生手段を備え、後述する筆パターンデータ
の描画位置がランダムになるように発生する。8は筆パ
ターン選択部であり、あらかじめ不図示のROM中に複
数種の小さい多値(又は2値)の筆パターンデータを格
納しており、該複数の筆パターンデータの中から、ある
いは後述する筆パターン回転部9中の不図示のROM内
に格納されていて、かつ順次パターン回転処理により生
成される多値(又は2値)の大きい筆パターンデータな
前記のエツジ有無等の検出結果に基づき選択する。9は
筆パターン回転部であり、本実施例では不図示のROM
内に単一の大きな多値(又は2値)の基本筆パターンデ
ータを記憶しておき、該基本筆パターンに対してシーケ
ンシャルに回転効果を与えることにより、実質複数種の
筆パターンデータを発生する。10は描画部であり、原
画像データ上の前記ランダムに発生した描画位置におい
て前記筆パターン選択部8が選択した筆パターンデータ
を描画(合成)する。即ち、例えば筆パターンデータが
多値で構成される例では、発生した描画位置の近傍の原
画像データをあたかもその色の絵の真筆で描いたような
凹凸状、光沢状の画像データに変換する。12は画像合
成部であり、描画処理終了した画像データに対して更に
キャンパス等のテクスチュア画像を合成する。13はイ
メージメモリコントローラであり、前記エツジ検出部4
から画像合成部12までの各部が夫々の処理を行うとき
に同期してイメージメモリ14〜16及びLUT21〜
23の必要な制御を行う。
4 is an edge detection section, and the image memories 14 to 1
Edge portions in the original image are detected from the image data obtained by color-compositing each image data in 6, binarized, and the resulting binarized edge data is output. This is to make the properties and shapes of brush patterns generated different between edge portions (contrast portions) and flat portions in the original image data. Reference numeral 5 denotes a thick line processing section, which performs pattern thick line processing on the binary edge data output from the edge detection section 4. Reference numeral 6 denotes a garbage processing section, which removes isolated noise patterns with small areas from the thick line pattern that has been subjected to the thick line processing, and leaves only the necessary edge pattern portions. Reference numeral 11 denotes an edge direction detection section, which enables a brush pattern selection section 8 to be described later to select an appropriate brush pattern by detecting the presence or absence of directionality of the detected edge portion and its direction. Reference numeral 7 denotes a drawing position generating section, which includes a random function generating means (not shown), and generates a drawing position of brush pattern data to be described later at random. Reference numeral 8 denotes a brush pattern selection section, which stores a plurality of types of small multi-valued (or binary) brush pattern data in advance in a ROM (not shown), and selects from among the plurality of brush pattern data or as described later. The brush pattern data is stored in a ROM (not shown) in the brush pattern rotation unit 9 and is generated sequentially through pattern rotation processing, based on the detection results of the presence or absence of edges, etc. select. Reference numeral 9 denotes a brush pattern rotation unit, which is a ROM (not shown) in this embodiment.
By storing a single large multivalued (or binary) basic brush pattern data in the computer and sequentially applying a rotation effect to the basic brush pattern, multiple types of brush pattern data can be generated. . A drawing section 10 draws (synthesizes) the brush pattern data selected by the brush pattern selection section 8 at the randomly generated drawing positions on the original image data. That is, for example, in an example where the brush pattern data is composed of multiple values, the original image data in the vicinity of the generated drawing position is converted into uneven, glossy image data that looks as if it were drawn with a real brush of that color. . Reference numeral 12 denotes an image synthesis section, which further synthesizes a texture image such as a canvas on the image data for which drawing processing has been completed. 13 is an image memory controller, and the edge detection section 4
The image memories 14 to 16 and the LUTs 21 to 12 synchronize with each other when each unit from
Performs 23 necessary controls.

第2図は実施例の絵画化処理手順のフローチャートであ
る。尚、以下の説明ではアドレス(x、y)の原画像(
濃度)データをa+(x。
FIG. 2 is a flowchart of the pictorial processing procedure of the embodiment. In the following explanation, the original image at address (x, y) (
concentration) data a+(x.

y)で表わす、但し、添え字iはR,G、Bの画像デー
タを個々に表わすときは夫々R,G、Bと記す。更に画
像データai  (x、y)は8ビツト(O〜255階
調表現可能)であり、最大濃度データ(最も暗いデータ
)の値を階調0とし、最小濃度データ(最も明るいデー
タ)の値を階調255とする。
However, when the subscript i represents R, G, and B image data individually, it is written as R, G, and B, respectively. Furthermore, the image data ai (x, y) is 8 bits (0 to 255 gradations can be expressed), the value of maximum density data (darkest data) is set to 0 gradation, and the value of minimum density data (brightest data) is is the gradation level 255.

〈ステップSl> CPU 1は画像データl1026を介して外部から原
画像データR,G、Bを取り込み、夫々をイメージメモ
リ14〜16に格納する。
<Step Sl> The CPU 1 takes in original image data R, G, and B from the outside via the image data 1026, and stores them in the image memories 14 to 16, respectively.

尚、この時点ではLUT21〜23の内容は第3図に示
すように入出力が等しい標準変換特性にある。
At this point, the contents of the LUTs 21 to 23 have standard conversion characteristics in which input and output are equal, as shown in FIG.

くステップS2> エツジ検出部4はイメージメモリ14〜16の原画像デ
ータR,G、Bに基づいてエツジ部分の抽出を行う。こ
のエツジ抽出処理は、まず(2)式に従って人間の視感
度曲線に合った画像データを作成する。
Step S2> The edge detection unit 4 extracts edge portions based on the original image data R, G, and B in the image memories 14 to 16. In this edge extraction process, first, image data matching the human visibility curve is created according to equation (2).

a (x、y) =  (3aR(x、y)+ 6 aa(x、y)+ 
as(x%y))上記(2)式では原画像データR,G
、Bを0.3:0.6+0.1の比で合成している。
a (x, y) = (3aR(x, y)+ 6 aa(x, y)+
as(x%y)) In the above equation (2), the original image data R, G
, B are synthesized at a ratio of 0.3:0.6+0.1.

絵画は目で鑑賞するものであるから、まず原画像データ
を人間の視感度曲線に合わせて合成し、エツジ評価をす
る。またその際に、右辺の()内の積和計算を行うため
に各積和結果を一時的に16ビツトメモリ20に格納す
る。そして()内の積和結果を1/101.た内容はワ
ークメモリー9に格納される。
Since paintings are meant to be appreciated with the eyes, the original image data is first synthesized according to the human visual sensitivity curve, and edges are evaluated. At this time, each product-sum result is temporarily stored in the 16-bit memory 20 in order to perform the product-sum calculation in parentheses on the right side. Then, the product-sum result in () is 1/101. The contents are stored in the work memory 9.

次にワークメモリ19の画像データに対して例えば(3
X3)マトリクスの微分オペレータを用いてエツジ抽出
処理を行う。第4図に本実施例で採用した微分オペレー
タの一例を示す。この微分オペレータは画像の右方向に
向けて明るさを増すようなエツジ(コントラスト)を検
出する。
Next, for example, (3
X3) Edge extraction processing is performed using a matrix differential operator. FIG. 4 shows an example of the differential operator employed in this embodiment. This differential operator detects edges (contrast) that increase in brightness toward the right of the image.

ところで、従来はこのエツジ検出結果を別設のメモリに
格納していた。しかし、本実施例ではエツジ検出結果が
画素当り8ビツトとすると、後に2値化処理を行う場合
の閾値が上位4ビツトに入るので、検出結果の上位4ビ
ツトをイメージメモリ14の下位4ビツトに格納する。
By the way, in the past, the edge detection results were stored in a separate memory. However, in this embodiment, if the edge detection result is 8 bits per pixel, the threshold value for later binarization processing will be in the upper 4 bits, so the upper 4 bits of the detection result will be stored in the lower 4 bits of the image memory 14. Store.

これは次の理由による。This is due to the following reason.

本実施例では後述の処理において描画終了した画像デー
タを一旦8階調に縮退して出力するが、その時点ではL
UT21〜23における入出力階調の関係は例えば第1
0図に示すものとなっている。即ち、第10図において
は、例えば入力階調がO〜31(256階調/8)の範
囲ではその出力階調は31である。以下、同様にして入
力が32階調分増す毎に出力が1階調づつ増す関係にあ
る。従って原画像データR,G、B中のO〜31階調ま
でを表現する下位5ビット分は実質使用されておらず、
この部分のデータを破壊しても階調変換結果には何らの
影響も無い。そこで、本実施例ではイメージメモリ14
〜16の下位5ビツトを作業領域として自由に使用でき
ることになる。
In this embodiment, the image data that has been rendered in the process described later is temporarily degenerated to 8 gradations and output, but at that point, L
The relationship between input and output gradations in UTs 21 to 23 is, for example, the first
It is shown in Figure 0. That is, in FIG. 10, for example, when the input gradation ranges from O to 31 (256 gradations/8), the output gradation is 31. Thereafter, similarly, every time the input increases by 32 gradations, the output increases by one gradation. Therefore, the lower 5 bits representing the 0 to 31st gradations in the original image data R, G, and B are not actually used.
Even if the data in this part is destroyed, there will be no effect on the gradation conversion result. Therefore, in this embodiment, the image memory 14
The lower 5 bits of 16 to 16 can be freely used as a work area.

これを−膜化して言うと、n階調の画像データをm階調
に階調変換する場合にはメモリのO〜(n7m)−1階
調までを格納するビット領域を作業領域に割り当てられ
ると言うことである。
To put this into perspective, when converting n-gradation image data to m-gradation, a bit area for storing 0 to (n7m)-1 gradations in memory can be allocated to the work area. That is to say.

次に、第4図の微分オペレータを左回りにπ/4回転さ
せて第5図の微分オペレータを得る。この微分オペレー
タは画像の右上方向に向けて明るさを増すよなエツジを
検出する。そして、このエツジ検出結果の上位4ビツト
と前記イメージメモリ14の下位4ビツトに記憶した検
出結果とを比較し、大きい方をイメージメモリ14の下
位4ビツトに格納する。以下同様にして微分オペレータ
を左回りにπ/4づつ回転させ、結果として合計8方向
から見たエツジ検出結果のうち最大のものの上位4ビツ
トを検出し、これをイメージメモリ14の下位4ビツト
に格納する。
Next, the differential operator in FIG. 4 is rotated counterclockwise by π/4 to obtain the differential operator in FIG. 5. This differential operator detects edges that increase in brightness toward the upper right of the image. Then, the upper 4 bits of this edge detection result are compared with the detection result stored in the lower 4 bits of the image memory 14, and the larger one is stored in the lower 4 bits of the image memory 14. In the same manner, the differential operator is rotated counterclockwise by π/4, and as a result, the highest 4 bits of the largest edge detection result seen from a total of 8 directions are detected, and this is stored in the lower 4 bits of the image memory 14. Store.

この結果イメージメモリ14の下位4ビツトには可視像
に変換した画像データの全画素についての最大のエツジ
成分が抽出される。
As a result, the largest edge component of all pixels of the image data converted into a visible image is extracted into the lower four bits of the image memory 14.

次にイメージメモリ14の下位4ビツトを所定閾値で2
値化処理し、エツジ(閾値より大きい)と判定した画素
はビット“1”、それ以下と判定した画素はビット“O
”に置き換え、これをイメージメモリ14の下位1ビツ
トに書き込む。
Next, the lower 4 bits of the image memory 14 are set to 2 by a predetermined threshold.
Pixels determined to be edges (greater than the threshold value) are set to bit “1”, and pixels determined to be less than that are set to bit “O”.
” and write this into the lower 1 bit of the image memory 14.

こうしてイメージメモリ14の下位1ビツトには原画像
のエツジ成分に関するエツジパターンデータが格納され
る。
In this way, the lower one bit of the image memory 14 stores edge pattern data regarding edge components of the original image.

くステップS3> ステップS2で生成したエツジパターンは後述の処理を
行うには細すぎる。そこでエツジパターンの太線化処理
を行う。この太線化処理はイメージメモリ14中の注目
エツジパターンデータをa (x、y)とすると(3)
式に従って行う。
Step S3> The edge pattern generated in step S2 is too thin to perform the processing described below. Therefore, edge pattern thickening processing is performed. This thickening process is performed as follows (3), where the edge pattern data of interest in the image memory 14 is a (x, y).
Do it according to the formula.

即ち、 a (x、 y) =1  のときは、a (x+i、
y+j)=1  とする。
That is, when a (x, y) = 1, a (x+i,
y+j)=1.

ここで、 一3≦i≦3.−3≦j≦3の整数 そして、この太線化処理結果を例えばイメージメモリ1
5の下位1ビツトに格納する。
Here, 13≦i≦3. An integer of −3≦j≦3.Then, the result of this thick line processing is stored in image memory 1, for example.
Stored in the lower 1 bit of 5.

くステップS4> 上記ステップS3で得た太線化エツジパターンデー夕に
は通常小さな孤立したノイズパターンが多く含まれてい
る。ごみ処理部6はイメージメモリ15に格納した全エ
ツジパターンデータに対して、その連結性有無の判断に
基づき面積を算出し、所定面積以下のものはノイズパタ
ーンとして消去する。この連結性有無の判断はイメージ
メモリ15中の注目エツジパターンデータをa (x、
y)とすると(4)式に従って行う。
Step S4> The thick edge pattern data obtained in step S3 usually contains many small isolated noise patterns. The dust processing section 6 calculates the area of all the edge pattern data stored in the image memory 15 based on the determination of connectivity or non-existence, and erases the edge pattern data having a predetermined area or less as a noise pattern. This determination of the presence or absence of connectivity is based on the edge pattern data of interest in the image memory 15 a (x,
y), it is performed according to equation (4).

即ち、 a (x、 y) =1  のときは、a (x+i、
y+j)=1  を調べる。
That is, when a (x, y) = 1, a (x+i,
Check y+j)=1.

ここで、 一1≦i≦1.−1≦j≦1の整数 即ち、a (x+i、y+j)=1の条件を1つでも満
たせば連続性があるとみなす。
Here, 11≦i≦1. It is considered that there is continuity if at least one of the conditions of -1≦j≦1, ie, a (x+i, y+j)=1, is satisfied.

くステップS5> ステップS5では描画開始位置発生部7が筆パターンの
描画位置情報を発生する。筆パターンの描画位置は、こ
れを規則正しくシーケンシャルに発生させると絵画的表
現の自然性を損なう。
Step S5> In step S5, the drawing start position generating section 7 generates drawing position information of the brush pattern. If the drawing positions of the brush patterns are generated regularly and sequentially, the naturalness of the pictorial expression will be lost.

そこで実施例の描画位置はランダムな位置に発生する。Therefore, the drawing position in the embodiment is generated at a random position.

この描画位置情報の発生は、まず原画像データRに対し
て行う。描画開始位置発生部7は内部に不図示の乱数発
生手段を備えており、該乱数発生手段は、例えばCPU
 1からの3つの乱数発生パラメータ(行方向の乱数発
生系列を与える整数、列方向の乱数発生系列を与える整
数、乱数の発生個数)を受は取ることにより、対応する
モードで乱数を発生する。描画開始位置発生部7は発生
した乱数に応じて筆パターンの描画開始位置(Xs+ 
l ys )を決定する。
This drawing position information is first generated for the original image data R. The drawing start position generating section 7 is internally equipped with a random number generating means (not shown), and the random number generating means is, for example, a CPU.
1 to three random number generation parameters (an integer that gives a random number generation sequence in the row direction, an integer that gives a random number generation sequence in the column direction, and the number of random numbers to be generated), the receiver generates random numbers in the corresponding mode. The drawing start position generating unit 7 determines the drawing start position (Xs+
lys ).

尚、本実施例では乱数発生パラメータを原画像データG
及びBの処理を行うときも同一にしているので、その描
画位置及び描画個数も原画像データRのものと同一にな
る。
In this example, the random number generation parameter is set to the original image data G.
Since the processing of and B is the same, the drawing position and the number of drawings are also the same as those of the original image data R.

くステップS6> ステップS6では発生した描画位置にエッジパターンデ
ータが存在するか否かを判別し、描画位置にエツジパタ
ーンが無い(エツジデータ=0)ならステップS7以降
の大きな筆パターンデータで描画するルーチンへ進み、
また描画位置にエツジパターンが有る(エツジデータ=
1)ならステップSll以降の小さな筆パターンデータ
で描画するルーチンへ進む。これはエツジ部分の画像は
詳細に描画し、それ以外の部分は大まかに描画するため
である。
Step S6> In step S6, it is determined whether or not edge pattern data exists at the generated drawing position, and if there is no edge pattern at the drawing position (edge data = 0), a routine is performed to draw with large brush pattern data from step S7 onwards. Proceed to
There is also an edge pattern at the drawing position (edge data =
If 1), the routine proceeds to a drawing routine using small brush pattern data after step Sll. This is because the edge portion of the image is drawn in detail, and the other portions are drawn roughly.

一方、パターン選択部8はまずステップS6の判別に伴
って大きい筆パターンデータか小さい筆パターンデータ
かの選択を行う。何れの筆パターンデータも例えばO%
 n階調の多値画像データ(他の実施例では2値画像デ
ータ)で構成されており、実質的に複数種類用意されて
いる。本実施例では筆パターン回転部9内の不図示のR
OMに大きな筆パターンデータ(以下、多値と2値を総
称して単に筆パターンデータという)を1種類記憶して
おり、筆パターン選択部8内の不図示のROMに小さな
筆パターンデータな3種類記憶している。小さな筆パタ
ーンデータとしては原画像データのエツジ部分を適切に
描画できるように、円形に近い方向性の無いもの、縦方
向エツジに適する縦長のもの、横方向エツジに適する横
長のものが記憶されている。
On the other hand, the pattern selection unit 8 first selects large brush pattern data or small brush pattern data in accordance with the determination in step S6. For example, any brush pattern data is 0%
It is composed of multivalued image data of n gradations (binary image data in other embodiments), and substantially a plurality of types are prepared. In this embodiment, R (not shown) in the brush pattern rotating section 9
The OM stores one type of large brush pattern data (hereinafter, multi-value and binary are collectively referred to simply as brush pattern data), and the ROM (not shown) in the brush pattern selection section 8 stores three types of small brush pattern data. I remember the type. As small brush pattern data, in order to appropriately draw the edge portion of the original image data, a pattern that is close to a circle with no directionality, a vertically long pattern suitable for vertical edges, and a horizontally long pattern suitable for horizontal edges are stored. There is.

第6図(A)〜(D)には実施例の多値筆パターンデー
タの例を示す。第6図(A)は大きい筆パターンデータ
の例を、第6図(B)は無方向性の筆パターンデータの
例を、第6図(C)は縦長筆パターンデータの例を、第
6図(D)は横長筆パターンデータの例を夫々示してい
る。
FIGS. 6(A) to 6(D) show examples of multivalued brush pattern data of the embodiment. 6(A) shows an example of large brush pattern data, FIG. 6(B) shows an example of non-directional brush pattern data, FIG. 6(C) shows an example of vertically long brush pattern data, Figure (D) shows examples of horizontally long brush pattern data.

これらの筆パターンデータは、文字通り、大軍又は細筆
に絵の具を塗って紙に描いたような筆パターンデータ(
但し、実施例では形状を表わす無彩色)で構成されてい
る。即ち、出力画像に光線が照射される方向を加味する
と、それに応じて輝度の盛り上がり感、厚み感、あるい
は筆運びの方向に沿っての凹凸感等が現われ、かつその
パターン形状は終端部で尾を引いている。本実施例では
、かかる筆パターンデータの代表例を、例えば実際の絵
画サンプル画像から読み取り、若しくは画像処理により
生成して、予め筆パターンの盛り上がり形状等の輝度情
報として記憶しである。
These brush pattern data are, literally, brush pattern data (like drawing on paper by applying paint to large or fine brushes).
However, in the embodiment, it is composed of an achromatic color representing the shape. In other words, when the direction in which the light beam is irradiated is taken into consideration in the output image, a feeling of bulge in brightness, a feeling of thickness, or a feeling of unevenness along the direction of the brush stroke will appear accordingly, and the pattern shape will have a tail at the end. is subtracting. In this embodiment, a representative example of such brush pattern data is read from, for example, an actual painting sample image or generated by image processing, and is stored in advance as brightness information such as the raised shape of a brush pattern.

また第6図(E)〜(H)には他の実施例の2値筆パタ
ーンデータの例を示す。第6図(E)は大きい筆パター
ンデータの例を、第6図(F)は無方向性の筆パターン
データの例を、第6図(G)は縦長筆パターンデータの
例を、第6図(H)は横長筆パターンデータの例を夫々
示している。輝度の盛り上り情報がな無い他は多値筆パ
ターンデータの場合と同じである。
Further, FIGS. 6(E) to (H) show examples of binary brush pattern data of other embodiments. 6(E) shows an example of large brush pattern data, FIG. 6(F) shows an example of non-directional brush pattern data, FIG. 6(G) shows an example of vertically long brush pattern data, Figure (H) shows examples of horizontally long brush pattern data. This is the same as the multi-value brush pattern data except that there is no brightness rise information.

くステップS7> ステップS7は大きな筆パターンデータな使用するルー
チンへの入力である。ステップS7では、まず大きな筆
パターンデータの回転処理が終了しているか否かを判別
する。回転処理が終了している場合はステップS9に進
み、大きな筆パターンデータの描画処理を行う。また回
転処理が終了していない場合はステップS8に進み、筆
パターンデータの回転処理を行う。
Step S7> Step S7 is the input to a routine that uses large brush pattern data. In step S7, it is first determined whether the rotation process of the large brush pattern data has been completed. If the rotation process has been completed, the process advances to step S9, where large brush pattern data is drawn. If the rotation process has not been completed, the process advances to step S8, and the brush pattern data is rotated.

〈ステップS8〉 ステップS8では大きい筆パターンデータの回転処理を
行う。大きい筆パターンデータは予めROMに複数種類
記憶しておければアクセスが速い。しかし、本実施例で
はROMの容量を節約する目的から、1つの筆パターン
データを回転することで実質複数種類の筆パターンデー
タな用意するのと同等の効果を得ている。この回転処理
は筆パターン回転部9で行い、例えば筆パターンデータ
の基本位置を垂直方向とすると、該垂直方向から上20
de シーケンシャルに回転処理を行う。尚、回転範囲を上2
0de 向を考慮したものである。またこの範囲内なら照射する
光線の方向による影の効果を変えなくても実際上問題は
ない。
<Step S8> In step S8, rotation processing of large brush pattern data is performed. If multiple types of large brush pattern data are stored in the ROM in advance, access is quick. However, in this embodiment, for the purpose of saving the ROM capacity, by rotating one piece of brush pattern data, substantially the same effect as preparing a plurality of types of brush pattern data is obtained. This rotation process is performed by the brush pattern rotation unit 9. For example, if the basic position of the brush pattern data is the vertical direction,
de Perform rotation processing sequentially. In addition, the rotation range is upper 2
This takes the 0de direction into consideration. Moreover, within this range, there is no practical problem even if the shadow effect does not change depending on the direction of the irradiated light beam.

具体的には、回転処理した筆パターンデータの座標(K
,L)は(5)式に従って求める。
Specifically, the coordinates (K
, L) are determined according to equation (5).

ここで、 CI,J):入力筆パターンデータの座標( XO+ 
yo)  :回転の中心座標θ:回転角 ここで、回転角θはldegづつシーケンシャルに変化
するが、ステップS5で発生した描画位置はランダムで
あるから、結局原画像データR上にはランダムな位置に
ランダムな方向の筆パターンデータが現われたことにな
る。しかも、上20de 全体としてもある程度の方向性が残り、絵画特有の筆の
タッチ(癖)が表現可能である。
Here, CI, J): Coordinates of input brush pattern data (XO+
yo): Center coordinate of rotation θ: Rotation angle Here, the rotation angle θ changes sequentially by ldeg, but since the drawing position generated in step S5 is random, in the end there is a random position on the original image data R. This means that brush pattern data in random directions appears. Moreover, a certain degree of directionality remains in the upper 20de as a whole, and it is possible to express the brush strokes (habits) unique to paintings.

くステップS9> 描画部10はステップS5で発生した描画位置に大きい
筆パターンデータの描画を行う。
Step S9> The drawing unit 10 draws large brush pattern data at the drawing position generated in step S5.

第7図(A)は発生した描画開始位置(X,。FIG. 7(A) shows the generated drawing start position (X,).

ye=)と多値筆パターンデータの中心位置(xc 、
 yc )の関係を示す図である。即ち、第7図(A)
の関係になるように原画像データと多値筆パターンデー
タとの位置合せをし、具体的には、描画のための新たな
書込データC+(x’.y’)を(6)式に従って求め
る。
ye=) and the center position (xc,
yc ). That is, FIG. 7(A)
The original image data and the multivalued brush pattern data are aligned so that the relationship is as follows. Specifically, new writing data C+(x'.y') for drawing is created according to equation (6). demand.

C+  <x’,y ′) ここで、 i:R,G,B a r  (Xc 、yc )  :筆パターンデータ
の中心位置に対応する原画像データ P (x.y)ニアドレス(x.y)の多値筆パターン
データ n:筆パターンデータの階調数 (x’.y’)ニアドレス(x,y)に対応する原画像
データの位置 即ち、(6)式は多値筆パターンデータの中心位置に対
応する原画像データa r  ( Xc * V e 
)でもって当該筆パターンエリアの色(i=R。
C+ <x', y') Here, i: R, G, Bar (Xc, yc): Original image data P corresponding to the center position of the brush pattern data (x.y) Near address (x.y ) multi-value brush pattern data n: number of gradations of the brush pattern data (x'.y') position of the original image data corresponding to the near address (x, y), that is, equation (6) is the multi-value brush pattern data The original image data a r (Xc * V e
) and the color of the brush pattern area (i=R.

G,B)及び輝度を代表させており、その周囲を多値筆
パターンデータの絵の具の盛り上り情報P (x,y)
により変化を付けて描画している。
G, B) and brightness are represented, and the surrounding area is filled with paint swell information P (x, y) of multi-valued brush pattern data.
It is drawn with some changes.

尚、(6)式において(n−1)で割っているのは演算
結果を8ビツトにするためである。こうして(6)式の
演算は多値筆パターンデータP (x、y)の左上から
順に行い、多値筆パターンデータの1画素分に相当する
書き込みを行なうとステップS10に進む。
Note that the reason for dividing by (n-1) in equation (6) is to make the calculation result 8 bits. In this way, the calculation of equation (6) is performed sequentially from the upper left of the multi-value brush pattern data P (x, y), and when writing corresponding to one pixel of the multi-value brush pattern data is completed, the process advances to step S10.

第7図(B)は、他の実施例として、筆パターンデータ
が2値の場合を示している。この場合は上記(6)式は
(6)′式のように表わせる。
FIG. 7(B) shows a case where the brush pattern data is binary as another example. In this case, the above equation (6) can be expressed as equation (6)'.

C+(x’、y’) =P (x、y)Xa+  (xe 、yc )(6)
′ ここで、 P (x、y)ニアドレス(x、y)の2値筆パターン
データ 即ち、(6)′式では2値筆パターンデータの中心位置
に対応する原画像データa H(X e ryc)でも
って当該2値筆パターンエリアの色(i=R,G、B)
及び輝度を代表させ、その周囲のP (x、y)=1の
部分を前記の代表値により描画している。
C+ (x', y') = P (x, y) Xa+ (xe, yc) (6)
' Here, the binary brush pattern data of P (x, y) near address (x, y), that is, the original image data a H (X e ryc) and the color of the binary brush pattern area (i=R, G, B)
and brightness are representative, and the surrounding area of P (x, y)=1 is drawn using the representative values described above.

尚、上述の実施例では原画像データa、(xc、yc)
を抽出してその周囲に多値又は2値による筆パターンデ
ータP (x、y)の描画を行ったがこれに限らない。
Note that in the above embodiment, the original image data a, (xc, yc)
is extracted and multivalued or binary brush pattern data P (x, y) is drawn around it, but the invention is not limited to this.

他にも原画像データal  (Xe 、 yc )の周
囲の平均値を用いたり、多値筆パターンデータP (x
、y)が所定値以上又は2値筆パターンデータP (x
、y)が“1”である位置と一致する原画像データの平
均値を用いたり、あるいはそれらの原画像データの最大
値又は最小値を用いても良い。
In addition, the average value around the original image data al (Xe, yc) is used, or the multivalued brush pattern data P (x
, y) is greater than or equal to a predetermined value or the binary brush pattern data P (x
, y) may be used, or the maximum value or minimum value of the original image data may be used.

くステップS10〉 筆パターンデータの全画素について描画終了したか否か
を判断し、描画終了していない間はステップS6へ戻る
。従って、もし大きな筆パターンデータの描画途中でエ
ツジデータに遭遇すると大きい筆パターンデータの描画
をその時点で終了し、ステップSll以降の小さな筆パ
ターンデータの描画処理に進む。エツジ部分の描画は他
に優先するからである。
Step S10> It is determined whether drawing has been completed for all pixels of the brush pattern data, and if the drawing has not been completed, the process returns to step S6. Therefore, if edge data is encountered during drawing of large brush pattern data, drawing of the large brush pattern data is ended at that point, and the process proceeds to drawing processing of small brush pattern data from step Sll onwards. This is because drawing of edge portions takes priority over other drawings.

〈ステップS11〉 エツジ方向検出部11はイメージメモリ15の下位1ビ
ツトに記録されているエツジデータの方向を検出し、こ
れに応じて筆パターンデータ選択部8は検出方向に適し
た筆パターンデータを選択する。エツジ方向の検出は、
例えば第8図又は第9図のような1次元オペレータとエ
ツジデータの論理積を夫々求め、結果が真となる画素数
を縦方向と横方向とで比較し、その差がある値よりも大
きい時は画素数の大きい方向がエツジ方向と判断する。
<Step S11> The edge direction detection section 11 detects the direction of the edge data recorded in the lower 1 bit of the image memory 15, and in accordance with this, the brush pattern data selection section 8 selects the brush pattern data suitable for the detected direction. do. Edge direction detection is
For example, calculate the AND of the one-dimensional operator and edge data as shown in Figure 8 or Figure 9, compare the number of pixels for which the result is true in the vertical and horizontal directions, and if the difference is greater than a certain value. The direction with the largest number of pixels is determined to be the edge direction.

具体的には、エツジ方向信号Sは(7)式に従って求め
られる。
Specifically, the edge direction signal S is obtained according to equation (7).

S=F (T (x、y)nE (x、y))−F (
Y (x、y) nE (x、y))ここで、 E (x、y):エツジデータ T (x、y):縦方向オペレータ Y (x、y):横方向オペレータ F() :論理積が真となる画素数を 算出する関数 筆パターンデータ選択部8はこのエツジ方向信号Sに基
づき、dを所定数として、−d≦S≦dなら「丸パター
ンJ、S<−dなら「横長パターンJ、d<Sなら「縦
長パターン」を選択する。
S=F (T (x, y) nE (x, y)) − F (
Y (x, y) nE (x, y)) Here, E (x, y): Edge data T (x, y): Vertical operator Y (x, y): Horizontal operator F(): Logical product Based on this edge direction signal S, the functional brush pattern data selection unit 8 that calculates the number of pixels for which is true, sets d to a predetermined number, and if -d≦S≦d, it selects "circle pattern J," and if S<-d, it selects "horizontal pattern J." If pattern J, d<S, select "vertical pattern".

くステップ$12〉 描画部10はステップSllで選択した筆パターンデー
タの描画を行う、これにより、エツジ部分は小さい筆パ
ターンデータ又は細長い筆ノ\ターンデータにより方向
性に沿うて描かれるのでシャープな絵画的表現を行える
Step $12> The drawing unit 10 draws the brush pattern data selected in step Sll. As a result, the edge portion is drawn along the direction using small brush pattern data or elongated brush stroke/turn data, so it is sharp. Can perform pictorial expressions.

くステップS13〉 小さい筆パターンデータの全画素について描画終了して
いるか否かを判断する。終了してし)なければステップ
S12に戻り、終了していればステップS14に進む。
Step S13> It is determined whether drawing has been completed for all pixels of the small brush pattern data. If the process has not been completed, the process returns to step S12; if it has been completed, the process proceeds to step S14.

くステップS14> CPU 1はランダムに発生した設定個数分の描画処理
を行ったか否かを判別する。設定個数分終了していない
場合はステップS5に戻り、また終了した場合はステッ
プS15へ進む。
Step S14> The CPU 1 determines whether drawing processing has been performed for a set number of randomly generated drawings. If the set number of items has not been completed, the process returns to step S5, and if the process has been completed, the process proceeds to step S15.

〈ステップS15〉 CPU1は画像データR,G、Bの3面について描画処
理終了したか否かを判別する。終了していなければステ
ップSS5に戻り、残りの面の処理を開始する。また全
ての面の描画処理が終了していればステップS16へ進
む。
<Step S15> The CPU 1 determines whether or not the drawing process has been completed for the three sides of the image data R, G, and B. If the processing has not been completed, the process returns to step SS5 to start processing the remaining surfaces. If the drawing process for all surfaces has been completed, the process advances to step S16.

くステップS16〉 CPU lは、LUT21〜23の内容を書き換え、描
画終了した画像データR,G、Bの階調変換を行う。第
10図はLUT21〜23のテーブル変換特性の一例を
示す図である。図において、横軸は描画終了した画像デ
ータR,G、Bの入力階調O〜255を示している。但
し、描画終了した画像データR,G、Bの下位4ビツト
データはステップS2の処理で失われているので意味が
無い。しかし縦軸の出力階調は丁度下位5ビツトを無視
した関係になっており、従って描画終了した画像データ
R,G、Bの階調変換を適正に行える。LU721〜2
3により階調変換された画像データR,G、Bは再びイ
メージメモリ14〜16に記憶される。この処理はメモ
リブレーン単位で行うので高速に実行できる。
Step S16> The CPU 1 rewrites the contents of the LUTs 21 to 23 and performs gradation conversion of the image data R, G, and B for which drawing has been completed. FIG. 10 is a diagram showing an example of table conversion characteristics of LUTs 21 to 23. In the figure, the horizontal axis indicates the input gradations O to 255 of the image data R, G, and B that have been rendered. However, the lower 4-bit data of the image data R, G, and B for which drawing has been completed is meaningless because it is lost in the process of step S2. However, the output gradation on the vertical axis is in a relationship in which the lower 5 bits are ignored, so that the gradation conversion of image data R, G, and B after drawing can be performed appropriately. LU721-2
The image data R, G, and B that have been gradation-converted by Step 3 are stored in the image memories 14 to 16 again. This processing is performed in memory brain units, so it can be executed at high speed.

くステップS17〉 最後にテクスチュアメモリ17のキャンパス画像データ
とイメージメモリ14〜16の画像データを合成する。
Step S17> Finally, the canvas image data in the texture memory 17 and the image data in the image memories 14 to 16 are combined.

具体的には、合成後の画像データGI (x、y)は(
8)式に従って求める。
Specifically, the image data GI (x, y) after composition is (
8) Obtain according to the formula.

Gム (x、y) =aAt  (x、y)+bT  (x、y)ここで、 a%b:定数 かつ a+b=1 i:R,G、B A+  (x、y):イメージメモリ14〜16の画像
データ T (x、y):テクスチュアメモリ17の画像データ 尚、テクスチュアメモリ17には予め(bxT (x、
y))を格納して置くことが可能である。また(aXA
五 (x、y))の演算は、例えば第11図の変換テー
ブルをLUT21〜23に書き込むことで容易に行える
。そして2つの画像データの加算は各メモリブレーンR
,G。
Gmu (x, y) = aAt (x, y) + bT (x, y) where a%b: constant and a+b=1 i: R, G, B A+ (x, y): image memory 14~ 16 image data T (x, y): image data in texture memory 17 Note that (bxT (x, y)) is stored in texture memory 17 in advance.
y)) can be stored. Also (aXA
The calculation (x, y)) can be easily performed, for example, by writing the conversion table shown in FIG. 11 into the LUTs 21-23. The addition of two image data is performed by each memory brain R.
,G.

B全体で行えるのでステップS17の処理もリアルタイ
ムで実行される。
Since the process can be performed in the entire B, the process in step S17 is also executed in real time.

尚、上述実施例の説明では描画処理を全てデジタル演算
により行ったがこれに限らない。
Incidentally, in the description of the above-mentioned embodiment, all the drawing processing was performed by digital calculation, but the present invention is not limited to this.

例えばロボットに幾種類かの実物の筆を持たせておき、
かつ上記ランダムに発生した描画位置に、上記選択した
又は回転角を与えた筆パターンデータな描かせても良い
For example, a robot can be equipped with several types of real brushes,
In addition, the brush pattern data with the selected or rotational angle may be drawn at the randomly generated drawing position.

また上述実施例ではエツジの有無及びエツジの方向性に
応じて筆パターンデータを選択しているがこれに限らな
い。例えば原画像データの空間周波数成分を解析して筆
パターンデータを選択しても良い。
Further, in the above embodiment, the brush pattern data is selected depending on the presence or absence of an edge and the direction of the edge, but the present invention is not limited to this. For example, the brush pattern data may be selected by analyzing the spatial frequency components of the original image data.

また上述実施例ではエツジ抽出には3×3画素の微分オ
ペレータを用いたがこれに限らない。
Further, in the above embodiment, a 3×3 pixel differential operator is used for edge extraction, but the present invention is not limited to this.

例えば原画像の画素サイズ、筆パターンデータのサイズ
等に応じて微分オペレータの大きさや、内容を変更でき
るようにしても良い。
For example, the size and contents of the differential operator may be changed depending on the pixel size of the original image, the size of the brush pattern data, etc.

[発明の効果] 以上述べた如く本発明によれば、例えば画素当りnビッ
トの画像処理終了後は記憶手段のn−mビット分以下を
ワークエリアとして使用するので、メモリの節約となり
、ひいては装置のコストダウンが行える。
[Effects of the Invention] As described above, according to the present invention, for example, after image processing of n bits per pixel is completed, less than n-m bits of the storage means is used as a work area, which saves memory and further improves device efficiency. can reduce costs.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による実施例の画像処理装置のブロック
構成図、 第2図は実施例の絵画化処理手順のフローチャート、 第3図は実施例のLUT21〜23の初期状態における
階調変換テーブル特性の一例を示す図、 第4図は実施例で採用した微分オペレータの一例を示す
図、 第5図は第4図の微分オペレータを左回りにπ/4回転
させた場合の微分オペレータを示す図、 第6図(A)〜(D)は実施例の多値筆パターンデータ
の例を示す図、 第6図(E)〜(H)は他の実施例の2値筆パターンデ
ータの例を示す図、 第7図(A)、(B)は描画開始位置(xm。 y、、)と選択した筆パターンデータの中心位置(xc
 、 yc )との関係を示す図、第8図は実施例の縦
方向エツジ検出用オペレータの一例を示す図、 第9図は実施例の横方向エツジ検出用オペレータの一例
を示す図、 第1O図は実施例のLUT21〜23の階調変換テーブ
ル特性の一例を示す図、 第11図はテクスチュア画像合成の際の一例のLUT変
換特性を示す図である。 図中、1・・・CPU、2・・・CPUメモリ、3・・
・CPUバス、4・・・エツジ検出部、5・・・太線化
処理部、6・・・ごみ処理部、7・・・描画開始位置発
生部、8・・・筆パターンデータ選択部、9・・・筆パ
ターンデータ回転部、10・・・描画部、11・・・エ
ツジ方向検出部、12・・・画像合成部、13・・・イ
メージメモリコントローラ、14〜20・・・画像メモ
リ、21〜23・・・LUT、24・・・ビデオバス、
25・・・ビデオコントローラ、26・・・画像データ
I10である。 入772J訓 第3図 第4図 第5図 (A)      (B)    (C)    (D
)大さ〜X筆パクーソ   rJ向・1ifjL   
K長    オ黄長(E)      (F)    
(G)    (H)第6図 (A) 第7図 第8図 (B) 第9図
FIG. 1 is a block configuration diagram of an image processing apparatus according to an embodiment of the present invention, FIG. 2 is a flowchart of a painting processing procedure of the embodiment, and FIG. 3 is a gradation conversion table in the initial state of LUTs 21 to 23 of the embodiment. Figure 4 is a diagram showing an example of the characteristics. Figure 4 is a diagram showing an example of the differential operator employed in the example. Figure 5 is the differential operator when the differential operator in Figure 4 is rotated counterclockwise by π/4. Figures 6(A) to 6(D) are diagrams showing examples of multivalued brush pattern data of the embodiment, and Figures 6(E) to 6(H) are examples of binary brush pattern data of other embodiments. Figures 7 (A) and (B) show the drawing start position (xm, y,,) and the center position (xc, y, ) of the selected brush pattern data
, yc), FIG. 8 is a diagram showing an example of an operator for detecting edges in the vertical direction according to the embodiment, FIG. The figure shows an example of the tone conversion table characteristics of the LUTs 21 to 23 in the embodiment, and FIG. 11 shows the LUT conversion characteristics of an example when synthesizing a texture image. In the figure, 1... CPU, 2... CPU memory, 3...
・CPU bus, 4... Edge detection section, 5... Thick line processing section, 6... Dust processing section, 7... Drawing start position generation section, 8... Brush pattern data selection section, 9 ... Brush pattern data rotation section, 10... Drawing section, 11... Edge direction detection section, 12... Image composition section, 13... Image memory controller, 14-20... Image memory, 21-23...LUT, 24...video bus,
25... Video controller, 26... Image data I10. 772J Precepts Figure 3 Figure 4 Figure 5 (A) (B) (C) (D
) Size ~ X brush Pacuso for rJ/1ifjL
K length O yellow length (E) (F)
(G) (H) Figure 6 (A) Figure 7 Figure 8 (B) Figure 9

Claims (1)

【特許請求の範囲】 画素当りnビットの画像データを前記nより小さいmビ
ットの画像データに階調変換して出力する画像処理装置
において、 画素当りnビットの画像データを記憶する記憶手段と、 前記記憶手段のn−mビット分以下をワークエリアとし
て使用する処理手段と、 前記記憶手段の残りのビット分をmビットの画像データ
に階調変換する階調変換手段を備えることを特徴とする
画像処理装置。
[Scope of Claims] An image processing device that converts image data of n bits per pixel into image data of m bits smaller than n and outputs the tone-converted image data, comprising: a storage means for storing image data of n bits per pixel; The image forming apparatus is characterized by comprising a processing means for using n-m bits or less of the storage means as a work area, and a gradation conversion means for converting the gradation of the remaining bits of the storage means into m-bit image data. Image processing device.
JP63044443A 1988-02-29 1988-02-29 Image processor Pending JPH01219964A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP63044443A JPH01219964A (en) 1988-02-29 1988-02-29 Image processor
US07/630,797 US5038223A (en) 1988-02-29 1990-12-24 Image processing method and apparatus for imparting a pictorial or painter-like effect

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63044443A JPH01219964A (en) 1988-02-29 1988-02-29 Image processor

Publications (1)

Publication Number Publication Date
JPH01219964A true JPH01219964A (en) 1989-09-01

Family

ID=12691630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63044443A Pending JPH01219964A (en) 1988-02-29 1988-02-29 Image processor

Country Status (1)

Country Link
JP (1) JPH01219964A (en)

Similar Documents

Publication Publication Date Title
US5038223A (en) Image processing method and apparatus for imparting a pictorial or painter-like effect
US5164717A (en) Method and apparatus for the dithering of antialiased vectors
JPH06113155A (en) Color-space filtering device
JPH06309425A (en) Equipment and method for graphic display
US5237650A (en) Method and apparatus for spatial anti-aliased depth cueing
JPH04507314A (en) Image digital signal conversion device and method
US5442717A (en) Sharpness processing apparatus
JP2922520B2 (en) Image processing method
JP3174342B2 (en) Multi-level to binary level raster shape converter
JP4429558B2 (en) Image display method and apparatus
US6765588B2 (en) Multisample dithering with shuffle tables
JPH01219964A (en) Image processor
JPH01219965A (en) Method and device for processing image
JP2004135269A (en) Electronic color dropout utilizing spatial context to enhance accuracy
JP2690492B2 (en) Image processing device
JPH01219962A (en) Method and device for processing image
JPH0296879A (en) Picture processor
JPH06124343A (en) Method and device for determining limited color
JPH0822556A (en) Texture mapping device
JP3255549B2 (en) Figure processing method
JP2941829B2 (en) Image processing method
JPH1074248A (en) Color reduction device and color reduction method
JPH0737059A (en) Method for displaying image with reduced number of colors
JP3633016B2 (en) Image processing device
CA2020312C (en) Method and apparatus for spatial anti-aliased depth cueing