JPH01219962A - Method and device for processing image - Google Patents

Method and device for processing image

Info

Publication number
JPH01219962A
JPH01219962A JP4444188A JP4444188A JPH01219962A JP H01219962 A JPH01219962 A JP H01219962A JP 4444188 A JP4444188 A JP 4444188A JP 4444188 A JP4444188 A JP 4444188A JP H01219962 A JPH01219962 A JP H01219962A
Authority
JP
Japan
Prior art keywords
image data
data
brush pattern
image
pattern data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4444188A
Other languages
Japanese (ja)
Inventor
Shigeki Yamada
茂樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP4444188A priority Critical patent/JPH01219962A/en
Publication of JPH01219962A publication Critical patent/JPH01219962A/en
Priority to US07/630,797 priority patent/US5038223A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To convert original image data of a flat effect of a photograph, etc., to aesthetic image data of a picture touch by replacing image data of a partial area with image data derived from the original image data in its area and each prescribed gradation data. CONSTITUTION:A CPU 1 inputs original image data through an image data I/O 26 and stores it in image memories 14-16. An edge detecting part 4 executes an extraction of an edge part, based on the original image data of the image memories 14-16. Based on a result of detection as to whether this edge exists or not, a brush pattern selecting part 8 selects small multivalued brush pattern data stored in advance in a ROM or large multivalued brush pattern data in a brush pattern rotating part 9, and a picture drawing part 10 brings this brush pattern data to picture drawing. An image synthesizing part 12 synthesizes further a texture image against the image data.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は画像処理方法及びその装置に関し、例えば写真
等の平坦な感じの原画像データを絵画タッチの美的画像
データに変換する画像処理方法及びその装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an image processing method and an apparatus thereof, and for example, an image processing method and apparatus for converting flat original image data such as a photograph into aesthetic image data with a painterly feel. Regarding the device.

[従来の技術] 従来、画像処理技術を応用して美的画像を作り出す例と
してモザイク処理がある。これは、例えばX方向及びY
方向に各5画素の合計25画素をブロック単位として画
像のモザイク処理をするものであり、具体的には、アド
レス(x、y)の原画像データをa (x、y)とする
と、モザイク処理後の画像データa′ (x、y)は(
1)式によって求まる。
[Prior Art] Conventionally, mosaic processing is an example of creating an aesthetic image by applying image processing technology. This can be done, for example, in the X direction and in the Y direction.
Image mosaic processing is performed using blocks of 5 pixels in each direction, totaling 25 pixels. Specifically, if the original image data at address (x, y) is a (x, y), then mosaic processing is performed. The subsequent image data a' (x, y) is (
1) Determined by the formula.

a′ (5m−i、5n  j) =a  (5m−3,5n−3) ここで、 i、j=画素番号(1,2,3,4,5)m、nニブロ
ック番号(1,2,3,・・・)即ち、上記(1)式で
は各ブロック内の中心画素データa (5m−3,5n
−3)が代表値となっており、当該ブロック内の全画素
データa ’  (5m−i、5n−j)を前記代表値
で置き替えてモザイク化処理している。尚、この代表値
は中心画素データに限らずブロック内のどの画素データ
で代表しても良い。またブロック内平均値を採用する場
合もある。
a' (5m-i, 5n j) = a (5m-3, 5n-3) where, i, j = pixel number (1, 2, 3, 4, 5) m, n block number (1, 2, 3, ...) That is, in the above equation (1), the center pixel data a (5m-3, 5n
-3) is the representative value, and all pixel data a' (5m-i, 5n-j) in the block is replaced with the representative value for mosaic processing. Note that this representative value is not limited to the center pixel data, but may be represented by any pixel data within the block. In some cases, the average value within a block may be used.

またモザイク処理の絵画的表現への応用としては特開昭
62−179059号、特開昭62−179060号及
び特開昭62−179061号がある。これらは、ラン
ダム関数により前記モザイクパターンをランダム位置に
発生させ、あるいは原画像データのコントラストや空間
周波数特性に応じてモザイクパターンの大きさを変化さ
せるものである。
Furthermore, as an application of mosaic processing to pictorial expression, there are Japanese Patent Application Laid-open Nos. 179059/1982, 179060/1982, and 179061/1982. These generate the mosaic pattern at random positions using a random function, or change the size of the mosaic pattern according to the contrast or spatial frequency characteristics of the original image data.

[発明が解決しようとしている課題] しかし、従来のモザイクパターンは“O”又は”l”の
2値データで表現されていた。このため、例えば絵の具
のむら、絵の具の盛り上がり等を表現できず、また平坦
な印象の絵しか得られず、高度の画像変換を行うことが
できなかった。
[Problems to be Solved by the Invention] However, conventional mosaic patterns have been expressed using binary data of "O" or "l". For this reason, it is not possible to express, for example, unevenness of paint, swells of paint, etc., and only a flat impression can be obtained, making it impossible to perform high-level image conversion.

本発明は上述した従来技術の欠点を除去するものであり
、その目的とする所は、更に高度の画像変換を行う画像
処理方法及びその装置を提供することにある。
The present invention is intended to eliminate the above-mentioned drawbacks of the prior art, and its purpose is to provide an image processing method and apparatus for performing more advanced image conversion.

本発明の他の目的は、こりアルな筆タッチを表現できる
画像処理装置を提供することにある。
Another object of the present invention is to provide an image processing device that can express a stiff brush touch.

[課題を解決するための手段] 本発明の画像処理方法は上記の課題を達成するために、
原画像の少なくとも一部の領域の画像データを該領域内
の原画像データと所定の多階調データとから求めた画像
データで置き替えることをその概要とする。
[Means for Solving the Problems] In order to achieve the above problems, the image processing method of the present invention has the following features:
The general idea is to replace image data in at least a part of the area of the original image with image data obtained from the original image data in the area and predetermined multi-tone data.

また本発明の画像処理方法は上記の課題を達成するため
に、原画像の少なくとも一部の領域の画像データを該領
域内の原画像データと所定の多階調データとの積によっ
て求めた画像データで置き替えることをその概要とする
Furthermore, in order to achieve the above-mentioned object, the image processing method of the present invention obtains an image obtained by multiplying the image data of at least a part of the area of the original image by the product of the original image data in the area and predetermined multi-tone data. The outline is to replace it with data.

また本発明の画像処理装置は上記の課題を達成するため
に、原画像データを記憶する第1の記憶手段と、多階調
表現の筆パターンデータを記憶する第2の記憶手段と、
前記第1の記憶手段の原画像データの一部又は全部に対
して前記第2の記憶手段の筆パターンデータな合成する
画像合成手段を備えることをその概要とする。
Further, in order to achieve the above-mentioned object, the image processing device of the present invention includes a first storage means for storing original image data, a second storage means for storing multi-gradation brush pattern data,
The outline of the present invention is to include an image synthesizing means for synthesizing part or all of the original image data of the first memory means with the brush pattern data of the second memory means.

[作用] かかる構成において、第1の記憶手段は例えば写真画像
等の原画像データを記憶する。一方、第2の記憶手段は
予め多階調表現の筆パターンデータな記憶している。画
像合成手段は前記第1の記憶手段の原画像データの一部
又は全部に対して前記第2の記憶手段の筆パターンデー
タを合成する。これにより原画像データには筆パターン
データによる絵の具の盛り上り情報等が加味され、リア
ルな筆タッチの絵画的表現が可能になる。
[Function] In this configuration, the first storage means stores original image data such as a photographic image. On the other hand, the second storage means previously stores multi-gradation brush pattern data. The image synthesis means synthesizes the brush pattern data of the second storage means with part or all of the original image data of the first storage means. As a result, the original image data is added with information such as the rise of paint based on the brush pattern data, making it possible to create a painterly expression with a realistic brush touch.

[実施例の説明] 以下、添付図面に従って本発明の実施例を詳細に説明す
る。
[Description of Embodiments] Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

第1図は本発明による実施例の画像処理装置のブロック
構成図である。図において、lはコントロールプロセッ
サユニット(CPU)であり、本実施例装置の主制御を
行う。2はCPUメモリであり、前記CPtJ1が実行
する例えば第2図の絵画化処理プログラム及び該処理に
必要なパラメータ等を不図示のROM又はRAM内に記
憶している。3はCPUバスであり、CPU 1のアド
レスバス、データバス及び制御バスから成る。
FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. In the figure, l is a control processor unit (CPU) that performs main control of the apparatus of this embodiment. Reference numeral 2 denotes a CPU memory, which stores, for example, the pictorial processing program shown in FIG. 2, which is executed by the CPtJ1, and parameters necessary for the processing, in a ROM or RAM (not shown). 3 is a CPU bus, which consists of an address bus, a data bus, and a control bus for the CPU 1.

26は画像データI10であり、これに不図示の画像読
取装置又は画像出力装置を接続することで絵画化処理前
後の画像データの入出力を行える。14〜16は画素当
り8ビツトのイメージメモリであり、前記画像データl
1026を介して読み込んだR(赤)、G(緑)、B(
青)の3原色の原画像データを夫々記憶する6 17は
同じく画素当り8ビツトのテクスチュアメモリであり、
例えば油絵で使用するようなキャンバス(編目模様)の
画像データを記憶する。19は画素当り8ビツトのワー
クメモリであり、前記イメージメモリ14〜16の画像
データについて行なった演算処理結果を一時的に記憶す
る。2oは画素当り16ビツトの16ビツトメモリであ
り、同じくイメージメモリ14〜16の画像データにつ
いて行なった積和結果等を一時的に記憶する。
Reference numeral 26 denotes image data I10, and by connecting an image reading device or an image output device (not shown) to this, it is possible to input and output the image data before and after the painting process. 14 to 16 are image memories of 8 bits per pixel, which store the image data l.
R (red), G (green), B (
Reference numeral 617 is a texture memory with 8 bits per pixel, which stores the original image data of the three primary colors (blue), respectively.
For example, image data of a canvas (knit pattern) used in oil painting is stored. Reference numeral 19 denotes a work memory of 8 bits per pixel, which temporarily stores the results of arithmetic processing performed on the image data in the image memories 14 to 16. Reference numeral 2o is a 16-bit memory with 16 bits per pixel, which temporarily stores the product-sum results etc. performed on the image data of the image memories 14-16.

21〜23は高速度RAMから成るルックアップテーブ
ル(LUT)であり、CPU1により階調変換テーブル
を書き変え可能な各256X8ビツトの記憶容量を持つ
。該LUT21〜23のアドレスラインは各8本(0〜
255番地)であり、アドレスデータは夫々イメージメ
モリ14〜16出力の画像データ(O〜255階調)に
よって与えられる。一方、各LUT21〜23の読出デ
ータラインは各8本で構成され、これらはビデオ/”C
ス24に接続されている。また各LUT21〜23には
CPUバス3が直接接続されており、これを介してCP
U1はLUT21〜23の内容をいつでも読み書きでき
る。25はビデオコントローラであり、これに不図示の
CRT表示装置又はビデオプリンタ等を接続することで
絵画化処理前後の画像データをモニタリングできる。
Reference numerals 21 to 23 are look-up tables (LUTs) made of high-speed RAM, each having a storage capacity of 256×8 bits, allowing the CPU 1 to rewrite the gradation conversion table. Each of the LUTs 21 to 23 has eight address lines (0 to 23).
255 address), and the address data is given by image data (0 to 255 gradations) output from the image memories 14 to 16, respectively. On the other hand, the read data lines of each LUT 21 to 23 are composed of eight lines, and these are video/"C
24. In addition, the CPU bus 3 is directly connected to each LUT 21 to 23, and the CPU
U1 can read and write the contents of LUTs 21 to 23 at any time. Reference numeral 25 denotes a video controller, and by connecting a CRT display device or a video printer (not shown) to this controller, image data before and after the painting process can be monitored.

4はエツジ検出部であり、前記イメージメモリ14〜1
6中の各画像データを色合成したイメージデータから原
画像中のエツジ部分を検出し、これを2値化して、結果
の2値化エツジデータを出力する。これは原画像データ
中のエツジ部分(コントラスト部分)と平坦部分とで発
生させる筆パターンの性質及び形状を異ならしめるため
である。5は太線化処理部であり、エツジ検出部4出力
の2値化エツジデータに対してパターンの太線化処理を
行う。6はごみ処理部であり、太線化処理した太線化パ
ターン中から、孤立した面積の小さい雑音パターンを取
り除き、必要なエツジパターン部分だけを残す。11は
エツジ方向検出部であり、検出したエツジ部分の方向性
有無及びその方向を検出することにより、後述する筆パ
ターン選択部8ににおける適正な筆パターンの選択を可
能ならしめる。7は描画位置発生部であり、不図示のラ
ンダム関数発生手段を備え、後述する筆パターンデータ
の描画位置がランダムになるように発生する。8は筆パ
ターン選択部であり、あらかじめ不図示のROM中に複
数種の小さい多値(又は2値)の筆パターンデータを格
納しており、該複数の筆パターンデータの中から、ある
いは後述する筆パターン回転部9中の不図示のROM内
に格納されていて、かつ順次パターン回転処理により生
成される多値(又は2値)の大きい筆パターンデータを
前記のエツジ有無等の検出結果に基づき選択する。9は
筆パターン回転部であり、本実施例では不図示のROM
内に単一の大きな多値(又は2値)の基本筆パターンデ
ータを記憶しておき、該基本筆パターンに対してシーケ
ンシャルに回転効果を与えることにより、実質複数種の
筆パターンデータを発生する。10は描画部であり、原
画像データ上の前記ランダムに発生した描画位置におい
て前記筆パターン選択部8が選択した筆パターンデータ
な描画(合成)する。即ち、例えば筆パターンデータが
多値で構成される例では、発生した描画位置の近傍の原
画像データをあたかもその色の絵の真筆で描いたような
凹凸状、光沢状の画像データに変換する。12は画像合
成部であり、描画処理終了した画像データに対して更に
キャンパス等のテクスチュア画像を合成する。13はイ
メージメモリコントローラであり、前記エツジ検出部4
から画像合成部12までの各部が夫々の処理を行うとき
に同期してイメージメモリ14〜16及びLU721〜
23の必要な制御を行う。
4 is an edge detection section, and the image memories 14 to 1
Edge portions in the original image are detected from the image data obtained by color-compositing each image data in 6, binarized, and the resulting binarized edge data is output. This is to make the properties and shapes of brush patterns generated different between edge portions (contrast portions) and flat portions in the original image data. Reference numeral 5 denotes a thick line processing section, which performs pattern thick line processing on the binary edge data output from the edge detection section 4. Reference numeral 6 denotes a garbage processing section, which removes isolated noise patterns with small areas from the thick line pattern that has been subjected to the thick line processing, and leaves only the necessary edge pattern portions. Reference numeral 11 denotes an edge direction detection section, which enables a brush pattern selection section 8 to be described later to select an appropriate brush pattern by detecting the presence or absence of directionality of the detected edge portion and its direction. Reference numeral 7 denotes a drawing position generating section, which includes a random function generating means (not shown), and generates a drawing position of brush pattern data to be described later at random. Reference numeral 8 denotes a brush pattern selection section, which stores a plurality of types of small multi-valued (or binary) brush pattern data in advance in a ROM (not shown), and selects from among the plurality of brush pattern data or as described later. The large multivalued (or binary) brush pattern data stored in the ROM (not shown) in the brush pattern rotation unit 9 and sequentially generated by pattern rotation processing is processed based on the detection results of the presence or absence of edges, etc. select. Reference numeral 9 denotes a brush pattern rotation unit, which is a ROM (not shown) in this embodiment.
By storing a single large multivalued (or binary) basic brush pattern data in the computer and sequentially applying a rotation effect to the basic brush pattern, multiple types of brush pattern data can be generated. . A drawing section 10 draws (synthesizes) the brush pattern data selected by the brush pattern selection section 8 at the randomly generated drawing positions on the original image data. That is, for example, in an example where the brush pattern data is composed of multiple values, the original image data in the vicinity of the generated drawing position is converted into uneven, glossy image data that looks as if it were drawn with a real brush of that color. . Reference numeral 12 denotes an image synthesis section, which further synthesizes a texture image such as a canvas on the image data for which drawing processing has been completed. 13 is an image memory controller, and the edge detection section 4
The image memories 14 to 16 and the LU 721 to
Performs 23 necessary controls.

第2図は実施例の絵画化処理手順のフローチャートであ
る。尚、以下の説明ではアドレス(x、y)の原画像(
濃度)データをai  (x。
FIG. 2 is a flowchart of the pictorial processing procedure of the embodiment. In the following explanation, the original image at address (x, y) (
concentration) data ai (x.

y)で表わす。但し、添え字iはR,G、Bの画像デー
タを個々に表わすときは夫々R,G、Bと記す。更に画
像データal  (x、y)は8ビツト(O〜255階
調表現可能)であり、最大濃度データ(最も暗いデータ
)の値を階調Oとし、最小濃度データ(最も明るいデー
タ)の値を階調255とする。
y). However, when the subscript i represents R, G, and B image data individually, it is written as R, G, and B, respectively. Furthermore, the image data al (x, y) is 8 bits (0 to 255 gradations can be expressed), the value of maximum density data (darkest data) is set to gradation O, and the value of minimum density data (brightest data) is is the gradation level 255.

〈ステップSl> CPUIは画像データl1026を介して外部から原画
像データR,G、Bを取り込み、夫々をイメージメモリ
14〜16に格納する。
<Step Sl> The CPUI takes in original image data R, G, and B from the outside via the image data l1026, and stores them in the image memories 14 to 16, respectively.

尚、この時点ではLUT21〜23の内容は第3図に示
すように入出力が等しい標準変換特性にある。
At this point, the contents of the LUTs 21 to 23 have standard conversion characteristics in which input and output are equal, as shown in FIG.

〈ステップS2> エツジ検出部4はイメージメモリ14〜16の原画像デ
ータR,G、Bに基づいてエツジ部分の抽出を行う。こ
のエツジ抽出処理は、まず(2)式に従って人間の視感
度曲線に合った画像データを作成する。
<Step S2> The edge detection unit 4 extracts edge portions based on the original image data R, G, and B in the image memories 14 to 16. In this edge extraction process, first, image data matching the human visibility curve is created according to equation (2).

a (x、y) =−(3aR(x、y)+6 aa(x、y)+ aa
(x、y))上記(2)式では原画像データR,G、B
を0.3:0.6:0.1の比で合成している。
a (x, y) = - (3aR (x, y) + 6 aa (x, y) + aa
(x, y)) In the above equation (2), the original image data R, G, B
were synthesized at a ratio of 0.3:0.6:0.1.

絵画は目で鑑賞するものであるから、まず原画像データ
を人間の視感度曲線に合わせて合成し、エツジ評価をす
る。またその際に、右辺の()内の積和計算を行うため
に各積和結果を一時的に16ビツトメモリ20に格納す
る。そして()内の積和結果をl/IOL、た内容はワ
ークメモリー9に格納される。
Since paintings are meant to be appreciated with the eyes, the original image data is first synthesized according to the human visual sensitivity curve, and edges are evaluated. At this time, each product-sum result is temporarily stored in the 16-bit memory 20 in order to perform the product-sum calculation in parentheses on the right side. The product-sum result in parentheses (l/IOL) is then stored in the work memory 9.

次にワークメモリー9の画像データに対して例えば(3
X3)マトリクスの微分オペレータを用いてエツジ抽出
処理を行う。第4図に本実施例で採用した微分オペレー
タの一例を示す。この微分オペレータは画像の右方向に
向けて明るさを増すようなエツジ(コントラスト)を検
出する。
Next, for example, (3
X3) Edge extraction processing is performed using a matrix differential operator. FIG. 4 shows an example of the differential operator employed in this embodiment. This differential operator detects edges (contrast) that increase in brightness toward the right of the image.

ところで、従来はこのエツジ検出結果を別設のメモリに
格納していた。しかし、本実施例ではエツジ検出結果が
画素当り8ビツトとすると、後に2値化処理を行う場合
の閾値が上位4ビツトに入るので、検出結果の上位4ビ
ツトをイメージメモリ14の下位4ビツトに格納する。
By the way, in the past, the edge detection results were stored in a separate memory. However, in this embodiment, if the edge detection result is 8 bits per pixel, the threshold value for later binarization processing will be in the upper 4 bits, so the upper 4 bits of the detection result will be stored in the lower 4 bits of the image memory 14. Store.

これは次の理由による。This is due to the following reason.

本実施例では後述の処理において描画終了した画像デー
タを一旦8階調に縮退して出力するが、その時点ではL
UT21〜23における入出力階調の関係は例えば第1
0図に示すものとなっている。即ち、第10図において
は、例えば入力階調がO〜31(256階調/8)の範
囲ではその出力階調は31である。以下、同様にして入
力が32階調分増す毎に出力が1階調づつ増す関係にあ
る。従って原画像データR,G、B中のO〜31階調ま
でを表現する下位5ビット分は実質使用されておらず、
この部分のデータを破壊しても階調変換結果には何らの
影響も無い。そこで、本実施例ではイメージメモリ14
〜16の下位5ビツトを作業領域として自由に使用でき
ることになる。
In this embodiment, the image data that has been rendered in the process described later is temporarily degenerated to 8 gradations and output, but at that point, L
The relationship between input and output gradations in UTs 21 to 23 is, for example, the first
It is shown in Figure 0. That is, in FIG. 10, for example, when the input gradation ranges from O to 31 (256 gradations/8), the output gradation is 31. Thereafter, similarly, every time the input increases by 32 gradations, the output increases by one gradation. Therefore, the lower 5 bits representing the 0 to 31st gradations in the original image data R, G, and B are not actually used.
Even if the data in this part is destroyed, there will be no effect on the gradation conversion result. Therefore, in this embodiment, the image memory 14
The lower 5 bits of 16 to 16 can be freely used as a work area.

これを−膜化して言うと、n階調の画像データをm階調
に階調変換する場合にはメモリのO〜(n/m)−1階
調までを格納するビット領域を作業領域に割り当てられ
ると言うことである。
To put this into perspective, when converting image data with n gradations to m gradations, the bit area that stores gradations from O to (n/m)-1 in memory is used as the work area. This means that it will be assigned.

次に、第4図の微分オペレータを左回りにπ/4回転さ
せて第5図の微分オペレータを得る。この微分オペレー
タは画像の右上方向に向けて明るさを増すよなエツジを
検出する。そして、このエツジ検出結果の上位4ビツト
と前記イメージメモリ14の下位4ビツトに記憶した検
出結果とを比較し、大きい方をイメージメモリ14の下
位4ビツトに格納する。以下同様にして微分オペレータ
を左回りにπ/4づつ回転させ、結果として合計8方向
から見たエツジ検出結果のうち最大のものの上位4ビツ
トを検出し、これをイメージメモリ14の下位4ビツト
に格納する。
Next, the differential operator in FIG. 4 is rotated counterclockwise by π/4 to obtain the differential operator in FIG. 5. This differential operator detects edges that increase in brightness toward the upper right of the image. Then, the upper 4 bits of this edge detection result are compared with the detection result stored in the lower 4 bits of the image memory 14, and the larger one is stored in the lower 4 bits of the image memory 14. In the same manner, the differential operator is rotated counterclockwise by π/4, and as a result, the highest 4 bits of the largest edge detection result seen from a total of 8 directions are detected, and this is stored in the lower 4 bits of the image memory 14. Store.

この結果イメージメモリ14の下位4ビツトには可視像
に変換した画像データの全画素についての最大のエツジ
成分が抽出される。
As a result, the largest edge component of all pixels of the image data converted into a visible image is extracted into the lower four bits of the image memory 14.

次にイメージメモリ14の下位4ビツトを所定閾値で2
値化処理し、エツジ(閾値より大きい)と判定した画素
はピッド1”、それ以下と判定した画素はピッド°O“
に置き換え、これをイメージメモリ14の下位1ビツト
に書き込む。
Next, the lower 4 bits of the image memory 14 are set to 2 by a predetermined threshold.
Pixels determined to be edges (greater than the threshold value) are assigned PID 1", and pixels determined to be less than that are assigned PID °O".
, and write this into the lower 1 bit of the image memory 14.

こうしてイメージメモリ14の下位1ビツトには原画像
のエツジ成分に関するエツジパターンデータが格納され
る。
In this way, the lower one bit of the image memory 14 stores edge pattern data regarding edge components of the original image.

くステップS3ン ステップS2で生成したエツジパターンは後述の処理を
行うには細すぎる。そこでエツジパターンの太線化処理
を行う。この太線化処理はイメージメモリ14中の注目
エツジパターンデータなa (x、y)とすると(3)
式に従って行う。即ち、 ・  a (x、 y) ”1  のときは、a (x
+i、y+j)=l  とする。
The edge pattern generated in step S3 and step S2 is too thin to perform the processing described below. Therefore, edge pattern thickening processing is performed. This thickening process is performed as follows (3), where the edge pattern data of interest in the image memory 14 is a (x, y).
Do it according to the formula. That is, when a (x, y) ”1, a (x
+i,y+j)=l.

ここで、 一3≦i≦3.−3≦j≦3の整数 そして、この太線化処理結果を例えばイメージメモリ1
5の下位1ビツトに格納する。
Here, 13≦i≦3. An integer of −3≦j≦3.Then, the result of this thick line processing is stored in image memory 1, for example.
Stored in the lower 1 bit of 5.

くステップS4> 上記ステップS3で得た太線化エツジパターンデータに
は通常小さな孤立したノイズパターンが多く含まれてい
る。ごみ処理部6はイメージメモリ15に格納した全エ
ツジパターンデータに対して、その連結性有無の判断に
基づき面積を算出し、所定面積以下のものはノイズパタ
ーンとして消去する。この連結性有無の判断はイメージ
メモリ15中の注目エツジパターンデータなa (x、
y)とすると(4)式に従って行う。
Step S4> The thickened edge pattern data obtained in step S3 above usually contains many small isolated noise patterns. The dust processing section 6 calculates the area of all the edge pattern data stored in the image memory 15 based on the determination of connectivity or non-existence, and erases the edge pattern data having a predetermined area or less as a noise pattern. This determination of the presence or absence of connectivity is based on the edge pattern data of interest in the image memory 15 a (x,
y), it is performed according to equation (4).

即ち、 a (x、 y) =1  のときは、a (x+i、
y十j)=1  を調べる。
That is, when a (x, y) = 1, a (x+i,
Check yj)=1.

ここで、 一1≦i≦1.−1≦j≦1の整数 即ち、a (x+i、y+j)=1の条件を1つでも満
たせば連続性があるとみなす。
Here, 11≦i≦1. It is considered that there is continuity if at least one of the conditions of -1≦j≦1, ie, a (x+i, y+j)=1, is satisfied.

〈ステップS5> ステップS5では描画開始位置発生部7が筆パターンの
描画位置情報を発生する。筆パターンの描画位置は、こ
れを規則正しくシーケンシャルに発生させると絵画的表
現の自然性を損なう。
<Step S5> In step S5, the drawing start position generating section 7 generates drawing position information of the brush pattern. If the drawing positions of the brush patterns are generated regularly and sequentially, the naturalness of the pictorial expression will be lost.

そこで実施例の描画位置はランダムな位置に発生する。Therefore, the drawing position in the embodiment is generated at a random position.

この描画位置情報の発生は、まず原画像データRに対し
て行う。描画開始位置発生部7は内部に不図示の乱数発
生手段を備えており、該乱数発生手段は、例えばCPU
 1からの3つの乱数発生パラメータ(行方向の乱数発
生系列を与える整数、列方向の乱数発生系列を与える整
数、乱数の発生個数)を受は取ることにより、対応する
モードで乱数を発生する。描画開始位置発生部7は発生
した乱数に応じて筆パターンの描画開始位置(x+a 
、y、)を決定する。
This drawing position information is first generated for the original image data R. The drawing start position generating section 7 is internally equipped with a random number generating means (not shown), and the random number generating means is, for example, a CPU.
1 to three random number generation parameters (an integer that gives a random number generation sequence in the row direction, an integer that gives a random number generation sequence in the column direction, and the number of random numbers to be generated), the receiver generates random numbers in the corresponding mode. The drawing start position generating unit 7 determines the drawing start position (x+a) of the brush pattern according to the generated random number.
,y,).

尚、本実施例では乱数発生パラメータを原画像データG
及びBの処理を行うときも同一にしているので、その描
画位置及び描画個数も原画像データRのものと同一にな
る。
In this example, the random number generation parameter is set to the original image data G.
Since the processing of and B is the same, the drawing position and the number of drawings are also the same as those of the original image data R.

くステップS6> ステップS6では発生した描画位置にエツジパターンデ
ータが存在するか否かを判別し、描画位置にエツジパタ
ーンが無い(エツジデータ=O)ならステップS7以降
の大きな筆パターンデータで描画するルーチンへ進み、
また描画位置にエツジパターンが有る(エツジデータ=
1)ならステップSll以降の小さな筆パターンデータ
で描画するルーチンへ進む。これはエツジ部分の画像は
詳細に描画し、それ以外の部分は大まかに描画するため
である。
Step S6> In step S6, it is determined whether or not edge pattern data exists at the generated drawing position, and if there is no edge pattern at the drawing position (edge data = O), a routine is performed to draw with large brush pattern data from step S7 onwards. Proceed to
There is also an edge pattern at the drawing position (edge data =
If 1), the routine proceeds to a drawing routine using small brush pattern data after step Sll. This is because the edge portion of the image is drawn in detail, and the other portions are drawn roughly.

一方、パターン選択部8はまずステップS6の判別に伴
って大きい筆パターンデータか小さい筆パターンデータ
かの選択を行う。何れの筆パターンデータも例えばO−
n階調の多値画像データ(他の実施例では2値画像デー
タ)で構成されており、実質的に複数種類用意されてい
る。本実施例では筆パターン回転部9内の不図示のRO
Mに大きな筆パターンデータ(以下、多値と2値を総称
して単に筆パターンデータという)を1種類記憶してお
り、筆パターン選択部8内の不図示のROMに小さな筆
パターンデータを3種類記憶している。小さな筆パター
ンデータとしては原画像データのエツジ部分を適切に描
画できるように、円形に近い方向性の無いもの、縦方向
エツジに適する縦長のもの、横方向エツジに適する横長
のものが記憶されている。
On the other hand, the pattern selection unit 8 first selects large brush pattern data or small brush pattern data in accordance with the determination in step S6. Any brush pattern data, for example, O-
It is composed of multivalued image data of n gradations (binary image data in other embodiments), and substantially a plurality of types are prepared. In this embodiment, an RO (not shown) in the brush pattern rotating section 9
One type of large brush pattern data (hereinafter, multi-value and binary are collectively referred to as brush pattern data) is stored in M, and three small brush pattern data are stored in a ROM (not shown) in the brush pattern selection section 8. I remember the type. As small brush pattern data, in order to appropriately draw the edge portion of the original image data, a pattern that is close to a circle with no directionality, a vertically long pattern suitable for vertical edges, and a horizontally long pattern suitable for horizontal edges are stored. There is.

第6図(A)〜(D)には実施例の多値筆パターンデー
タの例を示す。第6図(A)は大きい筆パターンデータ
の例を、第6図(B)は無方向性の筆パターンデータの
例を、第6図(C)は縦長筆パターンデータの例を、第
6図(D)は横長筆パターンデータの例を夫々示してい
る。
FIGS. 6(A) to 6(D) show examples of multivalued brush pattern data of the embodiment. 6(A) shows an example of large brush pattern data, FIG. 6(B) shows an example of non-directional brush pattern data, FIG. 6(C) shows an example of vertically long brush pattern data, Figure (D) shows examples of horizontally long brush pattern data.

これらの筆パターンデータは、文字通り、大軍又は細筆
に絵の具を塗って紙に描いたような筆パターンデータ(
但し、実施例では形状を表わす無彩色)で構成されてい
る。即ち、出力画像に光線が照射される方向を加味する
と、それに応じて輝度の盛り上がり感、厚み感、あるい
は筆運びの方向に沿っての凹凸感等が現われ、かつその
パターン形状は終端部で尾を引いている。本実施例では
、かかる筆パターンデータの代表例を、例えば実際の絵
画サンプル画像から読み取り、若しくは画像処理により
生成して、予め筆パターンの盛り上がり形状等の輝度情
報として記憶しである。
These brush pattern data are, literally, brush pattern data (like drawing on paper by applying paint to large or fine brushes).
However, in the embodiment, it is composed of an achromatic color representing the shape. In other words, when the direction in which the light beam is irradiated is taken into consideration in the output image, a feeling of bulge in brightness, a feeling of thickness, or a feeling of unevenness along the direction of the brush stroke will appear accordingly, and the pattern shape will have a tail at the end. is subtracting. In this embodiment, a representative example of such brush pattern data is read from, for example, an actual painting sample image or generated by image processing, and is stored in advance as brightness information such as the raised shape of a brush pattern.

また第6図(E)〜(H)には他の実施例の2値筆パタ
ーンデータの例を示す。第6図(E)は大きい筆パター
ンデータの例を、第6図CF)は無方向性の筆パターン
データの例を、第6図(G)は縦長筆パターンデータの
例を、第6図(H“)は横長筆パターンデータの例を夫
々示している。輝度の盛り上り情報がな無い他は多値筆
パターンデータの場合と同じである。
Further, FIGS. 6(E) to (H) show examples of binary brush pattern data of other embodiments. FIG. 6(E) shows an example of large brush pattern data, FIG. 6(CF) shows an example of non-directional brush pattern data, FIG. 6(G) shows an example of vertically long brush pattern data, and FIG. (H") shows an example of horizontally long brush pattern data.It is the same as the case of multi-valued brush pattern data except that there is no brightness rise information.

くステップS7> ステップS7は大きな筆パターンデータを使用するルー
チンへの入力である。ステップS7では、まず大きな筆
パターンデータの回転処理が終了しているか否かを判別
する。回転処理が終了している場合はステップS9に進
み、大きな筆パターンデータの描画処理を行う。また回
転処理が終了していない場合はステップS8に進み、筆
パターンデータの回転処理を行う。
Step S7> Step S7 is input to a routine that uses large brush pattern data. In step S7, it is first determined whether the rotation process of the large brush pattern data has been completed. If the rotation process has been completed, the process advances to step S9, where large brush pattern data is drawn. If the rotation process has not been completed, the process advances to step S8, and the brush pattern data is rotated.

くステップS8> ステップS8では大きい筆パターンデータの回転処理を
行う。大きい筆パターンデータは予めROMに複数種類
記憶しておければアクセスが速い。しかし、本実施例で
はROMの容量を節約する目的から、1つの筆パターン
データな回転することで実質複数種類の筆パターンデー
タを用意するのと同等の効果を得ている。この回転処理
は筆パターン回転部9で行い、例えば筆パターンデータ
の基本位置を垂直方向とすると、該垂直方向から上20
de シーケンシャルに回転処理を行う。
Step S8> In step S8, rotation processing of large brush pattern data is performed. If multiple types of large brush pattern data are stored in the ROM in advance, access is quick. However, in this embodiment, for the purpose of saving the ROM capacity, by rotating one piece of brush pattern data, substantially the same effect as preparing a plurality of types of brush pattern data is obtained. This rotation process is performed by the brush pattern rotation unit 9. For example, if the basic position of the brush pattern data is the vertical direction,
de Perform rotation processing sequentially.

尚、回転範囲を上20de 際に筆を運ぶ方向を考慮したものである。またこの範囲
内なら照射する光線の方向による影の効果を変えなくて
も実際上問題はない。
Note that this takes into account the direction in which the brush is carried when the rotation range is 20 degrees above. Moreover, within this range, there is no practical problem even if the shadow effect does not change depending on the direction of the irradiated light beam.

具体的には、回転処理した筆パターンデータの座標(K
,L)は(5)式に従って求める。
Specifically, the coordinates (K
, L) are determined according to equation (5).

ここで、 (1,J):入力筆パターンデータの座標(xo, y
o)  :回転の中心座標θ:回転角 ここで、回転角θはldegづつシーケンシャルに変化
するが、ステップS5で発生した描画位置はランダムで
あるから、結局原画像データR上にはランダムな位置に
ランダムな方向の筆パターンデータが現われたことにな
る。しかも、上20de 全体としてもある程度の方向性が残り、絵画特有の筆の
タッチ(癖)が表現可能である。
Here, (1, J): Coordinates of input brush pattern data (xo, y
o): Center coordinate of rotation θ: Rotation angle Here, the rotation angle θ changes sequentially by ldeg, but since the drawing position generated in step S5 is random, the original image data R will end up being a random position. This means that brush pattern data in random directions appears. Moreover, a certain degree of directionality remains in the upper 20de as a whole, and it is possible to express the brush strokes (habits) unique to paintings.

〈ステップS9> 描画部1oはステップS5で発生した描画位置に大きい
筆パターンデータの描画を行う。
<Step S9> The drawing unit 1o draws large brush pattern data at the drawing position generated in step S5.

第7図(A)は発生した描画開始位置(X.。FIG. 7(A) shows the generated drawing start position (X.

y.)と多値筆パターンデータの中心位置(xe,’J
c)の関係を示す図である。即ち、第7図(A)の関係
になるように原画像データと多値筆パターンデータとの
位置合せなし、具体的には、描画のための新たな書込デ
ータCI (x’,y’)を(6)式に従って求める。
y. ) and the center position of the multivalued brush pattern data (xe, 'J
It is a figure showing the relationship of c). That is, the original image data and the multivalued brush pattern data are not aligned so that the relationship shown in FIG. ) is determined according to equation (6).

C+  (x’.y’) ここで、 i:R,G,B aI (Xe 、 ye ):筆パターンデータの中心
位置に対応する原画像データ P (x.y)ニアドレス(x.y)の多値筆パターン
データ n:筆パターンデータの階調数 (x’.y’)ニアドレス(x.y)に対応する原画像
データの位置 即ち、(6)式は多値筆パターンデータの中心位置に対
応する原画像データar  (Xe * yc )でも
って当該箱パターンエリアの色(i =R。
C+ (x'.y') Here, i: R, G, B aI (Xe, ye): Original image data P corresponding to the center position of the brush pattern data (x.y) Near address (x.y) Multivalued brush pattern data n: Number of gradations (x'.y') of the brush pattern data The position of the original image data corresponding to the near address (x.y), that is, the equation (6) is The color of the box pattern area (i = R) is determined by the original image data ar (Xe * yc) corresponding to the center position.

G,B)及び輝度を代表させており、その周囲を多値筆
パターンデータの絵の具の盛り上り情報P (x.y)
により変化を付けて描画している。
G, B) and brightness are represented, and the surrounding area is filled with paint bulge information P (x.y) of multi-valued brush pattern data.
It is drawn with some changes.

尚、(6)式において(n−1)で割っているのは演算
結果を8ビツトにするためである。こうして(6)式の
演算は多値筆パターンデータP (x、y)の左上から
順に行い、多値筆パターンデータの1画素分に相当する
書き込みを行なうとステップSIOに進む。
Note that the reason for dividing by (n-1) in equation (6) is to make the calculation result 8 bits. In this way, the calculation of equation (6) is performed sequentially from the upper left of the multi-value brush pattern data P (x, y), and when writing corresponding to one pixel of the multi-value brush pattern data is completed, the process proceeds to step SIO.

第7図(B)は、他の実施例として、筆パターンデータ
が2値の場合を示している。この場合は上記(6)式は
(6)′式のように表わせる。
FIG. 7(B) shows a case where the brush pattern data is binary as another example. In this case, the above equation (6) can be expressed as equation (6)'.

C+  (x’、y’) =P (x、y)xa、(xc 、yc )(6)′ ここで、 P (x、y)ニアドレス(x、y)の2値筆パターン
データ 即ち、(6)′式では2値筆バクーンデータの中心位置
に対応する原画像データa1(Xe。
C+ (x', y') = P (x, y) xa, (xc, yc) (6)' Here, P (x, y) binary brush pattern data of near address (x, y), that is, In equation (6)', the original image data a1 (Xe) corresponds to the center position of the binary brush Bakun data.

yc)でもって当該2値筆パターンエリアの色(i=R
,G、B)及び輝度を代表させ、その周囲のP (x、
y)=1の部分を前記の代表値により描画している。
yc) and the color of the binary brush pattern area (i=R
, G, B) and the brightness, and the surrounding P (x,
The portion where y)=1 is drawn using the above-mentioned representative value.

尚、上述の実施例では原画像データa i  (X c
、yc)を抽出してその周囲に多値又は2値による筆パ
ターンデータP (x、y)の描画を行ったがこれに限
らない。他にも原画像データa+  (Xc 、 yc
 )の周囲の平均値を用いたり、多値筆パターンデータ
P (x、y)が所定値以上又は2値筆パターンデータ
P (x、y)が”1”である位置と一致する原画像デ
ータの平均値を用いたり、あるいはそれらの原画像デー
タの最大値又は最小値を用いても良い。
In addition, in the above-mentioned embodiment, the original image data a i (X c
, yc) and draw multivalued or binary brush pattern data P (x, y) around it, but the invention is not limited to this. In addition, original image data a+ (Xc, yc
), or original image data that matches the position where the multivalued brush pattern data P (x, y) is greater than a predetermined value or the binary brush pattern data P (x, y) is "1". The average value of these original image data may be used, or the maximum value or minimum value of those original image data may be used.

くステップSIO> 筆パターンデータの全画素について描画終了したか否か
を判断し、描画終了していない間はステップS6へ戻る
。従って、もし大きな筆パターンデータの描画途中でエ
ツジデータに遭遇すると大きい筆パターンデークの描画
をその時点で終了し、ステップSll以降の小さな筆パ
ターンデータの描画処理に進む。エツジ部分の描画は他
に優先するからである。
Step SIO> It is determined whether drawing has been completed for all pixels of the brush pattern data, and if drawing has not been completed, the process returns to step S6. Therefore, if edge data is encountered during drawing of large brush pattern data, drawing of the large brush pattern data is terminated at that point, and the process proceeds to drawing processing of small brush pattern data from step Sll onwards. This is because drawing of edge portions takes priority over other drawings.

〈ステップSll> エツジ方向検出部11はイメージメモリ15の下位1ビ
ツトに記録されているエツジデータの方向を検出し、こ
れに応じて筆パターンデータ選択部8は検出方向に適し
た筆パターンデータな選択する。エツジ方向の検出は、
例えば第8図又は第9図のような1次元オペレータとエ
ツジデータの論理積を夫々求め、結果が真となる画素数
を縦方向と横方向とで比較し、その差がある値よりも大
きい時は画素数の大きい方向がエツジ方向と判断する。
<Step Sll> The edge direction detection section 11 detects the direction of the edge data recorded in the lower 1 bit of the image memory 15, and in response to this, the brush pattern data selection section 8 selects the brush pattern data suitable for the detected direction. do. Edge direction detection is
For example, calculate the AND of the one-dimensional operator and edge data as shown in Figure 8 or Figure 9, compare the number of pixels for which the result is true in the vertical and horizontal directions, and if the difference is greater than a certain value. The direction with the largest number of pixels is determined to be the edge direction.

具体的には、エツジ方向信号Sは(7)式に従って求め
られる。
Specifically, the edge direction signal S is obtained according to equation (7).

S=F (T (x、y) nE (x、y))−F 
(Y (x、、y)nE (x、y))ここで、 E (x、y):エツジデータ T (x、y):縦方向オペレータ Y (x、y):横方向オペレータ F() :論理積が真となる画素数を 算出する関数 筆パターンデータ選択部8はこのエツジ方向信号Sに基
づき、dを所定数として、−d≦S≦dなら「丸パター
ンJ、S<−dなら「横長パターンJ、d<Sなら「縦
長パターン」を選択する。
S=F (T (x, y) nE (x, y)) - F
(Y (x, y)nE (x, y)) Here, E (x, y): Edge data T (x, y): Vertical operator Y (x, y): Horizontal operator F(): Based on this edge direction signal S, the function brush pattern data selection unit 8, which calculates the number of pixels for which the logical product is true, sets d to a predetermined number, and if -d≦S≦d, then "circle pattern J; if S<-d," ``Horizontal pattern J, if d<S, select ``vertical pattern''.

くステップS12〉 描画部10はステップSllで選択した筆パターンデー
タの描画を行う。これにより、エツジ部分は小さい筆パ
ターンデータ又は細長い筆パターンデータにより方向性
に沿うて描かれるのでシャープな絵画的表現を行える。
Step S12> The drawing unit 10 draws the brush pattern data selected in step Sll. As a result, the edge portion is drawn along the direction using small brush pattern data or elongated brush pattern data, so that a sharp pictorial expression can be achieved.

くステップS13〉 小さい筆パターンデータの全画素について描画終了して
いるか否かを判断する。終了していなければステップS
L2に戻り、終了していればステップS14に進む。
Step S13> It is determined whether drawing has been completed for all pixels of the small brush pattern data. If not completed, step S
Return to L2, and if completed, proceed to step S14.

くステップS14〉 CPUIはランダムに発生した設定個数分の描画処理を
行ったか否かを判別する。設定個数分終了していない場
合はステップS5に戻り、また終了した場合はステップ
S15へ進む。
Step S14> The CPU determines whether drawing processing has been performed for a set number of randomly generated drawings. If the set number of items has not been completed, the process returns to step S5, and if the process has been completed, the process proceeds to step S15.

くステップS15〉 CPUIは画像データR%G、Bの3面について描画処
理終了したか否かを判別する。終了していなければステ
ップSS5に戻り、残りの面の処理を開始する。また全
ての面の描画処理が終了していればステップS16へ進
む。
(Step S15) The CPU determines whether or not the drawing process has been completed for the three sides of the image data R%G and B. If the processing has not been completed, the process returns to step SS5 to start processing the remaining surfaces. If the drawing process for all surfaces has been completed, the process advances to step S16.

〈ステップS16〉 CPU1は、LUT21〜23の内容を書き換え、描画
終了した画像データR,G、Bの階調変換を行う。第1
0図はLUT21〜23のテーブル変換特性の一例を示
す図である。図において、横軸は描画終了した画像デー
タR,G、Bの入力階調O〜255を示している。但し
、描画終了した画像データR,G、Bの下位4ビツトデ
ータはステップS2の処理で失われているので意味が無
い。しかし縦軸の出力階調は丁度下位5ビツトを無視し
た関係になっており、従って描画終了した画像データR
,G、Bの階調変換を適正に行える。LUT21〜23
により階調変換された画像データR,G、Bは再びイメ
ージメモリ14〜16に記憶される。この処理はメモリ
ブレーン単位で行うので高速に実行できる。
<Step S16> The CPU 1 rewrites the contents of the LUTs 21 to 23 and performs gradation conversion of the image data R, G, and B for which drawing has been completed. 1st
FIG. 0 is a diagram showing an example of table conversion characteristics of LUTs 21 to 23. In the figure, the horizontal axis indicates the input gradations O to 255 of the image data R, G, and B that have been rendered. However, the lower 4-bit data of the image data R, G, and B for which drawing has been completed is meaningless because it is lost in the process of step S2. However, the output gradation on the vertical axis is in a relationship that ignores the lower 5 bits, so the image data R after drawing is
, G, and B can be properly converted. LUT21~23
The image data R, G, and B that have undergone gradation conversion are stored in the image memories 14 to 16 again. This processing is performed in memory brain units, so it can be executed at high speed.

〈ステップS17〉 最後にテクスチュアメモリ17のキャンパス画像データ
とイメージメモリ14〜16の画像データを合成する。
<Step S17> Finally, the canvas image data in the texture memory 17 and the image data in the image memories 14 to 16 are combined.

具体的には、合成後の画像データG+  (x、y)は
(8)式に従って求める。
Specifically, the image data G+ (x, y) after composition is obtained according to equation (8).

G+  (x、y) =aA+  (x、  y)+bT  (x、  y)
ここで、 a、b:定数 かつ a+b=1 i:R,G、B A+  (x、y):イメージメモリ14〜16の画像
データ T (x、y):テクスチュアメモリ17の画像データ 尚、テクスチュアメモリ17には予め(bxT (x、
y))を格納して置くことが可能である。また(axA
+  (x、y))の演算は、例えば第11図の変換テ
ーブルをLUT21〜23に書き込むことで容易に行え
る。そして2つの画像データの加算は各メモリブレーン
R,G。
G+ (x, y) =aA+ (x, y)+bT (x, y)
Here, a, b: constants and a+b=1 i: R, G, B A+ (x, y): Image data of image memories 14 to 16 T (x, y): Image data of texture memory 17 Furthermore, texture In the memory 17, (bxT (x,
y)) can be stored. Also (axA
+ (x, y)) can be easily performed by writing the conversion table shown in FIG. 11 into the LUTs 21 to 23, for example. The two image data are added in each memory brain R and G.

B全体で行えるのでステップS17の処理もリアルタイ
ムで実行される。
Since the process can be performed in the entire B, the process in step S17 is also executed in real time.

尚、上述実施例の説明では描画処理を全てデジタル演算
により行ったがこれに限らない。
Incidentally, in the description of the above-mentioned embodiment, all the drawing processing was performed by digital calculation, but the present invention is not limited to this.

例えばロボットに幾種類かの実物の筆を持たせておき、
かつ上記ランダムに発生した描画位置に、上記選択した
又は回転角を与えた筆パターンデータな描かせても良い
For example, a robot can be equipped with several types of real brushes,
In addition, the brush pattern data with the selected or rotational angle may be drawn at the randomly generated drawing position.

また上述実施例ではエツジの有無及びエツジの方向性に
応じて筆パターンデータを選択しているがこれに限らな
い。例えば原画像データの空間周波数成分を解析して筆
パターンデータを選択しても良い。
Further, in the above embodiment, the brush pattern data is selected depending on the presence or absence of an edge and the direction of the edge, but the present invention is not limited to this. For example, the brush pattern data may be selected by analyzing the spatial frequency components of the original image data.

また上述実施例ではエツジ抽出には3×3画素の微分オ
ペレータを用いたがこれに限らない。
Further, in the above embodiment, a 3×3 pixel differential operator is used for edge extraction, but the present invention is not limited to this.

例えば原画像の画素サイズ、筆パターンデータのサイズ
等に応じて微分オペレータの大きさや、内容を変更でき
るようにしても良い。
For example, the size and contents of the differential operator may be changed depending on the pixel size of the original image, the size of the brush pattern data, etc.

また上述実施例では多階調の参照データとして筆パター
ンを用いたがこれに限らない。他の用途に用いられる参
照データの使用も本発明に含まれることは明らかである
Further, in the above embodiment, a brush pattern is used as multi-gradation reference data, but the present invention is not limited to this. It is clear that the invention also encompasses the use of reference data used for other purposes.

[発明の効果] 以上述べた如く本発明によれば、従来不可能であった高
度な画像変換が可能になる。
[Effects of the Invention] As described above, according to the present invention, advanced image conversion, which was previously impossible, becomes possible.

また本発明によれば、例えば平坦な感じの原画像データ
に多階調の筆パターンデータな合成するので、実際に人
が筆を用いて絵を描くような筆タッチのすし、むら、絵
の具の盛り上り等を忠実に表現することができる。
Further, according to the present invention, for example, multi-tone brush pattern data is synthesized with flat original image data, so the brush touch is similar to that of a person actually drawing with a brush, unevenness, and paint. It is possible to faithfully express excitement, etc.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による実施例の画像処理装置のブロック
構成図、 第2図は実施例の絵画化処理手順のフローチャート、 第3図は実施例のLUT21〜23の初期状態における
階調変換テーブル特性の一例を示す図、 第4図は実施例で採用した微分オペレータの一例を示す
図、 第5図は第4図の微分オペレータを左回りにπ/4回転
させた場合の微分オペレータを示す図、 第6図(A)〜(D)は実施例の多値筆パターンデータ
の例を示す図、 第6図(E)〜(H)は他の実施例の2値筆パターンデ
ータの例を示す図、 第7図(A)、(B)は描画開始位置(X、。 y、)と選択した筆パターンデータの中心位置(xc 
、 y c )との関係を示す図、第8図は実施例の縦
方向エツジ検出用オペレータの一例を示す図、 第9図は実施例の横方向エツジ検出用オペレータの一例
を示す図、 第10図は実施例のLU721〜23の階調変換テーブ
ル特性の一例を示す図、 第11図はテクスチュア画像合成の際の一例のLUT変
換特性を示す図である。 図中、1・・−CPU、2・・・CPUメモリ、3・・
・CPUバス、4・・・エツジ検出部、5・・・太線化
処理部、6・・・ごみ処理部、7・・・描画開始位置発
生部、8・・・筆パターンデータ選択部、9・・・筆パ
ターンデータ回転部、10・・・描画部、11・・・エ
ツジ方向検出部、12・・・画像合成部、13・・・イ
メージメモリコントローラ、14〜20・・・画像メモ
リ、21〜23・・・LUT、24・・・ビデオバス、
25・・・ビデオコントローラ、26・・・画像データ
I10である。 入力膜1月 第3図 第4図 第5図 (A)      (B)    (C)    (D
)大翻筆tiクーソ     75廂a = L、  
   壱を畏       オ黄長(E)      
(F)    (G)    (H)第6図 (A) 第7図 第8図 (B) 第9図
FIG. 1 is a block configuration diagram of an image processing apparatus according to an embodiment of the present invention, FIG. 2 is a flowchart of a painting processing procedure of the embodiment, and FIG. 3 is a gradation conversion table in the initial state of LUTs 21 to 23 of the embodiment. Figure 4 is a diagram showing an example of the characteristics. Figure 4 is a diagram showing an example of the differential operator employed in the example. Figure 5 is the differential operator when the differential operator in Figure 4 is rotated counterclockwise by π/4. Figures 6(A) to 6(D) are diagrams showing examples of multivalued brush pattern data of the embodiment, and Figures 6(E) to 6(H) are examples of binary brush pattern data of other embodiments. Figures 7 (A) and (B) show the drawing start position (X, y,) and the center position (xc) of the selected brush pattern data.
, y c ), FIG. 8 is a diagram showing an example of the vertical edge detection operator of the embodiment, FIG. 9 is a diagram showing an example of the horizontal edge detection operator of the embodiment, FIG. 10 is a diagram showing an example of tone conversion table characteristics of LUs 721 to 23 of the embodiment, and FIG. 11 is a diagram showing an example of LUT conversion characteristics during texture image synthesis. In the figure, 1...-CPU, 2...CPU memory, 3...
・CPU bus, 4... Edge detection section, 5... Thick line processing section, 6... Dust processing section, 7... Drawing start position generation section, 8... Brush pattern data selection section, 9 ... Brush pattern data rotation section, 10... Drawing section, 11... Edge direction detection section, 12... Image composition section, 13... Image memory controller, 14-20... Image memory, 21-23...LUT, 24...video bus,
25... Video controller, 26... Image data I10. Input membrane January Figure 3 Figure 4 Figure 5 (A) (B) (C) (D
) Great translation ti kuso 75 廂a = L,
Fear of Ichi, Oh Huang Cho (E)
(F) (G) (H) Figure 6 (A) Figure 7 Figure 8 (B) Figure 9

Claims (3)

【特許請求の範囲】[Claims] (1)原画像の少なくとも一部の領域の画像データを該
領域内の原画像データと所定の多階調データとから求め
た画像データで置き替えることを特徴とする画像処理方
法。
(1) An image processing method characterized by replacing image data in at least a part of an area of an original image with image data obtained from the original image data in the area and predetermined multi-tone data.
(2)原画像の少なくとも一部の領域の画像データを該
領域内の原画像データと所定の多階調データとの積によ
つて求めた画像データで置き替えることを特徴とする画
像処理方法。
(2) An image processing method characterized by replacing image data in at least a part of an area of an original image with image data obtained by multiplying the original image data in the area and predetermined multi-tone data. .
(3)原画像データを絵画タッチの美的画像データに変
換する画像処理装置において、 原画像データを記憶する第1の記憶手段と、多階調表現
の筆パターンデータを記憶する 第2の記憶手段と、 前記第1の記憶手段の原画像データの一部又は全部に対
して前記第2の記憶手段の筆パターンデータを合成する
画像合成手段を備えることを特徴とする画像処理装置。
(3) In an image processing device that converts original image data into aesthetic image data with a painterly touch, a first storage means for storing the original image data and a second storage means for storing multi-gradation brush pattern data. An image processing apparatus characterized by comprising: an image synthesizing means for synthesizing brush pattern data in the second storage means with part or all of the original image data in the first storage means.
JP4444188A 1988-02-29 1988-02-29 Method and device for processing image Pending JPH01219962A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4444188A JPH01219962A (en) 1988-02-29 1988-02-29 Method and device for processing image
US07/630,797 US5038223A (en) 1988-02-29 1990-12-24 Image processing method and apparatus for imparting a pictorial or painter-like effect

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4444188A JPH01219962A (en) 1988-02-29 1988-02-29 Method and device for processing image

Publications (1)

Publication Number Publication Date
JPH01219962A true JPH01219962A (en) 1989-09-01

Family

ID=12691573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4444188A Pending JPH01219962A (en) 1988-02-29 1988-02-29 Method and device for processing image

Country Status (1)

Country Link
JP (1) JPH01219962A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60198687A (en) * 1984-03-22 1985-10-08 Sharp Corp Picture quality changing device
JPS62217375A (en) * 1986-03-19 1987-09-24 Fujitsu Ltd Air brush processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60198687A (en) * 1984-03-22 1985-10-08 Sharp Corp Picture quality changing device
JPS62217375A (en) * 1986-03-19 1987-09-24 Fujitsu Ltd Air brush processing system

Similar Documents

Publication Publication Date Title
US5038223A (en) Image processing method and apparatus for imparting a pictorial or painter-like effect
KR100369909B1 (en) Apparatus and method for modifying original images
US4992780A (en) Method and apparatus for storing a two-dimensional image representing a three-dimensional scene
US7095418B2 (en) Apparatus and methods for texture mapping
EP1025558B1 (en) A method and apparatus for performing chroma key, transparency and fog operations
JP3095818B2 (en) Method and apparatus for mapping a color image to a black and white image
Webb et al. Fine tone control in hardware hatching
JPH06309425A (en) Equipment and method for graphic display
JPH04507314A (en) Image digital signal conversion device and method
GB2236463A (en) Method and apparatus for dithering antialiased vectors
EP0566915B1 (en) Sharpness processing apparatus
JP2922520B2 (en) Image processing method
JP3174342B2 (en) Multi-level to binary level raster shape converter
CN110610504A (en) Pencil drawing generation method and device based on skeleton and tone
JP4429558B2 (en) Image display method and apparatus
JPH01219965A (en) Method and device for processing image
JPH07129762A (en) Sketch-fashion image generator
JPH01219962A (en) Method and device for processing image
JPH01219963A (en) Method and device for processing image
JP2634126B2 (en) Graphics display method and apparatus
JPH0754554B2 (en) Display processing method
JPH0296879A (en) Picture processor
JPH01219964A (en) Image processor
JP2941829B2 (en) Image processing method
Huang et al. Generation of stereo oil paintings from RGBD images