JPH0296879A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH0296879A
JPH0296879A JP24898588A JP24898588A JPH0296879A JP H0296879 A JPH0296879 A JP H0296879A JP 24898588 A JP24898588 A JP 24898588A JP 24898588 A JP24898588 A JP 24898588A JP H0296879 A JPH0296879 A JP H0296879A
Authority
JP
Japan
Prior art keywords
data
processing
image data
color
pattern data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24898588A
Other languages
Japanese (ja)
Inventor
Shigeki Yamada
茂樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP24898588A priority Critical patent/JPH0296879A/en
Publication of JPH0296879A publication Critical patent/JPH0296879A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To obtain a picture in which color is used properly so as to suit to the purpose of processing by converting original picture data stored in a first storage means into color data stored in a second storage means. CONSTITUTION:The first storage means 16 to 18 store respectively the original picture data of the three primary colors of R (red), G (green), B (blue) read in through a picture data I/O 27, and besides, the second storage means 2 stores respectively plural pieces of color data determined beforehand according to the kinds of the processing. Then, in a color converting means 8, the original picture data stored in the first storage means 16 to 18 is converted into the color data stored in the second storage means 2 according to the selected kind of the processing. Thus, the picture in which the color is used properly so as to suit to the purpose of the processing can be obtained.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、画像処理装置に関し、例えば原画像データを
絵画タッチの美的画像データに変換する画像処理装置に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing device, and for example, to an image processing device that converts original image data into aesthetic image data with a painterly touch.

[従来の技術] 従来、画像処理技術を応用して美的画像を作り出す例と
してモザイク処理がある。これは、例えばX方向及びY
方向に各5画素の合計25画素をブロック単位として画
像のモザイク処理をするものであり、具体的には、アド
レス(x、y)の原画像データをa (x、y)とする
と、モザイク処理後の画像データa  (x、y)は(
1)式によって求まる。
[Prior Art] Conventionally, mosaic processing is an example of creating an aesthetic image by applying image processing technology. This can be done, for example, in the X direction and in the Y direction.
Image mosaic processing is performed using blocks of 5 pixels in each direction, totaling 25 pixels. Specifically, if the original image data at address (x, y) is a (x, y), then mosaic processing is performed. The subsequent image data a (x, y) is (
1) Determined by the formula.

a ′ (5m−i、5n−j) =a (5m−3,5n−3) ・・・ (1) ここで、 i、j=画素番号(1,2,3,4,5)m、nニブロ
ック番号(1,2,3,・・・)即ち、上記(1)式で
は各ブロック内の中心画素データa (5m−3,5n
−3)が代表値となっており、当該ブロック内の全画素
データB  (5m−i、5n−j)を前記代表値で置
き替えてモザイク化処理している。尚、この代表値は中
心画素データに限らずブロック内のどの画素データ゛で
代表しても良い、またブロック内平均値を採用する場合
もある。
a' (5m-i, 5n-j) = a (5m-3, 5n-3) ... (1) Here, i, j = pixel number (1, 2, 3, 4, 5) m, n block number (1, 2, 3,...), that is, in the above equation (1), the center pixel data a (5m-3, 5n
-3) is the representative value, and all pixel data B (5m-i, 5n-j) in the block is replaced with the representative value and subjected to mosaic processing. Note that this representative value is not limited to the center pixel data, but may be represented by any pixel data within the block, and an average value within the block may be used.

またモザイク処理の絵画的表現への応用としては特開昭
62−179059号、特開昭62−179060号及
び特開昭62−179061号がある。これらは、ラン
ダム関数により上記モザイクパターンをランダム位置に
発生させ、あるいは原画像データのコントラストや空間
周波数特性に応じてモザイクパターンの大きさを変化さ
せるものである。
Furthermore, as an application of mosaic processing to pictorial expression, there are Japanese Patent Application Laid-open Nos. 179059/1982, 179060/1982, and 179061/1982. These generate the mosaic pattern at random positions using a random function, or change the size of the mosaic pattern according to the contrast and spatial frequency characteristics of the original image data.

[発明が解決しようとする課題] しかしながら、上記従来例では、発生させるモザイクパ
ターンの色が原画像の一部から取り出したそのままの色
であったり、数画素の平均値であったりするため、処理
結果としての画像の色合いは原画像に左右され、実際の
絵画などと比較するとひどく彩度の低いものとなること
がしばしば生じていた。
[Problem to be Solved by the Invention] However, in the above conventional example, the color of the generated mosaic pattern is the same color extracted from a part of the original image, or the average value of several pixels, so the processing is difficult. The resulting image's color tone was dependent on the original image, and was often severely desaturated when compared to an actual painting.

本発明は、上記課題を解決するために成されたもので、
処理に応じて原画像データを色データに変換する画像処
理装置を提供することを目的とする。
The present invention was made to solve the above problems, and
An object of the present invention is to provide an image processing device that converts original image data into color data according to processing.

[課題を解決するための手段] 上記目的を達成するために、本発明の画像処理装置は、
以下の構成を備える。即ち、 画像処理の種類を選択できる選択手段と、該選択手段で
選択された処理を行う画像処理装置であって、 原画像データを記憶する第1の記憶手段と、前記処理の
種類に応じて予め決めておいた複数の色データを夫々記
憶する第2の記憶手段と、前記第1の記憶手段で記憶す
る原画像データを前記第2の記憶手段で記憶する色デー
タに変換する変換手段とを備える。
[Means for Solving the Problem] In order to achieve the above object, the image processing device of the present invention has the following features:
It has the following configuration. That is, an image processing apparatus that performs the processing selected by the selection means, a selection means for selecting the type of image processing, a first storage means for storing original image data, and a first storage means for storing the original image data, and a first storage means for storing the original image data, and a first storage means for storing original image data, a second storage means for respectively storing a plurality of predetermined color data; and a conversion means for converting the original image data stored in the first storage means into color data stored in the second storage means. Equipped with

[作用] 以上の構成において、第1の記憶手段で記憶する原画像
データを選択された処理の種類に応じて第2の記憶手段
に記憶された色データに変換するように動作する。
[Operation] The above configuration operates to convert the original image data stored in the first storage means into color data stored in the second storage means according to the selected type of processing.

[実施例] 以下、添付図面を参照して本発明に係る好適な一実施例
を詳細に説明する。
[Embodiment] Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

[装置の説明 (第1図)] 第1図は、本発明による実施例の画像処理装置のブロッ
ク構成図である0図において、1はコントロールプロセ
ッサユニット(CPU)であり、本実施例装置の主制御
を行う、2はCPUメモリであり、上記CPU 1が実
行する例えば第2図の絵画化処理プログラム及び該処理
に必要なパラメータ等を不図示のROM又はRAM内に
記憶している。3はCPU lのI10インタフェース
であり、不図示のキーボード、マウスなど意志入力装置
が接続される。4はCPUバスであり、CPU 1のア
ドレスバス、データバス及び制御バスから成る。
[Description of the Apparatus (Fig. 1)] Fig. 1 is a block configuration diagram of an image processing apparatus according to an embodiment of the present invention. In Fig. 0, 1 is a control processor unit (CPU); A CPU memory 2 performs main control, and stores, for example, the painting processing program shown in FIG. 2, which is executed by the CPU 1, and parameters necessary for the processing in a ROM or RAM (not shown). 3 is an I10 interface of the CPU 1, to which an unillustrated input device such as a keyboard and a mouse is connected. 4 is a CPU bus, which consists of an address bus, a data bus, and a control bus for the CPU 1.

27は画像データI10であり、これに不図示の画像読
取装置又は画像出力装置を接続することで絵画化処理前
後の画像データの入出力を行える。16〜18は画素当
り8ビツトのイメージメモリであり、上記画像データl
1027を介して読み込んだR(赤)、G(緑)、B(
青)の3原色の原画像データを夫々記憶する。19は同
じく画素当り8ビツトのテクスチャメモリであり、例え
ば油絵で使用するようなキャンバス(編目模様)の画像
データを記憶する。20は画素当り8ビツトのワークメ
モリであり、上記イメージメモリ16〜18の画像デー
タについて行なった演算処理結果を一時的に記憶する。
Reference numeral 27 denotes image data I10, and by connecting an image reading device or an image output device (not shown) to this, image data before and after painting processing can be input and output. 16 to 18 are image memories with 8 bits per pixel, and the above image data l
R (red), G (green), B (
Original image data of three primary colors (blue) are stored respectively. Reference numeral 19 denotes a texture memory of 8 bits per pixel, which stores image data of a canvas (knit pattern) such as that used in oil painting, for example. Reference numeral 20 denotes a work memory of 8 bits per pixel, which temporarily stores the results of arithmetic processing performed on the image data in the image memories 16 to 18.

21は画素当り16ビツトの16ビツトメモリであり、
同じくイメージメモリ16〜18の画像データについて
行なった積和結果等を一時的に記憶する。
21 is a 16-bit memory with 16 bits per pixel;
Similarly, the product-sum results etc. performed on the image data in the image memories 16 to 18 are temporarily stored.

22〜24は高速度RAMから成るルックアップテーブ
ル(LUT)であり、CPtJlにより階調変換テーブ
ルを書き変え可能な各256X8ビツトの記憶容量を持
つ、該LUT22〜24のアドレスラインは各8本(0
〜255番地)であり、アドレスデータは夫々イメージ
メモリ16〜18出力の画像データ(0〜255階調)
によって与えられる。一方、各LUT22〜24の読出
しデータラインは各8本で構成され、これらはビデオバ
ス25に接続されている。また各LUT22〜24には
CPUバス4が直接接続されており、これを介してCP
U1はLUT22〜24の内容をいつでも読み書きでき
る。26はビデオコントローラであり、これに不図示の
CRT表示装置又はビデオプリンタ等を接続することで
絵画化処理前後の画像データをモニタリングできる。
Reference numerals 22 to 24 are look-up tables (LUTs) consisting of high-speed RAM, each having a storage capacity of 256 x 8 bits that allows the gradation conversion table to be rewritten by CPtJl, and each of the LUTs 22 to 24 has eight address lines ( 0
~255 addresses), and the address data is the image data (0~255 gradation) of the image memory 16~18 output, respectively.
given by. On the other hand, each of the LUTs 22 to 24 has eight read data lines, which are connected to the video bus 25. Furthermore, the CPU bus 4 is directly connected to each LUT 22 to 24, and the CPU
U1 can read and write the contents of LUTs 22-24 at any time. Reference numeral 26 denotes a video controller, and by connecting a CRT display device or a video printer (not shown) to this controller, image data before and after the painting process can be monitored.

5はエツジ検出部であり、上記イメージメモリ16〜1
8中の各画像データを色合成したイメージデータから原
画像中のエツジ部分を検出し、これを2値化して、結果
の2値化エツジデータを出力する。これは原画像データ
中のエツジ部分(コントラスト部分)と平坦部分とで発
生させる筆パターンの性質及び形状を異ならしめるため
である。6は太線化処理部であり、エツジ検出部5出力
の2値化エツジデータに対してパターンの太線化処理を
行う、7はごみ処理部であり、太線化処理した太線化パ
ターン中から、孤立した面積の小さい雑音パターンを取
り除き、必要なエツジパターン部分だけを残す、8は色
変換部であり、原画像データを色データに変換する処理
を行う。
5 is an edge detection section, and the image memories 16 to 1 are
The edge portion in the original image is detected from the image data obtained by color-compositing each of the image data in 8, and is binarized, and the resulting binarized edge data is output. This is to make the properties and shapes of brush patterns generated different between edge portions (contrast portions) and flat portions in the original image data. Reference numeral 6 denotes a thick line processing unit, which performs pattern thickening processing on the binarized edge data output from the edge detection unit 5. Reference numeral 7 denotes a garbage processing unit, which extracts isolated lines from the thick line pattern that has been subjected to the thick line processing. Noise patterns with small areas are removed and only the necessary edge pattern portions are left. 8 is a color conversion unit which converts original image data into color data.

13はエツジ方向検出部であり、検出したエッジ部分の
方向性有無及びその方向を検出することにより、後述す
る筆パターン選択部10における適正な筆パターンの選
択を可能ならしめる。9は描画開始位置発生部であり、
不図示のランダム関数発生手段を備久、後述する筆パタ
ーンデータの描画位置がランダムになるように発生する
。10は筆パターン選択部であり、予め不図示のROM
中に複数種の小さい多値(又は2値)の筆パターンデー
タを格納しており、該複数の筆パターンデータの中から
、或は後述する筆パターン回転部11中の不図示のRO
M内に格納されていて、かつ順次パターン回転処理によ
り生成される多値(又は2値)の大きい筆パターンデー
タを上述のエツジ有無等の検出結果に基づき選択する。
Reference numeral 13 denotes an edge direction detection section, which enables the brush pattern selection section 10 described later to select an appropriate brush pattern by detecting the presence or absence of directionality of the detected edge portion and its direction. 9 is a drawing start position generating section;
A random function generating means (not shown) is used to generate a random function so that the drawing position of brush pattern data, which will be described later, is random. Reference numeral 10 is a brush pattern selection section, which is stored in advance in a ROM (not shown).
A plurality of types of small multivalued (or binary) brush pattern data are stored therein, and from among the plurality of small multivalued (or binary) brush pattern data, or an RO (not shown) in the brush pattern rotation unit 11, which will be described later, is stored.
The large multi-valued (or binary) brush pattern data stored in M and sequentially generated by pattern rotation processing is selected based on the above-mentioned detection results such as the presence or absence of edges.

11は筆パターン回転部であり、本実施例では不図示の
ROM内に単一の大きな多値(又は2値)の基本筆パタ
ーンデータを記憶しておき、該基本筆パターンに対して
シーケンシャルに回転効果を与えることにより、実質複
数種の筆パターンデータを発生する。12は描画部であ
り、原画像データ上の前記ランダムに発生した描画位置
において上記筆パターン選択部10が選択した筆パター
ンデータな描画(合成)する、即ち、例えば筆パターン
データが多値で構成される例では、発生した描画位置の
近傍の原画像データをあたかもその色の絵の真筆で描い
たような凹凸状、光沢状の画像データに変換する。14
は画像合成部であり、描画処理終了した画像データに対
して更にキャンパス等のテクスチャ画像を合成する。1
5はイメージメモリコントローラであり、上記エツジ検
出部5から画像合成部14までの各部が夫々の処理を行
うときに同期してイメージメモリ16〜18及びLUT
22〜24の必要な制御を行う。
Reference numeral 11 denotes a brush pattern rotation unit, which stores a single large multivalued (or binary) basic brush pattern data in a ROM (not shown) and sequentially rotates the basic brush pattern. By applying a rotation effect, substantially multiple types of brush pattern data are generated. Reference numeral 12 denotes a drawing section, which draws (synthesizes) the brush pattern data selected by the brush pattern selection section 10 at the randomly generated drawing positions on the original image data, that is, for example, the brush pattern data is composed of multi-values. In this example, the original image data in the vicinity of the generated drawing position is converted into uneven, glossy image data that looks as if it were drawn with a real brush of a picture of that color. 14
is an image synthesis unit, which further synthesizes a texture image such as a canvas on the image data for which drawing processing has been completed. 1
Reference numeral 5 denotes an image memory controller, which synchronizes the image memories 16 to 18 and the LUT when each section from the edge detection section 5 to the image composition section 14 performs respective processing.
22 to 24 necessary controls are performed.

[処理手順の説明 (第2図)] 第2図は、実施例の絵画化処理手順のフローチャートで
ある。尚、以下の説明ではアドレス(x、y)の原画像
(濃度)データをal  (x。
[Description of Processing Procedure (FIG. 2)] FIG. 2 is a flowchart of the painting processing procedure of the embodiment. In the following explanation, the original image (density) data at address (x, y) is referred to as al (x.

y)で表わす、但し、添え字iはR,G、Bの画像デー
タを個々に表わすときは夫々R,G、Bと記す、更に画
像データal  (x、y)は8ビツト(0〜255階
調表現可能)であり、最大濃度データ(最も暗いデータ
)の値を階FIOとし、最小濃度データ(最も明るいデ
ータ)の値を階調255とする。
However, when the subscript i represents R, G, and B image data individually, they are written as R, G, and B, respectively. Furthermore, the image data al (x, y) is 8 bits (0 to 255 The maximum density data (darkest data) is the gradation FIO, and the minimum density data (the brightest data) is the gradation 255.

くステップSl> CPU lは、画像データl1027を介して外部から
原画像データR,G、Bを取り込み、夫々をイメージメ
モリ16〜18に格納する。
Step Sl> The CPU l takes in original image data R, G, and B from the outside via the image data l1027, and stores them in the image memories 16 to 18, respectively.

尚、この時点ではLUT22〜24の内容は第3図に示
すように入出力が等しい標準変換特性にある。
At this point, the contents of the LUTs 22 to 24 have standard conversion characteristics in which input and output are equal, as shown in FIG.

〈ステップS2> エツジ検出部5はイメージメモリ16〜1日の原画像デ
ータR,G、Bに基づいてエツジ部分の抽出を行う、こ
のエツジ抽出処理は、まず(2)式に従って人間の視感
度曲線に合った画像データを作成する。
<Step S2> The edge detection unit 5 extracts edge portions based on the original image data R, G, and B from the image memory 16 to 1 day. This edge extraction process first calculates the human visual sensitivity according to equation (2). Create image data that matches the curve.

a (x、y) =−(3a *(x、y)+ 6 a a(x、y)+
 a a(x、y))・・・ (2) 上記(2)式では原画像データR,G、Bを0.3:0
.6:0.1の比で合成している。
a (x, y) = - (3a * (x, y) + 6 a a (x, y) +
a a (x, y))... (2) In the above equation (2), the original image data R, G, B is set to 0.3:0.
.. They were synthesized at a ratio of 6:0.1.

絵画は目で鑑賞するものであるから、まず原画像データ
を人間の視感度曲線に合わせて合成し、エツジ評価をす
る。またその際に、右辺の()内の積和計算を行うため
に各積和結果を一時的に16ビツトメモリ21に格納す
る。そして()内の積和結果をl/IOL、た内容はワ
ークメモリ2oに格納される。
Since paintings are meant to be appreciated with the eyes, the original image data is first synthesized according to the human visual sensitivity curve, and edges are evaluated. At this time, each product-sum result is temporarily stored in the 16-bit memory 21 in order to perform the product-sum calculation in parentheses on the right side. Then, the product-sum result in parentheses (l/IOL) is stored in the work memory 2o.

次に、ワークメモリ20の画像データに対して例久ば(
3X3)マトリクスの微分オペレータを用いてエツジ抽
出処理を行う、第4図に本実施例で採用した微分オペレ
ータの一例を示す、この微分オペレータは画像の右方向
に向けて明るさを増すようなエツジ(コントラスト)を
検出する。
Next, for example, the image data in the work memory 20 (
3X3) Edge extraction processing is performed using a matrix differential operator. Figure 4 shows an example of the differential operator employed in this example. This differential operator extracts edges that increase in brightness toward the right of the image. (contrast).

次に、第4図の微分オペレータを左回りにπ/4回転さ
せて第5図の微分オペレータを得る。この微分オペレー
タは画像の右上方向に向けて明−るさを増すよなエツジ
を検出する。そして、このエツジ検出結果と上述のワー
クメモリ20に記憶した検出結果とを比較し、大きい方
をワークメモリ20に格納する。以下、同様にして微分
オペレータを左回りにπ/4づつ回転させ、合計8方向
から見たエツジ検出結果を求め、ワークメモリ20に格
納する。この結果、ワークメモリ2oには可視像に変換
した画像データの全画素についての最大のエツジ成分が
抽出される。
Next, the differential operator in FIG. 4 is rotated counterclockwise by π/4 to obtain the differential operator in FIG. 5. This differential operator detects edges whose brightness increases toward the upper right of the image. This edge detection result is then compared with the detection result stored in the work memory 20 described above, and the larger one is stored in the work memory 20. Thereafter, the differential operator is similarly rotated counterclockwise by π/4 to obtain edge detection results viewed from a total of eight directions and stored in the work memory 20. As a result, the maximum edge component for all pixels of the image data converted into a visible image is extracted into the work memory 2o.

次に、ワークメモリ20を所定閾値で2値化処理し、エ
ツジ(閾値より大きい)と判定した画素はビット“1“
、それ以下と判定した画素はビット“0”に置き換える
。こうして、ワークメモリ20には原画像のエツジ成分
に関するエツジパターンデータが格納される。
Next, the work memory 20 is binarized using a predetermined threshold, and pixels determined to be edges (larger than the threshold) have a bit of “1”.
, pixels determined to be less than that are replaced with bit "0". In this way, the work memory 20 stores edge pattern data regarding edge components of the original image.

この一連の処理は、−点一点処理するのではなく、面単
位の処理で行うので、高速に実行される。
This series of processing is performed on a plane-by-plane basis rather than on a point-by-point basis, so it is executed at high speed.

くステップS3> ステップS2で生成したエツジパターンは後述の処理を
行うには細すぎる。そこでエツジパターンの太線化処理
を行う、この太線化処理はイメージメモリ16中の注目
エツジパターンデータをa (x、y)とすると(3)
式に従って行う、即ち、 a (x、 y) =1  のときは、a (x+i、
y+J)=1  とする。
Step S3> The edge pattern generated in step S2 is too thin to perform the processing described below. Therefore, the edge pattern is thickened. This thickening process is performed as shown in (3) when the edge pattern data of interest in the image memory 16 is a (x, y).
When a (x, y) = 1, a (x+i,
y+J)=1.

ここで、 一3≦i≦3.−3≦J≦3の整数 そして、この太線化処理結果を例えばイメージメモリ1
7の下位1ビツトに格納する。
Here, 13≦i≦3. An integer of −3≦J≦3.Then, the result of this thick line processing is stored in the image memory 1, for example.
Stored in the lower 1 bit of 7.

くステップS4> 上記ステップS3で得た太線化エツジパターンデータに
は通常小さな孤立したノイズパターンが多く含まれてい
る。ごみ処理部7はイメージメモリ17に格納した全エ
ツジパターンデータに対して、その連結性有無の判断に
基づき面積を算出し、所定面積以下のものはノイズパタ
ーンとして消去する。この連結性有無の判断はイメージ
メモリ17中の注目エツジパターンデータをa (x、
y)とすると(4)式に従って行う。
Step S4> The thickened edge pattern data obtained in step S3 above usually contains many small isolated noise patterns. The dust processing section 7 calculates the area of all the edge pattern data stored in the image memory 17 based on the determination of the presence or absence of connectivity, and erases the edge pattern data having a predetermined area or less as a noise pattern. This determination of the presence or absence of connectivity is based on the edge pattern data of interest in the image memory 17 a (x,
y), it is performed according to equation (4).

即ち、 a (x、 y) =1  のときは、a (x+i、
y+j)=1  を調べる。
That is, when a (x, y) = 1, a (x+i,
Check y+j)=1.

・・・ (4) ここで、 一1≦i≦1.−1≦j≦1の整数 即ち、a (x+i、y+j)=1の条件を・1つでも
満たせば連続性があるとみなす。
... (4) Here, 11≦i≦1. If at least one of the conditions -1≦j≦1, that is, a (x+i, y+j)=1 is satisfied, it is considered that there is continuity.

くステップS5> ステップS5は、原画像全体を予め選んでおいたパレッ
トの色に変換する処理で、本実施例では色変換部8が以
下に述べる処理を行う。
Step S5> Step S5 is a process of converting the entire original image into colors of a pre-selected palette, and in this embodiment, the color conversion unit 8 performs the process described below.

なお、この処理は、本発明の特徴を最もよく表わしてい
る処理である。また、本実施例では、色変換用のパレッ
トを油絵用とし、油絵の具の代表色“256”色を選択
してCPUメモリ2に格納している。これは、自然画像
、油絵画像から得られるカラー情報を量子化し、画像全
体の彩度を測定したところ、平均して自然画像よりも油
絵画像の方が彩度が高く、また、−枚の絵画で使用され
る色数は限られているためである。そこで、複数の油絵
画像のR,G、B空間での出現頻度を測定し、出現頻度
の多いものから“256゛色を選択したものである。
Note that this process is the process that best represents the features of the present invention. Further, in this embodiment, the palette for color conversion is used for oil painting, and "256" representative colors of oil paint are selected and stored in the CPU memory 2. When color information obtained from natural images and oil painting images was quantized and the saturation of the entire image was measured, oil painting images had higher saturation on average than natural images. This is because the number of colors used is limited. Therefore, the frequency of appearance of a plurality of oil painting images in R, G, and B space was measured, and the "256" colors were selected from those with the highest frequency of appearance.

ステップS5では、上述したCPUメモリ2に格納しで
ある色データを用いて、イメージメモリ16〜18の全
画素を置き換える。置換前の位置(χ、y)のデータを
(Rio、G rfi、B in)、代表色の1番目の
値を(R+ 、Gt 、B+ )とすると、その隔たり
D+は(5)式で表わすことができる。
In step S5, all pixels in the image memories 16 to 18 are replaced using the color data stored in the CPU memory 2 described above. Assuming that the data at the position (χ, y) before replacement is (Rio, G rfi, B in) and the first value of the representative color is (R+, Gt, B+), the gap D+ is expressed by equation (5). be able to.

D+  =        +n−r      + 
    In+  B、fi−B、  ”   ・・・
(5)1番目の色から256番までDiを計算して、D
、が最小となる色が、最適な色であるので、その色で 
点(χ、y)を置換する。全ての画素に対してこの処理
を行うことにより、原画像は油絵に適した色で構成され
る画像へ変換される。
D+ = +n-r +
In+B, fi-B, ”...
(5) Calculate Di from the 1st color to the 256th color, and
The color that minimizes , is the optimal color, so with that color
Replace the point (χ, y). By performing this processing on all pixels, the original image is converted into an image composed of colors suitable for an oil painting.

くステップS6> ステップS6では描画開始位置発生部9が筆パターンの
描画位置情報を発生する。筆パターンの描画位置は、こ
れを規則正しくシーケンシャルに発生させると絵画的表
現の自然性を損なう。
Step S6> In step S6, the drawing start position generating section 9 generates drawing position information of the brush pattern. If the drawing positions of the brush patterns are generated regularly and sequentially, the naturalness of the pictorial expression will be lost.

そこで実施例の描画位置はランダムな位置に発生する。Therefore, the drawing position in the embodiment is generated at a random position.

この描画位置情報の発生は、まず原画像データRに対し
て行う、描画開始位置発生部9は内部に不図示の乱数発
生手段を備えており、該乱数発生手段は、例えばCPU
 1からの3つの乱数発生パラメータ(行方向の乱数発
生系列を与える整数、列方向の乱数発生系列を与える整
数、乱数の発生個数)を受は取ることにより、対応する
モードで乱数を発生する。描画開始位置発生部9は発生
した乱数に応じて筆パターンの描画開始位置(Xs、y
a)を決定する。
The generation of this drawing position information is first performed on the original image data R.The drawing start position generating section 9 is internally equipped with a random number generating means (not shown), and the random number generating means is, for example, a CPU.
1 to three random number generation parameters (an integer that gives a random number generation sequence in the row direction, an integer that gives a random number generation sequence in the column direction, and the number of random numbers to be generated), the receiver generates random numbers in the corresponding mode. The drawing start position generating section 9 determines the drawing start position (Xs, y
Determine a).

尚、本実施例では乱数発生パラメータを原画像データG
及びBの処理を行うときも同一にしているので、その描
画位置及び描画個数も原画像データRのものと同一にな
る。
In this example, the random number generation parameter is set to the original image data G.
Since the processing of and B is the same, the drawing position and the number of drawings are also the same as those of the original image data R.

くステップS7> ステップS7では発生した描画位置にエツジパターンデ
ータが存在するか否かを判別し7、描画位置にエツジパ
ターンが無い(エツジデータ=0)ならステップS8以
降の大きな筆パターンデータで描画するルーチンへ進み
、また描画位置にエツジパターンが有る(エツジデータ
=1)ならステップS12以降の小さな筆パターンデー
タで描画するルーチンへ進む、これはエツジ部分の画像
は詳細に描画し、それ以外の部分は大まかに描画するた
めである。
Step S7> In step S7, it is determined whether or not edge pattern data exists at the generated drawing position 7. If there is no edge pattern at the drawing position (edge data = 0), drawing is performed using the large brush pattern data from step S8 onwards. Proceed to the routine, and if there is an edge pattern at the drawing position (edge data = 1), proceed to the routine that draws with small brush pattern data from step S12 onwards. This means that the image of the edge part is drawn in detail, and the other parts are This is for drawing roughly.

一方、筆パターン選択部10はまずステップS7の判別
に伴って、大きい基パターンデータか小さい基パターン
データかの選択を行う、何れの基パターンデータも例え
ば、O−n階調の多値画像データ(他の実施例では2値
画像データ)で構成されており、実質的に複数種類用意
されている。
On the other hand, the brush pattern selection unit 10 first selects large basic pattern data or small basic pattern data in accordance with the determination in step S7. (binary image data in other embodiments), and substantially multiple types are prepared.

本実施例では筆パターン回転部11内の不図示のROM
に大きな基パターンデータ(以下、多値と2値を総称し
て単に基パターンデータという)を1種類記憶しており
、筆パターン選択部10内の不図示のROMに小さな基
パターンデータな3種類記憶している。小さな基パター
ンデータとしては原画像データのエツジ部分を適切に描
画できるように、円形に近い方向性の無いもの、縦方向
エツジに適する縦長のもの、横方向エツジに適する横長
のものが記憶されている。
In this embodiment, a ROM (not shown) in the brush pattern rotating section 11
One type of large base pattern data (hereinafter, multi-value and binary are collectively referred to simply as base pattern data) is stored in the brush pattern selection unit 10, and three types of small base pattern data are stored in a ROM (not shown) in the brush pattern selection unit 10. I remember. As small base pattern data, in order to appropriately draw the edge portion of the original image data, a pattern that is close to a circle with no directionality, a vertical pattern suitable for vertical edges, and a horizontal pattern suitable for horizontal edges are stored. There is.

第6図(A)〜(D)には実施例の多値筆パターンデー
タの例を示す、また、(E)〜(H)に2値筆パターン
データの例を示す、第6図(A)(E)は大きい基パタ
ーンデータの例を、第6図(B)(F)は無方向性の基
パターンデータの例を、第6図(C)(G)は縦長筆パ
ターンデータの例を、第6図CD)(H)は横長筆パタ
ーンデータの例を夫々示している。これらの基パターン
データは、文字通り、大軍又は細筆に絵の具を塗って紙
に描いたような基パターンデータ(但し、実施例゛では
形状を表わす無彩色)で構成されている。即ち、出力画
像に光線が照射される方向を加味すると、それに応じて
輝度の盛り上がり感、厚み感、あるいは筆運びの方向に
沿っての凹凸感等が現われ、かつそのパターン形状は終
端部で尾を引いている0本実施例では、かかる基パター
ンデータの代表例を、例えば実際の絵画サンプル画像か
ら読み取り、若しくは画像処理により生成して、予め筆
パターンの盛り上がり形状等の輝度情報として記憶しで
ある。
6(A) to 6(D) show examples of multivalued brush pattern data of the embodiment, and FIGS. 6(E) to 6(H) show examples of binary brush pattern data. )(E) is an example of large base pattern data, FIGS. 6(B) and (F) are examples of non-directional base pattern data, and FIGS. 6(C) and (G) are examples of vertically long brush pattern data. , and FIG. 6 (CD) (H) respectively show examples of horizontally long brush pattern data. These base pattern data are literally composed of base pattern data as if drawn on paper by applying paint to a large or thin brush (however, in the embodiment, an achromatic color representing the shape) is used. In other words, when the direction in which the light beam is irradiated is taken into consideration in the output image, a feeling of bulge in brightness, a feeling of thickness, or a feeling of unevenness along the direction of the brush stroke will appear accordingly, and the pattern shape will have a tail at the end. In this embodiment, a representative example of such base pattern data is read from an actual painting sample image or generated by image processing, and is stored in advance as brightness information such as the raised shape of a brush pattern. be.

〈ステップS8〉 ステップS8は大きな基パターンデータな使用するルー
チンへの入力である。ステップS8では、まず大きな基
パターンデータの回転処理が終了しているか否かを判別
する0回転処理が終了している場合はステップSIOに
進み、大きな基パターンデータの描画処理を行う、また
回転処理が終了していない場合はステップS9に進み、
基パターンデータの回転処理を行う。
<Step S8> Step S8 is input to a routine that uses large base pattern data. In step S8, it is first determined whether or not the rotation process of the large base pattern data has been completed. If the 0 rotation process has been completed, the process proceeds to step SIO, where the drawing process of the large base pattern data is performed. If not completed, proceed to step S9,
Performs rotation processing of the base pattern data.

くステップS9> ステップS9では大きい基パターンデータの回転処理を
行う、大きい基パターンデータは予めROMに複数種類
記憶しておければアクセスが速い、しかし、本実施例で
はROMの容量を節約する目的から、1つの基パターン
データな回転することで実質複数種類の基パターンデー
タを用意するのと同等の効果を得ている。この回転処理
は筆パターン回転部11で行い、例えば基パターンデー
タの基本位置を垂直方向とすると、該垂直方向から主2
0de シーケンシャルに回転処理を行う.尚、回転範囲を主2
0de 向を考慮したものである.またこの範囲内なら照射する
光線の方向による影の効果を変えなくても実際上問題は
ない。
Step S9> In step S9, rotation processing of large basic pattern data is performed.If multiple types of large basic pattern data are stored in advance in the ROM, access is faster.However, in this embodiment, the purpose is to save the ROM capacity. Therefore, by rotating one base pattern data, substantially the same effect as preparing multiple types of base pattern data can be obtained. This rotation process is performed by the brush pattern rotation unit 11. For example, if the basic position of the basic pattern data is the vertical direction, the main 2
0de Perform rotation processing sequentially. In addition, the rotation range is mainly 2
This takes the 0de direction into consideration. Moreover, within this range, there is no practical problem even if the shadow effect does not change depending on the direction of the irradiated light beam.

具体的には、回転処理した基パターンデータの座標(K
,L)は(6)式に従って求める。
Specifically, the coordinates (K
, L) are determined according to equation (6).

以下余白 ・・・ (6) ここで、 (1,J):入力筆パターンデータの座標(xo、 y
o)  二回転の中心座標01回転角 ここで、回転角θはldegづつシーケンシャルに変化
するが、ステップS6で発生した描画位置はランダムで
あるから、結局原画像データR上にはランダムな位置に
ランダムな方向の筆パターンデータが現われたことにな
る。しかも、主20de 全体としてもある程度の方向性が残り、絵画特有の筆の
タッチ(癖)が表現可能である。
Margin below... (6) Here, (1, J): Coordinates of input brush pattern data (xo, y
o) Center coordinate of two rotations 01 Rotation angle Here, the rotation angle θ changes sequentially by ldeg, but since the drawing position generated in step S6 is random, it ends up being a random position on the original image data R. This means that brush pattern data in random directions has appeared. Moreover, the main 20de as a whole retains a certain degree of directionality, making it possible to express the brush strokes (habits) unique to paintings.

くステップSIO> 描画部12はステップS6で発生した描画位置に大きい
筆パターンデータの描画を行う。
Step SIO> The drawing unit 12 draws large brush pattern data at the drawing position generated in step S6.

第7図(A)は発生した描画開始位置(X@。FIG. 7(A) shows the generated drawing start position (X@).

y.)と多値筆パターンデータの中心位置(xc 、 
yc )の関係を示す図である.即ち、第7図(A)の
関係になるように原画像データと多値筆パターンデータ
との位置合せなし、具体的には、描画のための新たな書
込データC+  (x  、y’)を(7)式に従って
求める。
y. ) and the center position of the multivalued brush pattern data (xc,
yc ). That is, the original image data and the multivalued brush pattern data are not aligned so that the relationship shown in FIG. is calculated according to equation (7).

CI  (X   、  y’) ・・・ (7) ここで、 i:R,G.B al (Xc + yc ):筆パターンデータの中心
位置に対応する原画像データ P (x,y)ニアドレス(x.y)の多値筆パターン
データ n:筆パターンデータの階調数 (x.y”)ニアドレス(x,y)に対応する原画像デ
ータの位置 即ち、(7)式は多値筆パターンデータの中心位置に対
応する原画像データa l( Xc * :J c )
でもって当該筆パターンエリアの色(i=R。
CI (X, y')... (7) Here, i: R, G. B al (Xc + yc): Original image data P (x, y) corresponding to the center position of the brush pattern data. Multivalued brush pattern data at the near address (x.y) n: Number of gradations of the brush pattern data (x .y'') position of the original image data corresponding to the near address (x, y), that is, equation (7) is the original image data a l (Xc * : J c ) corresponding to the center position of the multivalued brush pattern data.
Therefore, the color of the brush pattern area (i=R.

G,B)及び輝度を代表させており、その周囲を多値筆
パターンデータの絵の具の盛り上り情報P (x.y)
により変化を付けて描画している。
G, B) and brightness are represented, and the surrounding area is filled with paint bulge information P (x.y) of multi-valued brush pattern data.
It is drawn with some changes.

尚、(7)式において(n−1)で割っているのは演算
結果を8ビツトにするためである。こうして(7)式の
演算は多値筆パターンデータP (x,y)の左上から
順に行い、多値筆パターンデータの1画素分に相当する
書き込みを行なうとステップSllに進む。
Note that the reason for dividing by (n-1) in equation (7) is to make the calculation result 8 bits. In this way, the calculation of equation (7) is performed sequentially from the upper left of the multi-value brush pattern data P (x, y), and when writing corresponding to one pixel of the multi-value brush pattern data is completed, the process advances to step Sll.

第7図(B)は、他の実施例として、筆パターンデータ
が2値の場合を示している。この場合は上記(7)式は
(7)′式のように表わせる。
FIG. 7(B) shows a case where the brush pattern data is binary as another example. In this case, the above equation (7) can be expressed as equation (7)'.

Cr  (x  、 y’) =P (x,y)Xa+  (xc 、yc )・・・
 (7) ここで、 P (x.y)  ニアドレス(x,y)の2値筆パタ
ーンデータ 即ち、(7)′式では2値筆パターンデータの中心位置
に対応する原画像データai(Xc。
Cr (x, y') = P (x, y)Xa+ (xc, yc)...
(7) Here, P (x.y) is the binary brush pattern data of the near address (x, y), that is, in equation (7)', the original image data ai (Xc .

yc)でもって当該2値筆パターンエリアの色(i=R
,G、B)及び輝度を代表させ、その周囲のP (x、
y)=1の部分を前記の代表値により描画している。
yc) and the color of the binary brush pattern area (i=R
, G, B) and the brightness, and the surrounding P (x,
The portion where y)=1 is drawn using the above-mentioned representative value.

尚、上述の実施例では原画像データat  (xcyc
)を抽出してその周囲に多値又は2値による筆パターン
データP (x、y)の描画を行ったがこれに限らない
、他にも原画像データa+  (Xs 、 ye )の
周囲の平均値を用いたり、多値筆パターンデータP (
x、y)が所定値以上又は2値筆パターンデータP (
x、y)が“1”である位置と一致する原画像データの
平均値を用いたり、あるいはそれらの原画像データの最
大値又は最小値を用いても良い。
Note that in the above embodiment, the original image data at (xcyc
) is extracted and multi-valued or binary brush pattern data P (x, y) is drawn around it, but this is not limited to this, and the average around the original image data a+ (Xs, ye) value or use multi-value brush pattern data P (
x, y) is greater than or equal to a predetermined value or binary brush pattern data P (
The average value of the original image data corresponding to the position where x, y) is "1" may be used, or the maximum value or minimum value of those original image data may be used.

〈ステップSt 1> 筆パターンデータの全画素について描画終了したか否か
を判断し、描画終了していない間はステップS7へ戻る
。従って、もし大きな筆パターンデータの描画途中でエ
ツジデータに遭遇すると大きい筆パターンデータの描画
をその時点で終了し、ステップSL2以降の小さな筆パ
ターンデータの描画処理に進む、エツジ部分の描画は他
に優先するからである。
<Step St 1> It is determined whether drawing has been completed for all pixels of the brush pattern data, and if drawing has not been completed, the process returns to step S7. Therefore, if edge data is encountered in the middle of drawing large brush pattern data, the drawing of the large brush pattern data is ended at that point and the process proceeds to the drawing process of small brush pattern data from step SL2 onward.Drawing of edge portions takes priority over others. Because it does.

くステップS12〉 エツジ方向検出部13はイメージメモリ16の下位1ビ
ツトに記録されているエツジデータの方向を検出し、こ
れに応じて筆パターン選択部10は検出方向に適した筆
パターンデータな選択する。エツジ方向の検出は、例え
ば第8図又は第9図のような1次元オペレータとエツジ
データの論理積を夫々求め、結果が真となる画素数を縦
方向と横方向とで比較し、その差がある値よりも大きい
時は画素数の大きい方向がエツジ方向と判断する。具体
的には、エツジ方向信号Sは(8)式に従って求められ
る。
Step S12> The edge direction detection unit 13 detects the direction of the edge data recorded in the lower 1 bit of the image memory 16, and in response to this, the brush pattern selection unit 10 selects the brush pattern data suitable for the detected direction. . To detect the edge direction, for example, calculate the AND of the one-dimensional operator and edge data as shown in Figures 8 or 9, compare the number of pixels for which the result is true in the vertical direction and the horizontal direction, and find out the difference between them. When it is larger than a certain value, the direction with the larger number of pixels is determined to be the edge direction. Specifically, the edge direction signal S is obtained according to equation (8).

S=F (T (x、y)nE (x、y))−F (
Y (x、y)nE (x、y))ここで、 E (x、y):エツジデータ T (x、y):縦方向オペレータ Y (x、y):横方向オペレータ F():論理積が真となる画素数を 算出する関数 筆パターン選択部10はこのエツジ方向信号Sに基づき
、dを所定数として、−d≦S≦dなら「丸パターン」
第6図(B)又は(F)を、S<−dなら「横長パター
ン」第6図(D)又は(H)を、d<Sなら「縦長パタ
ーン」第6図(C)又は(G)を選択する。
S=F (T (x, y) nE (x, y)) − F (
Y (x, y) nE (x, y)) Here, E (x, y): Edge data T (x, y): Vertical operator Y (x, y): Horizontal operator F (): Logical product Based on this edge direction signal S, the functional brush pattern selection unit 10 that calculates the number of pixels for which is true, sets d to a predetermined number, and if -d≦S≦d, a "round pattern" is selected.
Figure 6 (B) or (F), if S<-d, the "horizontal pattern" Figure 6 (D) or (H), if d<S, the "vertical pattern" Figure 6 (C) or (G ).

くステップS13> 描画部12はステップS12で選択した筆パターンデー
タの描画を行う、これにより、エツジ部分は小さい筆パ
ターンデータ又は細長い筆パターンデータにより方向性
に沿うて描かれるのでシャープな絵画的表現を行える。
Step S13> The drawing unit 12 draws the brush pattern data selected in step S12. As a result, the edge portion is drawn along the direction using small brush pattern data or elongated brush pattern data, resulting in a sharp painterly expression. can be done.

くステップS14〉 小さい筆パターンデータの全画素について描画終了して
いるか否かを判断する。終了していなければステップS
13に戻り、終了していればステップS15に進む。
Step S14> It is determined whether drawing has been completed for all pixels of the small brush pattern data. If not completed, step S
Return to step S13, and if the process has been completed, proceed to step S15.

〈ステップS15〉 CPU 1はランダムに発生した設定個数分の描画処理
を行ったか否かを判別する。設定個数分終了していない
場合はステップS6に戻り、また終了した場合はステッ
プS16へ進む。
<Step S15> The CPU 1 determines whether drawing processing has been performed for a set number of randomly generated drawings. If the set number of items has not been completed, the process returns to step S6, and if the process has been completed, the process proceeds to step S16.

くステップS16〉 CPU 1は画像データR,G%Bの3面について描画
処理終了したか否かを判別する。終了していなければス
テップSS6に戻り、残りの面の処理を開始する。また
全ての面の描画処理が終了していればステップS17へ
進む。
Step S16> The CPU 1 determines whether or not the drawing process has been completed for the three sides of the image data R and G%B. If the processing has not been completed, the process returns to step SS6 to start processing the remaining surfaces. If the drawing process for all surfaces has been completed, the process advances to step S17.

〈ステップS17〉 最後にテクスチャメモリ19のキャンパス画像データと
イメージメモリ16〜18の画像データを合成する。具
体的には、合成後の画像データG+  (x、y)は(
9)式に従って求める。
<Step S17> Finally, the canvas image data in the texture memory 19 and the image data in the image memories 16 to 18 are combined. Specifically, the image data G+ (x, y) after composition is (
9) Obtain according to the formula.

G+(x、y) =aA+  (x、y)+bT (x、y)・・・ (
9) ここで、 a、b:定数 かつ a+b=1 i:R,G、B A+  (x、y):イメージメモリ16〜18の画像
データ T (x、y):テクスチャメモリ19の画像データ 尚、テクスチャメモリ19には予め(bXT(x、y)
)を格納して置くことが可能である。
G+ (x, y) = aA+ (x, y) + bT (x, y)... (
9) Here, a, b: constants and a+b=1 i: R, G, B A+ (x, y): Image data of image memories 16 to 18 T (x, y): Image data of texture memory 19 , in the texture memory 19 in advance (bXT(x,y)
) can be stored.

また(aXA+  (x、y))の演算は、例えば第1
0図の変換テーブルをLUT22〜24に書き込むこと
で容易に行える。そして、2つの画像データの加算は各
メモリブレーンR,G、B全体で行えるのでステップS
17の処理もリアルタイムで実行される。
In addition, the operation of (aXA+ (x, y)) is, for example, the first
This can be easily done by writing the conversion table shown in Figure 0 into the LUTs 22-24. Then, since the addition of the two image data can be performed in each memory brain R, G, and B as a whole, step S
Processing No. 17 is also executed in real time.

尚、上述実施例の説明では描画処理を全てデジタル演算
により行ったがこれに限らない。
Incidentally, in the description of the above-mentioned embodiment, all the drawing processing was performed by digital calculation, but the present invention is not limited to this.

例えばロボットに幾種類かの実物の筆を持たせておき、
かつ上記ランダムに発生した描画位置に、上記選択した
又は回転角を与久た筆パターンデータな描かせても良い
For example, a robot can be equipped with several types of real brushes,
Further, the brush pattern data may be drawn at the randomly generated drawing position with the selected rotation angle.

また上述実施例ではエツジの有無及びエツジの方向性に
応じて筆パターンデータを選択しているがこれに限らな
い0例えば原画像データの空間周波数成分を解析して筆
パターンデータを選択しても良い。
Further, in the above embodiment, the brush pattern data is selected depending on the presence or absence of edges and the direction of the edges, but the invention is not limited to this.For example, the brush pattern data may be selected by analyzing the spatial frequency components of the original image data. good.

また上述実施例ではエツジ抽出には3×3画素の微分オ
ペレータを用いたがこれに限らない。
Further, in the above embodiment, a 3×3 pixel differential operator is used for edge extraction, but the present invention is not limited to this.

例えば原画像の画素サイズ、筆パターンデータのサイズ
等に応じて微分オペレータの大きさや、内容を変更でき
るようにしても良い。
For example, the size and contents of the differential operator may be changed depending on the pixel size of the original image, the size of the brush pattern data, etc.

また、ROMに筆パターンデータや処理に必要なパラメ
ータを記憶しているが、処理の前や途中でそれらのデー
タを変更できるようにRAMに記憶させておいてもよい
。また、イメージメモリの大きさや表現できる階調数も
任意に変更できるようにしてもよい。
Although the brush pattern data and parameters necessary for processing are stored in the ROM, they may be stored in the RAM so that these data can be changed before or during the processing. Furthermore, the size of the image memory and the number of gradations that can be expressed may be changed arbitrarily.

また、色変換用のパレットを油絵用として1組用意して
いるが、水彩画用、イラスト画用1個人の好みに合った
パレットを用意したり、また画像によっても、使用する
パレットに違いがあるので例久ば、ゴッホ用、ビカソ用
など画家の色使いの傾向に対応したパレットを用意して
おけば、よりリアルで個性的な結果を得ることができる
In addition, we have one set of palettes for color conversion for oil paintings, but we also have one set of palettes for watercolor paintings and one for illustration paintings that suit individual tastes, and the palettes used differ depending on the image. Therefore, if you prepare a palette that corresponds to the artist's color usage, such as Van Gogh's or Bicaso's, you can obtain more realistic and unique results.

[発明の効果] 以上説明したように、処理内容に適したパレットを用意
しておき、原画像のすべての画素が、用意したパレット
の色に最適に置き換わるようにすることにより、処理目
的に見合った色使いの画像を得ることができる。
[Effects of the Invention] As explained above, by preparing a palette suitable for the processing content and ensuring that all pixels of the original image are optimally replaced with the colors of the prepared palette, it is possible to You can obtain images with different colors.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明による実施例の画像処理装置のブロック
構成図、 第2図は実施例の絵画化処理手順のフローチャート、 第3図は実施例のLUT21〜23の初期状態における
階調変換テーブル特性の一例を示す図、 第4図は実施例で採用した微分オペレータの一例を示す
図、 第5図は第4図の微分オペレータを左回りにπ/4回転
させた場合の微分オペレータを示す図、 第6図(A)〜(D)は実施例の多値筆パターンデータ
の例を示す図、 第6図<E)〜(H)は他の実施例の2値筆パターンデ
ータの例を示す図、 第7図(A)、(B)は描画開始位置(X、。 y+−)と選択した筆パターンデータの中心位置(xc
、yc)との関係を示す図、 第8図は実施例の縦方向エツジ検出用オペレータの一例
を示す図、 第9図は実施例の横方向エツジ検出用オペレータの一例
を示す図、 第10図はテクスチャ画像合成の際の一例のLUT変換
特性を示す図である。 図中、l・・・CPU、2・・・CPUメモリ、3・・
・CPUl10.4・・・CPUバス、5・・・エツジ
検出部、6・・・太線化処理部、7・・・ごみ処理部、
8・・・色変換部、9・・・描画開始位置発生部、10
・・・筆パターン選択部、11・・・筆パターン回転部
、12・・・描画部、13・・・エツジ方向検出部、1
4・・・画像合成部、15・・・イメージメモリコント
ローラ、16〜21・・・画像メモリ、22〜24・・
・LUT、25・・・ビデオバス、26・・・ビデオコ
ントローラ、27・・・画像データI10である。 入7IS済 第3図
FIG. 1 is a block configuration diagram of an image processing apparatus according to an embodiment of the present invention, FIG. 2 is a flowchart of a painting processing procedure of the embodiment, and FIG. 3 is a gradation conversion table in the initial state of LUTs 21 to 23 of the embodiment. Figure 4 is a diagram showing an example of the characteristics. Figure 4 is a diagram showing an example of the differential operator employed in the example. Figure 5 is the differential operator when the differential operator in Figure 4 is rotated counterclockwise by π/4. Figures 6(A) to 6(D) are diagrams showing examples of multivalued brush pattern data of the embodiment, and Figures 6<E) to (H) are examples of binary brush pattern data of other embodiments. Figures 7 (A) and (B) show the drawing start position (X, y+-) and the center position (xc) of the selected brush pattern data.
, yc); FIG. 8 is a diagram showing an example of an operator for detecting edges in the vertical direction according to the embodiment; FIG. 9 is a diagram showing an example of an operator for detecting edges in the horizontal direction according to the embodiment; The figure is a diagram showing an example of LUT conversion characteristics during texture image synthesis. In the figure, l... CPU, 2... CPU memory, 3...
・CPU10.4...CPU bus, 5...Edge detection section, 6...Thick line processing section, 7...Trash processing section,
8... Color conversion section, 9... Drawing start position generation section, 10
... Brush pattern selection section, 11... Brush pattern rotation section, 12... Drawing section, 13... Edge direction detection section, 1
4... Image composition unit, 15... Image memory controller, 16-21... Image memory, 22-24...
-LUT, 25...Video bus, 26...Video controller, 27...Image data I10. 7 IS completed Figure 3

Claims (2)

【特許請求の範囲】[Claims] (1)画像処理の種類を選択できる選択手段と、該選択
手段で選択された処理を行う画像処理装置であつて、 原画像データを記憶する第1の記憶手段と、前記処理の
種類に応じて予め決めておいた複数の色データを夫々記
憶する第2の記憶手段と、前記第1の記憶手段で記憶す
る原画像データを前記第2の記憶手段で記憶する色デー
タに変換する変換手段とを備えることを特徴とする画像
処理装置。
(1) A selection means for selecting a type of image processing; an image processing apparatus for performing the processing selected by the selection means; a first storage means for storing original image data; and a first storage means for storing original image data; a second storage means for storing a plurality of color data respectively determined in advance; and a conversion means for converting the original image data stored in the first storage means into color data stored in the second storage means. An image processing device comprising:
(2)前記変換手段は前記第2の記憶手段で記憶する色
データの内前記原画像データに最も近い色データに変換
することを特徴とする請求項第1項記載の画像処理装置
(2) The image processing apparatus according to claim 1, wherein the conversion means converts the color data stored in the second storage means to color data closest to the original image data.
JP24898588A 1988-10-04 1988-10-04 Picture processor Pending JPH0296879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24898588A JPH0296879A (en) 1988-10-04 1988-10-04 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24898588A JPH0296879A (en) 1988-10-04 1988-10-04 Picture processor

Publications (1)

Publication Number Publication Date
JPH0296879A true JPH0296879A (en) 1990-04-09

Family

ID=17186313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24898588A Pending JPH0296879A (en) 1988-10-04 1988-10-04 Picture processor

Country Status (1)

Country Link
JP (1) JPH0296879A (en)

Similar Documents

Publication Publication Date Title
US5038223A (en) Image processing method and apparatus for imparting a pictorial or painter-like effect
US7817159B2 (en) Digital painting
US5867169A (en) Method and apparatus for manipulating color values in a computer graphics system
US5473736A (en) Method and apparatus for ordering and remapping colors in images of real two- and three-dimensional objects
US7095418B2 (en) Apparatus and methods for texture mapping
JP4491129B2 (en) Color gamut mapping method and apparatus using local area information
US4992780A (en) Method and apparatus for storing a two-dimensional image representing a three-dimensional scene
Webb et al. Fine tone control in hardware hatching
US5204665A (en) Color editing with simple encoded images
US5404427A (en) Video signal processing with added probabilistic dither
JPH04507314A (en) Image digital signal conversion device and method
JPH0612051A (en) Image display device
Martín et al. Scale-dependent and example-based grayscale stippling
JPH0296880A (en) Picture processor
EP0566915B1 (en) Sharpness processing apparatus
JPS63209390A (en) Colored picture converter
US20050017969A1 (en) Computer graphics rendering using boundary information
JPH09502816A (en) Color matching system
JP4429558B2 (en) Image display method and apparatus
JPH0296879A (en) Picture processor
JPH01219965A (en) Method and device for processing image
JP2000322601A (en) Image generating system
JP2690492B2 (en) Image processing device
JPH0754554B2 (en) Display processing method
JPH01219962A (en) Method and device for processing image