JPH0296880A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH0296880A
JPH0296880A JP63248986A JP24898688A JPH0296880A JP H0296880 A JPH0296880 A JP H0296880A JP 63248986 A JP63248986 A JP 63248986A JP 24898688 A JP24898688 A JP 24898688A JP H0296880 A JPH0296880 A JP H0296880A
Authority
JP
Japan
Prior art keywords
data
processing
color
brush pattern
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63248986A
Other languages
Japanese (ja)
Other versions
JP2922520B2 (en
Inventor
Shigeki Yamada
茂樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP63248986A priority Critical patent/JP2922520B2/en
Publication of JPH0296880A publication Critical patent/JPH0296880A/en
Application granted granted Critical
Publication of JP2922520B2 publication Critical patent/JP2922520B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To obtain the picture of color (tint) suitable for the contents of processing by preparing beforehand a pallet for color conversion suitable for the contents of the processing by combining two attributes among three attributes of the color into a group, and color-converting an original picture most suitably by using said pallet. CONSTITUTION:First storage means 16 to 18 store respectively the original picture data of three primary colors of R (red), G (green), B (blue) read in through a picture data I/O 27. Besides, a second storage means 2 stores respectively plural conversion data in which two attributes, at least, among three attributes of the lightness, the hue and the saturation of the color are combined according to the kind of the processing. Then, in a color converting means 8, the original picture data is converted into color data in conformity with plural conversion data according to the contents of the processing. Thus, the picture of the color suitable for the contents of the processing can be obtained.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、画像処理装置に関し、例久ば原画像データを
絵画タッチの美的画像データに変換する画像処理装置に
関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an image processing device, and more particularly to an image processing device that converts original image data into aesthetic image data with a painterly touch.

[従来の技術] 従来、画像処理技術を応用して美的画像を作り出す例と
してモザイク処理がある。これは、例えばX方向及びY
方向に各5画素の合計25画素をブロック単位として画
像のモザイク処理をするものであり、具体的には、アド
レス(x、y)の原画像データをa (x、y)とする
と、モザイク処理後の画像データa  (x、y)は(
1)式によって求まる。
[Prior Art] Conventionally, mosaic processing is an example of creating an aesthetic image by applying image processing technology. This can be done, for example, in the X direction and in the Y direction.
Image mosaic processing is performed using blocks of 5 pixels in each direction, totaling 25 pixels. Specifically, if the original image data at address (x, y) is a (x, y), then mosaic processing is performed. The subsequent image data a (x, y) is (
1) Determined by the formula.

a ′ (5m−i、5n−j) =a (5m−3,5n−3) ・・・ (1) ここで、 1、J=画素番号口、2.3,4.5)m、n+ブロッ
ク番号(1,2,3,・・・)即ち、上記(1)式では
各ブロック内の中心画素データa (5m−3,5n−
3)が代表値となっており、当該ブロック内の全画素デ
ータa ′ (5m−i、5n−j)を前記代表値で置
き替えてモザイク化処理している。尚、この代表値は中
心画素データに限らずブロック内のどの画素データで代
表しても良い、またブロック内平均値を採用する場合も
ある。
a' (5m-i, 5n-j) = a (5m-3, 5n-3) ... (1) Here, 1, J = pixel number, 2.3, 4.5) m, n+ Block number (1, 2, 3, ...), that is, in the above equation (1), the center pixel data a (5m-3, 5n-
3) is the representative value, and all pixel data a' (5m-i, 5n-j) in the block is replaced with the representative value for mosaic processing. Note that this representative value is not limited to the center pixel data, but may be represented by any pixel data within the block, and an average value within the block may be used.

またモザイク処理の絵画的表現への応用としては特開昭
62−179059号、特開昭62−179060号及
び特開昭62−179061号がある。これらは、ラン
ダム関数により前記モザイクパターンをランダム位置に
発生させ、あるいは原画像データのコントラストや空間
周波数特性に応じてモザイクパターンの大きさを変化さ
せるものである。
Furthermore, as an application of mosaic processing to pictorial expression, there are Japanese Patent Application Laid-open Nos. 179059/1982, 179060/1982, and 179061/1982. These generate the mosaic pattern at random positions using a random function, or change the size of the mosaic pattern according to the contrast or spatial frequency characteristics of the original image data.

C発明が解決しようとしている課題] しかしながら、上記従来例では、発生させるモザイクパ
ターンの色が原画像の一部から取り出したそのままの色
であったり、数画素の平均値であったりしたため、処理
結果としての画像の色合いが原画像に左右され、また実
際の絵画などと比較すると、ひどく彩度の低いものとな
ることがしばしば生じている。
Problem to be solved by invention C] However, in the above conventional example, the color of the mosaic pattern to be generated is the same color extracted from a part of the original image or the average value of several pixels, so the processing result is The color tone of the image depends on the original image, and the color saturation is often extremely low when compared to actual paintings.

本発明は、上記課題を解決するために成されたもので、
原画像データを処理する内容に適した色データに変換す
る画像処理装置を提供することを目的とする。
The present invention was made to solve the above problems, and
An object of the present invention is to provide an image processing device that converts original image data into color data suitable for processing contents.

[課題を解決するための手段] 上記目的を達成するために、本発明の画像処理装置は、
以下の構成を備久る。即ち、 画像処理の種類を選択できる選択手段と、該選択手段で
選択された処理を行う画像処理装置であって、原画像デ
ータを記憶する第1の記憶手段と、前記処理の種類に応
じて色の明度1色相。
[Means for Solving the Problem] In order to achieve the above object, the image processing device of the present invention has the following features:
Prepare the following configuration. That is, an image processing apparatus that performs the processing selected by the selection means, including a selection means for selecting a type of image processing, a first storage means for storing original image data, and a first storage means for storing original image data, and a first storage means for storing original image data, and a first storage means for storing original image data; Color brightness 1 hue.

彩度から成る3i性のうち少なくとも2つを組み合わせ
た複数の変換データを夫々記憶する第2の記憶手段と、
前記第1の記憶手段で記憶する原画像データを前記第2
の記憶手段で記憶する変換データに従い変換する変換手
段とを備える。
a second storage means for storing a plurality of conversion data each combining at least two of the 3i characteristics consisting of saturation;
The original image data stored in the first storage means is stored in the second storage means.
and conversion means for converting according to the conversion data stored in the storage means.

[作用] 以上の構成において、処理内容に応じて記憶されている
色の明度1色相、彩度から成る3属性のうち少なくとも
2つを組み合わせた複数の変換データに従い、原画像デ
ータを色データに変換するように動作する。
[Operation] In the above configuration, original image data is converted into color data according to a plurality of conversion data that combine at least two of the three attributes of color, brightness, hue, saturation, stored according to the processing content. Works to convert.

[実施例コ 以下、添付図面を参照して本発明に係る好適な一実施例
を詳細に説明する。
[Embodiment] Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

[装置の説明 (第1図)] 第1図は、本発明による実施例の画像処理装置のブロッ
ク構成図である。図において、1はコントロールプロセ
ッサユニット(CPU)であり、本実施例装置の主制御
を行う。2はCPUメモリであり、上記CPU 1が実
行する例えば第2図の絵画化処理プログラム及び該処理
に必要なパラメータ等を不図示のROM又はRAM内に
記憶している。3はCPLIIの■/○インタフェース
であり、不図示のキーボード、マウスなど意志入力装置
が接続される。4はCPUバスであり、CPU 1のア
ドレスバス、データバス及び制御バスから成る。
[Description of Apparatus (FIG. 1)] FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. In the figure, reference numeral 1 denotes a control processor unit (CPU), which performs main control of the apparatus of this embodiment. Reference numeral 2 denotes a CPU memory, which stores, for example, the painting processing program shown in FIG. 2, which is executed by the CPU 1, and parameters necessary for the processing in a ROM or RAM (not shown). Reference numeral 3 denotes a ■/○ interface of the CPLII, to which an intention input device such as a keyboard and a mouse (not shown) is connected. 4 is a CPU bus, which consists of an address bus, a data bus, and a control bus for the CPU 1.

27は画像データI10であり、これに不図示の画像読
取装置又は画像出力装置を接続することで絵画化処理前
後の画像データの入出力を行^る。16〜18は画素当
り8ビツトのイメージメモリであり、上記画像データl
1027を介して読み込んだR(赤)、G(緑)、B(
青)の3原色の原画像データを夫々記憶する。19は同
じく画素当り8ビツトのテクスチャメモリであり、例え
ば油絵で使用するようなキャンバス(編目模様)の画像
データを記憶する。20は画素当り8ビツトのワークメ
モリであり、上記イメージメモリ16〜18の画像デー
タについて行なった演算処理結果を一時的に記憶する。
27 is image data I10, and by connecting an image reading device or an image output device (not shown) to this, input/output of image data before and after painting processing is performed. 16 to 18 are image memories with 8 bits per pixel, and the above image data l
R (red), G (green), B (
Original image data of three primary colors (blue) are stored respectively. Reference numeral 19 denotes a texture memory of 8 bits per pixel, which stores image data of a canvas (knit pattern) such as that used in oil painting, for example. Reference numeral 20 denotes a work memory of 8 bits per pixel, which temporarily stores the results of arithmetic processing performed on the image data in the image memories 16 to 18.

21は画素当り16ビツトの16ビツトメモリであり、
同じくイメージメモリ16〜18の画像データについて
行なった積和結果等を一時的に記憶する。
21 is a 16-bit memory with 16 bits per pixel;
Similarly, the product-sum results etc. performed on the image data in the image memories 16 to 18 are temporarily stored.

22〜24は高速度RAMから成るルックアップテーブ
ル(LUT)であり、CPU1により階調変換テーブル
を書き変λ可能な各256X8ビツトの記憶容量を持つ
、該LUT22〜24のアドレスラインは各8本(O〜
255番地)であり、アドレスデータは夫々イメージメ
モリ16〜18出力の画像データ(0〜255階調)に
よって与えられる。一方、各LUT22〜24の読出し
データラインは各8本で構成され、これらはビデオバス
25に接続されている。また各LUT22〜24にはC
PUバス4が直接接続されており、これを介してCPU
 1はLUT22〜24の内容をいつでも読み書きでき
る。26はビデオコントローラであり、これに不図示の
CRT表示装置又はビデオプリンタ等を接続することで
絵画化処理前後の画像データをモニタリングできる。
Reference numerals 22 to 24 are look-up tables (LUTs) consisting of high-speed RAM, and each LUT 22 to 24 has a storage capacity of 256 x 8 bits, which allows the CPU 1 to write and change the gradation conversion table.The LUTs 22 to 24 each have 8 address lines. (O~
255 address), and the address data is given by image data (0 to 255 gradations) output from the image memories 16 to 18, respectively. On the other hand, each of the LUTs 22 to 24 has eight read data lines, which are connected to the video bus 25. In addition, each LUT22-24 has a C
PU bus 4 is directly connected, and the CPU
1 can read and write the contents of LUTs 22 to 24 at any time. Reference numeral 26 denotes a video controller, and by connecting a CRT display device or a video printer (not shown) to this controller, image data before and after the painting process can be monitored.

5はエツジ検出部であり、上記イメージメモリ16〜1
8中の各画像データを色合成したイメージデータから原
画像中のエツジ部分を検出し、これを2値化して、結果
の2値化エツジデータを出力する。これは原画像データ
中のエツジ部分(フントラスト部分)と平坦部分とで発
生させる筆パターンの性質及び形状を異ならしめるため
である。6は太線化処理部であり、エツジ検出部5出力
の2値化エツジデータに対してパターンの太線化処理を
行う。7はごみ処理部であり、太線化処理した太線化パ
ターン中から、孤立した面積の小さい雑音パターンを取
り除き、必要なエツジパターン部分だけを残す。8は色
変換部であり、原画像データを色データに変換する処理
を行う。
5 is an edge detection section, and the image memories 16 to 1 are
The edge portion in the original image is detected from the image data obtained by color-compositing each of the image data in 8, and is binarized, and the resulting binarized edge data is output. This is to make the properties and shapes of brush patterns generated in edge portions (foot rest portions) and flat portions of the original image data different. Reference numeral 6 denotes a thick line processing section, which performs pattern thick line processing on the binary edge data output from the edge detection section 5. Reference numeral 7 denotes a garbage processing section, which removes isolated noise patterns with small areas from the thick line pattern that has been subjected to the thick line processing, and leaves only the necessary edge pattern portions. Reference numeral 8 denotes a color conversion unit, which performs a process of converting original image data into color data.

13はエツジ方向検出部であり、検出したエツジ部分の
方向性有無及びその方向を検出することにより、後述す
る筆パターン選択部10における適正な筆パターンの選
択を可能ならしめる。9は描画開始位誼発生部であり、
不図示のランダム関数発生手段を備え、後述する筆パタ
ーンデータの描画位置がランダムになるように発生する
。10は筆パターン選択部であり、予め不図示のROM
中に複数種の小さい多値(又は2値)の筆パターンデー
タを格納しており、該複数の筆パターンデータの中から
、或は後述する筆パターン回転部11中の不図示のRO
M内に格納されていて、かつ順次パターン回転処理によ
り生成される多値(又は2値)の大きい筆パターンデー
タな上述のエツジ有無等の検出結果に基づき選択する。
Reference numeral 13 denotes an edge direction detection section, which enables the brush pattern selection section 10 described later to select an appropriate brush pattern by detecting the presence or absence of directionality of the detected edge portion and its direction. 9 is a drawing start position occurrence part,
A random function generating means (not shown) is provided, and the drawing position of brush pattern data, which will be described later, is generated at random. Reference numeral 10 is a brush pattern selection section, which is stored in advance in a ROM (not shown).
A plurality of types of small multivalued (or binary) brush pattern data are stored therein, and from among the plurality of small multivalued (or binary) brush pattern data, or an RO (not shown) in the brush pattern rotation unit 11, which will be described later, is stored.
The selection is made based on the above-mentioned detection results such as the presence or absence of edges, which is multivalued (or binary) large brush pattern data stored in M and sequentially generated by pattern rotation processing.

11は筆パターン回転部であり5本実施例では不図示の
ROM内に単一の大きな多値(又は2値)の基本筆パタ
ーンデータを記憶しておき、該基本筆パターンに対して
シーケンシャルに回転効果を与えることにより、実質複
数種の筆パターンデータを発生する。12は描画部であ
り、原画像データ上の前記ランダムに発生した描画位置
において上記筆パターン選択部1oが選択した筆パター
ンデータを描画(合成)する、即ち、例えば筆パターン
データが多値で構成される例では、発生した描画位置の
近傍の原画像データをあたかもその色の絵の真筆で描い
たような凹凸状、光沢状の画像データに変換する。14
は画像合成部であり、描画処理終了した画像データに対
して更にキャンパス等のテクスチャ画像を合成する。1
5はイメージメモリコントローラであり、上記エツジ検
出部5から画像合成部14までの各部が夫々の処理を行
うときに同期してイメージメモリ16〜18及びLUT
22〜24の必要な制御を行う6 [処理手順の説明 (第2図)] 第2図は、実施例の絵画化処理手順のフローチャートで
ある。尚、以下の説明ではアドレス(x、y)の原画像
(濃度)データをa、(x。
Reference numeral 11 denotes a brush pattern rotation unit 5. In this embodiment, a single large multivalued (or binary) basic brush pattern data is stored in a ROM (not shown), and the basic brush pattern data is sequentially rotated with respect to the basic brush pattern. By applying a rotation effect, substantially multiple types of brush pattern data are generated. Reference numeral 12 denotes a drawing section, which draws (synthesizes) the brush pattern data selected by the brush pattern selection section 1o at the randomly generated drawing position on the original image data, that is, for example, the brush pattern data is composed of multi-values. In this example, the original image data in the vicinity of the generated drawing position is converted into uneven, glossy image data that looks as if it were drawn with a real brush of a picture of that color. 14
is an image synthesis unit, which further synthesizes a texture image such as a canvas on the image data for which drawing processing has been completed. 1
Reference numeral 5 denotes an image memory controller, which synchronizes the image memories 16 to 18 and the LUT when each section from the edge detection section 5 to the image composition section 14 performs respective processing.
6. [Explanation of Processing Procedure (FIG. 2)] FIG. 2 is a flowchart of the painting processing procedure of the embodiment. In the following explanation, the original image (density) data at address (x, y) is referred to as a, (x).

y)で表わす。但し、添え字iはR,G、Bの画像デー
タを個々に表わすときは夫々R,G、Bと記す。更に画
像データal  (x、y)は8ビツト(0〜255階
調表現可能)であり、最大濃度データ(最も暗いデータ
)の値を階調Oとし、最小濃度データ(最も明るいデー
タ)の値を階調255とする。
y). However, when the subscript i represents R, G, and B image data individually, it is written as R, G, and B, respectively. Furthermore, the image data al (x, y) is 8 bits (0 to 255 gradations can be expressed), the value of maximum density data (darkest data) is set to gradation O, and the value of minimum density data (brightest data) is is the gradation level 255.

〈ステップSL> CPU 1は、画像データl1027を介して外部から
原画像データR,G、Bを取り込み、夫々をイメージメ
モリ16〜18に格納する。
<Step SL> The CPU 1 takes in original image data R, G, and B from the outside via the image data l1027, and stores them in the image memories 16 to 18, respectively.

尚、この時点ではLUT22〜24の内容は第3図に示
すように入出力が等しい標準変換特性にある。
At this point, the contents of the LUTs 22 to 24 have standard conversion characteristics in which input and output are equal, as shown in FIG.

くステップS2> エツジ検出部5はイメージメモリ16〜18の原画像デ
ータR,G、Bに基づいてエツジ部分の抽出を行う。こ
のエツジ抽出処理は、まず(2)式に従って人間の視感
度曲線に合った画像データを作成する。
Step S2> The edge detection unit 5 extracts edge portions based on the original image data R, G, and B in the image memories 16 to 18. In this edge extraction process, first, image data matching the human visibility curve is created according to equation (2).

a (x、y) =−(3a *(x、y)+ 6 a a(x、y)+
 a e(x、y))・・・ (2) 上記(2)式では原画像データR,G、Bを0.3:0
.6:0.1の比で合成している。
a (x, y) = - (3a * (x, y) + 6 a a (x, y) +
a e (x, y))... (2) In the above equation (2), the original image data R, G, B is 0.3:0
.. They were synthesized at a ratio of 6:0.1.

絵画は目で鑑賞するものであるから、まず原画像データ
を人間の視感度曲線に合わせて合成し、エツジ評価をす
る。またその際に、右辺の()内の積和計算を行うため
に各積和結果を一時的に16ビツトメモリ21に格納す
る。そして()内の積和結果を1/IOL、た内容はワ
ークメモリ20に格納される。
Since paintings are meant to be appreciated with the eyes, the original image data is first synthesized according to the human visual sensitivity curve, and edges are evaluated. At this time, each product-sum result is temporarily stored in the 16-bit memory 21 in order to perform the product-sum calculation in parentheses on the right side. Then, the contents obtained by multiplying the product-sum result in parentheses by 1/IOL are stored in the work memory 20.

次に、ワークメモリ20の画像データに対して例えば(
3X3)マトリクスの微分オペレータを用いてエツジ抽
出処理を行う。第4図に本実施例で採用した微分オペレ
ータの一例を示す。この微分オペレータは画像の右方向
に向けて明るさを増すようなエツジ(コントラスト)を
検出する。
Next, for example, (
3×3) Edge extraction processing is performed using a matrix differential operator. FIG. 4 shows an example of the differential operator employed in this embodiment. This differential operator detects edges (contrast) that increase in brightness toward the right of the image.

次に、第4図の微分オペレータを左回りにπ/4回転さ
せて第5図の微分オペレータを得る。この微分オペレー
タは画像の右上方向に向けて明るさを増すよなエツジを
検出する。そして、このエツジ検出結果と上述のワーク
メモリ20に記憶した検出結果とを比較し、大きい方を
ワークメモリ20に格納する。以下、同様にして微分オ
ペレータを左回りにπ/4づつ回転させ、合計8方向か
ら見たエツジ検出結果を求め、ワークメモリ20に格納
する。この結果、ワークメモリ20には可視像に変換し
た画像データの全画素についての最大のエツジ成分が抽
出される。
Next, the differential operator in FIG. 4 is rotated counterclockwise by π/4 to obtain the differential operator in FIG. 5. This differential operator detects edges that increase in brightness toward the upper right of the image. This edge detection result is then compared with the detection result stored in the work memory 20 described above, and the larger one is stored in the work memory 20. Thereafter, the differential operator is similarly rotated counterclockwise by π/4 to obtain edge detection results viewed from a total of eight directions and stored in the work memory 20. As a result, the maximum edge component for all pixels of the image data converted into a visible image is extracted into the work memory 20.

次に、ワークメモリ20を所定閾値で2値化処理し、エ
ツジ(閾値より大きい)と判定した画素はビット“1”
、それ以下と判定した画素はビット“O“に置き換える
。こうして、ワークメモリ20には原画像のエツジ成分
に関するエツジパターンデータが格納される。
Next, the work memory 20 is binarized using a predetermined threshold value, and pixels determined to be edges (larger than the threshold value) have a bit “1”.
, pixels determined to be less than that are replaced with bit "O". In this way, the work memory 20 stores edge pattern data regarding edge components of the original image.

この一連の処理は、−点一点処理するのではなく、面単
位の処理で行うので、高速に実行される。
This series of processing is performed on a plane-by-plane basis rather than on a point-by-point basis, so it is executed at high speed.

くステップS3> ステップS2で生成したエツジパターンは後述の処理を
行うには細すぎる。そこでエツジパターンの太線化処理
を行う、この太線化処理はイメージメモリ16中の注目
エツジパターンデータなa (x、y)とすると(3)
式に従って行う。即ち、 a (x、 y) =1  のときは、a (x+i、
y+j)=1  とする。
Step S3> The edge pattern generated in step S2 is too thin to perform the processing described below. Therefore, the edge pattern is thickened. This thickening process is performed as follows (3):
Do it according to the formula. That is, when a (x, y) = 1, a (x+i,
y+j)=1.

ここで、 一3≦i≦3.−3≦j≦3の整数 そして、この太線化処理結果を例えばイメージメモリ1
7の下位1ビツトに格納する。
Here, 13≦i≦3. An integer of −3≦j≦3.Then, the result of this thick line processing is stored in image memory 1, for example.
Stored in the lower 1 bit of 7.

くステップS4> 上記ステップS3で得た太線化エツジパターンデータに
は通常小さな孤立したノイズパターンが多く含まれてい
る。ごみ処理部7はイメージメモリ17に格納した全エ
ツジパターンデータに対して、その連結性有無の判断に
基づき面積を算出し、所定面積以下のものはノイズパタ
ーンとして消去する。この連結性有無の判断はイメージ
メモリ17中の注目エツジパターンデータなa (x、
y)とすると(4)式に従って行う。
Step S4> The thickened edge pattern data obtained in step S3 above usually contains many small isolated noise patterns. The dust processing section 7 calculates the area of all the edge pattern data stored in the image memory 17 based on the determination of the presence or absence of connectivity, and erases the edge pattern data having a predetermined area or less as a noise pattern. This determination of the presence or absence of connectivity is based on the edge pattern data of interest in the image memory 17 a (x,
y), it is performed according to equation (4).

即ち、 a (x、  y) =1  のときは、a (x+i
、y+j)=1  を調べる。
That is, when a (x, y) = 1, a (x+i
,y+j)=1.

・・・ (4) ここで、 一1≦i≦1.−1≦j≦1の整数 即ち、a (x+i、y+j)=1の条件を1つでも満
たせば連続性があるとみなす。
... (4) Here, 11≦i≦1. It is considered that there is continuity if at least one of the conditions of -1≦j≦1, ie, a (x+i, y+j)=1, is satisfied.

くステップS5> ステップS5は、原画像全体を処理の種類に応じて色変
換する処理で、本実施例では色変換部8が以下に述べる
処理を行う。
Step S5> Step S5 is a process of color converting the entire original image according to the type of processing, and in this embodiment, the color conversion unit 8 performs the process described below.

なお、この処理は、本発明の特徴を最もよく表わしてい
る処理である。また、通常の油絵処理の場合、色変換用
のパレットを油絵用とし、油絵の具の代表色“256”
色を選択してCPUメモリ2に格納している。これは、
自然画像、油絵画像から得られるカラー情報を量子化し
、画像全体の彩度を測定したところ、平均して自然画像
よりも油絵画像の方が彩度が高く、また、−枚の絵画で
使用される色数は限られているためである。そこで、複
数の油絵画像のR,G、B空間での出現頻度を測定し、
出現頻度の多いものから“256“色を選択したもので
ある。
Note that this process is the process that best represents the features of the present invention. In addition, in the case of normal oil painting processing, the color conversion palette is used for oil painting, and the representative colors of oil paint are "256".
A color is selected and stored in the CPU memory 2. this is,
When we quantized the color information obtained from natural images and oil painting images and measured the saturation of the entire image, we found that, on average, oil painting images had higher saturation than natural images. This is because the number of colors available is limited. Therefore, we measured the appearance frequency of multiple oil painting images in R, G, and B space,
"256" colors are selected from those with the highest frequency of appearance.

しかし、上述のデータを用いてイメージメモリ16〜1
8の全画素を置き換える変換処理を行っても、油絵の具
の色使いを表現するのには十分であるが、リアルな表現
を行う画家の作品や、彩度の高い色を使用する画家の作
品などを表現するには誤差が大きすぎる場合がある。そ
のような場合に、代表色を“256”色に限定しないで
、選択の幅を広げることで問題を解決できる。つまり、
代表色の色の3属性(明度、色相、彩度)のうちの2つ
を色使いの特徴量として選択することにより、処理に適
した色使いが表現できる。そして、油絵処理の場合、そ
の色使いを特徴づけるのは、色相と彩度が支配的である
ことが主観評価で確認されている。本実施例における油
絵処理の具体的な処理の手順を以下に説明する。
However, using the above data, the image memories 16 to 1
Even if you perform a conversion process that replaces all pixels of 8, it is sufficient to express the coloring of oil paint, but it is not suitable for works by artists who create realistic expressions or works by artists who use highly saturated colors. The error may be too large to represent. In such a case, the problem can be solved by widening the range of selection without limiting the representative colors to "256" colors. In other words,
By selecting two of the three attributes (brightness, hue, and saturation) of the representative color as color feature quantities, a color usage suitable for processing can be expressed. In the case of oil painting processing, it has been confirmed through subjective evaluation that hue and saturation are the dominant characteristics that characterize the color usage. The specific processing procedure for oil painting processing in this embodiment will be explained below.

なお、R,G、B空間での代表色(256色)をH,S
、L空間へ変換し、その変換結果をCPUメモリ2に書
き込んでおく。また、この変換式は一般的であるので説
明は省略する。
In addition, the representative colors (256 colors) in R, G, B space are H, S
, into L space, and write the result of the conversion into the CPU memory 2. Further, since this conversion formula is common, its explanation will be omitted.

先ず、CP Uメモリ2の変換データに基づいてメージ
メモリ16〜18の原画像をH,S、L空間へ変換し、
その変換結果をそれぞれイメージメモリ16〜18へ格
納する。
First, the original images in the image memories 16 to 18 are converted to H, S, and L spaces based on the conversion data in the CPU memory 2,
The conversion results are stored in image memories 16-18, respectively.

次に、変換結果について、H,Sの置き換えを行う。置
換前の位置(x、y>のH,Sデータを(Hlo、SL
。)1代表色のi番目のデータを(Hl 、  SL 
)とすると、その隔たり、DIはD+=    111
− 1   +   II+・・・ (5) で表わすことができる。1番目の色から256番目まで
のDlを計算して、D、が最小となるときが最適なH,
、S、であるので、イメージメモリi6.17の)(、
Sを最適値で置換する。
Next, regarding the conversion result, H and S are replaced. The H, S data of the position (x, y> before replacement is (Hlo, SL
. ) The i-th data of one representative color is (Hl, SL
), then the distance, DI, is D+= 111
−1+II+... (5) It can be expressed as follows. Calculate Dl from the 1st color to the 256th color, and find the optimal H, when D is the minimum.
, S, so the image memory i6.17)(,
Replace S with the optimal value.

以上の処理により、H,Sは代表色で指定した“256
”の組み合わせのうちの−っであるが、[、は原画像の
値が保たれる。この結果、油絵処理における色使いの特
徴を効果的に表現することが可能となる。
With the above processing, H and S are “256” specified by the representative color.
Among the combinations of ``-'' and ``, the values of the original image are maintained.As a result, it is possible to effectively express the characteristics of color usage in oil painting processing.

最後にイメージメモリ16〜18の内容をRlG、B空
間へ逆変換し、その結果を再度イメージメモリ16〜1
8へ格納して処理を終了する。
Finally, the contents of image memories 16 to 18 are inversely converted to RlG and B space, and the results are converted back to image memories 16 to 18.
8 and ends the process.

くステップS6> ステップS6では描画開始位置発生部9が筆パターンの
描画位置情報を発生する。筆パターンの描画位置は、こ
れを規則正しくシーケンシャルに発生させると絵画的表
現の自然性を損なう。
Step S6> In step S6, the drawing start position generating section 9 generates drawing position information of the brush pattern. If the drawing positions of the brush patterns are generated regularly and sequentially, the naturalness of the pictorial expression will be lost.

そこで実施例の描画位置はランダムな位置に発生する。Therefore, the drawing position in the embodiment is generated at a random position.

この描画位置情報の発生は、まず原画像データHに対し
て行う。描画開始位置発生部9は内部に不図示の乱数発
生手段を備えており、該乱数発生手段は、例えばCPU
Iからの3つの乱数発生パラメータ(行方向の乱数発生
系列を与える整数、列方向の乱数発生系列を与える整数
、乱数の発生個数)を受は取ることにより、対応するモ
ードで乱数を発生する。描画開始位置発生部9は発生し
た乱数に応じて筆パターンの描画開始位置(xs 、 
ys )を決定する。
This drawing position information is first generated for the original image data H. The drawing start position generating section 9 is internally equipped with a random number generating means (not shown), and the random number generating means is, for example, a CPU.
By taking three random number generation parameters from I (an integer that gives a random number generation sequence in the row direction, an integer that gives a random number generation sequence in the column direction, and the number of random numbers to be generated), random numbers are generated in the corresponding mode. The drawing start position generating unit 9 determines the drawing start position (xs,
ys).

尚、本実施例では乱数発生パラメータを原画像データG
及びBの処理を行うときも同一にしているので、その描
画位置及び描画個数も原画像データRのものと同一にな
る。
In this example, the random number generation parameter is set to the original image data G.
Since the processing of and B is the same, the drawing position and the number of drawings are also the same as those of the original image data R.

〈ステップS7> ステップS7では発生した描画位置にエツジパターンデ
ータが存在するか否かを判別し、描画位置にエツジパタ
ーンが無い(エツジデータ=0)ならステップS8以降
の大きな筆パターンデータで描画するルーチンへ進み、
また描画位置にエツジパターンが有る(エツジデータ=
1)ならステップS12以降の小さな筆パターンデータ
で描画するルーチンへ進む。これはエツジ部分の画像は
詳細に描画し、それ以外の部分は大まかに描画するため
である。
<Step S7> In step S7, it is determined whether or not edge pattern data exists at the generated drawing position, and if there is no edge pattern at the drawing position (edge data = 0), the routine draws with large brush pattern data from step S8 onwards. Proceed to
There is also an edge pattern at the drawing position (edge data =
If it is 1), the process advances to a routine for drawing using small brush pattern data starting from step S12. This is because the edge portion of the image is drawn in detail, and the other portions are drawn roughly.

一方、筆パターン選択部10はまずステップS7の判別
に伴って、大きい筆パターンデータか小さい筆パターン
データかの選択を行う。何れの筆パターンデータも例^
ば、Oyn階調の多値画像データ(他の実施例では2値
画像データ)で構成されており、実質的に複数種類用意
されている。
On the other hand, the brush pattern selection unit 10 first selects large brush pattern data or small brush pattern data in accordance with the determination in step S7. Examples of any brush pattern data ^
For example, it is composed of Oyn gradation multivalued image data (binary image data in other embodiments), and a plurality of types are substantially prepared.

本実施例では筆パターン回転部11内の不図示のROM
に大きな筆パターンデータ(以下、多値と2値を総称し
て単に筆パターンデータという)を1種類記憶しており
、筆パターン選択部10内の不図示のROMに小さな筆
パターンデークを3種類記憶している。小さな筆パター
ンデータとしては原画像データのエツジ部分を適切に描
画できるように、円形に近い方向性の無いもの、縦方向
エツジに適する縦長のもの、横方向エツジに適する横長
のものが記憶されている。
In this embodiment, a ROM (not shown) in the brush pattern rotating section 11
One type of large brush pattern data (hereinafter, multivalued and binary data are collectively referred to as brush pattern data) is stored in the ROM, and three types of small brush pattern data are stored in a ROM (not shown) in the brush pattern selection section 10. I remember. As small brush pattern data, in order to appropriately draw the edge portion of the original image data, a pattern that is close to a circle with no directionality, a vertically long pattern suitable for vertical edges, and a horizontally long pattern suitable for horizontal edges are stored. There is.

第6図(A)〜(D)には実施例の多値筆パターンデー
タの例を示す、また、(E)〜(H)に2値筆パターン
データの例を示す。第6図(A)(E)は大きい筆パタ
ーンデータの例を、第6図(B)(F)は無方向性の筆
パターンデータの例を、第6図(C)(G)は縦長筆パ
ターンデータの例を、第6図(D)(H)は横長筆パタ
ーンデータの例を夫々示している。これらの筆パターン
データは、文字通り、大軍又は細筆に絵の具を塗って紙
に描いたような筆パターンデータ(但し、実施例では形
状を表わす無彩色)で構成されている。即ち、出力画像
に光線が照射される方向を加味すると、それに応じて輝
度の盛り上がり感、厚み感、あるいは筆運びの方向に沿
っての凹凸感等が現われ、かつそのパターン形状は終端
部で尾を引いている0本実施例では、かかる筆パターン
データの代表例を、例えば実際の絵画サンプル画像から
読み取り、若しくは画像処理により生成して、予め筆パ
ターンの盛り上がり形状等の輝度情報として記憶しであ
る。
FIGS. 6(A) to 6(D) show examples of multi-valued brush pattern data of the embodiment, and FIGS. 6(E) to 6(H) show examples of binary brush pattern data. Figure 6 (A) (E) shows an example of large brush pattern data, Figure 6 (B) (F) shows an example of non-directional brush pattern data, and Figure 6 (C) (G) shows an example of vertical brush pattern data. Examples of brush pattern data are shown in FIGS. 6(D) and 6(H), respectively. These brush pattern data are literally composed of brush pattern data that looks like a large or thin brush coated with paint and drawn on paper (however, in the embodiment, it is an achromatic color representing the shape). In other words, when the direction in which the light beam is irradiated is taken into consideration in the output image, a feeling of bulge in brightness, a feeling of thickness, or a feeling of unevenness along the direction of the brush stroke will appear accordingly, and the pattern shape will have a tail at the end. In this embodiment, a representative example of such brush pattern data is read from an actual painting sample image or generated by image processing, and is stored in advance as brightness information such as the raised shape of the brush pattern. be.

〈ステップS8〉 ステップS8は大きな筆パターンデータな使用するルー
チンへの入力である。ステップS8では、まず大きな筆
パターンデータの回転処理が終了しているか否かを判別
する。回転処理が終了している場合はステップSl○に
進み、大きな筆パターンデータの描画処理を行う。また
回転処理が終了していない場合はステップS9に進み、
筆パターンデータの回転処理を行う。
<Step S8> Step S8 is the input to the routine that uses large brush pattern data. In step S8, it is first determined whether the rotation process of the large brush pattern data has been completed. If the rotation process has been completed, the process advances to step Sl◯, where large brush pattern data is drawn. Furthermore, if the rotation process has not been completed, the process advances to step S9;
Performs rotation processing of brush pattern data.

〈ステップS9> ステップS9では大きい筆パターンデータの回転処理を
行う、大きい筆パターンデータは予めROMに複数種類
記憶しておければアクセスが速い。しかし、本実施例で
はROMの容量を節約する目的から、1つの筆パターン
データな回転することで実質複数種類の筆パターンデー
タを用意するのと同等の効果を得ている。この回転処理
は筆パターン回転部11で行い、例えば筆パターンデー
タの基本位置を垂直方向とすると、該垂直方向から上2
0de シーケンシャルに回転処理を行う.尚、回転範囲を上2
0de 方向を考慮したものである.またこの範囲内なら照射す
る光線の方向による影の効果を変えなくても実際上問題
はない。
<Step S9> In step S9, large brush pattern data is rotated. If a plurality of types of large brush pattern data are stored in advance in the ROM, access is faster. However, in this embodiment, for the purpose of saving the ROM capacity, by rotating one piece of brush pattern data, substantially the same effect as preparing a plurality of types of brush pattern data is obtained. This rotation process is performed by the brush pattern rotation unit 11. For example, if the basic position of the brush pattern data is in the vertical direction,
0de Perform rotation processing sequentially. In addition, the rotation range is upper 2
This takes the 0de direction into account. Moreover, within this range, there is no practical problem even if the shadow effect does not change depending on the direction of the irradiated light beam.

具体的には、回転処理した筆パターンデータの座標(K
,L)は(6)式に従って求める。
Specifically, the coordinates (K
, L) are determined according to equation (6).

・・・ (6) ここで、 (I,J):入力筆パターンデータの座標(xo. )
’o)  ’回転の中心座標01回転角 ここで、回転角θはldegづつシーケンシャルに変化
するが、ステップS6で発生した描画位置はランダムで
あるから、結局原画像データR上にはランダムな位置に
ランダムな方向の筆パターンデータが現われたことにな
る。しかも、上20de 全体としてもある程度の方向性が残り、絵画特有の筆の
タッチ(癖)が表現可能である。
... (6) Here, (I, J): Coordinates of input brush pattern data (xo.)
'o) 'Rotation center coordinate 01 Rotation angle Here, the rotation angle θ changes sequentially by ldeg, but since the drawing position generated in step S6 is random, there is a random position on the original image data R after all. This means that brush pattern data in random directions appears. Moreover, a certain degree of directionality remains in the upper 20de as a whole, and it is possible to express the brush strokes (habits) unique to paintings.

くステップSIO> 描画部12はステップS6で発生した描画位置に大きい
筆パターンデータの描画を行う。
Step SIO> The drawing unit 12 draws large brush pattern data at the drawing position generated in step S6.

第7図(A)は発生した描画開始位置(X.。FIG. 7(A) shows the generated drawing start position (X.

ya)と多値筆パターンデータの中心位置(xc,yc
)の関係を示す図である.即ち、第7図(A)の関係に
なるように原画像データと多値筆パターンデータとの位
置合せをし、具体的には、描画のための新たな書込デー
タC+  (x  、yiを(7)式に従って求める。
ya) and the center position of the multivalued brush pattern data (xc, yc
) is a diagram showing the relationship between That is, the original image data and the multivalued brush pattern data are aligned so that they have the relationship shown in FIG. 7(A), and specifically, new writing data C+ (x, yi Calculate according to formula (7).

C+  (x′,y′) ・・・ (7) ここで、 i:R,G,B an  (xc, ye ):筆パターンデータの中心
位置に対応する原画像データ P (x.y)ニアドレス(x.y)の多値筆パターン
データ n:筆パターンデータの階調数 (x′,y′)ニアドレス(x,y)に対応する原画像
データの位置 即ち、(7)式は多値筆パターンデータの中心位置に対
応する原画像データa+  (Xc 、yc )でもっ
て当該筆パターンエリアの色(i =RG,B)及び輝
度を代表させており、その周囲を多値筆パターンデータ
の絵の具の盛り上り情報P (x,y)により変化を付
けて描画している。
C+ (x', y') ... (7) Here, i: R, G, B an (xc, ye): Original image data P (x, y) corresponding to the center position of the brush pattern data Multivalue brush pattern data n at address (x, y): Number of gradations of brush pattern data (x', y') Position of original image data corresponding to near address (x, y), that is, equation (7) is The color (i = RG, B) and brightness of the brush pattern area are represented by the original image data a+ (Xc, yc) corresponding to the center position of the multivalued brush pattern data, and the surrounding area is the multivalued brush pattern. The data is drawn with changes based on the paint buildup information P (x, y).

尚、(7)式において(n−1)で割っているのは演算
結果を8ビツトにするためである.こうして(7)式の
演算は多値筆パターンデータP (x,y)の左上から
順に行い、多値筆パターンデータの1画素分に相当する
書き込みを行なうとステップSllに進む。
Note that the reason for dividing by (n-1) in equation (7) is to make the calculation result 8 bits. In this way, the calculation of equation (7) is performed sequentially from the upper left of the multi-value brush pattern data P (x, y), and when writing corresponding to one pixel of the multi-value brush pattern data is completed, the process advances to step Sll.

第7図(B)は、他の実施例として、筆パターンデータ
が2値の場合を示している。この場合は上記(ア)式は
(7)′式のように表わせる。
FIG. 7(B) shows a case where the brush pattern data is binary as another example. In this case, the above equation (a) can be expressed as equation (7)'.

C+  (x  、y’) =P (x、y)Xa、(xc 、3/c )・・・ 
(7) ここで、 P (x、y)ニアドレス(x、y)の2値筆パターン
データ 即ち、(7)′式では2値筆パターンデータの中心位置
に対応する原画像データal  (xc。
C+ (x, y') = P (x, y)Xa, (xc, 3/c)...
(7) Here, the binary brush pattern data of P (x, y) near address (x, y), that is, the original image data al (xc .

ye)でもって当該2値筆パターンエリアの色(i=R
,G、B)及び輝度を代表させ、その周囲のP (x、
y)=1の部分を前記の代表値により描画している。
ye) and the color of the binary brush pattern area (i=R
, G, B) and the brightness, and the surrounding P (x,
The portion where y)=1 is drawn using the above-mentioned representative value.

尚、土述の実施例では原画像データat(xcyc)を
抽出してその周囲に多値又は2値による筆パターンデー
タP (x、y)の描画を行ったがこれに限らない。他
にも原画像データat  (xe 、ye )の周囲の
平均値を用いたり、多値筆パターンデータP (x、y
)が所定値以上又は2値筆パターンデータP (x、y
)が“1″である位置と一致する原画像データの平均値
を用いたり、あるいはそれらの原画像データの最大値又
は最小値を用いても良い。
In the embodiment described above, the original image data at(xcyc) is extracted and multivalued or binary brush pattern data P (x,y) is drawn around it, but the present invention is not limited to this. In addition, the average value around the original image data at (xe, ye) may be used, or the multivalued brush pattern data P (x, y
) is greater than or equal to a predetermined value or the binary brush pattern data P (x, y
) may be used as the average value of the original image data corresponding to the position where is "1", or the maximum value or minimum value of those original image data may be used.

くステップS11〉 筆パターンデークの全画素について描画終了したか否か
を判断し、描画終了していない間はステップS7へ戻る
。従って、もし大きな筆パターンデータの描画途中でエ
ツジデータに遭遇すると大きい筆パターンデータの描画
をその時点で終了し、ステップS12以降の小さな筆パ
ターンデータの描画処理に進む。エツジ部分の描画は他
に優先するからである。
Step S11> It is determined whether drawing has been completed for all pixels of the brush pattern, and if the drawing has not been completed, the process returns to step S7. Therefore, if edge data is encountered during the drawing of large brush pattern data, drawing of the large brush pattern data is terminated at that point, and the process proceeds to drawing processing of small brush pattern data from step S12 onwards. This is because drawing of edge portions takes priority over other drawings.

くステップS12〉 エツジ方向検出部13はイメージメモリ16の下位1ビ
ツトに記録されているエツジデータの方向を検出し、こ
れに応じて筆パターン選択部10は検出方向に適した筆
パターンデータな選択する。エツジ方向の検出は、例え
ば第8図又は第9図のような1次元オペレータとエツジ
データの論理積を夫々求め、結果が真となる画素数を縦
方向と横方向とで比較し、その差がある値よりも大きい
時は画素数の大きい方向がエツジ方向と判断する。具体
的には、エツジ方向信号Sは(8)式に従って求められ
る。
Step S12> The edge direction detection unit 13 detects the direction of the edge data recorded in the lower 1 bit of the image memory 16, and in response to this, the brush pattern selection unit 10 selects the brush pattern data suitable for the detected direction. . To detect the edge direction, for example, calculate the AND of the one-dimensional operator and edge data as shown in Figures 8 or 9, compare the number of pixels for which the result is true in the vertical direction and the horizontal direction, and find out the difference between them. When it is larger than a certain value, the direction with the larger number of pixels is determined to be the edge direction. Specifically, the edge direction signal S is obtained according to equation (8).

S=F (T (x、y)nE (x、y))−F (
Y (x、y)nE (x、y))・・・ (8) ここで、 E (x、y):エツジデータ T (x、y):縦方向オペレータ Y (x、y)  コ横方向オペレータF() :論理
積が真となる画素数を 算出する関数 筆パターン選択部10はこのエツジ方向信号Sに基づき
、dを所定数として、−d≦S≦dなら「丸パターン」
第6図(A)又は(E)を、S<−dなら「横長パター
ン」第6図(D)又は(H)を、dosなら「縦長パタ
ーン」第6図(C)又は(G)を選択する。
S=F (T (x, y) nE (x, y)) − F (
Y (x, y) nE (x, y))... (8) Here, E (x, y): Edge data T (x, y): Vertical operator Y (x, y) Horizontal operator F(): The function brush pattern selection unit 10 that calculates the number of pixels for which the logical product is true is based on this edge direction signal S, where d is a predetermined number, and if -d≦S≦d, a “round pattern” is selected.
Figure 6 (A) or (E), if S < -d, use the "horizontal pattern" Figure 6 (D) or (H), if dos, use the "vertical pattern" Figure 6 (C) or (G). select.

くステップS13〉 描画部12はステップSL2で選択した筆パターンデー
タの描画を行う。これにより、エッジ部分は小さい筆パ
ターンデータ又は細長い筆パターンデータにより方向性
に沿うて描かれるのでシャープな絵画的表現を待人る。
Step S13> The drawing unit 12 draws the brush pattern data selected in step SL2. As a result, the edge portion is drawn along the direction using small brush pattern data or elongated brush pattern data, resulting in a sharp pictorial expression.

くステップS14〉 小さい筆パターンデータの全画素について描画終了して
いるか否かを判断する。終了していなければステップS
13に戻り、終了していればステップS15に進む。
Step S14> It is determined whether drawing has been completed for all pixels of the small brush pattern data. If not completed, step S
Return to step S13, and if the process has been completed, proceed to step S15.

〈ステップS15〉 CPU 1はランダムに発生した設定個数分の描画処理
を行ったか否かを判別する。設定個数分終了していない
場合はステップS6に戻り、また終了した場合はステッ
プS16へ進む。
<Step S15> The CPU 1 determines whether drawing processing has been performed for a set number of randomly generated drawings. If the set number of items has not been completed, the process returns to step S6, and if the process has been completed, the process proceeds to step S16.

〈ステップ816〉 CPU 1は画像データR,G、Bの3面について描画
処理終了したか否かを判別する。終了していなければス
テップSS6に戻り、残りの面の処理を開始する。また
全ての面の描画処理が終了していればステップS17へ
進む。
<Step 816> The CPU 1 determines whether the drawing process for the three sides of the image data R, G, and B has been completed. If the processing has not been completed, the process returns to step SS6 to start processing the remaining surfaces. If the drawing process for all surfaces has been completed, the process advances to step S17.

くステップS17〉 最後にテクスチャメモリ19のキャンパス画像データと
イメージメモリ16〜18の画像データを合成する。具
体的には、合成後の画像データG+  (x、y)は(
9)式に従って求める。
Step S17> Finally, the canvas image data in the texture memory 19 and the image data in the image memories 16 to 18 are combined. Specifically, the image data G+ (x, y) after composition is (
9) Obtain according to the formula.

G+  (x、y) =aA、(x、、y)+bT’ (x、y)・・・ (
9) ここで、 a、b:定数 かつ a+b=1 i:R,G、B A+  (x、y):イメージメモリ16〜18の画像
データ T (x、y):テクスチャメモリ19の画像データ 尚、テクスチャメモリ19には予め(bxT(x、y)
)を格納して置くことが可能である。
G+ (x, y) = aA, (x,, y) + bT' (x, y)... (
9) Here, a, b: constants and a+b=1 i: R, G, B A+ (x, y): Image data of image memories 16 to 18 T (x, y): Image data of texture memory 19 , in the texture memory 19 in advance (bxT(x,y)
) can be stored.

また(aXA+  (x、y))の演算は、例えば第1
0図の変換テーブルをLU722〜24に書き込むこと
で容易に行える。そして、2つの画像データの加算は各
メモリブレーンR,G、B全体で行えるのでステップS
17の処理もリアルタイムで実行される。
In addition, the operation of (aXA+ (x, y)) is, for example, the first
This can be easily done by writing the conversion table shown in Figure 0 into the LUs 722-24. Then, since the addition of the two image data can be performed in each memory brain R, G, and B as a whole, step S
Processing No. 17 is also executed in real time.

尚、上述実施例の説明では描画処理を全てデジタル演算
により行ったがこれに限らない。
Incidentally, in the description of the above-mentioned embodiment, all the drawing processing was performed by digital calculation, but the present invention is not limited to this.

例えばロボットに幾種類かの実物の筆を持たせておき、
かつ上記ランダムに発生した描画位置に、上記選択した
又は回転角を与えた筆パターンデータを描かせても良い
For example, a robot can be equipped with several types of real brushes,
In addition, the brush pattern data with the selected or rotation angle may be drawn at the randomly generated drawing position.

また上述実施例ではエツジの有無及びエツジの方向性に
応じて筆パターンデータを選択しているがこれに限らな
い。例えば原画像データの空間周波数成分を解析して筆
パターンデータを選択しても良い。
Further, in the above embodiment, the brush pattern data is selected depending on the presence or absence of an edge and the direction of the edge, but the present invention is not limited to this. For example, the brush pattern data may be selected by analyzing the spatial frequency components of the original image data.

また上述実施例ではエツジ抽出には3×3画素の微分オ
ペレータを用いたがこれに限らない。
Further, in the above embodiment, a 3×3 pixel differential operator is used for edge extraction, but the present invention is not limited to this.

例えば原画像の画素サイズ、筆パターンデータのサイズ
等に応じて微分オペレータの大きさや、内容を変更でき
るようにしても良い。
For example, the size and contents of the differential operator may be changed depending on the pixel size of the original image, the size of the brush pattern data, etc.

また、ROMにぐでパターンデータや処理に必要なパラ
メータを記憶しているが、処理の前や途中でそれらのデ
ータを変更できるようにRAMに記憶させておいてもよ
い、また、イメージメモリの大きさや表現できる階調数
も任意に変更できるようにしてもよい。
In addition, the ROM stores pattern data and parameters necessary for processing, but it is also possible to store them in the RAM so that they can be changed before or during processing. The size and the number of gradations that can be expressed may also be changed arbitrarily.

また、本実施例では色変換用のパレットを油絵用として
1組用意しているが、水彩画用、イラスト画用、個人の
好みに合ったパレットを用意したつ、また、画家によっ
ても、使用するパレットに違いがあるので、例えば、ゴ
ッホ用、ビカソ用など画家の色使いの傾向に対応したパ
レットを用意しておけば、よりリアルで個性的な結果を
得ることができる。
In addition, in this embodiment, one set of palettes for color conversion is prepared for oil painting, but palettes for watercolor painting, illustration painting, and palettes that suit individual tastes are prepared, and can also be used by artists. There are differences in palettes, so if you prepare a palette that corresponds to the artist's color usage, such as Van Gogh's or Bicaso's, you can obtain more realistic and unique results.

また、本実施例では、色変換用の色の属性の組として彩
度、色相の組を用いているが、処理の種類によっては、
色紙に描く水彩画のように明度と彩度が支配的な処理も
あり、処理の種類に応じて、支配的な2属性は変る。
Furthermore, in this embodiment, a set of saturation and hue is used as a set of color attributes for color conversion, but depending on the type of processing,
There are also processes where brightness and saturation are dominant, such as watercolor paintings on colored paper, and the two dominant attributes change depending on the type of process.

また、本実施例では、支配的でない属性である明度の情
報を原画像からそのまま得ているが、画家によっては、
モネのように全体的に明度の高い絵画を描く画家の場合
、第11図に示すような明度用のLUTを用意しておく
ことにより、残りの属性の明度にも画家の色使いの特徴
を反映することが可能である。
Furthermore, in this example, information on brightness, which is a non-dominant attribute, is obtained directly from the original image, but depending on the artist,
In the case of a painter like Monet who creates paintings with high brightness overall, by preparing a brightness LUT as shown in Figure 11, the characteristics of the painter's color usage can be reflected in the brightness of the remaining attributes. It is possible to reflect

[発明の効果〕 以上説明したように、処理内容に適した色変換用のパレ
ットを色の3属性のうちの2つを紐にして用意しておき
、それを用いて、原画像を最適に色変換することにより
、処理内容に適した色使い(色合い)の画像を得ること
ができる。
[Effects of the Invention] As explained above, a color conversion palette suitable for the processing content is prepared using two of the three color attributes as strings, and is used to optimize the original image. By performing color conversion, it is possible to obtain an image with a color scheme (hue) appropriate for the processing content.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明による実施例の画像処理装置のブロック
構成図、 第2図は実施例の絵画化処理手順のフローチャート、 第3図は実施例のL U T 21〜23の初期状態に
おける階調変換テーブル特性の一例を示す図、 第4図は実施例で採用した微分オペレータの一例を示す
図、 第5図は第4図の微分オペレータを左回りにπ/4回転
させた場合の微分オペレータを示す図、 第6図(A)〜(0)は実施例の多値筆パターンデータ
の例を示す図、 第7図(A)、(B)は描画開始位置(X、。 ya)と選択した筆パターンデータの中心位置(×。、
ye)との関係を示す図、 第8図は実施例の縦方向エツジ検出用オペレータの一例
を示す図、 第9図は実施例の横方向エツジ検出用オペレークの一例
を示す図、 第10図、第11図はテクスチャ画像合成の際の一例の
LUT変換特性を示す図である。 図中、l・・・CPU、2・・・CPUメモリ、3・・
・CPUl10.4・・・CPUバス、5・・・エツジ
検出部、6・・・太線化処理部、7・・・ごみ処理部、
8・・・色変換部、9・・・描画開始位置発生部、1o
・・・筆パターン選択部、11・・・筆パターン回転部
、12・・・描画部、13・・・エツジ方向検出部、1
4・・・画像合成部、15・・・イメージメモリコント
ローラ、16〜21・・・画像メモリ、22〜24・・
・LUT、25・・・ビデオバス、26・・・ビデオコ
ントローラ、27・・・画像データI10である。
FIG. 1 is a block configuration diagram of an image processing apparatus according to an embodiment of the present invention, FIG. 2 is a flowchart of a painting processing procedure of the embodiment, and FIG. 3 is a floor diagram of LUTs 21 to 23 in the initial state of the embodiment. Figure 4 is a diagram showing an example of the key conversion table characteristics. Figure 4 is a diagram showing an example of the differential operator employed in the example. Figure 5 is the differential when the differential operator in Figure 4 is rotated counterclockwise by π/4. Figures 6(A) to 6(0) are diagrams showing examples of multivalued brush pattern data of the embodiment. Figures 7(A) and (B) are drawing start positions (X, ya). and the center position of the selected brush pattern data (×.,
FIG. 8 is a diagram showing an example of an operator for detecting edges in the vertical direction according to the embodiment. FIG. 9 is a diagram showing an example of an operator for detecting edges in the horizontal direction according to the embodiment. FIG. , FIG. 11 is a diagram showing an example of LUT conversion characteristics during texture image synthesis. In the figure, l... CPU, 2... CPU memory, 3...
・CPU10.4...CPU bus, 5...Edge detection section, 6...Thick line processing section, 7...Trash processing section,
8... Color conversion section, 9... Drawing start position generation section, 1o
... Brush pattern selection section, 11... Brush pattern rotation section, 12... Drawing section, 13... Edge direction detection section, 1
4... Image composition unit, 15... Image memory controller, 16-21... Image memory, 22-24...
-LUT, 25...Video bus, 26...Video controller, 27...Image data I10.

Claims (1)

【特許請求の範囲】 画像処理の種類を選択できる選択手段と、該選択手段で
選択された処理を行う画像処理装置であつて、 原画像データを記憶する第1の記憶手段と、前記処理の
種類に応じて色の明度、色相、彩度から成る3属性のう
ち少なくとも2つを組み合わせた複数の変換データを夫
々記憶する第2の記憶手段と、 前記第1の記憶手段で記憶する原画像データを前記第2
の記憶手段で記憶する変換データに従い変換する変換手
段とを備えることを特徴とする画像処理装置。
[Scope of Claims] An image processing apparatus comprising: a selection means for selecting a type of image processing; a first storage means for storing original image data; and a first storage means for storing original image data; a second storage means for storing a plurality of conversion data each combining at least two of the three attributes consisting of color brightness, hue, and saturation according to the type; and an original image stored in the first storage means. data in the second
An image processing apparatus comprising: conversion means for converting according to conversion data stored in the storage means.
JP63248986A 1988-10-04 1988-10-04 Image processing method Expired - Fee Related JP2922520B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63248986A JP2922520B2 (en) 1988-10-04 1988-10-04 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63248986A JP2922520B2 (en) 1988-10-04 1988-10-04 Image processing method

Publications (2)

Publication Number Publication Date
JPH0296880A true JPH0296880A (en) 1990-04-09
JP2922520B2 JP2922520B2 (en) 1999-07-26

Family

ID=17186328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63248986A Expired - Fee Related JP2922520B2 (en) 1988-10-04 1988-10-04 Image processing method

Country Status (1)

Country Link
JP (1) JP2922520B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011137899A (en) * 2009-12-28 2011-07-14 Casio Computer Co Ltd Image processor and program
JP2012215660A (en) * 2011-03-31 2012-11-08 Casio Comput Co Ltd Image display device, image processing method and image processing program
US8836809B2 (en) 1997-07-15 2014-09-16 Google Inc. Quad-core image processor for facial detection
US8866923B2 (en) 1999-05-25 2014-10-21 Google Inc. Modular camera and printer
US8896724B2 (en) 1997-07-15 2014-11-25 Google Inc. Camera system to facilitate a cascade of imaging effects
US8902333B2 (en) 1997-07-15 2014-12-02 Google Inc. Image processing method using sensed eye position
US8902340B2 (en) 1997-07-12 2014-12-02 Google Inc. Multi-core image processor for portable device
US8908075B2 (en) 1997-07-15 2014-12-09 Google Inc. Image capture and processing integrated circuit for a camera
US8936196B2 (en) 1997-07-15 2015-01-20 Google Inc. Camera unit incorporating program script scanner
US9055221B2 (en) 1997-07-15 2015-06-09 Google Inc. Portable hand-held device for deblurring sensed images

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8902340B2 (en) 1997-07-12 2014-12-02 Google Inc. Multi-core image processor for portable device
US8947592B2 (en) 1997-07-12 2015-02-03 Google Inc. Handheld imaging device with image processor provided with multiple parallel processing units
US9544451B2 (en) 1997-07-12 2017-01-10 Google Inc. Multi-core image processor for portable device
US9338312B2 (en) 1997-07-12 2016-05-10 Google Inc. Portable handheld device with multi-core image processor
US9055221B2 (en) 1997-07-15 2015-06-09 Google Inc. Portable hand-held device for deblurring sensed images
US8908051B2 (en) 1997-07-15 2014-12-09 Google Inc. Handheld imaging device with system-on-chip microcontroller incorporating on shared wafer image processor and image sensor
US8902333B2 (en) 1997-07-15 2014-12-02 Google Inc. Image processing method using sensed eye position
US8902324B2 (en) 1997-07-15 2014-12-02 Google Inc. Quad-core image processor for device with image display
US8902357B2 (en) 1997-07-15 2014-12-02 Google Inc. Quad-core image processor
US8908075B2 (en) 1997-07-15 2014-12-09 Google Inc. Image capture and processing integrated circuit for a camera
US9124737B2 (en) 1997-07-15 2015-09-01 Google Inc. Portable device with image sensor and quad-core processor for multi-point focus image capture
US8908069B2 (en) 1997-07-15 2014-12-09 Google Inc. Handheld imaging device with quad-core image processor integrating image sensor interface
US8913151B2 (en) 1997-07-15 2014-12-16 Google Inc. Digital camera with quad core processor
US8913137B2 (en) 1997-07-15 2014-12-16 Google Inc. Handheld imaging device with multi-core image processor integrating image sensor interface
US8913182B2 (en) 1997-07-15 2014-12-16 Google Inc. Portable hand-held device having networked quad core processor
US9131083B2 (en) 1997-07-15 2015-09-08 Google Inc. Portable imaging device with multi-core processor
US8922791B2 (en) 1997-07-15 2014-12-30 Google Inc. Camera system with color display and processor for Reed-Solomon decoding
US8928897B2 (en) 1997-07-15 2015-01-06 Google Inc. Portable handheld device with multi-core image processor
US8934027B2 (en) 1997-07-15 2015-01-13 Google Inc. Portable device with image sensors and multi-core processor
US8934053B2 (en) 1997-07-15 2015-01-13 Google Inc. Hand-held quad core processing apparatus
US8937727B2 (en) 1997-07-15 2015-01-20 Google Inc. Portable handheld device with multi-core image processor
US8936196B2 (en) 1997-07-15 2015-01-20 Google Inc. Camera unit incorporating program script scanner
US8947679B2 (en) 1997-07-15 2015-02-03 Google Inc. Portable handheld device with multi-core microcoded image processor
US8953061B2 (en) 1997-07-15 2015-02-10 Google Inc. Image capture device with linked multi-core processor and orientation sensor
US9124736B2 (en) 1997-07-15 2015-09-01 Google Inc. Portable hand-held device for displaying oriented images
US8953060B2 (en) 1997-07-15 2015-02-10 Google Inc. Hand held image capture device with multi-core processor and wireless interface to input device
US8896720B2 (en) 1997-07-15 2014-11-25 Google Inc. Hand held image capture device with multi-core processor for facial detection
US9060128B2 (en) 1997-07-15 2015-06-16 Google Inc. Portable hand-held device for manipulating images
US8953178B2 (en) 1997-07-15 2015-02-10 Google Inc. Camera system with color display and processor for reed-solomon decoding
US8896724B2 (en) 1997-07-15 2014-11-25 Google Inc. Camera system to facilitate a cascade of imaging effects
US8922670B2 (en) 1997-07-15 2014-12-30 Google Inc. Portable hand-held device having stereoscopic image camera
US9137397B2 (en) 1997-07-15 2015-09-15 Google Inc. Image sensing and printing device
US9137398B2 (en) 1997-07-15 2015-09-15 Google Inc. Multi-core processor for portable device with dual image sensors
US9143636B2 (en) 1997-07-15 2015-09-22 Google Inc. Portable device with dual image sensors and quad-core processor
US9143635B2 (en) 1997-07-15 2015-09-22 Google Inc. Camera with linked parallel processor cores
US9148530B2 (en) 1997-07-15 2015-09-29 Google Inc. Handheld imaging device with multi-core image processor integrating common bus interface and dedicated image sensor interface
US9168761B2 (en) 1997-07-15 2015-10-27 Google Inc. Disposable digital camera with printing assembly
US9179020B2 (en) 1997-07-15 2015-11-03 Google Inc. Handheld imaging device with integrated chip incorporating on shared wafer image processor and central processor
US9185246B2 (en) 1997-07-15 2015-11-10 Google Inc. Camera system comprising color display and processor for decoding data blocks in printed coding pattern
US9185247B2 (en) 1997-07-15 2015-11-10 Google Inc. Central processor with multiple programmable processor units
US9191530B2 (en) 1997-07-15 2015-11-17 Google Inc. Portable hand-held device having quad core image processor
US9191529B2 (en) 1997-07-15 2015-11-17 Google Inc Quad-core camera processor
US9197767B2 (en) 1997-07-15 2015-11-24 Google Inc. Digital camera having image processor and printer
US9219832B2 (en) 1997-07-15 2015-12-22 Google Inc. Portable handheld device with multi-core image processor
US9237244B2 (en) 1997-07-15 2016-01-12 Google Inc. Handheld digital camera device with orientation sensing and decoding capabilities
US8866926B2 (en) 1997-07-15 2014-10-21 Google Inc. Multi-core processor for hand-held, image capture device
US9432529B2 (en) 1997-07-15 2016-08-30 Google Inc. Portable handheld device with multi-core microcoded image processor
US8836809B2 (en) 1997-07-15 2014-09-16 Google Inc. Quad-core image processor for facial detection
US9560221B2 (en) 1997-07-15 2017-01-31 Google Inc. Handheld imaging device with VLIW image processor
US9584681B2 (en) 1997-07-15 2017-02-28 Google Inc. Handheld imaging device incorporating multi-core image processor
US8866923B2 (en) 1999-05-25 2014-10-21 Google Inc. Modular camera and printer
JP2011137899A (en) * 2009-12-28 2011-07-14 Casio Computer Co Ltd Image processor and program
JP2012215660A (en) * 2011-03-31 2012-11-08 Casio Comput Co Ltd Image display device, image processing method and image processing program

Also Published As

Publication number Publication date
JP2922520B2 (en) 1999-07-26

Similar Documents

Publication Publication Date Title
US7817159B2 (en) Digital painting
US5867169A (en) Method and apparatus for manipulating color values in a computer graphics system
US5038223A (en) Image processing method and apparatus for imparting a pictorial or painter-like effect
US5473736A (en) Method and apparatus for ordering and remapping colors in images of real two- and three-dimensional objects
US6529202B2 (en) Color adviser
US5204665A (en) Color editing with simple encoded images
JP4491129B2 (en) Color gamut mapping method and apparatus using local area information
US8422776B2 (en) Transparency and/or color processing
US7542033B2 (en) Method and program for generating a two-dimensional cartoonish picturization of a three-dimensional object
JPH0612051A (en) Image display device
CN106846390A (en) A kind of method and device of image procossing
JPH05508507A (en) Apparatus and method for emulating graphic products
JPH0296880A (en) Picture processor
CN110288670A (en) A kind of UI retouches the high-performance rendering method of side special efficacy
EP0566915B1 (en) Sharpness processing apparatus
US5828819A (en) Apparatus and method for automatically creating a picture in a style having painting-like coloring using an image processing
KR20020057825A (en) Apparatus and method for processing a printing image, and recording medium storing a program to execute the method
US8358306B2 (en) Re-coloring a color image
JPH09502816A (en) Color matching system
JPH01219965A (en) Method and device for processing image
JPH0296879A (en) Picture processor
JPH0754554B2 (en) Display processing method
JPH01219963A (en) Method and device for processing image
JPH01219962A (en) Method and device for processing image
JPH01219964A (en) Image processor

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees