JP2599040B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2599040B2
JP2599040B2 JP3119461A JP11946191A JP2599040B2 JP 2599040 B2 JP2599040 B2 JP 2599040B2 JP 3119461 A JP3119461 A JP 3119461A JP 11946191 A JP11946191 A JP 11946191A JP 2599040 B2 JP2599040 B2 JP 2599040B2
Authority
JP
Japan
Prior art keywords
image
data
frequency component
component
image portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3119461A
Other languages
Japanese (ja)
Other versions
JPH04322559A (en
Inventor
岩太 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd, Dainippon Screen Manufacturing Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP3119461A priority Critical patent/JP2599040B2/en
Publication of JPH04322559A publication Critical patent/JPH04322559A/en
Application granted granted Critical
Publication of JP2599040B2 publication Critical patent/JP2599040B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は,印刷製版などのため
の画像処理を行なう方法に関し,特に,2つの画像部分
を合成する画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for performing image processing for printing plate making and the like, and more particularly to an image processing method for combining two image portions.

【0002】[0002]

【従来の技術】印刷用の画像を部分的に修正する処理の
一種として,ブラシワークと呼ばれる画像処理が行なわ
れている。「ブラシワーク」とは,モニタに表示された
画像上の1点をマウスなどで指定し,指定した点の周囲
にある所定の形状(ブラシ形状と呼ぶ。)の画像部分に
対して画像データの修正を行なう処理のことを言う。
2. Description of the Related Art Image processing called brush work is performed as a kind of processing for partially correcting an image for printing. A “brush work” is a method in which a point on an image displayed on a monitor is designated with a mouse or the like, and image data of a predetermined shape (referred to as a brush shape) around the designated point is represented by image data. Refers to the process of making corrections.

【0003】ブラシワークの一種として,移植ブラシと
呼ばれる画像処理がある。移植ブラシは,第1の画像部
分の画像データを第2の画像部分に移植することによっ
て,第2の画像部分の画像データを第1の画像部分の画
像データに変更する処理である。すなわち,移植ブラシ
は,第2の画像部分の元の画像データが失われてしまう
処理であった。なお,ここで言う「画像データ」とは,
画像内の各画素の色情報(例えば,色相,明度,および
彩度)を表わすデータである。
As one type of brush work, there is image processing called transplantation brush. The transplant brush is a process of changing the image data of the second image portion to the image data of the first image portion by transplanting the image data of the first image portion to the second image portion. That is, the transplanting brush is a process in which the original image data of the second image portion is lost. Here, "image data" means
Data representing color information (for example, hue, lightness, and saturation) of each pixel in the image.

【0004】2つの画像部分の色情報を合成する処理と
しては,一般に画像合成と呼ばれる処理もしばしば利用
されている。通常「画像合成」と呼ばれる処理は,2つ
の画像部分の画像データを指定した比率で足し合わす処
理である。
As a process for synthesizing color information of two image portions, a process generally called image synthesis is often used. A process usually called “image composition” is a process of adding image data of two image portions at a specified ratio.

【0005】[0005]

【発明が解決しようとする課題】ところで,2つの画像
部分の画像データに基づく処理の一つとして,例えば,
第1と第2の物体の写真がある時に,第2の物体の表面
を,あたかも第1の物体の表面であるかのように見せる
ことを要求されることがある。このような画像を得るた
めには,第1の物体(第1の画像部分)の質感やざらつ
き感を,第2の物体(第2の画像部分)の画像に反映す
る必要がある。しかし,上述した移植ブラシや従来の画
像合成では,このような画像処理を行なうことができな
いという問題があった。
As one of the processes based on the image data of the two image portions, for example,
When there are photographs of the first and second objects, it may be required to make the surface of the second object look as if it were the surface of the first object. In order to obtain such an image, it is necessary to reflect the texture and roughness of the first object (the first image portion) to the image of the second object (the second image portion). However, there is a problem that such image processing cannot be performed with the above-described transplant brush or conventional image synthesis.

【0006】この発明は,従来技術における上述の課題
を解決するためになされたものであり,第1の画像部分
の質感やざらつき感を,第2の画像部分の画像に反映し
た第3の画像部分(合成画像部分)を得ることのできる
画像処理方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems in the prior art, and has a third image in which the texture and roughness of the first image portion are reflected in the image of the second image portion. It is an object of the present invention to provide an image processing method capable of obtaining a portion (composite image portion).

【0007】[0007]

【課題を解決するための手段】上述の課題を解決するた
め,この発明の請求項1に記載した画像処理方法は,
(a)前記第1の画像部分の明度分布を表わす第1の明
度成分データから高周波成分を抽出する工程と,(b)
前記第2の画像部分の明度分布を表わす第2の明度成分
データから低周波成分を抽出する工程と,(c)前記高
周波成分と前記低周波成分とを合成することにより,前
記第3の画像部分の明度成分を表わす第3の明度成分デ
ータを作成する工程と,を備える。
In order to solve the above-mentioned problems, an image processing method according to a first aspect of the present invention comprises:
(A) extracting a high-frequency component from first brightness component data representing the brightness distribution of the first image portion; and (b)
Extracting a low-frequency component from second brightness component data representing the brightness distribution of the second image portion; and (c) combining the high-frequency component and the low-frequency component to obtain the third image. Generating third brightness component data representing the brightness component of the portion.

【0008】請求項2に記載した画像処理方法は,前記
工程(c)において,第1の画像部分の高周波成分が分
布する高周波成分領域を,第2の画像部分を含む画像面
上に隙間なく繰り返して仮想的に配列し,前記第2の画
像部分の低周波成分が分布する低周波成分領域内の各画
素に関して,当該画素の低周波成分の値を,前記高周波
成分領域における当該画素の位置に応じた高周波成分の
値と合成することによって,前記高周波成分と前記低周
波成分とを合成する。
In the image processing method according to the present invention, in the step (c), the high-frequency component region in which the high-frequency component of the first image portion is distributed is formed without any gap on the image plane including the second image portion. For each pixel in the low-frequency component region where the low-frequency component of the second image portion is repeatedly arranged virtually and repeatedly, the value of the low-frequency component of the pixel is determined by the position of the pixel in the high-frequency component region. The high frequency component and the low frequency component are synthesized by synthesizing with the value of the high frequency component according to

【0009】また,請求項3に記載した画像処理方法
は,前記第1と第2の画像部分がカラー画像である場合
に,工程(a)に先だって,第1の画像部分のカラー画
像を複数の色分解成分データで表わす第1の色分解画像
データを,少なくとも第1の明度成分データを含む第1
の変換画像データに変換するとともに,第2の画像部分
のカラー画像を複数の色分解成分データで表わす第2の
色分解画像データを,少なくとも第2の明度成分データ
を含む第2の変換画像データに変換する工程を備え,工
程(c)において,第3の明度成分データを含み,第3
の画像部分のカラー画像を表わす第3の変換画像データ
を生成し,さらに,前記工程(c)に引き続いて,前記
第3の変換画像データを,複数の色分解成分データで構
成される第3の色分解画像データに逆変換する工程を備
える。
In the image processing method according to the present invention, when the first and second image portions are color images, a plurality of color images of the first image portion may be provided before the step (a). The first color separation image data represented by the color separation component data of
And converting the second color-separated image data representing the color image of the second image portion by a plurality of color-separated component data into second converted image data including at least second lightness component data. And in the step (c), including the third brightness component data,
Generating the third converted image data representing the color image of the image portion of step (c), and, following the step (c), converting the third converted image data into a third set of a plurality of color separation component data. Inversely converted to the color-separated image data.

【0010】さらに,請求項4に記載した画像処理方法
は,前記工程(c)における第3の変換画像データは,
低周波成分領域における第2の変換画像データの成分の
うちの明度成分データ以外の成分データと,第3の明度
成分データとで構成する。
Further, in the image processing method according to the fourth aspect, the third converted image data in the step (c) is:
It is composed of component data other than the brightness component data of the components of the second converted image data in the low-frequency component region, and third brightness component data.

【0011】[0011]

【作用】明度成分データの高周波成分は,質感やざらつ
き感を表わす成分である。従って,第1の画像部分の明
度成分データの高周波成分と,第2の画像部分の明度成
分データの低周波成分とを合成すれば,第1の画像部分
の質感やざらつき感を反映した第3の画像部分を得るこ
とができる。
The high-frequency component of the brightness component data is a component that represents a texture or roughness. Therefore, if the high-frequency component of the lightness component data of the first image portion and the low-frequency component of the lightness component data of the second image portion are combined, the third image reflecting the texture and roughness of the first image portion is obtained. Can be obtained.

【0012】請求項2に記載したように,高周波成分領
域を第2の画像部分を含む画像面上に配列し,配列され
た高周波成分領域における画素の位置に応じた高周波成
分の値と,低周波成分領域内の当該画素の低周波成分の
値とを合成すれば,第2の画像部分を含む画像面の上に
おいて第2の画像部分を複数回に亘って互いに重なりあ
うように指定した場合にも,重なりあう部分における高
周波成分の分布が変化しない。従って,第1の画像部分
の質感やざらつき感を第3の画像部分に正しく反映する
ことができる。
According to a second aspect of the present invention, the high-frequency component regions are arranged on an image plane including the second image portion, and the value of the high-frequency component corresponding to the position of the pixel in the arranged high-frequency component region is determined by the low When the value of the low-frequency component of the pixel in the frequency component area is combined with the value of the low-frequency component, the second image portions are specified to overlap with each other a plurality of times on the image plane including the second image portion. Also, the distribution of the high frequency components in the overlapping portions does not change. Therefore, the texture and roughness of the first image portion can be correctly reflected on the third image portion.

【0013】また,請求項3に記載したように,第1と
第2の画像部分がカラー画像であり,それぞれ複数の色
分解成分データで構成される第1と第2の色分解画像デ
ータによって表わされている場合がある。この場合に
は,色分解画像データを変換することによって明度成分
データを含む変換画像データを生成し,明度成分データ
について高周波成分と低周波成分との合成を行なえば,
第1の画像部分の質感やざらつき感を第3の画像部分に
反映することができる。
According to a third aspect of the present invention, the first and second image portions are color images, and each of the first and second image portions is formed by a plurality of color separation component data. May be represented. In this case, if the converted image data including the lightness component data is generated by converting the color separation image data, and the lightness component data is synthesized with the high frequency component and the low frequency component,
The texture and roughness of the first image portion can be reflected on the third image portion.

【0014】さらに,カラー画像の場合には,請求項4
に記載したように,低周波成分領域における第2の変換
画像データの成分のうちの明度成分データ以外の成分デ
ータを用いて合成後の第3の画像部分の変換画像データ
を構成するようにすれば,第2の画像部分における質感
やざらつき感以外の色情報を第3の画像部分に反映する
ことができる。
Further, in the case of a color image, a fourth aspect of the present invention is provided.
As described in above, the converted image data of the third image portion after the synthesis is configured by using the component data other than the brightness component data among the components of the second converted image data in the low frequency component region. For example, color information other than texture and roughness in the second image portion can be reflected in the third image portion.

【0015】[0015]

【実施例】図1は,本発明の一実施例としての画像処理
装置を示すブロック図である。この画像処理装置は,C
PU10と,高周波成分メモリ20と,低周波成分メモ
リ30と,合成画像メモリ40と,カラーモニタ50
と,キーボード60と,マウス70と,入力スキャナ8
0と,画像ディスク90と,出力スキャナ100と,定
形パターンメモリ110とを備えている。また,これら
の構成要素10〜110は,バスライン120によって
互いに接続されている。なお,3つのメモリ20,3
0,40は,RAMであり,画像ディスク90と定形パ
ターンメモリ110は,磁気ディスクである。
FIG. 1 is a block diagram showing an image processing apparatus according to one embodiment of the present invention. This image processing device is C
PU 10, high-frequency component memory 20, low-frequency component memory 30, composite image memory 40, color monitor 50
, Keyboard 60, mouse 70, input scanner 8
0, an image disk 90, an output scanner 100, and a fixed pattern memory 110. These components 10 to 110 are connected to each other by a bus line 120. The three memories 20, 3
Reference numerals 0 and 40 are RAMs, and the image disk 90 and the fixed pattern memory 110 are magnetic disks.

【0016】CPU10は,画像データ変換手段11
と,高周波成分抽出手段12と,低周波成分抽出手段1
3と,合成手段14と,画像データ逆変換手段15とを
有している。なお,これらの手段は,所定のプログラム
に従ってCPU10が実行する処理の内容を表わしたも
のである。
The CPU 10 includes an image data conversion unit 11
And high frequency component extracting means 12 and low frequency component extracting means 1
3, a synthesizing unit 14, and an image data inverse conversion unit 15. These means represent the contents of processing executed by the CPU 10 according to a predetermined program.

【0017】図2は,この実施例における処理手順を示
すフローチャートである。ステップT1では,2枚の原
稿を入力スキャナ80によって光電走査し,それらの画
像データを読取る。図3の(a)と(b)は,それぞれ
第1の原稿の画像M1と第2の原稿の画像M2の例を示
す概念図である。この例では,第2の画像の人物の肌
を,第1の画像の林檎の質感を持たせて再現しようとし
ているが,例えば,第1の画像は,よりきれいな肌の人
物であってもよい。これらの画像M1,M2を走査する
ことにより,第1の画像データD1と第2の画像データ
D2とがそれぞれ作成される。第1と第2の画像データ
D1,D2は,画像ディスク90に一旦収納される。な
お,この実施例において,各画像データD1,D2は,
Y(イエロー),M(シアン),C(シアン),K(ブ
ラック)の各色の濃度をそれぞれ表わす4つの色分解成
分を有している。
FIG. 2 is a flowchart showing a processing procedure in this embodiment. In step T1, the two originals are photoelectrically scanned by the input scanner 80, and their image data is read. FIGS. 3A and 3B are conceptual diagrams showing examples of an image M1 of a first document and an image M2 of a second document, respectively. In this example, the skin of the person in the second image is to be reproduced with the apple texture of the first image, but, for example, the first image may be a person with more beautiful skin. . By scanning these images M1 and M2, first image data D1 and second image data D2 are created. The first and second image data D1 and D2 are temporarily stored in the image disk 90. In this embodiment, each of the image data D1 and D2 is
It has four color separation components representing the density of each color of Y (yellow), M (cyan), C (cyan), and K (black).

【0018】以下のステップT2〜T10における画像
処理では,第1の画像M1の一部の画像部分から質感や
ざらつき感の色情報を表わす画像データ成分(高周波成
分,図3(c))を抽出し,また,第2の画像M2の一
部の画像部分からは質感やざらつき感以外の色情報を表
わす画像データ成分(低周波成分,図3(d))を抽出
してこれらの画像データ成分を合成する(図3
(e))。以下では,画像データ成分の抽出と合成の詳
細な方法について説明する。
In the image processing in the following steps T2 to T10, an image data component (high-frequency component, FIG. 3C) representing color information of texture and roughness is extracted from a part of the first image M1. Further, image data components (low-frequency components, FIG. 3D) representing color information other than texture and roughness are extracted from a part of the image portion of the second image M2, and these image data components are extracted. (Fig. 3
(E)). Hereinafter, a detailed method of extracting and synthesizing the image data component will be described.

【0019】まず,図2のステップT2では,第1の画
像M1と第2の画像M2がカラーモニタ50上に表示さ
れ,オペレータが第1の画像M1内において第1画像部
分R1(図3(a)参照)を指定する。この指定は,マ
ウス70を用いて第1画像部分R1の中心点P1の位置
を指定することによって行なわれる。
First, in step T2 of FIG. 2, the first image M1 and the second image M2 are displayed on the color monitor 50, and the operator can use the first image portion R1 (FIG. a)). This designation is performed by using the mouse 70 to designate the position of the center point P1 of the first image portion R1.

【0020】ステップT3では,画像データ変換手段1
1が,第1画像部分R1の画像データD1を明度,彩
度,色相のそれぞれを表わすデータに変換する。この変
換では,まず,YMCKのそれぞれのデータY0,M
0,C0,K0を次の数式1によって変換し,K成分を
YMCの各成分に上乗せする。
In step T3, the image data conversion means 1
1 converts the image data D1 of the first image portion R1 into data representing each of brightness, saturation, and hue. In this conversion, first, respective data Y0, M of YMCK
0, C0, and K0 are converted by the following equation 1, and the K component is added to each component of YMC.

【数1】 数式1の変換によって,たとえば図4(a)のデータが
図4(b)に示すように変換される。
(Equation 1) By the conversion of Expression 1, for example, the data of FIG. 4A is converted as shown in FIG.

【0021】次に,数式1で得られたデータY1,M
1,C1を数式2および数式3によって明度V1,彩度
S1,色相H1のデータに変換する。
Next, the data Y1, M obtained by equation (1)
1, and C1 are converted into data of lightness V1, saturation S1, and hue H1 by Expressions 2 and 3.

【数2】 (Equation 2)

【数3】 (Equation 3)

【0022】図5は,数式2と3とによる変換の内容を
示す説明図である。図5(a)は,数式1で得られるデ
ータY1,M1,C1を直交軸とする色立体である。こ
の色立体は,白色の点PWを原点としており,点PWに
対向する頂点PKは黒色を表わす点である。図5(b)
は,頂点PKと頂点PWとを結ぶ軸に垂直な平面上にY
1軸,M1軸,C1軸を投影した軸Yv,Mv,Cvを
示す。すなわち,Yv軸,Mv軸,Cv軸は,3つの頂
点PY,PM,PCを通る平面と平行な平面上に投影さ
れたY1軸,M1軸,C1軸の像である。
FIG. 5 is an explanatory diagram showing the contents of the conversion by equations (2) and (3). FIG. 5A shows a color solid having the data Y1, M1, and C1 obtained by Expression 1 as orthogonal axes. This color solid has a white point PW as an origin, and a vertex PK opposed to the point PW is a point representing black. FIG. 5 (b)
Represents Y on a plane perpendicular to the axis connecting vertex PK and vertex PW.
The axes Yv, Mv and Cv on which one axis, M1 axis and C1 axis are projected are shown. That is, the Yv axis, the Mv axis, and the Cv axis are images of the Y1, M1, and C1 axes projected on a plane parallel to a plane passing through the three vertices PY, PM, and PC.

【0023】図5(a)の色立体において,任意の点P
Pの明度Vは頂点PWから頂点PKに至る対角線(以
下,PW/PK軸と呼ぶ)を座標軸としたときの座標値
で定義される。また,彩度SはPW/PK軸からの距
離,色相HはPW/PK軸まわりの角度として定義され
る。ただし,色相Hは,Y1軸の方向を0°としてい
る。数式3で与えられる明度V1,彩度S1,色相H1
は,上述のように定義されたデータである。
In the color solid shown in FIG.
The lightness V of P is defined by a coordinate value when a diagonal line (hereinafter, referred to as a PW / PK axis) from the vertex PW to the vertex PK is used as a coordinate axis. The saturation S is defined as a distance from the PW / PK axis, and the hue H is defined as an angle around the PW / PK axis. However, the hue H has the direction of the Y1 axis set to 0 °. Lightness V1, saturation S1, and hue H1 given by Expression 3
Is data defined as described above.

【0024】図2に戻り,ステップT4では,高周波成
分抽出手段12によって,第1画像部分R1の明度デー
タV1の高周波成分V1hが抽出される。図6は,第1
画像部分R1を拡大して示す概念図である。この第1画
像部分R1は63×63画素の大きさを有している。明
度データV1の高周波成分の抽出は,次の数式4の最初
の式に従って行なわれる。
Returning to FIG. 2, in step T4, the high frequency component extracting means 12 extracts the high frequency component V1h of the brightness data V1 of the first image portion R1. FIG.
It is a conceptual diagram which expands and shows the image part R1. This first image portion R1 has a size of 63 × 63 pixels. The extraction of the high-frequency component of the brightness data V1 is performed according to the first expression of the following Expression 4.

【数4】 ここで,x,yは第1画像部分R1内の座標である。(Equation 4) Here, x and y are coordinates in the first image portion R1.

【0025】数式4による演算は,図7(a)に示す3
×3画素のハイパスフィルタHFの中心画素を第1画像
部分R1内の各画素に位置決めし,ハイパスフィルタH
Fによって当該中心画素の画像データを変換することと
等価である。なお,ハイパスフィルタHFや後述するロ
ーパスフィルタを用いたフィルタリング処理について
は,例えば梶光雄著,「印刷・電気系技術者のための印
刷画像工学」,昭和63年6月15日,印刷学会出版部
発行,第251頁〜第255頁に記載されている。
The operation according to Equation 4 is performed as shown in FIG.
The center pixel of the high-pass filter HF of 3 pixels is positioned at each pixel in the first image portion R1, and the high-pass filter H
This is equivalent to converting the image data of the center pixel by F. The filtering processing using the high-pass filter HF and the low-pass filter described later is described in, for example, Mitsuo Kaji, “Printing Image Engineering for Printing and Electrical Engineers”, June 15, 1988, Printing Society Press Published, pages 251 to 255.

【0026】図6は,第1画像部分R1の初期位置にハ
イパスフィルタHFを位置決めした状態を示す概念図で
ある。図6において破線で示されている領域は,ハイパ
スフィルタHFによって第1画像部分R1の各画素の画
像データを変換した後に得られる高周波成分が分布する
領域R1a(以下,「高周波成分領域」と呼ぶ。)を示
す概念図である。高周波成分領域R1aは,第1画像部
分R1から最外周1画素の層が除去された領域であり,
61×61画素の大きさを有している。また,高周波成
分領域R1aの明度データV1hは,上記の数式4で得
られたデータである。
FIG. 6 is a conceptual diagram showing a state where the high-pass filter HF is positioned at the initial position of the first image portion R1. A region indicated by a broken line in FIG. 6 is a region R1a (hereinafter, referred to as a “high-frequency component region”) in which high-frequency components obtained after converting image data of each pixel of the first image portion R1 by the high-pass filter HF are distributed. FIG. The high-frequency component region R1a is a region in which the outermost one pixel layer has been removed from the first image portion R1.
It has a size of 61 × 61 pixels. Further, the brightness data V1h of the high-frequency component region R1a is the data obtained by Expression 4 above.

【0027】ステップT5では第1画像部分R1の彩度
データS1と色相データH1の高周波成分をそれぞれ抽
出する。彩度データS1と色相データH1の高周波成分
S1h,H1hの抽出も上記の数式4に従って行なわれ
る。
In step T5, the high-frequency components of the saturation data S1 and the hue data H1 of the first image portion R1 are extracted. The extraction of the high-frequency components S1h and H1h of the saturation data S1 and the hue data H1 is also performed according to the above equation (4).

【0028】ステップT6では,オペレータが第2の画
像M2内において第2画像部分R2を指定する(図3
(b)参照)。この指定は,マウス70を用いて第2画
像部分R2の中心点P2の位置を指定することによって
行なわれる。
In step T6, the operator designates the second image portion R2 in the second image M2 (see FIG. 3).
(B)). This designation is performed by using the mouse 70 to designate the position of the center point P2 of the second image portion R2.

【0029】ステップT7では,低周波成分抽出手段1
3によって,第2画像部分R2の画像データD2が明
度,彩度,色相のそれぞれを表わすデータに変換され
る。これは,ステップT3における処理と同様である。
In step T7, the low frequency component extracting means 1
3, the image data D2 of the second image portion R2 is converted into data representing each of brightness, saturation, and hue. This is the same as the processing in step T3.

【0030】ステップT8では,第2画像部分R2の明
度データV2の低周波成分を抽出する。図8は,第2画
像部分R2を拡大して示す概念図である。この第2画像
部分R2も,第1画像部分R1と同様に63x63画素
の大きさを有している。明度データV2の低周波成分V
2wの抽出は,次の数式5に従って行なわれる。
In step T8, a low frequency component of the brightness data V2 of the second image portion R2 is extracted. FIG. 8 is a conceptual diagram showing the second image portion R2 in an enlarged manner. This second image portion R2 also has a size of 63 × 63 pixels, like the first image portion R1. Low frequency component V of brightness data V2
The extraction of 2w is performed according to the following Expression 5.

【数5】 (Equation 5)

【0031】数式5による演算は,図7(b)に示す3
x3画素のローパスフィルタLFの中心画素を第2画像
部分R2内の各画素に位置決めし,ローパスフィルタL
Fによって当該中心画素の画像データを変換することと
等価である。
The calculation based on the equation (5) is as shown in FIG.
The center pixel of the x3 pixel low-pass filter LF is positioned at each pixel in the second image portion R2, and the low-pass filter L
This is equivalent to converting the image data of the center pixel by F.

【0032】図8には,第2画像部分R2の初期位置に
ローパスフィルタLFを位置決めした状態を示してい
る。図8において破線で示される領域は,ローパスフィ
ルタLFによって第2画像部分R2の各画素の画像デー
タを変換した後に得られる低周波成分が分布する領域R
2a(以下,「低周波成分領域」と呼ぶ。)を示す概念
図である。低周波成分領域R2aは,第2画像部分R2
から最外周1画素の層が除去された領域であり,61×
61画素の大きさを有している。
FIG. 8 shows a state where the low-pass filter LF is positioned at the initial position of the second image portion R2. In FIG. 8, a region indicated by a broken line is a region R in which low-frequency components obtained after converting the image data of each pixel of the second image portion R2 by the low-pass filter LF are distributed.
2a (hereinafter, referred to as a “low frequency component region”). The low-frequency component region R2a includes a second image portion R2
Area from which the outermost one pixel layer has been removed.
It has a size of 61 pixels.

【0033】ステップT9では第2画像部分R2の彩度
データS2と色相データH2の低周波成分S2w,H2
wをそれぞれ抽出する。これらの低周波成分S2w,H
2wの抽出も上記の数式5に従って行なわれる。
In step T9, the low-frequency components S2w and H2 of the saturation data S2 of the second image portion R2 and the hue data H2 are obtained.
Extract w. These low frequency components S2w, H
The extraction of 2w is also performed according to the above equation (5).

【0034】ステップT10では,低周波成分と高周波
成分とを合成して合成画像データを作成する。この合成
画像データの作成では,まず高周波成分の明度データV
1h,彩度データS1h,色相データH1hを低周波成
分の明度データV2w,彩度データS2w,色相データ
H2wとそれぞれ合成し,その後,合成して得られた明
度,彩度,色相の各データに基づいてYMCKの画像デ
ータに逆変換する。
In step T10, low-frequency components and high-frequency components are synthesized to create synthesized image data. In creating this composite image data, first, the brightness data V
1h, the saturation data S1h, and the hue data H1h are combined with the lightness data V2w, the saturation data S2w, and the hue data H2w of the low-frequency component, respectively, and thereafter, the combined brightness, saturation, and hue data are obtained. The image data is inversely converted to YMCK image data based on the image data.

【0035】高周波成分データV1h,S1h,H1h
と低周波成分データV2w,S2w,H2wとの合成
は,次の数式6に従って行なわれる。
High frequency component data V1h, S1h, H1h
And the low frequency component data V2w, S2w, H2w are synthesized according to the following equation (6).

【数6】 ここで,AX,AYは,次の数式7で与えられる値であ
り,X,Yは第2の画像M2内における画素の座標,
x,yは低周波成分領域R2a内における画素の座標で
ある。
(Equation 6) Here, AX and AY are values given by the following equation 7, X and Y are the coordinates of the pixel in the second image M2,
x and y are the coordinates of the pixel in the low frequency component region R2a.

【数7】 ここで,dx,dyは高周波成分領域R1aのx方向お
よびy方向の辺の長さであり,この実施例では,dx=
dy=61である。また,演算子Intは,括弧内の数
値を整数化する演算を示している。例えば,Int(X
/dx)は,座標Xを値dxで割った結果の整数部分で
ある。
(Equation 7) Here, dx and dy are the lengths of the sides of the high frequency component region R1a in the x and y directions, and in this embodiment, dx = dy
dy = 61. The operator Int indicates an operation for converting a numerical value in parentheses into an integer. For example, Int (X
/ Dx) is the integer part of the result of dividing the coordinate X by the value dx.

【0036】図9は,数式6で示される演算の内容を示
す説明図である。図9の(a)は,第2の画像M2内の
第2画像部分R2の位置と,第2の画像M2の画像面上
に隙間なく割り当てられたブラシ領域BR(破線でブラ
シ領域間の境界を示す。)を示している。ブラシ領域B
Rは,高周波成分領域R1aと同じ大きさの仮想的な領
域であり,第2の画像M2の画面上を隙間なく覆うよう
に,第2の画像M2上に繰り返し配列されている。
FIG. 9 is an explanatory diagram showing the contents of the calculation represented by Expression 6. FIG. 9A shows the position of the second image portion R2 in the second image M2 and the brush area BR allocated on the image surface of the second image M2 without a gap (the boundary between brush areas is indicated by a broken line). Is shown.). Brush area B
R is a virtual area having the same size as the high-frequency component area R1a, and is repeatedly arranged on the second image M2 so as to cover the screen of the second image M2 without gaps.

【0037】数式6の値AX,AYは,図9(a)に示
すように,画素PXが属するブラシ領域BRの原点OB
の画像M2上における座標である。従って(X−A
X),(Y−AY)は,ブラシ領域BR内における画素
PXの座標値にそれぞれ等しい。
As shown in FIG. 9A, the values AX and AY of Expression 6 are the origin OB of the brush area BR to which the pixel PX belongs.
Are coordinates on the image M2. Therefore, (XA
X) and (Y-AY) are respectively equal to the coordinate values of the pixel PX in the brush area BR.

【0038】図9(b)は,低周波成分領域R2aと,
その中の画素PXが属するブラシ領域BRを拡大して示
す説明図である。画素PXのブラシ領域BR内における
座標は(X−AX,Y−AY)なので,この画素PXに
対する高周波成分データとして,V1h(X−AX,Y
−AY),S1h(X−AX,Y−AY),H1h(X
−AX,Y−AY)がそれぞれ適用される。これが数式
6の右辺第1項である。
FIG. 9B shows a low frequency component region R2a,
FIG. 4 is an explanatory diagram showing an enlarged brush area BR to which a pixel PX belongs. Since the coordinates of the pixel PX in the brush area BR are (X-AX, Y-AY), V1h (X-AX, Y
-AY), S1h (X-AX, Y-AY), H1h (X
-AX, Y-AY). This is the first term on the right side of Equation 6.

【0039】一方,低周波成分データV2w,S2w,
H2wは,低周波成分領域R2aの内部座標(x,y)
に従って各画素に割り当てられる。これが数式6の右辺
第2項である。
On the other hand, low frequency component data V2w, S2w,
H2w is the internal coordinates (x, y) of the low frequency component region R2a.
Is assigned to each pixel. This is the second term on the right side of Expression 6.

【0040】以上のように,画像データの合成におい
て,低周波成分データは,低周波成分領域R2a内の各
画素の「画像M2内のおける座標」に応じて割当られて
おり,一方,高周波成分データは,第2の画像M2上に
隙間なく繰り返し配列された各ブラシ領域BRの内部座
標に応じて割当てられている。そして,低周波成分領域
R2aの各画素についての高周波成分データとして,ブ
ラシ領域BR内部における当該画素の座標に対する高周
波成分データが利用される。
As described above, in synthesizing the image data, the low-frequency component data is allocated according to the “coordinates in the image M2” of each pixel in the low-frequency component region R2a. Data is assigned according to the internal coordinates of each brush area BR repeatedly arranged on the second image M2 without gaps. Then, as the high-frequency component data for each pixel in the low-frequency component region R2a, high-frequency component data for the coordinates of the pixel in the brush region BR is used.

【0041】なお,この合成処理は,図1において,低
周波成分メモリ30に記憶されている低周波成分データ
に高周波成分データが合成手段14によって加算される
ことによって実行される。こうして合成された画像デー
タは,合成画像メモリ40に記憶される。
The synthesizing process is performed by adding the high-frequency component data to the low-frequency component data stored in the low-frequency component memory 30 in FIG. The image data thus synthesized is stored in the synthesized image memory 40.

【0042】ステップT11では,画像データ逆変換手
段15により,以上のようにして得られた合成画像デー
タVc,Sc,HcをYMCKの色分解画像データに逆
変換する。この逆変換に際しては,まず明度,彩度,色
相をそれぞれ表わす合成画像データVc,Sc,Hcが
数式8に従って図5(b)のYv,Mv,Cv成分に変
換される。
In step T11, the composite image data Vc, Sc, Hc obtained as described above is inversely converted into YMCK color separation image data by the image data inverse conversion means 15. At the time of the inverse conversion, first, the composite image data Vc, Sc, and Hc respectively representing lightness, saturation, and hue are converted into Yv, Mv, and Cv components of FIG.

【数8】 ただし,Yv<0のときにはYv=0である。同様に,
Mv<0のときにはMv=0,Cv<0のときにはCv
=0である。
(Equation 8) However, when Yv <0, Yv = 0. Similarly,
Mv = 0 when Mv <0, Cv when Cv <0
= 0.

【0043】次に,数式9に従ってYv,Mv,Cv成
分をYMCの各色分解成分Yc,Mc,Ccに変換す
る。
Next, the Yv, Mv, and Cv components are converted into the YMC color separation components Yc, Mc, and Cc according to equation (9).

【数9】 さらに,数式10に従ってYMCの各色分解成分Yc,
Mc,Ccから墨成分(K成分)を抽出し,YMCKの
各色分解成分Ye,Me,Ce,Keを生成する。
(Equation 9) Further, according to Equation 10, each color separation component Yc of YMC,
A black component (K component) is extracted from Mc and Cc, and YMCK color separation components Ye, Me, Ce, and Ke are generated.

【数10】 ここで,演算子Minは最小値を選択する演算を示す。(Equation 10) Here, the operator Min indicates an operation for selecting the minimum value.

【0044】数式10の処理は,YMCの各色分解成分
が図4(b)に示すYc,Mc,Ccになっていると仮
定したときに,これらの成分を,図4(c)に示すよう
に変換する処理である。これは,一般に下色除去(UC
R)と呼ばれる処理と同一である。なお,下色除去の割
合(すなわち,Min(Y,M,C)の内でK成分に置
き換える割合)は,適宜設定するようにしてもよい。
The processing of equation (10) is based on the assumption that the color separation components of YMC are Yc, Mc, and Cc shown in FIG. 4B, and these components are represented as shown in FIG. This is the process of converting to. This is generally due to undercolor removal (UC
This is the same as the process called R). The undercolor removal ratio (that is, the ratio of Min (Y, M, C) replaced with the K component) may be set as appropriate.

【0045】以上のようにして得られた色分解画像デー
タYe,Me,Ce,Keは,第2の画像M2内の低周
波成分領域R2a内のカラー画像を表わす画像データで
ある。この画像データYe,Me,Ce,Keは,ステ
ップT12において合成画像メモリ40から画像ディス
ク90に転送され,第2の画像M2の画像データD2の
うちで,低周波成分領域R2aの部分の画像データが,
この画像データYe,Me,Ce,Keに置き換えられ
る。こうして,図3(e)に示す合成後画像が得られ
る。
The color separation image data Ye, Me, Ce, Ke obtained as described above is image data representing a color image in the low frequency component region R2a in the second image M2. The image data Ye, Me, Ce, and Ke are transferred from the composite image memory 40 to the image disk 90 in step T12, and the image data of the low-frequency component region R2a in the image data D2 of the second image M2. But,
The image data is replaced with Ye, Me, Ce, Ke. Thus, the post-combination image shown in FIG.

【0046】以上の説明では,第2の画像M2内に第2
画像部分R2を1箇所指定しただけであった。しかし,
第2の画像M2内において上述した画像合成処理を広い
領域に渡って行ないたい場合がある。この場合には,マ
ウス70で規定されるカーソルを第2の画像M2上にお
いて移動させればよい。
In the above description, the second image M2 contains the second
Only one image portion R2 was specified. However,
There is a case where the above-described image synthesis processing is desired to be performed over a wide area in the second image M2. In this case, the cursor defined by the mouse 70 may be moved on the second image M2.

【0047】図10は,第2の画像M2上においてカー
ソルを移動させる様子を示す概念図である。例えば,オ
ペレータがマウス70のボタンを押し続けたままカーソ
ルを矢印の方向に移動させたとき,CPU10が一定の
周期でマウス70の状態を監視して点P21とP22の
位置を指定点と認識したものとする。この場合には,点
P21,P22を中心とする2つの第2画像部分R2
1,R22がそれぞれ設定される。2つの第2画像部分
R21,R22の両方に含まれる画素PXaの画像デー
タについては,以下に説明するように,図2のステップ
T7〜T10の合成処理がそれぞれ行なわれる。しか
し,第2画像部分R22についての合成処理が終了した
時点における画素PXaの最終的な合成画像データは,
以下に説明するように,最初の第2画像部分R21で作
成されたデータから変化しない。
FIG. 10 is a conceptual diagram showing how the cursor is moved on the second image M2. For example, when the operator moves the cursor in the direction of the arrow while holding down the button of the mouse 70, the CPU 10 monitors the state of the mouse 70 at a constant cycle and recognizes the positions of the points P21 and P22 as the designated points. Shall be. In this case, two second image portions R2 centered on points P21 and P22
1 and R22 are set respectively. For the image data of the pixel PXa included in both of the two second image portions R21 and R22, the combining process of steps T7 to T10 in FIG. 2 is performed as described below. However, the final synthesized image data of the pixel PXa at the time when the synthesis processing for the second image portion R22 is completed is
As described below, there is no change from the data created in the first second image portion R21.

【0048】2つの第2画像部分R21,R22の両方
に含まれる画素PXaの画像データは,次のようにして
合成される。まず,最初の第2画像部分R21が指定さ
れた時点において,上述のステップT7〜T10の処理
が行なわれ,画素PXaの合成画像データが生成されて
合成画像メモリ40に記憶される。そして,次の第2画
像部分R22が指定された時点においてもステップT7
〜T10の処理が繰り返され,画素PXaの画像データ
が合成されて合成画像メモリ40に記憶される。この
時,第2画像部分R22に対する合成画像データは,最
初の第2画像部分R21に対する合成画像データに上書
きされる。
The image data of the pixel PXa included in both of the two second image portions R21 and R22 is synthesized as follows. First, at the point in time when the first second image portion R21 is designated, the processing of the above-described steps T7 to T10 is performed, and composite image data of the pixel PXa is generated and stored in the composite image memory 40. Then, even when the next second image portion R22 is designated, step T7 is performed.
The processing of T10 is repeated, and the image data of the pixel PXa is synthesized and stored in the synthesized image memory 40. At this time, the composite image data for the second image portion R22 is overwritten with the composite image data for the first second image portion R21.

【0049】最初の第2画像部分R21に対する合成処
理によって作成された合成画像データ(明度,彩度,色
相のデータ)は合成画像メモリ40に記憶されるので,
第2の画像M2の画像データD2は変更されない。従っ
て,第2画像部分R22に対する合成処理において抽出
される画素PXaの低周波成分は,最初の第2画像部分
R21に対する合成処理において抽出される画素PXa
の低周波成分と同一である。
The composite image data (lightness, saturation, and hue data) created by the composition process for the first second image portion R21 is stored in the composite image memory 40.
The image data D2 of the second image M2 is not changed. Accordingly, the low-frequency component of the pixel PXa extracted in the combining process for the second image portion R22 is the same as the pixel PXa extracted in the combining process for the first second image portion R21.
Is the same as the low-frequency component.

【0050】また,高周波成分データは,図9(a)に
示したように第2の画像M2上に隙間なく繰り返し配列
された各ブラシ領域BRの内部座標に応じて割当てられ
ている。従って,第2画像部分R22に対する合成画像
データのうちの画素PXaに関するデータは,最初の第
2画像部分R21に対する合成画像データと同じであ
る。従って,第2画像部分R22に対する合成画像デー
タが,最初の第2画像部分R21に対する合成画像デー
タに上書きされても,画素PXaのデータは変化しな
い。
The high-frequency component data is allocated according to the internal coordinates of each brush area BR repeatedly arranged without gaps on the second image M2 as shown in FIG. 9A. Therefore, the data regarding the pixel PXa in the composite image data for the second image portion R22 is the same as the composite image data for the first second image portion R21. Therefore, even if the composite image data for the second image portion R22 is overwritten with the composite image data for the first second image portion R21, the data of the pixel PXa does not change.

【0051】以上のように,この実施例では,ブラシ領
域BRが仮想的に第2の画像M2上に隙間なく繰り返し
配列されており,各ブラシ領域BRの内部座標に応じて
高周波成分データを割当てているので,低周波成分を抽
出するための第2画像部分を複数回に亘って互いに重な
りあうように指定しても,第2の画像M2内の各画素の
合成画像データが変化することがなく,第1画像部分の
質感やざらつき感を反映した合成画像を得ることができ
るという利点がある。
As described above, in this embodiment, the brush areas BR are virtually repeatedly arranged without gaps on the second image M2, and high-frequency component data is assigned according to the internal coordinates of each brush area BR. Therefore, even if the second image portion for extracting the low-frequency component is specified to overlap with each other a plurality of times, the composite image data of each pixel in the second image M2 may change. Therefore, there is an advantage that a composite image reflecting the texture and roughness of the first image portion can be obtained.

【0052】なお,この発明は上記実施例に限られるも
のではなく,その要旨を逸脱しない範囲において種々の
態様において実施することが可能であり,例えば次のよ
うな変形も可能である。
The present invention is not limited to the above embodiment, but can be implemented in various modes without departing from the gist of the invention. For example, the following modifications are possible.

【0053】(1)上記実施例では,YMCK成分を有
する色分解画像データを明度,彩度,色相のデータに変
換し,明度,彩度,色相の各成分について,高周波成分
と低周波成分とを加算するようにした。しかし,明度成
分のみについて高周波成分と低周波成分との加算をおこ
ない,彩度および色相については第2画像部分のデータ
をそのまま利用するようにしてもよい。これは,明度,
彩度,色相の3種類の高周波成分の内で,明度の高周波
成分が質感やざらつき感を特に顕著に示す成分だからで
ある。
(1) In the above embodiment, the color-separated image data having the YMCK component is converted into lightness, saturation, and hue data, and the high-frequency component, the low-frequency component, and the brightness, saturation, and hue components are converted. Was added. However, the high-frequency component and the low-frequency component may be added only for the lightness component, and the data of the second image portion may be directly used for the saturation and the hue. This is the brightness,
This is because, of the three types of high-frequency components of saturation and hue, the high-frequency component of lightness is a component that particularly exhibits a texture and roughness.

【0054】なお,上記実施例のように彩度と色相の高
周波成分を抽出するようにすれば第1画像部分の質感や
ざらつき感を更によく反映することができるという利点
がある。
If the high-frequency components of the saturation and the hue are extracted as in the above-described embodiment, there is an advantage that the texture and roughness of the first image portion can be more effectively reflected.

【0055】(2)高周波成分と低周波成分を抽出する
際の画像データは,明度,彩度および色相の各成分を有
するデータに限らず,少なくとも明度成分を有するデー
タであればよい。これは,質感やざらつき感を顕著に表
わす明度成分について高周波成分と低周波成分とを抽出
して加算すれば,第1画像部分の質感やざらつき感を第
2画像部分に移植することができるからである。
(2) The image data at the time of extracting the high frequency component and the low frequency component is not limited to the data having the brightness, saturation and hue components, but may be any data having at least the brightness component. This is because the texture and roughness of the first image portion can be transplanted to the second image portion by extracting and adding the high-frequency component and the low-frequency component with respect to the lightness component that remarkably represents the texture and roughness. It is.

【0056】なお,明度成分を有する画像データとして
は,XYZ表色系の3刺激値を表わすデータや,NTS
C方式の画像データなど,種々の方式の画像データがあ
る。ここで言う「明度成分」とは,濃度や輝度を表わす
成分でもよい。ただし,輝度成分を有する方式の画像デ
ータの場合には,輝度成分を表わすデータを濃度レベル
のデータに変換した後,濃度レベルの高周波成分と低周
波成分とを加算し,最後に加算した濃度レベルのデータ
を輝度レベルのデータに逆変換する。これは,通常は,
輝度レベルのデータを直接加算することができないから
である。
The image data having a lightness component includes data representing tristimulus values in the XYZ color system and NTS.
There are various types of image data such as C type image data. Here, the “brightness component” may be a component representing density or luminance. However, in the case of image data having a luminance component, the data representing the luminance component is converted into density level data, and then the high frequency component and the low frequency component of the density level are added. Is inversely converted to data of the luminance level. This is usually
This is because luminance level data cannot be directly added.

【0057】(3)上記実施例では,高周波成分を抽出
する為に第1の画像M1内に第1画像部分R1を指定し
た。しかし,第1画像部分を第2の画像M2内で指定し
てもよい。この場合には,第1の画像M1が不要であ
り,第2の画像M2のみを用いて上述の処理が可能であ
る。
(3) In the above embodiment, the first image portion R1 is designated in the first image M1 in order to extract high frequency components. However, the first image portion may be specified in the second image M2. In this case, the first image M1 is unnecessary, and the above-described processing can be performed using only the second image M2.

【0058】第1の画像M1と第2の画像M2の2つの
画像を用いる場合には,マウス70を移動させたとき
に,第1の画像M1と第2の画像M2の上のカーソルが
連動し,マウスボタンを押すと第1画像部分と第2画像
部分とが同時に指定されるようにしてもよい。このよう
にして,2つの画像M1,M2上で多数の指定領域を指
定するようにすれば,第1の画像M1上の広い領域の質
感やざらつき感を第2の画像M2の上に容易に反映する
ことができるという利点がある。
When two images, the first image M1 and the second image M2, are used, when the mouse 70 is moved, the cursors on the first image M1 and the second image M2 are linked. Then, when the mouse button is pressed, the first image portion and the second image portion may be specified at the same time. In this way, if a large number of designated areas are designated on the two images M1 and M2, the texture and roughness of a wide area on the first image M1 can be easily displayed on the second image M2. There is an advantage that it can be reflected.

【0059】(4)高周波成分を抽出する画像部分とし
て,典型的な画像の画像データを定形パターンメモリ1
10(図1参照)に予め格納しておき,ステップT2に
おいてその内の1つの画像データを選択して読出すよう
にしてもよい。典型的な画像としては,人肌,木目,金
属表面,綿,毛,網などの模様がある。このような典型
的な画像データを予め用意しておけば,これらの画像の
質感やざらつき感を用いたい場合に,改めてこれらの画
像を準備してスキャナで画像データを読取る必要がな
く,全体の処理工程を短縮できるという利点がある。
(4) Image data of a typical image is stored in the fixed pattern memory 1 as an image portion for extracting high frequency components.
10 (see FIG. 1) in advance, and one of the image data may be selected and read out in step T2. Typical images include patterns such as human skin, wood grain, metal surfaces, cotton, hair, and nets. If such typical image data is prepared in advance, there is no need to prepare these images again and read the image data with a scanner when it is desired to use the texture and roughness of these images. There is an advantage that the processing steps can be shortened.

【0060】なお,典型的な画像の画像データそのもの
を定形パターンメモリ110に格納するのでなく,その
高周波成分を格納しておけば,更に処理時間を短縮する
ことができる。この場合には,図2のステップT3〜T
5は不要である。
The processing time can be further reduced by storing the high frequency components of the typical image data instead of storing the image data itself in the fixed pattern memory 110. In this case, steps T3 to T in FIG.
5 is unnecessary.

【0061】(5)上記実施例では,ブラシ領域BRが
第2の画像M2上に隙間なく繰り返し配列されていた
が,各ブラシ領域内の高周波成分の配列を図11のよう
に対称性を考慮したパターンとしてもよい。図11にお
いて,各ブラシ領域の矢印はブラシ領域の方向を示すた
めに便宜的に描かれた記号である。
(5) In the above embodiment, the brush areas BR are repeatedly arranged without gaps on the second image M2. However, the arrangement of the high-frequency components in each brush area takes into account the symmetry as shown in FIG. It is good also as a done pattern. In FIG. 11, the arrow of each brush area is a symbol drawn for convenience to indicate the direction of the brush area.

【0062】図11には,互いの境界線に対して対称な
4つのブラシ領域BR1,BR2,BR3,BR4が存
在する。第2のブラシ領域BR2は,第1のブラシ領域
BR1と対称である。第3のブラシ領域BR3は,第1
のブラシ領域BR1と対称である。また,第4のブラシ
領域BR4は,第3のブラシ領域BR3と対称であり,
第2のブラシ領域BR2とも対称である。
In FIG. 11, there are four brush areas BR1, BR2, BR3, BR4 which are symmetrical with respect to each other. The second brush area BR2 is symmetric with the first brush area BR1. The third brush area BR3 is the first brush area BR3.
Is symmetric with the brush area BR1. The fourth brush area BR4 is symmetric with the third brush area BR3,
The second brush area BR2 is also symmetric.

【0063】このように,各ブラシ領域に割り当てる高
周波成分のパターンを,各ブラシ領域間の境界線に対し
て対称になるようにすれば,高周波成分の分布が第2の
画像の全体に亘って連続的に変化する分布となる。従っ
て,ブラシ領域の境界部で高周波成分の分布が急激に変
化するのを防止することができるので,合成後の画像品
質を高めることができるという利点がある。
As described above, if the pattern of the high-frequency component assigned to each brush area is made symmetrical with respect to the boundary between the brush areas, the distribution of the high-frequency component is distributed over the entire second image. The distribution changes continuously. Therefore, it is possible to prevent the distribution of the high-frequency component from changing abruptly at the boundary of the brush area, and thus there is an advantage that the image quality after the synthesis can be improved.

【0064】(6)上記実施例では2つのカラー画像に
基づいて画像部分を合成したが,この発明は,2つの白
黒画像の画像部分を合成する場合にも適用することがで
きる。白黒画像に適用する場合には,画像データが明度
成分のみなので,上述の画像データの変換は不要であ
る。白黒画像においても,その明度成分の高周波成分が
質感やざらつき感を表わしているので,この発明を適用
することによって第1の画像部分の質感やざらつき感を
第2の画像部分に反映することができるという利点があ
る。
(6) In the above embodiment, the image portions are combined based on the two color images. However, the present invention can be applied to the case where the image portions of two monochrome images are combined. When applied to a black-and-white image, the above-described conversion of the image data is unnecessary since the image data is only the brightness component. Even in a black-and-white image, since the high-frequency component of the lightness component represents texture and roughness, the texture and roughness of the first image portion can be reflected in the second image portion by applying the present invention. There is an advantage that you can.

【0065】(7)上記実施例では第1画像部分と第2
画像部分とをどちらも正方形としたが,円形や長方形な
どの他の図形形状を有するものとしてもよい。
(7) In the above embodiment, the first image portion and the second
Although both the image portion and the image portion are square, they may have other graphic shapes such as a circle and a rectangle.

【0066】(8)上記実施例ではハイパスフィルタH
FとローパスフィルタLFとをそれぞれ3×3画素のマ
スクで構成されるものとした。しかし,一般に,ハイパ
スフィルタをMa×Na画素(Ma,Naは3以上の整
数)で構成される第1の空間フィルタとし,ローパスフ
ィルタをMb×Nb(Mb,Nbは3以上の整数)画素
で構成される第2の空間フィルタとすればよい。
(8) In the above embodiment, the high-pass filter H
F and the low-pass filter LF are each configured by a mask of 3 × 3 pixels. However, in general, the high-pass filter is a first spatial filter composed of Ma × Na pixels (Ma, Na is an integer of 3 or more), and the low-pass filter is Mb × Nb (Mb, Nb is an integer of 3 or more) pixels. What is necessary is just to make it the 2nd spatial filter comprised.

【0067】[0067]

【発明の効果】以上説明したように,明度成分データの
高周波成分は,質感やざらつき感を表わす成分である。
従って,本発明の請求項1記載の画像処理方法によれ
ば,第1の画像部分の明度成分データの高周波成分と,
第2の画像部分の明度成分データの低周波成分とを合成
するので,第1の画像部分の質感やざらつき感を反映し
た第3の画像部分を得ることができるという効果があ
る。
As described above, the high-frequency component of the brightness component data is a component representing texture and roughness.
Therefore, according to the image processing method of the first aspect of the present invention, the high-frequency component of the brightness component data of the first image portion is obtained by:
Since the low-frequency component of the brightness component data of the second image portion is synthesized, there is an effect that a third image portion reflecting the texture and roughness of the first image portion can be obtained.

【0068】請求項2に記載した画像処理方法によれ
ば,高周波成分領域を第2の画像部分を含む画像面上に
配列し,配列された高周波成分領域における画素の位置
に応じた高周波成分の値と,低周波成分領域内の当該画
素の低周波成分の値とを合成するので,第2の画像部分
を含む画像面の上において第2の画像部分を複数回に亘
って互いに重なりあうように指定した場合にも,重なり
あう部分における高周波成分の分布が変化しない。従っ
て,第1の画像部分の質感やざらつき感を第3の画像部
分に正しく反映することができるという効果がある。
According to the image processing method of the present invention, the high-frequency component regions are arranged on the image plane including the second image portion, and the high-frequency component regions corresponding to the positions of the pixels in the arranged high-frequency component regions are arranged. Since the value and the value of the low-frequency component of the pixel in the low-frequency component area are combined, the second image portions overlap each other a plurality of times on the image plane including the second image portion. , The distribution of the high-frequency components in the overlapping portions does not change. Therefore, there is an effect that the texture and roughness of the first image portion can be correctly reflected on the third image portion.

【0069】また,請求項3に記載した画像処理方法に
記載したように,第1と第2の画像部分がカラー画像で
あり,それぞれ複数の色分解成分データで構成される第
1と第2の色分解画像データによって表わされている場
合がある。この場合には,色分解画像データを変換する
ことによって明度成分データを含む変換画像データを生
成し,明度成分データについて高周波成分と低周波成分
との合成を行なえば,第1の画像部分の質感やざらつき
感を第3の画像部分に反映することができるという効果
がある。
Further, as described in the image processing method according to the third aspect, the first and second image portions are color images, and the first and second image portions are each composed of a plurality of color separation component data. May be represented by the color separation image data. In this case, converted image data including lightness component data is generated by converting the color separation image data, and if the high frequency component and the low frequency component are synthesized with respect to the lightness component data, the texture of the first image portion is obtained. There is an effect that the roughness can be reflected in the third image portion.

【0070】さらに,請求項4に記載した画像処理方法
によれば,カラー画像の場合に,低周波成分領域におけ
る第2の変換画像データの成分のうちの明度成分データ
以外の成分データを用いて合成後の第3の画像部分の変
換画像データを構成するようにするので,第2の画像部
分における質感やざらつき感以外の色情報を第3の画像
部分に反映することができるという効果がある。
Further, according to the image processing method of the present invention, in the case of a color image, component data other than the brightness component data among the components of the second converted image data in the low frequency component region are used. Since the converted image data of the third image portion after the composition is configured, there is an effect that color information other than texture and roughness in the second image portion can be reflected in the third image portion. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例を適用する画像処理装置を示
すブロック図。
FIG. 1 is a block diagram showing an image processing apparatus to which an embodiment of the present invention is applied.

【図2】この発明の実施例の手順を示すフローチャー
ト。
FIG. 2 is a flowchart showing a procedure according to the embodiment of the present invention.

【図3】実施例における画像合成処理の概略手順を示す
説明図。
FIG. 3 is an explanatory diagram showing a schematic procedure of an image combining process in the embodiment.

【図4】YMCKの画像データの変換を示す説明図。FIG. 4 is an explanatory diagram showing conversion of YMCK image data.

【図5】YMCK画像データからSVH画像データへの
変換を示す説明図。
FIG. 5 is an explanatory diagram showing conversion from YMCK image data to SVH image data.

【図6】高周波成分を抽出するための第1画像部分を示
す概念図。
FIG. 6 is a conceptual diagram showing a first image portion for extracting a high-frequency component.

【図7】ローパスフィルタとハイパスフィルタとを示す
説明図。
FIG. 7 is an explanatory diagram showing a low-pass filter and a high-pass filter.

【図8】低周波成分を抽出するための第2画像部分を示
す概念図。
FIG. 8 is a conceptual diagram showing a second image portion for extracting a low frequency component.

【図9】第2の画像内に配列されたブラシ領域と,第2
画像部分とを示す説明図。
FIG. 9 shows a brush area arranged in a second image and a second brush area;
Explanatory drawing showing an image part.

【図10】2つの第2画像部分を指定した場合を示す説
明図。
FIG. 10 is an explanatory diagram showing a case where two second image portions are designated.

【図11】対称性を有すブラシ領域配列を示す概念図。FIG. 11 is a conceptual diagram showing an arrangement of brush areas having symmetry.

【符号の説明】[Explanation of symbols]

11 画像データ変換手段 12 高周波成分抽出手段 13 低周波成分抽出手段 14 合成手段 15 画像データ逆変換手段 BR ブラシ領域 R1 第1画像部分 R1a 高周波成分領域 R2 第2画像部分 R2a 低周波成分領域 V1 明度データ S1 彩度データ H1 色相データ V1h 高周波成分 S1h 高周波成分 H1h 高周波成分 V2w 低周波成分 S2w 低周波成分 H2w 低周波成分 Reference Signs List 11 image data converting means 12 high frequency component extracting means 13 low frequency component extracting means 14 synthesizing means 15 image data inverse converting means BR brush area R1 first image part R1a high frequency component area R2 second image part R2a low frequency component area V1 brightness data S1 Saturation data H1 Hue data V1h High frequency component S1h High frequency component H1h High frequency component V2w Low frequency component S2w Low frequency component H2w Low frequency component

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 第1と第2の画像部分を合成することに
より,合成後の第3の画像部分を形成する画像処理方法
であって,(a)前記第1の画像部分の明度分布を表わ
す第1の明度成分データから高周波成分を抽出する工程
と,(b)前記第2の画像部分の明度分布を表わす第2
の明度成分データから低周波成分を抽出する工程と,
(c)前記高周波成分と前記低周波成分とを合成するこ
とにより,前記第3の画像部分の明度成分を表わす第3
の明度成分データを作成する工程と,を備えることを特
徴とする画像処理方法。
1. An image processing method for forming a third image portion after synthesis by synthesizing a first image portion and a second image portion, the method comprising: (a) calculating a brightness distribution of the first image portion; Extracting a high-frequency component from the represented first brightness component data; and (b) a second process representing a brightness distribution of the second image portion.
Extracting low frequency components from the brightness component data of
(C) combining the high-frequency component and the low-frequency component to obtain a third component representing a lightness component of the third image portion.
Generating lightness component data for the image processing method.
【請求項2】 請求項1記載の画像処理方法であって,
工程(c)において,第1の画像部分の高周波成分が分
布する高周波成分領域を,第2の画像部分を含む画像面
上に隙間なく繰り返して仮想的に配列し,前記第2の画
像部分の低周波成分が分布する低周波成分領域内の各画
素に関して,当該画素の低周波成分の値を,前記高周波
成分領域における当該画素の位置に応じた高周波成分の
値と合成することによって,前記高周波成分と前記低周
波成分とを合成する画像処理方法。
2. The image processing method according to claim 1, wherein
In the step (c), the high-frequency component regions in which the high-frequency components of the first image portion are distributed are virtually arranged repeatedly on the image plane including the second image portion without any gap, and the high-frequency component regions of the second image portion are virtually arranged. For each pixel in the low-frequency component region where the low-frequency component is distributed, the value of the low-frequency component of the pixel is combined with the value of the high-frequency component corresponding to the position of the pixel in the high-frequency component region to obtain the high-frequency component. An image processing method for synthesizing a component and the low frequency component.
【請求項3】 請求項2記載の画像処理方法であって,
第1と第2の画像部分はカラー画像であり,工程(a)
に先だって,第1の画像部分のカラー画像を複数の色分
解成分データで表わす第1の色分解画像データを,少な
くとも第1の明度成分データを含む第1の変換画像デー
タに変換するとともに,第2の画像部分のカラー画像を
複数の色分解成分データで表わす第2の色分解画像デー
タを,少なくとも第2の明度成分データを含む第2の変
換画像データに変換する工程を備え,工程(c)におい
て,第3の明度成分データを含み,第3の画像部分のカ
ラー画像を表わす第3の変換画像データを生成し,さら
に,前記工程(c)に引き続いて,前記第3の変換画像
データを,複数の色分解成分データで構成される第3の
色分解画像データに逆変換する工程を備える画像処理方
法。
3. The image processing method according to claim 2, wherein
The first and second image portions are color images, and the step (a)
Prior to the first step, the first color separation image data representing the color image of the first image portion by a plurality of color separation component data is converted into first conversion image data including at least first lightness component data. Converting the second color-separated image data representing the color image of the second image portion by a plurality of color-separated component data into second converted image data including at least second lightness component data; )), Generating third converted image data including a third brightness component data and representing a color image of a third image portion, and further comprising, following the step (c), the third converted image data An image processing method comprising the step of: inversely converting image data into third color-separated image data composed of a plurality of color-separated component data.
【請求項4】 請求項3記載の画像処理方法であって,
工程(c)における第3の変換画像データは,低周波成
分領域における第2の変換画像データの成分のうちの明
度成分データ以外の成分データと,第3の明度成分デー
タとで構成する画像処理方法。
4. The image processing method according to claim 3, wherein
The third converted image data in the step (c) is an image processing composed of component data other than the brightness component data among the components of the second converted image data in the low-frequency component region, and the third brightness component data. Method.
JP3119461A 1991-04-22 1991-04-22 Image processing method Expired - Lifetime JP2599040B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3119461A JP2599040B2 (en) 1991-04-22 1991-04-22 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3119461A JP2599040B2 (en) 1991-04-22 1991-04-22 Image processing method

Publications (2)

Publication Number Publication Date
JPH04322559A JPH04322559A (en) 1992-11-12
JP2599040B2 true JP2599040B2 (en) 1997-04-09

Family

ID=14761931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3119461A Expired - Lifetime JP2599040B2 (en) 1991-04-22 1991-04-22 Image processing method

Country Status (1)

Country Link
JP (1) JP2599040B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1028221A (en) * 1996-07-12 1998-01-27 Canon Inc Image processor and method thereof

Also Published As

Publication number Publication date
JPH04322559A (en) 1992-11-12

Similar Documents

Publication Publication Date Title
US5489921A (en) Method for generating uniform color area definitions with addition and removal operators
JP2967011B2 (en) Image processing method and apparatus
JP4134806B2 (en) Color conversion apparatus, image forming apparatus, and color conversion program
JP2599040B2 (en) Image processing method
JP2702408B2 (en) Image conversion system
JP4396479B2 (en) A correction processing method and an image processing apparatus in an image processing apparatus.
JPH07129762A (en) Sketch-fashion image generator
US5257327A (en) Method of and apparatus for forming a one-page-image
JPH03139976A (en) Method for setting up tone curve
US5559903A (en) Method for generating geometric masks with a digital color computer
JPH07334648A (en) Method and device for processing image
JP3783815B2 (en) Image processing device
JP2734099B2 (en) Blur image synthesis processing method
JP2004179819A (en) Color conversion processing apparatus, color conversion processing program, and color conversion processing method
JP2511731B2 (en) Halftone image processor
JP5424785B2 (en) Image processing apparatus, image processing method, and computer program
JP3468477B2 (en) How to disconnect binary image data
JP3054299B2 (en) Image processing apparatus and method
JPH0877336A (en) Area extracting method
JPH10124671A (en) Image processing method
JP4087010B2 (en) Image processing device
GB2263215A (en) Pixellated to vector image conversion
JP2849219B2 (en) Color image processing equipment
JP3471762B2 (en) Image conversion synthesis editing apparatus and method
JP2575641B2 (en) Image editing processing method