JPH08161521A - Image processor - Google Patents

Image processor

Info

Publication number
JPH08161521A
JPH08161521A JP33112594A JP33112594A JPH08161521A JP H08161521 A JPH08161521 A JP H08161521A JP 33112594 A JP33112594 A JP 33112594A JP 33112594 A JP33112594 A JP 33112594A JP H08161521 A JPH08161521 A JP H08161521A
Authority
JP
Japan
Prior art keywords
area
image
divided
pixel
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33112594A
Other languages
Japanese (ja)
Inventor
Atsushi Kasao
敦司 笠尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP33112594A priority Critical patent/JPH08161521A/en
Publication of JPH08161521A publication Critical patent/JPH08161521A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To add adequate expression at a proper place corresponding to the color and pattern of an image. CONSTITUTION: An image direction detecting means 39 detects the image direction of respective pixels of an input image from input image data 1 and extracts image direction components d1. An area dividing means 40 divides the input image into areas by using coordinate values (x) and (y) of respective pixels in the input image and the image direction components d1. An area integrating means 50 integrates areas specified among the respective divided areas. An expression adding means 60 adds indicated expression to image parts of the areas specified among the respective divided areas after the integration.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、写真などの画像のモ
チーフとなる部分の明るさや色を変えるなど、画像の一
部に表現を付加する画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for adding an expression to a part of an image, such as changing the brightness and color of a part which becomes a motif of an image such as a photograph.

【0002】[0002]

【従来の技術】デスクトップパブリッシングは、小さな
オフィスや個人にも普及されつつあり、デスクトップパ
ブリッシングでの画像処理も、画像編集装置や画像レタ
ッチシステムなどの開発により、以前よりは容易に行え
るようになってきている。このデスクトップパブリッシ
ングでの画像処理の一つとして、写真などの画像のモチ
ーフとなる部分の明るさや色を変えるなど、画像の一部
に表現を付加する処理がある。
2. Description of the Related Art Desktop publishing has become popular in small offices and individuals, and image processing in desktop publishing has become easier than before due to the development of image editing devices and image retouching systems. ing. As one of the image processes in this desktop publishing, there is a process of adding an expression to a part of an image, such as changing the brightness and color of a part that becomes a motif of an image such as a photograph.

【0003】このように画像の一部に表現を付加するに
は、従来、画像中のある画素を特定するとともに、その
特定した画素を丸や四角などの一定の図形で囲むことに
よって、表現を付加する領域を指定し、その指定した領
域の画像部分に表現を付加する方法や、画像中のある画
素を特定するとともに、その特定した画素に近接する画
素で、その特定した画素と近い色の画素は、その特定し
た画素と同じ領域に含めるように領域を拡大していくこ
とによって、表現を付加する領域を指定し、その指定し
た領域の画像部分に表現を付加する方法が、とられてい
る。
In order to add an expression to a part of an image in this way, conventionally, a certain pixel in the image is specified, and the specified pixel is surrounded by a fixed figure such as a circle or a square to express the expression. A method to specify the area to be added and add the expression to the image part of the specified area, or to specify a pixel in the image, and specify a pixel close to the specified pixel and A pixel is specified by specifying the area to which the expression is added by expanding the area so that it is included in the same area as the specified pixel, and adding the expression to the image portion of the specified area. There is.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、前者の
方法は、画像中の特定した画素を一定の図形で囲むこと
によって、表現を付加する領域を指定するので、表現を
付加する領域を画像の色や絵柄(テクスチャ)に応じた
適切なものとすることができず、適切な場所に適切な表
現を付加するのが難しい欠点がある。
However, in the former method, the area to which the expression is added is specified by enclosing the specified pixels in the image with a fixed figure. There is a drawback that it is difficult to add an appropriate expression to an appropriate place because it cannot be an appropriate one according to a picture or a texture.

【0005】また、後者の方法も、画像中の特定した画
素、およびこれと位置および色が近い画素を、表現を付
加する領域とするので、表現を付加する領域を必ずしも
画像の絵柄に応じた適切なものとすることができず、適
切な場所に適切な表現を付加するのが難しい欠点があ
る。
Also in the latter method, since the specified pixel in the image and the pixel whose position and color are close to the specified pixel are the areas to which the expression is added, the area to which the expression is added does not necessarily correspond to the pattern of the image. There is a drawback in that it cannot be made appropriate and it is difficult to add an appropriate expression to an appropriate place.

【0006】そこで、この発明は、写真などの画像のモ
チーフとなる部分の明るさや色を変えるなど、画像の一
部に表現を付加する画像処理装置において、画像の色や
絵柄に応じた適切な場所に適切な表現を付加することが
できるようにしたものである。
Therefore, the present invention is suitable for an image processing apparatus that adds expression to a part of an image, such as changing the brightness and color of a part that becomes a motif of an image such as a photograph, in accordance with the color and pattern of the image. This is so that an appropriate expression can be added to the place.

【0007】[0007]

【課題を解決するための手段】この発明では、図1に示
して後述する実施例の参照符号を対応させると、画像入
力手段10と、その画像入力手段10からの入力画像を
領域分割する領域分割手段40と、その領域分割手段4
0による分割結果を表示する表示手段80と、その表示
手段80に表示された複数の分割領域のうちの一部また
は全部を指定する領域指定手段92と、その領域指定手
段92により指定された領域の画像部分に付加する表現
を指示する表現指示手段93と、その表現指示手段93
による指示にもとづいて上記領域指定手段92により指
定された領域の画像部分に表現を付加する表現付加手段
60と、を設ける。
In the present invention, when the reference numerals of the embodiment shown in FIG. 1 and described later are made to correspond to each other, the image input means 10 and the area into which the input image from the image input means 10 is divided. Dividing means 40 and its area dividing means 4
Display means 80 for displaying the division result by 0, area specifying means 92 for specifying a part or all of the plurality of divided areas displayed on the display means 80, and area specified by the area specifying means 92 Expression instructing means 93 for instructing an expression to be added to the image part of the
And an expression adding means 60 for adding an expression to the image portion of the area designated by the area designating means 92 based on the instruction by.

【0008】[0008]

【作用】上記のように構成した、この発明の画像処理装
置においては、領域分割手段40により入力画像が、そ
の色や絵柄に応じて領域分割されるとともに、オペレー
タが表示手段80に表示された分割結果を見て領域指定
手段92により一部の領域を指定することによって、入
力画像中の表現が付加される場所が指定されるので、表
現を付加する場所として入力画像の色や絵柄に応じた適
切な場所を確実かつ容易に指定することができ、適切な
場所に適切な表現を確実かつ容易に付加することができ
る。
In the image processing apparatus of the present invention configured as described above, the area dividing means 40 divides the input image into areas according to the color and the pattern, and the operator is displayed on the display means 80. The area to which the expression is added in the input image is specified by designating a part of the area by the area designating unit 92 by looking at the division result. Therefore, the location to which the expression is added depends on the color or pattern of the input image. It is possible to reliably and easily specify an appropriate place, and to appropriately and easily add an appropriate expression to an appropriate place.

【0009】[0009]

【実施例】図1は、この発明の画像処理装置の一例を示
す。この例の画像処理装置は、画像入力手段10、画像
方向検出手段39、領域分割手段40、領域統合手段5
0、表現付加手段60、表示処理手段70、表示手段8
0、およびシステム制御部90を備える。
1 shows an example of an image processing apparatus of the present invention. The image processing apparatus of this example includes an image input unit 10, an image direction detecting unit 39, a region dividing unit 40, and a region integrating unit 5.
0, expression adding means 60, display processing means 70, display means 8
0, and a system control unit 90.

【0010】画像入力手段10は、この例では、画像入
力部11および画像バッファ21,22,23を有す
る。画像入力部11は、システム内の、原稿上の画像を
読み取るイメージスキャナ部、もしくはコンピュータ処
理により画像を生成する部分、またはシステム外で生成
された画像をシステム内に取り込む部分で、この例で
は、画像入力部11からは、入力画像としてCIE(国
際照明委員会)が推奨するL色空間で表現さ
れたフルカラー画像が得られる。
In this example, the image input means 10 has an image input section 11 and image buffers 21, 22, 23. The image input unit 11 is an image scanner unit for reading an image on an original in the system, a unit for generating an image by computer processing, or a unit for capturing an image generated outside the system into the system. In this example, From the image input unit 11, a full-color image expressed in the L * a * b * color space recommended by CIE (International Commission on Illumination) is obtained as an input image.

【0011】ただし、その明度成分および2つの色度成
分の、それぞれ例えば8ビットの画像データは、それぞ
れ図面上ではl,a,bと表記し、明細書中では
*を省略してl,a,bと表記する。
However, for example, 8-bit image data of each of the lightness component and the two chromaticity components is expressed as l * , a * , b * in the drawings, and * is omitted in the specification. Notated as l, a, and b.

【0012】画像バッファ21,22,23は、それぞ
れ画像入力部11からの入力画像データl,a,bが書
き込まれるものである。
The image buffers 21, 22, and 23 are for writing input image data l, a, and b from the image input section 11, respectively.

【0013】画像方向検出手段39は、この例では、画
像方向検出部30および画像バッファ35を有する。画
像方向検出部30は、画像バッファ21から読み出され
た入力画像データlから、入力画像の各画素についての
画像方向を検出して、画像方向成分d1を抽出するもの
で、その具体例は後述する。画像バッファ35は、画像
方向検出部30からの画像方向成分d1が書き込まれる
ものである。
The image direction detecting means 39 has an image direction detecting section 30 and an image buffer 35 in this example. The image direction detection unit 30 detects the image direction of each pixel of the input image from the input image data 1 read from the image buffer 21 and extracts the image direction component d1. A specific example thereof will be described later. To do. The image buffer 35 is for writing the image direction component d1 from the image direction detection unit 30.

【0014】領域分割手段40は、この例では、領域分
割部41と分割領域バッファ42および画像バッファ4
3を有する。領域分割部41は、画像バッファ21,2
2,23から読み出された入力画像データl,a,b、
システム制御部90から画像バッファ21〜23に対す
る読み出しアドレスなどとして得られる、入力画像上の
各画素の座標値x,y、および画像バッファ35から読
み出された画像方向成分d1を用いて、後述するように
入力画像を領域分割する。
The area dividing means 40, in this example, is an area dividing section 41, a divided area buffer 42 and an image buffer 4.
3 The area dividing unit 41 uses the image buffers 21 and 2.
Input image data 1, a, b,
The coordinate values x and y of each pixel on the input image obtained from the system control unit 90 as read addresses for the image buffers 21 to 23, and the image direction component d1 read from the image buffer 35 will be described later. The input image is divided into regions as follows.

【0015】領域分割部41に対しては、システム制御
部90の分割条件指定手段91により、分割領域数や各
分割領域の画素数などの分割条件を指定することができ
る。
With respect to the area dividing unit 41, the dividing condition specifying means 91 of the system control unit 90 can specify a dividing condition such as the number of divided areas or the number of pixels of each divided area.

【0016】分割領域バッファ42は、領域分割部41
での領域分割の過程および結果として形成された分割領
域テーブルが書き込まれるものであり、画像バッファ4
3は、領域分割部41での領域分割の過程および結果と
して得られた、入力画像の各画素と各分割領域との対応
関係が書き込まれるものである。
The divided area buffer 42 includes an area dividing unit 41.
The area division process in step 1 and the divided area table formed as a result are written in the image buffer 4.
Reference numeral 3 is for writing the correspondence between each pixel of the input image and each divided area, which is obtained as a result of the area dividing process performed by the area dividing unit 41.

【0017】領域統合手段50は、この例では、領域統
合部51および領域統合マップ52を有する。領域統合
部51は、領域分割手段40による分割結果の各分割領
域のうちのシステム制御部90の領域指定手段92によ
り指定された領域を統合するものである。領域統合マッ
プ52は、領域統合部51での領域統合の過程および結
果が書き込まれるものである。
The area integration means 50 has an area integration section 51 and an area integration map 52 in this example. The area integration unit 51 integrates the areas designated by the area designation unit 92 of the system control unit 90 among the respective divided regions of the division result by the region division unit 40. In the area integration map 52, the process and result of area integration in the area integration unit 51 are written.

【0018】表現付加手段60は、この例では、画像バ
ッファ21,22,23から読み出された入力画像デー
タl,a,b、画像バッファ43から読み出された、入
力画像の各画素と各分割領域との対応関係、および分割
領域バッファ42から読み出された分割領域テーブルか
ら、入力画像をそのまま出力するための画像データI
1、入力画像の分割結果を出力するための画像データI
2、および入力画像の分割結果の各分割領域のうちのシ
ステム制御部90の領域指定手段92により指定された
領域の画像部分に対してシステム制御部90の表現指示
手段93により指示された表現を付加した画像を出力す
るための画像データI3を生成し、出力するものであ
る。
In this example, the expression adding means 60 includes the input image data l, a and b read from the image buffers 21, 22 and 23, and each pixel and each pixel of the input image read from the image buffer 43. The image data I for outputting the input image as it is from the correspondence with the divided areas and the divided area table read from the divided area buffer 42.
1. Image data I for outputting the division result of the input image
2 and the expression designated by the expression designating means 93 of the system control unit 90 with respect to the image portion of the area designated by the area designating unit 92 of the system control unit 90 among the divided regions of the input image division result. The image data I3 for outputting the added image is generated and output.

【0019】表示処理手段70は、表現付加手段60か
らの画像データI1,I2およびI3を、RGB色空間
などで表現された表示用の画像データに変換し、かつそ
の変換後の画像データを、それぞれアナログ画像信号に
変換する。
The display processing means 70 converts the image data I1, I2 and I3 from the expression adding means 60 into display image data expressed in an RGB color space or the like, and the converted image data is Each is converted into an analog image signal.

【0020】表示手段80は、この例では、それぞれC
RTディスプレイや液晶ディスプレイなどの3個のディ
スプレイ81〜83を有し、ディスプレイ81は、入力
画像をそのまま表示し、ディスプレイ82は、入力画像
の分割結果を表示し、ディスプレイ83は、指定された
領域の画像部分に表現が付加された画像を表示するもの
である。
The display means 80 are, in this example, C
It has three displays 81 to 83 such as an RT display and a liquid crystal display, the display 81 displays the input image as it is, the display 82 displays the division result of the input image, and the display 83 displays the designated area. The image in which the expression is added to the image part of is displayed.

【0021】システム制御部90は、操作部を含むもの
で、図示していないが、CPU、そのCPUが実行すべ
きシステム制御プログラムなどが書き込まれたROM、
およびそのCPUの作業エリアとして用いられるRAM
などを有し、システム各部を制御する。システム制御部
90は、上記の分割条件指定手段91、領域指定手段9
2および表現指示手段93を含むものとして構成され
る。
The system control unit 90 includes an operation unit, and although not shown, a CPU, a ROM in which a system control program to be executed by the CPU is written,
And RAM used as a work area for the CPU
Etc. and controls each part of the system. The system control unit 90 uses the division condition designating means 91 and the area designating means 9 described above.
2 and expression instruction means 93.

【0022】図2は、画像方向検出部30の一例で、電
子技術総合研究所研究報告第835号第80頁に記載さ
れた方法を利用した場合である。
FIG. 2 shows an example of the image orientation detecting section 30 when the method described in Research Report No. 835, page 80 of the Institute of Electronics, Technology is used.

【0023】すなわち、図1に示した画像バッファ21
から読み出された入力画像データlがブロック化回路3
1に供給されて、ブロック化回路31から、入力画像の
図3(A)に示すような注目画素Peを中心とする3×
3画素である画素Pa〜Piからなる画素群Gpについ
ての、図3(B)に示すような9個の画像データla〜
liからなる画像データ群Gdが取り出され、これが畳
み込み演算回路32および33に供給されて、それぞれ
画素群Gpの画素Pa〜Piに対する図示するような値
の係数からなる係数群KhおよびKvにより畳み込み演
算されて、畳み込み演算回路32および33から、それ
ぞれ、 CC=la・(−1)+lb・(−1)+……+li・1 …(1) LL=la・(−1)+lb・0+……+li・1 …(2) で表される出力が得られる。
That is, the image buffer 21 shown in FIG.
The input image data 1 read out from the block circuit 3
3 from the blocking circuit 31 centered on the pixel of interest Pe as shown in FIG. 3A of the input image.
As shown in FIG. 3B, nine pieces of image data la to 3 for a pixel group Gp including pixels Pa to Pi that are three pixels
An image data group Gd consisting of li is taken out and supplied to the convolution operation circuits 32 and 33, and convolution operation is carried out by the coefficient groups Kh and Kv each having a coefficient of a value as shown for the pixels Pa to Pi of the pixel group Gp. Then, from the convolution operation circuits 32 and 33, respectively, CC = la · (−1) + lb · (−1) + …… + li · 1 (1) LL = la · (−1) + lb · 0 + An output represented by + li · 1 (2) is obtained.

【0024】入力画像の画像方向とは、入力画像の濃度
を等高線表示したときの等高線の方向で、この例は、入
力画像データlの値を入力画像の濃度とするものであ
る。そして、係数群Khは水平方向の画像方向の検出用
であり、係数群Kvは垂直方向の画像方向の検出用であ
る。
The image direction of the input image is the direction of the contour line when the density of the input image is displayed in contour lines, and in this example, the value of the input image data 1 is the density of the input image. The coefficient group Kh is for detecting the horizontal image direction, and the coefficient group Kv is for detecting the vertical image direction.

【0025】さらに、画像方向検出部30においては、
畳み込み演算回路32および33の出力CCおよびLL
が演算回路34に供給されて、図4に示すように、 α=arctan(LL/CC) …(3) とするとき、それぞれ、 da=16(α+π/2)/π =16{arctan(LL/CC)+π/2}/π …(4) db=log(CC・CC+LL・LL+1) …(5) で表される4ビット成分が算出される。
Further, in the image direction detecting section 30,
Outputs CC and LL of convolution operation circuits 32 and 33
Is supplied to the arithmetic circuit 34, and as shown in FIG. 4, when α = arctan (LL / CC) (3), da = 16 (α + π / 2) / π = 16 {arctan (LL / CC) + π / 2} / π (4) db = log (CC · CC + LL·LL + 1) (5) The 4-bit component represented by the following is calculated.

【0026】成分daは、入力画像データlから抽出さ
れた画像方向成分の向き、すなわち入力画像の濃度を等
高線表示したときの等高線の方向を、da=0からda
=15までの16段階で示すもので、等高線の方向は向
きを考える必要がないので、その等高線の方向、すなわ
ち入力画像の画像方向は、図5に示すように0からπま
での範囲として示されれば十分なものである。
The component da is the direction of the image direction component extracted from the input image data l, that is, the direction of the contour line when the density of the input image is displayed in contour lines, from da = 0 to da.
Since there is no need to consider the direction of the contour line, the direction of the contour line, that is, the image direction of the input image is shown as a range from 0 to π as shown in FIG. It is enough if done.

【0027】成分dbは、入力画像データlから抽出さ
れた画像方向成分の大きさ、すなわち入力画像の濃度を
等高線表示したときの注目画素における等高線とこれと
隣り合う等高線との間の濃度差を、db=0からdb=
15までの16段階で示すもので、出力CCの2乗と出
力LLの2乗の和に対して1を加えたものの対数値とす
ることによって、出力CCおよびLLが小さいときでも
値を持つようにしたものである。
The component db is the size of the image-direction component extracted from the input image data 1, that is, the density difference between the contour line of the pixel of interest when the density of the input image is displayed by contour lines and the contour line adjacent thereto. , Db = 0 to db =
It is shown in 16 steps up to 15, and by taking the logarithmic value of the sum of the square of the output CC and the square of the output LL, one is added so that the value will be maintained even when the output CC and LL are small. It is the one.

【0028】具体的に、図3(B)に示した画像データ
群Gdが図6(A)または(B)に示すような値である
ときには、α=−π/2またはα=π/2となり、da
=0となって、注目画素における画像方向が垂直方向で
あることが検出される。画像データ群Gdが図6(C)
または(D)に示すような値であるときには、α=−π
/4となり、da=4となって、注目画素における画像
方向が左上から右下にかけてのπ/4の方向であること
が検出される。
Specifically, when the image data group Gd shown in FIG. 3B has a value as shown in FIG. 6A or 6B, α = −π / 2 or α = π / 2. And da
= 0, and it is detected that the image direction in the pixel of interest is the vertical direction. The image data group Gd is shown in FIG.
Alternatively, when the value is as shown in (D), α = −π
/ 4 and da = 4, and it is detected that the image direction in the pixel of interest is the direction of π / 4 from the upper left to the lower right.

【0029】画像データ群Gdが図6(E)または
(F)に示すような値であるときには、α=0となり、
da=8となって、注目画素における画像方向が水平方
向であることが検出される。画像データ群Gdが図6
(G)または(H)に示すような値であるときには、α
=π/4となり、da=12となって、注目画素におけ
る画像方向が右上から左下にかけての3π/4の方向で
あることが検出される。
When the image data group Gd has a value as shown in FIG. 6 (E) or (F), α = 0, and
Since da = 8, it is detected that the image direction in the target pixel is the horizontal direction. The image data group Gd is shown in FIG.
When the value is as shown in (G) or (H), α
= Π / 4 and da = 12, and it is detected that the image direction in the target pixel is 3π / 4 from the upper right to the lower left.

【0030】図2に示した演算回路34からは、すなわ
ち画像方向検出部30からは、成分daおよびdbが全
体として8ビットの画像方向成分d1として出力され
る。
From the arithmetic circuit 34 shown in FIG. 2, that is, from the image direction detecting section 30, the components da and db are output as an 8-bit image direction component d1 as a whole.

【0031】図1の例の画像処理装置により入力画像を
領域分割し、その分割結果の各分割領域を領域統合し、
さらにその統合後の各分割領域のうちの指定した領域の
画像部分に対して表現を付加する場合、画像入力部11
からの入力画像データl,a,bが画像バッファ21,
22,23に書き込まれた状態で、まずオペレータがシ
ステム制御部90において入力画像をディスプレイ81
上に表示させる操作をすることにより、またはシステム
制御部90におけるシステム制御プログラムにより自動
的に、画像バッファ21,22,23から入力画像デー
タl,a,bが読み出され、その読み出された入力画像
データl,a,bが表現付加手段60から画像データI
1として導出され、その画像データI1が表示処理手段
70により表示用アナログ画像信号に変換され、その画
像信号がディスプレイ81に供給されて、ディスプレイ
81上に入力画像がそのまま表示される。
The input image is divided into areas by the image processing apparatus of the example shown in FIG. 1, and the divided areas resulting from the division are integrated into areas.
Further, when adding an expression to the image portion of the designated area of each of the divided areas after the integration, the image input unit 11
Input image data l, a, b from the image buffer 21,
First, the operator displays the input image in the system control unit 90 in the state where the input image is displayed on the display unit 22 and 23.
The input image data l, a, b are read from the image buffers 21, 22, and 23 by the operation of displaying them on the screen or automatically by the system control program in the system control unit 90, and the read out. The input image data 1, a, and b are image data I from the expression adding means 60.
1, the image data I1 is converted into a display analog image signal by the display processing means 70, the image signal is supplied to the display 81, and the input image is displayed on the display 81 as it is.

【0032】次いで、その表示を見てオペレータがシス
テム制御部90において方向検出および領域分割の指示
をすることにより、またはシステム制御部90における
システム制御プログラムにより自動的に、上述したよう
に画像方向検出部30において画像バッファ21からの
入力画像データlから入力画像全体にわたって入力画像
の各画素についての画像方向が検出されて画像方向成分
d1が抽出され、かつその画像方向成分d1が画像バッ
ファ35に書き込まれるとともに、領域分割部41にお
いて入力画像全体が、その色および画像方向に応じて領
域の形状が変えられるように、例えばK平均アルゴリズ
ムにより領域分割される。
Next, by looking at the display, the operator instructs the system control unit 90 to perform direction detection and area division, or automatically by the system control program in the system control unit 90, as described above. In the section 30, the image direction for each pixel of the input image is detected from the input image data 1 from the image buffer 21 over the entire input image, the image direction component d1 is extracted, and the image direction component d1 is written in the image buffer 35. At the same time, the area dividing unit 41 divides the entire input image into areas by, for example, a K-means algorithm so that the shape of the area can be changed according to the color and the image direction.

【0033】K平均アルゴリズムは、入力画像に対して
K個の初期領域中心を設定する初期領域分割を含めて、
分割された領域が一定の状態に収束するまで数次にわた
って領域分割を繰り返し、初期領域分割後の各次の領域
分割後において各分割領域の領域中心を計算することに
より、分割された領域が一定の状態に収束したか否かを
判定するものである。その領域中心としては、一般には
各分割領域の重心および代表色値(代表画素値)が設定
または計算されるが、この発明の図1の例においては、
これに加えて各分割領域の代表画像方向成分を設定また
は計算する。
The K-means algorithm includes initial region segmentation which sets K initial region centers for the input image,
The divided areas are kept constant by repeating the area division for several orders until the divided areas converge to a certain state, and calculating the area center of each divided area after each area division after the initial area division. It is determined whether or not the state has converged. As the area center, generally, the center of gravity of each divided area and the representative color value (representative pixel value) are set or calculated, but in the example of FIG. 1 of the present invention,
In addition to this, the representative image direction component of each divided area is set or calculated.

【0034】以下においては、初期領域分割を含む各次
の領域分割の繰り返し順位をi(初期領域分割ではゼロ
の意味でi=o、その後の各次の領域分割ではi=1,
2…)とし、各次の領域分割で分割された領域の番号を
j(j=1,2,…K)として、初期領域分割を含む各
次の領域分割による各分割領域の領域中心をCij、重
心をXij,Yij、代表色値をLij,Aij,Bi
j、代表画像方向成分をDijで、それぞれ示す。ただ
し、重心Xij,Yij、代表色値Lij,Aij,B
ij、および代表画像方向成分Dijの詳細は、後述す
る。
In the following, the repetition order of each area division including the initial area division is i (i = o in the meaning of zero in the initial area division, and i = 1, 1 in the subsequent area divisions).
2)) and the number of the area divided by each area division is j (j = 1, 2, ... K), and the area center of each divided area by each area division including the initial area division is Cij. , The center of gravity is Xij, Yij, and the representative color values are Lij, Aij, Bi
j and the representative image direction component are indicated by Dij, respectively. However, the center of gravity Xij, Yij, the representative color values Lij, Aij, B
Details of ij and the representative image direction component Dij will be described later.

【0035】以下、このような画像方向を考慮したK平
均アルゴリズムによる、領域分割部41での領域分割の
具体的手順を、図7を用いて示す。ただし、図7は領域
分割部41が実行する領域分割の全体的な手順を示し、
以下の例は領域分割数Kを100とした場合である。
The specific procedure of the area division in the area division unit 41 by the K-means algorithm considering such an image direction will be described below with reference to FIG. However, FIG. 7 shows the overall procedure of the area division executed by the area division unit 41,
The following example is a case where the area division number K is 100.

【0036】まず、ステップS1において、入力画像に
対して100個の初期領域中心を設定する。すなわち、
画像バッファ21,22,23から読み出された入力画
像データl,a,b、画像バッファ35から読み出され
た画像方向成分d1、およびシステム制御部90から得
られた座標値x,yから、例えば図8に示すように入力
画像1を互いに等しい画素数の縦横10個ずつの合計1
00個の領域に分割し、その各分割領域の領域中心Co
jとして、すなわち各分割領域の重心Xoj,Yoj、
代表色値Loj,Aoj,Boj、および代表画像方向
成分Dojとして、各分割領域の中心画素の座標xo
j,yoj、中心画素についての入力画像データlo
j,aoj,boj、および中心画素についての画像方
向成分d1ojを求める。
First, in step S1, 100 initial area centers are set for the input image. That is,
From the input image data l, a, b read from the image buffers 21, 22, 23, the image direction component d1 read from the image buffer 35, and the coordinate values x, y obtained from the system control unit 90, For example, as shown in FIG. 8, the input image 1 has a total of 1 of 10 pixels each having the same number of pixels.
The area center Co of each of the divided areas is divided into 00 areas.
j, that is, the center of gravity Xoj, Yoj of each divided region,
As the representative color values Loj, Aoj, Boj and the representative image direction component Doj, the coordinates xo of the central pixel of each divided area
input image data lo for j, yoj, and the central pixel
The image direction component d1oj for j, aoj, boj and the center pixel is obtained.

【0037】ただし、代表画像方向成分Dojについて
は、これを5ビットデータとして、画像方向成分d1中
の4ビット成分dbの中心画素についてのそれdboj
が1以上であれば、その中心画素は画像方向を有するも
のとして、5ビット中の最上位ビットを0にするととも
に、下位4ビットとして画像方向成分d1中の4ビット
成分daの中心画素についてのそれdaojを取り込
み、成分dbの中心画素についてのそれdbojが0で
あれば、その中心画素は画像方向を持たないものとし
て、5ビット中の最上位ビットを1にするとともに、下
位4ビットをすべて0にして、全体として16の値とす
る。
However, with respect to the representative image direction component Doj, this is taken as 5-bit data, and it is dboj for the central pixel of the 4-bit component db in the image direction component d1.
Is greater than or equal to 1, the central pixel is assumed to have the image direction, the most significant bit of the 5 bits is set to 0, and the lower 4 bits of the central pixel of the 4-bit component da in the image direction component d1 If the daj is taken in and the dbj for the central pixel of the component db is 0, it is assumed that the central pixel has no image direction, the most significant bit among the 5 bits is set to 1, and the lower 4 bits are all set. The value is set to 0 and 16 is set as a whole.

【0038】次に、ステップS2において、上記のよう
に求めた各分割領域の領域中心Coj、すなわち各分割
領域の重心Xoj,Yoj(xoj,yoj)、代表色
値Loj,Aoj,Boj(loj,aoj,bo
j)、および代表画像方向成分Dojを、初期分割領域
テーブルとして分割領域バッファ42に書き込む。
Next, in step S2, the area center Coj of each divided area obtained as described above, that is, the center of gravity Xoj, Yoj (xoj, yoj) of each divided area, and the representative color values Loj, Aoj, Boj (loj, aoj, bo
j) and the representative image direction component Doj are written in the divided area buffer 42 as an initial divided area table.

【0039】図9は、この初期分割領域テーブルを含
む、各次の領域分割後に作成される分割領域テーブルを
示し、初期分割領域テーブルではi=oと表現されるも
のである。
FIG. 9 shows a divided area table including the initial divided area table, which is created after each subsequent area division, and is expressed as i = o in the initial divided area table.

【0040】次に、ステップS3において、分割領域バ
ッファ42から初期分割領域テーブル、すなわち初期領
域中心Cojを読み出し、これと、画像バッファ21,
22,23から読み出された入力画像データl,a,
b、画像バッファ35から読み出された画像方向成分d
1、およびシステム制御部90から得られた座標値x,
yとから、入力画像のすべての画素を順次、注目画素P
nとして、その注目画素Pnとすべての初期領域中心C
ojとの距離Hojnを、以下のように計算する。n
は、入力画像の画素番号である。
Next, in step S3, the initial divided area table, that is, the initial area center Coj, is read from the divided area buffer 42, and the image buffer 21,
Input image data l, a, read from 22, 23,
b, the image direction component d read from the image buffer 35
1, and the coordinate value x obtained from the system control unit 90,
From y, all pixels of the input image are sequentially focused on the target pixel P.
n is the pixel of interest Pn and all initial region centers C
The distance Hojn from oj is calculated as follows. n
Is the pixel number of the input image.

【0041】ただし、この距離計算と、これによる以下
のような入力画像の各画素の領域判定は、後述するよう
に、分割された領域が一定の状態に収束するまで、各次
の領域分割後に繰り返し行うものである。すなわち、各
次の領域分割後には、入力画像のすべての画素を順次、
注目画素Pnとして、その注目画素Pnと、その順位の
領域分割による新たなすべての領域中心Cijとの距離
Hijnを計算する。
However, this distance calculation and the following area determination of each pixel of the input image by this calculation are performed after each next area division until the divided areas converge to a constant state, as described later. It is something that is repeated. That is, after each subsequent region division, all pixels of the input image are sequentially
As the attention pixel Pn, the distance Hijn between the attention pixel Pn and all new area centers Cij by the area division of the rank is calculated.

【0042】そこで以下では、初期領域分割を含む各次
の領域分割後に共通の手順としての、距離Hijnの計
算、およびこれによる入力画像の各画素の領域判定につ
き示す。ただし、初期領域分割後の各次の領域分割によ
る各分割領域の重心Xij,Yijは、各分割領域内の
全画素の座標値x,yの平均値とされ、代表色値Li
j,Aij,Bijは、各分割領域内の全画素について
の入力画像データl,a,bの平均値とされ、代表画像
方向成分Dijは、後述するように各分割領域が顕著な
画像方向を有するか否かにより0から15までの値また
は16の値とされるものである。
Therefore, hereinafter, the calculation of the distance Hijn and the determination of the area of each pixel of the input image by this will be described as a common procedure after each subsequent area division including the initial area division. However, the center of gravity Xij, Yij of each divided area by each subsequent area division after the initial area division is the average value of the coordinate values x, y of all pixels in each divided area, and the representative color value Li
j, Aij, and Bij are average values of the input image data l, a, and b for all pixels in each divided area, and the representative image direction component Dij indicates an image direction in which each divided area is remarkable, as described later. The value is set to a value of 0 to 15 or a value of 16 depending on whether or not it has.

【0043】距離Hijnを計算するために、まず、 Δxijn=xn−Xij …(11) Δyijn=yn−Yij …(12) Δlijn=ln−Lij …(13) Δaijn=an−Aij …(14) Δbijn=bn−Bij …(15) で表されるように、各分割領域の重心Xij,Yijお
よび代表色値Lij,Aij,Bijと、注目画素Pn
の座標xn,ynおよび注目画素Pnについての入力画
像データln,an,bnとの差を、個々に求める。
In order to calculate the distance Hijn, first, Δxijn = xn-Xij (11) Δyijn = yn-Yij (12) Δlijn = ln-Lij (13) Δaijn = an-Aij (14) Δbijn = Bn-Bij (15) As shown in (15), the centroids Xij, Yij and the representative color values Lij, Aij, Bij of each divided area, and the target pixel Pn
The differences between the coordinates xn, yn of the input image data and the input image data ln, an, bn for the target pixel Pn are individually calculated.

【0044】画像方向成分については、図5に示したよ
うに画像方向が0からπまでの範囲の角度として16段
階で表されることから、以下の3つの場合に分けて、各
分割領域の代表画像方向成分Dijと画像方向成分d1
中の4ビット成分daの注目画素Pnについてのそれd
anとの差Δdijnを求める。
As for the image direction component, as shown in FIG. 5, since the image direction is expressed in 16 steps as an angle in the range from 0 to π, the image direction component is divided into the following three cases, and Representative image direction component Dij and image direction component d1
That of the target pixel Pn of the 4-bit component da in
The difference Δan from an is obtained.

【0045】第1に、代表画像方向成分Dijが16
で、かつ画像方向成分d1中の4ビット成分dbの注目
画素Pnについてのそれdbnが0であるときには、領
域中心Cijも注目画素Pnも画像方向を持たないの
で、差Δdijnはないものとして、 Δdijn=0 …(16) とする。
First, the representative image direction component Dij is 16
And when the dbn of the 4-bit component db of the image direction component d1 for the pixel of interest Pn is 0, neither the region center Cij nor the pixel of interest Pn has an image direction, so there is no difference Δdijn, and Δdijn = 0 ... (16)

【0046】第2に、代表画像方向成分Dijが15以
下で、かつ成分dbnが1以上であるときには、 Δdijn=|dan−Dij| …(17) とする。
Secondly, when the representative image direction component Dij is 15 or less and the component dbn is 1 or more, Δdijn = | dan-Dij | ... (17)

【0047】ただし、差Δdijnは、図10(A)に
示すように領域中心Cijにおける代表画像方向成分D
ijが示す画像方向と注目画素Pnにおける成分dan
が示す画像方向との角度差βに相当し、その角度差βは
図10(B)に示すようにπ/2より小さく、差Δdi
jnは7以下となるべきであるので、Δdijn=|d
an−Dij|≧8となるときには、 Δdijn=15−|dan−Dij| …(18) とする。
However, the difference Δdijn is the representative image direction component D at the area center Cij as shown in FIG.
image direction indicated by ij and the component dan in the target pixel Pn
Corresponds to the angle difference β from the image direction, and the angle difference β is smaller than π / 2 as shown in FIG.
Since jn should be 7 or less, Δdijn = | d
When an-Dij | ≧ 8, Δdijn = 15− | dan-Dij | (18).

【0048】第3に、代表画像方向成分Dijが16
で、かつ成分dbnが1以上であるとき、または代表画
像方向成分Dijが15以下で、かつ成分dbnが0で
あるときには、すなわち、領域中心Cijと注目画素P
nのいずれか一方のみが画像方向を有し、他方は画像方
向を持たないときには、領域中心Cijと注目画素Pn
の画像方向が同じときよりは差Δdijnは大きく、す
なわち差Δdijnは0ではなく、しかも領域中心Ci
jと注目画素Pnの画像方向がπ/2ずれるときよりは
差Δdijnは小さい、すなわち差Δdijnは8より
は小さいと考えて、0と7の中間をとって、 Δdijn=3.5 …(19) とする。
Thirdly, the representative image direction component Dij is 16
, And the component dbn is 1 or more, or the representative image direction component Dij is 15 or less and the component dbn is 0, that is, the region center Cij and the target pixel P
When only one of n has an image direction and the other has no image direction, the area center Cij and the target pixel Pn
Difference .DELTA.dijn is larger than that when the image directions are the same, that is, the difference .DELTA.dijn is not 0, and the area center Ci
It is considered that the difference Δdijn is smaller than when the image direction of j and the pixel of interest Pn is deviated by π / 2, that is, the difference Δdijn is smaller than 8, and the difference Δdijn is set between 0 and 7, and Δdijn = 3.5 (19) ).

【0049】以上の差Δxijn,Δyijn,Δli
jn,Δaijn,Δbijn,Δdijnの算出に加
えて、領域の大きさを制御する関数F(Δxijn,Δ
yijn,Dij)を以下のように定義する。
The above differences Δxijn, Δyijn, Δli
In addition to calculating jn, Δaijn, Δbijn, and Δdijn, a function F (Δxijn, Δ) that controls the size of the area
yijn, Dij) is defined as follows.

【0050】すなわち、図11に示すように、 γ=arctan(Δyijn/Δxijn) …(21) とし、 dcn=16(γ+π/2)/π =16{arctan(Δyijn/Δxijn)+π/2}/π …(22) とするとき、|Dij−dcn|≦7のときには、 F(Δxijn,Δyijn,Dij) =1+ke(|Dij−dcn|/3.5−1) …(23) とし、|Dij−dcn|≧8のときには、 F(Δxijn,Δyijn,Dij) =1+ke{(15−|Dij−dcn|)/3.5−1} …(24) とする。That is, as shown in FIG. 11, γ = arctan (Δyijn / Δxijn) (21), and dcn = 16 (γ + π / 2) / π = 16 {arctan (Δyijn / Δxijn) + π / 2} / π ... (22), when | Dij-dcn | ≦ 7, F (Δxijn, Δyijn, Dij) = 1 + ke (| Dij-dcn | /3.5-1) (23) and | Dij When -dcn | ≧ 8, F (Δxijn, Δyijn, Dij) = 1 + ke {(15- | Dij-dcn |) /3.5-1} (24)

【0051】ただし、dcnは、図11から明らかなよ
うに、領域中心Cij(重心Xij,Yij)に対する
注目画素Pnの方向を、領域中心Cij(重心Xij,
Yij)を中心とするxy座標のy軸に対する角(γ+
π/2)として、dcn=0からdcn=15までの1
6段階で示すもので、方向のみで向きを考えないことに
よって、角(γ+π/2)は、0からπまでの範囲とす
るものである。keは、後述するような係数である。
However, as is apparent from FIG. 11, the dcn is the direction of the pixel Pn of interest with respect to the area center Cij (center of gravity Xij, Yij), and the area center Cij (center of gravity Xij, Yij).
The angle (γ +) of the xy coordinates centering on Yij) with respect to the y axis
π / 2), 1 from dcn = 0 to dcn = 15
The angle (γ + π / 2) is set in the range of 0 to π by not showing the direction only by the direction. ke is a coefficient as described later.

【0052】式(23)の|Dij−dcn|、および
式(24)の(15−|Dij−dcn|)は、それぞ
れ0以上、7以下となるので、関数F(Δxijn,Δ
yijn,Dij)は、1を中心に±keの広がりを有
し、ke=0では常に1となり、ke=1では0になり
得る。そこで、係数keは、0<ke<1とする。
Since | Dij-dcn | of the equation (23) and (15- | Dij-dcn |) of the equation (24) are respectively 0 or more and 7 or less, the function F (Δxijn, Δ
yijn, Dij) has a spread of ± ke around 1 and can always be 1 when ke = 0 and 0 when ke = 1. Therefore, the coefficient ke is set to 0 <ke <1.

【0053】このように係数keを定め、領域の大きさ
を制御する関数F(Δxijn,Δyijn,Dij)
を定義して、図7のステップS3においては、入力画像
のすべての画素を順次、注目画素Pnとして、その注目
画素Pnとすべての領域中心Cijとの距離Hijn
を、一般的にzの2乗を「(z)**2」で示すとする
と、 Hijn =kx・F(Δxijn,Δyijn,Dij) ×{(Δxijn)**2+(Δyijn)**2} +kl・(Δlijn)**2 +ka・(Δaijn)**2 +kb・(Δbijn)**2 +kd・(Δdijn)**2 …(25) で定義して計算する。ただし、kx,kl,ka,k
b,kdは、それぞれ任意の係数である。
The function F (Δxijn, Δyijn, Dij) for controlling the size of the area by thus defining the coefficient ke
In step S3 of FIG. 7, all pixels of the input image are sequentially set as the target pixel Pn, and the distance Hijn between the target pixel Pn and all the area centers Cij is defined.
Is generally expressed as “(z) ** 2”, the square of z is Hijn = kx · F (Δxijn, Δyijn, Dij) × {(Δxijn) ** 2+ (Δyijn) ** 2} + Kl · (Δlijn) ** 2 + ka · (Δaijn) ** 2 + kb · (Δbijn) ** 2 + kd · (Δdijn) ** 2 (25). However, kx, kl, ka, k
b and kd are arbitrary coefficients.

【0054】次に、ステップS4に進んで、入力画像の
注目画素Pnからみて直前の領域分割による各分割領域
の領域中心Cijのうち上記の距離Hijnが最も小さ
い領域中心を有する分割領域に、その注目画素Pnを含
めるように、入力画像を新たに領域分割する。
Next, in step S4, the divided area having the smallest distance Hijn among the area centers Cij of the respective divided areas immediately before the pixel of interest Pn of the input image is divided into the divided areas. The input image is newly segmented so as to include the pixel of interest Pn.

【0055】すなわち、直前の領域分割の結果、例えば
1番目の分割領域に含められた、ある画素からみて、領
域中心Cijとの距離Hijnが最も小さいのは2番目
の分割領域であるとすれば、その画素は2番目の分割領
域に含めるように、また例えば2番目の分割領域に含め
られた、ある画素からみて、領域中心Cijとの距離H
ijnが最も小さいのは1番目の分割領域であるとすれ
ば、その画素は1番目の分割領域に含めるように、領域
分割を修正する。
That is, if the distance Hijn to the center Cij of the region included in the first divided region as a result of the immediately preceding region division is the smallest, for example, in the second divided region. , The pixel is included in the second divided area, or is included in the second divided area, for example, from a certain pixel, the distance H from the area center Cij
If it is assumed that the smallest ijn is in the first divided area, the area division is corrected so that the pixel is included in the first divided area.

【0056】ここで、入力画像の注目画素Pnと直前の
領域分割による各分割領域の領域中心Cijとの相対位
置と、その領域中心Cijの代表画像方向成分Dijと
の関係を、図12に示す。
FIG. 12 shows the relationship between the relative position between the pixel of interest Pn of the input image and the area center Cij of each divided area immediately before, and the representative image direction component Dij of the area center Cij. .

【0057】同図から明らかなように、式(23)また
は(24)で表される関数F(Δxijn,Δyij
n,Dij)は、領域中心Cij(重心Xij,Yi
j)と注目画素Pnを結ぶ直線の方向、すなわち式(2
2)で表される成分dcnが示す方向が、注目画素Pn
が点Pn(0)にあって成分dcnがdcn(0)で表
されるときのように代表画像方向成分Dijが示す画像
方向と一致するとき、最小となり、上記の直線の方向、
すなわち、成分dcnが示す方向が、注目画素Pnが点
Pn(π/2)にあって成分dcnがdcn(π/2)
で表されるときのように代表画像方向成分Dijが示す
画像方向に対してπ/2ずれるとき、最大となる。
As is apparent from the figure, the function F (Δxijn, Δyij) represented by the equation (23) or (24).
n, Dij) is the area center Cij (center of gravity Xij, Yi)
j) and the direction of the straight line connecting the pixel of interest Pn, that is, the expression (2
The direction indicated by the component dcn represented by 2) is the target pixel Pn.
Is at the point Pn (0) and the component dcn is represented by dcn (0), and when the image direction coincides with the image direction indicated by the representative image direction component Dij, it becomes the minimum, and the direction of the above straight line,
That is, the direction indicated by the component dcn is such that the pixel of interest Pn is at the point Pn (π / 2) and the component dcn is dcn (π / 2).
When it is shifted by π / 2 with respect to the image direction indicated by the representative image direction component Dij, as in the case of

【0058】すなわち、ステップS4においては、直前
の領域分割による領域中心Cijに対して、その代表画
像方向成分Dijが示す方向にある画素は、その領域中
心Cijから離れているものも、その領域中心Cijの
分割領域に含まれやすくなるが、その代表画像方向成分
Dijが示す方向に対してπ/2ずれた方向にある画素
は、その領域中心Cijに近いものも、その領域中心C
ijの分割領域に含まれにくくなるように、入力画像が
領域分割される。
That is, in step S4, the pixels in the direction indicated by the representative image direction component Dij with respect to the region center Cij obtained by the immediately preceding region division are located in the region center Cij even if the pixels are distant from the region center Cij. Pixels that are more likely to be included in the divided area of Cij but are in a direction shifted by π / 2 with respect to the direction indicated by the representative image direction component Dij include those close to the area center Cij and the area center Cij.
The input image is divided into regions so that it is less likely to be included in the divided region of ij.

【0059】そのため、ステップS4においては、直前
の領域分割による各分割領域の形状が、代表画像方向成
分Dijが示す方向に沿う形状に変えられる。図13
は、このように領域分割が修正され、各分割領域の形状
が変えられた状態を示す。
Therefore, in step S4, the shape of each divided area by the immediately preceding area division is changed to a shape along the direction indicated by the representative image direction component Dij. FIG.
Shows the state in which the area division is corrected in this way and the shape of each divided area is changed.

【0060】次に、ステップS5において、入力画像の
注目画素Pnと新たな領域分割による各分割領域との対
応関係、すなわち新たな領域分割により入力画像の注目
画素Pnが属するとされた分割領域の番号を、画像バッ
ファ43に書き込む。
Next, in step S5, the correspondence between the pixel of interest Pn of the input image and each of the divided regions by the new region division, that is, the divided region to which the pixel of interest Pn of the input image belongs by the new region division belongs. The number is written in the image buffer 43.

【0061】次に、ステップS6に進んで、新たな領域
中心を計算する。すなわち、画像バッファ21,22,
23から読み出された入力画像データl,a,b、画像
バッファ35から読み出された画像方向成分d1、画像
バッファ43から読み出された分割領域番号、およびシ
ステム制御部90から得られた座標値x,yから、新た
に分割された領域ごとに、重心Xij,Yij、代表色
値Lij,Aij,Bij、および代表画像方向成分D
ijからなる領域中心Cijを計算し直す。
Next, in step S6, a new area center is calculated. That is, the image buffers 21, 22,
23, the input image data l, a, b read from 23, the image direction component d1 read from the image buffer 35, the divided area number read from the image buffer 43, and the coordinates obtained from the system control unit 90. From the values x and y, the centroids Xij and Yij, the representative color values Lij, Aij and Bij, and the representative image direction component D are newly divided for each area.
The area center Cij composed of ij is recalculated.

【0062】ここで、上述したように、重心Xij,Y
ijは、各分割領域内の全画素の座標値x,yの平均値
とし、代表色値Lij,Aij,Bijは、各分割領域
内の全画素についての入力画像データl,a,bの平均
値とする。代表画像方向成分Dijは、図14に示す算
出手順に従って求める。
Here, as described above, the center of gravity Xij, Y
ij is the average value of the coordinate values x and y of all the pixels in each divided area, and the representative color values Lij, Aij, and Bij are the averages of the input image data l, a, and b for all the pixels in each divided area. The value. The representative image direction component Dij is obtained according to the calculation procedure shown in FIG.

【0063】すなわち、入力画像の画素には複数の画像
方向を有するものもあり得るが、はっきり観測できるの
は最大でも2方向であり、しかもはっきり観測できる第
2の方向があるなら、それは第1の方向に対してほぼπ
/2ずれていると考えられることから、まず、ステップ
S11において、新たに分割された領域ごとに、dbn
≧1の条件を満たす画素の中で上記の成分danがそれ
ぞれ0,1,2…15の値となる画素の数N0,N1,
N2…N15を計算するとともに、dbn=0である画
素の数N16を求める。
That is, some pixels of the input image may have a plurality of image directions, but at most two directions can be clearly observed, and if there is a second direction that can be clearly observed, it is the first direction. About π with respect to
Since it is considered that there is a shift of / 2, first, in step S11, dbn is determined for each newly divided region.
Of the pixels satisfying the condition of ≧ 1, the number of pixels N0, N1, for which the component dan has a value of 0, 1, 2, ... 15, respectively.
N2 ... N15 are calculated, and the number N16 of pixels for which dbn = 0 is calculated.

【0064】次に、ステップS12において、最も画素
数の多い成分値Dmaxと、その最も多い画素数Nma
xを算出する。ただし、N16が一番大きいときには、
Dmax=16とする。さらにステップS13に進ん
で、Dmax=16であるか否かを判断し、Dmax=
16と判断したときには、その領域は画像方向を持たな
いとして、次にステップS14において、その領域の代
表画像方向成分Dijを16とする。
Next, in step S12, the component value Dmax having the largest number of pixels and the largest pixel number Nma.
Calculate x. However, when N16 is the largest,
Dmax = 16. Further, in step S13, it is determined whether Dmax = 16, and Dmax = 16.
If it is determined to be 16, the region does not have an image direction, and in step S14, the representative image direction component Dij of the region is set to 16.

【0065】ステップS13においてDmax≠16と
判断したときには、次にステップS15において、図1
5(A)または(B)に示すように最も画素数の多い成
分値Dmaxが示す方向に対してπ/2ずれた方向を示
す、すなわち成分値Dmaxに対して+8または−8ず
れた成分値Dmidと、その成分値Dmidとなる画素
数Nmidを算出し、さらにステップS16に進んで、
画素数Nmaxが画素数Nmidの2倍より多いか否か
を判断する。
If it is determined in step S13 that Dmax ≠ 16, then in step S15, as shown in FIG.
5 (A) or (B) shows a direction shifted by π / 2 with respect to the direction indicated by the component value Dmax having the largest number of pixels, that is, a component value shifted by +8 or -8 with respect to the component value Dmax. Dmid and the number of pixels Nmid that becomes the component value Dmid are calculated, and the process proceeds to step S16.
It is determined whether the number of pixels Nmax is more than twice the number of pixels Nmid.

【0066】ステップS16において画素数Nmaxが
画素数Nmidの2倍以下であると判断したときには、
その領域は顕著な画像方向を持たないとして、ステップ
S13においてDmax=16と判断したときと同様
に、次にステップS14において、その領域の代表画像
方向成分Dijを16とする。
If it is determined in step S16 that the number of pixels Nmax is less than or equal to twice the number of pixels Nmid,
Assuming that the area does not have a prominent image direction, in step S14, the representative image direction component Dij of the area is set to 16 as in the case where it is determined that Dmax = 16 in step S13.

【0067】ステップS16において画素数Nmaxが
画素数Nmidの2倍より多いと判断したときには、そ
の領域は顕著な画像方向を有するが、近接した方向に2
つの方向成分が重なり合っているなど、方向成分が広が
って存在していることもあり得るとして、さらにステッ
プS17に進んで、その領域につき以下のような加重平
均値Daveを算出して、その加重平均値Daveを、
その領域の代表画像方向成分Dijとする。
When it is determined in step S16 that the number of pixels Nmax is more than twice the number of pixels Nmid, the area has a remarkable image direction, but 2 in the close direction.
It is possible that the directional components are spread and exist such that the two directional components are overlapped with each other. Then, the process proceeds to step S17, and the weighted average value Dave is calculated for the region as follows and the weighted average Dave is calculated. The value Dave,
The representative image direction component Dij of the area is set.

【0068】すなわち、図16に示すように、最も画素
数の多い成分値Dmaxに対して±1,±2,±3,±
4ずれた成分値Dp1,Dm1…Dp4,Dm4と、そ
のそれぞれの成分値Dp1,Dm1…Dp4,Dm4と
なる画素数Np1,Nm1…Np4,Nm4を算出し、
加重平均値Daveとして、 Dave=(Nm4・Dm4+Nm3・Dm3+Nm2・Dm2+Nm1・ Dm1+Nmax・Dmax+Np1・Dp1+Np2・Dp2 +Np3・ Dp3+Np4・Dp4)/(Nm4+Nm3+Nm2+Nm1+Nmax +Np1+Np2+Np3+Np4) …(26) を計算する。
That is, as shown in FIG. 16, ± 1, ± 2, ± 3, ± with respect to the component value Dmax having the largest number of pixels.
4 shifted component values Dp1, Dm1 ... Dp4, Dm4 and the number of pixels Np1, Nm1 ... Np4, Nm4 which become the respective component values Dp1, Dm1 ... Dp4, Dm4 are calculated,
As a weighted average value Dave, Dave = (Nm4.Dm4 + Nm3.Dm3 + Nm2.Dm2 + Nm1.Dm1 + Nmax.Dmax + Np1.Dp1 + Np2.Dp2 + Np3.Np3 + Np3 + Np3 + Np4 + Np3 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4 + Np4;

【0069】ステップS14において代表画像方向成分
Dijを16とし、またはステップS17において式
(26)の加重平均値Daveを代表画像方向成分Di
jとしたときは、さらにステップS18に進んで、すべ
ての領域につき代表画像方向成分Dijを求めたか否か
を判断し、いまだ代表画像方向成分Dijを求めていな
い領域があると判断したときには、ステップS11以下
に戻って、次の領域につき上述したように代表画像方向
成分Dijを求める。
In step S14, the representative image direction component Dij is set to 16, or in step S17, the weighted average value Dave of the equation (26) is set to the representative image direction component Di.
If j, the process proceeds to step S18, and it is determined whether or not the representative image direction component Dij has been obtained for all the areas. If it is determined that there is an area for which the representative image direction component Dij has not yet been obtained, Returning to S11 and thereafter, the representative image direction component Dij is obtained for the next area as described above.

【0070】このように、図7のステップS6において
は、新たに分割された領域ごとに、重心Xij,Yi
j、代表色値Lij,Aij,Bij、および代表画像
方向成分Dijからなる領域中心Cijを計算し直す。
As described above, in step S6 of FIG. 7, the centers of gravity Xij and Yi are calculated for each newly divided area.
The area center Cij composed of j, the representative color values Lij, Aij, Bij, and the representative image direction component Dij is recalculated.

【0071】次に、ステップS7において、このように
求めた各分割領域の領域中心Cij、すなわち重心Xi
j,Yij、代表色値Lij,Aij,Bij、および
代表画像方向成分Dijを、図9に示したような分割領
域テーブルとして、直前の領域分割についての分割領域
テーブルを残しておく状態で、分割領域バッファ42に
書き込む。
Next, in step S7, the area center Cij of each divided area thus obtained, that is, the center of gravity Xi
j, Yij, the representative color values Lij, Aij, Bij, and the representative image direction component Dij are used as a divided area table as shown in FIG. 9 while the divided area table for the immediately previous area division is left. Write to the area buffer 42.

【0072】次に、ステップS8に進んで、分割領域バ
ッファ42から、この新たな分割領域テーブル、すなわ
ち新たな領域中心と、その前の分割領域テーブル、すな
わちその前の領域中心を読み出して、分割領域の番号j
が等しいもの同士の間で、それぞれ、新たな領域中心
の、その前の領域中心に対するずれ量を、以下のように
計算する。
Next, in step S8, this new divided area table, that is, the new area center and the previous divided area table, that is, the previous area center, are read from the divided area buffer 42 and divided. Area number j
The deviation amounts of the new area center with respect to the previous area center are calculated as follows between the areas having the same value.

【0073】ただし、ここでは、新たな領域中心をCi
j、その重心をXij,Yij、代表色値をLij,A
ij,Bij、代表画像方向成分をDijで、それぞれ
示すとともに、s=i−1とおいて、その前の領域中心
をCsj、その重心をXsj,Ysj、代表色値をLs
j,Asj,Bsj、代表画像方向成分をDsjで、そ
れぞれ示し、新たな領域中心Cijの、その前の領域中
心Csjに対するずれ量をHsijで示す。
However, here, the new region center is set to Ci.
j, its centroid is Xij, Yij, and representative color values are Lij, A
ij and Bij, the representative image direction component is indicated by Dij, and s = i−1, and the center of the preceding region is Csj, its center of gravity is Xsj, Ysj, and the representative color value is Ls.
j, Asj, Bsj, the representative image direction component are indicated by Dsj, and the shift amount of the new region center Cij from the previous region center Csj is indicated by Hsij.

【0074】ずれ量Hsijを計算するために、まず、 ΔXsij=Xij−Xsj …(31) ΔYsij=Yij−Ysj …(32) ΔLsij=Lij−Lsj …(33) ΔAsij=Aij−Asj …(34) ΔBsij=Bij−Bsj …(35) で表されるように、新たな領域中心Cijの重心Xi
j,Yijおよび代表色値Lij,Aij,Bijと、
その前の領域中心Csjの重心Xsj,Ysjおよび代
表色値Lsj,Asj,Bsjとの差を、個々に求め
る。
To calculate the shift amount Hsij, first, ΔXsij = Xij-Xsj (31) ΔYsij = Yij-Ysj (32) ΔLsij = Lij-Lsj (33) ΔAsij = Aij-Asj (34) ΔBsij = Bij−Bsj (35) As shown by (35), the center of gravity Xi of the new area center Cij
j, Yij and representative color values Lij, Aij, Bij,
Differences between the barycenters Xsj, Ysj and the representative color values Lsj, Asj, Bsj of the area center Csj before that are individually obtained.

【0075】代表画像方向成分については、上述したよ
うに領域中心Cij,Csjの代表画像方向成分Di
j,Dsjが0から16までの値をとり得ることから、
以下の3つの場合に分けて、代表画像方向成分Dijと
代表画像方向成分Dsjとの差ΔDsijを求める。
As to the representative image direction component, as described above, the representative image direction component Di of the area centers Cij and Csj.
Since j and Dsj can take values from 0 to 16,
The difference ΔDsij between the representative image direction component Dij and the representative image direction component Dsj is calculated in the following three cases.

【0076】第1に、代表画像方向成分DijおよびD
sjがともに16であるときには、 ΔDsij=0 …(36) とする。
First, the representative image direction components Dij and D
When both sj are 16, ΔDsij = 0 (36).

【0077】第2に、代表画像方向成分DijおよびD
sjがともに15以下であるときには、 ΔDsij=|Dij−Dsi| …(37) とする。
Second, the representative image direction components Dij and D
When both sj are 15 or less, ΔDsij = | Dij−Dsi | (37).

【0078】ただし、差ΔDsijは代表画像方向成分
Dijが示す画像方向と代表画像方向成分Dsjが示す
画像方向との角度差に相当し、その角度差はπ/2より
小さく、差ΔDsijは7以下となるべきであるので、
ΔDsij=|Dij−Dsj|≧8となるときには、 ΔDsij=15−|Dij−Dsj| …(38) とする。
However, the difference ΔDsij corresponds to the angle difference between the image direction indicated by the representative image direction component Dij and the image direction indicated by the representative image direction component Dsj. The angle difference is smaller than π / 2, and the difference ΔDsij is 7 or less. Should be
When ΔDsij = | Dij−Dsj | ≧ 8, ΔDsij = 15− | Dij−Dsj | ... (38).

【0079】第3に、代表画像方向成分DijおよびD
sjのいすれか一方のみが16であるときには、代表画
像方向成分DijおよびDsjがともに16であるとき
よりは差ΔDsijは大きく、すなわち差ΔDsijは
0ではなく、しかも代表画像方向成分Dijが示す画像
方向と代表画像方向成分Dsjが示す画像方向との角度
差がπ/2となるときよりは差ΔDsijは小さい、す
なわち差ΔDsijは8より小さいと考えて、0と7の
中間をとって、 ΔDsij=3.5 …(39) とする。
Third, the representative image direction components Dij and D
When only one of sj is 16, the difference ΔDsij is larger than when both the representative image direction components Dij and Dsj are 16, that is, the difference ΔDsij is not 0, and the image indicated by the representative image direction component Dij is The difference ΔDsij is smaller than that when the angle difference between the image direction and the image direction indicated by the representative image direction component Dsj is π / 2, that is, the difference ΔDsij is considered to be smaller than 8, and the difference ΔDsij is set between 0 and 7 to obtain ΔDsij. = 3.5 (39)

【0080】以上の差ΔXsij,ΔYsij,ΔLs
ij,ΔAsij,ΔBsij,ΔDsijを算出し
て、図7のステップS8においては、分割領域の番号j
が等しいもの同士の間で、それぞれ、新たな領域中心C
ijの、その前の領域中心Csjに対するずれ量Hsi
jを、一般的にZの2乗を「(Z)**2」で示すとす
ると、 Hsij =kx{(ΔXsij)**2+(ΔYsij)**2} +kl・(ΔLsij)**2 +ka・(ΔAsij)**2 +kb・(ΔBsij)**2 +kd・(ΔDsij)**2 …(40) で定義して計算する。ただし、kx,kl,ka,k
b,kdは、ぞれぞれ任意の係数である。
The above differences ΔXsij, ΔYsij, ΔLs
ij, ΔAsij, ΔBsij, ΔDsij are calculated, and in step S8 of FIG.
Between the areas having the same
The amount of shift Hsi of ij with respect to the previous region center Csj
If j is generally represented by the square of Z as “(Z) ** 2”, then Hsij = kx {(ΔXsij) ** 2+ (ΔYsij) ** 2} + kl · (ΔLsij) ** 2 + ka.・ (ΔAsij) ** 2 + kb ・ (ΔBsij) ** 2 + kd ・ (ΔDsij) ** 2 (40) However, kx, kl, ka, k
b and kd are arbitrary coefficients.

【0081】次に、ステップS9に進んで、すべての分
割領域についてのずれ量Hsijが1より小さいか否か
を判断し、いずれかの分割領域についてのずれ量Hsi
jが1以上であると判断したときには、各分割領域はい
まだ一定の状態に収束していないとして、ステップS3
以下に戻る。
Next, in step S9, it is determined whether or not the shift amount Hsij for all the divided areas is smaller than 1, and the shift amount Hsi for any of the divided areas is determined.
When it is determined that j is 1 or more, it is determined that each divided area has not converged to a constant state yet, and step S3 is performed.
Return to below.

【0082】すなわち、ステップS3において、入力画
像のすべての画素を順次、注目画素Pnとして、その注
目画素Pnと新たなすべての領域中心Cijとの距離H
ijnを式(25)に従って計算し、次にステップS4
に進んで、注目画素Pnからみて新たなすべての領域中
心Cijのうち距離Hijnが最も小さい領域中心を有
する分割領域に、その注目画素Pnを含めるように、入
力画像をさらに新たに領域分割し、次にステップS5に
おいて、入力画像の注目画素Pnとさらに新たな領域分
割による各分割領域との対応関係を画像バッファ43に
書き込み、次にステップS6に進んで、さらに新たな領
域中心Cijを計算し、次にステップS7において、そ
の求めたさらに新たな領域中心Cijを分割領域テーブ
ルとして分割領域バッファ42に書き込み、次にステッ
プS8に進んで、各分割領域ごとに、そのさらに新たな
領域中心Cijの、その前の領域中心Csjに対するず
れ量Hsijを式(40)に従って計算する、という一
連の手順を繰り返し実行する。
That is, in step S3, all the pixels of the input image are sequentially set as the target pixel Pn, and the distance H between the target pixel Pn and all new area centers Cij is set.
ijn is calculated according to equation (25), then step S4
Proceeding to step 1, the input image is further divided into regions so that the pixel of interest Pn is included in the divided region having the smallest distance Hijn among all the new region centers Cij viewed from the pixel of interest Pn. Next, in step S5, the correspondence relationship between the pixel of interest Pn of the input image and each divided area by new area division is written in the image buffer 43, and then the process proceeds to step S6 to calculate a new area center Cij. Then, in step S7, the obtained new area center Cij is written in the divided area buffer 42 as the divided area table, and then the process proceeds to step S8, in which the new area center Cij is added to each divided area. , A calculation of the shift amount Hsij with respect to the previous region center Csj according to the equation (40) is repeated. To run.

【0083】そして、ステップS9において、すべての
分割領域についてのずれ量Hsijが1より小さいと判
断したときには、各分割領域は一定の状態に収束したと
して、領域分割を終了する。
When it is determined in step S9 that the shift amount Hsij for all the divided areas is smaller than 1, it is determined that each divided area has converged to a certain state, and the area division is terminated.

【0084】以上のように、領域分割部41において入
力画像全体がその色および画像方向に応じて領域の形状
が変えられるように領域分割される。したがって、入力
画像中の人の髪の毛の部分や花びらの部分など、一定の
方向(流れ)を有する絵柄部分は、その方向に沿う例え
ば細長い形状の領域に分割され、領域分割の結果は入力
画像を人が認識したときのものに近いものとなる。
As described above, the area dividing section 41 divides the entire input image into areas so that the shape of the area can be changed according to the color and the image direction. Therefore, a pattern portion having a certain direction (flow), such as a human hair portion or a petal portion in the input image, is divided into, for example, elongated regions along the direction, and the result of the region division is the input image. It is close to what a person perceives.

【0085】領域分割が終了したときには、画像バッフ
ァ43には、入力画像の各画素と最終的な各分割領域と
の対応関係、すなわち入力画像の各画素が最終的に属す
るとされた分割領域の番号が書き込まれているととも
に、分割領域バッファ42には、最終的な各分割領域の
領域中心が書き込まれていることになる。
When the area division is completed, the image buffer 43 stores in the image buffer 43 the correspondence between each pixel of the input image and each final divided area, that is, the divided area to which each pixel of the input image finally belongs. In addition to the number being written, the final area center of each divided area is written in the divided area buffer 42.

【0086】そして、このように領域分割が終了した
後、オペレータがシステム制御部90において分割結果
をディスプレイ82上に表示させる操作をすることによ
り、またはシステム制御部90におけるシステム制御プ
ログラムにより自動的に、画像バッファ43から入力画
像の各画素と各分割領域との対応関係が、分割領域バッ
ファ42から各分割領域の代表色値が、それぞれ読み出
され、その読み出された対応関係および代表色値から表
現付加手段60において画像データI2として入力画像
の各分割領域を代表色で塗りつぶして表示するものが得
られ、その画像データI2が表示処理手段70により表
示用アナログ画像信号に変換され、その画像信号がディ
スプレイ82に供給されて、ディスプレイ82上に入力
画像の分割結果が表示される。
After the area division is completed in this way, the operator operates the system control unit 90 to display the division result on the display 82, or automatically by the system control program in the system control unit 90. , The correspondence relationship between each pixel of the input image and each divided area from the image buffer 43, the representative color value of each divided area from the divided area buffer 42, respectively, and the read correspondence relationship and representative color value. From the expression adding means 60, image data I2 is displayed in which each divided area of the input image is filled in with a representative color and is displayed. The image data I2 is converted into a display analog image signal by the display processing means 70, and the image is displayed. The signal is supplied to the display 82, and the division result of the input image is displayed on the display 82. It is.

【0087】このとき、同時にディスプレイ81上には
入力画像がそのまま表示され、オペレータはディスプレ
イ81および82上の入力画像およびその分割結果を見
比べることができる。
At this time, at the same time, the input image is displayed on the display 81 as it is, and the operator can compare the input images on the displays 81 and 82 and the division result.

【0088】その分割結果の分割領域数が多い場合や、
その分割結果がその分割された領域の画像部分に対して
そのまま表現を付加するのに適切でない場合には、次
に、オペレータがシステム制御部90において領域統合
の指示をすることにより、領域統合部51において領域
分割手段40により分割された領域が統合される。
When the number of divided areas of the divided result is large,
If the division result is not suitable for adding the expression as it is to the image portion of the divided area, the operator then instructs the area integration in the system control unit 90 so that the area integration unit In 51, the areas divided by the area dividing means 40 are integrated.

【0089】この場合、システム制御部90の領域指定
手段92により「入力画像全体」と指定するときには、
以下に示すように分割結果の各分割領域が一定の手順に
従って統合され、分割結果の一部の複数の領域を指定す
るときには、後述するように、その複数の領域が1つの
分割領域として統合される。
In this case, when the area designation means 92 of the system control unit 90 designates "entire input image",
As shown below, the divided areas of the division result are integrated according to a certain procedure, and when a plurality of areas of the division result are specified, the plurality of areas are integrated as one divided area as described later. It

【0090】図17は、入力画像全体にわたって分割結
果の各分割領域を領域統合する場合に領域統合部51が
実行する領域統合の手順を示す。
FIG. 17 shows an area integration procedure executed by the area integration unit 51 when area integration is performed on each of the divided areas of the entire input image.

【0091】まず、ステップS21において、領域分割
部41を通じて分割領域バッファ42から分割結果のす
べての分割領域の重心を読み出し、その1つを注目分割
領域の重心として、これと他のすべての分割領域の重心
との距離を計算する。
First, in step S21, the centroids of all the divided areas of the division result are read from the divided area buffer 42 through the area dividing unit 41, and one of them is set as the centroid of the divided area of interest, and this and all other divided areas. Calculate the distance from the center of gravity of.

【0092】次に、ステップS22において、その距離
が小さい順に他のすべての分割領域のうちの8個の分割
領域を、その注目分割領域のグループに属すべきものと
してリストアップし、領域統合マップ52に書き込む。
Next, in step S22, eight divided areas out of all the other divided areas in the order of decreasing distance are listed as belonging to the group of the divided area of interest, and the area integrated map 52 is displayed. Write in.

【0093】次に、ステップS23に進んで、分割結果
のすべての分割領域につき、それぞれのグループに属す
べき他の分割領域をリストアップしたか否かを判断し、
いまだすべての分割領域につきリストアップしていない
と判断したときには、すべての分割領域を順次、注目分
割領域とするように、ステップS21およびS22に戻
って、上記の距離計算およびリストアップを繰り返す。
Next, in step S23, it is determined whether or not other divided areas that should belong to the respective groups are listed for all the divided areas of the division result.
If it is determined that all the divided areas have not been listed yet, the process returns to steps S21 and S22 to sequentially set all the divided areas as the focused divided area, and the above distance calculation and listing are repeated.

【0094】図18(A)は、このようにして領域統合
マップ52に、すべての分割領域につき、それぞれのグ
ループに属すべき他の分割領域をリストアップした状態
を示し、例えば分割領域1のグループに属すべき他の分
割領域としては分割領域2,4,3,17,5,16,
15がリストアップされたものである。
FIG. 18A shows a state in which, in the area integrated map 52, other divided areas which should belong to the respective groups are listed in the area integrated map 52 in this way. Other divided areas that should belong to are divided areas 2, 4, 3, 17, 5, 16,
15 are listed.

【0095】ステップS23において分割結果のすべて
の分割領域につきリストアップしたと判断したときに
は、次にステップS24において、分割領域バッファ4
2から分割結果の1つの注目分割領域の代表色値を読み
出し、領域統合マップ52からその注目分割領域のグル
ープに属すべきものとしてリストアップしたすべての他
の分割領域の番号を読み出すとともに、分割領域バッフ
ァ42からそのリストアップしたすべての他の分割領域
の代表色値を読み出して、その注目分割領域の代表色値
とリストアップしたすべての他の分割領域の代表色値と
の差を計算する。
If it is determined in step S23 that all the divided areas of the division result have been listed, then in step S24, the divided area buffer 4 is generated.
The representative color value of one target divided area as a result of the division is read from 2 and the numbers of all other divided areas listed as belonging to the group of the target divided area are read from the area integrated map 52, and the divided area is also read. The representative color values of all the other divided areas listed are read out from the buffer 42, and the difference between the representative color value of the target divided area and the representative color values of all the other divided areas listed is calculated.

【0096】次に、ステップS25において、その差が
所定値より小さいか否かを判定し、所定値より小さい他
の分割領域はリストアップした分割領域として残すもの
の、所定値以上の他の分割領域はリストアップした分割
領域から除外するように、領域統合マップ52を書き換
える。
Next, in step S25, it is determined whether or not the difference is smaller than a predetermined value, and other divided areas smaller than the predetermined value are left as listed divided areas, but other divided areas equal to or larger than the predetermined value. Rewrites the area integrated map 52 so as to exclude it from the listed divided areas.

【0097】次に、ステップS26に進んで、分割結果
のすべての分割領域につき、それぞれのグループに属す
べき他の分割領域のリストアップ更新をしたか否かを判
断し、いまだすべての分割領域につきリストアップ更新
をしていないと判断したときには、すべての分割領域を
順次、注目分割領域とするように、ステップS24およ
びS25に戻って、上記の差計算およびリストアップ更
新を繰り返す。
Next, in step S26, it is determined whether or not the list of other divided areas that should belong to the respective groups has been updated for all the divided areas of the divided result, and all the divided areas still remain. When it is determined that the list-up update is not performed, the process returns to steps S24 and S25 so that all the divided areas are sequentially set as the target divided area, and the difference calculation and the list-up update described above are repeated.

【0098】図18(B)は、このようにして、すべて
の分割領域につき領域統合マップ52を更新した状態を
示し、例えば分割領域1のグループに属すべき他の分割
領域としては、分割領域2,4,17,16,15が残
され、分割領域3,5が除外されたものである。
FIG. 18B shows a state in which the area integrated map 52 is updated for all the divided areas in this way. For example, as the other divided areas that should belong to the group of the divided area 1, the divided area 2 , 4, 17, 16, and 15 are left, and the divided areas 3 and 5 are excluded.

【0099】ステップS26において分割結果のすべて
の分割領域につきリストアップ更新をしたと判断したと
きには、次にステップS27において、領域統合マップ
52から重複したデータを削除する。
If it is determined in step S26 that the list-up update has been performed for all the divided areas of the division result, then in step S27, the duplicated data is deleted from the area integrated map 52.

【0100】すなわち、図18(B)の状態では、例え
ば分割領域2および分割領域1が互いに相手のグループ
に属すべきものとして重複してリストアップされ、分割
領域4,17,16がそれぞれ分割領域1,2のグルー
プに属すべきものとして重複してリストアップされ、分
割領域6が分割領域2のグループに属すべきものとして
リストアップされ、分割領域14が分割領域4のグルー
プに属すべきものとしてリストアップされ、分割領域1
5が分割領域1,4のグループに属すべきものとして重
複してリストアップされ、分割領域8が分割領域3,5
のグループに属すべきものとして重複してリストアップ
されていることから、図18(C)に示すように、分割
領域1,2,4,6,14,17,16,15が分割領
域1のグループに属するものとされ、分割領域5,8,
7が分割領域3のグループに属するものとされて、分割
領域2,4,5のグループに属するものはないとされ
る。
That is, in the state of FIG. 18B, for example, the divided areas 2 and 1 are listed up redundantly as belonging to the other group, and the divided areas 4, 17 and 16 are respectively divided areas. 1 and 2 are listed redundantly as belonging to the group 1, divided area 6 is listed as belonging to the group of divided area 2, and divided area 14 is listed as belonging to the group of divided area 4. Up, divided area 1
5 is listed up redundantly as belonging to the group of divided areas 1 and 4, and divided area 8 is divided areas 3 and 5
18C, the divided areas 1, 2, 4, 6, 14, 17, 16, 15 are divided into the divided areas 1 as shown in FIG. 18C. The divided areas 5, 8 and
It is assumed that 7 belongs to the group of the divided areas 3 and none belongs to the group of the divided areas 2, 4 and 5.

【0101】次に、ステップS28において、画像バッ
ファ43から入力画像の各画素が属する分割領域の番号
を読み出し、その番号により領域統合マップ52を参照
して、入力画像の各画素が属する分割領域が属するグル
ープを調べ、そのグループの番号を統合後の分割領域の
番号として、入力画像の各画素が属すべき統合後の分割
領域の番号を、すなわち入力画像の各画素と統合後の各
分割領域との対応関係を画像バッファ43に書き込む。
Next, in step S28, the number of the divided area to which each pixel of the input image belongs is read from the image buffer 43, and the area integrated map 52 is referred to by that number to determine the divided area to which each pixel of the input image belongs. The group to which the pixel belongs is checked, and the number of the group is used as the number of the divided area after the integration, and the number of the divided area after the integration to which each pixel of the input image should belong, that is, each pixel of the input image and each divided area after the integration. The correspondence relation of is written in the image buffer 43.

【0102】次に、ステップS29において、領域統合
マップ52、および画像バッファ43における上記の対
応関係をもとに、各分割領域を統合し、すなわち領域統
合マップ52に1つのグループに属するものとしてリス
トアップされた複数の分割領域を統合後の1つの分割領
域として、統合後の各分割領域の重心、代表色値および
代表画像方向成分を計算し直し、その統合後の各分割領
域の領域中心を統合後の分割領域テーブルとして分割領
域バッファ42に書き込んで、入力画像全体にわたる領
域統合を終了する。
Next, in step S29, each divided area is integrated based on the area integration map 52 and the above correspondence in the image buffer 43, that is, the area integration map 52 is listed as belonging to one group. Using the plurality of segmented areas that have been updated as one segmented area after integration, the center of gravity, representative color value, and representative image direction component of each segmented area after integration are recalculated, and the area center of each segmented area after integration is calculated. The divided area table after the integration is written in the divided area buffer 42, and the area integration over the entire input image is completed.

【0103】システム制御部90においてマウス操作な
どにより、ディスプレイ82上に表示された分割結果の
一部の複数の領域を指定するときには、その複数の領域
を1つの分割領域とするように領域統合され、画像バッ
ファ43が書き替えられるとともに、分割領域バッファ
42の分割領域テーブルが書き替えられる。
When a plurality of areas of the division result displayed on the display 82 are designated by the mouse operation or the like in the system control unit 90, the areas are integrated so that the plurality of areas become one divided area. The image buffer 43 is rewritten, and the divided area table of the divided area buffer 42 is rewritten.

【0104】そして、このように領域統合が終了した
後、オペレータがシステム制御部90において統合後の
分割結果をディスプレイ82上に表示させる操作をする
ことにより、またはシステム制御部90におけるシステ
ム制御プログラムにより自動的に、画像バッファ43か
ら入力画像の各画素と統合後の各分割領域との対応関係
が、分割領域バッファ42から統合後の各分割領域の代
表色値が、それぞれ読み出され、その読み出された対応
関係および代表色値から表現付加手段60において画像
データI2として入力画像の統合後の各分割領域を代表
色で塗りつぶして表示するものが得られ、その画像デー
タI2が表示処理手段70により表示用アナログ画像信
号に変換され、その画像信号がディスプレイ82に供給
されて、ディスプレイ82上に入力画像の統合後の分割
結果が表示される。
After the area integration is completed in this way, the operator operates the system controller 90 to display the integrated division result on the display 82 or the system control program in the system controller 90. The correspondence between each pixel of the input image and each divided area after integration is automatically read out from the image buffer 43, and the representative color value of each integrated area after integration is read out from the divided area buffer 42. Based on the correspondence relationship and the representative color value, the expression adding unit 60 obtains image data I2 in which each divided area of the input image after integration is filled in with a representative color and displayed, and the image data I2 is displayed by the display processing unit 70. Is converted into an analog image signal for display by the image signal, and the image signal is supplied to the display 82 to be displayed. 82 division result after the integration of the input image is displayed on.

【0105】このとき、同時にディスプレイ81上には
入力画像がそのまま表示され、オペレータはディスプレ
イ81および82上の入力画像およびその統合後の分割
結果を見比べることができる。
At this time, at the same time, the input image is displayed as it is on the display 81, and the operator can compare the input images on the displays 81 and 82 and the division result after the integration.

【0106】ディスプレイ81および82上の入力画像
およびその統合後の分割結果を見て、次に、オペレータ
がシステム制御部90の領域指定手段92により統合後
の分割領域を指定し、かつ、その指定した分割領域の画
像部分に対して付加する表現の種別と、それに伴う各種
パラメータをシステム制御部90の表現指示手段93に
より指示することによって、表現付加手段60におい
て、統合後の指定された分割領域の画像部分に対して以
下に示すような各種の表現が付加される。
Looking at the input images on the displays 81 and 82 and the division result after the integration, the operator then designates the division area after the integration by the area designating means 92 of the system control unit 90, and designates it. The expression adding unit 60 instructs the expression adding unit 60 to specify the type of expression to be added to the image portion of the divided area and various parameters accompanying the expression, so that the expression adding unit 60 specifies the specified divided area after integration. The following various expressions are added to the image portion of.

【0107】第1に、ドラマチックフィルタ処理と呼ぶ
ことのできる表現である。この表現が指示された場合に
は、表現付加手段60において、統合後の指定された分
割領域については、その分割領域の代表色値Lr,A
r,Br中の明度成分Lrと、その分割領域の各画素に
ついての画素値ln,an,bn中の明度成分lnとの
差Lr−lnに係数k1を乗じたものを明度成分lnに
加える、 lr=ln+k1(Lr−ln) =(1−kl)ln+kl・Lr …(51) で表される処理がなされる。
First, there is an expression that can be called dramatic filter processing. When this expression is instructed, in the expression adding means 60, the representative color values Lr, A of the specified divided area after integration are set.
A value obtained by multiplying the difference Lr-ln between the lightness component Lr in r and Br and the lightness component ln in the pixel values ln, an and bn of each pixel in the divided area by a coefficient k1 is added to the lightness component ln, lr = ln + k1 (Lr−ln) = (1−kl) ln + kl·Lr (51)

【0108】このように指定された分割領域の各画素に
ついては明度成分lnが式(51)で表される明度成分
lrに置き換えられた画像データI3が表示処理手段7
0により表示用アナログ画像信号に変換され、その画像
信号がディスプレイ83に供給されて、ディスプレイ8
3上に表現付加後の画像が表示される。
Image data I3 in which the lightness component ln is replaced by the lightness component lr represented by the equation (51) for each pixel in the divided area thus designated is the display processing means 7.
0 is converted into a display analog image signal, and the image signal is supplied to the display 83,
The image after the expression is added is displayed on the screen 3.

【0109】ここで、係数k1を1にすると、指定され
た分割領域の各画素については明度成分lnがその分割
領域の平均値の明度成分Lrに置き換えられ、係数k1
を0から1までの間で調整することによって、指定され
た分割領域の明度分布を、その分割領域の平均明度を中
心として、広げたり、縮めたりすることができ、画像に
異なる印象を与えることができる。特に、この表現を入
力画像のモチーフとなる画像部分に対してのみ付加する
ときは、そのモチーフとなる画像部分をドラマチックに
強調することができる。
When the coefficient k1 is set to 1, the lightness component ln is replaced by the lightness component Lr of the average value of the divided area for each pixel in the specified divided area, and the coefficient k1
By adjusting between 0 and 1, the brightness distribution of the specified divided area can be expanded or contracted around the average brightness of the divided area, giving different impression to the image. You can In particular, when this expression is added only to the image portion serving as the motif of the input image, the image portion serving as the motif can be dramatically enhanced.

【0110】係数k1を1に近い値にすると、出力画像
にはマッハバンドのような筋が見えるようになるが、単
純に色数を減少させる場合に生じるマッハバンドとは異
なり、目ざわりとなるようなことはない。
When the coefficient k1 is set to a value close to 1, a streak like a Mach band can be seen in the output image, but unlike the Mach band that occurs when the number of colors is simply reduced, the appearance is noticeable. There is no such thing.

【0111】第2に、切り絵フィルタ処理と呼ぶことの
できる表現である。この表現が指示された場合には、表
現付加手段60において、統合後の指定された分割領域
については、その分割領域の代表色値Lr,Ar,Br
と、その分割領域の各画素についての画素値ln,a
n,bnとの差Lr−ln,Ar−an,Br−bnに
それぞれ係数k2を乗じたものを画素値ln,an,b
nにそれぞれ加える、 lt=ln+k2(Lr−ln)=(1−k2)ln+k2・Lr…(52) at=an+k2(Ar−an)=(1−k2)an+k2・Ar…(53) bt=bn+k2(Br−bn)=(1−k2)bn+k2・Br…(54) で表される処理がなされる。
Second, there is an expression that can be called cutout filter processing. When this expression is instructed, in the expression adding means 60, the representative color values Lr, Ar, Br of the specified divided area after integration are set.
And pixel values ln, a for each pixel in the divided area
The pixel values ln, an and b are obtained by multiplying the differences Lr-ln, Ar-an and Br-bn from n and bn by a coefficient k2.
It is added to n, respectively. The processing represented by (Br-bn) = (1-k2) bn + k2 · Br (54) is performed.

【0112】ここで、係数k2を1にすると、指定され
た分割領域の各画素がその分割領域の代表色で塗りつぶ
されて切り絵のような効果が得られ、係数k2を0から
1までの間で調整することによって、指定された分割領
域の色分布を、その分割領域の代表色を中心として、広
げたり、縮めたりすることができ、画像に異なる印象を
与えることができる。特に、この表現を入力画像のモチ
ーフとなる画像部分に対してのみ付加するときは、その
効果が大きい。
Here, when the coefficient k2 is set to 1, each pixel in the designated divided area is filled with the representative color of the divided area, and an effect like a cutout is obtained, and the coefficient k2 is changed from 0 to 1. By adjusting in between, the color distribution of the specified divided area can be expanded or contracted around the representative color of the divided area, and a different impression can be given to the image. In particular, when this expression is added only to the image portion that becomes the motif of the input image, the effect is great.

【0113】第3に、覆い焼きフィルタ処理と呼ぶこと
のできる表現である。この表現が指示された場合には、
表現付加手段60において、統合後の指定された分割領
域については、例えば図19(A)に示す分割領域C1
0,C14,C15,C19については、その分割領域
の各画素についての明度成分lnに対して、図19
(B)(C)に示すように一定値k3の明度成分lpを
加え、指定された分割領域と接する分割領域について
は、例えば図19(A)に示す分割領域C8,C9,C
13,C16については、その分割領域の各画素につい
ての明度成分lnに対して、図19(B)(C)に示す
ように、指定された分割領域と接する位置の画素につい
ては一定値k3となり、反対側に位置する画素について
は0となり、その間に位置する画素については指定され
た分割領域と接する位置の画素からの距離に応じてk3
から0までの値となる明度成分lqを加える処理がなさ
れる。
Third, there is an expression that can be called dodging filter processing. If this expression is given,
In the expression adding unit 60, for the specified divided area after integration, for example, the divided area C1 shown in FIG.
For 0, C14, C15, and C19, the brightness component In for each pixel in the divided area is shown in FIG.
(B) As shown in (C), a lightness component lp having a constant value k3 is added, and for the divided areas in contact with the designated divided area, for example, divided areas C8, C9, C shown in FIG.
As for 13 and C16, as shown in FIGS. 19B and 19C, with respect to the lightness component ln for each pixel of the divided area, a constant value k3 is set for the pixel at a position in contact with the specified divided area. , 0 for pixels located on the opposite side, and k3 for pixels located between them according to the distance from the pixel at the position in contact with the specified divided area.
A process of adding the lightness component lq having a value from 0 to 0 is performed.

【0114】写真画像では部分的に画像がつぶれたり、
飛んだりすることがあり、そのような部分では明度を修
正する必要があるが、この発明において上記の覆い焼き
フィルタ処理をするときは、覆い焼きが必要な部分を領
域指定手段92によって分割領域の単位で確実かつ容易
に指定することができるとともに、その指定された領域
からその周辺の領域にかけては明度がなだらかに変化す
るので、覆い焼き後の画像に不自然さを生じることがな
い。
In a photographic image, the image may be partially crushed,
However, when performing the above dodging filter processing in the present invention, the area designating unit 92 determines the area where dodging is required. The value can be specified reliably and easily in units, and since the brightness changes gently from the specified area to the surrounding area, the image after dodging does not appear unnatural.

【0115】第4に、ウェット・オン・ウェット・フィ
ルタ処理と呼ぶことのできる表現である。この表現が指
示された場合には、表現付加手段60において、統合後
の指定された複数の分割領域の境界付近に存在する画素
については、その複数の分割領域の代表色を、その画素
の位置に応じた混合比で混合した結果の色を、その画素
の色とする処理がなされ、濡れた絵の具同士を画像上で
隣同士に塗ったような効果が得られる。
Fourth, there is an expression that can be called wet-on-wet filter processing. When this expression is instructed, in the expression adding means 60, for the pixels existing near the boundary of the specified plurality of divided areas after integration, the representative color of the plurality of divided areas is set to the position of the pixel. The color obtained by mixing with the mixing ratio according to is treated as the color of the pixel, and the effect that wet paints are applied next to each other on the image is obtained.

【0116】図示していないが、表現付加手段60から
の画像データI3を印刷出力用の画像信号に変換してプ
リンタに供給することにより、上述した各種の表現を付
加した画像を印刷することができる。
Although not shown, by converting the image data I3 from the expression adding means 60 into an image signal for print output and supplying the image signal to the printer, it is possible to print the image to which the various expressions described above are added. it can.

【0117】上述した例は、K平均アルゴリズムによっ
て入力画像を領域分割する場合であるが、K平均アルゴ
リズムでは一般に、入力画像のすべての画素と新たなす
べての領域中心との距離を計算するなどのために、入力
画像サイズが大きい場合には、作業エリアや分割領域バ
ッファとしてサイズの大きいものが必要になるととも
に、領域分割処理に長時間を要することになる。
Although the above-mentioned example is the case where the input image is divided into regions by the K-means algorithm, the K-means algorithm generally calculates the distances between all the pixels of the input image and all the new center of regions. Therefore, when the input image size is large, a large work area or divided area buffer is required, and the area division processing requires a long time.

【0118】そこで、発明者は先に、一般に、大きなサ
イズの入力画像を、小さいサイズの作業エリアや分割領
域バッファにより、高速に領域分割することのできる、
分割K平均アルゴリズムと呼ぶべき方法を発明し、特願
平6−96328号によって提案した。
Therefore, the inventor can generally divide a large-sized input image into regions at high speed by using a small-sized work area or divided region buffer.
A method called a divided K-means algorithm was invented and proposed by Japanese Patent Application No. 6-96328.

【0119】この分割K平均アルゴリズムは、入力画像
を複数の中領域に分けて、それぞれの中領域をK平均ア
ルゴリズムにより領域分割するものであるが、入力画像
を単純に複数の中領域に分けて、それぞれの中領域を領
域分割したのでは、それぞれの中領域の境界で最終的に
分割された領域のつながりが悪くなることから、それぞ
れの中領域の間に境界領域を設けて、それぞれの中領域
の領域分割にあたっては、その中領域と接するすべての
境界領域を一緒に領域分割するものである。
This divided K-means algorithm divides the input image into a plurality of middle regions and divides each middle region into regions by the K-means algorithm. However, the input image is simply divided into a plurality of middle regions. , If each middle area is divided into regions, the connection of the finally divided regions will be poor at the boundaries of each middle region. In the area division of an area, all boundary areas that are in contact with the middle area are area-divided together.

【0120】この発明の図1に示した例においても、こ
の分割K平均アルゴリズムによって入力画像を領域分割
することができる。ただし、その分割K平均アルゴリズ
ムは、上述したK平均アルゴリズムと同様に、入力画像
データlから抽出した画像方向成分d1を用いるもので
あることが望ましい。
Also in the example shown in FIG. 1 of the present invention, the input K-algorithm can divide the input image into regions. However, it is desirable that the divided K-means algorithm uses the image direction component d1 extracted from the input image data 1 as in the above-mentioned K-means algorithm.

【0121】なお、画像方向検出部30の画素サイズ
は、図2および図3に示したような3×3画素に限る必
要はない。また、入力画像データlのみからではなく、
例えば入力画像データl,a,bを加算し、その加算結
果の入力画像データから入力画像の画像方向を検出し、
画像方向成分d1を抽出することもできる。さらに、こ
の発明は、入力画像がLab色空間以外の例えばRGB
色空間などで表現されたフルカラー画像の場合にも適用
することができるとともに、白黒画像などの単色画像の
場合にも適用することができる。
The pixel size of the image direction detecting section 30 does not need to be limited to 3 × 3 pixels as shown in FIGS. Also, not only from the input image data l,
For example, input image data 1, a, b are added, and the image direction of the input image is detected from the input image data of the addition result,
The image direction component d1 can also be extracted. Further, according to the present invention, the input image may be, for example, RGB other than the Lab color space.
The invention can be applied not only to a full-color image expressed in a color space or the like, but also to a monochrome image such as a monochrome image.

【0122】[0122]

【発明の効果】上述したように、この発明によれば、画
像の色や絵柄に応じた適切な場所に適切な表現を付加す
ることができる。
As described above, according to the present invention, it is possible to add an appropriate expression to an appropriate place according to the color and pattern of an image.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の画像処理装置の一例を示す機能ブロ
ック図である。
FIG. 1 is a functional block diagram showing an example of an image processing apparatus of the present invention.

【図2】その画像方向検出部の一例を示す機能ブロック
図である。
FIG. 2 is a functional block diagram showing an example of an image direction detecting section.

【図3】画像方向の検出の説明に供する図である。FIG. 3 is a diagram for explaining detection of an image direction.

【図4】画像方向の検出の説明に供する図である。FIG. 4 is a diagram for explaining detection of an image direction.

【図5】画像方向成分の値と画像方向との関係を示す図
である。
FIG. 5 is a diagram showing a relationship between a value of an image direction component and an image direction.

【図6】入力画像データの値と画像方向との関係を示す
図である。
FIG. 6 is a diagram showing a relationship between a value of input image data and an image direction.

【図7】領域分割部における領域分割の全体的な手順を
示すフローチャートである。
FIG. 7 is a flowchart showing an overall procedure of area division in an area division unit.

【図8】初期領域分割の態様の一例を示す図である。FIG. 8 is a diagram showing an example of a mode of initial area division.

【図9】領域分割テーブルの一例を示す図である。FIG. 9 is a diagram showing an example of a region division table.

【図10】領域分割における距離計算の説明に供する図
である。
FIG. 10 is a diagram for explaining a distance calculation in area division.

【図11】領域分割における距離計算の説明に供する図
である。
FIG. 11 is a diagram for explaining distance calculation in area division.

【図12】新たな領域分割の説明に供する図である。FIG. 12 is a diagram for explaining new area division.

【図13】新たな領域分割により各分割領域の形状が変
えられた状態を示す図である。
FIG. 13 is a diagram showing a state in which the shape of each divided area is changed by new area division.

【図14】新たな領域中心の代表画像方向成分の算出手
順を示すフローチャートである。
FIG. 14 is a flowchart showing a procedure of calculating a representative image direction component of a new area center.

【図15】代表画像方向成分の算出の説明に供する図で
ある。
FIG. 15 is a diagram for explaining calculation of a representative image direction component.

【図16】代表画像方向成分の算出の説明に供する図で
ある。
FIG. 16 is a diagram for explaining calculation of a representative image direction component.

【図17】領域統合部における領域統合の手順を示すフ
ローチャートである。
FIG. 17 is a flowchart showing a procedure of area integration in an area integration unit.

【図18】領域統合マップが順次更新される様子を示す
図である。
FIG. 18 is a diagram showing how the area integrated map is sequentially updated.

【図19】覆い焼きフィルタ処理の説明に供する図であ
る。
FIG. 19 is a diagram for explaining the dodging filter process.

【符号の説明】[Explanation of symbols]

10 画像入力手段 39 画像方向検出手段 40 領域分割手段 50 領域統合手段 60 表現付加手段 80 表示手段 90 システム制御部 92 領域指定手段 93 表現指示手段 10 image input means 39 image direction detecting means 40 area dividing means 50 area integrating means 60 expression adding means 80 display means 90 system control section 92 area designating means 93 expression instructing means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/40 H04N 1/40 Z ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display location H04N 1/40 H04N 1/40 Z

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】画像入力手段と、 その画像入力手段からの入力画像を領域分割する領域分
割手段と、 その領域分割手段による分割結果を表示する表示手段
と、 その表示手段に表示された複数の分割領域のうちの一部
または全部を指定する領域指定手段と、 その領域指定手段により指定された領域の画像部分に付
加する表現を指示する表現指示手段と、 その表現指示手段による指示にもとづいて上記領域指定
手段により指定された領域の画像部分に表現を付加する
表現付加手段と、 を備えることを特徴とする画像処理装置。
1. An image inputting means, an area dividing means for dividing an input image from the image inputting means into areas, a display means for displaying a division result by the area dividing means, and a plurality of display means displayed on the displaying means. Based on an area designating means for designating a part or all of the divided areas, an expression designating means for designating an expression to be added to an image portion of the area designated by the area designating means, and an instruction by the expression designating means. An image processing apparatus comprising: an expression adding unit that adds an expression to an image portion of an area designated by the area designating unit.
JP33112594A 1994-12-08 1994-12-08 Image processor Pending JPH08161521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33112594A JPH08161521A (en) 1994-12-08 1994-12-08 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33112594A JPH08161521A (en) 1994-12-08 1994-12-08 Image processor

Publications (1)

Publication Number Publication Date
JPH08161521A true JPH08161521A (en) 1996-06-21

Family

ID=18240156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33112594A Pending JPH08161521A (en) 1994-12-08 1994-12-08 Image processor

Country Status (1)

Country Link
JP (1) JPH08161521A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147856A (en) * 2008-12-19 2010-07-01 Canon Inc Image processing apparatus and method of controlling the same
JP2011180643A (en) * 2010-02-26 2011-09-15 Casio Computer Co Ltd Image processor and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147856A (en) * 2008-12-19 2010-07-01 Canon Inc Image processing apparatus and method of controlling the same
JP2011180643A (en) * 2010-02-26 2011-09-15 Casio Computer Co Ltd Image processor and image processing method

Similar Documents

Publication Publication Date Title
JPH0290197A (en) Dither device
JPH10145583A (en) Image processor
JPH0285970A (en) Picture forming device and system of continuous tone to which smooth shadow is formed
JP3126046B2 (en) Color adjustment method and color adjustment device for color image
JPH10243211A (en) Image processor, image-processing method and recording medium
JPH03273368A (en) Graphic processor
JP2740409B2 (en) Sharpness processing device
US5642476A (en) Computer generated variable line width of a vector graphic
US5704025A (en) Computer graphics system having per pixel depth cueing
JPH08161521A (en) Image processor
JP4174133B2 (en) Image generation method
JPH1155686A (en) Device and method for processing image, device and method for generating key signal, image synthesizing device and recording medium
JPS62206556A (en) Artificial coloring method for picture image
JP3356865B2 (en) Map making method and apparatus
JPH07225575A (en) Multi-window device
KR100545116B1 (en) Color Correction Device and Color Correction Method, Image Processing Device and Image Processing Method
JPS61289386A (en) Contrast conversion control system
KR100321771B1 (en) Image composition system and method based on the cell division
JP3027620B2 (en) Color editing method using simple coded images
JPH08279057A (en) Emphasis display device for outline and ridge of three-dimensional graphic
JP3304381B2 (en) Image processing device having contour extraction function
JP3637927B2 (en) Image processing device
JPH07200801A (en) Deformed image producing device
JPH03127278A (en) System and device for color picture processing
JP2795083B2 (en) Creating the same material appearance image in image processing