JP2006031688A - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
JP2006031688A
JP2006031688A JP2005175798A JP2005175798A JP2006031688A JP 2006031688 A JP2006031688 A JP 2006031688A JP 2005175798 A JP2005175798 A JP 2005175798A JP 2005175798 A JP2005175798 A JP 2005175798A JP 2006031688 A JP2006031688 A JP 2006031688A
Authority
JP
Japan
Prior art keywords
area
region
basic
feature
integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005175798A
Other languages
Japanese (ja)
Inventor
Atsushi Kasao
敦司 笠尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2005175798A priority Critical patent/JP2006031688A/en
Publication of JP2006031688A publication Critical patent/JP2006031688A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a pictorial drawing image formed by processing image data captured from a photograph and expressing the image data in a natural touch. <P>SOLUTION: As to pixels included in the image data, the respective pixels are grouped by using color and the like as one of determination criteria, and the image data are divided into a plurality of basic areas. For each of the basic areas, its characteristics including characteristics such as an average color and a position of the gravity center are calculated, and based on the characteristics, a plurality of basic areas are combined into an integrated area. Characteristics of each of the integrated areas are calculated, and a plurality of basic areas inside the integrated area, for example, are combined into a plurality of combined areas. Alternatively, the integrated area is partially divided for forming a partial area, and the combined area or the partial area can be selected as a unit area of expression in addition to the basic area and the integrated area. For each of the unit area of expression decided according to the selected result, a color of pixel included in the unit area is decided based on the characteristics of the unit area of expression. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像データに対して所定の加工、例えば、絵画風の加工を行う画像加工装置、画像加工方法及び画像加工プログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for performing predetermined processing, for example, painting-like processing, on image data.

従来、写真画像をスキャナーにより読み込み、読み込んだ画像データに対して、画素の色を変える色変換処理及び画像を歪ませる歪み変換処理等の種々の画像加工処理が行われている。例えば、入力された画像データとその画像データを領域分割した分割結果とから、画素を分割領域毎にグループに分け、それぞれのグループ毎にグループ特徴を計算して記録し、記録したグループ特徴を加工し、加工したグループ特徴から新たに画素を構成することにより、絵画の筆触に対応する画素のグループを変換の単位として、画像データに新しく、且つ豊富な表現を自動的に付与する画像加工合成装置が開発されている(特許文献1参照)。この場合、グループ毎に特徴をまとめ、そのグループを単位として特徴を加工し、加工された特徴を保存するすようにグループに画素を割り当てて画像を構成しているため、グループを筆触に見立てることができ、写真画像等の原画像を様々な筆触の画像に加工することができる。   2. Description of the Related Art Conventionally, various image processing processes such as a color conversion process that changes a pixel color and a distortion conversion process that distorts an image are performed on a read image data by a scanner. For example, from the input image data and the result of dividing the image data into regions, the pixels are divided into groups for each divided region, group features are calculated and recorded for each group, and the recorded group features are processed. An image processing / synthesizing device that automatically assigns a new and rich expression to image data using a group of pixels corresponding to the stroke of a painting as a unit of conversion by constructing a new pixel from the processed group feature Has been developed (see Patent Document 1). In this case, features are grouped into groups, features are processed in units of groups, and pixels are assigned to groups to store the processed features. The original image such as a photographic image can be processed into various brush-touch images.

特開平10−11569号公報(第3−9-頁、図1−14)JP-A-10-11569 (page 3-9-, FIG. 1-14)

しかしながら、上記の画像加工合成装置では、絵画の筆触に対応する画素のグループを変換の単位としているため、大きな太い筆触で描く画風や逆に小さなストロークで描く点描画に近い画風を作り出すことができなかった。また、グループ特徴から新たに画素を構成することで作られる筆触も比較的単純な形になってしまっていた。   However, in the image processing / synthesizing apparatus described above, since a group of pixels corresponding to the stroke of a painting is used as a unit of conversion, it is possible to create a style similar to a point drawing drawn with a large stroke or a small stroke. There wasn't. In addition, the touch created by constructing a new pixel from the group feature has also become relatively simple.

本発明の目的は、画像データに様々な大きさ、様々な形状の、自然な筆触を画像の情報を基に適切に与えることのできる画像加工装置、画像加工方法及び画像加工プログラムを提供することである。   An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of appropriately giving natural brush strokes of various sizes and shapes to image data based on image information. It is.

本発明は、例えば写真を取り込んで得た画像データを、色的にも距離的にも近い画素同士をまとめてグループ化し、これにより複数の基本領域に分割する。次いでこれら複数の基本領域において互いに似通っている基本領域同士を更にグループ化して複数の統合領域とする。本発明の最も単純な手法としては、概略的に言えば、こうして得られた統合領域において、統合領域自体を表現の単位とするのか、それとも基本領域を表現の単位とするのかを、予め定められた処理の仕方(実施の形態では「処理の指示プリセット」に対応する)あるいはオペレータが手動で決めた処理の仕方に基づいて決定し、例えば背景の一部分については統合領域を表現の単位として、また人物の一部分については基本領域を表現の単位として表現する(その領域の特徴に応じて当該領域に含まれる画素の色を決定する)ものである。   In the present invention, for example, image data obtained by taking a photograph is grouped by grouping together pixels that are close in color and distance, and thereby divided into a plurality of basic regions. Next, basic regions that are similar to each other in the plurality of basic regions are further grouped into a plurality of integrated regions. As the simplest method of the present invention, roughly speaking, in the integrated region thus obtained, it is predetermined whether the integrated region itself is used as a unit of expression or the basic region is used as a unit of expression. The processing method (corresponding to “processing instruction preset” in the embodiment) or the processing method manually determined by the operator. For example, for a part of the background, the integrated region is used as a unit of expression. For a part of a person, a basic area is expressed as a unit of expression (the color of a pixel included in the area is determined according to the characteristics of the area).

そして本発明の更なる特徴としては、統合領域をいかにして作成するかという点にあり、統合領域を更に処理して例えば統合領域内の複数の基本領域を結合させて複数の結合領域としたり、あるいは統合領域を部分分割して部分領域なるものを形成し、基本領域及び統合領域の他に結合領域あるいは部分領域をも表現の単位領域として選択できるようにし、表現のより大きな自由度を確保して様々な画風のしかも自然な筆触の画像が得られるようにしたものである。   A further feature of the present invention is how to create an integrated area. The integrated area is further processed to combine, for example, a plurality of basic areas in the integrated area into a plurality of combined areas. Alternatively, the integrated area is partially divided to form a partial area, and in addition to the basic area and the integrated area, a combined area or a partial area can be selected as a unit area for expression, thereby ensuring greater freedom of expression. In this way, images with various styles of paintings and natural brushstrokes can be obtained.

本発明の基本的な態様は、画像データに含まれる画素について、少なくとも色を判断基準の一つとして各画素をグループ化し、これにより当該画像データを複数の基本領域に分割する基本領域分割処理手段と、
分割された基本領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該基本領域の特徴を算出する基本領域特徴算出手段と、
この基本領域特徴算出手段により算出された基本領域特徴の内の少なくとも色に基づいて、複数の基本領域を統合して統合領域を制作する領域統合手段と、
前記統合領域毎に、少なくとも色の特徴を含む当該統合領域の特徴を算出する統合領域特徴算出手段と、
前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかを決定する画像処理領域指示部と、
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定する表現部と、を備えたことを特徴とする。
また本発明に係る画像加工装置は、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に当該基本領域の特徴を算出する基本領域特徴算出手段と、
前記基本領域特徴算出手段により算出された基本領域特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記基本領域特徴記憶手段に記憶されている基本領域特徴を基に複数の基本領域を統合して統合領域を制作する領域統合手段と、
前記領域統合手段により統合された統合領域と前記分割画像データ記憶手段に保存されている分割画像データとから前記統合領域特徴算出手段により算出された統合領域特徴を記憶する統合領域特徴記憶手段とからなる画像特徴抽出手段と、
前記統合領域特徴算出手段により統合領域特徴を算出する際に書き出された統合領域デザインマップを記憶する統合領域デザインマップ記憶手段と、
前記統合領域デザインマップ記憶手段に記憶されている統合領域デザインマップの情報に応じて計算式や計算式に含まれる係数を変更する計算手法を用いて、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴、もしくはそれらに加え、それらの領域特徴を結合、もしくは分割することで作り出された新たな領域特徴から計算される結果を基に画像加工を行う表現手段と、を備えるものである。
A basic aspect of the present invention is a basic area division processing means for grouping each pixel with respect to pixels included in the image data using at least a color as one of the determination criteria, thereby dividing the image data into a plurality of basic areas. When,
For each divided basic region, basic region feature calculating means for calculating features of the basic region including at least color features based on pixel data included in the basic region;
Based on at least the color of the basic region features calculated by the basic region feature calculating means, region integrating means for integrating a plurality of basic regions to produce an integrated region;
An integrated region feature calculating means for calculating a feature of the integrated region including at least a color feature for each integrated region;
An image processing area instruction unit that determines whether the integrated area is a unit area of expression or a basic area included in the integrated area is a unit area of expression according to the integrated area;
For each unit region of the expression determined based on the selected result, an expression unit that determines the color of the pixel included in the unit region based on the feature of the unit region of the expression is provided.
An image processing apparatus according to the present invention includes a divided image data storage unit that stores divided image data obtained as a result of processing of a basic region division processing unit that divides image data into a plurality of basic regions;
Basic area feature calculating means for calculating the characteristics of the basic area for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing the basic area feature calculated by the basic area feature calculating means for each basic area;
Area integration means for producing an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage means;
From an integrated region feature storage unit that stores an integrated region feature calculated by the integrated region feature calculation unit from the integrated region integrated by the region integration unit and the divided image data stored in the divided image data storage unit. Image feature extraction means comprising:
An integrated area design map storage means for storing an integrated area design map written out when calculating an integrated area feature by the integrated area feature calculating means;
Stored in the integrated region feature storage means using a calculation method for changing a calculation formula or a coefficient included in the calculation formula in accordance with information of the integrated region design map stored in the integrated region design map storage means. Calculated from the integrated region features of the integrated region and the basic region features stored in the basic region feature storage means, or in addition to these, the new region features created by combining or dividing these region features Expression means for performing image processing based on the result.

本発明に係る画像加工装置では、画像データを複数の基本領域に分割し、基本領域毎に当該基本領域の基本領域特徴を算出し、さらに算出された基本領域特徴を基に複数の基本領域を統合して統合された基本領域から統合領域特徴を算出すると共に、統合の過程で得られる情報を基に統合領域デザインマップも算出し、統合領域デザインマップの情報に応じて計算式や計算式に含まれる係数を変更する計算手法を用いて、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴、もしくはそれらに加え、それらの領域特徴を結合、もしくは分割することで作り出された新たな領域特徴から計算される結果を基に加工画像データが計算されるため基本領域特徴からは基本となるサイズの筆触が、そして統合領域特徴からは大きなサイズの筆触が、さらに結合した領域特徴からは中間の大きさの筆触が、分割された領域特徴からは小さなサイズの筆触が、作り出せるようになる。そして統合領域デザインマップには、画像のどの部分をどの大きさの筆触で描くべきかについて参考となる情報が蓄えられているため、その情報を参考に描かれている対象として残すべき特徴は、細かい描写が可能な小さなサイズの筆で、そしていろいろな画風を加えて見た目の印象を変えるのに効果的な部分には表現に合わせた様々なサイズの筆で描くことで、描かれている対象の特徴を残しながら、且つ表現力のある作品を作り出すことができる。   In the image processing device according to the present invention, the image data is divided into a plurality of basic areas, the basic area features of the basic area are calculated for each basic area, and the basic areas are further calculated based on the calculated basic area features. The integrated area feature is calculated from the integrated basic area, and the integrated area design map is also calculated based on the information obtained in the integration process. In addition to the integrated region features of the integrated region stored in the integrated region feature storage unit and the basic region features stored in the basic region feature storage unit using a calculation method for changing the included coefficient, Since the processed image data is calculated based on the result calculated from the new area feature created by combining or dividing these area features, it is the basic from the basic area feature. Can be used to create large-size touches from integrated region features, intermediate-size brushes from combined region features, and small-size touches from segmented region features. . And in the integrated area design map, information to be used as reference for storing which part of the image should be drawn with which brush size is stored. Objects drawn by drawing with a brush of a small size that can be described in detail, and by drawing with a brush of various sizes according to the expression in a part that is effective for changing the impression of appearance by adding various styles of painting This makes it possible to create works that are expressive while retaining the characteristics of

上述した表現手段は、画像を構成する色情報などの画素の特徴を計算するに当たり、先に示した統合領域特徴と基本領域特徴との2つの領域特徴、もしくはどちらか一方の領域特徴と画像の位置情報を入力値として、所定の計算1を行い、その結果最大もしくは最小の値を与えた基本領域の基本領域特徴、もしくは統合領域の統合領域特徴、もしくはその両者に加え、先の計算結果の最小の値と2番目に小さな値との差から計算される値の全て、もしくはいくつかを入力値として画素特徴を計算することが望ましい。   The expression means described above calculates the characteristics of the pixels such as color information constituting the image, and the two area features of the integrated area feature and the basic area feature described above, or one of the area features and the image feature. The position information is used as an input value, and a predetermined calculation 1 is performed. As a result, in addition to the basic area feature of the basic area, the integrated area feature of the integrated area, or both, the maximum or minimum value is given. It is desirable to calculate the pixel feature using all or some of the values calculated from the difference between the minimum value and the second smallest value as input values.

この場合、最大値と2番目に大きな値との差が0である画素はどちらの領域の特徴を備えても良い画素、つまりその画素の位置が筆触の境界であり、0でない画素はその値が、境界からどれだけ離れているかについての指標とみなすことができるため、筆触の周辺からの距離に応じて異なる表現を与えることができるようになる。   In this case, the pixel whose difference between the maximum value and the second largest value is 0 is a pixel that may have the characteristics of either region, that is, the position of the pixel is the border of the brush stroke, and the pixel that is not 0 is the value Can be regarded as an index of how far away from the boundary, so that different expressions can be given according to the distance from the periphery of the brush stroke.

上述した画像特徴抽出手段は、同じ統合領域に統合された複数の基本領域の中から2つ以上の基本領域を選び結合を行う領域結合手段と、その領域結合手段により結合された結合領域と分割画像データ記憶手段に保存されている分割画像データとから結合領域特徴を計算する結合領域算出手段と、前記結合領域算出手段により算出された結合領域特徴を記憶する結合領域特徴記憶手段と、を備えていることが望ましい。   The above-described image feature extraction unit includes a region combining unit that selects and combines two or more basic regions from a plurality of basic regions integrated into the same integrated region, and a combined region combined by the region combining unit. A combined region calculation unit that calculates a combined region feature from the divided image data stored in the image data storage unit; and a combined region feature storage unit that stores the combined region feature calculated by the combined region calculation unit. It is desirable that

この場合、大きな筆触となる統合領域特徴と、小さな筆触となる基本領域特徴とに加え、その中間の大きさの筆触を作り出すことのできる結合領域特徴が利用可能になる。   In this case, in addition to the integrated region feature that becomes a large brush stroke and the basic region feature that becomes a small brush stroke, a combined region feature that can create a brush with an intermediate size becomes available.

上述した前記画像特徴抽出手段は、前記画像特徴抽出手段に記載の各手段に加え、統合領域、あるいは基本領域、あるいは結合領域、をそれぞれ複数の部分領域に分ける部分領域分割手段を備え、前記統合領域特徴記憶手段に記憶されている統合領域特徴、あるいは前記基本領域特徴記憶手段に記憶されている基本領域特徴、あるいは前記結合領域特徴記憶手段に記憶されている結合領域特徴と、それらに加え、前記分割画像データ記憶手段に保存されている分割画像データを参照して、各部分領域から部分領域特徴を計算する部分領域特徴算出手段と、計算された部分領域特徴を記憶する部分領域特徴記憶手段を備えていることが望ましい。   The image feature extraction means described above includes, in addition to each means described in the image feature extraction means, a partial area dividing means for dividing the integrated area, the basic area, or the combined area into a plurality of partial areas, respectively. In addition to the integrated region feature stored in the region feature storage unit, the basic region feature stored in the basic region feature storage unit, or the combined region feature stored in the combined region feature storage unit, A partial region feature calculating unit that calculates a partial region feature from each partial region with reference to the divided image data stored in the divided image data storage unit, and a partial region feature storage unit that stores the calculated partial region feature It is desirable to have.

この場合は、3種類の領域特徴がさらに小さく分けられるため、今まで一番細かかった基本領域よりもさらに細かい筆触で表現することができるようになる。また、分割領域特徴は基になる一つの領域を複数の部分領域の集合で表現するための基の情報にもなる。   In this case, since the three types of region features are further divided, it is possible to express with a finer touch than the basic region that has been the finest so far. The divided region feature also serves as basic information for expressing a single region as a set of a plurality of partial regions.

上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、それぞれから前記部分領域特徴記憶手段に記憶されている部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の領域特徴と画素の位置情報を入力値として、最も好ましい領域特徴が選ばれたときに最小の値を示すように考えられた所定の計算2を行い、その結果最小の値を与えた基本領域の基本領域特徴、もしくは統合領域の統合領域特徴、もしくは結合領域の結合領域特徴、もしくはそれらに加え、先の所定の計算2の計算結果の最小の値と2番目に小さな値との差から計算される値の全て、またはその中のいくつかを入力値として画像を構成する画素の画素特徴を計算することが好ましい。   The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. 3 types of region features, and, in addition to them, 4 types of region features from among the partial region features stored in the partial region feature storage means, or any of several types thereof The basic region which gave the minimum value as a result of performing a predetermined calculation 2 that is considered to indicate the minimum value when the most preferable region feature is selected, using the region feature and pixel position information as input values The basic area feature, or the integrated area feature of the integrated area, or the combined area feature of the combined area, or in addition to the minimum value of the calculation result of the predetermined calculation 2 and the second All values are calculated from the difference between the values, or it is preferable to calculate the pixel characteristics of the pixels constituting the image as input some of them.

この場合、統合領域特徴、基本領域特徴に加え、結合領域特徴、部分領域特徴から画素特徴を計算することで、小さな筆触、中間のサイズの筆触を作り出すことができるようになり、その結果さらに表現力が増す。   In this case, by calculating the pixel features from the combined region features and partial region features in addition to the integrated region features and basic region features, it becomes possible to create small brush strokes and medium size brush strokes. Power increases.

上述した前記画像特徴抽出手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、それぞれから前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の各領域特徴を、
その各領域特徴において、基本領域または統合領域または結合領域または部分領域の周囲に位置する基本領域または統合領域または結合領域または部分領域の各領域特徴から計算された値を基に変更する特徴変更手段と、を備えていることが望ましい。
The image feature extraction unit described above is stored in the integrated region feature of the integrated region stored in the integrated region feature storage unit, the basic region feature stored in the basic region feature storage unit, and the combined region feature storage unit. Types of combined region features and three types of region features, or in addition to these, four types of region features calculated by the partial region dividing means, or any number of them Each region feature of
A feature changing means for changing each area feature based on a value calculated from each area feature of the basic area, the integrated area, the combined area, or the partial area located around the basic area, the integrated area, the combined area, or the partial area. It is desirable to have

この場合、一つの領域特徴から一つの筆触が作り出されるので、絵画らしい筆触を作り出すには、絵画らしい領域特徴が得られる必要があるが、一つの領域特徴がその領域の周囲の領域の特徴の値によって影響を受けて変化することになるので、例えば領域特徴として、領域の方向が周りの領域の方向に影響されて、変化すると、うねるような筆触が作り出される。   In this case, since one brush is created from one area feature, it is necessary to obtain a painting-like area feature in order to create a painting-like touch, but one area feature is a feature of the area surrounding the area. Since it changes depending on the value, for example, as a region feature, the direction of the region is influenced by the direction of the surrounding region, and when it changes, a wavy brush is created.

上述した前記領域統合手段は、印の付いていない基本領域をみつけ、それに印1を付ける。その基本領域に隣接する基本領域間の特徴量の差が第1の閾値より小さい基本領域に印1を付け、さらに、その印1を付けられた基本領域に隣接する基本領域間の特徴量の差が第1の閾値より小さい基本領域にも印1を付けるという作業を繰り返し、最終的に印1が付けられた基本領域をまとめ仮統合領域1とし、まとめ終わったら、初めに戻り、印の付いていない基本領域を見つけ、その基本領域に印2を付け同様の処理を繰り返し、最終的に印の付いてない基本領域がなくなるまで繰り返す。次に、仮統合領域に含まれる基本領域の数が第1の個数より大きい仮統合領域に注目し、それに隣接する基本領域間の特徴量の差が第1の閾値より大きく、第2の閾値より小さい基本領域を同様の手法でまとめ、まとめられた新たな仮統合領域が先の注目した仮統合領域に含まれていた基本領域を含んでおり、且つ新たな仮統合領域にまとめられた基本領域の数を先の注目した仮統合領域にまとめられていた基本領域の数で割った値が1より大きく規定値1より小さい場合にその仮統合領域を正式に統合領域として決定することが望ましい。   The above-mentioned area integration means finds a basic area without a mark and puts a mark 1 on it. Mark a basic area where the difference in feature quantity between the basic areas adjacent to the basic area is smaller than the first threshold value, and further change the feature quantity between the basic areas adjacent to the marked basic area. Repeat the process of marking 1 even for basic areas where the difference is less than the first threshold. Finally, the basic areas marked with mark 1 are combined into a temporary integrated area 1. Find a basic area that is not marked, add a mark 2 to the basic area, repeat the same process, and finally repeat until there are no unmarked basic areas. Next, paying attention to a temporary integration area in which the number of basic areas included in the temporary integration area is larger than the first number, a difference in feature amount between adjacent basic areas is larger than the first threshold, and the second threshold A smaller basic area is collected by the same method, and the new temporary integrated area that has been collected includes the basic area that was included in the previous temporary integrated area, and the basic area that has been added to the new temporary integrated area. When the value obtained by dividing the number of areas by the number of basic areas gathered in the temporary integrated area of interest is larger than 1 and smaller than the specified value 1, it is desirable to formally determine the temporary integrated area as an integrated area. .

この場合、一度で統合領域を決定せずに、1度目は仮統合領域としておき、閾値を変えて行う2度目の統合処理で、統合処理を行っても統合領域に大きな変化がなかった場合に、正式な統合領域として決定するため、グラデーションの部分が途中で切れることが少なく、確度の高い統合領域だけを抽出することができ、絵画として同質とみなされる領域を統合領域としてまとめることができるようになる。   In this case, when the integrated area is not determined at once, the integrated area is not changed significantly even if the integration process is performed in the second integration process that is performed by changing the threshold value for the first time without setting the integrated area once. Because it is determined as a formal integration area, the gradation part is rarely cut off in the middle, and only the integration area with high accuracy can be extracted, so that areas that are considered to be homogeneous as paintings can be combined as an integration area become.

上述した前記領域統合手段は、2回目の仮統合領域が決定した後に、第2の閾値の値を新たに第1の閾値として、3回目の仮統合領域を定める処理と2回目の仮統合領域を正式に統合領域として決定する処理を行い、以後、同様の操作を複数回繰り返し、繰り返す際に、前回の処理で統合領域として決定した基本領域を除いた残りの基本領域に対してのみ統合処理を続け、例えばn回目の正式な統合領域としての決定処理が終った時には、その統合領域に通し番号を与え、統合領域デザインマップにその番号とn回目の均一統合領域であることとを記録することが望ましい。   After the second temporary integration area has been determined, the area integration unit described above uses the second threshold value as a new first threshold to determine the third temporary integration area and the second temporary integration area Is officially determined as an integrated area, and after that, the same operation is repeated several times, and when the process is repeated, only the remaining basic areas excluding the basic area determined as the integrated area in the previous process are integrated. For example, when the determination process as the nth formal integration area is completed, a serial number is assigned to the integration area, and the number and the nth uniform integration area are recorded in the integration area design map. Is desirable.

この場合、閾値を大きくしながら、統合を繰り返すため、2度だけでは統合できなかった領域も統合できることになる。また、繰り返しの少ない回数で統合された領域の方がより均一な領域なので、領域が何度目の繰り返しで統合されたかをデザインマップに記録しておこくとで、この情報を画素に表現を加える際に有効に利用できることになる。   In this case, since the integration is repeated while increasing the threshold value, it is possible to integrate regions that could not be integrated only twice. In addition, since the region integrated with a small number of repetitions is a more uniform region, if this region is recorded in the design map, the information is added to the pixel. It can be used effectively.

上述した前記領域統合手段は、n回目の繰り返し処理後に、基本領域数が第1の個数より大きく、第2の個数より小さい仮統合領域に注目し、その仮統合領域の境界付近に位置する基本領域の中で、注目した仮統合領域内にある基本領域の基本領域特徴とそれに隣接し、且つ注目した仮統合領域外にある基本領域の基本領域特徴との差の平均値の絶対値が規定値2より大きい場合に、さらに、その仮統合領域に通し番号を与え、統合領域デザインマップにその通し番号とn回目の対比統合領域であることとを記録し、この仮統合領域を統合処理の対象から除外した後にn+1回目の繰り返し処理を行うことが好ましい。   The area integration means described above focuses on a temporary integration area whose number of basic areas is larger than the first number and smaller than the second number after the n-th repetitive processing, and is located near the boundary of the temporary integration area. The absolute value of the average difference between the basic area features of the basic area within the temporary integration area of interest and the basic area features of the basic area adjacent to and outside the temporary integration area of interest within the area is specified. When the value is larger than 2, further assign a serial number to the temporary integration area, record the serial number and the nth comparison integration area on the integration area design map, and select the temporary integration area from the target of the integration process. It is preferable to perform the (n + 1) th repeated processing after the exclusion.

この場合、デザインを考えると、面積が小さく、周囲との強い対比のある統合領域が目立ち、重要な領域になるので、このような領域を統合して決定し、それを統合領域デザインマップに記録しておくことで、統合領域も統合領域デザインマップも表現の際に役立たせることができる。   In this case, when considering the design, the integrated area with a small area and strong contrast with the surrounding area is conspicuous and becomes an important area, so such areas are integrated and determined and recorded in the integrated area design map By doing so, both the integrated area and the integrated area design map can be used for expression.

上述した前記領域統合手段は、全ての処理をする前に、規定値3より大きい基本領域特徴を持つ基本領域を予め除外しておく、除外された基本領域の情報を先の統合領域デザインマップに記述しておくことが望ましい。   The area integration means described above excludes basic areas having basic area characteristics larger than the specified value 3 in advance before performing all the processing, and the information on the excluded basic areas is added to the previous integrated area design map. It is desirable to describe it.

この場合、2つの対象の間にあるエッジ部分に乗っている基本領域はどちらにも統合すべきではないが、このことを実現するために、エッジ部分に乗っている基本領域は極端に細長いことを利用し、この細長さを基本領域特徴として表現しておくと、この特徴が規定値3より大きい場合は、統合せずに初めから候補から除外しておくことができ、また、この情報を統合領域デザインマップが保持するため、表現の際に役立たせることができるようになる。   In this case, the basic region riding on the edge part between the two objects should not be integrated into either, but to achieve this, the basic region riding on the edge part must be extremely elongated. If this feature is expressed as a basic region feature, if this feature is larger than the specified value 3, it can be excluded from the candidates without integration, and this information Since the integrated area design map is retained, it can be used for expression.

上述した前記領域結合手段は、前記領域統合手段により同じ統合領域にまとめられた近接する複数の基本領域に対し、1つの結合領域として結合させる基本領域の個数とそれらの基本領域が結合可能となる基本領域特徴との関係をその基本領域が属する統合領域の統合領域デザインマップに記述されている情報に応じて変化させることが好ましい。   The area combining means described above can combine the number of basic areas to be combined as a single combined area with those basic areas combined with a plurality of adjacent basic areas grouped into the same integrated area by the area integrating means. It is preferable that the relationship with the basic area feature is changed according to information described in the integrated area design map of the integrated area to which the basic area belongs.

この場合、基本領域を結合するかどうかは表現の上では、どの太さの筆で描くかに当たる部分なので、画像のそのものが持っている情報を参考に決めるべきであるが、その情報を統合領域デザインマップが持っているため、これを利用することで、画風に合わせた適切な太さの筆の選択ができるようになる。   In this case, whether or not to combine the basic areas is the part that corresponds to the thickness of the brush drawn in terms of expression, so it should be decided with reference to the information that the image itself has, but the information is integrated area Since the design map has it, you can use it to select a brush with an appropriate thickness according to the style.

上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、夫々から前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の各領域特徴を、夫々が含まれている統合領域の統合領域デザインマップに記述されている情報を基に選び出し、さらに前記統合領域デザインマップに記述されている情報を基に選び出された領域特徴から画素特徴を計算する計算式を切り替えて、画素特徴を計算することが好ましい。   The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. In addition to these three types of region features, or in addition to these, four types of region features from among the partial region features calculated by the partial region dividing means, or any of several types of each of them A region feature is selected based on information described in the integrated region design map of the integrated region in which each region is included, and from the region features selected based on the information described in the integrated region design map. It is preferable to calculate the pixel feature by switching the calculation formula for calculating the pixel feature.

この場合、統合領域デザインマップは、エッジの部分や、少ない面積でも重要な部分の情報を持っているため、統合領域デザインマップの情報を利用してこのような部分を避けて、いろいろな画風の表現を与えることで、元の絵の内容を損なわない表現を作り出すことができるようになる。   In this case, since the integrated area design map has information on the edge part and important parts even in a small area, avoid such a part by using the information of the integrated area design map and use various image styles. By giving an expression, it is possible to create an expression that does not impair the content of the original picture.

先ず、画素特徴がどのタイプの領域から計算されるかが重要になるため、基本領域特徴から画素特徴を計算するか、または、その基本領域が含まれている統合領域の統合領域特徴から画素特徴を計算するか、または、その基本領域が結合された結合領域から画素特徴を計算するかを統合領域デザインマップの情報を基に決定することで、細かく描くべきところを細かく描くことができるようになる。   First, since it is important from which type of region the pixel feature is calculated, the pixel feature is calculated from the basic region feature or from the integrated region feature of the integrated region that includes the basic region. By determining whether to calculate pixel features from the combined region where the basic region is combined based on the information of the integrated region design map, it is possible to draw finely where to draw Become.

さらに、選び出された特徴から画素特徴を計算する計算式の選び方で、画風が変えられるので、この計算式を選択する際にも統合領域デザインマップの情報を基に決定することで、適切な表現が加えられるようになる。   Furthermore, since the style can be changed by selecting a calculation formula that calculates pixel features from the selected features, it is possible to select an appropriate calculation formula based on the information in the integrated region design map. Expression will be added.

上述した前記部分領域分割手段は、統合領域、あるいは基本領域、あるいは結合領域、を夫々複数の部分領域に分け、その部分領域毎に、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴、あるいは前記基本領域特徴記憶手段に記憶されている基本領域特徴、あるいは前記結合領域特徴記憶手段に記憶されている結合領域特徴を参照して部分領域特徴を計算する際に、部分領域が属していた統合領域の統合領域デザインマップに記述されている情報に応じて異なる計算式が選択され、それを用いて部分領域算出手段によって部分領域の部分領域特徴が計算され、計算された部分領域特徴が部分領域特徴記憶手段に記憶されることが好ましい。   The partial area dividing means described above divides the integrated area, the basic area, or the combined area into a plurality of partial areas, and integrates the integrated areas stored in the integrated area feature storage means for each partial area. When calculating a partial region feature with reference to a region feature, or a basic region feature stored in the basic region feature storage unit, or a combined region feature stored in the combined region feature storage unit, A different calculation formula is selected according to the information described in the integrated region design map of the integrated region to which it belongs, and the partial region feature of the partial region is calculated by the partial region calculation means using it, and the calculated partial region The features are preferably stored in the partial area feature storage means.

この場合、部分領域は基になる統合領域、基本領域、結合領域から分けて作られるが、この部分領域の作り方も、表現変化を加える重要な要素であるため、統合領域の統合領域デザインマップに記述されている情報に応じて適切な計算式を与えることで、結果として適切な表現を与えられるようになる。   In this case, the partial area is created separately from the basic integrated area, basic area, and combined area, but how to create this partial area is also an important element that changes expression. By giving an appropriate calculation formula according to the described information, an appropriate expression can be given as a result.

上述した前記特徴変更手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴と前記部分領域分割手段により計算される部分領域特徴とのうち4種類の領域特徴から、あるいは任意の数種類から選択された各領域特徴を変更するための数式を複数用意しており、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域デザインマップに記述されている情報に応じて、適切な数式を選択して、その選択された数式を用いて各特徴量を変更することが好ましい。   The feature changing means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. A plurality of mathematical formulas for changing each region feature selected from four types of region features or any number of types among the combined region features and the partial region features calculated by the partial region dividing means In accordance with the information described in the integrated area design map of the integrated area stored in the integrated area feature storage means, an appropriate mathematical expression is selected, and each feature amount is calculated using the selected mathematical expression. It is preferable to change.

この場合、既に計算されている各領域特徴の色や外形をさらに変化させる特徴変更手段に統合領域デザインマップに記述されている情報を利用できるようにすることで、画像のどこの特徴にどのような変化を与えるべきかが明確になる。   In this case, by making the information described in the integrated area design map available to the feature changing means for further changing the color and outline of each area feature that has already been calculated, it is possible to determine which feature of the image. It will become clear whether there should be a change.

前記統合領域特徴、結合領域特徴、基本領域特徴、各領域特徴の記述単位である統合領域、結合領域、基本領域の各領域毎に領域の通し番号とその領域に含まれている画素の統計量を要素として持ち、最低限、平均色、各領域毎に含まれている画素の重心、各領域毎に含まれている画素数、を含むことが好ましい。   For each of the integrated region feature, combined region feature, basic region feature, integrated region, combined region, and basic region that is a description unit of each region feature, the region serial number and the statistics of the pixels included in the region are obtained. It is preferable to include as an element, at a minimum, the average color, the barycenter of the pixels included in each area, and the number of pixels included in each area.

この場合、絵画の表現に必要なものには様々な統計量が考えられるが、どの領域にも必ず含まれていなくては、表現力が極端に落ちる要素があるため、それを規定することで、表現力が失われるリスクを避けることができる。   In this case, various statistics can be considered as necessary for the expression of paintings, but if they are not included in any area, there are elements that greatly reduce their expressive power. , Avoid the risk of loss of expressiveness.

上述した前記表現手段は、表現処理を画像データに対して、前記統合領域特徴記憶手段に記憶されている統合領域特徴、または前記基本領域特徴記憶手段に記憶されている基本領域特徴、または前記結合領域特徴記憶手段に記憶されている結合領域特徴から計算される画像範囲を単位として、夫々に異なる処理をオペーレータの指示で加えられるように、画像データを複数の領域に分けるためのデータ入力手段を備えていることが好ましい。   The expression means described above may perform expression processing on image data by using the integrated area feature stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, or the combination. A data input means for dividing the image data into a plurality of areas so that different processing can be applied by the operator's instruction, with the image range calculated from the combined area feature stored in the area feature storage means as a unit. It is preferable to provide.

この場合、画像加工装置に統合領域、基本領域、結合領域を単位として表現を与える画像範囲を直接指示することが可能になる。   In this case, it is possible to directly indicate an image range to be expressed to the image processing apparatus in units of the integrated area, basic area, and combined area.

上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴とに対して、前記部分領域分割手段により夫々3つの領域特徴から計算される部分領域特徴を利用して、夫々3つの領域特徴から作り出される筆触の形を様々に変化されることが好ましい。   The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. The shape of the brush created from each of the three area features can be changed variously using the partial area feature calculated from each of the three area features by the partial area dividing means. Is preferred.

この場合、一つの領域特徴から作り出される部分領域の数に応じて、筆触の形の複雑さを変えることができる。例えば3つの部分領域が作られていれば、その部分領域特徴を用いることで、2次曲線に従った筆触の変形が可能になる。   In this case, the complexity of the shape of the brush can be changed according to the number of partial areas created from one area feature. For example, if three partial areas are created, the use of the partial area features enables the deformation of the brush according to the quadratic curve.

上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、夫々から前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の領域特徴と画像の位置情報を入力値として、最も好ましい特徴が選ばれたときに値が最小になる所定の計算3を行い、nを自然数とし、その計算の結果は1番目からn番目に小さい値までを与えたn個の基本領域の基本領域特徴、もしくはn個の統合領域の統合領域特徴、もしくはn個の結合領域の結合領域特徴、もしくはそれらのいくつかと、さらに、先の計算結果の最小の値と2番目に小さな値との差(最小の値とn−1番目に小さな値との差から計算されるn−1個の値)の全て、もしくはいくつかを入力値として画素特徴を計算することが望ましい。   The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. Three types of region features, or in addition to them, four types of region features from among the partial region features calculated by the partial region dividing means, or any of several types of regions among them Using the feature and image position information as input values, a predetermined calculation 3 is performed that minimizes the value when the most preferable feature is selected, n is a natural number, and the result of the calculation is the first to nth smallest value N basic region features of n basic regions, n integrated region features of n integrated regions, n connected region features of n connected regions, or some of them, and All or some of the differences between the smallest value of the previous calculation result and the second smallest value (n−1 values calculated from the difference between the smallest value and the (n−1) th smallest value) It is desirable to calculate a pixel feature using as an input value.

この場合、一つの画素を決定する際に一つの領域だけでなく、その画素に影響力のあると考えられる複数の領域の特徴を考慮して画素特徴を計算することができるため、より微妙な表現を実現できるようになる。   In this case, when determining one pixel, the pixel feature can be calculated in consideration of not only one region but also features of a plurality of regions considered to have an influence on the pixel. The expression can be realized.

本発明に係る画像加工方法はコンピュータを用いて画像を加工する画像加工方法であって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが、前記基本領域特徴算出ステップにおいて算出した基本領域特徴を領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域特徴記憶ステップと、
前記統合領域特徴記憶ステップに記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶ステップに記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う表現ステップとを含むものである。
An image processing method according to the present invention is an image processing method for processing an image using a computer,
A divided image data storage step in which the computer stores divided image data obtained as a result of the processing of the basic area dividing processing step of dividing the image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step in which the computer stores the basic region feature calculated in the basic region feature calculating step for each region;
An area integration step in which the computer creates an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage step;
An integrated region feature storing step in which the computer stores the integrated region integrated in the region integrating step;
Based on the result calculated from the two area features of the integrated area feature stored in the integrated area feature storage step and the basic area feature stored in the basic area feature storage step, the image data is converted into the image data. And an expression step for performing expression processing on the image.

本発明に係る画像加工方法はコンピュータを用いて画像を加工する画像加工方法であって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが、前記基本領域特徴算出ステップにおいて算出した特徴を基本領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合ステップと、
前記コンピュータが、前記領域結合ステップにおいて結合した結合領域を記憶する結合領域特徴記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴と基本領域特徴記憶ステップにおいて記憶した基本領域特徴と結合領域を記憶する結合領域記憶ステップにおいて記憶した結合領域特徴との全て、あるいは任意の数種の領域を前記統合領域デザインマップを参考にしながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割ステップと、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更ステップと
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参照しながら、適応的に表現処理を行う表現ステップとを含むものである。
An image processing method according to the present invention is an image processing method for processing an image using a computer,
A divided image data storage step in which the computer stores divided image data obtained as a result of the processing of the basic area dividing processing step of dividing the image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step in which the computer stores the feature calculated in the basic region feature calculating step for each basic region;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage step to create an integrated area, and an area integration step of creating an integrated area design map;
An integrated region storage step in which the computer stores the integrated region integrated in the region integration step;
A region combining step in which the computer combines a plurality of basic regions based on the integrated region feature stored in the integrated region feature storing step to create a combined region;
A combined region feature storing step in which the computer stores the combined regions combined in the region combining step;
The integrated region feature stored in the integrated region feature storing step, the basic region feature stored in the basic region feature storing step, and the combined region feature stored in the combined region storing step for storing the combined region, or any arbitrary A partial region dividing step of adaptively dividing the plurality of regions into a plurality of portions while referring to the integrated region design map, and calculating a partial region feature for each partial region;
A feature changing step in which the computer changes the integrated region feature, or the basic region feature, or the combined region feature, or the partial region feature; and the computer, the integrated region feature, or the basic region feature, or An expression step for adaptively expressing the combined area feature or the partial area feature with reference to the integrated area design map.

本発明に係る画像加工プログラムは画像を加工する画像加工プログラムであって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した基本領域特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う手段としてコンピュータを機能させるものである。
An image processing program according to the present invention is an image processing program for processing an image,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing, for each basic area, the basic area feature calculated by the computer in the basic area feature calculating means;
Area integration means for creating an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage means by the computer;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Based on the result calculated from the two area features, the integrated area feature of the integrated area stored in the integrated area feature storage means and the basic area feature stored in the basic area feature storage means, the image data is converted into the image data. On the other hand, the computer is caused to function as a means for performing expression processing.

本発明に係る画像加工プログラムは画像を加工する画像加工プログラムであって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した特徴を基本領域毎に記憶する基本領域特徴特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合手段と、
前記コンピュータが、前記領域結合手段において結合した結合領域を記憶する結合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴と基本領域特徴記憶手段において記憶した基本領域特徴と結合領域を記憶する結合領域特徴記憶手段において記憶した結合領域特徴との全て、あるいは任意の数種の領域を前記統合領域デザインマップを参照しながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割手段と、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更手段と、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参考にしながら、適応的に画像加工処理を行う手段としてコンピュータを機能させるものである。
An image processing program according to the present invention is an image processing program for processing an image,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic region feature feature storage means for storing, for each basic region, the features calculated by the computer in the basic region feature calculation means;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage means to create an integrated area, and an area integration means for producing an integrated area design map;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Area combining means for creating a combined area by combining a plurality of basic areas based on the integrated area features stored in the integrated area feature storage means by the computer;
A combined region feature storage means for storing a combined region combined by the computer in the region combining means;
All of the integrated region feature stored in the integrated region feature storage unit and the basic region feature stored in the basic region feature storage unit and the combined region feature stored in the combined region feature storage unit that stores the combined region, or A partial region dividing means for adaptively dividing a plurality of arbitrary regions into a plurality of portions while referring to the integrated region design map, and calculating a partial region feature for each partial region;
Feature change means for the computer to change the integrated region feature, or the basic region feature, or the combined region feature, or the partial region feature;
Means for adaptively performing image processing on the integrated region feature, the basic region feature, the combined region feature, or the partial region feature while the computer refers to the integrated region design map. It is what makes a computer function.

更に本発明はコンピュータに用いられ、画像データを加工するプログラムにおいて、
画像データに含まれる画素について、少なくとも色を判断基準の一つとして各画素をグループ化し、これにより当該画像データを複数の基本領域に分割するステップと、
分割された基本領域毎に、少なくとも色の特徴を含む当該基本領域の特徴を算出するステップと、
分割された基本領域について、注目した一の基本領域に対して互いに連鎖しかつ互いに隣接するもの同士の基本領域の特徴の差が第1の閾値より小さい基本領域群を検出し、それら基本領域をグループ化して仮統合領域とし、同様にして前記一の基本領域以外の基本領域に対してもグループ化される基本領域群を検出して仮統合領域とし、こうして複数の第1回目の仮統合領域を得るステップと、
第1の閾値を、第1回目の仮統合領域を得るステップ時よりも大きくし、前記ステップと同様のステップを行って、複数の仮統合領域を得てこれらを第2回目の仮統合領域とし、第1回目の仮統合領域と第2回目の仮統合領域とが共通の基本領域を含んでいてかつ第1回目の仮統合領域に含まれる基本領域の数に対する第2回目の仮統合領域の基本領域の数の増加率が予め設定された値よりも小さいときに、その仮統合領域を正式な統合領域として決定するステップと、
第2回目の仮統合領域が決定した後に、第1の閾値の値を更に大きくして同様にして3回目の仮統合領域を定める処理を行うと共に、同様にして2回目の仮統合領域を正式に統合領域として決定する処理を行い、以後、同様の操作を複数回繰り返し、繰り返す際に、前回の処理で統合領域として決定した基本領域を除いた残りの基本領域に対してのみ統合処理を続けるステップと、
正式な統合領域としての決定処理が終った後、正式な統合領域ごとに、何回目の仮統合処理により仮統合領域から正式な統合領域に決定されたのかを示す段階数を記録するステップと、
前記正式に決定された統合領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該統合領域の特徴を算出するステップと、を含むことを特徴とする。
Furthermore, the present invention is used in a computer, and in a program for processing image data,
For each pixel included in the image data, grouping each pixel using at least a color as one of the determination criteria, thereby dividing the image data into a plurality of basic regions;
Calculating a feature of the basic region including at least a color feature for each divided basic region;
For the divided basic regions, a basic region group in which features of the basic regions that are adjacent to each other and are adjacent to each other with respect to the one basic region of interest are smaller than the first threshold is detected, and the basic regions are detected. Similarly, a group of temporary integrated areas is grouped, and a group of basic areas that are also grouped with respect to a basic area other than the one basic area is detected and set as a temporary integrated area. And getting the steps
The first threshold value is made larger than that in the step of obtaining the first temporary integration region, the same steps as the above step are performed, and a plurality of temporary integration regions are obtained, and these are used as the second temporary integration region. The first temporary integration area and the second temporary integration area include a common basic area, and the second temporary integration area corresponds to the number of basic areas included in the first temporary integration area. When the rate of increase in the number of basic areas is smaller than a preset value, determining the provisional integrated area as a formal integrated area;
After the second temporary integration area is determined, the first threshold value is further increased and the third temporary integration area is determined in the same manner. Similarly, the second temporary integration area is formalized. After that, when the same operation is repeated several times, the integration process is continued only for the remaining basic areas excluding the basic area determined as the integrated area in the previous process. Steps,
After the process of determining as a formal integration area is completed, for each formal integration area, recording the number of stages indicating the number of temporary integration processes determined from the temporary integration area to the formal integration area;
Calculating a feature of the integrated region including at least a color feature based on pixel data included in the basic region for each officially determined integrated region.

このプログラムにおいて、前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかを決定するステップと、
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定するステップと、を含むようにしてもよい。なお統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかの決定は例えば、前記統合領域の段階数に応じて行われる。
In this program, according to the integration area, determining whether the integration area is a unit area for expression or a basic area included in the integration area is a unit area for expression;
For each unit region of the expression determined based on the selected result, a step of determining a color of a pixel included in the unit region based on the feature of the unit region of the expression may be included. The determination of whether the integrated area is the unit area for expression or the basic area included in the integrated area is the unit area for expression is performed, for example, according to the number of stages of the integrated area.

本発明によれば、画像データについて、色的にも距離的にも近い画素同士をまとめてグループ化し、これにより複数の基本領域に分割すると共にこれら複数の基本領域において互いに似通っている基本領域同士を更にグループ化して複数の統合領域とし、統合領域自体を表現の単位とするのか、それとも基本領域を表現の単位とするのかを、自動あるいは手動で指定するようにしているため、多様な表現を実現することができる。   According to the present invention, for image data, pixels that are close in color and distance are grouped together and divided into a plurality of basic areas, and the basic areas that are similar to each other in the plurality of basic areas are grouped together. Are grouped into multiple integrated areas, and whether the integrated area itself is used as the unit of expression or the basic area is used as the unit of expression is specified automatically or manually. Can be realized.

また画像データを複数の基本領域、統合領域、結合領域及び部分領域に分割し、夫々の特徴を算出し、統合領域デザインマップの情報、またはデータ入力手段から入力される情報、または予め決められた計算式に従って、画像を構成する画素が、各領域の特徴量のいずれかを基にして、いずれの画素特徴計算式を利用するかを決定したのち、画像を構成する画素特徴が計算されるため、一つの作品の中に多様な表現を盛り込むことが可能になる。   Also, the image data is divided into a plurality of basic areas, integrated areas, combined areas, and partial areas, and the characteristics of each are calculated, information on the integrated area design map, information input from the data input means, or predetermined Because the pixel features that make up the image are calculated after deciding which pixel feature calculation formula to use for the pixels that make up the image based on any of the feature quantities in each region according to the formula , It becomes possible to include various expressions in one work.

以下、本発明の一実施の形態による画像加工装置について図面を参照しながら説明する。図1は、本発明の一実施形態による画像加工装置の構成を示すブロック図である。図1に示す画像加工装置は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、外部記憶装置、入力装置、表示装置、通信装置等を備えるコンピュータから構成されている。このコンピュータは、外部記憶装置等に予め記憶されている画像加工プログラムをCPU等で実行することにより、画像データ入力部1、画像特徴抽出部2、基本領域分割部3、基本領域特徴算出部4、基本領域特徴記憶部5、領域統合部6、統合領域特徴算出部7、統合領域特徴記憶部8、領域結合部9、結合領域特徴算出部10、結合領域特徴記憶部11、部分領域分割部12、部分領域特徴算出部13、部分領域特徴記憶部14、表現部15、特徴変更部16、統合領域デザインマップ記憶部17、画像処理領域指示部18、画像処理領域プリセット記憶部19、データ入力部20、画像データ表示部21、画像データ出力部22、分割画像データ記憶部23、処理手順記憶部24として機能する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus shown in FIG. 1 is composed of a computer having a ROM (Read Only Memory), a CPU (Central Processing Unit), a RAM (Random Access Memory), an external storage device, an input device, a display device, a communication device and the like. ing. In this computer, an image processing program stored in advance in an external storage device or the like is executed by a CPU or the like, whereby an image data input unit 1, an image feature extraction unit 2, a basic region division unit 3, and a basic region feature calculation unit 4. , Basic region feature storage unit 5, region integration unit 6, integrated region feature calculation unit 7, integrated region feature storage unit 8, region combination unit 9, combined region feature calculation unit 10, combined region feature storage unit 11, partial region division unit 12, partial region feature calculation unit 13, partial region feature storage unit 14, expression unit 15, feature change unit 16, integrated region design map storage unit 17, image processing region instruction unit 18, image processing region preset storage unit 19, data input Functions as a unit 20, an image data display unit 21, an image data output unit 22, a divided image data storage unit 23, and a processing procedure storage unit 24.

前記画像データ入力部1は、マウス、キーボード及びタブレット等の入力装置、通信インターフェース等の通信装置から構成され、入力装置を用いたユーザーの指令に応じて、スキャナ及びデジタルカメラ等の画像データを原画像として受け付け、原画像を画像特徴抽出部2を構成する基本領域分割部3に入力すると共に、その画像に対する画像処理の手順と処理に必要なパラメータを記述した処理手順をキーボードから直接受け付けたり、ハードディスクから読み込んだりして、その処理手順をRAMまたは外部記憶装置等から構成される処理手順記憶部24に記憶する。   The image data input unit 1 includes an input device such as a mouse, a keyboard, and a tablet, and a communication device such as a communication interface. The image data input unit 1 generates image data such as a scanner and a digital camera in accordance with a user command using the input device. Accept as an image, input the original image to the basic region dividing unit 3 constituting the image feature extraction unit 2, and directly accept the processing procedure describing the image processing procedure and the parameters required for the processing from the keyboard, The processing procedure is read from the hard disk, and the processing procedure is stored in the processing procedure storage unit 24 including a RAM or an external storage device.

ここで原画像としては、種々の画像データを用いることができ、RGB表色系、XYZ表色系、L*a*b*表色系で表現される画像データを用いたり、一枚または複数枚の画像データを用いたりしても良い。   Here, various image data can be used as the original image, and image data expressed in RGB color system, XYZ color system, L * a * b * color system can be used, or one or a plurality of image data can be used. A sheet of image data may be used.

前記基本領域分割部3は、入力される原画像を処理手順記憶部24に記憶されている処理手順に従い、公知の領域分割処理により複数の基本領域に分割し、その結果を分割画像データ記録部23に保存すると共に、基本領域特徴算出部4で分割された基本領域を、分割画像データ記録部23に記憶されている分割画像データを基に、当該基本領域毎に当該基本領域の特徴を算出し、算出された基本領域特徴は基本領域特徴記憶部5に保存される。   The basic area dividing unit 3 divides the input original image into a plurality of basic areas by a known area dividing process according to the processing procedure stored in the processing procedure storage unit 24, and the result is a divided image data recording unit. 23, and the basic region divided by the basic region feature calculation unit 4 is calculated for each basic region based on the divided image data stored in the divided image data recording unit 23. The calculated basic region features are stored in the basic region feature storage unit 5.

ここで領域分割処理としては、種々の領域分割処理を用いることができ、5次元のK-平均アルゴリズム(泉ら:「色情報と位置情報とを併用したセグメンテーション手法の一検討」、電子情報通信学会春期全国大会予稿集、D680(1991)、特開平10−11569号広報に開示されている絵画から筆触を抽出する手法を用いることができる。また基本領域の特徴は、少なくとも基本領域の平均色、基本領域の画像上の位置、基本領域に含まれる画素数を含み、必要に応じて第1主成分、第2主成分等、基本分割領域から抽出可能な特徴量を用いても良い。具体的な領域分割の手法及び様子は後述する。   Here, as the area division process, various area division processes can be used, and a five-dimensional K-average algorithm (Izumi et al .: “Study of a segmentation method using color information and position information together”, electronic information communication The method of extracting brush strokes from the paintings disclosed in the Annual Meeting of the Spring Meeting of the Society of Japan, D680 (1991), and Japanese Laid-Open Patent Publication No. 10-11569 can be used. , Including the position of the basic region on the image and the number of pixels included in the basic region, features that can be extracted from the basic divided region, such as the first principal component and the second principal component, may be used as necessary. A method and state of a typical area division will be described later.

前記基本領域特徴記憶部5は、RAMまたは外部記憶装置等から構成され、基本領域特徴を当該基本領域の領域番号に対応付けてテーブル形式で記憶する。   The basic area feature storage unit 5 includes a RAM, an external storage device, or the like, and stores the basic area features in association with the area number of the basic area in a table format.

前記領域統合部6は基本領域特徴記憶部5に保存されている基本領域特徴を基に、処理手順記憶部24に記憶されている処理手順に従い、複数の基本領域を統合して統合領域を作成し、該統合領域の統合領域番号に対応付けてその統合領域にまとめられた基本領域番号を統合領域対応番号表として統合領域特徴記憶部8に保存すると共に、統合された領域の性質と何度目の繰り返し処理によって統合されたかという情報を統合領域記号として統合領域デザインマップにまとめ、それを統合領域デザインマップ記憶部17に保存する。   Based on the basic region features stored in the basic region feature storage unit 5, the region integration unit 6 integrates a plurality of basic regions and creates an integrated region according to the processing procedure stored in the processing procedure storage unit 24. The basic area numbers associated with the integrated area number of the integrated area and stored in the integrated area are stored in the integrated area feature storage unit 8 as an integrated area correspondence number table, and the characteristics and The information as to whether or not they have been integrated by the repetitive processing is compiled into an integrated area design map as an integrated area symbol, and is stored in the integrated area design map storage unit 17.

前記統合領域特徴算出部7は、領域統合部6において一つの統合領域に統合された基本領域が一つのまとまりとしての特徴を分割画像データ記憶部23に記憶されている分割画像データを基にして算出する。   The integrated region feature calculation unit 7 uses the feature of the basic region integrated into one integrated region in the region integration unit 6 as one unit based on the divided image data stored in the divided image data storage unit 23. calculate.

前記統合領域特徴記憶部8は、RAMまたは外部記憶装置等から構成され、統合領域特徴算出部7によって算出された領域特徴を当該統合領域の領域番号に対応付けてテーブル形式で記憶する。   The integrated region feature storage unit 8 includes a RAM, an external storage device, or the like, and stores the region features calculated by the integrated region feature calculation unit 7 in a table format in association with the region number of the integrated region.

前記領域結合部9は、同一の領域統合としてまとめられた近接する複数の基本領域の中から、処理手順記憶部24に記憶されている処理手順に決められたルールと、場合によっては画像処理領域指示部18によって指示されたルールとを用いて、結合される基本領域を選び、該結合領域の結合領域番号に対応付けてその結合領域にまとめられた基本領域番号を結合領域対応番号表として結合領域特徴記憶部11に保存する。   The region combining unit 9 includes a rule determined by a processing procedure stored in the processing procedure storage unit 24 from a plurality of adjacent basic regions collected as the same region integration, and an image processing region depending on the case. Using the rules instructed by the instruction unit 18, the basic areas to be combined are selected, and the basic area numbers associated with the combined area numbers of the combined areas are combined as a combined area corresponding number table. Saved in the region feature storage unit 11.

前記結合領域特徴算出部10は、領域結合部9にて一つの結合領域に統合された基本領域が一つのまとまりとしての特徴を分割画像データ記憶部23に記憶されている分割画像データを基に算出する。   The combined region feature calculation unit 10 uses the divided image data stored in the divided image data storage unit 23 as a single unit of the basic regions integrated into one combined region by the region combining unit 9. calculate.

前記結合領域特徴記憶部11は、RAMまたは外部記憶装置等から構成され、結合領域特徴算出部10によって算出された特徴を当該結合領域の領域番号に対応付けてテーブル形式で記憶する。   The combined region feature storage unit 11 includes a RAM or an external storage device, and stores the features calculated by the combined region feature calculation unit 10 in a table format in association with the region number of the combined region.

前記部分領域分割部12は、基本領域特徴記憶部5に記憶されている基本領域特徴と統合領域特徴記憶部8に記憶されている統合領域特徴と結合領域特徴記憶部11に記憶されている結合領域特徴とから、処理手順記憶部24に記憶されている処理手順に決められたルールと、場合によっては画像処理領域指示部18によって指示されたルールも用いて各領域特徴を選び出し、選び出された各領域特徴を処理手順記憶部24によって予め決められた手法、または画像処理領域指示部18によって指示された手法に基づいて部分領域に分割し、部分領域とその基になった基本領域、統合領域及び結合領域との対応関係を部分領域対応番号表として部分領域特徴記憶部14に保存する。   The partial region dividing unit 12 includes a basic region feature stored in the basic region feature storage unit 5, an integrated region feature stored in the integrated region feature storage unit 8, and a combination stored in the combined region feature storage unit 11. Each region feature is selected from the region features using the rules determined by the processing procedure stored in the processing procedure storage unit 24 and, in some cases, the rules specified by the image processing region instruction unit 18. Each region feature is divided into partial regions based on a method determined in advance by the processing procedure storage unit 24 or a method instructed by the image processing region instruction unit 18, and the partial region and the basic region based on the partial region are integrated. The correspondence relationship between the region and the combined region is stored in the partial region feature storage unit 14 as a partial region correspondence number table.

前記部分領域特徴算出部13は、部分領域分割部12によって分割された部分領域の特徴を分割画像データ記憶部23に記憶されている分割画像データを基に算出する。   The partial region feature calculation unit 13 calculates the feature of the partial region divided by the partial region division unit 12 based on the divided image data stored in the divided image data storage unit 23.

前記部分領域特徴記憶部14は、RAMまたは外部記憶装置等から構成され、部分領域特徴算出部13によって算出された特徴を当該部分領域の領域番号に対応付けてテーブル形式で記憶する。   The partial area feature storage unit 14 includes a RAM, an external storage device, or the like, and stores the features calculated by the partial area feature calculation unit 13 in association with the area numbers of the partial areas in a table format.

前記表現部15は、基本領域特徴記憶部5に記憶されている基本領域特徴と統合領域特徴記憶部8に記憶されている統合領域特徴と結合領域特徴記憶部11に記憶されている結合領域特徴と部分領域特徴記憶部14に記憶されている部分領域特徴とから、処理手順記憶部24に記憶されている処理手順に決められた手法と、場合によっては画像処理領域指示部18によって指示された手法とに基づいて絵画風画像を構成する。   The expression unit 15 includes a basic region feature stored in the basic region feature storage unit 5, an integrated region feature stored in the integrated region feature storage unit 8, and a combined region feature stored in the combined region feature storage unit 11. And the method determined by the processing procedure stored in the processing procedure storage unit 24 and, in some cases, instructed by the image processing region instruction unit 18 from the partial region features stored in the partial region feature storage unit 14 A picture-like image is constructed based on the method.

前記特徴変更部16は、処理手順記憶部24に記憶されている処理手順に決められた手法と、場合によっては画像処理領域指示部18によって指示された手法とに基づいて、基本領域特徴記憶部5に記憶されている基本領域特徴と統合領域特徴記憶部8に記憶されている統合領域特徴と結合領域特徴記憶部11に記憶されている結合領域特徴と部分領域特徴記憶部14に記憶されている部分領域特徴とに選択的に変更を加える。   The feature changing unit 16 is based on a method determined by the processing procedure stored in the processing procedure storage unit 24 and, in some cases, a method instructed by the image processing region instruction unit 18. 5, the basic region features stored in 5, the integrated region features stored in the integrated region feature storage unit 8, and the combined region features stored in the combined region feature storage unit 11 and the partial region feature storage unit 14. Make selective changes to existing subregion features.

前記統合領域デザインマップ記憶部17は、領域統合部6が統合する際に算出した統合領域記号を統合領域番号と共にまとめた統合領域デザインマップを記憶しており、この統合領域デザインマップは画像処理領域指示部18に利用される。   The integrated region design map storage unit 17 stores an integrated region design map in which the integrated region symbols calculated when the region integrating unit 6 integrates together with the integrated region number, and the integrated region design map is an image processing region. Used for the instruction unit 18.

前記画像処理領域指示部18は、統合領域デザインマップ記憶部17に記憶されている統合領域デザインマップ内の統合領域記号を基に、領域結合部9、部分領域分割部12、表現部15、特徴変更部16の全て、または一部に、画像処理領域プリセット記憶部19に予め保存されている処理の指示プリセットから、またはキーボード等から構成されるデータ入力部20を介して入力されるオペレータの命令により、どの領域にどの処理を行うかを指示する。   The image processing area instruction section 18 is based on the integrated area symbol in the integrated area design map stored in the integrated area design map storage section 17, the area combining section 9, the partial area dividing section 12, the expressing section 15, and the features An operator command input to all or part of the changing unit 16 from a processing instruction preset stored in the image processing area preset storage unit 19 or via a data input unit 20 including a keyboard or the like. To instruct which area is to be processed.

前記画像処理領域プリセット記憶部19は、画像処理領域指示部18に利用される処理の指示プリセットが多数保存されている。   The image processing area preset storage unit 19 stores a large number of processing instruction presets used by the image processing area instruction unit 18.

前記データ入力部20は、画像処理領域指示部18にオペレータが命令を送るための入力装置であり、キーボードやマウスまたはペンタブレット、音声認識装置等から構成されている。   The data input unit 20 is an input device for an operator to send a command to the image processing area instruction unit 18, and includes a keyboard, a mouse or a pen tablet, a voice recognition device, and the like.

前記画像データ表示部21は、表現部15によって計算された加工画像を表示したり、統合領域デザインマップ記憶部17に記憶されている統合領域記号をオペレータに表示したりするCRTや液晶ディスプレー等によって構成されている。   The image data display unit 21 displays a processed image calculated by the expression unit 15 or displays an integrated area symbol stored in the integrated area design map storage unit 17 to an operator by a CRT or a liquid crystal display. It is configured.

前記画像データ出力部22は、紙等に出力するプリンターやCRTや液晶画面に表示するディスプレー等によって構成されており、表現部15によって計算された加工画像を表示したり、プリントしたりする。   The image data output unit 22 includes a printer that outputs to paper or the like, a display that displays on a CRT or a liquid crystal screen, and displays or prints the processed image calculated by the expression unit 15.

前記分割画像データ記憶部23は、RAMまたは外部記憶装置等から構成され、基本領域分割部3によって基本領域に割り振られた画素のリストを記憶している。   The divided image data storage unit 23 includes a RAM, an external storage device, or the like, and stores a list of pixels allocated to the basic region by the basic region dividing unit 3.

前記処理手順記憶部24は、RAMまたは外部記憶装置等から構成され、画像データ入力部1から入力された画像に対応した処理手順を保存しており、保存された処理手順は選択的に処理を行う各処理部(領域統合処理、領域結合処理、部分分割処理及び表現処理)で利用される。   The processing procedure storage unit 24 includes a RAM or an external storage device, and stores a processing procedure corresponding to the image input from the image data input unit 1, and the stored processing procedure is selectively processed. It is used in each processing unit (region integration processing, region combination processing, partial division processing, and expression processing).

本実施の形態では、各部は各手段の一例に相当するが、画像処理領域指示部18及び画像処理領域プリセット記憶部19については、領域結合部9、部分領域分割部12、表現部15及び特徴変更部16の一部に相当する。   In the present embodiment, each unit corresponds to an example of each unit, but the image processing region instruction unit 18 and the image processing region preset storage unit 19 include a region combining unit 9, a partial region dividing unit 12, an expressing unit 15, and features. This corresponds to a part of the changing unit 16.

次に、上記のように構成された画像加工装置による画像加工処理について説明する。図2は、図1に示す画像加工装置による画像加工処理を説明するためのフローチャートである。先ず、ステップS1において、画像データ入力部1から画像データ及び処理手順が取得される。取得された画像データは基本領域分割部3に送られると共に、処理手順は処理手順記憶部24に保存される。   Next, an image processing process performed by the image processing apparatus configured as described above will be described. FIG. 2 is a flowchart for explaining the image processing by the image processing apparatus shown in FIG. First, in step S1, image data and a processing procedure are acquired from the image data input unit 1. The acquired image data is sent to the basic area dividing unit 3 and the processing procedure is stored in the processing procedure storage unit 24.

次に、ステップS2において、処理手順記憶部24に保存されている処理手順に従い、基本領域の分割が行われる。ここでの分割が最終的な絵画を作り出す筆触の基本になるため、原画像が持つ特徴に合わせて適応的に例えばk−平均アルゴリズムの初期値を変化させることが好ましい。例えば、原画像の空間的な色変化が激しい場合はエッジとみなされる特徴が多くなるため、既知のエッジ抽出演算子を用いてエッジを検出し、このエッジの特徴の多少に合わせて、領域数の初期値を変化させる等の手法である。   Next, in step S <b> 2, the basic area is divided in accordance with the processing procedure stored in the processing procedure storage unit 24. Since the division here becomes the basis of the brushstroke that creates the final painting, it is preferable to adaptively change, for example, the initial value of the k-average algorithm in accordance with the characteristics of the original image. For example, when the spatial color change of the original image is severe, there are many features that are regarded as edges, so edges are detected using a known edge extraction operator, and the number of regions is adjusted according to the number of features of the edges. This is a method of changing the initial value of.

k−平均アルゴリズムを用いた領域分割のイメージを図3に示す。ここでは理解を容易にするために極めて模式的な説明で進める。先ず取り込んだ画像データ100Aを例えば3×3の領域に等分に分割する。そしてそのうちの一つの領域100について領域分割を行う。これは例えば適当に9分割し(この例では、画像データ100Aの分割数と偶然同じ数になっている)、分割された9つの領域に含まれる画素の平均色、重心を計算しそれをそれぞれの領域中心として定義する。図3(a)の例では、便宜上一列、3行に各重心を配列して示されている。そして領域100内の全ての画素が前記9個の領域中心のいずれに近いかを計算する。ここでいう「近い」とは、色及び位置が近いということである。より具体的には、各画素のR(赤色)、G(緑色)、B(青色)の色の強さを夫々便宜上R、G、BとしかつXY座標における座標をX,Yとし、同様に前記領域中心の一つ例えば図3(b)に示した領域中心M11についても同様に色の強さをr、g、bとしかつ重心のXY座標における座標をx,yとし、(1)式の計算を行う。
{(R−r)+(G−g)+(B−b)+(X−x)+(Y−y)1/2 ………(1)
即ち領域100に含まれる全ての画素について、前記9個の領域中心(図3の9個のプロット)に対して(1)式の計算を行うことになる。そうするとある画素に着目した場合、当該画素についての計算結果が9個得られることになる。この中で最小の値が得られる領域中心の領域に当該画素が含まれることになる。これは領域中心M11と他の領域中心とのいずれに対しても色の強さが同じであれば、つまり(1)式の前半3項の値が同じであれば、距離的に近い設定画素の方と仲間になるということである。このような計算を繰り返すことにより全画素が前記9個の領域中心のどの画素とグループ化されるのかが決定される。図3(b)はこの様子を示したものである。
An image of region division using the k-average algorithm is shown in FIG. Here, in order to facilitate understanding, a very schematic explanation will be given. First, the captured image data 100A is divided equally into, for example, 3 × 3 areas. Then, area division is performed for one of the areas 100. This is, for example, appropriately divided into nine (in this example, it is the same number as the number of divisions of the image data 100A), and the average colors and centroids of the pixels included in the nine divided areas are calculated and respectively Defined as the center of the region. In the example of FIG. 3A, the respective centroids are shown arranged in one column and three rows for convenience. Then, it is calculated which of the nine area centers is close to all the pixels in the area 100. Here, “close” means that the color and position are close. More specifically, the R (red), G (green), and B (blue) color intensities of each pixel are set to R, G, and B for convenience and the coordinates in the XY coordinates are set to X and Y, respectively. Similarly, for one of the region centers, for example, the region center M11 shown in FIG. 3B, the color intensity is set to r, g, and b, and the coordinates of the center of gravity in the XY coordinates are set to x and y. Perform the calculation.
{(R−r) 2 + (G−g) 2 + (B−b) 2 + (X−x) 2 + (Y−y) 2 } 1/2 (1)
That is, with respect to all the pixels included in the region 100, the calculation of the expression (1) is performed with respect to the nine region centers (9 plots in FIG. 3). Then, when attention is paid to a certain pixel, nine calculation results for the pixel are obtained. Among these, the pixel is included in the central region where the minimum value is obtained. If the intensity of the color is the same for both the area center M11 and the other area centers, that is, if the values in the first three terms of equation (1) are the same, the set pixels that are close in distance. It means to become friends with. By repeating such calculation, it is determined to which pixel at the center of the nine regions all pixels are grouped. FIG. 3B shows this state.

ところで9個の領域中心は適当に決めたものであるから、更に次の処理を行う。図3(b)のようにグループ化された領域の各々についてX,Y座標における重心を求め、その重心の画素を新たな領域中心とする。図3(c)の●は旧領域中心、○は新たな領域中心である。そして領域100内の全画素についてこれら新たな9個の領域中心に対して既述と全く同じ処理(図3(a)〜(c)の処理)を行い、得られたグループについて同様に重心を求め、更なる新たな9個の領域中心を求める。このような処理を繰り返していくと、9個の領域中心の位置が収束する。そのときの9個のグループの各々が基本領域ということになる。そして領域100以外の他の8個の領域についても同様にしてグループ化し、基本領域を得る。なお画像データ100Aは縦横に分割しなくてもよいが、処理の時間を短縮する上では分割して処理した方が得策である。   By the way, since the nine area centers are appropriately determined, the following processing is further performed. For each of the grouped regions as shown in FIG. 3B, the center of gravity in the X and Y coordinates is obtained, and the pixel at the center of gravity is set as the new region center. In FIG. 3C, ● represents the center of the old area, and ○ represents the center of the new area. Then, all the pixels in the region 100 are subjected to exactly the same processing as described above (the processing shown in FIGS. 3A to 3C) with respect to the new nine region centers, and the center of gravity is similarly obtained for the obtained group. Find 9 new center areas. When such processing is repeated, the positions of the nine area centers converge. Each of the nine groups at that time is a basic area. The other eight regions other than the region 100 are also grouped in the same manner to obtain a basic region. Note that the image data 100A does not have to be divided vertically and horizontally, but it is better to divide and process the image data in order to reduce the processing time.

この領域分割処理が終了すると、全ての画素は基本領域に属していることになるので、その対応関係を記述した分割画像データを分割画像データ記憶部23に記憶しておく。この分割画像データとは、イメージとしては画像データが基本領域に分割された状態を示し、画像領域に分割の境界線が記載されたものであり、
データとしては、基本領域の番号と当該基本領域に含まれる画素のX,Y座標位置とを対応づけたものである。
When this region division processing is completed, all the pixels belong to the basic region, and therefore, the divided image data describing the corresponding relationship is stored in the divided image data storage unit 23. This divided image data indicates a state in which the image data is divided into basic areas as an image, and a boundary line of the division is described in the image area.
As the data, the number of the basic area is associated with the X and Y coordinate positions of the pixels included in the basic area.

次のステップS3では、分割画像データ記憶部23に記憶されている分割画像データを基に、基本領域特徴算出部4により基本領域の特徴を計算する。前記ステップS2でk−平均アルゴリズムを利用した場合には、分割処理が終了した時点で、基本領域の重心値、平均色、基本領域に含まれる画素数は既に計算されているが、そうでない場合は、これらも基本領域の特徴と一緒に計算する。また、これらの値に加え、特開平10−11569号広報に開示されてる技術と同様の手法で領域nの方向要素Dn、扁平要素Tnなどを計算し、その結果を基本領域特徴記憶部5に保存する。   In the next step S <b> 3, the basic region feature calculation unit 4 calculates the basic region features based on the divided image data stored in the divided image data storage unit 23. When the k-average algorithm is used in step S2, the barycentric value of the basic area, the average color, and the number of pixels included in the basic area have already been calculated at the time when the division process is completed. These also calculate along with the features of the basic region. In addition to these values, the directional element Dn, the flat element Tn, etc. of the area n are calculated by the same method as the technique disclosed in Japanese Patent Application Laid-Open No. 10-11569, and the result is stored in the basic area feature storage unit 5. save.

ここで方向要素Dnとは、図4に示すように基本領域300の伸びている方向を表す。
より具体的には、基本領域300を楕円と見立ててその長軸の伸びている方向を示し、例えば画像データのX軸に平行な向きを0度とし、0度から180度までを所定の数に等分割し、方向要素Dnとして割り当てることができる。またこの方向要素Dnは、分散が最大になるときの両端の画素を求めそれらの画素を結ぶ直線201の方向として決めることもできる。更に扁平要素Tnとは、分散が最小になるときの両端の画素を求め、それらの画素を結ぶ直線202の長さを先の直線の長さで割り算した値として決めることができる。
Here, the direction element Dn represents the direction in which the basic region 300 extends as shown in FIG.
More specifically, the basic region 300 is regarded as an ellipse and indicates the direction in which the long axis extends. For example, the direction parallel to the X axis of the image data is 0 degree, and a predetermined number from 0 degree to 180 degrees Can be equally divided and assigned as the direction element Dn. The direction element Dn can also be determined as the direction of the straight line 201 connecting the pixels by obtaining the pixels at both ends when the variance is maximum. Further, the flat element Tn can be determined as a value obtained by obtaining pixels at both ends when the variance is minimum and dividing the length of the straight line 202 connecting these pixels by the length of the previous straight line.

図5は基本領域の番号と、当該基本領域の特徴とを対応づけたデーブルを示しており、各基本領域毎に、赤色、緑色、青色の各色の強さの平均値と、重心位置と、方向要素と、扁平要素と、画素数と、が記載されている。   FIG. 5 shows a table in which the number of the basic region is associated with the feature of the basic region. For each basic region, the average value of the intensity of each color of red, green, and blue, the position of the center of gravity, A direction element, a flat element, and the number of pixels are described.

次のステップS4において、処理領域手順記憶部24に保存されている処理手順の指示に従い基本領域特徴の値を基に領域統合処理を行う。処理手順の指示には、定数C、C、C、C、C、C、C、C、C、C10が記述されており、これらの値を用いて領域統合部6の処理が行われる。領域統合部6の処理の詳細をフローチャートにより説明するが、その前に理解を容易にするために図6から図8を参照しながら処理の概要について説明しておく。 In the next step S4, region integration processing is performed based on the values of the basic region features in accordance with the processing procedure instructions stored in the processing region procedure storage unit 24. In the instruction of the processing procedure, constants C 1 , C 2 , C 3 , C 4 , C 5 , C 6 , C 7 , C 8 , C 9 , and C 10 are described. Processing of the integration unit 6 is performed. Details of the processing of the region integration unit 6 will be described with reference to a flowchart. Before that, an overview of the processing will be described with reference to FIGS. 6 to 8 for easy understanding.

この統合処理で行おうとしていることは、既述のようにして求められた基本領域をグループ化することにある。このグループ化は、基本領域の特徴が似通っており、且つ隣接しているもの同士をまとめることにより行われるが、この実施の形態では、似通っている基本領域同士を一旦グループ化して仮統合領域なるものを形成し、この仮統合領域を検証して正式な統合領域としている。グループ化をするにあたり、基本領域同士が似通っているか否かの判断は、基本領域の特徴の差が閾値よりも低いか否かを判断することにより行われる。基本領域の特徴の差とは、例えば色の強さの差であり、ある基本領域のR、G、Bの強さをR、G、Bとし、隣接する基本領域の色の強さをr、g、bとすると、これら色の強さの差(特徴の差D)とは、(2)式で表される。
D={(R−r)+(G−g)+(B−b)1/2 ………(2)
あるいは色の強さと既述の方向要素とを加えたものを特徴として取り上げるときには、一方の基本領域の方向要素及び他方の基本領域の方向要素を夫々Dn及びdnとすると、特徴の差Dは(3)式で表される。
D={(R−r)+(G−g)+(B−b)+(Dn−dn)1/2 ………(3)
また特徴の差としては、更に既述の扁平要素を加えるようにしてもよく、どれを特徴の差とするかは適宜決定することができる。仮統合領域の決定の様子を図6及び図7を参照しながら極めて模式的に説明する。所定の順序で各基本領域に注目する。今基本領域1番に注目したとすると、この基本領域1番の周囲の基本領域に対して順番に特徴の差を求め、その特徴の差Dが閾値C6よりも小さければこれら基本領域同士をグループ化する。「周囲の基本領域に対して順番に特徴の差を求める」とは、基本領域1番に近い基本領域のうち例えば重心同士が近いものの上位9番目(この「9番目」は実際の装置において適用される一例である)までを拾い上げて比較するという意味である。この例では、基本領域1番に対して特徴の差が閾値C6よりも小さい基本領域が3番、9番であったとすると、図7に示すように1番、3番、9番の基本領域がグループ化される。同様にして基本領域2番に注目すると、5番、7番、10番であり、これらがグループ化される。そして基本領域3番と6番とがグループ化されたとすると、1番、3番、6番、9番がグループ化される。以下同様にして、基本領域の仲間同士が連鎖してグループ化され、統合される。こうして統合された領域が仮統合領域であり、図8(a)に示される。
What is going to be done in this integration process is to group the basic areas obtained as described above. This grouping is performed by grouping adjacent features that are similar in basic region, but in this embodiment, similar basic regions are once grouped into temporary integrated regions. The temporary integration area is verified and made into a formal integration area. In grouping, whether or not the basic regions are similar is determined by determining whether or not the difference in features of the basic regions is lower than a threshold value. The difference in the characteristics of the basic area is, for example, a difference in color intensity. The intensity of R, G, B in a certain basic area is R, G, B, and the intensity of color in an adjacent basic area is r. , G, and b, the difference in intensity between these colors (characteristic difference D) is expressed by equation (2).
D = {(R−r) 2 + (G−g) 2 + (B−b) 2 } 1/2 (2)
Alternatively, when taking the addition of the color strength and the above-described direction element as a feature, if the direction element of one basic region and the direction element of the other basic region are Dn and dn, respectively, the difference D of the feature is ( 3) It is expressed by the formula.
D = {(R−r) 2 + (G−g) 2 + (B−b) 2 + (Dn−dn) 2 } 1/2 (3)
Further, as the feature difference, the above-described flat elements may be further added, and it is possible to appropriately determine which one is to be the feature difference. The manner of determining the temporary integration area will be described very schematically with reference to FIGS. Pay attention to each basic region in a predetermined order. If attention is paid to the basic area No. 1, the difference between the features is obtained in order with respect to the basic areas around the basic area No. 1, and if the difference D of the features is smaller than the threshold C6, these basic areas are grouped. Turn into. “Determining feature differences in order with respect to surrounding basic areas” means that the basic area closest to the basic area No. 1 is the top ninth of the basic areas close to each other (this “9th” is applied in an actual device) It is an example that is picked up and compared. In this example, if the basic areas whose feature differences are smaller than the threshold C6 with respect to the basic area 1 are the third and ninth basic areas, the basic areas of the first, third, and ninth as shown in FIG. Are grouped. Similarly, paying attention to the basic area No. 2, they are No. 5, No. 7, and No. 10, which are grouped. If the basic areas 3 and 6 are grouped, the first, third, sixth and ninth are grouped. In the same manner, friends in the basic area are grouped together and integrated. The area integrated in this way is a temporary integration area, and is shown in FIG.

この仮統合領域をそのまま統合領域としてもよいが、よりきめこまかな処理を後で行うことができる利点を得るために、この仮統合領域を検証する。今、全ての基本領域について仮統合領域としてまとめる処理(グループ化のチェック)が行われたとすると、全ての基本領域がいずれかの仮統合領域に属するとは限らないが、基本領域一つの領域も仮統合領域と考えることにする。   This temporary integration area may be used as the integration area as it is, but this temporary integration area is verified in order to obtain an advantage that more detailed processing can be performed later. Assuming that processing (grouping check) is performed for all the basic areas as a temporary integration area, not all the basic areas belong to one of the temporary integration areas. We will consider it as a temporary integration area.

こうして1回目のグループ化のチェックが行われた後、再度全ての基本領域について同様の処理を行う。つまり2回目のグループ化のチェックを行う。ただしこのときの閾値C6の値は、1回目の閾値よりも高くする。高くした閾値よりも特徴の差が小さいときにグループ化されるということは、つまりグループ化する条件を緩めることである。このようにしてグループ化すると、1回目にグループ化されたもの同士は離れることはなく、新たな基本領域が仲間に加わることになる。図8(b)は2度目の仮統合処理の途中経過を示している。ここで基本領域5が仮統合領域の1と2に含まれているので、仮統合領域の1と2は番号の小さな1の方に統合され2はなくなる。図8(c)は2度目の仮統合処理結果を示している。そして各仮統合領域に含まれる基本領域の数が1回目に比べてどれだけ増えたかをチェックする。例えば図8において仮統合領域番号1番の基本領域の数は1回目は4個、2回目は10個であり、増加率は15割になる。この基本領域の数の増加率が所定値以下であれば、例えば1割以下であれば、その仮統合領域を、正式に統合領域とする。これは、ある条件で仲間を集め、少し条件を緩めて仲間を集めてみてもそれほど仲間の数が変わらないということは、周囲に比べて特徴の度合いの強いグループであると判断しているのである。なおより詳しくは、後のフローチャートに示しておくが、仮統合領域内の基本領域の数が所定値以上であることも条件に加えている。正式な統合領域になった基本領域群は、それ以降のグループ化処理からは外れる。   After the first grouping check is thus performed, the same processing is performed again for all the basic areas. That is, the second grouping check is performed. However, the value of the threshold C6 at this time is set higher than the first threshold. Grouping when the feature difference is smaller than the raised threshold means that the grouping condition is relaxed. When grouped in this way, the first grouped items do not leave each other, and a new basic area is added to the group. FIG. 8B shows the progress of the second temporary integration process. Here, since the basic area 5 is included in the temporary integration areas 1 and 2, the temporary integration areas 1 and 2 are integrated into the smaller number 1 and 2 is lost. FIG. 8C shows the second temporary integration processing result. Then, it is checked how much the number of basic areas included in each temporary integration area has increased from the first time. For example, in FIG. 8, the number of basic areas with the temporary integrated area number 1 is 4 for the first time and 10 for the second time, and the increase rate is 15%. If the rate of increase in the number of basic areas is less than or equal to a predetermined value, for example, if it is 10% or less, the temporary integrated area is formally designated as an integrated area. This is because it is judged that it is a group with a strong degree of characteristics compared to the surroundings, because it gathers friends under a certain condition, and the number of friends does not change so much even if you loose the condition a little and gather friends. is there. In more detail, as shown in a later flowchart, it is added to the condition that the number of basic areas in the temporary integration area is not less than a predetermined value. The basic area group that has become a formal integrated area is excluded from the subsequent grouping process.

このようなグループ化処理を所定回数、例えば7回行うとすると、どの段階で正式な統合領域に格上げされたかを記録しておく。例えば仮統合領域番号j番は、2回目のグループ化処理で正式な統合領域になったとすると、2段階目の仮統合領域ということになり、以下の説明ではこれを2thの均一統合領域と呼ぶ場合もある。最終的には2thの均一統合領域、3thの均一統合領域………7thの均一統合領域が形成される。早く統合されて均一統合領域になるものほど、周囲に対する特徴の度合いの強いグループということがいえる。後述するが、このように統合領域に優先順位をつけておいて管理すると、きめ細かな筆触を表すことができる。   If such a grouping process is performed a predetermined number of times, for example, 7 times, it is recorded at which stage it has been upgraded to a formal integrated area. For example, if the temporary integration area number j becomes a formal integration area in the second grouping process, it is a second-stage temporary integration area, and in the following description, this is called a 2th uniform integration area. In some cases. Eventually, a 2th uniform integrated region, a 3th uniform integrated region,..., A 7th uniform integrated region are formed. It can be said that the group that has been integrated quickly and becomes a uniform integrated region is a group with a strong degree of feature to the surroundings. As will be described later, when the integrated areas are prioritized and managed in this way, fine brushstrokes can be expressed.

ここでこの例では均一統合領域の他に対比統合領域というものも扱っている。i回目例えば2回目のグループ化処理を終えて、仮統合領域について正式な均一統合領域にするか否かをチェックし、「否」であると判定された場合には、その仮統合領域が周囲に対して対比の強い領域か否かを所定条件の下で判定し、対比が強いと判断されれば対比統合領域として管理され、以降のグループ化処理から外れることになる。この場合もどの段階で対比統合処理になったかが記録され、2thの対比統合領域、3thの対比統合領域………7thの対比統合領域が形成されることになる。   In this example, in addition to the uniform integrated region, a contrast integrated region is also handled. After completing the i-th grouping process, for example, the second grouping process, it is checked whether or not the temporary integrated area is a formal uniform integrated area. If it is determined as “No”, the temporary integrated area It is determined whether or not it is a region having a strong contrast, and if it is determined that the contrast is strong, it is managed as a contrast integrated region and deviates from the subsequent grouping process. Also in this case, the stage at which the comparison integration process is performed is recorded, and the 2th comparison integration area, the 3th comparison integration area,..., The 7th comparison integration area is formed.

以上の模式的な説明を踏まえた上で図9と図10に示したフローチャートで統合処理の具体的なステップについて説明する。   Based on the schematic description above, specific steps of the integration process will be described with reference to the flowcharts shown in FIGS.

先ず、領域統合部6の処理繰り返し回数i=0とし、図9に示したステップS101において、処理回数iを増やす。   First, the processing integration count i of the region integration unit 6 is set to i = 0, and the processing count i is increased in step S101 shown in FIG.

次にステップS102で予め決められている繰り返し終了回数C、例えばC=10より大きいかどうかを判断し、もし大きければ、その時点で処理を終了する。もし小さければ、処理をS103に移行する。 Next, in step S102, it is determined whether or not the number of repetition end times C 1 determined in advance, for example, C 1 = 10 is greater, and if so, the process ends at that point. If it is smaller, the process proceeds to S103.

ステップS103では仮統合領域の決定を行う。この仮統合領域の決定プロセスは、後程図10のフローチャートで説明する。i回目の仮統合領域が決定したら、通し番号jの順番に全ての仮統合領域を次のステップの条件を満たしているかどうかを調べる。初期値としてj=1を入れる(S104)。   In step S103, a temporary integration area is determined. The process of determining the temporary integration area will be described later with reference to the flowchart of FIG. When the i-th temporary integration area is determined, it is checked whether all temporary integration areas satisfy the conditions of the next step in the order of serial number j. J = 1 is set as an initial value (S104).

ステップS105において、以下の条件を満たしているかどうかを調べる。   In step S105, it is checked whether the following conditions are satisfied.

i,j≧G/(U×i+1)、且つ(Ni,j−Ni−1,j)/Ni−1,j<C
ここで、Ni,jはi回目に求められたj番目の仮統合領域に含まれる基本料域の数であり、Gには基本領域の総数を用い、Uは処理手順に記述されている値であり、例えば120が用いられる。この条件により、ある規定の数より大きな基本領域が仮統合領域に集まっているかどうかを判断している。
N i, j ≧ G / (U × i + 1) and (N i, j −N i−1, j ) / N i−1, j <C 2
Here, N i, j is the number of basic fee areas included in the j-th temporary integration area obtained for the i-th time, G uses the total number of basic areas, and U is described in the processing procedure. For example, 120 is used. Based on this condition, it is determined whether or not basic areas larger than a predetermined number are gathered in the temporary integration area.

また、もう一つの式によって、i−1回目に対応する仮統合領域に含まれる基本領域数がi回目の仮統合処理で大きく変化していないかどうかを調べている。ここで、Cも処理手順に記述されている値であり、例えば1.2を用いる。仮統合領域は先の模式的な説明において記述したように、i回目の仮統合処理で用いる閾値C6iをi−1回目の統合で用いる閾値C6i−1より大きくすることで、i回目の仮統合処理でつくられる仮統合領域に含まれる基本領域の数を増やしているが、この場合、この増加が1.2倍以下であることを調べている。 Further, another formula is used to check whether or not the number of basic areas included in the temporary integration area corresponding to the (i-1) th time is largely changed in the i-th temporary integration process. Here, C 2 also is a value described in the procedure, for example, a 1.2. As described in the schematic description above, the temporary integration region is set to the i-th time by making the threshold C 6i used in the i-th temporary integration processing larger than the threshold C 6i-1 used in the i- 1th integration. The number of basic areas included in the temporary integration area created by the temporary integration process is increased. In this case, it is examined that this increase is 1.2 times or less.

このように上の2つの条件を満たしている場合はステップS107に移り、仮統合領域から正式に均一統合領域として決定され、その基本領域を統合対象から除外する。つまり、基本領域のグループ化処理の回数を1回増やしたときに、あるグループに含まれる基本領域の数の増加率が設定値以上であり、そのグループ内の基本領域の数が設定値以上であったときに、そのグループを正式な統合領域とするのである。   When the above two conditions are satisfied, the process proceeds to step S107, where the temporary integrated area is officially determined as the uniform integrated area, and the basic area is excluded from the integration targets. That is, when the number of times of grouping basic areas is increased by 1, the rate of increase in the number of basic areas included in a group is greater than or equal to the set value, and the number of basic areas in the group is greater than or equal to the set value. When that happens, make the group a formal integration area.

次に、ステップS108に移り、決定した均一統合領域に、i-th均一統合領域と名付け、それを統合領域記号として統合領域デザインマップに通しの統合領域番号と共に保存し、さらに決定した均一統合領域とそこに属した基本領域の番号の対応表を統合領域特徴記憶部8に保存する。   Next, the process proceeds to step S108, where the determined uniform integrated region is named i-th uniform integrated region, which is stored as an integrated region symbol together with the integrated region number through the integrated region design map, and further determined uniform integrated region. And the correspondence table of the numbers of the basic areas belonging thereto are stored in the integrated area feature storage unit 8.

ステップS105に戻り、先の2つの条件が満たされなかった場合は、ステップS106に移行する。ステップS106では、Ni,j≧C、Ni,j≦C、Ai,j>Cの3つの条件を全て満たしているかどうかを調べることで、統合領域の対比の強さを判断している。ここでAi,jは、次のようにして決められた値である。図11に示すように例えば注目した統合領域jに含まれその境界300に接した基本領域をkとし、当該統合領域jの境界300に接しかつ注目した統合領域jに含まれていない基本領域の中で基本領域kに最も近い基本領域をk`とする。そして基本領域kの明度と基本領域をk`の明度との差をとり、この差をAi,j,kとした場合、注目した統合領域jに含まれかつそのその境界300に接した全ての基本領域kについて同様の処理を行って得られたAi,j,kの平均を取った値がAi,j である。 Returning to step S105, if the above two conditions are not satisfied, the process proceeds to step S106. In step S106, by checking whether all three conditions of N i, j ≧ C 3 , N i, j ≦ C 4 , and A i, j > C 5 are satisfied, the contrast strength of the integrated region is increased. Deciding. Here, A i, j is a value determined as follows. As shown in FIG. 11, for example, a basic region that is included in the focused integrated region j and touches the boundary 300 is k, and a basic region that touches the boundary 300 of the integrated region j and is not included in the focused integrated region j. The basic area closest to the basic area k is k `. Then, if the difference between the brightness of the basic region k and the lightness of the basic region is k こ の, and this difference is A i, j, k , all included in the focused integrated region j and in contact with the boundary 300 A i, j is an average value of A i, j , k obtained by performing the same processing on the basic region k.

については、例えば原画像の明るさのレンジをLとし、基準閾値をB=L/80とした場合、Cは基準閾値Bの6倍の値を用いることができる。なお基準閾値とは、Cなどの値を決めるためにコンピュータが持っている単位値である。ただし、Cは基準閾値Bの6倍に限らず、1倍から20倍の中の任意の値を利用することができる。また、C=2及びC=5を用いることで、対比が強く、面積が小さい統合領域を選び出している。
また、周りとの明るさの対比が同じでも、iが小さい値の時は統合領域内の基本領域の明るさのバラツキが少ないため、より強い対比を感じることができる。また、このステップにおいて、Ai,jには明るさの対比のみを扱ったが、明るさの対比に代えてあるいは明るさの対比に加えて色度、彩度を考慮した式を採用することもできる。この3条件全てが満たされた場合は、ステップS109に処理に移行し、満たされなかった場合はステップS111に移り、jの値を一つ増やしてステップ112に処理を移す。
The C 5, for example, the brightness range of the original image is L, if the reference threshold was B = L / 80, C 5 can be used six times the value of the reference threshold B. Note that the reference threshold is a unit value computer has to determine values such as C 5. However, C 5 is not limited to six times the reference threshold B, it is possible to use any value within the 20-fold from 1 times. Further, by using C 3 = 2 and C 4 = 5, an integrated region having a strong contrast and a small area is selected.
Even if the brightness contrast with the surroundings is the same, when i is a small value, there is little variation in the brightness of the basic area in the integrated area, so that a stronger contrast can be felt. In this step, Ai, j only deals with brightness contrast, but instead of brightness contrast or in addition to brightness contrast, formulas that consider chromaticity and saturation should be adopted. You can also. If all three conditions are satisfied, the process proceeds to step S109. If not satisfied, the process proceeds to step S111. The value of j is incremented by one, and the process proceeds to step 112.

ステップS109に処理が移った場合は、仮統合領域を正式に対比統合領域として決定し、統合対象から除外する。そして、次のステップS110において、i-th対比統合領域として統合領域デザインマップに記録した後、ステップS111に移り、jの値を一つ増やしてステップS112に処理を移す。   When the process moves to step S109, the temporary integration area is formally determined as the comparison integration area and excluded from the integration target. In the next step S110, the i-th contrast integrated region is recorded in the integrated region design map, and then the process proceeds to step S111, the value of j is incremented by one, and the process proceeds to step S112.

ステップS112においてjの値をi番目の処理の仮統合領域総数と比較し、同じであれば、この段階での仮統合領域について、正式な統合領域への移行処理を終えているので、ステップS101に移行し、異なる場合は正式な統合領域への移行処理が残っているので、ステップS104に移行する。   In step S112, the value of j is compared with the total number of temporary integration areas of the i-th process. If the values are the same, the transition process to the formal integration area has been completed for the temporary integration area at this stage. If there is a difference, the process of transition to the formal integration area remains, so the process proceeds to step S104.

次に、ステップS103の仮統合領域の決定方法について図10に示したフローチャートを用いて説明する。なおこのフローは、図8(a)〜(c)と対応している。ここでは、i回目の仮統合領域の決定フローであると仮定する。ステップS201において、仮統合領域番号jに対し、先ず初めに、それに含まれる初めの一つとなる基本領域j’を決め、基本領域j’を仮統合領域番号jのリストに入れる。   Next, the method for determining the temporary integration area in step S103 will be described using the flowchart shown in FIG. This flow corresponds to FIGS. 8A to 8C. Here, it is assumed that the determination flow is for the i-th temporary integration region. In step S201, for the temporary integration area number j, first, the first basic area j 'included in the temporary integration area number j is determined, and the basic area j' is entered into the list of temporary integration area numbers j.

続いてステップS202において、注目した基本領域j’とその周囲の基本領域j’’との特徴の差Dj’’を計算する。次にステップS203では、Dj’’<C6iをチェックし、この条件を満たしていたらステップS205に処理を移し、その基本領域j’’を仮統合領域jのリストに加える。ここで、C6iの値はC6i=i×B/C1とし、Bは先に示した基準閾値Bである。そのため、C6iの値は回数iが増えるたびに大きくなっていくので、統合回数が増えるたびに色差の大きな基本領域同士も統合され易くなっていく。 Subsequently, in step S202, a feature difference Dj ″ between the noticed basic region j ′ and the surrounding basic region j ″ is calculated. In step S203, Dj ″ <C 6i is checked. If this condition is satisfied, the process proceeds to step S205, and the basic area j ″ is added to the list of temporary integration areas j. Here, the value of C 6i is a C 6i = i × B / C1 , B is a reference threshold B shown above. For this reason, since the value of C 6i increases as the number of times i increases, basic regions having large color differences are also easily integrated each time the number of integrations increases.

上述のDj’’<C6iの条件を満たしていなかったら、ステップS204を飛ばしてステップS205に移行する。そして、ステップS205で、注目した基本領域j’の周囲に計算していない基本領域j’’が有るかどうかをチェックし、もし有ればステップS202に処理を移し、無ければ処理S206に処理を移す。 If the condition of Dj ″ <C 6i is not satisfied, step S204 is skipped and the process proceeds to step S205. In step S205, it is checked whether or not there is an uncalculated basic region j ″ around the noted basic region j ′. If there is, the process proceeds to step S202, and if not, the process proceeds to process S206. Transfer.

ステップS206では、仮統合領域リストj内に注目していない基本領域j’が有るかどうかを調べ、もし有れば、ステップS202へ移行し、無ければステップS207へ移行する。ステップS207では、全ての基本領域が仮統合領域に属しているかを調べ、属していたら仮統合領域処理を終了して、図3のステップS103に戻る。まだ属していないものが有れば、仮統合領域番号jを一つ増やして、ステップS201へ戻る。これが図4に示した仮統合領域を決定する処理の流れであり、図3及び図4の処理を繰り返すことで、統合領域が決定される。   In step S206, it is checked whether or not there is a basic area j 'that is not focused in the temporary integrated area list j. If there is, the process proceeds to step S202, and if not, the process proceeds to step S207. In step S207, it is checked whether all the basic areas belong to the temporary integrated area. If they belong, the temporary integrated area processing is terminated, and the process returns to step S103 in FIG. If there is something that does not yet belong, the temporary integrated area number j is incremented by one, and the process returns to step S201. This is the flow of the process for determining the temporary integration area shown in FIG. 4, and the integration area is determined by repeating the processes of FIGS. 3 and 4.

この統合処理の特徴として、仮統合領域に含まれる基本領域の数が閾値を変えて仮統合し直しても変わらなかった場合あるいはあまり変わらなかった場合に正式に統合領域と決定することで、例えば風景画において、空などのグラデーションの途中のような場所で統合領域が途切れてしまうことが避けられるという効果がある。なお仮統合領域に含まれる基本領域の数の変化の程度の把握については、その数の増加率について予め設定値を持っておけばよく、その設定値が1であれば、仮統合し直しても変わらなかった場合に相当し、また設定値が1に近い値であれば、あまり変わらなかった場合ということになる。これに対して1回目の仮統合領域を均一統合領域として扱うと、統合領域に優先順位がつけられないので、表現の自由度が狭まり、例えば連続して色が変わる領域について不連続な色の配置となり、不自然な表現になる場合もあるが、本発明はこのような場合も含まれる。   As a feature of this integration process, if the number of basic areas included in the temporary integration area does not change even if the temporary integration is changed again by changing the threshold, or if it does not change much, it is officially determined as the integration area, for example, In the landscape image, there is an effect that it is possible to prevent the integrated region from being interrupted at a place in the middle of gradation such as the sky. In order to grasp the degree of change in the number of basic areas included in the temporary integration area, it is only necessary to have a preset value for the rate of increase in the number. If the setting value is 1, provisional integration is performed again. Corresponds to the case where the value does not change, and if the set value is close to 1, it means that the value has not changed much. On the other hand, if the first temporary integration area is treated as a uniform integration area, priority cannot be given to the integration areas, so the degree of freedom of expression is narrowed. The arrangement may be unnatural, and the present invention includes such a case.

統合処理は、図2のステップS4で終わったことになるが、この時点で、統合領域番号と基本領域との対応関係(どの統合領域番号の統合領域にどの基本領域が含まれるかということ)が統合領域特徴記憶部8に記憶されているだけではなく、各統合領域がi度目の統合処理で統合され、それが均一統合領域もしくは対比統合領域として統合領域デザインマップに書き込まれていることになる。   The integration process ends in step S4 in FIG. 2. At this point, the correspondence between the integrated area number and the basic area (which basic area is included in the integrated area of which integrated area number). Is stored in the integrated region feature storage unit 8, and each integrated region is integrated by the i-th integration process and is written in the integrated region design map as a uniform integrated region or a contrast integrated region. Become.

また、この統合処理を行う際に、基本領域特徴nの一つである扁平要素TnがTn>Cを満たしている場合は、その基本領域を統合処理から外し、その基本領域をエッジ統合領域と名付け統合領域デザインマップの統合領域記号に「エッジ」と書き込んでも良い。
さらに、繰り返し処理が終了した後にどの統合領域にも含まれなかった基本領域については独立統合領域と名付け統合領域デザインマップにそれを統合領域記号として書き込んでも良い。このようにすることで、統合されていない一つの基本領域からなるエッジ統合領域と独立統合領域とを夫々加えることで、全ての基本領域が統合領域の統合領域記号として統合領域デザインマップに書き込まれることになる。ここで例えばCは0.95を用いることができる。エッジ統合領域と独立統合領域は、画像の中で重要な表現を担うことが多く、例えば人の顔と背景との輪郭線などに相当するものであるから、これを抽出しておくことにより輪郭のぼけなどを回避することができる。
Further, when performing this integration process, if the flat element Tn is one of the basic region feature n meets Tn> C 7, removing the base area from the integration processing, edge integration region the base region “Edge” may be written in the integrated area symbol of the integrated area design map.
Further, a basic area that is not included in any integrated area after the repetition process is completed may be named an independent integrated area and written as an integrated area symbol in the integrated area design map. In this way, by adding an edge integration area consisting of one unintegrated basic area and an independent integration area, all the basic areas are written in the integrated area design map as an integrated area symbol of the integrated area. It will be. Here, for example C 7 may be used 0.95. The edge integration region and the independent integration region often play important expressions in the image, and correspond to, for example, the contour line between the human face and the background. Blur can be avoided.

話を戻して、図2のステップS5では、統合領域としてまとめられた画素を分割画像データ記憶部23の分割画像データから集めて、その統合領域特徴を計算する。計算する項目はステップS3と同じ項目、つまり、統合領域の重心値、平均色、統合領域nの方向要素Dn、扁平要素Tn及び統合領域に属する各基本領域に含まれる画素数である。これら統合領域の特徴は統合領域特徴記憶部8に保存される。   Returning to FIG. 2, in step S5 in FIG. 2, the pixels grouped as the integrated region are collected from the divided image data in the divided image data storage unit 23, and the integrated region feature is calculated. The items to be calculated are the same items as in step S3, that is, the barycentric value of the integrated region, the average color, the direction element Dn of the integrated region n, the flat element Tn, and the number of pixels included in each basic region belonging to the integrated region. These features of the integrated region are stored in the integrated region feature storage unit 8.

次に、ステップS6では、画像処理領域記憶部19に保存されている処理プリセットの情報を用いて自動で処理する場合と、統合領域デザインマップを画像データ表示部21に表示し、そのマップを参考にユーザーが処理をデータ入力部20を用いて指示する場合の2つから一つを選択することができる。   Next, in step S6, when processing is automatically performed using the information of the processing preset stored in the image processing region storage unit 19, the integrated region design map is displayed on the image data display unit 21, and the map is referred to. The user can select one of the two when the user instructs the processing using the data input unit 20.

図2には、ステップS9からS13までの処理がシーケンシャルに記述されているが、処理手順記憶部24に記憶されている処理手順に、これらの処理の記述がない場合は、これらのステップを飛ばして、画像表現部15で画像特徴の算出を行うステップS13に移行する場合もある。この場合は、基本領域特徴及び統合領域特徴から、絵画作品を作り出すことになり、この2つの領域特徴から筆触を作り出す場合、基本領域特徴から小さな筆触が、そして統合領域特徴から大きな筆触が作り出される。今までは小さな筆触の多くに同じ色を塗ることで、広い範囲を一色にすることはできたが、このように極端に大きさの違う筆触が一つの絵の中で同時に作り出されることはなかった。   In FIG. 2, the processing from step S9 to S13 is described sequentially, but if there is no description of these processing in the processing procedure stored in the processing procedure storage unit 24, these steps are skipped. In some cases, the process proceeds to step S13 in which the image expression unit 15 calculates image features. In this case, a painting work is created from the basic area feature and the integrated area feature. When creating a touch from these two area features, a small brush is created from the basic area feature and a large brush is created from the integrated area feature. . Until now, it was possible to make a wide range of one color by painting the same color on many small brushes, but such extremely different brush sizes are not created simultaneously in one picture. It was.

ステップS9からステップS13までの処理は、基本領域を結合して大きくしたり、逆に分割して小さくしたりすることで、作り出す絵画作品に様々な表現を加えるためのものであるため、処理手順記憶部24に記憶されている処理手順に、結合処理に関するステップS9及びステップS10と部分領域処理に関するステップS11及びステップS12とのどちらか一方のみを行うという記述を行うことも可能である。   The processing from step S9 to step S13 is for adding various expressions to a painting to be created by combining and enlarging the basic regions, or conversely dividing and reducing the processing. It is also possible to describe in the processing procedure stored in the storage unit 24 that only one of steps S9 and S10 related to the combination processing and steps S11 and S12 related to the partial region processing is performed.

即ち、ステップS5までの処理により得られた統合領域について、これをそのまま利用して表現(描画)していくのか、それとも各統合領域内のいくつかの基本領域を結合し(ステップS9及びS10)、それら結合領域を単位として描画するのか、あるいは各統合領域を部分分割して分割領域を単位として(ステップS11及びS12)描画するのかを選択していくことになる。なお最終的に表現処理(描画処理)を行う場合には、これらの領域単位の他に基本領域を単位とする場合も含まれる。   That is, whether the integrated area obtained by the processing up to step S5 is expressed (drawn) using it as it is, or some basic areas in each integrated area are combined (steps S9 and S10). Then, it is selected whether drawing is performed in units of these combined areas, or whether each integrated area is partially divided and drawn in units of divided areas (steps S11 and S12). Note that the final representation processing (drawing processing) includes the case where the basic region is used as a unit in addition to these region units.

ステップS9がどのようにして実行されるかについて述べると、ステップS6にて画像領域指示部18により自動処理が選択されると、画像領域指示部18は、画像処理領域プリセット記憶部19からプリセット処理の指示を読み込む。プリセット処理の指示とは、例えばth1からth7までの均一統合領域のうち、優先順位の高いもの例えばth1及びth2の均一統合領域については領域結合処理を行い、th3の均一統合領域については部分領域分割処理を行い、th4からth7の均一統合領域についてはどちらの処理も行わないといった指示である。なおここに示した例は、あくまでも模式的な説明であり、これらの指示は適宜予め設定される。   The following describes how step S9 is executed. When automatic processing is selected by the image area instruction unit 18 in step S6, the image area instruction unit 18 performs preset processing from the image processing area preset storage unit 19. Read instructions. The preset processing instruction is, for example, for the uniform integrated regions from th1 to th7, those having high priority, for example, the uniform integrated regions of th1 and th2, are subjected to region combination processing, and the uniform integrated region of th3 is divided into partial regions. This is an instruction to perform the process, and neither process is performed for the uniform integrated region from th4 to th7. The example shown here is merely a schematic explanation, and these instructions are set in advance as appropriate.

ステップS6にて手動処理が選択されると、図12に示すように統合デザインマップ記憶部17に記憶されている統合デザインマップを画面に表示し、操作する者がこの画面を見ながら既述のような指示を手動で入力する。従って通常は手動によるプリセット処理の方がきめ細かい表現をできるが、操作の簡略化という点を重視するならば自動処理が選択されるかもしれない。   When manual processing is selected in step S6, the integrated design map stored in the integrated design map storage unit 17 is displayed on the screen as shown in FIG. 12, and the operator operates as described above while viewing this screen. Manually input such instructions. Therefore, the manual preset processing can usually express more finely, but automatic processing may be selected if importance is attached to simplification of operation.

ステップS9がある統合領域に対して実行される必要がある場合、先ず、当該統合領域内の基本領域をC個ずつペアにする。ペアにするルールとしては、例えばC=2の場合、近接している2つがなるべく縦につながる様にすることが好ましいが、つながった結果が丸に近くなるようなルールを使用することもできる。近接している2つが縦につながるルールとしては、注目した基本領域の重心位置に近い重心位置の基本領域を検索し、それら基本領域の方向ベクトルが一直線に近いもの同士を結合するといったルールが挙げられる。 If step S9 needs to be executed for a certain integrated area, first, C 8 basic areas in the integrated area are paired. As a rule for pairing, for example, in the case of C 8 = 2 it is preferable that two adjacent ones are connected as vertically as possible, but a rule that makes the connected result close to a circle can also be used. . The rule that two adjacent ones are connected vertically is a rule that searches for a basic region at a center of gravity close to the center of gravity of the basic region of interest, and connects those whose direction vectors of the basic regions are close to a straight line. It is done.

ステップS10は分割画像データ記憶部4の分割画像データの画素から先のステップS9で結合された領域を一つの領域として、結合領域特徴を計算し、計算された結合領域特徴を結合領域特徴記憶部11に記憶する。ここでいう結合領域特徴とは、図5に示した既述の特徴と同様である。   In step S10, the combined region feature is calculated using the region combined in the previous step S9 from the pixel of the divided image data in the divided image data storage unit 4 as one region, and the calculated combined region feature is used as the combined region feature storage unit. 11 to store. The combined region feature here is the same as the feature described above shown in FIG.

次に、ステップS11がある統合領域に対して実行される必要がある場合、画像処理領域指示部18の指示により、既に計算されている基本領域、統合領域及び結合領域のいずれか一つを選び出し、その領域をC個の部分領域に分割し、そのC個の領域特徴を分割画像データ記憶部4の分割画像データの画素から計算し、計算された結合領域特徴を結合領域特徴記憶部14に記憶する。部分領域の分割のイメージを図13に示すと、例えば統合領域P1,P2,P3のうちP3についてのみ縦に例えば3つに分割されている様子である。この分割数として「3」は便宜上の数値である。このように部分領域に分割するルールも予め定められており、部分分割の対象となる領域に対してそのルールに基づいて部分領域に分割されることになる。この分割処理は、表現したときに刷毛で描いたように見せるためである。 Next, when step S11 needs to be executed for a certain integrated area, one of the basic area, the integrated area, and the combined area that has already been calculated is selected according to an instruction from the image processing area instruction unit 18. The region is divided into C 9 partial regions, the C 9 region features are calculated from the pixels of the divided image data in the divided image data storage unit 4, and the calculated combined region feature is combined with the combined region feature storage unit. 14 stored. FIG. 13 shows an image of the division of the partial area. For example, only P3 of the integrated areas P1, P2, and P3 is vertically divided into, for example, three. As the number of divisions, “3” is a numerical value for convenience. Thus, the rule for dividing into partial areas is also determined in advance, and the area to be partially divided is divided into partial areas based on the rule. This division processing is to make it appear as if it was drawn with a brush when expressed.

ここで上記のステップS9からS12を利用する場合を想定して処理を説明する。ステップS6については、自動処理でない場合について先ず説明する。図12に、画像データ表示部21に表示される統合領域デザインマップ内の統合領域記号の例を示す。黒で塗りつぶされている区域がエッジ統合領域、白く抜けている部分が対比統合領域及び独立統合領域、2均一と示されているテクスチャーの部分は2度目の仮統合領域を求めた際に均一統合領域として決定した区域、以下同様に3均一、4均一、5均一、6均一は順に求められた均一統合領域であり、7均一は7度目以上で均一統合領域として決定した区域をまとめたものである。グラデーションのある空が一つにまとまり、その部分に2均一というラベルが付いていることから、提案手法の統合処理が上手く機能し、空が一つに統合されたことが分かる。   Here, the process will be described assuming that the above steps S9 to S12 are used. Step S6 will be described first when it is not automatic processing. FIG. 12 shows an example of the integrated area symbol in the integrated area design map displayed on the image data display unit 21. The area filled in black is the edge integration area, the white part is the contrast integration area and the independent integration area, and the part of the texture shown as uniform is uniformly integrated when the second temporary integration area is obtained. Area determined as an area, 3 uniform, 4 uniform, 5 uniform, and 6 uniform are the uniform integrated areas obtained in order, and 7 uniform is a summary of the areas determined as the uniform integrated area at the 7th time or more. is there. Since the sky with gradation is grouped into one, and the part is labeled as 2 uniform, it can be seen that the integration process of the proposed method worked well and the sky was integrated into one.

エッジ統合領域、対比統合領域及び独立統合領域は、基本領域から作り出した筆触で描き、少ない繰り返し回数で決定された均一統合領域は、統合領域または先のステップの処理であるステップS9及びステップS10で作り出す結合領域やステップS11及びステップS12で作り出す部分分割領域を基に筆触を作り出すことが好ましいということになる。ここで問題なのは、多い繰り返し回数で統合された均一領域について、これらをどちらのグループに入れるべきかは画像の種類によってバラツキがあることである。   The edge integration region, the contrast integration region, and the independent integration region are drawn with the brush created from the basic region, and the uniform integration region determined with a small number of repetitions is the integration region or the processing of the previous step in steps S9 and S10. It means that it is preferable to create a touch based on the coupling area to be created and the partial divided areas created in step S11 and step S12. The problem here is that there is a variation depending on the type of image in which group these uniform regions integrated with a large number of repetitions should be put.

均一統合領域については、すべて表現を加えるための領域にすると決めてしまえば自動で処理することができるが、より質の高い作品を目指す場合には、マニュアル処理にして、画像データ表示部21に示された統合領域デザインマップの統合領域記号を見てから、統合領域もしくは基本領域を単位として処理の指示を与えるようにすることができる。   The uniform integrated area can be automatically processed if it is decided to make all the areas for adding expression. However, when aiming for a higher quality work, the processing is performed manually in the image data display unit 21. After looking at the integrated area symbol in the integrated area design map shown, a processing instruction can be given in units of the integrated area or basic area.

結果として、ステップS7またはステップS8で、統合領域毎にどの領域特徴から筆触を作るかの指示が出されるため、その指示に従ってこれに続く処理ステップS9及びステップS10とステップS11及びステップS12とが実行される。即ち、統合領域は基本領域の集合であり、更に統合領域の中に結合領域及び部分分割領域が存在することがある。仮に3thの均一統合領域10番について、ステップS7またはS8における処理の指示が「表現の単位領域を統合領域とする」という指示であったとすると、統合領域10番を単位として表現される(統合領域特徴から筆触を作る)ということになる。この場合には、統合領域10番については、統合領域10番に含まれる全画素について、当該統合領域10番の特徴に基づいて色(例えばR,G,B)及びその明るさが指定されることになる。またステップS7またはS8における処理の指示が「表現の単位領域を基本領域とする」という指示であったとすると、統合領域10番に含まれる各基本領域を単位として表現される(基本領域特徴から筆触を作る)ということになる。この場合には、各基本領域毎に、それら基本領域に含まれる全画素について各基本領域の特徴に基づいて色が指定されることになる。更にまた前記処理の指示が「表現の単位領域を結合領域とする」という指示であったとすると、統合領域10番に含まれる結合領域を表現の単位として描かれ、あるいは前記処理の指示が「表現の単位領域を部分分割領域とする」という指示であったとすると、統合領域10番に含まれる部分分割領域を表現の単位として描かれるということになる。   As a result, in step S7 or step S8, an instruction as to which stroke feature is to be made for each integrated area is issued, so that subsequent processing steps S9, S10, S11, and S12 are executed according to the instruction. Is done. That is, the integrated area is a set of basic areas, and there may be a combined area and a partial divided area in the integrated area. Assuming that the processing instruction in step S7 or S8 is the instruction that “the unit area of expression is an integrated area” for the 3th uniform integrated area No. 10, the integrated area 10 is expressed as a unit (the integrated area 10). Make brushstrokes from features). In this case, for the integrated area 10, colors (for example, R, G, B) and their brightness are designated for all the pixels included in the integrated area 10 based on the characteristics of the integrated area 10. It will be. Also, if the processing instruction in step S7 or S8 is an instruction “use unit area of expression as basic area”, each basic area included in integrated area 10 is expressed as a unit (from basic area characteristics to brush strokes). Will be made). In this case, for each basic area, a color is designated based on the characteristics of each basic area for all pixels included in the basic areas. Furthermore, if the processing instruction is an instruction that “the unit area of expression is a combined area”, the combined area included in the integrated area 10 is drawn as a unit of expression, or the processing instruction is “expression. If it is an instruction that “the unit area is a partial divided area”, the partial divided area included in the integrated area No. 10 is drawn as a unit of expression.

また各統合領域は、何回目の処理(何段階目)で仮統合領域から正式な統合領域になったかということが統合領域デザインマップ記憶部17に記憶されているので、統合領域の特徴ではなくその統合領域に含まれる基本領域を表現の単位領域とするのは、どの段階の統合領域とするか、また統合領域の特徴を表現の単位領域とするのはどの段階の統合領域とするかというデータがメモリに記憶されている。一例を挙げれば、例えば1th〜3thの均一統合領域については、統合領域統合領域の特徴を表現の単位領域とし、4th〜7thの均一統合領域については、各統合領域に含まれる基本領域を表現の単位領域とするといった情報が予めメモリに入っている例を挙げることができる。この段階の数値は入力部を介して選択できるようになっており、こうすれば、統合領域ごとにどの領域特徴から筆触を作るのかという作業が自動で行うことができる。つまり本発明では手動でも自動でもこうした作業を行うことができるのである。   In addition, since each integrated area is stored in the integrated area design map storage unit 17 as to how many times (in what stage) the temporary integrated area has become a formal integrated area, it is not a feature of the integrated area. The basic area included in the integrated area is used as a unit area for expression, which stage of integrated area is used, and the characteristic area of the integrated area is used as a unit area for expression. Data is stored in memory. For example, for a uniform integrated region of 1th to 3th, for example, a feature of the integrated region integrated region is a unit region of expression, and for a uniform integrated region of 4th to 7th, a basic region included in each integrated region is expressed. An example in which information such as a unit area is previously stored in a memory can be given. The numerical value at this stage can be selected via the input unit, and in this way, it is possible to automatically perform an operation of which region feature is to be used for each integrated region. That is, in the present invention, such work can be performed manually or automatically.

ステップS13では、既に計算された各領域特徴、より詳しくは既述の表現単位となった領域(基本領域、統合領域、結合領域あるいは部分分割領域)の特徴を変更することができる。この処理ステップも、処理手順記憶部24の処理手順に記載が有ったときだけ実行される。ここで行われる処理の一部(領域の形と方向の変更)は、特開平10−11569号広報に開示されるグループ特徴加工部を構成する技術と基本部分は同一であるが、特開平10−11569号広報に開示された特徴加工はこの特許で基本領域と記述される領域特徴のみに適応される。これに対し、本特許では、各種の領域特徴(基本領域、統合領域、結合領域あるいは部分分割領域)は、既に図5に示したように同じフォーマットで記述されているため、異なる種類の領域特徴も含めた状態で、領域特徴を変更することができる。   In step S13, the characteristics of each area feature that has already been calculated, more specifically, the characteristics of the area (basic area, integrated area, combined area, or partially divided area) that has become the above-described expression unit can be changed. This processing step is also executed only when there is a description in the processing procedure of the processing procedure storage unit 24. Part of the processing performed here (changing the shape and direction of the area) is the same as the technology constituting the group feature processing unit disclosed in Japanese Patent Laid-Open No. 10-11569, but the basic part is the same. The feature processing disclosed in the 11669 publication applies only to region features described in this patent as basic regions. On the other hand, in this patent, various region features (basic region, integrated region, combined region, or partial division region) are already described in the same format as shown in FIG. The region feature can be changed in a state including the.

また、この処理を適用する基本領域を単位とした範囲も選択的に画像処理領域指示部18から指示される。また、このステップで色彩についても注目した統合領域とその周囲の統合領域との色彩の差を基にした変更が加えられた夫々の領域特徴は、夫々の領域記憶部に戻される。   Further, a range in units of basic areas to which this process is applied is also selectively instructed from the image processing area instruction unit 18. In addition, each area feature that has been changed based on the difference in color between the integrated area in which attention is paid to colors in this step and the integrated area around it is returned to each area storage unit.

図14に表現部15の詳しいブロック図を示し、ステップS14での処理の詳細を図15に示した。この図15を用いて、ステップS14について説明する。   FIG. 14 shows a detailed block diagram of the expression unit 15, and FIG. 15 shows details of the processing in step S14. Step S14 will be described with reference to FIG.

ステップS301において、統合領域毎に、統合領域デザインマップに記載されている統合領域記号を読み、画像処理領域指示部18の指示に従って、統合領域記号に対応した種類の領域を集めて、通し番号を付け直して表現領域セットを作る。つまり最終的に表現するときには、どの領域が表現単位となるのかが指定されていればよく、基本領域の統合、統合領域内の基本領域の結合、統合領域の部分分割といった一連の処理は、要するに表現単位となる領域の選択の自由度を高めるために行ったのであって、表現するときには、その単位となる領域さえ指定すればよい。例えば統合領域が部分分割されたとすると、部分分割された各領域にナンバリングすることと、各領域の領域特徴が分かりさえすればよいので、この段階では、何番目の試行により統合されたとか、どの基本領域が属しているかといったことは関係がなくなる。   In step S301, for each integrated region, the integrated region symbols described in the integrated region design map are read, and according to the instruction from the image processing region instruction unit 18, the types of regions corresponding to the integrated region symbols are collected and assigned serial numbers. Modify the expression area set. In other words, when it is finally expressed, it is only necessary to specify which area is the unit of expression, and a series of processes such as basic area integration, basic area combination in the integrated area, and partial division of the integrated area are essential. This is done in order to increase the degree of freedom of selection of the area that becomes the expression unit, and it is only necessary to specify the area that becomes the unit when expressing. For example, if the integrated area is partially divided, it is only necessary to number each divided area and to understand the area characteristics of each area. It does not matter whether the basic area belongs.

ステップS14の段階では、表現単位が決定されると、その単位となる領域に新たにナンバリングを付して、各番号付けされた領域とその特徴とをテーブルに抽出する処理が行われる。このテーブルが上記の表現領域セットに相当する。例えばモデル化した説明をすれば、例えば1枚の画像について、処理の結果、基本領域2番、5番、10番及び統合領域2番、3番、並びに統合領域4番内の3つの部分分割領域から構成されたとすると、これら各領域について新たに番号を付し、この段階ではどのような種類の領域であるかはもはや関係がなくなるのである。   In step S14, when an expression unit is determined, a numbering is newly added to the unit area, and each numbered area and its features are extracted into a table. This table corresponds to the above expression area set. For example, in the modeled explanation, for example, for one image, as a result of processing, three partial divisions in the basic area 2, 5, 10, the integrated area 2, 3, and the integrated area 4 Assuming that it is composed of areas, each of these areas is newly numbered, and at this stage it is no longer relevant what kind of area it is.

なお対比の強い部分や輪郭であるエッジの部分に絵画的な表現を加えると、元の画像の重要な特徴を崩してしまうため、例えば人間の顔であれば、誰を描いているのかが分からなくなってしまう。これを避けるために、画像処理領域指示部18としては、エッジ統合領域、対比統合領域、独立統合領域、多い繰り返し回数で決定された均一統合領域等の統合領域記号が付けられている統合領域には表現をあまり加えない写実的な表現で描くべきであるため、統合領域を表現単位とするよりもそれら統合領域に含まれる基本領域を表現単位として表現領域セットに加えるように指示することが好ましい。一方、少ない繰り返し回数で決定された均一統合領域には絵画らしい表現を加えられるように、統合領域そのものや、結合領域、部分領域を表現単位として表現領域セットに加えるように指示することが好ましい。   In addition, adding a pictorial expression to a highly contrasted part or an edge part that is an outline destroys important features of the original image. For example, if you are a human face, you do not know who you are drawing. It will disappear. In order to avoid this, the image processing area instruction unit 18 includes an integrated area symbol such as an edge integrated area, a contrast integrated area, an independent integrated area, and a uniform integrated area determined by a large number of repetitions. Should be drawn in a realistic expression that does not add much expression, so it is preferable to instruct to add the basic area included in the integrated area as an expression unit to the expression area set rather than using the integrated area as an expression unit. . On the other hand, it is preferable to instruct the integrated region itself, the combined region, and the partial region to be added to the expression region set as an expression unit so that a painting-like expression can be added to the uniform integrated region determined with a small number of repetitions.

次に行われるステップS302からS304は、画像に含まれる各画素がどの表現単位領域に属するのかを決定する処理である。この処理は画像に含まれる画素一つ一つについて順番に各表現単位領域との距離計算を行い、例えばその重心位置に物理的に最も近い表現単位領域を、その画素が属する表現単位領域として決定してもよいが、そうすると距離計算のコンピュータの負荷が大きくなるので、ここではジオグラフテーブルを用いている。このジオグラフテーブルとは、各表現単位領域に対して、その重心位置に物理的に近い表現単位領域を指定数まで近い順にリストアップした表である。これを見ることで、任意の表現単位領域の近傍に存在する表現単位領域を見つけることができる。   Steps S302 to S304 to be performed next are processing for determining which expression unit region each pixel included in the image belongs to. This processing calculates the distance to each representation unit area in order for each pixel included in the image, for example, determines the representation unit area physically closest to the center of gravity position as the representation unit area to which the pixel belongs. However, doing so increases the load on the computer for distance calculation, so a geograph table is used here. This geograph table is a table that lists, for each expression unit area, expression unit areas that are physically close to the center of gravity of the expression unit area in order from the nearest number. By looking at this, it is possible to find an expression unit region existing in the vicinity of an arbitrary expression unit region.

画像に含まれる画素群のなかの1番目(k=1)の画素については、その画素の付近に位置する複数の表現単位領域について順番に所定の距離計算を行い、距離が最小になった表現単位領域を画素特徴記憶部28に画素番号と共に書き込む。この距離計算式は距離計算式記憶部26に複数用意されており、その中から選択した距離計算式を用いて計算される。ある計算式では、画素kの位置と表現単位領域nの重心位置とが最も近くても、前記表現単位領域nよりも離れている表現単位領域n`の伸びている方向の延長線上に当該画素kが位置していれば、当該画素kは、表現単位領域n`に最も近い値が得られる。つまりこの場合は、表現単位領域の伸びている方向を重視して表現しようとするものであり、表現の仕方などに応じて距離計算式を選択すればよい。   For the first (k = 1) pixel in the pixel group included in the image, a predetermined distance calculation is sequentially performed for a plurality of expression unit regions located in the vicinity of the pixel, and the expression having the minimum distance is obtained. The unit area is written in the pixel feature storage unit 28 together with the pixel number. A plurality of distance calculation formulas are prepared in the distance calculation formula storage unit 26, and are calculated using a distance calculation formula selected from them. In a certain calculation formula, even if the position of the pixel k and the center of gravity of the representation unit region n are closest, the pixel is on an extension line in the extending direction of the representation unit region n ` that is farther from the representation unit region n. If k is located, a value closest to the expression unit region n 表現 is obtained for the pixel k. That is, in this case, the expression unit area is emphasized in the direction of extension, and a distance calculation formula may be selected according to the expression method.

そして2番目以降の画素kについては、画素(k−1)が属する表現単位領域とジオグラフテーブルが示す近傍表現単位領域について順番に前記距離計算をすればよく、計算値が最小になった表現単位領域に属していると判断する。このようにすれば、距離計算の負荷が小さくなるという利点がある。   For the second and subsequent pixels k, the distance calculation may be performed in order for the expression unit area to which the pixel (k-1) belongs and the neighboring expression unit area indicated by the geograph table, and the expression with the smallest calculated value. Judge as belonging to the unit area. This has the advantage that the load for distance calculation is reduced.

このような概略を踏まえて図14のフローの説明に戻ると、ステップS302において、表現領域セットを使ってジオグラフテーブルを作成する。ジオグラフテーブルの作成手法に関しては、特開平10−11569号広報に開示される手法を利用することができるが、要は互いに位置的に接近している表現単位領域同士をテーブル化すればよいだけなので、テーブル化するアルゴリズムは適宜作成すればよい。   Returning to the description of the flow of FIG. 14 based on such an outline, in step S302, a geograph table is created using the expression region set. As a method for creating a geograph table, the method disclosed in Japanese Patent Application Laid-Open No. 10-11569 can be used. However, in short, it is only necessary to table expression unit regions that are close to each other in position. Therefore, an algorithm for creating a table may be created as appropriate.

ステップS303において、画素特徴算出部25では、例えば画素番号をkで表し、k−1番目の画素が属する表現単位領域にリストアップされている他の表現単位領域をジオグラフテーブルから読み出し、処理手順記憶部24の処理手順と画像処理領域指示部18の指示とに従って距離計算式記憶部26から選ばれた距離計算式を用いて注目画素kとの距離を計算する。k=1の場合は表現単位領域1の近傍領域について計算する。距離計算式としては、特開平10−11569号広報に開示される式(8)が利用できるが、これに限らず、多様な計算式を距離計算式記憶部26に予め用意しておき、統合領域デザインマップに記載されている統合領域記号に応じて選択して距離計算をし、ステップS304で距離計算の値が最小になった表現単位領域の番号を画素特徴記憶部27に画素番号と共に書き込むことで、一つの加工画像の中に様々な筆触を作り出すことができる。   In step S303, the pixel feature calculation unit 25 reads, for example, other representation unit regions listed in the representation unit region to which the k-1th pixel belongs, from the geograph table, by representing the pixel number as k, for example. The distance to the target pixel k is calculated using the distance calculation formula selected from the distance calculation formula storage section 26 in accordance with the processing procedure of the storage section 24 and the instruction of the image processing area instruction section 18. In the case of k = 1, the calculation is performed for the neighborhood region of the expression unit region 1. As the distance calculation formula, formula (8) disclosed in Japanese Patent Laid-Open No. 10-11569 can be used, but not limited to this, various calculation formulas are prepared in the distance calculation formula storage unit 26 in advance and integrated. The distance is calculated by selecting according to the integrated area symbol described in the area design map, and the number of the expression unit area having the smallest distance calculation value is written in the pixel feature storage unit 27 together with the pixel number in step S304. As a result, various brushstrokes can be created in one processed image.

表現単位領域が部分領域で構成されている場合は、部分領域の一つ一つに対して距離計算を行うことで、部分領域に対応した小さな筆触を作り出すことができるため、印象派によく見られるぶれたブラシのタッチを表現することができる。また、複数の部分領域の値をグループとして用いることで、より複雑な形の筆触を一つ作り出すこともできる。   When the expression unit area is composed of partial areas, it is often seen by impressionists because a small brush corresponding to the partial area can be created by calculating the distance for each partial area. A touch of a blurred brush can be expressed. In addition, by using the values of a plurality of partial areas as a group, it is possible to create one more complex brush shape.

例えば、一つの基本領域の中央と両端とから、3つの部分領域が作られている場合、その3つの部分領域の重心を通る2次曲線を定義でき、一方、特開平10−11569号広報に開示される距離計算式(8)は、領域の第1主成分が領域のローカルなY軸に対応しているが、このY軸を先の2次曲線に座標変換した上で距離計算を行なうと、筆触が2次曲線に沿って曲がることになる。   For example, when three partial areas are made from the center and both ends of one basic area, a quadratic curve passing through the center of gravity of the three partial areas can be defined. In the disclosed distance calculation formula (8), the first principal component of the region corresponds to the local Y axis of the region. The distance calculation is performed after the Y axis is coordinate-converted into the above-described quadric curve. Then, the brush will bend along a quadratic curve.

この部分領域の重心を用いて筆触を曲げる技術を使うことで、元の領域が曲がっていたら、それを2次曲線の筆触で近似できることになる。もしも加工画像全体に正確で、より表現の豊かな筆触が必要な場合は、ステップS12で全ての領域の部分領域を求めておくことが好ましい。   By using the technique of bending the brush stroke using the center of gravity of this partial area, if the original area is bent, it can be approximated by the brush stroke of a quadratic curve. If the entire processed image is accurate and more expressive, it is preferable to obtain partial regions of all regions in step S12.

ステップS305では画素特徴変換部28において、処理手順記憶部24の処理手順と画像処理領域指示部18の指示とに従って画素特徴変換式記憶部29に保存されている複数の計算式から一つを選び、その画素の画素特徴記憶部27に保存されている番号の表現単位領域の特徴から画素の色をその式で算出し、その値を加工画像の対応する画素位置に書き込む。このようにすることで、一つの筆触内に色の変化を与えることができるようになる。図2のステップS1にてコンピュータが取り込んだ画像、例えば写真画像の各画素は、ステップS304までの処理においてどの表現単位領域に属するかが判定されているので、このステップS305においては、その画素が属する表現単位領域に対応する特徴に基づいて当該画素に色が割り当てられる。最も単純な手法によれば例えば表現単位領域のR,G,Bの各平均色が割り当てられるが、この例ではその特徴に所定の計算処理を施して計算結果に基づいて前記平均色を割り当てるようにしている。計算処理としては、表現単位領域の重心位置から離れる画素ほど前記平均色が小さくなるといった処理である。   In step S305, the pixel feature conversion unit 28 selects one of a plurality of calculation formulas stored in the pixel feature conversion formula storage unit 29 in accordance with the processing procedure of the processing procedure storage unit 24 and the instruction of the image processing area instruction unit 18. Then, the color of the pixel is calculated from the feature of the expression unit area of the number stored in the pixel feature storage unit 27 of that pixel, and the value is written in the corresponding pixel position of the processed image. By doing so, it becomes possible to give a color change in one brush stroke. Since each pixel of the image captured by the computer in step S1 in FIG. 2, for example, each pixel of the photographic image belongs to which expression unit region belongs in the processing up to step S304, in step S305, the pixel is A color is assigned to the pixel based on the feature corresponding to the expression unit region to which it belongs. According to the simplest method, for example, the average colors of R, G, and B in the expression unit area are assigned. In this example, a predetermined calculation process is performed on the feature, and the average color is assigned based on the calculation result. I have to. The calculation process is a process in which the average color decreases as the pixel moves away from the barycentric position of the expression unit region.

ステップS306では画素番号を一つ増やして、ステップS307でkの値がC10より大きいことをチェックし、k>C10であれば、処理を終了し、条件を満たさなければ、ステップS303に戻し、次の画素の処理を続ける。 Step S306 to increase one pixel numbers in the value of k is checked is greater than C 10 in step S307, if k> C 10, the process ends, to meet the condition and returns to step S303 Then, the processing for the next pixel is continued.

図15の処理が終了したら図2に示したステップS15に処理を戻し、ステップS15では、ステップS14において算出された加工画像を画像データ出力部22から出力して、印刷したり保存したりする他、画像データ表示部21にも確認のために表示することができる。即ち、ステップS14までにおいて、各画素に色が割り当てられるので、このステップS15では、割り当てられた色に基づいて各画素を発色させ、これにより先に取り込んだ例えば写真画像が加工されて、絵画風の筆触が表現された加工画像が得られる。   When the process in FIG. 15 is completed, the process returns to step S15 shown in FIG. 2. In step S15, the processed image calculated in step S14 is output from the image data output unit 22 and printed or saved. The image data display unit 21 can also display it for confirmation. That is, since the color is assigned to each pixel up to step S14, in this step S15, each pixel is colored based on the assigned color, and thereby, for example, a photographic image captured earlier is processed to produce a painting style. A processed image in which the brush stroke is expressed is obtained.

図16は、分割画像データ記憶部23に記憶されている分割画像データである。ここで示されている一つ一つの利用域が基本領域である。   FIG. 16 shows the divided image data stored in the divided image data storage unit 23. Each usage area shown here is a basic area.

図17は、分割画像データから計算される基本領域特徴、結合領域特徴及び分割領域特徴について、エッジ領域、孤立領域、対比領域、6回以上の繰り返しで統一領域に決定した領域については、基本領域特徴と注目画素との、そして、2〜5回の繰り返しで統一領域に決定した領域については、部分領域特徴と注目画素との距離計算をすることで、作り出された加工画像である。   FIG. 17 shows the basic region feature, the combined region feature, and the divided region feature calculated from the divided image data, the edge region, the isolated region, the contrast region, and the region determined as the unified region by repeating the process six times or more. The region of the feature and the pixel of interest, and the region determined as the unified region by repeating 2-5 times, is a processed image created by calculating the distance between the partial region feature and the pixel of interest.

図18は、分割画像データから計算される基本領域特徴、結合領域特徴及び分割領域特徴について、エッジ領域、孤立領域及び対比領域については、基本領域特徴と注目画素との、そして、統一領域に決定した領域については、結合領域から計算された部分領域特徴の重心値を利用して計算された2次曲線で座標変換し、さらに、座標変換された第1主成分の軸に沿ってその領域に含まれる画素の数に比例した線幅のみ、めだつ曲線を入れて作り出した加工画像である。   FIG. 18 illustrates basic region features, combined region features, and divided region features calculated from divided image data, and edge regions, isolated regions, and contrast regions are determined as basic region features and target pixels, and a unified region. The coordinate conversion is performed on the region with the quadratic curve calculated using the centroid value of the partial region feature calculated from the combined region, and further, the region is moved along the coordinate-converted first principal component axis. Only the line width proportional to the number of included pixels is a processed image created by inserting a conspicuous curve.

本発明の一実施形態による画像加工装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus by one Embodiment of this invention. 図1に示す画像加工装置による画像加工処理を説明するためのフローチャートである。3 is a flowchart for explaining image processing by the image processing apparatus shown in FIG. 画像データを基本領域に分割する様子を示す説明図である。It is explanatory drawing which shows a mode that image data is divided | segmented into a basic region. 基本領域の特徴の一つである方向要素を説明するための説明図である。It is explanatory drawing for demonstrating the direction element which is one of the characteristics of a basic region. 基本領域の特徴の一例を示す説明図である。It is explanatory drawing which shows an example of the characteristic of a basic region. 基本領域を統合して仮統合領域を形成する様子を説明するための説明図である。It is explanatory drawing for demonstrating a mode that a basic area | region is integrated and a temporary integration area | region is formed. 基本領域を統合して仮統合領域を形成する様子を説明するための説明図である。It is explanatory drawing for demonstrating a mode that a basic area | region is integrated and a temporary integration area | region is formed. 試行を繰り返すことにより仮統合領域に含まれる基本領域が増加する様子を示す説明図である。It is explanatory drawing which shows a mode that the basic area | region contained in a temporary integration area | region increases by repeating trial. 図2に示す統合領域作成処理を説明するためのフローチャートである。3 is a flowchart for explaining an integrated region creation process shown in FIG. 図3に示す仮統合領域作成処理を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining a temporary integration area creation process shown in FIG. 3. FIG. 対比統合領域を形成する様子を示す説明図である。It is explanatory drawing which shows a mode that a contrast integrated area | region is formed. 統合領域デザインマップに記述されている統合領域記号を画像として表示する一例を示す図である。It is a figure which shows an example which displays the integrated area symbol described in the integrated area design map as an image. 統合領域を部分分割する様子を示す説明図である。It is explanatory drawing which shows a mode that an integrated area | region is partially divided. 図1に示す表現部の構成を詳しく説明するためのブロック図である。It is a block diagram for demonstrating in detail the structure of the expression part shown in FIG. 図2に示す画素特徴の算出を説明するためのフローチャートである。3 is a flowchart for explaining calculation of pixel features shown in FIG. 2. 分割画像データの一例を示す図である。It is a figure which shows an example of division | segmentation image data. 加工画像の一例を示す図である。It is a figure which shows an example of a process image. 加工画像の一例を示す図である。It is a figure which shows an example of a process image.

符号の説明Explanation of symbols

1 画像データ入力部
2 画像特徴抽出部
3 基本領域分割部
4 基本領域特徴算出部
5 基本領域特徴記憶部
6 領域統合部
7 統合領域特徴算出部
8 統合領域特徴記憶部
9 領域結合部
10 結合領域特徴算出部
11 結合領域特徴記憶部
12 部分領域分割部
13 部分領域特徴算出部
14 部分領域特徴記憶部
15 表現部
16 特徴変更部
17 統合領域デザインマップ記憶部
18 画像処理領域指示部
19 画像処理領域プリセット記憶部
20 データ入力部
21 画像データ表示部
22 画像データ出力部
23 分割画像データ記憶部
24 処理手順記憶部
25 画素特徴算出部
26 距離計算式記憶部
27 画素特徴記憶部
28 画素特徴変換部
29 画素特徴変換式記憶部



DESCRIPTION OF SYMBOLS 1 Image data input part 2 Image feature extraction part 3 Basic area division | segmentation part 4 Basic area feature calculation part 5 Basic area feature storage part 6 Area integration part 7 Integrated area feature calculation part 8 Integrated area feature storage part 9 Area | region coupling | bond part 10 Connection area | region Feature calculation unit 11 Combined region feature storage unit 12 Partial region division unit 13 Partial region feature calculation unit 14 Partial region feature storage unit 15 Representation unit 16 Feature change unit 17 Integrated region design map storage unit 18 Image processing region instruction unit 19 Image processing region Preset storage unit 20 Data input unit 21 Image data display unit 22 Image data output unit 23 Division image data storage unit 24 Processing procedure storage unit 25 Pixel feature calculation unit 26 Distance calculation formula storage unit 27 Pixel feature storage unit 28 Pixel feature conversion unit 29 Pixel feature conversion storage unit



Claims (25)

画像データに含まれる画素について、少なくとも色を判断基準の一つとして各画素をグループ化し、これにより当該画像データを複数の基本領域に分割する基本領域分割処理手段と、
分割された基本領域毎に、少なくとも色の特徴を含む当該基本領域の特徴を算出する基本領域特徴算出手段と、
この基本領域特徴算出手段により算出された基本領域特徴の内の少なくとも色に基づいて、複数の基本領域を統合して統合領域を制作する領域統合手段と、
前記統合領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該統合領域の特徴を算出する統合領域特徴算出手段と、
前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかを決定する画像処理領域指示部と、
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定する表現部と、を備えたことを特徴とする画像加工装置。
A basic area dividing processing means for grouping each pixel with at least a color as one of the determination criteria for the pixels included in the image data, thereby dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating the characteristics of the basic area including at least color features for each divided basic area;
Based on at least the color of the basic region features calculated by the basic region feature calculating means, region integrating means for integrating a plurality of basic regions to produce an integrated region;
For each integrated region, an integrated region feature calculating means for calculating a feature of the integrated region including at least a color feature based on pixel data included in the basic region;
An image processing area instruction unit that determines whether the integrated area is a unit area of expression or a basic area included in the integrated area is a unit area of expression according to the integrated area;
An image comprising: an expression unit that determines a color of a pixel included in a unit area based on a feature of the unit area of the expression for each unit area of the expression determined based on the selected result Processing equipment.
前記表現部は、前記統合領域特徴と基本領域特徴との2つの領域特徴、もしくはどちらか一方の領域特徴と画素の位置情報を入力値として、最も好ましい領域特徴が選ばれたときに最小の値を示すように考えられた所定の計算1を行い、その結果最小の値を与えた基本領域の基本領域特徴、もしくは統合領域の統合領域特徴、もしくはその両者に加え、先の計算結果の最小の値と2番目に小さな値との差から計算される値の全て、もしくはいくつかを入力値として色情報などの画素特徴を計算することを特徴とする請求項1に記載の画像加工装置。 When the most preferable region feature is selected by using the two region features of the integrated region feature and the basic region feature, or one of the region features and pixel position information as an input value, the expression unit has a minimum value. In addition to the basic region feature of the basic region and / or the integrated region feature of the integrated region that gave the smallest value as a result, the minimum value of the previous calculation result is calculated. 2. The image processing apparatus according to claim 1, wherein pixel features such as color information are calculated by using all or some of values calculated from a difference between the value and the second smallest value as input values. 同じ統合領域に統合された複数の基本領域の中から2つ以上の基本領域を選び結合を行う領域結合手段と、
この領域結合手段により結合された結合領域の特徴を計算する結合領域算出手段と、を更に備え、
画像処理領域指示部は、前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするか当該統合領域に含まれている結合領域を表現の単位領域とするかを決定することを特徴とする請求項1または2に記載の画像加工装置。
An area combination means for selecting and combining two or more basic areas from a plurality of basic areas integrated in the same integrated area;
A combined area calculating means for calculating the characteristics of the combined area combined by the area combining means,
The image processing area instruction unit determines whether the integrated area is a unit area for expression or a basic area included in the integrated area is a unit area for expression, depending on the integrated area. The image processing apparatus according to claim 1, wherein the combined region is determined as a unit region of expression.
統合領域及び/または基本領域を各々複数の部分領域に分ける部分領域分割手段と、
前記統合領域特徴あるいは前記基本領域特徴を参照して、各領域特徴から部分領域特徴を算出する部分領域特徴算出手段と、を更に備え、
画像処理領域指示部は、前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするか当該統合領域を分割した部分領域を表現の単位領域とするかを決定することを特徴とする請求項1または2に記載の画像加工装置。
Partial region dividing means for dividing the integrated region and / or the basic region into a plurality of partial regions,
A partial region feature calculating means for calculating a partial region feature from each region feature with reference to the integrated region feature or the basic region feature;
The image processing area instruction unit determines whether the integrated area is a unit area for expression or a basic area included in the integrated area is a unit area for expression, or a part obtained by dividing the integrated area according to the integrated area The image processing apparatus according to claim 1, wherein the image processing apparatus determines whether the area is a unit area of expression.
前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、夫々から前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の領域特徴と画素の位置情報を入力値として、最も好ましい特徴が選ばれたときに最小の値を示すように考えられた所定の計算2を行い、その結果最小の値を与えた基本領域の基本領域特徴、もしくは統合領域の統合領域特徴、もしくは結合領域の結合領域特徴、もしくはそれらに加え、先の所定の計算2の計算結果の最小の値と2番目に小さな値との差から計算される値の全て、またはその中のいくつかを入力値として画像を構成する画素の画素特徴を計算することを特徴とする請求項1から4のいずれか一に記載の画像加工装置。 The representation means includes an integrated area feature of the integrated area stored in the integrated area feature storage means, a basic area feature stored in the basic area feature storage means, and a combination stored in the combined area feature storage means. In addition to these three types of region features, or in addition to these, four types of region features from among the partial region features calculated by the partial region dividing means, or any of several types of region features therein The basic region feature of the basic region that gave the minimum value as a result of performing a predetermined calculation 2 that is considered to indicate the minimum value when the most preferable feature is selected with the pixel position information as an input value, Or, it is calculated from the difference between the integrated region feature of the integrated region, the combined region feature of the combined region, or the minimum value of the calculation result of the predetermined calculation 2 and the second smallest value. Image processing apparatus as claimed in any one of the 4, characterized in that calculating the pixel feature of the pixels constituting the image as input some of all or therein, of the values. 前記画像特徴抽出手段は、統合領域特徴と基本領域特徴と結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、夫々から前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の各領域特徴を、
その各領域特徴において、基本領域または統合領域または結合領域または部分領域の周囲に位置する基本領域または統合領域または結合領域または部分領域の各領域特徴から計算された値を基に変更する特徴変更手段と、を備えていることを特徴とする請求項1から5のいずれか一に記載の画像加工装置。
The image feature extraction unit includes three types of region features, ie, an integrated region feature, a basic region feature, and a combined region feature, or in addition to the four types of partial region features calculated by the partial region dividing unit. Type region features, or any number of each type of region feature,
A feature changing means for changing each area feature based on a value calculated from each area feature of the basic area, the integrated area, the combined area, or the partial area located around the basic area, the integrated area, the combined area, or the partial area. And an image processing apparatus according to any one of claims 1 to 5.
前記領域統合手段は、印の付いていない基本領域をみつけ、それに印1を付ける。その基本領域に隣接する基本領域間の特徴量の差が第1の閾値より小さい基本領域に印1を付け、さらに、その印1を付けられた基本領域に隣接する基本領域間の特徴量の差が第1の閾値より小さい基本領域にも印1を付けるという作業を繰り返し、最終的に印1が付けられた基本領域をまとめ仮統合領域1とし、まとめ終わったら、初めに戻り、印の付いていない基本領域を見つけ、その基本領域に印2を付け同様の処理を繰り返し、最終的に印の付いてない基本領域がなくなるまで繰り返す。次に、仮統合領域に含まれる基本領域の数が第1の個数より大きい仮統合領域に注目し、それに隣接する基本領域間の特徴量の差が第1の閾値より大きく、第2の閾値より小さい基本領域を同様の手法でまとめ、まとめられた新たな仮統合領域が先の注目した仮統合領域に含まれていた基本領域を含んでおり、且つ新たな仮統合領域にまとめられた基本領域の数を先の注目した仮統合領域にまとめられていた基本領域の数で割った値が1より大きく規定値1より小さい場合に、その仮統合領域を正式に統合領域として決定することを特徴とする請求項1から6のいずれか一に記載の画像加工装置。 The area integration means finds a basic area without a mark and marks it with a mark 1. Mark a basic area where the difference in feature quantity between the basic areas adjacent to the basic area is smaller than the first threshold value, and further change the feature quantity between the basic areas adjacent to the marked basic area. Repeat the process of marking 1 even for basic areas where the difference is less than the first threshold. Finally, the basic areas marked with mark 1 are combined into a temporary integrated area 1. Find a basic area that is not marked, add a mark 2 to the basic area, repeat the same process, and finally repeat until there are no unmarked basic areas. Next, paying attention to a temporary integration region in which the number of basic regions included in the temporary integration region is larger than the first number, the difference in feature amount between the adjacent basic regions is larger than the first threshold value, and the second threshold value. A smaller basic area is grouped in the same way, and the new temporary integrated area that has been collected includes the basic area that was included in the temporary integrated area that was noted earlier. When the value obtained by dividing the number of areas by the number of basic areas collected in the temporary integrated area of interest is larger than 1 and smaller than the specified value 1, the temporary integrated area is formally determined as an integrated area. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that: 前記領域統合手段は、2回目の仮統合領域が決定した後に、第2の閾値の値を新たに第1の閾値として、3回目の仮統合領域を定める処理と2回目の仮統合領域を正式に統合領域として決定する処理を行い、以後、同様の操作を複数回繰り返し、繰り返す際に、前回の処理で統合領域として決定した基本領域を除いた残りの基本領域に対してのみ統合処理を続け、n回目の正式な統合領域としての決定処理が終った時には、その統合領域に通し番号を与え、統合領域デザインマップにその通し番号とn回目の均一統合領域であることとを記録することを特徴とする請求項1から7のいずれか一に記載の画像加工装置。 After the second temporary integration area is determined, the area integration means sets the third temporary integration area and the second temporary integration area formally using the second threshold value as the first threshold. After that, when the same operation is repeated several times, the integration process is continued only for the remaining basic areas excluding the basic area determined as the integrated area in the previous process. When the determination process as the nth formal integration area is completed, a serial number is assigned to the integration area, and the serial number and the nth uniform integration area are recorded in the integration area design map. The image processing apparatus according to any one of claims 1 to 7. 前記領域統合手段は、n回目の繰り返し処理後に、基本領域数が第1の個数より大きく、第2の個数より小さい仮統合領域に注目し、その仮統合領域の境界付近に位置する基本領域の中で、注目した仮統合領域内にある基本領域の基本領域特徴とそれに隣接し、且つ注目した仮統合領域外にある基本領域の基本領域特徴との差の平均値の絶対値が規定値2より大きい場合に、その仮統合領域に通し番号を与え、統合領域デザインマップにその通し番号とn回目の対比統合領域であることとを記録し、この仮統合領域を統合処理の対象から除外した後にn+1回目の繰り返し処理を行うことを特徴とする請求項1から8のいずれか一に記載の画像加工装置。 The area integration means pays attention to a temporary integration area whose basic area number is larger than the first number and smaller than the second number after the n-th repetitive processing, and for the basic area located near the boundary of the temporary integration area. Among them, the absolute value of the average value of the difference between the basic area feature of the basic area in the temporary integration area of interest and the basic area feature of the basic area adjacent to and outside the temporary integration area of interest is the prescribed value 2 If it is larger, a serial number is assigned to the temporary integration area, the serial number and the nth comparison integration area are recorded in the integration area design map, and after this temporary integration area is excluded from the integration processing target, n + 1 The image processing apparatus according to claim 1, wherein a repetitive process is performed for the first time. 前記領域統合手段は、全ての処理をする前に、規定値3より大きい基本領域特徴を持つ基本領域を予め除外しておき、除外された基本領域の情報を先の統合領域デザインマップに記述しておくことを特徴とする請求項1から9のいずれか一に記載の画像加工装置。 The region integration means excludes a basic region having a basic region feature larger than the specified value 3 in advance before performing all processing, and describes the information of the excluded basic region in the previous integrated region design map. The image processing apparatus according to claim 1, wherein the image processing apparatus is provided. 前記領域結合手段は、前記領域統合手段により同じ統合領域にまとめられた近接する複数の基本領域に対し、1つの結合領域として結合させる基本領域の個数とそれらの基本領域が結合可能となる基本領域特徴との関係をその基本領域が属する統合領域の統合領域デザインマップに記述されている情報に応じて変化させることを特徴とする請求項1から10のいずれか一に記載の画像加工装置。 The area combining means includes a basic area in which the number of basic areas to be combined as a single combined area can be combined with a plurality of adjacent basic areas collected in the same integrated area by the area integrating means. The image processing apparatus according to claim 1, wherein a relationship with a feature is changed according to information described in an integrated region design map of an integrated region to which the basic region belongs. 前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、夫々から前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の各領域特徴を、夫々が含まれている統合領域の統合領域デザインマップに記述されている情報を基に選び出し、さらに前記統合領域デザインマップに記述されている情報を基に選び出された特徴から画素特徴を計算する計算式を切り替えて、画素特徴を計算することを特徴とする請求項1から11のいずれか一に記載の画像加工装置。 The representation means includes an integrated area feature of the integrated area stored in the integrated area feature storage means, a basic area feature stored in the basic area feature storage means, and a combination stored in the combined area feature storage means. In addition to these three types of region features, or in addition to these, four types of region features from among the partial region features calculated by the partial region dividing means, or any of several types of region features therein Are selected based on the information described in the integrated region design map of the integrated region in which each is included, and further, pixel features are selected from the features selected based on the information described in the integrated region design map. The image processing device according to claim 1, wherein the pixel feature is calculated by switching a calculation formula to be calculated. 前記部分領域分割手段は、統合領域、あるいは基本領域、あるいは結合領域、を夫々複数の部分領域に分け、その部分領域毎に、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴、あるいは前記基本領域特徴記憶手段に記憶されている基本領域特徴、あるいは前記結合領域特徴記憶手段に記憶されている結合領域特徴を参照して前記部分領域特徴算出手段により部分領域特徴を計算する際に、部分領域が属していた統合領域の統合領域デザインマップに記述されている情報に応じて異なる計算式が選択され、それを用いて部分領域の部分領域特徴が計算され、計算された部分領域特徴が前記部分領域特徴記憶手段に記憶されることを特徴とする請求項1から12のいずれか一に記載の画像加工装置。 The partial area dividing means divides an integrated area, a basic area, or a combined area into a plurality of partial areas, and for each partial area, an integrated area feature of an integrated area stored in the integrated area feature storage means. Or when the partial region feature is calculated by the partial region feature calculation unit with reference to the basic region feature stored in the basic region feature storage unit or the combined region feature stored in the combined region feature storage unit Depending on the information described in the integrated region design map of the integrated region to which the partial region belonged, a different calculation formula is selected, and the partial region feature of the partial region is calculated using the calculation formula. The image processing apparatus according to claim 1, wherein a feature is stored in the partial region feature storage unit. 前記特徴変更手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴と前記部分領域分割手段により計算される部分領域特徴とのうち4種類の領域特徴から、あるいは任意の数種類の領域特徴から選択された各領域特徴を変更するための数式を複数用意しており、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域デザインマップに記述されている情報に応じて、適切な数式を選択して、その選択された数式を用いて各特徴量を変更することを特徴とする請求項1から13のいずれか一に記載の画像加工装置。 The feature change means is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. A plurality of mathematical formulas for changing each region feature selected from four types of region features or a combination of any of several types of region features among the combined region features and the partial region features calculated by the partial region dividing means are prepared. An appropriate mathematical expression is selected according to the information described in the integrated area design map of the integrated area stored in the integrated area feature storage means, and each feature amount is selected using the selected mathematical expression. The image processing apparatus according to claim 1, wherein the image processing apparatus is changed. 前記統合領域特徴、結合領域特徴、基本領域特徴、各領域特徴の記述単位である統合領域、結合領域、基本領域の各領域毎に領域の通し番号とその領域に含まれている画素の統計量を要素として持ち、最低限、平均色、各領域毎に含まれている画素の重心、各領域毎に含まれている画素数、を含むことを特徴とする請求項1から14のいずれか一に記載の画像加工装置。 For each of the integrated region feature, combined region feature, basic region feature, integrated region, combined region, and basic region that is a description unit of each region feature, the region serial number and the statistics of the pixels included in the region are obtained. It has as an element and contains at least the average color, the barycenter of the pixels included in each area, and the number of pixels included in each area. The image processing apparatus described. 前記表現手段は、表現処理を画像データに対して、前記統合領域特徴記憶手段に記憶されている統合領域特徴、または前記基本領域特徴記憶手段に記憶されている基本領域特徴、または前記結合領域特徴記憶手段に記憶されている結合領域特徴から計算される画像範囲を単位として、夫々に異なる処理をオペーレータの指示で加えられるように、画像データを複数の領域特徴に分けるためのデータ入力手段を備えていることを特徴とする請求項1から15のいずれか一に記載の画像加工装置。 The representation means performs a representation process on image data with respect to an integrated area feature stored in the integrated area feature storage means, a basic area feature stored in the basic area feature storage means, or the combined area feature. Data input means is provided for dividing the image data into a plurality of area features so that different processing can be applied by the operator's instructions, with the image range calculated from the combined area features stored in the storage means as a unit. The image processing device according to claim 1, wherein the image processing device is an image processing device. 前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴とに対して、前記部分領域分割手段により夫々3つの領域特徴から計算される部分領域特徴を利用して、夫々3つの領域特徴から作り出される筆触の形を様々に変化されることを特徴とする請求項1から12のいずれか一に記載の画像加工装置。 The representation means includes an integrated area feature of the integrated area stored in the integrated area feature storage means, a basic area feature stored in the basic area feature storage means, and a combination stored in the combined area feature storage means. For the region feature, the shape of the brush created from each of the three region features can be variously changed by using the partial region feature calculated from each of the three region features by the partial region dividing means. The image processing apparatus according to any one of claims 1 to 12. 前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、それぞれから前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の領域特徴と画像の位置情報を入力値として、最も好ましい領域特徴が選ばれたときに値が最小になる所定の計算3を行い、nを自然数とし、その計算の結果1番目からn番目に小さい値までを与えたn個の基本領域の基本領域特徴、もしくはn個の統合領域の統合領域特徴、もしくはn個の結合領域の結合領域特徴、もしくはそれらのいくつかと、さらに先の計算結果の最小の値と2番目に小さな値との差(最小の値とn−1番目に小さな値との差から計算されるn−1個の値)の全て、もしくはいくつかを入力値として画素特徴を計算することを特徴とする請求項1から17のいずれか一に記載の画像加工装置。 The representation means includes an integrated area feature of the integrated area stored in the integrated area feature storage means, a basic area feature stored in the basic area feature storage means, and a combination stored in the combined area feature storage means. Three types of region features, and in addition to these, four types of region features from among the partial region features calculated by the partial region dividing means, or any of several types of region features therein When the position information of the image is used as an input value, a predetermined calculation 3 that minimizes the value when the most preferable region feature is selected is performed, n is a natural number, and the calculation results from the first to the nth smallest value. N basic region features given, or n integrated region integrated region features, or n connected region combined region features, or some of them, and Enter all or some of the difference between the smallest value and the second smallest value (n-1 values calculated from the difference between the smallest value and the (n-1) th smallest value) The image processing apparatus according to claim 1, wherein a pixel feature is calculated as a value. コンピュータを用いて画像を加工する画像加工方法であって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが、前記基本領域特徴算出ステップにおいて算出した基本領域特徴を領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域特徴記憶ステップと、
前記統合領域特徴記憶ステップに記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶ステップに記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う表現ステップと、を備えていることを特徴とする画像加工方法。
An image processing method for processing an image using a computer,
A divided image data storage step in which the computer stores divided image data obtained as a result of the processing of the basic area dividing processing step of dividing the image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step in which the computer stores the basic region feature calculated in the basic region feature calculating step for each region;
An area integration step in which the computer creates an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage step;
An integrated region feature storing step in which the computer stores the integrated region integrated in the region integrating step;
Based on the result calculated from the two area features of the integrated area feature stored in the integrated area feature storage step and the basic area feature stored in the basic area feature storage step, the image data is converted into the image data. An image processing method comprising: an expression step for performing expression processing on the image.
コンピュータを用いて画像を加工する画像加工方法であって、
前記コンピュータが画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが前記基本領域特徴算出ステップにおいて算出した特徴を基本領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域特徴記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合ステップと、
前記コンピュータが、前記領域結合ステップにおいて結合した結合領域を記憶する結合領域特徴記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴と基本領域特徴記憶ステップにおいて記憶した基本領域特徴と結合領域を記憶する結合領域特徴記憶ステップにおいて記憶した結合領域特徴との全て、あるいは任意の数種の領域特徴を前記統合領域デザインマップを参照しながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割ステップと、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更ステップと、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参照しながら、適応的に表現処理を行う表現ステップと、を備えていることを特徴とする画像加工方法。
An image processing method for processing an image using a computer,
A divided image data storage step for storing divided image data obtained as a result of processing of a basic area dividing processing step in which the computer divides image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step for storing the feature calculated by the computer in the basic region feature calculating step for each basic region;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage step to create an integrated area, and an area integration step of creating an integrated area design map;
An integrated region feature storing step in which the computer stores the integrated region integrated in the region integrating step;
A region combining step in which the computer combines a plurality of basic regions based on the integrated region feature stored in the integrated region feature storing step to create a combined region;
A combined region feature storing step in which the computer stores the combined regions combined in the region combining step;
All of the integrated region feature stored in the integrated region feature storage step, the basic region feature stored in the basic region feature storage step, and the combined region feature stored in the combined region feature storage step in which the computer stores the combined region, or A partial region dividing step of adaptively dividing a plurality of arbitrary region features into a plurality of portions while referring to the integrated region design map, and calculating a partial region feature for each partial region;
A feature changing step in which the computer changes the integrated region feature, or the basic region feature, or the combined region feature, or the partial region feature;
An expression step in which the computer adaptively expresses the integrated area feature, the basic area feature, the combined area feature, or the partial area feature while referring to the integrated area design map; And an image processing method.
コンピュータを用いて画像を加工する画像加工プログラムであって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した基本領域特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う手段としてコンピュータを機能させることを特徴とする画像加工プログラム。
An image processing program for processing an image using a computer,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing, for each basic area, the basic area feature calculated by the computer in the basic area feature calculating means;
Area integration means for creating an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage means by the computer;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Based on the result calculated from the two area features, the integrated area feature of the integrated area stored in the integrated area feature storage means and the basic area feature stored in the basic area feature storage means, the image data is converted into the image data. An image processing program that causes a computer to function as means for performing expression processing on the computer.
コンピュータを用いて画像を加工する画像加工プログラムであって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合手段と、
前記コンピュータが、前記領域結合手段において結合した結合領域を記憶する結合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴と基本領域特徴記憶手段において記憶した基本領域特徴と結合領域を記憶する結合領域特徴記憶手段において記憶した結合領域特徴との全て、あるいは任意の数種の領域特徴を前記統合領域デザインマップを参照しながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割手段と
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更手段と、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参照しながら、適応的に表現処理を行う手段としてコンピュータを機能させることを備えていることを特徴とする画像加工プログラム。
An image processing program for processing an image using a computer,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing, for each basic area, the feature calculated by the computer in the basic area feature calculating means;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage means to create an integrated area, and an area integration means for producing an integrated area design map;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Area combining means for creating a combined area by combining a plurality of basic areas based on the integrated area features stored in the integrated area feature storage means by the computer;
A combined region feature storage means for storing a combined region combined by the computer in the region combining means;
All of the integrated region feature stored in the integrated region feature storage unit and the basic region feature stored in the basic region feature storage unit and the combined region feature stored in the combined region feature storage unit that stores the combined region, or A partial region dividing means for adaptively dividing a plurality of arbitrary region features into a plurality of portions with reference to the integrated region design map and calculating a partial region feature for each partial region, and the computer comprising the integration A feature changing means for changing a region feature, or the basic region feature, or the combined region feature, or the partial region feature;
The computer as means for adaptively expressing the integrated region feature, the basic region feature, the combined region feature, or the partial region feature while referring to the integrated region design map. An image processing program characterized by comprising:
コンピュータに用いられ、画像データを加工するプログラムにおいて、
画像データに含まれる画素について、少なくとも色を判断基準の一つとして各画素をグループ化し、これにより当該画像データを複数の基本領域に分割するステップと、
分割された基本領域毎に、少なくとも色の特徴を含む当該基本領域の特徴を算出するステップと、
分割された基本領域について、注目した一の基本領域に対して互いに連鎖しかつ互いに隣接するもの同士の基本領域の特徴の差が第1の閾値より小さい基本領域群を検出し、それら基本領域をグループ化して仮統合領域とし、同様にして前記一の基本領域以外の基本領域に対してもグループ化される基本領域群を検出して仮統合領域とし、こうして複数の第1回目の仮統合領域を得るステップと、
第1の閾値を、第1回目の仮統合領域を得るステップ時よりも大きくし、前記ステップと同様のステップを行って、複数の仮統合領域を得てこれらを第2回目の仮統合領域とし、第1回目の仮統合領域と第2回目の仮統合領域とが共通の基本領域を含んでいてかつ第1回目の仮統合領域に含まれる基本領域の数に対する第2回目の仮統合領域の基本領域の数の増加率が予め設定された値よりも小さいときに、その仮統合領域を正式な統合領域として決定するステップと、
第2回目の仮統合領域が決定した後に、第1の閾値の値を更に大きくして同様にして3回目の仮統合領域を定める処理を行うと共に、同様にして2回目の仮統合領域を正式に統合領域として決定する処理を行い、以後、同様の操作を複数回繰り返し、繰り返す際に、前回の処理で統合領域として決定した基本領域を除いた残りの基本領域に対してのみ統合処理を続けるステップと、
正式な統合領域としての決定処理が終った後、正式な統合領域ごとに、何回目の統合処理により仮統合領域から正式な統合領域に決定されたのかを示す段階数を記録するステップと、
前記正式に決定された統合領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該統合領域の特徴を算出するステップと、を含むことを特徴とする画像加工プログラム。
In a program that is used in a computer and processes image data,
For each pixel included in the image data, grouping each pixel using at least a color as one of the determination criteria, thereby dividing the image data into a plurality of basic regions;
Calculating a feature of the basic region including at least a color feature for each divided basic region;
For the divided basic regions, a basic region group in which features of the basic regions that are adjacent to each other and are adjacent to each other with respect to the one basic region of interest are smaller than the first threshold is detected, and the basic regions are detected. Similarly, a group of temporary integrated areas is grouped, and a group of basic areas that are also grouped with respect to a basic area other than the one basic area is detected and set as a temporary integrated area. And getting the steps
The first threshold value is made larger than that in the step of obtaining the first temporary integration region, the same steps as the above step are performed, and a plurality of temporary integration regions are obtained, and these are used as the second temporary integration region. The first temporary integration area and the second temporary integration area include a common basic area, and the second temporary integration area corresponds to the number of basic areas included in the first temporary integration area. When the rate of increase in the number of basic areas is smaller than a preset value, determining the provisional integrated area as a formal integrated area;
After the second temporary integration area is determined, the first threshold value is further increased and the third temporary integration area is determined in the same manner. Similarly, the second temporary integration area is formalized. After that, when the same operation is repeated several times, the integration process is continued only for the remaining basic areas excluding the basic area determined as the integrated area in the previous process. Steps,
After the determination process as a formal integration area is completed, for each formal integration area, a step of recording the number of stages indicating how many times the integration process is decided from the temporary integration area to the formal integration area;
An image processing program comprising: calculating, for each of the officially determined integrated areas, characteristics of the integrated area including at least color characteristics based on pixel data included in the basic area.
前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかを決定するステップと、
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定するステップと、を含むことを特徴とする請求項23記載の画像加工プログラム。
In accordance with the integrated region, determining whether the integrated region is a unit region of expression or a basic region included in the integrated region is a unit region of expression;
24. For each unit area of the expression determined based on the selected result, determining a color of a pixel included in the unit area based on a feature of the unit area of the expression. The image processing program described.
統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかの決定は、前記統合領域の段階数に応じて行われることを特徴とする請求項24記載の画像加工プログラム。


The determination as to whether the integrated region is a unit region of expression or a basic region included in the integrated region is a unit region of expression is performed according to the number of stages of the integrated region. 24. The image processing program according to 24.


JP2005175798A 2004-06-16 2005-06-15 Image processing device, method, and program Pending JP2006031688A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005175798A JP2006031688A (en) 2004-06-16 2005-06-15 Image processing device, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004178848 2004-06-16
JP2005175798A JP2006031688A (en) 2004-06-16 2005-06-15 Image processing device, method, and program

Publications (1)

Publication Number Publication Date
JP2006031688A true JP2006031688A (en) 2006-02-02

Family

ID=35897902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005175798A Pending JP2006031688A (en) 2004-06-16 2005-06-15 Image processing device, method, and program

Country Status (1)

Country Link
JP (1) JP2006031688A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104325A1 (en) * 2008-02-21 2009-08-27 大日本スクリーン製造株式会社 Line drawing processing device, program, and line drawing processing method
JP2011135424A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing device and image processing program
CN102170527A (en) * 2010-02-16 2011-08-31 卡西欧计算机株式会社 Image processing apparatus
CN102654919A (en) * 2011-03-02 2012-09-05 卡西欧计算机株式会社 Image processing device, image processing method and storage medium
CN102737391A (en) * 2011-03-29 2012-10-17 卡西欧计算机株式会社 Image processing apparatus, image processing method, image processing system and storage medium
JP2013157914A (en) * 2012-01-31 2013-08-15 Brother Ind Ltd Image processing apparatus and image processing program
US8643687B2 (en) 2012-03-05 2014-02-04 Casio Computer Co., Ltd. Printing surface processing method and printing surface processing apparatus
US10380447B1 (en) * 2014-11-26 2019-08-13 Google Llc Providing regions of interest in an image

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104325A1 (en) * 2008-02-21 2009-08-27 大日本スクリーン製造株式会社 Line drawing processing device, program, and line drawing processing method
JP2009199308A (en) * 2008-02-21 2009-09-03 Dainippon Screen Mfg Co Ltd Line art processor, program, and line art processing method
US20110187721A1 (en) * 2008-02-21 2011-08-04 Itaru Furukawa Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method
JP2011135424A (en) * 2009-12-25 2011-07-07 Casio Computer Co Ltd Image processing device and image processing program
CN102170527A (en) * 2010-02-16 2011-08-31 卡西欧计算机株式会社 Image processing apparatus
US8736682B2 (en) 2010-02-16 2014-05-27 Casio Computer Co., Ltd. Image processing apparatus
CN102170527B (en) * 2010-02-16 2015-03-11 卡西欧计算机株式会社 Image processing apparatus
CN102654919A (en) * 2011-03-02 2012-09-05 卡西欧计算机株式会社 Image processing device, image processing method and storage medium
CN102737391A (en) * 2011-03-29 2012-10-17 卡西欧计算机株式会社 Image processing apparatus, image processing method, image processing system and storage medium
JP2013157914A (en) * 2012-01-31 2013-08-15 Brother Ind Ltd Image processing apparatus and image processing program
US8643687B2 (en) 2012-03-05 2014-02-04 Casio Computer Co., Ltd. Printing surface processing method and printing surface processing apparatus
US10380447B1 (en) * 2014-11-26 2019-08-13 Google Llc Providing regions of interest in an image

Similar Documents

Publication Publication Date Title
CN1475969B (en) Method and system for intensify human image pattern
JP2006031688A (en) Image processing device, method, and program
JP5437150B2 (en) Method and system for highlighting topic elements in a chart having multiple contrast elements of multiple colors
CN100389428C (en) User definable image reference points
US9280949B2 (en) Color selection interface
US8666156B2 (en) Image-based backgrounds for images
JP2005202469A (en) Image processor, image processing method and program
US9098534B2 (en) Image display system, image display method, social network service system, and computer-readable medium
JP2005151282A (en) Apparatus and method of image processing, and program
CN104580883B (en) Image processing apparatus, image processing method and recording medium
CN101360250A (en) Immersion method and system, factor dominating method, content analysis method and scaling parameter prediction method
CN115812221A (en) Image generation and coloring method and device
US9020255B2 (en) Image processing apparatus, image processing method, and storage medium
US20070030501A1 (en) Image processing apparatus for displaying colors included in a color image and an image processing method, and a storage medium therefor
CN108647696A (en) Picture face value determines method and device, electronic equipment, storage medium
CN111145126A (en) Image character fast erasing method
JP6004260B2 (en) Line drawing coloring system
JP4146506B1 (en) Mosaic image generating apparatus, method and program
JP7463186B2 (en) Information processing device, information processing method, and program
JP4348956B2 (en) Image layout apparatus, image layout method, and program in image layout apparatus
CN111274145A (en) Relationship structure chart generation method and device, computer equipment and storage medium
CN113395407A (en) Image processing apparatus, image processing method, and computer readable medium
JP4433040B2 (en) Image data management apparatus, image data management method, and image data management program
JP2006092127A (en) Image processor, image processing method and program
JP2014067129A (en) Program, device and method for color conversion processing with consideration for relationship between feature quantity and color distribution for every scale

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051026