JP2006031688A - Image processing device, method, and program - Google Patents
Image processing device, method, and program Download PDFInfo
- Publication number
- JP2006031688A JP2006031688A JP2005175798A JP2005175798A JP2006031688A JP 2006031688 A JP2006031688 A JP 2006031688A JP 2005175798 A JP2005175798 A JP 2005175798A JP 2005175798 A JP2005175798 A JP 2005175798A JP 2006031688 A JP2006031688 A JP 2006031688A
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- basic
- feature
- integrated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像データに対して所定の加工、例えば、絵画風の加工を行う画像加工装置、画像加工方法及び画像加工プログラムに関するものである。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program for performing predetermined processing, for example, painting-like processing, on image data.
従来、写真画像をスキャナーにより読み込み、読み込んだ画像データに対して、画素の色を変える色変換処理及び画像を歪ませる歪み変換処理等の種々の画像加工処理が行われている。例えば、入力された画像データとその画像データを領域分割した分割結果とから、画素を分割領域毎にグループに分け、それぞれのグループ毎にグループ特徴を計算して記録し、記録したグループ特徴を加工し、加工したグループ特徴から新たに画素を構成することにより、絵画の筆触に対応する画素のグループを変換の単位として、画像データに新しく、且つ豊富な表現を自動的に付与する画像加工合成装置が開発されている(特許文献1参照)。この場合、グループ毎に特徴をまとめ、そのグループを単位として特徴を加工し、加工された特徴を保存するすようにグループに画素を割り当てて画像を構成しているため、グループを筆触に見立てることができ、写真画像等の原画像を様々な筆触の画像に加工することができる。 2. Description of the Related Art Conventionally, various image processing processes such as a color conversion process that changes a pixel color and a distortion conversion process that distorts an image are performed on a read image data by a scanner. For example, from the input image data and the result of dividing the image data into regions, the pixels are divided into groups for each divided region, group features are calculated and recorded for each group, and the recorded group features are processed. An image processing / synthesizing device that automatically assigns a new and rich expression to image data using a group of pixels corresponding to the stroke of a painting as a unit of conversion by constructing a new pixel from the processed group feature Has been developed (see Patent Document 1). In this case, features are grouped into groups, features are processed in units of groups, and pixels are assigned to groups to store the processed features. The original image such as a photographic image can be processed into various brush-touch images.
しかしながら、上記の画像加工合成装置では、絵画の筆触に対応する画素のグループを変換の単位としているため、大きな太い筆触で描く画風や逆に小さなストロークで描く点描画に近い画風を作り出すことができなかった。また、グループ特徴から新たに画素を構成することで作られる筆触も比較的単純な形になってしまっていた。 However, in the image processing / synthesizing apparatus described above, since a group of pixels corresponding to the stroke of a painting is used as a unit of conversion, it is possible to create a style similar to a point drawing drawn with a large stroke or a small stroke. There wasn't. In addition, the touch created by constructing a new pixel from the group feature has also become relatively simple.
本発明の目的は、画像データに様々な大きさ、様々な形状の、自然な筆触を画像の情報を基に適切に与えることのできる画像加工装置、画像加工方法及び画像加工プログラムを提供することである。 An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of appropriately giving natural brush strokes of various sizes and shapes to image data based on image information. It is.
本発明は、例えば写真を取り込んで得た画像データを、色的にも距離的にも近い画素同士をまとめてグループ化し、これにより複数の基本領域に分割する。次いでこれら複数の基本領域において互いに似通っている基本領域同士を更にグループ化して複数の統合領域とする。本発明の最も単純な手法としては、概略的に言えば、こうして得られた統合領域において、統合領域自体を表現の単位とするのか、それとも基本領域を表現の単位とするのかを、予め定められた処理の仕方(実施の形態では「処理の指示プリセット」に対応する)あるいはオペレータが手動で決めた処理の仕方に基づいて決定し、例えば背景の一部分については統合領域を表現の単位として、また人物の一部分については基本領域を表現の単位として表現する(その領域の特徴に応じて当該領域に含まれる画素の色を決定する)ものである。 In the present invention, for example, image data obtained by taking a photograph is grouped by grouping together pixels that are close in color and distance, and thereby divided into a plurality of basic regions. Next, basic regions that are similar to each other in the plurality of basic regions are further grouped into a plurality of integrated regions. As the simplest method of the present invention, roughly speaking, in the integrated region thus obtained, it is predetermined whether the integrated region itself is used as a unit of expression or the basic region is used as a unit of expression. The processing method (corresponding to “processing instruction preset” in the embodiment) or the processing method manually determined by the operator. For example, for a part of the background, the integrated region is used as a unit of expression. For a part of a person, a basic area is expressed as a unit of expression (the color of a pixel included in the area is determined according to the characteristics of the area).
そして本発明の更なる特徴としては、統合領域をいかにして作成するかという点にあり、統合領域を更に処理して例えば統合領域内の複数の基本領域を結合させて複数の結合領域としたり、あるいは統合領域を部分分割して部分領域なるものを形成し、基本領域及び統合領域の他に結合領域あるいは部分領域をも表現の単位領域として選択できるようにし、表現のより大きな自由度を確保して様々な画風のしかも自然な筆触の画像が得られるようにしたものである。 A further feature of the present invention is how to create an integrated area. The integrated area is further processed to combine, for example, a plurality of basic areas in the integrated area into a plurality of combined areas. Alternatively, the integrated area is partially divided to form a partial area, and in addition to the basic area and the integrated area, a combined area or a partial area can be selected as a unit area for expression, thereby ensuring greater freedom of expression. In this way, images with various styles of paintings and natural brushstrokes can be obtained.
本発明の基本的な態様は、画像データに含まれる画素について、少なくとも色を判断基準の一つとして各画素をグループ化し、これにより当該画像データを複数の基本領域に分割する基本領域分割処理手段と、
分割された基本領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該基本領域の特徴を算出する基本領域特徴算出手段と、
この基本領域特徴算出手段により算出された基本領域特徴の内の少なくとも色に基づいて、複数の基本領域を統合して統合領域を制作する領域統合手段と、
前記統合領域毎に、少なくとも色の特徴を含む当該統合領域の特徴を算出する統合領域特徴算出手段と、
前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかを決定する画像処理領域指示部と、
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定する表現部と、を備えたことを特徴とする。
また本発明に係る画像加工装置は、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に当該基本領域の特徴を算出する基本領域特徴算出手段と、
前記基本領域特徴算出手段により算出された基本領域特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記基本領域特徴記憶手段に記憶されている基本領域特徴を基に複数の基本領域を統合して統合領域を制作する領域統合手段と、
前記領域統合手段により統合された統合領域と前記分割画像データ記憶手段に保存されている分割画像データとから前記統合領域特徴算出手段により算出された統合領域特徴を記憶する統合領域特徴記憶手段とからなる画像特徴抽出手段と、
前記統合領域特徴算出手段により統合領域特徴を算出する際に書き出された統合領域デザインマップを記憶する統合領域デザインマップ記憶手段と、
前記統合領域デザインマップ記憶手段に記憶されている統合領域デザインマップの情報に応じて計算式や計算式に含まれる係数を変更する計算手法を用いて、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴、もしくはそれらに加え、それらの領域特徴を結合、もしくは分割することで作り出された新たな領域特徴から計算される結果を基に画像加工を行う表現手段と、を備えるものである。
A basic aspect of the present invention is a basic area division processing means for grouping each pixel with respect to pixels included in the image data using at least a color as one of the determination criteria, thereby dividing the image data into a plurality of basic areas. When,
For each divided basic region, basic region feature calculating means for calculating features of the basic region including at least color features based on pixel data included in the basic region;
Based on at least the color of the basic region features calculated by the basic region feature calculating means, region integrating means for integrating a plurality of basic regions to produce an integrated region;
An integrated region feature calculating means for calculating a feature of the integrated region including at least a color feature for each integrated region;
An image processing area instruction unit that determines whether the integrated area is a unit area of expression or a basic area included in the integrated area is a unit area of expression according to the integrated area;
For each unit region of the expression determined based on the selected result, an expression unit that determines the color of the pixel included in the unit region based on the feature of the unit region of the expression is provided.
An image processing apparatus according to the present invention includes a divided image data storage unit that stores divided image data obtained as a result of processing of a basic region division processing unit that divides image data into a plurality of basic regions;
Basic area feature calculating means for calculating the characteristics of the basic area for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing the basic area feature calculated by the basic area feature calculating means for each basic area;
Area integration means for producing an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage means;
From an integrated region feature storage unit that stores an integrated region feature calculated by the integrated region feature calculation unit from the integrated region integrated by the region integration unit and the divided image data stored in the divided image data storage unit. Image feature extraction means comprising:
An integrated area design map storage means for storing an integrated area design map written out when calculating an integrated area feature by the integrated area feature calculating means;
Stored in the integrated region feature storage means using a calculation method for changing a calculation formula or a coefficient included in the calculation formula in accordance with information of the integrated region design map stored in the integrated region design map storage means. Calculated from the integrated region features of the integrated region and the basic region features stored in the basic region feature storage means, or in addition to these, the new region features created by combining or dividing these region features Expression means for performing image processing based on the result.
本発明に係る画像加工装置では、画像データを複数の基本領域に分割し、基本領域毎に当該基本領域の基本領域特徴を算出し、さらに算出された基本領域特徴を基に複数の基本領域を統合して統合された基本領域から統合領域特徴を算出すると共に、統合の過程で得られる情報を基に統合領域デザインマップも算出し、統合領域デザインマップの情報に応じて計算式や計算式に含まれる係数を変更する計算手法を用いて、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴、もしくはそれらに加え、それらの領域特徴を結合、もしくは分割することで作り出された新たな領域特徴から計算される結果を基に加工画像データが計算されるため基本領域特徴からは基本となるサイズの筆触が、そして統合領域特徴からは大きなサイズの筆触が、さらに結合した領域特徴からは中間の大きさの筆触が、分割された領域特徴からは小さなサイズの筆触が、作り出せるようになる。そして統合領域デザインマップには、画像のどの部分をどの大きさの筆触で描くべきかについて参考となる情報が蓄えられているため、その情報を参考に描かれている対象として残すべき特徴は、細かい描写が可能な小さなサイズの筆で、そしていろいろな画風を加えて見た目の印象を変えるのに効果的な部分には表現に合わせた様々なサイズの筆で描くことで、描かれている対象の特徴を残しながら、且つ表現力のある作品を作り出すことができる。 In the image processing device according to the present invention, the image data is divided into a plurality of basic areas, the basic area features of the basic area are calculated for each basic area, and the basic areas are further calculated based on the calculated basic area features. The integrated area feature is calculated from the integrated basic area, and the integrated area design map is also calculated based on the information obtained in the integration process. In addition to the integrated region features of the integrated region stored in the integrated region feature storage unit and the basic region features stored in the basic region feature storage unit using a calculation method for changing the included coefficient, Since the processed image data is calculated based on the result calculated from the new area feature created by combining or dividing these area features, it is the basic from the basic area feature. Can be used to create large-size touches from integrated region features, intermediate-size brushes from combined region features, and small-size touches from segmented region features. . And in the integrated area design map, information to be used as reference for storing which part of the image should be drawn with which brush size is stored. Objects drawn by drawing with a brush of a small size that can be described in detail, and by drawing with a brush of various sizes according to the expression in a part that is effective for changing the impression of appearance by adding various styles of painting This makes it possible to create works that are expressive while retaining the characteristics of
上述した表現手段は、画像を構成する色情報などの画素の特徴を計算するに当たり、先に示した統合領域特徴と基本領域特徴との2つの領域特徴、もしくはどちらか一方の領域特徴と画像の位置情報を入力値として、所定の計算1を行い、その結果最大もしくは最小の値を与えた基本領域の基本領域特徴、もしくは統合領域の統合領域特徴、もしくはその両者に加え、先の計算結果の最小の値と2番目に小さな値との差から計算される値の全て、もしくはいくつかを入力値として画素特徴を計算することが望ましい。
The expression means described above calculates the characteristics of the pixels such as color information constituting the image, and the two area features of the integrated area feature and the basic area feature described above, or one of the area features and the image feature. The position information is used as an input value, and a
この場合、最大値と2番目に大きな値との差が0である画素はどちらの領域の特徴を備えても良い画素、つまりその画素の位置が筆触の境界であり、0でない画素はその値が、境界からどれだけ離れているかについての指標とみなすことができるため、筆触の周辺からの距離に応じて異なる表現を与えることができるようになる。 In this case, the pixel whose difference between the maximum value and the second largest value is 0 is a pixel that may have the characteristics of either region, that is, the position of the pixel is the border of the brush stroke, and the pixel that is not 0 is the value Can be regarded as an index of how far away from the boundary, so that different expressions can be given according to the distance from the periphery of the brush stroke.
上述した画像特徴抽出手段は、同じ統合領域に統合された複数の基本領域の中から2つ以上の基本領域を選び結合を行う領域結合手段と、その領域結合手段により結合された結合領域と分割画像データ記憶手段に保存されている分割画像データとから結合領域特徴を計算する結合領域算出手段と、前記結合領域算出手段により算出された結合領域特徴を記憶する結合領域特徴記憶手段と、を備えていることが望ましい。 The above-described image feature extraction unit includes a region combining unit that selects and combines two or more basic regions from a plurality of basic regions integrated into the same integrated region, and a combined region combined by the region combining unit. A combined region calculation unit that calculates a combined region feature from the divided image data stored in the image data storage unit; and a combined region feature storage unit that stores the combined region feature calculated by the combined region calculation unit. It is desirable that
この場合、大きな筆触となる統合領域特徴と、小さな筆触となる基本領域特徴とに加え、その中間の大きさの筆触を作り出すことのできる結合領域特徴が利用可能になる。 In this case, in addition to the integrated region feature that becomes a large brush stroke and the basic region feature that becomes a small brush stroke, a combined region feature that can create a brush with an intermediate size becomes available.
上述した前記画像特徴抽出手段は、前記画像特徴抽出手段に記載の各手段に加え、統合領域、あるいは基本領域、あるいは結合領域、をそれぞれ複数の部分領域に分ける部分領域分割手段を備え、前記統合領域特徴記憶手段に記憶されている統合領域特徴、あるいは前記基本領域特徴記憶手段に記憶されている基本領域特徴、あるいは前記結合領域特徴記憶手段に記憶されている結合領域特徴と、それらに加え、前記分割画像データ記憶手段に保存されている分割画像データを参照して、各部分領域から部分領域特徴を計算する部分領域特徴算出手段と、計算された部分領域特徴を記憶する部分領域特徴記憶手段を備えていることが望ましい。 The image feature extraction means described above includes, in addition to each means described in the image feature extraction means, a partial area dividing means for dividing the integrated area, the basic area, or the combined area into a plurality of partial areas, respectively. In addition to the integrated region feature stored in the region feature storage unit, the basic region feature stored in the basic region feature storage unit, or the combined region feature stored in the combined region feature storage unit, A partial region feature calculating unit that calculates a partial region feature from each partial region with reference to the divided image data stored in the divided image data storage unit, and a partial region feature storage unit that stores the calculated partial region feature It is desirable to have.
この場合は、3種類の領域特徴がさらに小さく分けられるため、今まで一番細かかった基本領域よりもさらに細かい筆触で表現することができるようになる。また、分割領域特徴は基になる一つの領域を複数の部分領域の集合で表現するための基の情報にもなる。 In this case, since the three types of region features are further divided, it is possible to express with a finer touch than the basic region that has been the finest so far. The divided region feature also serves as basic information for expressing a single region as a set of a plurality of partial regions.
上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、それぞれから前記部分領域特徴記憶手段に記憶されている部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の領域特徴と画素の位置情報を入力値として、最も好ましい領域特徴が選ばれたときに最小の値を示すように考えられた所定の計算2を行い、その結果最小の値を与えた基本領域の基本領域特徴、もしくは統合領域の統合領域特徴、もしくは結合領域の結合領域特徴、もしくはそれらに加え、先の所定の計算2の計算結果の最小の値と2番目に小さな値との差から計算される値の全て、またはその中のいくつかを入力値として画像を構成する画素の画素特徴を計算することが好ましい。
The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. 3 types of region features, and, in addition to them, 4 types of region features from among the partial region features stored in the partial region feature storage means, or any of several types thereof The basic region which gave the minimum value as a result of performing a
この場合、統合領域特徴、基本領域特徴に加え、結合領域特徴、部分領域特徴から画素特徴を計算することで、小さな筆触、中間のサイズの筆触を作り出すことができるようになり、その結果さらに表現力が増す。 In this case, by calculating the pixel features from the combined region features and partial region features in addition to the integrated region features and basic region features, it becomes possible to create small brush strokes and medium size brush strokes. Power increases.
上述した前記画像特徴抽出手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、それぞれから前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の各領域特徴を、
その各領域特徴において、基本領域または統合領域または結合領域または部分領域の周囲に位置する基本領域または統合領域または結合領域または部分領域の各領域特徴から計算された値を基に変更する特徴変更手段と、を備えていることが望ましい。
The image feature extraction unit described above is stored in the integrated region feature of the integrated region stored in the integrated region feature storage unit, the basic region feature stored in the basic region feature storage unit, and the combined region feature storage unit. Types of combined region features and three types of region features, or in addition to these, four types of region features calculated by the partial region dividing means, or any number of them Each region feature of
A feature changing means for changing each area feature based on a value calculated from each area feature of the basic area, the integrated area, the combined area, or the partial area located around the basic area, the integrated area, the combined area, or the partial area. It is desirable to have
この場合、一つの領域特徴から一つの筆触が作り出されるので、絵画らしい筆触を作り出すには、絵画らしい領域特徴が得られる必要があるが、一つの領域特徴がその領域の周囲の領域の特徴の値によって影響を受けて変化することになるので、例えば領域特徴として、領域の方向が周りの領域の方向に影響されて、変化すると、うねるような筆触が作り出される。 In this case, since one brush is created from one area feature, it is necessary to obtain a painting-like area feature in order to create a painting-like touch, but one area feature is a feature of the area surrounding the area. Since it changes depending on the value, for example, as a region feature, the direction of the region is influenced by the direction of the surrounding region, and when it changes, a wavy brush is created.
上述した前記領域統合手段は、印の付いていない基本領域をみつけ、それに印1を付ける。その基本領域に隣接する基本領域間の特徴量の差が第1の閾値より小さい基本領域に印1を付け、さらに、その印1を付けられた基本領域に隣接する基本領域間の特徴量の差が第1の閾値より小さい基本領域にも印1を付けるという作業を繰り返し、最終的に印1が付けられた基本領域をまとめ仮統合領域1とし、まとめ終わったら、初めに戻り、印の付いていない基本領域を見つけ、その基本領域に印2を付け同様の処理を繰り返し、最終的に印の付いてない基本領域がなくなるまで繰り返す。次に、仮統合領域に含まれる基本領域の数が第1の個数より大きい仮統合領域に注目し、それに隣接する基本領域間の特徴量の差が第1の閾値より大きく、第2の閾値より小さい基本領域を同様の手法でまとめ、まとめられた新たな仮統合領域が先の注目した仮統合領域に含まれていた基本領域を含んでおり、且つ新たな仮統合領域にまとめられた基本領域の数を先の注目した仮統合領域にまとめられていた基本領域の数で割った値が1より大きく規定値1より小さい場合にその仮統合領域を正式に統合領域として決定することが望ましい。
The above-mentioned area integration means finds a basic area without a mark and puts a
この場合、一度で統合領域を決定せずに、1度目は仮統合領域としておき、閾値を変えて行う2度目の統合処理で、統合処理を行っても統合領域に大きな変化がなかった場合に、正式な統合領域として決定するため、グラデーションの部分が途中で切れることが少なく、確度の高い統合領域だけを抽出することができ、絵画として同質とみなされる領域を統合領域としてまとめることができるようになる。 In this case, when the integrated area is not determined at once, the integrated area is not changed significantly even if the integration process is performed in the second integration process that is performed by changing the threshold value for the first time without setting the integrated area once. Because it is determined as a formal integration area, the gradation part is rarely cut off in the middle, and only the integration area with high accuracy can be extracted, so that areas that are considered to be homogeneous as paintings can be combined as an integration area become.
上述した前記領域統合手段は、2回目の仮統合領域が決定した後に、第2の閾値の値を新たに第1の閾値として、3回目の仮統合領域を定める処理と2回目の仮統合領域を正式に統合領域として決定する処理を行い、以後、同様の操作を複数回繰り返し、繰り返す際に、前回の処理で統合領域として決定した基本領域を除いた残りの基本領域に対してのみ統合処理を続け、例えばn回目の正式な統合領域としての決定処理が終った時には、その統合領域に通し番号を与え、統合領域デザインマップにその番号とn回目の均一統合領域であることとを記録することが望ましい。 After the second temporary integration area has been determined, the area integration unit described above uses the second threshold value as a new first threshold to determine the third temporary integration area and the second temporary integration area Is officially determined as an integrated area, and after that, the same operation is repeated several times, and when the process is repeated, only the remaining basic areas excluding the basic area determined as the integrated area in the previous process are integrated. For example, when the determination process as the nth formal integration area is completed, a serial number is assigned to the integration area, and the number and the nth uniform integration area are recorded in the integration area design map. Is desirable.
この場合、閾値を大きくしながら、統合を繰り返すため、2度だけでは統合できなかった領域も統合できることになる。また、繰り返しの少ない回数で統合された領域の方がより均一な領域なので、領域が何度目の繰り返しで統合されたかをデザインマップに記録しておこくとで、この情報を画素に表現を加える際に有効に利用できることになる。 In this case, since the integration is repeated while increasing the threshold value, it is possible to integrate regions that could not be integrated only twice. In addition, since the region integrated with a small number of repetitions is a more uniform region, if this region is recorded in the design map, the information is added to the pixel. It can be used effectively.
上述した前記領域統合手段は、n回目の繰り返し処理後に、基本領域数が第1の個数より大きく、第2の個数より小さい仮統合領域に注目し、その仮統合領域の境界付近に位置する基本領域の中で、注目した仮統合領域内にある基本領域の基本領域特徴とそれに隣接し、且つ注目した仮統合領域外にある基本領域の基本領域特徴との差の平均値の絶対値が規定値2より大きい場合に、さらに、その仮統合領域に通し番号を与え、統合領域デザインマップにその通し番号とn回目の対比統合領域であることとを記録し、この仮統合領域を統合処理の対象から除外した後にn+1回目の繰り返し処理を行うことが好ましい。 The area integration means described above focuses on a temporary integration area whose number of basic areas is larger than the first number and smaller than the second number after the n-th repetitive processing, and is located near the boundary of the temporary integration area. The absolute value of the average difference between the basic area features of the basic area within the temporary integration area of interest and the basic area features of the basic area adjacent to and outside the temporary integration area of interest within the area is specified. When the value is larger than 2, further assign a serial number to the temporary integration area, record the serial number and the nth comparison integration area on the integration area design map, and select the temporary integration area from the target of the integration process. It is preferable to perform the (n + 1) th repeated processing after the exclusion.
この場合、デザインを考えると、面積が小さく、周囲との強い対比のある統合領域が目立ち、重要な領域になるので、このような領域を統合して決定し、それを統合領域デザインマップに記録しておくことで、統合領域も統合領域デザインマップも表現の際に役立たせることができる。 In this case, when considering the design, the integrated area with a small area and strong contrast with the surrounding area is conspicuous and becomes an important area, so such areas are integrated and determined and recorded in the integrated area design map By doing so, both the integrated area and the integrated area design map can be used for expression.
上述した前記領域統合手段は、全ての処理をする前に、規定値3より大きい基本領域特徴を持つ基本領域を予め除外しておく、除外された基本領域の情報を先の統合領域デザインマップに記述しておくことが望ましい。
The area integration means described above excludes basic areas having basic area characteristics larger than the specified
この場合、2つの対象の間にあるエッジ部分に乗っている基本領域はどちらにも統合すべきではないが、このことを実現するために、エッジ部分に乗っている基本領域は極端に細長いことを利用し、この細長さを基本領域特徴として表現しておくと、この特徴が規定値3より大きい場合は、統合せずに初めから候補から除外しておくことができ、また、この情報を統合領域デザインマップが保持するため、表現の際に役立たせることができるようになる。
In this case, the basic region riding on the edge part between the two objects should not be integrated into either, but to achieve this, the basic region riding on the edge part must be extremely elongated. If this feature is expressed as a basic region feature, if this feature is larger than the specified
上述した前記領域結合手段は、前記領域統合手段により同じ統合領域にまとめられた近接する複数の基本領域に対し、1つの結合領域として結合させる基本領域の個数とそれらの基本領域が結合可能となる基本領域特徴との関係をその基本領域が属する統合領域の統合領域デザインマップに記述されている情報に応じて変化させることが好ましい。 The area combining means described above can combine the number of basic areas to be combined as a single combined area with those basic areas combined with a plurality of adjacent basic areas grouped into the same integrated area by the area integrating means. It is preferable that the relationship with the basic area feature is changed according to information described in the integrated area design map of the integrated area to which the basic area belongs.
この場合、基本領域を結合するかどうかは表現の上では、どの太さの筆で描くかに当たる部分なので、画像のそのものが持っている情報を参考に決めるべきであるが、その情報を統合領域デザインマップが持っているため、これを利用することで、画風に合わせた適切な太さの筆の選択ができるようになる。 In this case, whether or not to combine the basic areas is the part that corresponds to the thickness of the brush drawn in terms of expression, so it should be decided with reference to the information that the image itself has, but the information is integrated area Since the design map has it, you can use it to select a brush with an appropriate thickness according to the style.
上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、夫々から前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の各領域特徴を、夫々が含まれている統合領域の統合領域デザインマップに記述されている情報を基に選び出し、さらに前記統合領域デザインマップに記述されている情報を基に選び出された領域特徴から画素特徴を計算する計算式を切り替えて、画素特徴を計算することが好ましい。 The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. In addition to these three types of region features, or in addition to these, four types of region features from among the partial region features calculated by the partial region dividing means, or any of several types of each of them A region feature is selected based on information described in the integrated region design map of the integrated region in which each region is included, and from the region features selected based on the information described in the integrated region design map. It is preferable to calculate the pixel feature by switching the calculation formula for calculating the pixel feature.
この場合、統合領域デザインマップは、エッジの部分や、少ない面積でも重要な部分の情報を持っているため、統合領域デザインマップの情報を利用してこのような部分を避けて、いろいろな画風の表現を与えることで、元の絵の内容を損なわない表現を作り出すことができるようになる。 In this case, since the integrated area design map has information on the edge part and important parts even in a small area, avoid such a part by using the information of the integrated area design map and use various image styles. By giving an expression, it is possible to create an expression that does not impair the content of the original picture.
先ず、画素特徴がどのタイプの領域から計算されるかが重要になるため、基本領域特徴から画素特徴を計算するか、または、その基本領域が含まれている統合領域の統合領域特徴から画素特徴を計算するか、または、その基本領域が結合された結合領域から画素特徴を計算するかを統合領域デザインマップの情報を基に決定することで、細かく描くべきところを細かく描くことができるようになる。 First, since it is important from which type of region the pixel feature is calculated, the pixel feature is calculated from the basic region feature or from the integrated region feature of the integrated region that includes the basic region. By determining whether to calculate pixel features from the combined region where the basic region is combined based on the information of the integrated region design map, it is possible to draw finely where to draw Become.
さらに、選び出された特徴から画素特徴を計算する計算式の選び方で、画風が変えられるので、この計算式を選択する際にも統合領域デザインマップの情報を基に決定することで、適切な表現が加えられるようになる。 Furthermore, since the style can be changed by selecting a calculation formula that calculates pixel features from the selected features, it is possible to select an appropriate calculation formula based on the information in the integrated region design map. Expression will be added.
上述した前記部分領域分割手段は、統合領域、あるいは基本領域、あるいは結合領域、を夫々複数の部分領域に分け、その部分領域毎に、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴、あるいは前記基本領域特徴記憶手段に記憶されている基本領域特徴、あるいは前記結合領域特徴記憶手段に記憶されている結合領域特徴を参照して部分領域特徴を計算する際に、部分領域が属していた統合領域の統合領域デザインマップに記述されている情報に応じて異なる計算式が選択され、それを用いて部分領域算出手段によって部分領域の部分領域特徴が計算され、計算された部分領域特徴が部分領域特徴記憶手段に記憶されることが好ましい。 The partial area dividing means described above divides the integrated area, the basic area, or the combined area into a plurality of partial areas, and integrates the integrated areas stored in the integrated area feature storage means for each partial area. When calculating a partial region feature with reference to a region feature, or a basic region feature stored in the basic region feature storage unit, or a combined region feature stored in the combined region feature storage unit, A different calculation formula is selected according to the information described in the integrated region design map of the integrated region to which it belongs, and the partial region feature of the partial region is calculated by the partial region calculation means using it, and the calculated partial region The features are preferably stored in the partial area feature storage means.
この場合、部分領域は基になる統合領域、基本領域、結合領域から分けて作られるが、この部分領域の作り方も、表現変化を加える重要な要素であるため、統合領域の統合領域デザインマップに記述されている情報に応じて適切な計算式を与えることで、結果として適切な表現を与えられるようになる。 In this case, the partial area is created separately from the basic integrated area, basic area, and combined area, but how to create this partial area is also an important element that changes expression. By giving an appropriate calculation formula according to the described information, an appropriate expression can be given as a result.
上述した前記特徴変更手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴と前記部分領域分割手段により計算される部分領域特徴とのうち4種類の領域特徴から、あるいは任意の数種類から選択された各領域特徴を変更するための数式を複数用意しており、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域デザインマップに記述されている情報に応じて、適切な数式を選択して、その選択された数式を用いて各特徴量を変更することが好ましい。 The feature changing means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. A plurality of mathematical formulas for changing each region feature selected from four types of region features or any number of types among the combined region features and the partial region features calculated by the partial region dividing means In accordance with the information described in the integrated area design map of the integrated area stored in the integrated area feature storage means, an appropriate mathematical expression is selected, and each feature amount is calculated using the selected mathematical expression. It is preferable to change.
この場合、既に計算されている各領域特徴の色や外形をさらに変化させる特徴変更手段に統合領域デザインマップに記述されている情報を利用できるようにすることで、画像のどこの特徴にどのような変化を与えるべきかが明確になる。 In this case, by making the information described in the integrated area design map available to the feature changing means for further changing the color and outline of each area feature that has already been calculated, it is possible to determine which feature of the image. It will become clear whether there should be a change.
前記統合領域特徴、結合領域特徴、基本領域特徴、各領域特徴の記述単位である統合領域、結合領域、基本領域の各領域毎に領域の通し番号とその領域に含まれている画素の統計量を要素として持ち、最低限、平均色、各領域毎に含まれている画素の重心、各領域毎に含まれている画素数、を含むことが好ましい。 For each of the integrated region feature, combined region feature, basic region feature, integrated region, combined region, and basic region that is a description unit of each region feature, the region serial number and the statistics of the pixels included in the region are obtained. It is preferable to include as an element, at a minimum, the average color, the barycenter of the pixels included in each area, and the number of pixels included in each area.
この場合、絵画の表現に必要なものには様々な統計量が考えられるが、どの領域にも必ず含まれていなくては、表現力が極端に落ちる要素があるため、それを規定することで、表現力が失われるリスクを避けることができる。 In this case, various statistics can be considered as necessary for the expression of paintings, but if they are not included in any area, there are elements that greatly reduce their expressive power. , Avoid the risk of loss of expressiveness.
上述した前記表現手段は、表現処理を画像データに対して、前記統合領域特徴記憶手段に記憶されている統合領域特徴、または前記基本領域特徴記憶手段に記憶されている基本領域特徴、または前記結合領域特徴記憶手段に記憶されている結合領域特徴から計算される画像範囲を単位として、夫々に異なる処理をオペーレータの指示で加えられるように、画像データを複数の領域に分けるためのデータ入力手段を備えていることが好ましい。 The expression means described above may perform expression processing on image data by using the integrated area feature stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, or the combination. A data input means for dividing the image data into a plurality of areas so that different processing can be applied by the operator's instruction, with the image range calculated from the combined area feature stored in the area feature storage means as a unit. It is preferable to provide.
この場合、画像加工装置に統合領域、基本領域、結合領域を単位として表現を与える画像範囲を直接指示することが可能になる。 In this case, it is possible to directly indicate an image range to be expressed to the image processing apparatus in units of the integrated area, basic area, and combined area.
上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴とに対して、前記部分領域分割手段により夫々3つの領域特徴から計算される部分領域特徴を利用して、夫々3つの領域特徴から作り出される筆触の形を様々に変化されることが好ましい。 The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. The shape of the brush created from each of the three area features can be changed variously using the partial area feature calculated from each of the three area features by the partial area dividing means. Is preferred.
この場合、一つの領域特徴から作り出される部分領域の数に応じて、筆触の形の複雑さを変えることができる。例えば3つの部分領域が作られていれば、その部分領域特徴を用いることで、2次曲線に従った筆触の変形が可能になる。 In this case, the complexity of the shape of the brush can be changed according to the number of partial areas created from one area feature. For example, if three partial areas are created, the use of the partial area features enables the deformation of the brush according to the quadratic curve.
上述した前記表現手段は、前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴と前記結合領域特徴記憶手段に記憶されている結合領域特徴との3種類の領域特徴と、あるいはそれらに加えて、夫々から前記部分領域分割手段よって計算される部分領域特徴のうち4種類の領域特徴、あるいはその中の任意の数種類の領域特徴と画像の位置情報を入力値として、最も好ましい特徴が選ばれたときに値が最小になる所定の計算3を行い、nを自然数とし、その計算の結果は1番目からn番目に小さい値までを与えたn個の基本領域の基本領域特徴、もしくはn個の統合領域の統合領域特徴、もしくはn個の結合領域の結合領域特徴、もしくはそれらのいくつかと、さらに、先の計算結果の最小の値と2番目に小さな値との差(最小の値とn−1番目に小さな値との差から計算されるn−1個の値)の全て、もしくはいくつかを入力値として画素特徴を計算することが望ましい。
The expression means described above is stored in the integrated area feature of the integrated area stored in the integrated area feature storage means, the basic area feature stored in the basic area feature storage means, and the combined area feature storage means. Three types of region features, or in addition to them, four types of region features from among the partial region features calculated by the partial region dividing means, or any of several types of regions among them Using the feature and image position information as input values, a
この場合、一つの画素を決定する際に一つの領域だけでなく、その画素に影響力のあると考えられる複数の領域の特徴を考慮して画素特徴を計算することができるため、より微妙な表現を実現できるようになる。 In this case, when determining one pixel, the pixel feature can be calculated in consideration of not only one region but also features of a plurality of regions considered to have an influence on the pixel. The expression can be realized.
本発明に係る画像加工方法はコンピュータを用いて画像を加工する画像加工方法であって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが、前記基本領域特徴算出ステップにおいて算出した基本領域特徴を領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域特徴記憶ステップと、
前記統合領域特徴記憶ステップに記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶ステップに記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う表現ステップとを含むものである。
An image processing method according to the present invention is an image processing method for processing an image using a computer,
A divided image data storage step in which the computer stores divided image data obtained as a result of the processing of the basic area dividing processing step of dividing the image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step in which the computer stores the basic region feature calculated in the basic region feature calculating step for each region;
An area integration step in which the computer creates an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage step;
An integrated region feature storing step in which the computer stores the integrated region integrated in the region integrating step;
Based on the result calculated from the two area features of the integrated area feature stored in the integrated area feature storage step and the basic area feature stored in the basic area feature storage step, the image data is converted into the image data. And an expression step for performing expression processing on the image.
本発明に係る画像加工方法はコンピュータを用いて画像を加工する画像加工方法であって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが、前記基本領域特徴算出ステップにおいて算出した特徴を基本領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合ステップと、
前記コンピュータが、前記領域結合ステップにおいて結合した結合領域を記憶する結合領域特徴記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴と基本領域特徴記憶ステップにおいて記憶した基本領域特徴と結合領域を記憶する結合領域記憶ステップにおいて記憶した結合領域特徴との全て、あるいは任意の数種の領域を前記統合領域デザインマップを参考にしながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割ステップと、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更ステップと
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参照しながら、適応的に表現処理を行う表現ステップとを含むものである。
An image processing method according to the present invention is an image processing method for processing an image using a computer,
A divided image data storage step in which the computer stores divided image data obtained as a result of the processing of the basic area dividing processing step of dividing the image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step in which the computer stores the feature calculated in the basic region feature calculating step for each basic region;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage step to create an integrated area, and an area integration step of creating an integrated area design map;
An integrated region storage step in which the computer stores the integrated region integrated in the region integration step;
A region combining step in which the computer combines a plurality of basic regions based on the integrated region feature stored in the integrated region feature storing step to create a combined region;
A combined region feature storing step in which the computer stores the combined regions combined in the region combining step;
The integrated region feature stored in the integrated region feature storing step, the basic region feature stored in the basic region feature storing step, and the combined region feature stored in the combined region storing step for storing the combined region, or any arbitrary A partial region dividing step of adaptively dividing the plurality of regions into a plurality of portions while referring to the integrated region design map, and calculating a partial region feature for each partial region;
A feature changing step in which the computer changes the integrated region feature, or the basic region feature, or the combined region feature, or the partial region feature; and the computer, the integrated region feature, or the basic region feature, or An expression step for adaptively expressing the combined area feature or the partial area feature with reference to the integrated area design map.
本発明に係る画像加工プログラムは画像を加工する画像加工プログラムであって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した基本領域特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う手段としてコンピュータを機能させるものである。
An image processing program according to the present invention is an image processing program for processing an image,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing, for each basic area, the basic area feature calculated by the computer in the basic area feature calculating means;
Area integration means for creating an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage means by the computer;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Based on the result calculated from the two area features, the integrated area feature of the integrated area stored in the integrated area feature storage means and the basic area feature stored in the basic area feature storage means, the image data is converted into the image data. On the other hand, the computer is caused to function as a means for performing expression processing.
本発明に係る画像加工プログラムは画像を加工する画像加工プログラムであって、
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した特徴を基本領域毎に記憶する基本領域特徴特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合手段と、
前記コンピュータが、前記領域結合手段において結合した結合領域を記憶する結合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴と基本領域特徴記憶手段において記憶した基本領域特徴と結合領域を記憶する結合領域特徴記憶手段において記憶した結合領域特徴との全て、あるいは任意の数種の領域を前記統合領域デザインマップを参照しながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割手段と、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更手段と、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参考にしながら、適応的に画像加工処理を行う手段としてコンピュータを機能させるものである。
An image processing program according to the present invention is an image processing program for processing an image,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic region feature feature storage means for storing, for each basic region, the features calculated by the computer in the basic region feature calculation means;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage means to create an integrated area, and an area integration means for producing an integrated area design map;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Area combining means for creating a combined area by combining a plurality of basic areas based on the integrated area features stored in the integrated area feature storage means by the computer;
A combined region feature storage means for storing a combined region combined by the computer in the region combining means;
All of the integrated region feature stored in the integrated region feature storage unit and the basic region feature stored in the basic region feature storage unit and the combined region feature stored in the combined region feature storage unit that stores the combined region, or A partial region dividing means for adaptively dividing a plurality of arbitrary regions into a plurality of portions while referring to the integrated region design map, and calculating a partial region feature for each partial region;
Feature change means for the computer to change the integrated region feature, or the basic region feature, or the combined region feature, or the partial region feature;
Means for adaptively performing image processing on the integrated region feature, the basic region feature, the combined region feature, or the partial region feature while the computer refers to the integrated region design map. It is what makes a computer function.
更に本発明はコンピュータに用いられ、画像データを加工するプログラムにおいて、
画像データに含まれる画素について、少なくとも色を判断基準の一つとして各画素をグループ化し、これにより当該画像データを複数の基本領域に分割するステップと、
分割された基本領域毎に、少なくとも色の特徴を含む当該基本領域の特徴を算出するステップと、
分割された基本領域について、注目した一の基本領域に対して互いに連鎖しかつ互いに隣接するもの同士の基本領域の特徴の差が第1の閾値より小さい基本領域群を検出し、それら基本領域をグループ化して仮統合領域とし、同様にして前記一の基本領域以外の基本領域に対してもグループ化される基本領域群を検出して仮統合領域とし、こうして複数の第1回目の仮統合領域を得るステップと、
第1の閾値を、第1回目の仮統合領域を得るステップ時よりも大きくし、前記ステップと同様のステップを行って、複数の仮統合領域を得てこれらを第2回目の仮統合領域とし、第1回目の仮統合領域と第2回目の仮統合領域とが共通の基本領域を含んでいてかつ第1回目の仮統合領域に含まれる基本領域の数に対する第2回目の仮統合領域の基本領域の数の増加率が予め設定された値よりも小さいときに、その仮統合領域を正式な統合領域として決定するステップと、
第2回目の仮統合領域が決定した後に、第1の閾値の値を更に大きくして同様にして3回目の仮統合領域を定める処理を行うと共に、同様にして2回目の仮統合領域を正式に統合領域として決定する処理を行い、以後、同様の操作を複数回繰り返し、繰り返す際に、前回の処理で統合領域として決定した基本領域を除いた残りの基本領域に対してのみ統合処理を続けるステップと、
正式な統合領域としての決定処理が終った後、正式な統合領域ごとに、何回目の仮統合処理により仮統合領域から正式な統合領域に決定されたのかを示す段階数を記録するステップと、
前記正式に決定された統合領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該統合領域の特徴を算出するステップと、を含むことを特徴とする。
Furthermore, the present invention is used in a computer, and in a program for processing image data,
For each pixel included in the image data, grouping each pixel using at least a color as one of the determination criteria, thereby dividing the image data into a plurality of basic regions;
Calculating a feature of the basic region including at least a color feature for each divided basic region;
For the divided basic regions, a basic region group in which features of the basic regions that are adjacent to each other and are adjacent to each other with respect to the one basic region of interest are smaller than the first threshold is detected, and the basic regions are detected. Similarly, a group of temporary integrated areas is grouped, and a group of basic areas that are also grouped with respect to a basic area other than the one basic area is detected and set as a temporary integrated area. And getting the steps
The first threshold value is made larger than that in the step of obtaining the first temporary integration region, the same steps as the above step are performed, and a plurality of temporary integration regions are obtained, and these are used as the second temporary integration region. The first temporary integration area and the second temporary integration area include a common basic area, and the second temporary integration area corresponds to the number of basic areas included in the first temporary integration area. When the rate of increase in the number of basic areas is smaller than a preset value, determining the provisional integrated area as a formal integrated area;
After the second temporary integration area is determined, the first threshold value is further increased and the third temporary integration area is determined in the same manner. Similarly, the second temporary integration area is formalized. After that, when the same operation is repeated several times, the integration process is continued only for the remaining basic areas excluding the basic area determined as the integrated area in the previous process. Steps,
After the process of determining as a formal integration area is completed, for each formal integration area, recording the number of stages indicating the number of temporary integration processes determined from the temporary integration area to the formal integration area;
Calculating a feature of the integrated region including at least a color feature based on pixel data included in the basic region for each officially determined integrated region.
このプログラムにおいて、前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかを決定するステップと、
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定するステップと、を含むようにしてもよい。なお統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかの決定は例えば、前記統合領域の段階数に応じて行われる。
In this program, according to the integration area, determining whether the integration area is a unit area for expression or a basic area included in the integration area is a unit area for expression;
For each unit region of the expression determined based on the selected result, a step of determining a color of a pixel included in the unit region based on the feature of the unit region of the expression may be included. The determination of whether the integrated area is the unit area for expression or the basic area included in the integrated area is the unit area for expression is performed, for example, according to the number of stages of the integrated area.
本発明によれば、画像データについて、色的にも距離的にも近い画素同士をまとめてグループ化し、これにより複数の基本領域に分割すると共にこれら複数の基本領域において互いに似通っている基本領域同士を更にグループ化して複数の統合領域とし、統合領域自体を表現の単位とするのか、それとも基本領域を表現の単位とするのかを、自動あるいは手動で指定するようにしているため、多様な表現を実現することができる。 According to the present invention, for image data, pixels that are close in color and distance are grouped together and divided into a plurality of basic areas, and the basic areas that are similar to each other in the plurality of basic areas are grouped together. Are grouped into multiple integrated areas, and whether the integrated area itself is used as the unit of expression or the basic area is used as the unit of expression is specified automatically or manually. Can be realized.
また画像データを複数の基本領域、統合領域、結合領域及び部分領域に分割し、夫々の特徴を算出し、統合領域デザインマップの情報、またはデータ入力手段から入力される情報、または予め決められた計算式に従って、画像を構成する画素が、各領域の特徴量のいずれかを基にして、いずれの画素特徴計算式を利用するかを決定したのち、画像を構成する画素特徴が計算されるため、一つの作品の中に多様な表現を盛り込むことが可能になる。 Also, the image data is divided into a plurality of basic areas, integrated areas, combined areas, and partial areas, and the characteristics of each are calculated, information on the integrated area design map, information input from the data input means, or predetermined Because the pixel features that make up the image are calculated after deciding which pixel feature calculation formula to use for the pixels that make up the image based on any of the feature quantities in each region according to the formula , It becomes possible to include various expressions in one work.
以下、本発明の一実施の形態による画像加工装置について図面を参照しながら説明する。図1は、本発明の一実施形態による画像加工装置の構成を示すブロック図である。図1に示す画像加工装置は、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、外部記憶装置、入力装置、表示装置、通信装置等を備えるコンピュータから構成されている。このコンピュータは、外部記憶装置等に予め記憶されている画像加工プログラムをCPU等で実行することにより、画像データ入力部1、画像特徴抽出部2、基本領域分割部3、基本領域特徴算出部4、基本領域特徴記憶部5、領域統合部6、統合領域特徴算出部7、統合領域特徴記憶部8、領域結合部9、結合領域特徴算出部10、結合領域特徴記憶部11、部分領域分割部12、部分領域特徴算出部13、部分領域特徴記憶部14、表現部15、特徴変更部16、統合領域デザインマップ記憶部17、画像処理領域指示部18、画像処理領域プリセット記憶部19、データ入力部20、画像データ表示部21、画像データ出力部22、分割画像データ記憶部23、処理手順記憶部24として機能する。
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention. The image processing apparatus shown in FIG. 1 is composed of a computer having a ROM (Read Only Memory), a CPU (Central Processing Unit), a RAM (Random Access Memory), an external storage device, an input device, a display device, a communication device and the like. ing. In this computer, an image processing program stored in advance in an external storage device or the like is executed by a CPU or the like, whereby an image
前記画像データ入力部1は、マウス、キーボード及びタブレット等の入力装置、通信インターフェース等の通信装置から構成され、入力装置を用いたユーザーの指令に応じて、スキャナ及びデジタルカメラ等の画像データを原画像として受け付け、原画像を画像特徴抽出部2を構成する基本領域分割部3に入力すると共に、その画像に対する画像処理の手順と処理に必要なパラメータを記述した処理手順をキーボードから直接受け付けたり、ハードディスクから読み込んだりして、その処理手順をRAMまたは外部記憶装置等から構成される処理手順記憶部24に記憶する。
The image
ここで原画像としては、種々の画像データを用いることができ、RGB表色系、XYZ表色系、L*a*b*表色系で表現される画像データを用いたり、一枚または複数枚の画像データを用いたりしても良い。 Here, various image data can be used as the original image, and image data expressed in RGB color system, XYZ color system, L * a * b * color system can be used, or one or a plurality of image data can be used. A sheet of image data may be used.
前記基本領域分割部3は、入力される原画像を処理手順記憶部24に記憶されている処理手順に従い、公知の領域分割処理により複数の基本領域に分割し、その結果を分割画像データ記録部23に保存すると共に、基本領域特徴算出部4で分割された基本領域を、分割画像データ記録部23に記憶されている分割画像データを基に、当該基本領域毎に当該基本領域の特徴を算出し、算出された基本領域特徴は基本領域特徴記憶部5に保存される。
The basic
ここで領域分割処理としては、種々の領域分割処理を用いることができ、5次元のK-平均アルゴリズム(泉ら:「色情報と位置情報とを併用したセグメンテーション手法の一検討」、電子情報通信学会春期全国大会予稿集、D680(1991)、特開平10−11569号広報に開示されている絵画から筆触を抽出する手法を用いることができる。また基本領域の特徴は、少なくとも基本領域の平均色、基本領域の画像上の位置、基本領域に含まれる画素数を含み、必要に応じて第1主成分、第2主成分等、基本分割領域から抽出可能な特徴量を用いても良い。具体的な領域分割の手法及び様子は後述する。 Here, as the area division process, various area division processes can be used, and a five-dimensional K-average algorithm (Izumi et al .: “Study of a segmentation method using color information and position information together”, electronic information communication The method of extracting brush strokes from the paintings disclosed in the Annual Meeting of the Spring Meeting of the Society of Japan, D680 (1991), and Japanese Laid-Open Patent Publication No. 10-11569 can be used. , Including the position of the basic region on the image and the number of pixels included in the basic region, features that can be extracted from the basic divided region, such as the first principal component and the second principal component, may be used as necessary. A method and state of a typical area division will be described later.
前記基本領域特徴記憶部5は、RAMまたは外部記憶装置等から構成され、基本領域特徴を当該基本領域の領域番号に対応付けてテーブル形式で記憶する。
The basic area
前記領域統合部6は基本領域特徴記憶部5に保存されている基本領域特徴を基に、処理手順記憶部24に記憶されている処理手順に従い、複数の基本領域を統合して統合領域を作成し、該統合領域の統合領域番号に対応付けてその統合領域にまとめられた基本領域番号を統合領域対応番号表として統合領域特徴記憶部8に保存すると共に、統合された領域の性質と何度目の繰り返し処理によって統合されたかという情報を統合領域記号として統合領域デザインマップにまとめ、それを統合領域デザインマップ記憶部17に保存する。
Based on the basic region features stored in the basic region
前記統合領域特徴算出部7は、領域統合部6において一つの統合領域に統合された基本領域が一つのまとまりとしての特徴を分割画像データ記憶部23に記憶されている分割画像データを基にして算出する。
The integrated region
前記統合領域特徴記憶部8は、RAMまたは外部記憶装置等から構成され、統合領域特徴算出部7によって算出された領域特徴を当該統合領域の領域番号に対応付けてテーブル形式で記憶する。
The integrated region
前記領域結合部9は、同一の領域統合としてまとめられた近接する複数の基本領域の中から、処理手順記憶部24に記憶されている処理手順に決められたルールと、場合によっては画像処理領域指示部18によって指示されたルールとを用いて、結合される基本領域を選び、該結合領域の結合領域番号に対応付けてその結合領域にまとめられた基本領域番号を結合領域対応番号表として結合領域特徴記憶部11に保存する。
The
前記結合領域特徴算出部10は、領域結合部9にて一つの結合領域に統合された基本領域が一つのまとまりとしての特徴を分割画像データ記憶部23に記憶されている分割画像データを基に算出する。
The combined region
前記結合領域特徴記憶部11は、RAMまたは外部記憶装置等から構成され、結合領域特徴算出部10によって算出された特徴を当該結合領域の領域番号に対応付けてテーブル形式で記憶する。
The combined region
前記部分領域分割部12は、基本領域特徴記憶部5に記憶されている基本領域特徴と統合領域特徴記憶部8に記憶されている統合領域特徴と結合領域特徴記憶部11に記憶されている結合領域特徴とから、処理手順記憶部24に記憶されている処理手順に決められたルールと、場合によっては画像処理領域指示部18によって指示されたルールも用いて各領域特徴を選び出し、選び出された各領域特徴を処理手順記憶部24によって予め決められた手法、または画像処理領域指示部18によって指示された手法に基づいて部分領域に分割し、部分領域とその基になった基本領域、統合領域及び結合領域との対応関係を部分領域対応番号表として部分領域特徴記憶部14に保存する。
The partial
前記部分領域特徴算出部13は、部分領域分割部12によって分割された部分領域の特徴を分割画像データ記憶部23に記憶されている分割画像データを基に算出する。
The partial region
前記部分領域特徴記憶部14は、RAMまたは外部記憶装置等から構成され、部分領域特徴算出部13によって算出された特徴を当該部分領域の領域番号に対応付けてテーブル形式で記憶する。
The partial area
前記表現部15は、基本領域特徴記憶部5に記憶されている基本領域特徴と統合領域特徴記憶部8に記憶されている統合領域特徴と結合領域特徴記憶部11に記憶されている結合領域特徴と部分領域特徴記憶部14に記憶されている部分領域特徴とから、処理手順記憶部24に記憶されている処理手順に決められた手法と、場合によっては画像処理領域指示部18によって指示された手法とに基づいて絵画風画像を構成する。
The
前記特徴変更部16は、処理手順記憶部24に記憶されている処理手順に決められた手法と、場合によっては画像処理領域指示部18によって指示された手法とに基づいて、基本領域特徴記憶部5に記憶されている基本領域特徴と統合領域特徴記憶部8に記憶されている統合領域特徴と結合領域特徴記憶部11に記憶されている結合領域特徴と部分領域特徴記憶部14に記憶されている部分領域特徴とに選択的に変更を加える。
The feature changing unit 16 is based on a method determined by the processing procedure stored in the processing
前記統合領域デザインマップ記憶部17は、領域統合部6が統合する際に算出した統合領域記号を統合領域番号と共にまとめた統合領域デザインマップを記憶しており、この統合領域デザインマップは画像処理領域指示部18に利用される。
The integrated region design
前記画像処理領域指示部18は、統合領域デザインマップ記憶部17に記憶されている統合領域デザインマップ内の統合領域記号を基に、領域結合部9、部分領域分割部12、表現部15、特徴変更部16の全て、または一部に、画像処理領域プリセット記憶部19に予め保存されている処理の指示プリセットから、またはキーボード等から構成されるデータ入力部20を介して入力されるオペレータの命令により、どの領域にどの処理を行うかを指示する。
The image processing
前記画像処理領域プリセット記憶部19は、画像処理領域指示部18に利用される処理の指示プリセットが多数保存されている。
The image processing area preset
前記データ入力部20は、画像処理領域指示部18にオペレータが命令を送るための入力装置であり、キーボードやマウスまたはペンタブレット、音声認識装置等から構成されている。
The
前記画像データ表示部21は、表現部15によって計算された加工画像を表示したり、統合領域デザインマップ記憶部17に記憶されている統合領域記号をオペレータに表示したりするCRTや液晶ディスプレー等によって構成されている。
The image
前記画像データ出力部22は、紙等に出力するプリンターやCRTや液晶画面に表示するディスプレー等によって構成されており、表現部15によって計算された加工画像を表示したり、プリントしたりする。
The image
前記分割画像データ記憶部23は、RAMまたは外部記憶装置等から構成され、基本領域分割部3によって基本領域に割り振られた画素のリストを記憶している。
The divided image
前記処理手順記憶部24は、RAMまたは外部記憶装置等から構成され、画像データ入力部1から入力された画像に対応した処理手順を保存しており、保存された処理手順は選択的に処理を行う各処理部(領域統合処理、領域結合処理、部分分割処理及び表現処理)で利用される。
The processing
本実施の形態では、各部は各手段の一例に相当するが、画像処理領域指示部18及び画像処理領域プリセット記憶部19については、領域結合部9、部分領域分割部12、表現部15及び特徴変更部16の一部に相当する。
In the present embodiment, each unit corresponds to an example of each unit, but the image processing
次に、上記のように構成された画像加工装置による画像加工処理について説明する。図2は、図1に示す画像加工装置による画像加工処理を説明するためのフローチャートである。先ず、ステップS1において、画像データ入力部1から画像データ及び処理手順が取得される。取得された画像データは基本領域分割部3に送られると共に、処理手順は処理手順記憶部24に保存される。
Next, an image processing process performed by the image processing apparatus configured as described above will be described. FIG. 2 is a flowchart for explaining the image processing by the image processing apparatus shown in FIG. First, in step S1, image data and a processing procedure are acquired from the image
次に、ステップS2において、処理手順記憶部24に保存されている処理手順に従い、基本領域の分割が行われる。ここでの分割が最終的な絵画を作り出す筆触の基本になるため、原画像が持つ特徴に合わせて適応的に例えばk−平均アルゴリズムの初期値を変化させることが好ましい。例えば、原画像の空間的な色変化が激しい場合はエッジとみなされる特徴が多くなるため、既知のエッジ抽出演算子を用いてエッジを検出し、このエッジの特徴の多少に合わせて、領域数の初期値を変化させる等の手法である。
Next, in step S <b> 2, the basic area is divided in accordance with the processing procedure stored in the processing
k−平均アルゴリズムを用いた領域分割のイメージを図3に示す。ここでは理解を容易にするために極めて模式的な説明で進める。先ず取り込んだ画像データ100Aを例えば3×3の領域に等分に分割する。そしてそのうちの一つの領域100について領域分割を行う。これは例えば適当に9分割し(この例では、画像データ100Aの分割数と偶然同じ数になっている)、分割された9つの領域に含まれる画素の平均色、重心を計算しそれをそれぞれの領域中心として定義する。図3(a)の例では、便宜上一列、3行に各重心を配列して示されている。そして領域100内の全ての画素が前記9個の領域中心のいずれに近いかを計算する。ここでいう「近い」とは、色及び位置が近いということである。より具体的には、各画素のR(赤色)、G(緑色)、B(青色)の色の強さを夫々便宜上R、G、BとしかつXY座標における座標をX,Yとし、同様に前記領域中心の一つ例えば図3(b)に示した領域中心M11についても同様に色の強さをr、g、bとしかつ重心のXY座標における座標をx,yとし、(1)式の計算を行う。
{(R−r)2+(G−g)2+(B−b)2+(X−x)2+(Y−y)2}1/2 ………(1)
即ち領域100に含まれる全ての画素について、前記9個の領域中心(図3の9個のプロット)に対して(1)式の計算を行うことになる。そうするとある画素に着目した場合、当該画素についての計算結果が9個得られることになる。この中で最小の値が得られる領域中心の領域に当該画素が含まれることになる。これは領域中心M11と他の領域中心とのいずれに対しても色の強さが同じであれば、つまり(1)式の前半3項の値が同じであれば、距離的に近い設定画素の方と仲間になるということである。このような計算を繰り返すことにより全画素が前記9個の領域中心のどの画素とグループ化されるのかが決定される。図3(b)はこの様子を示したものである。
An image of region division using the k-average algorithm is shown in FIG. Here, in order to facilitate understanding, a very schematic explanation will be given. First, the captured
{(R−r) 2 + (G−g) 2 + (B−b) 2 + (X−x) 2 + (Y−y) 2 } 1/2 (1)
That is, with respect to all the pixels included in the
ところで9個の領域中心は適当に決めたものであるから、更に次の処理を行う。図3(b)のようにグループ化された領域の各々についてX,Y座標における重心を求め、その重心の画素を新たな領域中心とする。図3(c)の●は旧領域中心、○は新たな領域中心である。そして領域100内の全画素についてこれら新たな9個の領域中心に対して既述と全く同じ処理(図3(a)〜(c)の処理)を行い、得られたグループについて同様に重心を求め、更なる新たな9個の領域中心を求める。このような処理を繰り返していくと、9個の領域中心の位置が収束する。そのときの9個のグループの各々が基本領域ということになる。そして領域100以外の他の8個の領域についても同様にしてグループ化し、基本領域を得る。なお画像データ100Aは縦横に分割しなくてもよいが、処理の時間を短縮する上では分割して処理した方が得策である。
By the way, since the nine area centers are appropriately determined, the following processing is further performed. For each of the grouped regions as shown in FIG. 3B, the center of gravity in the X and Y coordinates is obtained, and the pixel at the center of gravity is set as the new region center. In FIG. 3C, ● represents the center of the old area, and ○ represents the center of the new area. Then, all the pixels in the
この領域分割処理が終了すると、全ての画素は基本領域に属していることになるので、その対応関係を記述した分割画像データを分割画像データ記憶部23に記憶しておく。この分割画像データとは、イメージとしては画像データが基本領域に分割された状態を示し、画像領域に分割の境界線が記載されたものであり、
データとしては、基本領域の番号と当該基本領域に含まれる画素のX,Y座標位置とを対応づけたものである。
When this region division processing is completed, all the pixels belong to the basic region, and therefore, the divided image data describing the corresponding relationship is stored in the divided image
As the data, the number of the basic area is associated with the X and Y coordinate positions of the pixels included in the basic area.
次のステップS3では、分割画像データ記憶部23に記憶されている分割画像データを基に、基本領域特徴算出部4により基本領域の特徴を計算する。前記ステップS2でk−平均アルゴリズムを利用した場合には、分割処理が終了した時点で、基本領域の重心値、平均色、基本領域に含まれる画素数は既に計算されているが、そうでない場合は、これらも基本領域の特徴と一緒に計算する。また、これらの値に加え、特開平10−11569号広報に開示されてる技術と同様の手法で領域nの方向要素Dn、扁平要素Tnなどを計算し、その結果を基本領域特徴記憶部5に保存する。
In the next step S <b> 3, the basic region
ここで方向要素Dnとは、図4に示すように基本領域300の伸びている方向を表す。
より具体的には、基本領域300を楕円と見立ててその長軸の伸びている方向を示し、例えば画像データのX軸に平行な向きを0度とし、0度から180度までを所定の数に等分割し、方向要素Dnとして割り当てることができる。またこの方向要素Dnは、分散が最大になるときの両端の画素を求めそれらの画素を結ぶ直線201の方向として決めることもできる。更に扁平要素Tnとは、分散が最小になるときの両端の画素を求め、それらの画素を結ぶ直線202の長さを先の直線の長さで割り算した値として決めることができる。
Here, the direction element Dn represents the direction in which the
More specifically, the
図5は基本領域の番号と、当該基本領域の特徴とを対応づけたデーブルを示しており、各基本領域毎に、赤色、緑色、青色の各色の強さの平均値と、重心位置と、方向要素と、扁平要素と、画素数と、が記載されている。 FIG. 5 shows a table in which the number of the basic region is associated with the feature of the basic region. For each basic region, the average value of the intensity of each color of red, green, and blue, the position of the center of gravity, A direction element, a flat element, and the number of pixels are described.
次のステップS4において、処理領域手順記憶部24に保存されている処理手順の指示に従い基本領域特徴の値を基に領域統合処理を行う。処理手順の指示には、定数C1、C2、C3、C4、C5、C6、C7、C8、C9、C10が記述されており、これらの値を用いて領域統合部6の処理が行われる。領域統合部6の処理の詳細をフローチャートにより説明するが、その前に理解を容易にするために図6から図8を参照しながら処理の概要について説明しておく。
In the next step S4, region integration processing is performed based on the values of the basic region features in accordance with the processing procedure instructions stored in the processing region
この統合処理で行おうとしていることは、既述のようにして求められた基本領域をグループ化することにある。このグループ化は、基本領域の特徴が似通っており、且つ隣接しているもの同士をまとめることにより行われるが、この実施の形態では、似通っている基本領域同士を一旦グループ化して仮統合領域なるものを形成し、この仮統合領域を検証して正式な統合領域としている。グループ化をするにあたり、基本領域同士が似通っているか否かの判断は、基本領域の特徴の差が閾値よりも低いか否かを判断することにより行われる。基本領域の特徴の差とは、例えば色の強さの差であり、ある基本領域のR、G、Bの強さをR、G、Bとし、隣接する基本領域の色の強さをr、g、bとすると、これら色の強さの差(特徴の差D)とは、(2)式で表される。
D={(R−r)2+(G−g)2+(B−b)2}1/2 ………(2)
あるいは色の強さと既述の方向要素とを加えたものを特徴として取り上げるときには、一方の基本領域の方向要素及び他方の基本領域の方向要素を夫々Dn及びdnとすると、特徴の差Dは(3)式で表される。
D={(R−r)2+(G−g)2+(B−b)2+(Dn−dn)2 }1/2 ………(3)
また特徴の差としては、更に既述の扁平要素を加えるようにしてもよく、どれを特徴の差とするかは適宜決定することができる。仮統合領域の決定の様子を図6及び図7を参照しながら極めて模式的に説明する。所定の順序で各基本領域に注目する。今基本領域1番に注目したとすると、この基本領域1番の周囲の基本領域に対して順番に特徴の差を求め、その特徴の差Dが閾値C6よりも小さければこれら基本領域同士をグループ化する。「周囲の基本領域に対して順番に特徴の差を求める」とは、基本領域1番に近い基本領域のうち例えば重心同士が近いものの上位9番目(この「9番目」は実際の装置において適用される一例である)までを拾い上げて比較するという意味である。この例では、基本領域1番に対して特徴の差が閾値C6よりも小さい基本領域が3番、9番であったとすると、図7に示すように1番、3番、9番の基本領域がグループ化される。同様にして基本領域2番に注目すると、5番、7番、10番であり、これらがグループ化される。そして基本領域3番と6番とがグループ化されたとすると、1番、3番、6番、9番がグループ化される。以下同様にして、基本領域の仲間同士が連鎖してグループ化され、統合される。こうして統合された領域が仮統合領域であり、図8(a)に示される。
What is going to be done in this integration process is to group the basic areas obtained as described above. This grouping is performed by grouping adjacent features that are similar in basic region, but in this embodiment, similar basic regions are once grouped into temporary integrated regions. The temporary integration area is verified and made into a formal integration area. In grouping, whether or not the basic regions are similar is determined by determining whether or not the difference in features of the basic regions is lower than a threshold value. The difference in the characteristics of the basic area is, for example, a difference in color intensity. The intensity of R, G, B in a certain basic area is R, G, B, and the intensity of color in an adjacent basic area is r. , G, and b, the difference in intensity between these colors (characteristic difference D) is expressed by equation (2).
D = {(R−r) 2 + (G−g) 2 + (B−b) 2 } 1/2 (2)
Alternatively, when taking the addition of the color strength and the above-described direction element as a feature, if the direction element of one basic region and the direction element of the other basic region are Dn and dn, respectively, the difference D of the feature is ( 3) It is expressed by the formula.
D = {(R−r) 2 + (G−g) 2 + (B−b) 2 + (Dn−dn) 2 } 1/2 (3)
Further, as the feature difference, the above-described flat elements may be further added, and it is possible to appropriately determine which one is to be the feature difference. The manner of determining the temporary integration area will be described very schematically with reference to FIGS. Pay attention to each basic region in a predetermined order. If attention is paid to the basic area No. 1, the difference between the features is obtained in order with respect to the basic areas around the basic area No. 1, and if the difference D of the features is smaller than the threshold C6, these basic areas are grouped. Turn into. “Determining feature differences in order with respect to surrounding basic areas” means that the basic area closest to the basic area No. 1 is the top ninth of the basic areas close to each other (this “9th” is applied in an actual device) It is an example that is picked up and compared. In this example, if the basic areas whose feature differences are smaller than the threshold C6 with respect to the
この仮統合領域をそのまま統合領域としてもよいが、よりきめこまかな処理を後で行うことができる利点を得るために、この仮統合領域を検証する。今、全ての基本領域について仮統合領域としてまとめる処理(グループ化のチェック)が行われたとすると、全ての基本領域がいずれかの仮統合領域に属するとは限らないが、基本領域一つの領域も仮統合領域と考えることにする。 This temporary integration area may be used as the integration area as it is, but this temporary integration area is verified in order to obtain an advantage that more detailed processing can be performed later. Assuming that processing (grouping check) is performed for all the basic areas as a temporary integration area, not all the basic areas belong to one of the temporary integration areas. We will consider it as a temporary integration area.
こうして1回目のグループ化のチェックが行われた後、再度全ての基本領域について同様の処理を行う。つまり2回目のグループ化のチェックを行う。ただしこのときの閾値C6の値は、1回目の閾値よりも高くする。高くした閾値よりも特徴の差が小さいときにグループ化されるということは、つまりグループ化する条件を緩めることである。このようにしてグループ化すると、1回目にグループ化されたもの同士は離れることはなく、新たな基本領域が仲間に加わることになる。図8(b)は2度目の仮統合処理の途中経過を示している。ここで基本領域5が仮統合領域の1と2に含まれているので、仮統合領域の1と2は番号の小さな1の方に統合され2はなくなる。図8(c)は2度目の仮統合処理結果を示している。そして各仮統合領域に含まれる基本領域の数が1回目に比べてどれだけ増えたかをチェックする。例えば図8において仮統合領域番号1番の基本領域の数は1回目は4個、2回目は10個であり、増加率は15割になる。この基本領域の数の増加率が所定値以下であれば、例えば1割以下であれば、その仮統合領域を、正式に統合領域とする。これは、ある条件で仲間を集め、少し条件を緩めて仲間を集めてみてもそれほど仲間の数が変わらないということは、周囲に比べて特徴の度合いの強いグループであると判断しているのである。なおより詳しくは、後のフローチャートに示しておくが、仮統合領域内の基本領域の数が所定値以上であることも条件に加えている。正式な統合領域になった基本領域群は、それ以降のグループ化処理からは外れる。
After the first grouping check is thus performed, the same processing is performed again for all the basic areas. That is, the second grouping check is performed. However, the value of the threshold C6 at this time is set higher than the first threshold. Grouping when the feature difference is smaller than the raised threshold means that the grouping condition is relaxed. When grouped in this way, the first grouped items do not leave each other, and a new basic area is added to the group. FIG. 8B shows the progress of the second temporary integration process. Here, since the
このようなグループ化処理を所定回数、例えば7回行うとすると、どの段階で正式な統合領域に格上げされたかを記録しておく。例えば仮統合領域番号j番は、2回目のグループ化処理で正式な統合領域になったとすると、2段階目の仮統合領域ということになり、以下の説明ではこれを2thの均一統合領域と呼ぶ場合もある。最終的には2thの均一統合領域、3thの均一統合領域………7thの均一統合領域が形成される。早く統合されて均一統合領域になるものほど、周囲に対する特徴の度合いの強いグループということがいえる。後述するが、このように統合領域に優先順位をつけておいて管理すると、きめ細かな筆触を表すことができる。 If such a grouping process is performed a predetermined number of times, for example, 7 times, it is recorded at which stage it has been upgraded to a formal integrated area. For example, if the temporary integration area number j becomes a formal integration area in the second grouping process, it is a second-stage temporary integration area, and in the following description, this is called a 2th uniform integration area. In some cases. Eventually, a 2th uniform integrated region, a 3th uniform integrated region,..., A 7th uniform integrated region are formed. It can be said that the group that has been integrated quickly and becomes a uniform integrated region is a group with a strong degree of feature to the surroundings. As will be described later, when the integrated areas are prioritized and managed in this way, fine brushstrokes can be expressed.
ここでこの例では均一統合領域の他に対比統合領域というものも扱っている。i回目例えば2回目のグループ化処理を終えて、仮統合領域について正式な均一統合領域にするか否かをチェックし、「否」であると判定された場合には、その仮統合領域が周囲に対して対比の強い領域か否かを所定条件の下で判定し、対比が強いと判断されれば対比統合領域として管理され、以降のグループ化処理から外れることになる。この場合もどの段階で対比統合処理になったかが記録され、2thの対比統合領域、3thの対比統合領域………7thの対比統合領域が形成されることになる。 In this example, in addition to the uniform integrated region, a contrast integrated region is also handled. After completing the i-th grouping process, for example, the second grouping process, it is checked whether or not the temporary integrated area is a formal uniform integrated area. If it is determined as “No”, the temporary integrated area It is determined whether or not it is a region having a strong contrast, and if it is determined that the contrast is strong, it is managed as a contrast integrated region and deviates from the subsequent grouping process. Also in this case, the stage at which the comparison integration process is performed is recorded, and the 2th comparison integration area, the 3th comparison integration area,..., The 7th comparison integration area is formed.
以上の模式的な説明を踏まえた上で図9と図10に示したフローチャートで統合処理の具体的なステップについて説明する。 Based on the schematic description above, specific steps of the integration process will be described with reference to the flowcharts shown in FIGS.
先ず、領域統合部6の処理繰り返し回数i=0とし、図9に示したステップS101において、処理回数iを増やす。
First, the processing integration count i of the
次にステップS102で予め決められている繰り返し終了回数C1、例えばC1=10より大きいかどうかを判断し、もし大きければ、その時点で処理を終了する。もし小さければ、処理をS103に移行する。 Next, in step S102, it is determined whether or not the number of repetition end times C 1 determined in advance, for example, C 1 = 10 is greater, and if so, the process ends at that point. If it is smaller, the process proceeds to S103.
ステップS103では仮統合領域の決定を行う。この仮統合領域の決定プロセスは、後程図10のフローチャートで説明する。i回目の仮統合領域が決定したら、通し番号jの順番に全ての仮統合領域を次のステップの条件を満たしているかどうかを調べる。初期値としてj=1を入れる(S104)。 In step S103, a temporary integration area is determined. The process of determining the temporary integration area will be described later with reference to the flowchart of FIG. When the i-th temporary integration area is determined, it is checked whether all temporary integration areas satisfy the conditions of the next step in the order of serial number j. J = 1 is set as an initial value (S104).
ステップS105において、以下の条件を満たしているかどうかを調べる。 In step S105, it is checked whether the following conditions are satisfied.
Ni,j≧G/(U×i+1)、且つ(Ni,j−Ni−1,j)/Ni−1,j<C2
ここで、Ni,jはi回目に求められたj番目の仮統合領域に含まれる基本料域の数であり、Gには基本領域の総数を用い、Uは処理手順に記述されている値であり、例えば120が用いられる。この条件により、ある規定の数より大きな基本領域が仮統合領域に集まっているかどうかを判断している。
N i, j ≧ G / (U × i + 1) and (N i, j −N i−1, j ) / N i−1, j <C 2
Here, N i, j is the number of basic fee areas included in the j-th temporary integration area obtained for the i-th time, G uses the total number of basic areas, and U is described in the processing procedure. For example, 120 is used. Based on this condition, it is determined whether or not basic areas larger than a predetermined number are gathered in the temporary integration area.
また、もう一つの式によって、i−1回目に対応する仮統合領域に含まれる基本領域数がi回目の仮統合処理で大きく変化していないかどうかを調べている。ここで、C2も処理手順に記述されている値であり、例えば1.2を用いる。仮統合領域は先の模式的な説明において記述したように、i回目の仮統合処理で用いる閾値C6iをi−1回目の統合で用いる閾値C6i−1より大きくすることで、i回目の仮統合処理でつくられる仮統合領域に含まれる基本領域の数を増やしているが、この場合、この増加が1.2倍以下であることを調べている。 Further, another formula is used to check whether or not the number of basic areas included in the temporary integration area corresponding to the (i-1) th time is largely changed in the i-th temporary integration process. Here, C 2 also is a value described in the procedure, for example, a 1.2. As described in the schematic description above, the temporary integration region is set to the i-th time by making the threshold C 6i used in the i-th temporary integration processing larger than the threshold C 6i-1 used in the i- 1th integration. The number of basic areas included in the temporary integration area created by the temporary integration process is increased. In this case, it is examined that this increase is 1.2 times or less.
このように上の2つの条件を満たしている場合はステップS107に移り、仮統合領域から正式に均一統合領域として決定され、その基本領域を統合対象から除外する。つまり、基本領域のグループ化処理の回数を1回増やしたときに、あるグループに含まれる基本領域の数の増加率が設定値以上であり、そのグループ内の基本領域の数が設定値以上であったときに、そのグループを正式な統合領域とするのである。 When the above two conditions are satisfied, the process proceeds to step S107, where the temporary integrated area is officially determined as the uniform integrated area, and the basic area is excluded from the integration targets. That is, when the number of times of grouping basic areas is increased by 1, the rate of increase in the number of basic areas included in a group is greater than or equal to the set value, and the number of basic areas in the group is greater than or equal to the set value. When that happens, make the group a formal integration area.
次に、ステップS108に移り、決定した均一統合領域に、i-th均一統合領域と名付け、それを統合領域記号として統合領域デザインマップに通しの統合領域番号と共に保存し、さらに決定した均一統合領域とそこに属した基本領域の番号の対応表を統合領域特徴記憶部8に保存する。
Next, the process proceeds to step S108, where the determined uniform integrated region is named i-th uniform integrated region, which is stored as an integrated region symbol together with the integrated region number through the integrated region design map, and further determined uniform integrated region. And the correspondence table of the numbers of the basic areas belonging thereto are stored in the integrated area
ステップS105に戻り、先の2つの条件が満たされなかった場合は、ステップS106に移行する。ステップS106では、Ni,j≧C3、Ni,j≦C4、Ai,j>C5の3つの条件を全て満たしているかどうかを調べることで、統合領域の対比の強さを判断している。ここでAi,jは、次のようにして決められた値である。図11に示すように例えば注目した統合領域jに含まれその境界300に接した基本領域をkとし、当該統合領域jの境界300に接しかつ注目した統合領域jに含まれていない基本領域の中で基本領域kに最も近い基本領域をk`とする。そして基本領域kの明度と基本領域をk`の明度との差をとり、この差をAi,j,kとした場合、注目した統合領域jに含まれかつそのその境界300に接した全ての基本領域kについて同様の処理を行って得られたAi,j,kの平均を取った値がAi,j である。
Returning to step S105, if the above two conditions are not satisfied, the process proceeds to step S106. In step S106, by checking whether all three conditions of N i, j ≧ C 3 , N i, j ≦ C 4 , and A i, j > C 5 are satisfied, the contrast strength of the integrated region is increased. Deciding. Here, A i, j is a value determined as follows. As shown in FIG. 11, for example, a basic region that is included in the focused integrated region j and touches the
C5については、例えば原画像の明るさのレンジをLとし、基準閾値をB=L/80とした場合、C5は基準閾値Bの6倍の値を用いることができる。なお基準閾値とは、C5などの値を決めるためにコンピュータが持っている単位値である。ただし、C5は基準閾値Bの6倍に限らず、1倍から20倍の中の任意の値を利用することができる。また、C3=2及びC4=5を用いることで、対比が強く、面積が小さい統合領域を選び出している。
また、周りとの明るさの対比が同じでも、iが小さい値の時は統合領域内の基本領域の明るさのバラツキが少ないため、より強い対比を感じることができる。また、このステップにおいて、Ai,jには明るさの対比のみを扱ったが、明るさの対比に代えてあるいは明るさの対比に加えて色度、彩度を考慮した式を採用することもできる。この3条件全てが満たされた場合は、ステップS109に処理に移行し、満たされなかった場合はステップS111に移り、jの値を一つ増やしてステップ112に処理を移す。
The C 5, for example, the brightness range of the original image is L, if the reference threshold was B = L / 80, C 5 can be used six times the value of the reference threshold B. Note that the reference threshold is a unit value computer has to determine values such as C 5. However, C 5 is not limited to six times the reference threshold B, it is possible to use any value within the 20-fold from 1 times. Further, by using C 3 = 2 and C 4 = 5, an integrated region having a strong contrast and a small area is selected.
Even if the brightness contrast with the surroundings is the same, when i is a small value, there is little variation in the brightness of the basic area in the integrated area, so that a stronger contrast can be felt. In this step, Ai, j only deals with brightness contrast, but instead of brightness contrast or in addition to brightness contrast, formulas that consider chromaticity and saturation should be adopted. You can also. If all three conditions are satisfied, the process proceeds to step S109. If not satisfied, the process proceeds to step S111. The value of j is incremented by one, and the process proceeds to step 112.
ステップS109に処理が移った場合は、仮統合領域を正式に対比統合領域として決定し、統合対象から除外する。そして、次のステップS110において、i-th対比統合領域として統合領域デザインマップに記録した後、ステップS111に移り、jの値を一つ増やしてステップS112に処理を移す。 When the process moves to step S109, the temporary integration area is formally determined as the comparison integration area and excluded from the integration target. In the next step S110, the i-th contrast integrated region is recorded in the integrated region design map, and then the process proceeds to step S111, the value of j is incremented by one, and the process proceeds to step S112.
ステップS112においてjの値をi番目の処理の仮統合領域総数と比較し、同じであれば、この段階での仮統合領域について、正式な統合領域への移行処理を終えているので、ステップS101に移行し、異なる場合は正式な統合領域への移行処理が残っているので、ステップS104に移行する。 In step S112, the value of j is compared with the total number of temporary integration areas of the i-th process. If the values are the same, the transition process to the formal integration area has been completed for the temporary integration area at this stage. If there is a difference, the process of transition to the formal integration area remains, so the process proceeds to step S104.
次に、ステップS103の仮統合領域の決定方法について図10に示したフローチャートを用いて説明する。なおこのフローは、図8(a)〜(c)と対応している。ここでは、i回目の仮統合領域の決定フローであると仮定する。ステップS201において、仮統合領域番号jに対し、先ず初めに、それに含まれる初めの一つとなる基本領域j’を決め、基本領域j’を仮統合領域番号jのリストに入れる。 Next, the method for determining the temporary integration area in step S103 will be described using the flowchart shown in FIG. This flow corresponds to FIGS. 8A to 8C. Here, it is assumed that the determination flow is for the i-th temporary integration region. In step S201, for the temporary integration area number j, first, the first basic area j 'included in the temporary integration area number j is determined, and the basic area j' is entered into the list of temporary integration area numbers j.
続いてステップS202において、注目した基本領域j’とその周囲の基本領域j’’との特徴の差Dj’’を計算する。次にステップS203では、Dj’’<C6iをチェックし、この条件を満たしていたらステップS205に処理を移し、その基本領域j’’を仮統合領域jのリストに加える。ここで、C6iの値はC6i=i×B/C1とし、Bは先に示した基準閾値Bである。そのため、C6iの値は回数iが増えるたびに大きくなっていくので、統合回数が増えるたびに色差の大きな基本領域同士も統合され易くなっていく。 Subsequently, in step S202, a feature difference Dj ″ between the noticed basic region j ′ and the surrounding basic region j ″ is calculated. In step S203, Dj ″ <C 6i is checked. If this condition is satisfied, the process proceeds to step S205, and the basic area j ″ is added to the list of temporary integration areas j. Here, the value of C 6i is a C 6i = i × B / C1 , B is a reference threshold B shown above. For this reason, since the value of C 6i increases as the number of times i increases, basic regions having large color differences are also easily integrated each time the number of integrations increases.
上述のDj’’<C6iの条件を満たしていなかったら、ステップS204を飛ばしてステップS205に移行する。そして、ステップS205で、注目した基本領域j’の周囲に計算していない基本領域j’’が有るかどうかをチェックし、もし有ればステップS202に処理を移し、無ければ処理S206に処理を移す。 If the condition of Dj ″ <C 6i is not satisfied, step S204 is skipped and the process proceeds to step S205. In step S205, it is checked whether or not there is an uncalculated basic region j ″ around the noted basic region j ′. If there is, the process proceeds to step S202, and if not, the process proceeds to process S206. Transfer.
ステップS206では、仮統合領域リストj内に注目していない基本領域j’が有るかどうかを調べ、もし有れば、ステップS202へ移行し、無ければステップS207へ移行する。ステップS207では、全ての基本領域が仮統合領域に属しているかを調べ、属していたら仮統合領域処理を終了して、図3のステップS103に戻る。まだ属していないものが有れば、仮統合領域番号jを一つ増やして、ステップS201へ戻る。これが図4に示した仮統合領域を決定する処理の流れであり、図3及び図4の処理を繰り返すことで、統合領域が決定される。 In step S206, it is checked whether or not there is a basic area j 'that is not focused in the temporary integrated area list j. If there is, the process proceeds to step S202, and if not, the process proceeds to step S207. In step S207, it is checked whether all the basic areas belong to the temporary integrated area. If they belong, the temporary integrated area processing is terminated, and the process returns to step S103 in FIG. If there is something that does not yet belong, the temporary integrated area number j is incremented by one, and the process returns to step S201. This is the flow of the process for determining the temporary integration area shown in FIG. 4, and the integration area is determined by repeating the processes of FIGS. 3 and 4.
この統合処理の特徴として、仮統合領域に含まれる基本領域の数が閾値を変えて仮統合し直しても変わらなかった場合あるいはあまり変わらなかった場合に正式に統合領域と決定することで、例えば風景画において、空などのグラデーションの途中のような場所で統合領域が途切れてしまうことが避けられるという効果がある。なお仮統合領域に含まれる基本領域の数の変化の程度の把握については、その数の増加率について予め設定値を持っておけばよく、その設定値が1であれば、仮統合し直しても変わらなかった場合に相当し、また設定値が1に近い値であれば、あまり変わらなかった場合ということになる。これに対して1回目の仮統合領域を均一統合領域として扱うと、統合領域に優先順位がつけられないので、表現の自由度が狭まり、例えば連続して色が変わる領域について不連続な色の配置となり、不自然な表現になる場合もあるが、本発明はこのような場合も含まれる。 As a feature of this integration process, if the number of basic areas included in the temporary integration area does not change even if the temporary integration is changed again by changing the threshold, or if it does not change much, it is officially determined as the integration area, for example, In the landscape image, there is an effect that it is possible to prevent the integrated region from being interrupted at a place in the middle of gradation such as the sky. In order to grasp the degree of change in the number of basic areas included in the temporary integration area, it is only necessary to have a preset value for the rate of increase in the number. If the setting value is 1, provisional integration is performed again. Corresponds to the case where the value does not change, and if the set value is close to 1, it means that the value has not changed much. On the other hand, if the first temporary integration area is treated as a uniform integration area, priority cannot be given to the integration areas, so the degree of freedom of expression is narrowed. The arrangement may be unnatural, and the present invention includes such a case.
統合処理は、図2のステップS4で終わったことになるが、この時点で、統合領域番号と基本領域との対応関係(どの統合領域番号の統合領域にどの基本領域が含まれるかということ)が統合領域特徴記憶部8に記憶されているだけではなく、各統合領域がi度目の統合処理で統合され、それが均一統合領域もしくは対比統合領域として統合領域デザインマップに書き込まれていることになる。
The integration process ends in step S4 in FIG. 2. At this point, the correspondence between the integrated area number and the basic area (which basic area is included in the integrated area of which integrated area number). Is stored in the integrated region
また、この統合処理を行う際に、基本領域特徴nの一つである扁平要素TnがTn>C7を満たしている場合は、その基本領域を統合処理から外し、その基本領域をエッジ統合領域と名付け統合領域デザインマップの統合領域記号に「エッジ」と書き込んでも良い。
さらに、繰り返し処理が終了した後にどの統合領域にも含まれなかった基本領域については独立統合領域と名付け統合領域デザインマップにそれを統合領域記号として書き込んでも良い。このようにすることで、統合されていない一つの基本領域からなるエッジ統合領域と独立統合領域とを夫々加えることで、全ての基本領域が統合領域の統合領域記号として統合領域デザインマップに書き込まれることになる。ここで例えばC7は0.95を用いることができる。エッジ統合領域と独立統合領域は、画像の中で重要な表現を担うことが多く、例えば人の顔と背景との輪郭線などに相当するものであるから、これを抽出しておくことにより輪郭のぼけなどを回避することができる。
Further, when performing this integration process, if the flat element Tn is one of the basic region feature n meets Tn> C 7, removing the base area from the integration processing, edge integration region the base region “Edge” may be written in the integrated area symbol of the integrated area design map.
Further, a basic area that is not included in any integrated area after the repetition process is completed may be named an independent integrated area and written as an integrated area symbol in the integrated area design map. In this way, by adding an edge integration area consisting of one unintegrated basic area and an independent integration area, all the basic areas are written in the integrated area design map as an integrated area symbol of the integrated area. It will be. Here, for example C 7 may be used 0.95. The edge integration region and the independent integration region often play important expressions in the image, and correspond to, for example, the contour line between the human face and the background. Blur can be avoided.
話を戻して、図2のステップS5では、統合領域としてまとめられた画素を分割画像データ記憶部23の分割画像データから集めて、その統合領域特徴を計算する。計算する項目はステップS3と同じ項目、つまり、統合領域の重心値、平均色、統合領域nの方向要素Dn、扁平要素Tn及び統合領域に属する各基本領域に含まれる画素数である。これら統合領域の特徴は統合領域特徴記憶部8に保存される。
Returning to FIG. 2, in step S5 in FIG. 2, the pixels grouped as the integrated region are collected from the divided image data in the divided image
次に、ステップS6では、画像処理領域記憶部19に保存されている処理プリセットの情報を用いて自動で処理する場合と、統合領域デザインマップを画像データ表示部21に表示し、そのマップを参考にユーザーが処理をデータ入力部20を用いて指示する場合の2つから一つを選択することができる。
Next, in step S6, when processing is automatically performed using the information of the processing preset stored in the image processing
図2には、ステップS9からS13までの処理がシーケンシャルに記述されているが、処理手順記憶部24に記憶されている処理手順に、これらの処理の記述がない場合は、これらのステップを飛ばして、画像表現部15で画像特徴の算出を行うステップS13に移行する場合もある。この場合は、基本領域特徴及び統合領域特徴から、絵画作品を作り出すことになり、この2つの領域特徴から筆触を作り出す場合、基本領域特徴から小さな筆触が、そして統合領域特徴から大きな筆触が作り出される。今までは小さな筆触の多くに同じ色を塗ることで、広い範囲を一色にすることはできたが、このように極端に大きさの違う筆触が一つの絵の中で同時に作り出されることはなかった。
In FIG. 2, the processing from step S9 to S13 is described sequentially, but if there is no description of these processing in the processing procedure stored in the processing
ステップS9からステップS13までの処理は、基本領域を結合して大きくしたり、逆に分割して小さくしたりすることで、作り出す絵画作品に様々な表現を加えるためのものであるため、処理手順記憶部24に記憶されている処理手順に、結合処理に関するステップS9及びステップS10と部分領域処理に関するステップS11及びステップS12とのどちらか一方のみを行うという記述を行うことも可能である。
The processing from step S9 to step S13 is for adding various expressions to a painting to be created by combining and enlarging the basic regions, or conversely dividing and reducing the processing. It is also possible to describe in the processing procedure stored in the
即ち、ステップS5までの処理により得られた統合領域について、これをそのまま利用して表現(描画)していくのか、それとも各統合領域内のいくつかの基本領域を結合し(ステップS9及びS10)、それら結合領域を単位として描画するのか、あるいは各統合領域を部分分割して分割領域を単位として(ステップS11及びS12)描画するのかを選択していくことになる。なお最終的に表現処理(描画処理)を行う場合には、これらの領域単位の他に基本領域を単位とする場合も含まれる。 That is, whether the integrated area obtained by the processing up to step S5 is expressed (drawn) using it as it is, or some basic areas in each integrated area are combined (steps S9 and S10). Then, it is selected whether drawing is performed in units of these combined areas, or whether each integrated area is partially divided and drawn in units of divided areas (steps S11 and S12). Note that the final representation processing (drawing processing) includes the case where the basic region is used as a unit in addition to these region units.
ステップS9がどのようにして実行されるかについて述べると、ステップS6にて画像領域指示部18により自動処理が選択されると、画像領域指示部18は、画像処理領域プリセット記憶部19からプリセット処理の指示を読み込む。プリセット処理の指示とは、例えばth1からth7までの均一統合領域のうち、優先順位の高いもの例えばth1及びth2の均一統合領域については領域結合処理を行い、th3の均一統合領域については部分領域分割処理を行い、th4からth7の均一統合領域についてはどちらの処理も行わないといった指示である。なおここに示した例は、あくまでも模式的な説明であり、これらの指示は適宜予め設定される。
The following describes how step S9 is executed. When automatic processing is selected by the image
ステップS6にて手動処理が選択されると、図12に示すように統合デザインマップ記憶部17に記憶されている統合デザインマップを画面に表示し、操作する者がこの画面を見ながら既述のような指示を手動で入力する。従って通常は手動によるプリセット処理の方がきめ細かい表現をできるが、操作の簡略化という点を重視するならば自動処理が選択されるかもしれない。
When manual processing is selected in step S6, the integrated design map stored in the integrated design
ステップS9がある統合領域に対して実行される必要がある場合、先ず、当該統合領域内の基本領域をC8個ずつペアにする。ペアにするルールとしては、例えばC8=2の場合、近接している2つがなるべく縦につながる様にすることが好ましいが、つながった結果が丸に近くなるようなルールを使用することもできる。近接している2つが縦につながるルールとしては、注目した基本領域の重心位置に近い重心位置の基本領域を検索し、それら基本領域の方向ベクトルが一直線に近いもの同士を結合するといったルールが挙げられる。 If step S9 needs to be executed for a certain integrated area, first, C 8 basic areas in the integrated area are paired. As a rule for pairing, for example, in the case of C 8 = 2 it is preferable that two adjacent ones are connected as vertically as possible, but a rule that makes the connected result close to a circle can also be used. . The rule that two adjacent ones are connected vertically is a rule that searches for a basic region at a center of gravity close to the center of gravity of the basic region of interest, and connects those whose direction vectors of the basic regions are close to a straight line. It is done.
ステップS10は分割画像データ記憶部4の分割画像データの画素から先のステップS9で結合された領域を一つの領域として、結合領域特徴を計算し、計算された結合領域特徴を結合領域特徴記憶部11に記憶する。ここでいう結合領域特徴とは、図5に示した既述の特徴と同様である。
In step S10, the combined region feature is calculated using the region combined in the previous step S9 from the pixel of the divided image data in the divided image
次に、ステップS11がある統合領域に対して実行される必要がある場合、画像処理領域指示部18の指示により、既に計算されている基本領域、統合領域及び結合領域のいずれか一つを選び出し、その領域をC9個の部分領域に分割し、そのC9個の領域特徴を分割画像データ記憶部4の分割画像データの画素から計算し、計算された結合領域特徴を結合領域特徴記憶部14に記憶する。部分領域の分割のイメージを図13に示すと、例えば統合領域P1,P2,P3のうちP3についてのみ縦に例えば3つに分割されている様子である。この分割数として「3」は便宜上の数値である。このように部分領域に分割するルールも予め定められており、部分分割の対象となる領域に対してそのルールに基づいて部分領域に分割されることになる。この分割処理は、表現したときに刷毛で描いたように見せるためである。
Next, when step S11 needs to be executed for a certain integrated area, one of the basic area, the integrated area, and the combined area that has already been calculated is selected according to an instruction from the image processing
ここで上記のステップS9からS12を利用する場合を想定して処理を説明する。ステップS6については、自動処理でない場合について先ず説明する。図12に、画像データ表示部21に表示される統合領域デザインマップ内の統合領域記号の例を示す。黒で塗りつぶされている区域がエッジ統合領域、白く抜けている部分が対比統合領域及び独立統合領域、2均一と示されているテクスチャーの部分は2度目の仮統合領域を求めた際に均一統合領域として決定した区域、以下同様に3均一、4均一、5均一、6均一は順に求められた均一統合領域であり、7均一は7度目以上で均一統合領域として決定した区域をまとめたものである。グラデーションのある空が一つにまとまり、その部分に2均一というラベルが付いていることから、提案手法の統合処理が上手く機能し、空が一つに統合されたことが分かる。
Here, the process will be described assuming that the above steps S9 to S12 are used. Step S6 will be described first when it is not automatic processing. FIG. 12 shows an example of the integrated area symbol in the integrated area design map displayed on the image
エッジ統合領域、対比統合領域及び独立統合領域は、基本領域から作り出した筆触で描き、少ない繰り返し回数で決定された均一統合領域は、統合領域または先のステップの処理であるステップS9及びステップS10で作り出す結合領域やステップS11及びステップS12で作り出す部分分割領域を基に筆触を作り出すことが好ましいということになる。ここで問題なのは、多い繰り返し回数で統合された均一領域について、これらをどちらのグループに入れるべきかは画像の種類によってバラツキがあることである。 The edge integration region, the contrast integration region, and the independent integration region are drawn with the brush created from the basic region, and the uniform integration region determined with a small number of repetitions is the integration region or the processing of the previous step in steps S9 and S10. It means that it is preferable to create a touch based on the coupling area to be created and the partial divided areas created in step S11 and step S12. The problem here is that there is a variation depending on the type of image in which group these uniform regions integrated with a large number of repetitions should be put.
均一統合領域については、すべて表現を加えるための領域にすると決めてしまえば自動で処理することができるが、より質の高い作品を目指す場合には、マニュアル処理にして、画像データ表示部21に示された統合領域デザインマップの統合領域記号を見てから、統合領域もしくは基本領域を単位として処理の指示を与えるようにすることができる。
The uniform integrated area can be automatically processed if it is decided to make all the areas for adding expression. However, when aiming for a higher quality work, the processing is performed manually in the image
結果として、ステップS7またはステップS8で、統合領域毎にどの領域特徴から筆触を作るかの指示が出されるため、その指示に従ってこれに続く処理ステップS9及びステップS10とステップS11及びステップS12とが実行される。即ち、統合領域は基本領域の集合であり、更に統合領域の中に結合領域及び部分分割領域が存在することがある。仮に3thの均一統合領域10番について、ステップS7またはS8における処理の指示が「表現の単位領域を統合領域とする」という指示であったとすると、統合領域10番を単位として表現される(統合領域特徴から筆触を作る)ということになる。この場合には、統合領域10番については、統合領域10番に含まれる全画素について、当該統合領域10番の特徴に基づいて色(例えばR,G,B)及びその明るさが指定されることになる。またステップS7またはS8における処理の指示が「表現の単位領域を基本領域とする」という指示であったとすると、統合領域10番に含まれる各基本領域を単位として表現される(基本領域特徴から筆触を作る)ということになる。この場合には、各基本領域毎に、それら基本領域に含まれる全画素について各基本領域の特徴に基づいて色が指定されることになる。更にまた前記処理の指示が「表現の単位領域を結合領域とする」という指示であったとすると、統合領域10番に含まれる結合領域を表現の単位として描かれ、あるいは前記処理の指示が「表現の単位領域を部分分割領域とする」という指示であったとすると、統合領域10番に含まれる部分分割領域を表現の単位として描かれるということになる。
As a result, in step S7 or step S8, an instruction as to which stroke feature is to be made for each integrated area is issued, so that subsequent processing steps S9, S10, S11, and S12 are executed according to the instruction. Is done. That is, the integrated area is a set of basic areas, and there may be a combined area and a partial divided area in the integrated area. Assuming that the processing instruction in step S7 or S8 is the instruction that “the unit area of expression is an integrated area” for the 3th uniform integrated area No. 10, the integrated
また各統合領域は、何回目の処理(何段階目)で仮統合領域から正式な統合領域になったかということが統合領域デザインマップ記憶部17に記憶されているので、統合領域の特徴ではなくその統合領域に含まれる基本領域を表現の単位領域とするのは、どの段階の統合領域とするか、また統合領域の特徴を表現の単位領域とするのはどの段階の統合領域とするかというデータがメモリに記憶されている。一例を挙げれば、例えば1th〜3thの均一統合領域については、統合領域統合領域の特徴を表現の単位領域とし、4th〜7thの均一統合領域については、各統合領域に含まれる基本領域を表現の単位領域とするといった情報が予めメモリに入っている例を挙げることができる。この段階の数値は入力部を介して選択できるようになっており、こうすれば、統合領域ごとにどの領域特徴から筆触を作るのかという作業が自動で行うことができる。つまり本発明では手動でも自動でもこうした作業を行うことができるのである。
In addition, since each integrated area is stored in the integrated area design
ステップS13では、既に計算された各領域特徴、より詳しくは既述の表現単位となった領域(基本領域、統合領域、結合領域あるいは部分分割領域)の特徴を変更することができる。この処理ステップも、処理手順記憶部24の処理手順に記載が有ったときだけ実行される。ここで行われる処理の一部(領域の形と方向の変更)は、特開平10−11569号広報に開示されるグループ特徴加工部を構成する技術と基本部分は同一であるが、特開平10−11569号広報に開示された特徴加工はこの特許で基本領域と記述される領域特徴のみに適応される。これに対し、本特許では、各種の領域特徴(基本領域、統合領域、結合領域あるいは部分分割領域)は、既に図5に示したように同じフォーマットで記述されているため、異なる種類の領域特徴も含めた状態で、領域特徴を変更することができる。
In step S13, the characteristics of each area feature that has already been calculated, more specifically, the characteristics of the area (basic area, integrated area, combined area, or partially divided area) that has become the above-described expression unit can be changed. This processing step is also executed only when there is a description in the processing procedure of the processing
また、この処理を適用する基本領域を単位とした範囲も選択的に画像処理領域指示部18から指示される。また、このステップで色彩についても注目した統合領域とその周囲の統合領域との色彩の差を基にした変更が加えられた夫々の領域特徴は、夫々の領域記憶部に戻される。
Further, a range in units of basic areas to which this process is applied is also selectively instructed from the image processing
図14に表現部15の詳しいブロック図を示し、ステップS14での処理の詳細を図15に示した。この図15を用いて、ステップS14について説明する。
FIG. 14 shows a detailed block diagram of the
ステップS301において、統合領域毎に、統合領域デザインマップに記載されている統合領域記号を読み、画像処理領域指示部18の指示に従って、統合領域記号に対応した種類の領域を集めて、通し番号を付け直して表現領域セットを作る。つまり最終的に表現するときには、どの領域が表現単位となるのかが指定されていればよく、基本領域の統合、統合領域内の基本領域の結合、統合領域の部分分割といった一連の処理は、要するに表現単位となる領域の選択の自由度を高めるために行ったのであって、表現するときには、その単位となる領域さえ指定すればよい。例えば統合領域が部分分割されたとすると、部分分割された各領域にナンバリングすることと、各領域の領域特徴が分かりさえすればよいので、この段階では、何番目の試行により統合されたとか、どの基本領域が属しているかといったことは関係がなくなる。
In step S301, for each integrated region, the integrated region symbols described in the integrated region design map are read, and according to the instruction from the image processing
ステップS14の段階では、表現単位が決定されると、その単位となる領域に新たにナンバリングを付して、各番号付けされた領域とその特徴とをテーブルに抽出する処理が行われる。このテーブルが上記の表現領域セットに相当する。例えばモデル化した説明をすれば、例えば1枚の画像について、処理の結果、基本領域2番、5番、10番及び統合領域2番、3番、並びに統合領域4番内の3つの部分分割領域から構成されたとすると、これら各領域について新たに番号を付し、この段階ではどのような種類の領域であるかはもはや関係がなくなるのである。
In step S14, when an expression unit is determined, a numbering is newly added to the unit area, and each numbered area and its features are extracted into a table. This table corresponds to the above expression area set. For example, in the modeled explanation, for example, for one image, as a result of processing, three partial divisions in the
なお対比の強い部分や輪郭であるエッジの部分に絵画的な表現を加えると、元の画像の重要な特徴を崩してしまうため、例えば人間の顔であれば、誰を描いているのかが分からなくなってしまう。これを避けるために、画像処理領域指示部18としては、エッジ統合領域、対比統合領域、独立統合領域、多い繰り返し回数で決定された均一統合領域等の統合領域記号が付けられている統合領域には表現をあまり加えない写実的な表現で描くべきであるため、統合領域を表現単位とするよりもそれら統合領域に含まれる基本領域を表現単位として表現領域セットに加えるように指示することが好ましい。一方、少ない繰り返し回数で決定された均一統合領域には絵画らしい表現を加えられるように、統合領域そのものや、結合領域、部分領域を表現単位として表現領域セットに加えるように指示することが好ましい。
In addition, adding a pictorial expression to a highly contrasted part or an edge part that is an outline destroys important features of the original image. For example, if you are a human face, you do not know who you are drawing. It will disappear. In order to avoid this, the image processing
次に行われるステップS302からS304は、画像に含まれる各画素がどの表現単位領域に属するのかを決定する処理である。この処理は画像に含まれる画素一つ一つについて順番に各表現単位領域との距離計算を行い、例えばその重心位置に物理的に最も近い表現単位領域を、その画素が属する表現単位領域として決定してもよいが、そうすると距離計算のコンピュータの負荷が大きくなるので、ここではジオグラフテーブルを用いている。このジオグラフテーブルとは、各表現単位領域に対して、その重心位置に物理的に近い表現単位領域を指定数まで近い順にリストアップした表である。これを見ることで、任意の表現単位領域の近傍に存在する表現単位領域を見つけることができる。 Steps S302 to S304 to be performed next are processing for determining which expression unit region each pixel included in the image belongs to. This processing calculates the distance to each representation unit area in order for each pixel included in the image, for example, determines the representation unit area physically closest to the center of gravity position as the representation unit area to which the pixel belongs. However, doing so increases the load on the computer for distance calculation, so a geograph table is used here. This geograph table is a table that lists, for each expression unit area, expression unit areas that are physically close to the center of gravity of the expression unit area in order from the nearest number. By looking at this, it is possible to find an expression unit region existing in the vicinity of an arbitrary expression unit region.
画像に含まれる画素群のなかの1番目(k=1)の画素については、その画素の付近に位置する複数の表現単位領域について順番に所定の距離計算を行い、距離が最小になった表現単位領域を画素特徴記憶部28に画素番号と共に書き込む。この距離計算式は距離計算式記憶部26に複数用意されており、その中から選択した距離計算式を用いて計算される。ある計算式では、画素kの位置と表現単位領域nの重心位置とが最も近くても、前記表現単位領域nよりも離れている表現単位領域n`の伸びている方向の延長線上に当該画素kが位置していれば、当該画素kは、表現単位領域n`に最も近い値が得られる。つまりこの場合は、表現単位領域の伸びている方向を重視して表現しようとするものであり、表現の仕方などに応じて距離計算式を選択すればよい。
For the first (k = 1) pixel in the pixel group included in the image, a predetermined distance calculation is sequentially performed for a plurality of expression unit regions located in the vicinity of the pixel, and the expression having the minimum distance is obtained. The unit area is written in the pixel
そして2番目以降の画素kについては、画素(k−1)が属する表現単位領域とジオグラフテーブルが示す近傍表現単位領域について順番に前記距離計算をすればよく、計算値が最小になった表現単位領域に属していると判断する。このようにすれば、距離計算の負荷が小さくなるという利点がある。 For the second and subsequent pixels k, the distance calculation may be performed in order for the expression unit area to which the pixel (k-1) belongs and the neighboring expression unit area indicated by the geograph table, and the expression with the smallest calculated value. Judge as belonging to the unit area. This has the advantage that the load for distance calculation is reduced.
このような概略を踏まえて図14のフローの説明に戻ると、ステップS302において、表現領域セットを使ってジオグラフテーブルを作成する。ジオグラフテーブルの作成手法に関しては、特開平10−11569号広報に開示される手法を利用することができるが、要は互いに位置的に接近している表現単位領域同士をテーブル化すればよいだけなので、テーブル化するアルゴリズムは適宜作成すればよい。 Returning to the description of the flow of FIG. 14 based on such an outline, in step S302, a geograph table is created using the expression region set. As a method for creating a geograph table, the method disclosed in Japanese Patent Application Laid-Open No. 10-11569 can be used. However, in short, it is only necessary to table expression unit regions that are close to each other in position. Therefore, an algorithm for creating a table may be created as appropriate.
ステップS303において、画素特徴算出部25では、例えば画素番号をkで表し、k−1番目の画素が属する表現単位領域にリストアップされている他の表現単位領域をジオグラフテーブルから読み出し、処理手順記憶部24の処理手順と画像処理領域指示部18の指示とに従って距離計算式記憶部26から選ばれた距離計算式を用いて注目画素kとの距離を計算する。k=1の場合は表現単位領域1の近傍領域について計算する。距離計算式としては、特開平10−11569号広報に開示される式(8)が利用できるが、これに限らず、多様な計算式を距離計算式記憶部26に予め用意しておき、統合領域デザインマップに記載されている統合領域記号に応じて選択して距離計算をし、ステップS304で距離計算の値が最小になった表現単位領域の番号を画素特徴記憶部27に画素番号と共に書き込むことで、一つの加工画像の中に様々な筆触を作り出すことができる。
In step S303, the pixel
表現単位領域が部分領域で構成されている場合は、部分領域の一つ一つに対して距離計算を行うことで、部分領域に対応した小さな筆触を作り出すことができるため、印象派によく見られるぶれたブラシのタッチを表現することができる。また、複数の部分領域の値をグループとして用いることで、より複雑な形の筆触を一つ作り出すこともできる。 When the expression unit area is composed of partial areas, it is often seen by impressionists because a small brush corresponding to the partial area can be created by calculating the distance for each partial area. A touch of a blurred brush can be expressed. In addition, by using the values of a plurality of partial areas as a group, it is possible to create one more complex brush shape.
例えば、一つの基本領域の中央と両端とから、3つの部分領域が作られている場合、その3つの部分領域の重心を通る2次曲線を定義でき、一方、特開平10−11569号広報に開示される距離計算式(8)は、領域の第1主成分が領域のローカルなY軸に対応しているが、このY軸を先の2次曲線に座標変換した上で距離計算を行なうと、筆触が2次曲線に沿って曲がることになる。 For example, when three partial areas are made from the center and both ends of one basic area, a quadratic curve passing through the center of gravity of the three partial areas can be defined. In the disclosed distance calculation formula (8), the first principal component of the region corresponds to the local Y axis of the region. The distance calculation is performed after the Y axis is coordinate-converted into the above-described quadric curve. Then, the brush will bend along a quadratic curve.
この部分領域の重心を用いて筆触を曲げる技術を使うことで、元の領域が曲がっていたら、それを2次曲線の筆触で近似できることになる。もしも加工画像全体に正確で、より表現の豊かな筆触が必要な場合は、ステップS12で全ての領域の部分領域を求めておくことが好ましい。 By using the technique of bending the brush stroke using the center of gravity of this partial area, if the original area is bent, it can be approximated by the brush stroke of a quadratic curve. If the entire processed image is accurate and more expressive, it is preferable to obtain partial regions of all regions in step S12.
ステップS305では画素特徴変換部28において、処理手順記憶部24の処理手順と画像処理領域指示部18の指示とに従って画素特徴変換式記憶部29に保存されている複数の計算式から一つを選び、その画素の画素特徴記憶部27に保存されている番号の表現単位領域の特徴から画素の色をその式で算出し、その値を加工画像の対応する画素位置に書き込む。このようにすることで、一つの筆触内に色の変化を与えることができるようになる。図2のステップS1にてコンピュータが取り込んだ画像、例えば写真画像の各画素は、ステップS304までの処理においてどの表現単位領域に属するかが判定されているので、このステップS305においては、その画素が属する表現単位領域に対応する特徴に基づいて当該画素に色が割り当てられる。最も単純な手法によれば例えば表現単位領域のR,G,Bの各平均色が割り当てられるが、この例ではその特徴に所定の計算処理を施して計算結果に基づいて前記平均色を割り当てるようにしている。計算処理としては、表現単位領域の重心位置から離れる画素ほど前記平均色が小さくなるといった処理である。
In step S305, the pixel
ステップS306では画素番号を一つ増やして、ステップS307でkの値がC10より大きいことをチェックし、k>C10であれば、処理を終了し、条件を満たさなければ、ステップS303に戻し、次の画素の処理を続ける。 Step S306 to increase one pixel numbers in the value of k is checked is greater than C 10 in step S307, if k> C 10, the process ends, to meet the condition and returns to step S303 Then, the processing for the next pixel is continued.
図15の処理が終了したら図2に示したステップS15に処理を戻し、ステップS15では、ステップS14において算出された加工画像を画像データ出力部22から出力して、印刷したり保存したりする他、画像データ表示部21にも確認のために表示することができる。即ち、ステップS14までにおいて、各画素に色が割り当てられるので、このステップS15では、割り当てられた色に基づいて各画素を発色させ、これにより先に取り込んだ例えば写真画像が加工されて、絵画風の筆触が表現された加工画像が得られる。
When the process in FIG. 15 is completed, the process returns to step S15 shown in FIG. 2. In step S15, the processed image calculated in step S14 is output from the image
図16は、分割画像データ記憶部23に記憶されている分割画像データである。ここで示されている一つ一つの利用域が基本領域である。
FIG. 16 shows the divided image data stored in the divided image
図17は、分割画像データから計算される基本領域特徴、結合領域特徴及び分割領域特徴について、エッジ領域、孤立領域、対比領域、6回以上の繰り返しで統一領域に決定した領域については、基本領域特徴と注目画素との、そして、2〜5回の繰り返しで統一領域に決定した領域については、部分領域特徴と注目画素との距離計算をすることで、作り出された加工画像である。 FIG. 17 shows the basic region feature, the combined region feature, and the divided region feature calculated from the divided image data, the edge region, the isolated region, the contrast region, and the region determined as the unified region by repeating the process six times or more. The region of the feature and the pixel of interest, and the region determined as the unified region by repeating 2-5 times, is a processed image created by calculating the distance between the partial region feature and the pixel of interest.
図18は、分割画像データから計算される基本領域特徴、結合領域特徴及び分割領域特徴について、エッジ領域、孤立領域及び対比領域については、基本領域特徴と注目画素との、そして、統一領域に決定した領域については、結合領域から計算された部分領域特徴の重心値を利用して計算された2次曲線で座標変換し、さらに、座標変換された第1主成分の軸に沿ってその領域に含まれる画素の数に比例した線幅のみ、めだつ曲線を入れて作り出した加工画像である。 FIG. 18 illustrates basic region features, combined region features, and divided region features calculated from divided image data, and edge regions, isolated regions, and contrast regions are determined as basic region features and target pixels, and a unified region. The coordinate conversion is performed on the region with the quadratic curve calculated using the centroid value of the partial region feature calculated from the combined region, and further, the region is moved along the coordinate-converted first principal component axis. Only the line width proportional to the number of included pixels is a processed image created by inserting a conspicuous curve.
1 画像データ入力部
2 画像特徴抽出部
3 基本領域分割部
4 基本領域特徴算出部
5 基本領域特徴記憶部
6 領域統合部
7 統合領域特徴算出部
8 統合領域特徴記憶部
9 領域結合部
10 結合領域特徴算出部
11 結合領域特徴記憶部
12 部分領域分割部
13 部分領域特徴算出部
14 部分領域特徴記憶部
15 表現部
16 特徴変更部
17 統合領域デザインマップ記憶部
18 画像処理領域指示部
19 画像処理領域プリセット記憶部
20 データ入力部
21 画像データ表示部
22 画像データ出力部
23 分割画像データ記憶部
24 処理手順記憶部
25 画素特徴算出部
26 距離計算式記憶部
27 画素特徴記憶部
28 画素特徴変換部
29 画素特徴変換式記憶部
DESCRIPTION OF
Claims (25)
分割された基本領域毎に、少なくとも色の特徴を含む当該基本領域の特徴を算出する基本領域特徴算出手段と、
この基本領域特徴算出手段により算出された基本領域特徴の内の少なくとも色に基づいて、複数の基本領域を統合して統合領域を制作する領域統合手段と、
前記統合領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該統合領域の特徴を算出する統合領域特徴算出手段と、
前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするかを決定する画像処理領域指示部と、
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定する表現部と、を備えたことを特徴とする画像加工装置。 A basic area dividing processing means for grouping each pixel with at least a color as one of the determination criteria for the pixels included in the image data, thereby dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating the characteristics of the basic area including at least color features for each divided basic area;
Based on at least the color of the basic region features calculated by the basic region feature calculating means, region integrating means for integrating a plurality of basic regions to produce an integrated region;
For each integrated region, an integrated region feature calculating means for calculating a feature of the integrated region including at least a color feature based on pixel data included in the basic region;
An image processing area instruction unit that determines whether the integrated area is a unit area of expression or a basic area included in the integrated area is a unit area of expression according to the integrated area;
An image comprising: an expression unit that determines a color of a pixel included in a unit area based on a feature of the unit area of the expression for each unit area of the expression determined based on the selected result Processing equipment.
この領域結合手段により結合された結合領域の特徴を計算する結合領域算出手段と、を更に備え、
画像処理領域指示部は、前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするか当該統合領域に含まれている結合領域を表現の単位領域とするかを決定することを特徴とする請求項1または2に記載の画像加工装置。 An area combination means for selecting and combining two or more basic areas from a plurality of basic areas integrated in the same integrated area;
A combined area calculating means for calculating the characteristics of the combined area combined by the area combining means,
The image processing area instruction unit determines whether the integrated area is a unit area for expression or a basic area included in the integrated area is a unit area for expression, depending on the integrated area. The image processing apparatus according to claim 1, wherein the combined region is determined as a unit region of expression.
前記統合領域特徴あるいは前記基本領域特徴を参照して、各領域特徴から部分領域特徴を算出する部分領域特徴算出手段と、を更に備え、
画像処理領域指示部は、前記統合領域に応じて、当該統合領域を表現の単位領域とするか当該統合領域に含まれている基本領域を表現の単位領域とするか当該統合領域を分割した部分領域を表現の単位領域とするかを決定することを特徴とする請求項1または2に記載の画像加工装置。 Partial region dividing means for dividing the integrated region and / or the basic region into a plurality of partial regions,
A partial region feature calculating means for calculating a partial region feature from each region feature with reference to the integrated region feature or the basic region feature;
The image processing area instruction unit determines whether the integrated area is a unit area for expression or a basic area included in the integrated area is a unit area for expression, or a part obtained by dividing the integrated area according to the integrated area The image processing apparatus according to claim 1, wherein the image processing apparatus determines whether the area is a unit area of expression.
その各領域特徴において、基本領域または統合領域または結合領域または部分領域の周囲に位置する基本領域または統合領域または結合領域または部分領域の各領域特徴から計算された値を基に変更する特徴変更手段と、を備えていることを特徴とする請求項1から5のいずれか一に記載の画像加工装置。 The image feature extraction unit includes three types of region features, ie, an integrated region feature, a basic region feature, and a combined region feature, or in addition to the four types of partial region features calculated by the partial region dividing unit. Type region features, or any number of each type of region feature,
A feature changing means for changing each area feature based on a value calculated from each area feature of the basic area, the integrated area, the combined area, or the partial area located around the basic area, the integrated area, the combined area, or the partial area. And an image processing apparatus according to any one of claims 1 to 5.
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが、前記基本領域特徴算出ステップにおいて算出した基本領域特徴を領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域特徴記憶ステップと、
前記統合領域特徴記憶ステップに記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶ステップに記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う表現ステップと、を備えていることを特徴とする画像加工方法。 An image processing method for processing an image using a computer,
A divided image data storage step in which the computer stores divided image data obtained as a result of the processing of the basic area dividing processing step of dividing the image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step in which the computer stores the basic region feature calculated in the basic region feature calculating step for each region;
An area integration step in which the computer creates an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage step;
An integrated region feature storing step in which the computer stores the integrated region integrated in the region integrating step;
Based on the result calculated from the two area features of the integrated area feature stored in the integrated area feature storage step and the basic area feature stored in the basic area feature storage step, the image data is converted into the image data. An image processing method comprising: an expression step for performing expression processing on the image.
前記コンピュータが画像データを複数の基本領域に分割する基本領域分割処理ステップの処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶ステップと、
前記分割画像データ記憶ステップに保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出ステップと、
前記コンピュータが前記基本領域特徴算出ステップにおいて算出した特徴を基本領域毎に記憶する基本領域特徴記憶ステップと、
前記コンピュータが、前記基本領域特徴記憶ステップにおいて記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合ステップと、
前記コンピュータが、前記領域統合ステップにおいて統合した統合領域を記憶する統合領域特徴記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合ステップと、
前記コンピュータが、前記領域結合ステップにおいて結合した結合領域を記憶する結合領域特徴記憶ステップと、
前記コンピュータが、前記統合領域特徴記憶ステップにおいて記憶した統合領域特徴と基本領域特徴記憶ステップにおいて記憶した基本領域特徴と結合領域を記憶する結合領域特徴記憶ステップにおいて記憶した結合領域特徴との全て、あるいは任意の数種の領域特徴を前記統合領域デザインマップを参照しながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割ステップと、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更ステップと、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参照しながら、適応的に表現処理を行う表現ステップと、を備えていることを特徴とする画像加工方法。 An image processing method for processing an image using a computer,
A divided image data storage step for storing divided image data obtained as a result of processing of a basic area dividing processing step in which the computer divides image data into a plurality of basic areas;
A basic region feature calculating step for calculating a feature for each basic region based on the divided image data stored in the divided image data storage step;
A basic region feature storing step for storing the feature calculated by the computer in the basic region feature calculating step for each basic region;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage step to create an integrated area, and an area integration step of creating an integrated area design map;
An integrated region feature storing step in which the computer stores the integrated region integrated in the region integrating step;
A region combining step in which the computer combines a plurality of basic regions based on the integrated region feature stored in the integrated region feature storing step to create a combined region;
A combined region feature storing step in which the computer stores the combined regions combined in the region combining step;
All of the integrated region feature stored in the integrated region feature storage step, the basic region feature stored in the basic region feature storage step, and the combined region feature stored in the combined region feature storage step in which the computer stores the combined region, or A partial region dividing step of adaptively dividing a plurality of arbitrary region features into a plurality of portions while referring to the integrated region design map, and calculating a partial region feature for each partial region;
A feature changing step in which the computer changes the integrated region feature, or the basic region feature, or the combined region feature, or the partial region feature;
An expression step in which the computer adaptively expresses the integrated area feature, the basic area feature, the combined area feature, or the partial area feature while referring to the integrated area design map; And an image processing method.
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した基本領域特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記統合領域特徴記憶手段に記憶されている統合領域の統合領域特徴と前記基本領域特徴記憶手段に記憶されている基本領域特徴との2つの領域特徴から計算される結果を基に前記画像データに対して表現処理を行う手段としてコンピュータを機能させることを特徴とする画像加工プログラム。 An image processing program for processing an image using a computer,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing, for each basic area, the basic area feature calculated by the computer in the basic area feature calculating means;
Area integration means for creating an integrated area by integrating a plurality of basic areas based on the basic area features stored in the basic area feature storage means by the computer;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Based on the result calculated from the two area features, the integrated area feature of the integrated area stored in the integrated area feature storage means and the basic area feature stored in the basic area feature storage means, the image data is converted into the image data. An image processing program that causes a computer to function as means for performing expression processing on the computer.
前記コンピュータが、画像データを複数の基本領域に分割する基本領域分割処理手段の処理の結果として得られる分割画像データを記憶しておく分割画像データ記憶手段と、
前記分割画像データ記憶手段に保存されている分割画像データを基に基本領域毎に特徴を算出する基本領域特徴算出手段と、
前記コンピュータが、前記基本領域特徴算出手段において算出した特徴を基本領域毎に記憶する基本領域特徴記憶手段と、
前記コンピュータが、前記基本領域特徴記憶手段において記憶した基本領域特徴を基に複数の基本領域を統合して統合領域を作成すると共に、統合領域デザインマップを制作する領域統合手段と、
前記コンピュータが、前記領域統合手段において統合した統合領域を記憶する統合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴を基に複数の基本領域を結合して結合領域を作成する領域結合手段と、
前記コンピュータが、前記領域結合手段において結合した結合領域を記憶する結合領域特徴記憶手段と、
前記コンピュータが、前記統合領域特徴記憶手段において記憶した統合領域特徴と基本領域特徴記憶手段において記憶した基本領域特徴と結合領域を記憶する結合領域特徴記憶手段において記憶した結合領域特徴との全て、あるいは任意の数種の領域特徴を前記統合領域デザインマップを参照しながら、適応的に複数の部分に分割し、その部分領域毎に部分領域特徴を計算する部分領域分割手段と
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に変更を加える特徴変更手段と、
前記コンピュータが、前記統合領域特徴、あるいは前記基本領域特徴、あるいは前記結合領域特徴、あるいは前記部分領域特徴に対して、前記統合領域デザインマップを参照しながら、適応的に表現処理を行う手段としてコンピュータを機能させることを備えていることを特徴とする画像加工プログラム。 An image processing program for processing an image using a computer,
Divided image data storage means for storing divided image data obtained as a result of processing of a basic area dividing processing means for dividing the image data into a plurality of basic areas;
Basic area feature calculating means for calculating a feature for each basic area based on the divided image data stored in the divided image data storage means;
Basic area feature storage means for storing, for each basic area, the feature calculated by the computer in the basic area feature calculating means;
The computer integrates a plurality of basic areas based on the basic area features stored in the basic area feature storage means to create an integrated area, and an area integration means for producing an integrated area design map;
An integrated area feature storage means for storing an integrated area integrated by the computer in the area integration means;
Area combining means for creating a combined area by combining a plurality of basic areas based on the integrated area features stored in the integrated area feature storage means by the computer;
A combined region feature storage means for storing a combined region combined by the computer in the region combining means;
All of the integrated region feature stored in the integrated region feature storage unit and the basic region feature stored in the basic region feature storage unit and the combined region feature stored in the combined region feature storage unit that stores the combined region, or A partial region dividing means for adaptively dividing a plurality of arbitrary region features into a plurality of portions with reference to the integrated region design map and calculating a partial region feature for each partial region, and the computer comprising the integration A feature changing means for changing a region feature, or the basic region feature, or the combined region feature, or the partial region feature;
The computer as means for adaptively expressing the integrated region feature, the basic region feature, the combined region feature, or the partial region feature while referring to the integrated region design map. An image processing program characterized by comprising:
画像データに含まれる画素について、少なくとも色を判断基準の一つとして各画素をグループ化し、これにより当該画像データを複数の基本領域に分割するステップと、
分割された基本領域毎に、少なくとも色の特徴を含む当該基本領域の特徴を算出するステップと、
分割された基本領域について、注目した一の基本領域に対して互いに連鎖しかつ互いに隣接するもの同士の基本領域の特徴の差が第1の閾値より小さい基本領域群を検出し、それら基本領域をグループ化して仮統合領域とし、同様にして前記一の基本領域以外の基本領域に対してもグループ化される基本領域群を検出して仮統合領域とし、こうして複数の第1回目の仮統合領域を得るステップと、
第1の閾値を、第1回目の仮統合領域を得るステップ時よりも大きくし、前記ステップと同様のステップを行って、複数の仮統合領域を得てこれらを第2回目の仮統合領域とし、第1回目の仮統合領域と第2回目の仮統合領域とが共通の基本領域を含んでいてかつ第1回目の仮統合領域に含まれる基本領域の数に対する第2回目の仮統合領域の基本領域の数の増加率が予め設定された値よりも小さいときに、その仮統合領域を正式な統合領域として決定するステップと、
第2回目の仮統合領域が決定した後に、第1の閾値の値を更に大きくして同様にして3回目の仮統合領域を定める処理を行うと共に、同様にして2回目の仮統合領域を正式に統合領域として決定する処理を行い、以後、同様の操作を複数回繰り返し、繰り返す際に、前回の処理で統合領域として決定した基本領域を除いた残りの基本領域に対してのみ統合処理を続けるステップと、
正式な統合領域としての決定処理が終った後、正式な統合領域ごとに、何回目の統合処理により仮統合領域から正式な統合領域に決定されたのかを示す段階数を記録するステップと、
前記正式に決定された統合領域毎に、基本領域に含まれる画素のデータに基づいて少なくとも色の特徴を含む当該統合領域の特徴を算出するステップと、を含むことを特徴とする画像加工プログラム。 In a program that is used in a computer and processes image data,
For each pixel included in the image data, grouping each pixel using at least a color as one of the determination criteria, thereby dividing the image data into a plurality of basic regions;
Calculating a feature of the basic region including at least a color feature for each divided basic region;
For the divided basic regions, a basic region group in which features of the basic regions that are adjacent to each other and are adjacent to each other with respect to the one basic region of interest are smaller than the first threshold is detected, and the basic regions are detected. Similarly, a group of temporary integrated areas is grouped, and a group of basic areas that are also grouped with respect to a basic area other than the one basic area is detected and set as a temporary integrated area. And getting the steps
The first threshold value is made larger than that in the step of obtaining the first temporary integration region, the same steps as the above step are performed, and a plurality of temporary integration regions are obtained, and these are used as the second temporary integration region. The first temporary integration area and the second temporary integration area include a common basic area, and the second temporary integration area corresponds to the number of basic areas included in the first temporary integration area. When the rate of increase in the number of basic areas is smaller than a preset value, determining the provisional integrated area as a formal integrated area;
After the second temporary integration area is determined, the first threshold value is further increased and the third temporary integration area is determined in the same manner. Similarly, the second temporary integration area is formalized. After that, when the same operation is repeated several times, the integration process is continued only for the remaining basic areas excluding the basic area determined as the integrated area in the previous process. Steps,
After the determination process as a formal integration area is completed, for each formal integration area, a step of recording the number of stages indicating how many times the integration process is decided from the temporary integration area to the formal integration area;
An image processing program comprising: calculating, for each of the officially determined integrated areas, characteristics of the integrated area including at least color characteristics based on pixel data included in the basic area.
選択された結果により決定された表現の単位領域毎に、その表現の単位領域の特徴に基づいて当該単位領域に含まれる画素の色を決定するステップと、を含むことを特徴とする請求項23記載の画像加工プログラム。 In accordance with the integrated region, determining whether the integrated region is a unit region of expression or a basic region included in the integrated region is a unit region of expression;
24. For each unit area of the expression determined based on the selected result, determining a color of a pixel included in the unit area based on a feature of the unit area of the expression. The image processing program described.
The determination as to whether the integrated region is a unit region of expression or a basic region included in the integrated region is a unit region of expression is performed according to the number of stages of the integrated region. 24. The image processing program according to 24.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005175798A JP2006031688A (en) | 2004-06-16 | 2005-06-15 | Image processing device, method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004178848 | 2004-06-16 | ||
JP2005175798A JP2006031688A (en) | 2004-06-16 | 2005-06-15 | Image processing device, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006031688A true JP2006031688A (en) | 2006-02-02 |
Family
ID=35897902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005175798A Pending JP2006031688A (en) | 2004-06-16 | 2005-06-15 | Image processing device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006031688A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009104325A1 (en) * | 2008-02-21 | 2009-08-27 | 大日本スクリーン製造株式会社 | Line drawing processing device, program, and line drawing processing method |
JP2011135424A (en) * | 2009-12-25 | 2011-07-07 | Casio Computer Co Ltd | Image processing device and image processing program |
CN102170527A (en) * | 2010-02-16 | 2011-08-31 | 卡西欧计算机株式会社 | Image processing apparatus |
CN102654919A (en) * | 2011-03-02 | 2012-09-05 | 卡西欧计算机株式会社 | Image processing device, image processing method and storage medium |
CN102737391A (en) * | 2011-03-29 | 2012-10-17 | 卡西欧计算机株式会社 | Image processing apparatus, image processing method, image processing system and storage medium |
JP2013157914A (en) * | 2012-01-31 | 2013-08-15 | Brother Ind Ltd | Image processing apparatus and image processing program |
US8643687B2 (en) | 2012-03-05 | 2014-02-04 | Casio Computer Co., Ltd. | Printing surface processing method and printing surface processing apparatus |
US10380447B1 (en) * | 2014-11-26 | 2019-08-13 | Google Llc | Providing regions of interest in an image |
-
2005
- 2005-06-15 JP JP2005175798A patent/JP2006031688A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009104325A1 (en) * | 2008-02-21 | 2009-08-27 | 大日本スクリーン製造株式会社 | Line drawing processing device, program, and line drawing processing method |
JP2009199308A (en) * | 2008-02-21 | 2009-09-03 | Dainippon Screen Mfg Co Ltd | Line art processor, program, and line art processing method |
US20110187721A1 (en) * | 2008-02-21 | 2011-08-04 | Itaru Furukawa | Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method |
JP2011135424A (en) * | 2009-12-25 | 2011-07-07 | Casio Computer Co Ltd | Image processing device and image processing program |
CN102170527A (en) * | 2010-02-16 | 2011-08-31 | 卡西欧计算机株式会社 | Image processing apparatus |
US8736682B2 (en) | 2010-02-16 | 2014-05-27 | Casio Computer Co., Ltd. | Image processing apparatus |
CN102170527B (en) * | 2010-02-16 | 2015-03-11 | 卡西欧计算机株式会社 | Image processing apparatus |
CN102654919A (en) * | 2011-03-02 | 2012-09-05 | 卡西欧计算机株式会社 | Image processing device, image processing method and storage medium |
CN102737391A (en) * | 2011-03-29 | 2012-10-17 | 卡西欧计算机株式会社 | Image processing apparatus, image processing method, image processing system and storage medium |
JP2013157914A (en) * | 2012-01-31 | 2013-08-15 | Brother Ind Ltd | Image processing apparatus and image processing program |
US8643687B2 (en) | 2012-03-05 | 2014-02-04 | Casio Computer Co., Ltd. | Printing surface processing method and printing surface processing apparatus |
US10380447B1 (en) * | 2014-11-26 | 2019-08-13 | Google Llc | Providing regions of interest in an image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1475969B (en) | Method and system for intensify human image pattern | |
JP2006031688A (en) | Image processing device, method, and program | |
JP5437150B2 (en) | Method and system for highlighting topic elements in a chart having multiple contrast elements of multiple colors | |
CN100389428C (en) | User definable image reference points | |
US9280949B2 (en) | Color selection interface | |
US8666156B2 (en) | Image-based backgrounds for images | |
JP2005202469A (en) | Image processor, image processing method and program | |
US9098534B2 (en) | Image display system, image display method, social network service system, and computer-readable medium | |
JP2005151282A (en) | Apparatus and method of image processing, and program | |
CN104580883B (en) | Image processing apparatus, image processing method and recording medium | |
CN101360250A (en) | Immersion method and system, factor dominating method, content analysis method and scaling parameter prediction method | |
CN115812221A (en) | Image generation and coloring method and device | |
US9020255B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US20070030501A1 (en) | Image processing apparatus for displaying colors included in a color image and an image processing method, and a storage medium therefor | |
CN108647696A (en) | Picture face value determines method and device, electronic equipment, storage medium | |
CN111145126A (en) | Image character fast erasing method | |
JP6004260B2 (en) | Line drawing coloring system | |
JP4146506B1 (en) | Mosaic image generating apparatus, method and program | |
JP7463186B2 (en) | Information processing device, information processing method, and program | |
JP4348956B2 (en) | Image layout apparatus, image layout method, and program in image layout apparatus | |
CN111274145A (en) | Relationship structure chart generation method and device, computer equipment and storage medium | |
CN113395407A (en) | Image processing apparatus, image processing method, and computer readable medium | |
JP4433040B2 (en) | Image data management apparatus, image data management method, and image data management program | |
JP2006092127A (en) | Image processor, image processing method and program | |
JP2014067129A (en) | Program, device and method for color conversion processing with consideration for relationship between feature quantity and color distribution for every scale |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20051026 |