JPH09282461A - Method and system for dividing and sorting important constituting element of color image - Google Patents

Method and system for dividing and sorting important constituting element of color image

Info

Publication number
JPH09282461A
JPH09282461A JP8097213A JP9721396A JPH09282461A JP H09282461 A JPH09282461 A JP H09282461A JP 8097213 A JP8097213 A JP 8097213A JP 9721396 A JP9721396 A JP 9721396A JP H09282461 A JPH09282461 A JP H09282461A
Authority
JP
Japan
Prior art keywords
area
image
importance
color
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8097213A
Other languages
Japanese (ja)
Inventor
Atsushi Matsushita
温 松下
Kenichi Okada
謙一 岡田
Rina Hayasaka
里奈 早坂
Tsuguhide Cho
継英 趙
Yoshihisa Shimazu
義久 嶋津
Koji Ota
浩二 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP8097213A priority Critical patent/JPH09282461A/en
Publication of JPH09282461A publication Critical patent/JPH09282461A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To clearly express an important part by dividing a color image into a prescribed number, selectively deciding the importance of each divided part and sorting them to image-process in a state like visualizing. SOLUTION: The color picture is divided into prescribed number, median- filtered for removing noise from an original image and averaging a texture as preprocessing and reduced in addition. After then area extraction is executed by clustering which roughly extract an area from color information and positional information is added to merge-process fine areas. Next the deciding processing of the importance of an object in each area is executed by fuzzy inference based on feature values in each area to sort according to the importance of each area after then. The feature values are a prominent thing easily noticed by people, a thing with special meaning or interest for an individual, a size (area), a position in the image, the state of collecting, an adjacent degree to the tip of the picture, the color of an area, etc.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明はカラー画像を所定
数に分割し、その重要度を選択的に決定し、選別するこ
とを目的としたカラー画像の重要な構成要素の分割選別
方法及びシステムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and system for dividing and selecting an important constituent element of a color image for the purpose of dividing a color image into a predetermined number, selectively determining the degree of importance of the color image, and selecting. It is a thing.

【0002】[0002]

【従来の技術】従来カラー画像の選別圧縮・蓄積・伝送
は、各領域共に、平等に行われていた。一方人間の眼
は、カラー画像の中でより目立つ物体をより強く認識し
ているので、同一カラー画像内における領域別認識度は
表現された実像と異なるのが普通であった。
2. Description of the Related Art Conventionally, selective compression, storage, and transmission of color images have been performed equally in each area. On the other hand, since the human eye more strongly recognizes a more prominent object in a color image, the degree of recognition by region in the same color image is usually different from the represented real image.

【0003】[0003]

【発明により解決すべき課題】前記従来の技術によれ
ば、重要領域と重要でない領域とを同一に選別するの
で、再生において重要な部分と重要でない部分が共に同
等に取扱われる問題点があった。
According to the above-mentioned prior art, since the important area and the unimportant area are selected in the same manner, there is a problem in that the important portion and the unimportant portion are treated equally in the reproduction. .

【0004】従って伝送されるカラー画像の各部は均一
に復原され、目視状態と異なる画像が表現されていた。
Therefore, each part of the transmitted color image is uniformly restored and an image different from the visual state is represented.

【0005】[0005]

【課題を解決するための手段】然るにこの発明は、カラ
ー画像を所定数に分割し、各分割部毎にその重要度を選
択的に決定し、選別することを特徴としたカラー画像の
重要な構成要素の分割選別方法であり、重要度を決定す
るには、原画像に縮小化やフィルタリングを施し、色情
報を用いて過剰に分割し、原画像上で色々な隣接関係か
ら領域を統合して領域分割し、該領域の特徴量を画像か
ら算出し、これをもとにしてファジィ推論により各領域
の重要度を決定することを特徴としたものである。また
システムの発明は、カラー画像を過剰分割する為の前処
理を行い、ついで領域抽出処理した後、各領域の特徴量
の算出をもとにしてファジィ推論により各領域内の物体
の重要度を決定することを特徴としたカラー画像の重要
な構成要素の分割選別システムである。次に、カラー画
像からのノイズ除去及び縮小化のメディアン・フィルタ
をかけて前処理を行った後、色彩情報から大まかに領域
抽出を行うクラスタリングによる領域抽出処理と、位置
情報を加味して微小領域の併合処理を行う。ついで各領
域における特徴量の算出に基づき、ファジィ推論により
各領域内の物体の重要度を決定する処理を行った後、各
領域毎の重要度に応じて選別することを特徴としたカラ
ー画像の重要な構成要素の分割選別システムであり、ク
ラスタリングによる領域抽出処理を行うには、色情報を
用いて原画像を過剰に分割し、前記原画像上で、色々な
隣接関係から領域を統合して領域分割結果とし、前記領
域における重要な物体と決定付ける要素となる領域の特
徴量を原画像から算出して行うことを特徴としたもので
ある。
SUMMARY OF THE INVENTION However, the present invention is characterized in that a color image is divided into a predetermined number, and the degree of importance of each divided portion is selectively determined and selected. It is a method of dividing and selecting components, and in order to determine the degree of importance, the original image is reduced or filtered, it is excessively divided using color information, and regions are integrated from various adjacent relationships on the original image. It is characterized in that the region is divided into regions, the feature amount of the region is calculated from the image, and the importance of each region is determined by fuzzy inference based on this. In addition, the system invention performs preprocessing for excessively dividing a color image, then performs area extraction processing, and then uses fuzzy reasoning based on the calculation of the feature amount of each area to determine the importance of the object in each area. It is a division and selection system of important components of a color image, which is characterized by making a decision. Next, after performing preprocessing by applying a median filter for noise removal and reduction from color images, area extraction processing by clustering that roughly extracts areas from color information, and minute areas by taking positional information into account Is merged. Then, based on the calculation of the feature amount in each area, after performing the process of determining the importance of the object in each area by fuzzy inference, the color image characterized by selecting according to the importance of each area This is a division and selection system for important components, and in order to perform region extraction processing by clustering, the original image is excessively divided using color information, and regions are integrated from various adjacent relationships on the original image. As a result of the region division, the feature amount of the region, which is an element that determines an important object in the region, is calculated from the original image, and the feature amount is calculated.

【0006】前記におけるカラー画像の分割方法をまと
めると、原画像からノイズ除去や縮小化を行って、処理
が行い易いように前処理を施した後、色彩情報から大ま
かに領域抽出を行い、位置情報を加味して微小領域の併
合処理を行う。ここで抽出された領域に対して人間の視
覚情報、すなわち人間が注目するための特徴量を計算
し、ファジィ推論により物体の重要度を決定するという
手法を採っている。
The color image division methods described above can be summarized as follows: noise removal or reduction is performed from the original image, preprocessing is performed to facilitate processing, and then area extraction is performed from color information to determine the position. The merging process of the minute areas is performed in consideration of the information. A method of calculating visual information of a human being, that is, a feature amount for the human attention to the extracted region, and determining the importance of the object by fuzzy reasoning is adopted.

【0007】このような手順を踏むことで、必要な計算
を軽減できるだけでなく、各領域の特徴が平均化される
ため、全体的な特徴を捉えやすくなり、重要度の判別困
難な物体の重要度を決定することが容易となる。
By following these steps, not only the required calculation can be reduced, but also the features of each area are averaged, so that it is easy to capture the overall features, and the importance of an object whose importance is difficult to determine is important. It is easy to determine the degree.

【0008】また、物体の重要度決定は個人の主観に依
存し困難なものであるが、重要度決定を容易にするため
に、実験でのサンプルから学習によりファジィルールを
求め、ファジィ推論を行うことで、人間の個人差に起因
する処理の複雑を解消している。
Further, it is difficult to determine the importance of an object because it depends on the subjectivity of an individual, but in order to easily determine the importance, fuzzy rules are obtained by learning from a sample in an experiment and fuzzy reasoning is performed. This eliminates the complexity of processing due to individual differences among humans.

【0009】この発明においては、物体を「幾つかの領
域の集合」として捉える。何故なら、物体をひとまとめ
に捉えるには、現在の技術水準では、認識の分野で行な
われているような、物体についての意味的知識が必要で
ある。この発明では、そのような知識を介さないような
人間が客観的に感じるような知識のみを取り扱う。
In the present invention, the object is regarded as "a set of several areas". This is because, in order to capture an object as a whole, it is necessary to have a semantic knowledge about the object as is done in the field of recognition in the current state of the art. In the present invention, only knowledge that is objectively felt by a person who does not rely on such knowledge is handled.

【0010】この発明において、重要な物体を定義付
け、領域の常用度を自動的に決定するために、まず、原
画像を何らかの意味、特徴を持つ部分にわけることが必
要である。
In the present invention, in order to define an important object and automatically determine the degree of regularity of the area, it is first necessary to divide the original image into parts having some meaning or characteristics.

【0011】この段階では、まず、原画像から縮小化
し、フィルタリングによりノイズ除去を行い、色空間上
でクラスタリングで過剰に領域抽出を行った後、原画像
上の領域の色や隣接関係を考慮して、前記過剰分割され
た領域をまとめる処理を行う。
At this stage, first, the original image is reduced, noise is removed by filtering, and excessive region extraction is performed by clustering in the color space, and then the color and adjacency relation of the region on the original image are considered. Then, a process of collecting the excessively divided regions is performed.

【0012】[0012]

【発明の実施形態】この発明は、カラー画像を所定数に
分割し、各分割部毎にその重要度を選択的に決定して、
カラー画像の重要な構成要素を分割選別する方法であ
る。
BEST MODE FOR CARRYING OUT THE INVENTION According to the present invention, a color image is divided into a predetermined number, and the degree of importance of each divided portion is selectively determined.
This is a method of dividing and selecting important constituent elements of a color image.

【0013】また前記カラー画像を前処理し、クラスタ
リングと、微小領域を併合処理し、特徴に応じて算出
し、ついでファジィ推論により各領域内の物体の重要度
を決定する処理を行い、これを重要度別に選別するカラ
ー画像の重要な構成要素の分割選別システムである。
Further, the color image is pre-processed, clustering and merging are performed on minute areas, calculation is performed according to features, and then processing for determining the importance of the object in each area by fuzzy inference is performed. It is a division and selection system of important constituent elements of a color image that is selected according to importance.

【0014】[0014]

【実施例1】次に、先の領域抽出や重要度を決定にする
ために、次のような前処理を行う。原画像のノイズ除去
や、テクスチャの平均化などを行うためメディアン・フ
ィルタをかけ、更に、縮小化を行う。ここで、原画像の
特徴量を赤(Red)、緑(Green)、青(Blu
e)の3刺激値による加法混色(以下RGB表色系とい
う)から、大局的均等表色系に属するアダムス(Adm
as)表色系の改良型(以下CIELab表色系という)に変
換する。今後の処理はこのCIELab表色系を用いて行う。
また、最終的に結果をカラー静止画像圧縮技術(Joint
Photigraphic Experts Group以下JPEGという)の圧
縮を用いるため、画像中の物体の外形がわかる範囲で縮
小化をとどめておく必要があり、過度の縮小化は避けな
ければならない。
[Embodiment 1] Next, the following preprocessing is performed in order to extract the area and determine the degree of importance. A median filter is applied to remove noise from the original image and average the texture, and further reduce the size. Here, the feature amounts of the original image are red (Red), green (Green), and blue (Blue).
From the additive color mixture (hereinafter referred to as the RGB color system) based on the three stimulus values of e), Adams (Adm) belonging to the global uniform color system
as) Convert to an improved type of color system (hereinafter referred to as CIELab color system). Future processing will be performed using this CIELab color system.
In addition, the final result is color still image compression technology (Joint
Since the compression of Photigraphic Experts Group (hereinafter referred to as JPEG) is used, it is necessary to keep the reduction in a range where the outline of the object in the image can be seen, and excessive reduction must be avoided.

【0015】縮小化の処理は、次のようにして行う。 1.縮小後の画素と、JPEGの量子化単位(8×8画
素のブロック)との整合をとるため、2×2画素ないし
4×4画素を縮小単位として、この単位が縮小後の画素
に相当する。全体の大きさの1/Tに縮小する場合、以
下のようになる。 2.各縮小単位内の画素について、L,a,bの各要素
の値の平均値を出力とする。
The reduction processing is performed as follows. 1. In order to match the pixel after reduction with the JPEG quantization unit (block of 8 × 8 pixels), 2 × 2 pixels to 4 × 4 pixels are used as the reduction unit, and this unit corresponds to the pixel after reduction. . When the size is reduced to 1 / T of the whole size, it is as follows. 2. For pixels in each reduction unit, the average value of the values of the elements L, a, and b is output.

【0016】[0016]

【数1】 [Equation 1]

【0017】フィルタ処理は、次のような手順で行う。
大きさを縦横それぞれ半分にして、メディアンフィルタ
を3度かけた場合、図1のようになる。
The filtering process is performed in the following procedure.
When the size is halved vertically and horizontally and the median filter is applied three times, the result is as shown in FIG.

【0018】1.3×3画素を1組として、この組を1
単位として処理を行う。 2.原画像に対し、1単位内の9個の画素について、
L,a,bの各要素の値のメディアン(中央値)をと
り、その出力P(i ,j )とする。
One set of 1.3 × 3 pixels is set as one set.
Process as a unit. 2. For the original image, for 9 pixels in 1 unit,
The median (median value) of the values of the L, a, and b elements is taken as the output P (i, j).

【0019】[0019]

【数2】 [Equation 2]

【0020】以上のメディアンフィルタ、縮小化の処理
を組み合わせることで、ノイズ除去やテクスチャの平滑
化、計算量の軽減を同時に行うことができる。
By combining the above-described median filter and reduction processing, noise removal, texture smoothing, and calculation amount reduction can be performed at the same time.

【0021】次に、前記で述べた前処理を行った後、領
域抽出を行い、画像を大まかな色領域に分ける。ここで
用いる特徴量として、CIEL,a ,b 表色系を利用して、
この表色系の座標空間内でクラスタリングを行う。この
段階では、縮小化された画像に対して処理を行うので、
抽出される領域は原画像に対して厳密に一致したもので
はない。
Next, after performing the above-described preprocessing, area extraction is performed to divide the image into rough color areas. As the feature quantity used here, using the CIEL, a, b color system,
Clustering is performed in the coordinate space of this color system. At this stage, since processing is performed on the reduced image,
The extracted area does not exactly match the original image.

【0022】ここでの領域抽出は、ピーク−クライミン
グ(Peak−Climbing)クラスタリングアルゴリズムを応
用した手法で行う。なぜなら、もしピーク−クライミン
グのみを行った場合でも、ヒストグラムをとる母集団
(セル)の大きさによって求められるクラスタの状態が
変わってくるので、どの大きさにすれば最適な領域が抽
出できるかというクラスタ評価問題が付加されるからで
ある。また、抽出された領域の数が多すぎると後の処理
を複雑にすることになり、逆に、領域の数が少な過ぎて
も物体の様子が分からなくなるので、幾つのクラスタ数
にするかが問題となり、これらのことを考慮する必要が
ある。
The area extraction here is performed by a method applying a peak-climbing clustering algorithm. This is because, even if only peak-climbing is performed, the cluster state obtained depends on the size of the population (cell) for which the histogram is taken, so what size should be used to extract the optimum region? This is because the cluster evaluation problem is added. Also, if the number of extracted regions is too large, the subsequent processing becomes complicated, and conversely, if the number of regions is too small, the state of the object cannot be seen. It becomes a problem and these things need to be considered.

【0023】[0023]

【実施例2】次に、クラスタリングの処理手順を以下に
示す。
Second Embodiment Next, the processing procedure of clustering will be described below.

【0024】1.色情報(CIEL,a ,b )表色系を用い
て領域抽出の処理を施す。ここでは、クラスタ数cが、
およそ20個を越えるくらいを目安に分割を行なってい
る。 (a)CIEL,a ,b 空間上でヒストグラムをとるため、
CIEL,a ,b 空間を一辺Dの立方体(セル)に分割し、
Dに適当な値を代入し、初期化する。 (b)セルのサイズDに対して、(CIEL,a ,b )空間
上でピーク−クライミングを行う。 (c)クラスタ数がcを越えるまで、セルのサイズDの
値を一定値ずつ減らしていき、1bを繰り返す。 (d)クラスタ数がcを越えたところで、処理を終了
し、m個のクラスタregioni (i =1,2,・・・,
m)が得られ、領域抽出される。
1. Region extraction processing is performed using the color information (CIEL, a, b) color system. Here, the cluster number c is
The division is done with about 20 as a guide. (A) Since the histogram is taken on the CIEL, a, and b spaces,
CIEL, a, b space is divided into cubes (cells) with one side D,
Substitute an appropriate value for D and initialize. (B) For the cell size D, peak-climbing is performed in the (CIEL, a, b) space. (C) The value of the cell size D is reduced by a constant value until the number of clusters exceeds c, and 1b is repeated. (D) When the number of clusters exceeds c, the process is terminated and m clusters region i (i = 1, 2, ...,
m) is obtained and the region is extracted.

【0025】2.CIEL,a ,b 空間上でクラスタリング
により抽出された領域を、原画像上に逆写像したもの
を、最瀕値フィルタをかけて平滑化し、領域内の画素数
が平滑化処理する前の半分以下になった領域を、無意味
な領域として除去し、隣接する領域に含める。最瀕値フ
ィルタは、画素P(i,j)について、周囲8画素を含
めた9画素に対して最も出現頻度の高い画素の値と置き
換える処理である。
2. The region extracted by clustering in the CIEL, a, and b spaces is inverse-mapped on the original image and smoothed by applying a threshold value filter, and the number of pixels in the region is less than half that before smoothing processing. The area that has become a non-meaningful area is removed and included in the adjacent area. The minimum value filter is a process of replacing the pixel P (i, j) with the value of the pixel having the highest appearance frequency with respect to 9 pixels including the surrounding 8 pixels.

【0026】3.最瀕値フィルタ処理後の画像中で、領
域抽出された色領域に対して、色空間ではなく、画像上
の位置情報を加味してラベル付けを行う。
3. In the image after the threshold value filtering process, the color region extracted from the region is labeled not by the color space but by the position information on the image.

【0027】ラベル付けの手順は次のようになる。 (a)各画素に対し、そのL,a,b値が領域regionm
に属すならば、1を割り当てる。
The labeling procedure is as follows. (A) For each pixel, its L, a, b value is the region region m
If it belongs to, assign 1.

【0028】[0028]

【数3】 (Equation 3)

【0029】(b)binaryに対して、ラベル付け処理を
行なう (ここで、(i ,j )=(0 ,0 )とする。) ・binary(i ,j )=(0 ,0 )(背景画素)ならば、
ラベルは付けない。 ラベル(i ,j )=0 ・binary(i ,j )=1 (図形画素)ならば、ラベ
ルを付ける。 −ラベル(i −1 ,j )=0 、かつラベル(i ,j −1
)=0 ならば、新しいラベルnew を付ける。 ラベル(i ,j )=new −ラベル(i −1 ,j )=ラベル(i ,j −1 )(≠0
)ならば、両画素と同じラベルを付ける。 ラベル(i ,j )=ラベル(i −1 ,j ) −ラベル(i −1 ,j )(≠0 )、かつラベル(i ,j
−1 )=0 ならば、上の画素と同じラベルを付ける。 ラベル(i ,j )=ラベル(i −1 ,j ) −ラベル(i ,j −1 )(≠0 )、かつラベル(i −1
,j )=0 ならば、左の画素と同じラベルを付ける。 ラベル(i ,j )=ラベル(i ,j −1 ) −ラベル(i −1 ,j )〉ラベル(i ,j −1 )(≠0
)ならば、上の画素と同じラベルを付ける。 ラベル(i ,j )=ラベル(i −1 ,j ) また、ラベルラベル(i ,j −1 )をすべてラベル(i
−1 ,j )に直す。◎・(i ,j )を1つずらして、戻
る。
(B) Labeling processing is performed on the binary (here, (i, j) = (0, 0).) Binary (i, j) = (0, 0) (background) Pixel),
No label. Label (i, j) = 0 • If binary (i, j) = 1 (graphic pixel), attach a label. -Label (i -1, j) = 0 and Label (i, j -1)
) = 0, a new label new is attached. Label (i, j) = new-Label (i-1, j) = Label (i, j-1) (≠ 0
), Attach the same label as both pixels. Label (i, j) = label (i-1, j) -label (i-1, j) (≠ 0) and label (i, j)
If −1) = 0, give the same label as the pixel above. Label (i, j) = Label (i-1, j) -Label (i, j-1) (≠ 0) and Label (i-1)
, J) = 0, give the same label as the left pixel. Label (i, j) = Label (i, j-1) -Label (i-1, j)> Label (i, j-1) (≠ 0
), Then give the same label as the pixel above. Label (i, j) = label (i −1, j). Further, all label labels (i, j −1) are labeled (i
−1, j). ◎ ・ Shift (i, j) by one and return.

【0030】4.ラベル付けされた画像から、最瀕値フ
ィルタ(図3)をかけて、さらに微小な領域を取り除
く。ここではラベルの値に対して処理を行なっている。
4. From the labeled image, a minimum value filter (FIG. 3) is applied to remove smaller areas. Here, the processing is performed on the label value.

【0031】5.領域の隣接関係と色の値L,a,b
や、領域同士の色の差を考慮して、ファジィ推論を用い
て領域の併合を行う。
5. Area adjacency and color values L, a, b
Alternatively, the regions are merged by using fuzzy inference, considering the color difference between the regions.

【0032】(a)領域ラベルm 内の各画素のL,a,
bと画素数エリアから色の平均値をとり、ラベル領域ラ
ベルm の代表色を求める。
(A) L, a, of each pixel in the area label m
A representative color of the label area label m is obtained by taking an average value of colors from b and the pixel number area.

【0033】[0033]

【数4】 (Equation 4)

【0034】(b)明度成分が含まれると、シャドウや
シェーディングの影響により過剰な領域に分かれる問題
点を考慮し、領域全体のa ,b 色度の色相(metric−ch
roma)値の平均を求める。
(B) Considering the problem that when the lightness component is included, the region is divided into excessive regions due to the influence of shadows and shading, and the hue (metric-ch) of the a and b chromaticities of the entire region is taken into consideration.
roma) value is averaged.

【0035】(c)ある領域regionm に対し、その領域
以外の隣接する領域の境界部分の画素regionn (m ≠n
)のCIEL,a,b空間における代表色(色の平均値)
と色差を求める。
(C) For a certain region region m , pixels region n (m ≠ n at the boundary between adjacent regions other than that region m )
) Representative color in the CIEL, a, b space (average value of colors)
And obtain the color difference.

【0036】[0036]

【数5】 (Equation 5)

【0037】(d)領域同士の隣接関係から各領域ラベ
m について、簡略化ファジィ推論を行い、他の領域に
対する適合度を算出し、適合度の高い領域に併合する。
処理手順としては以下の様になる。 注目領域に隣接する領域を全て見付ける。 各隣接領域に対し、前記の3つ色差を求める。 その値を入力としてファジィ推論を行い、各隣接領域
との併合の適合度を求める。 併合の適合度が最も大きなものを探し、その値がある
値(0.3 から0.5 )以上であればその領域を注目領域に
併合する。 小さい順番で次の領域に対して処理が終わったら、領
域の大きさの順番を更新して1から5を実行する。これ
を併合の度合が閾値以上の領域の組がなくなるまで繰り
返す。
(D) Simplified fuzzy inference is performed for each area label m from the adjacency relationship between areas to calculate the degree of conformity with other areas and merge the areas with high degree of conformity.
The processing procedure is as follows. Find all areas adjacent to the area of interest. The three color differences are calculated for each adjacent area. Fuzzy inference is performed using that value as input, and the fitness of merging with each adjacent region is obtained. Search for the one with the highest merging suitability, and if that value is greater than a certain value (0.3 to 0.5), merge that region into the region of interest. When the processing is completed for the next area in ascending order, the order of the size of the area is updated and steps 1 to 5 are executed. This is repeated until there is no set of regions whose degree of merging is greater than or equal to the threshold.

【0038】次に、領域抽出により分割された領域か
ら、視覚的に重要な物体に対応する領域(以降、重要な
領域と呼ぶ)の重要度を決定するという処理を行なう。
まだこの段階では、画像は、ただラベル付けされただけ
であり、領域の重要度決定の処理などに用いるには、領
域に何らかの「意味」を持たせなければならないので、
画像中の領域の特徴を調べることが必要である。
Next, a process of determining the degree of importance of a region corresponding to a visually important object (hereinafter referred to as an important region) from the regions divided by the region extraction is performed.
At this stage, the image has just been labeled, and the region must have some "meaning" for use in determining the importance of the region.
It is necessary to examine the features of the areas in the image.

【0039】視覚的に重要であるか否かという判断をコ
ンピュータ上で行なうには、人間の主観や個人差に大き
く影響されるため、簡単に決定できるものでなく、困難
を伴う。そこで、人間の漠然ともつ知識を表現でき、人
間に近い判断処理が可能な、ファジィ推論により重要度
を決定する。
It is not easy to make a decision as to whether or not it is visually important on a computer because it is greatly affected by human subjectivity and individual differences, and it is difficult. Therefore, the degree of importance is determined by fuzzy reasoning, which can express vague knowledge of humans and can perform judgment processing similar to humans.

【0040】重要度の決定には、次のような段階の処理
を踏む。 1.画像中の領域の特徴量を算出する。 2.求められた領域の特徴量をもとに、実験から教師デ
ータを得る。 3.教師データをもとに、ファジィルールの学習によっ
てファジィルールを得る。 4.獲得されたファジィルールによりファジィ推論を行
ない、重要度を決定する。
In order to determine the importance, the following steps are performed. 1. The feature amount of the area in the image is calculated. 2. Teacher data is obtained from the experiment based on the obtained feature amount of the region. 3. A fuzzy rule is obtained by learning the fuzzy rule based on the teacher data. 4. Fuzzy reasoning is performed according to the acquired fuzzy rules to determine the importance.

【0041】[0041]

【実施例3】以下に、各段階の処理について説明する。[Third Embodiment] The processing in each stage will be described below.

【0042】まず、画像の領域の特徴を調べる。ただ
し、ここでいう特徴は、重要度を決定する処理に用いる
ために、定量的に算出可能な特徴量でなければならな
い。
First, the characteristics of the image area are examined. However, the feature here must be a feature amount that can be quantitatively calculated in order to be used in the process of determining the importance.

【0043】視覚的に重要な物体を特徴付ける要素とし
て、 1.人間が注目しやすい「目立つ」ものである。 2.その物体が個人的に特別な意味、興味を持つもので
ある。 ということが大きな要素であると思われる。
Elements that characterize a visually important object are: It is "prominent" that is easily noticed by humans. 2. The object is personally of special interest and interest. That seems to be a big factor.

【0044】ここで、後者の場合には、画像中の物体の
内容について理解しているという前提がある。しかし、
意味的な内容理解については、認識の分野の範疇にあ
り、そのような分野の研究が色々行なわれており、その
分野の研究の成果を採用する。
Here, in the latter case, it is premised that the content of the object in the image is understood. But,
Semantic comprehension is in the field of cognition, and various studies in such fields have been conducted, and the results of the research in that field are adopted.

【0045】この発明では、内容についての意味的知識
は用いずに、人間が自然と行なっている、物を見るとき
に、ふとある物体に注目するという、無意識的な知覚処
理に近づけるというコンセプトに基づいて領域の重要度
を決定する。
In the present invention, the concept of approaching to the unconscious perceptual processing that humans naturally perform, that is, when they look at an object, suddenly pay attention to a certain object, without using semantic knowledge about the content, is adopted. Based on this, the importance of the area is determined.

【0046】画像中の領域の特徴量の中には、個々の領
域が独自にもつものと、周囲の領域の特徴如何によっ
て、その領域が重要であるか否か依存するものが存在す
る。
Among the characteristic amounts of the regions in the image, there are those that each region has uniquely and those that depend on the features of the surrounding regions whether or not the region is important.

【0047】画像処理については、幾つか特徴量が挙げ
られているが、この発明で用いた特徴量は、以下のよう
なものである。
Regarding image processing, some characteristic amounts are listed, but the characteristic amounts used in the present invention are as follows.

【0048】大きさ(面積) 大きさは、画像の大きさに対するその領域に属するが、
その画素数のが無視できなくなることがあるからであ
る。
Size (area) The size belongs to the area with respect to the size of the image,
This is because the number of pixels cannot be ignored.

【0049】[0049]

【数6】 (Equation 6)

【0050】画像中の位置 画像の中心付近に位置する領域は注目されやすい。そこ
で、領域の重心と画像の中心との距離を調べる。
Position in image The area located near the center of the image is easy to be noticed. Therefore, the distance between the center of gravity of the area and the center of the image is examined.

【0051】領域の重心(iregion r ,jregion r )は
次のようになる。
The center of gravity (iregion r , jregion r ) of the area is as follows.

【0052】[0052]

【数7】 (Equation 7)

【0053】この重心の座標から、位置は次に求められ
る。
From the coordinates of the center of gravity, the position can be obtained next.

【0054】[0054]

【数8】 (Equation 8)

【0055】ここで、(icenter ,jcenter )は、画像
の中心の座標である。
Here, (icenter, jcenter) is the coordinates of the center of the image.

【0056】まとまり具合 形状のもとまり具合は、次のように定義される。Cohesiveness The shape of the cohesiveness is defined as follows.

【0057】[0057]

【数9】 [Equation 9]

【0058】ここで、バウンダリー(boundary)は周囲
長を表し、領域の境界上の画素数に対応する。また、エ
リア(area)は領域内の画素数を表す。
Here, the boundary represents the perimeter, and corresponds to the number of pixels on the boundary of the area. Also, an area represents the number of pixels in the area.

【0059】この値は、形状が単純であるかどうかを示
す値であり、最も単純な円のときに1となり、円からか
けはなれた形(複雑)になるほど値は小さくなる。
This value is a value indicating whether or not the shape is simple, and becomes 1 in the case of the simplest circle, and the value becomes smaller as the shape (complexity) deviates from the circle.

【0060】画像中で“形”として浮かび上がる意味の
ある領域は、まとまりの良い領域となる。
Areas that have a meaningful appearance as "shapes" in the image are areas with good cohesion.

【0061】画像の端への隣接度合Degree of adjacency to the edge of the image

【数10】 (Equation 10)

【0062】重心の位置が中心付近に存在すると、人間
にとって知覚されやすいこととは逆に、画像の端に隣接
している度合が大きいと、背景領域である傾向が強い。
When the position of the center of gravity is near the center, it is easily perceived by humans. On the contrary, when the degree of adjacency to the edge of the image is large, it tends to be the background region.

【0063】領域の色L,a,b L,a,b各要素について領域内の全画素の算術平均値
により、個々の領域がもつ“代表色”を表現する。
Area Colors L, a, b For each element L, a, b, the "representative color" of each area is represented by the arithmetic mean value of all the pixels in the area.

【0064】色の目立ち具合 他の領域の全体の色の特徴と比較して、その領域の色の
差が大きいものは、色相に関して目立つ(ポップアウト
する)。また、近接の要因から、離れた領域より近接領
域の色差の方が注目されやすいことがいえる。
Conspicuousness of Color When the difference in color between the regions is large as compared with the characteristics of the overall color of other regions, the hue is noticeable (pops out). Also, it can be said that due to the proximity factor, the color difference in the proximity region is more noticeable than in the distant region.

【0065】[0065]

【数11】 [Equation 11]

【0066】ここでdistanceikは、Here, distance ik is

【数12】 (Equation 12)

【0067】として求められる。Is calculated as

【0068】以上のような特徴量から、例えば、 ・中央付近にある、 ・小さい、 ・まとまった、 ・赤く、 ・全体の緑色に対してポップアウトする 部分(領域) といった具合に、人間が漠然ともつ知識により画像中の
領域の特徴を捉えられるようになる。
From the above feature amounts, for example, a person is vaguely located in the vicinity of the center, small, collected, red, and a portion (area) that pops out with respect to the whole green. With the knowledge we have, we will be able to capture the characteristics of regions in the image.

【0069】この発明では、領域の重要度の決定は、フ
ァジィ推論を用いて行なうことにより強靭性を得るが、
求められた特徴量と重要度と、どのように対応付けるか
という問題が生じる。すなわち、人間がものを見るとき
に、何に着目するか、何を重要と思うかという根拠が必
要である。
In the present invention, the degree of importance of a region is determined by using fuzzy reasoning to obtain robustness.
There arises a problem of how to correlate the obtained feature amount with the importance. In other words, it is necessary to have a basis for what people pay attention to and what they consider important when they see things.

【0070】ファジィ推論は、各領域の特徴量を入力と
して、領域の重要度を出力とする入出力関係で表され
る。
The fuzzy inference is represented by an input / output relationship in which the feature amount of each area is input and the importance of the area is output.

【0071】ここで、ファジィ推論を行うための根拠
(ファジィ推論ルール)によって、推論結果が左右され
る。この種の目的のための推論ルールは、人間の経験則
や主観によって決定されることが多く、人間の手によっ
て客観的に決定することが困難である。
Here, the result of inference depends on the basis for performing fuzzy inference (fuzzy inference rule). Inference rules for this kind of purpose are often determined by human experience or subjectivity, and it is difficult to objectively determine them by human hands.

【0072】そこで、実際に人間の実験により得られた
教師データにより、学習を行い、ファジィ推論ルールを
自動的に決定し、ルールの設定に際しての困難を解消す
る。このような手法により、所望する目標により近い値
が得られる。
Therefore, learning is performed by using the teacher data actually obtained by human experimentation, the fuzzy inference rule is automatically determined, and the difficulty in setting the rule is eliminated. By such a method, a value closer to the desired target can be obtained.

【0073】この発明で用いる教師データは、人間によ
る実験によって得るが、実際の実験は、原画像と領域抽
出された画像の2枚の画像を被験者に見せ、領域抽出さ
れた画像中の各領域に対して、その領域が重要であるか
どうかを選んでもらい、被験者人数で平均することによ
り、0から1の値で正規化し、教師データとなる領域の
重要度を決定した。
The teacher data used in the present invention is obtained by an experiment by a human. In an actual experiment, two images, an original image and a region-extracted image, are shown to the subject, and each region in the region-extracted image is shown. On the other hand, whether or not the area is important was selected, and the values were normalized by a value of 0 to 1 by averaging by the number of test subjects, and the importance of the area serving as teacher data was determined.

【0074】教師データ用の画像を用意し、さらに、学
習には用いずに、実際に推論結果が正しいか否かを調べ
るための評価用の画像に対して実験を行った。
An image for teacher data was prepared, and further, an experiment was performed on an image for evaluation for checking whether or not the inference result is actually correct without using it for learning.

【0075】ファジィ推論ルールを自動生成するアプロ
ーチとして、逐次型ファジィモデリングを拡張したデル
タルールによる簡略化ファジィ推論を用いて、人間の実
験から得た知識が正しいとして、学習によりメンバーシ
ップ関数を調整(チューニング)することで、自動的に
客観的な推論ルールを導き出した。
As an approach for automatically generating fuzzy inference rules, simplified fuzzy inference by delta rules, which is an extension of sequential fuzzy modeling, is used, and the membership function is adjusted by learning assuming that the knowledge obtained from human experiments is correct. Tuning), we have automatically derived objective inference rules.

【0076】前件部のメンバーシップ関数A ijの中心値
a ijおよび幅b ij、後件部の実数値c ijの初期値を設定
する。
Central value of membership function A ij in the antecedent part
Set the initial values of a ij, width b ij , and real value c ij of the consequent part.

【0077】評価結果となる後件部の実数値は、学習を
始める最初の状態でどのような値をとっていたとして
も、値が範囲内であれば、全く問題はないので、全ての
ルールにおいて、c i =0 ,i =0 ,・・・ルール数と
した。
As for the real value of the consequent part which is the evaluation result, no matter what value is taken in the initial state when learning is started, there is no problem if the value is within the range. In the above, c i = 0, i = 0, ...

【0078】前件部変数1つにつき、ファジィ集合の数
と、それぞれの集合の幅の初期値を決定する必要があ
る。しかし、前件部のメンバーシップ関数の初期状態は
その後の学習に影響が大きいので、注意が必要である。
ここでのファジィ推論では、前件部変数x0 ,・・・,
7 が7つの特徴値である。この特徴値をそれぞれの度
合を示すファジィ集合で表す。まず各入力変数に対する
ファジィ集合の数であるが、端へ隣接度合と色の場合を
除き、「小さい」・「普通」・「大きい」の3つとし
た。
For each antecedent part variable, it is necessary to determine the number of fuzzy sets and the initial value of the width of each set. However, note that the initial state of the membership function in the antecedent part has a large effect on subsequent learning.
In the fuzzy reasoning here, the antecedent variable x 0 , ...,
x 7 is the seven feature values. This feature value is represented by a fuzzy set indicating each degree. First, the number of fuzzy sets for each input variable was set to "small", "normal", and "large" except for the degree of adjacency and color to the edge.

【0079】端へ隣接度合は、隣接しているかしていな
いか、すなわち端の部分は背景になりやすいということ
を踏まえると、背景領域であるか、ないかという2つの
条件で十分である。
As for the degree of adjacency to the edge, two conditions, that is, the background area and the absence thereof, are sufficient in view of whether or not they are adjacent to each other, that is, the edge portion is likely to become the background.

【0080】また、色の値であるa ,b は、(a ,b )
平面上での実際にとる値の範囲(実際には各々−100 〜
100 の間をとる)を考慮して、5つのファジィ集合で表
現した。
The color values a and b are (a and b)
The range of values actually taken on the plane (actually −100 ~
(It takes between 100)) and expressed it with 5 fuzzy sets.

【0081】また各ファジィ集合の幅の初期状態は、前
記各領域における特徴量であり、出力は、実験結果から
得られた各領域毎の重要度である。
The initial state of the width of each fuzzy set is the feature quantity in each area, and the output is the importance of each area obtained from the experimental results.

【0082】ファジィ推論を用いて、各入力データに対
してファジィ推論を行い、各推論ルールの適合度u
i と、推論結果ci を求める。
Fuzzy inference is performed on each input data by using fuzzy inference, and the goodness of fit u of each inference rule u
i and the inference result c i are obtained.

【0083】ファジィIF−THENルールで書くと、
次の様になる。
When written by the fuzzy IF-THEN rule,
It looks like this:

【0084】 rule i: IF 大きい is A a 位置 is B b まとまり具合 is C c 隣接度合 is D d L is E e a is F f b is G g 色の目立ち度合 is H h THEN 重要度i =c i a ,b ,c ,e ,h =small ,medium,large d =small ,large f ,g = verysmall,small ,medium,large ,verylarge i =1 ,2 ,・・・,l (=35 ×2×52 =12150)Rule i: IF large is A a position is B b cohesiveness is C c adjacency is D d L * is E e a * is F f b * is G g color conspicuity is H h THEN importance i = c i a, b, c, e, h = small, medium, large d = small, large f, g = verysmall, small, medium, large, verylarge i = 1, 2, ..., l (= 3 5 × 2 × 5 2 = 12150)

【0085】この発明で提案した物体の重要度に着目し
た画像分割により、画像中の物体を表す領域の重要度が
決定された。
By the image segmentation focusing on the importance of the object proposed in the present invention, the importance of the region representing the object in the image is determined.

【0086】これから、この重要度をもとに、重要な領
域は圧縮率を抑えて品質を保ち、そうでない領域は出来
る限り圧縮率を高くして、圧縮を行うことを考える。
Based on this importance, it is considered that the compression rate is suppressed in the important area to maintain the quality, and the compression rate is increased in the other areas as much as possible to perform the compression.

【0087】この発明で対象とする画像圧縮手法は、基
本的には標準JPEGの基本方式を用いており、基本的
処理についてはJPEGをそのまま利用して、重要度に
関係する部分に関して一部拡張させる、という方向で圧
縮を行なう。
The image compression method targeted by the present invention basically uses the standard JPEG basic method. For basic processing, JPEG is used as it is, and a part of the portion related to the importance is expanded. The compression is performed in the direction of permitting.

【0088】このような圧縮方法をとることにより、J
PEGと互換性が保たれるため、基本的なJPEGの処
理の部分に手を加える必要がないため拡張が容易であ
る。また、一般に広く世に出回っているJPEGに対応
した画像表示ツールによって内容の確認が可能である。
By adopting such a compression method, J
Since compatibility with PEG is maintained, there is no need to modify the basic JPEG processing part, and expansion is easy. Further, the contents can be confirmed by an image display tool compatible with JPEG which is widely available in the world.

【0089】このように、JPEG「標準化」の利点を
最大限に活用できるとともに、人間の視覚に対応して、
画像のサイズに関しても、効率良く圧縮することができ
る。
In this way, the advantages of JPEG "standardization" can be utilized to the fullest extent, and in addition to human vision,
The image size can also be efficiently compressed.

【0090】画像圧縮の分野においては、様々な研究が
なされており、世の中が知的画像圧縮、構造圧縮の世界
に踏み込みつつあり、画像の局所的な特徴に着目した手
法も幾つか提案されている。また、画像内部の構造や知
識に関わることで、極度に難しくなる。
Various researches have been made in the field of image compression, the world is entering the world of intelligent image compression and structural compression, and some methods focusing on local features of images have been proposed. There is. Also, it becomes extremely difficult because it is related to the internal structure and knowledge of the image.

【0091】この発明で行う物体の重要度に着目したJ
PEG画像圧縮は、第2世代の符号化と呼ばれる領域分
割符号化というものに類似するものであるが、1つの領
域の色の特徴が似ているいうことを利用して符号化する
領域分割符号化に対して、人間が画像を見るという知覚
に対応する点や、物体の重要度と圧縮率が結び付いてい
るという点で、従来の手法と一線を画するものである。
Focusing on the degree of importance of an object according to the present invention, J
The PEG image compression is similar to the area division encoding called the second generation encoding, but the area division code is encoded by utilizing the fact that the color characteristics of one area are similar. It is different from the conventional method in that it corresponds to the perception that a human sees an image, and that the importance of an object and the compression rate are linked.

【0092】この発明で行う圧縮の全体の流れは、図4
に示す通りである。
The overall flow of compression performed by the present invention is shown in FIG.
As shown in FIG.

【0093】まず、圧縮を行なうにあたって、画像分割
により得られた領域の重要度に基づいて、重要度の分布
を利用する。領域の境界情報を記述することが必要であ
る。この発明では、画像分割によって決定された重要度
の分布を、ブロックマップというデータ構造の形で圧縮
側に渡して、このブロックマップをもとに物体の情報を
記述する。
First, when performing compression, a distribution of importance is used based on the importance of the area obtained by image division. It is necessary to describe the boundary information of the area. In the present invention, the distribution of the importance determined by the image division is passed to the compression side in the form of a data structure called a block map, and the object information is described based on this block map.

【0094】ブロックマップは、JPEGの最小データ
ユニット( Minimum Data Unit,以下MDU)が8×8
画素ないし16×16画素のブロックであるので、原画
像に対するMDUの2次元配列width MDU×height
DUで与えられる。同じMDUに属する全ての画素は、
圧縮時に同じ品質として取り扱われる。すなわち、
width MDU×heightMDU画素の原画像であると、み
なすことが出来る。
The block map has a minimum data unit (MDU) of JPEG of 8 × 8.
Since it is a block of pixels or 16 × 16 pixels, a two-dimensional array of MDUs for the original image width MDU × height M
Given in DU. All pixels that belong to the same MDU
Treated as the same quality when compressed. That is,
It can be regarded as an original image of width MDU × height MDU pixels.

【0095】ここで、ブロックマップには各MDUにつ
いて、重要度のレベルLevel が記述されてており、この
重要度のレベルをもとに、画像中のブロックの品質を、
後で述べるスケールテーブルによって決定する。
Here, the level of importance is described for each MDU in the block map. Based on this level of importance, the quality of the block in the image is
It is determined by the scale table described later.

【0096】この発明では、画像中の物体、ないしその
要素となる領域の重要度に基づいて圧縮(符号化)を行
おうとするのであるが、物体の特徴は、全てブロックマ
ップにより決定され、このブロックマップにより処理が
行われる。
According to the present invention, compression (encoding) is performed based on the importance of an object in an image or a region as an element thereof. However, all features of the object are determined by a block map. Processing is performed by the block map.

【0097】このような処理対象となるモデルは、もは
や固定の大きさのブロックなどではなく、様々な形状を
した物体である。このような処理を実現するには、物体
の内容だけでなく、すなわち、構造や形状(境界)など
の特徴を調べて記述することが必要となる。
The model to be processed in this manner is not a block having a fixed size anymore, but objects having various shapes. In order to realize such processing, it is necessary to investigate and describe not only the content of the object, but also the characteristics such as the structure and shape (boundary).

【0098】この発明は、物体の重要度に基づいて形状
を調べ、重要な物体の形状を記述して、その領域の内部
の画素の情報も必要であるため、その囲まれた領域の内
部を同じ重要度で塗りつぶして埋めることにより、JP
EGに書き込むという形を取っている。
According to the present invention, the shape of an important object is described based on the degree of importance of the object, the shape of the important object is described, and the information of the pixels inside the area is also required. By filling and filling with the same importance, JP
It takes the form of writing to EG.

【0099】この発明は、データ量を効率的に削減する
ために、同じ重要度のレベルの全ての連結するブロック
は、1つの物体とみなしてひとまとめにし、形状を記述
して処理する。
According to the present invention, in order to efficiently reduce the amount of data, all connected blocks of the same importance level are regarded as one object and are grouped together, and the shape is described and processed.

【0100】形状の記述手法としては、2値画像の輪郭
線追跡によるフリーマン(Freeman)チェインコードが
一般によく知られており、文字認識などに利用されてい
る。この発明ではこのフリーマンチェインコードを用い
て形状を記述する。
As a method of describing a shape, a Freeman chain code by contour line tracing of a binary image is generally well known and is used for character recognition and the like. In the present invention, the shape is described using this Freeman chain code.

【0101】フリーマンチェインコードは、図5(a)
のように、ある画素の周囲の8方向に対して0から7ま
での数値を割り当て、その点から輪郭線追跡を行ない、
進行方向の数値を並べていく。ここで、図5(b)にお
いて実例を示す。
The Freeman chain code is shown in FIG.
, A numerical value from 0 to 7 is assigned to eight directions around a certain pixel, and contour tracing is performed from that point,
Arrange the numbers in the direction of travel. Here, an actual example is shown in FIG.

【0102】しかし、この手法で境界情報を記述して
も、領域内部にさらに領域(穴)が存在する場合があ
る。図6中のBが穴を表している。
However, even if the boundary information is described by this method, there may be a region (hole) inside the region. B in FIG. 6 represents a hole.

【0103】このような穴がある場合には、内部の領域
を調べ、内部を別の領域とみなすことが出来るが、その
部分については、重要度の値が高い方にそろえて記述す
ることにする。
If there is such a hole, the inside area can be examined and the inside can be regarded as another area. However, regarding that portion, it is necessary to describe the areas in descending order of importance. To do.

【0104】前記述で述べた、フリーマンチェインコー
ドにより、各MDUに対してブロックマップの重要度に
応じた形状が記述されても、実際にJPEGに適用する
際に、有効に活かされなければ無意味である。
Even if a shape corresponding to the importance of the block map is described for each MDU by the Freeman chain code described in the above description, it must be effectively used when actually applied to JPEG. Is the meaning.

【0105】そこで、どの部分の領域がどの重要度でど
んな形状になっているか、という情報を圧縮後の画像に
持たせてやる必要がある。
Therefore, it is necessary to provide the compressed image with information as to which part of the region has what shape and with what degree of importance.

【0106】標準JPEGに適用する場合は、JPEG
には、将来の拡張その他の用途で利用できるように幾つ
かのデータ領域が確保されている。その中で、アプリケ
ーションデータセグメント(Application Data Segmen
t)と呼ばれるアプリケーションが独自で利用できる領
域があり、この発明では、このアプリケーションデータ
セグメント(図7(a)(b))を利用して、そこに境
界情報の記述を格納する。
When applied to standard JPEG, JPEG
Has several data areas reserved for future expansion and other uses. Among them, the application data segment (Application Data Segment
There is an area called t) that can be used independently by the application. In the present invention, the description of the boundary information is stored in this application data segment (FIGS. 7A and 7B).

【0107】ここで、APn ・LP・BND i は、それぞれ以
下のものを示している。
Here, AP n , LP, and BND i indicate the following, respectively.

【0108】 APn アプリケーションデータマーカ 2bytes LP アプリケーション領域の情報 2bytes BND i i番目の領域の情報 これらの内わけは各々以下のようになる。 BND 境界情報を記述する開始点 Level ブロックの品質のレベル X 0 領域の開始点のX座標 Y 0 領域の開始点のY座標 Lb 境界のブロックの数 B 1 〜B n フリーマンチェインコードAP n application data marker 2 bytes LP information of application area 2 bytes BND i Information of i-th area The contents of each are as follows. BND Start point that describes boundary information Level Level of quality of block X 0 X coordinate of start point of area Y 0 Y coordinate of start point of area Lb Number of boundary blocks B 1 to B n Freeman chain code

【0109】ここで、この発明では背景の重要度のレベ
ルを基準として2値で比較することにより形状を記述す
るため、背景の重要度のレベルを考慮している。何故な
ら、画像によっては画像全体でどれもが少なからず重要
と判断され、背景領域部分の重要度が0ではなく、それ
なりに高い重要度のレベルが必要となる場合があるため
である。
Here, in the present invention, since the shape is described by making a binary comparison with the level of background importance as a reference, the level of background importance is taken into consideration. This is because, depending on the image, all of the images are judged to be considerable in importance in some cases, and the importance of the background area portion is not 0, and a reasonably high importance level may be required.

【0110】[0110]

【実施例4】この発明においては、ブロックマップと、
重要度と品質レベルの対応表であるスケールテーブルを
用いて、画像分割から得られた重要度のレベルから品質
を得る。
Fourth Embodiment In the present invention, a block map and
A scale table, which is a correspondence table of importance and quality level, is used to obtain quality from the level of importance obtained from image segmentation.

【0111】品質レベルの値は、0から100までの間
を取り、0の時が最悪で、100のときが最良の品質と
なる。ベースとなる量子化テーブルの各要素(8×8)
に積算を含む演算をして、新しい量子化テーブルを設定
する。
The quality level value ranges from 0 to 100, with 0 being the worst and 100 being the best quality. Each element of the base quantization table (8x8)
And perform a calculation including integration to set a new quantization table.

【0112】ブロックマップの重要度から、それに対応
する品質を決めることによって、以上で述べた演算方式
により、各ブロックの量子化テーブルを設定した。この
ようにして、ブロック毎に異なる量子化テーブルで量子
化を行った。
By determining the quality corresponding to the importance of the block map, the quantization table of each block is set by the above-described arithmetic method. In this way, quantization is performed using a different quantization table for each block.

【0113】実際にJPEGで圧縮を行なう際に、量子
化テーブルの定め方によって圧縮後の品質、圧縮サイズ
等が変化してくる。ところが、この量子化テーブルには
標準というものが存在せず、決定は利用者の裁量によっ
て任されているため、この量子化テーブルの定め方が問
題となってくる。
When compression is actually performed by JPEG, the quality after compression, the compression size, etc. change depending on how the quantization table is determined. However, since there is no standard in this quantization table and the decision is left to the discretion of the user, how to determine this quantization table becomes a problem.

【0114】この発明においては、サンプルとして用意
されている量子化テーブルを用いた。この量子化テーブ
ルを用いることで、標準JPEGとパラメータを揃える
ことが出来るので、JPEGと本手法における圧縮結果
の比較がされやすくなるという利点がある。
In the present invention, the quantization table prepared as the sample is used. By using this quantization table, the parameters can be aligned with those of standard JPEG, and there is an advantage that it is easy to compare the compression results of JPEG and this method.

【0115】この発明で提案する物体の重要度に着目し
たJPEG画像圧縮の、実際の圧縮手順は以下のように
なる。
The actual compression procedure of the JPEG image compression focusing on the importance of the object proposed by the present invention is as follows.

【0116】1.画像分割結果の重要度分布をブロック
化し、ブロックマップを作成する。 2.圧縮側で、ブロックマップを受け取る。 3.受け取ったブロックマップから、各ブロックの重要
度のレベルを調べる。 4.重要度のレベルから、スケールテーブルによって対
応する品質を得る。 5.フリーマンチェインコードを用いて、各重要度に応
じた領域の形状を記述する。 6.重要度レベル、背景の重要度、チェインコードの開
始点(X 0 ,Y 0 )、チェインコードを、JPEGのア
プリケーションデータセグメントに書き込む。 7.得られた品質でJPEG圧縮を行う(図8)。
[0116] 1. Create a block map by dividing the importance distribution of the image segmentation results into blocks. 2. The compression side receives the block map. 3. Examine the level of importance of each block from the received block map. 4. From the level of importance, the scale table gives the corresponding quality. 5. Freeman chain code is used to describe the shape of the area according to each importance. 6. The importance level, the background importance, the chain code start point (X 0 , Y 0 ), and the chain code are written in the JPEG application data segment. 7. JPEG compression is performed with the obtained quality (FIG. 8).

【0117】このような手順により、JPEGをそのま
ま利用して、内部の基本的な部分には直接手を加えるこ
となく容易に拡張が出来る物体の重要度に応じて品質
(圧縮率)をJPEG画像圧縮で自由に変えることがで
きる。
According to the procedure described above, the quality (compression rate) can be increased according to the degree of importance of the object which can be easily expanded by directly using JPEG without directly modifying the internal internal parts. It can be changed freely by compression.

【0118】実際の復号手順は符号化の時とは反対で、
以下のようになる。この操作は、基本的には、標準JP
EGの復号と同じであるが、そのままではアプリケーシ
ョンデータセグメントの内容を読めないので、JPEG
の復号をする前に、その部分を読むように変更を加えて
おく必要がある。
The actual decoding procedure is the opposite of the encoding,
It looks like this: This operation is basically a standard JP
Same as EG decoding, but the contents of the application data segment cannot be read as it is, so JPEG
Before decrypting, you need to make some changes to read that part.

【0119】1.復号する画像のファイルを取り込む。 2.取り込むJPEGファイルから、アプリケーション
データセグメントを読む。 3.アプリケーションデータセグメントから背景領域の
重要度のレベルを読む。 4.アプリケーションデータセグメントを各領域の始点
(x ,y )とデータを読み、フリーマンチェインコード
によって、各領域の境界情報を得る。 5.ブロックマップを作成する。 6.スケールテーブルを読み、ブロックマップから品質
を決定する。 7.各ブロックの品質をもとにJPEGの復号を行なう
(図9)。
[0119] 1. Import the image file to be decrypted. 2. Read the application data segment from the imported JPEG file. 3. Read the importance level of the background area from the application data segment. 4. The application data segment is read from the starting point (x, y) and data of each area, and the boundary information of each area is obtained by the Freeman chain code. 5. Create a block map. 6. Read the scale table and determine the quality from the block map. 7. JPEG decoding is performed based on the quality of each block (FIG. 9).

【0120】まず、重要な領域を大まかに抽出するた
め、その前処理として、図3の画像に縮小化とメディア
ン・フィルタの処理を施す。
First, in order to roughly extract an important area, as a preprocessing thereof, the image of FIG. 3 is subjected to reduction processing and median filter processing.

【0121】縮小化処理を1回、メディアン・フィルタ
を3回施した後の画像を図4に示す。ここで、図4は、
処理結果の詳細が良く判別できるように、原画像と同じ
大きさに拡大したものである。
FIG. 4 shows an image which has been subjected to the reduction processing once and the median filter three times. Here, in FIG.
It is enlarged to the same size as the original image so that the details of the processing result can be clearly discriminated.

【0122】ファジィルールの学習の進み具合を表す為
に、推論誤差という値を考えた。推論誤差とは、実験に
よって得られた人間の判断した重要度と、システムの判
断した重要度との差にあたる。
A value called an inference error was considered in order to show the progress of learning of fuzzy rules. The inference error is the difference between the degree of importance judged by humans obtained by experiments and the degree of importance judged by the system.

【0123】そこで、学習画像に対する推論誤差の時間
推移と、未知画像に対する推論誤差の推移の関係をグラ
フに示した。ここで、学習画像の推論誤差は、学習用に
用いた20枚の画像すべての推論誤差の平均で、未知画
像の推論誤差は、10枚の学習に使用していない画像の
推論誤差の平均を用いた。
Therefore, the graph shows the relationship between the transition of the inference error with respect to the learning image and the transition of the inference error with respect to the unknown image. Here, the inference error of the learning image is the average of the inference errors of all the 20 images used for learning, and the inference error of the unknown image is the average of the inference errors of the 10 images not used for learning. Using.

【0124】学習した画像に対する推論誤差は、学習が
進むに従って減少してゆくのは当然である。ところが、
未知画像に対する推論誤差は、ある程度までは収束する
が、ある点を境に増加する。これは、学習が進むにつ
れ、ルールは領域の重要度を計算するファジィルールへ
と調整されてゆくが、あまり進み過ぎると学習用の画像
自体の特徴に特化してしまい、他の画像に対応できなく
なることを示している。このことから、未知画像に対す
る推論誤差が最も小さくなるファジィルールが最も汎用
性が高いと考え、使用することにした。
The inference error with respect to the learned image naturally decreases as the learning progresses. However,
The inference error for an unknown image converges to some extent, but increases at a certain point. This is because as the learning progresses, the rules are adjusted to fuzzy rules that calculate the importance of the region, but if it goes too far, it will be specialized in the characteristics of the learning image itself and will be compatible with other images. It shows that it will disappear. Therefore, we decided to use the fuzzy rule, which has the smallest inference error for unknown images, because it is the most versatile.

【0125】[0125]

【発明の効果】この発明によれば、カラー画像を分割し
て各分割部毎に重要度を定め、これを抽出処理するの
で、恰も目視のような状態で画像処理し、重要な部分が
明瞭に表現される効果がある。
According to the present invention, since the color image is divided and the degree of importance is set for each divided portion and the extraction processing is performed, the image processing is performed in a visual state, and the important portion is clearly identified. There is an effect expressed in.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明における縮小化処理の概念図。FIG. 1 is a conceptual diagram of reduction processing according to the present invention.

【図2】同じくラベル付けの概念図。FIG. 2 is a conceptual diagram of labeling as well.

【図3】同じく最瀕値フィルタの概念図。FIG. 3 is a conceptual diagram of a threshold filter.

【図4】同じく実施例における圧縮過程のブロック図。FIG. 4 is a block diagram of a compression process in the same embodiment.

【図5】(a)同じくフリーマンチェインコードを示す
図。 (b)同じく他のチェインコードを示す図。
FIG. 5A is a diagram similarly showing a Freeman chain code. (B) The figure which similarly shows another chain code.

【図6】同じく領域内部に穴がある場合の図。FIG. 6 is a diagram when there is a hole inside the same region.

【図7】(a)同じくアプリケーションデータセグメン
トのブロック図。 (b)同じく形状を記述する形式のブロック図。
FIG. 7A is a block diagram of an application data segment. (B) Similarly, a block diagram of a format describing a shape.

【図8】(a)同じく明度の量子化テーブル。 (b)同じく色相の量子化テーブル。FIG. 8A is also a quantization table of lightness. (B) Similarly, a quantization table for hue.

【図9】同じく圧縮の流れブロック図。FIG. 9 is a block diagram of the same compression process.

【図10】同じく複号過程のブロック図。FIG. 10 is a block diagram of the decoding process.

【手続補正書】[Procedure amendment]

【提出日】平成8年4月26日[Submission date] April 26, 1996

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項2[Correction target item name] Claim 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項3[Correction target item name] Claim 3

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】請求項5[Correction target item name] Claim 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0005[Correction target item name] 0005

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0005】[0005]

【課題を解決するための手段】然るにこの発明は、カラ
ー画像を所定数に分割し、各分割部毎にその重要度を選
択的に決定し、選別することを特徴としたカラー画像の
重要な構成要素の分割選別方法であり、重要度を決定す
るには、原画像に縮小化やフィルタリングを施し、色情
報を用いて画像を分割し、原画像上で色々な隣接関係か
ら領域を統合して領域分割し、該領域の特徴量を画像か
ら算出し、これをもとにしてファジィ推論により各領域
の重要度を決定することを特徴としたものである。また
システムの発明は、カラー画像を分割する為の前処理を
行い、ついで領域抽出処理した後、各領域の特徴量の算
出をもとにしてファジィ推論により各領域内の物体の重
要度を決定することを特徴としたカラー画像の重要な構
成要素の分割選別システムである。次に、カラー画像か
らのノイズ除去及び縮小化のメディアン・フィルタをか
けて前処理を行った後、色彩情報から大まかに領域抽出
を行うクラスタリングによる領域抽出処理と、位置情報
を加味して微小領域の併合処理を行う。ついで各領域に
おける特徴量の算出に基づき、ファジィ推論により各領
域内の物体の重要度を決定する処理を行った後、各領域
毎の重要度に応じて選別することを特徴としたカラー画
像の重要な構成要素の分割選別システムであり、クラス
タリングによる領域抽出処理を行うには、色情報を用い
て原画像を分割し、前記原画像上で、色々な隣接関係か
ら領域を統合して領域分割結果とし、前記領域における
重要な物体と決定付ける要素となる領域の特徴量を原画
像から算出して行うことを特徴としたものである。
SUMMARY OF THE INVENTION However, the present invention is characterized in that a color image is divided into a predetermined number, and the degree of importance of each divided portion is selectively determined and selected. It is a method of dividing and selecting components, and in order to determine the degree of importance, the original image is reduced or filtered, the image is divided using the color information, and regions are integrated from various adjacent relationships on the original image. It is characterized in that the region is divided into regions, the feature amount of the region is calculated from the image, and the importance of each region is determined by fuzzy inference based on this. The invention of the system performs pre-processing for split a color image, and then after the area extraction processing, the importance of an object in each region by fuzzy inference based on the calculation of the feature amount of each region It is a division and selection system of important components of a color image, which is characterized by making a decision. Next, after performing preprocessing by applying a median filter for noise removal and reduction from color images, area extraction processing by clustering that roughly extracts areas from color information, and minute areas by taking positional information into account Is merged. Then, based on the calculation of the feature amount in each area, after performing the process of determining the importance of the object in each area by fuzzy inference, the color image characterized by selecting according to the importance of each area is an important component divided sorting system to do area extracting process by the clustering, and split the original image by using the color information in the original image on integrates regions from various adjacency regions As a result of the division, the feature amount of the area, which is an element that determines an important object in the area, is calculated from the original image, and the calculation is performed.

【手続補正5】[Procedure Amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0011[Correction target item name] 0011

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0011】この段階では、まず、原画像から縮小化
し、フィルタリングによりノイズ除去を行い、色空間上
でクラスタリングにより画像を領域抽出た後、原画像
上の領域の色や隣接関係を考慮して、前記分割された領
域をまとめる処理を行う。
At this stage, first, the image is reduced from the original image, noise is removed by filtering , the region of the image is extracted by clustering in the color space, and then the color of the region on the original image and the adjacency relation are taken into consideration. , performs a process of summarizing the previous Symbol divider area.

【手続補正6】[Procedure correction 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0034[Correction target item name] 0034

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0034】(b)明度成分が含まれると、シャドウや
シェーディングの影響により画像の領域に分かれる問題
点を考慮し、領域全体のa,b色度の色相(metri
c−chroma)値の平均を求める。
(B) Considering the problem that when the lightness component is included, the region of the image is divided due to the influence of shadow and shading, the hue (metri) of the a and b chromaticity of the entire region is taken into consideration.
c-chroma) value is averaged.

フロントページの続き (72)発明者 岡田 謙一 東京都文京区本郷4−25−12 (72)発明者 早坂 里奈 神奈川県横浜市港北区日吉三丁目14番1号 慶應義塾大学理工学部 計測工学科 松 下研究室内 (72)発明者 趙 継英 神奈川県横浜市港北区日吉三丁目14番1号 慶應義塾大学理工学部 計測工学科 松 下研究室内 (72)発明者 嶋津 義久 神奈川県横浜市港北区日吉三丁目14番1号 慶應義塾大学理工学部 計測工学科 松 下研究室内 (72)発明者 太田 浩二 神奈川県横浜市港北区日吉三丁目14番1号 慶應義塾大学理工学部 計測工学科 松 下研究室内Front page continuation (72) Inventor Kenichi Okada 4-25-12 Hongo, Bunkyo-ku, Tokyo (72) Inventor Rina Hayasaka 3-14-1, Hiyoshi, Kohoku-ku, Yokohama-shi, Kanagawa Keio University Faculty of Science and Engineering, Department of Measurement Engineering Matsushita Laboratory (72) Inventor Zhao Ji-ei, 14-1, Hiyoshi 3-chome, Kohoku-ku, Yokohama-shi, Kanagawa Matsushita Laboratory, Keio University Faculty of Science and Technology (72) Yoshihisa Shimazu 3-chome, Hiyoshi, Kohoku-ku, Yokohama-shi, Kanagawa 14-1 Keio University Faculty of Science and Engineering Department of Measurement Engineering Matsushita Laboratory (72) Inventor Koji Ota 3-14-1 Hiyoshi, Kohoku Ward, Yokohama City, Kanagawa Prefecture Keio University Faculty of Science and Engineering Department of Measurement Engineering Matsushita Laboratory

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 カラー画像を所定数に分割し、各分割部
毎にその重要度を選択的に決定し、選別することを特徴
としたカラー画像の重要な構成要素の分割選別方法。
1. A method of dividing and selecting important components of a color image, which is characterized by dividing a color image into a predetermined number and selectively determining the degree of importance for each division portion and performing selection.
【請求項2】 重要度を決定するには、原画像に縮小化
やフィルタリングを施し、色情報を用いて過剰に分割
し、原画像上で色々な隣接関係から領域を統合して領域
分割し、該領域の特徴量を画像から算出し、これをもと
にしてファジィ推論により各領域の重要度を決定するこ
とを特徴とした請求項1記載のカラー画像の重要な構成
要素の分割選別方法。
2. In order to determine the importance level, the original image is reduced or filtered, excessively divided using color information, and regions are integrated on the original image from various adjacency relations and divided into regions. 2. The method for dividing and selecting important components of a color image according to claim 1, wherein the feature amount of the region is calculated from the image, and the degree of importance of each region is determined by fuzzy inference based on the feature amount. .
【請求項3】 カラー画像を過剰分割する為の前処理を
行い、ついで領域抽出処理した後、各領域の特徴量の算
出をもとにしてファジィ推論により各領域内の物体の重
要度を決定することを特徴としたカラー画像の重要な構
成要素の分割選別システム。
3. Pre-processing for excessive division of a color image, then area extraction processing, and then fuzzy inference based on the calculation of the feature amount of each area to determine the importance of the object in each area. A division and selection system for important components of color images.
【請求項4】 カラー画像からのノイズ除去及び縮小化
のメディアン・フィルタをかけて前処理を行った後、色
彩情報から大まかに領域抽出を行うクラスタリングによ
る領域抽出処理と、位置情報を加味して微小領域の併合
処理を行う。ついで各領域における特徴量の算出に基づ
き、ファジィ推論により各領域内の物体の重要度を決定
する処理を行った後、各領域毎の重要度に応じて選別す
ることを特徴としたカラー画像の重要な構成要素の分割
選別システム。
4. A region extraction process by clustering that roughly extracts a region from color information after preprocessing by applying a median filter for noise removal and reduction from a color image, and position information. The merging process of minute areas is performed. Then, based on the calculation of the feature amount in each area, after performing the process of determining the importance of the object in each area by fuzzy inference, the color image characterized by selecting according to the importance of each area Divided sorting system for important components.
【請求項5】 クラスタリングによる領域抽出処理を行
うには、色情報を用いて原画像を過剰に分割し、前記原
画像上で、色々な隣接関係から領域を統合して領域分割
結果とし、前記領域における重要な物体と決定付ける要
素となる領域の特徴量を原画像から算出して行うことを
特徴とした請求項4記載のカラー画像の重要な構成要素
の分割選別システム。
5. In order to perform a region extraction process by clustering, an original image is excessively divided using color information, regions are integrated from various adjacency relations on the original image to obtain a region division result, and 5. The division / selection system for important constituent elements of a color image according to claim 4, wherein the characteristic amount of the area, which is an element that determines an important object in the area, is calculated from the original image.
JP8097213A 1996-04-18 1996-04-18 Method and system for dividing and sorting important constituting element of color image Pending JPH09282461A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8097213A JPH09282461A (en) 1996-04-18 1996-04-18 Method and system for dividing and sorting important constituting element of color image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8097213A JPH09282461A (en) 1996-04-18 1996-04-18 Method and system for dividing and sorting important constituting element of color image

Publications (1)

Publication Number Publication Date
JPH09282461A true JPH09282461A (en) 1997-10-31

Family

ID=14186352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8097213A Pending JPH09282461A (en) 1996-04-18 1996-04-18 Method and system for dividing and sorting important constituting element of color image

Country Status (1)

Country Link
JP (1) JPH09282461A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000053326A (en) * 1998-08-10 2000-02-22 W Schlafhorst Ag & Co Method for detecting remaining thread in spinning cop winding tube and device thereof
JP2012505457A (en) * 2008-10-08 2012-03-01 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ Encoding and decoding method and apparatus for multimedia signature
JP2012113687A (en) * 2010-11-26 2012-06-14 Hyundai Motor Co Ltd Method of authenticating driver's face in vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000053326A (en) * 1998-08-10 2000-02-22 W Schlafhorst Ag & Co Method for detecting remaining thread in spinning cop winding tube and device thereof
JP2012505457A (en) * 2008-10-08 2012-03-01 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ Encoding and decoding method and apparatus for multimedia signature
JP2012113687A (en) * 2010-11-26 2012-06-14 Hyundai Motor Co Ltd Method of authenticating driver's face in vehicle

Similar Documents

Publication Publication Date Title
CN110084803B (en) Fundus image quality evaluation method based on human visual system
CN110807757B (en) Image quality evaluation method and device based on artificial intelligence and computer equipment
Li et al. Globally and locally semantic colorization via exemplar-based broad-GAN
US7437004B2 (en) Method for processing data structures with networked semantic units
US20070292025A1 (en) Using Graph Cuts for Editing Photographs
CN112818862A (en) Face tampering detection method and system based on multi-source clues and mixed attention
US8135216B2 (en) Systems and methods for unsupervised local boundary or region refinement of figure masks using over and under segmentation of regions
CN107122777A (en) A kind of vehicle analysis system and analysis method based on video file
US20230290118A1 (en) Automatic classification method and system of teaching videos based on different presentation forms
CN105205804A (en) Caryon-cytolymph separation method and apparatus of white blood cells in blood cell image, and classification method and apparatus of white blood cells in blood cell image
JP2010511215A (en) How to indicate an object in an image
CN115272378B (en) A method for segmenting human images based on feature contours
US8131077B2 (en) Systems and methods for segmenting an image based on perceptual information
Vu et al. Graph cut segmentation of neuronal structures from transmission electron micrographs
CN110298365B (en) Theme color extraction method based on human vision
CN109165551B (en) An expression recognition method based on adaptive weighted fusion of saliency structure tensor and LBP features
JP3661287B2 (en) Image registration apparatus and method
CN119600670A (en) A face mask detection method based on YOLOv8 to resist occlusion and counterfeit attacks
JP2003162718A (en) Image processing method and its program
JPH09282461A (en) Method and system for dividing and sorting important constituting element of color image
Carlinet et al. A color tree of shapes with illustrations on filtering, simplification, and segmentation
CN115170839B (en) Image data enhancement method and system
CN113222811B (en) Face attribute migration method based on image mask
Everingham et al. Neural-network virtual reality mobility aid for the severely visually impaired
CN113947798A (en) Background replacing method, device and equipment of application program and storage medium