JPH03211966A - Cut-off mask preparing method - Google Patents

Cut-off mask preparing method

Info

Publication number
JPH03211966A
JPH03211966A JP2006647A JP664790A JPH03211966A JP H03211966 A JPH03211966 A JP H03211966A JP 2006647 A JP2006647 A JP 2006647A JP 664790 A JP664790 A JP 664790A JP H03211966 A JPH03211966 A JP H03211966A
Authority
JP
Japan
Prior art keywords
cluster
mask
background
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006647A
Other languages
Japanese (ja)
Other versions
JPH0722326B2 (en
Inventor
Hideaki Kobayashi
秀章 小林
Natsuko Nakabayashi
中林 奈津子
Kazuhiko Tanaka
和彦 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP664790A priority Critical patent/JPH0722326B2/en
Priority to EP19900124904 priority patent/EP0435167A3/en
Publication of JPH03211966A publication Critical patent/JPH03211966A/en
Priority to US08/355,320 priority patent/US5454050A/en
Publication of JPH0722326B2 publication Critical patent/JPH0722326B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To automatically and efficiently cut off the object picture with small discrimination error by designating more than one training area over a background part and a real body part in the picture and statistically analyzing picture data in the training areas. CONSTITUTION:A cut-off mask preparing device composed of a scanner 10, magnetic disk 12, central processing unit and memory part 14, keyboard or digitizer 16 and display part 18 designates more than one training areas over the background part and the real body part in the picture. The picture data in the training areas are statistically analyzed by a parameter space, for example, and an evaluation function is prepared to show possibility for an arbitrary color to belong to the background part or to the real body part. Concerning all picture elements in the areas over the background part and the real body part desired for the cut-off picture, it is judged whether the picture elements belong to the background part or the real body part. Thus, since the training areas are designated over the background part and the real body part, the evaluation function is accurately determined and the objective picture of cut-off is automatically and efficiently cut off with the small discrimination error.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

本発明は、切抜きマスク作成方法に係り、特に、入力さ
れる画像から背景部を切抜いて印刷製版フィルムを作成
する際に用いるのに好適な、切抜きマスク作成方法に関
する。
The present invention relates to a method for creating a cutout mask, and particularly to a method for creating a cutout mask suitable for use when creating a printing plate film by cutting out a background portion from an input image.

【従来の技術】[Conventional technology]

写真原稿中から必要な部分のみを切出して使用する場合
、例えば、角型の写真原稿中をハート型にトリミングし
て使用するとか一写真原稿中の対象物のみを抽出して、
他の写真原稿と合成して使用するとかいった場合、一般
には切抜き処理を実行する。 即ち、レイアウト用紙にトレースマシーンで必要な絵柄
の輪郭をなぞって切抜きを指定しなり、写真原稿にトレ
ーシングベーパーを被せ、必要な部分の輪郭の描き込ん
だ上、不必要な写真を斜線で潰して、切抜きを指定し、
このような切抜き指定に従って、切抜きマスク等を作成
して合成を実行する。 しかしながら、印刷物となるものは、上記のような単一
の色エリアから成るものばかりではなく、徐々に色が変
化したり、カラー写真用のネガ及びポジフィルム等があ
り、このようなカラー原稿中の特定の物、例えば人物と
か家具等のみを抽出してフィルム版を作成する場合には
、切り取られる領域に、明度、彩度、色相の異なる領域
が重なり合っているので、上記の手法では忠実なフィル
ム版を自動作成できない。 従って、カラーフィルム原稿の場合には、そのフィルム
画像を投影して、人間が切抜きエリアに対応するマスク
を作成し、そのマスクとフィルムiaとを重ねることに
より、所望とするカラー原稿のフィルム版(Y、M、C
,Bk版〉を作成するといった手作業に委ねられている
ため、フィルム原稿の画像の複雑さに起因して、フィル
ム版作成効率が著しく低下し、印刷工程日数が大幅に増
加してしまう等の問題点があった。 このような問題点を解消するべく、画像中の切抜こうと
する背景部(背景領域)を指示し、指示された背景部に
対するカラー画像データを読み出し、各版色毎の濃度平
均値及び版色間の共分散値を演算し、前記カラー画像デ
ータを各画素毎で、1つ版色毎に読み出して、各版色毎
の濃度平均値及び版色間の共分散値を参照しながら識別
関数により濃度距離データを演算し、該濃度距離データ
と判定距離データを参照しながら背景部データを抽出す
る、いわゆる最尤法を用いることが考えられる。 この最尤法を用いた場合、前景が−様なときには、濃度
マスクと称する、同じ画素濃度を持つ部分を指定するこ
とで切抜き画像を作成することができるが、背景部に実
体部の影が写ったり、背景部がグラデーションを持つ場
合(明度、彩度、色相それぞれに関する場合がある)に
は、適切な複数個所の背景部を指定しなければならず、
オペレータに負荷がかかり、未熟練のオペレータでは適
切な背景領域を指定することができない場合がある等の
問題点を有していた。 このような問題点に対して、背景部の一部分の濃度分布
に基づいて主成分分析と最尤法による自動切抜きを達成
しようとする技術(特開平1−298477号公報)が
ある、即ち、ユーザが背景部内に予め指定されたトレー
ニングエリアの濃度分布に基づき、濃度変化の軸を求め
る主成分分析を行うことによって識別関数を決定し、次
いで、ユーザが対象領域の輪郭を含む所定領域を指定し
、その領域内の各データを、先に求めた識別関数に代入
して最尤法により2値化するものである。
When cutting out and using only the necessary parts from a photographic manuscript, for example, trimming a square photographic manuscript into a heart shape and using it, or extracting only the object from a photographic manuscript,
When a photo is to be combined with other photo originals and used, a cutting process is generally performed. In other words, use a tracing machine to trace the outline of the required image on a layout sheet, designate a cutout, cover the photographic manuscript with tracing vapor, draw the outline of the necessary part, and then cross out unnecessary photographs with diagonal lines. to specify the crop,
According to such clipping specifications, a clipping mask or the like is created and composition is executed. However, printed matter does not only consist of a single color area as mentioned above, but also includes gradual color changes, negative and positive films for color photographs, etc. When creating a film version by extracting only a specific object, such as a person or furniture, the area to be cut out overlaps with areas with different brightness, saturation, and hue, so the above method cannot produce a faithful image. Film version cannot be created automatically. Therefore, in the case of a color film original, a person projects the film image, creates a mask corresponding to the cutout area, and overlaps the mask with the film ia to create the desired film version of the color original ( Y, M, C
, Bk plate>, the complexity of the film original image significantly reduces the efficiency of film plate creation and significantly increases the number of days required for the printing process. There was a problem. In order to solve this problem, we specify the background part (background area) to be cut out in the image, read out the color image data for the specified background part, and calculate the density average value and plate color for each plate color. The color image data is read out for each pixel and each plate color, and the discrimination function is calculated while referring to the density average value for each plate color and the covariance value between the plate colors. It is conceivable to use the so-called maximum likelihood method, in which density distance data is calculated by , and background data is extracted while referring to the density distance data and determination distance data. When using this maximum likelihood method, when the foreground is -like, it is possible to create a cropped image by specifying areas with the same pixel density, which is called a density mask. If the background part has a gradation (it may be related to brightness, saturation, and hue), you must specify multiple appropriate background parts.
This method imposes a burden on the operator, and an unskilled operator may not be able to specify an appropriate background area. To solve this problem, there is a technique (Japanese Patent Laid-Open No. 1-298477) that attempts to achieve automatic cropping using principal component analysis and maximum likelihood method based on the density distribution of a portion of the background area. The discriminant function is determined by performing principal component analysis to determine the axis of density change based on the density distribution of a training area specified in advance in the background, and then the user specifies a predetermined area containing the outline of the target area. , each data within that area is substituted into the previously determined discriminant function and binarized using the maximum likelihood method.

【発明が解決しようとする課!!!!]しかしながら、
前記技術では、トレーニングエリアの第1主成分軸から
離れた背景部が実体部側へ誤って判別する恐れがあると
いう問題点を有する0例えば輪郭部付近に濃い影が細長
く横たわっているような場合に、実体部にかからないよ
うにしながらこの影を含むようにトレーニングエリアを
指定するのは困難なときがある。このようなときには、
その影を含まないトレーニングエリアを指定し、それを
主成分分析することによっである稈度判別できるが、影
の色がトレーニングエリアの分布の第1主成分軸から大
きく外れた場合には予測しきれないことがある。 又、背景部が2色以上を含むような画像の場合には、ト
レーニングエリアの濃度分布が大きく拡がるために、実
体部側の色が誤って背景部側へ判別される恐れがある。 本発明は、前記従来の問題点を解消するべくなされたも
ので、切抜き対象画像を自動的に効率良く、且つ少ない
判別誤りで切抜くことができる切抜きマスク作成方法を
提供することを課題とする。 【課題を解決するための手段】 本発明は、画像データを演算処理し、電子的に切抜き処
理するための、切抜きマスク作成方法において、画像中
の背景部と実体部とにまたがるトレーニングエリアを1
つ以上指定し、該トレーニングエリア内の画像データを
統計的に分析して、任意の色が背景部に属する可能性、
又は実体部に属する可能性を示す評価関数を作成し、画
像の切抜きを所望する背景部と実体部とにまたがる領域
を指定し、指定された領域内の全ての画素について、前
記評価関数に該画素データを代入し、該画素が背景部又
は実体部のいずれかに属するかを判断し、背景部に属す
ると判断された画素からマスクデータを作成することに
より、前記課題を達成したものである。 又本発明においては、前記評価関数を作成するに際して
、トレーニングエリアの全ての画素データを2以上のク
ラスタに分け、分けられた各クラスタを代表色によって
表示し、表示色から背景部又は実体部とみなすべきクラ
スタを選択し、任意の色が各クラスタに属する可能性を
示す評価関数を各クラスタ毎に作成することができる。
[The problem that the invention tries to solve! ! ! ! ]however,
The above technique has the problem that the background part away from the first principal component axis of the training area may be erroneously identified as the real part. However, it is sometimes difficult to designate a training area that includes this shadow while not covering the real part. In times like this,
A certain degree of culm can be determined by specifying a training area that does not include the shadow and performing principal component analysis on it, but if the color of the shadow deviates significantly from the first principal component axis of the distribution of the training area, the prediction cannot be made. There are things I can't do. Furthermore, in the case of an image in which the background part includes two or more colors, the density distribution in the training area is greatly expanded, so that there is a possibility that the color on the real part side will be mistakenly determined to be on the background part side. The present invention has been made to solve the above-mentioned conventional problems, and an object of the present invention is to provide a method for creating a cropping mask that can automatically crop an image to be cropped efficiently and with fewer discrimination errors. . [Means for Solving the Problems] The present invention provides a method for creating a cutout mask for calculating and electronically cutting out image data, in which a training area spanning a background part and a real part in an image is divided into one part.
Specify one or more colors and statistically analyze the image data in the training area to determine the probability that any color belongs to the background.
Alternatively, create an evaluation function that indicates the possibility of belonging to the real part, specify an area spanning the background part and the real part from which you want to cut out the image, and apply the evaluation function to all pixels within the specified area. The above problem is achieved by substituting pixel data, determining whether the pixel belongs to either the background part or the substance part, and creating mask data from the pixels determined to belong to the background part. . Further, in the present invention, when creating the evaluation function, all the pixel data in the training area is divided into two or more clusters, each divided cluster is displayed with a representative color, and the background part or the real part is distinguished from the displayed color. It is possible to select clusters to be considered and create an evaluation function for each cluster that indicates the possibility that an arbitrary color belongs to each cluster.

【作用】[Effect]

本発明においては、画像の背景部と実体部とにまたがる
トレーニングエリアを1つ以上指定し、該トレーニング
エリア内の画像データを例えばパラメータ空間(色空間
)で統計的に分析し、任意の色が背景部に属する可能性
、又は実体部に属する可能性を示す評価関数を作成し、
この評価関数により、画像の切抜きを所望する背景部と
実体部とにまたがる領域(以下、カッティングエリアと
いう)の全ての画素について該画素が背景部又は実体部
のいずれに属するかを判断する。 よって、トレーニングエリアを背景部及び実体部にまた
がって指定するなめ、精度良く評価関数を決定して切抜
き対象画像を自動的に、効率良く、しかも少ない判別誤
りで切抜くことができる。 この評価関数の決定は、例えば、まず、トレーニングエ
リアの全ての画素データを2以上のクラスタに分ける。 これにより、画素データの分布に応じたクラスタを得る
ことができる。 次いで、分けられた各々のクラスタを代表色によって表
示する。これにより、画素データの多値化に相当する処
理が行える。 次いで、表示色から背景部又は実体部とみなすべきクラ
スタを選択し、任意の色がクラスタに属する可能性を示
す評価関数を各クラスタ毎に作成する。この評価関数に
各画素データを代入して演算して、一番近いクラスタを
選び出す、そのクラスタが、背景部であればその画素は
背景部であると判断し、又、そのクラスタが実体部であ
れば、その画素は実体部に属すると判断して2値化を行
う。 従って、背景部及び実体部が複数の色からなる画像も精
度良く切抜くことができる。特に影のある物体を切抜く
のに適している。 又、トレーニングエリアと切抜き線にまたがる領域とを
別の領域としているため、トレーニングエリアを小さく
することができる。これにより、クラスタ分けの計算量
が抑えられ、処理時間を少なくして効率的な処理が行え
る。 又、クラスタ分けすることにより、もともと多次元で与
えられた画像データを多次元のまま取扱うことができる
。従って、色空間上のある軸へ投影して1次元の分布と
して取扱いクラスタ分けする方法に比べて、情報の損失
が少ない、これにより、精度の高い切抜きが可能になる
In the present invention, one or more training areas spanning the background and substance parts of an image are specified, and the image data in the training areas is statistically analyzed, for example, in a parameter space (color space), and an arbitrary color is Create an evaluation function that indicates the possibility of belonging to the background part or the possibility of belonging to the substance part,
Using this evaluation function, it is determined whether all pixels in an area spanning the background and substance parts of the image (hereinafter referred to as a cutting area) where it is desired to be cut out belong to the background part or the substance part. Therefore, by specifying the training area across the background part and the real part, the evaluation function can be determined with high accuracy, and the image to be cropped can be automatically cropped efficiently and with fewer discrimination errors. To determine this evaluation function, for example, first, all pixel data in the training area is divided into two or more clusters. Thereby, clusters can be obtained according to the distribution of pixel data. Next, each divided cluster is displayed using a representative color. This allows processing equivalent to multi-value conversion of pixel data to be performed. Next, a cluster to be considered as a background part or a real part is selected from the display colors, and an evaluation function indicating the possibility that an arbitrary color belongs to the cluster is created for each cluster. Substituting each pixel data into this evaluation function and calculating it selects the closest cluster. If the cluster is in the background part, it is determined that the pixel is in the background part, and if the cluster is in the real part, it is determined that the pixel is in the background part. If there is, it is determined that the pixel belongs to the real part and binarization is performed. Therefore, it is possible to accurately cut out an image in which the background portion and the substance portion have a plurality of colors. Especially suitable for cutting out objects with shadows. Furthermore, since the training area and the area spanning the cutout line are separate areas, the training area can be made smaller. As a result, the amount of calculation for clustering can be suppressed, processing time can be reduced, and efficient processing can be performed. Furthermore, by clustering, image data originally given in multiple dimensions can be handled as it is in multiple dimensions. Therefore, compared to a method of projecting onto a certain axis on a color space, handling it as a one-dimensional distribution, and dividing it into clusters, there is less loss of information, which enables highly accurate cutting.

【実施例1 以下、図面を参照して本発明の実施例を詳細に説明する
。 この実施例は、第1図に示すような構成の切抜きマスク
作成装置である。この切抜きマスク作成装置を機能から
見た概念図を第2図に示す。 第1図及び第2図に示すように、この切抜きマスク作成
装置には、カラー透過原稿から、3原色(Y、M、C)
の画像データを入力するための画像入力手段10Aであ
ると共に、処理後の画像データをフィルム上に出力する
ためのマスク出力手段10Bであるスキャナ10と、入
力画像又は出自画像を必要に応じて格納するための磁気
ディスク12と、入力画像に本発明に従った処理を加え
て背景部又は実体部に分は前景部にマスクデータを作成
し、磁気ディスク12やスキャナ10に出力するための
、中央処理装置(CPU)及びメモリ部14と、該CP
U及びメモリ部14にクラスタ分けの際のオン/オフ(
onloff )情報を入力するためのオン/オフ入力
手段16Aであると共に、トレーニングエリア又はカッ
ティングエリアの位置情報を入力するための手段16B
であるキーボード又はデジタイザ16と、処理中の画像
データ又は処理後のマスクデータ又は各クラスタの代表
色を画面上に表示するための表示部18とが備えられて
いる。 前記CPU及びメモリ部14は、第2図に示すように、
入力された画像データを格納するための画像データ格納
メモリ20と、キーボード又はデジタイザ16で入力さ
れたトレーニングエリアの位置情報を格納するためのト
レーニングエリア格納メモリ22と、該キーボード又は
デジタイザ16で入力されたカッティングエリアの位置
情報を格納するためのカッティングエリア格納メモリ2
4と、前記画像データ格納メモリ20内の画像データの
うち、前記トレーニングエリア内のものについて、クラ
スタ分けし、分けられたクラスタ数及び各クラスタの情
報を示すクラスタ表を計算するためのクラスタ分は計算
手段26と、計算されて求められたクラスタ表を格納す
るためのクラスタ表格納メモリ28と、前記画像データ
格納メモリ20内の画像データのうち、カッティングエ
リア中のものについて、クラスタ表格納メモリに基づき
2値化計算して、マスクデータを作成するための2値化
計算手段30と、作成されたマスクデータを格納するた
めのマスクデータ格納メモリ32とを備えている。 前記キーボード又はデジタイザ16は、そのいずれかが
オン/オフ入力手段16A及び位置入力手段16Bを兼
用するものでよく、又、その各々がオン/オフ入力手段
16A又は位置入力手段16Bのいずれであってもよい
。 この実施例は、前記のように構成されているので、次の
ような作用を有する。 実施例の切抜きマスク作成装置は、第3図に示す手順に
従って切抜きマスクの作成処理を実行する。 この手順が始動すると、まず、ステップ101において
、スキャナ10で読込んだ、あるいは予め磁気ディスク
12に記録された画像データをCPU及びメモリ部14
に入力(ロード)し、当該画像を表示手段18に表示す
る。 次いで、ステップ102に進み、キーボード又はデジタ
イザ16による操作が、トレーニングエリア、あるいは
、カッティングエリアの位置指定を入力する操作か、又
はクラスタを背景領域又は実体領域のいずれかに選別す
る操作かを選択する。 但し、この手順の当初においては、トレーニングエリア
をまず指定するため、ステップ103へのみしか進めな
い、又、トレーニングエリアを指定しステップ104.
105の処理が終わった後には、少なくとも1回はステ
ップ106に進んでクラスタの選別を行わないうちは、
ステップ107へ進んでカッティングエリアの位置指定
ができない、なお、この手順においては、処理を進める
過程においてクラスタ選別の変更やトレーニングエリア
指定の変更が行える。 ステップ103に進んだ場合には、位置入力手段16A
からトレーニングエリアの位置指定を入力する。このト
レーニングエリアには、例えば第4図の符号T、A、に
示すように、画像中の実体領域と背景領域とにまたがっ
た1箇所又は複数箇所を指定する。 次いで、ステップ104に進み、入力された1箇所又は
複数箇所のトレーニングエリアを1つの領域とみなして
、これをパラメータ空間(実施例ではY、M、C各軸の
色空間)上でクラスタ分けする。このクラスタ分けの詳
細は第5国の流れ図に示す手順で行い、その結果として
クラスタ表を出力する。この第5図の手順については後
に詳述する。 出力されたクラスタ表には、クラスタ数及び各クラスタ
の情報が格納される。各クラスタの情報はそのクラスタ
に属するデータの平均(ベクトル)、共分散行列、デー
タ数(ピクセル数)、及びそのクラスタが背景領域又は
実体領域のいずれに属するかを示すフラグ(例えば、フ
ラグ=「1」で属し、フラグ=「O」で属さない)によ
って構成される。但し、このフラグの値については、こ
のステップ104では決定されず、後のステップ106
でオペレータが決めるものである。 又、クラスタ分けの過程では、クラスタ分は計算手段2
6内部で一時的にラベル画像を用いる。 このラベル画像、は、トレーニングエリア内画素データ
がいずれのクラスタに属するかを示すため、各クラスタ
に付けられた番号を画素データに対応させて格納してお
くための記憶領域のことである。 画素データがあるクラスタに属すると判断したら、その
クラスタの番号をその画素データのラベル画像とする。 ここで、トレーニングエリア内の画素データについて、
クラスタ分けする計算処理の詳細な手順を、第5図に従
って説明する。第5図(A)はクラスタ分けのメインル
ーチンで、同図(B)はそのメインルーチン中でクラス
タ2分割するためのルー・チンである。 クラスタ分けの際には、第5図(A)に示すように、ま
ず、ステップ201において、トレーニングエリアに属
する画素データ全体を1つの初期クラスタとみなし、そ
のデータの平均、共分散行列を計算して、クラスタ表を
埋める。即ちクラスタ表を初期化する。なお、この際、
初期クラスタの数は1である。 次いで、ステップ202に進み、ラベル画像を初期クラ
スタの番号(例えば1)で埋めつくして初期化する。 次いでステップ203に進んで、第5図(B)に示す、
元のクラスタを2分割するためのルーチン(クラスタ2
分割ルーチン)を呼び出す。なお、このクラスタ2分割
ルーチンは、そのルーチン中でそのルーチン自身を再帰
呼び出しする( recurs−ive call )
種類のルーチンであるため、この2分割ルーチンからメ
インルーチンに戻ってきたときには、当初のクラスタは
2つ以上のいくつかのクラスタに分割される。 このルーチンを呼び出した際には、まずステップ301
で、分割してできる2つの新たなりラスタ(新クラスタ
)についてクラスタ中心の初期値を決める。この2つの
クラスタの各中心は、例えば第6図に示すように、当初
のクラスタ(旧クラスタ)の第1主成分軸上に乗ってい
て、しかも、この2中心の平均値が旧クラスタの平均値
(中心)に一致するように適当にとる。なお、この第1
主成分軸は、色空間上において、旧クラスタの平均、即
ち中心を通り、共分散行列の最大固有値に対応する固有
ベクトルを方向ベクトルとする直線であり、旧クラスタ
のクラスタ表を元に算出するものである。 次いで、ステップ302に進み、旧クラスタに属してい
た各画素データを2つの新クラスタへ類別し、ラベル画
像を、例えば1から1と2とに分ける如く更新する。こ
の類別は、各画素データに対して、各クラスタとのある
種の距離を計算する演算式を用い、当該距離が一番小さ
いクラスタへ画素データを類別(ラベル付)する。 データとクラスタとの距@dの計算法としては、次の(
i)〜(iV >等が考えられる。 (i)パラメータ空間上で次式(1)のように求めたユ
ークリッド距離を前記距離dとする。 d(x、k)’=Σ(X 1−Ck i ) 2;tl (1) 但し、N;パラメータ空間の次元、 k ;クラスタ番号、 X=(Xi>−γ ;データ、 −1 Ck = (Ck iV; 電1 第Lクラスタのクラスタ中心(平均) である。 このユークリッド距離を用いることは、2つの新クラス
タ中心の垂直三等分面を境界面として分けることに相当
する。 <ii)マハラノビス距離を、次式(2)のように、前
記距離dとする。 (XjCkj)・・・(2) 但し、cOV−i (i 、 j ) ;第にクラスタ
の共分散行列の逆行列の(i 、 j )成分である。 なお、第1回目のループでは、 共分散行列Covは定まらないので、 2回目ループから用いられる。 (iii )各軸方向の距離の和を、次式(3)のよう
に、前記距離dとする。 d(x、k)=ΣIX t  Ck il・・(3);
zl (iV )各軸方向の距離の最大値を次式(4)のよう
に前記距離dとする。 d  (X 、 k )=nax  1x  1−Ck
  1l−(4)次いでステップ303に進み、新クラ
スタのクラスタ中心の位置を更新する。この更新は、そ
れぞれの新クラスタに類別された画素データの平均値を
そのクラスタの新しい中心とすることにより行う。 次いでステップ304に進み、クラスタ分けの処理を反
復して行うか否かの終了判定を行う、この場合には、先
のステップ303で更新したクラスタ中心の、更新前の
クラスタ中心(仮中心)に対する移動量を算出し、それ
が一定値以上であるならば、処理を反復して行うものと
判断して、ステップ302へ戻ってクラスタ分けを繰返
す、−方、一定値未満であるならばクラスタ分けの反復
を終了するものと判断してステップ305へ進む。 ステップ305においては、クラスタ表の更新を行う、
この更新は、クラスタ数を1増やし、旧クラスタの情報
を新クラスタのうちの一方の情報で置き換え、新たに追
加したクラスタ情報の欄にもう一方の新クラスタの情報
を書込むことにより行う。 次いでステップ306に進み、一方の新クラスタについ
てクラスタ分は終了条件の判定を行う。 この判定は、例えばS、Tを定数とし、det(Cov
)<Sが成立してクラスタ内の広がりが小さい場合、又
は(クラスタ内データ数)<Tが成立してデータ数が小
さい場合を終了条件として行う。 判定の結果、前記終了条件が成立していないならば、ス
テップ307に進み、その新クラスタは未だ大きく、ク
ラスタ分の余地があると判断して、クラスタ2分割ルー
チンを再帰呼び出しし、更にクラスタ分けを行う。 一方、終了条件が成立したならば、ステップ308に進
み、他方の新クラスタについて、クラスタ分は終了条件
の判定をステップ306と同様に行う、この終了条件が
成立していないならば、ステップ309に進み、ステッ
プ307と同様にクラスタ2分割ルーチンの再帰呼び出
しを行い更にクラスタ分けを行う、一方、クラスタ分は
終了条件が成立したならば、第5図(A)示す、クラス
タ分けのメインルーチンへ戻る。 以上のようにしてクラスタ分けが終了する。クラスタ分
けが終了したならば、第3図のステップ105に進む。 このステップ105においては、分けられた各クラスタ
を代表色で表示部18に表示する0代表色としてはクラ
スタ中心(平均)の色を用いる。 このステップ105が終了した後には、ステップ102
に戻り、ステップ106に進む。このステップ106で
は、表示部18で表示された各クラスタの代表色と原画
像とを見比べて、その代表色が背景部又は実体部のいず
れの色であるかをオン/オフ入力手段16Aで指定する
ことにより、各クラスタが背景部あるいは実体部のいず
れに属するかを指定し、クラスタ表内のフラグを決定す
る。 次いでステップ107に進み、カッティングエリアの入
力を行う0次いでステップ108に進み、前記クラスタ
表を用いてカッティングエリアの2値化を行いマスクデ
ータを作成する。 即ち、カッティングエリアの各画素に対して、当該画素
の色〈画素データ〉と各クラスタ中心ととの距離を例え
ば前記(1)〜(4)式(評価関数に相当)から計算し
、その距離が最小となるクラスタを選びだし、そのクラ
スタが背景部に属するか実体部に属するかを求める。そ
のクラスタが背景部に属すれば当該画素に対するマスク
データをonにし、実体部に属すれば当該画素に対する
マスクデータをoffにする。但し、ステップ302で
用いた計算式と同じ計算式で距Mdを算出する必要はな
く、異なるもの、同じもの、あるいは、(1)〜(4)
武具外の評価式から画素のマスクのonloffを計算
できる。 次いでステップ109に進んで、作成されたマスクデー
タの表示を行い、ステップ110で、このマスクデータ
を格納メモリ32に格納する。 ところで、1つの画像を切抜く手順としては、まず、ト
レーニングエリアの入力を行い、次に、各クラスタのオ
ン/オフ(on/ off )の入力を行い、そして、
カッティングエリアを輪郭線に沿って次々に入力してマ
スクを作成していくことが考えられる。切抜き対象画像
の周囲を1周するまでの間には様々の色が現れることが
考えられる。例えば、ある箇所では背景領域に属してい
た色が、別の箇所では実体領域に属するということが起
こり得る。このような場合に対処するために、カッティ
ングエリアを1回入力する毎に、各クラスタのonlo
ffを変更することができる。 カッティングエリアを次々に入力していく際、重なり部
分の各ビクセルのマスクの0n10ffの決定は、例え
ば第1表のように原則として、後から計算されたものが
優先されるようにできる。この場合には、所望の輪郭線
が得られない場合、クラスタのonloffを変更した
後に、カッティングエリアを取り直すと、修正できる。 なお、この重なり部分での決定規則は、必要に応じて、
例えば第2表の如きOR規則、第3表の如きAND規則
に変更することもできる。第1表〜第3表において、X
は既に書込まれていたマスクの値、yは新たに計算され
たマスクの値、2は新たに書込まれるマ又、クラスタの
onloffの変更によって、所望のマスクが得られな
い場合には、トレーニングエリアを取り直すことができ
る1例えばトレーニングエリアをカッティングエリアの
近くに取り直すことで、品質の向上を図ることができる
。 以上のようにしても切抜けない箇所、例えば極端なハイ
ライト部又はシャドウ部等、もともと輪郭線が現れてい
ないような箇所については、手動による加筆修正ができ
る。修正方法としては一’r −ボードデジタイザ、マ
ウス等の位置入力手段から修正すべき位置を指定し、そ
の位置を中心とするある大きさの領域をマスクOnとし
て塗り足す方法、同様に指定された領域をマスクoff
として消していく方法、2点位置を指定してその2点間
をマスクOnの線分でつなぐ方法等が考えられ、そのい
ずれをも用いてマスクを作成することができる。 以上の処理の終了により、切抜き対象となる絵柄の周囲
をマスクで取り囲んだものができる。マスクが作成され
た外側の未処理部分については、塗り潰し処理を施して
、マスクで埋めることができる。 又、輪郭線のギザつきに対しては、必要に応じて、スム
ージング処理を施すことができる。 マスクデータの出力には、マスクデータを集版装置へ転
送して他の絵柄と共に集版する方法、マスクデータをス
キャナに転送してフィルムに露光してマスク版とする方
法、輪郭線データをベクタデータ化し、該輪郭線データ
をカッティング・プロッタへ転送してビール・コートフ
ィルムを力y卜することにより、マスク版を得る方法等
が考えられる。 前記実施例においては、画像データのパラメー夕空間(
色空間)としてC,M、Yの空間を例示していたが、本
発明を実施する際に考慮する空間はこれに限定されず、
この空間の他、赤(R)、緑(G)、青(B)の色空間
やその他にも、各色版の微分値の組や、輝度Y、色度I
、Qの座標、色相H1明度V、彩度Cの座標のような演
算や変換を施したもので実施することができる。 【発明の効果】 以上説明した通り、本発明によれば、切抜き対象画像を
自動的に、効率良く、しかも少ない判別誤りで切抜くこ
とができるという優れた効果が得られる。 なお、トレーニングエリアをクラスタ数の可変としてク
ラスタ分けすれば、画像を構成する色数に応じて、まず
、代表色への多値化(量子化)に相当することを行い、
その後に、2gi化して背景部、実体部に分けることが
できる。これにより、背景部及び実体部が複数の色から
なる画像も切抜くことができる。特に影のある物体を精
度良く切抜くことが可能となる。 又、トレーニングエリアとカッティングエリアとを別の
エリアとしているため、トレーニングエリアを小さく取
ることができる。これによりクラスタ分けの計算量が抑
えられるなめ、処理時間が知くなり処理が効率的となる
。 又、クラスタ分けにおいて、もともと多次元で与えられ
たデータを多次元のまま取扱うことができる。従って、
ある軸へ投影した1次元の分布として取扱ってクラスタ
分けする方法に比べると、情報の損失が少ない。これに
より精度の高い切抜きが可能となる。
[Embodiment 1] Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. This embodiment is a cutout mask production apparatus having a configuration as shown in FIG. FIG. 2 shows a conceptual diagram of this cutout mask creation device viewed from the functional point of view. As shown in FIGS. 1 and 2, this cutout mask creation device uses three primary colors (Y, M, C) from a color transparent original.
A scanner 10 serves as an image input means 10A for inputting image data of , and also serves as a mask output means 10B for outputting processed image data onto a film, and a scanner 10 for storing input images or original images as necessary. A magnetic disk 12 for processing the input image according to the present invention to create mask data for the background or substance portion, and a central disk for outputting to the magnetic disk 12 or scanner 10. A processing unit (CPU) and memory section 14, and the CP
U and memory section 14 have on/off settings for clustering (
onloff) On/off input means 16A for inputting information and means 16B for inputting position information of the training area or cutting area.
A keyboard or digitizer 16, and a display section 18 for displaying image data being processed, mask data after processing, or a representative color of each cluster on a screen are provided. The CPU and memory section 14, as shown in FIG.
An image data storage memory 20 for storing input image data; a training area storage memory 22 for storing training area position information input using the keyboard or digitizer 16; Cutting area storage memory 2 for storing positional information of the cutting area
4, among the image data in the image data storage memory 20, those in the training area are divided into clusters, and the number of clusters is calculated for calculating a cluster table showing the number of divided clusters and information on each cluster. A calculation means 26, a cluster table storage memory 28 for storing the calculated and determined cluster table, and a cluster table storage memory for storing image data in the cutting area among the image data in the image data storage memory 20. It is provided with a binarization calculation means 30 for performing binarization calculation based on the data and creating mask data, and a mask data storage memory 32 for storing the created mask data. Either the keyboard or the digitizer 16 may serve as both the on/off input means 16A and the position input means 16B, and each of them may be either the on/off input means 16A or the position input means 16B. Good too. Since this embodiment is configured as described above, it has the following effects. The cutout mask creation device of the embodiment executes the cutout mask creation process according to the procedure shown in FIG. When this procedure starts, first, in step 101, image data read by the scanner 10 or recorded in advance on the magnetic disk 12 is transferred to the CPU and memory unit 14.
input (load) the image into the display means 18. Next, the process proceeds to step 102, in which the keyboard or digitizer 16 is used to select whether the operation is to input the position designation of the training area or the cutting area, or to sort the clusters into either the background area or the real area. . However, at the beginning of this procedure, the training area is specified first, so it is only possible to proceed to step 103, and the training area is specified and step 104.
After the process in step 105 is completed, unless the process proceeds to step 106 at least once to select clusters,
It is not possible to proceed to step 107 and specify the position of the cutting area; however, in this procedure, it is possible to change the cluster sorting and the training area specification in the process of proceeding with the process. If the process proceeds to step 103, the position input means 16A
Enter the training area location from here. As this training area, for example, as shown by reference numerals T and A in FIG. 4, one or more locations extending between the real region and the background region in the image are designated. Next, the process proceeds to step 104, in which the input training area or multiple locations is regarded as one region, and this is divided into clusters on the parameter space (in the embodiment, the color space of the Y, M, and C axes). . The details of this clustering are performed according to the procedure shown in the flowchart for the fifth country, and a cluster table is output as a result. The procedure shown in FIG. 5 will be explained in detail later. The number of clusters and information about each cluster are stored in the output cluster table. Information on each cluster includes the average (vector) of the data belonging to that cluster, covariance matrix, number of data (number of pixels), and a flag indicating whether the cluster belongs to the background area or the real area (for example, flag = " 1” indicates that the flag belongs, and flag=“O” indicates that the flag does not belong). However, the value of this flag is not determined in this step 104 and is determined in the subsequent step 106.
This is determined by the operator. In addition, in the process of clustering, the clusters are calculated by calculation means 2.
6. Temporarily use the label image internally. This label image is a storage area for storing numbers assigned to each cluster in correspondence with pixel data to indicate which cluster the pixel data in the training area belongs to. When it is determined that pixel data belongs to a certain cluster, the number of that cluster is used as the label image of that pixel data. Here, regarding the pixel data in the training area,
The detailed steps of the calculation process for clustering will be explained with reference to FIG. FIG. 5(A) is a main routine for clustering, and FIG. 5(B) is a routine for dividing the main routine into two clusters. In clustering, as shown in FIG. 5(A), first, in step 201, the entire pixel data belonging to the training area is regarded as one initial cluster, and the average and covariance matrix of that data are calculated. to fill in the cluster table. That is, the cluster table is initialized. In addition, at this time,
The number of initial clusters is 1. Next, the process proceeds to step 202, where the label image is initialized by being completely filled with the initial cluster number (for example, 1). Next, the process proceeds to step 203, as shown in FIG. 5(B).
Routine for dividing the original cluster into two (cluster 2
split routine). Note that this two-cluster division routine recursively calls itself (recurs-ive call).
Since this is a type of routine, when the main routine returns from this two-division routine, the original cluster is divided into two or more clusters. When this routine is called, first step 301 is executed.
Then, the initial value of the cluster center is determined for the two new rasters (new clusters) created by the division. For example, as shown in Figure 6, the centers of these two clusters are on the first principal component axis of the original cluster (old cluster), and the average value of these two centers is the average value of the old cluster. Take an appropriate value so that it matches the value (center). Note that this first
The principal component axis is a straight line in the color space that passes through the mean or center of the old cluster and whose direction vector is the eigenvector corresponding to the maximum eigenvalue of the covariance matrix, and is calculated based on the cluster table of the old cluster. It is. Next, the process proceeds to step 302, where each pixel data belonging to the old cluster is classified into two new clusters, and the label image is updated, for example, from 1 to 1 and 2. This classification uses an arithmetic expression for calculating a certain distance between each pixel data and each cluster, and classifies (labels) the pixel data into a cluster having the smallest distance. The method of calculating the distance @d between data and cluster is as follows (
i) ~ (iV > etc.) (i) Let the Euclidean distance obtained as in the following equation (1) on the parameter space be the distance d. d(x, k)'=Σ(X 1- Ck i ) 2; tl (1) where, N: dimension of parameter space, k: cluster number, (average). Using this Euclidean distance is equivalent to dividing the perpendicular trisection plane between the two new cluster centers as the boundary surface. <ii) The Mahalanobis distance is expressed as the following equation (2): Let the distance be d. (XjCkj)...(2) However, cOV-i (i, j) is the (i, j) component of the inverse matrix of the covariance matrix of the first cluster. In the second loop, the covariance matrix Cov is not determined, so it is used from the second loop. (iii) The sum of the distances in each axis direction is the distance d, as in the following equation (3). d( x, k)=ΣIX t Ck il...(3);
zl (iV) Let the maximum value of the distance in each axis direction be the distance d as shown in the following equation (4). d (X, k) = nax 1x 1-Ck
1l-(4) Next, the process proceeds to step 303, where the position of the cluster center of the new cluster is updated. This update is performed by setting the average value of the pixel data classified into each new cluster as the new center of that cluster. Next, the process proceeds to step 304, where it is determined whether or not to repeat the clustering process. The amount of movement is calculated, and if it is greater than a certain value, it is determined that the process is to be repeated, and the process returns to step 302 to repeat clustering; - if it is less than a certain value, clustering is performed. It is determined that the repetition of the above is completed, and the process proceeds to step 305. In step 305, the cluster table is updated.
This update is performed by increasing the number of clusters by 1, replacing the information of the old cluster with information of one of the new clusters, and writing the information of the other new cluster in the newly added cluster information column. Next, the process proceeds to step 306, where the termination condition for one new cluster is determined. This determination is performed, for example, with S and T as constants and det(Cov
)<S holds and the spread within the cluster is small, or (number of data in cluster)<T holds and the number of data is small. As a result of the determination, if the termination condition is not satisfied, the process proceeds to step 307, where it is determined that the new cluster is still large and there is room for the cluster, and the cluster division routine is recursively called to further divide the cluster into clusters. I do. On the other hand, if the termination condition is satisfied, the process proceeds to step 308, and the determination of the termination condition for the other new cluster is performed in the same manner as in step 306. If this termination condition is not satisfied, the process proceeds to step 309. Proceeding to step 307, the cluster division routine is recursively called to perform further cluster division. On the other hand, if the termination condition for the cluster is satisfied, the process returns to the main routine for cluster division as shown in FIG. 5(A). . Clustering is completed in the above manner. When the clustering is completed, the process proceeds to step 105 in FIG. 3. In this step 105, the center (average) color of the cluster is used as the 0 representative color for displaying each divided cluster in the representative color on the display section 18. After this step 105 is completed, step 102
The process returns to step 106. In this step 106, the representative color of each cluster displayed on the display unit 18 is compared with the original image, and the on/off input means 16A is used to specify whether the representative color is the color of the background part or the substance part. By doing this, it is specified whether each cluster belongs to the background part or the real part, and the flag in the cluster table is determined. The process then proceeds to step 107, where a cutting area is input.Then, the process proceeds to step 108, where the cutting area is binarized using the cluster table to create mask data. That is, for each pixel in the cutting area, calculate the distance between the color (pixel data) of the pixel and the center of each cluster using, for example, the above formulas (1) to (4) (corresponding to the evaluation function), and calculate the distance. The cluster with the minimum is selected, and it is determined whether the cluster belongs to the background part or the real part. If the cluster belongs to the background part, the mask data for the pixel is turned on, and if the cluster belongs to the substance part, the mask data for the pixel is turned off. However, it is not necessary to calculate the distance Md using the same calculation formula as that used in step 302; it may be different, the same, or (1) to (4).
Onloff of a pixel mask can be calculated from an evaluation formula outside the armor. Next, the process proceeds to step 109 to display the created mask data, and in step 110 this mask data is stored in the storage memory 32. By the way, the procedure for cropping one image is to first input the training area, then input the on/off status of each cluster, and then,
It is conceivable to create a mask by inputting cutting areas one after another along the contour line. It is conceivable that various colors appear during one rotation around the image to be cut out. For example, it may happen that a color that belongs to the background area at one location belongs to the solid area at another location. To deal with this case, each time you enter the cutting area, the onlo of each cluster is
ff can be changed. When inputting cutting areas one after another, the mask 0n10ff of each pixel in the overlapping portion can be determined in such a way that, as shown in Table 1, priority is given to the one calculated later, in principle. In this case, if the desired contour cannot be obtained, it can be corrected by changing the onloff of the cluster and then redrawing the cutting area. Note that the decision rules for this overlapping part can be changed as necessary.
For example, it is also possible to change to an OR rule as shown in Table 2 or an AND rule as shown in Table 3. In Tables 1 to 3, X
is the value of the mask that was already written, y is the value of the newly calculated mask, 2 is the newly written mask, and if the desired mask cannot be obtained by changing the onloff of the cluster, The training area can be relocated 1. For example, by relocating the training area closer to the cutting area, quality can be improved. For areas that cannot be cut out even with the above method, for example, areas where the outline does not originally appear, such as extreme highlight areas or shadow areas, manual additional corrections can be made. As a correction method, one method is to specify the position to be corrected using a position input means such as a board digitizer or a mouse, and then fill in an area of a certain size centered at that position with the mask turned on. mask off area
You can create a mask by using either of these methods, such as erasing the mask as a mask, or specifying two point positions and connecting the two points with a mask-on line segment. Upon completion of the above processing, the pattern to be cut out is surrounded by a mask. The unprocessed area outside the masked area can be filled in with the mask by filling it out. Furthermore, smoothing processing can be applied to the jaggedness of the contour line, if necessary. To output mask data, there are two methods: transferring the mask data to a plate collection device and collecting it together with other designs, transferring the mask data to a scanner and exposing it to film to create a mask plate, and converting outline data into vectors. A possible method is to obtain a mask plate by converting the outline data into data, transmitting the contour line data to a cutting plotter, and then printing the beer coat film. In the embodiment, the image data parameter space (
Although C, M, and Y spaces have been exemplified as color spaces, the spaces to be considered when implementing the present invention are not limited to this.
In addition to this space, there are also red (R), green (G), blue (B) color spaces, sets of differential values for each color plate, luminance Y, chromaticity I, etc.
, Q coordinates, hue H1 brightness V, and saturation C coordinates, which are subjected to calculations and conversions. As described above, according to the present invention, an excellent effect can be obtained in that an image to be cropped can be automatically cropped efficiently and with fewer discrimination errors. Note that if the training area is divided into clusters with a variable number of clusters, then something equivalent to multi-value conversion (quantization) into representative colors is first performed depending on the number of colors that make up the image.
After that, it can be converted into 2gi and divided into a background part and a real part. Thereby, it is possible to cut out an image in which the background part and the substance part are made of a plurality of colors. In particular, it is possible to accurately cut out objects with shadows. Furthermore, since the training area and cutting area are separate areas, the training area can be made smaller. As a result, the amount of calculation for clustering can be suppressed, so that the processing time can be known and the processing can be made more efficient. Furthermore, in clustering, data originally given in multiple dimensions can be handled as is. Therefore,
Compared to the method of clustering by treating it as a one-dimensional distribution projected onto a certain axis, there is less loss of information. This allows for highly accurate cutting.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の実施側に係る切抜き装置の構成を示
す一部斜視図を含む正面図、 第2図は、前記装置の概念的な構成を示すブロック図、 第3図は、前記実施例のマスクデータ作成手順を示す流
れ図、 第4図は、画像中のトレーニングエリアの指示の開を示
す平面図、 第5図は、 す流れ図、 第6図は5 図である。 クラスタ分けの詳細な処理手順を示 クラスタ中心の求め方の例を示す線 10・・・スキャナ、 10A・・・画像入力手段、 10B・・・画像出力手段、 12・・・磁気ディスク、 14・・・中央処理ユニット(CPU)及びメモリ部、
16・・・キーボード又はデジタイザ、16A・・・オ
ン/オフ入力手段、 16B・・・位置入力手段、 18・・・モニタ(表示手段)、 20・・・画像データ格納メモリ、 22・・・トレーニングエリア格納メモリ、24・・・
カッティングエリア格納メモリ、26・・・クラスタ分
は計算手段、 28・・・クラスタ表格納メモリ、 30・・・2値化計算手段、 32・・・マスクデータ格納メモリ。
FIG. 1 is a front view including a partial perspective view showing the configuration of a cutting device according to the implementation side of the present invention, FIG. 2 is a block diagram showing the conceptual configuration of the device, and FIG. FIG. 4 is a flowchart showing the mask data creation procedure of the embodiment; FIG. 4 is a plan view showing the opening of training area instructions in an image; FIG. 5 is a flowchart; Line 10 showing a detailed processing procedure for clustering and showing an example of how to find the cluster center 10... Scanner, 10A... Image input means, 10B... Image output means, 12... Magnetic disk, 14.・Central processing unit (CPU) and memory section,
16... Keyboard or digitizer, 16A... On/off input means, 16B... Position input means, 18... Monitor (display means), 20... Image data storage memory, 22... Training Area storage memory, 24...
Cutting area storage memory, 26: calculation means for clusters, 28: cluster table storage memory, 30: binarization calculation means, 32: mask data storage memory.

Claims (2)

【特許請求の範囲】[Claims] (1)画像データを演算処理し、電子的に切抜き処理す
るための、切抜きマスクを作成する方法において、 画像中の背景部と実体部とにまたがるトレーニングエリ
アを1つ以上指定し、 該トレーニングエリア内の画像データを統計的に分析し
て、任意の色が背景部に属する可能性、又は実体部に属
する可能性を示す評価関数を作成し、 画像の切抜きを所望する背景部と実体部とにまたがる領
域を指定し、 指定された領域内の全ての画素について、前記評価関数
に該画素データを代入し、該画素が背景部又は実体部の
いずれに属するかを判断し、背景部に属すると判断され
た画素からマスクデータを作成することを特徴とする切
抜きマスク作成方法。
(1) In a method of creating a cropping mask for performing arithmetic processing on image data and electronically cropping it, one or more training areas spanning the background and real parts of the image are specified, and the training area is By statistically analyzing the image data in the image, we create an evaluation function that indicates the possibility that a given color belongs to the background part or the substance part. For all pixels within the specified area, assign the pixel data to the evaluation function, determine whether the pixel belongs to the background part or the substance part, and determine whether the pixel belongs to the background part. A cutout mask creation method characterized by creating mask data from pixels determined to be.
(2)請求項1において、前記評価関数を作成するに際
して、 トレーニングエリアの全ての画素データを2以上のクラ
スタに分け、 分けられた各クラスタを代表色によつて表示し、表示色
から背景部又は実体部とみなすべきクラスタを選択し、 任意の色が各クラスタに属する可能性を示す評価関数を
各クラスタ毎に作成することを特徴とする切抜きマスク
作成方法。
(2) In claim 1, when creating the evaluation function, all the pixel data in the training area is divided into two or more clusters, each divided cluster is displayed with a representative color, and the background portion is determined based on the displayed color. Alternatively, a method for creating a cutout mask is characterized in that clusters to be considered as real parts are selected, and an evaluation function indicating the possibility that an arbitrary color belongs to each cluster is created for each cluster.
JP664790A 1989-12-20 1990-01-16 How to make a cutout mask Expired - Fee Related JPH0722326B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP664790A JPH0722326B2 (en) 1990-01-16 1990-01-16 How to make a cutout mask
EP19900124904 EP0435167A3 (en) 1989-12-20 1990-12-20 Cut mask preparation method and apparatus
US08/355,320 US5454050A (en) 1989-12-20 1994-12-13 Cut mask preparation method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP664790A JPH0722326B2 (en) 1990-01-16 1990-01-16 How to make a cutout mask

Publications (2)

Publication Number Publication Date
JPH03211966A true JPH03211966A (en) 1991-09-17
JPH0722326B2 JPH0722326B2 (en) 1995-03-08

Family

ID=11644170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP664790A Expired - Fee Related JPH0722326B2 (en) 1989-12-20 1990-01-16 How to make a cutout mask

Country Status (1)

Country Link
JP (1) JPH0722326B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143725A (en) * 1991-11-21 1993-06-11 Toppan Printing Co Ltd Cutting device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2902096A4 (en) 2012-09-28 2016-01-27 Fujifilm Corp Functional polymer membrane, and method for producing same
JP6004971B2 (en) 2013-03-12 2016-10-12 富士フイルム株式会社 Inkjet ink composition for producing decorative sheet molded product or in-mold molded product, inkjet recording method for producing decorated sheet molded product or in-mold molded product, ink set for producing decorative sheet molded product or in-mold molded product, decorative Decorative sheet for producing sheet molded product or in-mold molded product, decorated sheet molded product, and method for producing in-mold molded product
JP6066960B2 (en) 2014-05-30 2017-01-25 富士フイルム株式会社 Actinic ray curable ink composition for molding process, ink set, inkjet recording method, decorative sheet for molding process, decorative sheet molded product, and method for producing in-mold molded product

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143725A (en) * 1991-11-21 1993-06-11 Toppan Printing Co Ltd Cutting device

Also Published As

Publication number Publication date
JPH0722326B2 (en) 1995-03-08

Similar Documents

Publication Publication Date Title
EP0618546B1 (en) Automatic determination of boundaries between polygonal structure elements of different colour in a planar graphic image
EP0618718B1 (en) Correcting plate misregistration in colour printing of images defined in a page description language
US5613046A (en) Method and apparatus for correcting for plate misregistration in color printing
US7333241B2 (en) Image data processing apparatus, medium recording image data set, medium recording image data processing program and image data processing method
US5454050A (en) Cut mask preparation method and apparatus
JPH0863597A (en) Face extracting method
JPH05268469A (en) Image processing method
JPH04227585A (en) Method and apparatus for forming improved control-data line
JPH07210651A (en) Image editing device for image processing system
US20220180122A1 (en) Method for generating a plurality of sets of training image data for training machine learning model
US7023448B1 (en) Selecting rendering intent
US20230316697A1 (en) Association method, association system, and non-transitory computer-readable storage medium
JPH03211966A (en) Cut-off mask preparing method
US5825916A (en) Illuminant color detection
US5602972A (en) Pixel and data format conversion processor for gravure
EP0481375A2 (en) Picture image color separating apparatus
JP2987169B2 (en) How to make a cutout mask
JP2804299B2 (en) Cutout mask making system
JPH03201173A (en) Method and device for clipping processing
CN113269198A (en) Pattern processing method, electronic device and readable storage medium
JPH05143729A (en) Image processor
JPH01173177A (en) Automatic cut-out system
JPH0468763A (en) Cutout mask generating method
JP2000099699A (en) Image color processor and image color processing method and storage medium
JP2007295593A (en) Image data processor, computer-readable recording medium with image data processing program recorded thereon and image data processing method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090308

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees