JPH07334648A - Method and device for processing image - Google Patents

Method and device for processing image

Info

Publication number
JPH07334648A
JPH07334648A JP6129027A JP12902794A JPH07334648A JP H07334648 A JPH07334648 A JP H07334648A JP 6129027 A JP6129027 A JP 6129027A JP 12902794 A JP12902794 A JP 12902794A JP H07334648 A JPH07334648 A JP H07334648A
Authority
JP
Japan
Prior art keywords
color
region
image
area
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6129027A
Other languages
Japanese (ja)
Inventor
Shinichiro Koga
慎一郎 古賀
Yoshihiro Ishida
良弘 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP6129027A priority Critical patent/JPH07334648A/en
Publication of JPH07334648A publication Critical patent/JPH07334648A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To reduce the quantity of image data and also to variably magnify the images with high picture quality by extracting the color and the shape of a monochromatic area of an inputted color image and then extracting the vector coordinates to show the boundary of the monochromatic area based on its shape. CONSTITUTION:A monochromatic area extracting part 102 extracts the monochromatic areas out of the color images of raster scan forms which are received from a color image acquiring part not and outputs the information on the positions, colors, etc., of the extracted monochromatic areas and the binary partial images corresponding to these monochromatic areas. A plural-outline extracting part 103 extracts a rough contour vector out of the binary partial image of each monochromatic area. A plural- outline smoothing/variable power part 104 smoothes the rough contour vector data on each monochromatic area in a vector data form and applies the variable power processing to the smoothed vector data. A color image reproducing part 105 reproduces the color image data of raster scan system having an area of a shape that is shown by the contour vector data and displays the image data at an output part 106 based on the contour vector data received from the part 104 and the color of the monochromatic area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カラー画像内の単色領
域を表わすベクトル座標に基づいて平滑・変倍等を行う
画像処理方法及びその装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for performing smoothing, scaling, etc. on the basis of vector coordinates representing a monochrome area in a color image.

【0002】[0002]

【従来の技術】近年、カラー画像を入出力できる入出力
装置が、OA分野にも広く普及している。これに伴い、
カラーの文章画像(白黒部分や限定色部分が大半を占め
るカラー画像)を扱う処理も増加している。カラー画像
の変倍を行う方法としては、その変倍率に応じて、原画
の各画素を周期的に間引いたり(縮小時)、倍率に応じ
た回数繰り返し出力したり(拡大時)して変倍する方法
および、カラー画像の各成分(RGBなど)に座標変換
(アファイン変換など)を施した後、近傍の値を補間し
て変倍された画像データを求める方法がある。
2. Description of the Related Art In recent years, input / output devices capable of inputting / outputting color images have become widespread in the OA field. With this,
The number of processes that handle color text images (color images that occupy most of black-and-white portions and limited-color portions) is also increasing. As a method of scaling a color image, the pixels of the original image are periodically thinned (when reducing) according to the scaling factor, or repeatedly output (when enlarging) according to the scaling factor. And a method of performing coordinate conversion (affine conversion, etc.) on each component (RGB, etc.) of the color image and then interpolating neighboring values to obtain scaled image data.

【0003】カラー画像の蓄積或は通信時などの画像デ
ータ量の削減方法としては、JPEG(Joint Photograp
hic Expert Group) による離散的コサイン変換(DC
T)を用いた符号化方式などのデータ圧縮手法がある。
また、カラー画像を均等色空間へ変換した後、色差を用
いた領域分割を行い、その領域の形状をチェーン符号化
し、色相には領域ごとに記憶色を用いた粗量子化を行
い、彩度は領域ごとに多項式近似し、更に明度を適応型
離散コサイン変換符号化することにより、カラー画像を
符号化する方法(電子情報通信学会論文誌B-I Vol.75-B
-I No.6 pp422-4301992年6月)が提案されてい
る。
As a method of reducing the amount of image data when storing or communicating color images, JPEG (Joint Photograp)
Discrete cosine transform (DC by hic Expert Group)
There is a data compression method such as an encoding method using T).
In addition, after converting a color image to a uniform color space, the region is divided using the color difference, the shape of the region is chain-coded, and the hue is roughly quantized using the memory color for each region, and the saturation is calculated. Is a polynomial approximation for each region, and a method for encoding a color image by further encoding the brightness with adaptive discrete cosine transform coding (IEICE Transactions BI Vol.75-B
-I No.6 pp422-430 June 1992) is proposed.

【0004】一方、カラー画像から単色領域を抽出する
方法としては、再帰的閾値法(領域分割処理によるカラ
ー画像情報の構造化,情報処理、Vol.19,No.12,Dec,197
8,pp.1130-11369)がある。この方法は、カラー画像に対
しRGB,HSI,YIQのカラー成分の特徴における
ヒストグラムの谷から領域分割の閾値を決定して領域を
切り出すという処理を、切り出したそれぞれの領域に対
して再帰的に繰り返す方法、或は、限定色表現法(人間
の視覚では色誤差を識別できない色数に達するまで、色
分布を繰り返し分割する色量子化手法)を利用する方法
(1990年電子情報通信学会春期全国大会D4167
−168)などの報告もある。
On the other hand, as a method of extracting a monochrome region from a color image, a recursive threshold method (structuring of color image information by region division processing, information processing, Vol. 19, No. 12, Dec, 197) is used.
8, pp.1130-11369). This method recursively repeats, for each of the cut-out regions, a process of cutting out regions by determining a threshold value for region division from the valleys of the histogram in the color component features of RGB, HSI, and YIQ for a color image. Method or limited color expression method (a color quantization method that repeatedly divides the color distribution until the number of colors that human eyes cannot identify the color error reaches) is used (1990 Spring National Convention of the Institute of Electronics, Information and Communication Engineers) D4167
-168).

【0005】画像の領域をベクトル座標で表現し、その
ベクトル座標に基づいて平滑・変倍を行う方法として
は、既に出願人が出願している特願平3−34506が
ある。これに開示された装置は、2値画像の輪郭線情報
の抽出および平滑・変倍を行う装置に関し、2値画像か
らアウトラインベクトルを抽出し、その抽出したアウト
ラインベクトル表現の状態で所望の倍率(任意)で滑ら
かに変倍されたアウトラインベクトルを作成し、この滑
らかに変倍されたアウトラインベクトルから2値画像を
再生成することによって、所望の倍率(任意)で変倍さ
れた高画質のデジタル2値画像を得るものである。
Japanese Patent Application No. 3-34506, which has been filed by the applicant, is a method for expressing an image area in vector coordinates and performing smoothing / magnification based on the vector coordinates. The device disclosed therein relates to a device for extracting contour line information of a binary image, smoothing and scaling, extracting an outline vector from the binary image, and selecting a desired scaling factor in the state of the extracted outline vector expression. Create a smoothly scaled outline vector at (arbitrary) and regenerate a binary image from this smoothly scaled outline vector to obtain a high-quality digital image at a desired magnification (arbitrary). A binary image is obtained.

【0006】[0006]

【発明が解決しようとする課題】しかし、前述した間引
きや繰り返しを用いた変倍方法は、斜線部分が段階状に
なってしまい画質に問題があった。また、座標変換を用
いた変倍方法では、カラー画像の連続調の部分に対して
は有効であるが、文字やグラフなどの文字線画部分にお
いては、補間処理によりエッジがぼやけてしまうという
欠点があった。
However, the above-described scaling method using thinning and repetition has a problem in image quality because the shaded portions are stepwise. Further, the scaling method using coordinate conversion is effective for continuous tone portions of a color image, but has a disadvantage that edges are blurred due to interpolation processing in a character / line image portion such as a character or a graph. there were.

【0007】更に、前述したカラー画像の蓄積、通信時
のデータ量削減方法も、カラー画像の連続調の部分に対
しては有効であるが、文字やグラフなどの文字線画部分
において画質の劣化が大きいという問題があった。ま
た、領域分割を行って符号化する方法も連続調のカラー
画像を対象としているため、明度を適応型離散コサイン
変換符号化しており、明度情報が全情報量の大半を占め
ている。このため、このような符号化方法は、カラー画
像の連続調の部分に対しては有効であるが、白黒部分や
限定色部分が大半を占め、明度情報の重要度が低い文書
画像などでは、符号化効率が悪くなってしまう。
Further, the above-described method of storing color images and reducing the amount of data at the time of communication is also effective for continuous tone portions of color images, but the image quality is deteriorated in the character and line drawing portions such as characters and graphs. There was a big problem. In addition, since the method of performing region division and encoding is also applied to continuous tone color images, the lightness is adaptive discrete cosine transform coded, and the lightness information occupies most of the total information amount. Therefore, such an encoding method is effective for a continuous tone portion of a color image, but most of the black and white portion and limited color portion, and for a document image in which the lightness information is less important, The coding efficiency will be poor.

【0008】一方、前述したカラー画像から単色領域を
抽出する各方法は、単色領域の抽出について考慮されて
いるが、その後の平滑・変倍、蓄積、通信などの処理へ
の適用については考慮されていない。また、領域のベク
トル座標表現を用いて平滑・変倍を行う特願平3−34
506は、2値画像の輪郭線情報の抽出および平滑・変
倍に対して有効であるが、カラー画像として入力した単
色領域の輪郭線情報の抽出および平滑・変倍処理に対し
て、直接適用することはできなかった。
On the other hand, each of the above-described methods for extracting a monochrome region from a color image is considered for the extraction of a monochrome region, but is also considered for application to subsequent processing such as smoothing / magnification, storage, and communication. Not not. In addition, Japanese Patent Application No. 3-34 for performing smoothing and scaling using the vector coordinate representation of the area
506 is effective for extraction of contour line information of a binary image and smoothing / scaling, but is directly applied to extraction of contour line information of a monochrome area input as a color image and smoothing / scaling processing. I couldn't.

【0009】本発明は上記従来例に鑑みてなされたもの
で、カラー画像における単色領域を抽出し、その抽出し
た単色領域の輪郭線情報を求め、その輪郭線情報に基づ
いた高画質なカラー画像の平滑・変倍を行うことができ
る画像処理方法及びその装置を提供することを目的とす
る。
The present invention has been made in view of the above conventional example, and extracts a monochromatic region in a color image, obtains contour line information of the extracted monochromatic region, and obtains a high-quality color image based on the contour line information. It is an object of the present invention to provide an image processing method and apparatus capable of performing smoothing and scaling of the image.

【0010】また本発明は、画像データ量を削減し、か
つ高画質を維持しながら、画像データを変倍できる画像
処理方法及び装置を提供することを目的とする。
It is another object of the present invention to provide an image processing method and apparatus capable of scaling image data while reducing the amount of image data and maintaining high image quality.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するため
に本発明の画像処理装置は以下のような構成を備える。
即ち、カラー画像を入力する画像入力手段と、前記画像
入力手段から入力されたカラー画像における単色領域の
色と形状を抽出する単色領域抽出手段と、前記単色領域
抽出手段によって抽出された単色領域の形状に基づいて
前記単色領域の境界を表わすベクトル座標を抽出するベ
クトル抽出手段とを備える。
In order to achieve the above object, the image processing apparatus of the present invention has the following configuration.
That is, an image input unit for inputting a color image, a monochrome region extracting unit for extracting the color and shape of a monochrome region in the color image input from the image input unit, and a monochrome region extracted by the monochrome region extracting unit. Vector extraction means for extracting vector coordinates representing the boundary of the monochrome region based on the shape.

【0012】上記目的を達成するために本発明の画像処
理方法は以下のような工程を備える。即ち、カラー画像
の単色領域を当該領域の色と当該領域の境界を表わすベ
クトル座標で表現する画像処理方法であって、カラー画
像から単色領域の色と形状を抽出する単色領域抽出工程
と、その抽出された単色領域の形状から前記単色領域の
境界線を表わすベクトル座標を抽出する工程とを備え
る。
In order to achieve the above object, the image processing method of the present invention comprises the following steps. That is, an image processing method for expressing a monochrome area of a color image by a color of the area and vector coordinates representing a boundary of the area, and a monochrome area extracting step of extracting a color and a shape of the monochrome area from the color image, and Extracting vector coordinates representing the boundary line of the single color area from the shape of the extracted single color area.

【0013】[0013]

【作用】以上の構成において、カラー画像を入力し、そ
の入力されたカラー画像における単色領域の色と形状を
抽出する。その抽出された単色領域の形状に基づいて、
その単色領域の境界を表わすベクトル座標を抽出するよ
うに動作する。
With the above arrangement, a color image is input, and the color and shape of the monochrome region in the input color image are extracted. Based on the shape of the extracted monochromatic area,
It operates to extract the vector coordinates that represent the boundaries of the monochromatic area.

【0014】[0014]

【実施例】以下、添付図面を参照して本発明の好適な実
施例を詳細に説明する。尚本実施例において、単色領域
とは、白黒または限定色などの単一の値を持つ画素(必
ずしも同一の値である必要はなく、ある色差内の値を持
つ画素)で構成している任意形状の画像領域を指し、領
域内の画素は必ずしも連結している必要はない。本実施
例の方法及び装置は、カラーの文章画像を扱う機器に利
用でき、例えば、DTP(Desk Top Publishing)装置に
おける編集処理(拡大,縮小)時や、カラープリンタ・
カラーファクシミリなどの画像出力機器におけるカラー
画像出力時の平滑・変倍処理(画素密度変換)にも利用
できる。また、カラーファクシミリ装置などの通信機器
や、LANなどのネットワークにおけるカラー画像通信
時や、磁気ディスクなどの記憶装置へのカラー画像の蓄
積時におけるデータ量の削減等にも利用できる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will now be described in detail with reference to the accompanying drawings. In the present embodiment, the monochrome region is an arbitrary pixel formed of pixels having a single value such as black and white or limited color (pixels having a value within a certain color difference, not necessarily having the same value). It refers to the image area of the shape, and the pixels in the area do not necessarily need to be connected. The method and apparatus according to the present embodiment can be used for a device that handles color text images. For example, at the time of edit processing (enlargement / reduction) in a DTP (Desk Top Publishing) apparatus, a color printer
It can also be used for smoothing / magnifying processing (pixel density conversion) when outputting a color image in an image output device such as a color facsimile. It can also be used for reducing the amount of data when performing color image communication in a communication device such as a color facsimile machine or a network such as a LAN, or when storing a color image in a storage device such as a magnetic disk.

【0015】[第一実施例]図1は、本発明の一実施例
の機能構成を示す機能ブロック図である。
[First Embodiment] FIG. 1 is a functional block diagram showing the functional arrangement of an embodiment of the present invention.

【0016】図1において、カラー画像獲得部101
は、処理を施すデジタルカラー画像を獲得(入力)し、
ラスタ走査形式のカラー画像を出力する。単色領域抽出
部102は、カラー画像獲得部101より出力されるラ
スタ走査形式のカラー画像から単色領域を抽出し、各単
色領域に対応する2値部分画像と領域の位置や色などの
情報を出力する。複数アウトライン抽出部103は、各
単色領域の2値部分画像から粗輪郭ベクトルを抽出す
る。複数アウトライン平滑・変倍部104は、各単色領
域の粗輪郭ベクトルデータをベクトルデータ形態で平滑
化および変倍処理を行う。カラー画像再生部105で
は、アウトライン平滑・変倍部104より出力される輪
郭ベクトルデータと単色領域の色から、輪郭ベクトルデ
ータが表現する形状の領域を持つラスタ走査形式のカラ
ー画像データを再生する。カラー画像出力部106は、
ラスタ走査形式のカラー画像データを表示したり、ハー
ドコピーを取ったり、或は、通信路へ出力する機能を備
えている。
In FIG. 1, a color image acquisition unit 101
Acquires (inputs) a digital color image to be processed,
Outputs a raster scan format color image. The monochromatic area extracting unit 102 extracts monochromatic areas from the raster scanning format color image output from the color image acquisition unit 101, and outputs information such as a binary partial image corresponding to each monochromatic area and the position and color of the area. To do. The multiple outline extraction unit 103 extracts a rough contour vector from the binary partial image of each monochrome region. The multiple outline smoothing / scaling unit 104 smoothes and scales the rough contour vector data of each monochromatic area in a vector data format. The color image reproducing unit 105 reproduces the color image data of the raster scanning format having the area of the shape represented by the contour vector data from the contour vector data output from the outline smoothing / magnifying unit 104 and the color of the monochrome area. The color image output unit 106
It has a function of displaying color image data in a raster scan format, making a hard copy, or outputting to a communication path.

【0017】以下、具体的に説明する。A detailed description will be given below.

【0018】<カラー画像獲得部101>カラー画像獲
得部101は、例えば、カラーイメージリーダで画像を
読み取り、ラスタ走査形式で出力する公知のラスタ走査
型の画像出力装置で構成される。この画像出力装置とし
ては、通信路からカラー画像を受信し、ラスタ走査形式
で出力する公知のラスタ走査型の画像出力装置、或は、
画像ファイル等の画像蓄積装置からカラー画像を読み取
り、ラスタ走査形式で出力する公知のラスタ走査型の画
像出力装置であっても構わない。
<Color Image Acquisition Unit 101> The color image acquisition unit 101 is composed of, for example, a known raster scanning type image output device which reads an image by a color image reader and outputs it in a raster scanning format. As this image output device, a known raster scan type image output device that receives a color image from a communication path and outputs it in a raster scan format, or
A known raster scanning type image output device that reads a color image from an image storage device such as an image file and outputs the color image in a raster scanning format may be used.

【0019】<単色領域抽出部102>次に、単色領域
抽出部102は、カラー画像獲得部101により出力さ
れるラスタ走査形式のカラー画像を入力して単色領域を
抽出し、各単色領域に対応する2値部分画像と、その領
域の位置、大きさ、色を出力する。
<Monochromatic Region Extraction Unit 102> Next, the monochromatic region extraction unit 102 inputs the raster scanning format color image output from the color image acquisition unit 101 to extract monochromatic regions, and corresponds to each monochromatic region. The binary partial image and the position, size, and color of the area are output.

【0020】図2に単色領域抽出部102を実現するハ
ードウェア構成例を示す。図2において、21はCP
U、22はディスク装置、23はディスクI/Oで、ハ
ードディスク22とのインターフェースを制御してい
る。24はCPU21で実行される制御プログラム等を
記憶するROM、25はI/O(入出力)ポート、26
はRAM(ランダムアクセスメモリ)で、CPU21に
よる処理の実行時、ワークエリアとして使用され、各種
データを保持している。27は上記ブロックを接続する
バスである。後述する他の部でも同様ののハードウェア
構成を用いるが、他の部と同じ装置を共有して利用して
も構わない。
FIG. 2 shows an example of a hardware configuration for realizing the monochromatic area extracting unit 102. In FIG. 2, 21 is a CP
U and 22 are disk devices, and 23 is a disk I / O, which controls the interface with the hard disk 22. 24 is a ROM for storing control programs executed by the CPU 21; 25 is an I / O (input / output) port;
Is a RAM (random access memory), which is used as a work area when the CPU 21 executes processing and holds various data. A bus 27 connects the blocks. Although the same hardware configuration is used in other units described later, the same device may be shared with the other units.

【0021】CPU21は、以下に示す単色領域抽出処
理手順で単色領域の抽出を行う。例えば、図3に示すカ
ラー画像(異なる色の文字や図形を含む)を入力した場
合、図4に示すテーブル(単色領域テーブル41と呼
ぶ)と、各単色領域に対応した2値部分画像42〜46
を出力する。ここで、単色領域テーブル41の各行は、
カラー画像に含まれる各単色領域に対応している。単色
領域テーブル41の列方向には、領域の外接矩形の位置
と大きさ、領域の色、領域に含まれる画素数、単色領域
を示す2値部分画像へのインデックス(2値部分画像の
アドレスもしくは2値部分画像を示す番号)が書き込ま
れる。例えば、ここでは領域の外接矩形の位置と大きさ
を矩形の左上(x,y)座標および位置はその幅と高さ
で表わす。ここで、領域の外接矩形は、2値部分画像の
位置と大きさに対応している。また、各領域の色はRG
B値で表わしているが、これ以外に、CMY,HSI,
*** ,L*** 等の公知の色座標系で表わ
してもかまわない。尚、図3及び図4では、領域番号
“1”の色(色1)がRGB=(50,128,6
0)、領域番号“2”の色(色2)がRGB=(15
8,149,30)である例を示している。
The CPU 21 extracts a single color area in the following procedure of the single color area extraction processing. For example, when the color image shown in FIG. 3 (including characters and figures of different colors) is input, the table shown in FIG. 4 (referred to as a monochromatic area table 41) and the binary partial images 42 to 42 corresponding to each monochromatic area are displayed. 46
Is output. Here, each line of the monochrome region table 41 is
It corresponds to each monochrome region included in the color image. In the column direction of the monochrome region table 41, the position and size of the circumscribed rectangle of the region, the color of the region, the number of pixels included in the region, and the index to the binary partial image indicating the monochrome region (address of the binary partial image or A number indicating a binary partial image) is written. For example, here, the position and size of the circumscribed rectangle of the area are represented by the upper left (x, y) coordinates of the rectangle and the position by the width and height thereof. Here, the circumscribed rectangle of the area corresponds to the position and size of the binary partial image. The color of each area is RG.
Although it is represented by B value, in addition to this, CMY, HSI,
It may be represented by a known color coordinate system such as L * a * b * , L * u * v * . In FIGS. 3 and 4, the color (color 1) of the area number “1” is RGB = (50,128,6).
0), the color of the area number “2” (color 2) is RGB = (15
8, 149, 30).

【0022】[単色領域抽出処理手順]単色領域抽出部
102の処理手順について述べる。単色領域抽出部10
2では、一時的データとして単色領域ラベル配列、出力
データとして単色領域テーブル41と出力2値画像とを
使用し、RAM26上に置く。この単色領域ラベル配列
は、入力カラー画像と同じ大きさを持ち、単色領域ラベ
ル配列の各要素は入力カラー画像の同じ位置にある画素
に対応している。この単色領域ラベル配列には、その画
素が属する領域の番号(各領域に番号をつけるものと
し、これを領域番号と呼ぶ)を書き込む。
[Monochromatic Region Extraction Processing Procedure] The processing procedure of the monochromatic area extraction unit 102 will be described. Monochromatic area extraction unit 10
In No. 2, the monochrome array label array is used as temporary data, the monochrome area table 41 and the output binary image are used as output data, and they are placed on the RAM 26. This single color area label array has the same size as the input color image, and each element of the single color area label array corresponds to a pixel at the same position in the input color image. The number of the area to which the pixel belongs (number is assigned to each area, and this is referred to as area number) is written in this single-color area label array.

【0023】図5は単色領域抽出部102のCPU21
で行なわれる処理手順を示すフローチャートで、この処
理を実行する制御プログラムはROM24に記憶されて
いる。以下、フローチャートの各ステップについて述べ
る。
FIG. 5 shows the CPU 21 of the monochromatic area extracting unit 102.
The control program for executing this process is stored in the ROM 24. Hereinafter, each step of the flowchart will be described.

【0024】まずステップS1で、処理に必要となるR
AM26のデータ領域を初期化する。以下、ステップS
3でラスタ走査が終わったと判定される(ステップS3
の判定が肯定になる)まで、ステップS4からステップ
S11の処理を、入力カラー画像(ディスク装置22上
にあるものをディスクI/O23を通して入力、または
RAM26から入力)の各画素に対して、ラスタ走査順
に繰り返し行う(ステップS2)。ここで、処理中の対
象画素を注目画素と呼ぶ。また、既に単色領域テーブル
41に登録され、注目画素がその領域に含まれているか
を確かめている対象領域を比較領域と呼ぶことにする。
First, in step S1, R required for processing is set.
The data area of the AM 26 is initialized. Below, step S
It is determined that the raster scanning is completed in step 3 (step S3).
Until the determination is positive), the process from step S4 to step S11 is performed for each pixel of the input color image (the one on the disk device 22 is input through the disk I / O 23 or the RAM 26). The scanning order is repeated (step S2). Here, the target pixel being processed is called a target pixel. In addition, a target area that has already been registered in the single-color area table 41 and has been confirmed as to whether the target pixel is included in that area will be referred to as a comparison area.

【0025】以下、ステップS8で注目画素が、その登
録されている領域に含まれないことがわかった場合(対
象領域の全画素の処理が終了:ステップS8の判定が肯
定の場合)、或はステップS10で、注目画素の属する
領域が見つかる(ステップS10の判定が肯定の場合)
まで、ステップS8からステップS11の処理を繰り返
し、単色領域テーブル41に登録されている全領域に対
して注目画素が属するかどうかを確かめる。
In the following, if it is found in step S8 that the pixel of interest is not included in the registered area (processing of all pixels in the target area ends: if the determination in step S8 is affirmative), or In step S10, a region to which the pixel of interest belongs is found (when the determination in step S10 is affirmative).
Up to step S8 to step S11 are repeated until it is confirmed whether or not the pixel of interest belongs to all the areas registered in the monochrome area table 41.

【0026】ステップS9では、注目画素の色と比較領
域の色との色差を計算する。この色差の計算は、公知の
計算法を用いる。例えば、RGB色座標を用いている場
合は、 (R−R0 )2 +(G−G0 )2 +(B−B0 )2 R,G,Bは注目画素のRGB値 R0 ,G0 ,B0 は比較領域のRGBの値 の計算式を用いることができ、L*** 色座標を用
いている場合は、 (L* −L*0)2 +(a* −a*0)2 +(b* −b*0)2* ,a* ,b* は注目画素のL*** 値 L*0,a*0,b*0は比較領域のL*** 値 の計算式を用いて求めることができる。
In step S9, the color difference between the color of the pixel of interest and the color of the comparison area is calculated. A known calculation method is used to calculate the color difference. For example, if you are using a RGB color coordinates, (R-R0) 2 + (G-G0) 2 + (B-B0) 2 R, G, B are the RGB values of the target pixel R0, G0, B0 comparison can be used formula for RGB values of area, if you are using the L * a * b * color coordinates, (L * -L * 0) 2 + (a * -a * 0) 2 + ( b * -b * 0) 2 L * , a * , b * are L * a * b * values of the pixel of interest L * 0, a * 0, b * 0 are L * a * b * values of the comparison area. It can be calculated using a calculation formula.

【0027】ステップS10では、ステップS9で計算
した色差を、予め設定した閾値(ROM24に記憶され
ているか、もしくは処理起動時にRAM26に設定され
ている)と比較する。色差が閾値より大きい場合(ステ
ップS10の判定が否定の場合)は、比較領域を単色領
域テーブル41の次の候補領域にして(ステップS
6)、ステップS8に戻る。一方、ステップS10で、
色差が閾値より小さい場合(ステップS10の判定が肯
定の場合)は、注目画素がその比較領域に属すると判断
して、次のステップS11に進む。
In step S10, the color difference calculated in step S9 is compared with a preset threshold value (stored in the ROM 24 or set in the RAM 26 at the time of starting the process). When the color difference is larger than the threshold value (when the determination in step S10 is negative), the comparison area is set as the next candidate area in the monochrome area table 41 (step S10).
6) and returns to step S8. On the other hand, in step S10,
When the color difference is smaller than the threshold value (when the determination in step S10 is affirmative), it is determined that the pixel of interest belongs to the comparison area, and the process proceeds to step S11.

【0028】ステップS11では、比較領域に注目画素
を加え、単色領域テーブル41を更新する。つまり、比
較領域の色(平均値)や画素数を注目画素を加えて計算
し直す。
In step S11, the pixel of interest is added to the comparison area and the single color area table 41 is updated. That is, the color (average value) and the number of pixels of the comparison area are recalculated by adding the target pixel.

【0029】ステップS4では、単色領域ラベル配列
(単色領域の領域番号で表されている)中の注目画素に
対応する要素に比較領域の領域番号を書き込み、ステッ
プS2,S3へと進む。
In step S4, the region number of the comparison region is written in the element corresponding to the pixel of interest in the monochrome region label array (represented by the region number of the monochrome region), and the process proceeds to steps S2 and S3.

【0030】ステップS8からステップS11を繰り返
し、ステップS8で比較領域の候補がなくなった場合
(ステップS8の判定が肯定の場合)、つまり単色領域
テーブル41に登録してある領域に、その注目画素が属
する領域が無かった場合はステップS7に進み、その注
目画素を新たな領域の画素として単色領域テーブル41
に登録する。こうしてステップS4からステップS11
を繰り返し、入力カラー画像の全ての画素について処理
を終えたら(ステップS3の判定が肯定の場合)ステッ
プS12に進む。ステップS12では、単色領域ラベル
配列において、同じ領域番号を持つ要素からなる領域の
外接矩形を計算し、その外接矩形の位置と大きさを持つ
2値部分画像を生成する。そして、単色領域ラベル配列
において、対象としている領域番号を持つ部分に対応す
る2値部分画像の画素を黒画素、他を白画素とする。
Steps S8 to S11 are repeated, and when there are no comparison area candidates in step S8 (when the determination in step S8 is affirmative), that is, in the area registered in the monochromatic area table 41, the pixel of interest is If there is no region to which the pixel belongs, the process proceeds to step S7, and the pixel of interest is set as a pixel of the new region, and the monochrome region table 41
Register with. Thus, steps S4 to S11
When all pixels of the input color image are processed (when the determination in step S3 is affirmative), the process proceeds to step S12. In step S12, the circumscribing rectangle of the region consisting of elements having the same region number in the monochrome region label array is calculated, and a binary partial image having the position and size of the circumscribing rectangle is generated. Then, in the single color area label array, the pixels of the binary partial image corresponding to the portion having the target area number are black pixels and the other pixels are white pixels.

【0031】単色領域抽出部102は、これらの処理に
より生成した、RAM26上の単色領域テーブル41お
よび2値部分画像を出力とする(必要であればディスク
I/O23を通してディスク装置22へ出力する)。
The monochromatic area extracting unit 102 outputs the monochromatic area table 41 and the binary partial image on the RAM 26, which are generated by these processes (outputs to the disk device 22 through the disk I / O 23 if necessary). .

【0032】<複数アウトライン抽出部103>次に、
複数アウトライン抽出部103は、単色領域抽出部10
2から出力された各単色領域に対応するラスタ走査形式
の2値部分画像から、粗輪郭ベクトルを抽出する。例え
ば、図3及び図4の例を用いると、単色領域テーブル4
1および2値部分画像42〜46を入力とし、図6に示
す単色領域テーブル41および各2値部分画像42〜4
6から抽出した粗輪郭ベクトル62〜66を出力する。
<Multiple Outline Extraction Unit 103> Next,
The multiple outline extraction unit 103 includes a single color region extraction unit 10
A rough contour vector is extracted from the binary partial image of the raster scanning format corresponding to each monochromatic area output from No. 2. For example, using the examples of FIG. 3 and FIG.
The monochromatic area table 41 and the binary partial images 42 to 4 shown in FIG.
The rough contour vectors 62 to 66 extracted from No. 6 are output.

【0033】図7は複数アウトライン抽出部103の構
成を示すブロック図である。
FIG. 7 is a block diagram showing the structure of the plural outline extracting section 103.

【0034】複数アウトライン抽出部103は、アウト
ライン抽出制御部31とアウトライン抽出部32とを有
し、アウトライン抽出制御部31は、図2に示す単色領
域抽出部102を実現するハードウェア構成列と同等の
ハードウェア構成で構成される。当然、単色領域抽出部
102と同じハードウェアを共有しても構わない。ここ
では図2に示すハードウェア構成例で説明する。
The multiple outline extraction unit 103 has an outline extraction control unit 31 and an outline extraction unit 32, and the outline extraction control unit 31 is equivalent to the hardware configuration sequence realizing the single color area extraction unit 102 shown in FIG. It consists of the hardware configuration of. Of course, the same hardware as the single color area extraction unit 102 may be shared. Here, the hardware configuration example shown in FIG. 2 will be described.

【0035】[複数アウトライン抽出処理]図8に複数
アウトライン抽出処理のCPU21(ステップS25の
処理はアウトライン抽出部32で行われる)による処理
手順を示す。以下、図8を参照して複数アウトライン抽
出処理について述べる。
[Multiple Outline Extraction Processing] FIG. 8 shows a processing procedure of the plural outline extraction processing by the CPU 21 (the processing of step S25 is performed by the outline extraction unit 32). Hereinafter, the multiple outline extraction process will be described with reference to FIG.

【0036】ステップS21において、RAM26上の
一時的データ(現在処理している領域を示す変数など)
を初期化する。以下、ステップS22で対象とする領域
を変えながら、ステップS23で処理対象となる領域が
ないと判断する(ステップS23の判定が肯定の場合)
までステップS24からステップS26を繰り返す。ス
テップS24では、単色領域テーブル41から各領域の
2値部分画像を取り出し、RAM26またはディスク装
置22を介して、アウトライン抽出部32へラスタ形式
で渡す。ステップS25では、アウトライン抽出部32
において、入力2値部分画像の粗輪郭ベクトルを抽出
し、RAM26またはディスク装置22を介して、アウ
トライン抽出制御部31に渡す。ステップS26では、
アウトライン抽出制御部31において、粗輪郭ベクトル
を単色領域テーブル41に登録する。
In step S21, temporary data on the RAM 26 (variables indicating the area currently being processed)
To initialize. Hereinafter, it is determined that there is no region to be processed in step S23 while changing the target region in step S22 (when the determination in step S23 is affirmative).
Until step S24 to step S26 are repeated. In step S24, the binary partial image of each area is extracted from the single-color area table 41 and passed to the outline extraction unit 32 in the raster format via the RAM 26 or the disk device 22. In step S25, the outline extraction unit 32
At, the rough contour vector of the input binary partial image is extracted and passed to the outline extraction control unit 31 via the RAM 26 or the disk device 22. In step S26,
The outline extraction control unit 31 registers the rough contour vector in the single color area table 41.

【0037】複数アウトライン抽出処理は、以上の全て
のステップが終了後、RAM26上の粗輪郭ベクトルお
よび単色領域テーブル41を出力とする(必要であれば
ディスクI/O23を通してディスク装置22へ出力す
る)。
In the plural outline extraction processing, after all the above steps are completed, the rough contour vector and the monochromatic area table 41 on the RAM 26 are output (output to the disk device 22 through the disk I / O 23 if necessary). .

【0038】アウトライン抽出部32は、例えば、本願
出願人により先に出願された(特願平2−28195
8、1990年10月22日出願)に記載の装置で構成
される。次に、特願平2−281958記載のアウトラ
イン抽出部32について簡単に述べる。
The outline extraction unit 32 was previously filed by the applicant of the present application (Japanese Patent Application No. 2-28195).
8, filed October 22, 1990). Next, the outline extraction unit 32 described in Japanese Patent Application No. 2-281958 will be briefly described.

【0039】図9はアウトライン抽出制御部31から出
力されるラスタ走査型の2値部分画像データの走査形態
を示しており、かつアウトライン抽出部が入力するラス
タ走査型の2値部分画像データの走査形態をも示してい
る。かくのごときの形式でアウトライン抽出制御部31
により出力される2値部分画像データをアウトライン抽
出部32が入力している。図9において、91はラスタ
走査中の2値部分画像の、ある画素(注目画素)を示し
ており、92はこの画素91の近傍8画素を含めた9画
素領域を表している。先に述べた、特願平2−2819
58記載のアウトライン抽出部32は、注目画素91の
位置をラスタ走査順に移動させて、各注目画素に対し、
92で示す9画素領域における各画素の状態(白画素か
黒画素か)に応じて、注目画素91とその注目画素の近
隣8画素との間に存在する輪郭ベクトル(水平ベクトル
もしくは垂直ベクトル)を検出している。そして、輪郭
ベクトルが存在する場合には、その辺ベクトルの始点座
標と向きのデータを抽出して、それら辺ベクトル間の接
続関係を更新しながら、粗輪郭ベクトルを抽出してい
る。
FIG. 9 shows the scanning mode of the raster scanning type binary partial image data output from the outline extraction control section 31, and the scanning of the raster scanning type binary partial image data input by the outline extraction section. The morphology is also shown. Outline extraction control unit 31 in a format like this
The outline extraction unit 32 inputs the binary partial image data output by. In FIG. 9, reference numeral 91 denotes a certain pixel (target pixel) of the binary partial image being raster-scanned, and 92 denotes a 9-pixel area including 8 pixels in the vicinity of this pixel 91. The aforementioned Japanese Patent Application No. 2-2819
The outline extraction unit 32 described in 58 moves the position of the target pixel 91 in the raster scanning order, and for each target pixel,
The contour vector (horizontal vector or vertical vector) existing between the target pixel 91 and the eight pixels adjacent to the target pixel is determined according to the state of each pixel (white pixel or black pixel) in the 9-pixel region indicated by 92. It is detecting. Then, when a contour vector exists, the rough contour vector is extracted while extracting the starting point coordinates and the orientation data of the side vector and updating the connection relationship between the side vectors.

【0040】図10は、注目画素91と注目画素91の
近隣画素間の輪郭ベクトルの抽出状態の一例を示す図で
ある。
FIG. 10 is a diagram showing an example of the extraction state of the contour vector between the target pixel 91 and neighboring pixels of the target pixel 91.

【0041】同図において、△印は垂直ベクトルの始点
を表し、○印は水平ベクトルの始点を表している。
In the figure, the mark Δ indicates the starting point of the vertical vector, and the mark ◯ indicates the starting point of the horizontal vector.

【0042】図11はアウトライン抽出部32によって
抽出された、粗輪郭ベクトルループの例を示している。
ここで、格子で区切られている各升目は、入力画像の画
素位置を示し、空白の升目は、白画素を意味し、黒色の
丸印は黒画素を表わしている。ここでも図10と同様
に、△は垂直ベクトルの始点を表し、○印は水平ベクト
ルの始点を表している。
FIG. 11 shows an example of the rough contour vector loop extracted by the outline extracting section 32.
Here, each square separated by a grid shows a pixel position of the input image, a blank square means a white pixel, and a black circle indicates a black pixel. Here, as in FIG. 10, Δ represents the starting point of the vertical vector, and the ∘ mark represents the starting point of the horizontal vector.

【0043】図11の例でわかるように、アウトライン
抽出部32では、黒画素の連結する領域を、水平ベクト
ルと垂直ベクトルが交互に連続する粗輪郭ベクトルルー
プとして抽出し、このベクトルの進む向きに向かって右
側が黒画素領域となるようにベクトルを抽出する。
As can be seen from the example of FIG. 11, the outline extraction unit 32 extracts a region in which black pixels are connected as a rough contour vector loop in which horizontal vectors and vertical vectors are alternately continuous, and sets the direction in which the vector advances. The vector is extracted so that the right side is a black pixel area.

【0044】また、各粗輪郭ベクトルの始点は、入力画
像の各画素の中間位置として抽出され、原画中の一画素
幅の線部分も、有意な幅を持った粗輪郭ループとして抽
出される。このように抽出された粗輪郭ベクトルループ
群は、図12に示すようなデータ形式で出力される。即
ち、画像中より抽出された総粗輪郭データ数aと、第1
輪郭ループから第a輪郭ループまでの各粗輪郭ループデ
ータ群を表わすデータからなり、各粗輪郭ループデータ
は、粗輪郭ループ内に存在する輪郭ベクトルの始点の総
数(輪郭辺ベクトルの総数とも考えることができる)
と、そのループを構成している順番に、各輪郭辺ベクト
ルの始点座標(x座標値,y座標値)の値(水平ベクト
ルの始点及び垂直ベクトルの始点が交互に並ぶ)の列よ
り構成されている。
The starting point of each rough contour vector is extracted as the intermediate position of each pixel of the input image, and the line portion of one pixel width in the original image is also extracted as a rough contour loop having a significant width. The rough contour vector loop group thus extracted is output in a data format as shown in FIG. That is, the total rough contour data number a extracted from the image and the first
Each of the rough contour loop data is composed of data representing each of the rough contour loop data groups from the contour loop to the a-th contour loop, and each rough contour loop data is the total number of starting points of the contour vector existing in the rough contour loop (also considered as the total number of contour side vectors. Can be done)
And a sequence of the starting point coordinates (x coordinate value, y coordinate value) of each contour side vector (the starting point of the horizontal vector and the starting point of the vertical vector are alternately arranged) in the order that constitutes the loop. ing.

【0045】<複数アウトライン平滑・変倍部104>
次に、複数アウトライン平滑・変倍部104は、粗輪郭
ベクトルデータをベクトルデータ形態で平滑化および変
倍処理を行う。例えば、図6の例で説明すると、図6の
単色領域テーブル41および粗輪郭ベクトル62〜66
を入力し、図13に示す単色領域テーブル41および粗
輪郭ベクトル62〜66のそれぞれを平滑・変倍した輪
郭ベクトル132〜136を出力する。
<Multiple outline smoothing / magnifying unit 104>
Next, the multiple outline smoothing / scaling unit 104 smoothes and scales the rough contour vector data in the form of vector data. For example, to explain with the example of FIG. 6, the monochrome region table 41 and the rough contour vectors 62 to 66 of FIG.
, And outputs contour vectors 132 to 136 obtained by smoothing and scaling the monochromatic region table 41 and the rough contour vectors 62 to 66 shown in FIG. 13, respectively.

【0046】図14は複数アウトライン平滑・変倍部1
04の構成を示すブロック図である。
FIG. 14 shows a plurality of outline smoothing / magnifying units 1.
It is a block diagram which shows the structure of 04.

【0047】複数アウトライン平滑・変倍部104は、
アウトライン平滑・変倍制御部141とアウトライン平
滑・変倍部142を有している。アウトライン平滑・変
倍制御部141は、例えば図2に示す単色領域抽出部1
02を実現するハードウェア構成例と同等のハードウェ
ア構成で構成される。当然、単色領域抽出部と同じハー
ドウェアを共有しても構わない。ここでは、図2のハー
ドウェア構成例を用いて説明する。
The plurality of outline smoothing / magnifying units 104 are
It has an outline smoothing / scaling control unit 141 and an outline smoothing / scaling unit 142. The outline smoothing / magnification control unit 141 is, for example, the monochrome region extraction unit 1 shown in FIG.
02 is configured with a hardware configuration equivalent to the hardware configuration example. Of course, the same hardware as the single color area extraction unit may be shared. Here, description will be given using the hardware configuration example of FIG.

【0048】[複数アウトライン平滑・変倍処理]図1
5に複数アウトライン平滑・変倍処理の手順を示す。以
下、図15を参照して、CPU21(ステップS35は
アウトライン平滑・変倍142で行う)複数アウトライ
ン平滑・変倍処理について述べる。
[Multiple outline smoothing / magnifying processing] FIG.
5 shows the procedure of multiple outline smoothing / magnifying processing. Hereinafter, a plurality of outline smoothing / scaling processes of the CPU 21 (step S35 is performed by the outline smoothing / scaling 142) will be described with reference to FIG.

【0049】ステップS31において、RAM26上の
一時的データ(現在処理している領域を示す変数など)
領域を初期化する。以下、ステップS32で対象とする
領域を変えながら、ステップS33で処理対象となる領
域がないと判断する(ステップS33の判定が肯定の場
合)まで、ステップS34からステップS36を繰り返
す。ステップS34では、単色領域テーブル41から各
領域の粗輪郭ベクトルを取り出し、RAM26またはデ
ィスク装置22を介して、アウトライン平滑・変倍部1
42へ渡す。ステップS35では、アウトライン平滑・
変倍部142において、入力粗輪郭ベクトルを平滑・変
倍して輪郭ベクトルを作成し、RAM26またはディス
ク装置22を介して、アウトライン平滑・変倍制御部1
41に渡す。ステップS36では、アウトライン平滑・
変倍制御部141において、輪郭ベクトルを単色領域テ
ーブルに登録する。また、単色領域テーブル41に記述
してある領域の位置(x座標,y座標)、大きさ(幅,
高さ)、画素数の値(後述する)に倍率設定部161
(図16)により設定した倍率を掛ける。
In step S31, temporary data on the RAM 26 (variables indicating the area currently being processed)
Initialize the area. Hereinafter, while changing the target area in step S32, steps S34 to S36 are repeated until it is determined in step S33 that there is no processing target area (when the determination in step S33 is affirmative). In step S34, the rough contour vector of each area is extracted from the single color area table 41, and the outline smoothing / magnifying unit 1 is executed via the RAM 26 or the disk device 22.
Pass to 42. In step S35, the outline smoothing /
In the scaling unit 142, the input rough contour vector is smoothed / scaled to create a contour vector, and the outline smoothing / scaling control unit 1 is executed via the RAM 26 or the disk device 22.
Pass it to 41. In step S36, the outline smoothing /
The scaling control unit 141 registers the contour vector in the monochrome region table. Also, the position (x coordinate, y coordinate) and size (width, width,
Height), the value of the number of pixels (described later), and the magnification setting unit 161.
Multiply the magnification set by (FIG. 16).

【0050】複数アウトライン平滑・変倍処理は、以上
のすべての処理が終了後、RAM26上の輪郭ベクトル
および単色領域テーブル41を出力する(必要であれば
ディスクI/O23を通してディスク装置22へ出力す
る)。
In the plural outline smoothing / magnifying processing, after all the above processing is completed, the contour vector on the RAM 26 and the monochromatic area table 41 are output (if necessary, output to the disk device 22 through the disk I / O 23). ).

【0051】アウトライン平滑・変倍部142は、例え
ば、本願出願人により先に出願された特願平3−345
062に記載の装置で構成される。以下に、特願平3−
345062に記載のアウトライン平滑・変倍部142
について簡単に述べる。
The outline smoothing / magnifying unit 142 is, for example, Japanese Patent Application No. 3-345 previously filed by the present applicant.
062. Below, Japanese Patent Application No. 3-
345062 outline smoothing / magnifying unit 142
Will be briefly described.

【0052】図16に、アウトライン平滑・変倍部14
2の構成を示す。
FIG. 16 shows an outline smoothing / magnifying unit 14
2 shows the configuration.

【0053】図16において、161は変倍率を設定す
る倍率設定部、162は第一平滑化および変倍部であ
り、倍率設定部161により設定された倍率で、入力し
た粗輪郭データを平滑化および変倍処理する。こうして
処理された結果を第二平滑化部163で、さらに平滑化
を行って最終出力とする。
In FIG. 16, reference numeral 161 is a magnification setting unit for setting a magnification, and 162 is a first smoothing and scaling unit, which smoothes the input rough contour data with the magnification set by the magnification setting unit 161. And perform scaling processing. The result processed in this way is further smoothed by the second smoothing unit 163 to be the final output.

【0054】変倍設定部161は、予めディップスイッ
チやダイヤルスイッチなどで設定されている固定値を、
第一平滑化・変倍部162に渡すものでもよいし、何か
外部よりI/F(インターフェース)を介して提供され
るなどの形式をとってもよく、入力として与えられる画
像サイズに対し、主走査(横)方向、副走査(縦)方
向、独立にそれぞれ何倍にするかの情報を与える部であ
る。
The variable magnification setting section 161 changes the fixed value preset by the dip switch or dial switch,
It may be passed to the first smoothing / magnifying unit 162, or may be in a form such as being provided from the outside via an I / F (interface), and the main scanning is performed for the image size given as an input. This is a section that gives information on how many times to multiply in the (horizontal) direction, the sub-scanning (vertical) direction, and independently.

【0055】第一平滑化・変倍部162は、倍率設定部
161より倍率情報を得て、平滑化・変倍処理を行う。
この第一平滑化・変倍部1162における第一平滑化処
理は、粗輪郭データの各閉ループ単位で行われる。各粗
輪郭データの各輪郭辺(水平ベクトル、もしくは垂直ベ
クトル)ベクトルに順次着目していき、各着目輪郭辺に
ベクトルに対し、それぞれの前後のベクトルの高々3本
まで(即ち、着目辺に前に3本、着目辺自体、それに着
目辺の後に3本の合計、高々7本までの辺ベクトル)の
お互いに連続する辺ベクトルの長さと向きの組み合わせ
によってパターンを分ける。これらそれぞれのパターン
に対して、着目辺に対する第一平滑化結果となる第一平
滑化後の輪郭点を定義してゆく。そして、第一平滑化後
の輪郭点の座標値およびその輪郭点が角の点なのか否か
を示す付加情報(以下、角点情報と称す)を出力する。
ここで、角の点と判断されなかった第一平滑化後の輪郭
点は、後の第二平滑化によって、さらに平滑化されるこ
とになる。
The first smoothing / magnifying section 162 obtains magnification information from the magnification setting section 161, and performs smoothing / magnifying processing.
The first smoothing process in the first smoothing / magnification changing unit 1162 is performed for each closed loop unit of the rough contour data. Focusing on each contour edge (horizontal vector or vertical vector) vector of each rough contour data in turn, up to three vectors before and after each vector for each contour edge (i.e. (3), the target side itself, and a total of three after the target side, and up to a maximum of seven side vectors). For each of these patterns, the contour points after the first smoothing that are the first smoothing results for the target side are defined. Then, the coordinate value of the contour point after the first smoothing and additional information indicating whether the contour point is a corner point (hereinafter referred to as corner point information) are output.
Here, the contour points after the first smoothing, which are not determined as the corner points, are further smoothed by the second smoothing later.

【0056】図17は、この様子即ち、着目粗輪郭辺ベ
クトルDi と着目粗輪郭辺ベクトルの前の3本の辺ベク
トルDi-1 ,Di-2 ,Di-3 および、着目粗輪郭辺ベク
トルの後の3本の辺ベクトルDi+1 ,Di+2 ,Di+3 の
様子と、着目辺Di に対して定義される第一平滑化後の
輪郭点の様子を示している。
FIG. 17 shows this state, that is, the target rough contour edge vector Di, the three edge vectors Di-1, Di-2, Di-3 before the target rough contour edge vector and the target rough contour edge vector. The state of the following three edge vectors Di + 1, Di + 2, Di + 3 and the state of the contour points after the first smoothing defined for the target edge Di are shown.

【0057】第二平滑化は、第一平滑化後のデータを入
力とする。即ち、閉ループ数、各閉ループ毎の輪郭点
数、各閉ループ毎の第一平滑化済みの輪郭点の座標値デ
ータ列、及び、各閉ループ毎の第一平滑化済みの輪郭点
の付加情報データ列入力して、第二平滑化後の輪郭点デ
ータを出力する。第二平滑化後の輪郭データは、図18
に示すように、閉ループ数(N)、各閉ループ毎の輪郭
点数テーブル(Li)、各閉ループ毎の第二平滑化済み
の輪郭点の座標データ列(Xi,Yi)より構成される。
In the second smoothing, the data after the first smoothing is input. That is, the number of closed loops, the number of contour points for each closed loop, the coordinate value data string of the first smoothed contour points for each closed loop, and the additional information data string input of the first smoothed contour points for each closed loop. Then, the contour point data after the second smoothing is output. The contour data after the second smoothing is shown in FIG.
As shown in, the number of closed loops (N), the contour point number table (Li) for each closed loop, and the coordinate data sequence (Xi, Yi) of the second smoothed contour points for each closed loop.

【0058】第二平滑化は、第一平滑化同様、輪郭ルー
プ単位に処理され、かつ各輪郭プル内においては、各輪
郭点毎に処理が進められる。各輪郭点について、注目し
ている輪郭点が角点である場合は、入力した輪郭点座標
値そのものをもって、その注目輪郭点に対する第二平滑
化済みの輪郭点座標データとする。注目している輪郭点
が非角点である場合は、前後の輪郭点座標値と、注目す
る輪郭点の座標値との加重平均により求まる値をもっ
て、注目している輪郭点に対する第二平滑化済みの輪郭
点座標値とする。
Similar to the first smoothing, the second smoothing is processed for each contour loop unit, and the processing is advanced for each contour point in each contour pull. For each contour point, if the focused contour point is a corner point, the input contour point coordinate value itself is used as the second smoothed contour point coordinate data for that focused contour point. When the contour point of interest is a non-angular point, the second smoothing for the contour point of interest is performed using the value obtained by the weighted average of the coordinate values of the contour points before and after and the coordinate value of the contour point of interest. Use the contour point coordinate values that have already been set.

【0059】<カラー画像再生部105>次に、カラー
画像再生部105では、複数アウトライン平滑・変倍部
104から出力された輪郭ベクトルと単色領域テーブル
41に記憶してある領域の色から、輪郭ベクトルが表現
する形状の領域を持つラスタ走査形式のカラー画像を再
生する。
<Color Image Reproducing Unit 105> Next, in the color image reproducing unit 105, the contour vector is output from the contour vectors output from the plurality of outline smoothing / magnifying units 104 and the color of the region stored in the monochrome region table 41. A color image in a raster scanning format having an area having a shape represented by a vector is reproduced.

【0060】図19はカラー画像再生部105の構成を
示すブロック図である。カラー画像再生部105は、2
値画像再生部51、カラー画像再生制御部52、イメー
ジメモリ53を備えている。2値画像再生部51は、本
出願人により先に出願された特願平3−172098も
しくは特願平3−172097もしくは特願平3−17
2099に記載の装置と同様の構成とされ、複数アウト
ライン平滑・変倍部104で出力された輪郭ベクトルを
入力し、その輪郭ベクトルで表現されるベクトル図形を
作成し、ベクトル図形により囲まれる領域を塗りつぶし
て2値画像を生成するとともにラスタ走査順に出力する
ことができる。
FIG. 19 is a block diagram showing the arrangement of the color image reproducing section 105. The color image reproduction unit 105 is 2
A value image reproduction unit 51, a color image reproduction control unit 52, and an image memory 53 are provided. The binary image reproducing unit 51 is provided in Japanese Patent Application No. 3-172098, Japanese Patent Application No. 3-172097, or Japanese Patent Application No. 3-1720 previously filed by the present applicant.
2099 has a configuration similar to that of the apparatus described in 2099, inputs the contour vector output from the plurality of outline smoothing / variable-magnification units 104, creates a vector graphic represented by the contour vector, and defines an area surrounded by the vector graphic. It is possible to generate a binary image by painting and output it in raster scanning order.

【0061】カラー画像再生制御部52は、図2に示す
単色領域抽出部102を実現するハードウェア構成例と
同等のハードウェア構成で構成される。当然、単色領域
抽出部と同じハードウェアを共有しても構わない。ここ
では、図2のハードウェア構成例を用いて説明する。
The color image reproduction control unit 52 has a hardware configuration equivalent to that of the hardware configuration example for realizing the monochrome region extraction unit 102 shown in FIG. Of course, the same hardware as the single color area extraction unit may be shared. Here, description will be given using the hardware configuration example of FIG.

【0062】イメージメモリ53は、画像を保持可能な
公知の蓄積装置(メモリ等)で構成するが、カラー画像
再生制御部52のRAM26またはディスク装置22を
利用しても構わない。
The image memory 53 is composed of a known storage device (memory or the like) capable of holding an image, but the RAM 26 of the color image reproduction controller 52 or the disk device 22 may be used.

【0063】[カラー画像再生処理]図20は、カラー
画像再生処理のCPU21(ステップS2005は2値
画像再生部51で行う)で行う処理手順を示すフローチ
ャートである。以下、図20に沿ってカラー画像再生処
理について述べる。
[Color Image Reproduction Processing] FIG. 20 is a flowchart showing the processing procedure performed by the CPU 21 (the step S2005 is performed by the binary image reproduction unit 51) of the color image reproduction processing. The color image reproduction process will be described below with reference to FIG.

【0064】まずステップS41において、RAM26
上の一時的データ(現在処理している領域を示す変数な
ど)領域を初期化する。以下、ステップS42で対象と
する領域を変えながら、ステップS46で処理対象とな
る領域がないと判断する。ステップS43の判断が肯定
の場合)まで、ステップS44からステップS46を繰
り返す。これにより、各単色領域をイメージメモリ53
に上書きしていく。ステップS44では、単色領域テー
ブル41から各領域の輪郭ベクトルを取り出して2値画
像再生部51へ渡す。ステップS45では、2値画像再
生部51において、入力輪郭ベクトルから2値画像を再
生し、ラスタ走査順にカラー画像再生制御部52へ出力
する。ステップS46では、単色領域テーブル41に記
述されている(現在注目している)領域の位置と大きさ
が示すイメージメモリ53上の矩形部分に対して、ラス
タ走査順に次のことを順次行う。
First, in step S41, the RAM 26
Initialize the above temporary data area (such as a variable indicating the area currently being processed). Hereinafter, while changing the target area in step S42, it is determined in step S46 that there is no processing target area. Until the determination in step S43 is positive), steps S44 to S46 are repeated. As a result, each monochromatic area is converted into the image memory 53
Overwriting. In step S44, the contour vector of each area is extracted from the monochrome area table 41 and passed to the binary image reproducing unit 51. In step S45, the binary image reproduction unit 51 reproduces the binary image from the input contour vector, and outputs the binary image to the color image reproduction control unit 52 in the raster scanning order. In step S46, the following is sequentially performed in the raster scanning order with respect to the rectangular portion on the image memory 53, which is indicated by the position and size of the (currently noticed) region described in the monochrome region table 41.

【0065】まず2値画像再生部51からの出力データ
が“1”の場合は、単色領域テーブル41に登録してい
る領域の色をイメージメモリ53に書き込み、2値画像
再生部51からの出力データが“0”の場合は、イメー
ジメモリ53に何も書き込まない。
First, when the output data from the binary image reproducing section 51 is "1", the color of the area registered in the monochromatic area table 41 is written in the image memory 53 and output from the binary image reproducing section 51. If the data is "0", nothing is written in the image memory 53.

【0066】次にステップS43に進み、全ての領域に
対してステップS44からステップS46の処理が終わ
ったと判断したら(ステップS43の判定が肯定の場
合)ステップS47に進み、イメージメモリ53のカラ
ー画像をラスタ走査順に出力する。
Next, in step S43, if it is determined that the processes in steps S44 to S46 have been completed for all the areas (if the determination in step S43 is affirmative), the process advances to step S47 to copy the color image in the image memory 53. Output in raster scan order.

【0067】<カラー画像出力部106>次に、カラー
画像出力部106は、カラー画像再生部105から出力
されたラスタ走査形式のカラー画像データを表示した
り、ハードコピーをとったり、あるいは、通信路へ出力
したりする。これらは、公知のカラー画像出力装置で構
成される。
<Color Image Output Unit 106> Next, the color image output unit 106 displays the color image data of the raster scanning format output from the color image reproducing unit 105, makes a hard copy, or uses the communication path. Or output to. These are configured by known color image output devices.

【0068】[第2実施例]前述の第1実施例の説明に
おける複数アウトライン抽出部103の後に、図21に
示すように可変長データ作成部107とアウトライン出
力部108を備えることにより、粗輪郭ベクトルの蓄積
または通信装置としても利用できる。
[Second Embodiment] By providing a variable length data creating unit 107 and an outline output unit 108 as shown in FIG. 21 after the plural outline extracting unit 103 in the description of the first embodiment, the rough contour is obtained. It can also be used as a vector storage or communication device.

【0069】可変長データ作成部107は、粗輪郭ベク
トルと単色領域テーブル41を入力し、粗輪郭ベクトル
を可変長形式の表現へと変換することにより、粗輪郭ベ
クトルのデータ量を削減する。ここで、前記可変長形式
の粗輪郭ベクトルは、注目ベクトルの始点座標と該注目
ベクトルに連続するベクトルの始点座標との差分を可変
長形式のデータとして表現したものであり、以下可変長
データと呼ぶことにする。可変長データ作成部107
は、可変長データと単色領域テーブルを出力する。例え
ば図6に示す単色領域テーブル41と粗輪郭ベクトルを
入力した場合、図22に示す可変長データ221〜22
6と単色領域テーブル41を出力する。
The variable length data creating section 107 inputs the rough contour vector and the monochromatic area table 41, and converts the rough contour vector into a variable length format expression, thereby reducing the data amount of the rough contour vector. Here, the variable-length format rough contour vector expresses the difference between the starting point coordinates of the attention vector and the starting point coordinates of the vector continuous to the attention vector as variable-length format data. I will call it. Variable length data creation unit 107
Outputs variable length data and a single color area table. For example, when the monochromatic area table 41 and the rough contour vector shown in FIG. 6 are input, the variable length data 221 to 22 shown in FIG.
6 and the monochromatic area table 41 are output.

【0070】アウトライン出力部108は、可変長デー
タ作成部107が出力した可変長データ及び単色領域テ
ーブルとを、磁気ディスクなどの蓄積装置に保存した
り、ファクシミリモデムやネットワークI/Fなどを介
して外部通信装置に送信したりする。
The outline output unit 108 stores the variable length data and the single color area table output by the variable length data creation unit 107 in a storage device such as a magnetic disk or via a facsimile modem or a network I / F. It is sent to an external communication device.

【0071】可変長データ作成部107は、図23に示
すように、可変長データ作成制御部71と本出願人によ
り先に出願された特願平4−152461記載のベクト
ルデータ作成部72とを有している。可変長データ作成
制御部71は、例えば図2に示す単色領域抽出部102
を実現するハードウェア構成例と同等のハードウェア構
成で構成される。当然、単色領域抽出部102と同じハ
ードウェアを共有しても構わない。ここでは、図2を用
いて説明する。特願平4−152461記載のベクトル
データ作成部72は、粗輪郭ベクトルを入力とし、注目
ベクトルの始点座標と該注目ベクトルに連続するベクト
ルの始点座標との差分をとり、その値を可変長で表現す
る。
As shown in FIG. 23, the variable length data creation unit 107 includes a variable length data creation control unit 71 and a vector data creation unit 72 described in Japanese Patent Application No. 4-152461 filed by the present applicant. Have The variable length data creation control unit 71 is, for example, the single color area extraction unit 102 shown in FIG.
The hardware configuration is the same as the hardware configuration example for realizing Of course, the same hardware as the single color area extraction unit 102 may be shared. Here, it demonstrates using FIG. The vector data creation unit 72 described in Japanese Patent Application No. 4-152461 takes a rough contour vector as an input, calculates the difference between the starting point coordinates of the vector of interest and the starting point coordinates of the vector continuous to the vector of interest, and sets the value to a variable length. Express.

【0072】アウトライン出力部108は、公知の蓄積
装置や通信装置で構成する。
The outline output unit 108 is composed of a known storage device or communication device.

【0073】[可変長データ作成処理]図24は、CP
U21(ステップS55はベクトルデータ作成部72で
実施される)により実行される可変長データ作成処理の
手順を示すフローチャートである。以下、図24を参照
して、可変長データ作成処理について述べる。
[Variable Length Data Creation Processing] FIG.
It is a flowchart which shows the procedure of the variable length data creation process performed by U21 (step S55 is implemented by the vector data creation part 72). The variable length data creation process will be described below with reference to FIG.

【0074】ステップS51において、RAM26上の
一時的データ(現在処理している領域を示す変数など)
領域を初期化する。以下、ステップS52で対象とする
領域を変えながら、ステップS53で処理対象となる領
域がないと判断する(ステップS53の判定が肯定の場
合)まで、ステップS54からステップS56を繰り返
す。ステップS54では、単色領域テーブル41から各
領域の粗輪郭ベクトルを取り出し、ベクトルデータ作成
部72へ、RAM26またはディスク装置22を介して
渡す。ステップS55では、ベクトルデータ作成部72
において、粗輪郭ベクトルを可変長データへ変換し、R
AM26またはディスク装置22を介して出力する。ス
テップS56では、可変長データ作成部72において、
可変長データを単色領域テーブル41に登録する。
In step S51, temporary data on the RAM 26 (variables indicating the area currently being processed)
Initialize the area. Hereinafter, while changing the target region in step S52, steps S54 to S56 are repeated until it is determined in step S53 that there is no target region (when the determination in step S53 is positive). In step S54, the rough contour vector of each area is extracted from the single color area table 41 and passed to the vector data creation unit 72 via the RAM 26 or the disk device 22. In step S55, the vector data creation unit 72
In, convert the rough contour vector to variable length data,
It is output via the AM 26 or the disk device 22. In step S56, the variable length data creation unit 72
The variable length data is registered in the single color area table 41.

【0075】可変長データ作成処理は、以上のすべての
処理が終了後、RAM26上の可変長データと単色領域
テーブル41を出力とする(必要があればディスクI/
O23を通してディスク装置22へ出力する)。
In the variable length data creation process, after all the above processes are completed, the variable length data on the RAM 26 and the monochromatic area table 41 are output (if necessary, the disk I / I).
Output to the disk device 22 through O23).

【0076】また、アウトライン出力部72により保存
や送信された可変長データは、特願平4−152461
記載のアウトライン平滑化・変倍部の一部機能を用い
て、粗輪郭ベクトルへと変換可能であり、粗輪郭ベクト
ルに変換した後、第1実施例における複数アウトライン
平滑・変倍部104へ入力しても構わない。
The variable length data stored or transmitted by the outline output unit 72 is the same as Japanese Patent Application No. 4-152461.
It is possible to convert to a rough contour vector by using a part of the function of the outline smoothing / scaling unit described, and after converting to the rough contour vector, input to the plurality of outline smoothing / scaling units 104 in the first embodiment. It doesn't matter.

【0077】[第3実施例]前述の第1実施例の説明に
おいて、単色領域2値化部102は、再帰的閾値法(領
域分割処理によるカラー画像情報の構造化,情報処理、
Vol.19,No.12,Dec,1978,pp.1130-1136) や限定色表現法
を用いた方法(1990年電子情報通信学会春期全国大
会D416 7−168)などの公知の領域分割方法を
用いて単色領域を抽出してもかまわない。例えば、該再
帰的閾値法は、カラー画像に対しRGB,HSI,YI
Qのカラー特徴におけるヒストグラムの谷から領域分割
の閾値を決定して領域を切り出すという処理を、切り出
したそれぞれの領域に対して再帰的に繰り返す。上記操
作により前記単色領域2値化処理で獲得した単色領域ラ
ベル配列と同等の結果を得ることができる。上記操作を
行った後、切り出した領域から、前記単色領域2値化処
理のステップS12以下のステップを実行し、2値部分
画像を作成するとともに、領域内の平均色を計算し単色
領域テーブル41に書き込むことにより、前記単色領域
2値化処理と同様の効果が得られる。
[Third Embodiment] In the above description of the first embodiment, the monochromatic region binarization unit 102 uses the recursive threshold method (structuring of color image information by region division processing, information processing,
Vol.19, No.12, Dec, 1978, pp.1130-1136) or a method using limited color representation method (1990 IEICE Spring National Convention D416 7-168). You may use and extract a monochrome area. For example, the recursive threshold method can be applied to RGB, HSI, YI for color images.
The process of determining the region division threshold value from the valley of the histogram in the Q color feature and cutting out the region is recursively repeated for each of the cut out regions. By the above operation, the same result as the single color area label array obtained by the single color area binarization processing can be obtained. After performing the above operation, the steps after step S12 of the monochrome region binarization processing are executed from the clipped region to create a binary partial image, and the average color in the region is calculated to calculate the monochrome region table 41. The same effect as that of the monochromatic region binarization process can be obtained by writing in

【0078】[第4実施例]第1実施例の説明におけ
る、単色領域抽出部102を、図25に示すように単色
領域指定部109を備えたものとし、以下の単色領域抽
出処理へ変更しても構わない。この単色領域指定部10
9は、カラー画像を表示可能な公知のディスプレイとマ
ウスやトラックボールなどの公知のポインティングデバ
イスから構成する。本実施例では、事前にユーザに単色
領域の一部を指定してもらい。そのデータをもとに単色
領域の抽出を行う。これにより、よりユーザの感覚に合
う、単色領域抽出が実現できる。
[Fourth Embodiment] In the description of the first embodiment, the monochromatic region extracting unit 102 is provided with a monochromatic region specifying unit 109 as shown in FIG. 25, and the following monochromatic region extracting process is performed. It doesn't matter. This monochromatic area designating section 10
Reference numeral 9 comprises a known display capable of displaying a color image and a known pointing device such as a mouse or a trackball. In this embodiment, the user is requested to specify a part of the monochrome area in advance. A single color area is extracted based on the data. As a result, it is possible to realize monochromatic region extraction that more closely matches the user's feeling.

【0079】[単色領域抽出処理手順]第4実施例にお
ける単色領域抽出部102の処理手順について述べる。
この単色領域抽出部102では、前述の第1実施例と同
様に、RAM26またはディスク装置22上のカラー画
像を入力し、RAM26上の一時的データとして単色領
域ラベル配列、出力データとして単色領域テーブル41
と出力2値画像を用いて行う。
[Monochromatic Region Extraction Processing Procedure] The processing procedure of the monochromatic area extraction unit 102 in the fourth embodiment will be described.
In the monochromatic area extracting unit 102, as in the first embodiment, the color image on the RAM 26 or the disk device 22 is input, the monochromatic area label array is provided as temporary data on the RAM 26, and the monochromatic area table 41 is provided as output data.
And the output binary image.

【0080】図26に第4実施例における単色領域抽出
処理の処理フローチャートを示す。以下、このCPU2
1で実行される処理フローチャートに沿って、単色領域
抽出処理について説明する。
FIG. 26 shows a processing flowchart of the single color area extraction processing in the fourth embodiment. Below, this CPU2
The monochrome region extraction process will be described with reference to the process flowchart executed in 1.

【0081】ステップS61は、単色領域指定部109
において、入力画像をディスプレイに表示し、ポインテ
ィングデバイスを用いてユーザが単色領域中の一部(一
点、複数点、領域など)を指定する。次にステップS6
2で、処理に必要となるRAM26上のデータ領域を初
期化する。ステップS63では、ステップS61でユー
ザが指定領域を単色領域テーブル41に登録(ユーザが
指定した部分の平均色を単色領域テーブル41に書き込
む)する。
In step S61, the monochromatic area designating unit 109 is used.
In, the input image is displayed on the display, and the user uses the pointing device to specify a part (one point, a plurality of points, a region, etc.) in the monochrome region. Then step S6
In step 2, a data area on the RAM 26 required for processing is initialized. In step S63, the user registers the designated area in the monochrome area table 41 (writes the average color of the portion designated by the user in the monochrome area table 41) in step S61.

【0082】以下、ステップS65でラスタ走査が終わ
ったと判定される(ステップS65の判定が肯定の場
合)まで、ステップS65からステップS68の処理を
入力カラー画像の各画素に対して、ラスタ走査順に繰り
返し行う(ステップS64)。ここで、処理中の画素を
注目画素と呼ぶ)。
Thereafter, the processes of steps S65 to S68 are repeated for each pixel of the input color image in the raster scanning order until it is determined in step S65 that the raster scanning is completed (when the determination in step S65 is affirmative). Perform (step S64). Here, the pixel being processed is referred to as a pixel of interest).

【0083】ステップS66では、注目画素と単色領域
テーブル41に登録されている各領域との色差を計算
し、色差が一番小さい領域を求める。ステップS67で
は、注目画素をステップS66で求めた領域に加え、単
色領域テーブル41を更新する。ステップS68では、
配列領域の注目画素に対する要素に比較領域の領域番号
を書き込み、ステップS64に進む。こうしてステップ
S66からステップS68を繰り返し、入力カラー画像
のすべての画素について処理を終えたら、ステップS6
9に進む。ステップS69とステップS70では第1実
施例と同様の処理を行う。
In step S66, the color difference between the pixel of interest and each area registered in the monochromatic area table 41 is calculated, and the area having the smallest color difference is obtained. In step S67, the pixel of interest is added to the region obtained in step S66, and the monochrome region table 41 is updated. In step S68,
The area number of the comparison area is written in the element for the pixel of interest in the array area, and the process proceeds to step S64. In this way, steps S66 to S68 are repeated, and when the processing is completed for all pixels of the input color image, step S6
Proceed to 9. In steps S69 and S70, the same processing as in the first embodiment is performed.

【0084】この第4実施例は、第3実施例を同様に変
更した構成でも構わない。
The fourth embodiment may have the same configuration as that of the third embodiment.

【0085】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、本発明はシステム或は装置に、本発
明を実施するプログラムを供給することによって達成さ
れる場合にも適用できる。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, the present invention can be applied to the case where it is achieved by supplying a system or apparatus with a program for implementing the present invention.

【0086】以上説明したように本実施例によれば、限
定色から構成されるカラー画像からアウトラインベクト
ルを抽出し、該抽出したアウトラインベクトル表現の状
態で平滑化および変倍処理し、その平滑化および変倍処
理されたアウトラインベクトルから、カラー画像を再生
することにより、主走査方向および副走査方向に独立
に、任意の倍率に変倍した画像を、高画質に得ることが
できるという効果を有する。
As described above, according to this embodiment, an outline vector is extracted from a color image composed of limited colors, and smoothing and scaling processing is performed in the state of the extracted outline vector expression, and the smoothing is performed. By reproducing the color image from the scaled outline vector, it is possible to obtain a high quality image which is scaled to an arbitrary magnification independently in the main scanning direction and the sub-scanning direction. .

【0087】また、カラー画像から抽出したアウトライ
ンベクトル表現の状態で蓄積または通信を行うことによ
り、通信データ量を削減できるという効果を有する。
Further, the amount of communication data can be reduced by storing or communicating in the state of the outline vector expression extracted from the color image.

【0088】[0088]

【発明の効果】以上説明したように本発明によれば、カ
ラー画像における単色領域を抽出し、その抽出した単色
領域の輪郭線情報を求め、その輪郭線情報に基づいた高
画質なカラー画像の平滑・変倍を行うことができる。
As described above, according to the present invention, a monochrome area in a color image is extracted, contour line information of the extracted monochrome area is obtained, and a high quality color image based on the contour information is obtained. Smoothing and scaling can be performed.

【0089】また本発明は、画像データ量を削減し、か
つ高画質を維持しながら、画像データを変倍できる効果
がある。
Further, the present invention has the effect that the image data can be scaled while reducing the amount of image data and maintaining high image quality.

【0090】[0090]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の画像処理装置の機能構成を
示す機能ブロック図である。
FIG. 1 is a functional block diagram showing a functional configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】本実施例の単色領域抽出部の構成例を示すブロ
ック図である。
FIG. 2 is a block diagram showing a configuration example of a monochrome region extraction unit of the present embodiment.

【図3】本実施例が対象とするカラー画像の一例を示す
図である。
FIG. 3 is a diagram showing an example of a color image targeted by the present embodiment.

【図4】本実施例の単色領域抽出部から出力されるデー
タの模式図である。
FIG. 4 is a schematic diagram of data output from a monochrome region extraction unit of this embodiment.

【図5】本実施例の単色領域抽出処理を示すフローチャ
ートである。
FIG. 5 is a flowchart showing a monochrome region extraction process of this embodiment.

【図6】本実施例の複数アウトライン抽出部の出力デー
タの模式図である。
FIG. 6 is a schematic diagram of output data of a plurality of outline extraction units of this embodiment.

【図7】本実施例の複数アウトライン抽出部の構成を示
すブロック図である。
FIG. 7 is a block diagram showing a configuration of a plurality of outline extraction units of this embodiment.

【図8】本実施例の複数アウトライン抽出処理を示すフ
ローチャートである。
FIG. 8 is a flowchart showing a plurality of outline extraction processing according to the present embodiment.

【図9】ラスタ走査型の2値画像から粗輪郭ベクトルを
抽出する態様を説明する図である。
FIG. 9 is a diagram illustrating a manner of extracting a rough contour vector from a raster scanning binary image.

【図10】ラスタ走査型の2値画像から粗輪郭ベクトル
を抽出する態様を説明する図である。
FIG. 10 is a diagram illustrating a mode of extracting a rough contour vector from a raster scanning binary image.

【図11】ラスタ走査型の2値画像から粗輪郭ベクトル
を抽出する態様を説明する図である。
FIG. 11 is a diagram illustrating a manner of extracting a rough contour vector from a raster scanning binary image.

【図12】本実施例のアウトライン抽出部より出力され
る粗輪郭ベクトルの形態を示す図である。
FIG. 12 is a diagram showing the form of a rough contour vector output from the outline extraction unit of the present embodiment.

【図13】本実施例の複数アウトライン平滑・変倍部の
出力データの模式図である。
FIG. 13 is a schematic diagram of output data of a plurality of outline smoothing / magnifying units according to the present embodiment.

【図14】本実施例の複数アウトライン平滑・変倍部の
構成を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of a plurality of outline smoothing / magnifying units according to the present embodiment.

【図15】本実施例の複数アウトライン平滑・変倍処理
を示すフローチャートである。
FIG. 15 is a flowchart showing a plurality of outline smoothing / magnifying processing of this embodiment.

【図16】本実施例のアウトライン平滑・変倍部の構成
を示すブロック図である。
FIG. 16 is a block diagram showing a configuration of an outline smoothing / magnifying unit according to the present embodiment.

【図17】第一平滑化の処理動作を説明する図である。FIG. 17 is a diagram for explaining the processing operation of the first smoothing.

【図18】第二平滑化後の輪郭データの形態図である。FIG. 18 is a morphological view of contour data after second smoothing.

【図19】本実施例のカラー画像再生部の構成を示すブ
ロック図である。
FIG. 19 is a block diagram showing a configuration of a color image reproducing unit according to the present embodiment.

【図20】本実施例におけるカラー画像再生処理を示す
フローチャートである。
FIG. 20 is a flowchart showing a color image reproduction process in this embodiment.

【図21】本発明の第2実施例の画像処理装置の機能構
成を示す機能ブロック図である。
FIG. 21 is a functional block diagram showing a functional configuration of the image processing apparatus of the second embodiment of the present invention.

【図22】第2実施例における可変長データ作成部の出
力を説明する図である。
FIG. 22 is a diagram for explaining the output of the variable length data creation unit in the second embodiment.

【図23】第2実施例の可変長データ作成部の構成を示
すブロック図である。
FIG. 23 is a block diagram showing the configuration of a variable length data creation unit of the second embodiment.

【図24】第2実施例の可変長データ作成処理を示すフ
ローチャートである。
FIG. 24 is a flowchart showing a variable length data creation process of the second embodiment.

【図25】本発明の第4実施例の画像処理装置の機能構
成を示す機能ブロック図である。
FIG. 25 is a functional block diagram showing a functional configuration of an image processing apparatus according to a fourth embodiment of the present invention.

【図26】第4実施例における単色領域抽出処理を示す
フローチャートである。
FIG. 26 is a flowchart showing a monochrome region extraction process in the fourth embodiment.

【符号の説明】[Explanation of symbols]

31 アウトライン抽出制御部 32 アウトライン抽出部 41 単色領域テーブル 51 2値画像再生部 52 カラー画像再生制御部 53 イメージメモリ 71 可変長データ作成制御部 72 ベクトルデータ作成部 101 カラー画像獲得部 102 単色領域抽出部 103 アウトライン抽出部 104 アウトライン平滑・変倍部 105 カラー画像再生部 106 カラー画像出力部 107 可変長データ作成部 108 アウトライン出力部 109 単色領域指定部 141 アウトライン平滑・変倍制御部 142 アウトライン平滑・変倍部 161 倍率設定部 162 第一平滑化・変倍部 163 第二平滑化部 31 Outline Extraction Control Section 32 Outline Extraction Section 41 Monochromatic Area Table 51 Binary Image Reproduction Section 52 Color Image Reproduction Control Section 53 Image Memory 71 Variable Length Data Creation Control Section 72 Vector Data Creation Section 101 Color Image Acquisition Section 102 Monochromatic Area Extraction Section 103 Outline Extracting Unit 104 Outline Smoothing / Scaling Unit 105 Color Image Reproducing Unit 106 Color Image Output Unit 107 Variable Length Data Creating Unit 108 Outline Outputing Unit 109 Single Color Area Designating Unit 141 Outline Smoothing / Scaling Control Unit 142 Outline Smoothing / Scaling Unit Part 161 Magnification setting part 162 First smoothing / magnifying part 163 Second smoothing part

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/68 310 A Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location G06F 15/68 310 A

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 カラー画像の単色領域を当該領域の色と
当該領域の境界を表わすベクトル座標で表現する画像処
理方法であって、 カラー画像から単色領域の色と形状を抽出する単色領域
抽出工程と、 その抽出された単色領域の形状から前記単色領域の境界
線を表わすベクトル座標を抽出する工程と、を備えるこ
とを特徴とする画像処理方法。
1. An image processing method for expressing a monochrome region of a color image by a color of the region and vector coordinates representing a boundary of the region, wherein a monochrome region extracting step of extracting a color and a shape of the monochrome region from the color image. And a step of extracting vector coordinates representing a boundary line of the monochrome region from the shape of the extracted monochrome region.
【請求項2】 前記単色領域の境界線を表わすベクトル
座標に基づいて前記単色領域の形状を平滑化するととも
に変倍する工程を更に有することを特徴とする請求項1
に記載の画像処理方法。
2. The method according to claim 1, further comprising the steps of smoothing the shape of the monochrome region and scaling the shape of the monochrome region based on vector coordinates representing a boundary line of the monochrome region.
The image processing method described in.
【請求項3】 前記単色領域の境界線を表わすベクトル
座標を可変長形式に変換する工程と、前記可変長形式の
ベクトル座標と前記単色領域の色とを用いて前記カラー
画像を出力する工程を更に有することを特徴とする請求
項1に記載の画像処理方法。
3. A step of converting vector coordinates representing a boundary line of the single color area into a variable length format, and a step of outputting the color image using the vector coordinates of the variable length format and the color of the single color area. The image processing method according to claim 1, further comprising:
【請求項4】 前記単色領域の境界線のベクトル座標と
前記単色領域の色とからカラー画像を再生する工程と、
その再生したカラー画像を出力する工程とを更に有する
ことを特徴とする請求項1に記載の画像処理方法。
4. A step of reproducing a color image from the vector coordinates of the boundary line of the monochrome area and the color of the monochrome area,
The image processing method according to claim 1, further comprising the step of outputting the reproduced color image.
【請求項5】 前記単色領域抽出工程は、入力カラー画
像をラスタ走査することにより色差が閾値以下の画素を
単色領域として抽出し、前記単色領域の形状を前記単色
領域に外接する外接矩形の2値画像として出力するとと
もに、前記単色領域の色と画素数、前記外接矩形のサイ
ズと位置とを出力することを特徴とする請求項1〜4の
いずれか1項に記載の画像処理方法。
5. The monochromatic region extracting step extracts pixels having a color difference of not more than a threshold value as a monochromatic region by raster-scanning an input color image, and the shape of the monochromatic region is a circumscribed rectangle that circumscribes the monochromatic region. The image processing method according to any one of claims 1 to 4, wherein the color image and the number of pixels of the monochromatic area, and the size and position of the circumscribing rectangle are output together with outputting as a value image.
【請求項6】 前記単色領域抽出工程は単色領域を指定
する工程を含み、指定された単色領域の一部との色差が
閾値以下の画素を同じ単色領域として抽出し、前記単色
領域の形状を当該単色領域に外接する外接矩形の2値画
像として出力するとともに、前記単色領域の色と画素
数、前記外接矩形のサイズと位置とを出力することを特
徴とする請求項1〜4のいずれか1項に記載の画像処理
方法。
6. The monochromatic region extracting step includes a step of designating a monochromatic region, extracting pixels whose color difference from a portion of the designated monochromatic region is a threshold value or less as the same monochromatic region, and extracting the shape of the monochromatic region. The binary image of a circumscribing rectangle circumscribing the monochromatic region is output, and the color and the number of pixels of the monochromatic region and the size and position of the circumscribing rectangle are output. The image processing method according to item 1.
【請求項7】 前記カラー画像の再生は、各単色領域に
対して色と境界のベクトル座標から各単色領域のみを再
生したカラー画像を作成し、各単色領域の外接矩形の大
きさと位置の情報を用いて前記カラー画像を重ね合わせ
ることにより行われることを特徴とする請求項4に記載
の画像処理方法。
7. The color image is reproduced by creating a color image in which only the single color areas are reproduced from the vector coordinates of the color and the boundary for each single color area, and the size and position information of the circumscribing rectangle of each single color area is created. The image processing method according to claim 4, which is performed by superimposing the color images with each other.
【請求項8】 カラー画像を入力する画像入力手段と、 前記画像入力手段から入力されたカラー画像における単
色領域の色と形状を抽出する単色領域抽出手段と、 前記単色領域抽出手段によって抽出された単色領域の形
状に基づいて前記単色領域の境界を表わすベクトル座標
を抽出するベクトル抽出手段と、を備えることを特徴と
する画像処理装置。
8. An image input unit for inputting a color image, a monochrome region extracting unit for extracting a color and a shape of a monochrome region in the color image inputted from the image input unit, and an monochrome region extracting unit for extracting the color and shape. An image processing device, comprising: vector extraction means for extracting vector coordinates representing a boundary of the monochrome region based on the shape of the monochrome region.
【請求項9】 前記ベクトル抽出手段で得られた前記境
界を表わすベクトル座標に基づいて、前記単色領域の形
状を平滑化して変倍するベクトル平滑・変倍手段を更に
有することを特徴とする請求項8に記載の画像処理装
置。
9. The apparatus further comprises vector smoothing / magnifying means for smoothing the shape of the monochromatic area and scaling the shape based on the vector coordinates representing the boundary obtained by the vector extracting means. Item 8. The image processing device according to item 8.
【請求項10】 前記ベクトル抽出手段で得られた前記
境界を表わすベクトル座標を可変長形式に変換する可変
長データ作成手段と、前記可変長データ作成手段により
得られた可変長形式のベクトル座標表現と前記単色領域
抽出手段から得られた前記単色領域の色とを用いて前記
カラー画像を出力する出力手段を更に有することを特徴
とする請求項8に記載の画像処理装置。
10. A variable-length data creating unit that converts the vector coordinates representing the boundary obtained by the vector extracting unit into a variable-length format, and a variable-length format vector coordinate expression obtained by the variable-length data creating unit. 9. The image processing apparatus according to claim 8, further comprising an output unit that outputs the color image using the color of the single color region obtained from the single color region extraction unit.
【請求項11】 前記ベクトル平滑・変倍手段で得られ
た前記ベクトル座標表現と前記単色領域抽出手段から得
られた前記単色領域の色からカラー画像を再生するカラ
ー画像再生手段と、前記カラー画像再生手段で再生した
カラー画像を出力するカラー画像出力手段を更に有する
ことを特徴とする請求項9に記載の画像処理装置。
11. A color image reproducing unit for reproducing a color image from the vector coordinate expression obtained by the vector smoothing / magnifying unit and the color of the single color region obtained from the single color region extracting unit, and the color image. The image processing apparatus according to claim 9, further comprising a color image output unit that outputs the color image reproduced by the reproducing unit.
【請求項12】 前記単色領域抽出手段は更に、単色領
域を指定する指定手段を備えることを特徴とする請求項
8〜11のいずれか1項に記載の画像処理装置。
12. The image processing apparatus according to claim 8, wherein the monochrome region extraction unit further includes a designation unit that designates a monochrome region.
JP6129027A 1994-06-10 1994-06-10 Method and device for processing image Withdrawn JPH07334648A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6129027A JPH07334648A (en) 1994-06-10 1994-06-10 Method and device for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6129027A JPH07334648A (en) 1994-06-10 1994-06-10 Method and device for processing image

Publications (1)

Publication Number Publication Date
JPH07334648A true JPH07334648A (en) 1995-12-22

Family

ID=14999328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6129027A Withdrawn JPH07334648A (en) 1994-06-10 1994-06-10 Method and device for processing image

Country Status (1)

Country Link
JP (1) JPH07334648A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323870A (en) * 2006-07-26 2006-11-30 Sharp Corp Image subtractive color processing device, image encoding device, image decoding device, image subtractive color processing method, image encoding method and image decoding method
CN100343047C (en) * 2004-03-02 2007-10-17 精工爱普生株式会社 Apparatus for, and method of, forming parenthesized image, apparatus for, and method of, forming externally framed image, program, and memory medium
JP2009271679A (en) * 2008-05-02 2009-11-19 Canon Inc Image processor, image processing method, and image processing program
US8284451B2 (en) 2008-05-07 2012-10-09 Canon Kabushiki Kaisha Generating print data based on attributes of segmented regions of an input image
US8558838B2 (en) 2005-07-01 2013-10-15 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and storage medium storing image processing program
JP2017510167A (en) * 2014-02-07 2017-04-06 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Scheme for determining the location and timing of advertisements and other inserts in the media
US10531133B2 (en) 2007-03-22 2020-01-07 Sony Interactive Entertainment LLC Scheme for determining the locations and timing of advertisements and other insertions in media

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100343047C (en) * 2004-03-02 2007-10-17 精工爱普生株式会社 Apparatus for, and method of, forming parenthesized image, apparatus for, and method of, forming externally framed image, program, and memory medium
US8558838B2 (en) 2005-07-01 2013-10-15 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and storage medium storing image processing program
JP2006323870A (en) * 2006-07-26 2006-11-30 Sharp Corp Image subtractive color processing device, image encoding device, image decoding device, image subtractive color processing method, image encoding method and image decoding method
US10531133B2 (en) 2007-03-22 2020-01-07 Sony Interactive Entertainment LLC Scheme for determining the locations and timing of advertisements and other insertions in media
US10715839B2 (en) 2007-03-22 2020-07-14 Sony Interactive Entertainment LLC Scheme for determining the locations and timing of advertisements and other insertions in media
JP2009271679A (en) * 2008-05-02 2009-11-19 Canon Inc Image processor, image processing method, and image processing program
US8620068B2 (en) 2008-05-02 2013-12-31 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and medium storing program thereof
US8284451B2 (en) 2008-05-07 2012-10-09 Canon Kabushiki Kaisha Generating print data based on attributes of segmented regions of an input image
JP2017510167A (en) * 2014-02-07 2017-04-06 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Scheme for determining the location and timing of advertisements and other inserts in the media
JP2019110544A (en) * 2014-02-07 2019-07-04 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Scheme for determining locations and timing of advertisements and other insertions in media
JP2021100263A (en) * 2014-02-07 2021-07-01 ソニー・インタラクティブエンタテインメント エルエルシー Scheme to determine location and timing of advertisements and other insert in media

Similar Documents

Publication Publication Date Title
EP0650287B1 (en) Image processing method and apparatus
JP3031613B2 (en) Color / shade image input / output device and input / output method
US6556711B2 (en) Image processing apparatus and method
CN104732479A (en) Resizing An Image
US6289136B1 (en) Image processing method and apparatus
CN112991165B (en) Image processing method and device
JPH07334648A (en) Method and device for processing image
JP2004120092A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
JP5111226B2 (en) Image processing method, image processing apparatus, program thereof, and computer-readable storage medium
JP3026706B2 (en) Image processing device
KR100602739B1 (en) Semi-automatic field based image metamorphosis using recursive control-line matching
JP3647071B2 (en) Image processing apparatus and method
JP3624013B2 (en) Image processing method and apparatus
KR20070119482A (en) Image resampling method
US20030063812A1 (en) System and method for compressing image files while preserving visually significant aspects
JP4115073B2 (en) Image processing apparatus and image processing method
JP3054338B2 (en) Image processing apparatus and method
JP4186832B2 (en) Image processing device
CN111626935B (en) Pixel map scaling method, game content generation method and device
JP4043629B2 (en) Image data conversion method, image componentization method, recording medium recording an image data conversion program, and recording medium recording an image componentization program
JPH07210669A (en) Image processor and its control method
JP3054299B2 (en) Image processing apparatus and method
JPH05342340A (en) Method for picture processing and device therefor
JPH07262361A (en) Method and device for image processing
EP0263584A2 (en) Scan-in polygonal extraction of video images

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010904