JP2006048180A - Image processor, image processing method and image processing program - Google Patents

Image processor, image processing method and image processing program Download PDF

Info

Publication number
JP2006048180A
JP2006048180A JP2004224851A JP2004224851A JP2006048180A JP 2006048180 A JP2006048180 A JP 2006048180A JP 2004224851 A JP2004224851 A JP 2004224851A JP 2004224851 A JP2004224851 A JP 2004224851A JP 2006048180 A JP2006048180 A JP 2006048180A
Authority
JP
Japan
Prior art keywords
pattern
data
image
vector data
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004224851A
Other languages
Japanese (ja)
Inventor
Masaharu Iizuka
真玄 飯塚
Masatoshi Shirasaki
昌俊 白崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SKY COM KK
TKC Corp
Original Assignee
SKY COM KK
TKC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SKY COM KK, TKC Corp filed Critical SKY COM KK
Priority to JP2004224851A priority Critical patent/JP2006048180A/en
Publication of JP2006048180A publication Critical patent/JP2006048180A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce data amounts while maintaining the image quality of image data. <P>SOLUTION: This image processor is provided with an outline conversion part 213 for converting the outline of each of connected components included in image data configured of dots into vector data, a pattern holding part 215b for storing the connected components converted into the vector data by adding an index as the pattern of each of the connected components, a similarity determination part 215a for determining whether or not the connected components converted into the vector data are similar to the pattern stored by the pattern storing part, an index extracting part 215c for converting each of the connected components included in the image data into the index of the pattern whose similarity to the connected components is determined by the similarity judging part and position information on the image data and a vector data generating part 216 for outputting the index and the position information and the pattern as vector data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、読み取った画像の保存、印刷、表示、他の画像処理装置へ送信などをおこなう画像処理装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program for storing, printing, displaying, and transmitting a read image to another image processing apparatus.

従来技術にかかる画像処理装置は、通常、オフィス文書や手書きの原稿など画像をスキャナなどによって光学的に読み取り、読み取られたイメージデータをドットデータとして保持し、当該ドットデータを印刷したり、表示画面に表示したり、他の画像処理装置へ送信したりする。この画像処理装置は、たとえば、デジタル複写機、ファクシミリ、電子ファイリング装置などに利用されている。   An image processing apparatus according to a conventional technique usually optically reads an image such as an office document or a handwritten manuscript with a scanner, holds the read image data as dot data, prints the dot data, Or sent to another image processing apparatus. This image processing apparatus is used in, for example, a digital copying machine, a facsimile machine, an electronic filing apparatus, and the like.

また、このような画像処理装置では、データ量を少なくし、効率的に画像データを保持したり、他の画像処理装置へ送信するために、上記ドットデータを圧縮して保持する。ドットにより表現されるラスター画像に圧縮をおこなう方式には、ランレングス圧縮やエントロピー圧縮などによる方式が知られている。   Also, in such an image processing apparatus, the dot data is compressed and held in order to reduce the amount of data and efficiently hold the image data or transmit it to another image processing apparatus. As a method for compressing a raster image expressed by dots, methods such as run length compression and entropy compression are known.

しかしながら、ドットデータによって構成される画像は、読み取り時の解像度が低い場合には、文字や図形のアウトラインに光学的スキャナで読み取った画像特有のガタガタやギザギザ(いわゆるドット感)が生じてしまい、オリジナル画像と比較した場合に画像が劣化して見えることになるといった問題点があった。   However, when the image composed of dot data has a low resolution at the time of reading, the outline of characters and figures will cause rattling and jaggedness (so-called dot feeling) peculiar to the image read by the optical scanner, and the original When compared with the image, there is a problem that the image appears to deteriorate.

一方、見た目の劣化を回避するために、読み取り時の解像度を高くすると、上記問題点をある程度回避することができるが、その分、画像のデータ量が増加してしまい、画像処理装置内での保持や、他の画像処理装置への送信が効率的におこなえないという問題点があった。特に、カラー画像の場合、モノクロ画像に比べデータ量が増大するため、より効率的なデータ圧縮が要求される。また、小型端末へ画像データを送信する場合、小型端末の記憶容量は一般的に小さいため、送信するファイルもなるべく容量の小さいものであることが望まれる。   On the other hand, if the resolution at the time of reading is increased in order to avoid visual deterioration, the above problem can be avoided to some extent. However, the amount of data of the image increases, and the amount of data in the image processing apparatus increases. There has been a problem that it cannot be efficiently held or transmitted to another image processing apparatus. In particular, in the case of a color image, the amount of data increases compared to a monochrome image, and thus more efficient data compression is required. In addition, when transmitting image data to a small terminal, since the storage capacity of the small terminal is generally small, it is desirable that the file to be transmitted has as small a capacity as possible.

この発明は、上述した従来技術による問題点を解決するため、ドットによって構成されるイメージデータを、オリジナルの画像と比較して見た目を劣化させることなくデータ量を削減することができる画像処理装置、画像処理方法ならびに画像処理プログラムを提供することを目的とする。   In order to solve the above-described problems caused by the prior art, the present invention can reduce the amount of data without deteriorating the appearance of image data composed of dots compared to the original image, An object is to provide an image processing method and an image processing program.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる画像処理装置は、ドットによって構成されるイメージデータを、前記ドットが連結したひとまとまりの領域の連結成分毎に、当該連結成分のアウトラインを表すベクトルデータにそれぞれ変換するアウトライン変換手段と、前記アウトライン変換手段によって変換されたベクトルデータを所定のパターン毎にインデックスを付して保持するパターン保持手段と、前記アウトライン変換手段によってベクトルデータに変換された前記連結成分と、前記パターン保持手段に保持されたいずれかのパターンとの類似を判断する類似判断手段と、前記イメージデータに含まれる各連結成分を、前記類似判断手段が当該連結成分と類似すると判断する前記パターンのインデックスおよびイメージデータ上の位置情報に変換するインデックス化手段と、前記インデックス化手段によって変換された前記インデックスおよび前記位置情報と、前記パターン保持手段が保持する前記パターンと、を前記イメージデータのベクトルデータとして所定のフォーマットでファイル出力するベクトルデータ出力手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the image processing apparatus according to the first aspect of the present invention provides image data composed of dots for each connected component of a group of regions connected by the dots. Outline conversion means for respectively converting vector data representing outlines of connected components, pattern holding means for holding the vector data converted by the outline conversion means with an index for each predetermined pattern, and the outline conversion means Similarity determination means for determining similarity between the connected component converted into vector data and any of the patterns held in the pattern holding means; and the similarity determination means for each connected component included in the image data. The index of the pattern that is judged to be similar to the connected component And indexing means for converting to position information on the image data, the index and the position information converted by the indexing means, and the pattern held by the pattern holding means as vector data of the image data Vector data output means for outputting a file in a predetermined format.

この請求項1の発明によれば、ドットによって構成されるイメージデータ(ラスター画像)をベクトルデータに変換する際、イメージデータに含まれている連結成分をパターン化することができる。イメージデータに含まれる連結成分は、パターンによってアウトラインが特定されるため、ベクトルデータには重複するデータが含まれない。よって、イメージデータを、データ量の少ないベクトルデータに変換することができる。   According to the first aspect of the present invention, when image data (raster image) composed of dots is converted into vector data, the connected components included in the image data can be patterned. Since the outline of the connected component included in the image data is specified by the pattern, the vector data does not include overlapping data. Therefore, the image data can be converted into vector data with a small amount of data.

また、請求項2の発明にかかる画像処理装置は、請求項1に記載の発明において、前記ベクトルデータ出力手段から出力された所定のファイルフォーマットの前記ベクトルデータから、前記パターンのインデックスを抽出するインデックス抽出手段と、前記インデックス化手段によって抽出された前記インデックスに対応する、前記ベクトルデータ内の前記パターンを抽出するパターン抽出手段と、前記パターン抽出手段によって抽出された前記インデックスに対応する前記パターンを、前記インデックス化手段が出力する前記位置情報に基づいて組み合わせることによって、前記ドットによって構成されるイメージデータを復元するイメージ復元手段と、を備えることを特徴とする。   An image processing apparatus according to a second aspect of the present invention provides the image processing apparatus according to the first aspect, wherein the index of the pattern is extracted from the vector data in a predetermined file format output from the vector data output means. Extracting means, pattern extracting means for extracting the pattern in the vector data corresponding to the index extracted by the indexing means, and the pattern corresponding to the index extracted by the pattern extracting means, And image restoration means for restoring image data constituted by the dots by combining them based on the position information output by the indexing means.

この請求項2の発明によれば、請求項1に記載の発明にかかる画像処理装置によってベクトルデータに変換されたイメージデータを、ドットによって構成されるイメージデータに復元することができる。   According to the second aspect of the present invention, the image data converted into vector data by the image processing apparatus according to the first aspect of the invention can be restored to image data composed of dots.

また、請求項3の発明にかかる画像処理装置は、請求項2に記載の発明において、前記アウトライン変換手段によってベクトルデータに変換された前記連結成分を、当該連結成分のアウトラインが外接する矩形の一辺の長さをすべて等しくなるよう変倍することによって正規化し、前記類似判断手段に出力する正規化手段を備え、前記インデックス化手段は、前記正規化手段が前記連結成分を正規化した際の倍率情報を前記インデックスおよび前記位置情報とともに出力し、前記イメージ復元手段は、前記インデックス化手段が出力する倍率情報に基づいて前記パターンの倍率を復元することを特徴とする。   According to a third aspect of the present invention, there is provided the image processing apparatus according to the second aspect, wherein the connected component converted into vector data by the outline converting means is connected to one side of a rectangle circumscribed by the outline of the connected component. Normalization means by scaling all the lengths of the two to be equal, and normalization means for outputting to the similarity determination means, wherein the indexing means is a magnification when the normalization means normalizes the connected components Information is output together with the index and the position information, and the image restoration means restores the magnification of the pattern based on the magnification information output by the indexing means.

この請求項3の発明によれば、イメージデータに含まれる連結成分を正規化するため、類似すると判断される連結成分数が多くなり、パターンの数を減らすことができる。よって、イメージデータを、よりデータ量の少ないベクトルデータに変換することができる。また、正規化した際の倍率情報に基づいて正規化されたパターンを元の倍率に復元することができる。   According to the third aspect of the present invention, since the connected components included in the image data are normalized, the number of connected components determined to be similar increases, and the number of patterns can be reduced. Therefore, the image data can be converted into vector data with a smaller data amount. In addition, the normalized pattern based on the magnification information at the time of normalization can be restored to the original magnification.

また、請求項4の発明にかかる画像処理装置は、請求項1に記載の発明において、前記ベクトルデータ出力手段が出力する前記ベクトルデータを、ネットワークを介して他の画像処理装置へ送信するデータ送信手段を備えることを特徴とする。   According to a fourth aspect of the present invention, there is provided an image processing apparatus according to the first aspect, wherein the vector data output by the vector data output means is transmitted to another image processing apparatus via a network. Means are provided.

この請求項4に記載の発明によれば、請求項1に記載の発明にかかる画像処理装置でベクトルデータに変換されたイメージデータを他の画像処理装置に送信することができる。当該画像データはデータ量が少ないため、効率的なデータ送信をおこなうことができる。   According to the fourth aspect of the present invention, the image data converted into the vector data by the image processing apparatus according to the first aspect can be transmitted to another image processing apparatus. Since the image data has a small amount of data, efficient data transmission can be performed.

また、請求項5の発明にかかる画像処理装置は、請求項2に記載の発明において、前記ベクトルデータ出力手段が出力する前記ベクトルデータを記憶するデータ記憶手段と、前記データ記憶手段に記憶されている前記ベクトルデータを読み出し、前記インデックス抽出手段に出力するデータ読出手段と、を備えることを特徴とする。   An image processing apparatus according to a fifth aspect of the present invention is the image processing apparatus according to the second aspect, wherein the vector data output from the vector data output means is stored in the data storage means. Data reading means for reading out the vector data and outputting the vector data to the index extraction means.

この請求項5に記載の発明によれば、請求項2に記載の発明にかかる画像処理装置でベクトルデータに変換されたイメージデータを記憶することができる。さらに、記憶した当該イメージデータを復元し、利用することができる。   According to the fifth aspect of the present invention, the image data converted into vector data by the image processing apparatus according to the second aspect of the present invention can be stored. Furthermore, the stored image data can be restored and used.

また、請求項6の発明にかかる画像処理方法は、ドットによって構成されるイメージデータを、前記ドットが連結したひとまとまりの領域の連結成分毎に、当該連結成分のアウトラインを表すベクトルデータにそれぞれ変換するアウトライン変換工程と、前記アウトライン変換工程によって変換されたベクトルデータを所定のパターン毎にインデックスを付して保持するパターン保持工程と、前記アウトライン変換工程によってベクトルデータに変換された前記連結成分と、前記パターン保持工程に保持されたいずれかのパターンとの類似を判断する類似判断工程と、前記イメージデータに含まれる各連結成分を、前記類似判断工程が当該連結成分と類似すると判断する前記パターンのインデックスおよびイメージデータ上の位置情報に変換するインデックス化工程と、前記インデックス化工程によって変換された前記インデックスおよび前記位置情報と、前記パターン保持工程が保持する前記パターンと、を前記イメージデータのベクトルデータとして所定のフォーマットでファイル出力するベクトルデータ出力工程と、を備えることを特徴とする。   According to a sixth aspect of the present invention, there is provided an image processing method for converting image data composed of dots into vector data representing outlines of connected components for each connected component of a group of regions connected by the dots. An outline conversion step, a pattern holding step for indexing and holding the vector data converted by the outline conversion step for each predetermined pattern, and the connected component converted to vector data by the outline conversion step, A similarity determination step for determining similarity to any one of the patterns held in the pattern holding step, and each of the connected components included in the image data of the pattern that the similarity determination step determines to be similar to the connected components. Convert to position information on index and image data Vector data for outputting a file in a predetermined format as vector data of the image data, the indexing step, the index and the position information converted by the indexing step, and the pattern held by the pattern holding step And an output step.

この請求項6の発明によれば、ドットによって構成されるイメージデータ(ラスター画像)をベクトルデータに変換する際、イメージデータに含まれている連結成分をパターン化することができる。イメージデータに含まれる連結成分は、パターンによってアウトラインが特定されるため、ベクトルデータには重複するデータが含まれない。よって、イメージデータを、データ量の少ないベクトルデータに変換することができる。   According to the sixth aspect of the present invention, when image data (raster image) composed of dots is converted into vector data, the connected components included in the image data can be patterned. Since the outline of the connected component included in the image data is specified by the pattern, the vector data does not include overlapping data. Therefore, the image data can be converted into vector data with a small amount of data.

また、請求項7の発明にかかる画像処理方法は、請求項6に記載の発明において、前記ベクトルデータ出力工程から出力された所定のファイルフォーマットの前記ベクトルデータから、前記パターンのインデックスを抽出するインデックス抽出工程と、前記インデックス化工程によって抽出された前記インデックスに対応する、前記ベクトルデータ内の前記パターンを抽出するパターン抽出工程と、前記パターン抽出工程によって抽出された前記インデックスに対応する前記パターンを、前記インデックス化工程が出力する前記位置情報に基づいて組み合わせることによって、前記ドットによって構成されるイメージデータを復元するイメージ復元工程と、を含むことを特徴とする。   An image processing method according to a seventh aspect of the invention is the image processing method according to the sixth aspect, wherein the index of the pattern is extracted from the vector data of a predetermined file format output from the vector data output step. An extraction step, a pattern extraction step for extracting the pattern in the vector data corresponding to the index extracted by the indexing step, and the pattern corresponding to the index extracted by the pattern extraction step. An image restoration step of restoring image data constituted by the dots by combining them based on the position information output by the indexing step.

この請求項7の発明によれば、請求項6に記載の発明にかかる画像処理方法によってベクトルデータに変換されたイメージデータを、ドットによって構成されるイメージデータに復元することができる。   According to the seventh aspect of the invention, the image data converted into the vector data by the image processing method according to the sixth aspect of the invention can be restored to image data composed of dots.

また、請求項8の発明にかかる画像処理方法は、請求項7に記載の発明において、前記アウトライン変換工程によってベクトルデータに変換された前記連結成分を、当該連結成分のアウトラインが外接する矩形の一辺の長さをすべて等しくなるよう変倍することによって正規化し、前記類似判断工程に出力する正規化工程を含み、前記インデックス化工程は、前記正規化工程が前記連結成分を正規化した際の倍率情報を前記インデックスおよび前記位置情報とともに出力し、前記イメージ復元工程は、前記インデックス化工程が出力する倍率情報に基づいて前記パターンの倍率を復元することを特徴とする。   An image processing method according to an eighth aspect of the present invention is the image processing method according to the seventh aspect, wherein the connected component converted into the vector data by the outline converting step is one side of a rectangle circumscribed by the outline of the connected component. And normalizing by scaling all the lengths to be equal, and outputting to the similarity determination step, the indexing step is a magnification when the normalization step normalizes the connected components Information is output together with the index and the position information, and the image restoration step restores the magnification of the pattern based on the magnification information output by the indexing step.

この請求項8の発明によれば、イメージデータに含まれる連結成分を正規化するため、類似すると判断される連結成分数が多くなり、パターンの数を減らすことができる。よって、イメージデータを、よりデータ量の少ないベクトルデータに変換することができる。また、正規化した際の倍率情報に基づいて正規化されたパターンを元の倍率に復元することができる。   According to the eighth aspect of the invention, since the connected components included in the image data are normalized, the number of connected components determined to be similar increases, and the number of patterns can be reduced. Therefore, the image data can be converted into vector data with a smaller data amount. In addition, the normalized pattern based on the magnification information at the time of normalization can be restored to the original magnification.

また、請求項9の発明にかかる画像処理方法は、請求項6に記載の発明において、前記類似判断工程では、前記連結成分どうしが類似するか否かの判断基準をユーザが設定することが可能であることを特徴とする。   According to a ninth aspect of the present invention, in the image processing method according to the sixth aspect, in the similarity determination step, a user can set a determination criterion as to whether or not the connected components are similar to each other. It is characterized by being.

この請求項9に記載の発明によれば、ユーザによって連結成分どうしが類似するか否かの判断基準を設定することができ、ベクトルデータに含まれるパターン数を調整することができる。よって、ユーザが、復元画像の厳密性とベクトルデータの容量との調整を図ることができる。   According to the ninth aspect of the present invention, the user can set a criterion for determining whether or not the connected components are similar, and the number of patterns included in the vector data can be adjusted. Therefore, the user can adjust the strictness of the restored image and the capacity of the vector data.

また、請求項10の発明にかかる画像処理方法は、請求項6に記載の発明において、前記イメージデータは、複数の色を含んだカラーイメージデータであることを特徴とする。   An image processing method according to a tenth aspect of the present invention is the image processing method according to the sixth aspect, wherein the image data is color image data including a plurality of colors.

この請求項10に記載の発明によれば、複数の色を含んだカラーイメージデータをベクトルデータに変換する際、カラーイメージデータに含まれている連結成分を、その連結成分の色にかかわらずパターン化することができる。類似する連結成分は、その連結成分の色にかかわらず1つのパターンによってアウトラインが特定されるため、ベクトルデータには重複するデータが含まれない。よって、カラーイメージデータを、データ量の少ないベクトルデータに変換することができる。   According to the tenth aspect of the present invention, when color image data including a plurality of colors is converted into vector data, a connected component included in the color image data is a pattern regardless of the color of the connected component. Can be For similar connected components, the outline is specified by one pattern regardless of the color of the connected components, so that the vector data does not include overlapping data. Therefore, color image data can be converted into vector data with a small amount of data.

また、請求項11にかかる画像処理プログラムは、請求項6〜10のいずれか一つに記載の画像処理方法をコンピュータに実行させることを特徴とする。   An image processing program according to an eleventh aspect causes a computer to execute the image processing method according to any one of the sixth to tenth aspects.

この請求項11に記載の発明によれば、請求項6〜10のいずれか一つに記載の画像処理方法をコンピュータに実行させることができる。   According to the eleventh aspect of the present invention, it is possible to cause a computer to execute the image processing method according to any one of the sixth to tenth aspects.

本発明にかかる画像処理装置、画像処理方法および画像処理プログラムによれば、ドットによって構成されるイメージデータを、データ量の少ないベクトルデータに変換することができる。よって、効率的な画像の処理をおこなうことができ、他の画像処理装置などにイメージデータの送信をおこなう際にも、通信回線や送信先の記憶媒体にかける負担を軽減することができる。   According to the image processing apparatus, the image processing method, and the image processing program of the present invention, image data composed of dots can be converted into vector data with a small data amount. Therefore, efficient image processing can be performed, and the load on the communication line and the destination storage medium can be reduced when image data is transmitted to another image processing apparatus or the like.

また、イメージデータはベクトルデータに変換されるため、オリジナルの画像と比較して光学的に読み取った画像の見た目を劣化させることなく、当該画像のデータを利用することができるという効果を奏する。   Further, since the image data is converted into vector data, the image data can be used without deteriorating the appearance of the optically read image as compared with the original image.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法および画像処理プログラムの好適な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention are explained in detail below with reference to the accompanying drawings.

(実施の形態)
(システム構成の内容)
図1は、本実施の形態にかかる画像処理装置を含むネットワーク構成を示すシステム構成図である。本実施の形態にかかる画像処理装置100はネットワーク101に接続されている。ネットワーク101には、本実施の形態にかかる画像処理装置100の他に、スキャナ機能およびプリンタ機能を備えたデジタル複合機102、パーソナルコンピュータ(PC)103,104、ネットワークプリンタ105、ネットワークスキャナ106が接続されている。これらは、有線または無線ネットワーク101を介して相互にデータを送受信することが可能である。
(Embodiment)
(Contents of system configuration)
FIG. 1 is a system configuration diagram showing a network configuration including an image processing apparatus according to the present embodiment. An image processing apparatus 100 according to the present embodiment is connected to a network 101. In addition to the image processing apparatus 100 according to the present embodiment, a digital multifunction peripheral 102 having a scanner function and a printer function, personal computers (PCs) 103 and 104, a network printer 105, and a network scanner 106 are connected to the network 101. Has been. These can transmit / receive data to / from each other via a wired or wireless network 101.

また、電子書籍端末装置107を接続させることも可能である。電子書籍端末装置107は、電子ペーパーなどを用いた表示手段を有しており、ネットワーク101を介してダウンロードしたコンテンツなどを表示する。電子書籍端末装置107は無線または有線でネットワーク101と常時接続されていてもよく、コンテンツのダウンロードの際にネットワークと接続し、その後、オフラインで用いてもよい。電子書籍端末装置107は、専用端末装置であってもよく、PDAや携帯電話機などの情報処理端末装置であってもよい。   In addition, the electronic book terminal device 107 can be connected. The electronic book terminal device 107 has display means using electronic paper or the like, and displays contents downloaded via the network 101. The electronic book terminal device 107 may be always connected to the network 101 wirelessly or by wire, or may be connected to the network when content is downloaded, and then used offline. The electronic book terminal device 107 may be a dedicated terminal device or an information processing terminal device such as a PDA or a mobile phone.

(画像処理装置の機能的構成)
次に、本実施の形態による画像処理装置の機能的構成について説明する。図2は、本実施の形態にかかる画像処理装置100の構成を機能的に示すブロック図である。
(Functional configuration of image processing apparatus)
Next, the functional configuration of the image processing apparatus according to this embodiment will be described. FIG. 2 is a block diagram functionally showing the configuration of the image processing apparatus 100 according to the present embodiment.

図2において、読取部201は、文書などの原稿を光学的に読み取り、ドットによって構成されるイメージデータ(2値ラスター画像データ)として変換部202へ出力する。具体的には、CCD(Charge Coupled Device)を有する光学式スキャナなどによってその機能を実現する。   In FIG. 2, a reading unit 201 optically reads a document such as a document and outputs it to the conversion unit 202 as image data (binary raster image data) composed of dots. Specifically, the function is realized by an optical scanner having a CCD (Charge Coupled Device) or the like.

変換部202は、読取部201から出力された原稿一枚分のイメージデータごとにラスター・ベクター変換を施し、ベクトルデータに変換し、ベクトルデータファイルとして記憶部203、印刷部204、通信部205、表示部206に出力する。また、変換部202は、記憶部203に記憶され、または通信部205を介して他の情報処理装置から送信されてきたベクトルデータファイルをベクター・ラスター変換によってラスター画像データに復元し、記憶部203、印刷部204、通信部205、表示部206に出力する。   The conversion unit 202 performs raster / vector conversion for each piece of image data output from the reading unit 201, converts the image data into vector data, and stores the vector data file as a storage unit 203, a printing unit 204, a communication unit 205, The data is output to the display unit 206. The conversion unit 202 restores the vector data file stored in the storage unit 203 or transmitted from another information processing apparatus via the communication unit 205 to raster image data by vector raster conversion, and stores the storage unit 203. , Output to the printing unit 204, the communication unit 205, and the display unit 206.

この変換部202は、具体的には、図示を省略するROM、RAM、ハードディスク(HD)などに記憶されたプログラムを、図示を省略するCPUが実行することによってその機能を実現する。   Specifically, the conversion unit 202 realizes its function by executing a program stored in a ROM, RAM, hard disk (HD), etc. (not shown) by a CPU (not shown).

記憶部203は、変換部202から出力されたベクトルデータを記憶する。具体的には、ハードディスクやフレキシブルディスク、CD−RW、またはUSB接続のメモリースティックなどによってその機能を実現する。また、記憶部203は、後述する印刷部204などが前記ベクトルデータに基づいて形成する画像データの、変倍に関する情報も同時に記憶する。   The storage unit 203 stores the vector data output from the conversion unit 202. Specifically, the function is realized by a hard disk, a flexible disk, a CD-RW, or a USB-connected memory stick. In addition, the storage unit 203 also stores information relating to scaling of image data formed by the printing unit 204 described later based on the vector data.

印刷部204は、変換部202から出力されたベクトルデータ、もしくは記憶部203に記憶されたベクトルデータに基づき画像データを形成し、前記画像データを印刷紙に印刷する。具体的には、レーザプリンタやインクジェットプリンタなどのプリンタやコピー機などによってその機能を実現する。また、印刷部204は、前記画像データを形成する際にベクトルデータを変倍することによって、画像データを任意の大きさに印刷することができる。   The printing unit 204 forms image data based on the vector data output from the conversion unit 202 or the vector data stored in the storage unit 203, and prints the image data on printing paper. Specifically, the function is realized by a printer such as a laser printer or an inkjet printer, a copier, or the like. Further, the printing unit 204 can print the image data in an arbitrary size by scaling the vector data when forming the image data.

通信部205は、ネットワーク101に接続され、変換部202から出力されたベクトルデータ、もしくは記憶部203に記憶されたベクトルデータを、ネットワーク101を介してデジタル複合機102やPC103,104、ネットワークプリンタ105などに送信する。具体的には、ネットワークインターフェースなどによってその機能を実現する。   A communication unit 205 is connected to the network 101 and transmits vector data output from the conversion unit 202 or vector data stored in the storage unit 203 via the network 101 to the digital multifunction peripheral 102, the PCs 103 and 104, and the network printer 105. Send to etc. Specifically, the function is realized by a network interface or the like.

また、通信部205は、ネットワーク101を介してデジタル複合機102やPC103,104、ネットワークプリンタ105などから送信されたデータを受信する。受信されたデータは、変換部202に出力されラスター・ベクター変換を施される。変換されたベクトルデータは、記憶部203に記憶され、または印刷部204、表示部206などに出力される。   The communication unit 205 receives data transmitted from the digital multi-function peripheral 102, the PCs 103 and 104, the network printer 105, and the like via the network 101. The received data is output to the conversion unit 202 and subjected to raster / vector conversion. The converted vector data is stored in the storage unit 203 or output to the printing unit 204, the display unit 206, and the like.

通信部205は、当該ベクトルデータを送信する際に、たとえばPDF形式のファイルに添付して送信することができる。このように、スキャナ機能とプリンタ機能をネットワーク101で接続することによって、いわゆるファクシミリとしての機能を実現することができる。この場合に、ファクシミリの出力に特有のドット感が生じることはなく、オリジナルの画像と比較して見た目が劣化することはない。また、通常、圧縮したファクシミリデータよりもデータ量が小さくなるため、効率的な画像データの通信を実現することができる。   When transmitting the vector data, the communication unit 205 can transmit the vector data by attaching it to a PDF file, for example. In this manner, by connecting the scanner function and the printer function via the network 101, a so-called facsimile function can be realized. In this case, the dot feeling peculiar to the output of the facsimile does not occur, and the appearance does not deteriorate as compared with the original image. Also, since the data amount is usually smaller than the compressed facsimile data, efficient image data communication can be realized.

表示部206は、変換部202から出力されたベクトルデータ、もしくは記憶部203に記憶されたベクトルデータに基づく画像データを形成し、前記画像データを表示する。具体的には、液晶ディスプレイやプラズマディスプレイなどのディスプレイによってその機能を実現する。また、前記画像データを形成する際には、ベクトルデータを変倍することによって、画像データを任意の大きさに表示することができる。   The display unit 206 forms image data based on the vector data output from the conversion unit 202 or the vector data stored in the storage unit 203, and displays the image data. Specifically, the function is realized by a display such as a liquid crystal display or a plasma display. Further, when forming the image data, the image data can be displayed in an arbitrary size by scaling the vector data.

(変換部202の構成)
次に、変換部202の詳細な構成について説明する。変換部202は、入出力部211、色別2値画像抽出部212、アウトライン変換部213、正規化処理部214、辞書化処理部215、ベクトルデータ生成部216、インデックス読出部217、パターン読出部218、パターン復元部219、2値画像生成部220、2値画像合成部221によって構成される。
(Configuration of the conversion unit 202)
Next, a detailed configuration of the conversion unit 202 will be described. The conversion unit 202 includes an input / output unit 211, a color-specific binary image extraction unit 212, an outline conversion unit 213, a normalization processing unit 214, a dictionary processing unit 215, a vector data generation unit 216, an index reading unit 217, and a pattern reading unit. 218, a pattern restoration unit 219, a binary image generation unit 220, and a binary image synthesis unit 221.

入出力部211は、読取部201、記憶部203、通信部205から変換部202へ入力されるデータを受け付け、色別2値画像抽出部212またはインデックス読出部217へ出力する。変換部202に出力されるデータは、ラスター画像データまたはベクトルデータであり、受け付けたデータがラスター画像データの場合は色別2値画像抽出部212、ベクトルファイルの場合はインデックス読出部217に出力する。   The input / output unit 211 receives data input from the reading unit 201, the storage unit 203, and the communication unit 205 to the conversion unit 202, and outputs the data to the color-specific binary image extraction unit 212 or the index reading unit 217. The data output to the conversion unit 202 is raster image data or vector data. When the received data is raster image data, the data is output to the color-specific binary image extraction unit 212, and when the received data is a vector file, the data is output to the index reading unit 217. .

また、入出力部211は、ベクトルデータ生成部216および2値画像合成部221から出力されるベクトルデータまたはラスター画像データを、データの用途に合わせて、記憶部203、印刷部204、通信部205、表示部206のいずれかに出力する。   The input / output unit 211 also stores the vector data or raster image data output from the vector data generation unit 216 and the binary image synthesis unit 221 in accordance with the use of the data, the storage unit 203, the printing unit 204, and the communication unit 205. And output to one of the display units 206.

色別2値画像抽出部212は、入出力部211から出力されたラスター画像データがカラーであった場合、当該画像に使用されている色ごとの成分を抽出し、色ごとの2値ラスター画像とする。また、色別2値画像抽出部212は、抽出した色ごとの2値ラスター画像をアウトライン変換部213に出力し、抽出した色の数(色数)をベクトルデータ生成部216に出力する。   When the raster image data output from the input / output unit 211 is color, the color-specific binary image extraction unit 212 extracts a component for each color used in the image, and outputs a binary raster image for each color. And The color-specific binary image extraction unit 212 outputs the extracted binary raster image for each color to the outline conversion unit 213, and outputs the number of extracted colors (number of colors) to the vector data generation unit 216.

アウトライン変換部213は、色別2値画像抽出部212から出力された色ごとの2値ラスター画像に対し、アウトライン変換をおこない、個々の連結成分を直線または曲線で近似する。また、アウトライン変換部213は、直線または曲線で近似した個々の連結成分を正規化処理部214に出力し、連結成分の数をベクトルデータ生成部216に出力する。   The outline conversion unit 213 performs outline conversion on the binary raster image for each color output from the color-specific binary image extraction unit 212, and approximates each connected component with a straight line or a curve. The outline conversion unit 213 outputs individual connected components approximated by a straight line or a curve to the normalization processing unit 214 and outputs the number of connected components to the vector data generation unit 216.

正規化処理部214は、アウトライン変換部213から出力された直線または曲線で近似した個々の連結成分に正規化処理をおこなう。また、正規化処理部214は、正規化した個々の連結成分を辞書化処理部215に出力し、正規化前の連結成分の座標および倍率をベクトルデータ生成部216に出力する。   The normalization processing unit 214 performs normalization processing on each connected component approximated by a straight line or a curve output from the outline conversion unit 213. Further, the normalization processing unit 214 outputs the normalized individual connected components to the dictionary processing unit 215, and outputs the coordinates and magnifications of the connected components before normalization to the vector data generation unit 216.

辞書化処理部215は、正規化処理部214から出力された正規化した個々の連結成分に辞書化処理をおこない、アウトライン辞書の作成や辞書参照インデックスの抽出をおこなう。辞書化処理部215は、類似判断部215a、パターン保持部215b、インデックス抽出部215cによって構成される。   The dictionary processing unit 215 performs dictionary processing on each normalized connected component output from the normalization processing unit 214, and creates an outline dictionary and extracts a dictionary reference index. The dictionary processing unit 215 includes a similarity determination unit 215a, a pattern holding unit 215b, and an index extraction unit 215c.

類似判断部215aは、正規化処理部214から出力された正規化された個々の連結成分と、パターン保持部215bに登録されているパターンとが類似するかを判断し、類似しない場合、パターン保持部215bに登録する。   The similarity determination unit 215a determines whether each normalized connected component output from the normalization processing unit 214 is similar to the pattern registered in the pattern holding unit 215b. Register in the unit 215b.

パターン保持部215bは、連結成分のアウトラインを、インデックスを付したパターンとして保持する。なお、パターン保持部215bに登録されるパターンは、1つのイメージデータをベクトルデータに変換するごとにアウトライン辞書データとしてベクトルデータ生成部216に出力される。以下、1つのイメージデータの処理に際して登録されるパターン群を「アウトライン辞書データ」とする。   The pattern holding unit 215b holds the outline of the connected component as an indexed pattern. The pattern registered in the pattern holding unit 215b is output to the vector data generation unit 216 as outline dictionary data each time one piece of image data is converted into vector data. Hereinafter, a pattern group registered in processing one image data is referred to as “outline dictionary data”.

インデックス抽出部215cは、正規化処理部214から出力された正規化された個々の連結成分に対して、対応するパターン保持部215bに登録されているパターンのインデックスを抽出し、ベクトルデータ生成部216に出力する。   The index extraction unit 215 c extracts the index of the pattern registered in the corresponding pattern holding unit 215 b for each normalized connected component output from the normalization processing unit 214, and the vector data generation unit 216. Output to.

ベクトルデータ生成部216は、前記各部から出力された情報をもとに、ラスター画像のベクトルデータを生成する。また、ベクトルデータ生成部216は、生成したベクトルデータを入出力部211に出力する。   The vector data generation unit 216 generates raster image vector data based on the information output from each unit. Further, the vector data generation unit 216 outputs the generated vector data to the input / output unit 211.

インデックス読出部217は、入出力部211から出力されたベクトルデータから色数を読み出し、色別辞書参照データごとに参照パターンインデックスを読み出す。また、インデックス読出部217は、読み出した参照パターンインデックスをパターン読出部218に出力する。   The index reading unit 217 reads the number of colors from the vector data output from the input / output unit 211, and reads the reference pattern index for each color dictionary reference data. Further, the index reading unit 217 outputs the read reference pattern index to the pattern reading unit 218.

パターン読出部218は、インデックス読出部217から出力された参照パターンインデックスに対応する、アウトライン辞書データ中の正規化された連結成分のパターンを読み出す。また、パターン読出部218は、読み出した正規化された連結成分のパターンをパターン復元部219に出力する。   The pattern reading unit 218 reads the pattern of normalized connected components in the outline dictionary data corresponding to the reference pattern index output from the index reading unit 217. The pattern reading unit 218 also outputs the read normalized connected component pattern to the pattern restoration unit 219.

パターン復元部219は、パターン読出部218から出力された正規化された連結成分のパターンを、ベクトルデータ中の倍率情報をもとに元の倍率に復元する。パターン復元部219は、復元した連結成分を2値画像生成部220に出力する。   The pattern restoration unit 219 restores the normalized connected component pattern output from the pattern reading unit 218 to the original magnification based on the magnification information in the vector data. The pattern restoration unit 219 outputs the restored connected component to the binary image generation unit 220.

2値画像生成部220は、パターン復元部219から出力された復元した連結成分を、ベクトルデータ中の座標情報および色情報をもとに、元の座標に元の色を付して配置することによって、色別の2値ラスター画像を生成する。また、2値画像生成部220は、生成した色別の2値ラスター画像を2値画像合成部221に出力する。   The binary image generation unit 220 arranges the restored connected component output from the pattern restoration unit 219 with the original color added to the original coordinates based on the coordinate information and color information in the vector data. Thus, a binary raster image for each color is generated. In addition, the binary image generation unit 220 outputs the generated binary raster image for each color to the binary image synthesis unit 221.

2値画像合成部221は、2値画像生成部220から出力された色別の2値ラスター画像が複数あった場合、それらを合成し、複数色を含むラスター画像(以下、カラーラスター画像という)を生成する。また、2値画像合成部221は、生成したカラーラスター画像データを入出力部211に出力する。なお、2値画像生成部220出力する2値ラスター画像が1つの場合には、そのまま入出力部211に出力する。   When there are a plurality of color-specific binary raster images output from the binary image generation unit 220, the binary image composition unit 221 combines them, and a raster image including a plurality of colors (hereinafter referred to as a color raster image). Is generated. In addition, the binary image composition unit 221 outputs the generated color raster image data to the input / output unit 211. When there is one binary raster image output from the binary image generating unit 220, the binary image is output to the input / output unit 211 as it is.

以上のような構成によって、変換部202はラスター画像データとベクトルデータの変換をおこなっている。以下に、これらの変換をおこなう際の各部の処理について説明する。   With the above-described configuration, the conversion unit 202 converts raster image data and vector data. Below, the process of each part at the time of performing these conversions is demonstrated.

(ラスター・ベクター変換処理の内容)
まず、変換部202が、読取部201が出力したカラーのイメージデータをベクトルデータに変換し、前記ベクトルデータを出力する際の処理について図2,3を参照して説明する。図3は、変換部202によるラスター・ベクター変換処理の手順を示すフローチャートである。なお、各ステップの処理の詳細については、後述する。
(Raster / vector conversion process)
First, processing when the conversion unit 202 converts color image data output from the reading unit 201 into vector data and outputs the vector data will be described with reference to FIGS. FIG. 3 is a flowchart showing a procedure of raster / vector conversion processing by the conversion unit 202. Details of the processing of each step will be described later.

まず、変換部202の入出力部211は、読取部201が読み取った原稿一枚分の画像にかかる、ドットによって構成されるカラーラスター画像の入力を受け付ける(ステップS301)。したがって、原稿一枚ごとに1つのカラーラスター画像データが入力されることになる。ここで、原稿のデータ容量や画像処理装置100の処理能力によっては、一枚の原稿を複数に分割して出力させてもよい。これにより、読取部201の読み取り処理の効率化を図ることができる。   First, the input / output unit 211 of the conversion unit 202 receives an input of a color raster image composed of dots related to an image of one original read by the reading unit 201 (step S301). Therefore, one color raster image data is input for each original document. Here, depending on the data capacity of the original and the processing capability of the image processing apparatus 100, one original may be divided into a plurality of parts for output. Thereby, the efficiency of the reading process of the reading unit 201 can be improved.

入出力部211に入力されたカラーラスター画像データは、色別2値画像抽出部212に出力される。色別2値画像抽出部212は、入力されたカラーラスター画像を走査し、カラーラスター画像の各色ごとの成分を、各色ごとの2値ラスター画像として抽出する(ステップS302)。よって、当該カラーラスター画像に使用されている色の数だけの2値ラスター画像が抽出されることになり、後述するベクトルデータの構成要素のうち、ヘッダ部である原稿中の色数が特定され、ベクトルデータ生成部216に出力される。   The color raster image data input to the input / output unit 211 is output to the color-specific binary image extraction unit 212. The color-specific binary image extraction unit 212 scans the input color raster image, and extracts a component for each color of the color raster image as a binary raster image for each color (step S302). Therefore, binary raster images corresponding to the number of colors used in the color raster image are extracted, and the number of colors in the original document serving as the header is specified among the constituent elements of vector data described later. And output to the vector data generation unit 216.

色別2値画像抽出部212によって抽出された各色ごとの2値ラスター画像は、アウトライン変換部213に出力される。アウトライン変換部213は、1色ごとの2値ラスター画像に対してアウトライン変換をおこない、2値ラスター画像から連結成分ごとのアウトラインを抽出し、個々の連結成分のアウトラインを直線または曲線で近似する(ステップS303)。この際に、後述するベクトルデータの構成要素のうち、連結成分数が特定され、ベクトルデータ生成部216に出力される。   The binary raster image for each color extracted by the color-specific binary image extraction unit 212 is output to the outline conversion unit 213. The outline conversion unit 213 performs outline conversion on the binary raster image for each color, extracts the outline of each connected component from the binary raster image, and approximates the outline of each connected component with a straight line or a curve ( Step S303). At this time, the number of connected components is specified from among the constituent elements of vector data described later, and is output to the vector data generation unit 216.

アウトライン変換部213によって抽出された個々の連結成分のアウトラインは、正規化処理部214に出力される。正規化処理部214は、抽出された個々の連結成分のアウトラインが外接する矩形の一辺の長さを1とすることによって、個々の連結成分を正規化する(ステップS304)。この際に、後述するベクトルデータの構成要素のうち、連結成分ごとの座標および倍率が特定され、ベクトルデータ生成部216に出力される。   The outline of each connected component extracted by the outline conversion unit 213 is output to the normalization processing unit 214. The normalization processing unit 214 normalizes each connected component by setting the length of one side of the rectangle circumscribed by the extracted outline of each connected component to 1 (step S304). At this time, coordinates and magnifications for each connected component among the constituent elements of vector data described later are specified and output to the vector data generating unit 216.

正規化処理部214で正規化された個々の連結成分は、辞書化処理部215の類似判断部215aに出力される。類似判断部215aは、正規化された個々の連結成分をパターン保持部215bのアウトライン辞書データに登録されているすべてのパターンと比較する(ステップS305)。パターン保持部215bには、後述する連結成分の辞書化処理によって、その原稿内に存在する連結成分がインデックスを付されたパターンとして登録されている。パターンとは、アウトライン辞書データに登録されている正規化された連結成分である。アウトライン辞書データに登録されたパターンは、インデックスによって一意に特定することができる。   The individual connected components normalized by the normalization processing unit 214 are output to the similarity determination unit 215a of the dictionary processing unit 215. The similarity determination unit 215a compares each normalized connected component with all patterns registered in the outline dictionary data of the pattern holding unit 215b (step S305). In the pattern holding unit 215b, the connected components existing in the document are registered as an indexed pattern by the connected component dictionary processing described later. A pattern is a normalized connected component registered in outline dictionary data. The pattern registered in the outline dictionary data can be uniquely specified by the index.

比較対象の連結成分のアウトラインが、アウトライン辞書データに登録されているパターンと一致する場合(ステップS305:Yes)、インデックス抽出部215cは、当該一致したパターンに付されたインデックスを抽出する(ステップS307)。一方、比較対象の連結成分のアウトラインが、アウトライン辞書データに記憶されているすべてのパターンと一致しなかった場合(ステップS305:No)、当該比較対象の連結成分は新規パターンとしてアウトライン辞書データに登録される(ステップS306)。新規パターンは登録と同時にインデックスが付され、インデックス抽出部215cは、当該インデックスを抽出する(ステップS307)。抽出されたインデックスは、ベクトルデータ生成部216に出力され、後述するベクトルデータの構成要素となる。   When the outline of the connected component to be compared matches the pattern registered in the outline dictionary data (step S305: Yes), the index extraction unit 215c extracts the index attached to the matched pattern (step S307). ). On the other hand, when the outline of the connected component to be compared does not match all the patterns stored in the outline dictionary data (step S305: No), the connected component to be compared is registered in the outline dictionary data as a new pattern. (Step S306). The new pattern is indexed at the same time as registration, and the index extraction unit 215c extracts the index (step S307). The extracted index is output to the vector data generation unit 216 and becomes a constituent element of vector data to be described later.

すべての連結成分についてアウトライン辞書データとの比較が終了するまで、ステップS305以降の処理が繰り返され(ステップS308:No)、すべての連結成分についてパターンとの比較が終了すると(ステップS308:Yes)、他の色の2値ラスター画像について、ステップS303以降の処理をおこなう(ステップS309:No)。そして、すべての色の2値ラスター画像について処理を終了すると(ステップS309:Yes)、ベクトルデータ生成部216は、ステップS301以降において抽出したデータを、ベクトルデータファイルとして所定のフォーマットで出力し(ステップS310)、本フローチャートによる処理を終了する。   Until the comparison with the outline dictionary data for all the connected components is completed, the processing from step S305 is repeated (step S308: No), and when the comparison with the pattern is completed for all the connected components (step S308: Yes), For binary raster images of other colors, the processing from step S303 is performed (step S309: No). When the processing is completed for binary raster images of all colors (step S309: Yes), the vector data generation unit 216 outputs the data extracted in step S301 and subsequent steps as a vector data file in a predetermined format (step S309). S310), the process according to this flowchart is terminated.

以上のような処理により、変換部202は、カラーラスター画像をベクトルデータに変換し、ベクトルデータファイルとして出力する。ここで、ベクトルデータ生成部216が生成するベクトルデータの構成について、図4,5を参照して説明する。図4は、ベクトルデータ生成部216が生成するベクトルデータファイルの構成を模式的に示した図である。ベクトルデータ生成部216が生成するベクトルデータファイル400は、ヘッダ部401、色別辞書参照データ402a〜cおよびアウトライン辞書データ403から構成される。   Through the processing described above, the conversion unit 202 converts the color raster image into vector data and outputs it as a vector data file. Here, the configuration of the vector data generated by the vector data generation unit 216 will be described with reference to FIGS. FIG. 4 is a diagram schematically showing the configuration of a vector data file generated by the vector data generating unit 216. A vector data file 400 generated by the vector data generation unit 216 includes a header unit 401, color-specific dictionary reference data 402a to 402c, and outline dictionary data 403.

図5は、ベクトルデータファイルの構成を詳細に示した図である。ヘッダ部401は、図3のフローチャートにおいてステップS302で特定された、当該ベクトルデータで表される画像に使用されている色数である。ヘッダ部401以降には色別辞書参照データ402a〜cが続いている。   FIG. 5 is a diagram showing the configuration of the vector data file in detail. The header portion 401 is the number of colors used in the image represented by the vector data specified in step S302 in the flowchart of FIG. Following the header portion 401, color-specific dictionary reference data 402a to 402c follow.

色別辞書参照データ402a〜cは、色情報501、連結成分数502、連結成分データ503a〜cから構成される。1つの色別辞書参照情報は、1つの2値ラスター画像の内容を示している。色情報501は、RGB値などの当該2値ラスター画像の色を特定する情報である。連結成分数502は、図3のステップS303で特定された、当該2値ラスターデータに含まれる連結成分の数である。また、連結成分データ503a〜cは、各連結成分についての情報であり、当該連結成分の参照パターンインデックス505、座標データ506、倍率データ507で構成される。   The color-specific dictionary reference data 402a to 402c includes color information 501, the number of connected components 502, and connected component data 503a to 503c. One dictionary reference information for each color indicates the contents of one binary raster image. The color information 501 is information for specifying the color of the binary raster image such as an RGB value. The number of connected components 502 is the number of connected components included in the binary raster data specified in step S303 in FIG. The connected component data 503a to 503c is information about each connected component, and includes a reference pattern index 505, coordinate data 506, and magnification data 507 for the connected component.

参照パターンインデックス505は、図3のステップS307で抽出された、パターン保持部215bに登録されたパターンのインデックスである。また、座標データ506は、連結成分の2値ラスター画像内の位置を示し、倍率データ507は、正規化された連結成分を元の倍率に戻す際の係数である。座標データ506と倍率データ507は、図3のステップS304で特定される。   The reference pattern index 505 is an index of the pattern registered in the pattern holding unit 215b extracted in step S307 in FIG. The coordinate data 506 indicates the position of the connected component in the binary raster image, and the magnification data 507 is a coefficient for returning the normalized connected component to the original magnification. The coordinate data 506 and the magnification data 507 are specified in step S304 in FIG.

また、アウトライン辞書データ403は、後述する辞書化処理によってパターン保持部215bに登録された原稿中に存在する正規化された連結成分がパターンである。原稿中の連結成分は、参照パターンインデックス505によってアウトライン辞書データ403内の1つのパターンが特定され、座標データ506および倍率データ507によって原稿中の座標および倍率を決めることによって復元することができる。   The outline dictionary data 403 is a pattern of normalized connected components existing in a document registered in the pattern holding unit 215b by lexicization processing described later. The connected component in the document can be restored by specifying one pattern in the outline dictionary data 403 by the reference pattern index 505 and determining the coordinates and magnification in the document by the coordinate data 506 and the magnification data 507.

(ベクター・ラスター変換処理の内容)
次に、このようにして出力されたベクトルデータファイルからラスター画像を復元する際の処理について図2および図6を参照して説明する。図6は、変換部202によるベクター・ラスター変換処理の手順を示すフローチャートである。
(Contents of vector / raster conversion process)
Next, processing for restoring a raster image from the vector data file output in this way will be described with reference to FIGS. FIG. 6 is a flowchart showing a procedure of vector / raster conversion processing by the conversion unit 202.

まず、変換部202の入出力部211にベクトルデータファイルが入力される(ステップS601)。入出力部211は、入力されたベクトルデータファイルをインデックス読出部217に出力する。インデックス読出部217は、入出力部211から出力されたベクトルデータファイルのヘッダ部401によって色別辞書参照データ402(402a〜402c)の数を認識し、1つの色別辞書参照データ402について、連結成分データ503a〜503cの参照パターンインデックス505を読み出す(ステップS602)。読み出した参照パターンインデックスはパターン読出部218に出力される。   First, a vector data file is input to the input / output unit 211 of the conversion unit 202 (step S601). The input / output unit 211 outputs the input vector data file to the index reading unit 217. The index reading unit 217 recognizes the number of color-specific dictionary reference data 402 (402a to 402c) by the header portion 401 of the vector data file output from the input / output unit 211, and concatenates one color-specific dictionary reference data 402. The reference pattern index 505 of the component data 503a to 503c is read (step S602). The read reference pattern index is output to the pattern reading unit 218.

パターン読出部218は、参照パターンインデックス505に対応するパターンを、アウトライン辞書データ403から読み出し(ステップS603)、パターン復元部219に出力する。パターン復元部219は、連結成分データ503a〜503cごとに、パターン読出部218から出力されたパターンを、倍率データ507をもとに元のサイズのアウトラインに復元する(ステップS604)。復元されたアウトラインは、2値画像生成部220に出力される。   The pattern reading unit 218 reads the pattern corresponding to the reference pattern index 505 from the outline dictionary data 403 (step S603) and outputs it to the pattern restoration unit 219. The pattern restoration unit 219 restores the pattern output from the pattern reading unit 218 to the original size outline based on the magnification data 507 for each of the connected component data 503a to 503c (step S604). The restored outline is output to the binary image generation unit 220.

1つの色別辞書参照データ402に含まれるすべての連結成分データ503について倍率変換処理が終わったら、2値画像生成部220は、連結成分ごとのアウトラインを座標データ506の示す位置に配置し、さらに色情報501によって指定される色を付して、2値ラスター画像を生成する(ステップS605)。生成された2値ラスター画像は、2値画像合成部221に出力される。   When the magnification conversion processing is completed for all the connected component data 503 included in one color-specific dictionary reference data 402, the binary image generation unit 220 arranges the outline for each connected component at the position indicated by the coordinate data 506, and A binary raster image is generated with the color specified by the color information 501 (step S605). The generated binary raster image is output to the binary image composition unit 221.

以下、すべての色別辞書参照データ402について終了するまで、各色別参照データ402ごとにステップS602以下の処理をおこなう(ステップS606:No)。すべての色別参照データ402について終了したら(ステップS606:Yes)、2値画像合成部221は、色ごとの2値ラスター画像を合成することによってカラーラスター画像を復元し(ステップS607)、本フローチャートによる処理を終了する。   Hereinafter, until the processing is completed for all the color-specific dictionary reference data 402, the processing from step S602 is performed for each color-specific reference data 402 (step S606: No). When the processing is completed for all the color-specific reference data 402 (step S606: Yes), the binary image synthesis unit 221 restores the color raster image by synthesizing the binary raster image for each color (step S607). The process by is terminated.

以上のような処理によって、変換部202は、画像データのラスター・ベクター変換およびベクター・ラスター変換をおこない、画像データのベクトルデータ化およびラスター画像化を実現している。   Through the processing as described above, the conversion unit 202 performs raster / vector conversion and vector / raster conversion of the image data to realize vector data conversion and raster image conversion of the image data.

(各色の2値ラスター画像抽出処理の内容)
次に、変換部202が、図3に示すフローチャートにおいておこなう処理の詳細について説明する。まず、ステップS302において、色別2値画像抽出部212が、複数の色が使用されているカラーラスター画像から各色ごとの2値ラスター画像を抽出する際の処理について、図7〜13を参照して説明する。図7〜13はカラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。
(Contents of binary raster image extraction processing for each color)
Next, details of processing performed by the conversion unit 202 in the flowchart shown in FIG. 3 will be described. First, in step S302, the processing for when the binary image extraction unit 212 for each color extracts a binary raster image for each color from a color raster image in which a plurality of colors are used is described with reference to FIGS. I will explain. 7 to 13 are explanatory diagrams illustrating processing steps when a binary raster image is extracted from a color raster image.

まず、カラーのドットデータ700が色別2値画像抽出部212に入力される。図7はカラーのドットデータ700の一例を示す図である。図中の網掛けの種類が同じ箇所は、同じ色のドットであることを示している。次に、色別2値画像抽出部212は、ドットデータ700を端から順にドット単位で走査する。図8は色別2値画像抽出部212のドットデータ700に対する走査処理を模式的に示す説明図である。色別2値画像抽出部212は、画像の端から1ドットづつ図中の矢印方向に走査をおこなう。そして、色を含んだドット801を見つけると、その後の走査中、ドット801と同じ色のドットの位置を認定する。すなわち、走査中初めに見つけた色付のドットと同じ色のドットの位置を認定する。   First, color dot data 700 is input to the color-specific binary image extraction unit 212. FIG. 7 shows an example of color dot data 700. In the figure, the same shaded areas indicate dots of the same color. Next, the color-specific binary image extraction unit 212 scans the dot data 700 in dot units sequentially from the end. FIG. 8 is an explanatory diagram schematically showing a scanning process for the dot data 700 of the color-specific binary image extraction unit 212. The color-specific binary image extraction unit 212 performs scanning in the direction of the arrow in the figure one dot at a time from the edge of the image. When the dot 801 including the color is found, the position of the dot having the same color as the dot 801 is recognized during the subsequent scanning. That is, the position of a dot having the same color as the colored dot found first during scanning is recognized.

色別2値画像抽出部212はドットデータ700全体の走査を終えると、先の走査中に認定した位置の情報をもとにドット801と同じ色のドットを図9に示すように抽出する。抽出されたドットはすべて同色なので、2値ラスター画像として取り扱うことができる。図9はドットデータ700から抽出された同色のドットデータの一例を示す図である。ドット801と同色のドット群901のみが抽出され、2値ラスター画像900として取り扱うことができる。   When the binary image extraction unit 212 for each color finishes scanning the entire dot data 700, it extracts a dot having the same color as the dot 801 based on the position information identified during the previous scan as shown in FIG. Since all the extracted dots have the same color, they can be handled as a binary raster image. FIG. 9 is a diagram illustrating an example of dot data of the same color extracted from the dot data 700. Only the dot group 901 having the same color as the dot 801 is extracted and can be handled as the binary raster image 900.

色別2値画像抽出部212は、図10に示すようにドット801と同色のドット群901が抽出されたのちのドットデータ700に対して、再度走査をおこなう。図10は色別2値画像抽出部212ドットデータ700に対する走査処理を模式的に示す説明図である。色別2値画像抽出部212は、1度目の走査の際に初めに見つけた色付のドット801の位置から走査を開始する。1度目の走査で、これより前に色付のドットが存在しないことが既にわかっているからである。そして、2度目の走査中、初めに色付のドット1001を見つけると、その後の走査中、ドット1001と同じ色のドットの位置を認定する。   The color-specific binary image extraction unit 212 scans again the dot data 700 after the dot group 901 having the same color as the dot 801 is extracted as shown in FIG. FIG. 10 is an explanatory diagram schematically showing a scanning process for the color-specific binary image extraction unit 212 dot data 700. The color-specific binary image extraction unit 212 starts scanning from the position of the colored dot 801 that is first found during the first scanning. This is because it is already known by the first scanning that there is no colored dot before this. When the colored dot 1001 is first found during the second scanning, the position of the dot having the same color as the dot 1001 is recognized during the subsequent scanning.

色別2値画像抽出部212はドットデータ700の2度目の走査を終えると、先の走査中に認定した位置の情報をもとにドット1001と同じ色のドットを図11に示すように抽出する。図11はドットデータ700から抽出された同色のドットデータの一例を示す図である。ドット1001と同色のドット群1101のみが抽出され、2値ラスター画像1100として取り扱うことができる。   When the color-specific binary image extraction unit 212 finishes the second scan of the dot data 700, it extracts a dot having the same color as the dot 1001 as shown in FIG. To do. FIG. 11 is a diagram illustrating an example of dot data of the same color extracted from the dot data 700. Only a dot group 1101 having the same color as the dot 1001 is extracted and can be handled as a binary raster image 1100.

さらに、色別2値画像抽出部212は、図12に示すようにドット1001と同色のドット群1101が抽出されたのちのドットデータ700に対して再々度走査をおこなう。図12は色別2値画像抽出部212のドットデータ700に対する走査処理を模式的に示す説明図である。色別2値画像抽出部212は、2度目の走査の際に初めに見つけた色付のドット1001の位置から走査を開始し、3度目の走査中、初めに色付のドット1201を見つけると、その後の走査中、ドット1201と同じ色のドットを認定する。   Further, the color-specific binary image extraction unit 212 scans the dot data 700 again after the dot group 1101 having the same color as the dot 1001 is extracted as shown in FIG. FIG. 12 is an explanatory diagram schematically showing scanning processing for the dot data 700 of the binary image extracting unit 212 for each color. The color-specific binary image extraction unit 212 starts scanning from the position of the colored dot 1001 first found during the second scanning, and when the colored dot 1201 is found first during the third scanning. During the subsequent scanning, a dot having the same color as the dot 1201 is recognized.

色別2値画像抽出部212はドットデータ700の3度目の走査を終えると、先の走査中に認定した位置の情報をもとにドット1201と同じ色のドットを図13に示すように抽出する。図13はドットデータ700から抽出された同色のドットデータの一例を示す図である。ドット1201と同色のドット群1301のみが抽出され、2値ラスター画像1300として取り扱うことができる。以上のような手順を繰り返すことによって、色別2値画像抽出部212は、カラーラスター画像から2値ラスター画像を各色ごとに抽出する。   After completing the third scan of the dot data 700, the color-specific binary image extraction unit 212 extracts dots of the same color as the dot 1201 based on the information of the positions identified during the previous scan as shown in FIG. To do. FIG. 13 is a diagram illustrating an example of dot data of the same color extracted from the dot data 700. Only a dot group 1301 having the same color as the dot 1201 is extracted and can be handled as a binary raster image 1300. By repeating the above procedure, the color-specific binary image extraction unit 212 extracts a binary raster image for each color from the color raster image.

(アウトライン変換の内容)
次に、ステップS304においてアウトライン変換部213がおこなうアウトライン変換について説明する。アウトライン変換は、初めに2値ラスター画像から連結成分ごとのアウトラインを抽出し、次に抽出したアウトラインを直線によって近似することによっておこなわれる。まず、2値ラスター画像から連結線分ごとのアウトラインを抽出する工程について、図14〜21を参照して説明する。
(Contents of outline conversion)
Next, outline conversion performed by the outline conversion unit 213 in step S304 will be described. Outline conversion is performed by first extracting an outline for each connected component from a binary raster image and then approximating the extracted outline with a straight line. First, the process of extracting the outline for each connecting line segment from the binary raster image will be described with reference to FIGS.

図14〜図21は、アウトライン抽出の処理工程を示す説明図である。まず、図14に示すように、アウトラインを求めたい図形(以下、単に「図形」という)1401を含むドット矩形の頂点を抽出する。たとえば、図中1402,1403,1404のようにドット矩形の頂点が抽出される。なお、図中では説明の関係上、図形1401は斜線部として示すが、実際は2値画像の有色部とする。また、斜線部以外は2値画像の無色部とする。   14 to 21 are explanatory diagrams showing outline extraction processing steps. First, as shown in FIG. 14, the vertices of a dot rectangle including a figure (hereinafter simply referred to as “figure”) 1401 whose outline is to be obtained are extracted. For example, the vertices of the dot rectangle are extracted as 1402, 1403, 1404 in the figure. In the figure, for the sake of explanation, the figure 1401 is shown as a shaded portion, but it is actually a colored portion of a binary image. In addition, the portions other than the shaded portions are colorless portions of the binary image.

次に、図15に示すように、抽出した頂点どうしをドット矩形の辺に沿って線分で結ぶ。たとえば、頂点1402と1403は線分1501によって結ばれる。また、1頂点1402と1404は、線分1502によって結ばれる。   Next, as shown in FIG. 15, the extracted vertices are connected by a line segment along the side of the dot rectangle. For example, vertices 1402 and 1403 are connected by a line segment 1501. One vertex 1402 and 1404 are connected by a line segment 1502.

つづいて、図16に示すように、頂点を結ぶ線分一本ごとについて線分の両側の色を比較する。アウトラインを求めたい図形に属していれば有色であり、属していなければ無色となる。そして、線分の両側の色が同色だった場合は当該線分を除去する。すなわち、図17における1701のように線分の両側が有色だった場合は当該線分を除去する。また、1702,1703のように片側が有色、片側が無色だった場合、当該線分は残しておく。   Subsequently, as shown in FIG. 16, the color on both sides of the line segment is compared for each line segment connecting the vertices. If it belongs to the figure for which an outline is desired, it will be colored, otherwise it will be colorless. If the colors on both sides of the line segment are the same color, the line segment is removed. That is, if both sides of the line segment are colored as indicated by 1701 in FIG. 17, the line segment is removed. Further, when one side is colored and the other side is colorless as in 1702 and 1703, the line segment is left.

図16において、線分1501は、その両側の色が異なっているため残っている。また、線分1502(図15参照)は、その両側が同色であるため除去されている。なお、頂点どうしを線分で結ぶ処理と、線分の両側が同色の線分を除去する処理は同時におこなうようにしてもよい。   In FIG. 16, a line segment 1501 remains because the colors on both sides thereof are different. Further, the line segment 1502 (see FIG. 15) is removed because both sides thereof are the same color. Note that the process of connecting the vertices with line segments and the process of removing line segments of the same color on both sides of the line segments may be performed simultaneously.

次に、図18に示すように、各頂点ごとに向かって右側が有色となるように向きをつける。たとえば、頂点1402は頂点1403の方向へ、矢印1801に示すような向きをつける。すなわち、各頂点に図19に示す1901,1902,1903,1904の矢印に示すような方向に向きを持たせる。そして、隣り合う頂点どうしの持つ向きを比較し、図20に示すように、向きが同じようであればその部分について線分リダクションをおこない、直線を縮退させる。すなわち、頂点1403は隣り合う頂点と向きが異なるため残るが、頂点1402は、となりの頂点と向きが同じなので、直線2001に取り囲まれることとなる。   Next, as shown in FIG. 18, the direction is set so that the right side is colored toward each vertex. For example, the vertex 1402 is oriented in the direction of the vertex 1403 as indicated by the arrow 1801. That is, each vertex is oriented in the direction as indicated by arrows 1901, 1902, 1903, and 1904 shown in FIG. Then, the directions of adjacent vertices are compared, and as shown in FIG. 20, if the directions are the same, line segment reduction is performed for that portion, and the straight line is degenerated. That is, the vertex 1403 remains because it has a different direction from the adjacent vertex, but the vertex 1402 is surrounded by the straight line 2001 because it has the same direction as the next vertex.

そして、図21に示すように、縮退された直線に付された方向に沿って線分をたどり、起点およびアウトラインを抽出する。図21において、図形1401からは2本のアウトラインが抽出されている。この2本のアウトラインは、点2101,2102を起点ならびに終点とした閉じた領域によって、図形1401を形成する。以上のような手順によって、ステップS302では、アウトライン変換部213に入力された2値ラスター画像の連結線分ごとにアウトラインが抽出される。   Then, as shown in FIG. 21, the line segment is traced along the direction attached to the degenerated straight line, and the starting point and the outline are extracted. In FIG. 21, two outlines are extracted from the graphic 1401. These two outlines form a figure 1401 by closed regions starting from points 2101 and 2102 and ending points. By the procedure as described above, in step S302, an outline is extracted for each connected line segment of the binary raster image input to the outline conversion unit 213.

(直線近似処理の内容)
次に、折れ線近似によるアウトラインの直線近似について図22,23を参照して説明する。図22,23は折れ線近似の処理工程を示す図である。まず、図22に示すように、アウトラインのドット矩形の各頂点の位置から、アウトラインのドット矩形の頂点の並びを近似する直線2201を求める。次に、図23に示すように、求められた直線の始点2301と終点2302を定め、この点に角点とカーブの情報を与える。すなわち、始点および終点の位置情報およびこれらに与えられた角点とカーブの情報によって、始点から終点までのアウトラインが表現できる。これを繰り返すことによって、連結成分のアウトラインを複数の頂点(始点・終点)によって直線で表現することができる。なお、以下の説明では、連結成分のアウトラインを直線によって近似した場合について述べるが、ベジェ曲線などによる曲線近似によっても、各頂点(始点・終点および制御点)の情報を用いて同様に実施することができる。
(Contents of straight line approximation process)
Next, outline linear approximation by broken line approximation will be described with reference to FIGS. 22 and 23 are diagrams showing processing steps for polygonal line approximation. First, as shown in FIG. 22, a straight line 2201 that approximates the arrangement of the vertices of the outline dot rectangle is obtained from the position of each vertex of the outline dot rectangle. Next, as shown in FIG. 23, a start point 2301 and an end point 2302 of the obtained straight line are determined, and information on corner points and curves is given to these points. That is, the outline from the start point to the end point can be expressed by the position information of the start point and the end point and the information of the corner points and curves given thereto. By repeating this, the outline of the connected component can be expressed by a straight line by a plurality of vertices (start point / end point). In the following description, the outline of the connected component is approximated by a straight line. However, the approximation is also performed using information on each vertex (start point / end point and control point) by curve approximation using a Bezier curve or the like. Can do.

(連結成分の正規化処理の内容)
次に、ステップS304において、連結成分を正規化する際の正規化処理部214の処理について、図24〜26を参照して説明する。図24〜26は連結成分を正規化する際の正規化処理部214の処理工程を示す説明図である。連結成分の正規化は、抽出した個々の連結成分を、そのアウトラインが外接する矩形の一辺の長さを1とすることによっておこなう。
(Contents of connected component normalization)
Next, the processing of the normalization processing unit 214 when normalizing the connected components in step S304 will be described with reference to FIGS. 24 to 26 are explanatory diagrams illustrating processing steps of the normalization processing unit 214 when normalizing connected components. The normalization of the connected components is performed by setting the length of one side of the rectangle circumscribed by the outline to 1 for each extracted connected component.

まず、連結成分ごとに折れ線近似されたアウトラインの各頂点の座標を求める。図24に示すように、各連結成分は、複数の頂点によって直線近似されている。図24において、連結成分2400の頂点は頂点2411〜2417の7点である。また、連結成分2420の頂点は頂点2431〜2445の15点である。同様に、連結成分2460の頂点は、頂点2471〜2477の7点、連結成分2480の頂点は、頂点2491〜2497の7点である。これらの各頂点の座標を、(x0,y0)のように表す。たとえば、頂点2411の座標は(x2411,y2411)、頂点2412の座標は(x2412,y2412)のように表される。 First, the coordinates of each vertex of the outline approximated by a broken line for each connected component are obtained. As shown in FIG. 24, each connected component is linearly approximated by a plurality of vertices. In FIG. 24, the vertexes of the connected component 2400 are seven points 2411 to 2417. Further, the vertexes of the connected component 2420 are 15 points of vertices 2431 to 2445. Similarly, the vertexes of the connected component 2460 are 7 points of vertices 2471 to 2477, and the vertexes of the connected component 2480 are 7 points of vertices 2491 to 2497. The coordinates of these vertices are expressed as (x 0 , y 0 ). For example, the coordinates of the vertex 2411 are represented as (x 2411 , y 2411 ), and the coordinates of the vertex 2412 are represented as (x 2412 , y 2412 ).

次に、図25に示すように、各連結成分のアウトラインの頂点に外接する矩形(外接矩形)を求める。外接矩形の座標は、{(xmin,ymin),(xmin,yMax),(xMax,yMax),(xMax,ymin)}、ただしxMaxは連結成分の各頂点のx座標の最大値、xminは連結成分の各頂点のx座標の最小値、yMaxは連結成分の各頂点のy座標の最大値、yminは連結成分の各頂点のy座標の最小値、のように表される。 Next, as shown in FIG. 25, a rectangle circumscribing the vertex of the outline of each connected component (a circumscribed rectangle) is obtained. The coordinates of the circumscribed rectangle are {(x min , y min ), (x min , y Max ), (x Max , y Max ), (x Max , y min )}, where x Max is the value of each vertex of the connected component The maximum value of the x coordinate, x min is the minimum value of the x coordinate of each vertex of the connected component, y Max is the maximum value of the y coordinate of each vertex of the connected component, and y min is the minimum value of the y coordinate of each vertex of the connected component It is expressed as

たとえば、連結成分2400の外接矩形2500は、{(x2411,y2412),(x2411,y2416),(x2414,y2416),(x2414,y2412)}(図24参照)と表される。同様に、連結成分2420の外接矩形2520、連結成分2460の外接矩形2560、連結成分2480の外接矩形2580を求める。 For example, the circumscribed rectangle 2500 of the connected component 2400 is {(x 2411 , y 2412 ), (x 2411 , y 2416 ), (x 2414 , y 2416 ), (x 2414 , y 2412 )} (see FIG. 24). expressed. Similarly, a circumscribed rectangle 2520 of the connected component 2420, a circumscribed rectangle 2560 of the connected component 2460, and a circumscribed rectangle 2580 of the connected component 2480 are obtained.

そして、各連結成分の外接矩形を、各辺の長さが1となるように正規化する。すなわち、各外接矩形の座標が{(xmin,ymin),(xmin,yMax),(xMax,yMax),(xMax,ymin)}、ただしxMax−xmin=1,yMax−ymin=1と表されるよう変換する。 Then, the circumscribed rectangle of each connected component is normalized so that the length of each side is 1. That is, the coordinates of each circumscribed rectangle are {(x min , y min ), (x min , y Max ), (x Max , y Max ), (x Max , y min )}, where x Max −x min = 1. , Y Max −y min = 1.

図26に正規化した連結成分の例を示す。外接矩形2600は、外接矩形2500(図25参照)を正規化したものである。同様に、外接矩形2620は外接矩形2520、外接矩形2660は外接矩形2560、外接矩形2680は外接矩形2580を正規化したものである。正規化後の外接矩形はすべて各辺の長さが1となっている。以上のような処理によって、ステップS303では連結成分の正規化をおこなっている。   FIG. 26 shows an example of normalized connected components. The circumscribed rectangle 2600 is obtained by normalizing the circumscribed rectangle 2500 (see FIG. 25). Similarly, the circumscribed rectangle 2620 is obtained by normalizing the circumscribed rectangle 2520, the circumscribed rectangle 2660 is obtained by normalizing the circumscribed rectangle 2560, and the circumscribed rectangle 2680 is obtained by normalizing the circumscribed rectangle 2580. The length of each side of all the circumscribed rectangles after normalization is 1. Through the above processing, the connected components are normalized in step S303.

(連結成分の辞書化処理の内容)
次に、図3のステップS305〜S307において、辞書化処理部215がおこなう連結成分の辞書化処理について、図27,28および図3を参照して説明する。連結成分の辞書化とは、正規化した連結成分をパターンとしてパターン保持部215b、すなわち、そのイメージデータにおけるアウトライン辞書に登録することであり、1つの原稿の中に同じパターンが複数存在する場合に重複した情報を保持することなく、データ量を削減することを目的とする。
(Content of connected component dictionary processing)
Next, the connected component lexicization processing performed by the lexicization processing unit 215 in steps S305 to S307 in FIG. 3 will be described with reference to FIGS. 27 and 28 and FIG. The dictionary of connected components refers to registering normalized connected components as patterns in the pattern holding unit 215b, that is, the outline dictionary in the image data, and when there are a plurality of the same patterns in one document. The object is to reduce the amount of data without holding duplicate information.

図27,28は連結成分を辞書化する際の処理を模式的に示す図である。ここでは、例として正規化した連結成分2701〜2704を辞書化する。図27に示すように、アウトライン辞書2700には初めはパターンが登録されていない。そのため、図3のフローチャートのS305において、類似判断部215aが連結成分2701と同じパターンがアウトライン辞書に登録されているかを比較すると、アウトライン辞書2700に登録されているパターンは1つもない(ステップS305:No)。よって、連結成分2701は、図28に示すように新規パターンとしてアウトライン辞書2700に登録される(ステップS306)。この際、アウトライン辞書2700内で当該パターンを特定する手段としてインデックスが付される。ここではインデックスとして「0001」を付した。そして、連結成分2701の形状を特定する手段としてインデックス抽出部215cによって当該インデックス0001が抽出される(ステップS307)。   FIGS. 27 and 28 are diagrams schematically showing processing when a connected component is dictionaryd. Here, as an example, normalized connected components 2701 to 2704 are dictionaryd. As shown in FIG. 27, no pattern is initially registered in the outline dictionary 2700. Therefore, in S305 of the flowchart of FIG. 3, when the similarity determination unit 215a compares whether the same pattern as the connected component 2701 is registered in the outline dictionary, there is no pattern registered in the outline dictionary 2700 (step S305: No). Therefore, the connected component 2701 is registered in the outline dictionary 2700 as a new pattern as shown in FIG. 28 (step S306). At this time, an index is attached as means for specifying the pattern in the outline dictionary 2700. Here, “0001” is assigned as an index. Then, the index 0001 is extracted by the index extraction unit 215c as means for specifying the shape of the connected component 2701 (step S307).

次に、類似判断部215aが連結成分2702と同じパターンがアウトライン辞書2700に登録されているかを比較する(ステップS305)と、連結成分2701がインデックス0001のパターンとして登録されている。連結成分2702と連結成分2701は一致するので、連結成分と同じパターンが辞書にアウトライン辞書2700に登録されていると判断される(ステップS305:Yes)。インデックス抽出部215cは連結成分2702の形状を特定する手段としてインデックス0001を抽出する(ステップS307)。同様に、連結成分2703も、連結成分2701と一致すると判断されるので、連結成分2703の形状を特定する手段としてインデックス0001が抽出される。   Next, when the similarity determination unit 215a compares whether the same pattern as the connected component 2702 is registered in the outline dictionary 2700 (step S305), the connected component 2701 is registered as the pattern of the index 0001. Since the connected component 2702 and the connected component 2701 match, it is determined that the same pattern as the connected component is registered in the outline dictionary 2700 in the dictionary (step S305: Yes). The index extraction unit 215c extracts the index 0001 as means for specifying the shape of the connected component 2702 (step S307). Similarly, since it is determined that the connected component 2703 matches the connected component 2701, the index 0001 is extracted as a means for specifying the shape of the connected component 2703.

一方、連結成分2704と同じパターンがアウトライン辞書2700に登録されているかを比較した場合(ステップS305)、連結成分2704と連結成分2701は一致するとは判断されない(ステップS305:No)。そのため、連結成分2704は、新規パターンとしてアウトライン辞書2700に登録され(ステップS306)、当該パターンを特定するインデックス「0002」が付される。そして、連結成分2704の形状を特定する手段として当該インデックス0002が抽出される(ステップS307)。   On the other hand, when it is compared whether the same pattern as the connected component 2704 is registered in the outline dictionary 2700 (step S305), it is not determined that the connected component 2704 and the connected component 2701 match (step S305: No). Therefore, the connected component 2704 is registered as a new pattern in the outline dictionary 2700 (step S306), and an index “0002” for identifying the pattern is attached. Then, the index 0002 is extracted as means for specifying the shape of the connected component 2704 (step S307).

このように、原稿に用いられている連結成分のパターンを辞書化し、パターンをインデックスで特定することによって、1つの原稿内に重複して用いられているパターンのデータを廃棄することができる。このため、通常のラスター・ベクター変換をおこなった画像データに比べ、重複したデータを保持することがなく、変換後のデータ量をさらに小さくすることができる。   In this way, by patternizing connected component patterns used in a document and specifying the pattern with an index, the data of the pattern that is used redundantly in one document can be discarded. For this reason, compared to the image data subjected to normal raster / vector conversion, duplicate data is not retained, and the amount of data after conversion can be further reduced.

次に、類似判断部215aが、アウトライン辞書2700に登録されているパターンと比較対象の連結成分とが一致しているかを比較する際の処理について図29,30を参照して説明する。アウトライン辞書2700に登録されているパターンと比較対象の連結成分とが一致しているかは、両者のベクトル成分を比較することによっておこなう。なお、アウトライン辞書に登録されているパターンは、正規化された連結成分であるので、以下の説明において「パターン」と「連結成分」の語は特に区別しない。   Next, processing when the similarity determination unit 215a compares whether the pattern registered in the outline dictionary 2700 matches the connected component to be compared will be described with reference to FIGS. Whether the pattern registered in the outline dictionary 2700 matches the connected component to be compared is determined by comparing both vector components. Note that since the patterns registered in the outline dictionary are normalized connected components, the terms “pattern” and “connected component” are not particularly distinguished in the following description.

図29は、連結成分のベクトル成分の一例を示す図である。連結成分2900は、折れ線近似によって頂点2911〜2917の7点で表される。また、連結成分2920は、折れ線近似によって頂点2931〜2945の15点で表される。ここで、連結成分の外接矩形の左辺に接する頂点のうち一番上に位置するもの、すなわち、連結成分2900においては頂点2913、連結成分2920においては頂点2934へ、時計回りに向かうベクトルをそれぞれv10,v20とする。そして、これらのベクトルのDepthを0とする。 FIG. 29 is a diagram illustrating an example of a vector component of connected components. The connected component 2900 is represented by 7 points of vertices 2911 to 2917 by broken line approximation. The connected component 2920 is represented by 15 points of vertices 2931 to 2945 by broken line approximation. Here, the vector positioned in the top direction among the vertices that contact the left side of the circumscribed rectangle of the connected component, that is, the vector that goes clockwise to the vertex 2913 in the connected component 2900 and the vertex 2934 in the connected component 2920 is v. 10, v and 20. Then, the depth of these vectors is set to 0.

次に、頂点2913から時計回りに次の頂点2914に向かうベクトルをv11、頂点2934から時計回りに次の頂点頂点2935に向かうベクトルをv21とし、これらのDepthを1とする。さらに、頂点2914から時計回りに次の頂点2915に向かうベクトルをv12、頂点2935から時計回りに次の頂点頂点2936に向かうベクトルをv22とし、これらのDepthを2とする。同様に、時計回りにDepthを1ずつ増やしながら、各頂点を結ぶベクトルすべてのDepthを決める。 Next, a vector directed from the vertex 2913 clockwise to the next vertex 2914 is v 11 , a vector directed clockwise from the vertex 2934 to the next vertex vertex 2935 is v 21, and these depths are 1. Further, a vector that goes from the vertex 2914 clockwise to the next vertex 2915 is v 12 , a vector that goes clockwise from the vertex 2935 to the next vertex vertex 2936 is v 22, and these depths are 2. Similarly, while increasing the depth by 1 in the clockwise direction, the depths of all vectors connecting the vertices are determined.

そして、図30のフローチャートに基づいて比較対象の連結成分どうしが一致するか否か、連結成分のベクトル成分が一致するか否かによって判断する。図30は連結成分どうしが一致するか否かの判断処理の工程を示すフローチャートである。まず、比較対象の連結成分のうち一方のDepthをp、もう一方のDepthをqとおき、p=q=0とする(ステップS3001)。   Then, based on the flowchart of FIG. 30, it is determined whether or not the connected components to be compared match, and whether or not the vector components of the connected components match. FIG. 30 is a flowchart showing a process of determining whether or not connected components match each other. First, of the connected components to be compared, one Depth is set as p, and the other Depth is set as q, and p = q = 0 is set (step S3001).

次に、Depth pとDepth qのベクトルを比較する(ステップS3002)。両ベクトルの角度差が10°以上であった場合(ステップS3003:No)、両連結成分は一致しないと判断し(ステップS3011)、本フローチャートによる処理を終了する。両ベクトルの角度差が10°未満であった場合(ステップS3003:Yes)、両ベクトルの長さを比較する(ステップS3004)。両ベクトルの長さ比が1.2未満であった場合(ステップS3004:Yes)、ステップS3007の処理に進む。   Next, the vectors of Depth p and Depth q are compared (step S3002). If the angle difference between the two vectors is 10 ° or more (step S3003: No), it is determined that the two connected components do not match (step S3011), and the processing according to this flowchart is terminated. When the angle difference between both vectors is less than 10 ° (step S3003: Yes), the lengths of both vectors are compared (step S3004). When the length ratio of both vectors is less than 1.2 (step S3004: Yes), the process proceeds to step S3007.

一方、両ベクトルの長さ比が1.2以上であった場合(ステップS3004:No)、短い方のベクトルに、Depthを1つ加算したベクトルを足す(ステップS3005)。たとえば、Depth0ベクトルであれば、Depth1のベクトルを足す。その上で、比較対象のベクトルとの角度差が10°未満かつ長さ比が1.2未満であれば(ステップS3006:Yes)、ステップS3007の処理に進む。また、角度差が10°以上または長さ比が1.2以上であれば(ステップS3006:No)、両連結成分は一致しないと判断し(ステップS3011)、本フローチャートによる処理を終了する。   On the other hand, when the length ratio of both vectors is 1.2 or more (step S3004: No), a vector obtained by adding one Depth to the shorter vector is added (step S3005). For example, if it is a depth 0 vector, the vector of depth 1 is added. In addition, if the angle difference from the comparison target vector is less than 10 ° and the length ratio is less than 1.2 (step S3006: Yes), the process proceeds to step S3007. If the angle difference is 10 ° or more or the length ratio is 1.2 or more (step S3006: No), it is determined that the two connected components do not match (step S3011), and the processing according to this flowchart ends.

このようなベクトルどうしの角度および長さの比較方法について、図31,32を参照して説明する。図31,32はベクトルどうしの比較処理を説明する図である。図31に示すベクトルv1は、v1=(v1x,v1y)で表される。そして、その角度αはα=tan-1(v1y/v1x)、長さ|v1|は|v1|=√(v1x 2+v1y 2)で表される。具体的には、v1=(0.3,0.4)、α=tan-1(0.4/0.3)=53°、|v1|=√(0.42+0.32)=0.5となる。 A method for comparing the angles and lengths of such vectors will be described with reference to FIGS. 31 and 32 are diagrams for explaining comparison processing between vectors. The vector v 1 shown in FIG. 31 is represented by v 1 = (v 1x , v 1y ). Then, the angle alpha is α = tan -1 (v 1y / v 1x), length | is expressed by = √ (v 1x 2 + v 1y 2) | v 1 | is | v 1. Specifically, v 1 = (0.3, 0.4), α = tan −1 (0.4 / 0.3) = 53 °, | v 1 | = √ (0.4 2 +0.3 2 ) = 0.5.

このベクトルv1と、図32に示すベクトルv2を比較する。ベクトルv2はv2=(0.2,−0.2)、角度β=−45°、|v2|=0.28で表される。ベクトルv1とベクトルv2の角度差|α−β|は|α−β|=|53°−(−45°)|=98°、長さ比Max(|v1|/|v2|,|v2|/|v1|)は、Max(|v1|/|v2|,|v2|/|v1|)=Max(0.5/0.28,0.28/0.5)=1.7となる。 This vector v 1 is compared with the vector v 2 shown in FIG. The vector v 2 is represented by v 2 = (0.2, −0.2), an angle β = −45 °, and | v 2 | = 0.28. The angle difference | α−β | between the vector v 1 and the vector v 2 is | α−β | = | 53 ° − (− 45 °) | = 98 °, and the length ratio Max (| v 1 | / | v 2 | , | V 2 | / | v 1 |) is Max (| v 1 | / | v 2 |, | v 2 | / | v 1 |) = Max (0.5 / 0.28, 0.28 / 0.5) = 1.7.

よって、ベクトルv1とv2は、図30のフローチャートにおいては、一致しないと判断される。なお、図30のフローチャートでは、角度差の閾値として10°、長さ比の閾値として1.2を用いているが、閾値は任意の値に設定することが可能である。閾値を0に近づけることによって、より厳密な比較処理をおこなうことができる。 Therefore, the vectors v 1 and v 2 are determined not to match in the flowchart of FIG. In the flowchart of FIG. 30, 10 ° is used as the threshold value for the angle difference and 1.2 is used as the threshold value for the length ratio. However, the threshold value can be set to an arbitrary value. By bringing the threshold value close to 0, more strict comparison processing can be performed.

図30のフローチャートの説明に戻り、ステップS3007では、Depth p+1およびDepth q+1のベクトルが存在するか判断する。Depth p+1およびDepth q+1が両方とも存在する場合(ステップS3007:Yes)、Depth pおよびDepth qにそれぞれ1ずつ加算し(ステップS3008)、ステップS3002に戻り以後の処理を繰り返す。一方、Depth p+1、Depth q+1が両方とも存在しない場合または片方のみが存在する場合(ステップS3007:No)、Depth p+1またはDepth q+1のどちらか一方のみが存在するのであれば(ステップS3010:Yes)、両連結成分は一致しないと判断し、(ステップS3011)、本フローチャートによる処理を終了する。また、Depth p+1またはDepth q+1が両方とも存在しない場合(ステップS3010:No)、両連結成分は一致すると判断し(ステップS3012)、本フローチャートによる処理を終了する。   Returning to the description of the flowchart of FIG. 30, in step S3007, it is determined whether vectors of Depth p + 1 and Depth q + 1 exist. If both Depth p + 1 and Depth q + 1 exist (step S3007: Yes), 1 is added to each of Depth p and Depth q (step S3008), and the process returns to step S3002 and the subsequent processing is repeated. On the other hand, when both Depth p + 1 and Depth q + 1 are not present or only one of them is present (Step S3007: No), if only one of Depth p + 1 or Depth q + 1 is present (Step S3010: Yes), It is determined that the two connected components do not match (step S3011), and the processing according to this flowchart ends. If neither Depth p + 1 nor Depth q + 1 exists (step S3010: No), it is determined that the two connected components match (step S3012), and the processing according to this flowchart ends.

なお、当該連結成分がアウトライン辞書に登録されているパターンに一致すると判断された場合(ステップS3012)、当該連結成分はアウトライン辞書に登録はされず、当該パターンのインデックスのみが抽出される(図3のステップS305)。一方、一致しないと判断された場合(ステップS3011)、当該連結成分は新規パターンとしてアウトライン辞書に登録される(図3のステップS306)。以上のような処理によって、類似判断部215aはアウトライン辞書に登録されているパターンと比較対象の連結成分とが一致するかを判断し、連結成分の辞書化をおこなう。   When it is determined that the connected component matches the pattern registered in the outline dictionary (step S3012), the connected component is not registered in the outline dictionary, and only the index of the pattern is extracted (FIG. 3). Step S305). On the other hand, if it is determined that they do not match (step S3011), the connected component is registered in the outline dictionary as a new pattern (step S306 in FIG. 3). By the processing as described above, the similarity determination unit 215a determines whether the pattern registered in the outline dictionary matches the connected component to be compared, and creates a dictionary of the connected components.

このような辞書化処理によって、本実施の形態にかかる画像処理装置100によって出力されるベクトルデータファイルは、重複したパターンのデータを保持することないため、通常のラスター・ベクター変換に比べ、さらにデータ量が少なく軽いデータとなる。   The vector data file output by the image processing apparatus 100 according to the present embodiment by such a lexicographic process does not hold duplicate pattern data, and therefore more data than normal raster vector conversion. The amount is small and light data.

(画像データの保持・利用の内容)
次に、本実施の形態にかかる画像処理装置100において、原稿を読み取り、読み取った画像のデータを保持し、利用する場合の処理について図2,33,34を参照して説明する。
(Contents of image data retention / use)
Next, with reference to FIGS. 2, 33, and 34, processing in a case where the image processing apparatus 100 according to the present embodiment reads a document and holds and uses the read image data will be described.

まず、利用したい原稿を読取部201に読み取らせる。図33は、画像処理装置100に読み取らせる原稿の一例であり、白黒2値ビットマップデータをプリントアウトしたものであり、円が3つ示されており、図中実線で示すのがイメージラインである。たとえば実線3301,3302は、一番外周の円のイメージラインを示している。しかし、円のなめらかなイメージラインを表現しきれず、ドットによるギザギザが生じてしまっている。   First, the reading unit 201 reads a document to be used. FIG. 33 is an example of a document to be read by the image processing apparatus 100, in which black and white binary bitmap data is printed out. Three circles are shown, and solid lines in the figure are image lines. is there. For example, solid lines 3301 and 3302 indicate the image lines of the outermost circle. However, the smooth image line of the circle cannot be expressed, and the jaggedness of the dots has occurred.

読取部201は、前記原稿を光学的に読み取り、用紙ごとに1つの2値ラスター画像データファイルとして変換部202へ出力する。原稿の画像データの容量などによっては、複数のファイルに分割して出力してもよい。変換部202では、読取部201から出力された前記2値ラスター画像データファイルの1つ1つをラスター・ベクター変換し、ベクトルデータファイルとして記憶部203へ出力する。   The reading unit 201 optically reads the original, and outputs the original to the conversion unit 202 as one binary raster image data file for each sheet. Depending on the volume of image data of the document, it may be divided into a plurality of files for output. The converting unit 202 performs raster / vector conversion for each of the binary raster image data files output from the reading unit 201 and outputs the converted data to the storage unit 203 as a vector data file.

図34は、図33の原稿を本実施の形態の画像処理装置100でラスター・ベクター変換した結果を示す説明図である。図33のようなドットによるギザギザがなくなり、なめらかなアウトラインによる円3401〜3403が実現している。また、ベクトルデータであるため、印刷部204や表示部206などの各機能部で画像データを変倍しても、オリジナル画像と比較して見た目が劣化しない。   FIG. 34 is an explanatory diagram showing the result of raster / vector conversion of the document shown in FIG. As shown in FIG. 33, the jagged edges of the dots are eliminated, and circles 3401 to 3403 having smooth outlines are realized. Further, since it is vector data, even if the image data is scaled by each functional unit such as the printing unit 204 and the display unit 206, the appearance does not deteriorate compared to the original image.

さらに、円3401〜3403は相似形のため、辞書化された1つのパターンにより再現されている。このため、本実施の形態の画像処理装置100でラスター・ベクター変換した結果出力されるベクトルデータは、通常のラスター・ベクター変換と比べ、さらに容量が小さくなる。   Further, since the circles 3401 to 3403 are similar in shape, they are reproduced by a single dictionary pattern. For this reason, the capacity of vector data output as a result of raster-vector conversion by the image processing apparatus 100 according to the present embodiment is smaller than that of normal raster-vector conversion.

なお、説明の便宜上、原稿は白黒2値としたが、カラー画像であっても、原稿中に含まれる色情報501(図5参照)および色の境界値情報が付加されるのみであるため、データの増加量はごくわずかで済む。   For convenience of explanation, the original is assumed to be a monochrome binary. However, even for a color image, only color information 501 (see FIG. 5) and color boundary value information included in the original are added. The amount of data increase is negligible.

以上説明したように、本実施の形態によれば、用紙(原稿)一枚ごとに読み取られた画像全体を1つの画像ととらえてラスター・ベクター変換することによって、一枚の原稿に描かれた画像全体を1つのベクトルデータとすることができる。したがって、このベクトルデータに基づいて印刷したり、表示したりする場合に、光学式スキャナで読み取った画像特有のガタガタ、ギザギザが生じず、オリジナルの画像と比較して見た目が劣化しない。さらに、一枚の原稿に描かれた画像全体を1つのベクトルデータとするため、画像の一部のみを変更・改ざんすることができない。   As described above, according to the present embodiment, the entire image read for each sheet (document) is regarded as one image and raster-vector conversion is performed, so that the image is drawn on one document. The entire image can be made into one vector data. Therefore, when printing or displaying based on the vector data, there is no rattling or jaggedness peculiar to the image read by the optical scanner, and the appearance does not deteriorate as compared with the original image. Furthermore, since the entire image drawn on one document is made into one vector data, only a part of the image cannot be changed / tampered.

また、本実施の形態によれば、複数の色を含んだカラー画像に対しても、白黒画像同様にラスター・ベクター変換をおこない、一枚の原稿に描かれた原稿全体を1つのベクトルデータとすることができる。また、複数の色が使用されている原稿であっても、データ量を増やすことなく効率的にベクトルデータに変換することができる。   Further, according to the present embodiment, raster-vector conversion is performed on a color image including a plurality of colors in the same manner as a monochrome image, and the entire original drawn on one original is converted into one vector data. can do. Further, even a document using a plurality of colors can be efficiently converted to vector data without increasing the data amount.

さらに、本実施の形態によれば、原稿に含まれる連結成分を正規化し、その中で相似形の連結成分を辞書化するため、出力されるベクトルデータには重複したデータが含まれない。そのため、通常のラスター・ベクター変換によって得られるベクトルデータに比べ、さらにデータ量を削減することができる。   Furthermore, according to the present embodiment, since the connected components included in the original are normalized and the similar connected components are converted into a dictionary, the output vector data does not include duplicate data. Therefore, the amount of data can be further reduced compared to vector data obtained by normal raster / vector conversion.

なお、本実施の形態で説明した画像処理方法は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネット等のネットワークを介して配布することが可能な伝送媒体であってもよい。   The image processing method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.

以上のように、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムは、光学的方法によって読み取った画像の処理に適し、特に電子ファイリング装置、デジタル複写機(複合機)、プリンタ、ネットワークプリンタとして、さらには、ファクシミリに代わるものに適用することができる。   As described above, the image processing apparatus, the image processing method, and the image processing program according to the present invention are suitable for processing an image read by an optical method, and in particular, an electronic filing apparatus, a digital copying machine (multifunction machine), a printer, and a network. As a printer, the present invention can be applied to an alternative to a facsimile.

本実施の形態にかかる画像処理装置を含むネットワーク構成を示すシステム構成図である。1 is a system configuration diagram showing a network configuration including an image processing apparatus according to an embodiment. 本実施の形態にかかる画像処理装置100の構成を機能的に示すブロック図である。1 is a block diagram functionally showing the configuration of an image processing apparatus 100 according to the present embodiment. 変換部202によるラスター・ベクター変換処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of raster / vector conversion processing by a conversion unit 202. ベクトルデータ生成部216が生成するベクトルデータファイルの構成を模式的に示した図である。It is the figure which showed typically the structure of the vector data file which the vector data generation part 216 produces | generates. ベクトルデータファイルの構成を詳細に示した図である。It is the figure which showed the structure of the vector data file in detail. 変換部202によるベクター・ラスター変換処理の手順を示すフローチャートである。5 is a flowchart showing a procedure of vector / raster conversion processing by a conversion unit 202. カラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。It is explanatory drawing which shows the process at the time of extracting a binary raster image from a color raster image. カラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。It is explanatory drawing which shows the process at the time of extracting a binary raster image from a color raster image. カラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。It is explanatory drawing which shows the process at the time of extracting a binary raster image from a color raster image. カラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。It is explanatory drawing which shows the process at the time of extracting a binary raster image from a color raster image. カラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。It is explanatory drawing which shows the process at the time of extracting a binary raster image from a color raster image. カラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。It is explanatory drawing which shows the process at the time of extracting a binary raster image from a color raster image. カラーラスター画像から2値ラスター画像を抽出する際の処理工程を示す説明図である。It is explanatory drawing which shows the process at the time of extracting a binary raster image from a color raster image. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. アウトライン抽出の処理工程を示す説明図である。It is explanatory drawing which shows the process process of outline extraction. 折れ線近似の処理工程を示す図である。It is a figure which shows the process process of a broken line approximation. 折れ線近似の処理工程を示す図である。It is a figure which shows the process process of a broken line approximation. 連結成分を正規化する際の正規化処理部214の処理工程を示す説明図である。It is explanatory drawing which shows the process of the normalization process part 214 at the time of normalizing a connection component. 連結成分を正規化する際の正規化処理部214の処理工程を示す説明図である。It is explanatory drawing which shows the process of the normalization process part 214 at the time of normalizing a connection component. 連結成分を正規化する際の正規化処理部214の処理工程を示す説明図である。It is explanatory drawing which shows the process of the normalization process part 214 at the time of normalizing a connection component. 連結成分を辞書化する際の処理を模式的に示す図である。It is a figure which shows typically the process at the time of making a connected component into a dictionary. 連結成分を辞書化する際の処理を模式的に示す図である。It is a figure which shows typically the process at the time of making a connected component into a dictionary. 連結成分のベクトル成分の一例を示す図である。It is a figure which shows an example of the vector component of a connection component. 連結成分どうしが一致するか否かの判断処理の工程を示すフローチャートである。It is a flowchart which shows the process of the judgment process of whether a connection component corresponds. ベクトルどうしの比較処理を説明する図である。It is a figure explaining the comparison process between vectors. ベクトルどうしの比較処理を説明する図である。It is a figure explaining the comparison process between vectors. 画像処理装置100に読み取らせる原稿の一例を示す図である。2 is a diagram illustrating an example of a document that is read by an image processing apparatus. FIG. 図33の原稿を本実施の形態の画像処理装置100でラスター・ベクター変換した結果を示す説明図である。It is explanatory drawing which shows the result of carrying out raster vector conversion of the original of FIG. 33 with the image processing apparatus 100 of this Embodiment.

符号の説明Explanation of symbols

100 画像処理装置
101 ネットワーク
102 デジタル複合機
103,104 パーソナルコンピュータ
105 ネットワークプリンタ
106 ネットワークスキャナ
107 電子書籍端末装置
201 読取部
202 変換部
203 記憶部
204 印刷部
205 通信部
206 表示部
211 入出力部
212 色別2値画像抽出部
213 アウトライン変換部
214 正規化処理部
215 辞書化処理部
215a 類似判断部
215b パターン保持部
215c インデックス抽出部
216 ベクトルデータ生成部
217 インデックス読出部
218 パターン読出部
219 パターン復元部
220 2値画像生成部
221 2値画像合成部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Network 102 Digital multifunction machine 103,104 Personal computer 105 Network printer 106 Network scanner 107 Electronic book terminal device 201 Reading part 202 Conversion part 203 Storage part 204 Printing part 205 Communication part 206 Display part 211 Input / output part 212 Color Another binary image extraction unit 213 Outline conversion unit 214 Normalization processing unit 215 Dictionary processing unit 215a Similarity determination unit 215b Pattern holding unit 215c Index extraction unit 216 Vector data generation unit 217 Index reading unit 218 Pattern reading unit 219 Pattern restoration unit 220 Binary image generation unit 221 Binary image composition unit

Claims (11)

ドットによって構成されるイメージデータを、前記ドットが連結したひとまとまりの領域の連結成分毎に、当該連結成分のアウトラインを表すベクトルデータにそれぞれ変換するアウトライン変換手段と、
前記アウトライン変換手段によって変換されたベクトルデータを所定のパターン毎にインデックスを付して保持するパターン保持手段と、
前記アウトライン変換手段によってベクトルデータに変換された前記連結成分と、前記パターン保持手段に保持されたいずれかのパターンとの類似を判断する類似判断手段と、
前記イメージデータに含まれる各連結成分を、前記類似判断手段が当該連結成分と類似すると判断する前記パターンのインデックスおよびイメージデータ上の位置情報に変換するインデックス化手段と、
前記インデックス化手段によって変換された前記インデックスおよび前記位置情報と、前記パターン保持手段が保持する前記パターンと、を前記イメージデータのベクトルデータとして所定のフォーマットでファイル出力するベクトルデータ出力手段と、
を備えることを特徴とする画像処理装置。
Outline conversion means for converting image data constituted by dots into vector data representing outlines of the connected components for each connected component of a group of regions connected by the dots;
Pattern holding means for holding the vector data converted by the outline conversion means with an index for each predetermined pattern; and
Similarity determination means for determining similarity between the connected component converted into vector data by the outline conversion means and any pattern held in the pattern holding means;
Indexing means for converting each connected component included in the image data into an index of the pattern that the similarity determining means determines to be similar to the connected component and position information on the image data;
A vector data output means for outputting the index and the position information converted by the indexing means and the pattern held by the pattern holding means as a file in a predetermined format as vector data of the image data;
An image processing apparatus comprising:
前記ベクトルデータ出力手段から出力された所定のファイルフォーマットの前記ベクトルデータから、前記パターンのインデックスを抽出するインデックス抽出手段と、
前記インデックス化手段によって抽出された前記インデックスに対応する、前記ベクトルデータ内の前記パターンを抽出するパターン抽出手段と、
前記パターン抽出手段によって抽出された前記インデックスに対応する前記パターンを、前記インデックス化手段が出力する前記位置情報に基づいて組み合わせることによって、前記ドットによって構成されるイメージデータを復元するイメージ復元手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。
Index extraction means for extracting an index of the pattern from the vector data in a predetermined file format output from the vector data output means;
Pattern extraction means for extracting the pattern in the vector data corresponding to the index extracted by the indexing means;
Image restoration means for restoring image data constituted by the dots by combining the pattern corresponding to the index extracted by the pattern extraction means based on the position information output by the indexing means;
The image processing apparatus according to claim 1, further comprising:
前記アウトライン変換手段によってベクトルデータに変換された前記連結成分を、当該連結成分のアウトラインが外接する矩形の一辺の長さをすべて等しくなるよう変倍することによって正規化し、前記類似判断手段に出力する正規化手段を備え、
前記インデックス化手段は、前記正規化手段が前記連結成分を正規化した際の倍率情報を前記インデックスおよび前記位置情報とともに出力し、
前記イメージ復元手段は、前記インデックス化手段が出力する倍率情報に基づいて前記パターンの倍率を復元することを特徴とする請求項2に記載の画像処理装置。
The connected components converted into vector data by the outline converting means are normalized by scaling the lengths of the sides of the rectangle circumscribed by the outline of the connected components to be equal, and output to the similarity determining means. With normalization means,
The indexing means outputs magnification information when the normalizing means normalizes the connected component together with the index and the position information,
The image processing apparatus according to claim 2, wherein the image restoration unit restores the magnification of the pattern based on the magnification information output by the indexing unit.
前記ベクトルデータ出力手段が出力する前記ベクトルデータを、ネットワークを介して他の画像処理装置へ送信するデータ送信手段を備えることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a data transmission unit configured to transmit the vector data output by the vector data output unit to another image processing apparatus via a network. 前記ベクトルデータ出力手段が出力する前記ベクトルデータを記憶するデータ記憶手段と、
前記データ記憶手段に記憶されている前記ベクトルデータを読み出し、前記インデックス抽出手段に出力するデータ読出手段と、
を備えることを特徴とする請求項2に記載の画像処理装置。
Data storage means for storing the vector data output by the vector data output means;
Data reading means for reading the vector data stored in the data storage means and outputting to the index extraction means;
The image processing apparatus according to claim 2, further comprising:
ドットによって構成されるイメージデータを、前記ドットが連結したひとまとまりの領域の連結成分毎に、当該連結成分のアウトラインを表すベクトルデータにそれぞれ変換するアウトライン変換工程と、
前記アウトライン変換工程によって変換されたベクトルデータを所定のパターン毎にインデックスを付して保持するパターン保持工程と、
前記アウトライン変換工程によってベクトルデータに変換された前記連結成分と、前記パターン保持工程に保持されたいずれかのパターンとの類似を判断する類似判断工程と、
前記イメージデータに含まれる各連結成分を、前記類似判断工程が当該連結成分と類似すると判断する前記パターンのインデックスおよびイメージデータ上の位置情報に変換するインデックス化工程と、
前記インデックス化工程によって変換された前記インデックスおよび前記位置情報と、前記パターン保持工程が保持する前記パターンと、を前記イメージデータのベクトルデータとして所定のフォーマットでファイル出力するベクトルデータ出力工程と、
を備えることを特徴とする画像処理方法。
An outline conversion step of converting image data constituted by dots into vector data representing outlines of the connected components for each connected component of a group of regions connected by the dots;
A pattern holding step for holding the vector data converted by the outline conversion step with an index for each predetermined pattern; and
A similarity determination step of determining the similarity between the connected component converted into vector data by the outline conversion step and any of the patterns held in the pattern holding step;
An indexing step of converting each connected component included in the image data into an index of the pattern that the similarity determining step determines to be similar to the connected component and position information on the image data;
A vector data output step of outputting the index and the position information converted by the indexing step and the pattern held by the pattern holding step as a file of vector data of the image data in a predetermined format;
An image processing method comprising:
前記ベクトルデータ出力工程から出力された所定のファイルフォーマットの前記ベクトルデータから、前記パターンのインデックスを抽出するインデックス抽出工程と、
前記インデックス化工程によって抽出された前記インデックスに対応する、前記ベクトルデータ内の前記パターンを抽出するパターン抽出工程と、
前記パターン抽出工程によって抽出された前記インデックスに対応する前記パターンを、前記インデックス化工程が出力する前記位置情報に基づいて組み合わせることによって、前記ドットによって構成されるイメージデータを復元するイメージ復元工程と、
を含むことを特徴とする請求項6に記載の画像処理方法。
An index extraction step of extracting an index of the pattern from the vector data in a predetermined file format output from the vector data output step;
A pattern extraction step for extracting the pattern in the vector data corresponding to the index extracted by the indexing step;
An image restoration step for restoring image data constituted by the dots by combining the patterns corresponding to the indexes extracted by the pattern extraction step based on the position information output by the indexing step;
The image processing method according to claim 6, further comprising:
前記アウトライン変換工程によってベクトルデータに変換された前記連結成分を、当該連結成分のアウトラインが外接する矩形の一辺の長さをすべて等しくなるよう変倍することによって正規化し、前記類似判断工程に出力する正規化工程を含み、
前記インデックス化工程では、前記正規化工程が前記連結成分を正規化した際の倍率情報を前記インデックスおよび前記位置情報とともに出力し、
前記イメージ復元工程では、前記インデックス化工程が出力する倍率情報に基づいて前記パターンの倍率を復元することを特徴とする請求項7に記載の画像処理方法。
The connected component converted into the vector data by the outline converting step is normalized by scaling the lengths of all sides of the rectangle circumscribed by the outline of the connected component to be equal, and is output to the similarity determining step. Including a normalization step,
In the indexing step, magnification information when the normalizing step normalizes the connected component is output together with the index and the position information,
The image processing method according to claim 7, wherein in the image restoration step, the magnification of the pattern is restored based on the magnification information output by the indexing step.
前記類似判断工程では、前記連結成分どうしが類似するか否かの判断基準をユーザが設定することが可能であることを特徴とする請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein in the similarity determination step, a user can set a determination criterion as to whether or not the connected components are similar. 前記イメージデータは、複数の色を含んだカラーイメージデータであることを特徴とする請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the image data is color image data including a plurality of colors. 請求項6〜10のいずれか一つに記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for causing a computer to execute the image processing method according to claim 6.
JP2004224851A 2004-07-30 2004-07-30 Image processor, image processing method and image processing program Pending JP2006048180A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004224851A JP2006048180A (en) 2004-07-30 2004-07-30 Image processor, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004224851A JP2006048180A (en) 2004-07-30 2004-07-30 Image processor, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2006048180A true JP2006048180A (en) 2006-02-16

Family

ID=36026682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004224851A Pending JP2006048180A (en) 2004-07-30 2004-07-30 Image processor, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2006048180A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140435A (en) * 2007-12-10 2009-06-25 Sharp Corp Image processing device, image display device, image formation device, image processing method, computer program, and storage medium
JP2010057017A (en) * 2008-08-29 2010-03-11 Konica Minolta Business Technologies Inc Image processing apparatus and method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02237270A (en) * 1989-03-10 1990-09-19 Canon Inc Coding method and coding device and method for generating code book used for them
JPH04309185A (en) * 1991-04-08 1992-10-30 Meidensha Corp Drawing element separating method for automatic drawing input device
JPH0580741A (en) * 1991-09-19 1993-04-02 Ricoh Co Ltd System and device for character font generation
JPH07129720A (en) * 1993-11-04 1995-05-19 Matsushita Electric Ind Co Ltd Character recognition device
JPH07220091A (en) * 1994-02-04 1995-08-18 Canon Inc Device and method for image processing
JPH08255223A (en) * 1995-03-16 1996-10-01 Fuji Electric Co Ltd Similar character discriminating method for character recognizing device
JPH09107291A (en) * 1995-10-11 1997-04-22 Hiroyuki Akutsu Method and device for encoding analog data
JPH09114972A (en) * 1995-10-19 1997-05-02 Canon Inc Device and method for processing image
JP2000069299A (en) * 1998-06-09 2000-03-03 Matsushita Electric Ind Co Ltd Image coder, image decoder, character collation device and data storage medium
JP2000341531A (en) * 1999-05-26 2000-12-08 Matsushita Electric Ind Co Ltd Image duplicate device
JP2003189112A (en) * 2001-12-18 2003-07-04 Idoc Kk Compression method for image information, transmission system of image information and restoration method of image information, and computer system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02237270A (en) * 1989-03-10 1990-09-19 Canon Inc Coding method and coding device and method for generating code book used for them
JPH04309185A (en) * 1991-04-08 1992-10-30 Meidensha Corp Drawing element separating method for automatic drawing input device
JPH0580741A (en) * 1991-09-19 1993-04-02 Ricoh Co Ltd System and device for character font generation
JPH07129720A (en) * 1993-11-04 1995-05-19 Matsushita Electric Ind Co Ltd Character recognition device
JPH07220091A (en) * 1994-02-04 1995-08-18 Canon Inc Device and method for image processing
JPH08255223A (en) * 1995-03-16 1996-10-01 Fuji Electric Co Ltd Similar character discriminating method for character recognizing device
JPH09107291A (en) * 1995-10-11 1997-04-22 Hiroyuki Akutsu Method and device for encoding analog data
JPH09114972A (en) * 1995-10-19 1997-05-02 Canon Inc Device and method for processing image
JP2000069299A (en) * 1998-06-09 2000-03-03 Matsushita Electric Ind Co Ltd Image coder, image decoder, character collation device and data storage medium
JP2000341531A (en) * 1999-05-26 2000-12-08 Matsushita Electric Ind Co Ltd Image duplicate device
JP2003189112A (en) * 2001-12-18 2003-07-04 Idoc Kk Compression method for image information, transmission system of image information and restoration method of image information, and computer system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140435A (en) * 2007-12-10 2009-06-25 Sharp Corp Image processing device, image display device, image formation device, image processing method, computer program, and storage medium
JP4510069B2 (en) * 2007-12-10 2010-07-21 シャープ株式会社 Image processing apparatus, image display apparatus, image forming apparatus, image processing method, computer program, and storage medium
JP2010057017A (en) * 2008-08-29 2010-03-11 Konica Minolta Business Technologies Inc Image processing apparatus and method
US8284460B2 (en) 2008-08-29 2012-10-09 Konica Minolta Business Technologies, Inc. Image processing apparatus directed to image outline processing, image processing method of the same, and computer-readable storage medium storing instructions for performing image processing

Similar Documents

Publication Publication Date Title
JP4753638B2 (en) Document compression method, system for compressing document, and image processing apparatus
US7986837B2 (en) Image processing apparatus, image forming apparatus, image distributing apparatus, image processing method, computer program product, and recording medium
JP5132517B2 (en) Image processing apparatus and image processing method
JP5180670B2 (en) Image processing apparatus and image processing method
JP5541672B2 (en) Apparatus, method, program
JP2006023942A (en) Image processing system and image processing method
US20100067023A1 (en) Image processing apparatus, image processing method and program
JP4402580B2 (en) Image processing system
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP2017156852A (en) Image processing device and computer program
US20070296997A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
JP2008124819A (en) Image processor and image processing method
JP4582200B2 (en) Image processing apparatus, image conversion method, and computer program
JP2017130811A (en) Image processing apparatus, image processing method, image processing program, and recording medium
US8654404B2 (en) Image processing apparatus, image processing method and memory medium
US8810877B2 (en) Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image
US8270722B2 (en) Image processing with preferential vectorization of character and graphic regions
US20210110586A1 (en) Mixed raster content (mrc) to control color changes
US10142520B1 (en) Single color background mixed raster content (MRC)
US7561747B2 (en) Image data processing system and method
US20080112014A1 (en) Image forming apparatus and image processing method
JP2006048180A (en) Image processor, image processing method and image processing program
US20210112176A1 (en) Methods and systems for generating mixed raster content (mrc) file
JP5517028B2 (en) Image processing device
JP2008148263A (en) Image forming apparatus, and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100803