JP2006054712A - Image processing unit - Google Patents
Image processing unit Download PDFInfo
- Publication number
- JP2006054712A JP2006054712A JP2004235413A JP2004235413A JP2006054712A JP 2006054712 A JP2006054712 A JP 2006054712A JP 2004235413 A JP2004235413 A JP 2004235413A JP 2004235413 A JP2004235413 A JP 2004235413A JP 2006054712 A JP2006054712 A JP 2006054712A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- area
- information
- hole
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Of Band Width Or Redundancy In Fax (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、文書を構成する文字、図形および画像等の描画オブジェクトに基づいて層状の画像データを作成し、それぞれの層に対して画像処理を施すための技術に関する。 The present invention relates to a technique for creating layered image data based on drawing objects such as characters, graphics, and images constituting a document and performing image processing on each layer.
写真等の「自然画像」や「文字」、「図形・線画」といった複数の描画オブジェクトが混在した文書を解析し、それぞれの描画オブジェクトを別々に圧縮することにより、高画質でありながらも圧縮率の高い画像データに変換する技術がある。このような技術の一例として、特許文献1に記載された技術(以下、「従来技術」という)がある。従来技術においては、まず、多値画像で表された文書から二値画像を生成し、二値画像を用いて文字領域を抽出する。そして、多値画像の文字領域をその文字周辺色で塗りつぶし、下地領域を表す下地多値画像を得る。このように多値画像から文字領域と下地領域とを分離し、文字領域はMMR(Modified Modified Read)方式で圧縮し、下地領域はJPEG(Joint Photographic Experts Group)方式で圧縮することにより、JPEG方式の圧縮処理において文字領域の境界で発生するモスキートノイズを抑え、高画質かつ高圧縮率の画像データを得ている。 Analyzes a document containing multiple drawing objects such as “natural images” such as photographs, “characters”, and “figures / line drawings”, and compresses each drawing object separately, resulting in high image quality but with a high compression ratio There is a technology for converting the image data into high image data. As an example of such a technique, there is a technique described in Patent Document 1 (hereinafter referred to as “conventional technique”). In the prior art, first, a binary image is generated from a document represented by a multi-valued image, and a character region is extracted using the binary image. Then, the character area of the multi-valued image is painted with the surrounding color of the character to obtain a background multi-valued image representing the background area. In this way, the character area and the background area are separated from the multi-valued image, the character area is compressed by the MMR (Modified Modified Read) method, and the background area is compressed by the JPEG (Joint Photographic Experts Group) method. In this compression process, mosquito noise generated at the boundary of the character area is suppressed, and image data with high image quality and high compression rate is obtained.
しかし、この従来技術にはいくつかの問題点が見出される。
第一に、従来技術においては、上述したように二値画像に基づいて文字領域を特定している。そのため、下地多値画像を求めるためには、文字領域を示す二値画像と文字周辺色を示す多値画像の両方を参照する必要があり、その処理に時間を要するという問題がある。
第二に、従来技術はスキャナ等により読み取られた画像データを多層化して圧縮するのには適した技術であるものの、コンピュータの文書作成ソフトウェアにより作成された文書のデータや、この文書をページ記述言語等により記述したデータ(以下、これらのデータを「文書データ」と総称する)を多層化するには不適である。なぜなら、従来技術においては、文書データを多層化するためには、これらをいったん展開してラスタ化された多値画像と二値画像を生成しなければならず、処理に無駄が多いからである。また、ラスタ化された画像データは文書データよりもはるかにデータ容量が大きいため、メモリ等の物理リソースを多く必要とするという問題もある。
However, several problems are found in this prior art.
First, in the prior art, as described above, a character region is specified based on a binary image. For this reason, in order to obtain the background multi-value image, it is necessary to refer to both the binary image indicating the character region and the multi-value image indicating the character peripheral color, and there is a problem that the processing takes time.
Second, although the conventional technology is suitable for multilayering and compressing image data read by a scanner or the like, document data created by computer document creation software, or page description of this document. It is unsuitable for multilayering data described in a language or the like (hereinafter, these data are collectively referred to as “document data”). This is because, in the prior art, in order to make document data multi-layered, it is necessary to generate rasterized multi-valued images and binary images, which is wasteful in processing. . Further, since the rasterized image data has a data capacity much larger than that of the document data, there is a problem that a lot of physical resources such as a memory are required.
本発明は上述の問題に鑑みてなされたものであり、その目的は、文書データを効率良く多層化し、高画質かつ高圧縮率の画像データを得るための技術を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for efficiently multilayering document data and obtaining image data with high image quality and high compression rate.
上述の目的を達成するために、本発明は、文書を構成するオブジェクトの種類を示す属性情報と、上位から下位へ複数に区分された各層との対応関係を記憶する記憶手段と、文書を表す文書データを画像情報に変換する変換手段と、前記画像情報に含まれる前記オブジェクトを前記記憶手段に記憶された前記対応関係に従って複数の層に割り当て、これら各層の画像を表す層状画像データを生成する処理を行う層状画像生成手段とを備え、前記層状画像生成手段は、処理の対象である特定層の画像においてオブジェクトが存在しない抜け領域が存在している場合、該特定層の上位層または下位層において前記抜け領域の位置に相当する領域に存在するオブジェクトと、該特定層に存在するオブジェクトとに基づいて生成した穴埋め画像を前記抜け領域に形成して該特定層の層状画像データを生成する画像処理装置提供する。
このような画像処理装置によれば、ある特定層に抜け領域がある場合には、特定層の上位層または下位層に存在するオブジェクトに基づいて穴埋め画像が生成されるので、高画質かつ高圧縮率の画像データを得ることが可能となる。
In order to achieve the above-described object, the present invention represents a document, attribute information indicating the types of objects constituting the document, storage means for storing a correspondence relationship between each layer divided into a plurality from the upper level to the lower level, and the document A conversion unit that converts document data into image information; and the object included in the image information is assigned to a plurality of layers in accordance with the correspondence relationship stored in the storage unit, and layered image data representing an image of each layer is generated. A layered image generation unit that performs processing, and the layered image generation unit includes an upper layer or a lower layer of the specific layer when there is a missing area in which an object does not exist in the image of the specific layer to be processed In the above, a hole-filled image generated based on an object existing in an area corresponding to the position of the missing area and an object existing in the specific layer is Only formed in the region to provide an image processing apparatus for generating a layered image data of the particular layer.
According to such an image processing device, when there is a missing area in a specific layer, a hole-filled image is generated based on an object existing in an upper layer or a lower layer of the specific layer. Rate image data can be obtained.
また、本発明の画像処理装置は、より好適な態様として、前記画像情報は、画像をある方向に細分化したエッジラインの集合によって表され、前記エッジラインは、該エッジラインに含まれる各オブジェクトの始点座標、終点座標、色情報、あるいは前記属性情報のうちの少なくとも一つを含んだエッジ情報の集合によって表される。
さらに好適には、前記層状画像生成手段は、前記記憶手段に記憶された前記対応関係に基づき、前記エッジ情報のそれぞれを前記複数の層のいずれかに割り当ててもよい。
このようにすれば、画像データをエッジ情報の集合によって表すことができ、文書データを効率良く多層化するとともに、ある層における抜け領域の穴埋めを行うことが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the image information is represented by a set of edge lines obtained by subdividing the image in a certain direction, and the edge lines are the objects included in the edge lines. Is represented by a set of edge information including at least one of the start point coordinates, end point coordinates, color information, or attribute information.
More preferably, the layered image generation means may assign each of the edge information to any one of the plurality of layers based on the correspondence relationship stored in the storage means.
In this way, the image data can be represented by a set of edge information, and the document data can be efficiently multi-layered and the missing area can be filled in a certain layer.
また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記上位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記特定層における前記抜け領域に隣接する領域のオブジェクトに基づいて前記穴埋め画像を前記抜け領域に形成する。
あるいは、前記層状画像生成手段は、前記下位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記穴埋め画像を形成しない。
このようにすれば、適切に穴埋め画像を形成することが可能となる。
In a more preferred aspect of the image processing apparatus according to the present invention, the layered image generation means may be configured such that when an object exists in an area corresponding to the position of the missing area in the upper layer, the layer in the specific layer The hole-filling image is formed in the missing area based on the object in the area adjacent to the missing area.
Alternatively, the layered image generation means does not form the hole-filled image when an object exists in an area corresponding to the position of the missing area in the lower layer.
In this way, it is possible to appropriately form a hole filling image.
このとき、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報とに基づいて、前記穴埋め画像を形成することが可能である。
あるいは、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報と、前記属性情報とに基づいて、前記穴埋め画像を形成することが可能である。
At this time, the layered image generation means can form the hole-filled image based on the start point coordinates, the end point coordinates, and the color information of an object existing in an area adjacent to the missing area. is there.
Alternatively, the layered image generation unit forms the hole-filled image based on the start point coordinates, the end point coordinates, the color information, and the attribute information of an object existing in an area adjacent to the missing area. It is possible.
また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトの色情報がいずれも一定の色値を有する色情報である場合に、該色値を有する前記穴埋め画像を形成する。
または、前記層状画像生成手段は、前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有する場合に、該複数のオブジェクトの色値の平均値を有する前記穴埋め画像を形成する。
このようにすれば、抜け領域に隣接する領域との間で違和感のない穴埋め画像を形成することが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the layered image generation means is such that color information of objects existing in a region adjacent to the missing region has a constant color value. In this case, the hole-filling image having the color value is formed.
Alternatively, the layered image generation means may provide the hole-filled image having an average value of the color values of the plurality of objects when objects existing in the plurality of regions adjacent to the missing region have color information of different color values. Form.
In this way, it is possible to form a hole-filled image without a sense of incongruity between the area adjacent to the missing area.
また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有し、かつ、これらのオブジェクトがともに色値を段階的に変化させていく描画効果を有するオブジェクトの属性情報を有する場合に、段階的に変化する色値を有する前記穴埋め画像を形成する。
さらに好適には、前記層状画像生成手段は、前記抜け領域に段階的に変化する色値を有する前記穴埋め画像を形成する場合に、該抜け領域に隣接する第1の領域に存在するオブジェクトの第1の色値から該抜け領域に隣接する第2の領域に存在するオブジェクトの第2の色値へと段階的に変化する色値を有する前記穴埋め画像を形成してもよい。
このようにすれば、抜け領域に隣接する領域がいわゆるグラデーション画像であっても、違和感のない穴埋め画像を形成することが可能となる。
Further, in a more preferred aspect of the image processing apparatus of the present invention, the layered image generation means has color information of different color values for objects existing in a plurality of areas adjacent to the missing area, and When both of these objects have attribute information of an object having a drawing effect that changes the color value in stages, the above-described hole-filling image having a color value that changes in stages is formed.
More preferably, when the layered image generating means forms the hole-filled image having a color value that changes in a stepwise manner in the missing area, the layered image generating unit is configured to change the first number of objects existing in the first area adjacent to the missing area. The hole-filling image having a color value that changes stepwise from a color value of 1 to a second color value of an object existing in a second area adjacent to the missing area may be formed.
In this way, even if the area adjacent to the missing area is a so-called gradation image, it is possible to form a hole-filled image without a sense of incongruity.
また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトが周期的に変化する色値を有するオブジェクトの属性情報を有する場合に、周期的に変化する色値を有する前記穴埋め画像を形成する。
このようにすれば、抜け領域に隣接する領域が周期的に色値が変化するパターン画像であっても、違和感のない穴埋め画像を形成することが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the layered image generation unit has attribute information of an object having a color value that periodically changes an object that exists in an area adjacent to the missing area. In some cases, the hole-filled image having a color value that changes periodically is formed.
In this way, it is possible to form a hole-filled image without a sense of incongruity even if the region adjacent to the missing region is a pattern image in which the color value changes periodically.
また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記上位層において、前記抜け領域の位置に相当する領域にオブジェクトが存在し、かつ、前記領域に隣接する複数の領域にオブジェクトが存在しない領域が含まれる場合には、前記特定層において、前記抜け領域と前記上位層の前記オブジェクトが存在しない領域に相当する領域との境界近傍には穴埋め画像を形成しない。
このようにすれば、層状画像データを圧縮する場合に、ノイズの発生を抑えることが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the layered image generation means includes an object in an area corresponding to the position of the missing area in the upper layer and is adjacent to the area. When an area where no object exists is included in a plurality of areas, a filling image is not formed near the boundary between the missing area and the area corresponding to the area where the object of the upper layer does not exist in the specific layer. .
In this way, it is possible to suppress the occurrence of noise when layered image data is compressed.
また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段により生成された前記層状画像データの各層の画像に対して、それぞれに決められた圧縮方式で圧縮処理を行う圧縮手段を備える。
このようにすれば、層状画像データを圧縮し、データ容量を小さくすることが可能となる。
Further, the image processing apparatus according to the present invention, as a more preferable aspect, performs compression processing in which compression processing is performed on each layer image of the layered image data generated by the layered image generation unit using a compression method determined for each layer. Means.
This makes it possible to compress the layered image data and reduce the data capacity.
また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段が前記特定層の前記抜け領域に前記穴埋め画像を形成するときに、該特定層の画像に行われる圧縮処理の圧縮方式を参照することにより生成する画像を決定する。
このようにすれば、穴埋め画像を形成するのに適した圧縮方式が適用されている層にのみ穴埋め画像を形成することが可能となる。
Further, the image processing apparatus according to the present invention may be configured such that, as a more preferable aspect, when the layered image generation unit forms the hole-filled image in the missing area of the specific layer, the compression processing performed on the image of the specific layer An image to be generated is determined by referring to the compression method.
In this way, it is possible to form a hole-filled image only in a layer to which a compression method suitable for forming a hole-filled image is applied.
次に、本発明の実施の形態について説明する。
(1)第1実施形態
(1−1)構成
図1は、本発明の第1の実施形態に係る画像処理装置10のハードウェア構成を示したブロック図である。画像処理装置10は、例えばパーソナルコンピュータであり、制御部1と、記憶部2と、入出力I/F3と、表示部4と、操作部5とを備えている。制御部1は、CPU(Central Processing Unit)等の演算装置と、ROM(Read Only Memory)やRAM(Random Access Memory)等の各種メモリとを備えている。記憶部2は、例えばハードディスク等の大容量の不揮発性記憶装置であり、基本ソフトウェアであるOSプログラムPRG1を記憶している。また、記憶部2には、文書作成プログラムPRG2やプリンタドライバプログラムPRG3、タグ対応テーブルTBLが記憶されている。OSプログラムPRG1には、画像処理装置1の各部の基本的な処理を実行するための手順が記述されている。文書作成プログラムPRG2には、操作者による操作内容に従って文書データを作成するための手順が記述されている。プリンタドライバプログラムPRG3には、印刷用の描画命令を解釈して、多層圧縮画像データを生成するための手順が記述されている。タグ対応テーブルTBLには、タグ情報とレイヤ画像の関連付けが記述されているが、この詳細については後述する。入出力I/F3は、コンピュータやプリンタ等の外部機器と接続されており、外部機器とデータの授受を行う。表示部4は、例えば液晶ディスプレイであり、制御部1によって供給されるデータに基づいて画像を表示する。操作部5は、例えばキーボードやマウス等であり、操作者の操作内容に応じた信号を制御部1に供給する。
Next, an embodiment of the present invention will be described.
(1) First Embodiment (1-1) Configuration FIG. 1 is a block diagram showing a hardware configuration of an
図2は、この画像処理装置10の機能構成を示した機能ブロック図である。なお、この機能ブロック図においては、図中の矢印は画像処理装置10が実行する処理によって発生するデータや各種の制御情報の流れを表している。
同図に示されているように、画像処理装置10はOS11と、文書作成アプリケーション12と、プリンタドライバ13の機能を実現する。これらの機能は、画像処理装置10の記憶部2に記憶されたプログラムを制御部1が実行することにより実現されている。
このような構成により、画像処理装置10は操作者によって作成された文書データを多層圧縮画像データとして出力する。具体的には、操作者が操作部5を介して印刷指示を行うと、文書作成アプリケーション12は文書データを解釈し、OS11で定義されている描画命令に変換してこれをOS11に供給する。OS11は、この描画命令をプリンタドライバ13の解釈可能な印刷用描画命令に変換し、これをプリンタドライバ13に供給する。プリンタドライバ13は、この印刷用描画命令を解釈して多層圧縮画像データを生成する。多層圧縮画像データは、プリンタ等の外部機器に供給されることによって記録紙上に出力(印刷)される。
FIG. 2 is a functional block diagram showing a functional configuration of the
As shown in the figure, the
With such a configuration, the
ここで、本実施形態の画像処理装置10により生成される多層圧縮画像データについて説明する。多層圧縮画像データとは、文書データに含まれる描画オブジェクトの種類に基づいて画像を複数の層の画像(以下、各層の画像のことを「レイヤ画像」という)に分類し、それぞれのレイヤ画像に異なる圧縮方式の圧縮処理を行った上で、これらを統合した画像データのことである。本実施形態においては、多層圧縮画像データはレイヤ画像としてFG(Foreground;前景)画像とBG(Background;背景)画像とを含んでいる。多層圧縮画像データが描画されるときには、FG画像はBG画像よりも前面に描画される。すなわち、BG画像はFG画像によってマスクされるようになっている。
なお、説明の便宜上、以下の説明においては、レイヤ画像として上述のFG画像とBG画像の他に「ヌル画像」があるものとして説明する。ここで、「ヌル画像」とは、白紙の領域、すなわち画像上において形成すべき描画オブジェクトの存在しない領域を表すレイヤ画像であると定義する。つまり、「ヌル画像」とは、実際には何らかのデータが生成されるものではなく、あくまでも概念的なものである。
Here, the multilayer compressed image data generated by the
For convenience of explanation, in the following explanation, it is assumed that there is a “null image” in addition to the above-described FG image and BG image as a layer image. Here, the “null image” is defined as a layer image representing a blank area, that is, an area where a drawing object to be formed does not exist on the image. In other words, the “null image” is not a data that is actually generated, but is conceptual only.
続いて、プリンタドライバ13の機能について、さらに詳しく説明する。
図3は、プリンタドライバ13の機能構成を示した機能ブロック図である。なお、この機能ブロック図においても、図中の矢印は画像処理装置10が実行する処理によって発生するデータや各種の制御情報の流れを表している。
同図に示されているように、プリンタドライバ13は、I/F部131と、中間データ生成部132と、FG画像生成部133と、FG画像圧縮部134と、BG画像生成部135と、BG画像圧縮部136と、フォーマット部137の機能を実現する。I/F部131はOS11から呼び出される関数からなり、OS11から印刷用描画命令の供給を受ける。中間データ生成部132は印刷用描画命令を解釈して、プリンタドライバ13内部における文書データの表現形式である中間データに変換する。また、中間データ生成部132は、文書データ1ページ分に相当する中間データを生成する毎に、この中間データをFG画像生成部133とBG画像生成部135に供給する。FG画像生成部133はFG画像を生成し、FG画像圧縮部134はFG画像を所定の圧縮方式(例えばMMR方式)で圧縮してフォーマット部137に供給する。また、BG画像生成部135はBG画像を生成し、BG画像圧縮部136はBG画像を所定の圧縮方式(例えばJPEG方式)で圧縮してフォーマット部137に供給する。フォーマット部137は、これらの圧縮されたレイヤ画像を統合してファイル化し、出力する。
Next, the function of the
FIG. 3 is a functional block diagram showing the functional configuration of the
As shown in the figure, the
ここで、中間データ生成部132において生成される中間データについて説明する。
図4は、中間データの構造を示した模式図である。本実施形態において、中間データとは、文書をラスタ化するときの主走査方向(ここではx方向とする)の走査ライン数nと同量のエッジラインによって構成され、それぞれのエッジラインが複数のエッジによるエッジ列として表されている画像情報のことである。このエッジには、それぞれのエッジラインにどのような描画オブジェクトがあるのかを示した情報が記述されている。
Here, the intermediate data generated in the intermediate
FIG. 4 is a schematic diagram showing the structure of intermediate data. In the present embodiment, the intermediate data is composed of the same number of edge lines as the number of scanning lines n in the main scanning direction (here, x direction) when a document is rasterized, and each edge line includes a plurality of edge lines. It is image information represented as an edge row by edges. In this edge, information indicating what kind of drawing object exists in each edge line is described.
図5は、エッジの構造を示した模式図である。同図に示されているように、それぞれのエッジには、そのエッジの始点座標(Sx)と、終点座標(Ex)と、色情報(C)と、タグ情報(T)とが含まれている。始点座標Sxはエッジの一端のx座標値であり、終点座標Exはエッジの他端のx座標値である。そして、タグ情報は、エッジによって構成される描画オブジェクトの種類(属性)を表した属性情報である。本実施形態では、1つの走査ライン上に例えば「文字」や「グラフィクス」などの複数の描画オブジェクトが存在している場合、描画オブジェクトの種類が変わる毎にエッジが1つ生成されるようになっている。 FIG. 5 is a schematic diagram showing the structure of an edge. As shown in the figure, each edge includes a start point coordinate (Sx), an end point coordinate (Ex), color information (C), and tag information (T). Yes. The start point coordinate Sx is the x coordinate value of one end of the edge, and the end point coordinate Ex is the x coordinate value of the other end of the edge. The tag information is attribute information representing the type (attribute) of the drawing object constituted by the edges. In the present embodiment, when there are a plurality of drawing objects such as “characters” and “graphics” on one scanning line, one edge is generated each time the type of the drawing object changes. ing.
本実施形態においては、タグ情報として「テキスト(Tx)」、「グラフィクス(Gr)」、「イメージ(Im)」、「ヌル(Nl)」の4種類が定義されている。「テキスト」タグは、この属性を有するエッジがテキストオブジェクトであることを表す。ここでテキストオブジェクトとは、文字や記号等のいわゆるテキスト情報である。「グラフィクス」タグは、この属性を有するエッジがグラフィクスオブジェクトであることを表す。ここでグラフィクスオブジェクトとは、図形や画像がベクタ形式で表現されたいわゆるベクタ画像のことである。「イメージ」タグは、この属性を有するエッジがイメージオブジェクトであることを表す。ここでイメージオブジェクトとは、図形や画像がビットマップ形式で表現されたいわゆるラスタ画像のことである。「ヌル」タグは、この属性を有するエッジがヌル画像、すなわち何も描画オブジェクトが形成されていない領域であることを表す。なお、「テキスト」、「グラフィクス」、「イメージ」および「ヌル」のそれぞれのタグには、「0」、「1」、「2」および「3」の識別番号が付与されている。画像処理装置10の内部においては、タグ情報はこの識別番号によって識別される。
In this embodiment, four types of “text (Tx)”, “graphics (Gr)”, “image (Im)”, and “null (Nl)” are defined as tag information. The “text” tag indicates that an edge having this attribute is a text object. Here, the text object is so-called text information such as characters and symbols. The “graphics” tag represents that an edge having this attribute is a graphics object. Here, the graphics object is a so-called vector image in which graphics and images are expressed in a vector format. The “image” tag represents that an edge having this attribute is an image object. Here, the image object is a so-called raster image in which figures and images are expressed in a bitmap format. The “null” tag indicates that an edge having this attribute is a null image, that is, an area where no drawing object is formed. The identification numbers “0”, “1”, “2”, and “3” are assigned to the tags “text”, “graphics”, “image”, and “null”, respectively. Inside the
タグ情報は、FG画像、BG画像、あるいはヌル画像のいずれかのレイヤ画像に関連付けられている。この対応関係を記述したのがタグ対応テーブルTBLである。画像処理装置10は、このタグ対応テーブルTBLを参照することにより、それぞれの描画オブジェクトの属性とレイヤ画像の種類との対応関係を求めることが可能となる。
図6は、本実施形態におけるタグ対応テーブルTBLを示した模式図である。同図に示されているように、それぞれのタグ情報はいずれか1つのレイヤ画像に関連付けられており、関連付けられたレイヤ画像上にそれぞれのタグ情報が示す描画オブジェクトが形成される。本実施形態においては、「テキスト」タグが「FG画像」、「グラフィック」タグと「イメージ」タグが「BG画像」、「ヌル」タグが「ヌル画像」に関連付けられている。
The tag information is associated with any layer image of an FG image, a BG image, or a null image. This correspondence relationship is described in the tag correspondence table TBL. By referring to the tag correspondence table TBL, the
FIG. 6 is a schematic diagram showing the tag correspondence table TBL in the present embodiment. As shown in the figure, each tag information is associated with any one layer image, and a drawing object indicated by each tag information is formed on the associated layer image. In the present embodiment, the “text” tag is associated with “FG image”, the “graphic” tag and the “image” tag are associated with “BG image”, and the “null” tag is associated with “null image”.
色情報Cは、記述されている情報の種類がエッジのタグ属性によって異なる。タグ情報が「テキスト」あるいは「グラフィクス」の場合は、色情報Cにはそのエッジによって構成される描画オブジェクトの色の情報が、例えば赤(R)、緑(G)、青(B)各色8ビット(0〜255)のRGB値によって記述されている。タグ情報が「イメージ」の場合は、色情報Cにはそのエッジの長さに相当するラスタ画像が記憶されているメモリ領域のアドレスが記述されている。また、タグ情報が「ヌル」の場合は、色情報Cには(R,G,B)=(255,255,255)のRGB値、すなわち「白」を表すRGB値が記述されている。 In the color information C, the type of information described differs depending on the tag attribute of the edge. When the tag information is “text” or “graphics”, the color information C includes information on the color of the drawing object constituted by the edges, for example, red (R), green (G), blue (B) 8 It is described by RGB values of bits (0 to 255). When the tag information is “image”, the color information C describes the address of the memory area in which the raster image corresponding to the edge length is stored. When the tag information is “null”, the color information C describes an RGB value of (R, G, B) = (255, 255, 255), that is, an RGB value representing “white”.
(1−2)動作
上述の構成のもと、画像処理装置10の制御部1は、図2および図3に示された機能を実現し、これらの図に示された流れでデータを処理する。本実施形態の画像処理装置10は、FG画像生成部133とBG画像生成部135の機能に特徴を有している。そこで、以下ではFG画像生成部133とBG画像生成部135における具体的な動作について詳細に説明する。そして、各部における動作を説明した後に、ある文書データを例示してより具体的な説明を行う。
なお、以下に示されるFG画像生成部133とBG画像生成部135の機能は、画像処理装置10の制御部1がプリンタドライバプログラムPRG3を実行することによって実現されるものである。ゆえに、本来FG画像生成部133とBG画像生成部135における動作の主体は制御部1であるが、ここでは説明の便宜上、例えば「FG画像生成部133は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する」といったように、FG画像生成部133またはBG画像生成部135を動作の主体として説明を行う。
(1-2) Operation Based on the above-described configuration, the
Note that the functions of the FG
(1−2−1)FG画像生成部133の動作
図7は、FG画像生成部133が中間データからFG画像を生成する動作を示したフローチャートである。この動作は、文書データ1ページ分の中間データが中間データ生成部132からFG画像生成部133へと供給された時点で開始される。まず、FG画像生成部133に中間データが供給されると、FG画像生成部133はページの上端部分に相当するエッジラインをスキャンする(ステップS11)。次に、FG画像生成部133は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する(ステップS12)。なお、この「未処理」とは、後述するラスタ展開処理(ステップS15)が行われていないことを意味している。ここで、未処理のエッジが存在する場合には(ステップS12;YES)、FG画像生成部133はその未処理エッジからタグ情報を抽出する(ステップS13)。そして、FG画像生成部133は、抽出したタグ情報を参照してこのエッジがFG画像であるか否かを判断する(ステップS14)。
(1-2-1) Operation of FG
エッジ内部のタグ情報は、そのエッジの描画オブジェクトの種類を記述しているだけである。したがって、FG画像生成部133は、タグ情報を参照しただけではFG画像であるか否かを判断することができない。そこで、このときFG画像生成部133は、タグ対応テーブルTBLを同時に参照する。図6に示されているように、タグ対応テーブルTBLにはタグ情報とレイヤ画像の対応関係が記述されている。本実施形態においては「テキスト」タグのみがFG画像に関連付けられているので、このときFG画像生成部133はタグ情報が「テキスト」であるか否かを判断すればよい。
The tag information inside the edge only describes the type of drawing object at that edge. Therefore, the FG
ここで、この未処理エッジがFG画像である、換言すれば未処理エッジのタグ情報が「テキスト」タグであるとFG画像生成部133が判断した場合は(ステップS14;YES)、FG画像生成部133はこのエッジのデータをFG画像としてラスタ展開し(ステップS15)、ステップS12からの処理を再び実行する。一方、この未処理エッジがFG画像でない、換言すれば未処理エッジのタグ情報が「グラフィック」、「イメージ」、あるいは「ヌル」のいずれかであるとFG画像生成部133が判断した場合は(ステップS14;NO)、FG画像生成部133はステップS15の処理を行わずに、ステップS12からの処理を再び実行する。
If the FG
なお、上述のステップS12の判断において、スキャンしたエッジライン中に未処理のエッジが存在しないとFG画像生成部133が判断した場合には(ステップS12;NO)、FG画像生成部133はこのエッジラインにおける処理を終了させ、次に処理すべき未処理のエッジラインが存在するか否かを判断する(ステップS16)。FG画像生成部133は、次に処理すべきエッジラインが存在すると判断すれば(ステップS16;YES)、処理の対象をそのエッジラインへと移動させてステップS11からの処理を繰り返し(ステップS17)、次に処理すべきエッジラインが存在しないと判断すれば(ステップS16;NO)、本動作を終了させる。
When the FG
(1−2−2)BG画像生成部135の動作
図8は、BG画像生成部135が中間データからBG画像を生成する動作を示したフローチャートである。この動作は、文書データ1ページ分の中間データが中間データ生成部132からBG画像生成部135へと供給された時点で開始される。まず、中間データが供給されると、BG画像生成部135はページの上端部分に相当するエッジラインをスキャンする(ステップS21)。次に、BG画像生成部135は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する(ステップS22)。なお、この「未処理」とは、後述するラスタ展開処理(ステップS25)が行われていないことを意味している。ここで、未処理のエッジが存在する場合には(ステップS22;YES)、BG画像生成部135はその未処理エッジからタグ情報を抽出する(ステップS23)。そして、BG画像生成部135は、抽出したタグ情報を参照してこのエッジがBG画像であるか否かを判断する(ステップS24)。
(1-2-2) Operation of BG
ここで、上述のステップS14と同様の要領で、BG画像生成部135はタグ対応テーブルTBLを参照することによってこの未処理エッジがBG画像であるか否かを判断する。具体的には、この未処理エッジがBG画像である、換言すれば未処理エッジのタグ情報が「グラフィック」、「イメージ」、あるいは「ヌル」のいずれかであるとBG画像生成部135が判断した場合は(ステップS24;YES)、BG画像生成部135はこのエッジのデータをBG画像としてラスタ展開し(ステップS25)、ステップS22からの処理を再び実行する。一方、この未処理エッジがBG画像でない、換言すれば未処理エッジのタグ情報が「テキスト」タグであるとBG画像生成部135が判断した場合は(ステップS24;NO)、BG画像生成部135はエッジ穴埋め処理を実行する(ステップS26)。このエッジ穴埋め処理については、本動作の説明の後に述べる。
Here, in the same manner as in step S14 described above, the BG
なお、上述のステップS22の判断において、スキャンしたエッジライン中に未処理のエッジが存在しないとBG画像生成部135が判断した場合には(ステップS22;NO)、BG画像生成部135はこのエッジラインにおける処理を終了させ、次に処理すべき未処理のエッジラインが存在するか否かを判断する(ステップS27)。BG画像生成部135は、次に処理すべきエッジラインが存在すると判断すれば(ステップS27;YES)、処理の対象をそのエッジラインへと移動させてステップS21からの処理を繰り返し(ステップS28)、次に処理すべきエッジラインが存在しないと判断すれば(ステップS27;NO)、本動作を終了させる。
When the BG
ここで、エッジ穴埋め処理について説明する。エッジ穴埋め処理とは、文書データにおいてFG画像となるような描画オブジェクト(ここではこれをFGオブジェクトという)がBG画像となるような描画オブジェクト(ここではこれをBGオブジェクトという)に隣接したり囲まれたりしている場合に、中間データのBG画像においてこのFGオブジェクトに略相当する領域を近傍のBGオブジェクトの色情報に基づいて塗りつぶす処理のことである。 Here, the edge hole filling process will be described. Edge filling processing is a drawing object (here referred to as FG object) that becomes an FG image in document data is adjacent to or surrounded by a drawing object (here called BG object) that becomes a BG image. In such a case, a region substantially corresponding to the FG object in the BG image of the intermediate data is painted based on the color information of the neighboring BG object.
図9は、このエッジ穴埋め処理を説明するために例示したある文書データDOC1の図である。同図において、斜線で示された領域a1がグラフィクスオブジェクトを表し、このグラフィクスオブジェクト囲まれたA字形の領域a2がテキストオブジェクトを表している。文書データDOC1のその他の領域a3は描画オブジェクトが存在せず、ヌルオブジェクトである。ここで、領域a1は赤、すなわち(R,G,B)=(255,0,0)のRGB値で一様に塗りつぶされているものとする。 FIG. 9 is a diagram of certain document data DOC1 exemplified for explaining the edge filling process. In the figure, a hatched area a1 represents a graphics object, and an A-shaped area a2 surrounded by the graphics object represents a text object. The other area a3 of the document data DOC1 is a null object without a drawing object. Here, it is assumed that the area a1 is red, that is, is uniformly filled with RGB values of (R, G, B) = (255, 0, 0).
このような文書データDOC1を本実施形態の画像処理装置10で多層圧縮画像データに変換した場合、領域a1はBG画像、領域a2はFG画像に分類される。このときのBG画像は、図10に示されているように、文書データDOC1の領域a2に相当する領域に描画オブジェクトが存在しない画像となっている。このようなBG画像に対してJPEG方式等の離散コサイン変換(DCT)を利用した圧縮処理を施すと、圧縮率を高めるにしたがってモスキートノイズと呼ばれる画質劣化が生じる。モスキートノイズは、DCTにおける高周波成分の誤差に起因するので、文字の輪郭部分のように色変化が急激に起こる部分に発生する。つまり、BG画像に対してJPEG等の圧縮処理を施すと、領域a2に相当するA字形の領域の境界でモスキートノイズが発生しやすくなってしまう。
When such document data DOC1 is converted into multi-layer compressed image data by the
上述したように、BG画像はFG画像によってマスクされるため、BG画像においては、FG画像において描画オブジェクトが存在する領域にいかなる処理を施しても、その影響が多層圧縮画像データに及ぶことはない。そこで、BG画像のA字形の領域を領域a1と同じ色で塗りつぶすという処理を行うと、BG画像のA字形の領域において色変化がなくなるために、多層圧縮画像データに影響を及ぼすことなくモスキートノイズの発生を抑えることが可能となる。また、このような処理を施すことにより、BG画像をより高い圧縮率で圧縮することも可能となる。
この「BG画像において、FG画像によってマスクされる領域を塗りつぶす」という処理が、本実施形態のエッジ穴埋め処理の基本的な原理である。
As described above, since the BG image is masked by the FG image, in the BG image, no matter what processing is performed on the region where the drawing object exists in the FG image, the influence does not reach the multilayer compressed image data. . Therefore, if the process of filling the A-shaped area of the BG image with the same color as that of the area a1, the color change does not occur in the A-shaped area of the BG image, so that the mosquito noise is not affected without affecting the multilayer compressed image data. Can be suppressed. Further, by performing such processing, it is possible to compress the BG image at a higher compression rate.
The process of “filling the area masked by the FG image in the BG image” is the basic principle of the edge filling process of this embodiment.
続いて、ステップS26のエッジ穴埋め処理における具体的な動作について説明する。
図11は、本実施形態におけるエッジ穴埋め処理を示したフローチャートである。同図に沿って説明すると、まず、BG画像生成部135は、処理対象のエッジがFG画像のエッジであるか否かを判断する(ステップS261)。これは、図9の例からもわかるように、この穴埋め処理を行おうとする領域にFG画像がマスクされなければ、そもそも穴埋め処理を行うことができないからである。ステップS24において処理対象のエッジがBG画像であるか否かが判断されており、この判断結果が否定的である場合にステップS261の判断が行われるのであるから、このとき処理対象のエッジは、FG画像かヌル画像のいずれかである。処理対象のエッジがヌル画像のエッジであった場合は、BG画像生成部135は何も行わずに図8のフローチャートの動作へと戻る。
Next, a specific operation in the edge hole filling process in step S26 will be described.
FIG. 11 is a flowchart showing edge filling processing in the present embodiment. Describing along the drawing, first, the BG
一方、この判断結果が肯定的、すなわち処理対象のエッジがFG画像のエッジであった場合には(ステップS261;YES)、BG画像生成部135は、このエッジに対して既にこのエッジ穴埋め処理が行われているか否かを判断する(ステップS262)。本処理においては、FG画像のエッジが連続している場合には、これらのエッジに対して一括して処理を行うことができるので、このようなステップが加えられている。そして、処理対象のエッジに対して既にこのエッジ穴埋め処理が行われていれば(ステップS262;YES)、本処理を行う必要がないので、BG画像生成部135は何も行わずに図8のフローチャートの動作へと戻る。
On the other hand, when this determination result is affirmative, that is, when the edge to be processed is an edge of an FG image (step S261; YES), the BG
一方、この判断結果が肯定的であった場合には(ステップS262;YES)、BG画像生成部135は処理対象のエッジの両端のエッジを参照することにより、エッジの配列パターンを同定する(ステップS263)。
ここで、エッジの配列パターンとは、処理対象のFG画像のエッジに連続するFG画像のエッジの一群を一つの集合(以下、これを「FGエッジ群」ともいう)と見なし、そのFGエッジ群の左右に隣接しているエッジの種類を表すものである。図12は、本実施形態におけるエッジの配列パターンをすべて示した図である。図12(1)は、FGエッジ群の両端がBG画像のエッジである場合を示しており、以下これを「BG−FG−BGパターン」という。図12(2)は、FGエッジ群の左端がBG画像のエッジであり、かつ、右端がヌル画像のエッジである場合を示しており、以下これを「BG−FG−Nlパターン」という。図12(3)は、FGエッジ群の左端がヌル画像のエッジであり、かつ、右端がBG画像のエッジである場合を示しており、以下これを「Nl−FG−BGパターン」という。図12(4)は、FGエッジ群の両端がヌル画像のエッジである場合を示しており、以下これを「Nl−FG−Nlパターン」という。なお、FGエッジ群の一端あるいは両端にエッジそのものが存在しない場合も考えられるが、この場合には、エッジの存在しない側にはヌル画像のエッジが存在すると見なす。
On the other hand, if the determination result is affirmative (step S262; YES), the BG
Here, the edge arrangement pattern refers to a group of edges of an FG image continuous to the edge of the FG image to be processed as one set (hereinafter also referred to as “FG edge group”), and the FG edge group. Represents the types of edges adjacent to the left and right of the. FIG. 12 is a diagram showing all edge arrangement patterns in the present embodiment. FIG. 12 (1) shows a case where both ends of the FG edge group are edges of the BG image, and this is hereinafter referred to as “BG-FG-BG pattern”. FIG. 12 (2) shows a case where the left end of the FG edge group is the edge of the BG image and the right end is the edge of the null image, which is hereinafter referred to as “BG-FG-Nl pattern”. FIG. 12 (3) shows a case where the left end of the FG edge group is the edge of the null image and the right end is the edge of the BG image, and this is hereinafter referred to as an “Nl-FG-BG pattern”. FIG. 12 (4) shows a case where both ends of the FG edge group are edges of a null image, which is hereinafter referred to as “Nl-FG-Nl pattern”. Note that there may be a case where the edge itself does not exist at one or both ends of the FG edge group, but in this case, it is considered that the edge of the null image exists on the side where the edge does not exist.
このようにエッジの配列パターンを同定したら、BG画像生成部135は、処理対象のFGエッジ群がこれらのうちのいずれのパターンを有しているか判断する。はじめに、BG画像生成部135は、エッジの配列パターンが「Nl−FG−Nlパターン」であるか否かを判断する(ステップS264)。ここで、「Nl−FG−Nlパターン」である場合は、このFGエッジ群により形成されるFG画像の両端は、いずれもBG画像に隣接していないことを意味している。このような場合には(ステップS264;YES)、そもそも穴埋め処理を行うことができないので、BG画像生成部135は、この後の処理を行わずに図8のフローチャートの動作へと戻る。
When the edge arrangement pattern is identified in this way, the BG
処理対象のFGエッジ群を「Nl−FG−Nlパターン」の配列パターンでないと判断したら(ステップS264;NO)、続いてBG画像生成部135は、このFGエッジ群が「BG−FG−BGパターン」であるか否かを判断する(ステップS265)。この判断が否定的となるのは、配列パターンが「BG−FG−Nlパターン」または「Nl−FG−BGパターン」のときである。つまり、ステップS265の判断は「FGエッジ群の両端がともにBG画像のエッジであるか否か」と言い換えることができる。
If it is determined that the processing target FG edge group is not the “N1-FG-Nl pattern” array pattern (step S264; NO), then the BG
FGエッジ群の両端がともにBG画像のエッジであると判断したら(ステップS265;YES)、BG画像生成部135は、FGエッジ群の両端に接するBG画像のエッジに含まれている情報に基づいて、このFGエッジ群に相当する領域をBG画像としてラスタ展開することにより、この領域の「穴埋め」を行う(ステップS266)。具体的には、BG画像生成部135は、FGエッジ群の両端のBG画像の始点座標(Sx)、終点座標(Ex)および色情報(C)を参照してラスタ展開を行う。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標、色情報をそれぞれExl,Clとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標、色情報をそれぞれSxr,Crとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域をClとCrの平均値で示される色によって描画する処理となる。このときの描画される色は、Cl,CrのRGB値をそれぞれ(Rl,Gl,Bl)、(Rr,Gr,Br)とすると、(Rl+Rr/2,Gl+Gr/2,Bl+Br/2)で表される色である。なお、以下においては、FGエッジ群に相当する領域を「穴埋め」する画像という意味で、このとき生成される画像のことを「穴埋め画像」と呼ぶ。
このラスタ展開が終了したら、BG画像生成部135は図8のフローチャートの動作へと戻る。
If it is determined that both ends of the FG edge group are edges of the BG image (step S265; YES), the BG
When this raster development is completed, the BG
次に、FGエッジ群の一端がBG画像のエッジであると判断したら(ステップS265;NO)、BG画像生成部135は、FGエッジ群に接する両端のエッジに含まれている情報に基づいて、このFGエッジ群に相当する領域をBG画像としてラスタ展開することにより、この領域の「穴埋め」を行う(ステップS267)。ここでは、ステップS266のようにFGエッジ群に相当する領域全体に対してのラスタ展開は行わない。なぜなら、この場合、処理対象のFGエッジ群に相当する領域の一端はヌル画像に接しているからである。ヌル画像に接しているFGエッジ群に対して、ヌル画像の境界までラスタ展開を行うと、ラスタ展開によって生成されたBG画像をJPEG方式で圧縮した場合に、FGエッジ群に相当する領域の境界でノイズ(ブロックノイズ)が発生するおそれがある。
Next, when it is determined that one end of the FG edge group is an edge of the BG image (step S265; NO), the BG
図13は、このノイズの発生する条件を説明するために例示した図であり、この図は文字領域(FG画像)と白紙領域(ヌル画像)の境界部分を示している。例えばJPEG方式による圧縮処理においては、8×8ピクセルのブロック単位でDCTが行われる。このとき、図13(1)に示されているように、DCTのブロックが白紙領域を含まないように選択されれば、このブロックの変換(圧縮処理)によって白紙領域に文字領域の色成分が混入することはない。しかし、図13(2)に示されているように、DCTのブロックが白紙領域を含むように選択されれば、このブロックの変換(圧縮処理)によって白紙領域の領域bに文字領域の色成分が混入することとなる。このような領域に穴埋め画像が生成されるのを防ぐために、本実施形態においては以下の方法によって穴埋め画像を形成する範囲を決定している。 FIG. 13 is a diagram exemplarily used to explain the conditions for generating this noise, and this diagram shows the boundary between the character area (FG image) and the blank area (null image). For example, in JPEG compression processing, DCT is performed in units of 8 × 8 pixel blocks. At this time, as shown in FIG. 13A, if the DCT block is selected so as not to include the blank area, the color component of the character area is converted into the blank area by the conversion (compression processing) of this block. There is no contamination. However, as shown in FIG. 13B, if the DCT block is selected so as to include a blank area, the color component of the character area is added to the blank area b by this block conversion (compression process). Will be mixed. In order to prevent generation of a hole-filled image in such a region, in the present embodiment, a range for forming a hole-filled image is determined by the following method.
1.まず、FGエッジ群の長さ「FG_Length」を求める。具体的には、FG_Length = FG_Ex − FG_Sx +1とする。ここで、FG_SxはFGエッジ群の左端のエッジの始点座標であり、FG_ExはFGエッジ群の右端のエッジの終点座標である(単位はピクセル)。
2.FG_Lengthが用いる圧縮方法のx方向のブロック長Block_Length(例えばJPEG方式であれば、Block_Length = 8である)より大きい場合、FG_Length ≧ (Block_Length × n)を満たすn個のブロックの長さだけ、FGエッジ群に相当する領域におけるBG画像のエッジに接する側に穴埋め画像を形成する。穴埋め画像の色値は、FGエッジ群が接しているBG画像のエッジの一端のRGB値である。
3.FG_Length < Block_Lengthである場合、穴埋め画像の生成は行わない。
1. First, the length “FG_Length” of the FG edge group is obtained. Specifically, FG_Length = FG_Ex−
2. When the block length Block_Length in the x direction of the compression method used by FG_Length is larger than that of Block_Length (for example, Block_Length = 8 in the case of JPEG method), only the length of n blocks satisfying FG_Length ≧ (Block_Length × n) A hole-filled image is formed on the side in contact with the edge of the BG image in the region corresponding to the group. The color value of the hole-filled image is the RGB value of one end of the edge of the BG image that is in contact with the FG edge group.
3. When FG_Length <Block_Length, no hole-filling image is generated.
ここで、図14および図15は、上述の方法にしたがって穴埋め画像の生成を行った場合の例を示した図である。まず、同14においては、FG_Length = 10,Block_Length = 8である。このような場合には、FGエッジ群に相当する領域において、BG画像のエッジに接する側、すなわち図中右側から8ピクセル分の領域に穴埋め画像が生成される。一方、図15においては、FG_Length = 6,Block_Length = 8である。このような場合にFGエッジ群に相当する領域に穴埋め画像を形成すると、ヌル画像の領域にノイズが発生する可能性が生じるので、穴埋め画像の生成を行わない。 Here, FIG. 14 and FIG. 15 are diagrams illustrating an example in which a hole-filling image is generated according to the above-described method. First, in FIG. 14, FG_Length = 10 and Block_Length = 8. In such a case, in a region corresponding to the FG edge group, a hole-filled image is generated on the side in contact with the edge of the BG image, that is, a region corresponding to 8 pixels from the right side in the drawing. On the other hand, in FIG. 15, FG_Length = 6 and Block_Length = 8. In such a case, if a hole-filled image is formed in a region corresponding to the FG edge group, noise may be generated in the null image region, so that the hole-filled image is not generated.
以上のステップS266,S267のいずれかの方法により穴埋め画像を生成したら、BG画像生成部135は本処理を終了させて図8のフローチャートの動作へと戻る。
エッジ穴埋め処理が終了したら、BG画像生成部135は上述のステップS22の判断を行う。そして、処理すべきエッジおよびエッジラインがなくなるまで、以降の処理を繰り返す。
When the hole-filling image is generated by any one of the above steps S266 and S267, the BG
When the edge filling process is completed, the BG
(1−2−3)動作例
ここからは、以上に説明された画像処理装置10の一連の動作、特にプリンタドライバ13におけるBG画像の生成処理について、文書データを例示してより具体的に説明する。ここで、文書データの例としては、図9の文書データDOC1を用いる。
操作者により文書データDOC1の印刷指示がなされると、画像処理装置10のプリンタドライバ13においては、中間データが生成される。ここで、図16は中間データのi番目の走査ラインを示しており、ELiはこの走査ラインに含まれるエッジラインである。同図において、エッジラインELiは、E1,E2,E3,E4,E5の5種類のエッジにより構成されている。エッジE1およびE5は白紙領域、すなわち描画オブジェクトが何も存在しない領域のエッジであり、このエッジはヌル画像に分類される。エッジE2およびE4はグラフィクスオブジェクトが描画されている領域のエッジであり、このエッジはBG画像に分類される。エッジE3はテキストオブジェクトが描画されている領域のエッジであり、このエッジはFG画像に分類される。
(1-2-3) Example of Operation From now on, the series of operations of the
When the operator gives an instruction to print the document data DOC1, the
図17は、これらのエッジの具体的なデータ構造を示した図である。なお、同図において、RGB値(255,255,255)、(255,0,0)および(0,0,0)は、それぞれ白、赤および黒を表している。それぞれのエッジは、あるエッジの終点座標がその次のエッジの始点座標と連続していることから、これらのエッジをラスタ展開することでこのエッジラインの画像データが隙間なく形成されることがわかる。ここで、本実施形態のタグ情報とレイヤ画像の対応関係は、図6のタグ対応テーブルTBLによって規定されている。すなわち、エッジE2およびE4がBG画像であり、エッジE3がFG画像である。 FIG. 17 shows a specific data structure of these edges. In the figure, RGB values (255, 255, 255), (255, 0, 0) and (0, 0, 0) represent white, red and black, respectively. For each edge, since the end point coordinates of one edge are continuous with the start point coordinates of the next edge, it is understood that the image data of this edge line is formed without any gap by raster development of these edges. . Here, the correspondence between the tag information and the layer image in the present embodiment is defined by the tag correspondence table TBL in FIG. That is, the edges E 2 and E 4 are BG images, and the edge E 3 is an FG image.
図18は、中間データのエッジラインELiに相当する領域のBG画像を表した図である。同図に示されているように、BG画像上には両端を描画オブジェクト(グラフィクスオブジェクト)に囲まれた、描画オブジェクトの存在しない領域がある。この領域(以下、この領域を「抜け領域」という)は、ちょうどFG画像上において描画オブジェクト(テキストオブジェクト)が存在する領域に相当する。このようなBG画像をそのままラスタ展開し、JPEG方式で圧縮処理を行うと、抜け領域の境界において上述したようなノイズが発生してしまう。そこで、プリンタドライバ13は、図11に示されたフローチャートの要領でエッジ穴埋め処理を行う。以下ではプリンタドライバ13のBG画像生成部135における具体的な処理内容を、図11の各ステップを参照しつつ説明する。各ステップにおける処理の詳細については、上述した(1−2−2)を適宜参照されたい。
FIG. 18 is a diagram illustrating a BG image in a region corresponding to the edge line EL i of the intermediate data. As shown in the figure, there is a region on the BG image where there are no drawing objects surrounded by drawing objects (graphics objects) at both ends. This area (hereinafter, this area is referred to as “missing area”) corresponds to an area where a drawing object (text object) exists on the FG image. When such a BG image is raster-developed as it is and compression processing is performed using the JPEG method, the noise described above occurs at the boundary of the missing region. Therefore, the
抜け領域におけるエッジの配列パターンは、図15からも明らかなように「BG−FG−BGパターン」である。したがって、BG画像生成部135は、ステップS265において肯定的な判断を行い、ステップS266に示される処理を実行する。ここで、BG画像生成部135は、抜け領域に隣接しているエッジE2およびE4の情報を参照し、始点座標が1200(1199+1),終点座標が1399(=1400−1)で表される領域を赤、すなわち(255,0,0)の色で描画する穴埋め画像を形成する。このような処理を行うと、「抜け領域」は、いわば「穴埋め」が行われた状態となる。
なお、中間データのヌル画像に相当する領域においては、このようなエッジ穴埋め処理が行われることはない。なぜなら、このような領域に対しては、エッジ穴埋め処理のステップS261の判断において否定的となり、穴埋め画像の生成が行われないからである。
The edge arrangement pattern in the missing region is a “BG-FG-BG pattern” as is apparent from FIG. Therefore, the BG
Note that such edge filling processing is not performed in the region corresponding to the null image of the intermediate data. This is because, for such a region, the determination in step S261 of the edge filling process is negative, and no filling image is generated.
図19は、エッジ穴埋め処理の前後のエッジラインELiを示した図である。また、図20は、エッジ穴埋め処理を行う前のBG画像と、このエッジ穴埋め処理をすべての走査ラインに渡って実行することで得られるBG画像とを示した図である。このように抜け領域に対して上述のエッジ穴埋め処理を行うことにより、BG画像からは抜け領域を除去することが可能となる。すると、このBG画像をJPEG方式で圧縮し、FG画像と重ね合わせるように表示させた場合にも、A字形の文字領域の境界にノイズを発生させることを防ぐことが可能となる。さらに、BG画像においては、エッジ穴埋め処理によってFG画像の形状に関する情報が除去されることになるため、JPEG方式で圧縮した場合の圧縮率に関しても、エッジ穴埋め処理前のBG画像よりも有利な結果を得ることができる。 FIG. 19 is a diagram showing edge lines EL i before and after the edge hole filling process. FIG. 20 is a diagram showing a BG image before the edge filling process and a BG image obtained by executing the edge filling process over all scanning lines. By performing the above-described edge filling process on the missing area in this way, it is possible to remove the missing area from the BG image. Then, even when this BG image is compressed by the JPEG method and displayed so as to be superimposed on the FG image, it is possible to prevent noise from being generated at the boundary of the A-shaped character region. Furthermore, in the BG image, the information regarding the shape of the FG image is removed by the edge filling process, and therefore, the compression rate when compressed by the JPEG method is also more advantageous than the BG image before the edge filling process. Can be obtained.
このように、本実施形態の画像処理装置10においては、中間データを用いて画像処理を行う点に特徴を有している。本実施形態の画像処理装置10によれば、特許文献1に記載の技術のように二値画像と多値画像とを参照して文字領域の塗りつぶし(穴埋め)を行う必要がなく、極めて効率的に画像処理を実行することが可能となる。また、本実施形態の画像処理装置10は中間データを用いて画像処理を行うので、二値画像と多値画像とを参照する特許文献1に記載の技術に比して、少ない記憶容量での画像処理が可能となる。したがって、本実施形態の画像処理装置10の技術を用いることにより、特許文献1に記載の技術を用いた場合と比較して処理の高速化、装置サイズの小型化および低コスト化を期待できる。
As described above, the
(2)第2実施形態
続いて、本発明の第2の実施形態について説明する。
本実施形態が上述の第1実施形態と異なるのは、エッジに含まれるタグ情報の種類が異なる点である。これに伴い、タグ対応テーブルの記憶内容やエッジ穴埋め処理の動作が異なるものの、画像処理装置の構成要素やおおよその処理については第1実施形態と同様である。そこで、以下においては上述の第1実施形態との相違点を中心に説明を行うこととし、第1実施形態と同様の構成要素や処理については適宜その説明を省略する。
(2) Second Embodiment Subsequently, a second embodiment of the present invention will be described.
This embodiment is different from the first embodiment described above in that the type of tag information included in the edge is different. Accordingly, the contents of the tag correspondence table and the edge filling process are different, but the components and approximate processing of the image processing apparatus are the same as in the first embodiment. Therefore, the following description will be made with a focus on differences from the above-described first embodiment, and description of components and processes similar to those of the first embodiment will be omitted as appropriate.
図21に、本実施形態におけるタグ情報の種類を示す。同図に示されているように、本実施形態のタグ情報には、第1実施形態の「テキスト(Tx)」、「グラフィクス(Gr)」、「イメージ(Im)」、「ヌル(Nl)」の4種類に加えて、「グラデーション(Gd)」と「パターン(Pt)」とが定義されている。「グラデーション」タグは、この属性を有するエッジが、その色値を段階的に変化させていく描画効果を有する描画オブジェクトであることを表す。ここでは、グラデーションとして水平方向(x方向)に色値が変化していく描画オブジェクトのみを考えるが、もちろんその他のグラデーションにも応用可能である。また、「パターン」タグは、この属性を有するエッジがある一定の周期で繰り返される画素パターンを形成する描画オブジェクトであることを表す。なお、「グラデーション」タグおよび「パターン」タグは、いずれもBG画像に関連付けられている。 FIG. 21 shows the types of tag information in this embodiment. As shown in the figure, the tag information of this embodiment includes “text (Tx)”, “graphics (Gr)”, “image (Im)”, “null (Nl)” of the first embodiment. "Gradation (Gd)" and "Pattern (Pt)" are defined. The “gradation” tag indicates that an edge having this attribute is a drawing object having a drawing effect that changes its color value stepwise. Here, only a drawing object whose color value changes in the horizontal direction (x direction) as a gradation is considered, but it can of course be applied to other gradations. The “pattern” tag represents a drawing object that forms a pixel pattern that is repeated at a certain cycle with an edge having this attribute. The “gradation” tag and the “pattern” tag are both associated with the BG image.
これらのタグ情報が付加されることで、エッジ穴埋め処理における処理内容が異なってくる。具体的には、図11のステップS266の処理内容が異なってくる。本実施形態においては、BG画像生成部135は、FGエッジ群の両端のBG画像の始点座標(Sx)、終点座標(Ex)および色情報(C)に加え、タグ情報(T)を参照してラスタ展開を行う。BG画像生成部135がFGエッジ群の両端のBG画像のタグ情報を参照した結果、これが「テキスト」、「グラフィクス」、「イメージ」あるいは「ヌル」タグであれば、このときの処理は第1実施形態と同様である。しかし、BG画像生成部135がFGエッジ群の両端のBG画像のタグ情報を参照した結果、これが「グラデーション」あるいは「パターン」タグであった場合には、第1実施形態とは異なる処理を行う。そこで、ここではタグ情報が「グラデーション」あるいは「パターン」タグであった場合のステップS266についての説明のみを行い、その他については省略する。
By adding such tag information, the processing contents in the edge filling process are different. Specifically, the processing content of step S266 in FIG. 11 is different. In the present embodiment, the BG
まず、FGエッジ群の両端のBG画像が「グラデーション」タグであった場合について説明する。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標、色情報をそれぞれExl,Clとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標、色情報をそれぞれSxr,Crとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域をClとCrへと段階的に変化する色によって描画する処理となる。具体的には、このFGエッジ群のx方向のピクセル数をp1とし、Cl,CrのRGB値をそれぞれ(Rl,Gl,Bl)、(Rr,Gr,Br)とすると、BG画像生成部135は、FGエッジ群の左端のRGB値をCl,FGエッジ群の右端のRGB値をCrとし、各ピクセル間においては、RGB値のR,G,Bそれぞれの値が隣接する画素と「|Rl−Rr|/p1」,「|Gl−Gr|/p1」,「|Gl−Gr|/p1」ずつ段階的に変化していくように描画を行う。ここで、|n|は数値nの絶対値を示しており、R,G,Bのそれぞれの値が割り切れない場合には四捨五入等を行うとする。このような処理を行えば、FGエッジ群に相当する領域の色が段階的に変化するように描画され、両端のBG画像との間の色変化に違和感がなくなる。
First, a case where the BG images at both ends of the FG edge group are “gradation” tags will be described. Here, the end point coordinates and color information of the part of the BG image in contact with the left end of the FG edge group to be processed are respectively Ex l and C l, and the BG image of the part in contact with the right end of the FG edge group to be processed When the start point coordinates and color information of Sx r and C r are respectively, raster development uses “Ex l +1” as the start point coordinates and “Sx r +1” as the end point coordinates, and the region in this range is defined as C l and C r. This is a process of drawing with a color that changes step by step. Specifically, the number of pixels in the x direction of the FG edge group is p 1, and the RGB values of C l and C r are (R l , G l , B l ) and (R r , G r , B r, respectively. ) and when, BG
図22は、本実施形態のエッジ穴埋め処理と第1実施形態のエッジ穴埋め処理とを比較するための図である。例えば、あるエッジラインの処理前の中間データがEL4であるとすると、第1実施形態のエッジ穴埋め処理を行うことによりEL5のようになる。このとき、このエッジラインEL5のBG画像において抜け領域に相当する領域の色値はFGエッジ群の両端の色値の平均値となり、この領域内は一様な色で描画される。一方、このエッジラインに本実施形態のエッジ穴埋め処理を行うと、EL6のようになり、BG画像の抜け領域に相当する領域においても段階的に色値が変化し、両端のBG画像と違和感なく連結するようになる。 FIG. 22 is a diagram for comparing the edge filling process of the present embodiment with the edge filling process of the first embodiment. For example, if the intermediate data before processing of a certain edge line is EL 4 , EL 5 is obtained by performing the edge filling process of the first embodiment. At this time, the color value of the area corresponding to the missing area in the BG image of the edge line EL 5 is the average value of the color values at both ends of the FG edge group, and the area is rendered with a uniform color. On the other hand, when the edge hole filling process of this embodiment is performed on this edge line, it becomes EL 6 and the color value changes step by step even in the region corresponding to the missing region of the BG image, which is uncomfortable with the BG images at both ends. It will be connected without.
続いて、FGエッジ群の両端のBG画像が「パターン」タグであった場合について説明する。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標をExlとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標をSxrとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域を一定の周期で繰り返される画素パターンで描画する処理となる。具体的には、例えばFGエッジ群の両端のBG画像が、p1ピクセルの間隔で色値C1からC2へと変化していくパターン画像であった場合には、FGエッジ群に相当する領域も同様のパターン画像をなるように描画を行う。このような処理を行えば、FGエッジ群に相当する領域の色が一定の周期で繰り返される画素パターンで描画され、両端のBG画像との間の色変化に違和感がなくなる。 Next, a case where the BG images at both ends of the FG edge group are “pattern” tags will be described. Here, the end point coordinates of the part of the BG image that is in contact with the left end of the processing target FG edge group are set as Ex l, and the start point coordinates of the part of the BG image that is in contact with the right end of the processing target FG edge group are set as Sx r . Then, this raster development is a process of drawing an area in this range with a pixel pattern that is repeated at a constant cycle, with “Ex l +1” as the start point coordinate and “Sx r +1” as the end point coordinate. Specifically, for example, when the BG images at both ends of the FG edge group are pattern images that change from the color value C 1 to C 2 at an interval of p 1 pixels, this corresponds to the FG edge group. The region is drawn so as to form a similar pattern image. If such processing is performed, the color of the region corresponding to the FG edge group is drawn with a pixel pattern that is repeated at a constant cycle, and there is no sense of incongruity in the color change between the BG images at both ends.
図23は、本実施形態のエッジ穴埋め処理と第1実施形態のエッジ穴埋め処理とを比較するための図である。例えば、あるエッジラインの処理前の中間データがEL7であるとすると、第1実施形態のエッジ穴埋め処理を行うことによりEL8のようになる。このとき、このエッジラインEL8のBG画像において抜け領域に相当する領域の色値はFGエッジ群の両端の色値の平均値となり、この領域内は一様な色で描画される。一方、このエッジラインに本実施形態のエッジ穴埋め処理を行うと、EL9のようになり、BG画像の抜け領域に相当する領域においても一定の周期で色値が変化し、両端のBG画像と違和感なく連結するようになる。 FIG. 23 is a diagram for comparing the edge filling process of the present embodiment with the edge filling process of the first embodiment. For example, if the intermediate data before processing of a certain edge line is EL 7 , EL 8 is obtained by performing the edge filling process of the first embodiment. At this time, the color value of the region corresponding to the missing region in the BG image of the edge line EL 8 is the average value of the color values at both ends of the FG edge group, and the region is rendered with a uniform color. On the other hand, when the edge hole filling process of this embodiment is performed on this edge line, it becomes EL 9 and the color value changes in a certain period even in the region corresponding to the missing region of the BG image, It becomes connected without a sense of incongruity.
(3)変形例
以上に第1,第2実施形態を例示して本発明に係る画像処理装置について説明したが、本発明の適用はこのような態様に限定されるものではなく、種々の変形が可能である。以下にその例を示す。
まず、上述の実施形態においては、エッジ穴埋め処理を行う場合には、処理対象のFGエッジ群の左右のエッジのみを参照していたが、本発明の適用はこのような態様に限定されるものではなく、例えば処理対象のFGエッジ群の上下のエッジラインを参照してもよい。すなわち、エッジ穴埋め処理において参照する領域は、処理対象のFGエッジ群に隣接するエッジであればよい。また、このとき参照するエッジラインは、処理対象のFGエッジ群に直接接しているエッジラインだけでなく、複数のエッジラインを参照してもよい。
(3) Modification Examples The image processing apparatus according to the present invention has been described by exemplifying the first and second embodiments. However, the application of the present invention is not limited to such an aspect, and various modifications are possible. Is possible. An example is shown below.
First, in the above-described embodiment, when edge filling processing is performed, only the left and right edges of the FG edge group to be processed are referred to, but the application of the present invention is limited to such an aspect. Instead, for example, the upper and lower edge lines of the FG edge group to be processed may be referred to. That is, the region referred to in the edge hole filling process may be an edge adjacent to the processing target FG edge group. Further, the edge lines referred to at this time may refer to a plurality of edge lines as well as the edge lines directly in contact with the processing target FG edge group.
また、本発明では、BG画像の圧縮方式としては、特にDCTを用いたJPEG方式が好適であり、上述の実施形態においてはこれを例に説明した。しかしながら、本発明におけるBG画像の圧縮方式はJPEG方式に限定されるものではなく、例えばDCTのようにブロック単位で圧縮処理を行うような種々の圧縮方式を利用可能である。
同様に、FG画像の圧縮方式としても、MMR方式に限定されるものではなく、例えばMH(Modified Huffman)方式やMR(Modified Read)方式等、種々の圧縮方式が利用可能である。
In the present invention, the JPEG method using DCT is particularly suitable as the BG image compression method, and this has been described as an example in the above-described embodiments. However, the BG image compression method in the present invention is not limited to the JPEG method, and various compression methods that perform compression processing in units of blocks, such as DCT, can be used.
Similarly, the FG image compression method is not limited to the MMR method, and various compression methods such as an MH (Modified Huffman) method and an MR (Modified Read) method can be used.
また、上述の実施形態においては、レイヤ画像はFG画像とBG画像の2種類であるとしたが、もちろん3層以上のレイヤ画像が存在する場合においても、本発明を適用することが可能である。なお、このように3層以上のレイヤ画像が存在する場合に上述のエッジ穴埋め処理を行う場合には、処理対象となっているレイヤ画像の上位層だけではなく、下位層も参照する必要がある。例えば、ある層(L1とする)において抜け領域が存在し、この層L1の下位層(L2とする)において抜け領域に相当する領域に描画オブジェクトが存在する状況を想定する。ここで、層L1をラスタ展開するときに、下位層L2を参照せずにこの抜け領域に穴埋め処理を行ってしまうと、下位層L2上の抜け領域に相当する領域に形成されていた描画オブジェクトが、穴埋め画像によってマスクされた状態となってしまい、表示されなくなってしまう。よって、このような処理を行う場合には、画像処理装置のBG画像生成部は、処理対象となっているレイヤ画像の下位層を参照し、下位層において穴埋め画像を形成しようとする領域に相当する領域に描画オブジェクトが存在すれば、エッジ穴埋め処理を行わない、というような動作とする必要がある。 In the above-described embodiment, there are two types of layer images, FG images and BG images. Of course, the present invention can be applied even when there are three or more layer images. . When the above-described edge filling process is performed when there are three or more layer images as described above, it is necessary to refer not only to the upper layer of the layer image to be processed but also to the lower layer. . For example, a situation is assumed in which a missing region exists in a certain layer (referred to as L 1 ) and a drawing object exists in a region corresponding to the missing region in a lower layer (referred to as L 2 ) of this layer L 1 . Here, when the layer L 1 is raster-developed, if the missing area is filled without referring to the lower layer L 2 , the layer L 1 is formed in an area corresponding to the missing area on the lower layer L 2. The drawn object is masked by the hole-filled image and is not displayed. Therefore, when performing such processing, the BG image generation unit of the image processing apparatus refers to the lower layer of the layer image that is the processing target, and corresponds to an area in which a hole-filled image is to be formed in the lower layer. If there is a drawing object in the area to be processed, it is necessary to perform an operation such that the edge filling process is not performed.
また、このような場合、画像処理装置内部においては、それぞれの層に対応する画像生成部においてどのような圧縮方式で圧縮処理を行うかが記憶されているとよい。そして、多層圧縮画像データを生成する際に記憶された各層の画像形成部の圧縮方式を参照し、上述したエッジ穴埋め処理を行うのに適した圧縮方式が適用されている層の画像生成部においてのみこのエッジ穴埋め処理を行うようにすればよい。 In such a case, in the image processing apparatus, it may be stored in what compression method the image generation unit corresponding to each layer performs the compression process. Then, referring to the compression method of the image forming unit of each layer stored when generating the multilayer compressed image data, in the image generating unit of the layer to which the compression method suitable for performing the edge filling process described above is applied Only this edge filling process should be performed.
また、上述の実施形態においては、文書データは文書作成アプリケーションによって作成されるものであると説明されているが、もちろんこのような態様に限定されるものではなく、文書データは外部機器から供給されるものであってもよい。 In the above-described embodiment, it is described that the document data is created by the document creation application. However, the present invention is not limited to such a mode, and the document data is supplied from an external device. It may be a thing.
10…画像処理装置、1…制御部、2…記憶部、3…入出力I/F、4…表示部、5…操作部、11…OS、12…文書作成アプリケーション、13…プリンタドライバ、131…I/F部、132…中間データ生成部、133…FG画像生成部、134…FG画像圧縮部、135…BG画像生成部、136…BG画像圧縮部、137…フォーマット部。
DESCRIPTION OF
Claims (15)
文書を表す文書データを画像情報に変換する変換手段と、
前記画像情報に含まれる前記オブジェクトを前記記憶手段に記憶された前記対応関係に従って複数の層に割り当て、これら各層の画像を表す層状画像データを生成する処理を行う層状画像生成手段とを備え、
前記層状画像生成手段は、処理の対象である特定層の画像においてオブジェクトが存在しない抜け領域が存在している場合、該特定層の上位層または下位層において前記抜け領域の位置に相当する領域に存在するオブジェクトと、該特定層に存在するオブジェクトとに基づいて生成した穴埋め画像を前記抜け領域に形成して該特定層の層状画像データを生成する画像処理装置。 Storage means for storing correspondence information between attribute information indicating the types of objects constituting the document and each layer divided into a plurality from upper to lower;
Conversion means for converting document data representing a document into image information;
Layered image generation means for performing processing for assigning the object included in the image information to a plurality of layers in accordance with the correspondence relationship stored in the storage means, and generating layered image data representing images of these layers,
When there is a missing area where no object exists in the image of the specific layer that is the processing target, the layered image generation unit creates a region corresponding to the position of the missing area in the upper layer or the lower layer of the specific layer. An image processing apparatus for forming a hole-filled image generated based on an existing object and an object existing in the specific layer in the missing region to generate layered image data of the specific layer.
前記エッジラインは、該エッジラインに含まれる各オブジェクトの始点座標、終点座標、色情報、あるいは前記属性情報のうちの少なくとも一つを含んだエッジ情報の集合によって表される
請求項1記載の画像処理装置。 The image information is represented by a set of edge lines obtained by subdividing the image in a certain direction,
The image according to claim 1, wherein the edge line is represented by a set of edge information including at least one of start point coordinates, end point coordinates, color information, and attribute information of each object included in the edge line. Processing equipment.
前記記憶手段に記憶された前記対応関係に基づき、前記エッジ情報のそれぞれを前記複数の層のいずれかに割り当てる
請求項2記載の画像処理装置。 The layered image generation means includes
The image processing apparatus according to claim 2, wherein each of the edge information is assigned to any one of the plurality of layers based on the correspondence relationship stored in the storage unit.
前記上位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記特定層における前記抜け領域に隣接する領域のオブジェクトに基づいて前記穴埋め画像を前記抜け領域に形成する
請求項1記載の画像処理装置。 The layered image generation means includes
When the object exists in an area corresponding to the position of the missing area in the upper layer, the hole filling image is formed in the missing area based on an object in an area adjacent to the missing area in the specific layer. The image processing apparatus according to 1.
前記下位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記穴埋め画像を形成しない
請求項1記載の画像処理装置。 The layered image generation means includes
The image processing apparatus according to claim 1, wherein the hole-filled image is not formed when an object exists in an area corresponding to the position of the missing area in the lower layer.
前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報とに基づいて、前記穴埋め画像を形成する
請求項2記載の画像処理装置。 The layered image generation means includes
The image processing apparatus according to claim 2, wherein the hole-filling image is formed based on the start point coordinates, the end point coordinates, and the color information of an object existing in an area adjacent to the missing area.
前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報と、前記属性情報とに基づいて、前記穴埋め画像を形成する
請求項2記載の画像処理装置。 The layered image generation means includes
The image processing apparatus according to claim 2, wherein the hole-filled image is formed based on the start point coordinates, the end point coordinates, the color information, and the attribute information of an object existing in an area adjacent to the missing area.
前記抜け領域に隣接する領域に存在するオブジェクトの色情報がいずれも一定の色値を有する色情報である場合に、該色値を有する前記穴埋め画像を形成する
請求項6または7記載の画像処理装置。 The layered image generation means includes
The image processing according to claim 6 or 7, wherein when the color information of an object existing in an area adjacent to the missing area is color information having a constant color value, the hole-filled image having the color value is formed. apparatus.
前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有する場合に、該複数のオブジェクトの色値の平均値を有する前記穴埋め画像を形成する
請求項6または7記載の画像処理装置。 The layered image generation means includes
8. The hole-filled image having an average value of the color values of the plurality of objects is formed when objects existing in the plurality of regions adjacent to the missing region have color information of different color values. Image processing apparatus.
前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有し、かつ、これらのオブジェクトがともに色値を段階的に変化させていく描画効果を有するオブジェクトの属性情報を有する場合に、段階的に変化する色値を有する前記穴埋め画像を形成する
請求項7項記載の画像処理装置。 The layered image generation means includes
Attribute information of an object having a drawing effect in which objects existing in a plurality of areas adjacent to the missing area have color information of different color values, and these objects both change the color value in stages. The image processing apparatus according to claim 7, wherein the hole-filling image having a color value that changes stepwise is formed.
前記抜け領域に段階的に変化する色値を有する前記穴埋め画像を形成する場合に、該抜け領域に隣接する第1の領域に存在するオブジェクトの第1の色値から該抜け領域に隣接する第2の領域に存在するオブジェクトの第2の色値へと段階的に変化する色値を有する前記穴埋め画像を形成する
請求項10記載の画像処理装置。 The layered image generation means includes
When forming the hole-filling image having a color value that changes stepwise in the missing area, the first color value of the object existing in the first area adjacent to the missing area is changed to the first color value adjacent to the missing area. The image processing apparatus according to claim 10, wherein the hole-filled image having a color value that gradually changes to a second color value of an object existing in the second area is formed.
前記抜け領域に隣接する領域に存在するオブジェクトが周期的に変化する色値を有するオブジェクトの属性情報を有する場合に、周期的に変化する色値を有する前記穴埋め画像を形成する
請求項7記載の画像処理装置。 The layered image generation means includes
8. The hole-filling image having a periodically changing color value is formed when an object existing in an area adjacent to the missing area has attribute information of an object having a periodically changing color value. Image processing device.
前記上位層において、前記抜け領域の位置に相当する領域にオブジェクトが存在し、かつ、前記領域に隣接する複数の領域にオブジェクトが存在しない領域が含まれる場合には、前記特定層において、前記抜け領域と前記上位層の前記オブジェクトが存在しない領域に相当する領域との境界近傍には穴埋め画像を形成しない
請求項4記載の画像処理装置。 The layered image generation means includes
In the upper layer, when an object exists in an area corresponding to the position of the missing area and an area where no object exists is included in a plurality of areas adjacent to the area, the missing layer includes the missing area. The image processing apparatus according to claim 4, wherein a hole-filled image is not formed in the vicinity of a boundary between a region and a region corresponding to a region where the object in the upper layer does not exist.
請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising: a compression unit that performs compression processing on each layer image of the layered image data generated by the layered image generation unit using a compression method determined for each layer.
請求項14記載の画像処理装置。 15. The image to be generated is determined by referring to a compression method of compression processing performed on the image of the specific layer when the layered image generation unit forms the hole-filled image in the missing region of the specific layer. The image processing apparatus described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004235413A JP4345609B2 (en) | 2004-08-12 | 2004-08-12 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004235413A JP4345609B2 (en) | 2004-08-12 | 2004-08-12 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006054712A true JP2006054712A (en) | 2006-02-23 |
JP4345609B2 JP4345609B2 (en) | 2009-10-14 |
Family
ID=36031886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004235413A Expired - Fee Related JP4345609B2 (en) | 2004-08-12 | 2004-08-12 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4345609B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165538A (en) * | 2006-12-28 | 2008-07-17 | Canon Inc | Image processor and control method for image processor |
JP2011004302A (en) * | 2009-06-22 | 2011-01-06 | Fuji Xerox Co Ltd | Image processing device and image processing program |
JP2011009924A (en) * | 2009-06-24 | 2011-01-13 | Canon Inc | Image processing apparatus, image processing method, and computer program |
JP2014107683A (en) * | 2012-11-27 | 2014-06-09 | Kyocera Document Solutions Inc | Image processing device |
JP2020007037A (en) * | 2018-07-12 | 2020-01-16 | 澁谷工業株式会社 | Cap seaming device |
-
2004
- 2004-08-12 JP JP2004235413A patent/JP4345609B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165538A (en) * | 2006-12-28 | 2008-07-17 | Canon Inc | Image processor and control method for image processor |
JP2011004302A (en) * | 2009-06-22 | 2011-01-06 | Fuji Xerox Co Ltd | Image processing device and image processing program |
JP2011009924A (en) * | 2009-06-24 | 2011-01-13 | Canon Inc | Image processing apparatus, image processing method, and computer program |
US8532385B2 (en) | 2009-06-24 | 2013-09-10 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
JP2014107683A (en) * | 2012-11-27 | 2014-06-09 | Kyocera Document Solutions Inc | Image processing device |
US9165205B2 (en) | 2012-11-27 | 2015-10-20 | Kyocera Document Solutions Inc. | Image processing device generating character image and background image on the basis of connected pixel group |
JP2020007037A (en) * | 2018-07-12 | 2020-01-16 | 澁谷工業株式会社 | Cap seaming device |
Also Published As
Publication number | Publication date |
---|---|
JP4345609B2 (en) | 2009-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4766657B2 (en) | Image processing apparatus, control method therefor, and program | |
US10477063B2 (en) | Character detection and binarization | |
US8855438B2 (en) | Image processing apparatus, image processing method of image processing apparatus, and program | |
JP2000511364A (en) | Method and apparatus for reducing storage requirements for display data | |
US10592766B2 (en) | Image processing apparatus and medium storing program executable by image processing apparatus | |
US8654147B2 (en) | Apparatus for generating raster images, raster image generating method, and storage medium | |
US20090303550A1 (en) | Image processing apparatus and image processing method | |
US20060203011A1 (en) | Image processing apparatus, image processing method, and storage medium storing a program for causing image processing to be executed | |
JP4345609B2 (en) | Image processing apparatus and program | |
US7324696B2 (en) | Method for tag plane growth and contraction using run length encoded data | |
US10565465B2 (en) | Image processing apparatus that identifies character pixel in target image using first and second candidate character pixels | |
CA2346761C (en) | Method, system, program, and data structure for generating raster objects | |
US7382494B2 (en) | Method for tag plane growth and contraction for improving object edge rendering | |
JP2006244248A (en) | Image processing device, image processing method, and program for executing image processing method | |
JP2007088912A (en) | Image processing apparatus and program | |
JP3211417B2 (en) | Page description language processor | |
JP2006054817A (en) | Document processor | |
JP5112223B2 (en) | Image processing apparatus and image processing program | |
JP2006140597A (en) | Device and method for printing control, computer program, and storage medium | |
JP3968989B2 (en) | Image processing apparatus, image processing method, and storage medium storing image processing program | |
JPH05205015A (en) | Image processor | |
JP2006129250A (en) | Image processor | |
JP2010187177A (en) | Image forming apparatus and control program | |
JP2006040161A (en) | Image processing apparatus and program | |
JP2000261670A (en) | Image processing unit, its method and memory computer- readable |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090430 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090623 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090706 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120724 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120724 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130724 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |