JP2006054712A - Image processing unit - Google Patents

Image processing unit Download PDF

Info

Publication number
JP2006054712A
JP2006054712A JP2004235413A JP2004235413A JP2006054712A JP 2006054712 A JP2006054712 A JP 2006054712A JP 2004235413 A JP2004235413 A JP 2004235413A JP 2004235413 A JP2004235413 A JP 2004235413A JP 2006054712 A JP2006054712 A JP 2006054712A
Authority
JP
Japan
Prior art keywords
image
edge
area
information
hole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004235413A
Other languages
Japanese (ja)
Other versions
JP4345609B2 (en
Inventor
Yozo Kashima
洋三 鹿島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004235413A priority Critical patent/JP4345609B2/en
Publication of JP2006054712A publication Critical patent/JP2006054712A/en
Application granted granted Critical
Publication of JP4345609B2 publication Critical patent/JP4345609B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To layer document data efficiently, and to obtain high-quality and high-compressibility image data. <P>SOLUTION: An image processing unit 10 executes various programs stored in a storage 2 by a control unit 1. The image processing unit 10 generates intermediate data from document data for generating multilayered compression image data based on the intermediate data by executing a printer driver program PRG3. The intermediate data are expressed as a set of edges for each object; and startpoint coordinates, endpoint coordinates, color information, and attribute information are described in each edge. The image processing unit 10 generates FG and BG images from the intermediate data based on the information, and executes edge padding processing of the BG image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、文書を構成する文字、図形および画像等の描画オブジェクトに基づいて層状の画像データを作成し、それぞれの層に対して画像処理を施すための技術に関する。   The present invention relates to a technique for creating layered image data based on drawing objects such as characters, graphics, and images constituting a document and performing image processing on each layer.

写真等の「自然画像」や「文字」、「図形・線画」といった複数の描画オブジェクトが混在した文書を解析し、それぞれの描画オブジェクトを別々に圧縮することにより、高画質でありながらも圧縮率の高い画像データに変換する技術がある。このような技術の一例として、特許文献1に記載された技術(以下、「従来技術」という)がある。従来技術においては、まず、多値画像で表された文書から二値画像を生成し、二値画像を用いて文字領域を抽出する。そして、多値画像の文字領域をその文字周辺色で塗りつぶし、下地領域を表す下地多値画像を得る。このように多値画像から文字領域と下地領域とを分離し、文字領域はMMR(Modified Modified Read)方式で圧縮し、下地領域はJPEG(Joint Photographic Experts Group)方式で圧縮することにより、JPEG方式の圧縮処理において文字領域の境界で発生するモスキートノイズを抑え、高画質かつ高圧縮率の画像データを得ている。   Analyzes a document containing multiple drawing objects such as “natural images” such as photographs, “characters”, and “figures / line drawings”, and compresses each drawing object separately, resulting in high image quality but with a high compression ratio There is a technology for converting the image data into high image data. As an example of such a technique, there is a technique described in Patent Document 1 (hereinafter referred to as “conventional technique”). In the prior art, first, a binary image is generated from a document represented by a multi-valued image, and a character region is extracted using the binary image. Then, the character area of the multi-valued image is painted with the surrounding color of the character to obtain a background multi-valued image representing the background area. In this way, the character area and the background area are separated from the multi-valued image, the character area is compressed by the MMR (Modified Modified Read) method, and the background area is compressed by the JPEG (Joint Photographic Experts Group) method. In this compression process, mosquito noise generated at the boundary of the character area is suppressed, and image data with high image quality and high compression rate is obtained.

しかし、この従来技術にはいくつかの問題点が見出される。
第一に、従来技術においては、上述したように二値画像に基づいて文字領域を特定している。そのため、下地多値画像を求めるためには、文字領域を示す二値画像と文字周辺色を示す多値画像の両方を参照する必要があり、その処理に時間を要するという問題がある。
第二に、従来技術はスキャナ等により読み取られた画像データを多層化して圧縮するのには適した技術であるものの、コンピュータの文書作成ソフトウェアにより作成された文書のデータや、この文書をページ記述言語等により記述したデータ(以下、これらのデータを「文書データ」と総称する)を多層化するには不適である。なぜなら、従来技術においては、文書データを多層化するためには、これらをいったん展開してラスタ化された多値画像と二値画像を生成しなければならず、処理に無駄が多いからである。また、ラスタ化された画像データは文書データよりもはるかにデータ容量が大きいため、メモリ等の物理リソースを多く必要とするという問題もある。
However, several problems are found in this prior art.
First, in the prior art, as described above, a character region is specified based on a binary image. For this reason, in order to obtain the background multi-value image, it is necessary to refer to both the binary image indicating the character region and the multi-value image indicating the character peripheral color, and there is a problem that the processing takes time.
Second, although the conventional technology is suitable for multilayering and compressing image data read by a scanner or the like, document data created by computer document creation software, or page description of this document. It is unsuitable for multilayering data described in a language or the like (hereinafter, these data are collectively referred to as “document data”). This is because, in the prior art, in order to make document data multi-layered, it is necessary to generate rasterized multi-valued images and binary images, which is wasteful in processing. . Further, since the rasterized image data has a data capacity much larger than that of the document data, there is a problem that a lot of physical resources such as a memory are required.

特開2003−244447号公報JP 2003-244447 A

本発明は上述の問題に鑑みてなされたものであり、その目的は、文書データを効率良く多層化し、高画質かつ高圧縮率の画像データを得るための技術を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for efficiently multilayering document data and obtaining image data with high image quality and high compression rate.

上述の目的を達成するために、本発明は、文書を構成するオブジェクトの種類を示す属性情報と、上位から下位へ複数に区分された各層との対応関係を記憶する記憶手段と、文書を表す文書データを画像情報に変換する変換手段と、前記画像情報に含まれる前記オブジェクトを前記記憶手段に記憶された前記対応関係に従って複数の層に割り当て、これら各層の画像を表す層状画像データを生成する処理を行う層状画像生成手段とを備え、前記層状画像生成手段は、処理の対象である特定層の画像においてオブジェクトが存在しない抜け領域が存在している場合、該特定層の上位層または下位層において前記抜け領域の位置に相当する領域に存在するオブジェクトと、該特定層に存在するオブジェクトとに基づいて生成した穴埋め画像を前記抜け領域に形成して該特定層の層状画像データを生成する画像処理装置提供する。
このような画像処理装置によれば、ある特定層に抜け領域がある場合には、特定層の上位層または下位層に存在するオブジェクトに基づいて穴埋め画像が生成されるので、高画質かつ高圧縮率の画像データを得ることが可能となる。
In order to achieve the above-described object, the present invention represents a document, attribute information indicating the types of objects constituting the document, storage means for storing a correspondence relationship between each layer divided into a plurality from the upper level to the lower level, and the document A conversion unit that converts document data into image information; and the object included in the image information is assigned to a plurality of layers in accordance with the correspondence relationship stored in the storage unit, and layered image data representing an image of each layer is generated. A layered image generation unit that performs processing, and the layered image generation unit includes an upper layer or a lower layer of the specific layer when there is a missing area in which an object does not exist in the image of the specific layer to be processed In the above, a hole-filled image generated based on an object existing in an area corresponding to the position of the missing area and an object existing in the specific layer is Only formed in the region to provide an image processing apparatus for generating a layered image data of the particular layer.
According to such an image processing device, when there is a missing area in a specific layer, a hole-filled image is generated based on an object existing in an upper layer or a lower layer of the specific layer. Rate image data can be obtained.

また、本発明の画像処理装置は、より好適な態様として、前記画像情報は、画像をある方向に細分化したエッジラインの集合によって表され、前記エッジラインは、該エッジラインに含まれる各オブジェクトの始点座標、終点座標、色情報、あるいは前記属性情報のうちの少なくとも一つを含んだエッジ情報の集合によって表される。
さらに好適には、前記層状画像生成手段は、前記記憶手段に記憶された前記対応関係に基づき、前記エッジ情報のそれぞれを前記複数の層のいずれかに割り当ててもよい。
このようにすれば、画像データをエッジ情報の集合によって表すことができ、文書データを効率良く多層化するとともに、ある層における抜け領域の穴埋めを行うことが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the image information is represented by a set of edge lines obtained by subdividing the image in a certain direction, and the edge lines are the objects included in the edge lines. Is represented by a set of edge information including at least one of the start point coordinates, end point coordinates, color information, or attribute information.
More preferably, the layered image generation means may assign each of the edge information to any one of the plurality of layers based on the correspondence relationship stored in the storage means.
In this way, the image data can be represented by a set of edge information, and the document data can be efficiently multi-layered and the missing area can be filled in a certain layer.

また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記上位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記特定層における前記抜け領域に隣接する領域のオブジェクトに基づいて前記穴埋め画像を前記抜け領域に形成する。
あるいは、前記層状画像生成手段は、前記下位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記穴埋め画像を形成しない。
このようにすれば、適切に穴埋め画像を形成することが可能となる。
In a more preferred aspect of the image processing apparatus according to the present invention, the layered image generation means may be configured such that when an object exists in an area corresponding to the position of the missing area in the upper layer, the layer in the specific layer The hole-filling image is formed in the missing area based on the object in the area adjacent to the missing area.
Alternatively, the layered image generation means does not form the hole-filled image when an object exists in an area corresponding to the position of the missing area in the lower layer.
In this way, it is possible to appropriately form a hole filling image.

このとき、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報とに基づいて、前記穴埋め画像を形成することが可能である。
あるいは、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報と、前記属性情報とに基づいて、前記穴埋め画像を形成することが可能である。
At this time, the layered image generation means can form the hole-filled image based on the start point coordinates, the end point coordinates, and the color information of an object existing in an area adjacent to the missing area. is there.
Alternatively, the layered image generation unit forms the hole-filled image based on the start point coordinates, the end point coordinates, the color information, and the attribute information of an object existing in an area adjacent to the missing area. It is possible.

また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトの色情報がいずれも一定の色値を有する色情報である場合に、該色値を有する前記穴埋め画像を形成する。
または、前記層状画像生成手段は、前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有する場合に、該複数のオブジェクトの色値の平均値を有する前記穴埋め画像を形成する。
このようにすれば、抜け領域に隣接する領域との間で違和感のない穴埋め画像を形成することが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the layered image generation means is such that color information of objects existing in a region adjacent to the missing region has a constant color value. In this case, the hole-filling image having the color value is formed.
Alternatively, the layered image generation means may provide the hole-filled image having an average value of the color values of the plurality of objects when objects existing in the plurality of regions adjacent to the missing region have color information of different color values. Form.
In this way, it is possible to form a hole-filled image without a sense of incongruity between the area adjacent to the missing area.

また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有し、かつ、これらのオブジェクトがともに色値を段階的に変化させていく描画効果を有するオブジェクトの属性情報を有する場合に、段階的に変化する色値を有する前記穴埋め画像を形成する。
さらに好適には、前記層状画像生成手段は、前記抜け領域に段階的に変化する色値を有する前記穴埋め画像を形成する場合に、該抜け領域に隣接する第1の領域に存在するオブジェクトの第1の色値から該抜け領域に隣接する第2の領域に存在するオブジェクトの第2の色値へと段階的に変化する色値を有する前記穴埋め画像を形成してもよい。
このようにすれば、抜け領域に隣接する領域がいわゆるグラデーション画像であっても、違和感のない穴埋め画像を形成することが可能となる。
Further, in a more preferred aspect of the image processing apparatus of the present invention, the layered image generation means has color information of different color values for objects existing in a plurality of areas adjacent to the missing area, and When both of these objects have attribute information of an object having a drawing effect that changes the color value in stages, the above-described hole-filling image having a color value that changes in stages is formed.
More preferably, when the layered image generating means forms the hole-filled image having a color value that changes in a stepwise manner in the missing area, the layered image generating unit is configured to change the first number of objects existing in the first area adjacent to the missing area. The hole-filling image having a color value that changes stepwise from a color value of 1 to a second color value of an object existing in a second area adjacent to the missing area may be formed.
In this way, even if the area adjacent to the missing area is a so-called gradation image, it is possible to form a hole-filled image without a sense of incongruity.

また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記抜け領域に隣接する領域に存在するオブジェクトが周期的に変化する色値を有するオブジェクトの属性情報を有する場合に、周期的に変化する色値を有する前記穴埋め画像を形成する。
このようにすれば、抜け領域に隣接する領域が周期的に色値が変化するパターン画像であっても、違和感のない穴埋め画像を形成することが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the layered image generation unit has attribute information of an object having a color value that periodically changes an object that exists in an area adjacent to the missing area. In some cases, the hole-filled image having a color value that changes periodically is formed.
In this way, it is possible to form a hole-filled image without a sense of incongruity even if the region adjacent to the missing region is a pattern image in which the color value changes periodically.

また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段は、前記上位層において、前記抜け領域の位置に相当する領域にオブジェクトが存在し、かつ、前記領域に隣接する複数の領域にオブジェクトが存在しない領域が含まれる場合には、前記特定層において、前記抜け領域と前記上位層の前記オブジェクトが存在しない領域に相当する領域との境界近傍には穴埋め画像を形成しない。
このようにすれば、層状画像データを圧縮する場合に、ノイズの発生を抑えることが可能となる。
In a more preferred aspect of the image processing apparatus of the present invention, the layered image generation means includes an object in an area corresponding to the position of the missing area in the upper layer and is adjacent to the area. When an area where no object exists is included in a plurality of areas, a filling image is not formed near the boundary between the missing area and the area corresponding to the area where the object of the upper layer does not exist in the specific layer. .
In this way, it is possible to suppress the occurrence of noise when layered image data is compressed.

また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段により生成された前記層状画像データの各層の画像に対して、それぞれに決められた圧縮方式で圧縮処理を行う圧縮手段を備える。
このようにすれば、層状画像データを圧縮し、データ容量を小さくすることが可能となる。
Further, the image processing apparatus according to the present invention, as a more preferable aspect, performs compression processing in which compression processing is performed on each layer image of the layered image data generated by the layered image generation unit using a compression method determined for each layer. Means.
This makes it possible to compress the layered image data and reduce the data capacity.

また、本発明の画像処理装置は、より好適な態様として、前記層状画像生成手段が前記特定層の前記抜け領域に前記穴埋め画像を形成するときに、該特定層の画像に行われる圧縮処理の圧縮方式を参照することにより生成する画像を決定する。
このようにすれば、穴埋め画像を形成するのに適した圧縮方式が適用されている層にのみ穴埋め画像を形成することが可能となる。
Further, the image processing apparatus according to the present invention may be configured such that, as a more preferable aspect, when the layered image generation unit forms the hole-filled image in the missing area of the specific layer, the compression processing performed on the image of the specific layer An image to be generated is determined by referring to the compression method.
In this way, it is possible to form a hole-filled image only in a layer to which a compression method suitable for forming a hole-filled image is applied.

次に、本発明の実施の形態について説明する。
(1)第1実施形態
(1−1)構成
図1は、本発明の第1の実施形態に係る画像処理装置10のハードウェア構成を示したブロック図である。画像処理装置10は、例えばパーソナルコンピュータであり、制御部1と、記憶部2と、入出力I/F3と、表示部4と、操作部5とを備えている。制御部1は、CPU(Central Processing Unit)等の演算装置と、ROM(Read Only Memory)やRAM(Random Access Memory)等の各種メモリとを備えている。記憶部2は、例えばハードディスク等の大容量の不揮発性記憶装置であり、基本ソフトウェアであるOSプログラムPRG1を記憶している。また、記憶部2には、文書作成プログラムPRG2やプリンタドライバプログラムPRG3、タグ対応テーブルTBLが記憶されている。OSプログラムPRG1には、画像処理装置1の各部の基本的な処理を実行するための手順が記述されている。文書作成プログラムPRG2には、操作者による操作内容に従って文書データを作成するための手順が記述されている。プリンタドライバプログラムPRG3には、印刷用の描画命令を解釈して、多層圧縮画像データを生成するための手順が記述されている。タグ対応テーブルTBLには、タグ情報とレイヤ画像の関連付けが記述されているが、この詳細については後述する。入出力I/F3は、コンピュータやプリンタ等の外部機器と接続されており、外部機器とデータの授受を行う。表示部4は、例えば液晶ディスプレイであり、制御部1によって供給されるデータに基づいて画像を表示する。操作部5は、例えばキーボードやマウス等であり、操作者の操作内容に応じた信号を制御部1に供給する。
Next, an embodiment of the present invention will be described.
(1) First Embodiment (1-1) Configuration FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus 10 according to a first embodiment of the present invention. The image processing apparatus 10 is a personal computer, for example, and includes a control unit 1, a storage unit 2, an input / output I / F 3, a display unit 4, and an operation unit 5. The control unit 1 includes an arithmetic device such as a CPU (Central Processing Unit) and various memories such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 2 is a large-capacity nonvolatile storage device such as a hard disk, for example, and stores an OS program PRG1 that is basic software. The storage unit 2 stores a document creation program PRG2, a printer driver program PRG3, and a tag correspondence table TBL. The OS program PRG1 describes a procedure for executing basic processing of each unit of the image processing apparatus 1. The document creation program PRG2 describes a procedure for creating document data in accordance with the operation contents by the operator. The printer driver program PRG3 describes a procedure for interpreting a printing drawing command and generating multi-layer compressed image data. The tag correspondence table TBL describes the association between tag information and layer images, details of which will be described later. The input / output I / F 3 is connected to an external device such as a computer or a printer, and exchanges data with the external device. The display unit 4 is a liquid crystal display, for example, and displays an image based on data supplied by the control unit 1. The operation unit 5 is, for example, a keyboard or a mouse, and supplies a signal corresponding to the operation content of the operator to the control unit 1.

図2は、この画像処理装置10の機能構成を示した機能ブロック図である。なお、この機能ブロック図においては、図中の矢印は画像処理装置10が実行する処理によって発生するデータや各種の制御情報の流れを表している。
同図に示されているように、画像処理装置10はOS11と、文書作成アプリケーション12と、プリンタドライバ13の機能を実現する。これらの機能は、画像処理装置10の記憶部2に記憶されたプログラムを制御部1が実行することにより実現されている。
このような構成により、画像処理装置10は操作者によって作成された文書データを多層圧縮画像データとして出力する。具体的には、操作者が操作部5を介して印刷指示を行うと、文書作成アプリケーション12は文書データを解釈し、OS11で定義されている描画命令に変換してこれをOS11に供給する。OS11は、この描画命令をプリンタドライバ13の解釈可能な印刷用描画命令に変換し、これをプリンタドライバ13に供給する。プリンタドライバ13は、この印刷用描画命令を解釈して多層圧縮画像データを生成する。多層圧縮画像データは、プリンタ等の外部機器に供給されることによって記録紙上に出力(印刷)される。
FIG. 2 is a functional block diagram showing a functional configuration of the image processing apparatus 10. In this functional block diagram, the arrows in the figure represent the flow of data and various control information generated by processing executed by the image processing apparatus 10.
As shown in the figure, the image processing apparatus 10 realizes the functions of an OS 11, a document creation application 12, and a printer driver 13. These functions are realized by the control unit 1 executing a program stored in the storage unit 2 of the image processing apparatus 10.
With such a configuration, the image processing apparatus 10 outputs document data created by the operator as multilayer compressed image data. Specifically, when the operator gives a print instruction via the operation unit 5, the document creation application 12 interprets the document data, converts it into a drawing command defined by the OS 11, and supplies this to the OS 11. The OS 11 converts this drawing command into a printing drawing command interpretable by the printer driver 13, and supplies this to the printer driver 13. The printer driver 13 interprets the print drawing command and generates multilayer compressed image data. The multilayer compressed image data is output (printed) on recording paper by being supplied to an external device such as a printer.

ここで、本実施形態の画像処理装置10により生成される多層圧縮画像データについて説明する。多層圧縮画像データとは、文書データに含まれる描画オブジェクトの種類に基づいて画像を複数の層の画像(以下、各層の画像のことを「レイヤ画像」という)に分類し、それぞれのレイヤ画像に異なる圧縮方式の圧縮処理を行った上で、これらを統合した画像データのことである。本実施形態においては、多層圧縮画像データはレイヤ画像としてFG(Foreground;前景)画像とBG(Background;背景)画像とを含んでいる。多層圧縮画像データが描画されるときには、FG画像はBG画像よりも前面に描画される。すなわち、BG画像はFG画像によってマスクされるようになっている。
なお、説明の便宜上、以下の説明においては、レイヤ画像として上述のFG画像とBG画像の他に「ヌル画像」があるものとして説明する。ここで、「ヌル画像」とは、白紙の領域、すなわち画像上において形成すべき描画オブジェクトの存在しない領域を表すレイヤ画像であると定義する。つまり、「ヌル画像」とは、実際には何らかのデータが生成されるものではなく、あくまでも概念的なものである。
Here, the multilayer compressed image data generated by the image processing apparatus 10 of the present embodiment will be described. Multi-layered compressed image data refers to classifying images into multiple layers of images (hereinafter referred to as “layer images”) based on the type of drawing object included in the document data. This is image data obtained by integrating the compression processes using different compression methods. In the present embodiment, the multilayer compressed image data includes an FG (Foreground) image and a BG (Background) image as layer images. When the multilayer compressed image data is drawn, the FG image is drawn in front of the BG image. That is, the BG image is masked by the FG image.
For convenience of explanation, in the following explanation, it is assumed that there is a “null image” in addition to the above-described FG image and BG image as a layer image. Here, the “null image” is defined as a layer image representing a blank area, that is, an area where a drawing object to be formed does not exist on the image. In other words, the “null image” is not a data that is actually generated, but is conceptual only.

続いて、プリンタドライバ13の機能について、さらに詳しく説明する。
図3は、プリンタドライバ13の機能構成を示した機能ブロック図である。なお、この機能ブロック図においても、図中の矢印は画像処理装置10が実行する処理によって発生するデータや各種の制御情報の流れを表している。
同図に示されているように、プリンタドライバ13は、I/F部131と、中間データ生成部132と、FG画像生成部133と、FG画像圧縮部134と、BG画像生成部135と、BG画像圧縮部136と、フォーマット部137の機能を実現する。I/F部131はOS11から呼び出される関数からなり、OS11から印刷用描画命令の供給を受ける。中間データ生成部132は印刷用描画命令を解釈して、プリンタドライバ13内部における文書データの表現形式である中間データに変換する。また、中間データ生成部132は、文書データ1ページ分に相当する中間データを生成する毎に、この中間データをFG画像生成部133とBG画像生成部135に供給する。FG画像生成部133はFG画像を生成し、FG画像圧縮部134はFG画像を所定の圧縮方式(例えばMMR方式)で圧縮してフォーマット部137に供給する。また、BG画像生成部135はBG画像を生成し、BG画像圧縮部136はBG画像を所定の圧縮方式(例えばJPEG方式)で圧縮してフォーマット部137に供給する。フォーマット部137は、これらの圧縮されたレイヤ画像を統合してファイル化し、出力する。
Next, the function of the printer driver 13 will be described in more detail.
FIG. 3 is a functional block diagram showing the functional configuration of the printer driver 13. Also in this functional block diagram, the arrows in the figure represent the flow of data and various control information generated by the processing executed by the image processing apparatus 10.
As shown in the figure, the printer driver 13 includes an I / F unit 131, an intermediate data generation unit 132, an FG image generation unit 133, an FG image compression unit 134, a BG image generation unit 135, The functions of the BG image compression unit 136 and the format unit 137 are realized. The I / F unit 131 includes a function called from the OS 11 and receives a print drawing command from the OS 11. The intermediate data generation unit 132 interprets the print drawing command and converts it into intermediate data that is an expression format of document data in the printer driver 13. The intermediate data generation unit 132 supplies the intermediate data to the FG image generation unit 133 and the BG image generation unit 135 every time intermediate data corresponding to one page of document data is generated. The FG image generation unit 133 generates an FG image, and the FG image compression unit 134 compresses the FG image by a predetermined compression method (for example, MMR method) and supplies the compressed FG image to the format unit 137. Further, the BG image generation unit 135 generates a BG image, and the BG image compression unit 136 compresses the BG image by a predetermined compression method (for example, JPEG method) and supplies the compressed BG image to the format unit 137. The format unit 137 integrates these compressed layer images into a file and outputs the file.

ここで、中間データ生成部132において生成される中間データについて説明する。
図4は、中間データの構造を示した模式図である。本実施形態において、中間データとは、文書をラスタ化するときの主走査方向(ここではx方向とする)の走査ライン数nと同量のエッジラインによって構成され、それぞれのエッジラインが複数のエッジによるエッジ列として表されている画像情報のことである。このエッジには、それぞれのエッジラインにどのような描画オブジェクトがあるのかを示した情報が記述されている。
Here, the intermediate data generated in the intermediate data generation unit 132 will be described.
FIG. 4 is a schematic diagram showing the structure of intermediate data. In the present embodiment, the intermediate data is composed of the same number of edge lines as the number of scanning lines n in the main scanning direction (here, x direction) when a document is rasterized, and each edge line includes a plurality of edge lines. It is image information represented as an edge row by edges. In this edge, information indicating what kind of drawing object exists in each edge line is described.

図5は、エッジの構造を示した模式図である。同図に示されているように、それぞれのエッジには、そのエッジの始点座標(Sx)と、終点座標(Ex)と、色情報(C)と、タグ情報(T)とが含まれている。始点座標Sxはエッジの一端のx座標値であり、終点座標Exはエッジの他端のx座標値である。そして、タグ情報は、エッジによって構成される描画オブジェクトの種類(属性)を表した属性情報である。本実施形態では、1つの走査ライン上に例えば「文字」や「グラフィクス」などの複数の描画オブジェクトが存在している場合、描画オブジェクトの種類が変わる毎にエッジが1つ生成されるようになっている。   FIG. 5 is a schematic diagram showing the structure of an edge. As shown in the figure, each edge includes a start point coordinate (Sx), an end point coordinate (Ex), color information (C), and tag information (T). Yes. The start point coordinate Sx is the x coordinate value of one end of the edge, and the end point coordinate Ex is the x coordinate value of the other end of the edge. The tag information is attribute information representing the type (attribute) of the drawing object constituted by the edges. In the present embodiment, when there are a plurality of drawing objects such as “characters” and “graphics” on one scanning line, one edge is generated each time the type of the drawing object changes. ing.

本実施形態においては、タグ情報として「テキスト(Tx)」、「グラフィクス(Gr)」、「イメージ(Im)」、「ヌル(Nl)」の4種類が定義されている。「テキスト」タグは、この属性を有するエッジがテキストオブジェクトであることを表す。ここでテキストオブジェクトとは、文字や記号等のいわゆるテキスト情報である。「グラフィクス」タグは、この属性を有するエッジがグラフィクスオブジェクトであることを表す。ここでグラフィクスオブジェクトとは、図形や画像がベクタ形式で表現されたいわゆるベクタ画像のことである。「イメージ」タグは、この属性を有するエッジがイメージオブジェクトであることを表す。ここでイメージオブジェクトとは、図形や画像がビットマップ形式で表現されたいわゆるラスタ画像のことである。「ヌル」タグは、この属性を有するエッジがヌル画像、すなわち何も描画オブジェクトが形成されていない領域であることを表す。なお、「テキスト」、「グラフィクス」、「イメージ」および「ヌル」のそれぞれのタグには、「0」、「1」、「2」および「3」の識別番号が付与されている。画像処理装置10の内部においては、タグ情報はこの識別番号によって識別される。   In this embodiment, four types of “text (Tx)”, “graphics (Gr)”, “image (Im)”, and “null (Nl)” are defined as tag information. The “text” tag indicates that an edge having this attribute is a text object. Here, the text object is so-called text information such as characters and symbols. The “graphics” tag represents that an edge having this attribute is a graphics object. Here, the graphics object is a so-called vector image in which graphics and images are expressed in a vector format. The “image” tag represents that an edge having this attribute is an image object. Here, the image object is a so-called raster image in which figures and images are expressed in a bitmap format. The “null” tag indicates that an edge having this attribute is a null image, that is, an area where no drawing object is formed. The identification numbers “0”, “1”, “2”, and “3” are assigned to the tags “text”, “graphics”, “image”, and “null”, respectively. Inside the image processing apparatus 10, tag information is identified by this identification number.

タグ情報は、FG画像、BG画像、あるいはヌル画像のいずれかのレイヤ画像に関連付けられている。この対応関係を記述したのがタグ対応テーブルTBLである。画像処理装置10は、このタグ対応テーブルTBLを参照することにより、それぞれの描画オブジェクトの属性とレイヤ画像の種類との対応関係を求めることが可能となる。
図6は、本実施形態におけるタグ対応テーブルTBLを示した模式図である。同図に示されているように、それぞれのタグ情報はいずれか1つのレイヤ画像に関連付けられており、関連付けられたレイヤ画像上にそれぞれのタグ情報が示す描画オブジェクトが形成される。本実施形態においては、「テキスト」タグが「FG画像」、「グラフィック」タグと「イメージ」タグが「BG画像」、「ヌル」タグが「ヌル画像」に関連付けられている。
The tag information is associated with any layer image of an FG image, a BG image, or a null image. This correspondence relationship is described in the tag correspondence table TBL. By referring to the tag correspondence table TBL, the image processing apparatus 10 can obtain the correspondence between the attributes of the respective drawing objects and the types of layer images.
FIG. 6 is a schematic diagram showing the tag correspondence table TBL in the present embodiment. As shown in the figure, each tag information is associated with any one layer image, and a drawing object indicated by each tag information is formed on the associated layer image. In the present embodiment, the “text” tag is associated with “FG image”, the “graphic” tag and the “image” tag are associated with “BG image”, and the “null” tag is associated with “null image”.

色情報Cは、記述されている情報の種類がエッジのタグ属性によって異なる。タグ情報が「テキスト」あるいは「グラフィクス」の場合は、色情報Cにはそのエッジによって構成される描画オブジェクトの色の情報が、例えば赤(R)、緑(G)、青(B)各色8ビット(0〜255)のRGB値によって記述されている。タグ情報が「イメージ」の場合は、色情報Cにはそのエッジの長さに相当するラスタ画像が記憶されているメモリ領域のアドレスが記述されている。また、タグ情報が「ヌル」の場合は、色情報Cには(R,G,B)=(255,255,255)のRGB値、すなわち「白」を表すRGB値が記述されている。   In the color information C, the type of information described differs depending on the tag attribute of the edge. When the tag information is “text” or “graphics”, the color information C includes information on the color of the drawing object constituted by the edges, for example, red (R), green (G), blue (B) 8 It is described by RGB values of bits (0 to 255). When the tag information is “image”, the color information C describes the address of the memory area in which the raster image corresponding to the edge length is stored. When the tag information is “null”, the color information C describes an RGB value of (R, G, B) = (255, 255, 255), that is, an RGB value representing “white”.

(1−2)動作
上述の構成のもと、画像処理装置10の制御部1は、図2および図3に示された機能を実現し、これらの図に示された流れでデータを処理する。本実施形態の画像処理装置10は、FG画像生成部133とBG画像生成部135の機能に特徴を有している。そこで、以下ではFG画像生成部133とBG画像生成部135における具体的な動作について詳細に説明する。そして、各部における動作を説明した後に、ある文書データを例示してより具体的な説明を行う。
なお、以下に示されるFG画像生成部133とBG画像生成部135の機能は、画像処理装置10の制御部1がプリンタドライバプログラムPRG3を実行することによって実現されるものである。ゆえに、本来FG画像生成部133とBG画像生成部135における動作の主体は制御部1であるが、ここでは説明の便宜上、例えば「FG画像生成部133は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する」といったように、FG画像生成部133またはBG画像生成部135を動作の主体として説明を行う。
(1-2) Operation Based on the above-described configuration, the control unit 1 of the image processing apparatus 10 realizes the functions shown in FIGS. 2 and 3 and processes data in the flow shown in these drawings. . The image processing apparatus 10 of this embodiment is characterized by the functions of the FG image generation unit 133 and the BG image generation unit 135. Therefore, specific operations in the FG image generation unit 133 and the BG image generation unit 135 will be described in detail below. Then, after describing the operation in each unit, a specific description will be given by exemplifying certain document data.
Note that the functions of the FG image generation unit 133 and the BG image generation unit 135 described below are realized when the control unit 1 of the image processing apparatus 10 executes the printer driver program PRG3. Therefore, the main operation of the FG image generation unit 133 and the BG image generation unit 135 is primarily the control unit 1. However, for convenience of explanation here, for example, “FG image generation unit 133 is not processed in the scanned edge line. The description will be made with the FG image generation unit 133 or the BG image generation unit 135 as the subject of operation, such as “determine whether an edge exists”.

(1−2−1)FG画像生成部133の動作
図7は、FG画像生成部133が中間データからFG画像を生成する動作を示したフローチャートである。この動作は、文書データ1ページ分の中間データが中間データ生成部132からFG画像生成部133へと供給された時点で開始される。まず、FG画像生成部133に中間データが供給されると、FG画像生成部133はページの上端部分に相当するエッジラインをスキャンする(ステップS11)。次に、FG画像生成部133は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する(ステップS12)。なお、この「未処理」とは、後述するラスタ展開処理(ステップS15)が行われていないことを意味している。ここで、未処理のエッジが存在する場合には(ステップS12;YES)、FG画像生成部133はその未処理エッジからタグ情報を抽出する(ステップS13)。そして、FG画像生成部133は、抽出したタグ情報を参照してこのエッジがFG画像であるか否かを判断する(ステップS14)。
(1-2-1) Operation of FG Image Generation Unit 133 FIG. 7 is a flowchart showing an operation of the FG image generation unit 133 generating an FG image from intermediate data. This operation is started when intermediate data for one page of document data is supplied from the intermediate data generation unit 132 to the FG image generation unit 133. First, when intermediate data is supplied to the FG image generation unit 133, the FG image generation unit 133 scans an edge line corresponding to the upper end portion of the page (step S11). Next, the FG image generation unit 133 determines whether there is an unprocessed edge in the scanned edge line (step S12). This “unprocessed” means that raster development processing (step S15) described later has not been performed. Here, when an unprocessed edge exists (step S12; YES), the FG image generation unit 133 extracts tag information from the unprocessed edge (step S13). Then, the FG image generation unit 133 refers to the extracted tag information and determines whether or not this edge is an FG image (step S14).

エッジ内部のタグ情報は、そのエッジの描画オブジェクトの種類を記述しているだけである。したがって、FG画像生成部133は、タグ情報を参照しただけではFG画像であるか否かを判断することができない。そこで、このときFG画像生成部133は、タグ対応テーブルTBLを同時に参照する。図6に示されているように、タグ対応テーブルTBLにはタグ情報とレイヤ画像の対応関係が記述されている。本実施形態においては「テキスト」タグのみがFG画像に関連付けられているので、このときFG画像生成部133はタグ情報が「テキスト」であるか否かを判断すればよい。   The tag information inside the edge only describes the type of drawing object at that edge. Therefore, the FG image generation unit 133 cannot determine whether or not the image is an FG image only by referring to the tag information. Therefore, at this time, the FG image generation unit 133 refers to the tag correspondence table TBL at the same time. As shown in FIG. 6, the tag correspondence table TBL describes the correspondence between tag information and layer images. In this embodiment, since only the “text” tag is associated with the FG image, the FG image generation unit 133 may determine whether the tag information is “text” at this time.

ここで、この未処理エッジがFG画像である、換言すれば未処理エッジのタグ情報が「テキスト」タグであるとFG画像生成部133が判断した場合は(ステップS14;YES)、FG画像生成部133はこのエッジのデータをFG画像としてラスタ展開し(ステップS15)、ステップS12からの処理を再び実行する。一方、この未処理エッジがFG画像でない、換言すれば未処理エッジのタグ情報が「グラフィック」、「イメージ」、あるいは「ヌル」のいずれかであるとFG画像生成部133が判断した場合は(ステップS14;NO)、FG画像生成部133はステップS15の処理を行わずに、ステップS12からの処理を再び実行する。   If the FG image generation unit 133 determines that the unprocessed edge is an FG image, in other words, the tag information of the unprocessed edge is a “text” tag (step S14; YES), the FG image generation is performed. The unit 133 rasterizes the edge data as an FG image (step S15), and executes the processing from step S12 again. On the other hand, when the FG image generation unit 133 determines that the unprocessed edge is not an FG image, in other words, the tag information of the unprocessed edge is “graphic”, “image”, or “null” ( Step S14; NO), the FG image generation unit 133 performs the processing from Step S12 again without performing the processing of Step S15.

なお、上述のステップS12の判断において、スキャンしたエッジライン中に未処理のエッジが存在しないとFG画像生成部133が判断した場合には(ステップS12;NO)、FG画像生成部133はこのエッジラインにおける処理を終了させ、次に処理すべき未処理のエッジラインが存在するか否かを判断する(ステップS16)。FG画像生成部133は、次に処理すべきエッジラインが存在すると判断すれば(ステップS16;YES)、処理の対象をそのエッジラインへと移動させてステップS11からの処理を繰り返し(ステップS17)、次に処理すべきエッジラインが存在しないと判断すれば(ステップS16;NO)、本動作を終了させる。   When the FG image generation unit 133 determines that there is no unprocessed edge in the scanned edge line in the determination in step S12 described above (step S12; NO), the FG image generation unit 133 determines this edge. The processing in the line is terminated, and it is determined whether there is an unprocessed edge line to be processed next (step S16). If the FG image generation unit 133 determines that there is an edge line to be processed next (step S16; YES), the processing target is moved to the edge line and the processing from step S11 is repeated (step S17). If it is determined that there is no edge line to be processed next (step S16; NO), this operation is terminated.

(1−2−2)BG画像生成部135の動作
図8は、BG画像生成部135が中間データからBG画像を生成する動作を示したフローチャートである。この動作は、文書データ1ページ分の中間データが中間データ生成部132からBG画像生成部135へと供給された時点で開始される。まず、中間データが供給されると、BG画像生成部135はページの上端部分に相当するエッジラインをスキャンする(ステップS21)。次に、BG画像生成部135は、スキャンしたエッジライン中に未処理のエッジが存在するか否かを判断する(ステップS22)。なお、この「未処理」とは、後述するラスタ展開処理(ステップS25)が行われていないことを意味している。ここで、未処理のエッジが存在する場合には(ステップS22;YES)、BG画像生成部135はその未処理エッジからタグ情報を抽出する(ステップS23)。そして、BG画像生成部135は、抽出したタグ情報を参照してこのエッジがBG画像であるか否かを判断する(ステップS24)。
(1-2-2) Operation of BG Image Generation Unit 135 FIG. 8 is a flowchart showing an operation of the BG image generation unit 135 generating a BG image from intermediate data. This operation is started when intermediate data for one page of document data is supplied from the intermediate data generation unit 132 to the BG image generation unit 135. First, when intermediate data is supplied, the BG image generating unit 135 scans an edge line corresponding to the upper end portion of the page (step S21). Next, the BG image generation unit 135 determines whether there is an unprocessed edge in the scanned edge line (step S22). This “unprocessed” means that raster development processing (step S25) described later has not been performed. If there is an unprocessed edge (step S22; YES), the BG image generation unit 135 extracts tag information from the unprocessed edge (step S23). Then, the BG image generation unit 135 determines whether this edge is a BG image with reference to the extracted tag information (step S24).

ここで、上述のステップS14と同様の要領で、BG画像生成部135はタグ対応テーブルTBLを参照することによってこの未処理エッジがBG画像であるか否かを判断する。具体的には、この未処理エッジがBG画像である、換言すれば未処理エッジのタグ情報が「グラフィック」、「イメージ」、あるいは「ヌル」のいずれかであるとBG画像生成部135が判断した場合は(ステップS24;YES)、BG画像生成部135はこのエッジのデータをBG画像としてラスタ展開し(ステップS25)、ステップS22からの処理を再び実行する。一方、この未処理エッジがBG画像でない、換言すれば未処理エッジのタグ情報が「テキスト」タグであるとBG画像生成部135が判断した場合は(ステップS24;NO)、BG画像生成部135はエッジ穴埋め処理を実行する(ステップS26)。このエッジ穴埋め処理については、本動作の説明の後に述べる。   Here, in the same manner as in step S14 described above, the BG image generation unit 135 determines whether or not the unprocessed edge is a BG image by referring to the tag correspondence table TBL. Specifically, the BG image generation unit 135 determines that the unprocessed edge is a BG image, in other words, the tag information of the unprocessed edge is “graphic”, “image”, or “null”. If so (step S24; YES), the BG image generation unit 135 rasterizes the edge data as a BG image (step S25), and executes the processing from step S22 again. On the other hand, when the unprocessed edge is not a BG image, in other words, when the BG image generation unit 135 determines that the tag information of the unprocessed edge is a “text” tag (step S24; NO), the BG image generation unit 135 Executes the edge filling process (step S26). This edge filling process will be described after the description of this operation.

なお、上述のステップS22の判断において、スキャンしたエッジライン中に未処理のエッジが存在しないとBG画像生成部135が判断した場合には(ステップS22;NO)、BG画像生成部135はこのエッジラインにおける処理を終了させ、次に処理すべき未処理のエッジラインが存在するか否かを判断する(ステップS27)。BG画像生成部135は、次に処理すべきエッジラインが存在すると判断すれば(ステップS27;YES)、処理の対象をそのエッジラインへと移動させてステップS21からの処理を繰り返し(ステップS28)、次に処理すべきエッジラインが存在しないと判断すれば(ステップS27;NO)、本動作を終了させる。   When the BG image generation unit 135 determines that there is no unprocessed edge in the scanned edge line in the determination in step S22 described above (step S22; NO), the BG image generation unit 135 determines that this edge The processing in the line is terminated, and it is determined whether there is an unprocessed edge line to be processed next (step S27). If it is determined that there is an edge line to be processed next (step S27; YES), the BG image generation unit 135 moves the processing target to the edge line and repeats the processing from step S21 (step S28). If it is determined that there is no edge line to be processed next (step S27; NO), this operation is terminated.

ここで、エッジ穴埋め処理について説明する。エッジ穴埋め処理とは、文書データにおいてFG画像となるような描画オブジェクト(ここではこれをFGオブジェクトという)がBG画像となるような描画オブジェクト(ここではこれをBGオブジェクトという)に隣接したり囲まれたりしている場合に、中間データのBG画像においてこのFGオブジェクトに略相当する領域を近傍のBGオブジェクトの色情報に基づいて塗りつぶす処理のことである。   Here, the edge hole filling process will be described. Edge filling processing is a drawing object (here referred to as FG object) that becomes an FG image in document data is adjacent to or surrounded by a drawing object (here called BG object) that becomes a BG image. In such a case, a region substantially corresponding to the FG object in the BG image of the intermediate data is painted based on the color information of the neighboring BG object.

図9は、このエッジ穴埋め処理を説明するために例示したある文書データDOC1の図である。同図において、斜線で示された領域a1がグラフィクスオブジェクトを表し、このグラフィクスオブジェクト囲まれたA字形の領域a2がテキストオブジェクトを表している。文書データDOC1のその他の領域a3は描画オブジェクトが存在せず、ヌルオブジェクトである。ここで、領域a1は赤、すなわち(R,G,B)=(255,0,0)のRGB値で一様に塗りつぶされているものとする。   FIG. 9 is a diagram of certain document data DOC1 exemplified for explaining the edge filling process. In the figure, a hatched area a1 represents a graphics object, and an A-shaped area a2 surrounded by the graphics object represents a text object. The other area a3 of the document data DOC1 is a null object without a drawing object. Here, it is assumed that the area a1 is red, that is, is uniformly filled with RGB values of (R, G, B) = (255, 0, 0).

このような文書データDOC1を本実施形態の画像処理装置10で多層圧縮画像データに変換した場合、領域a1はBG画像、領域a2はFG画像に分類される。このときのBG画像は、図10に示されているように、文書データDOC1の領域a2に相当する領域に描画オブジェクトが存在しない画像となっている。このようなBG画像に対してJPEG方式等の離散コサイン変換(DCT)を利用した圧縮処理を施すと、圧縮率を高めるにしたがってモスキートノイズと呼ばれる画質劣化が生じる。モスキートノイズは、DCTにおける高周波成分の誤差に起因するので、文字の輪郭部分のように色変化が急激に起こる部分に発生する。つまり、BG画像に対してJPEG等の圧縮処理を施すと、領域a2に相当するA字形の領域の境界でモスキートノイズが発生しやすくなってしまう。   When such document data DOC1 is converted into multi-layer compressed image data by the image processing apparatus 10 of this embodiment, the area a1 is classified as a BG image and the area a2 is classified as an FG image. The BG image at this time is an image in which no drawing object exists in an area corresponding to the area a2 of the document data DOC1, as shown in FIG. When such a BG image is subjected to compression processing using discrete cosine transform (DCT) such as JPEG, image quality deterioration called mosquito noise occurs as the compression rate increases. Since mosquito noise is caused by an error of a high frequency component in DCT, it occurs in a portion where a color change suddenly occurs like a contour portion of a character. That is, when compression processing such as JPEG is performed on the BG image, mosquito noise is likely to occur at the boundary of the A-shaped region corresponding to the region a2.

上述したように、BG画像はFG画像によってマスクされるため、BG画像においては、FG画像において描画オブジェクトが存在する領域にいかなる処理を施しても、その影響が多層圧縮画像データに及ぶことはない。そこで、BG画像のA字形の領域を領域a1と同じ色で塗りつぶすという処理を行うと、BG画像のA字形の領域において色変化がなくなるために、多層圧縮画像データに影響を及ぼすことなくモスキートノイズの発生を抑えることが可能となる。また、このような処理を施すことにより、BG画像をより高い圧縮率で圧縮することも可能となる。
この「BG画像において、FG画像によってマスクされる領域を塗りつぶす」という処理が、本実施形態のエッジ穴埋め処理の基本的な原理である。
As described above, since the BG image is masked by the FG image, in the BG image, no matter what processing is performed on the region where the drawing object exists in the FG image, the influence does not reach the multilayer compressed image data. . Therefore, if the process of filling the A-shaped area of the BG image with the same color as that of the area a1, the color change does not occur in the A-shaped area of the BG image, so that the mosquito noise is not affected without affecting the multilayer compressed image data. Can be suppressed. Further, by performing such processing, it is possible to compress the BG image at a higher compression rate.
The process of “filling the area masked by the FG image in the BG image” is the basic principle of the edge filling process of this embodiment.

続いて、ステップS26のエッジ穴埋め処理における具体的な動作について説明する。
図11は、本実施形態におけるエッジ穴埋め処理を示したフローチャートである。同図に沿って説明すると、まず、BG画像生成部135は、処理対象のエッジがFG画像のエッジであるか否かを判断する(ステップS261)。これは、図9の例からもわかるように、この穴埋め処理を行おうとする領域にFG画像がマスクされなければ、そもそも穴埋め処理を行うことができないからである。ステップS24において処理対象のエッジがBG画像であるか否かが判断されており、この判断結果が否定的である場合にステップS261の判断が行われるのであるから、このとき処理対象のエッジは、FG画像かヌル画像のいずれかである。処理対象のエッジがヌル画像のエッジであった場合は、BG画像生成部135は何も行わずに図8のフローチャートの動作へと戻る。
Next, a specific operation in the edge hole filling process in step S26 will be described.
FIG. 11 is a flowchart showing edge filling processing in the present embodiment. Describing along the drawing, first, the BG image generation unit 135 determines whether or not the processing target edge is an edge of an FG image (step S261). This is because, as can be seen from the example of FIG. 9, if the FG image is not masked in the region to be subjected to the hole filling process, the hole filling process cannot be performed in the first place. In step S24, it is determined whether or not the processing target edge is a BG image, and when the determination result is negative, the determination in step S261 is performed. Either an FG image or a null image. If the edge to be processed is an edge of a null image, the BG image generation unit 135 returns to the operation of the flowchart of FIG. 8 without performing anything.

一方、この判断結果が肯定的、すなわち処理対象のエッジがFG画像のエッジであった場合には(ステップS261;YES)、BG画像生成部135は、このエッジに対して既にこのエッジ穴埋め処理が行われているか否かを判断する(ステップS262)。本処理においては、FG画像のエッジが連続している場合には、これらのエッジに対して一括して処理を行うことができるので、このようなステップが加えられている。そして、処理対象のエッジに対して既にこのエッジ穴埋め処理が行われていれば(ステップS262;YES)、本処理を行う必要がないので、BG画像生成部135は何も行わずに図8のフローチャートの動作へと戻る。   On the other hand, when this determination result is affirmative, that is, when the edge to be processed is an edge of an FG image (step S261; YES), the BG image generation unit 135 has already performed this edge filling process on this edge. It is determined whether or not it has been performed (step S262). In this processing, when the edges of the FG image are continuous, the processing can be performed collectively on these edges, and thus such a step is added. Then, if this edge filling process has already been performed on the edge to be processed (step S262; YES), this process need not be performed, and the BG image generation unit 135 does not perform anything and performs FIG. Return to the operation of the flowchart.

一方、この判断結果が肯定的であった場合には(ステップS262;YES)、BG画像生成部135は処理対象のエッジの両端のエッジを参照することにより、エッジの配列パターンを同定する(ステップS263)。
ここで、エッジの配列パターンとは、処理対象のFG画像のエッジに連続するFG画像のエッジの一群を一つの集合(以下、これを「FGエッジ群」ともいう)と見なし、そのFGエッジ群の左右に隣接しているエッジの種類を表すものである。図12は、本実施形態におけるエッジの配列パターンをすべて示した図である。図12(1)は、FGエッジ群の両端がBG画像のエッジである場合を示しており、以下これを「BG−FG−BGパターン」という。図12(2)は、FGエッジ群の左端がBG画像のエッジであり、かつ、右端がヌル画像のエッジである場合を示しており、以下これを「BG−FG−Nlパターン」という。図12(3)は、FGエッジ群の左端がヌル画像のエッジであり、かつ、右端がBG画像のエッジである場合を示しており、以下これを「Nl−FG−BGパターン」という。図12(4)は、FGエッジ群の両端がヌル画像のエッジである場合を示しており、以下これを「Nl−FG−Nlパターン」という。なお、FGエッジ群の一端あるいは両端にエッジそのものが存在しない場合も考えられるが、この場合には、エッジの存在しない側にはヌル画像のエッジが存在すると見なす。
On the other hand, if the determination result is affirmative (step S262; YES), the BG image generation unit 135 identifies the edge arrangement pattern by referring to the edges at both ends of the processing target edge (step S262). S263).
Here, the edge arrangement pattern refers to a group of edges of an FG image continuous to the edge of the FG image to be processed as one set (hereinafter also referred to as “FG edge group”), and the FG edge group. Represents the types of edges adjacent to the left and right of the. FIG. 12 is a diagram showing all edge arrangement patterns in the present embodiment. FIG. 12 (1) shows a case where both ends of the FG edge group are edges of the BG image, and this is hereinafter referred to as “BG-FG-BG pattern”. FIG. 12 (2) shows a case where the left end of the FG edge group is the edge of the BG image and the right end is the edge of the null image, which is hereinafter referred to as “BG-FG-Nl pattern”. FIG. 12 (3) shows a case where the left end of the FG edge group is the edge of the null image and the right end is the edge of the BG image, and this is hereinafter referred to as an “Nl-FG-BG pattern”. FIG. 12 (4) shows a case where both ends of the FG edge group are edges of a null image, which is hereinafter referred to as “Nl-FG-Nl pattern”. Note that there may be a case where the edge itself does not exist at one or both ends of the FG edge group, but in this case, it is considered that the edge of the null image exists on the side where the edge does not exist.

このようにエッジの配列パターンを同定したら、BG画像生成部135は、処理対象のFGエッジ群がこれらのうちのいずれのパターンを有しているか判断する。はじめに、BG画像生成部135は、エッジの配列パターンが「Nl−FG−Nlパターン」であるか否かを判断する(ステップS264)。ここで、「Nl−FG−Nlパターン」である場合は、このFGエッジ群により形成されるFG画像の両端は、いずれもBG画像に隣接していないことを意味している。このような場合には(ステップS264;YES)、そもそも穴埋め処理を行うことができないので、BG画像生成部135は、この後の処理を行わずに図8のフローチャートの動作へと戻る。   When the edge arrangement pattern is identified in this way, the BG image generation unit 135 determines which of these patterns the FG edge group to be processed has. First, the BG image generation unit 135 determines whether or not the edge arrangement pattern is a “Nl-FG-Nl pattern” (step S264). Here, the “Nl-FG-Nl pattern” means that both ends of the FG image formed by the FG edge group are not adjacent to the BG image. In such a case (step S264; YES), since the hole filling process cannot be performed in the first place, the BG image generation unit 135 returns to the operation of the flowchart of FIG. 8 without performing the subsequent process.

処理対象のFGエッジ群を「Nl−FG−Nlパターン」の配列パターンでないと判断したら(ステップS264;NO)、続いてBG画像生成部135は、このFGエッジ群が「BG−FG−BGパターン」であるか否かを判断する(ステップS265)。この判断が否定的となるのは、配列パターンが「BG−FG−Nlパターン」または「Nl−FG−BGパターン」のときである。つまり、ステップS265の判断は「FGエッジ群の両端がともにBG画像のエッジであるか否か」と言い換えることができる。   If it is determined that the processing target FG edge group is not the “N1-FG-Nl pattern” array pattern (step S264; NO), then the BG image generation unit 135 determines that the FG edge group is the “BG-FG-BG pattern”. Is determined (step S265). This determination is negative when the arrangement pattern is “BG-FG-Nl pattern” or “Nl-FG-BG pattern”. That is, the determination in step S265 can be rephrased as “whether both ends of the FG edge group are both edges of the BG image”.

FGエッジ群の両端がともにBG画像のエッジであると判断したら(ステップS265;YES)、BG画像生成部135は、FGエッジ群の両端に接するBG画像のエッジに含まれている情報に基づいて、このFGエッジ群に相当する領域をBG画像としてラスタ展開することにより、この領域の「穴埋め」を行う(ステップS266)。具体的には、BG画像生成部135は、FGエッジ群の両端のBG画像の始点座標(Sx)、終点座標(Ex)および色情報(C)を参照してラスタ展開を行う。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標、色情報をそれぞれExl,Clとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標、色情報をそれぞれSxr,Crとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域をClとCrの平均値で示される色によって描画する処理となる。このときの描画される色は、Cl,CrのRGB値をそれぞれ(Rl,Gl,Bl)、(Rr,Gr,Br)とすると、(Rl+Rr/2,Gl+Gr/2,Bl+Br/2)で表される色である。なお、以下においては、FGエッジ群に相当する領域を「穴埋め」する画像という意味で、このとき生成される画像のことを「穴埋め画像」と呼ぶ。
このラスタ展開が終了したら、BG画像生成部135は図8のフローチャートの動作へと戻る。
If it is determined that both ends of the FG edge group are edges of the BG image (step S265; YES), the BG image generation unit 135 is based on information included in the edges of the BG image that are in contact with both ends of the FG edge group. Then, the area corresponding to the FG edge group is raster-developed as a BG image, thereby “filling” the area (step S266). Specifically, the BG image generation unit 135 performs raster development with reference to the start point coordinates (Sx), end point coordinates (Ex), and color information (C) of the BG images at both ends of the FG edge group. Here, the end point coordinates and color information of the part of the BG image in contact with the left end of the FG edge group to be processed are respectively Ex l and C l, and the BG image of the part in contact with the right end of the FG edge group to be processed When the start point coordinates and color information of Sx r and C r are respectively, raster development uses “Ex l +1” as the start point coordinates and “Sx r +1” as the end point coordinates, and the region in this range is defined as C l and C r. This is a process of drawing with the color indicated by the average value of. The drawn colors at this time are (R 1 + R r / 2) where the RGB values of C 1 and C r are (R 1 , G 1 , B 1 ) and (R r , G r , B r ), respectively. , G 1 + G r / 2, B 1 + B r / 2). In the following, an image generated at this time is referred to as a “filled image” in the sense that the region corresponding to the FG edge group is “filled”.
When this raster development is completed, the BG image generation unit 135 returns to the operation of the flowchart of FIG.

次に、FGエッジ群の一端がBG画像のエッジであると判断したら(ステップS265;NO)、BG画像生成部135は、FGエッジ群に接する両端のエッジに含まれている情報に基づいて、このFGエッジ群に相当する領域をBG画像としてラスタ展開することにより、この領域の「穴埋め」を行う(ステップS267)。ここでは、ステップS266のようにFGエッジ群に相当する領域全体に対してのラスタ展開は行わない。なぜなら、この場合、処理対象のFGエッジ群に相当する領域の一端はヌル画像に接しているからである。ヌル画像に接しているFGエッジ群に対して、ヌル画像の境界までラスタ展開を行うと、ラスタ展開によって生成されたBG画像をJPEG方式で圧縮した場合に、FGエッジ群に相当する領域の境界でノイズ(ブロックノイズ)が発生するおそれがある。   Next, when it is determined that one end of the FG edge group is an edge of the BG image (step S265; NO), the BG image generation unit 135 is based on information included in the edges at both ends in contact with the FG edge group. The region corresponding to the FG edge group is raster-developed as a BG image, thereby “filling” the region (step S267). Here, raster expansion is not performed on the entire region corresponding to the FG edge group as in step S266. This is because, in this case, one end of the region corresponding to the FG edge group to be processed is in contact with the null image. If raster development is performed up to the boundary of the null image with respect to the FG edge group in contact with the null image, the boundary of the region corresponding to the FG edge group when the BG image generated by the raster expansion is compressed by the JPEG method May cause noise (block noise).

図13は、このノイズの発生する条件を説明するために例示した図であり、この図は文字領域(FG画像)と白紙領域(ヌル画像)の境界部分を示している。例えばJPEG方式による圧縮処理においては、8×8ピクセルのブロック単位でDCTが行われる。このとき、図13(1)に示されているように、DCTのブロックが白紙領域を含まないように選択されれば、このブロックの変換(圧縮処理)によって白紙領域に文字領域の色成分が混入することはない。しかし、図13(2)に示されているように、DCTのブロックが白紙領域を含むように選択されれば、このブロックの変換(圧縮処理)によって白紙領域の領域bに文字領域の色成分が混入することとなる。このような領域に穴埋め画像が生成されるのを防ぐために、本実施形態においては以下の方法によって穴埋め画像を形成する範囲を決定している。   FIG. 13 is a diagram exemplarily used to explain the conditions for generating this noise, and this diagram shows the boundary between the character area (FG image) and the blank area (null image). For example, in JPEG compression processing, DCT is performed in units of 8 × 8 pixel blocks. At this time, as shown in FIG. 13A, if the DCT block is selected so as not to include the blank area, the color component of the character area is converted into the blank area by the conversion (compression processing) of this block. There is no contamination. However, as shown in FIG. 13B, if the DCT block is selected so as to include a blank area, the color component of the character area is added to the blank area b by this block conversion (compression process). Will be mixed. In order to prevent generation of a hole-filled image in such a region, in the present embodiment, a range for forming a hole-filled image is determined by the following method.

1.まず、FGエッジ群の長さ「FG_Length」を求める。具体的には、FG_Length = FG_Ex − FG_Sx +1とする。ここで、FG_SxはFGエッジ群の左端のエッジの始点座標であり、FG_ExはFGエッジ群の右端のエッジの終点座標である(単位はピクセル)。
2.FG_Lengthが用いる圧縮方法のx方向のブロック長Block_Length(例えばJPEG方式であれば、Block_Length = 8である)より大きい場合、FG_Length ≧ (Block_Length × n)を満たすn個のブロックの長さだけ、FGエッジ群に相当する領域におけるBG画像のエッジに接する側に穴埋め画像を形成する。穴埋め画像の色値は、FGエッジ群が接しているBG画像のエッジの一端のRGB値である。
3.FG_Length < Block_Lengthである場合、穴埋め画像の生成は行わない。
1. First, the length “FG_Length” of the FG edge group is obtained. Specifically, FG_Length = FG_Ex−FG_Sx + 1. Here, FG_Sx is the start point coordinate of the left edge of the FG edge group, and FG_Ex is the end point coordinate of the right edge of the FG edge group (unit is pixel).
2. When the block length Block_Length in the x direction of the compression method used by FG_Length is larger than that of Block_Length (for example, Block_Length = 8 in the case of JPEG method), only the length of n blocks satisfying FG_Length ≧ (Block_Length × n) A hole-filled image is formed on the side in contact with the edge of the BG image in the region corresponding to the group. The color value of the hole-filled image is the RGB value of one end of the edge of the BG image that is in contact with the FG edge group.
3. When FG_Length <Block_Length, no hole-filling image is generated.

ここで、図14および図15は、上述の方法にしたがって穴埋め画像の生成を行った場合の例を示した図である。まず、同14においては、FG_Length = 10,Block_Length = 8である。このような場合には、FGエッジ群に相当する領域において、BG画像のエッジに接する側、すなわち図中右側から8ピクセル分の領域に穴埋め画像が生成される。一方、図15においては、FG_Length = 6,Block_Length = 8である。このような場合にFGエッジ群に相当する領域に穴埋め画像を形成すると、ヌル画像の領域にノイズが発生する可能性が生じるので、穴埋め画像の生成を行わない。   Here, FIG. 14 and FIG. 15 are diagrams illustrating an example in which a hole-filling image is generated according to the above-described method. First, in FIG. 14, FG_Length = 10 and Block_Length = 8. In such a case, in a region corresponding to the FG edge group, a hole-filled image is generated on the side in contact with the edge of the BG image, that is, a region corresponding to 8 pixels from the right side in the drawing. On the other hand, in FIG. 15, FG_Length = 6 and Block_Length = 8. In such a case, if a hole-filled image is formed in a region corresponding to the FG edge group, noise may be generated in the null image region, so that the hole-filled image is not generated.

以上のステップS266,S267のいずれかの方法により穴埋め画像を生成したら、BG画像生成部135は本処理を終了させて図8のフローチャートの動作へと戻る。
エッジ穴埋め処理が終了したら、BG画像生成部135は上述のステップS22の判断を行う。そして、処理すべきエッジおよびエッジラインがなくなるまで、以降の処理を繰り返す。
When the hole-filling image is generated by any one of the above steps S266 and S267, the BG image generation unit 135 ends this processing and returns to the operation of the flowchart of FIG.
When the edge filling process is completed, the BG image generation unit 135 performs the determination in step S22 described above. The subsequent processing is repeated until there are no more edges and edge lines to be processed.

(1−2−3)動作例
ここからは、以上に説明された画像処理装置10の一連の動作、特にプリンタドライバ13におけるBG画像の生成処理について、文書データを例示してより具体的に説明する。ここで、文書データの例としては、図9の文書データDOC1を用いる。
操作者により文書データDOC1の印刷指示がなされると、画像処理装置10のプリンタドライバ13においては、中間データが生成される。ここで、図16は中間データのi番目の走査ラインを示しており、ELiはこの走査ラインに含まれるエッジラインである。同図において、エッジラインELiは、E1,E2,E3,E4,E5の5種類のエッジにより構成されている。エッジE1およびE5は白紙領域、すなわち描画オブジェクトが何も存在しない領域のエッジであり、このエッジはヌル画像に分類される。エッジE2およびE4はグラフィクスオブジェクトが描画されている領域のエッジであり、このエッジはBG画像に分類される。エッジE3はテキストオブジェクトが描画されている領域のエッジであり、このエッジはFG画像に分類される。
(1-2-3) Example of Operation From now on, the series of operations of the image processing apparatus 10 described above, particularly the BG image generation processing in the printer driver 13, will be described more specifically with reference to document data. To do. Here, the document data DOC1 in FIG. 9 is used as an example of the document data.
When the operator gives an instruction to print the document data DOC1, the printer driver 13 of the image processing apparatus 10 generates intermediate data. Here, FIG. 16 shows the i-th scan line of the intermediate data, and EL i is an edge line included in this scan line. In the figure, the edge line EL i is composed of five types of edges E 1 , E 2 , E 3 , E 4 , and E 5 . Edges E 1 and E 5 are edges of a blank area, that is, an area where no drawing object exists, and these edges are classified as null images. Edges E 2 and E 4 are edges of a region where the graphics object is drawn, and these edges are classified into BG images. The edge E 3 is an edge of a region where the text object is drawn, and this edge is classified into an FG image.

図17は、これらのエッジの具体的なデータ構造を示した図である。なお、同図において、RGB値(255,255,255)、(255,0,0)および(0,0,0)は、それぞれ白、赤および黒を表している。それぞれのエッジは、あるエッジの終点座標がその次のエッジの始点座標と連続していることから、これらのエッジをラスタ展開することでこのエッジラインの画像データが隙間なく形成されることがわかる。ここで、本実施形態のタグ情報とレイヤ画像の対応関係は、図6のタグ対応テーブルTBLによって規定されている。すなわち、エッジE2およびE4がBG画像であり、エッジE3がFG画像である。 FIG. 17 shows a specific data structure of these edges. In the figure, RGB values (255, 255, 255), (255, 0, 0) and (0, 0, 0) represent white, red and black, respectively. For each edge, since the end point coordinates of one edge are continuous with the start point coordinates of the next edge, it is understood that the image data of this edge line is formed without any gap by raster development of these edges. . Here, the correspondence between the tag information and the layer image in the present embodiment is defined by the tag correspondence table TBL in FIG. That is, the edges E 2 and E 4 are BG images, and the edge E 3 is an FG image.

図18は、中間データのエッジラインELiに相当する領域のBG画像を表した図である。同図に示されているように、BG画像上には両端を描画オブジェクト(グラフィクスオブジェクト)に囲まれた、描画オブジェクトの存在しない領域がある。この領域(以下、この領域を「抜け領域」という)は、ちょうどFG画像上において描画オブジェクト(テキストオブジェクト)が存在する領域に相当する。このようなBG画像をそのままラスタ展開し、JPEG方式で圧縮処理を行うと、抜け領域の境界において上述したようなノイズが発生してしまう。そこで、プリンタドライバ13は、図11に示されたフローチャートの要領でエッジ穴埋め処理を行う。以下ではプリンタドライバ13のBG画像生成部135における具体的な処理内容を、図11の各ステップを参照しつつ説明する。各ステップにおける処理の詳細については、上述した(1−2−2)を適宜参照されたい。 FIG. 18 is a diagram illustrating a BG image in a region corresponding to the edge line EL i of the intermediate data. As shown in the figure, there is a region on the BG image where there are no drawing objects surrounded by drawing objects (graphics objects) at both ends. This area (hereinafter, this area is referred to as “missing area”) corresponds to an area where a drawing object (text object) exists on the FG image. When such a BG image is raster-developed as it is and compression processing is performed using the JPEG method, the noise described above occurs at the boundary of the missing region. Therefore, the printer driver 13 performs edge filling processing in the manner of the flowchart shown in FIG. Hereinafter, specific processing contents in the BG image generation unit 135 of the printer driver 13 will be described with reference to each step of FIG. For details of the processing in each step, refer to (1-2-2) above as appropriate.

抜け領域におけるエッジの配列パターンは、図15からも明らかなように「BG−FG−BGパターン」である。したがって、BG画像生成部135は、ステップS265において肯定的な判断を行い、ステップS266に示される処理を実行する。ここで、BG画像生成部135は、抜け領域に隣接しているエッジE2およびE4の情報を参照し、始点座標が1200(1199+1),終点座標が1399(=1400−1)で表される領域を赤、すなわち(255,0,0)の色で描画する穴埋め画像を形成する。このような処理を行うと、「抜け領域」は、いわば「穴埋め」が行われた状態となる。
なお、中間データのヌル画像に相当する領域においては、このようなエッジ穴埋め処理が行われることはない。なぜなら、このような領域に対しては、エッジ穴埋め処理のステップS261の判断において否定的となり、穴埋め画像の生成が行われないからである。
The edge arrangement pattern in the missing region is a “BG-FG-BG pattern” as is apparent from FIG. Therefore, the BG image generation unit 135 makes a positive determination in step S265, and executes the process shown in step S266. Here, the BG image generation unit 135 refers to the information of the edges E 2 and E 4 adjacent to the missing region, and the start point coordinates are represented by 1200 (1199 + 1) and the end point coordinates are represented by 1399 (= 1400-1). A hole-filled image is formed in which a region to be drawn is drawn in red, that is, a color of (255, 0, 0). When such processing is performed, the “missing area” is in a state where “hole filling” is performed.
Note that such edge filling processing is not performed in the region corresponding to the null image of the intermediate data. This is because, for such a region, the determination in step S261 of the edge filling process is negative, and no filling image is generated.

図19は、エッジ穴埋め処理の前後のエッジラインELiを示した図である。また、図20は、エッジ穴埋め処理を行う前のBG画像と、このエッジ穴埋め処理をすべての走査ラインに渡って実行することで得られるBG画像とを示した図である。このように抜け領域に対して上述のエッジ穴埋め処理を行うことにより、BG画像からは抜け領域を除去することが可能となる。すると、このBG画像をJPEG方式で圧縮し、FG画像と重ね合わせるように表示させた場合にも、A字形の文字領域の境界にノイズを発生させることを防ぐことが可能となる。さらに、BG画像においては、エッジ穴埋め処理によってFG画像の形状に関する情報が除去されることになるため、JPEG方式で圧縮した場合の圧縮率に関しても、エッジ穴埋め処理前のBG画像よりも有利な結果を得ることができる。 FIG. 19 is a diagram showing edge lines EL i before and after the edge hole filling process. FIG. 20 is a diagram showing a BG image before the edge filling process and a BG image obtained by executing the edge filling process over all scanning lines. By performing the above-described edge filling process on the missing area in this way, it is possible to remove the missing area from the BG image. Then, even when this BG image is compressed by the JPEG method and displayed so as to be superimposed on the FG image, it is possible to prevent noise from being generated at the boundary of the A-shaped character region. Furthermore, in the BG image, the information regarding the shape of the FG image is removed by the edge filling process, and therefore, the compression rate when compressed by the JPEG method is also more advantageous than the BG image before the edge filling process. Can be obtained.

このように、本実施形態の画像処理装置10においては、中間データを用いて画像処理を行う点に特徴を有している。本実施形態の画像処理装置10によれば、特許文献1に記載の技術のように二値画像と多値画像とを参照して文字領域の塗りつぶし(穴埋め)を行う必要がなく、極めて効率的に画像処理を実行することが可能となる。また、本実施形態の画像処理装置10は中間データを用いて画像処理を行うので、二値画像と多値画像とを参照する特許文献1に記載の技術に比して、少ない記憶容量での画像処理が可能となる。したがって、本実施形態の画像処理装置10の技術を用いることにより、特許文献1に記載の技術を用いた場合と比較して処理の高速化、装置サイズの小型化および低コスト化を期待できる。   As described above, the image processing apparatus 10 according to the present embodiment is characterized in that image processing is performed using intermediate data. According to the image processing apparatus 10 of the present embodiment, unlike the technique described in Patent Document 1, it is not necessary to fill a character area with reference to a binary image and a multi-valued image, and it is extremely efficient. It is possible to execute image processing. In addition, since the image processing apparatus 10 according to the present embodiment performs image processing using intermediate data, compared with the technique described in Patent Document 1 that refers to a binary image and a multi-valued image, the image processing apparatus 10 has a smaller storage capacity. Image processing is possible. Therefore, by using the technique of the image processing apparatus 10 of the present embodiment, it is possible to expect higher processing speed, smaller apparatus size, and lower cost as compared with the case where the technique described in Patent Document 1 is used.

(2)第2実施形態
続いて、本発明の第2の実施形態について説明する。
本実施形態が上述の第1実施形態と異なるのは、エッジに含まれるタグ情報の種類が異なる点である。これに伴い、タグ対応テーブルの記憶内容やエッジ穴埋め処理の動作が異なるものの、画像処理装置の構成要素やおおよその処理については第1実施形態と同様である。そこで、以下においては上述の第1実施形態との相違点を中心に説明を行うこととし、第1実施形態と同様の構成要素や処理については適宜その説明を省略する。
(2) Second Embodiment Subsequently, a second embodiment of the present invention will be described.
This embodiment is different from the first embodiment described above in that the type of tag information included in the edge is different. Accordingly, the contents of the tag correspondence table and the edge filling process are different, but the components and approximate processing of the image processing apparatus are the same as in the first embodiment. Therefore, the following description will be made with a focus on differences from the above-described first embodiment, and description of components and processes similar to those of the first embodiment will be omitted as appropriate.

図21に、本実施形態におけるタグ情報の種類を示す。同図に示されているように、本実施形態のタグ情報には、第1実施形態の「テキスト(Tx)」、「グラフィクス(Gr)」、「イメージ(Im)」、「ヌル(Nl)」の4種類に加えて、「グラデーション(Gd)」と「パターン(Pt)」とが定義されている。「グラデーション」タグは、この属性を有するエッジが、その色値を段階的に変化させていく描画効果を有する描画オブジェクトであることを表す。ここでは、グラデーションとして水平方向(x方向)に色値が変化していく描画オブジェクトのみを考えるが、もちろんその他のグラデーションにも応用可能である。また、「パターン」タグは、この属性を有するエッジがある一定の周期で繰り返される画素パターンを形成する描画オブジェクトであることを表す。なお、「グラデーション」タグおよび「パターン」タグは、いずれもBG画像に関連付けられている。   FIG. 21 shows the types of tag information in this embodiment. As shown in the figure, the tag information of this embodiment includes “text (Tx)”, “graphics (Gr)”, “image (Im)”, “null (Nl)” of the first embodiment. "Gradation (Gd)" and "Pattern (Pt)" are defined. The “gradation” tag indicates that an edge having this attribute is a drawing object having a drawing effect that changes its color value stepwise. Here, only a drawing object whose color value changes in the horizontal direction (x direction) as a gradation is considered, but it can of course be applied to other gradations. The “pattern” tag represents a drawing object that forms a pixel pattern that is repeated at a certain cycle with an edge having this attribute. The “gradation” tag and the “pattern” tag are both associated with the BG image.

これらのタグ情報が付加されることで、エッジ穴埋め処理における処理内容が異なってくる。具体的には、図11のステップS266の処理内容が異なってくる。本実施形態においては、BG画像生成部135は、FGエッジ群の両端のBG画像の始点座標(Sx)、終点座標(Ex)および色情報(C)に加え、タグ情報(T)を参照してラスタ展開を行う。BG画像生成部135がFGエッジ群の両端のBG画像のタグ情報を参照した結果、これが「テキスト」、「グラフィクス」、「イメージ」あるいは「ヌル」タグであれば、このときの処理は第1実施形態と同様である。しかし、BG画像生成部135がFGエッジ群の両端のBG画像のタグ情報を参照した結果、これが「グラデーション」あるいは「パターン」タグであった場合には、第1実施形態とは異なる処理を行う。そこで、ここではタグ情報が「グラデーション」あるいは「パターン」タグであった場合のステップS266についての説明のみを行い、その他については省略する。   By adding such tag information, the processing contents in the edge filling process are different. Specifically, the processing content of step S266 in FIG. 11 is different. In the present embodiment, the BG image generation unit 135 refers to the tag information (T) in addition to the start point coordinates (Sx), end point coordinates (Ex), and color information (C) of the BG images at both ends of the FG edge group. Raster development. If the BG image generation unit 135 refers to the tag information of the BG images at both ends of the FG edge group, and this is a “text”, “graphics”, “image”, or “null” tag, the processing at this time is the first This is the same as the embodiment. However, if the BG image generation unit 135 refers to the tag information of the BG images at both ends of the FG edge group, and this is a “gradation” or “pattern” tag, a process different from that of the first embodiment is performed. . Therefore, here, only the description of step S266 when the tag information is the “gradation” or “pattern” tag will be given, and the others will be omitted.

まず、FGエッジ群の両端のBG画像が「グラデーション」タグであった場合について説明する。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標、色情報をそれぞれExl,Clとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標、色情報をそれぞれSxr,Crとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域をClとCrへと段階的に変化する色によって描画する処理となる。具体的には、このFGエッジ群のx方向のピクセル数をp1とし、Cl,CrのRGB値をそれぞれ(Rl,Gl,Bl)、(Rr,Gr,Br)とすると、BG画像生成部135は、FGエッジ群の左端のRGB値をCl,FGエッジ群の右端のRGB値をCrとし、各ピクセル間においては、RGB値のR,G,Bそれぞれの値が隣接する画素と「|Rl−Rr|/p1」,「|Gl−Gr|/p1」,「|Gl−Gr|/p1」ずつ段階的に変化していくように描画を行う。ここで、|n|は数値nの絶対値を示しており、R,G,Bのそれぞれの値が割り切れない場合には四捨五入等を行うとする。このような処理を行えば、FGエッジ群に相当する領域の色が段階的に変化するように描画され、両端のBG画像との間の色変化に違和感がなくなる。 First, a case where the BG images at both ends of the FG edge group are “gradation” tags will be described. Here, the end point coordinates and color information of the part of the BG image in contact with the left end of the FG edge group to be processed are respectively Ex l and C l, and the BG image of the part in contact with the right end of the FG edge group to be processed When the start point coordinates and color information of Sx r and C r are respectively, raster development uses “Ex l +1” as the start point coordinates and “Sx r +1” as the end point coordinates, and the region in this range is defined as C l and C r. This is a process of drawing with a color that changes step by step. Specifically, the number of pixels in the x direction of the FG edge group is p 1, and the RGB values of C l and C r are (R l , G l , B l ) and (R r , G r , B r, respectively. ) and when, BG image generation unit 135, the left end of the RGB values of the FG edge group and C l, the right end of the RGB values of the FG edge group and C r, in between each pixel, R in RGB values, G, B Each value is in steps of “| R 1 −R r | / p 1 ”, “| G 1 −G r | / p 1 ”, “| G 1 −G r | / p 1 ” step by step. Draw as it changes. Here, | n | indicates the absolute value of the numerical value n, and rounding or the like is performed when the values of R, G, and B are not divisible. If such processing is performed, the color of the region corresponding to the FG edge group is drawn so as to change stepwise, and there is no sense of incongruity in the color change between the BG images at both ends.

図22は、本実施形態のエッジ穴埋め処理と第1実施形態のエッジ穴埋め処理とを比較するための図である。例えば、あるエッジラインの処理前の中間データがEL4であるとすると、第1実施形態のエッジ穴埋め処理を行うことによりEL5のようになる。このとき、このエッジラインEL5のBG画像において抜け領域に相当する領域の色値はFGエッジ群の両端の色値の平均値となり、この領域内は一様な色で描画される。一方、このエッジラインに本実施形態のエッジ穴埋め処理を行うと、EL6のようになり、BG画像の抜け領域に相当する領域においても段階的に色値が変化し、両端のBG画像と違和感なく連結するようになる。 FIG. 22 is a diagram for comparing the edge filling process of the present embodiment with the edge filling process of the first embodiment. For example, if the intermediate data before processing of a certain edge line is EL 4 , EL 5 is obtained by performing the edge filling process of the first embodiment. At this time, the color value of the area corresponding to the missing area in the BG image of the edge line EL 5 is the average value of the color values at both ends of the FG edge group, and the area is rendered with a uniform color. On the other hand, when the edge hole filling process of this embodiment is performed on this edge line, it becomes EL 6 and the color value changes step by step even in the region corresponding to the missing region of the BG image, which is uncomfortable with the BG images at both ends. It will be connected without.

続いて、FGエッジ群の両端のBG画像が「パターン」タグであった場合について説明する。ここで、処理対象のFGエッジ群の左端に接している部分のBG画像の終点座標をExlとし、処理対象のFGエッジ群の右端に接している部分のBG画像の始点座標をSxrとすると、このラスタ展開は、「Exl+1」を始点座標、「Sxr+1」を終点座標とし、この範囲の領域を一定の周期で繰り返される画素パターンで描画する処理となる。具体的には、例えばFGエッジ群の両端のBG画像が、p1ピクセルの間隔で色値C1からC2へと変化していくパターン画像であった場合には、FGエッジ群に相当する領域も同様のパターン画像をなるように描画を行う。このような処理を行えば、FGエッジ群に相当する領域の色が一定の周期で繰り返される画素パターンで描画され、両端のBG画像との間の色変化に違和感がなくなる。 Next, a case where the BG images at both ends of the FG edge group are “pattern” tags will be described. Here, the end point coordinates of the part of the BG image that is in contact with the left end of the processing target FG edge group are set as Ex l, and the start point coordinates of the part of the BG image that is in contact with the right end of the processing target FG edge group are set as Sx r . Then, this raster development is a process of drawing an area in this range with a pixel pattern that is repeated at a constant cycle, with “Ex l +1” as the start point coordinate and “Sx r +1” as the end point coordinate. Specifically, for example, when the BG images at both ends of the FG edge group are pattern images that change from the color value C 1 to C 2 at an interval of p 1 pixels, this corresponds to the FG edge group. The region is drawn so as to form a similar pattern image. If such processing is performed, the color of the region corresponding to the FG edge group is drawn with a pixel pattern that is repeated at a constant cycle, and there is no sense of incongruity in the color change between the BG images at both ends.

図23は、本実施形態のエッジ穴埋め処理と第1実施形態のエッジ穴埋め処理とを比較するための図である。例えば、あるエッジラインの処理前の中間データがEL7であるとすると、第1実施形態のエッジ穴埋め処理を行うことによりEL8のようになる。このとき、このエッジラインEL8のBG画像において抜け領域に相当する領域の色値はFGエッジ群の両端の色値の平均値となり、この領域内は一様な色で描画される。一方、このエッジラインに本実施形態のエッジ穴埋め処理を行うと、EL9のようになり、BG画像の抜け領域に相当する領域においても一定の周期で色値が変化し、両端のBG画像と違和感なく連結するようになる。 FIG. 23 is a diagram for comparing the edge filling process of the present embodiment with the edge filling process of the first embodiment. For example, if the intermediate data before processing of a certain edge line is EL 7 , EL 8 is obtained by performing the edge filling process of the first embodiment. At this time, the color value of the region corresponding to the missing region in the BG image of the edge line EL 8 is the average value of the color values at both ends of the FG edge group, and the region is rendered with a uniform color. On the other hand, when the edge hole filling process of this embodiment is performed on this edge line, it becomes EL 9 and the color value changes in a certain period even in the region corresponding to the missing region of the BG image, It becomes connected without a sense of incongruity.

(3)変形例
以上に第1,第2実施形態を例示して本発明に係る画像処理装置について説明したが、本発明の適用はこのような態様に限定されるものではなく、種々の変形が可能である。以下にその例を示す。
まず、上述の実施形態においては、エッジ穴埋め処理を行う場合には、処理対象のFGエッジ群の左右のエッジのみを参照していたが、本発明の適用はこのような態様に限定されるものではなく、例えば処理対象のFGエッジ群の上下のエッジラインを参照してもよい。すなわち、エッジ穴埋め処理において参照する領域は、処理対象のFGエッジ群に隣接するエッジであればよい。また、このとき参照するエッジラインは、処理対象のFGエッジ群に直接接しているエッジラインだけでなく、複数のエッジラインを参照してもよい。
(3) Modification Examples The image processing apparatus according to the present invention has been described by exemplifying the first and second embodiments. However, the application of the present invention is not limited to such an aspect, and various modifications are possible. Is possible. An example is shown below.
First, in the above-described embodiment, when edge filling processing is performed, only the left and right edges of the FG edge group to be processed are referred to, but the application of the present invention is limited to such an aspect. Instead, for example, the upper and lower edge lines of the FG edge group to be processed may be referred to. That is, the region referred to in the edge hole filling process may be an edge adjacent to the processing target FG edge group. Further, the edge lines referred to at this time may refer to a plurality of edge lines as well as the edge lines directly in contact with the processing target FG edge group.

また、本発明では、BG画像の圧縮方式としては、特にDCTを用いたJPEG方式が好適であり、上述の実施形態においてはこれを例に説明した。しかしながら、本発明におけるBG画像の圧縮方式はJPEG方式に限定されるものではなく、例えばDCTのようにブロック単位で圧縮処理を行うような種々の圧縮方式を利用可能である。
同様に、FG画像の圧縮方式としても、MMR方式に限定されるものではなく、例えばMH(Modified Huffman)方式やMR(Modified Read)方式等、種々の圧縮方式が利用可能である。
In the present invention, the JPEG method using DCT is particularly suitable as the BG image compression method, and this has been described as an example in the above-described embodiments. However, the BG image compression method in the present invention is not limited to the JPEG method, and various compression methods that perform compression processing in units of blocks, such as DCT, can be used.
Similarly, the FG image compression method is not limited to the MMR method, and various compression methods such as an MH (Modified Huffman) method and an MR (Modified Read) method can be used.

また、上述の実施形態においては、レイヤ画像はFG画像とBG画像の2種類であるとしたが、もちろん3層以上のレイヤ画像が存在する場合においても、本発明を適用することが可能である。なお、このように3層以上のレイヤ画像が存在する場合に上述のエッジ穴埋め処理を行う場合には、処理対象となっているレイヤ画像の上位層だけではなく、下位層も参照する必要がある。例えば、ある層(L1とする)において抜け領域が存在し、この層L1の下位層(L2とする)において抜け領域に相当する領域に描画オブジェクトが存在する状況を想定する。ここで、層L1をラスタ展開するときに、下位層L2を参照せずにこの抜け領域に穴埋め処理を行ってしまうと、下位層L2上の抜け領域に相当する領域に形成されていた描画オブジェクトが、穴埋め画像によってマスクされた状態となってしまい、表示されなくなってしまう。よって、このような処理を行う場合には、画像処理装置のBG画像生成部は、処理対象となっているレイヤ画像の下位層を参照し、下位層において穴埋め画像を形成しようとする領域に相当する領域に描画オブジェクトが存在すれば、エッジ穴埋め処理を行わない、というような動作とする必要がある。 In the above-described embodiment, there are two types of layer images, FG images and BG images. Of course, the present invention can be applied even when there are three or more layer images. . When the above-described edge filling process is performed when there are three or more layer images as described above, it is necessary to refer not only to the upper layer of the layer image to be processed but also to the lower layer. . For example, a situation is assumed in which a missing region exists in a certain layer (referred to as L 1 ) and a drawing object exists in a region corresponding to the missing region in a lower layer (referred to as L 2 ) of this layer L 1 . Here, when the layer L 1 is raster-developed, if the missing area is filled without referring to the lower layer L 2 , the layer L 1 is formed in an area corresponding to the missing area on the lower layer L 2. The drawn object is masked by the hole-filled image and is not displayed. Therefore, when performing such processing, the BG image generation unit of the image processing apparatus refers to the lower layer of the layer image that is the processing target, and corresponds to an area in which a hole-filled image is to be formed in the lower layer. If there is a drawing object in the area to be processed, it is necessary to perform an operation such that the edge filling process is not performed.

また、このような場合、画像処理装置内部においては、それぞれの層に対応する画像生成部においてどのような圧縮方式で圧縮処理を行うかが記憶されているとよい。そして、多層圧縮画像データを生成する際に記憶された各層の画像形成部の圧縮方式を参照し、上述したエッジ穴埋め処理を行うのに適した圧縮方式が適用されている層の画像生成部においてのみこのエッジ穴埋め処理を行うようにすればよい。   In such a case, in the image processing apparatus, it may be stored in what compression method the image generation unit corresponding to each layer performs the compression process. Then, referring to the compression method of the image forming unit of each layer stored when generating the multilayer compressed image data, in the image generating unit of the layer to which the compression method suitable for performing the edge filling process described above is applied Only this edge filling process should be performed.

また、上述の実施形態においては、文書データは文書作成アプリケーションによって作成されるものであると説明されているが、もちろんこのような態様に限定されるものではなく、文書データは外部機器から供給されるものであってもよい。   In the above-described embodiment, it is described that the document data is created by the document creation application. However, the present invention is not limited to such a mode, and the document data is supplied from an external device. It may be a thing.

本発明の第1の実施形態に係る画像処理装置のハードウェア構成を示したブロック図である。1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to a first embodiment of the present invention. 図1の画像処理装置の機能構成を示した機能ブロック図である。FIG. 2 is a functional block diagram illustrating a functional configuration of the image processing apparatus in FIG. 1. 同実施形態におけるプリンタドライバの機能構成を示した機能ブロック図である。FIG. 2 is a functional block diagram showing a functional configuration of a printer driver in the same embodiment. 同実施形態における中間データの構造を示した模式図である。It is the schematic diagram which showed the structure of the intermediate data in the same embodiment. 同実施形態におけるエッジの構造を示した模式図である。It is the schematic diagram which showed the structure of the edge in the same embodiment. 同実施形態におけるタグ対応テーブルを示した模式図である。It is the schematic diagram which showed the tag corresponding | compatible table in the same embodiment. 同実施形態においてFG画像生成部が中間データからFG画像を生成する動作を示したフローチャートである。5 is a flowchart illustrating an operation in which an FG image generation unit generates an FG image from intermediate data in the embodiment. 同実施形態においてBG画像生成部が中間データからBG画像を生成する動作を示したフローチャートである。4 is a flowchart illustrating an operation in which a BG image generation unit generates a BG image from intermediate data in the embodiment. 同実施形態においてエッジ穴埋め処理が行われる文書データを例示した図である。It is the figure which illustrated the document data in which edge hole filling processing is performed in the same embodiment. 同実施形態においてエッジ穴埋め処理が行われる前のBG画像を示した図である。It is the figure which showed the BG image before an edge hole-filling process is performed in the embodiment. 同実施形態におけるエッジ穴埋め処理を示したフローチャートである。It is the flowchart which showed the edge hole filling process in the same embodiment. 同実施形態におけるエッジの配列パターンを示した図である。It is the figure which showed the arrangement pattern of the edge in the same embodiment. ノイズの発生する条件を説明するために例示した図である。It is the figure illustrated in order to demonstrate the conditions which noise generate | occur | produces. 同実施形態において穴埋め画像の生成を行った場合のエッジラインを示した図である。It is the figure which showed the edge line at the time of producing | generating the hole-filling image in the same embodiment. 同実施形態において穴埋め画像の生成が行なわれなかった場合のエッジラインを示した図である。It is the figure which showed the edge line when the production | generation of a hole-filling image was not performed in the same embodiment. 同実施形態における中間データの走査ラインを示した図である。It is the figure which showed the scanning line of the intermediate data in the same embodiment. 同実施形態におけるエッジのデータ構造を示した図である。It is the figure which showed the data structure of the edge in the same embodiment. 同実施形態において、中間データのエッジラインに相当する領域のBG画像を表した図である。In the same embodiment, it is a figure showing the BG image of the area | region corresponded to the edge line of intermediate data. 同実施形態におけるエッジ穴埋め処理の前後のエッジラインを示した図である。It is the figure which showed the edge line before and behind the edge hole filling process in the same embodiment. 同実施形態におけるエッジ穴埋め処理を行う前のBG画像と、このエッジ穴埋め処理をすべての走査ラインに渡って実行することで得られるBG画像とを示した図である。It is the figure which showed BG image before performing the edge hole-filling process in the same embodiment, and the BG image obtained by performing this edge hole-filling process over all the scanning lines. 本発明の第2の実施形態におけるタグ情報の種類を示す。The kind of tag information in the 2nd Embodiment of this invention is shown. 同実施形態のエッジ穴埋め処理と第1の実施形態のエッジ穴埋め処理とを比較するための図である。It is a figure for comparing the edge filling process of the same embodiment with the edge filling process of the first embodiment. 同実施形態のエッジ穴埋め処理と第1の実施形態のエッジ穴埋め処理とを比較するための図である。It is a figure for comparing the edge filling process of the same embodiment with the edge filling process of the first embodiment.

符号の説明Explanation of symbols

10…画像処理装置、1…制御部、2…記憶部、3…入出力I/F、4…表示部、5…操作部、11…OS、12…文書作成アプリケーション、13…プリンタドライバ、131…I/F部、132…中間データ生成部、133…FG画像生成部、134…FG画像圧縮部、135…BG画像生成部、136…BG画像圧縮部、137…フォーマット部。 DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 1 ... Control part, 2 ... Memory | storage part, 3 ... Input-output I / F, 4 ... Display part, 5 ... Operation part, 11 ... OS, 12 ... Document creation application, 13 ... Printer driver, 131 ... I / F part, 132 ... Intermediate data generation part, 133 ... FG image generation part, 134 ... FG image compression part, 135 ... BG image generation part, 136 ... BG image compression part, 137 ... Format part.

Claims (15)

文書を構成するオブジェクトの種類を示す属性情報と、上位から下位へ複数に区分された各層との対応関係を記憶する記憶手段と、
文書を表す文書データを画像情報に変換する変換手段と、
前記画像情報に含まれる前記オブジェクトを前記記憶手段に記憶された前記対応関係に従って複数の層に割り当て、これら各層の画像を表す層状画像データを生成する処理を行う層状画像生成手段とを備え、
前記層状画像生成手段は、処理の対象である特定層の画像においてオブジェクトが存在しない抜け領域が存在している場合、該特定層の上位層または下位層において前記抜け領域の位置に相当する領域に存在するオブジェクトと、該特定層に存在するオブジェクトとに基づいて生成した穴埋め画像を前記抜け領域に形成して該特定層の層状画像データを生成する画像処理装置。
Storage means for storing correspondence information between attribute information indicating the types of objects constituting the document and each layer divided into a plurality from upper to lower;
Conversion means for converting document data representing a document into image information;
Layered image generation means for performing processing for assigning the object included in the image information to a plurality of layers in accordance with the correspondence relationship stored in the storage means, and generating layered image data representing images of these layers,
When there is a missing area where no object exists in the image of the specific layer that is the processing target, the layered image generation unit creates a region corresponding to the position of the missing area in the upper layer or the lower layer of the specific layer. An image processing apparatus for forming a hole-filled image generated based on an existing object and an object existing in the specific layer in the missing region to generate layered image data of the specific layer.
前記画像情報は、画像をある方向に細分化したエッジラインの集合によって表され、
前記エッジラインは、該エッジラインに含まれる各オブジェクトの始点座標、終点座標、色情報、あるいは前記属性情報のうちの少なくとも一つを含んだエッジ情報の集合によって表される
請求項1記載の画像処理装置。
The image information is represented by a set of edge lines obtained by subdividing the image in a certain direction,
The image according to claim 1, wherein the edge line is represented by a set of edge information including at least one of start point coordinates, end point coordinates, color information, and attribute information of each object included in the edge line. Processing equipment.
前記層状画像生成手段は、
前記記憶手段に記憶された前記対応関係に基づき、前記エッジ情報のそれぞれを前記複数の層のいずれかに割り当てる
請求項2記載の画像処理装置。
The layered image generation means includes
The image processing apparatus according to claim 2, wherein each of the edge information is assigned to any one of the plurality of layers based on the correspondence relationship stored in the storage unit.
前記層状画像生成手段は、
前記上位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記特定層における前記抜け領域に隣接する領域のオブジェクトに基づいて前記穴埋め画像を前記抜け領域に形成する
請求項1記載の画像処理装置。
The layered image generation means includes
When the object exists in an area corresponding to the position of the missing area in the upper layer, the hole filling image is formed in the missing area based on an object in an area adjacent to the missing area in the specific layer. The image processing apparatus according to 1.
前記層状画像生成手段は、
前記下位層において前記抜け領域の位置に相当する領域にオブジェクトが存在する場合には、前記穴埋め画像を形成しない
請求項1記載の画像処理装置。
The layered image generation means includes
The image processing apparatus according to claim 1, wherein the hole-filled image is not formed when an object exists in an area corresponding to the position of the missing area in the lower layer.
前記層状画像生成手段は、
前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報とに基づいて、前記穴埋め画像を形成する
請求項2記載の画像処理装置。
The layered image generation means includes
The image processing apparatus according to claim 2, wherein the hole-filling image is formed based on the start point coordinates, the end point coordinates, and the color information of an object existing in an area adjacent to the missing area.
前記層状画像生成手段は、
前記抜け領域に隣接する領域に存在するオブジェクトの前記始点座標と、前記終点座標と、前記色情報と、前記属性情報とに基づいて、前記穴埋め画像を形成する
請求項2記載の画像処理装置。
The layered image generation means includes
The image processing apparatus according to claim 2, wherein the hole-filled image is formed based on the start point coordinates, the end point coordinates, the color information, and the attribute information of an object existing in an area adjacent to the missing area.
前記層状画像生成手段は、
前記抜け領域に隣接する領域に存在するオブジェクトの色情報がいずれも一定の色値を有する色情報である場合に、該色値を有する前記穴埋め画像を形成する
請求項6または7記載の画像処理装置。
The layered image generation means includes
The image processing according to claim 6 or 7, wherein when the color information of an object existing in an area adjacent to the missing area is color information having a constant color value, the hole-filled image having the color value is formed. apparatus.
前記層状画像生成手段は、
前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有する場合に、該複数のオブジェクトの色値の平均値を有する前記穴埋め画像を形成する
請求項6または7記載の画像処理装置。
The layered image generation means includes
8. The hole-filled image having an average value of the color values of the plurality of objects is formed when objects existing in the plurality of regions adjacent to the missing region have color information of different color values. Image processing apparatus.
前記層状画像生成手段は、
前記抜け領域に隣接する複数の領域に存在するオブジェクトがそれぞれ異なる色値の色情報を有し、かつ、これらのオブジェクトがともに色値を段階的に変化させていく描画効果を有するオブジェクトの属性情報を有する場合に、段階的に変化する色値を有する前記穴埋め画像を形成する
請求項7項記載の画像処理装置。
The layered image generation means includes
Attribute information of an object having a drawing effect in which objects existing in a plurality of areas adjacent to the missing area have color information of different color values, and these objects both change the color value in stages. The image processing apparatus according to claim 7, wherein the hole-filling image having a color value that changes stepwise is formed.
前記層状画像生成手段は、
前記抜け領域に段階的に変化する色値を有する前記穴埋め画像を形成する場合に、該抜け領域に隣接する第1の領域に存在するオブジェクトの第1の色値から該抜け領域に隣接する第2の領域に存在するオブジェクトの第2の色値へと段階的に変化する色値を有する前記穴埋め画像を形成する
請求項10記載の画像処理装置。
The layered image generation means includes
When forming the hole-filling image having a color value that changes stepwise in the missing area, the first color value of the object existing in the first area adjacent to the missing area is changed to the first color value adjacent to the missing area. The image processing apparatus according to claim 10, wherein the hole-filled image having a color value that gradually changes to a second color value of an object existing in the second area is formed.
前記層状画像生成手段は、
前記抜け領域に隣接する領域に存在するオブジェクトが周期的に変化する色値を有するオブジェクトの属性情報を有する場合に、周期的に変化する色値を有する前記穴埋め画像を形成する
請求項7記載の画像処理装置。
The layered image generation means includes
8. The hole-filling image having a periodically changing color value is formed when an object existing in an area adjacent to the missing area has attribute information of an object having a periodically changing color value. Image processing device.
前記層状画像生成手段は、
前記上位層において、前記抜け領域の位置に相当する領域にオブジェクトが存在し、かつ、前記領域に隣接する複数の領域にオブジェクトが存在しない領域が含まれる場合には、前記特定層において、前記抜け領域と前記上位層の前記オブジェクトが存在しない領域に相当する領域との境界近傍には穴埋め画像を形成しない
請求項4記載の画像処理装置。
The layered image generation means includes
In the upper layer, when an object exists in an area corresponding to the position of the missing area and an area where no object exists is included in a plurality of areas adjacent to the area, the missing layer includes the missing area. The image processing apparatus according to claim 4, wherein a hole-filled image is not formed in the vicinity of a boundary between a region and a region corresponding to a region where the object in the upper layer does not exist.
前記層状画像生成手段により生成された前記層状画像データの各層の画像に対して、それぞれに決められた圧縮方式で圧縮処理を行う圧縮手段を備える
請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising: a compression unit that performs compression processing on each layer image of the layered image data generated by the layered image generation unit using a compression method determined for each layer.
前記層状画像生成手段が前記特定層の前記抜け領域に前記穴埋め画像を形成するときに、該特定層の画像に行われる圧縮処理の圧縮方式を参照することにより生成する画像を決定する
請求項14記載の画像処理装置。
15. The image to be generated is determined by referring to a compression method of compression processing performed on the image of the specific layer when the layered image generation unit forms the hole-filled image in the missing region of the specific layer. The image processing apparatus described.
JP2004235413A 2004-08-12 2004-08-12 Image processing apparatus and program Expired - Fee Related JP4345609B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004235413A JP4345609B2 (en) 2004-08-12 2004-08-12 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004235413A JP4345609B2 (en) 2004-08-12 2004-08-12 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2006054712A true JP2006054712A (en) 2006-02-23
JP4345609B2 JP4345609B2 (en) 2009-10-14

Family

ID=36031886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004235413A Expired - Fee Related JP4345609B2 (en) 2004-08-12 2004-08-12 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4345609B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165538A (en) * 2006-12-28 2008-07-17 Canon Inc Image processor and control method for image processor
JP2011004302A (en) * 2009-06-22 2011-01-06 Fuji Xerox Co Ltd Image processing device and image processing program
JP2011009924A (en) * 2009-06-24 2011-01-13 Canon Inc Image processing apparatus, image processing method, and computer program
JP2014107683A (en) * 2012-11-27 2014-06-09 Kyocera Document Solutions Inc Image processing device
JP2020007037A (en) * 2018-07-12 2020-01-16 澁谷工業株式会社 Cap seaming device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165538A (en) * 2006-12-28 2008-07-17 Canon Inc Image processor and control method for image processor
JP2011004302A (en) * 2009-06-22 2011-01-06 Fuji Xerox Co Ltd Image processing device and image processing program
JP2011009924A (en) * 2009-06-24 2011-01-13 Canon Inc Image processing apparatus, image processing method, and computer program
US8532385B2 (en) 2009-06-24 2013-09-10 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2014107683A (en) * 2012-11-27 2014-06-09 Kyocera Document Solutions Inc Image processing device
US9165205B2 (en) 2012-11-27 2015-10-20 Kyocera Document Solutions Inc. Image processing device generating character image and background image on the basis of connected pixel group
JP2020007037A (en) * 2018-07-12 2020-01-16 澁谷工業株式会社 Cap seaming device

Also Published As

Publication number Publication date
JP4345609B2 (en) 2009-10-14

Similar Documents

Publication Publication Date Title
JP4766657B2 (en) Image processing apparatus, control method therefor, and program
US10477063B2 (en) Character detection and binarization
US8855438B2 (en) Image processing apparatus, image processing method of image processing apparatus, and program
JP2000511364A (en) Method and apparatus for reducing storage requirements for display data
US10592766B2 (en) Image processing apparatus and medium storing program executable by image processing apparatus
US8654147B2 (en) Apparatus for generating raster images, raster image generating method, and storage medium
US20090303550A1 (en) Image processing apparatus and image processing method
US20060203011A1 (en) Image processing apparatus, image processing method, and storage medium storing a program for causing image processing to be executed
JP4345609B2 (en) Image processing apparatus and program
US7324696B2 (en) Method for tag plane growth and contraction using run length encoded data
US10565465B2 (en) Image processing apparatus that identifies character pixel in target image using first and second candidate character pixels
CA2346761C (en) Method, system, program, and data structure for generating raster objects
US7382494B2 (en) Method for tag plane growth and contraction for improving object edge rendering
JP2006244248A (en) Image processing device, image processing method, and program for executing image processing method
JP2007088912A (en) Image processing apparatus and program
JP3211417B2 (en) Page description language processor
JP2006054817A (en) Document processor
JP5112223B2 (en) Image processing apparatus and image processing program
JP2006140597A (en) Device and method for printing control, computer program, and storage medium
JP3968989B2 (en) Image processing apparatus, image processing method, and storage medium storing image processing program
JPH05205015A (en) Image processor
JP2006129250A (en) Image processor
JP2010187177A (en) Image forming apparatus and control program
JP2006040161A (en) Image processing apparatus and program
JP2000261670A (en) Image processing unit, its method and memory computer- readable

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090623

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090706

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120724

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120724

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130724

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees