JP4946370B2 - Image processing apparatus, image forming apparatus, and program - Google Patents

Image processing apparatus, image forming apparatus, and program Download PDF

Info

Publication number
JP4946370B2
JP4946370B2 JP2006304475A JP2006304475A JP4946370B2 JP 4946370 B2 JP4946370 B2 JP 4946370B2 JP 2006304475 A JP2006304475 A JP 2006304475A JP 2006304475 A JP2006304475 A JP 2006304475A JP 4946370 B2 JP4946370 B2 JP 4946370B2
Authority
JP
Japan
Prior art keywords
image
attribute
pixel
density
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006304475A
Other languages
Japanese (ja)
Other versions
JP2008123126A (en
Inventor
真吾 中西
俊治 綱島
裕之 大藪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2006304475A priority Critical patent/JP4946370B2/en
Publication of JP2008123126A publication Critical patent/JP2008123126A/en
Application granted granted Critical
Publication of JP4946370B2 publication Critical patent/JP4946370B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Image Generation (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

この発明は、画像処理装置、画像形成装置及びこれらを制御するプログラムに関する。   The present invention relates to an image processing apparatus, an image forming apparatus, and a program for controlling them.

従来から、プリンタ等の画像形成装置等において、複数の画像を種々の態様で合成した画像を形成/表示する技術が知られている。例えば、背景画像の一部領域に新たな画像を合成したり、通常の画像に文字や記号等を重ねたりする場合等である。その場合に、合成したり重ねたりする領域において、所定の混合割合に従って画像を合成して表示する画像処理が行なわれる。このような画像処理は、一般に「アルファブレンド処理」と呼ばれている。(例えば、特許文献1、特許文献2、及び特許文献3参照)。   2. Description of the Related Art Conventionally, a technique for forming / displaying an image obtained by combining a plurality of images in various modes in an image forming apparatus such as a printer is known. For example, it may be a case where a new image is synthesized with a partial area of the background image, or a character or symbol is superimposed on a normal image. In that case, image processing is performed in which the images are combined and displayed in accordance with a predetermined mixing ratio in the region to be combined or overlapped. Such image processing is generally called “alpha blend processing”. (For example, refer to Patent Document 1, Patent Document 2, and Patent Document 3).

この特許文献1の画像処理装置等では、レンダリングエンジンは、所定の指令とオブジェクト情報とを受信すると、オブジェクトの合成処理の判断をする。そして、オブジェクトの合成指示がある場合は、ソースとデスティネーションのアルファブレンドオペレーションによるand処理により合成を行う。
また、この特許文献2の画像形成装置等では、属性の異なるオブジェクトどうしが印刷画面上で重なることによって発生する属性の不定領域が存在するか否かを判別する。そして、存在するならば属性ビットマップイメージ全体を単一の属性に変更する。不定領域が存在しないと判別されたならば、レンダリングによって得られた属性をそのまま採用する。
更にまた、この特許文献3の画像形成装置等では、描画プレーンにおいてソースピクセルとデスティネーションピクセルとを描画論理演算するとき、情報プレーンにおいては、ソースピクセルの属性情報を有効にする。そして、描画プレーンにおいてパターンピクセルとソースピクセルとデスティネーションピクセルとを描画論理演算するとき、情報プレーンにおいては、ソースピクセルの属性情報を有効にする。更に、描画プレーンにおいてマスクピクセルとパターンピクセルとソースピクセルとデスティネーションピクセルとを描画論理演算するとき、情報プレーンにおいては、マスクピクセルが黒画素の部分についてはソースピクセルの属性情報を有効にし、白画素部分についてはデスティネーションピクセルの属性情報を有効にする。
In the image processing apparatus and the like disclosed in Patent Document 1, when a rendering engine receives a predetermined command and object information, the rendering engine determines object synthesis processing. If there is an instruction to synthesize an object, the composition is performed by an AND process by an alpha blend operation of the source and destination.
Further, in the image forming apparatus of Patent Document 2, it is determined whether or not there is an indefinite region of an attribute that occurs when objects having different attributes overlap on the print screen. If it exists, the entire attribute bitmap image is changed to a single attribute. If it is determined that there is no indefinite area, the attribute obtained by rendering is used as it is.
Furthermore, in the image forming apparatus of Patent Document 3, when the source pixel and the destination pixel are subjected to a drawing logical operation in the drawing plane, the attribute information of the source pixel is validated in the information plane. Then, when performing a drawing logical operation on the pattern pixel, the source pixel, and the destination pixel in the drawing plane, the attribute information of the source pixel is validated in the information plane. Further, when a mask pixel, a pattern pixel, a source pixel, and a destination pixel are drawn logically in the drawing plane, in the information plane, the attribute information of the source pixel is validated for the portion where the mask pixel is a black pixel, and the white pixel For the portion, the attribute information of the destination pixel is validated.

特開2001−189841号公報(第3−5頁、第5図)JP 2001-189841 A (page 3-5, FIG. 5) 特開2002−312141号公報(第7−9頁、第2図)Japanese Patent Laid-Open No. 2002-312141 (page 7-9, FIG. 2) 特開2004−243568号公報(第3−7頁、第2図)JP-A-2004-243568 (page 3-7, FIG. 2)

本発明は、以上のような状況に対処するためになされたものであって、所定の混合割合に従って合成処理した画像を高品質に形成することを目的とする。   The present invention has been made in order to cope with the above-described situation, and an object thereof is to form an image synthesized in accordance with a predetermined mixing ratio with high quality.

かかる目的のもと、本発明の画像処理装置では、所定の混合割合に従って合成される所定の属性をもつ複数の画像要素のそれぞれについて、その混合割合の情報を含む画像情報を受け付ける受付手段と、複数の画像要素が重なる領域に関して、画像情報が含む画素値の情報に基づいて、複数の画像要素それぞれの混合割合に応じた濃度に関する値を算出する算出手段と、その算出手段が算出した濃度に関する値に基づいて複数の画像要素が重なる領域の画像要素の属性を設定する設定手段とを備えることを特徴とすることができる。   For this purpose, in the image processing apparatus of the present invention, for each of a plurality of image elements having a predetermined attribute synthesized according to a predetermined mixing ratio, receiving means for receiving image information including information on the mixing ratio; Regarding a region where a plurality of image elements overlap, based on the pixel value information included in the image information, a calculation unit that calculates a value related to the density according to the mixing ratio of each of the plurality of image elements, and a density calculated by the calculation unit Setting means for setting an attribute of an image element in a region where a plurality of image elements overlap based on a value.

また、このような画像処理装置として、各画像要素の属性に対して個別に設定された係数を記憶する記憶手段を更に備え、算出手段は、合成される複数の画像要素の属性に基づいて記憶手段から読み出した係数により、複数の画像要素が重なる領域における濃度に関する値を補正し、設定手段は、算出手段が補正した濃度に関する値に基づいてその領域の画像要素の属性を設定し、設定手段が設定した画像要素の属性に応じた画像処理を行うことを特徴とすることができる。   In addition, as such an image processing apparatus, the image processing apparatus further includes storage means for storing coefficients set individually for the attributes of the image elements, and the calculation means stores the coefficients based on the attributes of the plurality of image elements to be combined. The value related to the density in the region where the plurality of image elements overlap is corrected by the coefficient read from the means, and the setting means sets the attribute of the image element in the area based on the value related to the density corrected by the calculation means, and the setting means The image processing according to the attribute of the image element set by is performed.

更に、このような画像処理装置として、設定手段は、複数の画像要素が重なる領域の画素毎における濃度に関する値を比較し、その値が大きいと判断された画像要素の属性を画素毎の画像要素の属性として設定し、設定手段が設定した画像要素の属性に応じた画像処理を画素毎に行うことを特徴とすることができる。   Furthermore, as such an image processing apparatus, the setting means compares values relating to the density of each pixel in a region where a plurality of image elements overlap, and determines the attribute of the image element determined to have a large value as the image element for each pixel. And the image processing corresponding to the attribute of the image element set by the setting means is performed for each pixel.

一方、本発明は、画像形成装置として捉えることもできる。この場合、本発明の画像形成装置では、所定の混合割合に従って合成される所定の属性をもつ複数の画像要素のそれぞれについて、混合割合の情報を含む画像情報を受け付ける受付手段と、その受付手段により受け付けられた画像情報の合成処理を行なう画像処理手段と、その画像処理手段により合成処理された画像情報に基づいて、記録媒体上に合成された複数の画像要素を形成する画像形成手段と、を有し、画像処理手段は、複数の画像要素が重なる領域に関して、画像情報が含む画素値の情報に基づいて、複数の画像要素それぞれの混合割合に応じた濃度に関する値を算出する算出部と、その算出部が算出した濃度に関する値に基づいて複数の画像要素が重なる領域の画像要素の属性を設定する設定部と、を備えることを特徴とすることができる。   On the other hand, the present invention can also be understood as an image forming apparatus. In this case, in the image forming apparatus according to the present invention, for each of a plurality of image elements having a predetermined attribute synthesized according to a predetermined mixing ratio, receiving means for receiving image information including information on the mixing ratio, and the receiving means Image processing means for combining received image information, and image forming means for forming a plurality of image elements combined on a recording medium based on the image information combined by the image processing means. And a calculation unit that calculates a value related to the density according to the mixing ratio of each of the plurality of image elements based on the pixel value information included in the image information with respect to a region where the plurality of image elements overlap. A setting unit configured to set an attribute of an image element in an area where a plurality of image elements overlap based on a value related to density calculated by the calculation unit. Can.

また、このような画像形成装置として、画像処理手段は、各画像要素の属性に対して個別に設定された係数を記憶する記憶部を更に備え、算出部が、合成される複数の画像要素の属性に基づいて記憶部から読み出した係数により、複数の画像要素が重なる領域における濃度に関する値を補正し、設定部は、算出部が補正した濃度に関する値に基づいてその領域の画像要素の属性を設定し、設定部が設定した画像要素の属性に応じた画像処理を行うことを特徴とすることができる。   In addition, as such an image forming apparatus, the image processing unit further includes a storage unit that stores coefficients individually set for the attributes of each image element, and the calculation unit includes a plurality of image elements to be combined. The value related to the density in the region where the plurality of image elements overlap is corrected by the coefficient read from the storage unit based on the attribute, and the setting unit determines the attribute of the image element in the region based on the value related to the density corrected by the calculation unit. It is possible to set and perform image processing according to the attribute of the image element set by the setting unit.

更に、このような画像形成装置として、画像処理手段は、設定部が複数の画像要素が重なる領域の画素毎における濃度に関する値を比較し、その値が大きいと判断された画像要素の属性を画素毎の画像要素の属性として設定し、設定部が設定した画像要素の属性に応じた画像処理を画素毎に行うことを特徴とすることができる。   Further, as such an image forming apparatus, the image processing unit compares the value regarding the density for each pixel in the region where the setting unit overlaps the plurality of image elements, and determines the attribute of the image element determined to have a large value as the pixel. It can be set as an attribute of each image element, and image processing corresponding to the attribute of the image element set by the setting unit is performed for each pixel.

一方、本発明は、画像処理装置と画像形成装置とを制御するプログラムとして捉えることもできる。この場合、コンピュータに、所定の混合割合に従って合成される所定の属性をもつ複数の画像要素のそれぞれについて、混合割合の情報を含む画像情報を取得する取得機能と、複数の画像要素が重なる領域に関して、画像情報が含む画素値の情報に基づいて、複数の画像要素それぞれの混合割合に応じた濃度に関する値を算出する算出機能と、その算出機能が算出した濃度に関する値に基づいて複数の画像要素が重なる領域の画像要素の属性を設定する設定機能と、を実現させることを特徴とすることができる。   On the other hand, the present invention can also be understood as a program for controlling the image processing apparatus and the image forming apparatus. In this case, with respect to each of a plurality of image elements having a predetermined attribute synthesized according to a predetermined mixing ratio, an acquisition function for acquiring image information including information on the mixing ratio, and a region where the plurality of image elements overlap A calculation function for calculating a value related to density according to a mixing ratio of each of a plurality of image elements based on pixel value information included in the image information, and a plurality of image elements based on values related to the density calculated by the calculation function And a setting function for setting the attribute of the image element in the region where the two overlap.

また、このようなプログラムとして、算出機能は、合成される複数の画像要素の属性に基づいた係数を各画像要素の属性に対して個別に設定された係数が記憶された記憶手段から読み出し、その係数により複数の画像要素が重なる領域における濃度に関する値を補正し、設定機能は、算出機能が補正した濃度に関する値に基づいてその領域の画像要素の属性を設定し、設定機能が設定した画像要素の属性に応じた画像処理を行うことを特徴とすることができる。   Further, as such a program, the calculation function reads a coefficient based on attributes of a plurality of image elements to be combined from a storage unit in which coefficients individually set for the attributes of each image element are stored. The value related to the density in the region where a plurality of image elements are overlapped by the coefficient, and the setting function sets the attribute of the image element in that region based on the value related to the density corrected by the calculation function, and the image element set by the setting function It is possible to perform image processing according to the attribute of the image.

更に、このようなプログラムとして、設定機能は、複数の画像要素が重なる領域の画素毎における濃度に関する値を比較し、その値が大きいと判断された画像要素の属性を画素毎の画像要素の属性として設定し、設定機能が設定した画像要素の属性に応じた画像処理を画素毎に行うことを特徴とすることができる。   Further, as such a program, the setting function compares the values related to the density for each pixel in the region where the plurality of image elements overlap, and determines the attribute of the image element determined to have a large value as the attribute of the image element for each pixel. The image processing according to the attribute of the image element set by the setting function is performed for each pixel.

請求項1の発明によれば、請求項1に記載の発明を採用しない場合に比較して、合成画像が濃度に関する情報に基づいて属性が設定された、より高品質な画像となるように処理することができる。
そして、請求項2の発明によれば、請求項2に記載の発明を採用しない場合に比較して、画素の属性決定をより詳細に制御でき、属性の切り替わりによる画質劣化を軽減することができる。
請求項3の発明によれば、請求項3に記載の発明を採用しない場合に比較して、合成画像の画素毎の表現をより高品質となるように処理することができる。
According to the first aspect of the invention, compared with the case where the invention of the first aspect is not adopted, the composite image is processed so as to be a higher quality image in which the attribute is set based on the density information. can do.
According to the second aspect of the present invention, pixel attribute determination can be controlled in more detail and image quality deterioration due to attribute switching can be reduced as compared with the case where the invention of the second aspect is not adopted. .
According to the invention of claim 3, it is possible to process the representation of each pixel of the composite image so as to have a higher quality than when the invention of claim 3 is not adopted.

そして、請求項4の発明によれば、請求項4に記載の発明を採用しない場合に比較して、合成画像が濃度に関する情報に基づいて属性が設定された、より高品質な画像を形成することができる。
また、請求項5の発明によれば、請求項5に記載の発明を採用しない場合に比較して、画素の属性決定をより詳細に制御でき、属性の切り替わりによる画質劣化を軽減することができる。
更に、請求項6の発明によれば、請求項6に記載の発明を採用しない場合に比較して、画素毎の表現がより高品質となるような合成画像を形成することができる。
According to the invention of claim 4, compared with the case where the invention of claim 4 is not adopted, the synthesized image forms a higher quality image in which the attribute is set based on the information on the density. be able to.
Further, according to the invention of claim 5, as compared with the case where the invention of claim 5 is not adopted, pixel attribute determination can be controlled in more detail, and image quality deterioration due to attribute switching can be reduced. .
Furthermore, according to the invention of claim 6, compared with the case where the invention of claim 6 is not adopted, it is possible to form a composite image in which the expression for each pixel becomes higher quality.

そして、請求項7の発明によれば、請求項7に記載の発明を採用しない場合に比較して、合成画像が濃度に関する情報に基づいて属性が設定された、より高品質な画像となるように処理させることができる。
また、請求項8の発明によれば、請求項8に記載の発明を採用しない場合に比較して、画素の属性決定をより詳細に制御でき、属性の切り替わりによる画質劣化を軽減することができる。
更に、請求項9の発明によれば、請求項9に記載の発明を採用しない場合に比較して、合成画像の画素毎の表現をより高品質となるように処理させることができる。
According to the seventh aspect of the invention, compared to the case where the invention of the seventh aspect is not adopted, the synthesized image is a higher quality image in which the attribute is set based on the information on the density. Can be processed.
Further, according to the invention of claim 8, compared with the case where the invention of claim 8 is not adopted, pixel attribute determination can be controlled in more detail, and image quality deterioration due to attribute switching can be reduced. .
Furthermore, according to the ninth aspect of the present invention, it is possible to process the representation of each pixel of the composite image so as to have a higher quality than when the invention according to the ninth aspect is not adopted.

(画像形成装置についての詳細な説明)
以下、添付図面を参照して、本発明を実施するための形態(以下、「実施形態」という)について詳細に説明する。
図1は、本実施の形態が適用される画像処理装置を備えた画像形成装置の構成の一例を示したブロック図である。図1に示した画像形成装置1は、例えばデジタルカラープリンタであって、外部機器から入力された画像情報に対して所定の画像処理を施す画像処理手段としての画像処理部(画像処理装置)10を備えている。そして、処理プログラム等が記録される例えばハードディスク(Hard Disk Drive)にて実現される2次記憶部20と、画像形成装置1全体の動作を制御する制御部30とを備えている。また、各色成分の画像情報に対応した画像を形成する画像形成部40を備えている。なお、画像形成部40は、例えば、電子写真方式やインクジェット方式等といった他の画像形成方式を用いることができる。
(Detailed description of the image forming apparatus)
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described in detail with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating an example of a configuration of an image forming apparatus including an image processing apparatus to which the exemplary embodiment is applied. An image forming apparatus 1 illustrated in FIG. 1 is, for example, a digital color printer, and an image processing unit (image processing apparatus) 10 serving as an image processing unit that performs predetermined image processing on image information input from an external device. It has. A secondary storage unit 20 realized by, for example, a hard disk (Hard Disk Drive) in which a processing program or the like is recorded, and a control unit 30 that controls the operation of the entire image forming apparatus 1 are provided. In addition, an image forming unit 40 that forms an image corresponding to the image information of each color component is provided. The image forming unit 40 can use other image forming methods such as an electrophotographic method and an ink jet method.

次に、画像処理部10は、例えばパーソナルコンピュータ(PC)3やスキャナ等の画像読取装置4等といった外部機器からの画像情報を受け付ける画像情報受付手段としての受付部11を備えている。そして、受付部11にて受け付けた画像情報を一時記憶する入力バッファ12と、PDL(Page Description Language:ページ記述言語)形式の画像情報を解析するPDL解析部13とを備えている。また、画像処理部10は、PDL解析部13にて解析された画像情報をラスタ画像情報に展開(レンダリング)するレンダリング処理部14を備えている。ここでラスタ画像情報とは、画素の並びで表現された印刷用の画像情報のことをいう。
更に、画像処理部10は、レンダリング処理部14でのレンダリング処理に際して作業領域として使用される中間バッファ15と、ラスタ画像情報を印刷処理に適した表色系(例えばYMCK)の画像情報に色変換する色変換処理部16とを備えている。そして、色変換されたラスタ画像情報に対してスクリーン処理を行なうスクリーン処理部17を備えている。
Next, the image processing unit 10 includes a receiving unit 11 as an image information receiving unit that receives image information from an external device such as a personal computer (PC) 3 or an image reading device 4 such as a scanner. An input buffer 12 that temporarily stores image information received by the receiving unit 11 and a PDL analysis unit 13 that analyzes image information in a PDL (Page Description Language) format are provided. The image processing unit 10 also includes a rendering processing unit 14 that develops (renders) the image information analyzed by the PDL analysis unit 13 into raster image information. Here, the raster image information refers to image information for printing expressed by an array of pixels.
Further, the image processing unit 10 performs color conversion of raster image information into color system (for example, YMCK) image information suitable for printing processing, and an intermediate buffer 15 used as a work area in rendering processing by the rendering processing unit 14. And a color conversion processing unit 16 for performing the processing. A screen processing unit 17 that performs screen processing on the color-converted raster image information is provided.

受付部11は、例えばユーザのパーソナルコンピュータ(PC)3やスキャナ等の画像読取装置4から画像情報と描画コマンドとを受け付ける。
そして、画像情報を入力バッファ12に出力し、描画コマンドをPDL解析部13に出力する。ここで、この画像情報は、例えば、画素値と画像要素の属性とアルファ値とを含んで構成されている。ここで画素値は、例えば所定の色空間の中で表現される画素毎の値であり、例えば所定の階調で表現される。具体的には、例えばRGB毎に各8ビット(1バイト)の階調で表現されたsRGB色空間に属するデータ等である。なおRGBとは、R(赤)、G(緑)、B(青)からなる光の3原色のことをいう。
そして、画像要素の属性(以下、単に「属性」という)とは、“文字”、“グラフィック”、“写真”等の画像の種類を示す情報である。またアルファ値は、該当画素の透明度を表し、例えば8ビット(1バイト)でその割合を表現する。
The receiving unit 11 receives image information and a drawing command from an image reading device 4 such as a user's personal computer (PC) 3 or a scanner.
Then, the image information is output to the input buffer 12, and the drawing command is output to the PDL analysis unit 13. Here, the image information includes, for example, a pixel value, an attribute of the image element, and an alpha value. Here, the pixel value is, for example, a value for each pixel expressed in a predetermined color space, and is expressed by a predetermined gradation, for example. Specifically, for example, data belonging to the sRGB color space expressed by gradation of 8 bits (1 byte) for each RGB. RGB means three primary colors of light composed of R (red), G (green), and B (blue).
The attribute of the image element (hereinafter simply referred to as “attribute”) is information indicating the type of image such as “character”, “graphic”, “photo”, and the like. The alpha value represents the transparency of the corresponding pixel, and the ratio is expressed by, for example, 8 bits (1 byte).

入力バッファ12は、受付部11から入力した画像情報を一時的に保持し、PDL解析部13に対して出力する。PDL解析部13は、描画コマンドに応じて入力バッファ12から取得した画像情報の解析結果に応じて、例えば印刷1ページ分の画像情報を作成する。そして、PDL解析部13は、作成した画像情報をレンダリング処理部14に対して出力する。
レンダリング処理部14は、描画コマンドに応じてPDL解析部13から取得した画像情報に対するレンダリング処理を行なう。レンダリング処理部14はこのレンダリング処理において、合成対象(ソースとデスティネーション)の画像情報に含まれる画素値とアルファ値とに対して所定の混合割合に従って画像を合成する処理、即ちアルファブレンド処理を行う。
The input buffer 12 temporarily holds the image information input from the reception unit 11 and outputs the image information to the PDL analysis unit 13. The PDL analysis unit 13 creates image information for one print page, for example, according to the analysis result of the image information acquired from the input buffer 12 according to the drawing command. Then, the PDL analysis unit 13 outputs the created image information to the rendering processing unit 14.
The rendering processing unit 14 performs a rendering process on the image information acquired from the PDL analysis unit 13 according to the drawing command. In this rendering process, the rendering processing unit 14 performs a process of synthesizing an image according to a predetermined mixing ratio with respect to the pixel value and the alpha value included in the image information of the synthesis target (source and destination), that is, an alpha blending process. .

ここでソースとは、アルファブレンド処理を行なった場合に、画像形成時に合成する側、すなわち上地の画像のことをいう。また、デスティネーションとは、アルファブレンド処理を行なった場合に、画像形成時に合成される側、すなわち下地の画像のことをいう。
そしてアルファブレンド処理とは、ソースとデスティネーションとが重なる領域において所定の混合割合、即ちアルファ値を用いて半透明合成する処理をいう。また、アルファ値は、アルファブレンド処理を行う演算で用いられる値で画像の透明度を示し、画素が個別に有する値である。そして、アルファ値が“0”の場合は完全に透明である場合を示し、“1”の場合は全く透明ではない場合を示すこととなる。
Here, the source refers to an image on the side to be synthesized at the time of image formation, that is, an upper image when alpha blend processing is performed. In addition, the destination refers to a side image, that is, a base image, which is synthesized at the time of image formation when alpha blend processing is performed.
The alpha blending process is a process of translucent synthesis using a predetermined mixing ratio, that is, an alpha value in a region where a source and a destination overlap. The alpha value is a value used in an operation for performing the alpha blending process and indicates the transparency of the image, and is a value that each pixel has. When the alpha value is “0”, the case is completely transparent, and when the alpha value is “1”, the case is not transparent at all.

また、レンダリング処理部14はこのレンダリング処理において、ソースとデスティネーションとをアルファブレンド処理する場合に、ソースの画像情報に含まれる画素値と属性とアルファ値とを取得する。更に、2次記憶部20からソースの属性に応じた係数を読み出す。そして、取得したアルファ値と画素値とを用いてソースとデスティネーションの濃度に関する値を算出する。または、取得した画素値とアルファ値と、読み出した係数とを用いてソースとデスティネーションの濃度に関する補正値を算出する。そして、レンダリング処理部14は、算出した濃度に関する値または濃度に関する補正値の比較結果に基づいてアルファブレンド処理した画像要素が重なる領域の属性を設定し、その属性を画像情報に付加する。したがって、レンダリング処理部14は、濃度に関する値を算出する算出手段(算出部)としての機能と、属性を設定する設定手段(設定部)としての機能とを併有する。また上記のように2次記憶部20は、係数の記憶手段(記憶部)としての機能を有する。   In addition, in the rendering process, the rendering processing unit 14 acquires the pixel value, the attribute, and the alpha value included in the image information of the source when the source and the destination are alpha blended. Further, the coefficient corresponding to the attribute of the source is read from the secondary storage unit 20. Then, using the acquired alpha value and pixel value, a value relating to the density of the source and destination is calculated. Alternatively, a correction value related to the source and destination densities is calculated using the acquired pixel value, alpha value, and read coefficient. Then, the rendering processing unit 14 sets an attribute of an area where image elements subjected to alpha blend processing overlap based on the comparison result of the calculated density-related value or the density-related correction value, and adds the attribute to the image information. Therefore, the rendering processing unit 14 has both a function as a calculation unit (calculation unit) that calculates a value related to density and a function as a setting unit (setting unit) that sets an attribute. Further, as described above, the secondary storage unit 20 has a function as a coefficient storage unit (storage unit).

ここで濃度に関する値とは、例えば、ディスプレイに表示される画像の暗さや媒体に印刷される画像の濃度を表現した値であり、例えばアルファ値と画素値とを演算して得られる値とすることができる。具体的には、ガンマ補正されたRGB色空間の画像の場合、
K=
0.299×(1−R)+0.587×(1−G)+0.114×(1−B)…(1)
で計算できる。ただし、厳密に計算する必要は無いため、例えばDK=3.0−R−B−G と簡略化して計算することもできる。一方、色空間が異なれば計算式も色空間に合せて変更する必要がある。このため、以降、画素値から濃度に関する値を計算する式を、
K=Dk(画素値) …(2)
と表記する。
Here, the value relating to the density is a value expressing the darkness of the image displayed on the display or the density of the image printed on the medium, for example, a value obtained by calculating an alpha value and a pixel value. be able to. Specifically, for an RGB color space image that has been gamma corrected,
K =
0.299 × (1-R) + 0.587 × (1-G) + 0.114 × (1-B) (1)
It can be calculated with However, since it is not necessary to calculate strictly, for example, it can be simplified and calculated as DK = 3.0−R−B−G. On the other hand, if the color space is different, the calculation formula needs to be changed according to the color space. For this reason, hereinafter, an expression for calculating a value related to density from the pixel value is
K = Dk (pixel value) (2)
Is written.

そして、この濃度に関する値に画像の属性に基づいた係数(重み付け)を乗算することで、濃度に関する補正値を得ることができる。
これによりレンダリング処理部14は、例えばアルファブレンド処理された画素値およびアルファ値と、設定した属性とを含むラスタ画像情報を生成することとなる。そして、レンダリング処理部14は、このラスタ画像情報を色変換処理部16に対して出力する。
Then, by multiplying the value related to the density by a coefficient (weighting) based on the attribute of the image, a correction value related to the density can be obtained.
As a result, the rendering processing unit 14 generates raster image information including, for example, pixel values and alpha values that have been subjected to alpha blending processing, and set attributes. Then, the rendering processing unit 14 outputs the raster image information to the color conversion processing unit 16.

色変換処理部16は、受け付けたラスタ画像情報を、画像形成部40での印刷処理に適した表色系(例えばYMCK)の画像情報に色変換処理し、スクリーン処理部17に対して出力する。ここで、色変換処理部16は、属性毎に異なる色変換係数を用いて色変換処理を行なう。なお、この複数の色変換係数は、例えばテーブルルックアップ方式の複数の変換テーブルデータであり、例えば2次記憶部20に保持されている。これにより、色変換処理部16は、レンダリング処理部14からのラスタ画像情報に含まれる属性を認識し、属性に応じた最適な色変換を行なうことができる。   The color conversion processing unit 16 performs color conversion processing on the received raster image information into color information (for example, YMCK) image information suitable for printing processing in the image forming unit 40, and outputs it to the screen processing unit 17. . Here, the color conversion processing unit 16 performs color conversion processing using a different color conversion coefficient for each attribute. The plurality of color conversion coefficients are, for example, a plurality of conversion table data of a table lookup method, and are held in, for example, the secondary storage unit 20. Thereby, the color conversion processing unit 16 can recognize the attribute included in the raster image information from the rendering processing unit 14 and can perform optimum color conversion according to the attribute.

スクリーン処理部17は、色変換処理部16から入力された色成分(YMCK)毎の多値のラスタ画像情報に対してスクリーン処理を行なう。それにより、濃度階調を有する多値画像情報であるラスタ画像情報に基づいて、網点と呼ばれる着色ドットの大きさによって擬似的に中間調画像の濃度を表わす2値化画像情報(1ビットの画像情報)を生成する。   The screen processing unit 17 performs screen processing on multi-value raster image information for each color component (YMCK) input from the color conversion processing unit 16. Thereby, based on raster image information which is multi-value image information having density gradation, binarized image information (1 bit) representing the density of a halftone image in a pseudo manner by the size of colored dots called halftone dots. Image information).

スクリーン処理部17は、レンダリング処理部14からのラスタ画像情報に含まれる属性を認識し、属性毎に設定されたスクリーンパラメータを用いて、各画像に最適なスクリーン処理を行なうことができる。なお、スクリーンパラメータは、スクリーンを作成するためのパラメータであり、スクリーンパターン、スクリーン線幅、スクリーンピッチ、スクリーン角度等を制御する。そして、スクリーンパラメータは、例えば2次記憶部20に属性毎に保持されている。
そして、スクリーン処理部17は、生成した2値化画像情報を画像形成部40の図示しないレーザ露光装置に対して出力する。
The screen processing unit 17 can recognize the attribute included in the raster image information from the rendering processing unit 14 and can perform optimal screen processing for each image using the screen parameter set for each attribute. The screen parameter is a parameter for creating a screen, and controls a screen pattern, a screen line width, a screen pitch, a screen angle, and the like. The screen parameters are held for each attribute in the secondary storage unit 20, for example.
Then, the screen processing unit 17 outputs the generated binarized image information to a laser exposure device (not shown) of the image forming unit 40.

(画像処理装置についての詳細な説明)
図2は、本実施形態の画像処理部10の内部構成を例示するブロック図である。図2に示したように、画像処理部10は、画像情報を処理するに際して、予め定められた処理プログラムに従ってデジタル演算処理を実行するCPU101を備えている。そして、CPU101の作業用メモリ等として用いられるRAM102と、CPU101により実行される処理プログラム等が保持されるROM103とを備えている。画像形成装置1の立ち上げ時にCPU101がこの処理プログラムを読み込むことによって、本実施の形態の画像処理部10での各機能が実現される。それらの機能は、上記した画像情報受付機能、画像情報作成機能、レンダリング処理機能、色変換処理機能、階調補正機能、及びスクリーン処理機能等である。また、書き換え可能で、かつ電源供給が途絶えた場合にもデータを保持できる、電池によりバックアップされたSRAMやフラッシュメモリ等の不揮発性メモリ104を備えている。更に、画像処理部10に接続されるPC3や2次記憶部20や画像形成部40等の各部との信号の入出力を制御するインタフェース部105を備えている。また、2次記憶部20(図1参照)には、例えば、係数、色変換係数、及びスクリーンパラメータ等が保持されている。
(Detailed description of the image processing apparatus)
FIG. 2 is a block diagram illustrating the internal configuration of the image processing unit 10 of this embodiment. As shown in FIG. 2, the image processing unit 10 includes a CPU 101 that executes digital arithmetic processing according to a predetermined processing program when processing image information. A RAM 102 used as a working memory of the CPU 101 and a ROM 103 that stores processing programs executed by the CPU 101 are provided. When the CPU 101 reads this processing program when the image forming apparatus 1 is started up, each function in the image processing unit 10 of the present embodiment is realized. These functions include the above-described image information reception function, image information creation function, rendering processing function, color conversion processing function, gradation correction function, and screen processing function. In addition, a non-volatile memory 104 such as an SRAM or flash memory backed up by a battery, which can be rewritten and can retain data even when power supply is interrupted, is provided. Further, an interface unit 105 that controls input / output of signals to / from each unit such as the PC 3, the secondary storage unit 20, and the image forming unit 40 connected to the image processing unit 10 is provided. The secondary storage unit 20 (see FIG. 1) holds, for example, coefficients, color conversion coefficients, screen parameters, and the like.

(合成処理される対象となる画像データについての説明)
図3(a)は、合成処理される対象となる画像の画像情報(画素値、属性、アルファ値)の例を示す図である。また図3(c)は、画像情報に含まれる属性と係数との関係の例を示す図である。
図3(a)の例では、アルファブレンド処理により合成される画像が、AとBとCの3つの画像(画像要素)である。そして、画像Aの画素値はDa(n)である。同様に、画像Bの画素値はDb(n)であり、画像Cの画素値はDc(n)である。ここで、nは、各画像のn番目の画素を表し、画像が画素の集合で表されること示す。以降の説明では、(n)の表記を省略することがあるが、この場合は、各画素についてそれぞれ演算処理を行うものとする。
そして、画像Aの属性は“写真”で、アルファ値は“αa(n)”である。また、画像Bの属性は“グラフィック”で、アルファ値は“αb(n)”である。また、画像Cの属性は“文字”で、アルファ値は“αc(n)”である。
(Description of image data to be combined)
FIG. 3A is a diagram illustrating an example of image information (pixel value, attribute, alpha value) of an image to be combined. FIG. 3C is a diagram illustrating an example of the relationship between attributes and coefficients included in image information.
In the example of FIG. 3A, the images synthesized by the alpha blending process are three images (image elements) A, B, and C. The pixel value of the image A is Da (n). Similarly, the pixel value of the image B is Db (n), and the pixel value of the image C is Dc (n). Here, n represents the nth pixel of each image, and indicates that the image is represented by a set of pixels. In the following description, the notation of (n) may be omitted. In this case, it is assumed that each pixel is subjected to arithmetic processing.
The attribute of the image A is “photograph” and the alpha value is “αa (n)”. The attribute of the image B is “graphic”, and the alpha value is “αb (n)”. The attribute of the image C is “character”, and the alpha value is “αc (n)”.

ここで図3(a)の例では、異なる属性をもつ3つの画像となっているが、これはあくまでも一例であり、合成する画像が2つ又は4つ以上の場合もある。   Here, in the example of FIG. 3A, there are three images having different attributes. However, this is merely an example, and there may be two or four or more images to be combined.

また、同じ属性をもつ画像が合成される場合もある。例えば、図3で、画像Aと画像Bとの属性が、共に“写真”であってもよい。さらに、画像処理の途中で生成される合成画像は、画素毎に属性が異なる画像データとなることがある。   In addition, images having the same attribute may be combined. For example, in FIG. 3, the attributes of the image A and the image B may both be “photographs”. Furthermore, a composite image generated in the middle of image processing may be image data having different attributes for each pixel.

また、各画像のアルファ値は画素毎に、または画像要素毎に設定される。したがって、この例では、画像Aと画像Bの画像Cのアルファ値は画素毎に異なり、画像内で透明度が変化させることが可能であるが、画像によってはアルファ値が画像内で一定かつ画素毎に値を持たない場合もある。この場合、各画像のアルファ値が同一の値を持っているとして処理される。   The alpha value of each image is set for each pixel or image element. Therefore, in this example, the alpha value of the image C of the image A and the image B is different for each pixel and the transparency can be changed in the image. However, depending on the image, the alpha value is constant in the image and is constant for each pixel. May not have a value. In this case, processing is performed assuming that the alpha values of the images have the same value.

図3(b)は、合成処理される対象となる画像Aの画素毎の画像情報(画素値、アルファ値)の例を示す図である。この例では、合成される画像はN個の画素からなり、各画素が、sRGB色空間で、RGB毎に各8ビット(1バイト)の階調で表現された例である。また、アルファ値は、8ビットのデータである。   FIG. 3B is a diagram illustrating an example of image information (pixel value, alpha value) for each pixel of the image A to be combined. In this example, an image to be synthesized is composed of N pixels, and each pixel is expressed in a gradation of 8 bits (1 byte) for each RGB in the sRGB color space. The alpha value is 8-bit data.

ここで図3(b)の例では、画素毎の画像情報は画素値とアルファ値からなるが、これはあくまでも一例であり、画素値のみや、画素値、アルファ値と属性値であってもよい。また、画素値、アルファ値と属性値の各要素が、必ずしもまとめて配置されなくてもよい。さらに画素値については、異なる色空間であっても良い。また、階調値に関しても3バイトである必要はない。   Here, in the example of FIG. 3B, the image information for each pixel is composed of a pixel value and an alpha value, but this is only an example, even if only the pixel value, the pixel value, the alpha value, and the attribute value are used. Good. In addition, the pixel value, the alpha value, and the attribute value need not be arranged together. Further, the pixel values may be different color spaces. Also, the gradation value need not be 3 bytes.

そして、図3(c)は、画像要素の属性と処理で用いる係数の例である。属性が“写真”である場合には、係数は“Cp”である。また、属性が“グラフィック”である場合には、係数は“Cg”である。更に、属性が“文字”である場合には、係数は“Ct”である。なお、演算の具体的な内容は後述する。   FIG. 3C shows an example of image element attributes and coefficients used in processing. When the attribute is “photo”, the coefficient is “Cp”. When the attribute is “graphic”, the coefficient is “Cg”. Further, when the attribute is “character”, the coefficient is “Ct”. The specific contents of the calculation will be described later.

(レンダリング処理の実施例)
続いて、レンダリング処理部14(図1参照)でのレンダリング処理のうち、画像(画像要素)を重ね合わせる処理について説明する。
図4は、レンダリング処理部14(図1参照)でのレンダリング処理の手順の一例を示すフローチャートである。なお、以下に記す動作例は、画像A(図3(a)参照)をデスティネーションとし、画像C(図3(a)参照)をソースとして重ね合わせる場合のレンダリング処理の手順を示している。
(Example of rendering processing)
Next, processing for superimposing images (image elements) in the rendering processing in the rendering processing unit 14 (see FIG. 1) will be described.
FIG. 4 is a flowchart illustrating an example of a rendering process performed by the rendering processing unit 14 (see FIG. 1). Note that the operation example described below shows a rendering process procedure in the case of superimposing images A (see FIG. 3A) as a destination and images C (see FIG. 3A) as a source.

まずレンダリング処理部14は、PDL解析部13(図1参照)から描画コマンドを取得する(ステップ101)。また、レンダリング処理部14は、PDL解析部13にて生成された、画像Aと画像Cとの画像要素についての画像情報(画素値、属性、アルファ値)を取得し、中間バッファ15(図1参照)に保持する(ステップ102)。次いで、レンダリング処理部14は、描画コマンドに基づいて、中間バッファ15から画像C(ソース)の画像情報を読み出す(ステップ103)。続いて、レンダリング処理部14は、描画コマンドがアルファブレンド描画コマンドであるか、または上書き描画コマンドであるかを判断する(ステップ104)。
ステップ104にて描画コマンドがアルファブレンド描画コマンドであると判断された場合、レンダリング処理部14は、描画コマンドに基づいて中間バッファ15から画像A(デスティネーション)の画像情報を読み出す(ステップ105)。
First, the rendering processing unit 14 acquires a drawing command from the PDL analysis unit 13 (see FIG. 1) (step 101). Further, the rendering processing unit 14 acquires image information (pixel value, attribute, and alpha value) about the image elements of the image A and the image C generated by the PDL analysis unit 13, and the intermediate buffer 15 (FIG. 1). (See step 102). Next, the rendering processing unit 14 reads the image information of the image C (source) from the intermediate buffer 15 based on the drawing command (step 103). Subsequently, the rendering processing unit 14 determines whether the drawing command is an alpha blend drawing command or an overwrite drawing command (step 104).
When it is determined in step 104 that the drawing command is an alpha blend drawing command, the rendering processing unit 14 reads out image information of the image A (destination) from the intermediate buffer 15 based on the drawing command (step 105).

そして、レンダリング処理部14は、デスティネーションとソースとの画像情報をアルファブレンド処理する(ステップ106)。このアルファブレンド処理においては、各画像情報(図3参照)に含まれる画素値とアルファ値とに対するアルファブレンド演算が行われる。なお、このアルファブレンド演算の具体的な内容は後述する。
次いで、レンダリング処理部14は、ソースとデスティネーションとが重なる領域における画素毎のソースの濃度に関する値が、その画素におけるデスティネーションの濃度に関する値よりも大きいか否かを比較した結果により、その画素の属性を決定する(ステップ107)。なお、この画像要素(ソースとデスティネーション)が重なる領域で画素毎に属性を決定する具体的な手順は後述する。
そして、中間バッファ15は、ステップ106にてアルファブレンド演算した結果に、ステップ107にて決定した属性を付加したラスタ画像情報を保持する(ステップ108)。そして、すべての描画コマンドが終了しているか否かを判断する(S110)。終了していると判断すればステップ111(後述)に進み、終了していないと判断すれば再びステップ101に戻る。
Then, the rendering processing unit 14 performs alpha blend processing on the image information of the destination and the source (step 106). In this alpha blending process, an alpha blending operation is performed on the pixel values and alpha values included in each piece of image information (see FIG. 3). The specific contents of this alpha blend calculation will be described later.
Next, the rendering processing unit 14 compares the value of the source density for each pixel in the region where the source and the destination overlap with each other according to the result of comparing whether the value is higher than the value related to the destination density of the pixel. Are determined (step 107). A specific procedure for determining the attribute for each pixel in the region where the image elements (source and destination) overlap will be described later.
Then, the intermediate buffer 15 holds the raster image information obtained by adding the attribute determined in step 107 to the result of the alpha blend operation in step 106 (step 108). Then, it is determined whether or not all drawing commands have been completed (S110). If it is determined that the process has been completed, the process proceeds to step 111 (described later). If it is determined that the process has not been completed, the process returns to step 101 again.

一方、ステップ104にて描画コマンドが上書き描画コマンドであると判断された場合、レンダリング処理部14は、中間バッファ15に保持されているデスティネーションである画像Aの画像情報に対して、画像Cの画像情報を上書き処理する(ステップ109)。具体的には、上地と下地とが重なっている領域に対する画素値と属性とアルファ値とが、画像Cの画素値と属性とアルファ値とに決定される。その後、ステップ110に進む。
そして、レンダリング処理部14は、中間バッファ15が保持しているラスタ画像情報を色変換処理部16(図1参照)に送り(ステップ111)、処理を終了する。なお、色変換処理部16は、色変換した後にそのラスタ画像情報をスクリーン処理部17(図1参照)に送る。
On the other hand, when it is determined in step 104 that the drawing command is an overwrite drawing command, the rendering processing unit 14 uses the image C of the image C with respect to the image information of the image A that is the destination held in the intermediate buffer 15. The image information is overwritten (step 109). Specifically, the pixel value, the attribute, and the alpha value for the region where the ground and the ground overlap each other are determined as the pixel value, the attribute, and the alpha value of the image C. Then, it progresses to step 110.
Then, the rendering processing unit 14 sends the raster image information held in the intermediate buffer 15 to the color conversion processing unit 16 (see FIG. 1) (step 111), and ends the processing. The color conversion processing unit 16 sends the raster image information to the screen processing unit 17 (see FIG. 1) after color conversion.

なお、色変換処理部16は、ステップ107またはステップ109にて決定した属性により画素(YMCK)毎の色変換処理にて用いる色変換係数を選択する。また、スクリーン処理部17は、ステップ107またはステップ109にて決定した属性により画素(YMCK)毎のスクリーン処理において用いるスクリーンパラメータを選択する。   The color conversion processing unit 16 selects a color conversion coefficient to be used in the color conversion processing for each pixel (YMCK) according to the attribute determined in step 107 or step 109. Further, the screen processing unit 17 selects a screen parameter used in the screen processing for each pixel (YMCK) according to the attribute determined in step 107 or step 109.

(複数の画像要素が重なる領域の属性を画素毎に設定する実施例)
続いて、ステップ107(図4参照)での具体的な処理について説明する。
図5は、レンダリング処理部14(図1参照)でのレンダリング処理の一部(ステップ107)を示すフローチャートの一例である。まずレンダリング処理部14は、中間バッファ15(図1参照)から読み出したソースとデスティネーションとの画像情報から、それぞれの属性を把握する。また、レンダリング処理部14は、読み出したソースとデスティネーションとの画像情報から、画素毎の画素値とアルファ値とを把握する(ステップ201)。
(Example in which attributes of a region where a plurality of image elements overlap are set for each pixel)
Next, specific processing in step 107 (see FIG. 4) will be described.
FIG. 5 is an example of a flowchart showing a part (step 107) of the rendering process in the rendering processing unit 14 (see FIG. 1). First, the rendering processing unit 14 grasps each attribute from the source and destination image information read from the intermediate buffer 15 (see FIG. 1). Further, the rendering processing unit 14 grasps the pixel value and the alpha value for each pixel from the read image information of the source and the destination (Step 201).

次いで、レンダリング処理部14は、上地と下地とが重なっている領域における画素毎のソースの濃度に関する値と、その画素におけるデスティネーションの濃度に関する値とを算出する(ステップ202)。なお、これらの濃度に関する値の算出方法については後述する。続いて、レンダリング処理部14は、ステップ103(図4参照)で算出したソースの濃度に関する値が、ソースの濃度に関する値と共に算出したデスティネーションの濃度に関する値よりも大きいか否かを判断する(ステップ203)。
ステップ203にてソースの濃度に関する値がデスティネーションの濃度に関する値よりも大きいと判断された場合、レンダリング処理部14は、ソースの属性を選択する(ステップ204)。また、ステップ203にてソースの濃度に関する値がデスティネーションの濃度に関する値よりも小さいと判断された場合、レンダリング処理部14は、デスティネーションの属性を選択する(ステップ205)。
Next, the rendering processing unit 14 calculates a value related to the source density for each pixel in a region where the ground and the background overlap, and a value related to the destination density in the pixel (step 202). A method for calculating values related to these densities will be described later. Subsequently, the rendering processing unit 14 determines whether the value related to the source density calculated in step 103 (see FIG. 4) is larger than the value related to the destination density calculated together with the value related to the source density (see FIG. 4). Step 203).
If it is determined in step 203 that the value related to the source density is larger than the value related to the destination density, the rendering processing unit 14 selects an attribute of the source (step 204). When it is determined in step 203 that the value related to the source density is smaller than the value related to the destination density, the rendering processing unit 14 selects a destination attribute (step 205).

続いて、レンダリング処理部14は、選択した属性を、ステップ106(図4参照)にてアルファブレンド演算を行った結果に付加する(ステップ206)。そして処理を終了する。   Subsequently, the rendering processing unit 14 adds the selected attribute to the result of the alpha blend operation performed in step 106 (see FIG. 4) (step 206). Then, the process ends.

(複数の画像要素が重なる領域の属性を画素毎に設定する他の実施例)
続いて、ステップ107(図4参照)での具体的な処理の他の例について説明する。
図6は、レンダリング処理部14(図1参照)でのレンダリング処理の一部(ステップ107)を示すフローチャートの他の例である。まずレンダリング処理部14は、中間バッファ15(図1参照)から読み出したソースとデスティネーションとの画像情報から、それぞれの属性を把握する。また、レンダリング処理部14は、読み出したソースとデスティネーションとの画像情報から、画素毎の画素値とアルファ値とを把握する(ステップ301)。
(Another embodiment in which attributes of a region where a plurality of image elements overlap are set for each pixel)
Next, another example of specific processing in step 107 (see FIG. 4) will be described.
FIG. 6 is another example of a flowchart showing a part (step 107) of the rendering process in the rendering processing unit 14 (see FIG. 1). First, the rendering processing unit 14 grasps each attribute from the source and destination image information read from the intermediate buffer 15 (see FIG. 1). Further, the rendering processing unit 14 grasps the pixel value and the alpha value for each pixel from the read image information of the source and the destination (Step 301).

次いで、レンダリング処理部14は、ソースの属性に応じた係数(図3参照)を取得する(ステップ302)。この係数は、例えば2次記憶部20に保持されている。続いて、レンダリング処理部14は、上地と下地とが重なっている領域における画素毎のソースの濃度に関する補正値と、その画素におけるデスティネーションの濃度に関する補正値とを係数を用いて算出する(ステップ303)。なお、これらの濃度に関する補正値の算出方法については後述する。
ステップ304からステップ307までは、ステップ203(図5参照)からステップ206(図5参照)までと同じ内容のため、説明は省略する。そして処理を終了する。
Next, the rendering processing unit 14 acquires a coefficient (see FIG. 3) corresponding to the attribute of the source (step 302). This coefficient is held in, for example, the secondary storage unit 20. Subsequently, the rendering processing unit 14 calculates a correction value related to the source density for each pixel in a region where the ground and the background overlap and a correction value related to the density of the destination in the pixel using coefficients ( Step 303). A method for calculating the correction values regarding these densities will be described later.
Steps 304 to 307 are the same as steps 203 (see FIG. 5) to step 206 (see FIG. 5), and a description thereof will be omitted. Then, the process ends.

(アルファブレンド処理された領域に付与される属性の設定例)
次に、アルファブレンド処理された領域に付与される属性について説明する。
図7は、画像処理部(画像処理装置)10が属性を設定した状態の一例を示す図である。ここでは長方形51の形をしている画像Aと、楕円形52の形をしている画像Bと、文字A53の形をしている画像Cとの3つの画像が重なり合って合成された合成画像を示している。なお、図7の例では画像A、画像B、及び画像Cは、図3に記載した画像であり、図3に記載した画素値と属性とアルファ値とを画素毎に伴っている。よって、画像Aは属性が“写真”の画像であり、画像Bは属性が“グラフィック”の画像であり、画像Cは属性が“文字”の画像である。
(Setting example of attributes given to the area that has been alpha blended)
Next, attributes given to the area subjected to alpha blend processing will be described.
FIG. 7 is a diagram illustrating an example of a state in which an attribute is set by the image processing unit (image processing apparatus) 10. Here, a composite image in which three images of an image A in the shape of a rectangle 51, an image B in the shape of an ellipse 52, and an image C in the shape of a character A53 are overlapped and synthesized. Is shown. In the example of FIG. 7, the image A, the image B, and the image C are the images described in FIG. 3, and the pixel values, attributes, and alpha values described in FIG. Therefore, the image A is an image having an attribute “photo”, the image B is an image having an attribute “graphic”, and the image C is an image having an attribute “character”.

そして、領域54は画像Aだけの画像領域であり、領域55は画像Bだけの画像領域であり、領域56は画像Cだけの画像領域である。また、領域57は画像Aと画像Cとの画像要素が重なる領域であり、領域58は画像Aと画像Bとの画像要素が重なる領域であり、領域59は画像Bと画像Cとの画像要素が重なる領域である。そして、領域60は画像Aと画像Bと画像Cとの画像要素が重なる領域である。なお、図7の例では画像Aが最下層で、そこに画像Cが重ねられ、最後に画像Bが重ねられている状態である。   The area 54 is an image area only for the image A, the area 55 is an image area only for the image B, and the area 56 is an image area only for the image C. An area 57 is an area where the image elements of the image A and the image C overlap, an area 58 is an area where the image elements of the image A and the image B overlap, and an area 59 is an image element of the image B and the image C. Is the area where. A region 60 is a region where the image elements of the image A, the image B, and the image C overlap. In the example of FIG. 7, the image A is the lowest layer, the image C is overlaid there, and finally the image B is overlaid.

まず、領域54、領域55、及び領域56における属性について説明する。これらの画像領域は、画像要素が重なっていない領域である。したがって、アルファブレンド処理されず、領域54の属性は、“写真”となる(図3参照)。そして、領域55の属性は、“グラフィック”となり(図3参照)、領域56の属性は、“文字”となる(図3参照)。   First, attributes in the region 54, the region 55, and the region 56 will be described. These image areas are areas where image elements do not overlap. Therefore, the alpha blend process is not performed, and the attribute of the region 54 is “photograph” (see FIG. 3). The attribute of the area 55 is “graphic” (see FIG. 3), and the attribute of the area 56 is “character” (see FIG. 3).

次に、領域57、領域58、及び領域59における属性について説明する。これらの領域は2つの画像要素(画像)が重なっている領域であり、アルファブレンド処理される。よって、これらの領域における画素毎の属性は、レンダリング処理部14(図1参照)での属性を設定する処理(図5または図6参照)により設定される。   Next, attributes in the region 57, the region 58, and the region 59 will be described. These regions are regions where two image elements (images) overlap and are subjected to alpha blend processing. Therefore, the attribute for each pixel in these areas is set by processing (see FIG. 5 or FIG. 6) for setting the attribute in the rendering processing unit 14 (see FIG. 1).

領域57は、画像Aと画像Cとの画像要素が重なる領域である。この画像領域では、画像Aがデスティネーションとなり、画像Cがソースとなる。したがって、ステップ103(図4参照)にて、レンダリング処理部14(図1参照)が、画像Cの画像情報に含まれる画素毎の画素値とアルファ値とを読み出す。また、ステップ104(図4参照)にてアルファブレンド描画コマンドであると判断された場合、ステップ105(図4参照)にてレンダリング処理部14が、画像Aの画像情報に含まれる画素毎の画素値とアルファ値とを読み出す。   A region 57 is a region where the image elements of the image A and the image C overlap. In this image area, the image A is the destination and the image C is the source. Accordingly, in step 103 (see FIG. 4), the rendering processing unit 14 (see FIG. 1) reads the pixel value and alpha value for each pixel included in the image information of the image C. If it is determined in step 104 (see FIG. 4) that the command is an alpha blend drawing command, in step 105 (see FIG. 4), the rendering processing unit 14 determines the pixel for each pixel included in the image information of the image A. Read value and alpha value.

ここで上地と下地とが重なっている領域におけるソースの画素毎の濃度に関する値と、その画素におけるデスティネーションの濃度に関する値とを算出する具体的な方法について説明する。
まず、ステップ103にて読み出した画素値とアルファ値とを用いてそれぞれの値のラスタ画像情報を作成し、上地と下地とが重なっている領域におけるソースの画素毎の濃度に関する値を求める。ここで、アルファブレンドされる領域では、ソースの画素値をS、ソースのアルファ値をSα(0≦Sα≦1)とする。すると、以下の(3)式で表される演算により、処理された濃度に関する値Ksが生成される。
Ks=Sα×Dk(S) …(3)
したがって図7の例ではソースは画像Cであるから図3を参照して、画素毎の濃度に関する値はαc×Dk(Dc)となる。
Here, a specific method for calculating the value relating to the density of each source pixel in the region where the ground and the background overlap and the value relating to the density of the destination in the pixel will be described.
First, raster image information of each value is created using the pixel value and alpha value read in step 103, and a value related to the density of each source pixel in a region where the ground and the ground overlap each other is obtained. Here, in the region to be alpha-blended, the source pixel value is S, and the source alpha value is Sα (0 ≦ Sα ≦ 1). Then, a value Ks related to the processed density is generated by the calculation represented by the following expression (3).
Ks = Sα × Dk (S) (3)
Therefore, since the source is the image C in the example of FIG. 7, the value relating to the density for each pixel is αc × Dk (Dc) with reference to FIG.

次に、ソースのアルファ値とステップ105にて読み出した画素値とアルファ値とを用いてそれぞれの値のラスタ画像情報を作成し、上地と下地とが重なっている領域におけるデスティネーションの画素毎の濃度に関する値を求める。ここで、アルファブレンドされる領域では、デスティネーションの画素値をD、ソースのアルファ値をSα(0≦Sα≦1)、デスティネーションのアルファ値をDα(0≦Dα≦1)とする。すると、以下の(4)式で表される演算により、処理された濃度に関する値Kdが生成される。
Kd=(1−Sα)×Dα×Dk(D) …(4)
したがって図7の例ではデスティネーションは画像Aであるから図3を参照して、画素毎の濃度に関する値は(1−αc)×αa×Dk(Da)となる。
Next, raster image information of each value is created using the source alpha value, the pixel value read in step 105, and the alpha value, and each destination pixel in the area where the ground and the ground overlap. Determine the value for the concentration. Here, in the area to be alpha blended, the destination pixel value is D, the source alpha value is Sα (0 ≦ Sα ≦ 1), and the destination alpha value is Dα (0 ≦ Dα ≦ 1). Then, a value Kd related to the processed density is generated by the calculation represented by the following equation (4).
Kd = (1-Sα) × Dα × Dk (D) (4)
Therefore, since the destination is the image A in the example of FIG. 7, the value relating to the density for each pixel is (1−αc) × αa × Dk (Da) with reference to FIG.

ここでステップ203(図5参照)にて、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より大きいと判断された場合、ステップ204(図5参照)にてその画素の属性は、ソース(画像C)の属性である“文字”と設定される。また、ステップ203にて、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より小さいと判断された場合、ステップ205(図5参照)にてその画素の属性は、デスティネーション(画像A)の属性である“写真”と設定される。   If it is determined in step 203 (see FIG. 5) that the value related to the density of the source of a certain pixel is larger than the value related to the density of the destination, the attribute of the pixel in step 204 (see FIG. 5) is “Character” which is an attribute of the source (image C) is set. If it is determined in step 203 that the value related to the source density of a pixel is smaller than the value related to the destination density, the attribute of the pixel is set to the destination (image A) in step 205 (see FIG. 5). ) Attribute “photo”.

領域58は、画像Aと画像Bとの画像要素が重なる領域である。この画像領域では、画像Aがデスティネーションとなり、画像Bがソースとなる。領域57の場合と同様に演算すると、ソース画像Bの画素毎の濃度に関する値はαb×Dk(Db)となる。そして、デスティネーション画像Aの画素毎の濃度に関する値は(1−αb)×αa×Dk(Da)となる。
ここでステップ203(図5参照)にて、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より大きいと判断された場合、ステップ204(図5参照)にてその画素の属性は、ソース(画像B)の属性である“グラフィック”と設定される。また、ステップ203にて、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より小さいと判断された場合、ステップ205(図5参照)にてその画素の属性は、デスティネーション(画像A)の属性である“写真”と設定される。
The area 58 is an area where the image elements of the image A and the image B overlap. In this image area, image A is the destination and image B is the source. When calculation is performed in the same manner as in the case of the region 57, the value relating to the density of each pixel of the source image B is αb × Dk (Db). A value related to the density of each pixel of the destination image A is (1−αb) × αa × Dk (Da).
If it is determined in step 203 (see FIG. 5) that the value related to the density of the source of a certain pixel is larger than the value related to the density of the destination, the attribute of the pixel in step 204 (see FIG. 5) is “Graphic” which is an attribute of the source (image B) is set. If it is determined in step 203 that the value related to the source density of a pixel is smaller than the value related to the destination density, the attribute of the pixel is set to the destination (image A) in step 205 (see FIG. 5). ) Attribute “photo”.

領域59は、画像Bと画像Cとの画像要素が重なる領域である。この画像領域では、画像Cがデスティネーションとなり、画像Bがソースとなる。領域57の場合と同様に演算すると、ソース画像Bの画素毎の濃度に関する値はαb×Dk(Db)となる。そして、デスティネーション画像Cの画素毎の濃度に関する値は(1−αb)×αc×Dk(Dc)となる。
ここでステップ203(図5参照)にて、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より大きいと判断された場合、ステップ204(図5参照)にてその画素の属性は、ソース(画像B)の属性である“グラフィック”と設定される。また、ステップ203にて、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より小さいと判断された場合、ステップ205(図5参照)にてその画素の属性は、デスティネーション(画像C)の属性である“文字”と設定される。
An area 59 is an area where the image elements of the image B and the image C overlap. In this image area, image C is the destination and image B is the source. When calculation is performed in the same manner as in the case of the region 57, the value relating to the density of each pixel of the source image B is αb × Dk (Db). A value related to the density of each pixel of the destination image C is (1−αb) × αc × Dk (Dc).
If it is determined in step 203 (see FIG. 5) that the value related to the density of the source of a certain pixel is larger than the value related to the density of the destination, the attribute of the pixel in step 204 (see FIG. 5) is “Graphic” which is an attribute of the source (image B) is set. If it is determined in step 203 that the value related to the source density of a pixel is smaller than the value related to the destination density, the attribute of the pixel is set to the destination (image C) in step 205 (see FIG. 5). ) Attribute “character”.

領域60は、画像Aと画像Bと画像Cとの画像要素が重なる領域である。この画像領域では、画像Aと画像Cとの画像要素が重なる領域と同じ属性をもつ領域57がデスティネーションとなり、画像Bがソースとなる。画像Bが、最後に重ねられているからである。したがって、領域57の場合と同様に処理される。その結果、他の領域で行った判断と同様に、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より大きいと判断された場合、その画素の属性は、ソース(画像B)の属性である“グラフィック”と設定される。また、ある画素のソースの濃度に関する値がデスティネーションの濃度に関する値より小さいと判断された場合、その画素の属性は、デスティネーションの属性(領域57の属性)に設定される。
ここでデスティネーションの画素毎の濃度に関する値の算出には、領域57の画像情報に含まれる画素値とアルファ値とを用いるが、これらの値は後述するアルファブレンド演算で処理された値である。
A region 60 is a region where the image elements of the image A, the image B, and the image C overlap. In this image area, the area 57 having the same attribute as the area where the image elements of the image A and the image C overlap is the destination, and the image B is the source. This is because the image B is overlaid last. Accordingly, the processing is performed in the same manner as in the case of the region 57. As a result, when it is determined that the value related to the source density of a certain pixel is larger than the value related to the destination density, the attribute of the pixel is the attribute of the source (image B). Is set to “Graphic”. When it is determined that the value related to the source density of a pixel is smaller than the value related to the destination density, the attribute of the pixel is set to the destination attribute (attribute of the region 57).
Here, the pixel value and the alpha value included in the image information of the region 57 are used to calculate the density-related value for each destination pixel, and these values are values processed by an alpha blending operation to be described later. .

また、ステップ303(図6参照)のようにソースとデスティネーションとの濃度に関する値を係数で補正し、濃度に関する補正値を算出する場合もある。
この場合、ステップ302(図6参照)において、レンダリング処理部14は領域57に対して画像Cと画像Aとの属性に応じた係数を取得する。ここではソースは画像Cであるから、係数Ct(図3(c)参照)を取得する。また、デスティネーションは画像Aであるから、係数Cp(図3(c)参照)を取得する。そして、ステップ303(図6参照)において取得した係数を用いて画素毎の濃度に関する補正値を算出する。
すると図3を参照して、ソースの画素毎の濃度に関する補正値はαc×Dk(Dc)×Ctとなる。同様に図3を参照して、デスティネーションの画素毎の濃度に関する補正値は(1−αc)×αa×Dk(Da)×Cpとなる。
In some cases, as in step 303 (see FIG. 6), a value related to the density of the source and the destination is corrected with a coefficient, and a correction value related to the density is calculated.
In this case, in step 302 (see FIG. 6), the rendering processing unit 14 acquires a coefficient corresponding to the attributes of the image C and the image A for the region 57. Here, since the source is the image C, the coefficient Ct (see FIG. 3C) is acquired. Since the destination is the image A, the coefficient Cp (see FIG. 3C) is acquired. And the correction value regarding the density | concentration for every pixel is calculated using the coefficient acquired in step 303 (refer FIG. 6).
Then, referring to FIG. 3, the correction value relating to the density of each source pixel is αc × Dk (Dc) × Ct. Similarly, referring to FIG. 3, the correction value related to the density of each destination pixel is (1−αc) × αa × Dk (Da) × Cp.

そして、ステップ304(図6参照)にて、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より大きいと判断された場合、ステップ305(図6参照)にてその画素の属性は、ソース(画像C)の属性である“文字”と設定される。また、ステップ304にて、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より小さいと判断された場合、ステップ205(図5参照)にてその画素の属性は、デスティネーション(画像A)の属性である“写真”と設定される。   If it is determined in step 304 (see FIG. 6) that the correction value related to the density of the source of a certain pixel is larger than the correction value related to the density of the destination, in step 305 (see FIG. 6), the attribute of the pixel is determined. Is set to “character” which is an attribute of the source (image C). If it is determined in step 304 that the correction value related to the source density of a pixel is smaller than the correction value related to the destination density, the attribute of the pixel is set to the destination (step 205 (see FIG. 5)). “Picture” which is an attribute of the image A) is set.

また、ステップ302(図6参照)において、レンダリング処理部14は領域58に対して画像Bと画像Aとの属性に応じた係数を取得する。ここではソースは画像Bであるから、係数Cg(図3(c)参照)を取得する。また、デスティネーションは画像Aであるから、係数Cp(図3(c)参照)を取得する。そして、ステップ303(図6参照)において取得した係数を用いて画素毎の濃度に関する補正値を算出する。
すると図3を参照して、ソースの画素毎の濃度に関する補正値はαb×Dk(Db)×Cgとなる。同様に図3を参照して、デスティネーションの画素毎の濃度に関する補正値は(1−αb)×αa×Dk(Da)×Cpとなる。
In step 302 (see FIG. 6), the rendering processing unit 14 acquires coefficients corresponding to the attributes of the image B and the image A for the region 58. Here, since the source is the image B, the coefficient Cg (see FIG. 3C) is acquired. Since the destination is the image A, the coefficient Cp (see FIG. 3C) is acquired. And the correction value regarding the density | concentration for every pixel is calculated using the coefficient acquired in step 303 (refer FIG. 6).
Then, referring to FIG. 3, the correction value relating to the density for each source pixel is αb × Dk (Db) × Cg. Similarly, referring to FIG. 3, the correction value related to the density of each destination pixel is (1−αb) × αa × Dk (Da) × Cp.

ここでステップ304(図6参照)にて、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より大きいと判断された場合、ステップ305(図6参照)にてその画素の属性は、ソース(画像B)の属性である“グラフィック”と設定される。また、ステップ304にて、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より小さいと判断された場合、ステップ306(図6参照)にてその画素の属性は、デスティネーション(画像A)の属性である“写真”と設定される。   If it is determined in step 304 (see FIG. 6) that the correction value related to the density of the source of a pixel is larger than the correction value related to the density of the destination, the attribute of the pixel is determined in step 305 (see FIG. 6). Is set to “graphic” which is an attribute of the source (image B). If it is determined in step 304 that the correction value related to the density of the source of a certain pixel is smaller than the correction value related to the density of the destination, in step 306 (see FIG. 6), the attribute of the pixel is the destination ( “Picture” which is an attribute of the image A) is set.

更に、ステップ302(図6参照)において、レンダリング処理部14は領域59に対して画像Bと画像Cとの属性に応じた係数を取得する。ここではソースは画像Bであるから、係数Cg(図3(c)参照)を取得する。また、デスティネーションは画像Cであるから、係数Ct(図3(c)参照)を取得する。そして、ステップ303(図6参照)において取得した係数を用いて画素毎の濃度に関する補正値を算出する。
すると図3を参照して、ソースの画素毎の濃度に関する補正値はαb×Dk(Db)×Cgとなる。同様に図3を参照して、デスティネーションの画素毎の濃度に関する補正値は(1−αb)×αc×Dk(Dc)×Ctとなる。
Further, in step 302 (see FIG. 6), the rendering processing unit 14 acquires coefficients corresponding to the attributes of the image B and the image C for the region 59. Here, since the source is the image B, the coefficient Cg (see FIG. 3C) is acquired. Since the destination is the image C, the coefficient Ct (see FIG. 3C) is acquired. And the correction value regarding the density | concentration for every pixel is calculated using the coefficient acquired in step 303 (refer FIG. 6).
Then, referring to FIG. 3, the correction value relating to the density for each source pixel is αb × Dk (Db) × Cg. Similarly, referring to FIG. 3, the correction value relating to the density of each destination pixel is (1−αb) × αc × Dk (Dc) × Ct.

ここでステップ304(図6参照)にて、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より大きいと判断された場合、ステップ305(図6参照)にてその画素の属性は、ソース(画像B)の属性である“グラフィック”と設定される。また、ステップ304にて、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より小さいと判断された場合、ステップ306(図6参照)にてその画素の属性は、デスティネーション(画像C)の属性である“文字”と設定される。   If it is determined in step 304 (see FIG. 6) that the correction value related to the density of the source of a pixel is larger than the correction value related to the density of the destination, the attribute of the pixel is determined in step 305 (see FIG. 6). Is set to “graphic” which is an attribute of the source (image B). If it is determined in step 304 that the correction value related to the density of the source of a certain pixel is smaller than the correction value related to the density of the destination, in step 306 (see FIG. 6), the attribute of the pixel is the destination ( “Character” which is an attribute of the image C) is set.

更にまた、領域60の場合は、画像Aと画像Cとの画像要素が重なる領域と同じ属性をもつ領域57がデスティネーションとなり、画像Bがソースとなる。したがって、領域57の場合と同様に処理される。その結果、他の領域で行った判断と同様に、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より大きいと判断された場合、その画素の属性は、ソース(画像B)の属性である“グラフィック”と設定される。また、ある画素のソースの濃度に関する補正値がデスティネーションの濃度に関する補正値より小さいと判断された場合、その画素の属性は、デスティネーションの属性(領域57の属性)に設定される。
ここでデスティネーションの画素毎の濃度に関する補正値の算出には、領域57の画像情報に含まれる画素値とアルファ値とを用いるが、これらの値は下記のアルファブレンド演算で処理された値である。
Furthermore, in the case of the region 60, the region 57 having the same attribute as the region where the image elements of the image A and the image C overlap is the destination, and the image B is the source. Accordingly, the processing is performed in the same manner as in the case of the region 57. As a result, when it is determined that the correction value related to the density of the source of a certain pixel is larger than the correction value related to the density of the destination, the attribute of the pixel is the source (image B). Is set to “graphic”. When it is determined that the correction value related to the density of the source of a certain pixel is smaller than the correction value related to the density of the destination, the attribute of the pixel is set to the attribute of the destination (attribute of the region 57).
Here, the pixel value and the alpha value included in the image information of the region 57 are used for calculating the correction value regarding the density for each pixel of the destination, and these values are values processed by the following alpha blend operation. is there.

(アルファブレンド演算の具体的な内容)
次に、画像を合成する対象(ソースとデスティネーション)の画像情報に含まれる画素値とアルファ値とに対して行われるアルファブレンド処理について説明する。
ここで、アルファブレンドされる領域では、RGB毎の各色成分について、ソースの画素値をS、デスティネーションの画素値をD、ソースのアルファ値をSα(0≦Sα≦1)とする。すると、以下の(5)式で表されるアルファブレンド演算により、RGB毎にアルファブレンド処理された画素値D′が生成される。
D′=S×Sα+D×(1−Sα) …(5)
また、デスティネーションのアルファ値をDα(0≦Dα≦1)とする。すると、以下の(6)式で表されるアルファブレンド演算により、アルファブレンド処理されたアルファ値D′αが生成される。
D′α=Sα+Dα×(1−Sα) …(6)
(Specific contents of alpha blend calculation)
Next, an alpha blend process performed on pixel values and alpha values included in image information of an object (source and destination) to be combined will be described.
Here, in the region to be alpha-blended, for each color component for each RGB, the source pixel value is S, the destination pixel value is D, and the source alpha value is Sα (0 ≦ Sα ≦ 1). Then, a pixel value D ′ subjected to alpha blending processing for each RGB is generated by the alpha blending operation represented by the following expression (5).
D ′ = S × Sα + D × (1−Sα) (5)
The alpha value of the destination is Dα (0 ≦ Dα ≦ 1). Then, an alpha value D′ α subjected to alpha blending is generated by an alpha blending operation represented by the following expression (6).
D′ α = Sα + Dα × (1−Sα) (6)

図8は、レンダリング処理部14に形成されたアルファブレンド演算回路の一例を示した回路図である。
図8(a)に示したアルファブレンド演算回路は、画素値をアルファブレンド処理するための回路である。この回路は、乗算器141、(1−Sα)の演算を行なう演算器142、乗算器143、加算器144を備えている。乗算器141は、ソースの画素値(S)にソースのアルファ値(Sα)を乗算してS×Sαを得る。乗算器143は、デスティネーションの画素値(D)に演算器142で得られた(1−Sα)を乗算し、D×(1−Sα)を得る。そして、加算器144は、乗算器141での乗算結果と乗算器143での乗算結果と加算して、D′=S×Sα+D×(1−Sα)を得る。
FIG. 8 is a circuit diagram showing an example of an alpha blend operation circuit formed in the rendering processing unit 14.
The alpha blend operation circuit shown in FIG. 8A is a circuit for performing alpha blend processing on pixel values. This circuit includes a multiplier 141, a computing unit 142 that performs computation of (1−Sα), a multiplier 143, and an adder 144. The multiplier 141 multiplies the source pixel value (S) by the source alpha value (Sα) to obtain S × Sα. The multiplier 143 multiplies the destination pixel value (D) by (1-Sα) obtained by the computing unit 142 to obtain D × (1-Sα). The adder 144 adds the multiplication result of the multiplier 141 and the multiplication result of the multiplier 143 to obtain D ′ = S × Sα + D × (1−Sα).

また、図8(b)に示したアルファブレンド演算回路は、アルファ値をアルファブレンド処理するための回路である。この回路は、(1−Sα)の演算を行なう演算器145、乗算器146、加算器147を備えている。乗算器146は、デスティネーションのアルファ値(Dα)に演算器145で得られた(1−Sα)を乗算し、Dα×(1−Sα)を得る。そして、加算器147は、ソースのアルファ値(Sα)と乗算器146での乗算結果と加算して、D′α=Sα+Dα×(1−Sα)を得る。   The alpha blend operation circuit shown in FIG. 8B is a circuit for performing alpha blend processing on the alpha value. This circuit includes an arithmetic unit 145, a multiplier 146, and an adder 147 that perform an operation of (1-Sα). The multiplier 146 multiplies the destination alpha value (Dα) by (1-Sα) obtained by the calculator 145 to obtain Dα × (1-Sα). Then, the adder 147 adds the source alpha value (Sα) and the multiplication result of the multiplier 146 to obtain D′ α = Sα + Dα × (1−Sα).

以上、アルファブレンド処理によって画像要素が重なる領域の画像を作成する処理の流れを説明した。しかし、これらはあくまでも一例にすぎない。
上記実施形態では、ソースとデスティネーションの濃度に関する値(または濃度に関する補正値)を比較することで上地と下地とが重なっている領域における属性を決定していたが、これに限られない。例えば、画像情報が含む画素値(図3(a)参照)をもとに一般に知られている所定の色変換式を用いてCIE 1976(L*a*b*)空間やCIE 1976(L*u*v*)空間におけるL値を求める。そして、ソースとデスティネーションのL値を画素毎に比較することで上地と下地とが重なっている領域における属性を決定してもよい。この場合、属性の切り替わりによる画質劣化を軽減してより高画質な出力画像を得るためには、上地と下地とが重なっている領域における画素の属性を、濃度が大きく目立ちにくい画像の属性に設定することとなる。
The flow of processing for creating an image of an area where image elements overlap by the alpha blend processing has been described above. However, these are only examples.
In the above embodiment, the attribute in the region where the ground and the ground overlap each other is determined by comparing the value related to the density of the source and the destination (or the correction value related to the density), but the present invention is not limited to this. For example, the CIE 1976 (L * a * b *) space or the CIE 1976 (L *) using a predetermined color conversion formula generally known based on the pixel values included in the image information (see FIG. 3A). Find the L value in u * v *) space. Then, by comparing the L value of the source and the destination for each pixel, the attribute in the region where the ground and the ground overlap each other may be determined. In this case, in order to reduce the image quality degradation due to attribute switching and obtain a higher quality output image, the pixel attribute in the area where the ground and the background overlap is changed to the attribute of the image with high density and inconspicuousness. It will be set.

また、図3(c)では、係数は画像要素毎に設定されているが、図3(d)のように、さらにソース画像用とデスティネーション用の係数に分かれていても良い。このようにすれば、以上の実施例より、画素の属性決定をより詳細に制御でき、属性の切り替わりによる画質劣化を軽減することが可能となる。   In FIG. 3C, the coefficient is set for each image element. However, as shown in FIG. 3D, the coefficient may be further divided into a source image coefficient and a destination coefficient. In this way, pixel attribute determination can be controlled in more detail from the above embodiment, and image quality deterioration due to attribute switching can be reduced.

また、図3(c)にて、係数は、2次記憶部20(図1参照)に保持されているとしたがこれに限られない。例えば、係数は、画像情報に含まれていてもよい。この場合、PDL解析部13は、例えば2次記憶部20(図1参照)が記憶している係数を読み出して画像情報に付加することとなる。そして、ステップ302(図6参照)にて、レンダリング処理部14が、ソースの画像情報から係数を取得することとなる。また、属性毎の係数を設定する係数設定部を画像処理装置(画像処理部10)(図1参照)が備えていてもよい。また、PC3(図1参照)に保持されたプリンタドライバが、この係数を設定する機能を備えていてもよい。   In FIG. 3C, the coefficients are stored in the secondary storage unit 20 (see FIG. 1), but the present invention is not limited to this. For example, the coefficient may be included in the image information. In this case, for example, the PDL analysis unit 13 reads out the coefficient stored in the secondary storage unit 20 (see FIG. 1) and adds it to the image information. In step 302 (see FIG. 6), the rendering processing unit 14 acquires a coefficient from the source image information. The image processing apparatus (image processing unit 10) (see FIG. 1) may include a coefficient setting unit that sets a coefficient for each attribute. Further, the printer driver held in the PC 3 (see FIG. 1) may have a function for setting this coefficient.

更に、アルファブレンド演算を行う演算回路は、図8に示したものに限られず、演算の結果、(5)式と(6)式が得られるような演算回路であれば何でもよい。
また、本願明細書において、プログラムを提供する具体的な形態について説明をしていないが、例えば、インターネット等の双方向通信手段によりプログラムを提供する実施形態としてもよいし、CD−ROM等の記録媒体に保持させて提供する実施形態としてもよい。
Furthermore, the arithmetic circuit that performs the alpha blending operation is not limited to that shown in FIG. 8, and any arithmetic circuit that can obtain the equations (5) and (6) as a result of the operation may be used.
In the present specification, a specific form for providing the program is not described. However, for example, the program may be provided by a bidirectional communication means such as the Internet, or may be recorded on a CD-ROM or the like. The embodiment may be provided by being held in a medium.

本発明の画像処理装置を備えた画像形成装置の構成の一例を示したブロック図である。1 is a block diagram illustrating an example of a configuration of an image forming apparatus including an image processing apparatus of the present invention. 画像処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image process part. 合成処理される対象となる画像の画像情報の例と、属性毎に関連付けられている係数の例とを示す図である。It is a figure which shows the example of the image information of the image used as the object of a synthetic | combination process, and the example of the coefficient linked | related for every attribute. レンダリング処理部でのレンダリング処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the rendering process in a rendering process part. 複数の画像要素が重なる領域の属性を画素毎に設定する処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the process which sets the attribute of the area | region where a several image element overlaps for every pixel. 複数の画像要素が重なる領域の属性を画素毎に設定する処理の手順の他の例を示すフローチャートである。It is a flowchart which shows the other example of the procedure of the process which sets the attribute of the area | region where a several image element overlaps for every pixel. アルファブレンド処理された領域に設定された属性の一例を示した図である。It is the figure which showed an example of the attribute set to the area | region by which the alpha blend process was carried out. レンダリング処理部に形成されたアルファブレンド演算回路の一例を示した回路図である。It is the circuit diagram which showed an example of the alpha blend operation circuit formed in the rendering process part.

符号の説明Explanation of symbols

1…画像形成装置、3…パーソナルコンピュータ(PC)、4…画像読取装置、10…画像処理部(画像形成装置)、11…受付部、12…入力バッファ、13…PDL解析部、14…レンダリング処理部、15…中間バッファ、16…色変換処理部、17…スクリーン処理部、20…2次記憶部、30…制御部、40…画像形成部、101…CPU、104…不揮発性メモリ、105…インタフェース部 DESCRIPTION OF SYMBOLS 1 ... Image forming apparatus, 3 ... Personal computer (PC), 4 ... Image reading apparatus, 10 ... Image processing part (image forming apparatus), 11 ... Reception part, 12 ... Input buffer, 13 ... PDL analysis part, 14 ... Rendering Processing unit 15 ... Intermediate buffer 16 ... Color conversion processing unit 17 ... Screen processing unit 20 ... Secondary storage unit 30 ... Control unit 40 ... Image forming unit 101 ... CPU 104 Non-volatile memory 105 ... Interface part

Claims (9)

複数の画像要素が重なる領域において、当該複数の画像要素のそれぞれがもつ透明度に基づいて画像を合成する処理を行う画像処理装置において、
前記複数の画像要素のそれぞれについて、前記透明度、画素値、および属性に関する情報を含む画像情報を受け付ける受付手段と、
前記画像情報が含む前記属性に対して個別に設定された係数を記憶する記憶手段と、
前記複数の画像要素が重なる領域に関して、前記画像情報が含む前記透明度および当該画像情報が含む前記画素値の情報に基づいて、当該領域における濃度に関する値を算出し、当該画像情報が含む属性に関する情報に基づいて前記記憶手段から読み出した前記係数により、当該領域における当該濃度に関する値を補正する算出手段と、
前記複数の画像要素それぞれについて前記算出手段が算出し補正した前記濃度に関する値を比較し、当該濃度に関する値が大きい画像要素の属性を前記領域の画像要素の属性として設定する設定手段と、を備えることを特徴とする画像処理装置。
In an image processing apparatus that performs processing for combining images based on the transparency of each of the plurality of image elements in a region where a plurality of image elements overlap,
For each of the plurality of image elements, the transparency, and accepting means for accepting image information including information pixel values, and to attribute,
Storage means for storing coefficients individually set for the attributes included in the image information;
Information on the attribute included in the image information by calculating a value related to the density in the region based on the transparency included in the image information and the information on the pixel value included in the image information regarding the region where the plurality of image elements overlap. Calculation means for correcting a value related to the density in the area by the coefficient read from the storage means based on
Setting means for comparing values of the density calculated and corrected by the calculation means for each of the plurality of image elements, and setting an attribute of an image element having a large value of the density as an attribute of the image element of the region. An image processing apparatus.
前記記憶手段は、各画像要素の前記画像情報が含む前記属性に対して、当該画像要素が合成され上地となるときの係数と、当該画像要素が合成され下地となるときの係数とをそれぞれ記憶することを特徴とする請求項1記載の画像処理装置。The storage means, for the attribute included in the image information of each image element, a coefficient when the image element is combined and becomes a ground, and a coefficient when the image element is combined and becomes a background, respectively. The image processing apparatus according to claim 1, wherein the image processing apparatus is stored. 前記設定手段は、前記領域の画素毎における前記濃度に関する値を比較し、当該値が大きいと判断された画像要素の属性を当該画素毎の画像要素の属性として設定し、
前記設定手段が設定した画像要素の属性に応じた画像処理を前記画素毎に行うことを特徴とする請求項1記載の画像処理装置。
The setting means compares the value relating to the density for each pixel of the region, sets the attribute of the image element determined to be large as the attribute of the image element for each pixel,
The image processing apparatus according to claim 1, wherein image processing corresponding to an attribute of an image element set by the setting unit is performed for each pixel.
複数の画像要素が重なる領域において、当該複数の画像要素のそれぞれがもつ透明度に基づいて画像を合成する処理を行い画像を形成する画像形成装置において、
前記複数の画像要素のそれぞれについて、前記透明度、画素値、および属性に関する情報を含む画像情報を受け付ける受付手段と、
前記画像情報が含む前記属性に対して個別に設定された係数を記憶する記憶手段と、
前記受付手段により受け付けられた前記画像情報の合成処理を行なう画像処理手段と、
前記画像処理手段により合成処理された前記画像情報に基づいて、記録媒体上に合成された前記複数の画像要素を形成する画像形成手段と、を有し、
前記画像処理手段は、
前記複数の画像要素が重なる領域に関して、前記画像情報が含む前記透明度および当該画像情報が含む前記画素値の情報に基づいて、当該領域における濃度に関する値を算出し、当該画像情報が含む属性に関する情報に基づいて前記記憶手段から読み出した前記係数により、当該領域における当該濃度に関する値を補正する算出部と、
前記複数の画像要素それぞれについて前記算出部が算出し補正した前記濃度に関する値を比較し、当該濃度に関する値が大きい画像要素の属性を前記領域の画像要素の属性として設定する設定部と、を備えることを特徴とする画像形成装置。
In an image forming apparatus that forms an image by performing a process of synthesizing an image based on the transparency of each of the plurality of image elements in a region where the plurality of image elements overlap.
For each of the plurality of image elements, the transparency, and accepting means for accepting image information including information pixel values, and to attribute,
Storage means for storing coefficients individually set for the attributes included in the image information;
Image processing means for performing composition processing of the image information received by the receiving means;
Image forming means for forming the plurality of image elements synthesized on a recording medium based on the image information synthesized by the image processing means,
The image processing means includes
Information on the attribute included in the image information by calculating a value related to the density in the region based on the transparency included in the image information and the information on the pixel value included in the image information regarding the region where the plurality of image elements overlap. A calculation unit for correcting a value related to the density in the region by the coefficient read from the storage unit based on
A setting unit configured to compare the value related to the density calculated and corrected by the calculation unit for each of the plurality of image elements, and to set an attribute of an image element having a large value related to the density as an attribute of the image element of the region. An image forming apparatus.
前記記憶手段は、各画像要素の前記画像情報が含む前記属性に対して、当該画像要素が合成され上地となるときの係数と、当該画像要素が合成され下地となるときの係数とをそれぞれ記憶することを特徴とする請求項4記載の画像形成装置。The storage means, for the attribute included in the image information of each image element, a coefficient when the image element is combined and becomes a ground, and a coefficient when the image element is combined and becomes a background, respectively. 5. The image forming apparatus according to claim 4, wherein the image forming apparatus stores the image. 前記画像処理手段は、前記設定部が前記領域の画素毎における前記濃度に関する値を比較し、当該値が大きいと判断された画像要素の属性を当該画素毎の画像要素の属性として設定し、当該設定部が設定した画像要素の属性に応じた画像処理を当該画素毎に行うことを特徴とする請求項4記載の画像形成装置。   The image processing means compares the value related to the density for each pixel of the region, and sets the attribute of the image element determined to be large as the attribute of the image element for each pixel. The image forming apparatus according to claim 4, wherein image processing corresponding to the attribute of the image element set by the setting unit is performed for each pixel. コンピュータに、複数の画像要素が重なる領域において、当該複数の画像要素のそれぞれがもつ透明度に基づいて画像を合成する機能を実現させるためのプログラムにおいて、
コンピュータに、
前記複数の画像要素のそれぞれについて、前記透明度、画素値、および属性に関する情報を含む画像情報を取得する取得機能と、
前記複数の画像要素が重なる領域に関して、前記画像情報が含む前記透明度および当該画像情報が含む前記画素値の情報に基づいて、当該領域における濃度に関する値を算出し、当該画像情報が含む属性に関する情報に基づいた係数を各画像要素の属性に対して個別に設定された係数が記憶された記憶手段から読み出し、当該係数により当該領域における当該濃度に関する値を補正する算出機能と、
前記複数の画像要素それぞれについて前記算出機能が算出し補正した前記濃度に関する値を比較し、当該濃度に関する値が大きい画像要素の属性を前記領域の画像要素の属性として設定する設定機能と、を実現させるためのプログラム。
In a program for realizing a function of synthesizing an image based on the transparency of each of the plurality of image elements in a region where the plurality of image elements overlap,
On the computer,
For each of the plurality of image elements, the transparency, the acquisition function of acquiring image information including information pixel values, and to attribute,
Information on the attribute included in the image information by calculating a value related to the density in the region based on the transparency included in the image information and the information on the pixel value included in the image information regarding the region where the plurality of image elements overlap. A coefficient based on the image data is read from a storage unit storing coefficients set individually for the attributes of each image element, and a calculation function for correcting a value related to the density in the region by the coefficient ;
A setting function for comparing values of the density calculated and corrected by the calculation function for each of the plurality of image elements, and setting an attribute of an image element having a large value of the density as an attribute of the image element of the region; Program to let you.
前記算出機能は、前記画像情報が含む属性に関する情報に基づいた係数を、各画像要素の属性に対して当該画像要素が合成され上地となるときの係数と、当該画像要素が合成され下地となるときの係数とがそれぞれ記憶された記憶手段から読み出し、当該係数により前記領域における前記濃度に関する値を補正することを特徴とする請求項7記載のプログラム。The calculation function includes a coefficient based on information about the attribute included in the image information, a coefficient when the image element is combined with the attribute of each image element to become the ground, and a base when the image element is combined 8. The program according to claim 7, wherein a coefficient at the time of reading is read from storage means storing each, and the value relating to the density in the region is corrected by the coefficient. 前記設定機能は、前記領域の画素毎における前記濃度に関する値を比較し、当該値が大きいと判断された画像要素の属性を当該画素毎の画像要素の属性として設定し、
前記設定機能が設定した画像要素の属性に応じた画像処理を前記画素毎に行うことを特徴とする請求項7記載のプログラム。
The setting function compares the value related to the density for each pixel in the region, sets the attribute of the image element determined to be large as the attribute of the image element for each pixel,
8. The program according to claim 7, wherein image processing corresponding to the attribute of an image element set by the setting function is performed for each pixel.
JP2006304475A 2006-11-09 2006-11-09 Image processing apparatus, image forming apparatus, and program Expired - Fee Related JP4946370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006304475A JP4946370B2 (en) 2006-11-09 2006-11-09 Image processing apparatus, image forming apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006304475A JP4946370B2 (en) 2006-11-09 2006-11-09 Image processing apparatus, image forming apparatus, and program

Publications (2)

Publication Number Publication Date
JP2008123126A JP2008123126A (en) 2008-05-29
JP4946370B2 true JP4946370B2 (en) 2012-06-06

Family

ID=39507838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006304475A Expired - Fee Related JP4946370B2 (en) 2006-11-09 2006-11-09 Image processing apparatus, image forming apparatus, and program

Country Status (1)

Country Link
JP (1) JP4946370B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011020276A (en) * 2009-07-13 2011-02-03 Ricoh Co Ltd Image forming apparatus, image data processing method, and control program
JP5760946B2 (en) * 2011-10-25 2015-08-12 株式会社Jvcケンウッド Information display device, information display method, and program
JP5994471B2 (en) * 2012-08-08 2016-09-21 ブラザー工業株式会社 Image processing program and information processing apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2750418B2 (en) * 1992-09-04 1998-05-13 大日本スクリーン製造株式会社 Kabuse processing method at the boundary between line drawing and picture
EP0999523B1 (en) * 1998-05-20 2006-12-06 Kabushiki Kaisha Sega doing business as Sega Corporation Image processor, game machine, image processing method, and recording medium
JP3902907B2 (en) * 2000-06-29 2007-04-11 キヤノン株式会社 Image processing apparatus and method, and image forming apparatus

Also Published As

Publication number Publication date
JP2008123126A (en) 2008-05-29

Similar Documents

Publication Publication Date Title
JP4882626B2 (en) Image processing apparatus, image forming apparatus, and program
JP4645662B2 (en) Color conversion table creation program, interpolation calculation program, color conversion table creation method, interpolation calculation method, color conversion device, and printing device
JP4771538B2 (en) Color conversion table generation method, color conversion table, and color conversion table generation apparatus
JP5067276B2 (en) Color conversion method, color conversion table generated by the color conversion method, image processing apparatus, and color conversion program
JP4669314B2 (en) Image processing method and image processing apparatus
JP5031694B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium storing program for executing the method
JP2005286985A (en) Setting color tone to be applied to image
JP2009154365A (en) Image processing apparatus, image processing method, image processing program and recording medium
JP2012043406A (en) Image processing apparatus, image processing method and program
JP2007336537A (en) Image processor, image processing method, and image processing program
JP4946370B2 (en) Image processing apparatus, image forming apparatus, and program
JP5239753B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
JP2002314832A (en) Image processing device, image processing method, program, and recording medium
US6611632B1 (en) Device and method for interpolating image data and medium on which image data interpolating program is recorded
JP6794821B2 (en) Image processing equipment and computer programs
JP2003334934A (en) Device and method for controlling forming of image, and image forming control program
JP4455261B2 (en) Image processing method, image processing apparatus, and image forming system
JP2008205574A (en) Print control unit, and program
JP2006345097A (en) Image processing method and image processing apparatus
JP4524578B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP3833170B2 (en) Gray line setting method, image processing apparatus and image processing method
JP4983658B2 (en) Image processing method, image processing apparatus, and image processing program
JP2007013377A (en) Image processing method, image processing device, and program
JP2002190959A (en) Image processor, image processing method and recording medium
JP4827975B2 (en) Image processing method and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees