JP2024034772A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2024034772A
JP2024034772A JP2022139240A JP2022139240A JP2024034772A JP 2024034772 A JP2024034772 A JP 2024034772A JP 2022139240 A JP2022139240 A JP 2022139240A JP 2022139240 A JP2022139240 A JP 2022139240A JP 2024034772 A JP2024034772 A JP 2024034772A
Authority
JP
Japan
Prior art keywords
image
processing
preview
image processing
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022139240A
Other languages
Japanese (ja)
Inventor
麻子 菅原
Asako Sugahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022139240A priority Critical patent/JP2024034772A/en
Publication of JP2024034772A publication Critical patent/JP2024034772A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Color, Gradation (AREA)
  • Facsimiles In General (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to give a preview useful to a user when giving the preview based on accumulated images.
SOLUTION: An image processing apparatus accumulates images created from print data through processing performed by a raster image processor and attributes of objects and commands acquired on the basis of the print data, performs image processing on the accumulated images, and creates and displays a preview image on the basis of the accumulated images. When the commands indicate execution of predetermined image processing, the image processing apparatus creates a preview image obtained by defining an area corresponding to an object of a first attribute in the accumulated images as a first image in a specific color.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、プレビュー画像を生成する画像処理技術に関する。 The present invention relates to an image processing technique for generating preview images.

プリンタは、画像を蓄積可能なメモリを備えていることが多く、例えば画像をプリントする際などに、プリンタドライバから画像蓄積の指示がなされている場合、その画像を内部のメモリに蓄積することができる。またスキャン機能を有するプリンタは、例えばUI(ユーザインタフェース)を介してスキャン画像の蓄積指示がなされていると、そのスキャン画像をメモリに蓄積することができる。そしてプリンタは、その蓄積した画像を、プリントしたり、パーソナルコンピュータ(PC)へ送信したりするなどの様々な処理を行うことができる。 Printers are often equipped with a memory that can store images. For example, when printing an image, if the printer driver gives an instruction to store the image, the image can be stored in the internal memory. can. Further, a printer having a scanning function can store the scanned image in the memory if an instruction to store the scanned image is given via a UI (user interface), for example. The printer can perform various processing on the accumulated images, such as printing them or transmitting them to a personal computer (PC).

また、特許文献1には、プリンタにおいて、メモリに蓄積されている画像をプレビュー画像として表示することによって、ユーザが画像を確認できるようにする技術が開示されている。 Further, Patent Document 1 discloses a technology that allows a user to check an image by displaying an image stored in a memory as a preview image in a printer.

特開2006-238106号公報Japanese Patent Application Publication No. 2006-238106

ところで、プリンタのメモリに蓄積される画像は、プリンタにおける画像処理(以下、プリンタ画像処理とする)が行われる前の画像となされている。これは、メモリコストの削減と、出力画像の最適化とを考慮しているためである。プリンタ画像処理としてディザリング処理を例に挙げると、例えば600dpiであった画像が出力エンジンの解像度に合わせたディザング処理によって2400dpi等の解像度になり、その画像を蓄積するには大きなメモリ容量が必要になる。また例えば、プリンタ画像処理後の画像を蓄積した場合、画像蓄積時のエンジン状態に合った階調性の画像が生成されて蓄積されることになり、その画像はプリント時のエンジン状態に最適な画像ではない可能性がある。これらのことから、プリンタのメモリに蓄積される画像は、プリンタ画像処理が行われる前の画像がとなされている。 Incidentally, the images stored in the memory of the printer are images before being subjected to image processing in the printer (hereinafter referred to as printer image processing). This is because memory cost reduction and output image optimization are taken into consideration. Taking dithering processing as an example of printer image processing, for example, an image that was 600 dpi becomes 2400 dpi through dithering processing that matches the resolution of the output engine, and a large memory capacity is required to store that image. Become. For example, when an image after printer image processing is stored, an image with gradation matching the engine state at the time of image storage will be generated and stored; It may not be an image. For these reasons, the image stored in the memory of the printer is the image before printer image processing is performed.

一方で、プリンタのメモリに蓄積される画像は、前述のようにプリンタ画像処理が行われる前の画像であるため、その画像からプレビュー画像を生成しても、プリンタ出力画像の正確なプレビューとはならないことがある。また例えば、画像の一部にだけプリンタ画像処理を実行してメモリに蓄積する場合もあるが、その画像はプリンタ画像処理が一部にしか行われていない画像なので、そのままプレビューするとユーザに違和感を与えてしまう。このように、メモリに蓄積された画像を用いたプレビューは、ユーザにとって有用であるとは言えないことがある。 On the other hand, the image stored in the printer's memory is an image before printer image processing is performed as described above, so even if a preview image is generated from that image, it may not be an accurate preview of the printer output image. Sometimes it doesn't happen. For example, printer image processing may be performed on only a portion of an image and the image is stored in memory, but since that image has only had printer image processing performed on a portion of it, previewing it as it is may give the user a sense of discomfort. I'll give it away. In this way, previews using images stored in memory may not be useful to the user.

そこで、本発明は、蓄積された画像に基づくプレビューを行う際に、ユーザにとって有用なプレビューを可能にすることを目的とする。 Therefore, an object of the present invention is to enable a preview that is useful for the user when performing a preview based on accumulated images.

本発明の画像処理装置は、印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積手段と、前記蓄積された画像に対して画像処理を行う処理手段と、前記蓄積された画像を基にプレビュー画像を生成する生成手段と、前記プレビュー画像を表示するプレビュー手段と、を有し、前記コマンドが所定の画像処理の実施を示している場合、前記生成手段は、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、特定の色による第1の画像とした前記プレビュー画像を生成することを特徴とする。 The image processing apparatus of the present invention includes a storage means for storing an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data; a processing means for performing image processing on an image; a generation means for generating a preview image based on the accumulated images; and a preview means for displaying the preview image; , the generating means generates the preview image in which a region corresponding to the object of the first attribute among the accumulated images is set as the first image in a specific color. Features.

本発明によれば、蓄積された画像に基づくプレビューを行う場合、ユーザにとって有用なプレビューが可能となる。 According to the present invention, when performing a preview based on accumulated images, it is possible to perform a preview that is useful for the user.

画像処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an image processing system. ホストPCと画像形成装置の各機能部を示した機能ブロック図である。FIG. 2 is a functional block diagram showing each functional unit of a host PC and an image forming apparatus. 描画コマンドの一例を示す図である。FIG. 3 is a diagram showing an example of a drawing command. 入力画像と弁別性向上処理後の画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an input image and an image after discriminability improvement processing. 第1の実施形態の弁別性向上処理のフローチャートである。It is a flow chart of discriminability improvement processing of a 1st embodiment. フィルタ処理の説明に用いる図である。FIG. 3 is a diagram used to explain filter processing. トラッピング処理の説明に用いる図である。FIG. 3 is a diagram used to explain trapping processing. 印刷データ取得からプレビューまでの処理のフローチャートである。3 is a flowchart of processing from print data acquisition to preview. プレビュー画像生成処理のフローチャートである。It is a flowchart of preview image generation processing. プレビュー画面の一例を示す図である。It is a figure showing an example of a preview screen. 第2の実施形態の弁別性向上処理のフローチャートである。12 is a flowchart of discriminability improvement processing according to the second embodiment. 色値リストの一例を示す図である。FIG. 3 is a diagram showing an example of a color value list.

以下、本発明に係る実施形態を、図面を参照しながら説明する。以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正又は変更され得る。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。以下の各実施形態において、同一の構成には同じ参照符号を付して説明する。 Embodiments according to the present invention will be described below with reference to the drawings. The following embodiments do not limit the present invention, and not all combinations of features described in the present embodiments are essential to the solution of the present invention. The configuration of the embodiment may be modified or changed as appropriate depending on the specifications and various conditions (conditions of use, environment of use, etc.) of the device to which the present invention is applied. Moreover, a part of each embodiment described later may be combined as appropriate. In each of the following embodiments, the same configurations will be described with the same reference numerals.

<第1の実施形態>
図1は、第1の実施形態に係る画像処理システム117の一構成例を示した図である。本実施形態の画像処理システム117は、画像形成装置101およびホストPC119と含んで構成されている。
<First embodiment>
FIG. 1 is a diagram showing an example of the configuration of an image processing system 117 according to the first embodiment. The image processing system 117 of this embodiment includes an image forming apparatus 101 and a host PC 119.

ホストPC119は、一般的なパーソナルコンピュータと同様に、CPU120、ROM121、RAM122、HDD123などを有して構成されている。ホストPC119は、ドキュメント文書やプレゼンテーション文書などの電子データを基に印刷データを生成して、画像形成装置101に出力する。
また画像処理システム117は、PC127を含んでいてもよい。PC127は、例えば外部のPCであり、様々な画像処理を行うサーバやクラウドなどが想定される。
The host PC 119 is configured to include a CPU 120, ROM 121, RAM 122, HDD 123, etc., like a general personal computer. The host PC 119 generates print data based on electronic data such as document documents and presentation documents, and outputs the print data to the image forming apparatus 101 .
Further, the image processing system 117 may include a PC 127. The PC 127 is, for example, an external PC, and is assumed to be a server or cloud that performs various image processing.

画像形成装置101は、本実施形態に係る画像処理装置の一例であり、プリンタ機能やスキャン機能など、複数の機能が一体化された複合機(MFP:Multi-Function Peripheral)である。画像形成装置101は、制御部110、操作部118、画像出力部109、画像読取部108、表示部125、および画像送信部126を含む。 The image forming apparatus 101 is an example of an image processing apparatus according to the present embodiment, and is a multi-function peripheral (MFP) that integrates multiple functions such as a printer function and a scan function. Image forming apparatus 101 includes a control section 110, an operation section 118, an image output section 109, an image reading section 108, a display section 125, and an image transmission section 126.

操作部118は、タッチパネルや各種スイッチ、ボタン等を有し、それらに対するユーザからの操作を取得して制御部110に出力する。
画像出力部109は、印刷媒体に対して印刷等を行うプリンタ部である。
画像読取部108は、例えばスキャナであり、画像等の読み取りを行う。
表示部125は、ディスプレイを有する表示デバイスであり、本実施形態では後述するようなプレビュー画像を含むUI(ユーザインタフェース)画面等を表示する。
画像送信部126は、例えば画像読取部108で読み取った画像等をホストPC119やPC127等に送信する。
The operation unit 118 includes a touch panel, various switches, buttons, etc., and acquires user operations on these and outputs them to the control unit 110.
The image output unit 109 is a printer unit that performs printing on a print medium.
The image reading unit 108 is, for example, a scanner, and reads images and the like.
The display unit 125 is a display device having a display, and in this embodiment displays a UI (user interface) screen including a preview image as described later.
The image transmitting unit 126 transmits, for example, an image read by the image reading unit 108 to the host PC 119, PC 127, etc.

制御部110は、画像形成装置101を統括的に制御し、また後述する本実施形態に係る弁別性向上のための画像処理やプレビュー画像生成のための画像処理を含む各種の処理を行う。制御部110は、CPU105、ROM106、RAM107、補助記憶装置111、操作部I/F112、プリンタI/F113、スキャナI/F114、ネットワークI/F115、表示I/F124等を含む。 The control unit 110 centrally controls the image forming apparatus 101 and performs various processes including image processing for improving discrimination and image processing for generating a preview image according to the present embodiment, which will be described later. The control unit 110 includes a CPU 105, a ROM 106, a RAM 107, an auxiliary storage device 111, an operation unit I/F 112, a printer I/F 113, a scanner I/F 114, a network I/F 115, a display I/F 124, and the like.

CPU105は、ROM106に記憶されているプログラムをRAM107に展開して実行することにより画像形成装置101の動作を制御し、また後述する本実施形態に係る画像処理を含む様々な処理を行う。RAM107は、一時記憶メモリであり、ROM106から読み出されたプログラムが展開されるメモリや、画像データ等を一時的に記憶するメモリとして使用される。ROM106は、画像形成装置101のOS(オペレーティングシステム)、各種制御プログラムやパラメータ、本実施形態の画像処理を実現するアプリケーションプログラム(以下、アプリケーションとする)を含む各種のアプリケーションを記憶している。CPU105は、ROM106に記憶されている制御プログラムをRAM107に展開して実行することにより、画像形成装置101を制御する。CPU105による制御には、画像出力部109によるプリント機能の制御や、画像読取部108によるスキャン機能の制御などが含まれる。またCPU105による制御には、画像読取部108が読み取った画像や画像出力部109での印刷に用いられる画像などを、補助記憶装置111に記録する制御も含まれる。更にCPU105の制御には、補助記憶装置111の蓄積画像をネットワークI/F115を介して画像送信部126からホストPC119などに送信する制御、ホストPC119からLAN116を通して送られてきた画像などを受信する制御なども含まれる。補助記憶装置111は、例えばHDD(ハードディスクドライブ)或いはSDD(ソリッドステートドライブ)、その他の不揮発性メモリ等を有する。補助記憶装置111やRAM107は画像やデータを一時的にスプールするためにも使用される。 The CPU 105 controls the operation of the image forming apparatus 101 by loading a program stored in the ROM 106 into the RAM 107 and executing it, and also performs various processes including image processing according to the present embodiment described later. The RAM 107 is a temporary storage memory, and is used as a memory in which a program read from the ROM 106 is expanded and a memory in which image data and the like are temporarily stored. The ROM 106 stores an OS (operating system) of the image forming apparatus 101, various control programs and parameters, and various applications including an application program (hereinafter referred to as an application) that implements the image processing of this embodiment. The CPU 105 controls the image forming apparatus 101 by loading a control program stored in the ROM 106 into the RAM 107 and executing it. Control by the CPU 105 includes control of a print function by the image output unit 109, control of a scan function by the image reading unit 108, and the like. Further, the control by the CPU 105 includes control for recording, in the auxiliary storage device 111, images read by the image reading unit 108, images used for printing by the image output unit 109, and the like. Furthermore, the control of the CPU 105 includes control for transmitting stored images in the auxiliary storage device 111 from the image transmitting unit 126 to the host PC 119 via the network I/F 115, and control for receiving images sent from the host PC 119 via the LAN 116. Also included. The auxiliary storage device 111 includes, for example, an HDD (hard disk drive), an SDD (solid state drive), or other nonvolatile memory. The auxiliary storage device 111 and RAM 107 are also used to temporarily spool images and data.

またCPU105は、補助記憶装置111に保存された画像を基に、後述するようにしてプレビュー画像を生成し、表示I/F124を介して表示部125に送ることでプレビューさせるような処理も行う。本実施形態におけるプレビュー画像生成処理の詳細については後述する。その他、CPU105は、操作部I/F112を介した操作部118の制御などをも行う。 The CPU 105 also performs processing such as generating a preview image as described later based on the image stored in the auxiliary storage device 111 and sending it to the display unit 125 via the display I/F 124 for previewing. Details of the preview image generation process in this embodiment will be described later. In addition, the CPU 105 also controls the operation unit 118 via the operation unit I/F 112.

図2は、画像処理システム117のホストPC119と画像形成装置101において、本実施形態に関連する主要な機能部を示した機能ブロック図である。
<プリント処理>
まず、図2を参照しながら、画像処理システム117におけるプリント処理の大まかな流れについて説明する。
FIG. 2 is a functional block diagram showing main functional units related to this embodiment in the host PC 119 of the image processing system 117 and the image forming apparatus 101.
<Print processing>
First, the general flow of print processing in the image processing system 117 will be explained with reference to FIG.

ホストPC119のアプリケーション201は、ドキュメント文書やプレゼンテーション文書などの電子データを作成する。プリンタドライバ202は、アプリケーション201で作成された電子データから印刷データを生成し、その印刷データを画像形成装置101に送って印刷させるためのドライバである。プリンタドライバ202にて生成される印刷データは、例えば、PDL(Page Description Language)データであるとする。なお、PDLとは、ページ上の描画データをオブジェクトと呼ばれる文字や図形や画像といった描画要素に分割してオブジェクトコード化することにより、少ないデータ量でプリンタへ画像情報を転送するための言語情報である。またプリンタドライバ202は、画像形成装置101の動作を制御するためのコマンドも併せて作成し、印刷データ(PDLデータ)に含める。そして、プリンタドライバ202で作成された印刷データは、画像形成装置101へ送られる。なお、これらアプリケーション201とプリンタドライバ202は、ROM121に記憶されているプログラムをCPU120がRAM122に展開し実行することにより実現される。 The application 201 of the host PC 119 creates electronic data such as documents and presentation documents. The printer driver 202 is a driver that generates print data from electronic data created by the application 201 and sends the print data to the image forming apparatus 101 for printing. It is assumed that the print data generated by the printer driver 202 is, for example, PDL (Page Description Language) data. PDL is a language information that allows image information to be transferred to a printer using a small amount of data by dividing drawing data on a page into drawing elements called objects, such as characters, figures, and images, and converting them into object codes. be. The printer driver 202 also creates commands for controlling the operation of the image forming apparatus 101 and includes them in the print data (PDL data). The print data created by the printer driver 202 is then sent to the image forming apparatus 101. The application 201 and printer driver 202 are realized by the CPU 120 loading programs stored in the ROM 121 into the RAM 122 and executing them.

ホストPC119から印刷データを受け取ると、画像形成装置101のコマンド処理部102は、印刷データを基にコマンドの解析とラスタ画像の生成を行う。まずコマンド処理部102内のコマンド判別部203は、印刷データからPDLの種別を判別する。PDL種別は、PostScript:PS(PostScriptは登録商標)やPrinterCommandLanguage(PCL)なども含む。 Upon receiving print data from the host PC 119, the command processing unit 102 of the image forming apparatus 101 analyzes the command and generates a raster image based on the print data. First, the command determining unit 203 in the command processing unit 102 determines the type of PDL from print data. PDL types include PostScript: PS (PostScript is a registered trademark), Printer Command Language (PCL), and the like.

次にコマンド解析部204は、コマンド判別部203で特定したPDL種のコマンドの抽出及び解析を実行する。
次に変換調整部205は、コマンド解析部204によるコマンド解析結果に応じた処理を実行する。例えば、変換調整部205は、オブジェクト等の情報に対して、色変換処理、線やオブジェクトなどの太さの調整処理などを行う。
コマンド実行部206は、コマンド解析部204のコマンド解析結果と変換調整部205で処理結果とに応じたラスターイメージプロセッサー(RIP)の処理を実行する。このRIPの処理が実行されることで、ラスタ画像と、そのラスタ画像に含まれる各オブジェクトの属性を記述した属性情報とが生成される。
そして、蓄積制御部103は、コマンド解析部204によるコマンド解析結果と、コマンド実行部206が生成したラスタ画像および属性情報とを、補助記憶装置111内の記録領域に蓄積させる。
Next, the command analysis unit 204 extracts and analyzes the PDL type command specified by the command discrimination unit 203.
Next, the conversion adjustment unit 205 executes processing according to the command analysis result by the command analysis unit 204. For example, the conversion adjustment unit 205 performs color conversion processing, adjustment processing of the thickness of lines, objects, etc., on information such as objects.
The command execution unit 206 executes raster image processor (RIP) processing according to the command analysis result of the command analysis unit 204 and the processing result of the conversion adjustment unit 205. By executing this RIP process, a raster image and attribute information describing the attributes of each object included in the raster image are generated.
Then, the storage control unit 103 stores the command analysis result by the command analysis unit 204 and the raster image and attribute information generated by the command execution unit 206 in a recording area in the auxiliary storage device 111.

画像処理部104は、コマンド実行部206で生成したラスタ画像および属性情報、または補助記憶装置111に蓄積されたラスタ画像および属性情報を用いて、様々な画像処理を行う。例えば、画像処理部104の色変換処理部211は、RGB色空間からCMYK色空間への色変換や、カラーからモノクロへの色変換、またはRGB色空間から別のRGB色空間への色変換を行う。フィルタ処理部212は、エッジ強調やスムージングなどのシャープネス処理を行う。トラッピング処理部213は、色版同士のずれによる白抜けを防ぐため、隣接する画素へ色版を潜り込ませるトラッピング処理を行う。ガンマ処理部214は、プリンタの特性に応じて1次元のLUT(ルックアップテーブル)を用いたガンマ処理を行う。その他、画像処理部104では、ガンマ処理された画像に対して行うディザリング処理等も行われる。 The image processing unit 104 performs various image processing using the raster image and attribute information generated by the command execution unit 206 or the raster image and attribute information stored in the auxiliary storage device 111. For example, the color conversion processing unit 211 of the image processing unit 104 performs color conversion from an RGB color space to a CMYK color space, color conversion from color to monochrome, or color conversion from an RGB color space to another RGB color space. conduct. The filter processing unit 212 performs sharpness processing such as edge enhancement and smoothing. The trapping processing unit 213 performs trapping processing in which the color planes sneak into adjacent pixels in order to prevent white spots due to misalignment between the color planes. The gamma processing unit 214 performs gamma processing using a one-dimensional LUT (lookup table) according to the characteristics of the printer. In addition, the image processing unit 104 also performs dithering processing on the gamma-processed image.

また本実施形態の場合、画像処理部104は、補助記憶装置111に蓄積されたラスタ画像を基に、後述するような弁別性を向上させるための所定の画像処理(以下、弁別性向上処理と呼ぶ)や、プレビュー画像を生成するための画像処理等をも行う。詳細は後述するが、弁別性向上処理は、フィルタ処理部212またはトラッピング処理部213により実現される。プレビュー画像を生成するための画像処理についてもその詳細は後述する。 Furthermore, in the case of the present embodiment, the image processing unit 104 performs predetermined image processing (hereinafter referred to as discriminability improvement processing) for improving discriminability as described later based on the raster images accumulated in the auxiliary storage device 111. It also performs image processing to generate preview images. Although details will be described later, the discriminability improvement process is realized by the filter processing section 212 or the trapping processing section 213. The image processing for generating the preview image will also be described in detail later.

プレビュー制御部225は、補助記憶装置111に蓄積されたラスタ画像および属性情報を基に画像処理部104が後述するようにして生成するプレビュー画像を、表示部125にプレビューするための制御を行う。送信制御部226は、補助記憶装置111に蓄積されたラスタ画像を、画像送信部126から外部に送信するための制御を行う。 The preview control unit 225 performs control to preview, on the display unit 125, a preview image generated by the image processing unit 104 as described later based on the raster image and attribute information stored in the auxiliary storage device 111. The transmission control unit 226 performs control for transmitting the raster images stored in the auxiliary storage device 111 from the image transmission unit 126 to the outside.

なお、画像形成装置101のコマンド処理部102から画像処理部104までの各機能部は、CPU105が本実施形態に係るプログラムを実行することで実現されるとするが、それらの一部または全てが回路等のハードウェア構成により実現されてもよい。 Note that each functional unit from the command processing unit 102 to the image processing unit 104 of the image forming apparatus 101 is realized by the CPU 105 executing the program according to the present embodiment, but some or all of them may be It may be realized by a hardware configuration such as a circuit.

次に図2のコマンド処理部102で行われる処理の詳細について、図3を用いて説明する。図3は、図2のコマンド解析部204がコマンドを解析し、コマンド実行部206がRIPの処理を実行することでラスタ画像を生成する例の説明に用いる図である。図3(a)は描画コマンド300の記述内容の一例を表した図であり、図3(b)は図3(a)の描画コマンド300に基づいて生成されるラスタ画像の一例を示した図である。以下、コマンド解析部204がPDLで記述されるコマンドの解析を行い、そのコマンド解析部204による解析結果に応じてコマンド実行部206がRIPの処理を実行してラスタ画像を生成する流れを説明する。 Next, details of the processing performed by the command processing unit 102 in FIG. 2 will be explained using FIG. 3. FIG. 3 is a diagram used to explain an example in which the command analysis unit 204 in FIG. 2 analyzes a command, and the command execution unit 206 executes RIP processing to generate a raster image. FIG. 3(a) is a diagram showing an example of the description content of the drawing command 300, and FIG. 3(b) is a diagram showing an example of a raster image generated based on the drawing command 300 of FIG. 3(a). It is. The following describes the flow in which the command analysis unit 204 analyzes a command written in PDL, and the command execution unit 206 executes RIP processing to generate a raster image according to the analysis result by the command analysis unit 204. .

ここで、コマンドには、描画コマンドと制御コマンドとがある。
描画コマンドには、カラーモード設定コマンド、色設定コマンド、オブジェクト描画コマンド、文字サイズ設定コマンド、フォント設定コマンド、文字描画コマンド、座標設定コマンド、線太さ設定コマンド、イメージ描画コマンド等が含まれる。カラーモード設定コマンドは印刷データのカラーモードを設定するコマンドであり、色設定コマンドは色を設定するコマンドである。オブジェクト描画コマンドは、グラフィックや文字、イメージ等の各オブジェクトを描画するコマンドである。文字サイズ設定コマンドは文字のサイズを設定するコマンド、フォント設定コマンドは文字のフォントを設定するコマンド、文字描画コマンドは文字を描画するコマンドである。座標設定コマンドは座標を設定するコマンドであり、線太さ設定コマンドは線の太さを設定するコマンド、イメージ描画コマンドはイメージを描画するコマンドである。これら描画コマンドの一連のコマンドの構成は、オブジェクトの種類等に限らず同様な構成となされている。
Here, commands include drawing commands and control commands.
The drawing commands include a color mode setting command, a color setting command, an object drawing command, a character size setting command, a font setting command, a character drawing command, a coordinate setting command, a line thickness setting command, an image drawing command, and the like. The color mode setting command is a command for setting the color mode of print data, and the color setting command is a command for setting colors. Object drawing commands are commands for drawing objects such as graphics, characters, and images. The character size setting command is a command to set the size of characters, the font setting command is a command to set the font of characters, and the character drawing command is a command to draw characters. The coordinate setting command is a command for setting coordinates, the line thickness setting command is a command for setting line thickness, and the image drawing command is a command for drawing an image. The configuration of a series of these drawing commands is similar regardless of the type of object.

制御コマンドには、フィニッシング情報指定コマンド、変換指定コマンド、蓄積指定コマンド、弁別性向上処理指定コマンドなどが含まれる。フィニッシング情報指定コマンドは、印刷データに対してA4やA3といった紙サイズ指定、1枚の出力紙に2ページを納めるいわゆる2in1設定、両面に印字する指定などのフィニッシング情報を指定するコマンドである。変換指定コマンドは印刷データをモノクロなどに変換する指定コマンド、蓄積指定コマンドは補助記憶装置111に画像を蓄積するか否かを指定するコマンドである。弁別性向上処理指定コマンドは、後述する弁別性向上処理の実行を指定するコマンドである。 The control commands include a finishing information designation command, a conversion designation command, an accumulation designation command, a discriminability improvement process designation command, and the like. The finishing information designation command is a command that designates finishing information for print data, such as paper size designation such as A4 or A3, so-called 2-in-1 setting to fit two pages on one output paper, and designation to print on both sides. The conversion designation command is a designation command for converting print data into monochrome or the like, and the storage designation command is a command for designating whether or not to store images in the auxiliary storage device 111. The discriminability improvement process designation command is a command that specifies execution of a discriminability improvement process, which will be described later.

図3(a)に記載されている描画コマンド300の内容について説明する。なお、以降の描画コマンド300や色値は、8bit画像を前提とするものとする。
描画コマンド300の3番目の「Set Color(255,128,128)」は色設定コマンドであり、RGB値がR=255、G=128、B=128の赤をセットすることを示している。また4番目の「Draw Box(座標(X1,Y1),座標(X2,Y2)塗りつぶし)」はオブジェクト描画コマンドであり、座標(X1,Y1)から座標(X2,Y2)にかけて長方形のオブジェクトを描画することを示している。すなわち3番目の色設定コマンドと4番目のオブジェクト描画コマンドとにより、長方形の赤のオブジェクトを描画する旨が示されている。同様に、5番目の色設定コマンドであるSet Color(153,153,255)」は、RGB値がR=153、G=153、B=255の青をセットすることを示している。また6番目のオブジェクト描画コマンドであるDraw Box(座標(X2,Y1),座標(X3,Y2)塗りつぶし)」は、座標(X2,Y1)から座標(X3,Y2)にかけて長方形のオブジェクトを描画することを示している。すなわち5番目の色設定コマンドと6番目のオブジェクト描画コマンドとにより、長方形の青のオブジェクトを描画する旨が示されている。
The contents of the drawing command 300 shown in FIG. 3(a) will be explained. Note that the subsequent drawing commands 300 and color values are based on an 8-bit image.
The third “Set Color (255, 128, 128)” of the drawing commands 300 is a color setting command, and indicates setting red with RGB values of R=255, G=128, and B=128. The fourth "Draw Box (coordinates (X1, Y1), coordinates (X2, Y2) fill)" is an object drawing command that draws a rectangular object from coordinates (X1, Y1) to coordinates (X2, Y2). It shows that. That is, the third color setting command and the fourth object drawing command indicate that a rectangular red object is to be drawn. Similarly, the fifth color setting command "Set Color (153, 153, 255)" indicates that blue with RGB values of R=153, G=153, and B=255 is set. The sixth object drawing command, Draw Box (coordinates (X2, Y1), coordinates (X3, Y2) fill), draws a rectangular object from coordinates (X2, Y1) to coordinates (X3, Y2). It is shown that. That is, the fifth color setting command and the sixth object drawing command indicate that a rectangular blue object is to be drawn.

そして、コマンド解析部204による描画コマンド300の解析に応じて、コマンド実行部206がRIPの処理を実行し、これにより図3(b)に示すようなラスタ画像301と302が生成される。すなわち図3(b)において、ラスタ画像301は図3(a)に示した描画コマンド300における3番目と4番目のコマンドにより描画されてRIPが実行された画像であり赤色の長方形の画像となる。同様にラスタ画像302は描画コマンド300における5番目と6番目のコマンドにより描画されてRIPの処理が実行された画像であり青色の長方形の画像となる。 Then, in response to the analysis of the drawing command 300 by the command analysis unit 204, the command execution unit 206 executes RIP processing, thereby generating raster images 301 and 302 as shown in FIG. 3(b). That is, in FIG. 3(b), a raster image 301 is an image drawn by the third and fourth commands in the drawing command 300 shown in FIG. 3(a) and subjected to RIP, and becomes a red rectangular image. . Similarly, the raster image 302 is an image drawn by the fifth and sixth commands in the drawing command 300 and subjected to RIP processing, and becomes a blue rectangular image.

<カラーからモノクロへの変換時の弁別性向上処理>
次に本実施形態において、カラー画像をモノクロ変換(グレー変換)して出力するような場合を例に挙げて、カラーからモノクロへの変換時の弁別性向上処理を説明する。
ここで、カラー画像をモノクロ変換(グレー変換)した場合、色相および彩度情報がなくなるため、カラー画像では異なる色同士であったオブジェクトの見分けがつかなくなること、つまり弁別し難くなることがある。
<Processing to improve discrimination when converting from color to monochrome>
Next, in this embodiment, a process for improving discriminability when converting from color to monochrome will be described, taking as an example a case where a color image is converted to monochrome (gray conversion) and output.
Here, when a color image is converted to monochrome (gray conversion), hue and saturation information is lost, so objects of different colors in the color image may become indistinguishable, or difficult to distinguish.

図4(a)は入力画像401の一例を示した図である。図4(a)に例示した入力画像401には、グラフィック402および文字403の隣接したオブジェクトと、グラフィックや文字以外のオブジェクトである写真等のイメージ404とが含まれているとする。すなわち入力画像401の例では、塗りつぶされた四角のオブジェクトがグラフィック402であり、そのグラフィック402の中に、英数字「0」の文字503のオブジェクトがあるとする。また、グラフィック402はRGB値が例えば(255,128,128)の赤、文字403はRGB値が例えば(153,153,255)の青であるとする。一方、ドットで塗りつぶされた四角のオブジェクトは写真等のイメージ404であるとする。 FIG. 4A is a diagram showing an example of an input image 401. It is assumed that the input image 401 illustrated in FIG. 4A includes adjacent objects such as a graphic 402 and characters 403, and an image 404 such as a photograph that is an object other than graphics or characters. That is, in the example of the input image 401, it is assumed that the filled rectangular object is a graphic 402, and that the graphic 402 includes an object of the alphanumeric character "0" 503. Further, it is assumed that the graphic 402 is red with an RGB value of (255, 128, 128), for example, and the character 403 is blue with an RGB value of (153, 153, 255), for example. On the other hand, it is assumed that a square object filled with dots is an image 404 such as a photograph.

この図4(a)に示したような入力画像401を、例えば一般的なNTSC変換によってモノクロ変換するようなことを想定した場合、以下の変換式のように、RGB値に重み付けしてモノクロ変換する処理が行われることになる。すなわちグラフィック402は、0.299×255+0.587×128+0.114×128=166のグレー値となされ、文字403は0.299×153+0.587×153+0.114×255=165のグレー値となされる。この場合、隣接するグラフィック402と文字403に対するモノクロ変換後のグレー値は166と165であり略々同じ値であるため、特にグラフィック402の中にある文字403が見分けられなく(弁別できなく)なってしまう。そこで、本実施形態では、それらグラフィック属性と文字属性の両オブジェクトを、第1の属性のオブジェクトとし、隣接する第1の属性のオブジェクトに対して後述する弁別性向上処理を行う。これにより、本実施形態では、略々同じグレー値であっても弁別可能(特に文字403を弁別可能)な出力が得られるようにする。すなわち図4(a)の入力画像401の場合、後述する弁別性向上処理の対象領域となる第1の属性のオブジェクトは、グラフィック402および文字403のオブジェクトである。一方、画像内の写真等のイメージのオブジェクトについては、そのイメージが持つ階調性を重視したモノクロ変換を行い、弁別性向上処理の対象とはしない。このため、本実施形態の場合、写真等のイメージのオブジェクトは、第1の属性とは異なる第2の属性のオブジェクトとして扱う。 If it is assumed that the input image 401 shown in FIG. 4(a) is converted into monochrome by general NTSC conversion, for example, the RGB values are weighted and converted into monochrome as shown in the conversion formula below. The following processing will be performed. That is, the graphic 402 has a gray value of 0.299×255+0.587×128+0.114×128=166, and the character 403 has a gray value of 0.299×153+0.587×153+0.114×255=165. . In this case, the gray values of the adjacent graphic 402 and character 403 after monochrome conversion are 166 and 165, which are almost the same values, so the character 403 in the graphic 402 in particular becomes indistinguishable (indistinguishable). It ends up. Therefore, in the present embodiment, both of the graphic attribute and character attribute objects are treated as objects of the first attribute, and the discriminability improvement process described below is performed on adjacent objects of the first attribute. As a result, in this embodiment, it is possible to obtain an output that can be distinguished even if the gray values are substantially the same (in particular, the characters 403 can be distinguished). In other words, in the case of the input image 401 in FIG. 4A, the objects of the first attribute that are the target areas of the discriminability improvement processing described later are the graphic 402 and character 403 objects. On the other hand, for image objects such as photographs in the image, monochrome conversion is performed with emphasis on the gradation of the image, and the object is not subjected to the discrimination improvement process. Therefore, in this embodiment, an image object such as a photograph is treated as an object with a second attribute different from the first attribute.

第1の実施形態の画像形成装置101では、カラー画像をモノクロ変換する場合に、カラー画像内で隣接する第1の属性のオブジェクト同士の境界にエッジ(境界線)を付加する。これにより、モノクロ変換後の文字とグラフィックの弁別性を向上させる。すなわち本実施形態の場合、画像形成装置101において、隣接する第1の属性のオブジェクト同士の弁別性向上処理として、それらオブジェクト間の境界にエッジを付加するエッジ強調処理を行う。 In the image forming apparatus 101 of the first embodiment, when converting a color image into monochrome, an edge (border line) is added to the boundary between adjacent objects of the first attribute in the color image. This improves the distinguishability between characters and graphics after monochrome conversion. That is, in the case of this embodiment, the image forming apparatus 101 performs edge enhancement processing to add an edge to the boundary between adjacent objects of the first attribute as a discriminability improvement processing between the objects.

図4(b)の画像405は、図4(a)に例示した入力画像401に対して、第1の実施形態の画像形成装置101で弁別性向上処理を行ったモノクロ変換の結果を示している。本実施形態に係る弁別性向上処理では、図4(a)のグラフィック402と文字403との境界部に濃い(または薄い)エッジが付加されたことで、図4(b)のようなグラフィック406と文字407となる。すなわちグラフィック402と文字403がそれぞれ略々同じグレー値に変換されていても、図4(b)のようなグラフィック406と文字407のように弁別可能となっている。なお、図4(a)のイメージ404については、図4(b)では階調性を重視したモノクロ変換がなされたイメージ408となされる。 An image 405 in FIG. 4(b) shows the result of monochrome conversion in which the image forming apparatus 101 of the first embodiment performs discriminability improvement processing on the input image 401 illustrated in FIG. 4(a). There is. In the discriminability improvement processing according to this embodiment, by adding a dark (or thin) edge to the boundary between the graphic 402 and the character 403 in FIG. 4(a), the graphic 406 as shown in FIG. 4(b) becomes the character 407. That is, even if the graphic 402 and the characters 403 are converted to substantially the same gray value, they can be distinguished as the graphic 406 and the characters 407 shown in FIG. 4(b). Note that the image 404 in FIG. 4(a) is converted into an image 408 in FIG. 4(b) after monochrome conversion with emphasis on gradation.

ここで、カラー画像をモノクロ変換(グレー変換)して印刷等する場合、一般的には、ホストPC119側のプリンタドライバ202においてモノクロ出力が指定される。そして、ホストPC119側のアプリケーション201やプリンタドライバ202でモノクロ変換が行われて、画像形成装置側に蓄積される画像もモノクロ画像となる。
これに対し、本実施形態の場合、画像形成装置101において弁別性向上処理を行うために、ホストPC119側のプリンタドライバ202でモノクロ出力が指定されていても、画像形成装置101にはカラー画像を示す印刷データが入力される。またこのときホストPC119から画像形成装置101に送られる描画コマンドのカラーモード指定コマンドはモノクロを指定するものとなされ、制御コマンドの変換指定コマンドはモノクロ変換を指定するものとなされる。また画像形成装置101に画像を蓄積することが指定されている場合、制御コマンドの蓄積指定コマンドは画像を蓄積することを示すものとなされる。さらに、画像形成装置101で弁別性向上処理を行うことが指定されている場合、制御コマンドの弁別性向上処理指定コマンドは弁別性向上処理を行うことを示すものとなされる。
Here, when a color image is converted to monochrome (gray conversion) and printed, etc., monochrome output is generally specified in the printer driver 202 on the host PC 119 side. Then, monochrome conversion is performed by the application 201 and printer driver 202 on the host PC 119 side, and the image stored on the image forming apparatus side also becomes a monochrome image.
In contrast, in the case of the present embodiment, in order to perform discriminability improvement processing in the image forming apparatus 101, even if monochrome output is specified by the printer driver 202 on the host PC 119 side, the image forming apparatus 101 does not output a color image. The print data shown is input. Further, at this time, the color mode designation command of the drawing command sent from the host PC 119 to the image forming apparatus 101 designates monochrome, and the conversion designation command of the control command designates monochrome conversion. Further, if it is specified that the image forming apparatus 101 is to store images, the storage designation command of the control command is set to indicate that the images are to be stored. Furthermore, if the image forming apparatus 101 is designated to perform the discriminability improvement process, the discriminability improvement process designation command of the control command is set to indicate that the discriminability improvement process is to be performed.

図5は、第1の実施形態の画像形成装置101における弁別性向上処理の流れを示したフローチャートである。なお、これ以降の各フローチャートでは、各処理ステップ(処理工程)を「S」により表すとする。また、以降の各フローチャートの処理は、前述した図2の対応した各機能部によって行われる。 FIG. 5 is a flowchart showing the flow of discriminability improvement processing in the image forming apparatus 101 of the first embodiment. Note that in each flowchart that follows, each processing step (processing step) is represented by "S". Further, the processes in each of the subsequent flowcharts are performed by the corresponding functional units shown in FIG. 2 described above.

S501において、コマンド実行部206は、RIPの処理を実行し、ラスタ画像および属性情報を生成する。
次にS502において、画像処理部104は、文字やグラフィックのような第1の属性の各オブジェクト同士の境界部分にエッジを付加するエッジ強調処理を行う。S502におけるエッジ強調処理は、フィルタ処理部212におけるフィルタ処理、もしくはトラッピング処理部213におけるトラッピング処理により実現される。フィルタ処理部212によるフィルタ処理、またはトラッピング処理部213によるトラッピング処理の詳細は後述する。なお、図4(a)に示したイメージ404には、第2の属性のオブジェクトであるため、エッジ強調処理の対象外となされる。つまり、写真等のイメージの場合、エッジ強調処理は実施されない。
In S501, the command execution unit 206 executes RIP processing and generates a raster image and attribute information.
Next, in S502, the image processing unit 104 performs edge enhancement processing to add edges to the boundary portions between objects of the first attribute such as characters and graphics. The edge enhancement processing in S502 is realized by filter processing in the filter processing unit 212 or trapping processing in the trapping processing unit 213. Details of the filter processing by the filter processing section 212 or the trapping processing by the trapping processing section 213 will be described later. Note that since the image 404 shown in FIG. 4A is an object of the second attribute, it is not subject to edge enhancement processing. In other words, in the case of images such as photographs, edge enhancement processing is not performed.

次にS503において、画像処理部104は、カラーのラスタ画像をモノクロ変換する。カラーからモノクロへの変換は、色変換処理部211において行われる。ここでは、S502でエッジ強調処理がなされたオブジェクトを含む全てのオブジェクトがモノクロ変換される。例えば、色変換処理部211への入力画像がRGB空間の画像である場合、色変換処理部211は、RGBの各値に重み付けをしてグレー値を算出した後、その値を反転することで濃度信号値であるKの値を算出する。また例えば、色変換処理部211の入力画像がCMYK空間の画像である場合、色変換処理部211は、CMYKの各値をKの信号値に変換する。なお、ここでは弁別性向上処理についてのみ説明しているが、その他必要な画像処理も適宜実行され、それら画像処理後の画像データが画像出力部109へ送信される。 Next, in S503, the image processing unit 104 converts the color raster image into monochrome. Conversion from color to monochrome is performed in the color conversion processing unit 211. Here, all objects including the object subjected to edge enhancement processing in S502 are converted to monochrome. For example, if the input image to the color conversion processing unit 211 is an image in RGB space, the color conversion processing unit 211 calculates a gray value by weighting each value of RGB, and then inverts the value. The value of K, which is the density signal value, is calculated. For example, if the input image of the color conversion processing unit 211 is an image in CMYK space, the color conversion processing unit 211 converts each CMYK value into a K signal value. Note that although only the discriminability improvement processing is described here, other necessary image processing is also executed as appropriate, and the image data after these image processing is transmitted to the image output unit 109.

前述したように本実施形態において、画像処理部104では、単純にモノクロ化した場合には弁別できなくなってしまう第1の属性のオブジェクト同士の境界部分にエッジを付加するエッジ強調処理を行った後のカラー画像をモノクロ変換(グレー変換)する。これにより、それらオブジェクト同士は弁別可能となる。 As described above, in this embodiment, the image processing unit 104 performs edge enhancement processing to add edges to the boundary portions between objects of the first attribute, which would become indistinguishable if they were simply converted to monochrome. Converts a color image to monochrome (gray conversion). This allows these objects to be distinguished from each other.

なお、S502のエッジ強調処理は、フィルタ処理やトラッピング処理に限らず、RGBの各色版に対して出力濃度信号値が濃くなるような1次元LUTを適用する処理であってもよい。また、トラッピング処理を適用する場合、トラッピング処理で隣接するオブジェクト間に確実にエッジ強調を行うには、隣接するオブジェクトに同じ色版がないことが必要になるため、事前に色値の調整を行うようにする。 Note that the edge enhancement processing in S502 is not limited to filter processing or trapping processing, but may be processing that applies a one-dimensional LUT that makes the output density signal value darker for each color version of RGB. Also, when applying trapping processing, in order to ensure edge enhancement between adjacent objects during trapping processing, it is necessary that adjacent objects do not have the same color plate, so adjust the color values in advance. Do it like this.

<フィルタ処理部によるエッジ強調処理>
次に、S502にて行われるエッジ強調処理の一例として、フィルタ処理部212のフィルタ処理を適用する場合の例を、図6を参照しながら説明する。ここでは、RGBデータの中で、例えばRの色版についてのみ述べることとする。G,Bの場合も同様であるためそれらの説明は省略する。
<Edge enhancement processing by filter processing unit>
Next, as an example of the edge enhancement processing performed in S502, an example in which filter processing by the filter processing unit 212 is applied will be described with reference to FIG. 6. Here, of the RGB data, only the color version of R, for example, will be described. The same applies to G and B, so their explanation will be omitted.

図6(a)は、エッジ強調処理の対象となる一例の画像601を示した図である。画像601において、例えば、斜線部はRの信号値が200の領域であり、また斜線の無い部分(非斜線部)はRの信号値が255の領域であることを示しているとする。また、図6(b)は、図6(a)の画像601の中に3×3画素で示されるエッジ部602を拡大して示した図である。そして、図6(b)に示したエッジ部602の中で、処理対象となる注目画素は、当該エッジ部602の中心画素612であるとする。さらに図6(c)は、図6(b)に示したエッジ部602の3×3の各画素に対する重みを示した図であり、各画素の中に記されている数値が重みの値を表している。 FIG. 6A is a diagram showing an example image 601 to be subjected to edge enhancement processing. In the image 601, for example, it is assumed that the shaded area indicates an area where the R signal value is 200, and the area without the hatching (non-hatched area) indicates an area where the R signal value is 255. Further, FIG. 6(b) is an enlarged view of an edge portion 602 shown by 3×3 pixels in the image 601 of FIG. 6(a). In the edge portion 602 shown in FIG. 6B, the pixel of interest to be processed is the center pixel 612 of the edge portion 602. Further, FIG. 6(c) is a diagram showing the weight for each 3×3 pixel of the edge portion 602 shown in FIG. 6(b), and the numerical value written in each pixel indicates the weight value. represents.

フィルタ処理部212でのフィルタ処理は、エッジ部602の3×3の各画素に対し、図6(c)に示した重みの値を画素ごとに掛けた後、それらを足し合わせた値を中心画素612(注目画素)の信号値とするシャープネス処理である。このシャープネス処理は、下記の式(1)で表される。 The filter processing in the filter processing unit 212 is performed by multiplying each 3×3 pixel of the edge portion 602 by the weight value shown in FIG. This is sharpness processing that uses the signal value of the pixel 612 (the pixel of interest). This sharpness processing is expressed by the following equation (1).

(中心画素の信号値)=200×0+200×(-1)+255×0+200×(-1)+200×5+255×(-1)+200×0+200×(-1)+255×0=145 式(1) (Signal value of center pixel) = 200 x 0 + 200 x (-1) + 255 x 0 + 200 x (-1) + 200 x 5 + 255 x (-1) + 200 x 0 + 200 x (-1) + 255 x 0 = 145 Formula (1)

図6(d)に示した3×3画素のエッジ部603は、式(1)による、(中心画素の信号値)=145となるシャープネス処理が行われた後の3×3画素を表した図である。シャープネス処理が行われた後のエッジ部603では、中心画素613が当該シャープネス処理によって濃くなるため、図6(d)の中心画素613では、図6(d)のエッジ部602の中心画素612よりも濃いことを斜線部の斜線数を多くして表している。 The 3×3 pixel edge portion 603 shown in FIG. 6(d) represents the 3×3 pixels after sharpness processing has been performed such that (signal value of center pixel)=145 according to equation (1). It is a diagram. In the edge portion 603 after the sharpness processing has been performed, the center pixel 613 becomes darker due to the sharpness processing, so the center pixel 613 in FIG. 6(d) is darker than the center pixel 612 in the edge portion 602 in FIG. 6(d). The number of diagonal lines in the shaded area is increased to indicate that the area is also darker.

このような処理は、図6(a)の画像601の全ての画素に対して行われるため、それら処理後の画像は、図6(e)に示すようにエッジ部614が濃くなされた画像、つまりエッジ強調がなされた画像604となる。
以上、Rの色版を例に挙げて説明したが、G,Bについても同様の処理が行われる。なおここではRGBを例に挙げたが、CMYKデータなど別の色空間に対しても同様に処理することができる。
Since such processing is performed on all pixels of the image 601 in FIG. 6(a), the image after such processing is an image in which the edge portion 614 is darkened as shown in FIG. 6(e), In other words, the image 604 is edge-enhanced.
Although the explanation has been given above using the R color plate as an example, similar processing is performed for G and B as well. Although RGB is taken as an example here, other color spaces such as CMYK data can be similarly processed.

<トラッピング処理>
次に、S502にて行われるエッジ強調処理の他の例として、トラッピング処理部213によるトラッピング処理を適用する場合の例を、図7を参照しながら説明する。
ここで一般に、トラッピング処理はCMYKに変換してから行われるので、画像の色がRGBである場合にはCMYKに変換してからトラッピング処理が行われる。以下、CMYKのうちCとMの色版が隣り合う場合を例に挙げて説明する。
<Trapping process>
Next, as another example of the edge enhancement processing performed in S502, an example in which trapping processing by the trapping processing unit 213 is applied will be described with reference to FIG. 7.
Generally, the trapping process is performed after converting to CMYK, so if the color of the image is RGB, the trapping process is performed after converting to CMYK. Hereinafter, an example will be described in which the C and M color plates of CMYK are adjacent to each other.

図7(a)は、トラッピング処理の対象となる一例の画像701を示した図である。画像701において、斜線部はCMYKのうちCの画素値が128の領域であり、ドット部はCMYKのうちMの画素値が128の領域であることを示しているとする。図7(b)は、図7(a)の画像701の中の3×3画素で示されるエッジ部702を拡大して示した図である。また図7(b)において、CMYKのうちCの色版だけを示したのがエッジ部721であり、Mの色版だけを示したのがエッジ部722であるとする。そして、図7(b)に示したエッジ部702の中で、処理対象となる注目画素は当該エッジ部702の中心画素712である。さらに図7(c)は、図7(b)に示したエッジ部702の3×3の各画素に対する重みを示した図であり、各画素の中に記されている数値が重みの値を表している。 FIG. 7A is a diagram showing an example image 701 to be subjected to trapping processing. In the image 701, it is assumed that the shaded area indicates an area where the pixel value of C among CMYK is 128, and the dotted area indicates an area where the pixel value of M among CMYK is 128. FIG. 7(b) is an enlarged view of an edge portion 702 represented by 3×3 pixels in the image 701 of FIG. 7(a). Further, in FIG. 7B, it is assumed that an edge portion 721 shows only the C color portion of CMYK, and an edge portion 722 shows only the M color portion. In the edge portion 702 shown in FIG. 7B, the pixel of interest to be processed is the center pixel 712 of the edge portion 702. Further, FIG. 7(c) is a diagram showing the weight for each 3×3 pixel of the edge portion 702 shown in FIG. 7(b), and the numerical value written in each pixel indicates the weight value. represents.

トラッピング処理部213でのトラッピング処理は、図7(a)に示したエッジ部702の3×3の各画素において、注目画素である中心画素712に存在しない色版を周囲から取ってくる処理である。このため、図7(b)に例示したエッジ部721のように注目画素(中心画素712)にCの色版がある場合、Cの色版の値を注目画素の周囲から取ってくるというトラッピング処理は行わない。 The trapping process performed by the trapping processing unit 213 is a process in which, in each 3×3 pixel of the edge portion 702 shown in FIG. be. For this reason, when there is a color plate of C in the pixel of interest (center pixel 712), as in the edge portion 721 illustrated in FIG. No processing is performed.

一方、Mの色版だけを示したエッジ部722の注目画素(中心画素712)にはMの色版がないため、Mの色版の値を当該注目画素の周囲から取ってくるトラッピング処理が行われる。すなわちここで、Mの色版の値を周囲から取ってくるトラッピング処理は、図7(b)に示したエッジ部722の3×3の各画素に対して、図7(c)に示した重みを掛けることで中心の画素値を得る処理となる。このトラッピング処理による中心画素のMの画素値は、式(2)のような演算処理で表される画素値となる。 On the other hand, since there is no M color plate in the pixel of interest (center pixel 712) in the edge portion 722 that shows only the M color plate, trapping processing that takes the value of the M color plate from the surroundings of the pixel of interest is performed. It will be done. That is, here, the trapping process that takes the value of the M color plate from the surroundings is performed as shown in FIG. 7(c) for each 3×3 pixel of the edge portion 722 shown in FIG. 7(b). By applying weights, the central pixel value is obtained. The pixel value of M of the center pixel obtained by this trapping process becomes a pixel value expressed by arithmetic processing such as equation (2).

(中心画素のMの画素値)=128×100%=128 式(2) (M pixel value of center pixel) = 128 x 100% = 128 Formula (2)

そして、この重み付け後のエッジ部722と、エッジ部721のCの色版とを合わせると、図7(d)のエッジ部703に示すように、中心の画素713では(中心画素の画素値)=(C,M,Y,K)=(128,128,0,0)となる。 Then, when the edge portion 722 after weighting and the C color plate of the edge portion 721 are combined, as shown in the edge portion 703 in FIG. =(C,M,Y,K)=(128,128,0,0).

トラッピング処理では、図7(a)の画像701の全ての画素に対して行われる。これにより、トラッピング処理後の画像は、図7(e)の画像704に示すように、Cの色版とMの色版の境界部714においてCの色版とMの色版が重なるようになった画像となる。そして、CMYKのデータをKのデータへ変換する色変換は、C+M+Y+K=K'とすればよく、Cの色版とMの色版の境界部以外のCの色版部分は、(C,M,Y,K)=(128,0,0,0)→(128)となる。またCの色版とMの色版の境界部は(C,M,Y,K)=(128,128,0,0)→(256)となる。 The trapping process is performed on all pixels of the image 701 in FIG. 7(a). As a result, the image after the trapping process is such that the C color plate and the M color plate overlap at the boundary 714 between the C color plate and the M color plate, as shown in the image 704 in FIG. 7(e). The image becomes The color conversion for converting CMYK data to K data can be done as C+M+Y+K=K', and the C color plate portion other than the boundary between the C color plate and the M color plate is (C, M , Y, K)=(128,0,0,0)→(128). Further, the boundary between the C color plate and the M color plate becomes (C, M, Y, K)=(128,128,0,0)→(256).

<印刷データ取得からプレビューまでの処理>
次に、前述したようなエッジ強調処理による弁別性向上処理が行われる場合において、蓄積された画像を基にプレビュー画像を生成してプレビューする場合の処理について説明する。弁別性向上処理を行うか否かは、ホストPC119から供給される印刷データに含まれる弁別性向上処理指定コマンドによって指定される。以下、弁別性向上処理が指定されている際に、印刷データに基づく画像をプレビューする処理について、図8のフローチャートを参照しながら説明する。図8のフローチャートは、画像形成装置101において印刷データの取得からプレビューが行われるまでの処理の流れを示している。
<Processing from print data acquisition to preview>
Next, a process will be described in which a preview image is generated and previewed based on the accumulated images in the case where the discriminability improvement process by the edge enhancement process as described above is performed. Whether or not to perform the distinctiveness improvement process is specified by a distinctiveness improvement process designation command included in the print data supplied from the host PC 119. The process of previewing an image based on print data when the discriminability improvement process is specified will be described below with reference to the flowchart of FIG. 8. The flowchart in FIG. 8 shows the flow of processing in the image forming apparatus 101 from acquisition of print data to previewing.

まずS801において、画像形成装置101は、ホストPC119から前述した印刷データを取得する。
次にS802において、コマンド処理部102のコマンド解析部204は、ホストPC119より取得した印刷データから、描画コマンドと制御コマンドを解析する。すなわちコマンド解析部204は、制御コマンドから、カラーモードの指定、色変換の指定、弁別性向上処理の指定、画像を保存するか否かの指定などの情報を取得する。また、コマンド解析部204は、描画コマンドから、印刷データ内の各オブジェクトの属性情報などを取得する。
First, in S801, the image forming apparatus 101 acquires the above-described print data from the host PC 119.
Next, in step S<b>802 , the command analysis unit 204 of the command processing unit 102 analyzes a drawing command and a control command from the print data acquired from the host PC 119 . That is, the command analysis unit 204 acquires information such as color mode designation, color conversion designation, discrimination improvement processing designation, and designation of whether to save an image from the control command. The command analysis unit 204 also acquires attribute information of each object in the print data from the drawing command.

次にS803において、コマンド実行部206はRIPの処理を実行し、ラスタ画像を生成する。ここで、カラーモードがカラーの指定である場合、コマンド実行部206はカラーのラスタ画像を生成する。また、カラーモードがモノクロの指定であって、弁別性向上処理の指定が無い場合、コマンド実行部206は、モノクロのラスタ画像を生成する。一方、カラーモードがモノクロの指定であり、且つ弁別性向上処理の指定が有る場合、コマンド実行部206は、カラーのラスタ画像を生成する。 Next, in S803, the command execution unit 206 executes RIP processing and generates a raster image. Here, if the color mode is specified as color, the command execution unit 206 generates a color raster image. Further, if the color mode is specified as monochrome and the discriminability improvement process is not specified, the command execution unit 206 generates a monochrome raster image. On the other hand, when the color mode is specified as monochrome and the discriminability improvement process is specified, the command execution unit 206 generates a color raster image.

次にS804において、蓄積制御部103は、画像、属性情報およびコマンド解析結果の各データを保存(蓄積)するか否か判断する。このデータを保存するか否かの判断は、S802でコマンド解析部204が解析した結果を基に行われる。すなわち画像を蓄積する指定が無い場合、蓄積制御部103はS804において保存しないと判断し、CPU105の処理はS809に進む。S809に進むと、画像処理部104はプリンタ画像処理を実行する。一方、画像を蓄積する指定が有る場合、蓄積制御部103はS804において保存すると判断し、CPU105の処理はS805に進む。そしてS805に進むと、蓄積制御部103は、ラスタ画像と属性情報、およびコマンド解析結果を、補助記憶装置111に保存させる。 Next, in S804, the accumulation control unit 103 determines whether to save (accumulate) each data of the image, attribute information, and command analysis result. A determination as to whether or not to save this data is made based on the results analyzed by the command analysis unit 204 in S802. That is, if there is no designation to store the image, the storage control unit 103 determines not to store the image in S804, and the process of the CPU 105 advances to S809. Proceeding to S809, the image processing unit 104 executes printer image processing. On the other hand, if there is a designation to store the image, the storage control unit 103 determines to store it in S804, and the process of the CPU 105 advances to S805. Then, proceeding to S805, the accumulation control unit 103 causes the auxiliary storage device 111 to store the raster image, attribute information, and command analysis results.

S805の後、蓄積制御部103は、S806において、保存したコマンド解析結果を参照して、弁別性向上処理の指定が有るか否かを判断する。
S806において弁別性向上処理の指定が無いと判断した場合、CPU105の処理はS808に進む。ここで、弁別性向上処理の指定が無い場合、S803において生成されてS805で保存されたラスタ画像は既にモノクロ化されている。このため、S808に進むと、蓄積制御部103は保存されているモノクロのラスタ画像をプレビュー制御部225へ送り、プレビュー制御部225はその画像をプレビュー画像として表示部125に表示させる。
After S805, in S806, the accumulation control unit 103 refers to the saved command analysis results and determines whether or not discriminability improvement processing is specified.
If it is determined in S806 that the discriminability improvement process is not specified, the process of the CPU 105 proceeds to S808. Here, if the discriminability improvement process is not specified, the raster image generated in S803 and saved in S805 has already been converted to monochrome. Therefore, in step S808, the accumulation control unit 103 sends the stored monochrome raster image to the preview control unit 225, and the preview control unit 225 displays the image on the display unit 125 as a preview image.

一方、S806において弁別性向上処理の指定が有ると判断した場合、CPU105の処理はS807に進む。ここで、弁別性向上処理の指定が有る場合、S803で生成されてS805で保存されたラスタ画像はカラーである。このため、S807に進んだ場合、蓄積制御部103は、そのカラーのラスタ画像を画像処理部104に送り、画像処理部104はそのカラーのラスタ画像からプレビュー画像を生成する処理を行う。その後、CPU105の処理はS808に進む。 On the other hand, if it is determined in S806 that the discriminability improvement process is specified, the process of the CPU 105 advances to S807. Here, if the discriminability improvement process is specified, the raster image generated in S803 and saved in S805 is in color. Therefore, when the process advances to S807, the accumulation control unit 103 sends the color raster image to the image processing unit 104, and the image processing unit 104 performs processing to generate a preview image from the color raster image. Thereafter, the process of the CPU 105 advances to S808.

図9は、S807におけるプレビュー画像生成処理の流れを示すフローチャートである。
まずS901において、画像処理部104は、蓄積制御部103を介して補助記憶装置111から読み出されたラスタ画像および属性情報を取得する。そして、画像処理部104は、属性情報がグラフィック属性または文字属性のオブジェクトを示しているかどうかを判定する。前述した図4(a)の例の場合、グラフィック402と文字403については属性情報がグラフィック属性と文字属性を示してため、画像処理部104の処理はS903に進む。一方、図4(a)のイメージ404の場合、属性情報がグラフィック属性または文字属性を示していないため、画像処理部104の処理はS902に進む。
FIG. 9 is a flowchart showing the flow of preview image generation processing in S807.
First, in S901, the image processing unit 104 acquires the raster image and attribute information read from the auxiliary storage device 111 via the storage control unit 103. Then, the image processing unit 104 determines whether the attribute information indicates an object with a graphic attribute or a text attribute. In the case of the example shown in FIG. 4A described above, the attribute information for the graphic 402 and the characters 403 indicates the graphic attribute and the character attribute, so the processing of the image processing unit 104 proceeds to S903. On the other hand, in the case of the image 404 in FIG. 4A, the attribute information does not indicate a graphic attribute or a text attribute, so the process of the image processing unit 104 proceeds to S902.

属性情報がグラフィック属性または文字属性を示しているためにS903に進んだ場合、それらのグラフィックや文字のオブジェクトの領域は弁別性向上処理の対象領域であるため、画像処理部104は、その領域の画像を第1の画像に変換する。本実施形態において、第1の画像への変換は、例えば、当該領域の画像における各画素の色値を特定のカラーの色値にすることであるとする。一方、属性情報がイメージ属性のためにS902に進んだ場合、そのイメージ属性の領域は弁別性向上処理の対象領域ではないため、画像処理部104は、その領域の画像を第2の画像に変換する。本実施形態において、第2の画像への変換とは、例えば、当該領域の画像におけるRGB値に重みを付けて算出したグレー値にすることであるとする。 If the process advances to step S903 because the attribute information indicates a graphic attribute or text attribute, the image processing unit 104 processes the image processing unit 104 because the areas of those graphic or text objects are target areas for the discriminability improvement process. Converting the image to a first image. In this embodiment, it is assumed that the conversion to the first image is, for example, to change the color value of each pixel in the image of the region to the color value of a specific color. On the other hand, if the attribute information is an image attribute and the process advances to step S902, the area of that image attribute is not a target area of the discriminability improvement process, so the image processing unit 104 converts the image of that area into a second image. do. In this embodiment, it is assumed that the conversion to the second image means, for example, converting the image into a gray value calculated by weighting the RGB values in the image of the region.

本実施形態の場合、S903においてグラフィックや文字の画像を変換する際の特定のカラーの色値は、例えば(255,0,255)のマゼンタとするが、ラスタ画像の画素値を元に決定された色値であってもよい。また本実施形態の場合、S902においてイメージ属性の領域を変換する際のグレー値は、ラスタ画像のRGB値に重みを付けて算出したグレー値とするが、例えば(128,128,128)等の予め決められた特定のグレーの色値でもよい。このようにして画像処理部104にて生成された画像は、プレビュー画像として、蓄積制御部103によってラスタ画像とは別に、例えばRAM107に保存され、その後、S808においてプレビュー制御部225により表示部125に表示される。 In the case of this embodiment, the color value of a specific color when converting a graphic or character image in S903 is magenta (255, 0, 255), for example, but is determined based on the pixel value of the raster image. It may also be a color value. Further, in the case of this embodiment, the gray value when converting the image attribute area in S902 is a gray value calculated by weighting the RGB values of the raster image, for example, (128, 128, 128), etc. It may be a specific predetermined gray color value. The image generated by the image processing unit 104 in this manner is stored as a preview image in the RAM 107 separately from the raster image by the storage control unit 103, and then displayed on the display unit 125 by the preview control unit 225 in S808. Is displayed.

図10(a)は、第1の実施形態において表示部125に表示されるプレビュー画面の一例を示した図である。プレビュー画面には、一例として、プレビュー領域1000、説明表示領域1003、および戻るボタン1004が表示される。プレビュー領域1000には、画像処理部104にて生成されたプレビュー画像が表示される。図4(a)の画像例の場合、グラフィック402と文字403の領域は前述した特定のカラーの色値の領域(カラー領域1001とする)として表示され、イメージ404はモノクロ変換されたグレー領域1002として表示される。また、説明表示領域1003には、プレビュー領域1000に表示されているプレビュー画像に関する説明文が表示される。本実施形態の場合、説明表示領域1003には「カラーの箇所に弁別性向上処理がかかります」の説明文が表示される。すなわちこの説明文は、カラー領域1001のグラフィックと文字(図4(a)に例示したグラフィック402及び文字403の領域)には弁別性向上処理が施されることを表す文である。戻るボタン1004は、プレビュー画面からその一つ前の画面に戻ることをユーザが指示する際に、タッチ等による押下がなされるボタンである。戻るボタン1004が押下(タッチ等)されると、プレビュー制御部225は、プレビュー画面の表示を終了させ、一つ前の処理で表示していた画面に戻す処理を行う。なお、プレビュー領域1000にカラー領域がない場合、説明表示領域1003には、プレビュー領域の画像には弁別性向上処理が行われないことを表す文が表示されてもよい。あるいは、プレビュー領域1000は表示せずに、説明文のみが表示されてもよい。 FIG. 10A is a diagram showing an example of a preview screen displayed on the display unit 125 in the first embodiment. As an example, a preview area 1000, an explanation display area 1003, and a return button 1004 are displayed on the preview screen. A preview image generated by the image processing unit 104 is displayed in the preview area 1000. In the case of the image example in FIG. 4A, the graphic 402 and character 403 areas are displayed as a color value area of the specific color described above (color area 1001), and the image 404 is a gray area 1002 that has been converted into monochrome. will be displayed as . Further, in the explanation display area 1003, an explanation regarding the preview image displayed in the preview area 1000 is displayed. In the case of this embodiment, the explanation display area 1003 displays an explanation saying "Distinguishability improvement processing will be applied to colored parts." In other words, this explanatory text indicates that the graphics and characters in the color area 1001 (the area of the graphics 402 and characters 403 illustrated in FIG. 4A) are subjected to discrimination improvement processing. The return button 1004 is a button that is pressed by touch or the like when the user instructs to return from the preview screen to the previous screen. When the return button 1004 is pressed (touched, etc.), the preview control unit 225 finishes displaying the preview screen and performs processing to return to the screen displayed in the previous process. Note that if the preview area 1000 does not have a color area, the explanation display area 1003 may display a sentence indicating that the discrimination improvement process is not performed on the image in the preview area. Alternatively, only the explanatory text may be displayed without displaying the preview area 1000.

図8のフローチャートに説明を戻す。
S804においてデータを保存しないと判断され、S809においてプリンタ画像処理が実行された後、S810において、CPU105は、全てのページに対する処理が完了したか否かを判定する。そして、CPU105は、全てのページに対する処理が完了しておらず、未処理のページが存在する場合、S801に処理を戻す。これにより、以降、その未処理のページに対して前述同様の処理が行われる。一方、S810において全てのページの処理が完了したと判定した場合、CPU105は、図8のフローチャートの処理を終了する。
The explanation returns to the flowchart of FIG.
After it is determined in step S804 that the data is not to be saved and printer image processing is executed in step S809, the CPU 105 determines in step S810 whether processing for all pages has been completed. Then, if the processing for all pages is not completed and there are unprocessed pages, the CPU 105 returns the processing to S801. As a result, from then on, the same process as described above is performed on the unprocessed page. On the other hand, if it is determined in S810 that the processing of all pages has been completed, the CPU 105 ends the processing of the flowchart of FIG.

以上説明したように第1の実施形態によれば、RIPの処理後の画像が画像形成装置の出力画像(印刷された画像)と異なる場合であっても、ユーザに違和感を与えることなく、かつユーザに有用なプレビュー表示を行うことが可能となる。特に、プリンタドライバ202で設定される機能がプリンタ画像処理で実現される場合で、なおかつ設定された機能が有効となる領域が画像全面ではなく、画像処理において適応的に判断される機能において、本プレビュー表示の実施は有用である。 As described above, according to the first embodiment, even if the image after RIP processing is different from the output image (printed image) of the image forming apparatus, the image can be processed without making the user feel uncomfortable and It becomes possible to display a preview that is useful to the user. In particular, when the function set in the printer driver 202 is realized by printer image processing, and the area where the set function is valid is not the entire image, but the function is adaptively determined during image processing, Implementing a preview display is useful.

すなわち本実施形態によれば、蓄積された画像のプレビューを行う際、画像形成装置において特徴的な画像処理がかかる領域を第1の画像、そうでない領域を第2の画像としたプレビュー画像を生成することで、ユーザに有用なプレビューを提供可能となる。
なお、本実施形態の説明では、カラーをモノクロ変換する際に弁別性向上処理を行う例を説明したが、プリンタ画像処理で実現されるトラッピング処理、太らせ処理、文字のがたつき補正処理などの他の画像処理が行われる場合にも同様のプレビューが可能となる。
In other words, according to the present embodiment, when previewing an accumulated image, a preview image is generated in which an area that undergoes characteristic image processing in the image forming apparatus is the first image, and an area that is not subjected to the characteristic image processing is the second image. By doing so, it becomes possible to provide a useful preview to the user.
In addition, in the description of this embodiment, an example was explained in which discriminability improvement processing is performed when converting color to monochrome, but trapping processing, thickening processing, text jitter correction processing, etc. realized by printer image processing, etc. A similar preview is possible even when other image processing is performed.

また本実施形態では、第1の画像への変換例として特定のカラーの色値の画像への変換を挙げ、第2の画像への変換例としてグレー画像への変換を挙げたが、第1の画像、第2の画像はこれらの例に限定されるものではない。例えばプレビュー画像上において弁別性向上処理等の所定の画像処理の対象領域であること、あるいは所定の画像処理の対象領域ではないことを、ユーザに明示可能であれば、前述したカラーやグレーの画像以外の画像への変換であってもよい。例えば、第1の画像と第2の画像は、それぞれをユーザが区別可能な画像、例えば、特定或いは任意に選択等したパターンや模様などの画像を用いてもよいし、記号やマーク、文字などの画像が用いられてもよい。 In addition, in this embodiment, conversion to an image with color values of a specific color is cited as an example of conversion to the first image, and conversion to a gray image is cited as an example of conversion to the second image. and the second image are not limited to these examples. For example, if it is possible to clearly show to the user that the preview image is a target area for predetermined image processing such as discriminability improvement processing, or that it is not a target area for predetermined image processing, the above-mentioned color or gray image It is also possible to convert to other images. For example, the first image and the second image may be images that can be distinguished by the user, such as images of specific or arbitrarily selected patterns or patterns, or may be images of symbols, marks, characters, etc. may be used.

<第2の実施形態>
前述の第1の実施形態では、弁別性向上処理が、画像形成装置101の画像処理部104にて行われるため、補助記憶装置111に蓄積される画像はカラー画像となされている。これに対し、第2の実施形態では、弁別性向上処理がRIPの処理時に行われる例を挙げる。このため、第2の実施形態の場合、蓄積される画像の一部がモノクロの場合を例に挙げて説明する。なお、第2の実施形態における構成は、前述した第1の実施形態の図1、図2に示した構成と同様であるため、それらの図示は省略する。また、第2の実施形態の画像形成装置101における印刷データの取得からプレビューまでの大まかな処理の流れは前述した図8同様であるため、その図示も省略する。第2の実施形態では主に、第1の実施形態との差異について説明する。
<Second embodiment>
In the first embodiment described above, the discriminability improvement process is performed in the image processing unit 104 of the image forming apparatus 101, so the images stored in the auxiliary storage device 111 are color images. In contrast, in the second embodiment, an example will be given in which the discriminability improvement process is performed during RIP processing. Therefore, in the case of the second embodiment, a case will be described using an example in which some of the images to be stored are monochrome. Note that the configuration in the second embodiment is similar to the configuration shown in FIGS. 1 and 2 of the first embodiment described above, and therefore illustration thereof will be omitted. Furthermore, since the general process flow from acquisition of print data to preview in the image forming apparatus 101 of the second embodiment is the same as that shown in FIG. 8 described above, illustration thereof is also omitted. In the second embodiment, differences from the first embodiment will be mainly explained.

第2の実施形態の場合、カラーからモノクロ変換の際には、画像内の文字やグラフィックに用いられる色値(例えばRGBの値)を全て抽出する。そして、第2の実施形態の弁別性向上処理では、それらの色値を、グレー値として取り得る0から255までの値に間隔をあけて割り当てる。なお、第2の実施形態では、画像のビット深度は、8bit画像とする例を前提として説明する。第2の実施形態では、各色値をグレー値として取り得る0~255の値に間隔をあけて割り当てる処理を行うことにより、第1の属性のオブジェクト同士の濃淡差を確保可能とし、その結果、弁別性の向上を可能としている。 In the case of the second embodiment, when converting from color to monochrome, all color values (for example, RGB values) used for characters and graphics in the image are extracted. In the discriminability improvement process of the second embodiment, these color values are assigned at intervals from 0 to 255, which can be taken as gray values. Note that the second embodiment will be described on the assumption that the bit depth of the image is an 8-bit image. In the second embodiment, by performing a process of assigning each color value to a value of 0 to 255 that can be taken as a gray value at intervals, it is possible to ensure the difference in shading between objects of the first attribute, and as a result, This makes it possible to improve discrimination.

ここで、画像全体の中から文字とグラフィックのRGB値を全て抽出する場合、RIPの処理実行後のラスタ画像の画素ごとにRGB値を取得するよりも、RIPの処理実行前のPDLで記述されているオブジェクト単位でRGB値を取得する方が効率がよい。また、RGB値に対応するグレー値への変換の際にも、画素単位で行うよりもPDLで記述されているオブジェクト単位で該当するRGB値を所望のグレー値に一括で変換する方が効率よく処理できる。 Here, when extracting all the RGB values of text and graphics from the entire image, rather than obtaining RGB values for each pixel of the raster image after RIP processing, the RGB values described in the PDL before RIP processing are extracted. It is more efficient to obtain RGB values for each object. Also, when converting RGB values into gray values corresponding to them, it is more efficient to convert the corresponding RGB values into the desired gray values in a batch for each object described in PDL than to convert it in units of pixels. Can be processed.

そのため、第2の実施形態の場合、画像形成装置101は、RIPの処理時に、図11のフローチャートに示す弁別性向上処理を実行する。ただし、前述した図4(a)のイメージ404のように弁別性向上処理を適用しない第2の属性のオブジェクトについては、コマンド実行部206は、カラーのPDLデータとして受け取っているため、カラーのオブジェクトとしてRIPの処理が行われる。このため第2の実施形態の場合、RIPの処理後のラスタ画像において、グラフィック402および文字403は弁別性向上処理によって弁別性を高めたグレーの画像となり、一方、イメージ404はカラーの画像となっている。したがって第2の実施形態でのプレビュー時には、グラフィック402と文字403の弁別性を高めたグレー画像をカラー(第1の画像)とし、イメージ404のカラー画像はモノクロ変換してグレー画像(第2の画像)とする。 Therefore, in the case of the second embodiment, the image forming apparatus 101 executes the discriminability improvement process shown in the flowchart of FIG. 11 during RIP processing. However, for objects with the second attribute to which the discriminability improvement processing is not applied, such as the image 404 in FIG. 4A, the command execution unit 206 receives the objects as color PDL data. RIP processing is performed as follows. Therefore, in the case of the second embodiment, in the raster image after RIP processing, the graphics 402 and characters 403 become gray images with enhanced discrimination through discrimination improvement processing, while the image 404 becomes a color image. ing. Therefore, when previewing in the second embodiment, a gray image with improved discrimination between the graphics 402 and characters 403 is set as a color image (first image), and a color image of the image 404 is converted into monochrome and a gray image (second image) is used. image).

<第2の実施形態の弁別性を向上させるカラーからモノクロ変換>
まず、第2の実施形態における弁別性向上処理について、図11のフローチャートを用いて説明する。
S1101において、画像形成装置101のコマンド解析部204は、ホストPC119より取得した印刷データのコマンド解析を行い、さらに画像内のグラフィック属性および文字属性のオブジェクトに対して色設定コマンドで指定されている色値を抽出する。そして、コマンド解析部204は、それら抽出した色値を、図12(a)に示すような色値リスト1201に追加するような色値リスト作成処理を行う。色値リスト1201は、抽出されたRGB値を保持するものである。
<Color to monochrome conversion to improve discrimination in second embodiment>
First, the discriminability improvement process in the second embodiment will be explained using the flowchart of FIG. 11.
In step S1101, the command analysis unit 204 of the image forming apparatus 101 performs command analysis of the print data acquired from the host PC 119, and further analyzes the colors specified by the color setting command for objects with graphic attributes and text attributes in the image. Extract the value. Then, the command analysis unit 204 performs color value list creation processing such as adding these extracted color values to a color value list 1201 as shown in FIG. 12(a). The color value list 1201 holds extracted RGB values.

図4(a)に示した入力画像401を例に挙げると、色値リスト作成処理では、グラフィック402のRGBの色値(255,128,128)が抽出され、それらの色値がNo.1の色値として色値リスト1201に登録される。同様に、文字403のRGBの色値(153,153,255)も抽出され、その色値がNo.2の色値として、色値リスト1201に登録される。そして、コマンド解析部204は、色値リスト1201の各RGB値をNTSC変換したグレー値(Gray)を、リストに追加する。図12(a)に例示した色値リスト1201の場合、グラフィック402に対応したNo.1のグレー値として166が、文字403に対応したNo.2のグレー値として165が登録される。このような色値リスト作成処理によって、画像内の全てのグラフィック属性および文字属性のオブジェクトの色値リスト1201が完成した後、コマンド解析部204は、その色値リスト1201をRAM107に保存する。 Taking the input image 401 shown in FIG. 4(a) as an example, in the color value list creation process, RGB color values (255, 128, 128) of the graphic 402 are extracted, and these color values are numbered. It is registered in the color value list 1201 as a color value of 1. Similarly, the RGB color values (153, 153, 255) of the character 403 are also extracted, and the color values are No. It is registered in the color value list 1201 as color value 2. Then, the command analysis unit 204 adds gray values (Gray) obtained by NTSC-converting each RGB value of the color value list 1201 to the list. In the case of the color value list 1201 illustrated in FIG. 12(a), the number corresponding to the graphic 402. 166 is the gray value of 1, which corresponds to the number 403. 165 is registered as the gray value of 2. After the color value list 1201 of all graphic attribute and text attribute objects in the image is completed by such color value list creation processing, the command analysis unit 204 stores the color value list 1201 in the RAM 107.

次に、S1102において、画像処理部104は、RAM107に保存された色値リスト1201に登録されているグレー値を、弁別性を有するグレー値に修正するような弁別性向上処理を行う。図12(a)の色値リスト1201の場合、No.1のグレー値(グラフィック402のグレー値)は166であり、No.2のグレー値(文字403のグレー値)は165であり、その差が1しかないため、弁別性が略々無いと考えられる。そこで、画像処理部104は、それらグレー値の166と165との差を広げるような弁別性向上処理を実行する。詳細は後述するが、第2の実施形態における弁別性向上処理では、グレー値は0(黒)-255(白)の間において、白値の255および黒値の0からのグレー値差を考慮して差を広げるような調整処理が行われる。 Next, in S1102, the image processing unit 104 performs discriminability improvement processing to modify the gray values registered in the color value list 1201 stored in the RAM 107 to gray values that have discriminability. In the case of the color value list 1201 in FIG. 12(a), No. The gray value of No. 1 (gray value of graphic 402) is 166, and No. The gray value of 2 (gray value of character 403) is 165, and the difference is only 1, so it is considered that there is almost no distinguishability. Therefore, the image processing unit 104 executes discrimination improvement processing to widen the difference between the gray values 166 and 165. Although the details will be described later, in the discriminability improvement process in the second embodiment, the gray value is between 0 (black) and 255 (white), and the gray value difference from the white value of 255 and the black value of 0 is considered. Adjustment processing is performed to widen the difference.

第2の実施形態のような、グレー値調整による弁別性向上処理の手法としては様々考えられるが、一例として、オブジェクトが2つしかない場合は2つのオブジェクトのグレー値の差分を所定の値以上に広げるような処理を挙げることができる。なお、弁別可能となるグレー値の差分として最低限必要な所定の値は、画像形成装置101の性能にもよるが、例えば15~20であり、このため所定の値以上とは15~20以上の値であることが望ましい。本実施形態では、2つのオブジェクト間のグレー値の差分を広げた後の差分の値を、一例として70とする。また、2つのオブジェクトのグレー値の差分を所定の値以上に広げる処理の際には、それら2つのオブジェクトのうち一方のグレー値と255(白)との差と、もう一方のグレー値と0(黒)との差と、の間の比率を維持するように調整する。なお本実施形態の場合、2つのオブジェクトのグレー値は、図12(a)で例示したように166と165であるとする。この場合、255(白)と一方のグレー値である166との差(255-166)である89と、もう一方のグレー値である165との0(黒)との差(165-0)である165との間の比率を維持するようにする。 Various methods can be considered for discriminability improvement processing by gray value adjustment as in the second embodiment, but as an example, when there are only two objects, the difference between the gray values of the two objects is set to a predetermined value or more. One example is a process that expands the Note that the minimum predetermined value required as a gray value difference that can be discriminated is, for example, 15 to 20, although it depends on the performance of the image forming apparatus 101. Therefore, the predetermined value or more means 15 to 20 or more. It is desirable that the value is . In this embodiment, the value of the difference after expanding the difference in gray values between two objects is set to 70, for example. In addition, when processing to increase the difference between the gray values of two objects beyond a predetermined value, the difference between the gray value of one of those two objects and 255 (white), and the difference between the gray value of the other and 0 Adjust to maintain the difference between (black) and the ratio between. Note that in the case of this embodiment, the gray values of the two objects are 166 and 165, as illustrated in FIG. 12(a). In this case, 89 is the difference between 255 (white) and one gray value of 166 (255-166), and the difference between 0 (black) of the other gray value of 165 (165-0) The ratio between 165 and 165 is maintained.

この場合、255から0までの間で取り得る255の間隔のうち、2つのオブジェクトのグレー値と255(白)または0(黒)との間の差が、255から所定の値を引いた後の間隔においてどのくらいの差になるかを求めればよい。例えば差分を広くする値を70とし、2つのオブジェクトのグレー値が166と165である場合、255-166(=89)と165-0(=165)とが、255から70を引いた185の間隔の時にそれぞれどのくらいの差になるかを求めればよい。本実施形態では、例えば以下の式(3)~式(5)を用いることにより、2つのオブジェクトのグレー値の差分を所定の値以上に広げると共に、グレー値と白、グレー値と黒との差との間の比率を維持する。 In this case, out of 255 possible intervals between 255 and 0, the difference between the gray value of the two objects and 255 (white) or 0 (black) after subtracting the predetermined value from 255 All you have to do is find out how much difference there is between the intervals. For example, if the value to widen the difference is 70 and the gray values of two objects are 166 and 165, 255-166 (=89) and 165-0 (=165) are 185, which is 255 minus 70. All you have to do is find out how much difference there is between each interval. In this embodiment, for example, by using the following equations (3) to (5), the difference between the gray values of two objects is increased to a predetermined value or more, and the gray value and white, and the gray value and black are Maintain the ratio between the difference.

(255-166)/255=(255-X1)/(255-70) 式(3)
この式(3)からX1≒190となり、
(165-0)/255=(X2-0)/(255-70) 式(4)
この式(4)からX2≒120となる。
そして、255(白)、0(黒)、166と165、190と120の関係は、式(5)となる。
(255-166):(165-0)≒(255-190):(120-0) 式(5)
(255-166)/255=(255-X1)/(255-70) Formula (3)
From this formula (3), X1≒190,
(165-0)/255=(X2-0)/(255-70) Formula (4)
From this equation (4), X2≈120.
The relationships between 255 (white), 0 (black), 166 and 165, and 190 and 120 are expressed by equation (5).
(255-166):(165-0)≒(255-190):(120-0) Formula (5)

これら式(3)~式(5)により、255(白)から0(黒)までの間で取り得る255の間隔のうち、2つのオブジェクトのグレー値の166,165は、差が70に広げられたグレー値の190,120になる。また、それら2つのオブジェクトのグレー値の190,120と、255(白),0(黒)とは、0(黒)や255(白)からの差分の比率が維持されている。 According to these equations (3) to (5), out of the 255 possible intervals between 255 (white) and 0 (black), the gray value of 166,165 between the two objects increases the difference to 70. The calculated gray value is 190,120. Furthermore, the gray values of 190 and 120, 255 (white), and 0 (black) of these two objects maintain the ratio of the difference from 0 (black) and 255 (white).

第2の実施形態によれば、図12(a)に示した2つのオブジェクトの近似したグレー値の166,165が、図12(b)に示すように弁別性を有するグレー値の190,120に修正される。すなわちこれら2つのオブジェクトのグレー値の差分が大きくなっているため、弁別性が向上している。第2の実施形態の場合、修正後のグレー値の差分は必要最低限な所定の値である15~20よりも大きい値の70になっている。したがって、本実施形態では、それら2つのオブジェクトの弁別が容易である。 According to the second embodiment, the approximate gray values of 166, 165 of the two objects shown in FIG. will be corrected. In other words, the difference between the gray values of these two objects is large, so that the distinguishability is improved. In the case of the second embodiment, the difference in gray value after correction is 70, which is larger than the minimum necessary predetermined value of 15 to 20. Therefore, in this embodiment, these two objects can be easily distinguished.

図11のフローチャートに説明を戻す。
S1102の弁別性向上処理の後、S1103に進むと、コマンド実行部206は、RIPの処理を実行し、PDLからラスタ画像への変換を行う。この時、コマンド実行部206は、RAM107に保存された色値リスト1201を読み出して参照しながらRGB値をグレー値に変換する。本実施形態の場合、S1103の処理で生成されたラスタ画像において、図4(a)に例示したグラフィック402および文字403はグレーであるが、イメージ404はカラーのままである。
The explanation returns to the flowchart of FIG. 11.
When the process proceeds to S1103 after the discriminability improvement process in S1102, the command execution unit 206 executes RIP processing and converts the PDL to a raster image. At this time, the command execution unit 206 reads out and refers to the color value list 1201 stored in the RAM 107 while converting the RGB values into gray values. In the case of this embodiment, in the raster image generated in the process of S1103, the graphic 402 and characters 403 illustrated in FIG. 4A are gray, but the image 404 remains in color.

次にS1104において、色変換処理部211は、カラーのままのイメージ404をグレー変換する。これにより、全てのオブジェクトがグレー変換されたことになる。この例でも、色変換処理部211への入力画像がRGBの場合、色変換処理部211はR,G,Bにそれぞれ重み付けをしてグレー値を算出した後、その値を反転することで濃度信号値であるKの値へ変換する。また、色変換処理部211の入力画像がCMYKの場合、色変換処理部211は、Kの信号値に変換する。なお、色変換処理部211は、グレー値についても、輝度信号値のままであれば、その値を反転して濃度信号値へ変換する。
以上、弁別性向上処理についてのみ説明したが、その他必要な画像処理も適宜実行され、それら画像処理後の画像データが画像出力部109へ送信される。
Next, in S1104, the color conversion processing unit 211 converts the color image 404 to gray. This means that all objects have been converted to gray. In this example as well, when the input image to the color conversion processing unit 211 is RGB, the color conversion processing unit 211 calculates the gray value by weighting each of R, G, and B, and then inverts the value to increase the density. Convert to the value of K, which is a signal value. Further, when the input image to the color conversion processing unit 211 is CMYK, the color conversion processing unit 211 converts it into a K signal value. Note that the color conversion processing unit 211 also inverts the gray value and converts it into a density signal value if it remains a luminance signal value.
Although only the discriminability improvement processing has been described above, other necessary image processing is also executed as appropriate, and the image data after the image processing is transmitted to the image output unit 109.

第2の実施形態では、以上説明したように、RIPの処理がなされる前にRGB値からグレー値に変換する色値リストを作成し、グレー値の弁別性が低い場合には、弁別性が向上するようにRGB値からグレー値へ変換する色値リストを修正する。このように、本実施形態によれば、RIPの処理時に色値リストを参照しながらグレー値に変換することで弁別性を向上させることができる。 In the second embodiment, as explained above, a color value list for converting RGB values into gray values is created before RIP processing, and when the gray values have low discriminability, the discriminability is Modify the color value list for converting RGB values to gray values to improve performance. As described above, according to the present embodiment, the discrimination property can be improved by converting to gray values while referring to the color value list during RIP processing.

<第2の実施形態におけるプレビュー画像生成処理>
第2の実施形態の画像形成装置101は、前述したようなRIPの処理時に弁別性向上処理を実行した後の画像を用いて、プレビュー画像を生成する。これにより第2の実施形態では、第1の実施形態の図10(a)のカラー領域1001のような一様な値で塗りつぶされた画像ではなく、図4(a)の入力画像401に近い見た目のプレビュー画像が生成される。
<Preview image generation processing in the second embodiment>
The image forming apparatus 101 of the second embodiment generates a preview image using an image after performing the discrimination improvement process during the RIP process as described above. As a result, in the second embodiment, the image is not filled with uniform values like the color area 1001 in FIG. 10(a) of the first embodiment, but is similar to the input image 401 in FIG. 4(a). A preview image of what it will look like will be generated.

以下、第2の実施形態におけるプレビュー画像生成処理について、前述した図8のフローチャートを流用して説明する。なお、第2の実施形態に係る図8のフローチャートのうち、第1の実施形態と概ね同様の処理はその説明は省略し、ここでは主にS807のプレビュー画像生成処理について説明する。 The preview image generation process in the second embodiment will be described below using the flowchart of FIG. 8 described above. Note that, in the flowchart of FIG. 8 according to the second embodiment, descriptions of processes that are generally similar to those of the first embodiment will be omitted, and herein, the preview image generation process of S807 will be mainly described.

第2の実施形態の場合、蓄積制御部103により補助記憶装置111に保存されたラスタ画像の場合、図4(a)に例示したグラフィック402および文字403は、前述したように弁別性を向上させたグレー値に変換されている。そこで、画像処理部104は、このグレー値を利用して、プレビュー画像用のカラー値を決定する。具体的なカラー値の決定方法としては、例えば、カラー値がマゼンタと決められている場合には、図12(c)に示すように、グレー値(Gray)をGの値とし、このGの値およびR,Bの値からマゼンタのカラー値を決定する。図12(c)の例では、グラフィック402に対応したNo.1には(255,190,255)のマゼンタが、文字403に対応したNo.2には(255,120,255)のマゼンタが適用される。 In the case of the second embodiment, in the case of a raster image stored in the auxiliary storage device 111 by the accumulation control unit 103, the graphics 402 and characters 403 illustrated in FIG. are converted to gray values. Therefore, the image processing unit 104 uses this gray value to determine the color value for the preview image. As a specific method for determining the color value, for example, if the color value is determined to be magenta, as shown in FIG. 12(c), the gray value (Gray) is set as the value of G, and this The magenta color value is determined from the value and the R and B values. In the example of FIG. 12(c), the number corresponding to the graphic 402. 1 has the magenta (255, 190, 255) number corresponding to the character 403. 2 is applied with magenta (255, 120, 255).

そして、このようにして画像処理部104にて生成された画像は、プレビュー画像として、蓄積制御部103によってラスタ画像とは別に、例えばRAM107に保存され、その後、S808においてプレビュー制御部225により表示部125に表示される。 The image generated by the image processing unit 104 in this manner is stored as a preview image by the storage control unit 103 in the RAM 107, for example, separately from the raster image, and then, in S808, the preview control unit 225 saves the image on the display screen. 125.

図10(b)は、第2の実施形態において表示部125に表示されるプレビュー画面の一例を示した図である。プレビュー画面には、前述の図10(a)の例と同様に、プレビュー領域1005、説明表示領域1003、戻るボタン1004が表示される。プレビュー領域1005には、第2の実施形態の画像処理部104にて生成されたプレビュー画像が表示される。また説明表示領域1003には、図10(a)の例と同様の説明文が表示される。戻るボタン1004は、図10(a)の例と同様にプレビュー画面からその一つ前の処理に戻ることをユーザが指示する際のボタンである。 FIG. 10(b) is a diagram showing an example of a preview screen displayed on the display unit 125 in the second embodiment. A preview area 1005, an explanation display area 1003, and a return button 1004 are displayed on the preview screen, as in the example of FIG. 10(a) described above. A preview image generated by the image processing unit 104 of the second embodiment is displayed in the preview area 1005. Further, in the explanation display area 1003, an explanation similar to the example of FIG. 10(a) is displayed. The return button 1004 is a button used when the user instructs to return to the previous process from the preview screen, as in the example of FIG. 10(a).

図10(b)において、プレビュー領域1005のプレビュー画像は、グラフィック402に対応したグラフィック部1006と、文字403に対応した文字部1007とが含まれる画像となる。すなわち第2の実施形態の場合、グラフィック属性と文字属性のオブジェクトの領域における第1の画像は、グラフィック部1006のマゼンタの値と、文字部1007のマゼンタの値とが異なり、濃淡も入力画像に近い状態の画像となる。一方、イメージ属性の領域における第2の画像となされたイメージ404に対応したグレー領域1008は、一様なグレー値ではなくNTSC変換によりモノクロ変換されたグレー値となり、プリントされる画像に近いグレー値である。これにより、プレビュー画像は、図10(b)のプレビュー領域1005に表示されるような画像となり、入力画像401に近いプレビュー画像となることで、ユーザがより理解しやすい画像となる。 In FIG. 10B, the preview image in the preview area 1005 is an image that includes a graphic portion 1006 corresponding to the graphic 402 and a character portion 1007 corresponding to the character 403. That is, in the case of the second embodiment, in the first image in the area of objects with graphic attributes and text attributes, the magenta value of the graphic part 1006 and the magenta value of the text part 1007 are different, and the shading is also different from the input image. This is a close-up image. On the other hand, the gray area 1008 corresponding to the image 404 that is the second image in the image attribute area is not a uniform gray value, but a gray value that has been converted into monochrome by NTSC conversion, and is a gray value that is close to the image to be printed. It is. As a result, the preview image becomes an image that is displayed in the preview area 1005 in FIG. 10(b), and becomes a preview image that is close to the input image 401, making it easier for the user to understand.

以上説明したように、第2の実施形態によれば、第1の実施形態の場合よりも入力画像401に近い見え方のプレビュー画像の表示を行うことができ、ユーザにとって有用なプレビューを行うことが可能となる。 As described above, according to the second embodiment, it is possible to display a preview image that looks closer to the input image 401 than in the first embodiment, and it is possible to perform a preview that is useful for the user. becomes possible.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions. The above-described embodiments are merely examples of implementation of the present invention, and the technical scope of the present invention should not be construed as limited by these embodiments. That is, the present invention can be implemented in various forms without departing from its technical idea or main features.

各実施形態の開示は、以下の構成、方法、およびプログラムを含む。
(構成1)
印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積手段と、
前記蓄積された画像に対して画像処理を行う処理手段と、
前記蓄積された画像を基にプレビュー画像を生成する生成手段と、
前記プレビュー画像を表示するプレビュー手段と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成手段は、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、特定の色による第1の画像とした前記プレビュー画像を生成することを特徴とする画像処理装置。
(構成2)
前記生成手段は、前記蓄積された画像のうち前記第1の属性とは異なる第2の属性のオブジェクトに対応した領域を、前記特定の色とは異なる第2の画像とした前記プレビュー画像を生成することを特徴とする構成1に記載の画像処理装置。
(構成3)
画像処理装置は、印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積手段と、
前記蓄積された画像に対して画像処理を行う処理手段と、
前記蓄積された画像を基にプレビュー画像を生成する生成手段と、
前記プレビュー画像を表示するプレビュー手段と、
を有する。
そして、前記コマンドが所定の画像処理の実施を示している場合、前記生成手段は、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、所定の画像処理の対象になることを示す第1の画像とした前記プレビュー画像を生成する。これを特徴とする画像処理装置。
(構成4)
前記生成手段は、前記蓄積された画像のうち前記第1の属性とは異なる第2の属性のオブジェクトに対応した領域を、前記所定の画像処理の対象でないことを示す第2の画像とした前記プレビュー画像を生成することを特徴とする構成3に記載の画像処理装置。
(構成5)
前記第1の属性のオブジェクトの領域に対応した前記第1の画像は、特定の色のカラーまたは前記蓄積された画像の色値に応じて決定されるカラーの値の画像であり、
前記第2の属性のオブジェクトの領域に対応した前記第2の画像は、前記特定の色のカラーとは異なる特定のグレーの値または前記蓄積された画像のRGB値に重みを付けて算出したグレーの値の画像であることを特徴とする構成2または4に記載の画像処理装置。
(構成6)
前記コマンドが、前記蓄積された画像のモノクロ変換を示しかつ前記所定の画像処理の実施を示している場合に、前記生成手段は、以下の制御を行う。すなわち、前記生成手段は、前記第1の属性のオブジェクトに対応した領域を前記カラーの値の画像とし、前記第2の属性のオブジェクトに対応した領域を前記グレーの値の画像とした前記プレビュー画像を生成することを特徴とする構成5に記載の画像処理装置。
(構成7)
前記第1の属性のオブジェクトはグラフィック属性および文字属性のオブジェクトであり、前記第2の属性のオブジェクトはイメージ属性のオブジェクトであることを特徴とする構成2、4、5、6のいずれか1構成に記載の画像処理装置。
(構成8)
前記プレビュー手段は、前記第1の属性のオブジェクトの領域に対して前記所定の画像処理が行われることを示す説明文を、前記プレビュー画像とともに表示することを特徴とする構成1乃至7のいずれか1構成に記載の画像処理装置。
(構成9)
前記所定の画像処理は、前記蓄積された画像がモノクロ変換される場合に、前記第1の属性の隣接するオブジェクト間の弁別性を高める処理を含むことを特徴とする構成1乃至8のいずれか1構成に記載の画像処理装置。
(構成10)
前記弁別性を高める処理は、前記隣接するオブジェクト間の境界のエッジを強調する処理であることを特徴とする構成9に記載の画像処理装置。
(構成11)
前記弁別性を高める処理は、前記モノクロ変換の後の前記隣接するオブジェクト間のグレーの値の差が、所定の値以上になるような値を決定する処理であることを特徴とする構成9に記載の画像処理装置。
(構成12)
前記弁別性を高める処理では、前記所定の値以上となされた一方のグレー値と白との差と、もう一方のグレー値と黒との差と、の間の比率を維持するように調整することを特徴とする構成11に記載の画像処理装置。
(方法1)
印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積工程と、
前記蓄積された画像に対して画像処理を行う処理工程と、
前記蓄積された画像を基にプレビュー画像を生成する生成工程と、
前記プレビュー画像を表示するプレビュー工程と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成工程では、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、特定の色による第1の画像とした前記プレビュー画像を生成することを特徴とする画像処理方法。
(方法2)
画像処理方法は、印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積工程と、
前記蓄積された画像に対して画像処理を行う処理工程と、
前記蓄積された画像を基にプレビュー画像を生成する生成工程と、
前記プレビュー画像を表示するプレビュー工程と、
を有する。
そして、前記コマンドが所定の画像処理の実施を示している場合、前記生成工程では、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、所定の画像処理の対象になることを示す第1の画像とした前記プレビュー画像を生成する。これを特徴とする画像処理方法。
(プログラム1)
コンピュータを、構成1乃至12のいずれか1構成に記載の画像処理装置として機能させるためのプログラム。
The disclosure of each embodiment includes the following configuration, method, and program.
(Configuration 1)
storage means for storing an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
processing means for performing image processing on the accumulated images;
generating means for generating a preview image based on the accumulated images;
preview means for displaying the preview image;
has
When the command indicates execution of predetermined image processing, the generating means sets the region of the accumulated image corresponding to the object of the first attribute to the first image in a specific color. An image processing device characterized by generating a preview image.
(Configuration 2)
The generating means generates the preview image in which an area corresponding to an object having a second attribute different from the first attribute among the accumulated images is set as a second image different from the specific color. The image processing device according to configuration 1.
(Configuration 3)
The image processing device includes an accumulation unit for accumulating an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
processing means for performing image processing on the accumulated images;
generating means for generating a preview image based on the accumulated images;
preview means for displaying the preview image;
has.
When the command indicates execution of predetermined image processing, the generating means causes a region of the accumulated image corresponding to the object of the first attribute to be subjected to the predetermined image processing. The preview image is generated as a first image showing. An image processing device characterized by this.
(Configuration 4)
The generating means defines an area of the accumulated images corresponding to an object having a second attribute different from the first attribute as a second image indicating that the area is not a target of the predetermined image processing. The image processing device according to configuration 3, wherein the image processing device generates a preview image.
(Configuration 5)
The first image corresponding to the area of the object with the first attribute is a specific color or an image with a color value determined according to the color value of the accumulated image,
The second image corresponding to the area of the object with the second attribute is a gray value that is a specific gray value different from the specific color or a gray value that is calculated by weighting the RGB values of the accumulated image. The image processing device according to configuration 2 or 4, wherein the image has a value of .
(Configuration 6)
When the command indicates monochrome conversion of the accumulated image and indicates execution of the predetermined image processing, the generating means performs the following control. That is, the generating means generates the preview image by setting an area corresponding to the object of the first attribute as an image of the color value, and setting an area corresponding to the object of the second attribute as an image of the gray value. The image processing device according to configuration 5, characterized in that the image processing device generates.
(Configuration 7)
Any one of configurations 2, 4, 5, and 6, wherein the object with the first attribute is an object with a graphic attribute and a text attribute, and the object with the second attribute is an object with an image attribute. The image processing device described in .
(Configuration 8)
Any one of configurations 1 to 7, wherein the preview means displays, together with the preview image, an explanatory text indicating that the predetermined image processing is performed on the area of the object having the first attribute. 1. The image processing device according to configuration 1.
(Configuration 9)
Any one of configurations 1 to 8, wherein the predetermined image processing includes processing for increasing the discriminability between adjacent objects of the first attribute when the accumulated image is converted to monochrome. 1. The image processing device according to configuration 1.
(Configuration 10)
10. The image processing apparatus according to configuration 9, wherein the processing for increasing the discriminability is processing for emphasizing an edge of a boundary between the adjacent objects.
(Configuration 11)
In configuration 9, the processing for increasing the discriminability is processing for determining a value such that a difference in gray value between the adjacent objects after the monochrome conversion is equal to or greater than a predetermined value. The image processing device described.
(Configuration 12)
In the process of increasing the discriminability, the ratio between the difference between one gray value and white, which is equal to or greater than the predetermined value, and the difference between the other gray value and black is adjusted to be maintained. The image processing device according to configuration 11, characterized in that:
(Method 1)
an accumulation step of accumulating an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
a processing step of performing image processing on the accumulated images;
a generation step of generating a preview image based on the accumulated images;
a preview step of displaying the preview image;
has
When the command indicates execution of predetermined image processing, in the generation step, the area of the accumulated image corresponding to the object with the first attribute is made into the first image in a specific color. An image processing method characterized by generating a preview image.
(Method 2)
The image processing method includes an accumulation step of accumulating an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
a processing step of performing image processing on the accumulated images;
a generation step of generating a preview image based on the accumulated images;
a preview step of displaying the preview image;
has.
If the command indicates execution of predetermined image processing, in the generation step, the area corresponding to the object of the first attribute in the accumulated image is subjected to the predetermined image processing. The preview image is generated as a first image showing. An image processing method characterized by this.
(Program 1)
A program for causing a computer to function as the image processing device according to any one of configurations 1 to 12.

101:画像形成装置、102:コマンド処理部、103:蓄積制御部、104:画像処理部、203:コマンド判別部、204:コマンド解析部、206:コマンド実行部、212:フィルタ処理部、213:トラッピング処理部、225:プレビュー制御部 101: Image forming device, 102: Command processing unit, 103: Accumulation control unit, 104: Image processing unit, 203: Command determination unit, 204: Command analysis unit, 206: Command execution unit, 212: Filter processing unit, 213: Trapping processing unit, 225: Preview control unit

Claims (16)

印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積手段と、
前記蓄積された画像に対して画像処理を行う処理手段と、
前記蓄積された画像を基にプレビュー画像を生成する生成手段と、
前記プレビュー画像を表示するプレビュー手段と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成手段は、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、特定の色による第1の画像とした前記プレビュー画像を生成することを特徴とする画像処理装置。
storage means for storing an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
processing means for performing image processing on the accumulated images;
generating means for generating a preview image based on the accumulated images;
preview means for displaying the preview image;
has
When the command indicates execution of predetermined image processing, the generating means sets the region of the accumulated image corresponding to the object of the first attribute to the first image in a specific color. An image processing device characterized by generating a preview image.
前記生成手段は、前記蓄積された画像のうち前記第1の属性とは異なる第2の属性のオブジェクトに対応した領域を、前記特定の色とは異なる第2の画像とした前記プレビュー画像を生成することを特徴とする請求項1に記載の画像処理装置。 The generating means generates the preview image in which an area corresponding to an object having a second attribute different from the first attribute among the accumulated images is set as a second image different from the specific color. The image processing apparatus according to claim 1, characterized in that: 印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積手段と、
前記蓄積された画像に対して画像処理を行う処理手段と、
前記蓄積された画像を基にプレビュー画像を生成する生成手段と、
前記プレビュー画像を表示するプレビュー手段と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成手段は、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、所定の画像処理の対象になることを示す第1の画像とした前記プレビュー画像を生成することを特徴とする画像処理装置。
storage means for storing an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
processing means for performing image processing on the accumulated images;
generating means for generating a preview image based on the accumulated images;
preview means for displaying the preview image;
has
When the command indicates execution of predetermined image processing, the generating means indicates that the area corresponding to the object of the first attribute in the accumulated image is to be subjected to the predetermined image processing. An image processing device that generates the preview image as a first image.
前記生成手段は、前記蓄積された画像のうち前記第1の属性とは異なる第2の属性のオブジェクトに対応した領域を、前記所定の画像処理の対象でないことを示す第2の画像とした前記プレビュー画像を生成することを特徴とする請求項3に記載の画像処理装置。 The generating means defines an area of the accumulated images corresponding to an object having a second attribute different from the first attribute as a second image indicating that the area is not a target of the predetermined image processing. The image processing device according to claim 3, wherein the image processing device generates a preview image. 前記第1の属性のオブジェクトの領域に対応した前記第1の画像は、特定の色のカラーまたは前記蓄積された画像の色値に応じて決定されるカラーの値の画像であり、
前記第2の属性のオブジェクトの領域に対応した前記第2の画像は、前記特定の色のカラーとは異なる特定のグレーの値または前記蓄積された画像のRGB値に重みを付けて算出したグレーの値の画像であることを特徴とする請求項2または4に記載の画像処理装置。
The first image corresponding to the area of the object with the first attribute is a specific color or an image with a color value determined according to the color value of the accumulated image,
The second image corresponding to the area of the object with the second attribute is a gray value that is a specific gray value different from the specific color or a gray value that is calculated by weighting the RGB values of the accumulated image. 5. The image processing apparatus according to claim 2, wherein the image has a value of .
前記コマンドが、前記蓄積された画像のモノクロ変換を示しかつ前記所定の画像処理の実施を示している場合に、前記生成手段は、前記第1の属性のオブジェクトに対応した領域を前記カラーの値の画像とし、前記第2の属性のオブジェクトに対応した領域を前記グレーの値の画像とした前記プレビュー画像を生成することを特徴とする請求項5に記載の画像処理装置。 When the command indicates monochrome conversion of the accumulated image and indicates execution of the predetermined image processing, the generating means converts the area corresponding to the object of the first attribute into the color value. 6. The image processing apparatus according to claim 5, wherein the preview image is generated by setting the image of the object having the second attribute to the image of the gray value. 前記第1の属性のオブジェクトはグラフィック属性および文字属性のオブジェクトであり、前記第2の属性のオブジェクトはイメージ属性のオブジェクトであることを特徴とする請求項2または4に記載の画像処理装置。 5. The image processing apparatus according to claim 2, wherein the object with the first attribute is an object with a graphic attribute and a text attribute, and the object with the second attribute is an object with an image attribute. 前記プレビュー手段は、前記第1の属性のオブジェクトの領域に対して前記所定の画像処理が行われることを示す説明文を、前記プレビュー画像とともに表示することを特徴とする請求項1または3に記載の画像処理装置。 4. The preview means displays, together with the preview image, an explanatory text indicating that the predetermined image processing is performed on the area of the object having the first attribute. image processing device. 前記所定の画像処理は、前記蓄積された画像がモノクロ変換される場合に、前記第1の属性の隣接するオブジェクト間の弁別性を高める処理を含むことを特徴とする請求項1または3に記載の画像処理装置。 4. The predetermined image processing includes processing for increasing the discriminability between adjacent objects of the first attribute when the accumulated image is converted to monochrome. image processing device. 前記弁別性を高める処理は、前記隣接するオブジェクト間の境界のエッジを強調する処理であることを特徴とする請求項9に記載の画像処理装置。 10. The image processing apparatus according to claim 9, wherein the processing for increasing the discriminability is processing for emphasizing an edge of a boundary between the adjacent objects. 前記弁別性を高める処理は、前記モノクロ変換の後の前記隣接するオブジェクト間のグレーの値の差が、所定の値以上になるような値を決定する処理であることを特徴とする請求項9に記載の画像処理装置。 10. The process of increasing the discriminability is a process of determining a value such that a difference in gray value between the adjacent objects after the monochrome conversion is equal to or greater than a predetermined value. The image processing device described in . 前記弁別性を高める処理では、前記所定の値以上となされた一方のグレー値と白との差と、もう一方のグレー値と黒との差と、の間の比率を維持するように調整することを特徴とする請求項11に記載の画像処理装置。 In the process of increasing the discriminability, the ratio is adjusted to maintain the ratio between the difference between one gray value and white, which is equal to or greater than the predetermined value, and the difference between the other gray value and black. The image processing device according to claim 11. 印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積工程と、
前記蓄積された画像に対して画像処理を行う処理工程と、
前記蓄積された画像を基にプレビュー画像を生成する生成工程と、
前記プレビュー画像を表示するプレビュー工程と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成工程では、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、特定の色による第1の画像とした前記プレビュー画像を生成することを特徴とする画像処理方法。
an accumulation step of accumulating an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
a processing step of performing image processing on the accumulated images;
a generation step of generating a preview image based on the accumulated images;
a preview step of displaying the preview image;
has
When the command indicates execution of predetermined image processing, in the generation step, the area of the accumulated image corresponding to the object with the first attribute is made into the first image in a specific color. An image processing method characterized by generating a preview image.
印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積工程と、
前記蓄積された画像に対して画像処理を行う処理工程と、
前記蓄積された画像を基にプレビュー画像を生成する生成工程と、
前記プレビュー画像を表示するプレビュー工程と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成工程では、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、所定の画像処理の対象になることを示す第1の画像とした前記プレビュー画像を生成することを特徴とする画像処理方法。
an accumulation step of accumulating an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
a processing step of performing image processing on the accumulated images;
a generation step of generating a preview image based on the accumulated images;
a preview step of displaying the preview image;
has
When the command indicates execution of predetermined image processing, in the generation step, the area corresponding to the object of the first attribute in the accumulated image is indicated to be subjected to the predetermined image processing. An image processing method characterized by generating the preview image as a first image.
コンピュータを、
印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積手段と、
前記蓄積された画像に対して画像処理を行う処理手段と、
前記蓄積された画像を基にプレビュー画像を生成する生成手段と、
前記プレビュー画像を表示するプレビュー手段と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成手段は、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、特定の色による第1の画像とした前記プレビュー画像を生成する画像処理装置として機能させるプログラム。
computer,
storage means for storing an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
processing means for performing image processing on the accumulated images;
generating means for generating a preview image based on the accumulated images;
preview means for displaying the preview image;
has
When the command indicates execution of predetermined image processing, the generating means sets the region of the accumulated image corresponding to the object of the first attribute to the first image in a specific color. A program that functions as an image processing device that generates preview images.
コンピュータを、
印刷データからラスターイメージプロセッサーの処理により生成された画像と、前記印刷データを基に取得されるオブジェクトの属性およびコマンドと、を蓄積する蓄積手段と、
前記蓄積された画像に対して画像処理を行う処理手段と、
前記蓄積された画像を基にプレビュー画像を生成する生成手段と、
前記プレビュー画像を表示するプレビュー手段と、
を有し、
前記コマンドが所定の画像処理の実施を示している場合、前記生成手段は、前記蓄積された画像のうち第1の属性のオブジェクトに対応した領域を、所定の画像処理の対象になることを示す第1の画像とした前記プレビュー画像を生成する画像処理装置として機能させるプログラム。
computer,
storage means for storing an image generated from print data through processing by a raster image processor, and object attributes and commands acquired based on the print data;
processing means for performing image processing on the accumulated images;
generating means for generating a preview image based on the accumulated images;
preview means for displaying the preview image;
has
When the command indicates execution of predetermined image processing, the generating means indicates that the area corresponding to the object of the first attribute in the accumulated image is to be subjected to the predetermined image processing. A program that functions as an image processing device that generates the preview image as a first image.
JP2022139240A 2022-09-01 2022-09-01 Image processing apparatus, image processing method, and program Pending JP2024034772A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022139240A JP2024034772A (en) 2022-09-01 2022-09-01 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022139240A JP2024034772A (en) 2022-09-01 2022-09-01 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2024034772A true JP2024034772A (en) 2024-03-13

Family

ID=90193574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022139240A Pending JP2024034772A (en) 2022-09-01 2022-09-01 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2024034772A (en)

Similar Documents

Publication Publication Date Title
JP4574457B2 (en) Image processing apparatus and method
JP6824052B2 (en) Image processing device, its control method, and program
JP4872860B2 (en) Image processing apparatus and image processing method
US10592766B2 (en) Image processing apparatus and medium storing program executable by image processing apparatus
US11706371B2 (en) Apparatus and method for performing enhancement processing on color information
JP5490757B2 (en) Printer driver and printing method using the same
JP3689574B2 (en) Image processing method and apparatus, image processing system, and recording medium
JP6120824B2 (en) Image processing apparatus, image processing method, and program
JP6882043B2 (en) Image processing equipment, programs and image processing methods
JP2024034772A (en) Image processing apparatus, image processing method, and program
JP2012085105A (en) Printer, image forming device, and color processing method and program
JP6736299B2 (en) Printing device, printing method, and program
JP2023033977A (en) Image forming device, image forming device control method and program
JP5346848B2 (en) Image forming apparatus and image processing program
JP2023033978A (en) Image forming device, image forming device control method, image processing device, image processing method and program
JP7330337B2 (en) Image processing device, image processing method, and program
JP2001024872A (en) Method and device for image processing, image processing system and recording medium
JP7187300B2 (en) Image processing device, image processing method and program
JP7297603B2 (en) Image processing device, image processing method, and program
JP7005796B2 (en) Image forming device, its control method, and program
JP5885489B2 (en) Image processing apparatus, image processing method, and computer program
JP2023008251A (en) Image processing apparatus, image processing method, and program
JP2017209961A (en) Image processing device, and computer program
JP2022061279A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP2022141319A (en) Image processing device, control method for the same, and program