JP7261064B2 - IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM - Google Patents

IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM Download PDF

Info

Publication number
JP7261064B2
JP7261064B2 JP2019070708A JP2019070708A JP7261064B2 JP 7261064 B2 JP7261064 B2 JP 7261064B2 JP 2019070708 A JP2019070708 A JP 2019070708A JP 2019070708 A JP2019070708 A JP 2019070708A JP 7261064 B2 JP7261064 B2 JP 7261064B2
Authority
JP
Japan
Prior art keywords
color space
image data
edge enhancement
input image
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019070708A
Other languages
Japanese (ja)
Other versions
JP2020170308A (en
Inventor
洋一 橿渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019070708A priority Critical patent/JP7261064B2/en
Publication of JP2020170308A publication Critical patent/JP2020170308A/en
Application granted granted Critical
Publication of JP7261064B2 publication Critical patent/JP7261064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color, Gradation (AREA)

Description

本発明は、画像形成装置及びその制御方法、並びにプログラムに関するものである。 The present invention relates to an image forming apparatus, its control method, and a program.

RGB形式で入力された印刷データ(画像データ)をCMYK形式のデータに変換するための色変換パラメータ(プロファイル)を保持する画像形成装置が知られている。画像形成装置では、CMYK形式の画像データに対して、エッジ強調(シャープネス)処理等の画像処理が行われる。特許文献1には、画像形成装置において画像形成に用いられるCMYK形式の画像データに対してエッジ強調処理を行う技術が記載されている。このような画像形成装置では、予め保持している色変換パラメータを用いて出力されるCMYK形式の画像データに対して最適となるように、エッジ強調の度合いが設定されている。 2. Description of the Related Art An image forming apparatus is known that holds color conversion parameters (profiles) for converting print data (image data) input in RGB format into data in CMYK format. In an image forming apparatus, image processing such as edge enhancement (sharpness) processing is performed on image data in the CMYK format. Japanese Unexamined Patent Application Publication No. 2002-200002 describes a technique for performing edge enhancement processing on CMYK format image data used for image formation in an image forming apparatus. In such an image forming apparatus, the degree of edge enhancement is set so as to be optimal for CMYK format image data output using prestored color conversion parameters.

特開2015-2443号公報JP 2015-2443 A

上述のような画像形成装置において、印刷データがRGB形式ではなくCMYK形式で入力される場合がある。例えば、何らかのアプリケーションでRGB形式からCMYK形式への変換が行われた後の印刷データが画像形成装置に入力される場合がある。この場合、画像形成装置は、どのような色変換パラメータを用いてRGB形式からCMYK形式に変換されたのかを特定できない。 In the image forming apparatus as described above, print data may be input in CMYK format instead of RGB format. For example, print data that has been converted from the RGB format to the CMYK format by some application may be input to the image forming apparatus. In this case, the image forming apparatus cannot specify what kind of color conversion parameter was used to convert from the RGB format to the CMYK format.

このようにCMYK形式で入力された印刷データに対して、RGB形式で入力された場合と同様のエッジ強調処理を行った場合、最適なエッジ強調処理を行うことができないことがありうる。例えば、コントラストに関連する処理の影響を受けやすいブラック成分(K成分)が印刷データに多く含まれていると、シャープネスがかかりすぎてしまうという課題がある。 If print data input in CMYK format is subjected to the same edge enhancement processing as in the case of input in RGB format, it may not be possible to perform optimum edge enhancement processing. For example, if the print data contains a lot of black components (K components) that are susceptible to contrast-related processing, there is a problem that sharpness is applied too much.

本発明は、上述の課題に鑑みてなされたものである。本発明は、入力された印刷データ(画像データ)の色空間に依存して当該印刷データに対してエッジ強調処理が過剰に行われることを防ぐ技術を提供することを目的とする。 The present invention has been made in view of the above problems. SUMMARY OF THE INVENTION It is an object of the present invention to provide a technique for preventing excessive edge enhancement processing on input print data (image data) depending on the color space of the print data.

本発明の一態様に係る画像形成装置は、印刷対象の画像データの入力を受け付ける受け付け手段と、前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換手段と、前記入力された画像データの色空間が前記第1色空間である場合には、前記変換手段による変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理手段であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理手段と、を備え、前記処理手段は、前記入力された画像データの色空間が前記第2色空間である場合に、前記入力された画像データの色空間が前記第1色空間である場合よりも、前記エッジ強調処理におけるエッジ強調の度合いを弱くすることを特徴とする。
An image forming apparatus according to an aspect of the present invention includes a receiving unit that receives input of image data to be printed, and a second color space when the color space of the input image data is a first color space. conversion means for converting into image data in a color space; and edge enhancement processing for the image data after conversion by the conversion means when the color space of the input image data is the first color space. and processing means for performing the edge enhancement process on the input image data when the color space of the input image data is the second color space, the processing means comprising: the processing means for varying the degree of edge enhancement in the edge enhancement process depending on whether the color space is the first color space or the second color space; When the color space of the input image data is the second color space, the degree of edge enhancement in the edge enhancement process is made higher than when the color space of the input image data is the first color space. Characterized by weakening .

本発明によれば、入力された印刷データ(画像データ)の色空間に依存して当該印刷データに対してエッジ強調処理が過剰に行われることを防ぐことが可能になる。 According to the present invention, it is possible to prevent excessive edge enhancement processing on input print data (image data) depending on the color space of the print data.

画像形成装置のハードウェア構成例を示すブロック図。FIG. 2 is a block diagram showing a hardware configuration example of an image forming apparatus; 画像形成装置のハードウェア構成例を示す断面図。FIG. 2 is a cross-sectional view showing a hardware configuration example of an image forming apparatus; 画像処理部による画像処理に対応する機能ブロック構成例を示すブロック図。FIG. 2 is a block diagram showing a configuration example of functional blocks corresponding to image processing by an image processing unit; エッジ強調部によるエッジ強調処理の手順を示すフローチャート。6 is a flowchart showing the procedure of edge enhancement processing by an edge enhancement unit; エッジ強調処理の結果の例を示す図。4A and 4B are diagrams showing examples of results of edge enhancement processing; FIG. 白色度の累積の対象となる、注目画素の周囲の画素群の例を示す図。FIG. 4 is a diagram showing an example of a group of pixels surrounding a pixel of interest, which is subject to accumulation of whiteness; エッジ強調量の補正用の補正値αCMYの例を示す図。FIG. 4 is a diagram showing an example of a correction value α CMY for correcting the edge enhancement amount; エッジ強調処理の結果の例を示す図。4A and 4B are diagrams showing examples of results of edge enhancement processing; FIG. エッジ強調部によるエッジ強調処理の手順を示すフローチャート。6 is a flowchart showing the procedure of edge enhancement processing by an edge enhancement unit; エッジ強調量の補正用の補正値αKの例を示す図。FIG. 5 is a diagram showing an example of a correction value α K for correcting an edge enhancement amount; エッジ強調の度合いを調整するためのUIの例を示す図。FIG. 5 is a diagram showing an example of UI for adjusting the degree of edge enhancement;

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一又は同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

[第1実施形態]
<画像形成装置の構成>
図1は、本実施形態に係る画像形成装置10のハードウェア構成例を示すブロック図である。画像形成装置10は、シアン(C)、マゼンタ(M)、イエロー(Ye)(以下では、輝度Yと区別するため単色の場合に限り「Ye」と表記する。)及びブラック(K)の、4色のトナーを用いてシートに画像を形成する画像形成機能(印刷機能)を有する。画像形成装置10は、更に、原稿の画像の読み取り(スキャン)を行う読取機能、原稿の画像のコピーを行うコピー機能、及び画像データを外部装置へ送信する送信機能等の、種々の機能を有する。
[First embodiment]
<Configuration of Image Forming Apparatus>
FIG. 1 is a block diagram showing a hardware configuration example of an image forming apparatus 10 according to this embodiment. The image forming apparatus 10 displays cyan (C), magenta (M), yellow (Ye) (hereinbelow, in order to distinguish from luminance Y, it is expressed as “Ye” only in the case of a single color) and black (K), It has an image forming function (printing function) that forms an image on a sheet using toner of four colors. The image forming apparatus 10 further has various functions such as a reading function of reading (scanning) an image of a document, a copying function of copying an image of a document, and a transmission function of transmitting image data to an external device. .

画像形成装置10は、画像読取部101、画像処理部102、記憶部103、CPU104、画像出力部105、ユーザインタフェース(UI)部106、及び通信部107を備える。なお、画像形成装置10は、画像データを管理するサーバ装置、プリントの実行を指示するパーソナルコンピュータ(PC)等の外部装置に、有線又は無線ネットワーク等を介して接続可能である。 The image forming apparatus 10 includes an image reading unit 101 , an image processing unit 102 , a storage unit 103 , a CPU 104 , an image output unit 105 , a user interface (UI) unit 106 and a communication unit 107 . The image forming apparatus 10 can be connected to external devices such as a server device that manages image data and a personal computer (PC) that instructs execution of printing via a wired or wireless network.

記憶部103は、ROM、RAM、及びハードディスクドライブ(HDD)等のデバイスで構成される。ROMは、CPU104によって実行される各種の制御プログラム及び画像処理プログラムを格納する。RAMは、CPU104が各種のデータ及び情報を格納する参照領域又は作業領域として用いられる。また、色変換処理(色分解処理)に用いられる色変換テーブル、及び画像処理用のその他の処理パラメータも、RAM又はHDDに格納される。CPU104は、RAM及びHDDに画像データを蓄積することで、例えば、ページのソートを行い、ソートされた複数のページにわたる原稿の画像データを蓄積し、複数部数の印刷出力を行う処理を実行しうる。 The storage unit 103 is composed of devices such as a ROM, a RAM, and a hard disk drive (HDD). The ROM stores various control programs and image processing programs executed by the CPU 104 . The RAM is used as a reference area or work area in which the CPU 104 stores various data and information. A color conversion table used for color conversion processing (color separation processing) and other processing parameters for image processing are also stored in the RAM or HDD. By accumulating image data in the RAM and HDD, the CPU 104 can execute processing for, for example, sorting pages, accumulating image data of the sorted document over a plurality of pages, and printing out a plurality of copies. .

画像読取部101は、原稿の画像を読み取って画像データを生成する。画像出力部105は、シートに画像を形成(出力)する。なお、シートは、記録紙、記録材、記録媒体、用紙、転写材、転写紙等と称されてもよい。UI部106は、各種情報を表示する表示部、及びユーザの操作を受け付ける入力部で構成される。入力部は、例えば、表示部と一体化したタッチパネルである。UI部106は、例えば、画像処理部102による画像処理の種類又は設定等をユーザが指示するための操作を受け付ける。 The image reading unit 101 reads an image of a document and generates image data. The image output unit 105 forms (outputs) an image on a sheet. Note that the sheet may also be referred to as recording paper, recording material, recording medium, paper, transfer material, transfer paper, and the like. The UI unit 106 includes a display unit that displays various information and an input unit that receives user operations. The input unit is, for example, a touch panel integrated with the display unit. The UI unit 106 receives, for example, an operation for instructing the type or setting of image processing by the image processing unit 102 from the user.

通信部107は、外部装置と通信可能な通信インタフェースである。通信部107は、例えば、外部装置から印刷データ(画像データ)を受信し、受信した印刷データを記憶部103に保存する。また、通信部107は、記憶部103に格納されている印刷データ(画像データ)を外部装置へ送信する。 A communication unit 107 is a communication interface capable of communicating with an external device. For example, the communication unit 107 receives print data (image data) from an external device and stores the received print data in the storage unit 103 . The communication unit 107 also transmits print data (image data) stored in the storage unit 103 to an external device.

画像処理部102には、画像読取部101又は通信部107等から、画像データを含む印刷データが入力される。印刷データは、ページ記述言語(PDL)と呼ばれる、描画を指示するためのプログラミング言語(例えば、LIPS又はPostScript(登録商標))で記述される。なお、LIPSの印刷データはRGB色空間で表現され、PostScriptの印刷データはCMYK色空間で表現される。画像処理部102は、印刷データを解釈するインタプリタをPDLの種類ごとに有している。 Print data including image data is input to the image processing unit 102 from the image reading unit 101, the communication unit 107, or the like. The print data is described in a programming language (for example, LIPS or PostScript (registered trademark)) for instructing drawing called a page description language (PDL). Note that LIPS print data is expressed in the RGB color space, and PostScript print data is expressed in the CMYK color space. The image processing unit 102 has an interpreter that interprets print data for each type of PDL.

画像処理部102は、入力された印刷データを中間データに変換し、当該中間データを記憶部103に設けられたバッファに格納(バッファリング)する。その際、画像処理部102は、異なる種類のPDLで記述された印刷データを共通の中間データに変換する。なお、上記のバッファは、RAM又はHDDの記憶領域に設けられる。画像処理部102は、更に、バッファリングされた中間データに基づいて、印刷データに対応する色空間の画像データを生成し、生成した画像データを記憶部103のバッファに格納する。その際、画像処理部102は、色変換処理、エッジ強調処理及びハーフトーン処理を、画像データに対して行う。 The image processing unit 102 converts the input print data into intermediate data, and stores (buffers) the intermediate data in a buffer provided in the storage unit 103 . At this time, the image processing unit 102 converts print data described in different types of PDL into common intermediate data. The above buffer is provided in a storage area of RAM or HDD. The image processing unit 102 further generates image data in a color space corresponding to the print data based on the buffered intermediate data, and stores the generated image data in the buffer of the storage unit 103 . At that time, the image processing unit 102 performs color conversion processing, edge enhancement processing, and halftone processing on the image data.

図2は、画像形成装置10のハードウェア構成例を示す断面図である。ここでは、画像読取部101によって原稿の画像を読み取り、当該画像を画像出力部105によってシートに印刷するコピー処理を例に、画像形成装置10の構成及び動作を説明する。 FIG. 2 is a cross-sectional view showing a hardware configuration example of the image forming apparatus 10. As shown in FIG. Here, the configuration and operation of the image forming apparatus 10 will be described by taking as an example copy processing in which the image reading unit 101 reads an image of a document and the image output unit 105 prints the image on a sheet.

画像読取部101において、原稿台ガラス203と原稿圧板202との間に置かれた、読取対象の原稿204に対して、ランプ205からの光が照射される。原稿204からの反射光は、ミラー206及び207に導かれ、レンズ208によって3ラインセンサ210上に結像される。なお、レンズ208には赤外カットフィルタ231が設けられている。ミラー206及びランプ205を含むミラーユニットは、モータ(図示せず)によって駆動されて速度Vで矢印の方向に移動する。また、ミラー207を含むミラーユニットは、モータによって駆動されて速度V/2で矢印の方向に移動する。このように、3ラインセンサ210の電気的走査方向(主走査方向)に対して垂直方向(副走査方向)にこれらのミラーユニットが移動することで、原稿204の全面が走査される。 In the image reading unit 101 , a document 204 to be read placed between a document platen glass 203 and a document pressure plate 202 is irradiated with light from a lamp 205 . Reflected light from the document 204 is guided to mirrors 206 and 207 and imaged on a 3-line sensor 210 by a lens 208 . Note that the lens 208 is provided with an infrared cut filter 231 . A mirror unit including a mirror 206 and a lamp 205 is driven by a motor (not shown) to move at a speed V in the direction of the arrow. A mirror unit including the mirror 207 is driven by a motor to move in the direction of the arrow at a speed of V/2. In this manner, the entire surface of the document 204 is scanned by moving these mirror units in the direction (sub-scanning direction) perpendicular to the electrical scanning direction (main scanning direction) of the 3-line sensor 210 .

3ラインセンサ210は、3ラインのCCD210-1,210-2,210-3で構成される。3ラインセンサ210は、入射光を電気信号に変換し、レッド(R)、グリーン(G)及びブルー(B)の色成分から成る、RGB色空間の画像データを生成し、画像処理部102へ送信する。標準白色板211は、3ラインセンサ210の各CCDによって生成された画像データの補正に用いられる。 The 3-line sensor 210 is composed of 3-line CCDs 210-1, 210-2, and 210-3. The 3-line sensor 210 converts the incident light into electrical signals, generates image data in the RGB color space consisting of red (R), green (G), and blue (B) color components, and sends the data to the image processing unit 102 . Send. A standard white plate 211 is used to correct image data generated by each CCD of the 3-line sensor 210 .

画像処理部102は、3ラインセンサ210から入力されたRGB色空間の画像データに対して色変換処理を行う。具体的には、画像処理部102は、入力された画像データから、シアン(C)、マゼンタ(M)、イエロー(Ye)及びブラック(K)の各色成分の画像データ(CMYK色空間の画像データ)を生成する。更に、画像処理部102は、生成した画像データに対してハーフトーン処理を行い、ハーフトーン処理が行われた画像データを画像出力部105へ送信する。 The image processing unit 102 performs color conversion processing on the image data in the RGB color space input from the 3-line sensor 210 . Specifically, the image processing unit 102 extracts image data of each color component of cyan (C), magenta (M), yellow (Ye), and black (K) from the input image data (image data in the CMYK color space). ). Further, the image processing unit 102 performs halftone processing on the generated image data, and transmits the image data on which the halftone processing has been performed to the image output unit 105 .

画像出力部105において、画像処理部102から受信した、CMYK色空間の画像データは、レーザドライバ212へ入力される。レーザドライバ212は、入力された画像データの各色成分データに応じて半導体レーザ素子213を駆動する。半導体レーザ素子213から出力されたレーザビームは、ポリゴンミラー214、fθレンズ215及びミラー216を介して、感光ドラム217に照射される。これにより、感光ドラム217に入力された画像データに対応する静電潜像が感光ドラム217に形成される。 In the image output unit 105 , the image data in the CMYK color space received from the image processing unit 102 is input to the laser driver 212 . The laser driver 212 drives the semiconductor laser element 213 according to each color component data of the input image data. A laser beam output from the semiconductor laser element 213 is irradiated onto the photosensitive drum 217 via the polygon mirror 214 , the fθ lens 215 and the mirror 216 . As a result, an electrostatic latent image corresponding to the image data input to the photosensitive drum 217 is formed on the photosensitive drum 217 .

現像器219~222は、それぞれC,M,Ye,Kのトナーを用いて、感光ドラム217に形成された静電潜像を現像する。これにより、感光ドラム217上にトナー像が形成される。給紙カセット225から供給されたシートは、搬送路を搬送されて転写ドラム223に巻き付けられる。感光ドラム217上のC,M,Ye,Kのトナー像が、シート上に順に重ね合わせて転写される。このようにして、多色画像が形成されたシートは、定着ユニット226による定着処理が行われた後、装置外の排紙トレイへ排出される。 Developing units 219 to 222 develop the electrostatic latent image formed on the photosensitive drum 217 using C, M, Ye, and K toners, respectively. Thereby, a toner image is formed on the photosensitive drum 217 . A sheet supplied from the paper feed cassette 225 is transported along the transport path and wound around the transfer drum 223 . The toner images of C, M, Ye, and K on the photosensitive drum 217 are superimposed and transferred onto the sheet in order. The sheet on which the multicolor image is thus formed is subjected to fixing processing by the fixing unit 226, and then discharged to a paper discharge tray outside the apparatus.

<画像処理部の機能構成>
図3は、本実施形態に係る画像処理部102による画像処理に対応する機能ブロック構成例を示すブロック図である。図3に示されるように、画像処理部102は、画像形成装置10における印刷対象の画像データの入力として、RGB色空間(第1色空間)の画像データと、CMYK色空間(第2色空間)の画像データとのいずれかの入力を受け付ける。上述のように、3ラインセンサ210から画像データが入力される場合に、RGB色空間の画像データが画像処理部102に入力される。また、外部装置からRGB色空間で記述された印刷データが受信された場合に、RGB色空間の画像データが画像処理部102に入力される。
<Functional Configuration of Image Processing Unit>
FIG. 3 is a block diagram showing a functional block configuration example corresponding to image processing by the image processing unit 102 according to this embodiment. As shown in FIG. 3, the image processing unit 102 receives image data in the RGB color space (first color space) and image data in the CMYK color space (second color space) as input of image data to be printed in the image forming apparatus 10. ) and accepts any input with image data. As described above, when image data is input from the 3-line sensor 210 , image data in the RGB color space is input to the image processing unit 102 . Also, when print data described in the RGB color space is received from an external device, image data in the RGB color space is input to the image processing unit 102 .

画像処理部102は、RGB色空間の画像データが入力された場合には、エッジ強調処理の実行前に色変換処理を実行する。色変換部301は、RGB色空間の画像データを、トナー色に対応する4色の色成分から成る、CMYK色空間の画像データに変換する。この変換は、記憶部103(HDD)に格納されている色変換テーブル(色変換パラメータ)を用いて行われる。このように、色変換部301は、画像処理部102(画像形成装置10)への入力画像データの色空間がRGB色空間(第1色空間)である場合に、当該画像データをCMYK色空間(第2色空間)の画像データに変換する。 When image data in the RGB color space is input, the image processing unit 102 executes color conversion processing before executing edge enhancement processing. A color conversion unit 301 converts image data in the RGB color space into image data in the CMYK color space, which consists of four color components corresponding to toner colors. This conversion is performed using a color conversion table (color conversion parameters) stored in the storage unit 103 (HDD). In this manner, when the color space of input image data to the image processing unit 102 (image forming apparatus 10) is the RGB color space (first color space), the color conversion unit 301 converts the image data into the CMYK color space. (Second color space) image data.

エッジ強調部302は、CMYK色空間の画像データに対して、後述するエッジ強調処理を行う。図3に示されるように、エッジ強調部302は、入力画像データの色空間がRGB色空間(第1色空間)である場合には、色変換部301による変換後の、CMYK色空間の画像データに対してエッジ強調処理を行う。一方、エッジ強調部302は、入力画像データの色空間がCMYK色空間(第2色空間)である場合には、当該入力画像データに対してエッジ強調処理を行う。 An edge enhancement unit 302 performs edge enhancement processing, which will be described later, on image data in the CMYK color space. As shown in FIG. 3, when the color space of the input image data is the RGB color space (first color space), the edge enhancement unit 302 converts the image in the CMYK color space after conversion by the color conversion unit 301. Edge enhancement processing is performed on the data. On the other hand, when the color space of the input image data is the CMYK color space (second color space), the edge enhancement unit 302 performs edge enhancement processing on the input image data.

本実施形態では、エッジ強調部302は、入力画像データの色空間がRGB色空間である場合と、入力画像データの色空間がCMYK色空間である場合とで、エッジ強調処理におけるエッジ強調の度合いを異ならせる。これにより、入力された印刷データ(画像データ)の色空間に依存して当該印刷データに対してエッジ強調処理が過剰に行われることを防ぐことを可能にする。 In this embodiment, the edge enhancement unit 302 determines the degree of edge enhancement in the edge enhancement process depending on whether the color space of the input image data is the RGB color space or the color space of the input image data is the CMYK color space. be different. This makes it possible to prevent excessive edge enhancement processing on input print data (image data) depending on the color space of the print data.

後述するように、エッジ強調部302によるエッジ強調処理は、処理対象の画像データから得られる輝度信号に対するフィルタ処理を含む。本実施形態では、図4を用いて後述するように、入力画像データの色空間に応じて、フィルタ処理におけるフィルタゲインを調整することで、エッジ強調の度合いを調整する例を説明する。エッジ強調部302は、入力画像データの色空間がCMYK色空間(第2色空間)である場合に、入力画像データの色空間がRGB色空間(第1色空間)である場合よりも、フィルタゲインを小さくする。これにより、エッジ強調部302は、入力画像データの色空間がCMYK色空間(第2色空間)である場合に、入力画像データの色空間がRGB色空間(第1色空間)である場合よりも、エッジ強調処理におけるエッジ強調の度合いを弱くする。 As will be described later, edge enhancement processing by the edge enhancement unit 302 includes filtering processing for luminance signals obtained from image data to be processed. In this embodiment, as will be described later with reference to FIG. 4, an example will be described in which the degree of edge enhancement is adjusted by adjusting the filter gain in the filtering process according to the color space of the input image data. When the color space of the input image data is the CMYK color space (second color space), the edge enhancement unit 302 performs filtering more than when the color space of the input image data is the RGB color space (first color space). Decrease the gain. As a result, when the color space of the input image data is the CMYK color space (the second color space), the edge enhancement unit 302 can perform the edge enhancement more effectively than when the color space of the input image data is the RGB color space (the first color space). also weakens the degree of edge enhancement in edge enhancement processing.

エッジ強調処理が行われた画像データは、エッジ強調部302からハーフトーン処理部303へ出力される。ハーフトーン処理部303は、例えばディザ法を用いたハーフトーン処理を行う。ハーフトーン処理後の画像データは、画像出力部105へ送信されるか、又は記憶部103に格納される。 Image data that has undergone edge enhancement processing is output from the edge enhancement unit 302 to the halftone processing unit 303 . A halftone processing unit 303 performs halftone processing using a dither method, for example. Image data after halftone processing is transmitted to the image output unit 105 or stored in the storage unit 103 .

<エッジ強調処理>
図4は、エッジ強調部302によって実行されるエッジ強調処理の手順を示すフローチャートである。図4に示される各ステップの処理は、CPU104からの命令に従ってエッジ強調部302(画像処理部102)によって実行される。
<Edge enhancement processing>
FIG. 4 is a flow chart showing the procedure of edge enhancement processing executed by the edge enhancement unit 302. As shown in FIG. The processing of each step shown in FIG. 4 is executed by the edge enhancement unit 302 (image processing unit 102) according to instructions from the CPU 104. FIG.

ここでは、一例として、処理対象の画像データに含まれる色成分信号のうち、ブラックに対応する色成分信号(K信号)から得られる輝度信号(L信号)に対するフィルタ処理におけるフィルタゲインを、入力画像データの色空間に応じて調整する。これにより、とりわけコントラストに関連する処理の影響を受けやすいK信号に対して、過剰にエッジ強調(シャープネス)処理が行われることを防止することが可能になる。 Here, as an example, the filter gain in the filtering process for the luminance signal (L signal) obtained from the color component signal (K signal) corresponding to black among the color component signals included in the image data to be processed is the input image. Adjust according to the color space of the data. This makes it possible to prevent excessive edge enhancement (sharpness) processing from being performed on the K signal, which is particularly susceptible to contrast-related processing.

まずS401で、エッジ強調部302は、入力されたCMYK色空間の画像データを、ブラック以外の色に対応する色成分信号であるCMY信号と、ブラックに対応する色成分信号であるK信号とに分離する。更に、エッジ強調部302は、CMY信号をRGB信号に変換し、K信号をL信号に変換する。例えば、入力された画像データの各色の信号値(C,M,Ye,K)が8ビットで構成される(256階調の信号値である)場合、次式により、RGB信号及びL信号(輝度)の信号値への変換が可能である。
R=255-C
G=255-M
B=255-Ye
L=255-K (1)
なお、式(1)における数値「255」は、ビット数dに応じて(2d-1)として定められた値である。
First, in S401, the edge enhancement unit 302 divides the input image data in the CMYK color space into CMY signals, which are color component signals corresponding to colors other than black, and K signals, which are color component signals corresponding to black. To separate. Furthermore, the edge enhancement section 302 converts the CMY signals into RGB signals and converts the K signals into L signals. For example, when the signal values (C, M, Ye, K) of each color of the input image data are composed of 8 bits (they are signal values of 256 gradations), the RGB signal and the L signal ( luminance) into signal values.
R = 255 - C
G=255-M
B = 255 - Ye
L = 255 - K (1)
Note that the numerical value "255" in equation (1) is a value determined as (2 d -1) according to the number of bits d.

S401において得られた各画素のRGB信号は、S402~S408の処理の対象となる。S401において得られた各画素のL信号は、S410~S415の処理の対象となる。S402~S408の処理及びS410~S415の処理は、それぞれ、画像データを構成する各画素を順に注目画素に設定して実行される。なお、S402~S408の処理とS410~S415の処理とは並列に実行されてもよいし、順に実行されてもよい。 The RGB signals of each pixel obtained in S401 are processed in S402 to S408. The L signal of each pixel obtained in S401 is processed in S410 to S415. The processes of S402 to S408 and the processes of S410 to S415 are respectively executed by sequentially setting each pixel forming the image data as the pixel of interest. The processing of S402 to S408 and the processing of S410 to S415 may be executed in parallel or sequentially.

(RGB信号に対するエッジ強調処理)
S402~S408の処理により、RGB信号の信号値(R,G,B)からエッジ強調後の信号値(R',G',B')が得られる。
(Edge enhancement processing for RGB signals)
Signal values (R', G', B') after edge enhancement are obtained from the signal values (R, G, B) of the RGB signals by the processing of S402 to S408.

まずS402で、エッジ強調部302は、RGB信号に対して、輝度・色差系の色空間への色変換を行う。本実施形態では、注目画素について、RGB信号の信号値(R,G,B)を、次式のように、YCbCr色空間の信号値(Y,Cb,Cr)に変換する。
Y = 0.2990*R+0.5870*G+0.1140*B
Cb=-0.1687*R-0.3313*G+0.5000*B
Cr= 0.5000*R-0.4187*G-0.0813*B (2)
なお、RGB信号の各色の信号値が8ビットで構成される場合、Y信号(輝度)は0~255の値、Cb信号(色差)は-128~127の値、Cr信号(色差)は-128~127の値を有する。この変換により、RGB信号が、Y信号、Cb信号及びCr信号に変換される。
First, in S402, the edge enhancement unit 302 performs color conversion on the RGB signal into a luminance/color difference color space. In this embodiment, for the target pixel, the signal values (R, G, B) of the RGB signals are converted into the signal values (Y, Cb, Cr) of the YCbCr color space as shown in the following equations.
Y = 0.2990*R+0.5870*G+0.1140*B
Cb=-0.1687*R-0.3313*G+0.5000*B
Cr = 0.5000*R-0.4187*G-0.0813*B (2)
When the signal value of each color of the RGB signal is composed of 8 bits, the Y signal (luminance) has a value of 0 to 255, the Cb signal (color difference) has a value of -128 to 127, and the Cr signal (color difference) has - It has a value of 128-127. This conversion converts the RGB signals into Y, Cb and Cr signals.

次にS403で、エッジ強調部302は、輝度信号(Y)及び色差信号(CbCr)から、所定のサイズのウィンドウ(フィルタウィンドウ)内の、注目画素及びその周囲の画素を含む複数の画素の信号値を抽出する。本実施形態では、一例として5×5画素のサイズのフィルタウィンドウが用いられる。 Next, in S403, the edge enhancement unit 302 extracts signals of a plurality of pixels including the pixel of interest and its surrounding pixels within a window (filter window) of a predetermined size from the luminance signal (Y) and the color difference signal (CbCr). Extract values. In this embodiment, a filter window with a size of 5×5 pixels is used as an example.

更にS404で、エッジ強調部302は、Y信号のフィルタウィンドウ内の信号値に対して所定のフィルタ係数のフィルタの畳み込み(フィルタ処理)を行うことによって、エッジ強調を行う。このフィルタ処理により、Y信号から、エッジ強調後の輝度信号であるY'信号が得られる。本実施形態において、S404のフィルタ処理は、処理対象の画像データに含まれる色成分信号のうち、ブラック以外の色に対応する色成分信号から得られる輝度信号(Y信号)に対する第1フィルタ処理の一例である。エッジ強調部302は、S404のフィルタ処理におけるフィルタゲインを、入力画像データの色空間によらず同一にする。 Furthermore, in S404, the edge enhancement unit 302 performs edge enhancement by performing filter convolution (filtering) with a predetermined filter coefficient on the signal values within the filter window of the Y signal. Through this filtering process, a Y' signal, which is a luminance signal after edge enhancement, is obtained from the Y signal. In the present embodiment, the filter processing in S404 is the first filter processing for the luminance signal (Y signal) obtained from the color component signals corresponding to colors other than black among the color component signals included in the image data to be processed. An example. The edge enhancement unit 302 makes the same filter gain in the filtering process in S404 regardless of the color space of the input image data.

S404におけるフィルタ処理の例としては、ラプラシアンフィルタを用いて2次微分の成分を計算し、得られた値を原画像の信号値から減算する処理がある。この処理を1回の畳み込みで実現する場合、例えば、以下のように行列で表現されるフィルタ係数が使用される。

Figure 0007261064000001
このフィルタ係数行列のサイズは、S403で使用されるフィルタウィンドウサイズ以下とされる必要がある。本実施形態では、S404の処理は、輝度信号(Y)に対してのみ行われ、色差信号(CbCr)に対しては行われない。これにより、画像の明るさのみが強調され、画像のエッジ部分における色変化を抑えることが可能になる。 As an example of the filtering process in S404, there is a process of calculating the secondary differential component using a Laplacian filter and subtracting the obtained value from the signal value of the original image. When implementing this process by one convolution, for example, filter coefficients represented by a matrix as shown below are used.
Figure 0007261064000001
The size of this filter coefficient matrix should be less than or equal to the filter window size used in S403. In this embodiment, the process of S404 is performed only on the luminance signal (Y) and not on the color difference signal (CbCr). As a result, only the brightness of the image is emphasized, making it possible to suppress color change in the edge portion of the image.

ここで、図5は、S404の処理結果の例を示す図である。図5に示されるグラフの横軸は画素の位置を示し、縦軸は各画素の輝度を示す。図5に示されるように、Y信号の変化点付近において、エッジ強調後のY'信号に変化が生じている。具体的には、エッジ強調後のY'信号は、画像の暗い部分についてはより暗くなり、明るい部分についてはより明るくなるように、コントラストが与えられることを示している。 Here, FIG. 5 is a diagram showing an example of the processing result of S404. The horizontal axis of the graph shown in FIG. 5 indicates the position of the pixel, and the vertical axis indicates the brightness of each pixel. As shown in FIG. 5, a change occurs in the Y' signal after edge enhancement near the change point of the Y signal. Specifically, the Y' signal after edge enhancement is contrasted such that darker portions of the image are darker and brighter portions are brighter.

S404の処理が完了すると、次にS405で、エッジ強調部302は、フィルタウィンドウ内の、注目画素の周囲の画素の白色度の累積値を求める。この累積値は、S406及びS407においてエッジ強調量の補正に用いられる。 When the process of S404 is completed, next in S405, the edge enhancement unit 302 obtains the cumulative value of the whiteness of the pixels surrounding the pixel of interest within the filter window. This cumulative value is used to correct the edge enhancement amount in S406 and S407.

本実施形態では、彩度が低く、かつ、輝度が高い画素を、白色度が高い画素と定義し、そのような画素の白色度が高い値を有するように白色度を設定する。具体的には、彩度Sは、色差信号(CbCr)を用いて算出される。上述のように、色差信号(CbCr)は色成分を示し、信号値(Cb,Cr)=(0,0)からの距離により、色の鮮やかさ(彩度)が表現される。このため、彩度Sは次式により求められる。
S=(Cb2+Cr21/2 (3)
In this embodiment, a pixel with low saturation and high luminance is defined as a pixel with high whiteness, and the whiteness is set so that such a pixel has a high whiteness value. Specifically, the saturation S is calculated using a color difference signal (CbCr). As described above, the color difference signal (CbCr) indicates a color component, and the distance from the signal value (Cb, Cr)=(0, 0) expresses the vividness (saturation) of the color. Therefore, the saturation S is obtained by the following equation.
S=(Cb 2 +Cr 2 ) 1/2 (3)

更に、ある画素の白色度Wは、例えば、上式により得られた彩度S、S401においてK信号から得られたL信号(輝度)、及びS402においてRGB信号から得られたY信号(輝度)を用いて、次式により求められる。
W=Y2+L2+(255-S)2 (4)
ここで、Y信号及びL信号は、値が大きいほど輝度が高いことを示し、彩度Sは、値が大きいほど彩度が高いことを示す。一方、(255-S)は、値が大きいほど彩度が低いことを示す。したがって、ある画素の白色度Wは、当該画素の輝度が高いほど大きな値となり、また、彩度が低いほど大きい値となる。高輝度の無彩色が白であることを考慮すれば、式(4)のWは、白色度を示すことが理解されよう。なお、L信号はK信号の補数であることから、白色度Wは、Y信号(輝度)及びK信号に基づいて決定しているとも理解されよう。
Furthermore, the whiteness W of a certain pixel is, for example, the saturation S obtained by the above equation, the L signal (luminance) obtained from the K signal in S401, and the Y signal (luminance) obtained from the RGB signals in S402. is obtained from the following equation using
W=Y 2 +L 2 +(255-S) 2 (4)
Here, the larger the value of the Y signal and the L signal, the higher the luminance, and the larger the value of the saturation S, the higher the saturation. On the other hand, (255-S) indicates that the larger the value, the lower the saturation. Therefore, the whiteness W of a certain pixel has a larger value as the brightness of the pixel is higher, and a larger value as the saturation is lower. Considering that the bright achromatic color is white, it will be appreciated that W in equation (4) indicates whiteness. Since the L signal is the complement of the K signal, it can be understood that the whiteness W is determined based on the Y signal (luminance) and the K signal.

S405において、エッジ強調部302は、注目画素の周囲の所定数の画素(画素群)について白色度Wを求め、その累積値を求める。図6は、注目画素の周囲の16画素について白色度Wの累積値を求める例を示している。図6の例では、注目画素601の周囲の、記号「x」で示される16個の画素群602について、それぞれ白色度Wが求められ、その累積値ΣWが求められる。本例によれば、例えば、正方形状に配置された画素群602のうち、当該正方形の一辺を構成する画素のみが白い場合の累積値に対して、全画素が白い場合は4倍の累積値が得られることになる。このようにして、着目画素の周囲の画素群の白さの程度として、白色度Wの積算値ΣWが求められる。 In S405, the edge enhancement unit 302 obtains the whiteness W for a predetermined number of pixels (pixel group) around the pixel of interest, and obtains the cumulative value. FIG. 6 shows an example of obtaining the cumulative value of whiteness W for 16 pixels around the target pixel. In the example of FIG. 6, the whiteness W is obtained for each of the 16 pixel groups 602 indicated by the symbol "x" around the pixel of interest 601, and the cumulative value ΣW thereof is obtained. According to this example, for example, in the pixel group 602 arranged in a square, the cumulative value obtained when only the pixels forming one side of the square are white is four times the cumulative value when all the pixels are white. will be obtained. In this way, the integrated value ΣW of the whiteness W is obtained as the degree of whiteness of the pixel group surrounding the pixel of interest.

次にS406で、エッジ強調部302は、S405で得られた累積値ΣWに応じて、エッジ強調量を補正する補正値αCMYを生成する。補正値αCMYは、0から1.0の値を取りうる。αCMY=1.0は補正が不要であり、αCMYの値が小さいほど補正量が大きくなるように定義される。例えば、図7に示されるように、αCMYは、累積値ΣWが小さいほど1.0に近づき、累積値ΣWが大きいほど小さくなる(0に近づく)ように生成される。エッジ強調部302は、図7に示される対応関係を用いて、累積値ΣWに対応する補正値αCMYを取得する。なお、補正値αCMYの生成は、累積値ΣWを入力とし、αCMYを出力としたルックアップテーブル(LUT)を用いることで実現できる。このLUTは、予め記憶部103に格納され、記憶部103から読み出されて使用されうる。 Next, in S406, the edge enhancement unit 302 generates a correction value α CMY for correcting the edge enhancement amount according to the cumulative value ΣW obtained in S405. The correction value α CMY can take values from 0 to 1.0. α CMY =1.0 does not require correction, and is defined such that the smaller the value of α CMY , the larger the amount of correction. For example, as shown in FIG. 7, α CMY is generated so that it approaches 1.0 as the cumulative value ΣW decreases, and decreases (approaches 0) as the cumulative value ΣW increases. Edge enhancement section 302 acquires correction value α CMY corresponding to cumulative value ΣW using the correspondence shown in FIG. 7 . Note that the correction value α CMY can be generated by using a lookup table (LUT) that receives the accumulated value ΣW and outputs α CMY . This LUT can be stored in the storage unit 103 in advance and read out from the storage unit 103 for use.

更にS407で、エッジ強調部302は、S406で得られた補正値αCMY、S402で得られた原画像のY信号、及びS404で得られたエッジ強調後のY'信号に基づいて、エッジ強調量の補正処理を行う。補正後の輝度信号であるY''信号は、次式のように、Y信号及びエッジ強調後のY'信号に対して、それぞれαCMYに応じた重み付けを行い、重み付け後の信号を合成することによって得られる。
Y''=(1.0-αCMY)*Y+αCMY*Y' (5)
Furthermore, in S407, the edge enhancement unit 302 performs edge enhancement based on the correction value α CMY obtained in S406, the Y signal of the original image obtained in S402, and the Y′ signal after edge enhancement obtained in S404. Perform amount correction processing. The Y'' signal, which is the luminance signal after correction, is obtained by weighting the Y signal and the Y' signal after edge enhancement according to α CMY as shown in the following equation, and synthesizing the weighted signals. obtained by
Y''=(1.0- αCMY )*Y+ αCMY *Y' (5)

このようにして、エッジ強調部302は、エッジ強調量の補正のために、S404のフィルタ処理が行われる前の輝度信号(Y信号)と当該フィルタ処理により得られた輝度信号(Y'信号)とを、それぞれ重み付けして合成する。 In this manner, the edge enhancement unit 302 combines the brightness signal (Y signal) before the filtering process in S404 and the brightness signal (Y' signal) obtained by the filtering process to correct the edge enhancement amount. and are respectively weighted and synthesized.

その後S408で、エッジ強調部302は、S407の補正処理後の信号に対して、YCbCr色空間からRGB色空間への逆変換を行う。具体的には、次式のように、S402における色変換の逆行列演算を行うことで、注目画素についてのエッジ強調後の信号値(R',G',B')が得られる。
R'=Y'' +1.4020*Cr
G'=Y''-0.3441*Cb-0.7141*Cr
B'=Y''+1.7720*Cb (6)
After that, in S408, the edge enhancement unit 302 performs inverse conversion from the YCbCr color space to the RGB color space on the signal after the correction processing in S407. Specifically, as shown in the following equation, the signal values (R′, G′, B′) after edge enhancement for the pixel of interest are obtained by performing the inverse matrix calculation of the color conversion in S402.
R′=Y″+1.4020*Cr
G′=Y″−0.3441*Cb−0.7141*Cr
B'=Y''+1.7720*Cb (6)

(L信号に対するエッジ強調処理)
一方、S410~S415の処理により、L信号の信号値からエッジ強調後の輝度信号であるL''信号の信号値が得られる。
(Edge enhancement processing for L signal)
On the other hand, through the processing of S410 to S415, the signal value of the L'' signal, which is the luminance signal after edge enhancement, is obtained from the signal value of the L signal.

まずS410で、エッジ強調部302は、L信号(輝度)から、S403と同様に、所定のサイズのフィルタウィンドウ内の、注目画素及びその周囲の画素を含む複数の画素の信号値を抽出する。 First, in S410, the edge enhancement unit 302 extracts signal values of a plurality of pixels including the pixel of interest and surrounding pixels within a filter window of a predetermined size from the L signal (luminance), as in S403.

次にS411で、エッジ強調部302は、画像処理部102に入力された画像データ(印刷データ)の色空間(入力色空間)が、RGB色空間であるかCMYK色空間であるかを判定する。エッジ強調部302は、入力色空間がRGB色空間である場合にはS412へ処理を進め、CMYK色空間である場合にはS413へ処理を進める。 Next, in step S411, the edge enhancement unit 302 determines whether the color space (input color space) of the image data (print data) input to the image processing unit 102 is the RGB color space or the CMYK color space. . The edge enhancement unit 302 advances the process to S412 if the input color space is the RGB color space, and advances the process to S413 if it is the CMYK color space.

入力された画像データの色空間がRGB色空間である場合、S412で、エッジ強調部302は、L信号に対してS404と同様にエッジ強調を行う。具体的には、エッジ強調部302は、L信号のフィルタウィンドウ内の信号値に対して所定のフィルタ係数のフィルタの畳み込み(フィルタ処理)を行うことで、L信号からエッジ強調後の輝度信号であるL'信号を求める。 If the color space of the input image data is the RGB color space, in S412 the edge enhancement unit 302 performs edge enhancement on the L signal in the same manner as in S404. Specifically, the edge enhancement unit 302 performs filter convolution (filtering) with a predetermined filter coefficient on the signal value within the filter window of the L signal, thereby converting the L signal into the edge-enhanced luminance signal. Find some L' signal.

一方、入力された画像データの色空間がCMYK色空間である場合、S413で、エッジ強調部302は、S412とは異なるフィルタ係数を用いて、L信号に対してエッジ強調を行うことで、エッジ強調後のL'信号を求める。具体的には、エッジ強調部302は、S412で使用される各フィルタ係数に対して、フィルタ処理におけるフィルタゲインを調整するためのゲイン調整値Gを一様に乗算する。これにより、フィルタ係数を用いたフィルタ処理によるエッジ強調の度合いを変更する。本実施形態では、一例として、ゲイン調整値G=0.5に設定する。これにより、画像データの色空間がCMYK色空間である場合、画像データの色空間がRGB色空間である場合と比べて、K信号に対するエッジ強調の度合いが抑制される。 On the other hand, if the color space of the input image data is the CMYK color space, in S413 the edge enhancement unit 302 uses a filter coefficient different from that in S412 to perform edge enhancement on the L signal, thereby increasing the edge Find the L' signal after enhancement. Specifically, the edge enhancement unit 302 uniformly multiplies each filter coefficient used in S412 by a gain adjustment value G for adjusting the filter gain in the filtering process. This changes the degree of edge enhancement by filtering using the filter coefficient. In this embodiment, as an example, the gain adjustment value G is set to 0.5. As a result, when the color space of the image data is the CMYK color space, the degree of edge enhancement for the K signal is suppressed compared to when the color space of the image data is the RGB color space.

例えば、ゲイン調整値G=0.5の場合、S404及びS412で使用されるフィルタ係数にゲイン調整値Gを乗算することで、以下のようなフィルタ係数行列が得られる。

Figure 0007261064000002
なお、このフィルタ係数行列を使用した場合、L'信号の値が全体的に低くなり、暗い画像が得られることになるため、フィルタ係数行列の中央に位置する係数(1.04)を、当該行列内の係数の総和が1.0となるように調整(オフセット)する。本例では、中央に位置する係数に0.5を加算して得られた、以下のフィルタ係数行列が、S413の処理に使用される。なお、ゲイン調整値Gが適用された上記のフィルタ係数行列が予め用意され、記憶部103に格納されていてもよい。また、ゲイン調整値Gは、1.0未満の値であれば、0.5以外の値であってもよい。 For example, when the gain adjustment value G=0.5, the following filter coefficient matrix is obtained by multiplying the gain adjustment value G by the filter coefficients used in S404 and S412.
Figure 0007261064000002
Note that when this filter coefficient matrix is used, the value of the L' signal is generally low, resulting in a dark image. Adjust (offset) so that the sum of the coefficients in the matrix is 1.0. In this example, the following filter coefficient matrix obtained by adding 0.5 to the centrally located coefficient is used for the processing of S413. Note that the filter coefficient matrix to which the gain adjustment value G is applied may be prepared in advance and stored in the storage section 103 . Also, the gain adjustment value G may be a value other than 0.5 as long as it is less than 1.0.

本実施形態において、S412及びS413のフィルタ処理は、ブラックに対応する色成分信号から得られる輝度信号(L信号)に対する第2フィルタ処理の一例である。エッジ強調部302は、入力画像データの色空間に応じてエッジ強調の度合いを調整するために、上述のようにして、フィルタ処理におけるフィルタゲインを入力画像データの色空間に応じて調整する。 In the present embodiment, the filtering process of S412 and S413 is an example of second filtering process for the luminance signal (L signal) obtained from the color component signal corresponding to black. In order to adjust the degree of edge enhancement according to the color space of the input image data, the edge enhancement unit 302 adjusts the filter gain in the filtering process according to the color space of the input image data as described above.

ここで、図8は、S412及びS413の処理結果の例を示す図である。図8に示されるグラフの横軸は画素の位置を示し、縦軸は各画素の輝度を示す。図8に示されるように、L信号(輝度)の変化点付近において、入力色空間がRGB色空間である場合とCMYK色空間である場合のいずれも、エッジ強調後のL'信号に変化が生じている。具体的には、エッジ強調後のL'信号は、画像の暗い部分についてはより暗くなり、明るい部分についてはより明るくなるように、コントラストが与えられることを示している。また、入力色空間がCMYK色空間である場合のL'信号は、入力色空間がRGB色空間である場合のL'信号よりも変化の大きさが小さくなっており、これはエッジ強調の度合いが抑制されていることを示している。 Here, FIG. 8 is a diagram showing an example of the processing results of S412 and S413. The horizontal axis of the graph shown in FIG. 8 indicates the pixel position, and the vertical axis indicates the luminance of each pixel. As shown in FIG. 8, near the change point of the L signal (luminance), there is no change in the L' signal after edge enhancement in both the case where the input color space is the RGB color space and the case where the input color space is the CMYK color space. is occurring. Specifically, the L' signal after edge enhancement is contrasted such that the dark portions of the image are darker and the bright portions are brighter. The L' signal when the input color space is the CMYK color space has a smaller change than the L' signal when the input color space is the RGB color space, which indicates the degree of edge enhancement. is suppressed.

このような処理によれば、CMYK色空間で表現された印刷データ(画像データ)に対して外部装置において想定外の色変換が行われていたとしても、画像処理部102においてK信号に対して過度のエッジ強調を行ってしまうことを防止できる。 According to such processing, even if an external device performs unexpected color conversion on print data (image data) expressed in the CMYK color space, the image processing unit 102 can convert the K signal into Excessive edge enhancement can be prevented.

次にS414で、エッジ強調部302は、S406と同様に、S405で得られた白色度の累積値ΣWに応じて、エッジ強調量を補正する補正値αKを生成する。更にS415で、エッジ強調部302は、S407と同様に、S414で得られた補正値αK、S401で得られた原画像のL信号(輝度)、及びS412で得られたエッジ強調後のL'信号に基づいて、エッジ強調量の補正処理を行う。補正後のL''信号は、次式のように、L信号及びエッジ強調後のL'信号に対して、それぞれαKに応じた重み付けを行い、重み付け後の信号を合成することによって得られる。
L''=(1.0-αK)*L+αK*L' (7)
Next, in S414, the edge enhancement unit 302 generates a correction value α K for correcting the edge enhancement amount in accordance with the whiteness cumulative value ΣW obtained in S405, as in S406. Furthermore, in S415, the edge enhancement unit 302 extracts the correction value α K obtained in S414, the L signal (luminance) of the original image obtained in S401, and the L signal after edge enhancement obtained in S412, as in S407. 'Based on the signal, the amount of edge enhancement is corrected. The corrected L'' signal is obtained by weighting the L signal and the edge-enhanced L' signal according to α K and synthesizing the weighted signals, as shown in the following equation. .
L″=(1.0−α K )*L+α K *L′ (7)

このようにして、エッジ強調部302は、エッジ強調量の補正のために、S412又はS413のフィルタ処理が行われる前の輝度信号(L信号)と当該フィルタ処理により得られた輝度信号(L'信号)とを、それぞれ重み付けして合成する。 In this manner, the edge enhancement unit 302 combines the luminance signal (L signal) before the filtering in S412 or S413 and the luminance signal (L' signal) are weighted and combined.

S408及びS415の処理が完了すると、S409で、エッジ強調部302は、上述の処理により得られた信号値(R',G',B',L'')を、次式のようにS401の変換の逆変換により、エッジ強調処理後のCMYK信号の信号値に変換する。
C'=255-R'
M'=255-G'
Ye'=255-B'
K'=255-L'' (8)
When the processes of S408 and S415 are completed, in S409, the edge enhancement unit 302 converts the signal values (R', G', B', L'') obtained by the above-described processes into the following equations of S401. By the inverse transformation of the transformation, the signal values are transformed into the CMYK signals after the edge enhancement processing.
C'=255-R'
M'=255-G'
Ye'=255-B'
K'=255-L'' (8)

入力された画像データの全画素について上述の処理を行うことにより、エッジ強調処理が行われた画像データが生成される。 By performing the above-described processing on all pixels of the input image data, edge-enhanced image data is generated.

以上説明したように、本実施形態の画像形成装置10において、画像処理部102は、印刷対象の画像データの入力を受け付ける。色変換部301は、入力画像データの色空間がRGB色空間(第1色空間)である場合に、当該画像データをCMYK色空間(第2色空間)の画像データに変換する。エッジ強調部302は、エッジ強調部302は、入力画像データの色空間がRGB色空間である場合には、色変換部301による変換後の画像データに対してエッジ強調処理を行う。一方、エッジ強調部302は、入力画像データの色空間がCMYK色空間である場合には、当該入力画像データに対してエッジ強調処理を行う。 As described above, in the image forming apparatus 10 of the present embodiment, the image processing unit 102 receives input of image data to be printed. When the color space of input image data is the RGB color space (first color space), the color conversion unit 301 converts the image data into image data in the CMYK color space (second color space). The edge enhancement unit 302 performs edge enhancement processing on the image data converted by the color conversion unit 301 when the color space of the input image data is the RGB color space. On the other hand, when the color space of the input image data is the CMYK color space, the edge enhancement unit 302 performs edge enhancement processing on the input image data.

上述のエッジ強調処理において、エッジ強調部302は、入力画像データの色空間がRGB色空間である場合とCMYK色空間である場合とで、エッジ強調処理におけるエッジ強調の度合いを異ならせる。より具体的には、エッジ強調部302は、入力画像データの色空間がCMYK色空間である場合に、入力画像データの色空間がRGB色空間である場合よりも、エッジ強調処理におけるエッジ強調の度合いを弱くする。これにより、入力された印刷データ(画像データ)の色空間に依存して当該印刷データに対してエッジ強調処理が過剰に行われることを防ぐことが可能になる。 In the edge enhancement processing described above, the edge enhancement unit 302 differentiates the degree of edge enhancement in the edge enhancement processing depending on whether the color space of the input image data is the RGB color space or the CMYK color space. More specifically, when the color space of the input image data is the CMYK color space, the edge enhancement unit 302 performs edge enhancement in edge enhancement processing more than when the color space of the input image data is the RGB color space. weaken the intensity. This makes it possible to prevent excessive edge enhancement processing on the input print data (image data) depending on the color space of the print data.

また、上述のエッジ強調処理では、入力される印刷データの色空間(入力色空間)に応じて、K信号から生成されるL信号(輝度)に対して適用されるフィルタ係数を、ゲイン調整値により調整している。即ち、フィルタ処理におけるフィルタゲインを調整している。これにより、とりわけ、トナーの明度が最も低く、コントラストに関連する処理の影響を受けやすいK信号に対して、過剰にエッジ強調(シャープネス)処理が行われることを防止できる。また、CMY信号から生成されるY信号(輝度)に対して適用されるフィルタ係数を、入力される印刷データの色空間に依らず共通にする(同一にする)ことにより、それぞれ異なる色空間の印刷データに対してエッジ強調の効果を維持できる。 In the edge enhancement process described above, the filter coefficient applied to the L signal (luminance) generated from the K signal is set to the gain adjustment value according to the color space of the input print data (input color space). is adjusted by That is, it adjusts the filter gain in the filtering process. This prevents excessive edge enhancement (sharpness) processing, especially for the K signal, which has the lowest toner brightness and is susceptible to contrast-related processing. In addition, by making the filter coefficients applied to the Y signal (luminance) generated from the CMY signals common (same) regardless of the color space of the input print data, The effect of edge enhancement can be maintained for print data.

なお、本実施形態は種々の変更が可能である。例えば、本実施形態ではエッジ強調処理を行う色空間として輝度・色差系のYCbCr色空間が用いられているが、輝度・色差系の他の色空間(例えば、L*a*b*色空間)が用いられてもよい。また、エッジ強調処理には、上述の手法以外の手法(例えば、アンシャープマスク)を用いられてもよい。 It should be noted that this embodiment can be modified in various ways. For example, in the present embodiment, the YCbCr color space of the luminance/color difference system is used as the color space for edge enhancement processing, but another color space of the luminance/chrominance system (for example, the L*a*b* color space) is used. may be used. Also, for the edge enhancement processing, a technique other than the technique described above (for example, unsharp mask) may be used.

また、白色度Wは、S405において彩度S及びY信号(輝度)を用いて算出されているが、Y信号のみが用いられてもよい。これは、Y信号にもRGB信号の成分が十分に反映されており、ある画素のY信号の値が十分大きければ、当該画素を白色とみなすことができるためである。この場合、例えばS405においてΣWに代えて着目画素の周囲の画素群のY信号の信号値の累積値ΣYを求め、当該累積値ΣYに対応する補正値αCMYを求めてもよい。また、S415においてL信号(輝度)に対して適用される補正値αKとして、ΣWに依らず予め定められた一定値が用いられてもよい。 Also, although the whiteness W is calculated using the saturation S and the Y signal (luminance) in S405, only the Y signal may be used. This is because the RGB signal components are sufficiently reflected in the Y signal, and if the value of the Y signal of a pixel is sufficiently large, the pixel can be regarded as white. In this case, for example, instead of ΣW in S405, the accumulated value ΣY of the signal values of the Y signals of the pixel group surrounding the target pixel may be obtained, and the correction value α CMY corresponding to the accumulated value ΣY may be obtained. Further, a predetermined constant value independent of ΣW may be used as the correction value α K applied to the L signal (luminance) in S415.

また、本実施形態では、CMY信号から生成されるY信号(輝度)に対して適用されるフィルタ係数を、入力される印刷データの色空間に依らず共通にしているが、これに限定されない。例えば、入力される印刷データの色空間がCMYK色空間である場合に、K信号に対して抑制されたエッジ強調の度合いを、CMY信号に対するエッジ強調で補ってもよい。その場合、例えば、CMY信号から生成されるY信号に対して適用されるフィルタ係数に、ゲイン調整値Gの逆数を適用することで、印刷データの色空間がRGB色空間である場合よりも、エッジ強調の度合いを強めてもよい。 Further, in this embodiment, the filter coefficients applied to the Y signal (luminance) generated from the CMY signals are common regardless of the color space of the input print data, but the present invention is not limited to this. For example, when the color space of input print data is the CMYK color space, the degree of edge enhancement suppressed for the K signal may be compensated for by edge enhancement for the CMY signal. In that case, for example, by applying the reciprocal of the gain adjustment value G to the filter coefficient applied to the Y signal generated from the CMY signals, the color space of the print data is more accurate than when the color space of the print data is the RGB color space. The degree of edge enhancement may be strengthened.

[第2実施形態]
第1実施形態では、画像処理部102に入力された画像データ(印刷データ)の色空間(入力色空間)がCMYK色空間である場合に、フィルタ係数にゲイン調整値Gを適用することでエッジ強調量を補正する構成を説明した。本実施形態では、入力色空間がRGB色空間である場合とCMYK色空間である場合とで異なる補正値αKを用いることでエッジ強調量を補正する構成を説明する。なお、第1実施形態と共通する部分については説明を省略する。
[Second embodiment]
In the first embodiment, when the color space (input color space) of the image data (print data) input to the image processing unit 102 is the CMYK color space, edge adjustment is performed by applying the gain adjustment value G to the filter coefficients. The configuration for correcting the enhancement amount has been described. In this embodiment, a configuration will be described in which the edge enhancement amount is corrected by using different correction values α K depending on whether the input color space is the RGB color space or the CMYK color space. Note that the description of the parts common to the first embodiment will be omitted.

図9は、本実施形態に係るエッジ強調処理の手順を示すフローチャートである。図9に示される各ステップの処理は、CPU104からの命令に従ってエッジ強調部302(画像処理部102)によって実行される。 FIG. 9 is a flowchart showing the procedure of edge enhancement processing according to this embodiment. The processing of each step shown in FIG. 9 is executed by the edge enhancement unit 302 (image processing unit 102) according to instructions from the CPU 104. FIG.

本実施形態では、エッジ強調部302は、S410の処理を行った後、S412へ処理を進める。即ち、エッジ強調部302は、S412で、入力色空間に応じてフィルタ係数を変更せずに、L信号(輝度)に対してS404と同様のフィルタ処理を行い、S405へ処理を進める。 In this embodiment, the edge enhancement unit 302 advances the process to S412 after performing the process of S410. That is, in S412, the edge enhancement unit 302 performs the same filter processing as in S404 on the L signal (luminance) without changing the filter coefficient according to the input color space, and proceeds to S405.

また、エッジ強調部302は、S412の処理の完了後、S405において注目画素の周囲の画素群について白色度の累積値が算出されると、次にS901へ処理を進める。S901で、エッジ強調部302は、画像処理部102に入力された画像データ(印刷データ)の色空間(入力色空間)が、RGB色空間であるかCMYK色空間であるかを判定する。エッジ強調部302は、入力色空間がRGB色空間である場合にはS414へ処理を進め、CMYK色空間である場合にはS902へ処理を進める。 Further, after the processing of S412 is completed, the edge enhancement unit 302 advances the processing to S901 when the whiteness cumulative value is calculated for the pixel group surrounding the pixel of interest in S405. In S901, the edge enhancement unit 302 determines whether the color space (input color space) of the image data (print data) input to the image processing unit 102 is the RGB color space or the CMYK color space. The edge enhancement unit 302 advances the process to S414 if the input color space is the RGB color space, and advances the process to S902 if it is the CMYK color space.

S414で、エッジ強調部302は、第1実施形態と同様に、S405で得られた白色度の累積値ΣWに応じて、エッジ強調量を補正する補正値αKを生成し、S415へ処理を進める。一方、S902で、エッジ強調部302は、エッジ強調量を補正する補正値αKとして、S414とは異なる補正値を生成する。具体的には、エッジ強調部302は、図10に示されるように、αKの最大値が1.0よりも低い値となるように、補正値αKを生成する。図10の例では、補正値αKの最大値は、図7の例における最大値1.0の半分である0.5となっている。エッジ強調部302は、図10に示される対応関係を用いて、累積値ΣWに対応する補正値αKを取得する。 In S414, as in the first embodiment, the edge enhancement unit 302 generates a correction value α K for correcting the edge enhancement amount according to the whiteness cumulative value ΣW obtained in S405, and the process proceeds to S415. proceed. On the other hand, in S902, the edge enhancement unit 302 generates a correction value different from that in S414 as the correction value α K for correcting the edge enhancement amount. Specifically, the edge enhancement unit 302 generates the correction value α K such that the maximum value of α K is lower than 1.0, as shown in FIG. 10 . In the example of FIG. 10, the maximum value of the correction value α K is 0.5, which is half the maximum value of 1.0 in the example of FIG. Edge enhancement section 302 acquires correction value α K corresponding to cumulative value ΣW using the correspondence shown in FIG. 10 .

その後、S415で、エッジ強調部302は、S414又はS902において生成された補正値αKを用いて、注目画素についてエッジ強調量の補正処理を行う。これにより、図8に示されるように、入力色空間がCMYK色空間である場合に、入力色空間がRGB色空間である場合よりも、K信号から生成されるL信号に対するに対するエッジ強調の度合いが抑制される。即ち、第1実施形態と同様の結果を得ることができる。 Thereafter, in S415, the edge enhancement unit 302 uses the correction value α K generated in S414 or S902 to perform edge enhancement amount correction processing for the pixel of interest. As a result, as shown in FIG. 8, when the input color space is the CMYK color space, the degree of edge enhancement for the L signal generated from the K signal is higher than when the input color space is the RGB color space. is suppressed. That is, the same results as in the first embodiment can be obtained.

以上説明したように、本実施形態では、エッジ強調部302(画像処理部102)は、入力される印刷データの色空間(入力色空間)に応じて、K信号から生成されるL信号に適用する補正値αKを調整して適用する。即ち、エッジ強調部302は、入力画像データの色空間に応じて、エッジ強調量の補正のための補正処理に用いられる重み付け係数(補正値αK)を調整することで、エッジ強調の度合いを調整する。これにより、第1実施形態と同様、入力された印刷データ(画像データ)の色空間に依存して当該印刷データに対してエッジ強調処理が過剰に行われることを防ぐことが可能になる。また、K信号に対して、過剰にエッジ強調処理が行われることを防止できる。 As described above, in the present embodiment, the edge enhancement unit 302 (image processing unit 102) is applied to the L signal generated from the K signal according to the color space of the input print data (input color space). Adjust the correction value α K to be applied. That is, the edge enhancement unit 302 adjusts the degree of edge enhancement by adjusting the weighting coefficient (correction value α K ) used in the correction process for correcting the edge enhancement amount according to the color space of the input image data. adjust. As a result, as in the first embodiment, it is possible to prevent excessive edge enhancement processing for input print data (image data) depending on the color space of the input print data. Also, it is possible to prevent the K signal from being subjected to excessive edge enhancement processing.

なお、本実施形態では、エッジ強調量の補正のために補正値αKを調整する例を説明したが、補正値αKの調整と、第1実施形態で説明したゲイン調整値Gの適用との両方が行われてもよい。 Note that in the present embodiment, an example of adjusting the correction value α K for correcting the edge enhancement amount has been described. may be performed.

また、本実施形態では、CMY信号から生成されるY信号(輝度)に対して適用される補正値CMYを、入力される印刷データの色空間に依らず共通にしているが、これに限定されない。例えば、入力される印刷データの色空間がCMYK色空間である場合に、K信号に対して抑制されたエッジ強調の度合いを、CMY信号に対するエッジ強調で補ってもよい。その場合、例えば、入力色空間がCMYK色空間である場合に、CMY信号から生成されるY信号に適用する補正値αCMYを、入力色空間がRGB色空間である場合よりも、相対的に大きくすることで、エッジ強調の度合いを強めてもよい。 Further, in the present embodiment, the correction value CMY applied to the Y signal (luminance) generated from the CMY signal is common regardless of the color space of the input print data, but is not limited to this. . For example, when the color space of input print data is the CMYK color space, the degree of edge enhancement suppressed for the K signal may be compensated for by edge enhancement for the CMY signal. In that case, for example, when the input color space is the CMYK color space, the correction value α CMY applied to the Y signal generated from the CMY signals is relatively By increasing it, the degree of edge enhancement may be strengthened.

[第3実施形態]
第1実施形態では、画像処理部102に入力された画像データ(印刷データ)の色空間(入力色空間)ごとに、異なるフィルタ係数を用いる構成を説明した。本実施形態では、ユーザインタフェース(UI)を介してユーザによって指定された設定値に応じてフィルタ係数を変更可能にする構成を説明する。なお、第1実施形態と共通する部分については説明を省略する。
[Third Embodiment]
In the first embodiment, a configuration using different filter coefficients for each color space (input color space) of image data (print data) input to the image processing unit 102 has been described. In this embodiment, a configuration will be described in which filter coefficients can be changed according to setting values specified by a user via a user interface (UI). Note that the description of the parts common to the first embodiment will be omitted.

図11は、UI部106に表示される操作画面(UI)の例を示す図である。図11に示されるように、UI1100は、スライドバー1101を操作することにより、エッジ強調の度合いをユーザが設定できるように構成される。CPU104は、UI1100における設定を示す設定値を記憶部103に格納することで、ユーザの操作に従ってエッジ強調の度合いを設定する。UI1100では、一例として、エッジ強度の度合いを、(度合いが弱い順に)0,0.5,0.8,1.0の設定値に対応する、4段階(「しない」、「弱」、「中」及び「強」)のいずれかに設定可能である。 FIG. 11 is a diagram showing an example of an operation screen (UI) displayed on the UI unit 106. As shown in FIG. As shown in FIG. 11, the UI 1100 is configured such that the user can set the degree of edge enhancement by operating a slide bar 1101 . The CPU 104 stores the setting value indicating the setting in the UI 1100 in the storage unit 103, thereby setting the degree of edge enhancement according to the user's operation. In the UI 1100, as an example, the degree of edge strength is set in four levels ("no", "weak", " It can be set to either "medium" or "strong").

エッジ強調部302(画像処理部102)は、UI1100を介して設定された設定値に従って、S404、S412及びS413で用いるフィルタ係数を調整する。具体的には、エッジ強調部302は、フィルタ係数行列の各フィルタ係数に設定値を乗算することによって、フィルタ係数を調整する。なお、この調整により、エッジ調整後の画像が暗い画像になることを防止するために、第1実施形態で説明したように、フィルタ係数行列の中央に位置する係数を、当該行列内の係数の総和が1.0となるように調整(オフセット)してもよい。 The edge enhancement unit 302 (image processing unit 102) adjusts filter coefficients used in S404, S412, and S413 according to setting values set via the UI 1100. FIG. Specifically, the edge enhancement unit 302 adjusts the filter coefficients by multiplying each filter coefficient in the filter coefficient matrix by the set value. In order to prevent the edge-adjusted image from becoming a dark image due to this adjustment, as described in the first embodiment, the coefficient located in the center of the filter coefficient matrix is changed to It may be adjusted (offset) so that the sum is 1.0.

以上説明したように、本実施形態では、エッジ強調部302は、ユーザによる設定に従ってエッジ強調の度合いを調整する。これにより、第1実施形態と同様の効果に加えて、ユーザの好みに応じてエッジ強調の度合いを変更することが可能になる。 As described above, in this embodiment, the edge enhancement unit 302 adjusts the degree of edge enhancement in accordance with user settings. As a result, in addition to the same effects as in the first embodiment, it is possible to change the degree of edge enhancement according to the user's preference.

なお、本実施形態では、入力色空間がCMYK色空間である場合に適用されるゲイン調整値Gは、UI1100における設定に依存しないが、これに限定されない。例えば、UI1100を介して設定された設定値が示すエッジ強調の度合いが強いほど、ゲイン調整値Gが1.0に近づくように、ゲイン調整値Gを調整してもよい。また、設定可能なエッジ強調の度合いとして最大の度合いが指定された場合に、最大のエッジ強調効果を得るために、ゲイン調整値Gを1.0に設定することで、K信号に対するエッジ強調の度合いを抑制しないようにしてもよい。 Note that in this embodiment, the gain adjustment value G applied when the input color space is the CMYK color space does not depend on the setting in the UI 1100, but is not limited to this. For example, the gain adjustment value G may be adjusted so that the gain adjustment value G approaches 1.0 as the degree of edge enhancement indicated by the setting value set via the UI 1100 increases. Further, when the maximum degree of edge enhancement is specified as the settable edge enhancement degree, the gain adjustment value G is set to 1.0 in order to obtain the maximum edge enhancement effect. You may make it not suppress a degree.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上述の実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

10:画像形成装置、101:画像読取部、102:画像処理部、103:記憶部、104:CPU、105:画像出力部、106:UI部、107:通信部、301:色変換部、302:エッジ強調部、303:ハーフトーン処理部 10: Image forming apparatus 101: Image reading unit 102: Image processing unit 103: Storage unit 104: CPU 105: Image output unit 106: UI unit 107: Communication unit 301: Color conversion unit 302 : edge enhancement unit, 303: halftone processing unit

Claims (19)

印刷対象の画像データの入力を受け付ける受け付け手段と、
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換手段と、
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換手段による変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理手段であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理手段と、を備え、
前記処理手段は、前記入力された画像データの色空間が前記第2色空間である場合に、前記入力された画像データの色空間が前記第1色空間である場合よりも、前記エッジ強調処理におけるエッジ強調の度合いを弱くする
ことを特徴とする画像形成装置。
receiving means for receiving input of image data to be printed;
conversion means for converting the input image data into image data in a second color space when the color space of the input image data is in the first color space;
When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion by the conversion means, and the color space of the input image data is the first color space. When the color space of the input image data is the first color space, and when the color space of the input image data is the first color space. the processing means for differentiating the degree of edge enhancement in the edge enhancement process depending on whether it is the second color space,
When the color space of the input image data is the second color space, the processing means performs the edge enhancement processing more than when the color space of the input image data is the first color space. and weakening the degree of edge enhancement in the image forming apparatus.
印刷対象の画像データの入力を受け付ける受け付け手段と、
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換手段と、
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換手段による変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理手段であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理手段と、を備え、
前記エッジ強調処理は、処理対象の画像データから得られる輝度信号に対するフィルタ処理を含み、
前記処理手段は、前記入力された画像データの色空間に応じて、前記フィルタ処理におけるフィルタゲインを調整することで、前記エッジ強調の度合いを調整する
ことを特徴とする画像形成装置。
receiving means for receiving input of image data to be printed;
conversion means for converting the input image data into image data in a second color space when the color space of the input image data is in the first color space;
When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion by the conversion means, and the color space of the input image data is the first color space. When the color space of the input image data is the first color space, and when the color space of the input image data is the first color space. the processing means for differentiating the degree of edge enhancement in the edge enhancement process depending on whether it is the second color space,
The edge enhancement processing includes filtering a luminance signal obtained from the image data to be processed,
The image forming apparatus, wherein the processing unit adjusts the degree of edge enhancement by adjusting a filter gain in the filtering process according to the color space of the input image data.
前記処理手段は、前記処理対象の画像データに含まれる色成分信号のうち、ブラックに対応する色成分信号から得られる輝度信号に対する前記フィルタ処理における前記フィルタゲインを、前記入力された画像データの色空間に応じて調整する
ことを特徴とする請求項に記載の画像形成装置。
The processing means converts the filter gain in the filtering process for the luminance signal obtained from the color component signal corresponding to black among the color component signals included in the image data to be processed to the color of the input image data. 3. The image forming apparatus according to claim 2 , wherein the adjustment is made according to the space.
前記処理手段は、前記入力された画像データの色空間が前記第2色空間である場合に、前記入力された画像データの色空間が前記第1色空間である場合よりも、前記フィルタゲインを小さくする
ことを特徴とする請求項又はに記載の画像形成装置。
When the color space of the input image data is the second color space, the processing means increases the filter gain more than when the color space of the input image data is the first color space. 4. The image forming apparatus according to claim 2 , wherein the image forming apparatus is made smaller.
前記エッジ強調処理は、処理対象の画像データに含まれる色成分信号のうち、ブラック以外の色に対応する色成分信号から得られる輝度信号に対する第1フィルタ処理と、ブラックに対応する色成分信号から得られる輝度信号に対する第2フィルタ処理と、を含み、
前記処理手段は、前記第1フィルタ処理におけるフィルタゲインを、前記入力された画像データの色空間によらず同一にし、前記第2フィルタ処理におけるフィルタゲインを、前記入力された画像データの色空間に応じて調整する
ことを特徴とする請求項からのいずれか1項に記載の画像形成装置。
The edge enhancement process includes a first filtering process on a luminance signal obtained from color component signals corresponding to colors other than black among the color component signals included in the image data to be processed; a second filtering of the resulting luminance signal;
The processing means sets the filter gain in the first filtering process to be the same regardless of the color space of the input image data, and sets the filter gain in the second filtering process to the color space of the input image data. 5. The image forming apparatus according to claim 2 , wherein the adjustment is made accordingly.
印刷対象の画像データの入力を受け付ける受け付け手段と、
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換手段と、
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換手段による変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理手段であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理手段と、
ユーザの操作に従って前記エッジ強調の度合いを設定する設定手段と、を備え、
前記処理手段は、前記設定手段による設定に従って前記エッジ強調の度合いを調整する
ことを特徴とする画像形成装置。
receiving means for receiving input of image data to be printed;
conversion means for converting the input image data into image data in a second color space when the color space of the input image data is in the first color space;
When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion by the conversion means, and the color space of the input image data is the first color space. When the color space of the input image data is the first color space, and when the color space of the input image data is the first color space. the processing means for differentiating the degree of edge enhancement in the edge enhancement processing in the second color space and in the case of the second color space;
setting means for setting the degree of edge enhancement according to a user's operation;
The image forming apparatus, wherein the processing means adjusts the degree of edge enhancement according to the setting by the setting means.
印刷対象の画像データの入力を受け付ける受け付け手段と、
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換手段と、
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換手段による変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理手段であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理手段と、を備え、
前記第1色空間は、RGB色空間であり、
前記第2色空間は、CMYK色空間である
ことを特徴とする画像形成装置。
receiving means for receiving input of image data to be printed;
conversion means for converting the input image data into image data in a second color space when the color space of the input image data is in the first color space;
When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion by the conversion means, and the color space of the input image data is the first color space. When the color space of the input image data is the first color space, and when the color space of the input image data is the first color space. the processing means for differentiating the degree of edge enhancement in the edge enhancement process depending on whether it is the second color space,
the first color space is an RGB color space;
The image forming apparatus, wherein the second color space is a CMYK color space.
印刷対象の画像データの入力を受け付ける受け付け手段と、
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換手段と、
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換手段による変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理手段であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理手段と、
前記処理手段による前記エッジ強調処理が行われた前記第2色空間の画像データに基づいて、シートに画像を印刷する印刷手段と、
を備えることを特徴とする画像形成装置。
receiving means for receiving input of image data to be printed;
conversion means for converting the input image data into image data in a second color space when the color space of the input image data is in the first color space;
When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion by the conversion means, and the color space of the input image data is the first color space. When the color space of the input image data is the first color space, and when the color space of the input image data is the first color space. the processing means for differentiating the degree of edge enhancement in the edge enhancement processing in the second color space and in the case of the second color space;
printing means for printing an image on a sheet based on the image data in the second color space on which the edge enhancement processing has been performed by the processing means ;
An image forming apparatus comprising :
前記エッジ強調処理は、処理対象の画像データから得られる輝度信号に対するフィルタ処理と、エッジ強調量の補正のために、前記フィルタ処理が行われる前の輝度信号と前記フィルタ処理により得られた輝度信号とを、それぞれ重み付けして合成する補正処理と、を含み、
前記処理手段は、前記入力された画像データの色空間に応じて、前記補正処理に用いられる重み付け係数を調整することで、前記エッジ強調の度合いを調整する
ことを特徴とする請求項に記載の画像形成装置。
The edge enhancement processing includes filtering a luminance signal obtained from the image data to be processed, and correcting the amount of edge enhancement by filtering the luminance signal before the filtering and the luminance signal obtained by the filtering. and a correction process that weights and synthesizes each,
9. The method according to claim 8 , wherein the processing means adjusts the degree of edge enhancement by adjusting a weighting coefficient used in the correction process according to the color space of the input image data. image forming device.
画像データの入力を受け付ける受け付け工程と、
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換工程と、
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換工程における変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理工程であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理工程と、を含み、
前記処理工程では、前記入力された画像データの色空間が前記第2色空間である場合に、前記入力された画像データの色空間が前記第1色空間である場合よりも、前記エッジ強調処理におけるエッジ強調の度合いを弱くする
ことを特徴とする画像形成装置の制御方法。
a receiving step of receiving an input of image data;
a converting step of converting the input image data into image data of a second color space when the color space of the input image data is the first color space;
When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion in the conversion step, and the color space of the input image data is the first color space. When the color space of the input image data is the second color space, the processing step of performing the edge enhancement processing on the input image data, wherein the color space of the input image data is the first color space. and the processing step of differentiating the degree of edge enhancement in the edge enhancement processing in the case of the second color space,
In the processing step, when the color space of the input image data is the second color space, the edge enhancement processing is performed more than when the color space of the input image data is the first color space. weaken the degree of edge enhancement in
A control method for an image forming apparatus, characterized by:
画像データの入力を受け付ける受け付け工程と、 a receiving step of receiving an input of image data;
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換工程と、 a converting step of converting the input image data into image data of a second color space when the color space of the input image data is the first color space;
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換工程における変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理工程であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理工程と、を含み、 When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion in the conversion step, and the color space of the input image data is the first color space. When the color space of the input image data is the second color space, the processing step of performing the edge enhancement processing on the input image data, wherein the color space of the input image data is the first color space. and the processing step of differentiating the degree of edge enhancement in the edge enhancement processing in the case of the second color space,
前記エッジ強調処理は、処理対象の画像データから得られる輝度信号に対するフィルタ処理を含み、 The edge enhancement processing includes filtering a luminance signal obtained from the image data to be processed,
前記処理工程では、前記入力された画像データの色空間に応じて、前記フィルタ処理におけるフィルタゲインを調整することで、前記エッジ強調の度合いを調整する In the processing step, the degree of edge enhancement is adjusted by adjusting a filter gain in the filtering process according to the color space of the input image data.
ことを特徴とする画像形成装置の制御方法。 A control method for an image forming apparatus, characterized by:
前記処理工程では、前記処理対象の画像データに含まれる色成分信号のうち、ブラックに対応する色成分信号から得られる輝度信号に対する前記フィルタ処理における前記フィルタゲインを、前記入力された画像データの色空間に応じて調整する In the processing step, the filter gain in the filtering process for a luminance signal obtained from a color component signal corresponding to black among the color component signals included in the image data to be processed is set to the color of the input image data. Adjust according to space
ことを特徴とする請求項11に記載の画像形成装置の制御方法。 12. The method of controlling an image forming apparatus according to claim 11, wherein:
前記処理工程では、前記入力された画像データの色空間が前記第2色空間である場合に、前記入力された画像データの色空間が前記第1色空間である場合よりも、前記フィルタゲインを小さくする In the processing step, when the color space of the input image data is the second color space, the filter gain is set higher than when the color space of the input image data is the first color space. make smaller
ことを特徴とする請求項11又は12に記載の画像形成装置の制御方法。 13. The method of controlling an image forming apparatus according to claim 11, wherein:
前記エッジ強調処理は、処理対象の画像データに含まれる色成分信号のうち、ブラック以外の色に対応する色成分信号から得られる輝度信号に対する第1フィルタ処理と、ブラックに対応する色成分信号から得られる輝度信号に対する第2フィルタ処理と、を含み、 The edge enhancement process includes a first filtering process on a luminance signal obtained from color component signals corresponding to colors other than black among the color component signals included in the image data to be processed; a second filtering of the resulting luminance signal;
前記処理工程では、前記第1フィルタ処理におけるフィルタゲインを、前記入力された画像データの色空間によらず同一にし、前記第2フィルタ処理におけるフィルタゲインを、前記入力された画像データの色空間に応じて調整する In the processing step, the filter gain in the first filtering process is set to be the same regardless of the color space of the input image data, and the filter gain in the second filtering process is set to the color space of the input image data. adjust accordingly
ことを特徴とする請求項11から13のいずれか1項に記載の画像形成装置の制御方法。 14. The method of controlling an image forming apparatus according to claim 11, wherein:
画像データの入力を受け付ける受け付け工程と、 a receiving step of receiving an input of image data;
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換工程と、 a converting step of converting the input image data into image data of a second color space when the color space of the input image data is the first color space;
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換工程における変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理工程であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理工程と、 When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion in the conversion step, and the color space of the input image data is the first color space. When the color space of the input image data is the second color space, the processing step of performing the edge enhancement processing on the input image data, wherein the color space of the input image data is the first color space. the processing step of differentiating the degree of edge enhancement in the edge enhancement processing in the case of the second color space;
ユーザの操作に従って前記エッジ強調の度合いを設定する設定工程と、を含み、 a setting step of setting the degree of edge enhancement according to a user's operation;
前記処理工程では、前記設定工程における設定に従って前記エッジ強調の度合いを調整する In the processing step, the degree of edge enhancement is adjusted according to the setting in the setting step.
ことを特徴とする画像形成装置の制御方法。 A control method for an image forming apparatus, characterized by:
画像データの入力を受け付ける受け付け工程と、 a receiving step of receiving an input of image data;
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換工程と、 a converting step of converting the input image data into image data of a second color space when the color space of the input image data is the first color space;
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換工程における変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理工程であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理工程と、を含み、 When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion in the conversion step, and the color space of the input image data is the first color space. When the color space of the input image data is the second color space, the processing step of performing the edge enhancement processing on the input image data, wherein the color space of the input image data is the first color space. and the processing step of differentiating the degree of edge enhancement in the edge enhancement processing in the case of the second color space,
前記第1色空間は、RGB色空間であり、 the first color space is an RGB color space;
前記第2色空間は、CMYK色空間である The second color space is the CMYK color space
ことを特徴とする画像形成装置の制御方法。 A control method for an image forming apparatus, characterized by:
画像データの入力を受け付ける受け付け工程と、 a receiving step of receiving an input of image data;
前記入力された画像データの色空間が第1色空間である場合に、当該画像データを第2色空間の画像データに変換する変換工程と、 a converting step of converting the input image data into image data of a second color space when the color space of the input image data is the first color space;
前記入力された画像データの色空間が前記第1色空間である場合には、前記変換工程における変換後の画像データに対してエッジ強調処理を行い、前記入力された画像データの色空間が前記第2色空間である場合には、前記入力された画像データに対して前記エッジ強調処理を行う処理工程であって、前記入力された画像データの色空間が前記第1色空間である場合と前記第2色空間である場合とで、前記エッジ強調処理におけるエッジ強調の度合いを異ならせる、前記処理工程と、 When the color space of the input image data is the first color space, edge enhancement processing is performed on the image data after conversion in the conversion step, and the color space of the input image data is the first color space. When the color space of the input image data is the second color space, the processing step of performing the edge enhancement processing on the input image data, wherein the color space of the input image data is the first color space. the processing step of differentiating the degree of edge enhancement in the edge enhancement processing in the case of the second color space;
前記処理工程における前記エッジ強調処理が行われた前記第2色空間の画像データに基づいて、シートに画像を印刷する印刷工程と、 a printing step of printing an image on a sheet based on the image data in the second color space on which the edge enhancement processing in the processing step has been performed;
を含むことを特徴とする画像形成装置の制御方法。 A control method for an image forming apparatus, comprising:
前記エッジ強調処理は、処理対象の画像データから得られる輝度信号に対するフィルタ処理と、エッジ強調量の補正のために、前記フィルタ処理が行われる前の輝度信号と前記フィルタ処理により得られた輝度信号とを、それぞれ重み付けして合成する補正処理と、を含み、 The edge enhancement processing includes filtering a luminance signal obtained from the image data to be processed, and correcting the amount of edge enhancement by filtering the luminance signal before the filtering and the luminance signal obtained by the filtering. and a correction process that weights and synthesizes each,
前記処理工程では、前記入力された画像データの色空間に応じて、前記補正処理に用いられる重み付け係数を調整することで、前記エッジ強調の度合いを調整する In the processing step, the degree of edge enhancement is adjusted by adjusting the weighting coefficient used in the correction process according to the color space of the input image data.
ことを特徴とする請求項17に記載の画像形成装置の制御方法。 18. The method of controlling an image forming apparatus according to claim 17, wherein:
請求項10から18のいずれか1項に記載の画像形成装置の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the image forming apparatus control method according to any one of claims 10 to 18 .
JP2019070708A 2019-04-02 2019-04-02 IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM Active JP7261064B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019070708A JP7261064B2 (en) 2019-04-02 2019-04-02 IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019070708A JP7261064B2 (en) 2019-04-02 2019-04-02 IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020170308A JP2020170308A (en) 2020-10-15
JP7261064B2 true JP7261064B2 (en) 2023-04-19

Family

ID=72746135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070708A Active JP7261064B2 (en) 2019-04-02 2019-04-02 IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7261064B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094808A (en) 1999-09-22 2001-04-06 Fuji Xerox Co Ltd Image processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001094808A (en) 1999-09-22 2001-04-06 Fuji Xerox Co Ltd Image processor

Also Published As

Publication number Publication date
JP2020170308A (en) 2020-10-15

Similar Documents

Publication Publication Date Title
US9349161B2 (en) Image processing apparatus and image processing method with edge enhancement
US10542188B2 (en) Image processing apparatus, image processing method, and storage medium for removing a designated color from an image
US9497353B2 (en) Image processing apparatus, image processing method, and image processing system
JP2022145776A (en) Image processing apparatus and image processing method
US9646367B2 (en) Image processing apparatus and image processing method each with a function of applying edge enhancement to input image data
JP2022173510A (en) Image processing apparatus, image processing method, and program
JP2019036821A (en) Image processing system, image processing method, and program
US9124732B2 (en) Image processing apparatus, image processing method, and program for the same
US10410099B2 (en) Image forming apparatus that controls whether to execute image processing for a target pixel based on a calculated amount of change of pixel values, and related control method and storage medium storing a program
EP3633967A1 (en) Image processing apparatus and image processing method
JP7261064B2 (en) IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2019134232A (en) Image formation device, and method and program for the device
US8547612B2 (en) Image processing apparatus, image forming apparatus, and image processing method that read color image data from a document
JP6995594B2 (en) Information processing equipment, information processing methods and programs
JP2017135690A (en) Image processing device, image processing method, and program
US9025207B2 (en) Image processing apparatus operative to perform trapping process, image processing method, and storage medium
JP2002305662A (en) Device and method for processing image, and device and method for forming image
JP6834701B2 (en) Image processing equipment and computer programs
JP2013115730A (en) Image processing apparatus, image processing method and program
JP2004266461A (en) Image processing method and image processor
JP2019128825A (en) Information processing device, information processing method, and program
JP2019096946A (en) Image processing apparatus, image processing method and program
JP2018198404A (en) Image processing system, and control method
JP2002290740A (en) Image processing apparatus and image forming apparatus

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R151 Written notification of patent or utility model registration

Ref document number: 7261064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151