JP2021150855A - Image processing device and control method and program for the same - Google Patents

Image processing device and control method and program for the same Download PDF

Info

Publication number
JP2021150855A
JP2021150855A JP2020049941A JP2020049941A JP2021150855A JP 2021150855 A JP2021150855 A JP 2021150855A JP 2020049941 A JP2020049941 A JP 2020049941A JP 2020049941 A JP2020049941 A JP 2020049941A JP 2021150855 A JP2021150855 A JP 2021150855A
Authority
JP
Japan
Prior art keywords
image data
color
image
monochrome
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020049941A
Other languages
Japanese (ja)
Inventor
英孝 田淵
Hidetaka Tabuchi
英孝 田淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020049941A priority Critical patent/JP2021150855A/en
Publication of JP2021150855A publication Critical patent/JP2021150855A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing device that enables the color of an image after the image is converted into color image data to be closer to a color desired by a user, and control method and program for the same.SOLUTION: An image processing method for converting monochrome image data into color image data converts color image data of an object into monochrome image data, and stores the color image data as a color candidate image of the object in association with the converted monochrome image data. When the input image data is monochrome image data and a mode for converting monochrome image data into color image data is set, the object is detected from the input image data, and when the detected object is stored in storage means, the color candidate image associated with the object is displayed, and the input image data is converted to color image data by using a trained model based on the color image data corresponding to the displayed color candidate image.SELECTED DRAWING: Figure 7

Description

本発明は、画像処理装置とその制御方法、及びプログラムに関するものである。 The present invention relates to an image processing device, a control method thereof, and a program.

人工知能を用いた画像補正に関する技術は多く知られている。その一つの例として、モノクロ画像データをカラー画像データに変換する技術が挙げられる。この技術は、ドキュメントの見栄えを良くするため、或いは情報を見易くすることを目的としている。カラー画像データは、明度だけでなく色相及び彩度の情報を含むため、画像データをカラー化することにより、ドキュメント情報の視認性を高めることが可能となる。特許文献1には、読み込んだ画像がモノクロ画像と判断したときに、学習済みモデル用いて、そのモノクロ画像データをカラー画像データに変更する手法が記載されている。 Many techniques related to image correction using artificial intelligence are known. One example of this is a technique for converting monochrome image data into color image data. This technique is intended to improve the appearance of documents or to make information easier to read. Since the color image data includes not only lightness but also hue and saturation information, it is possible to improve the visibility of the document information by colorizing the image data. Patent Document 1 describes a method of changing the monochrome image data into color image data by using the trained model when it is determined that the read image is a monochrome image.

特開2011−066734号公報Japanese Unexamined Patent Publication No. 2011-066734

しかしながら従来の手法では、カラー画像データに変換した後の画像の色が必ずしもユーザの所望の色にならないことがある。例えば、カラー化する対象物によっては、その対象物の品種等により、モノクロ画像データでは同じデータでも、実際の色が異なる場合がある。このような場合、そのカラー化を実行した装置は、カラー化に失敗しているとは判断できないという課題がある。 However, in the conventional method, the color of the image after being converted into the color image data may not always be the color desired by the user. For example, depending on the object to be colorized, the actual color may differ even if the monochrome image data is the same, depending on the type of the object and the like. In such a case, there is a problem that the device that has executed the colorization cannot determine that the colorization has failed.

本発明の目的は、上記従来技術の問題点の少なくとも一つを解決することにある。 An object of the present invention is to solve at least one of the problems of the prior art.

本発明の目的は、カラー画像データに変換した後の画像の色を、ユーザが所望する色に近づけることができる技術を提供することにある。 An object of the present invention is to provide a technique capable of bringing the color of an image after conversion into color image data closer to a color desired by a user.

上記目的を達成するために本発明の一態様に係る画像処理装置は以下のような構成を備える。即ち、
オブジェクトのカラー画像データをモノクロ画像データに変換する変換手段と、
前記変換手段により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として保存する保存手段と、
入力した画像データからオブジェクトを検出する検出手段と、
前記検出手段により検出されたオブジェクトが前記保存手段に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示手段と、
前記表示手段に表示されたカラー候補画像から選択されたカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換手段と、を有することを特徴とする。
The image processing apparatus according to one aspect of the present invention in order to achieve the above object has the following configuration. That is,
A conversion means for converting the color image data of an object into monochrome image data,
A storage means for storing the color image data as a color candidate image of the object in association with the monochrome image data converted by the conversion means.
A detection means that detects an object from the input image data,
A display means for displaying a color candidate image associated with the object when the object detected by the detection means is stored in the storage means.
It is characterized by having a conversion means for converting the input image data into color image data using a trained model based on the color image data selected from the color candidate images displayed on the display means. ..

本発明によれば、カラー画像データに変換した後の画像の色を、ユーザが所望する色に近づけることができるという効果がある。 According to the present invention, there is an effect that the color of the image after being converted into the color image data can be brought close to the color desired by the user.

本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。 Other features and advantages of the present invention will become apparent in the following description with reference to the accompanying drawings. In the attached drawings, the same or similar configurations are given the same reference numbers.

添付図面は明細書に含まれ、その一部を構成し、本発明の実施形態を示し、その記述と共に本発明の原理を説明するために用いられる。
実施形態に係る画像形成装置のハードウェア構成を説明するブロック図。 実施形態に係る画像形成装置の操作部の上面図。 実施形態に係る画像処理部の機能を説明する機能ブロック図。 実施形態に係る学習処理部のハードウェア構成を説明するブロック図。 実施形態に係る学習処理部の機能を説明する機能ブロック図。 実施形態に係る機械学習部におけるディープラーニングを用いた入出力の構造を示す概念図。 実施形態に係る学習処理部の機械学習部で学習処理を行い、画像処理部のカラー変換部で用いられる学習モデルを更新する処理を説明するフローチャート。 実施形態に係る学習テーブルの構成例を示す図。 実施形態に係る学習モデルを用いたカラー変換部の具体的な処理を説明する図。 実施形態に係る画像形成装置の操作部の表示例を示す図。 実施形態に係る画像形成装置の操作部に表示される色味調整画面の一例を示す図。 実施形態に係る画像形成装置におけるコピー処理を説明するフローチャート。
The accompanying drawings are included in the specification and are used to form a part thereof, show an embodiment of the present invention, and explain the principle of the present invention together with the description thereof.
The block diagram explaining the hardware configuration of the image forming apparatus which concerns on embodiment. The top view of the operation part of the image forming apparatus which concerns on embodiment. The functional block diagram explaining the function of the image processing unit which concerns on embodiment. The block diagram explaining the hardware configuration of the learning processing part which concerns on embodiment. The functional block diagram explaining the function of the learning processing part which concerns on embodiment. The conceptual diagram which shows the input / output structure using deep learning in the machine learning part which concerns on embodiment. A flowchart illustrating a process of performing learning processing in the machine learning unit of the learning processing unit according to the embodiment and updating the learning model used in the color conversion unit of the image processing unit. The figure which shows the structural example of the learning table which concerns on embodiment. The figure explaining the specific processing of the color conversion part using the learning model which concerns on embodiment. The figure which shows the display example of the operation part of the image forming apparatus which concerns on embodiment. The figure which shows an example of the color tone adjustment screen displayed on the operation part of the image forming apparatus which concerns on embodiment. The flowchart explaining the copy process in the image forming apparatus which concerns on embodiment.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これら複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一もしくは同様の構成に同一の参照番号を付し、重複した説明は省略する。実施形態では、本発明に係る画像処理装置の一例を画像形成装置10を用いて説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted. In the embodiment, an example of the image processing apparatus according to the present invention will be described using the image forming apparatus 10.

図1は、実施形態に係る画像形成装置10のハードウェア構成を説明するブロック図である。 FIG. 1 is a block diagram illustrating a hardware configuration of the image forming apparatus 10 according to the embodiment.

この画像形成装置10は、プリント機能、スキャナ機能、コピー機能、FAX機能などの複数の機能を備える複合機(MFP:Multi Function Peripheral)である。この画像形成装置10は、操作部150、FAXユニット160、コントローラユニット100、プリンタユニット120、スキャナユニット130、電源ユニット110、スイッチ145、電源スイッチ148を有する。 The image forming apparatus 10 is a multifunction device (MFP: Multi Function Peripheral) having a plurality of functions such as a print function, a scanner function, a copy function, and a fax function. The image forming apparatus 10 includes an operation unit 150, a fax unit 160, a controller unit 100, a printer unit 120, a scanner unit 130, a power supply unit 110, a switch 145, and a power supply switch 148.

コントローラユニット(制御部)100は、CPU101、ROM102、RAM103、HDD104、学習処理部105、BIOS106(不揮発ROM)、画像処理部107、ネットワークI/F108等を有する。これらはシステムバス109を介してCPU101に接続されている。CPU101は、HDD104に格納されているプログラムをRAM103に展開し、その展開したプログラムを実行して、この画像形成装置10を制御している。ROM102は、例えばコントローラユニット100の起動に係る処理を実行させるブートプログラムや固定パラメータ等を格納している。RAM103は、CPU101が画像形成装置10を制御する際に、プログラムや一時的なデータの格納などに使用される。尚、RAM103に展開されるプログラムや一時的なデータは、ROM102や後述のHDD104から読み出されたものである。HDD104は、CPU101が実行するプログラムやプログラム管理テーブルや各種データを格納する。実行するプログラムとは、例えば、この画像形成装置10の起動時にOSを起動させるためにCPU101が実行するブートプログラムである。尚、ここでは、ストレージとしてHDDを用いたが、SSDやeMMC、NANDフラッシュメモリまたはNORフラッシュメモリ等を用いてもよい。ネットワークI/F108は、ネットワーク118との間でのデータの送受信を行う。具体的には、ネットワーク118から送られてきたデータを受信したり、スキャナユニット130で原稿を読み取って得られた画像データや、HDD104に保存されているデータをネットワーク118を介して所定の宛先へ送信する。 The controller unit (control unit) 100 includes a CPU 101, a ROM 102, a RAM 103, an HDD 104, a learning processing unit 105, a BIOS 106 (nonvolatile ROM), an image processing unit 107, a network I / F 108, and the like. These are connected to the CPU 101 via the system bus 109. The CPU 101 expands the program stored in the HDD 104 into the RAM 103, executes the expanded program, and controls the image forming apparatus 10. The ROM 102 stores, for example, a boot program for executing a process related to the startup of the controller unit 100, fixed parameters, and the like. The RAM 103 is used for storing programs and temporary data when the CPU 101 controls the image forming apparatus 10. The programs and temporary data expanded in the RAM 103 are read from the ROM 102 and the HDD 104 described later. The HDD 104 stores a program executed by the CPU 101, a program management table, and various data. The program to be executed is, for example, a boot program executed by the CPU 101 in order to start the OS when the image forming apparatus 10 is started. Although the HDD is used as the storage here, SSD, eMMC, NAND flash memory, NOR flash memory, or the like may be used. The network I / F 108 transmits / receives data to / from the network 118. Specifically, the data sent from the network 118 is received, the image data obtained by scanning the original with the scanner unit 130, and the data stored in the HDD 104 are sent to a predetermined destination via the network 118. Send.

電源ユニット110は、画像形成装置10の各部に電源を供給する。電源がオフの時は、AC電源は電源スイッチ148によって絶縁される。電源スイッチ148がオンになることでAC−DCコンバータ141にAC電源が供給され、DC電源が作られる。DC電源は3つの独立した電源系統で供給され、これら電源系統はCPU101により御される。CPU101はスイッチ142をオン/オフすることにより、コントローラユニット100への電力供給を制御する。またCPU101はスイッチ143をオン/オフすることにより、プリンタユニット120への電力の供給を制御する。更にCPU101は、スイッチ144をオン/オフすることにより、スキャナユニット130への電力の供給を制御する。 The power supply unit 110 supplies power to each part of the image forming apparatus 10. When the power is off, the AC power is isolated by the power switch 148. When the power switch 148 is turned on, AC power is supplied to the AC-DC converter 141, and a DC power supply is created. The DC power supply is supplied by three independent power supply systems, and these power supply systems are controlled by the CPU 101. The CPU 101 controls the power supply to the controller unit 100 by turning on / off the switch 142. Further, the CPU 101 controls the supply of electric power to the printer unit 120 by turning on / off the switch 143. Further, the CPU 101 controls the supply of electric power to the scanner unit 130 by turning on / off the switch 144.

学習処理部105は、スキャナユニット130が原稿を読み取って得られた画像データについてディープラーニングを行う。実施形態では、学習処理部105は画像形成装置10の中に設けられているが、画像形成装置10の外に学習用サーバを置いて、それとネットワークで接続する構成にしても良い。尚、学習処理部105の詳細については後述する。 The learning processing unit 105 performs deep learning on the image data obtained by scanning the document by the scanner unit 130. In the embodiment, the learning processing unit 105 is provided in the image forming apparatus 10, but a learning server may be placed outside the image forming apparatus 10 and connected to the learning server by a network. The details of the learning processing unit 105 will be described later.

次に、その他のユニット及びスイッチを説明する。 Next, other units and switches will be described.

FAXユニット160は、電話回線などを介してデジタル画像データを送受信することが可能である。 The FAX unit 160 can transmit and receive digital image data via a telephone line or the like.

操作部150は、ユーザが操作パネル201を用いて入力したユーザ名や印刷枚数、出力属性情報等のジョブ情報の作成に必要な情報をコントローラユニット100に送信する。スキャナユニット130は、原稿を読取り、モノクロ2値の画像データ、或いはカラー多値の画像データを生成する。スキャナユニット130は、不図示のスキャナ制御I/FによってCPU101に接続される。CPU101は、そのスキャナ制御I/Fを介してスキャナユニット130から入力される画像データを、例えばRAM103等に記憶する。 The operation unit 150 transmits to the controller unit 100 information necessary for creating job information such as a user name, the number of prints, and output attribute information input by the user using the operation panel 201. The scanner unit 130 reads the original and generates monochrome binary image data or color multivalued image data. The scanner unit 130 is connected to the CPU 101 by a scanner control I / F (not shown). The CPU 101 stores image data input from the scanner unit 130 via the scanner control I / F in, for example, a RAM 103 or the like.

プリンタユニット120は、ネットワークI/F108が受け付けたPDLデータを変換した画像データ、或いはスキャナユニット130によって得られた画像データ等を用紙(シート)に印刷する。プリンタユニット120は、CPU161と定着器162を含む。定着器162は、用紙に転写されたトナー像を熱と圧力により用紙に融着させるものである。定着器162には、スイッチ145を介してAC電源から電力が供給されることにより熱が生じる。尚、定着器162には、AC−DCコンバータ141を介して電力が供給されてもよい。CPU161は、プリンタコントローラとして機能する。CPU161にはAC−DCコンバータ141を介して電力が供給され、スイッチ145を制御することにより、定着器162への電力供給を制御できる。 The printer unit 120 prints image data obtained by converting PDL data received by the network I / F 108, image data obtained by the scanner unit 130, or the like on paper (sheet). The printer unit 120 includes a CPU 161 and a fuser 162. The fuser 162 fuses the toner image transferred to the paper to the paper by heat and pressure. Heat is generated in the fuser 162 by supplying electric power from the AC power source via the switch 145. Electric power may be supplied to the fuser 162 via the AC-DC converter 141. The CPU 161 functions as a printer controller. Power is supplied to the CPU 161 via the AC-DC converter 141, and by controlling the switch 145, the power supply to the fuser 162 can be controlled.

電源スイッチ148のオン/オフによって、画像形成装置10に電源を供給するか否かが決定される。CPU101は、電源スイッチ148のオン/オフ状態を、電源スイッチ148とCPU101とを接続しているSeesaw信号149により判定する。ここではSeesaw信号149がハイレベルの場合は電源スイッチ148がオン状態、ロウレベルの場合はオフ状態である。 Whether or not to supply power to the image forming apparatus 10 is determined by turning on / off the power switch 148. The CPU 101 determines the on / off state of the power switch 148 by the Seesaw signal 149 connecting the power switch 148 and the CPU 101. Here, when the Seesaw signal 149 is at a high level, the power switch 148 is in an on state, and when it is at a low level, it is in an off state.

BIOS106は、ブートプログラム(BIOS)を格納している不揮発性メモリである。画像処理部107は、CPU101、プリンタユニット120、スキャナユニット130に接続されている。画像処理部107は、スキャナユニット130から出力されたデジタル画像データに対して色空間変換などの画像処理を行い、画像処理後の画像データをCPU101に出力する。また画像処理部107は、スキャナユニット130で得られた画像データを基に色空間変換などの画像処理を行い、ビットマップデータに変換し、プリンタユニット130に出力する。尚、詳細については後述する。 The BIOS 106 is a non-volatile memory that stores a boot program (BIOS). The image processing unit 107 is connected to the CPU 101, the printer unit 120, and the scanner unit 130. The image processing unit 107 performs image processing such as color space conversion on the digital image data output from the scanner unit 130, and outputs the image data after the image processing to the CPU 101. Further, the image processing unit 107 performs image processing such as color space conversion based on the image data obtained by the scanner unit 130, converts it into bitmap data, and outputs it to the printer unit 130. The details will be described later.

画像形成装置10は、コピー機能の他に、スキャナユニット130で取得された画像データをHDD104に保存したり、ネットワーク118やFAX回線を介して送信するSEND機能やFAX機能を実行することができる。コピー機能では、スキャナユニット130が原稿を読み取って取得した画像データをプリンタユニット120で用紙に印刷する。また画像形成装置10は、ネットワーク118を介して接続されているPC等の外部装置(不図示)から受信した画像データや、FAXユニット160で受信した画像データを印刷することができる。 In addition to the copy function, the image forming apparatus 10 can execute the SEND function and the FAX function of storing the image data acquired by the scanner unit 130 in the HDD 104 and transmitting the image data via the network 118 and the FAX line. In the copy function, the scanner unit 130 reads the original and the image data acquired is printed on the paper by the printer unit 120. Further, the image forming apparatus 10 can print image data received from an external device (not shown) such as a PC connected via the network 118, or image data received by the FAX unit 160.

画像形成装置10の保存機能では、スキャナユニット130が原稿を読み取って取得した画像データをHDD104に保存する。保存された画像データはコピー機能で印刷されたり、後述のSEND機能を用いてネットワーク118に、或いはFAX機能を用いてFAXユニット160を介してFAX回線へ送信することができる。SEND機能は、HDD104に保存された画像データや、スキャナユニット130で得られた画像データをネットワーク118を介して指定された宛先に送信する機能である。FAX機能は、HDD104に保存された画像データや、スキャナユニット130が原稿を読み取って取得した画像データをFAX回線を介してファクシミリ送信する機能である。 In the storage function of the image forming apparatus 10, the scanner unit 130 reads the original and saves the acquired image data in the HDD 104. The saved image data can be printed by the copy function, transmitted to the network 118 by using the SEND function described later, or transmitted to the FAX line via the FAX unit 160 by using the FAX function. The SEND function is a function of transmitting the image data stored in the HDD 104 and the image data obtained by the scanner unit 130 to a designated destination via the network 118. The FAX function is a function of facsimile transmitting image data stored in the HDD 104 and image data acquired by the scanner unit 130 by reading a document via a FAX line.

図2は、実施形態に係る画像形成装置10の操作部150の上面図である。 FIG. 2 is a top view of the operation unit 150 of the image forming apparatus 10 according to the embodiment.

操作パネル201は、液晶とタッチパネルを組み合わせたものであり、操作画面を表示するとともに、表示キーがユーザにより押されるとその情報をコントローラユニット100に送る。スタートキー202は、原稿画像の読み取りや、印刷の動作を開始するときや、その他機能の開始指示に用いられる。スタートキー202には、緑色と赤色の2色のLEDが組み込まれ、緑色のLEDが点灯すると開始可能を示し、赤色のLEDが点灯すると開始不可であることを示す。ストップキー203は稼動中の動作を止める働きをする。ハードキー群204には、テンキー、クリアキー、リセットキー、ガイドキー、ユーザモードキーが設けられる。節電キー205は、この画像形成装置10の全ての機能が使用できる通常モードから、画像形成装置10を必要最小限の動作のみ行うスリープモードに移行、又は通常モードへ復帰させる際に用いられる。画像形成装置10は、通常モードのときに節電キー205がユーザによって押されるとスリープモードへ移行し、スリープモードのときに、節電キー205がユーザによって押されると通常モードへと移行する。 The operation panel 201 is a combination of a liquid crystal display and a touch panel, displays an operation screen, and sends the information to the controller unit 100 when the display key is pressed by the user. The start key 202 is used when reading a document image, starting a printing operation, or instructing the start of other functions. The start key 202 incorporates two color LEDs, green and red, and when the green LED lights up, it indicates that the start is possible, and when the red LED lights up, it indicates that the start is not possible. The stop key 203 functions to stop the operation during operation. The hard key group 204 is provided with a numeric keypad, a clear key, a reset key, a guide key, and a user mode key. The power saving key 205 is used when shifting from the normal mode in which all the functions of the image forming apparatus 10 can be used to the sleep mode in which the image forming apparatus 10 performs only the minimum necessary operations, or returning to the normal mode. The image forming apparatus 10 shifts to the sleep mode when the power saving key 205 is pressed by the user in the normal mode, and shifts to the normal mode when the power saving key 205 is pressed by the user in the sleep mode.

図2(A)は、画像形成装置10の初期状態で表示されるホーム画面を示し、このホーム画面には、「コピー」「ファックス」「スキャンして送信」などの機能を指示するボタンが表示されている。 FIG. 2A shows a home screen displayed in the initial state of the image forming apparatus 10, and on this home screen, buttons for instructing functions such as “copy”, “fax”, and “scan and send” are displayed. Has been done.

図2(B)は、図2(A)の画面において、スキャナユニット130を使用する機能、例えば「コピー」が選択されたときに表示されるモノクロ→カラー変換を指示する画面例を示す図である。 FIG. 2B is a diagram showing an example of a screen for instructing a function of using the scanner unit 130, for example, a black-and-white to color conversion, which is displayed when "copy" is selected on the screen of FIG. 2A. be.

ここでユーザは、モノクロ画像をカラー画像に変換するモードを設定したいときはボタン210を押下する。一方、モノクロ画像をカラー画像に変換するモードを設定しないときはキャンセルボタン211を押下する。ここでいずれかのボタンが押下されると、上述の例では、「コピー」の機能設定画面(不図示)に移行する。 Here, the user presses the button 210 when he / she wants to set the mode for converting the monochrome image into the color image. On the other hand, when the mode for converting the monochrome image to the color image is not set, the cancel button 211 is pressed. When any of the buttons is pressed here, in the above example, the screen shifts to the "copy" function setting screen (not shown).

また、「モノクロ→カラー変換」のモードが設定されている状態で「モノクロ→カラー変換」ボタン210が押下されると、モノクロ画像データをカラー化するモードが解除される。この場合は、読み取った画像データがモノクロの場合でも色変換は行われず、モノクロ画像データのまま出力される。また読み取った画像データがカラー画像データの場合は、モノクロ画像データをカラー化する機能がアクティブの場合と同様に、そのままカラー画像データのまま出力される。 Further, when the "black-and-white → color conversion" button 210 is pressed while the "black-and-white → color conversion" mode is set, the mode for colorizing the monochrome image data is canceled. In this case, even if the read image data is monochrome, the color conversion is not performed and the monochrome image data is output as it is. When the read image data is color image data, the color image data is output as it is, as in the case where the function for colorizing monochrome image data is active.

次に、画像処理部107の具体的な構成を図3のブロック図を用いて説明する。 Next, a specific configuration of the image processing unit 107 will be described with reference to the block diagram of FIG.

図3は、実施形態に係る画像処理部107の機能を説明する機能ブロック図である。 FIG. 3 is a functional block diagram illustrating the function of the image processing unit 107 according to the embodiment.

システムバスI/F301は、システムバス109に接続され、システムバス109を介して画像形成装置10の各モジュールと接続している。スキャン画像処理部302は、スキャナユニット130で取得された画像データに施すシェーディング補正処理やMTF(Modulation Transfer Function)補正処理、入力ガンマ補正やフィルタ処理を行う。更には、これらに加え、スキャン画像処理部302は、ノイズ除去や色空間変換、回転、圧縮等の画像処理を行う。 The system bus I / F 301 is connected to the system bus 109, and is connected to each module of the image forming apparatus 10 via the system bus 109. The scan image processing unit 302 performs shading correction processing, MTF (Modification Transfer Function) correction processing, input gamma correction, and filter processing applied to the image data acquired by the scanner unit 130. Further, in addition to these, the scan image processing unit 302 performs image processing such as noise removal, color space conversion, rotation, and compression.

レンダリング処理部303は、外部装置(PC等)から受信した画像データ(PDLコード)をビットマップデータに展開する。 The rendering processing unit 303 expands the image data (PDL code) received from an external device (PC or the like) into bitmap data.

プリント画像処理部304は、プリンタユニット120で画像データを印刷するための前処理(具体的には、RGBをCMYKに変換する色空間変換処理やディザ法や誤差拡散法による中間調処理、ガンマ補正など)となる画像処理を行う。画像処理後の画像データは、プリンタユニット120へ出力される。ここで、プリント画像処理部304は、プリンタユニット120の起動及び給紙に合わせてプリンタユニット120へ画像データを出力するために、タイミング同期用のバッファであるRAM103へ画像データを一時的に書き込む。そして、プリント画像処理部304は、記録媒体の給紙のタイミングに同期して、RAM103から画像データを読み出してプリンタユニット120へ出力する。 The print image processing unit 304 performs preprocessing for printing image data on the printer unit 120 (specifically, color space conversion processing for converting RGB to CMYK, halftone processing by the dither method or error diffusion method, and gamma correction. Etc.). The image data after image processing is output to the printer unit 120. Here, the print image processing unit 304 temporarily writes the image data to the RAM 103, which is a buffer for timing synchronization, in order to output the image data to the printer unit 120 in accordance with the activation and feeding of the printer unit 120. Then, the print image processing unit 304 reads out the image data from the RAM 103 and outputs the image data to the printer unit 120 in synchronization with the timing of feeding the recording medium.

カラー判定部305は、スキャン画像処理部302で処理された画像データが、カラー画像データかモノクロ画像データか判定する。ここでは、画像データ全体を画素毎に走査して得た画素データを構成するR、G、Bの各コンポーネントの値から、その画素の色味を取得して積算する。そして、その積算結果、即ち、色味の累計値が所定値を超えていた場合、その画像データはカラー画像データであると判定する。一方、色味の累計値が所定値以下であった場合、その画像データはモノクロ画像データであると判定する。 The color determination unit 305 determines whether the image data processed by the scan image processing unit 302 is color image data or monochrome image data. Here, the tint of the pixel is acquired and integrated from the values of the R, G, and B components constituting the pixel data obtained by scanning the entire image data for each pixel. Then, when the integration result, that is, the cumulative value of the tint exceeds a predetermined value, it is determined that the image data is color image data. On the other hand, when the cumulative value of the tint is not more than a predetermined value, it is determined that the image data is monochrome image data.

モノクロ変換部306は、スキャン画像処理部302で処理したカラー画像データの画素毎に、RGBのコンポーネントの値を演算することによって算出された値をモノクロ画像データの画素値とすることでモノクロ画像データに変換する。 The monochrome conversion unit 306 sets the value calculated by calculating the value of the RGB component for each pixel of the color image data processed by the scan image processing unit 302 as the pixel value of the monochrome image data, thereby converting the monochrome image data. Convert to.

カラー変換部307は、スキャン画像処理部302で処理したモノクロ画像データをカラー画像データに変換する。実施形態では、CNN(Convolutional Neural Network)で構成した機械学習技術に基づいて算出処理を行う学習モデルを用いる。カラー変換部307の詳細は後述する。 The color conversion unit 307 converts the monochrome image data processed by the scan image processing unit 302 into color image data. In the embodiment, a learning model that performs calculation processing based on a machine learning technique composed of CNN (Convolutional Neural Network) is used. Details of the color conversion unit 307 will be described later.

オブジェクト検出部308は、スキャン画像処理部302で処理された画像データに含まれるオブジェクトを検出する。ここでオブジェクトとは、文字以外のイラストや図形、写真、ロゴマークなどの画像の領域を示す。 The object detection unit 308 detects an object included in the image data processed by the scan image processing unit 302. Here, the object indicates an image area such as an illustration, a figure, a photograph, or a logo mark other than characters.

オブジェクト合成部309は、カラー変換部307でカラー変換したオブジェクトを、オブジェクト検出部308で検出した領域に書き戻す。尚、上述した画像処理部107の機能は、画像処理部107が備えるCPUやメモリ(いずれも不図示)により実現されてもよく、或いはCPU101がRAM103に展開したプログラムを実行することにより実現されても良い。 The object composition unit 309 writes back the object color-converted by the color conversion unit 307 to the area detected by the object detection unit 308. The above-mentioned function of the image processing unit 107 may be realized by the CPU and memory (both not shown) included in the image processing unit 107, or by executing the program expanded in the RAM 103 by the CPU 101. Is also good.

次に、学習処理部105について説明する。 Next, the learning processing unit 105 will be described.

図4は、実施形態に係る学習処理部105のハードウェア構成を説明するブロック図である。 FIG. 4 is a block diagram illustrating a hardware configuration of the learning processing unit 105 according to the embodiment.

画像処理部105は、それぞれシステムバス405で相互に接続されているCPU401、RAM402、HDD404、GPU(Graphics Processing Unit)403を有する。CPU401は、HDD404から必要なプログラムを読み出してRAM402に展開して実行することで学習データ生成する。RAM402は、CPU401がプログラムを実行する際のシステムワークメモリである。HDD404はハードディスクドライブであって、学習処理や学習データを生成する際のソフトウェアが記憶されている他、生成された学習データや学習済みモデル、また受信した学習データを記憶する。GPU403は、データをより多く並列処理することで効率的な演算を行うことができる。実施形態では、ディープラーニングを用いて複数回に亘って学習を行うため、GPU403で処理を行うことが有効である。尚、ディープラーニングについての詳細は図6を参照して後述する。またGPU403は、画像形成の際に入力されたモノクロ画像データを、HDD404に記憶された学習モデルから判定する場合にも用いられる。 The image processing unit 105 has a CPU 401, a RAM 402, an HDD 404, and a GPU (Graphics Processing Unit) 403, which are connected to each other by a system bus 405, respectively. The CPU 401 generates learning data by reading a necessary program from the HDD 404, developing it in the RAM 402, and executing it. The RAM 402 is a system work memory when the CPU 401 executes a program. The HDD 404 is a hard disk drive that stores software for learning processing and generating learning data, as well as the generated learning data, learned models, and received learning data. The GPU 403 can perform efficient calculations by processing more data in parallel. In the embodiment, since the learning is performed a plurality of times by using deep learning, it is effective to perform the processing on the GPU 403. The details of deep learning will be described later with reference to FIG. The GPU 403 is also used when determining the monochrome image data input at the time of image formation from the learning model stored in the HDD 404.

実施形態では、学習を行う場合と画像データの判定にはGPU403を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、GPU403が演算を行うことで学習を行う。また、入力された画像データと学習データを判定する場合は、入力された画像データの画素データとHDD404に記憶されたモノクロ画像データの画素データとを比較し、最も近いものを出力する。尚、学習と判定処理においては、CPU401又はGPU403とCPU401が協働して演算しても良い。 In the embodiment, GPU 403 is used for learning and for determining image data. Specifically, when executing a learning program including a learning model, the GPU 403 performs learning by performing calculations. When determining the input image data and the training data, the pixel data of the input image data and the pixel data of the monochrome image data stored in the HDD 404 are compared, and the closest one is output. In the learning and determination processing, the CPU 401 or GPU 403 and the CPU 401 may cooperate to perform calculations.

図5は、実施形態に係る学習処理部105の機能を説明する機能ブロック図である。 FIG. 5 is a functional block diagram illustrating the function of the learning processing unit 105 according to the embodiment.

学習処理部105は、学習データ生成部501、機械学習部502、データ記憶部503、画像判別部504を有する。これら機能は、CPU401がRAM402に展開したプログラムを実行するか、或いはGPU403により実現される。 The learning processing unit 105 includes a learning data generation unit 501, a machine learning unit 502, a data storage unit 503, and an image discrimination unit 504. These functions are realized by the CPU 401 executing the program expanded in the RAM 402 or by the GPU 403.

学習データ生成部501は、目的の学習効果を得るために、受信した学習用データからノイズになる不要なデータを除去するなどして、効果的な学習結果が得られる形に加工して学習データを最適化する。こうして生成された学習データはHDD404に保存される。この学習用データは、HDD104に保存されている画像データや、画像形成装置10に接続されている外部のデータサーバ(不図示)、又はスキャナユニット130が原稿を読み取って取得した画像データから得られる。学習データの生成は、学習処理部105のCPU401により実行される。 The learning data generation unit 501 removes unnecessary data that becomes noise from the received learning data in order to obtain the desired learning effect, and processes the learning data into a form that can obtain an effective learning result. Optimize. The learning data generated in this way is stored in the HDD 404. This learning data is obtained from the image data stored in the HDD 104, the external data server (not shown) connected to the image forming apparatus 10, or the image data acquired by the scanner unit 130 reading the original. .. The learning data is generated by the CPU 401 of the learning processing unit 105.

機械学習部502は、学習データ生成部501によって生成された学習データを入力して機械学習を行い、学習済みモデルを生成する。この機械学習については後述する。機械学習は、学習処理部105のGPU403により実行される。 The machine learning unit 502 inputs the learning data generated by the learning data generation unit 501, performs machine learning, and generates a trained model. This machine learning will be described later. Machine learning is executed by GPU 403 of the learning processing unit 105.

データ記憶部503は、学習データ生成部501で生成された学習データや、機械学習部502で生成された学習済みモデル、更には、受信した学習データを記憶する。データの記憶は、HDD404やRAM402になされる。 The data storage unit 503 stores the learning data generated by the learning data generation unit 501, the learned model generated by the machine learning unit 502, and the received learning data. Data is stored in HDD 404 or RAM 402.

画像判別部504は、画像形成を行う際に画像処理部107に入力されたモノクロ画像データが何の画像データであるかを、HDD404に記憶された学習済みモデルを用いて判別する。画像判別は、学習処理部105のGPU403で実行される。 The image discrimination unit 504 discriminates what kind of image data the monochrome image data input to the image processing unit 107 at the time of image formation is, using the trained model stored in the HDD 404. The image discrimination is executed by GPU 403 of the learning processing unit 105.

図6は、実施形態に係る機械学習部502におけるディープラーニングを用いた入出力の構造を示す概念図である。ここでは、ニューラルネットワークを用いた学習モデルを例に図示している。 FIG. 6 is a conceptual diagram showing an input / output structure using deep learning in the machine learning unit 502 according to the embodiment. Here, a learning model using a neural network is illustrated as an example.

実施形態に係る画像形成装置10の特徴を説明するための一例として、このニューラルネットワークにより読み込んだものが何であるかを予測するための学習モデルの生成に関わる学習データをX、出力データをYとしている。 As an example for explaining the features of the image forming apparatus 10 according to the embodiment, let X be the learning data related to the generation of the learning model for predicting what is read by this neural network, and let Y be the output data. There is.

図6(A)において、学習データとしてリンゴの画像データをXとしたときに、ニューラルネットワークを用いて出力Yとして、各部の画素情報を出力する。ここで入力データXは、リンゴを示すモノクロの画像データであり、出力データYは、そのリンゴに対応するカラー画像データである。 In FIG. 6A, when the image data of the apple is set to X as the learning data, the pixel information of each part is output as the output Y using the neural network. Here, the input data X is monochrome image data indicating an apple, and the output data Y is color image data corresponding to the apple.

機械学習の具体的なアルゴリズムとしては、ニューラルネットワーク以外に、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成するディープラーニングも挙げられる。実施形態では、これらアルゴリズムのうち、適宜、利用できるものを用いて機械学習を行う。 Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, the decision tree, and the support vector machine, in addition to the neural network. Another example is deep learning in which features and coupling weighting coefficients for learning are generated by themselves using a neural network. In the embodiment, machine learning is performed using any of these algorithms that can be used as appropriate.

また学習モデルは、誤差検出部と、更新部とを備えてもよい。 Further, the learning model may include an error detection unit and an update unit.

図6(B)において、誤差検出部は、入力層に入力される入力データX601に応じて、ニューラルネットワークを用いた学習モデルW604の出力層から出力される出力データY602と、教師データT603との誤差を求める。そして、損失関数を用いて、ニューラルネットワークからの出力データY602と教師データT603との誤差を表す損失Lを計算する。更新部は、誤差検出部で得られた損失Lに基づいて、その損失Lが小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 In FIG. 6B, the error detection unit includes the output data Y602 output from the output layer of the learning model W604 using the neural network and the teacher data T603 according to the input data X601 input to the input layer. Find the error. Then, using the loss function, the loss L representing the error between the output data Y602 from the neural network and the teacher data T603 is calculated. The update unit updates the coupling weighting coefficient between the nodes of the neural network and the like so that the loss L becomes smaller based on the loss L obtained by the error detection unit. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error backpropagation method is a method of adjusting the coupling weighting coefficient between the nodes of each neural network so that the above error becomes small.

学習モデルW604は、「正解値が既知の入力データ」と「正解値」とをセットにした学習データを多数用意している。そして、この正解値に対応する入力データを入力した場合の出力データが、正解値に極力近づくように学習モデルWの重み付け係数を調整する。こうして、精度の高い学習モデルWを得るための作業を行う。これを学習工程と呼び、この学習工程を経て調整された学習モデルを学習済モデルと呼ぶ。 The learning model W604 prepares a large number of learning data in which "input data whose correct answer value is known" and "correct answer value" are set. Then, the weighting coefficient of the learning model W is adjusted so that the output data when the input data corresponding to the correct answer value is input is as close as possible to the correct answer value. In this way, the work for obtaining the highly accurate learning model W is performed. This is called a learning process, and a learning model adjusted through this learning process is called a trained model.

図7は、実施形態に係る学習処理部105の機械学習部502で学習処理を行い、画像処理部107のカラー変換部307で用いられる学習モデルを更新する処理を説明するフローチャートである。尚、このフローチャートで示す処理は、学習処理部105のGPU403及び画像処理部107のモノクロ変換部306により実行される。尚、ここで機械学習部502は、画像処理部107と連携して学習処理を行う。 FIG. 7 is a flowchart illustrating a process of performing learning processing by the machine learning unit 502 of the learning processing unit 105 according to the embodiment and updating the learning model used by the color conversion unit 307 of the image processing unit 107. The process shown in this flowchart is executed by the GPU 403 of the learning processing unit 105 and the monochrome conversion unit 306 of the image processing unit 107. Here, the machine learning unit 502 performs learning processing in cooperation with the image processing unit 107.

まずS701でGPU403は、画像処理部107のオブジェクト検出部308が検出したオブジェクトの内、カラー判定部305がカラー画像と判定したカラーオブジェクトの画像データを学習サンプルのカラー候補画像データとしてHDD404に保存する。次にS702に進み画像処理部107のモノクロ変換部306は、HDD404に保存されたカラー画像データを読み出し、それをモノクロ画像データに変換してRAM402に記憶する。上述したように、ここでは、カラー画像データの画素毎にRGBのコンポーネントを演算することによって算出された値を、対応するモノクロ画像データの画素値とすることでモノクロ画像データに変換する。尚、HDD404から読み出した画像データがJPEG等の圧縮形式の場合は、圧縮伸張処理部(不図示)で画像データを伸張した後にモノクロ変換処理を行うものとする。 First, in S701, the GPU 403 saves the image data of the color object determined by the color determination unit 305 as a color image among the objects detected by the object detection unit 308 of the image processing unit 107 in the HDD 404 as the color candidate image data of the learning sample. .. Next, the process proceeds to S702, and the monochrome conversion unit 306 of the image processing unit 107 reads out the color image data stored in the HDD 404, converts it into monochrome image data, and stores it in the RAM 402. As described above, here, the value calculated by calculating the RGB component for each pixel of the color image data is converted into the monochrome image data by making it the pixel value of the corresponding monochrome image data. When the image data read from the HDD 404 is in a compression format such as JPEG, the image data is decompressed by the compression / decompression processing unit (not shown), and then the monochrome conversion processing is performed.

次にS703に進みGPU403は、S702でモノクロ変換してRAM402に記憶したモノクロ画像データとそのオブジェクトとを、学習処理の入力画像データとしてHDD404に保存する。次にS704に進みGPU403は、S701及びS703で記憶した画像ファイルを学習テーブルに追加する。 Next, the process proceeds to S703, and the GPU 403 stores the monochrome image data and the object thereof, which have been converted to monochrome in S702 and stored in the RAM 402, in the HDD 404 as input image data for the learning process. Next, the process proceeds to S704, and the GPU 403 adds the image files stored in S701 and S703 to the learning table.

図8は、実施形態に係る学習テーブルの構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the learning table according to the embodiment.

学習テーブルは、前述の各画像データのパスを有し、HDD404に記憶されている。この学習テーブルにおいて、学習サンプルの入力画像データは、S703で保存されたモノクロ画像データのファイル名とそのオブジェクトを示し、学習サンプルの候補画像データは、S701で保存されたカラー画像データのパスを示す。 The learning table has the paths of the above-mentioned image data and is stored in the HDD 404. In this training table, the input image data of the training sample indicates the file name of the monochrome image data saved in S703 and its object, and the candidate image data of the training sample indicates the path of the color image data saved in S701. ..

この学習テーブルでは、入力画像データと候補画像データの紐づけを行っている。そして、モノクロ画像データが入力された時に、この学習テーブルを参照して、カラー画像データへ変換する。この学習テーブルに記憶する際、入力された画像データにおけるオブジェクトの形状の特徴量が、ある一定の範囲内で共通している場合で、かつ、色が異なる場合は、同一のオブジェクトで品種が異なると判定する。こうして判定された同一のオブジェクトで品種が異なる画像データを、入力画像データに対して、複数の候補画像データとして紐づけて記憶する。例えば図8の例では、オブジェクトが(object_001)である入力画像データ(picture001.jpg)に対して、3つの候補画像データ(kouho001_001.jpg,kouho002_002.jpg,kouho003_003.jpg、いずれもカラー画像データ)が登録されている。 In this learning table, the input image data and the candidate image data are linked. Then, when monochrome image data is input, it is converted into color image data by referring to this learning table. When storing in this learning table, if the features of the shape of the object in the input image data are common within a certain range and the colors are different, the same object has different varieties. Is determined. Image data of the same object but different varieties determined in this way are associated with the input image data as a plurality of candidate image data and stored. For example, in the example of FIG. 8, three candidate image data (kouho001_001.jpg, kouho002_002.jpg, kouho003_003.jpg, all of which are color image data) with respect to the input image data (picture001.jpg) whose object is (object_001). Is registered.

次にS705に進みGPU403は、S704で生成した学習テーブルで示された画像データと、カラー変換部307とを用いて学習を行う。そして、カラー変換部307の学習モデルを更新する。 Next, the process proceeds to S705, and the GPU 403 performs learning using the image data shown in the learning table generated in S704 and the color conversion unit 307. Then, the learning model of the color conversion unit 307 is updated.

図9は、実施形態に係る学習モデルを用いた、画像処理部107のカラー変換部307の具体的な処理を説明する図である。 FIG. 9 is a diagram illustrating specific processing of the color conversion unit 307 of the image processing unit 107 using the learning model according to the embodiment.

畳み込み層は、それぞれ不図示の2次元フィルタ関数(例えば、4×4のフィルタ)を備え、各畳み込み層の入力画像データに対して2次元フィルタ関数を用いて畳み込み演算を行う。またプーリング層は、それぞれ不図示の2次元プーリング関数を備え、各プーリング層の入力に対して2次元プーリング関数のウィンドウ内の画素から条件に合致する画素を取り出す。例えば、ウィンドウサイズが2×2の最大プーリングであれば、ウィンドウ内の4画素の中から最大画素値を有する画素を取り出す。 Each convolution layer has a two-dimensional filter function (for example, a 4 × 4 filter) (not shown), and the convolution operation is performed on the input image data of each convolution layer by using the two-dimensional filter function. Further, each pooling layer is provided with a two-dimensional pooling function (not shown), and pixels matching the conditions are extracted from the pixels in the window of the two-dimensional pooling function for the input of each pooling layer. For example, if the window size is a maximum pooling of 2 × 2, the pixel having the maximum pixel value is extracted from the four pixels in the window.

実施形態に係るカラー変換部307における学習モデルは、畳み込み層とプーリング層との組を複数直列に接続した構成で学習を行う。 The learning model in the color conversion unit 307 according to the embodiment learns in a configuration in which a plurality of pairs of a convolution layer and a pooling layer are connected in series.

まず、輝度情報のみを備えたモノクロ画像を入力データ901として用意する。これを初めの層の畳み込み層に入力して畳み込み処理を行い、続いてプーリング層でプーリング処理を行う。次の畳み込み層とプーリング層では、前層の処理結果を入力して処理を行う。これを接続された組数繰り返し、最後のプーリング層でのプーリング処理後のデータを、輝度(L)と彩度(ab)とで構成される色空間(Lab空間)のab空間にマッピングして中間カラー画像データを生成する。そして、中間カラー画像データと輝度画像データとを合成してカラー画像データ902に変換することでカラー化処理を行う。 First, a monochrome image having only luminance information is prepared as input data 901. This is input to the convolution layer of the first layer to perform the convolution process, and then the pooling process is performed. In the next convolution layer and pooling layer, the processing result of the previous layer is input and processing is performed. This is repeated by the number of connected pairs, and the data after the pooling process in the last pooling layer is mapped to the ab space of the color space (Lab space) composed of the brightness (L) and the saturation (ab). Generate intermediate color image data. Then, the intermediate color image data and the luminance image data are combined and converted into the color image data 902 to perform the colorization process.

ここでは入力データ901は、リンゴを示すモノクロのデータで、カラー画像データ902は、例えば赤色のリンゴを示す画像データである。 Here, the input data 901 is monochrome data indicating an apple, and the color image data 902 is image data indicating, for example, a red apple.

続いて、画像形成装置10におけるモノクロ画像をカラー化する際の挙動について説明する。 Subsequently, the behavior of the image forming apparatus 10 when colorizing a monochrome image will be described.

図10は、実施形態に係る画像形成装置10の操作部150の表示例を示す図である。 FIG. 10 is a diagram showing a display example of the operation unit 150 of the image forming apparatus 10 according to the embodiment.

図2(B)を参照して前述したように、画像データの読み込みを行う際は、モノクロ画像をカラー画像に変換するモードを設定することができる。このようにモノクロ画像をカラー画像に変換するモードが設定されているときは、操作部150の操作パネル201では「モノクロ→カラー変換」の表示がアクティブになる。 As described above with reference to FIG. 2B, when reading image data, it is possible to set a mode for converting a monochrome image into a color image. When the mode for converting a monochrome image to a color image is set in this way, the display of "black and white → color conversion" is activated on the operation panel 201 of the operation unit 150.

図10(A)では、モノクロ画像を読み取って印刷するときに画像形成装置10においてカラー化処理が行われ、操作パネル201にカラー化した画像データの候補画像が表示される。ユーザは、これら表示された候補画像の中から、所望の画像を選択すると、その選択された候補画像に基づくカラー画像データが出力される。 In FIG. 10A, when a monochrome image is read and printed, a colorization process is performed by the image forming apparatus 10, and a candidate image of the colorized image data is displayed on the operation panel 201. When the user selects a desired image from these displayed candidate images, color image data based on the selected candidate image is output.

図10(A)の例では、候補画像1001〜1003が表示されている。ここで候補画像1001は、例えば「ふじ」などの赤色のリンゴ、候補画像1002は例えば「きおう」などの黄色のリンゴ、候補画像1003は、例えば「おうりん」などの緑色のリンゴを示している。 In the example of FIG. 10A, candidate images 1001 to 1003 are displayed. Here, the candidate image 1001 shows a red apple such as "Fuji", the candidate image 1002 shows a yellow apple such as "Kiou", and the candidate image 1003 shows a green apple such as "Ourin". ..

一方、図10(A)において、ユーザは、これら候補画像の中に所望の候補画像がなかった場合は、「色味補正」ボタン1004を選択する。これにより、例えば図11に示すような画面が表示される。 On the other hand, in FIG. 10A, when the desired candidate image is not included in these candidate images, the user selects the “color correction” button 1004. As a result, for example, a screen as shown in FIG. 11 is displayed.

図10(B)は、候補画像がないときのカラー化した画像データの表示例を示す図である。この図10(B)は、図12のフローチャートの説明で説明する。 FIG. 10B is a diagram showing a display example of colorized image data when there is no candidate image. FIG. 10B will be described with reference to the flowchart of FIG.

図11は、実施形態に係る画像形成装置10の操作部150に表示される色味調整画面の一例を示す図である。 FIG. 11 is a diagram showing an example of a color tint adjustment screen displayed on the operation unit 150 of the image forming apparatus 10 according to the embodiment.

ユーザは、この画面で、カラー画像データ1101の所望の箇所を指定して色マップ1101の中の色味を選択することにより、その所望の箇所を、ユーザが希望する色に指定できる。尚、モノクロ画像データをカラー化する機能がアクティブな状態でカラー画像データが入力された場合はそのまま出力される。 The user can specify the desired part of the color image data 1101 as the color desired by the user by designating the desired part of the color image data 1101 and selecting the color tones in the color map 1101 on this screen. If the color image data is input while the function for colorizing the monochrome image data is active, it is output as it is.

尚、この画面でユーザが設定した色は学習テーブルに追加され、次に同様の画像データが入力された場合は、その設定した色の候補画像も表示される。 The color set by the user on this screen is added to the learning table, and when the same image data is input next time, the candidate image of the set color is also displayed.

次に、図12のフローチャートを用いて、モノクロ画像をカラー化する挙動を説明する。 Next, the behavior of colorizing a monochrome image will be described with reference to the flowchart of FIG.

図12は、実施形態に係る画像形成装置10におけるコピー処理を説明するフローチャートである。尚、この処理を実行するプログラムはHDD104に記憶されており、実行時にRAM103に展開され、その展開されたプログラムをCPU101が実行することで、このフローチャートで示す処理が実現される。 FIG. 12 is a flowchart illustrating a copy process in the image forming apparatus 10 according to the embodiment. The program that executes this process is stored in the HDD 104, is expanded in the RAM 103 at the time of execution, and the CPU 101 executes the expanded program to realize the process shown in this flowchart.

まずS1201でCPU101は、前述のホーム画面で「コピー」機能が選択されると、原稿の読み込みモードを設定する。そしてこのときの図2(B)の画面でモノクロ→カラー変換モードが設定されたかどうかをRAM103に記憶する。そしてスタートキー202が押下されるとS1202に進みCPU101は、スキャナユニット130による原稿の読み取りを開始する。次にS1203に進みCPU101は、原稿を読み取って得られた画像データがモノクロの画像データかどうか判定する。ここでモノクロの画像データでないときはS1212に進み、その読み取って得られたカラー画像データに基づいて画像形成を実行して、この処理を終了する。 First, in S1201, the CPU 101 sets the document reading mode when the "copy" function is selected on the home screen described above. Then, whether or not the monochrome → color conversion mode is set on the screen of FIG. 2B at this time is stored in the RAM 103. Then, when the start key 202 is pressed, the process proceeds to S1202, and the CPU 101 starts scanning the document by the scanner unit 130. Next, the process proceeds to S1203, and the CPU 101 determines whether the image data obtained by reading the original is monochrome image data. If the image data is not monochrome, the process proceeds to S1212, image formation is executed based on the color image data obtained by reading the data, and this process is completed.

一方、S1203でCPU101は、原稿を読み取って得られた画像データがモノクロの画像データであると判定するとS1204に進み、RAM103にモノクロ→カラー変換モードが記憶されているかどうか判定する。ここでモノクロ→カラー変換モードでないときはS1212に進み、その読み取って得られたモノクロ画像データに基づいて画像形成を実行して、この処理を終了する。一方、S1204でモノクロ→カラー変換モードが設定されていると判定したときはS1205に進み、CPU101は、入力したモノクロ画像データに含まれるオブジェクトを抽出してS1206に進む。S1206でCPU101は、その抽出したオブジェクトのモノクロ画像データが、図8に示す学習テーブルに記憶されているかどうか判定する。ここで記憶されていると判定するとS1207に進みCPU101は、そのオブジェクトのモノクロ画像データに関連付けられている候補画像を取得して操作部150の操作パネル201に、例えば図10(A)のように表示する。 On the other hand, in S1203, when the CPU 101 determines that the image data obtained by reading the original is monochrome image data, the process proceeds to S1204, and determines whether or not the monochrome → color conversion mode is stored in the RAM 103. Here, when the mode is not the monochrome → color conversion mode, the process proceeds to S1212, image formation is executed based on the monochrome image data obtained by reading the data, and this process is completed. On the other hand, when it is determined in S1204 that the monochrome → color conversion mode is set, the process proceeds to S1205, and the CPU 101 extracts the object included in the input monochrome image data and proceeds to S1206. In S1206, the CPU 101 determines whether or not the monochrome image data of the extracted object is stored in the learning table shown in FIG. If it is determined that the data is stored here, the process proceeds to S1207, and the CPU 101 acquires a candidate image associated with the monochrome image data of the object and displays it on the operation panel 201 of the operation unit 150, for example, as shown in FIG. 10 (A). indicate.

次にS1208に進みCPU101は、例えば図10(A)の画面で、ユーザがいずれかの候補画像を選択するとS1212に進む。S1212でCPU101は、その選択された候補画像の画像データに基づいて、入力されたモノクロ画像データをカラー画像データに変換する。このとき図6を参照して前述したように、学習モデルを使用してカラー画像データに変換する。そしてS1213に進みCPU101は、その変換したカラー画像データに基づいて画像形成を実行して、この処理を終了する。 Next, the process proceeds to S1208, and the CPU 101 proceeds to S1212 when the user selects one of the candidate images on the screen of FIG. 10A, for example. In S1212, the CPU 101 converts the input monochrome image data into color image data based on the image data of the selected candidate image. At this time, as described above with reference to FIG. 6, the learning model is used to convert the data into color image data. Then, the process proceeds to S1213, and the CPU 101 executes image formation based on the converted color image data and ends this process.

一方、S1208でユーザが、図10(A)の色味補正ボタン1004を押下したと判定するとS1209に進む。S1209でCPU101は、前述の図6を参照して前述したように、学習済モデルを使用して入力されたモノクロ画像データをカラー画像データに変換する。次にS1210に進みCPU101は、例えば図11に示す画面を操作パネル201に表示する。そしてその画面で、ユーザが選択したカラー化する色の候補に従って、オブジェクトのカラーを変更する。そしてスタートキー202が押下されるとS1211に進みCPU101は、その選択された色に従って学習テーブルを更新する。このときS1209で得られたカラー画像データもS1210で選択された色味に従って補正する。そしてS1213に進み、CPU101は、その変換したカラー画像データに基づいて画像形成を実行して、この処理を終了する。尚、図11の画面でキャンセルボタンが押下されると、図10(A)の画面に戻る。 On the other hand, if it is determined in S1208 that the user has pressed the color correction button 1004 in FIG. 10A, the process proceeds to S1209. In S1209, the CPU 101 converts the black-and-white image data input using the trained model into color image data as described above with reference to FIG. Next, the process proceeds to S1210, and the CPU 101 displays, for example, the screen shown in FIG. 11 on the operation panel 201. Then, on that screen, the color of the object is changed according to the color candidates to be colored selected by the user. Then, when the start key 202 is pressed, the process proceeds to S1211, and the CPU 101 updates the learning table according to the selected color. At this time, the color image data obtained in S1209 is also corrected according to the tint selected in S1210. Then, the process proceeds to S1213, and the CPU 101 executes image formation based on the converted color image data and ends this process. When the cancel button is pressed on the screen of FIG. 11, the screen returns to the screen of FIG. 10 (A).

またS1206でCPU101は、抽出したオブジェクトが、図8に示す学習テーブルに記憶されていないと判定するとS1214に進む。S1214でCPU101は、入力したモノクロ画像データをカラー画像データに変換する。これは図6を参照して前述したように、学習モデルを使用してカラー画像データに変換する。そして、その変換結果を例えば図10(B)に示すように操作パネル201に表示する。 Further, in S1206, when the CPU 101 determines that the extracted object is not stored in the learning table shown in FIG. 8, the process proceeds to S1214. In S1214, the CPU 101 converts the input monochrome image data into color image data. This is converted into color image data using a learning model as described above with reference to FIG. Then, the conversion result is displayed on the operation panel 201 as shown in FIG. 10B, for example.

図10(B)において、画像1005は、S1214におけるカラー変換により得られたカラー画像データを示す。そしてS1215に進みCPU101は、図10(B)の状態でスタートキー202が押下されるか、或いは色補正ボタン1006が押下されるのを待つ。この画面でこのカラー画像が、ユーザが満足できるものであればスタートキー202を押下する。これによりS1213に進み、CPU101は、そのカラー画像データに従って画像形成を行って、この処理を終了する。 In FIG. 10B, image 1005 shows the color image data obtained by the color conversion in S1214. Then, the process proceeds to S1215, and the CPU 101 waits for the start key 202 to be pressed or the color correction button 1006 to be pressed in the state shown in FIG. 10 (B). If the color image on this screen is satisfactory to the user, the start key 202 is pressed. As a result, the process proceeds to S1213, and the CPU 101 forms an image according to the color image data and ends this process.

一方、S1215で色補正ボタン1006が押下されたときはS1210に進みCPU101は、前述したように、例えば図11に示す画面を操作パネル201に表示する。その画面で、ユーザが選択したカラー化する色の候補に従って、オブジェクトのカラーを変更する。そしてスタートキー202が押下されるとS1211に進みCPU101は、その選択された色に従って学習テーブルを更新するとともに、S1214で得られたカラー画像データの色味を補正する。そしてS1213に進み、CPU101は、こうして得られたカラー画像データに基づいて画像形成を実行して、この処理を終了する。またこのときは、図11の画面でキャンセルボタンが押下されると、図10(B)の画面に戻る。 On the other hand, when the color correction button 1006 is pressed in S1215, the process proceeds to S1210, and the CPU 101 displays, for example, the screen shown in FIG. 11 on the operation panel 201 as described above. On that screen, change the color of the object according to the color candidates selected by the user. Then, when the start key 202 is pressed, the process proceeds to S1211, and the CPU 101 updates the learning table according to the selected color and corrects the tint of the color image data obtained in S1214. Then, the process proceeds to S1213, and the CPU 101 executes image formation based on the color image data thus obtained, and ends this process. At this time, when the cancel button is pressed on the screen of FIG. 11, the screen returns to the screen of FIG. 10 (B).

以上説明したように実施形態によれば、読み込んだ画像データから学習済みモデルを用いて対象物を判定し、色付けを行うとともに複数の色付け候補を表示して、その中からユーザが選択できるようにする。これにより、ユーザにとって所望の色付けを行うことが可能となり、利便性の向上を図ることが可能となる。 As described above, according to the embodiment, the object is determined from the read image data using the trained model, coloring is performed, and a plurality of coloring candidates are displayed so that the user can select from them. do. As a result, it is possible to perform the desired coloring for the user, and it is possible to improve the convenience.

尚、実施形態では、画像処理装置の例として画像形成装置を挙げたが、入力されたモノクロ画像から学習済みモデルを用いて対象物の品物を判定し、カラー化する機能があれば画像形成装置に限らず、全ての装置に対して適用することが可能である。 In the embodiment, an image forming apparatus is given as an example of the image processing apparatus, but if there is a function of determining an object of an object from an input monochrome image using a trained model and colorizing the image forming apparatus, the image forming apparatus is used. It can be applied to all devices, not limited to.

尚、実施形態では、オブジェクトの複数の品種に対応する複数の色候補を表示し、ユーザが選択した色候補をそのオブジェクトの色とすることで、オブジェクトの品種の判別をなくしている。 In the embodiment, a plurality of color candidates corresponding to a plurality of varieties of the object are displayed, and the color candidates selected by the user are used as the color of the object, thereby eliminating the determination of the varieties of the object.

これに対して、例えば、オブジェクトの品種を判別して、その品種の色候補を表示するようにしても良い。即ち、例えば図10(A)において、リンゴの品種を「ふじ」と判別すると、その「ふじ」のリンゴの色に近い、複数のカラー候補画像を表示しても良い。 On the other hand, for example, the product type of the object may be determined and the color candidates of the product type may be displayed. That is, for example, in FIG. 10A, when an apple variety is determined to be "Fuji", a plurality of color candidate images close to the color of the "Fuji" apple may be displayed.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本発明は上記実施形態に制限されるものではなく、本発明の精神及び範囲から逸脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。 The present invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the present invention. Therefore, in order to make the scope of the present invention public, the following claims are attached.

10…画像形成装置、100…コントローラユニット、101…CPU、104…HDD,105…学習処理部、107…画像処理部、120…プリンタユニット、130…スキャナユニット、150…操作部 10 ... Image forming device, 100 ... Controller unit, 101 ... CPU, 104 ... HDD, 105 ... Learning processing unit, 107 ... Image processing unit, 120 ... Printer unit, 130 ... Scanner unit, 150 ... Operation unit

Claims (11)

オブジェクトのカラー画像データをモノクロ画像データに変換する変換手段と、
前記変換手段により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として保存する保存手段と、
入力した画像データからオブジェクトを検出する検出手段と、
前記検出手段により検出されたオブジェクトが前記保存手段に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示手段と、
前記表示手段に表示されたカラー候補画像から選択されたカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換手段と、
を有することを特徴とする画像処理装置。
A conversion means for converting the color image data of an object into monochrome image data,
A storage means for storing the color image data as a color candidate image of the object in association with the monochrome image data converted by the conversion means.
A detection means that detects an object from the input image data,
A display means for displaying a color candidate image associated with the object when the object detected by the detection means is stored in the storage means.
A conversion means for converting the input image data into color image data using a trained model based on the color image data selected from the color candidate images displayed on the display means.
An image processing device characterized by having.
前記カラー候補画像は、前記オブジェクトと同一のオブジェクトで、品種の異なるオブジェクトのカラー画像であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the color candidate image is a color image of the same object as the object but of different types of objects. オブジェクトのカラー画像データをモノクロ画像データに変換する変換手段と、
前記変換手段により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として保存する保存手段と、
入力した画像データがモノクロ画像データかどうか判定する第1判定手段と、
前記第1判定手段がモノクロ画像データと判定すると、モノクロ画像データをカラー画像データに変換するモードが設定されているかどうか判定する第2判定手段と、
前記第2判定手段が前記モードが設定されていると判定すると、前記入力した画像データからオブジェクトを検出する検出手段と、
前記検出手段により検出されたオブジェクトが前記保存手段に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示手段と、
前記表示手段に表示されたカラー候補画像に対応するカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する第1変換手段と、
を有することを特徴とする画像処理装置。
A conversion means for converting the color image data of an object into monochrome image data,
A storage means for storing the color image data as a color candidate image of the object in association with the monochrome image data converted by the conversion means.
The first determination means for determining whether the input image data is monochrome image data,
When the first determination means determines that it is monochrome image data, the second determination means for determining whether or not the mode for converting the monochrome image data into the color image data is set.
When the second determination means determines that the mode is set, the detection means for detecting an object from the input image data and the detection means.
A display means for displaying a color candidate image associated with the object when the object detected by the detection means is stored in the storage means.
A first conversion means for converting the input image data into color image data using a trained model based on the color image data corresponding to the color candidate image displayed on the display means.
An image processing device characterized by having.
前記入力した画像データを前記学習済モデルを用いてカラー画像データに変換する第2変換手段を、更に有することを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, further comprising a second conversion means for converting the input image data into color image data using the trained model. 前記第1変換手段、或いは前記第2変換手段により変換された前記カラー画像データを出力する出力手段を、更に有することを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, further comprising an output means for outputting the color image data converted by the first conversion means or the second conversion means. 前記第2変換手段により得られた前記カラー画像データの色味を補正する補正手段を、更に有することを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, further comprising a correction means for correcting the tint of the color image data obtained by the second conversion means. 前記カラー候補画像は、前記オブジェクトと同一のオブジェクトで、品種の異なるオブジェクトのカラー画像であることを特徴とする請求項3乃至6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 3 to 6, wherein the color candidate image is the same object as the object but is a color image of an object of a different kind. 原稿を読み取る読取手段を、更に有し、
前記入力した画像データは、前記読取手段が原稿を読み取って入力した画像データであることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
Further having a reading means for reading a document,
The image processing apparatus according to any one of claims 1 to 7, wherein the input image data is image data input by reading a document by the reading means.
画像処理装置を制御する制御方法であって、
オブジェクトのカラー画像データをモノクロ画像データに変換する変換工程と、
前記変換工程により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として記憶部に保存する保存工程と、
入力した画像データからオブジェクトを検出する検出工程と、
前記検出工程で検出されたオブジェクトが前記記憶部に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示工程と、
前記表示工程で表示されたカラー候補画像から選択されたカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換工程と、
を有することを特徴とする制御方法。
A control method for controlling an image processing device.
A conversion process that converts the color image data of an object into monochrome image data,
A storage step of storing the color image data as a color candidate image of the object in a storage unit in association with the monochrome image data converted by the conversion step.
A detection process that detects an object from the input image data,
A display step of displaying a color candidate image associated with the object when the object detected in the detection step is stored in the storage unit, and a display step of displaying the color candidate image associated with the object.
A conversion step of converting the input image data into color image data using a trained model based on the color image data selected from the color candidate images displayed in the display step.
A control method characterized by having.
画像処理装置を制御する制御方法であって、
オブジェクトのカラー画像データをモノクロ画像データに変換する変換工程と、
前記変換工程で変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として記憶部に保存する保存工程と、
入力した画像データがモノクロ画像データかどうか判定する第1判定工程と、
前記第1判定工程がモノクロ画像データと判定すると、モノクロ画像データをカラー画像データに変換するモードが設定されているかどうか判定する第2判定工程と、
前記第2判定工程が前記モードが設定されていると判定すると、前記入力した画像データからオブジェクトを検出する検出工程と、
前記検出工程により検出されたオブジェクトが前記記憶部に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示工程と、
前記表示工程に表示されたカラー候補画像に対応するカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換工程と、
を有することを特徴とする制御方法。
A control method for controlling an image processing device.
A conversion process that converts the color image data of an object into monochrome image data,
A storage step of storing the color image data as a color candidate image of the object in the storage unit in association with the monochrome image data converted in the conversion step.
The first determination step of determining whether the input image data is monochrome image data,
When the first determination step determines that the monochrome image data is used, the second determination step of determining whether or not the mode for converting the monochrome image data into the color image data is set.
When the second determination step determines that the mode is set, the detection step of detecting an object from the input image data and the detection step.
A display step of displaying a color candidate image associated with the object when the object detected by the detection step is stored in the storage unit, and a display step of displaying the color candidate image associated with the object.
A conversion step of converting the input image data into color image data using a trained model based on the color image data corresponding to the color candidate image displayed in the display step.
A control method characterized by having.
コンピュータを、請求項1乃至8のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 8.
JP2020049941A 2020-03-19 2020-03-19 Image processing device and control method and program for the same Pending JP2021150855A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049941A JP2021150855A (en) 2020-03-19 2020-03-19 Image processing device and control method and program for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049941A JP2021150855A (en) 2020-03-19 2020-03-19 Image processing device and control method and program for the same

Publications (1)

Publication Number Publication Date
JP2021150855A true JP2021150855A (en) 2021-09-27

Family

ID=77849536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049941A Pending JP2021150855A (en) 2020-03-19 2020-03-19 Image processing device and control method and program for the same

Country Status (1)

Country Link
JP (1) JP2021150855A (en)

Similar Documents

Publication Publication Date Title
JP5145965B2 (en) Image processing apparatus, image processing method, and program
JP2007097171A (en) Image forming apparatus and subtractive color printing method
KR20190013657A (en) Image processing apparatus, image processing method, and storage medium
JP2005335372A (en) Printing device
US20190268580A1 (en) Image processing apparatus, image forming apparatus, image processing method, and non-transitory computer-readable storage medium
JP7338002B2 (en) Image processing device, image processing method, and program
JP2007336549A (en) Image forming apparatus and method
KR101716278B1 (en) Image forming apparatus, printing control terminal apparatus and image forming method there of
JPH11136532A (en) Color image forming device and its control method
JP4555192B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
US20050012963A1 (en) Image processing apparatus, image processing method, and computer product
JP2008288912A (en) Image processor and image forming apparatus
JP4628984B2 (en) Image processing device
JP4323742B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP2021150855A (en) Image processing device and control method and program for the same
JP7077451B2 (en) Image forming apparatus and control method of image forming apparatus, and program
JP4141923B2 (en) Color image processing device
KR101631942B1 (en) Method for printing document based on Black Optimization printing option and for controlling thereof, image forming apparatus and host device for performing thereof
JP6558888B2 (en) Apparatus, printing apparatus, printing control method, and program
JPH08195878A (en) Image processor
JP4868016B2 (en) Image processing apparatus, image forming apparatus, and program
JP6169008B2 (en) Image forming apparatus
JPH1016304A (en) Image-outputting apparatus, image-processing apparatus, method for outputting and processing image, and method for correcting density
JP2019153061A (en) Image processing device, control method of the same and program thereof
JP3559746B2 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113