JP2021150855A - Image processing device and control method and program for the same - Google Patents
Image processing device and control method and program for the same Download PDFInfo
- Publication number
- JP2021150855A JP2021150855A JP2020049941A JP2020049941A JP2021150855A JP 2021150855 A JP2021150855 A JP 2021150855A JP 2020049941 A JP2020049941 A JP 2020049941A JP 2020049941 A JP2020049941 A JP 2020049941A JP 2021150855 A JP2021150855 A JP 2021150855A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- color
- image
- monochrome
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理装置とその制御方法、及びプログラムに関するものである。 The present invention relates to an image processing device, a control method thereof, and a program.
人工知能を用いた画像補正に関する技術は多く知られている。その一つの例として、モノクロ画像データをカラー画像データに変換する技術が挙げられる。この技術は、ドキュメントの見栄えを良くするため、或いは情報を見易くすることを目的としている。カラー画像データは、明度だけでなく色相及び彩度の情報を含むため、画像データをカラー化することにより、ドキュメント情報の視認性を高めることが可能となる。特許文献1には、読み込んだ画像がモノクロ画像と判断したときに、学習済みモデル用いて、そのモノクロ画像データをカラー画像データに変更する手法が記載されている。 Many techniques related to image correction using artificial intelligence are known. One example of this is a technique for converting monochrome image data into color image data. This technique is intended to improve the appearance of documents or to make information easier to read. Since the color image data includes not only lightness but also hue and saturation information, it is possible to improve the visibility of the document information by colorizing the image data. Patent Document 1 describes a method of changing the monochrome image data into color image data by using the trained model when it is determined that the read image is a monochrome image.
しかしながら従来の手法では、カラー画像データに変換した後の画像の色が必ずしもユーザの所望の色にならないことがある。例えば、カラー化する対象物によっては、その対象物の品種等により、モノクロ画像データでは同じデータでも、実際の色が異なる場合がある。このような場合、そのカラー化を実行した装置は、カラー化に失敗しているとは判断できないという課題がある。 However, in the conventional method, the color of the image after being converted into the color image data may not always be the color desired by the user. For example, depending on the object to be colorized, the actual color may differ even if the monochrome image data is the same, depending on the type of the object and the like. In such a case, there is a problem that the device that has executed the colorization cannot determine that the colorization has failed.
本発明の目的は、上記従来技術の問題点の少なくとも一つを解決することにある。 An object of the present invention is to solve at least one of the problems of the prior art.
本発明の目的は、カラー画像データに変換した後の画像の色を、ユーザが所望する色に近づけることができる技術を提供することにある。 An object of the present invention is to provide a technique capable of bringing the color of an image after conversion into color image data closer to a color desired by a user.
上記目的を達成するために本発明の一態様に係る画像処理装置は以下のような構成を備える。即ち、
オブジェクトのカラー画像データをモノクロ画像データに変換する変換手段と、
前記変換手段により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として保存する保存手段と、
入力した画像データからオブジェクトを検出する検出手段と、
前記検出手段により検出されたオブジェクトが前記保存手段に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示手段と、
前記表示手段に表示されたカラー候補画像から選択されたカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換手段と、を有することを特徴とする。
The image processing apparatus according to one aspect of the present invention in order to achieve the above object has the following configuration. That is,
A conversion means for converting the color image data of an object into monochrome image data,
A storage means for storing the color image data as a color candidate image of the object in association with the monochrome image data converted by the conversion means.
A detection means that detects an object from the input image data,
A display means for displaying a color candidate image associated with the object when the object detected by the detection means is stored in the storage means.
It is characterized by having a conversion means for converting the input image data into color image data using a trained model based on the color image data selected from the color candidate images displayed on the display means. ..
本発明によれば、カラー画像データに変換した後の画像の色を、ユーザが所望する色に近づけることができるという効果がある。 According to the present invention, there is an effect that the color of the image after being converted into the color image data can be brought close to the color desired by the user.
本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。 Other features and advantages of the present invention will become apparent in the following description with reference to the accompanying drawings. In the attached drawings, the same or similar configurations are given the same reference numbers.
添付図面は明細書に含まれ、その一部を構成し、本発明の実施形態を示し、その記述と共に本発明の原理を説明するために用いられる。
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これら複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一もしくは同様の構成に同一の参照番号を付し、重複した説明は省略する。実施形態では、本発明に係る画像処理装置の一例を画像形成装置10を用いて説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted. In the embodiment, an example of the image processing apparatus according to the present invention will be described using the
図1は、実施形態に係る画像形成装置10のハードウェア構成を説明するブロック図である。
FIG. 1 is a block diagram illustrating a hardware configuration of the
この画像形成装置10は、プリント機能、スキャナ機能、コピー機能、FAX機能などの複数の機能を備える複合機(MFP:Multi Function Peripheral)である。この画像形成装置10は、操作部150、FAXユニット160、コントローラユニット100、プリンタユニット120、スキャナユニット130、電源ユニット110、スイッチ145、電源スイッチ148を有する。
The
コントローラユニット(制御部)100は、CPU101、ROM102、RAM103、HDD104、学習処理部105、BIOS106(不揮発ROM)、画像処理部107、ネットワークI/F108等を有する。これらはシステムバス109を介してCPU101に接続されている。CPU101は、HDD104に格納されているプログラムをRAM103に展開し、その展開したプログラムを実行して、この画像形成装置10を制御している。ROM102は、例えばコントローラユニット100の起動に係る処理を実行させるブートプログラムや固定パラメータ等を格納している。RAM103は、CPU101が画像形成装置10を制御する際に、プログラムや一時的なデータの格納などに使用される。尚、RAM103に展開されるプログラムや一時的なデータは、ROM102や後述のHDD104から読み出されたものである。HDD104は、CPU101が実行するプログラムやプログラム管理テーブルや各種データを格納する。実行するプログラムとは、例えば、この画像形成装置10の起動時にOSを起動させるためにCPU101が実行するブートプログラムである。尚、ここでは、ストレージとしてHDDを用いたが、SSDやeMMC、NANDフラッシュメモリまたはNORフラッシュメモリ等を用いてもよい。ネットワークI/F108は、ネットワーク118との間でのデータの送受信を行う。具体的には、ネットワーク118から送られてきたデータを受信したり、スキャナユニット130で原稿を読み取って得られた画像データや、HDD104に保存されているデータをネットワーク118を介して所定の宛先へ送信する。
The controller unit (control unit) 100 includes a
電源ユニット110は、画像形成装置10の各部に電源を供給する。電源がオフの時は、AC電源は電源スイッチ148によって絶縁される。電源スイッチ148がオンになることでAC−DCコンバータ141にAC電源が供給され、DC電源が作られる。DC電源は3つの独立した電源系統で供給され、これら電源系統はCPU101により御される。CPU101はスイッチ142をオン/オフすることにより、コントローラユニット100への電力供給を制御する。またCPU101はスイッチ143をオン/オフすることにより、プリンタユニット120への電力の供給を制御する。更にCPU101は、スイッチ144をオン/オフすることにより、スキャナユニット130への電力の供給を制御する。
The
学習処理部105は、スキャナユニット130が原稿を読み取って得られた画像データについてディープラーニングを行う。実施形態では、学習処理部105は画像形成装置10の中に設けられているが、画像形成装置10の外に学習用サーバを置いて、それとネットワークで接続する構成にしても良い。尚、学習処理部105の詳細については後述する。
The
次に、その他のユニット及びスイッチを説明する。 Next, other units and switches will be described.
FAXユニット160は、電話回線などを介してデジタル画像データを送受信することが可能である。
The
操作部150は、ユーザが操作パネル201を用いて入力したユーザ名や印刷枚数、出力属性情報等のジョブ情報の作成に必要な情報をコントローラユニット100に送信する。スキャナユニット130は、原稿を読取り、モノクロ2値の画像データ、或いはカラー多値の画像データを生成する。スキャナユニット130は、不図示のスキャナ制御I/FによってCPU101に接続される。CPU101は、そのスキャナ制御I/Fを介してスキャナユニット130から入力される画像データを、例えばRAM103等に記憶する。
The
プリンタユニット120は、ネットワークI/F108が受け付けたPDLデータを変換した画像データ、或いはスキャナユニット130によって得られた画像データ等を用紙(シート)に印刷する。プリンタユニット120は、CPU161と定着器162を含む。定着器162は、用紙に転写されたトナー像を熱と圧力により用紙に融着させるものである。定着器162には、スイッチ145を介してAC電源から電力が供給されることにより熱が生じる。尚、定着器162には、AC−DCコンバータ141を介して電力が供給されてもよい。CPU161は、プリンタコントローラとして機能する。CPU161にはAC−DCコンバータ141を介して電力が供給され、スイッチ145を制御することにより、定着器162への電力供給を制御できる。
The
電源スイッチ148のオン/オフによって、画像形成装置10に電源を供給するか否かが決定される。CPU101は、電源スイッチ148のオン/オフ状態を、電源スイッチ148とCPU101とを接続しているSeesaw信号149により判定する。ここではSeesaw信号149がハイレベルの場合は電源スイッチ148がオン状態、ロウレベルの場合はオフ状態である。
Whether or not to supply power to the
BIOS106は、ブートプログラム(BIOS)を格納している不揮発性メモリである。画像処理部107は、CPU101、プリンタユニット120、スキャナユニット130に接続されている。画像処理部107は、スキャナユニット130から出力されたデジタル画像データに対して色空間変換などの画像処理を行い、画像処理後の画像データをCPU101に出力する。また画像処理部107は、スキャナユニット130で得られた画像データを基に色空間変換などの画像処理を行い、ビットマップデータに変換し、プリンタユニット130に出力する。尚、詳細については後述する。
The
画像形成装置10は、コピー機能の他に、スキャナユニット130で取得された画像データをHDD104に保存したり、ネットワーク118やFAX回線を介して送信するSEND機能やFAX機能を実行することができる。コピー機能では、スキャナユニット130が原稿を読み取って取得した画像データをプリンタユニット120で用紙に印刷する。また画像形成装置10は、ネットワーク118を介して接続されているPC等の外部装置(不図示)から受信した画像データや、FAXユニット160で受信した画像データを印刷することができる。
In addition to the copy function, the
画像形成装置10の保存機能では、スキャナユニット130が原稿を読み取って取得した画像データをHDD104に保存する。保存された画像データはコピー機能で印刷されたり、後述のSEND機能を用いてネットワーク118に、或いはFAX機能を用いてFAXユニット160を介してFAX回線へ送信することができる。SEND機能は、HDD104に保存された画像データや、スキャナユニット130で得られた画像データをネットワーク118を介して指定された宛先に送信する機能である。FAX機能は、HDD104に保存された画像データや、スキャナユニット130が原稿を読み取って取得した画像データをFAX回線を介してファクシミリ送信する機能である。
In the storage function of the
図2は、実施形態に係る画像形成装置10の操作部150の上面図である。
FIG. 2 is a top view of the
操作パネル201は、液晶とタッチパネルを組み合わせたものであり、操作画面を表示するとともに、表示キーがユーザにより押されるとその情報をコントローラユニット100に送る。スタートキー202は、原稿画像の読み取りや、印刷の動作を開始するときや、その他機能の開始指示に用いられる。スタートキー202には、緑色と赤色の2色のLEDが組み込まれ、緑色のLEDが点灯すると開始可能を示し、赤色のLEDが点灯すると開始不可であることを示す。ストップキー203は稼動中の動作を止める働きをする。ハードキー群204には、テンキー、クリアキー、リセットキー、ガイドキー、ユーザモードキーが設けられる。節電キー205は、この画像形成装置10の全ての機能が使用できる通常モードから、画像形成装置10を必要最小限の動作のみ行うスリープモードに移行、又は通常モードへ復帰させる際に用いられる。画像形成装置10は、通常モードのときに節電キー205がユーザによって押されるとスリープモードへ移行し、スリープモードのときに、節電キー205がユーザによって押されると通常モードへと移行する。
The
図2(A)は、画像形成装置10の初期状態で表示されるホーム画面を示し、このホーム画面には、「コピー」「ファックス」「スキャンして送信」などの機能を指示するボタンが表示されている。
FIG. 2A shows a home screen displayed in the initial state of the
図2(B)は、図2(A)の画面において、スキャナユニット130を使用する機能、例えば「コピー」が選択されたときに表示されるモノクロ→カラー変換を指示する画面例を示す図である。
FIG. 2B is a diagram showing an example of a screen for instructing a function of using the
ここでユーザは、モノクロ画像をカラー画像に変換するモードを設定したいときはボタン210を押下する。一方、モノクロ画像をカラー画像に変換するモードを設定しないときはキャンセルボタン211を押下する。ここでいずれかのボタンが押下されると、上述の例では、「コピー」の機能設定画面(不図示)に移行する。
Here, the user presses the
また、「モノクロ→カラー変換」のモードが設定されている状態で「モノクロ→カラー変換」ボタン210が押下されると、モノクロ画像データをカラー化するモードが解除される。この場合は、読み取った画像データがモノクロの場合でも色変換は行われず、モノクロ画像データのまま出力される。また読み取った画像データがカラー画像データの場合は、モノクロ画像データをカラー化する機能がアクティブの場合と同様に、そのままカラー画像データのまま出力される。
Further, when the "black-and-white → color conversion"
次に、画像処理部107の具体的な構成を図3のブロック図を用いて説明する。
Next, a specific configuration of the
図3は、実施形態に係る画像処理部107の機能を説明する機能ブロック図である。
FIG. 3 is a functional block diagram illustrating the function of the
システムバスI/F301は、システムバス109に接続され、システムバス109を介して画像形成装置10の各モジュールと接続している。スキャン画像処理部302は、スキャナユニット130で取得された画像データに施すシェーディング補正処理やMTF(Modulation Transfer Function)補正処理、入力ガンマ補正やフィルタ処理を行う。更には、これらに加え、スキャン画像処理部302は、ノイズ除去や色空間変換、回転、圧縮等の画像処理を行う。
The system bus I /
レンダリング処理部303は、外部装置(PC等)から受信した画像データ(PDLコード)をビットマップデータに展開する。
The
プリント画像処理部304は、プリンタユニット120で画像データを印刷するための前処理(具体的には、RGBをCMYKに変換する色空間変換処理やディザ法や誤差拡散法による中間調処理、ガンマ補正など)となる画像処理を行う。画像処理後の画像データは、プリンタユニット120へ出力される。ここで、プリント画像処理部304は、プリンタユニット120の起動及び給紙に合わせてプリンタユニット120へ画像データを出力するために、タイミング同期用のバッファであるRAM103へ画像データを一時的に書き込む。そして、プリント画像処理部304は、記録媒体の給紙のタイミングに同期して、RAM103から画像データを読み出してプリンタユニット120へ出力する。
The print
カラー判定部305は、スキャン画像処理部302で処理された画像データが、カラー画像データかモノクロ画像データか判定する。ここでは、画像データ全体を画素毎に走査して得た画素データを構成するR、G、Bの各コンポーネントの値から、その画素の色味を取得して積算する。そして、その積算結果、即ち、色味の累計値が所定値を超えていた場合、その画像データはカラー画像データであると判定する。一方、色味の累計値が所定値以下であった場合、その画像データはモノクロ画像データであると判定する。
The
モノクロ変換部306は、スキャン画像処理部302で処理したカラー画像データの画素毎に、RGBのコンポーネントの値を演算することによって算出された値をモノクロ画像データの画素値とすることでモノクロ画像データに変換する。
The
カラー変換部307は、スキャン画像処理部302で処理したモノクロ画像データをカラー画像データに変換する。実施形態では、CNN(Convolutional Neural Network)で構成した機械学習技術に基づいて算出処理を行う学習モデルを用いる。カラー変換部307の詳細は後述する。
The
オブジェクト検出部308は、スキャン画像処理部302で処理された画像データに含まれるオブジェクトを検出する。ここでオブジェクトとは、文字以外のイラストや図形、写真、ロゴマークなどの画像の領域を示す。
The
オブジェクト合成部309は、カラー変換部307でカラー変換したオブジェクトを、オブジェクト検出部308で検出した領域に書き戻す。尚、上述した画像処理部107の機能は、画像処理部107が備えるCPUやメモリ(いずれも不図示)により実現されてもよく、或いはCPU101がRAM103に展開したプログラムを実行することにより実現されても良い。
The
次に、学習処理部105について説明する。
Next, the
図4は、実施形態に係る学習処理部105のハードウェア構成を説明するブロック図である。
FIG. 4 is a block diagram illustrating a hardware configuration of the
画像処理部105は、それぞれシステムバス405で相互に接続されているCPU401、RAM402、HDD404、GPU(Graphics Processing Unit)403を有する。CPU401は、HDD404から必要なプログラムを読み出してRAM402に展開して実行することで学習データ生成する。RAM402は、CPU401がプログラムを実行する際のシステムワークメモリである。HDD404はハードディスクドライブであって、学習処理や学習データを生成する際のソフトウェアが記憶されている他、生成された学習データや学習済みモデル、また受信した学習データを記憶する。GPU403は、データをより多く並列処理することで効率的な演算を行うことができる。実施形態では、ディープラーニングを用いて複数回に亘って学習を行うため、GPU403で処理を行うことが有効である。尚、ディープラーニングについての詳細は図6を参照して後述する。またGPU403は、画像形成の際に入力されたモノクロ画像データを、HDD404に記憶された学習モデルから判定する場合にも用いられる。
The
実施形態では、学習を行う場合と画像データの判定にはGPU403を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、GPU403が演算を行うことで学習を行う。また、入力された画像データと学習データを判定する場合は、入力された画像データの画素データとHDD404に記憶されたモノクロ画像データの画素データとを比較し、最も近いものを出力する。尚、学習と判定処理においては、CPU401又はGPU403とCPU401が協働して演算しても良い。
In the embodiment,
図5は、実施形態に係る学習処理部105の機能を説明する機能ブロック図である。
FIG. 5 is a functional block diagram illustrating the function of the
学習処理部105は、学習データ生成部501、機械学習部502、データ記憶部503、画像判別部504を有する。これら機能は、CPU401がRAM402に展開したプログラムを実行するか、或いはGPU403により実現される。
The
学習データ生成部501は、目的の学習効果を得るために、受信した学習用データからノイズになる不要なデータを除去するなどして、効果的な学習結果が得られる形に加工して学習データを最適化する。こうして生成された学習データはHDD404に保存される。この学習用データは、HDD104に保存されている画像データや、画像形成装置10に接続されている外部のデータサーバ(不図示)、又はスキャナユニット130が原稿を読み取って取得した画像データから得られる。学習データの生成は、学習処理部105のCPU401により実行される。
The learning
機械学習部502は、学習データ生成部501によって生成された学習データを入力して機械学習を行い、学習済みモデルを生成する。この機械学習については後述する。機械学習は、学習処理部105のGPU403により実行される。
The
データ記憶部503は、学習データ生成部501で生成された学習データや、機械学習部502で生成された学習済みモデル、更には、受信した学習データを記憶する。データの記憶は、HDD404やRAM402になされる。
The
画像判別部504は、画像形成を行う際に画像処理部107に入力されたモノクロ画像データが何の画像データであるかを、HDD404に記憶された学習済みモデルを用いて判別する。画像判別は、学習処理部105のGPU403で実行される。
The
図6は、実施形態に係る機械学習部502におけるディープラーニングを用いた入出力の構造を示す概念図である。ここでは、ニューラルネットワークを用いた学習モデルを例に図示している。
FIG. 6 is a conceptual diagram showing an input / output structure using deep learning in the
実施形態に係る画像形成装置10の特徴を説明するための一例として、このニューラルネットワークにより読み込んだものが何であるかを予測するための学習モデルの生成に関わる学習データをX、出力データをYとしている。
As an example for explaining the features of the
図6(A)において、学習データとしてリンゴの画像データをXとしたときに、ニューラルネットワークを用いて出力Yとして、各部の画素情報を出力する。ここで入力データXは、リンゴを示すモノクロの画像データであり、出力データYは、そのリンゴに対応するカラー画像データである。 In FIG. 6A, when the image data of the apple is set to X as the learning data, the pixel information of each part is output as the output Y using the neural network. Here, the input data X is monochrome image data indicating an apple, and the output data Y is color image data corresponding to the apple.
機械学習の具体的なアルゴリズムとしては、ニューラルネットワーク以外に、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成するディープラーニングも挙げられる。実施形態では、これらアルゴリズムのうち、適宜、利用できるものを用いて機械学習を行う。 Specific algorithms for machine learning include the nearest neighbor method, the naive Bayes method, the decision tree, and the support vector machine, in addition to the neural network. Another example is deep learning in which features and coupling weighting coefficients for learning are generated by themselves using a neural network. In the embodiment, machine learning is performed using any of these algorithms that can be used as appropriate.
また学習モデルは、誤差検出部と、更新部とを備えてもよい。 Further, the learning model may include an error detection unit and an update unit.
図6(B)において、誤差検出部は、入力層に入力される入力データX601に応じて、ニューラルネットワークを用いた学習モデルW604の出力層から出力される出力データY602と、教師データT603との誤差を求める。そして、損失関数を用いて、ニューラルネットワークからの出力データY602と教師データT603との誤差を表す損失Lを計算する。更新部は、誤差検出部で得られた損失Lに基づいて、その損失Lが小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 In FIG. 6B, the error detection unit includes the output data Y602 output from the output layer of the learning model W604 using the neural network and the teacher data T603 according to the input data X601 input to the input layer. Find the error. Then, using the loss function, the loss L representing the error between the output data Y602 from the neural network and the teacher data T603 is calculated. The update unit updates the coupling weighting coefficient between the nodes of the neural network and the like so that the loss L becomes smaller based on the loss L obtained by the error detection unit. This updating unit updates the coupling weighting coefficient and the like by using, for example, the backpropagation method. The error backpropagation method is a method of adjusting the coupling weighting coefficient between the nodes of each neural network so that the above error becomes small.
学習モデルW604は、「正解値が既知の入力データ」と「正解値」とをセットにした学習データを多数用意している。そして、この正解値に対応する入力データを入力した場合の出力データが、正解値に極力近づくように学習モデルWの重み付け係数を調整する。こうして、精度の高い学習モデルWを得るための作業を行う。これを学習工程と呼び、この学習工程を経て調整された学習モデルを学習済モデルと呼ぶ。 The learning model W604 prepares a large number of learning data in which "input data whose correct answer value is known" and "correct answer value" are set. Then, the weighting coefficient of the learning model W is adjusted so that the output data when the input data corresponding to the correct answer value is input is as close as possible to the correct answer value. In this way, the work for obtaining the highly accurate learning model W is performed. This is called a learning process, and a learning model adjusted through this learning process is called a trained model.
図7は、実施形態に係る学習処理部105の機械学習部502で学習処理を行い、画像処理部107のカラー変換部307で用いられる学習モデルを更新する処理を説明するフローチャートである。尚、このフローチャートで示す処理は、学習処理部105のGPU403及び画像処理部107のモノクロ変換部306により実行される。尚、ここで機械学習部502は、画像処理部107と連携して学習処理を行う。
FIG. 7 is a flowchart illustrating a process of performing learning processing by the
まずS701でGPU403は、画像処理部107のオブジェクト検出部308が検出したオブジェクトの内、カラー判定部305がカラー画像と判定したカラーオブジェクトの画像データを学習サンプルのカラー候補画像データとしてHDD404に保存する。次にS702に進み画像処理部107のモノクロ変換部306は、HDD404に保存されたカラー画像データを読み出し、それをモノクロ画像データに変換してRAM402に記憶する。上述したように、ここでは、カラー画像データの画素毎にRGBのコンポーネントを演算することによって算出された値を、対応するモノクロ画像データの画素値とすることでモノクロ画像データに変換する。尚、HDD404から読み出した画像データがJPEG等の圧縮形式の場合は、圧縮伸張処理部(不図示)で画像データを伸張した後にモノクロ変換処理を行うものとする。
First, in S701, the
次にS703に進みGPU403は、S702でモノクロ変換してRAM402に記憶したモノクロ画像データとそのオブジェクトとを、学習処理の入力画像データとしてHDD404に保存する。次にS704に進みGPU403は、S701及びS703で記憶した画像ファイルを学習テーブルに追加する。
Next, the process proceeds to S703, and the
図8は、実施形態に係る学習テーブルの構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the learning table according to the embodiment.
学習テーブルは、前述の各画像データのパスを有し、HDD404に記憶されている。この学習テーブルにおいて、学習サンプルの入力画像データは、S703で保存されたモノクロ画像データのファイル名とそのオブジェクトを示し、学習サンプルの候補画像データは、S701で保存されたカラー画像データのパスを示す。
The learning table has the paths of the above-mentioned image data and is stored in the
この学習テーブルでは、入力画像データと候補画像データの紐づけを行っている。そして、モノクロ画像データが入力された時に、この学習テーブルを参照して、カラー画像データへ変換する。この学習テーブルに記憶する際、入力された画像データにおけるオブジェクトの形状の特徴量が、ある一定の範囲内で共通している場合で、かつ、色が異なる場合は、同一のオブジェクトで品種が異なると判定する。こうして判定された同一のオブジェクトで品種が異なる画像データを、入力画像データに対して、複数の候補画像データとして紐づけて記憶する。例えば図8の例では、オブジェクトが(object_001)である入力画像データ(picture001.jpg)に対して、3つの候補画像データ(kouho001_001.jpg,kouho002_002.jpg,kouho003_003.jpg、いずれもカラー画像データ)が登録されている。 In this learning table, the input image data and the candidate image data are linked. Then, when monochrome image data is input, it is converted into color image data by referring to this learning table. When storing in this learning table, if the features of the shape of the object in the input image data are common within a certain range and the colors are different, the same object has different varieties. Is determined. Image data of the same object but different varieties determined in this way are associated with the input image data as a plurality of candidate image data and stored. For example, in the example of FIG. 8, three candidate image data (kouho001_001.jpg, kouho002_002.jpg, kouho003_003.jpg, all of which are color image data) with respect to the input image data (picture001.jpg) whose object is (object_001). Is registered.
次にS705に進みGPU403は、S704で生成した学習テーブルで示された画像データと、カラー変換部307とを用いて学習を行う。そして、カラー変換部307の学習モデルを更新する。
Next, the process proceeds to S705, and the
図9は、実施形態に係る学習モデルを用いた、画像処理部107のカラー変換部307の具体的な処理を説明する図である。
FIG. 9 is a diagram illustrating specific processing of the
畳み込み層は、それぞれ不図示の2次元フィルタ関数(例えば、4×4のフィルタ)を備え、各畳み込み層の入力画像データに対して2次元フィルタ関数を用いて畳み込み演算を行う。またプーリング層は、それぞれ不図示の2次元プーリング関数を備え、各プーリング層の入力に対して2次元プーリング関数のウィンドウ内の画素から条件に合致する画素を取り出す。例えば、ウィンドウサイズが2×2の最大プーリングであれば、ウィンドウ内の4画素の中から最大画素値を有する画素を取り出す。 Each convolution layer has a two-dimensional filter function (for example, a 4 × 4 filter) (not shown), and the convolution operation is performed on the input image data of each convolution layer by using the two-dimensional filter function. Further, each pooling layer is provided with a two-dimensional pooling function (not shown), and pixels matching the conditions are extracted from the pixels in the window of the two-dimensional pooling function for the input of each pooling layer. For example, if the window size is a maximum pooling of 2 × 2, the pixel having the maximum pixel value is extracted from the four pixels in the window.
実施形態に係るカラー変換部307における学習モデルは、畳み込み層とプーリング層との組を複数直列に接続した構成で学習を行う。
The learning model in the
まず、輝度情報のみを備えたモノクロ画像を入力データ901として用意する。これを初めの層の畳み込み層に入力して畳み込み処理を行い、続いてプーリング層でプーリング処理を行う。次の畳み込み層とプーリング層では、前層の処理結果を入力して処理を行う。これを接続された組数繰り返し、最後のプーリング層でのプーリング処理後のデータを、輝度(L)と彩度(ab)とで構成される色空間(Lab空間)のab空間にマッピングして中間カラー画像データを生成する。そして、中間カラー画像データと輝度画像データとを合成してカラー画像データ902に変換することでカラー化処理を行う。
First, a monochrome image having only luminance information is prepared as
ここでは入力データ901は、リンゴを示すモノクロのデータで、カラー画像データ902は、例えば赤色のリンゴを示す画像データである。
Here, the
続いて、画像形成装置10におけるモノクロ画像をカラー化する際の挙動について説明する。
Subsequently, the behavior of the
図10は、実施形態に係る画像形成装置10の操作部150の表示例を示す図である。
FIG. 10 is a diagram showing a display example of the
図2(B)を参照して前述したように、画像データの読み込みを行う際は、モノクロ画像をカラー画像に変換するモードを設定することができる。このようにモノクロ画像をカラー画像に変換するモードが設定されているときは、操作部150の操作パネル201では「モノクロ→カラー変換」の表示がアクティブになる。
As described above with reference to FIG. 2B, when reading image data, it is possible to set a mode for converting a monochrome image into a color image. When the mode for converting a monochrome image to a color image is set in this way, the display of "black and white → color conversion" is activated on the
図10(A)では、モノクロ画像を読み取って印刷するときに画像形成装置10においてカラー化処理が行われ、操作パネル201にカラー化した画像データの候補画像が表示される。ユーザは、これら表示された候補画像の中から、所望の画像を選択すると、その選択された候補画像に基づくカラー画像データが出力される。
In FIG. 10A, when a monochrome image is read and printed, a colorization process is performed by the
図10(A)の例では、候補画像1001〜1003が表示されている。ここで候補画像1001は、例えば「ふじ」などの赤色のリンゴ、候補画像1002は例えば「きおう」などの黄色のリンゴ、候補画像1003は、例えば「おうりん」などの緑色のリンゴを示している。
In the example of FIG. 10A, candidate images 1001 to 1003 are displayed. Here, the candidate image 1001 shows a red apple such as "Fuji", the candidate image 1002 shows a yellow apple such as "Kiou", and the
一方、図10(A)において、ユーザは、これら候補画像の中に所望の候補画像がなかった場合は、「色味補正」ボタン1004を選択する。これにより、例えば図11に示すような画面が表示される。
On the other hand, in FIG. 10A, when the desired candidate image is not included in these candidate images, the user selects the “color correction”
図10(B)は、候補画像がないときのカラー化した画像データの表示例を示す図である。この図10(B)は、図12のフローチャートの説明で説明する。 FIG. 10B is a diagram showing a display example of colorized image data when there is no candidate image. FIG. 10B will be described with reference to the flowchart of FIG.
図11は、実施形態に係る画像形成装置10の操作部150に表示される色味調整画面の一例を示す図である。
FIG. 11 is a diagram showing an example of a color tint adjustment screen displayed on the
ユーザは、この画面で、カラー画像データ1101の所望の箇所を指定して色マップ1101の中の色味を選択することにより、その所望の箇所を、ユーザが希望する色に指定できる。尚、モノクロ画像データをカラー化する機能がアクティブな状態でカラー画像データが入力された場合はそのまま出力される。 The user can specify the desired part of the color image data 1101 as the color desired by the user by designating the desired part of the color image data 1101 and selecting the color tones in the color map 1101 on this screen. If the color image data is input while the function for colorizing the monochrome image data is active, it is output as it is.
尚、この画面でユーザが設定した色は学習テーブルに追加され、次に同様の画像データが入力された場合は、その設定した色の候補画像も表示される。 The color set by the user on this screen is added to the learning table, and when the same image data is input next time, the candidate image of the set color is also displayed.
次に、図12のフローチャートを用いて、モノクロ画像をカラー化する挙動を説明する。 Next, the behavior of colorizing a monochrome image will be described with reference to the flowchart of FIG.
図12は、実施形態に係る画像形成装置10におけるコピー処理を説明するフローチャートである。尚、この処理を実行するプログラムはHDD104に記憶されており、実行時にRAM103に展開され、その展開されたプログラムをCPU101が実行することで、このフローチャートで示す処理が実現される。
FIG. 12 is a flowchart illustrating a copy process in the
まずS1201でCPU101は、前述のホーム画面で「コピー」機能が選択されると、原稿の読み込みモードを設定する。そしてこのときの図2(B)の画面でモノクロ→カラー変換モードが設定されたかどうかをRAM103に記憶する。そしてスタートキー202が押下されるとS1202に進みCPU101は、スキャナユニット130による原稿の読み取りを開始する。次にS1203に進みCPU101は、原稿を読み取って得られた画像データがモノクロの画像データかどうか判定する。ここでモノクロの画像データでないときはS1212に進み、その読み取って得られたカラー画像データに基づいて画像形成を実行して、この処理を終了する。
First, in S1201, the
一方、S1203でCPU101は、原稿を読み取って得られた画像データがモノクロの画像データであると判定するとS1204に進み、RAM103にモノクロ→カラー変換モードが記憶されているかどうか判定する。ここでモノクロ→カラー変換モードでないときはS1212に進み、その読み取って得られたモノクロ画像データに基づいて画像形成を実行して、この処理を終了する。一方、S1204でモノクロ→カラー変換モードが設定されていると判定したときはS1205に進み、CPU101は、入力したモノクロ画像データに含まれるオブジェクトを抽出してS1206に進む。S1206でCPU101は、その抽出したオブジェクトのモノクロ画像データが、図8に示す学習テーブルに記憶されているかどうか判定する。ここで記憶されていると判定するとS1207に進みCPU101は、そのオブジェクトのモノクロ画像データに関連付けられている候補画像を取得して操作部150の操作パネル201に、例えば図10(A)のように表示する。
On the other hand, in S1203, when the
次にS1208に進みCPU101は、例えば図10(A)の画面で、ユーザがいずれかの候補画像を選択するとS1212に進む。S1212でCPU101は、その選択された候補画像の画像データに基づいて、入力されたモノクロ画像データをカラー画像データに変換する。このとき図6を参照して前述したように、学習モデルを使用してカラー画像データに変換する。そしてS1213に進みCPU101は、その変換したカラー画像データに基づいて画像形成を実行して、この処理を終了する。
Next, the process proceeds to S1208, and the
一方、S1208でユーザが、図10(A)の色味補正ボタン1004を押下したと判定するとS1209に進む。S1209でCPU101は、前述の図6を参照して前述したように、学習済モデルを使用して入力されたモノクロ画像データをカラー画像データに変換する。次にS1210に進みCPU101は、例えば図11に示す画面を操作パネル201に表示する。そしてその画面で、ユーザが選択したカラー化する色の候補に従って、オブジェクトのカラーを変更する。そしてスタートキー202が押下されるとS1211に進みCPU101は、その選択された色に従って学習テーブルを更新する。このときS1209で得られたカラー画像データもS1210で選択された色味に従って補正する。そしてS1213に進み、CPU101は、その変換したカラー画像データに基づいて画像形成を実行して、この処理を終了する。尚、図11の画面でキャンセルボタンが押下されると、図10(A)の画面に戻る。
On the other hand, if it is determined in S1208 that the user has pressed the
またS1206でCPU101は、抽出したオブジェクトが、図8に示す学習テーブルに記憶されていないと判定するとS1214に進む。S1214でCPU101は、入力したモノクロ画像データをカラー画像データに変換する。これは図6を参照して前述したように、学習モデルを使用してカラー画像データに変換する。そして、その変換結果を例えば図10(B)に示すように操作パネル201に表示する。
Further, in S1206, when the
図10(B)において、画像1005は、S1214におけるカラー変換により得られたカラー画像データを示す。そしてS1215に進みCPU101は、図10(B)の状態でスタートキー202が押下されるか、或いは色補正ボタン1006が押下されるのを待つ。この画面でこのカラー画像が、ユーザが満足できるものであればスタートキー202を押下する。これによりS1213に進み、CPU101は、そのカラー画像データに従って画像形成を行って、この処理を終了する。
In FIG. 10B,
一方、S1215で色補正ボタン1006が押下されたときはS1210に進みCPU101は、前述したように、例えば図11に示す画面を操作パネル201に表示する。その画面で、ユーザが選択したカラー化する色の候補に従って、オブジェクトのカラーを変更する。そしてスタートキー202が押下されるとS1211に進みCPU101は、その選択された色に従って学習テーブルを更新するとともに、S1214で得られたカラー画像データの色味を補正する。そしてS1213に進み、CPU101は、こうして得られたカラー画像データに基づいて画像形成を実行して、この処理を終了する。またこのときは、図11の画面でキャンセルボタンが押下されると、図10(B)の画面に戻る。
On the other hand, when the
以上説明したように実施形態によれば、読み込んだ画像データから学習済みモデルを用いて対象物を判定し、色付けを行うとともに複数の色付け候補を表示して、その中からユーザが選択できるようにする。これにより、ユーザにとって所望の色付けを行うことが可能となり、利便性の向上を図ることが可能となる。 As described above, according to the embodiment, the object is determined from the read image data using the trained model, coloring is performed, and a plurality of coloring candidates are displayed so that the user can select from them. do. As a result, it is possible to perform the desired coloring for the user, and it is possible to improve the convenience.
尚、実施形態では、画像処理装置の例として画像形成装置を挙げたが、入力されたモノクロ画像から学習済みモデルを用いて対象物の品物を判定し、カラー化する機能があれば画像形成装置に限らず、全ての装置に対して適用することが可能である。 In the embodiment, an image forming apparatus is given as an example of the image processing apparatus, but if there is a function of determining an object of an object from an input monochrome image using a trained model and colorizing the image forming apparatus, the image forming apparatus is used. It can be applied to all devices, not limited to.
尚、実施形態では、オブジェクトの複数の品種に対応する複数の色候補を表示し、ユーザが選択した色候補をそのオブジェクトの色とすることで、オブジェクトの品種の判別をなくしている。 In the embodiment, a plurality of color candidates corresponding to a plurality of varieties of the object are displayed, and the color candidates selected by the user are used as the color of the object, thereby eliminating the determination of the varieties of the object.
これに対して、例えば、オブジェクトの品種を判別して、その品種の色候補を表示するようにしても良い。即ち、例えば図10(A)において、リンゴの品種を「ふじ」と判別すると、その「ふじ」のリンゴの色に近い、複数のカラー候補画像を表示しても良い。 On the other hand, for example, the product type of the object may be determined and the color candidates of the product type may be displayed. That is, for example, in FIG. 10A, when an apple variety is determined to be "Fuji", a plurality of color candidate images close to the color of the "Fuji" apple may be displayed.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
本発明は上記実施形態に制限されるものではなく、本発明の精神及び範囲から逸脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。 The present invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the present invention. Therefore, in order to make the scope of the present invention public, the following claims are attached.
10…画像形成装置、100…コントローラユニット、101…CPU、104…HDD,105…学習処理部、107…画像処理部、120…プリンタユニット、130…スキャナユニット、150…操作部 10 ... Image forming device, 100 ... Controller unit, 101 ... CPU, 104 ... HDD, 105 ... Learning processing unit, 107 ... Image processing unit, 120 ... Printer unit, 130 ... Scanner unit, 150 ... Operation unit
Claims (11)
前記変換手段により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として保存する保存手段と、
入力した画像データからオブジェクトを検出する検出手段と、
前記検出手段により検出されたオブジェクトが前記保存手段に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示手段と、
前記表示手段に表示されたカラー候補画像から選択されたカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換手段と、
を有することを特徴とする画像処理装置。 A conversion means for converting the color image data of an object into monochrome image data,
A storage means for storing the color image data as a color candidate image of the object in association with the monochrome image data converted by the conversion means.
A detection means that detects an object from the input image data,
A display means for displaying a color candidate image associated with the object when the object detected by the detection means is stored in the storage means.
A conversion means for converting the input image data into color image data using a trained model based on the color image data selected from the color candidate images displayed on the display means.
An image processing device characterized by having.
前記変換手段により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として保存する保存手段と、
入力した画像データがモノクロ画像データかどうか判定する第1判定手段と、
前記第1判定手段がモノクロ画像データと判定すると、モノクロ画像データをカラー画像データに変換するモードが設定されているかどうか判定する第2判定手段と、
前記第2判定手段が前記モードが設定されていると判定すると、前記入力した画像データからオブジェクトを検出する検出手段と、
前記検出手段により検出されたオブジェクトが前記保存手段に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示手段と、
前記表示手段に表示されたカラー候補画像に対応するカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する第1変換手段と、
を有することを特徴とする画像処理装置。 A conversion means for converting the color image data of an object into monochrome image data,
A storage means for storing the color image data as a color candidate image of the object in association with the monochrome image data converted by the conversion means.
The first determination means for determining whether the input image data is monochrome image data,
When the first determination means determines that it is monochrome image data, the second determination means for determining whether or not the mode for converting the monochrome image data into the color image data is set.
When the second determination means determines that the mode is set, the detection means for detecting an object from the input image data and the detection means.
A display means for displaying a color candidate image associated with the object when the object detected by the detection means is stored in the storage means.
A first conversion means for converting the input image data into color image data using a trained model based on the color image data corresponding to the color candidate image displayed on the display means.
An image processing device characterized by having.
前記入力した画像データは、前記読取手段が原稿を読み取って入力した画像データであることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 Further having a reading means for reading a document,
The image processing apparatus according to any one of claims 1 to 7, wherein the input image data is image data input by reading a document by the reading means.
オブジェクトのカラー画像データをモノクロ画像データに変換する変換工程と、
前記変換工程により変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として記憶部に保存する保存工程と、
入力した画像データからオブジェクトを検出する検出工程と、
前記検出工程で検出されたオブジェクトが前記記憶部に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示工程と、
前記表示工程で表示されたカラー候補画像から選択されたカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換工程と、
を有することを特徴とする制御方法。 A control method for controlling an image processing device.
A conversion process that converts the color image data of an object into monochrome image data,
A storage step of storing the color image data as a color candidate image of the object in a storage unit in association with the monochrome image data converted by the conversion step.
A detection process that detects an object from the input image data,
A display step of displaying a color candidate image associated with the object when the object detected in the detection step is stored in the storage unit, and a display step of displaying the color candidate image associated with the object.
A conversion step of converting the input image data into color image data using a trained model based on the color image data selected from the color candidate images displayed in the display step.
A control method characterized by having.
オブジェクトのカラー画像データをモノクロ画像データに変換する変換工程と、
前記変換工程で変換された前記モノクロ画像データと関連付けて、前記カラー画像データを前記オブジェクトのカラー候補画像として記憶部に保存する保存工程と、
入力した画像データがモノクロ画像データかどうか判定する第1判定工程と、
前記第1判定工程がモノクロ画像データと判定すると、モノクロ画像データをカラー画像データに変換するモードが設定されているかどうか判定する第2判定工程と、
前記第2判定工程が前記モードが設定されていると判定すると、前記入力した画像データからオブジェクトを検出する検出工程と、
前記検出工程により検出されたオブジェクトが前記記憶部に保存されている場合に、前記オブジェクトと関連付けられているカラー候補画像を表示する表示工程と、
前記表示工程に表示されたカラー候補画像に対応するカラー画像データに基づいて、前記入力した画像データを学習済モデルを用いてカラー画像データに変換する変換工程と、
を有することを特徴とする制御方法。 A control method for controlling an image processing device.
A conversion process that converts the color image data of an object into monochrome image data,
A storage step of storing the color image data as a color candidate image of the object in the storage unit in association with the monochrome image data converted in the conversion step.
The first determination step of determining whether the input image data is monochrome image data,
When the first determination step determines that the monochrome image data is used, the second determination step of determining whether or not the mode for converting the monochrome image data into the color image data is set.
When the second determination step determines that the mode is set, the detection step of detecting an object from the input image data and the detection step.
A display step of displaying a color candidate image associated with the object when the object detected by the detection step is stored in the storage unit, and a display step of displaying the color candidate image associated with the object.
A conversion step of converting the input image data into color image data using a trained model based on the color image data corresponding to the color candidate image displayed in the display step.
A control method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020049941A JP2021150855A (en) | 2020-03-19 | 2020-03-19 | Image processing device and control method and program for the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020049941A JP2021150855A (en) | 2020-03-19 | 2020-03-19 | Image processing device and control method and program for the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021150855A true JP2021150855A (en) | 2021-09-27 |
Family
ID=77849536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020049941A Pending JP2021150855A (en) | 2020-03-19 | 2020-03-19 | Image processing device and control method and program for the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021150855A (en) |
-
2020
- 2020-03-19 JP JP2020049941A patent/JP2021150855A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5145965B2 (en) | Image processing apparatus, image processing method, and program | |
JP2007097171A (en) | Image forming apparatus and subtractive color printing method | |
KR20190013657A (en) | Image processing apparatus, image processing method, and storage medium | |
JP2005335372A (en) | Printing device | |
US20190268580A1 (en) | Image processing apparatus, image forming apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP7338002B2 (en) | Image processing device, image processing method, and program | |
JP2007336549A (en) | Image forming apparatus and method | |
KR101716278B1 (en) | Image forming apparatus, printing control terminal apparatus and image forming method there of | |
JPH11136532A (en) | Color image forming device and its control method | |
JP4555192B2 (en) | Image processing apparatus, image processing method, and program causing computer to execute the method | |
US20050012963A1 (en) | Image processing apparatus, image processing method, and computer product | |
JP2008288912A (en) | Image processor and image forming apparatus | |
JP4628984B2 (en) | Image processing device | |
JP4323742B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
JP2021150855A (en) | Image processing device and control method and program for the same | |
JP7077451B2 (en) | Image forming apparatus and control method of image forming apparatus, and program | |
JP4141923B2 (en) | Color image processing device | |
KR101631942B1 (en) | Method for printing document based on Black Optimization printing option and for controlling thereof, image forming apparatus and host device for performing thereof | |
JP6558888B2 (en) | Apparatus, printing apparatus, printing control method, and program | |
JPH08195878A (en) | Image processor | |
JP4868016B2 (en) | Image processing apparatus, image forming apparatus, and program | |
JP6169008B2 (en) | Image forming apparatus | |
JPH1016304A (en) | Image-outputting apparatus, image-processing apparatus, method for outputting and processing image, and method for correcting density | |
JP2019153061A (en) | Image processing device, control method of the same and program thereof | |
JP3559746B2 (en) | Image processing apparatus, image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |