JP7254621B2 - 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム - Google Patents

画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム Download PDF

Info

Publication number
JP7254621B2
JP7254621B2 JP2019095480A JP2019095480A JP7254621B2 JP 7254621 B2 JP7254621 B2 JP 7254621B2 JP 2019095480 A JP2019095480 A JP 2019095480A JP 2019095480 A JP2019095480 A JP 2019095480A JP 7254621 B2 JP7254621 B2 JP 7254621B2
Authority
JP
Japan
Prior art keywords
image data
learning
estimating
data
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019095480A
Other languages
English (en)
Other versions
JP2020190897A5 (ja
JP2020190897A (ja
Inventor
智志 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019095480A priority Critical patent/JP7254621B2/ja
Priority to US16/855,528 priority patent/US11175863B2/en
Publication of JP2020190897A publication Critical patent/JP2020190897A/ja
Publication of JP2020190897A5 publication Critical patent/JP2020190897A5/ja
Application granted granted Critical
Publication of JP7254621B2 publication Critical patent/JP7254621B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1208Improving or facilitating administration, e.g. print management resulting in improved quality of the output result, e.g. print layout, colours, workflows, print preview
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1205Improving or facilitating administration, e.g. print management resulting in increased flexibility in print job configuration, e.g. job settings, print requirements, job tickets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1218Reducing or saving of used resources, e.g. avoiding waste of consumables or improving usage of hardware resources
    • G06F3/122Reducing or saving of used resources, e.g. avoiding waste of consumables or improving usage of hardware resources with regard to computing resources, e.g. memory, CPU
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1253Configuration of print job parameters, e.g. using UI at the client
    • G06F3/1256User feedback, e.g. print preview, test print, proofing, pre-flight checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1273Print job history, e.g. logging, accounting, tracking

Description

本開示の技術は、プリンタで印刷した印刷結果を推定する技術に関する。
近年、実際の印刷を行わずに印刷画質を推定するシミュレーション技術が広く開発されている。印刷物上に印刷された印刷画像全体を画像データとしてシミュレーションする技術も開発されており、特許文献1では、電子写真の印刷プロセスを詳細な物理モデルに基づいてシミュレーションし、印刷画像の推定を行っている。
特開2006-259393号公報
しかしながら、印刷プロセスの物理シミュレーションに基づく印刷結果の推定では、膨大な演算が必要であるという課題があった。このため、演算リソースが限られた環境においては、物理シミュレーションに時間がかかり、例えば印刷前にユーザに印刷画質を提示するなどの、リアルタイム性を求められるアプリケーションを実現することが困難である。
そこで本開示の技術は、印刷対象の画像データを取得してから、少ない演算量で、その取得した画像データの印刷結果を推定することを目的とする。
本開示の技術は、入力画像データをプリンタで印刷した印刷結果を推定する画像処理装置であって、前記入力画像データを取得する取得手段と、前記入力画像データに基づき前記印刷結果を推定する推定手段とを備え、前記推定手段は、任意の画像データを前記プリンタで印刷した印刷結果をスキャナで読み取ったスキャン画像データを正解データとして学習されたことを特徴とする画像処理装置である。
本開示の技術では、印刷対象の画像データを取得してから、少ない演算量で、その取得した画像データの印刷結果を推定することができる。
本開示における画像処理装置を含むシステムの構成を示す模式図である。 本開示における画像処理装置の動作を示すブロック図である。 入力データ、スキャンデータ及び中間データを表す模式図である。 第1の推定部の構成を表す模式図である。 第1の学習部の動作を表す模式図である。 第1の判定部を表す模式図である。 第1の学習部による学習処理の動作を表すフローチャートである。 第2の学習部の動作を表す模式図である。 実施形態2における画像処理装置の動作を表すブロック図である。 実施形態2における画像推定処理部の構成を表す模式図である。 実施形態2における学習装置の動作を表す模式図である。 実施形態2における判定部の構成を表す模式図である。 実施形態3における画像処理装置の動作を示すブロック図である。 実施形態4における画像処理装置の動作を示すブロック図である。 実施形態4における画像表示部の表示するアプリケーションウィンドウである。
実施形態1
本実施形態では、2つのニューラルネットワークを用いた推定部によりモデル化するプリンタ及び記録媒体で印刷した印刷結果の推定を行う画像処理装置について説明する。なお、本開示において印刷結果とは、記録媒体上に印刷された画像である。
一般に、プリンタにより記録媒体上に印刷された画像、すなわち印刷結果には、プリンタの機種及び紙種に応じたトナーやインクなどの色材のランダムな飛び散りや滲みが発生する。その結果、印刷結果には、それら色材のランダムな飛び散りや滲みに起因するエッジのがたつきやボケが生じる。そのような印刷結果のスキャン画像データについて単体のニューラルネットワークでシミュレーションを行うと、実際のスキャン画像データよりもボケの強い推定画像データが出力される。
そこで、本実施形態では、印刷結果の推定を、異なる2つの推定部を直列に接続して実現する。前段の推定部は、色材が紙面上に所定の密度以上で塗布された領域を示し、色材の飛び散りや滲みを再現する画像データである中間データを出力する。後段の推定部は、前段の推定部から出力された中間データに対してエッジ付近の色材の粗密による階調、すなわちボケを再現することで印刷結果を推定した推定画像データを出力する。これにより、印刷結果を推定した推定画像データを、より高精度で高速に出力できる。
<画像処理装置の構成>
図1は、本開示の技術における画像処理装置の構成を示すブロック図である。CPU101は、RAM103をワークメモリとして、ROM102およびハードディスクドライブ(HDD)等の記憶装置105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI(peripheral component interconnect)バスなどのシステムバス113を介して各構成を制御する。さらに、後述する奥行き情報処理プログラム、メディアリーダードライバを含む各種プログラムを実行する。
CPU101は、システムバス113および記憶装置インタフェイス104を介して記憶装置105にアクセスすることができる。記憶装置インタフェイス(I/F)104は、記憶装置105や光ディスクドライブなどの2次記憶装置を接続する、例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、記憶装置I/F104を介して、記憶装置105からのデータ読み出し、および記憶装置105へのデータ書き込みが可能である。また、CPU101は、後述する処理のユーザインタフェースや処理結果を、グラフィックアクセラレータ111を介してディスプレイ112に表示する。さらに、CPU101は、ユーザからの指示をUSBインタフェイス(I/F)108に接続されたキーボード109、マウス110などの入力装置を介して入力する。
<画像処理装置の動作>
図2は、本実施形態の動作を示すブロック図である。まず、画像入力部201にて、入力画像データを取得する。画像推定処理部202は、画像入力部201から入力された入力画像データから、モデル化する特定のプリンタ及び記録媒体で印刷した印刷結果のスキャン画像データを推定する。画像推定処理部202に入力される入力画像データは、多階調画像データをハーフトーン処理した1ビットのモノクロ画像データである。ここで多階調画像データとは、2値画像データよりも階調数が多い画像データである。また、画像推定処理部202から出力される推定結果としての推定画像データは、プリンタで印刷された印刷結果をスキャナで読み取って生成されるスキャン画像データに相当する、8ビットのモノクロ画像データである。
本実施形態では、画像推定処理部202は、内部に第1の推定部203及び第2の推定部204を備えている。第1の推定部203は、1画素1ビットの入力画像データが入力され、中間データを出力する。ここで、第1の推定部203から出力される中間データは、入力画像データと同じ1画素1ビットの画像データであり、プリンタで印刷した際の色材の飛び散り又は滲みの具合が再現された2値画像データである。中間データの詳細については後述する。また、第2の推定部204は、1画素1ビットの中間データから、1画素8ビットの推定画像データを出力する。これら第1の推定部203及び第2の推定部204の内部パラメータは、学習部205にて学習される。
なお、本実施形態では、入力画像データの階調を1ビット、中間データの階調を1ビット、推定画像データの階調を8ビットとしたが、本開示の技術はそれに限定されない。例えば、入力画像データを2ビット、中間データの階調を2ビット、推定画像データの階調を16ビットとしてもよい。
学習部205は、第1の学習器206、第2の学習器207、及び中間データ取得部208を備えている。第1の学習部206は、第1の推定部203に対して、その内部パラメータであるニューラルネットワークの各層の重みを学習させる。同様に第2の学習部207は、第2の推定部に対して、その内部パラメータであるニューラルネットワークの各層の重みを学習させる。
学習用入力データ取得部209は、学習用入力画像データ群をデータベースから取得する。正解データ取得部210は、学習用入力画像データ群をモデル化するプリンタで印刷し、印刷結果をスキャナで読み取ったスキャン画像データ群をデータベースから取得する。なお、学習部205で用いる学習用入力画像データ群及びスキャン画像データ群は、学習用入力画像データと、それを用いて生成されたスキャン画像データとを対応付けてデータベースに予め格納されている。学習用入力画像データとそれに対応するスキャン画像データとの対応付け方としては、例えば、それらのメタデータに共通の識別情報を書き込んでおき、その識別情報に基づき対応付けしてもよい。なお、学習用入力画像データ群は、複数の任意の多階調画像データをそれぞれハーフトーン処理した複数の2値画像データであり、複数の任意の画像データには、階調数の異なる画像データが含まれていることが望ましい。学習用入力画像データとして、例えば自然画像データをハーフトーン処理したものを用いてもよい。
学習用中間データ取得部208は、正解データ取得部210で取得したスキャン画像データ群から、学習用中間データ群を生成する。第1の学習部206は、学習用入力データ取得部209で得られた学習用入力画像データ群と、学習用中間データ取得部208で得られた学習用中間データ群とを用いてパラメータの学習を行う。第2の学習部207は、学習用中間データ取得部208で得られた学習用中間データ群と、正解データ取得部210で得られたスキャン画像データ群とを用いてパラメータの学習を行う。
なお、画像推定処理部202と学習部205とは、一体の装置として動作してもよいし、別々の装置として動作してもよい。例えば、学習部205で予め画像推定処理部202の内部パラメータを学習しておき、画像推定時には画像推定処理部202のみを用いるというように、別々の装置とし構成してもよい。また、学習用入力データ取得部209の出力は、学習部205を通って第1の推定部203に入力されているが、学習部205を通らずに第1の推定部203に直接入力する構成としてもよい。
図3は、入力画像データ、中間データ、及びスキャン画像データの関係を表す模式図である。図3(a)は白及び黒のみから構成された2値画像データである入力画像データを示す図であり、図3(b)は図3(a)に示す入力画像データを印刷し、スキャナで読み取ったスキャン画像データである。図3(b)では、プリンタの印刷プロセスにより色材が飛び散ったり滲んだりして、線のエッジががたついている。また、図3(a)の入力画像データは2値画像であるため白及び黒の画素のみから構成されているが、図3(b)のスキャン画像データは256階調の画像データであるためグレーの画素が存在し、線のエッジ周辺にボケが発生している。図3(c)は、図3(b)のスキャン画像データを2値化して作成した中間データである。図3(b)と図3(c)とでは、黒の画素領域の輪郭の形状は一致しており、図3(c)は、図3(b)のスキャン画像データから所定値以上の画素値を有する画素の位置情報のみを抽出し、色材の濃淡情報を省いたデータとなっている。
図3(a)の入力画像データから図3(b)のスキャン画像データを直接推定するモデルを構築すると、出力される推定画像データは実物のスキャン画像データよりもボケた画像データとなってしまう。これは、図3(b)のエッジのがたつきが、色材の飛び散りや滲みに起因し、ランダムに発生するからである。このようなランダムなエッジのがたつきの推定結果を多階調画像データとして出力するように学習させると、エッジのがたつきのランダム成分が平均化された値は、グレー値として画像データに書き出されることになる。そのため、エッジのがたつきの推定とボケの推定とを1つの推定部に学習させると、エッジのがたつきに由来するボケを含んだ、スキャン画像データよりもボケた画像データを出力するモデルが学習される。
本実施形態では、エッジのがたつきの推定とエッジのボケの推定とを2つの別々の推定部を用いて行ってスキャン画像データの推定を行うことで、学習コストを抑えながら推定精度の向上を実現している。
第1の推定部203は、図3(a)に示すような入力画像データを入力とし、図3(c)に示すような中間データを出力とするモデルを学習している。図3(a)に示す1画素1ビットの入力画像データから図3(c)の1画素1ビットの中間データに変化するモデルには、色材の飛び散りや滲みに起因するエッジのランダムな変化が含まれている。一方、第1の推定部203から出力される中間データが2値画像データであり、色材の濃淡を表現する階調を有さないため、第1の推定部203の推定には色材の濃淡に起因する画像のボケ推定は含まないと言える。
第2の推定部204は、図3(c)に示すような中間データを入力とし、図3(b)に示すような1画素8ビットの階調を有する印刷結果のスキャン画像データを推定するモデルを学習している。図3(b)と図3(c)とでは、画素値が最小(黒)の画素群の輪郭は一致しており、エッジは変化していない。すなわち、第2の推定部204の推定には、色材の飛び散りや滲みに起因するエッジのランダムな変化の推定はほとんど含まない。これにより、実物と同等のボケを再現する、2値中間データから多値スキャン画像への画像変換が実現できる。
<第1の推定部203の構成>
以下では、第1の推定部203の構成について説明する。図4に、第1の推定部203におけるニューラルネットワークの構成例を示す。以下では、本実施形態の動作を図4に示すニューラルネットワークに基づき説明するが、本開示の技術はこれに限定されない。例えば、より層の深いニューラルネットワークであってもよいし、U-netの形式をとっていてもよい。また、本実施形態では、256画素×256画素のモノクロ画像データを入力とするが、本開示の技術はこれに限定されない。CMYK画像データを入力とした場合については、実施形態2にて詳述する。
まず、第1の推定部203に入力された入力画像データは、Convolution Layer401において畳み込み演算が行われる。入力画像データの(x,y)位置の画素値をI(x,y)とすると、Convolution Layer401の出力画像データIG1(x,y,p)は、以下の式で算出される。
Figure 0007254621000001
ここで、pは出力プレーン数であり、本実施形態ではp=2とした。また、
Figure 0007254621000002
はニューラルネットワークが保持しているConvolution Layer401における重みであり、s、t、pの組み合わせごとに異なる値を有している。なお、上記式中のI(x+s,x+t)であるが、参照位置が入力画像データの有する画素位置外(例えば、I(-1,-1)など)の場合は、画素値を0として演算を行う。以上の演算により、Convolution Layer401の出力は、256x256x2の画像データとなる。
次に、Activation Layer402では、Convolution Layer401の出力画像データIG1(x,y,p)に対して、非線形関数を適用する。具体的には、Activation Layer402の出力画像データIG2(x,y,p)は、ランプ関数を用いて以下の式で計算される。
Figure 0007254621000003
なお、当該処理で適用される非線形関数は、これに限定されない。例えば、双曲線正接関数(hyperbolic tangent)などを用いてもよい。以上の演算により、Activation Layer402の出力画像データIG2(x,y,p)は、256×256×2の画像データ、すなわち256×256の画像データが2プレーンの画像データとなる。
次に、Pooling Layer403にて、情報の圧縮が行われる。ここでは、2×2のmax poolingを行うことで、出力画像データIG2(x,y,p)の縮小を行う。具体的には、Pooling Layer 403の出力画像データIG3(u,v,p)は、以下の式で計算される。
Figure 0007254621000004
なお、u及びvの範囲は、0≦u≦127、0≦v≦127である。以上の演算により、Pooling Layer403の出力画像データIG3(u,v,p)は、128×128×2の画像データとなる。
次に、Dcomvolution Layer404にて、出力画像データIG3(u,v,p)の拡大が行われる。当該処理では、Pooling Layer403の出力画像データIG3(u,v,p)を一度拡大したのち、プレーンをまたいだ畳み込み演算を実施する。まず、Pooling Layer403の出力画像データIG3(u,v,p)の拡大は、下記手順によって行われる。
Figure 0007254621000005
次に、Dcomvolution Layer404にて、当該拡大処理により得られたIT(x,y,p)を入力として、畳み込み演算を以下の式で実施する。
Figure 0007254621000006
ここで、
Figure 0007254621000007
は当該ニューラルネットワークが保持しているDcomvolution Layer404における重みであり、Convolution Layer401で用いた重みとは異なる。なお、上記式中のIT(x+s,y+t,p)であるが、参照位置が画像外(例えば、IT(-1,-1,1)など)の場合は、画素値を0として演算を行う。以上の演算により、Deconvolution Layer404の出力画像データIG4(x,y)は、256x256の画像データとなる。
Activation Layer405では、Deconvolution Layer404の出力に対して、非線形関数を適用する。当該処理における動作はActivation Layer402と同様であるが、非線形関数はActivation layer402と同じとは限らない。
<第2の推定部204の動作>
以下では、第2の推定部204の動作について説明する。第2の推定部204は、ニューラルネットワークにて構成されており、その動作は第1の推定部203と同様である。ただし、そのニューラルネットワークのネットワーク構成や重みは第1の推定部203と必ずしも同じである必要はない。
<第1の学習部206の構成及び動作>
本実施形態では、第1の学習部206は、第1の推定部203にGAN(Generative Adversarial Network)のフレームワークを用いて学習させる。本実施形態では、学習用入力データ及び正解データの組を入力とし、第1の推定部203の出力画像誤差、すなわち学習用入力画像データと正解データとの差が最小となるように、モデルを学習する。ここで、学習用入力データは、学習用に予めデータベース化しておいた、多階調画像データをハーフトーン処理した2値画像データ群である。また、正解データは、学習用入力画像データ群をモデル化するプリンタ及び記録媒体で印刷し、その印刷結果をスキャンしたスキャン画像データ群に基づき算出した、学習用中間データを用いる。学習用中間データは、スキャン画像データを2値化したものであり、色材の飛び散り又は滲みの具合に関する情報を含むボケの無い画像データである。学習用中間データの具体的な算出方法は後述する。
図5に、第1の学習部206の構成例を示す。学習対象である第1の推定部203は、入力画像データに対して中間データを計算する。
第1の判定部501は、第1の学習部206に入力された画像データが正解データであるか、第1の推定部203が出力した中間データであるかを判定する。第1の判定部501は、第1の推定部203のパラメータを学習するための判定器であり、ニューラルネットワークにて構成されている。第1の判定部501は、入力された画像データを正解データと判定した場合は1を、第1の推定部203が出力した中間データと判定した場合は0を返す。第1の判定部501の構成は後述する。
誤差算出部502は、第1の学習部206に入力された画像データに対する第1の判定部501の判定結果に基づき、第1の推定部203が出力した中間データと正解データとの誤差を算出する。
パラメータ更新部503は、誤差算出部502が算出した誤差に基づき、第1の推定部203及び第1の判定部501のパラメータを更新する。
<第1の判定部501の構成>
以下では、第1の判定部501の構成について説明する。図6に、第1の判定部501におけるニューラルネットワークの構成例を示す。以下では、本実施形態の動作を図6に示すニューラルネットワークに基づき説明するが、本開示の技術はこれに限定されない。例えば、より層の深いニューラルネットワークであってもよいし、U-netの形式をとっていてもよい。また、本実施形態では、256×256のモノクロ画像データを入力とするが、本開示の技術はこれに限定されない。
まず、入力された画像データは、Convolution Layer601にて畳み込み演算が行われる。当該処理の動作はConvolution Layer401と同様であり、Convolution Layer601が出力する出力画像データID1(x,y,p)は、以下の式で算出される。
Figure 0007254621000008
次に、Activation Layer602が、Convolution Layer601の出力画像データID1(x,y,p)に対して非線形関数を適用することで出力画像データID2(x,y,p)を出力する。当該処理の動作は、Activation Layer402と同様である。
次に、Pooling Layer603が、情報の圧縮を行い、出力画像データID3(x,y,p)を出力する。当該処理の動作はPooling Layer403と同様である。
次に、Full Connected Layer604が、Pooling Layer603の出力画像データID3(x,y,p)から1つの数値であるv値を算出する。Full Connected Layer604が出力するv値は、以下の式で計算される。
Figure 0007254621000009
ここで、
Figure 0007254621000010
は当該ニューラルネットワークが保持している重みである。
最後に、Activation Layer605が、v値に非線形処理を施して判定結果としてO値を出力する。ここでは、シグモイド関数を適用することで、v値を値域[0,1]のO値に変換する。
<第1の学習部206の動作>
第1の学習部206の具体的な動作を、図7のフローチャートを用いて説明する。
ステップS701では、第1の判定部501のパラメータを初期化する。本実施形態では、正規分布に従う乱数でパラメータの初期値を決定する。
ステップS702では、第1の推定部203のパラメータを初期化する。本実施形態では、正規分布に従う乱数でパラメータの初期値を決定する。
ステップS703では、学習用入力画像データ全てに対して、第1の推定部203を用いて推定した中間データを取得する。ここで得られる中間データをEstm(1≦m≦M)とする。ここで、Mは入力データの数である。
ステップS704では、中間データEstm及び正解データRefm(1≦m≦M)に対して、第1の判定部501を用いて判定を行う。中間データEstmに対する判定結果を
Figure 0007254621000011
とし、正解データRefmに対する判定結果を
Figure 0007254621000012
とする。
ステップS705では、S704での判定結果と中間データ及び正解データとに基づき、誤差eを算出する。本実施形態では、誤差eを以下の式で定義する。
Figure 0007254621000013
ここで、||Refm-Estm||1は中間データと正解データとのL1ノルムである。また、λは正規化項の係数であり、本実施形態ではλ=0.1とした。
ステップS706では、誤差が閾値以内であるかを判定する。否であればステップS707に進み、そうでなければ処理を終了する。
ステップS707では、第1の判定部501のパラメータを更新する。更新は勾配法により行われる。第1の判定部501のパラメータ、すなわちConvolution Layer601の重みと、Full Connected Layer604の重みとを
Figure 0007254621000014
とすると、パラメータの更新は以下の式で行われる。
Figure 0007254621000015
ここで、γは学習係数であり、本実施形態ではγ=0.01とした。また、
Figure 0007254621000016
は誤差eの各パラメータにおける偏微分値であり、自動微分により計算してもよい。
ステップS708では、第1の推定部203のパラメータを更新する。更新は勾配法により行われる。第1の推定部203のパラメータ、すなわちConvolution Layer401の重みと、Deconvolution Layer404の重みとを
Figure 0007254621000017
とすると、パラメータの更新は以下の式で行われる。
Figure 0007254621000018
としてパラメータを更新する。ここで、δは学習係数であり、本実施形態ではδ=0.01とした。また、
Figure 0007254621000019
は誤差eの各パラメータにおける偏微分値であり、自動微分により計算してもよい。ステップS708で第1の推定部203のパラメータを更新した後は、ステップS703に戻る。
このようにして、誤差eが所定の閾値以内に収まるまで、第1の判定部501及び第1の推定部203のパラメータの更新を繰り返す。
<学習用中間データ取得部208の動作>
第1の学習部206では、正解データとしてスキャン画像データより算出した学習用中間データを用いていた。学習用中間データとは、スキャン画像データを2値化したものであり、色材の飛び散り又は滲みの具合を表すボケの無い画像データである。本実施形態では、閾値thを用いてスキャン画像データを2値化する。具体的には、入力されたスキャン画像データI(x,y)とすると、2値化画像データB(x,y)は、以下の式で計算できる。
Figure 0007254621000020
なお、閾値thは、例えば大津法を用いて決定してもよい。
<第2の学習部207の構成及び動作>
本実施形態では、第2の学習部207は、第2の推定部204にGANのフレームワークを用いて学習させる。本実施形態では、学習用入力画像データ及び正解データの組を入力とし、第2の推定部204の出力画像誤差、すなわち学習用入力画像データと正解データとの差が最小となるようにモデルを学習する。ここで、学習用入力画像データは、学習用中間データ取得部208で算出された学習用中間データである。また、正解データには、学習用入力画像データ群をモデル化するプリンタ及び記録媒体で印刷し、その印刷結果をスキャンしたスキャン画像データ群を用いる。
図8に、第2の学習部207の構成例を示す。学習対象である第2の推定部204は、入力された中間データに対して推定画像データを計算する。
第2の判定部801は、入力された画像が正解データであるスキャン画像データであるか、第2の推定部204が出力した推定画像データであるかを判定する判定器である。第2の判定部801は、第2の推定部204のパラメータを学習するための判定器であり、ニューラルネットワークにて構成されている。第2の判定部801は、入力された画像データを正解データと判定した場合は1を、第2の推定部204が出力した推定画像データと判定された場合は0を返す。第2の判定部801の構成及び動作は、第1の判定部501と同様である。
誤差算出部502は、第2の推定部204が出力した推定画像データ及び正解データに対する第2の判定部801の判定結果に基づき、誤差を算出する。
パラメータ更新部803は、誤差算出部802が算出した誤差に基づき、第2の推定部204及び第2の判定部801のパラメータを更新する。なお、第2の学習部207の動作は、第1の学習部206と同様である。
以上、本実施形態では、ニューラルネットワークを用いて印刷後の画像を推定する方法について述べた。本実施形態では、学習には比較的大きな演算量がかかるものの、推定時にはフィルタ演算等の少ない演算量で画像推定が可能である。また、画像推定には2つの独立したニューラルネットワークを用いることで、実物に忠実な高精度の画像推定が可能である。
実施形態2
実施形態1では、2つのニューラルネットワーク、すなわち第1の推定部203及び第2の推定部204を用いて、高精度に印刷結果のスキャン画像データを推定する方法について述べた。しかしながら、ニューラルネットワークを2つ学習する必要があるため、学習時の演算工数が多くなる。そこで本実施形態では、画像推定処理部202を簡略化し、1つのニューラルネットワークで印刷結果のスキャン画像データを推定する方法について述べる。本実施形態は、色材の飛び散り又は滲みが少ない、安定したプリンタをモデル化するのに適している。また、実施形態1では1プレーンの1ビット画像データを入力画像データとしていたが、本実施形態では入力画像データを、多階調画像データをハーフトーン処理したCMYK画像データに対応する4プレーンの1ビット画像データとする。また、推定画像データをRGB画像データに対応した3プレーンの8ビット画像データとした場合の実施形態について述べる。なお、以下では、実施形態1からの差分についてのみ説明する。
<画像処理装置の動作>
図9は、本実施形態の動作を示すブロック図である。画像入力部901は、入力画像を取得する。画像推定処理部902は、画像入力部901から入力された入力画像データから、モデル化するプリンタ及び記録媒体で印刷した印刷結果を推定する。画像推定処理部902に入力される画像データは、多階調画像データをハーフトーン処理したCMYK画像データに対応する4プレーンの1ビット画像データである。また、画像推定処理部902から出力される推定画像データは、プリンタで印刷された印刷結果をスキャナで読み取ったスキャン画像データに相当し、RGB画像データに対応する3プレーンの8ビット画像データである。また、画像推定処理部902の内部パラメータは、学習部903にて学習される。
学習部903は、学習用入力データ取得部904により得られた入力画像データ群と、正解データ取得部905により得られたスキャン画像データ群を用いて、画像推定処理部902に対して、その内部パラメータを学習させる。
なお、画像推定処理部902と学習部903は別々の装置として動作してもよい。例えば、学習部903で予め画像推定処理部902の内部パラメータを学習しておき、画像推定時には画像推定処理部902のみを用いてもよい。
<画像推定処理部902の構成>
以下では、本実施形態における画像推定処理部902の構成について説明する。実施形態1と異なり、画像推定処理部902は単一のニューラルネットワークにて構成されている。図10に、画像推定処理部902におけるニューラルネットワークの構成例を示す。以下では、本実施形態の動作を図10に示すニューラルネットワークに基づき説明するが、本開示の技術はこれに限定されない。
まず、256×256×4の入力画像データは、Convolution Layer1001にて畳み込み演算を行われる。入力画像データのpプレーンの(x,y)位置の画素値をI(x,y,p1)とすると、Convolution Layer1001の出力画像データIG1(x,y,p2)は、以下の式で計算できる。
Figure 0007254621000021
ここで、p1は入力画像のプレーン番号を表し、1≦p1≦4である。また、p2はIG1のプレーン番号であり、1≦p2≦8である。また、
Figure 0007254621000022
は当該ニューラルネットワークが保持している重みである。なお、上記式中のI(x+s,y+t,p1)であるが、参照位置が画像外(例えば、I(-1,-1,1)など)の場合は、画素値を0として演算を行う。以上の演算により、Convolution Layer1001の出力は、256x256x8の画像データとなる。
Activation Layer1002の動作は、Activation Layer402と同等である。
Pooling Layer1003では、情報の圧縮が行われる。ここでは、2×2のmax poolingを行うことで、画像を縮小する。具体的には、Pooling Layer1003の出力画像データIG3(u,v,p2)は、
Figure 0007254621000023
として計算される。なお、u及びvの範囲は、0≦u≦127、0≦v≦127である。以上の演算により、Pooling Layer1003の出力は、128×128×8の画像データとなる。
次に、Deconvolution Layer1004にて、画像の拡大が行われる。当該処理では、Pooling Layer1003の出力画像を一度拡大したのち、プレーンをまたいだ畳み込み演算を実施する。まず、Pooling Layer1003の出力画像データIG3(u,v,p2)の拡大は、下記手順によって行われる。
Figure 0007254621000024
次に、Deconvolution Layer1004にて、当該拡大処理により得られたITを入力として、畳み込み演算を以下の式で実施する。
Figure 0007254621000025
ここで、
Figure 0007254621000026
は当該ニューラルネットワークが保持している重みであり、Convolution Layer1001で用いた重みとは異なる。また、p3はIG4のプレーン番号であり、1≦p3≦3である。なお、上記式中のIT(x+s,y+t,p2)であるが、参照位置が画像外(例えば、IT(-1,-1,1)など)の場合は、画素値を0として演算を行う。以上の演算により、Deconvolution Layer1004では、256x256×3の画像が出力される。
Activation Layer1005の動作は、Activation Layer405と同様である。
以上の処理により、256×256×4のCMYK入力画像は、256×256×3のRGB画像に変換される。
<学習装置903の構成>
以下では、画像推定処理部902の内部パラメータの学習を行う学習装置903について説明する。本実施形態では、実施形態1と同様に、学習装置903は、GANのフレームワークを用いて画像推定処理部902の内部パラメータを学習する。入力データは、学習用に予めデータベース化しておいた、多階調画像データをハーフトーン処理したCMYK画像データに対応する4プレーンの1ビット画像データからなる学習用入力画像データ群である。また、正解データは、学習用入力画像データ群をモデル化するプリンタ及び記録媒体で印刷し、その印刷結果をスキャナで読み取ったRGB画像データに対応する8ビット画像データからなるスキャン画像データ群である。本実施形態では、実施形態1とは異なり、中間データを学習に用いていない。すなわち、本実施形態の画像推定処理部902では、入力画像データからのスキャン画像データの推定を、単一のニューラルネットワークで直接学習している。
図11は、学習装置903の構成例を示している。学習対象である画像推定処理部902は、入力画像データに対してスキャン画像データを推定した推定画像を計算する。
判定部1101は、入力された画像データが正解データであるか、画像推定処理部902の出力する推定画像データであるかを判定する。判定部1101は、入力された画像データが、正解データと判定された場合は1を、画像推定処理部902が出力した推定画像データと判定された場合は0を返す。第1の判定部1101の構成は後述する。
誤差算出部1102は、推定画像及び正解画像に対す判定部1101の判定結果に基づき、誤差を算出する。パラメータ更新部1103は、誤差算出部1102の誤差に基づき、画像推定処理部902及び判定部901のパラメータを更新する。なお、本実施形態において、学習部902の動作は、実施形態1における第1の学習部201と同様である。
<判定部1101の構成>
以下では、判定部1101の構成について説明する。図12に、判定部1101におけるニューラルネットワークの構成例を示す。以下では、本実施形態の動作を図12に示すニューラルネットワークに基づき説明するが、本開示の技術はこれに限定されない。
まず、Convolution Layer1201が、入力された3プレーンの画像データに対して畳み込み演算を行い、出力画像データID1(x,y,p4)を出力する。ここでp4はID1のプレーン番号であり、1≦p4≦6である。次に、Activation Layer1202が、出力画像データID1(x,y,p4)に対して非線形処理を施して出力画像データID2(x,y,p4)を出力する。その後、Pooling Layer1203が出力画像データID2(x,y,p4)に対して情報の圧縮を行い、出力画像データID3(x,y,p4)を出力する。当該処理は、Convolution Layer1001、Activation Layer1002、Pooling Layer1003と同様である。
次に、Full Connected Layer1204にて、Pooling Layer1203の出力画像データID3(x,y,p4)から1つの数値であるv値を算出する。Full Connected Layer1204が出力するv値は、以下の式で計算される。
Figure 0007254621000027
ここで、
Figure 0007254621000028
は当該ニューラルネットワークが保持している重みである。
最後に、Activation Layer1205が、v値に非線形処理を施して判定結果としてO値を出力する。当該処理は、Activation Layer605と同様である。
以上の実施形態では、1つのニューラルネットワークを用いて、推定画像を取得する方法について述べた。本実施形態によれば、学習時の演算工数を少なくすることが可能である。
実施形態3
実施形態1では、色材の飛び散りや滲みを再現する第1の推定部と、色材の飛び散り・滲み情報から印刷結果を推定する第2の推定部の2つの推定部を用いていた。しかしながら、例えばプリンタの安定性を推定する場合など、色材の飛び散り・滲み情報のみを知りたいケースもある。そこで本実施形態では、第1の推定部のみを用いて、中間データのみを出力する実施形態について説明する。以下では、実施形態1からの差分についてのみ説明する。
<画像処理装置の動作>
図13は、本実施形態の動作を示すブロック図である。画像入力部1301は、入力画像データを取得する。
画像推定処理部1302は、入力画像データに対して、当該画像データをモデル化するプリンタ及び記録媒体で印刷した場合の色材の飛び散り・滲み情報を推定する。画像推定処理部1302の入力は、多階調画像データをハーフトーン処理した1ビットモノクロ画像データである。画像推定処理部1302の出力は、印刷結果のスキャン画像データに相当する、8ビットモノクロ画像データである。
また、画像推定処理部1302の内部パラメータは、学習部1303にて学習される。なお、画像推定処理部1302と学習部1303は別々の装置として動作してもよい。例えば、学習部1303で予め画像推定処理部1302の内部パラメータを学習しておき、画像推定時には画像推定処理部1302のみを用いてもよい。
画像推定処理部1302の構成は、実施形態1の第1の推定部203と同様である。また、学習部1303の構成は、実施形態1の第1の学習部206と同様である。
本実施形態では、印刷結果を推定するのではなく、色材の飛び散りや滲みの度合を推定する方法について述べた。本実施形態によれば、少ない学習演算量で、色材の飛び散りや滲みの度合を高精度に推定できる。
実施形態4
これまでの実施形態1~3では、入力の画像データに対して、印刷後の推定画像データを算出する。これに対し本実施形態では、さらに表示部を備え、推定画像データを印刷前にユーザに表示する実施形態について述べる。以下では、実施形態2からの差分について述べる。
<画像処理装置の動作>
図14は、本実施形態の動作を示すブロック図である。画像入力部1401は、入力画像データを取得する。画像推定処理部1402は、入力画像データに基づき、モデル化するプリンタ及び記録媒体で印刷した印刷結果を推定する。画像推定処理部1402の入力は、多階調画像データをハーフトーン処理したCMYK画像データに対応した4プレーンの1ビット画像データである。また、画像推定処理部1402の出力は、印刷結果のスキャン画像データに相当する、RGB画像データに対応した3プレーンの8ビット画像データである。さらに、当該推定画像データは画像表示部1403にてユーザに提示される。なお、画像推定処理部1402の構成は実施形態2と同様である。
<画像表示部1403の動作>
画像表示部1403では、画像推定処理部1401の出力である推定画像データを受け取る。次に当該推定画像データを、グラフィックアクセラレータ111を通して、印刷前にディスプレイ112に表示する。
図15は、画像表示部1403により表示されるアプリケーションウィンドウの一例である。入力画像表示ウィンドウ1501には入力画像データが表示されている。推定画像表示ウィンドウ1502には、画像推定処理部1402の出力である推定画像データが表示されている。また、ユーザはボタン1503を押下することで、印刷をとりやめることができる。一方、ボタン1504を押下すれば、当該入力画像データの印刷処理に移る。なお、図15に記載されていなが、記録媒体を選択するボタンを表示し、記録媒体ごとに推定画像データを切り替えるようにしてもよい。
本実施形態では、印刷結果のシミュレーションを印刷前に行い、ユーザに提示する方法について述べた。本実施形態によれば、ユーザは、印刷前に、表示装置に印刷結果の推定画像データが表示されることで、印刷画質を確認できる。
なお、実施形態1~4では、モデル化する対象をプリンタ及び記録媒体としたが、プリンタのみ、又は記録媒体のみをモデル化対象としてもよい。また、プリンタのモデル化は、機種ごとに行っても良いし、個々のプリンタごとに行っても良い。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (17)

  1. 入力画像データをプリンタで印刷することによって得られる印刷結果を推定する画像処理装置であって、
    前記入力画像データを取得する取得手段と、
    前記入力画像データに基づき、前記印刷結果として、前記入力画像データを前記プリンタで印刷した場合の色材の飛び散りまたは滲みの少なくとも一つに関する情報を推定する推定手段と、
    スキャンされた画像データから中間データを取得する中間データ取得手段と、
    前記入力画像データと前記入力画像データに結び付いた前記中間データとを用いることによって、前記推定手段に含まれる第1の推定部に学習させる第1の学習手段と、
    前記中間データと前記中間データに結び付いた前記スキャンされた画像データとを用いることによって、前記推定手段に含まれ前記第1の推定部とは異なる第2の推定部に学習させる第2の学習手段と、
    を備え、
    前記推定手段は、任意の画像データを前記プリンタで印刷した印刷結果をスキャナで読み取ったスキャン画像データを正解データとして学習された
    ことを特徴とする画像処理装置。
  2. 前記推定手段は、
    前記入力画像データに基づき中間データを推定する第1の推定部と、
    前記第1の推定部の推定結果に基づき前記印刷結果を推定する第2の推定部と、
    を含むことを特徴とする請求項1に記載の画像処理装置。
  3. 前記中間データは、前記第2の推定部の推定結果として出力される推定画像データより階調が低い画像データである
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記中間データは、前記印刷結果において色材が所定の密度以上で塗布された領域を示す画像データである
    ことを特徴とする請求項2に記載の画像処理装置。
  5. 前記中間データは、1画素1ビットで表現される2値画像データである
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第1の推定部及び前記第2の推定部は、ニューラルネットワークを含むことを特徴とする請求項2に記載の画像処理装置。
  7. 前記推定手段が前記印刷結果の推定結果として出力する推定画像データを表示する表示部
    をさらに備えたことを特徴とする請求項1に記載の画像処理装置。
  8. 前記入力画像データ及び前記任意の画像データは、2値画像データであることを特徴とする請求項1に記載の画像処理装置。
  9. 前記任意の画像データは、複数の多階調画像データをそれぞれハーフトーン処理して得られた複数の2値画像データであり、
    前記複数の多階調画像データは、階調数の異なる画像データを含むことを特徴とする請求項1に記載の画像処理装置。
  10. 学習装置であって、
    学習用の入力画像データを取得する第1の取得手段と、
    前記学習用の入力画像データをプリンタで印刷した印刷結果をスキャナで読み取ったスキャン画像データを取得する第2の取得手段と、
    入力画像データを前記プリンタで印刷することによって得られる印刷結果を推定する推定手段に、前記学習用の入力画像データと前記スキャン画像データとの組を用いて学習させる学習手段と、
    前記スキャン画像データから生成される中間データを取得する中間データ取得手段と
    を備え、
    前記推定手段は、前記印刷結果として、前記入力画像データを前記プリンタで印刷した場合の色材の飛び散りまたは滲みの少なくとも一つに関する情報を推定し、
    前記学習手段は、
    前記入力画像データと前記入力画像データに結び付いた前記中間データとを用いることによって、前記推定手段に含まれる第1の推定部に学習させる第1の学習手段と、
    前記中間データと前記中間データに結び付いた前記スキャン画像データとを用いることによって、前記推定手段に含まれ前記第1の推定部とは異なる第2の推定部に学習させる第2の学習手段と、を含む
    ことを特徴とする学習装置。
  11. 前記中間データは、前記スキャン画像データを、前記スキャン画像データより階調が低い画像データに変換したものであることを特徴とする請求項10に記載の学習装置。
  12. 前記学習用の入力画像データ及び前記入力画像データは、2値画像データであることを特徴とする請求項10に記載の学習装置。
  13. 前記学習用の入力画像データは、複数の多階調画像データをそれぞれハーフトーン処理して得られた複数の2値画像データであり、
    前記複数の多階調画像データは、階調数の異なる画像データを含む
    ことを特徴とする請求項10に記載の学習装置。
  14. 入力画像データをプリンタで印刷することによって得られる印刷結果を推定する画像処理方法であって、
    前記入力画像データを取得する取得ステップと、
    前記入力画像データに基づき、前記印刷結果として、前記入力画像データを前記プリンタで印刷した場合の色材の飛び散りまたは滲みの少なくとも一つに関する情報を推定する推定ステップと、
    スキャンされた画像データから中間データを取得する中間データ取得ステップと、
    前記入力画像データと前記入力画像データに結び付いた前記中間データとを用いることによって、前記推定ステップにおいて用いられる第1の推定部に学習させる第1の学習ステップと、
    前記中間データと前記中間データに結び付いた前記スキャンされた画像データとを用いることによって、前記推定ステップにおいて用いられる前記第1の推定部とは異なる第2の推定部に学習させる第2の学習ステップと
    を備え、
    前記推定ステップでは、任意の画像データを前記プリンタで印刷した印刷結果をスキャナで読み取ったスキャン画像データを正解データとして学習された
    ことを特徴とする画像処理方法。
  15. 学習方法であって、
    学習用の入力画像データを取得する第1の取得ステップと、
    前記学習用の入力画像データをプリンタで印刷した印刷結果をスキャナで読み取ったスキャン画像データを取得する第2の取得ステップと、
    入力画像データを前記プリンタで印刷することによって得られる印刷結果を推定する推定ステップに、前記学習用の入力画像データと前記スキャン画像データとの組を用いて学習させる学習ステップと、
    前記スキャン画像データから生成される中間データを取得する中間データ取得ステップと
    を備え、
    前記推定ステップは、前記印刷結果として、前記入力画像データを前記プリンタで印刷した場合の色材の飛び散りまたは滲みの少なくとも一つに関する情報を推定し、
    前記学習ステップは、
    前記入力画像データと前記入力画像データに結び付いた前記中間データとを用いることによって、前記推定ステップにおいて用いられる第1の推定部に学習させる第1の学習ステップと、
    前記中間データと前記中間データに結び付いた前記スキャン画像データとを用いることによって、前記推定ステップにおいて用いられる前記第1の推定部とは異なる第2の推定部に学習させる第2の学習ステップと、を含む
    ことを特徴とする学習方法。
  16. コンピュータを請求項1に記載の画像処理装置として機能させるためのプログラム。
  17. コンピュータを請求項10に記載の学習装置として機能させるためのプログラム。
JP2019095480A 2019-05-21 2019-05-21 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム Active JP7254621B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019095480A JP7254621B2 (ja) 2019-05-21 2019-05-21 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム
US16/855,528 US11175863B2 (en) 2019-05-21 2020-04-22 Image processing apparatus, learning apparatus, image processing method, learning method, and storage medium for estimating printing result

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095480A JP7254621B2 (ja) 2019-05-21 2019-05-21 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020190897A JP2020190897A (ja) 2020-11-26
JP2020190897A5 JP2020190897A5 (ja) 2022-05-24
JP7254621B2 true JP7254621B2 (ja) 2023-04-10

Family

ID=73453771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095480A Active JP7254621B2 (ja) 2019-05-21 2019-05-21 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム

Country Status (2)

Country Link
US (1) US11175863B2 (ja)
JP (1) JP7254621B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6480299B1 (en) 1997-11-25 2002-11-12 University Technology Corporation Color printer characterization using optimization theory and neural networks
JP2008027122A (ja) 2006-07-20 2008-02-07 Seiko Epson Corp 画像処理装置、画像処理プログラム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
WO2018192662A1 (en) 2017-04-20 2018-10-25 Hp Indigo B.V. Defect classification in an image or printed output

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5309525A (en) * 1990-06-14 1994-05-03 Canon Kabushiki Kaisha Image processing apparatus using neural network
JP3204027B2 (ja) * 1995-03-24 2001-09-04 東洋インキ製造株式会社 印刷シミュレーションのための色材量変換方法
JP3115508B2 (ja) * 1995-06-21 2000-12-11 シャープ株式会社 カラー画像処理装置
US7481509B2 (en) * 2003-10-31 2009-01-27 Hewlett-Packard Development Company, L.P. Ink thickness consistency in digital printing presses
JP2006259393A (ja) 2005-03-17 2006-09-28 Fuji Xerox Co Ltd シミュレーション装置
US7777915B2 (en) * 2006-06-15 2010-08-17 Eastman Kodak Company Image control system and method
JP5856594B2 (ja) * 2013-08-30 2016-02-10 富士フイルム株式会社 色分解装置、色分解方法および色分解プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6480299B1 (en) 1997-11-25 2002-11-12 University Technology Corporation Color printer characterization using optimization theory and neural networks
JP2008027122A (ja) 2006-07-20 2008-02-07 Seiko Epson Corp 画像処理装置、画像処理プログラム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
WO2018192662A1 (en) 2017-04-20 2018-10-25 Hp Indigo B.V. Defect classification in an image or printed output

Also Published As

Publication number Publication date
US11175863B2 (en) 2021-11-16
JP2020190897A (ja) 2020-11-26
US20200371725A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
JP4118749B2 (ja) 画像処理装置、画像処理プログラムおよび記憶媒体
CN109118445B (zh) 一种基于多分支生成对抗网络的水下图像增强方法
US7525694B2 (en) Image processing device, image processing method, image processing program, and recording medium
US20060115153A1 (en) Page background estimation using color, texture and edge features
US11233921B2 (en) Image processing apparatus that specifies edge pixel in target image using single-component image data
JP4350778B2 (ja) 画像処理装置、画像処理プログラムおよび記録媒体
JP6357881B2 (ja) 画像処理装置及びプログラム
JP7353803B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2020191046A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6303816B2 (ja) 画像処理装置及びプログラム
CN107730568B (zh) 基于权重学习的着色方法和装置
JP2004336282A (ja) 画像処理装置、画像処理プログラム及び該プログラムを記録した記録媒体
JP7254621B2 (ja) 画像処理装置、学習装置、画像処理方法、学習方法、及びプログラム
JP7423905B2 (ja) 機械学習モデルのトレーニング方法、データ生成装置、および、学習済みの機械学習モデル
JP2018128950A (ja) 画像処理装置及びプログラム
KR20140099183A (ko) 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 판독가능 기록매체 및 화상형성장치
JP6164024B2 (ja) 画像処理装置及びプログラム
JP2002358482A (ja) カラードロップアウトの実行方法
JP2021125768A (ja) 画像処理装置、その制御方法、及びプログラム
JP5915410B2 (ja) 画像処理装置及びプログラム
JP2023020343A (ja) 画像処理装置、画像処理方法、プログラム
JP2023005711A (ja) 情報処理装置、情報処理方法およびプログラム、並びにシステム
Kuehn et al. Algorithmic Typewriter Art: Can 1000 Words Paint a Picture?
JP5915411B2 (ja) 画像処理装置及びプログラム
JP2023069216A (ja) 画像処理装置、印刷装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R151 Written notification of patent or utility model registration

Ref document number: 7254621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151