JP2020162025A - 画像処理システム、画像処理方法、および画像処理装置 - Google Patents

画像処理システム、画像処理方法、および画像処理装置 Download PDF

Info

Publication number
JP2020162025A
JP2020162025A JP2019060441A JP2019060441A JP2020162025A JP 2020162025 A JP2020162025 A JP 2020162025A JP 2019060441 A JP2019060441 A JP 2019060441A JP 2019060441 A JP2019060441 A JP 2019060441A JP 2020162025 A JP2020162025 A JP 2020162025A
Authority
JP
Japan
Prior art keywords
image
image processing
image data
data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019060441A
Other languages
English (en)
Other versions
JP2020162025A5 (ja
Inventor
拓也 小川
Takuya Ogawa
拓也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019060441A priority Critical patent/JP2020162025A/ja
Priority to US16/826,660 priority patent/US11436762B2/en
Publication of JP2020162025A publication Critical patent/JP2020162025A/ja
Publication of JP2020162025A5 publication Critical patent/JP2020162025A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/60
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)
  • Facsimiles In General (AREA)

Abstract

【課題】ニューラルネットワークを用いて、低画質の画像データを高画質化できる画像処理システムを提供する。【解決手段】画像処理システム100において、画像処理装置101bは、画像処理装置101aから受信した圧縮ファイルを、ネットワーク104を介して画像処理サーバ103に送信する。学習装置102は、画像変換モデルの学習を行い、学習結果(ニューラルネットワークのパラメータなど)を生成する。画像処理サーバ103は、変換前画像に対して、学習装置102が生成した学習結果を用いて、ニューラルネットワークによる変換を行い、変換後画像を取得する。画像処理サーバ103は、変換によって取得した変換後画像を、再び画像処理装置101bに送信する。画像処理装置101bは、画像処理サーバ103から受信した変換後画像を用いて、印刷出力、ユーザ所望の送信先への送信、画像処理装置101b内の記憶部への保存を行う。【選択図】図1

Description

本発明はニューラルネットワークを用いて画像を変換する画像処理システムに関する。
この画像処理システムで得られる変換後画像は、PC等の通信装置やMFP等の印刷装置で用いられる。
従来、スキャンした画像を送信する送信機能(SEND機能等と呼ばれる)を持つMFP等の画像処理装置が知られている。こうした装置は画像データをネットワーク経由で送信する際に通信コスト(通信時間、通信帯域)を抑えるべく、データ量の削減が行われている。データ量の削減手法としては、JPEG(Joint Photographic Experts Group)圧縮を初めとする非可逆圧縮を用いる手法が知られている。非可逆圧縮は画像の大きさを変えずにデータ量を削減できるが、画質低下の原因となる。例えば、JPEG圧縮では、圧縮率が高くなるにつれて、モスキートノイズやブロックノイズといった圧縮ノイズが発生し、画質が低下してしまう。低画質な画像に基づく出力はユーザ満足度の低下につながるため、低画質な画像を高画質化してから出力することが望ましい。
特許文献1では、低画質な状態で送信されてきた画像データを、高画質化してから出力する技術が提案されている。詳細には、低解像度パッチと高解像度パッチのペアを辞書として用意し、低解像度の画像データの所定の参照領域に類似した低解像度パッチを探索し、対応する高解像度パッチを合成することで、高解像度化を実現する技術を開示している。
特開2016−127475号公報
特許文献1は、低解像度パッチと高解像度パッチの組をあらかじめ保持しておくことが前提となっている。そのため、予期しない構成の画像、すなわち、パッチが用意されていない画像については高画質化することが困難であった。そこで、ニューラルネットワーク等の機械学習技術を用いて、様々な画像に対して汎用的に高画質化処理を適用出来る画像処理システムが望まれる。
上述した課題を鑑み、本発明は、ニューラルネットワークを用いて、圧縮ノイズを含む画像に基づき圧縮ノイズが除去された画像を出力する画像処理システムの提供を目的とする。特に、複数のニューラルネットワークを使い分けることで精度のよい画像変換結果を取得可能な画像処理システムの提供を目的とする。
本発明は、画像処理システムにおいて、圧縮画像データを受信する手段と、第1の画像データと前記第1の画像データを非可逆圧縮した第2の画像データの対に基づき学習したニューラルネットワークを取得し、前記取得したニューラルネットワークと前記圧縮画像データに少なくとも基づいて変換後画像データを取得する手段と、前記変換後画像データに基づく出力をおこなう手段と、を有することを特徴とするものである。
本発明によれば、ニューラルネットワークを用いて、圧縮ノイズを含む画像に基づき圧縮ノイズが除去された画像を出力する画像処理システムを提供できる。特に、複数のニューラルネットワークを使い分けることで精度のよい画像変換結果を取得可能な画像処理システムを提供できる。
画像処理システム構成を示す図である。 図2(a)は画像処理装置の構成を示す図である。図2(b)は学習装置の構成を示す図である。図2(c)は画像処理サーバの構成を示す図である。 学習データの成り立ちを示す図である。 図4(a)は画像処理システムの利用シーケンスを示す図である。図4(b)は画像処理システムの変形例における利用シーケンスを示す図である。 画像出力制御のフローチャートを示す図である。 学習モデル更新のフローチャートを示す図である。 画像変換処理のフローチャートを示す図である。 図8(a)は受信済み画像データの一覧画面を示す図である。図8(b)はプレビュー画面を示す図である。 AI画像変換の設定画面を示す図である。 図10(a)は入力ファイルの構成例を示す図である。図10(b)はデータ構造例を説明する図である。 画像の例を示す図である。 学習モデルの種類を示す図である。 第2の実施形態における画像変換処理のフローチャートを示す図である。 第3の実施形態における画像処理システムの構成を示す図である。 図15(a)は画像処理システムの利用シーケンスを示す図である。図15(b)は画像処理システムの変形例における学習シーケンスを示す図である。図15(c)は画像処理システムの変形例における学習シーケンスを示す図である。 自動学習処理のフローチャートを示す図である。 図17(a)は自動学習の設定画面を示す図である。図17(b)は対象拡張子の設定画面を示す図である。
以下、本発明を実施するための形態について図面を用いて説明する。ただし、説明に記載された構成要素は例示であって、本発明の範囲を限定する趣旨のものではない。本発明の目的を達成できる範囲において、構成要素の置換・追加・削除をおこなってもよい。
[第1の実施形態]
<画像処理システム>
本実施の形態では、予め学習を済ませたニューラルネットワークを用いて、圧縮ノイズを備える画像を圧縮ノイズが除去された画像に変換して出力する形態について説明する。
図1は、画像処理システムの構成を示す図である。図1に示すように、画像処理システム100は、画像処理装置101、学習装置102、画像処理サーバ103で構成され、ネットワーク104を介して互いに接続されている。なお、画像処理装置101、学習装置102、画像処理サーバ103のそれぞれは、ネットワーク104に対して単一接続ではなく複数接続された構成であっても良い。図1では、画像処理装置101として、画像処理装置101a、画像処理装置101bの2台がネットワーク104に接続された構成例を示している。画像処理装置101aと画像処理装置101bはネットワーク104を介して互いに通信可能であり、例えば、画像処理装置101aから送信された圧縮ファイルを画像処理装置101bで受信する。画像処理装置101bは受信した圧縮ファイルに基づく出力(印刷・送信・プレビュー)をおこなう。なお、以降の説明では、説明を単純にするために、送信側の説明をする際は、画像処理装置101aと表記し、受信側の説明をする際は、画像処理装置101bと表記し、送受信側の両方に共通する説明をする際は、画像処理装置101と表記するものとする。
画像処理装置101は、コピー、プリント、スキャン、FAX等の複数の機能を実現可能なMFP等で実現されるものであって、画像取得部111(111a,111b)として機能を備える。画像処理装置101aは、原稿をスキャンして取得したスキャン画像に対して、圧縮処理等を施して圧縮ファイルを生成し、ネットワーク104を介して画像処理装置101bに送信する。このときの送信方法は、スキャンしたページ数分の画像データを送る方法と、スキャンした複数ページ分の画像を1つのドキュメントデータに加工して送る方法がある。いずれの方法で送る場合であっても、圧縮するか否か、圧縮形式等を指定することができる。
画像処理装置101bは、画像処理装置101aから受信した圧縮ファイルを、ネットワーク104を介して画像処理サーバ103に送信する。
学習装置102は、画像変換モデルの学習を行い、学習結果(ニューラルネットワークのパラメータなど)を生成する学習部112として機能する。学習装置102は、例えば、エンジニアによって提供された入力画像と正解画像のペアである学習データ(教師データ、画像データ対)を用いて、学習を行うことで学習結果を生成する。学習装置102は、生成した学習結果を、ネットワーク104を介して画像処理サーバ103に送信する。
画像処理サーバ103は、画像処理装置101が取得した変換前画像に対して、画像変換を行う画像変換部113として機能する。画像処理サーバ103は、変換前画像に対して、学習装置102が生成した学習結果を用いて、ニューラルネットワークによる変換を行い、変換後画像を取得する。ニューラルネットワークを用いる機械学習手法の一つとしては、多層ニューラルネットワークを用いるディープラーニングが挙げられる。そして、画像処理サーバ103は、変換によって取得した変換後画像を、再び画像処理装置101に送信する。画像処理装置101は、画像処理サーバ103から受信した変換後画像を用いて、印刷出力、ユーザ所望の送信先への送信、画像処理装置101内の記憶部への保存を行う。
ネットワーク104は、LANや公衆回線(WAN)等で実現されるものであって、画像処理装置101、学習装置102、画像処理サーバ103の間を互いに接続して、装置間でデータを送受信するための通信部として機能する。
<利用シーケンス>
図4(a)は画像処理システムの利用シーケンスを示す図である。ここでは、ユーザが画像処理装置101bを用いて、受信した圧縮ファイルに対して出力指示して印刷出力するケースについて説明する。本実施の形態では、圧縮ファイルとして取得した低品位の変換前画像に対して画像変換を行うことで、高品位の変換後画像(変換後画像データ)を提供することができる。これにより、例えば、ユーザは高品位な画像を用いた印刷物や、高品位な画像を用いたプレビュー結果を取得することができる。また、この高品位の変換後画像に対してOCRを実行することで、画像中に含まれるテキストを高精度に抽出することができる。
本利用シーケンスにおいて、画像処理システム100を提供するメーカのエンジニアは、学習装置102に画像変換AI用の学習を行わせるべく、学習データの入力を行う(S401)。学習装置102は、入力された学習データを用いて、ニューラルネットワークの学習処理を行う(S402)。学習装置102は、S402が終了すると、画像処理サーバ103に対して、学習結果を送信する(S403)。これらの工程は、以降に説明する工程よりも前に予め行われる工程である。
その後、画像処理装置101aは、画像処理装置101bに対して、圧縮ファイルを送信する(S404)。画像処理装置101bは、圧縮ファイルを受信すると、受信した圧縮ファイルを保持する(S405)。その後、ユーザは、画像処理システム100の利用を開始すべく、画像処理装置101bが受信した圧縮ファイルに基づく画像の出力を指示する(S406)。画像処理装置101bは、ユーザから指示された対象ファイルを画像処理サーバ103に送信する(S407)。画像処理サーバ103は、S407で受信した圧縮ファイル(圧縮画像データ)に基づいて、低品位の変換前画像を入力して高品位の変換後画像を出力する画像変換を行う(S408)。画像処理サーバ103は、S408で生成した高品位の変換後画像を画像処理装置101bに対して送信する(S409)。画像処理装置101bは、S409で受信した高品位の変換後画像を用いて、S406でユーザから指示された出力形態で印刷等の画像出力を行う(S411)。なお、画像出力の例としては、印刷の他、ユーザ所望の送信先への送信、ストレージ(ネットワークストレージ)への保存、および画面への表示(プレビュー)が挙げられる。
<装置構成>
前述した画像処理システム100を実現するために、画像処理装置101、学習装置102、画像処理サーバ103は、以下に示す構成を備える。図2(a)は画像処理装置の構成を示す図である。図2(a)に示すように画像処理装置101は、次を備える。CPU201、ROM202、RAM204、プリンタデバイス205、スキャナデバイス206、原稿搬送デバイス207、ストレージ208、入力デバイス209、表示デバイス210、及び外部インタフェース211。各デバイスは、データバス203によって相互通信可能に接続されている。
CPU201は、画像処理装置101を統括的に制御するためのコントローラ(制御部)である。CPU201は、ROM202に格納されているブートプログラムによりOS(オペレーティングシステム)を起動する。このOS上で、ストレージ208に記憶されているコントローラプログラムが実行される。コントローラプログラムは、画像処理装置101を制御するためのプログラムである。CPU201は、データバス203によって接続されている各デバイスを統括的に制御する。CPU201は、例えば、ネットワーク104を介して受信した画像データに対して、画像変換を実行した後に、印刷又は送信の出力制御を実行する。RAM204は、CPU201の主メモリやワークエリア等の一時記憶領域として動作する。ストレージ208は、HDDやSSDなどの、読み出しと書き込みが可能な不揮発メモリ・大容量記憶領域であり、ここには、前述のコントローラプログラムなど、様々なデータが記録される。また、ストレージ208は、例えば、画像データをボックス保存するように指示された場合、画像処理装置101の内部において画像データを格納するための記憶部としても用いられる。
プリンタデバイス205は、画像データを用紙(記録材、シート)上に印刷するデバイス(印刷デバイス、画像形成部、画像形成デバイス)である。これには感光体ドラムや感光体ベルトなどを用いた電子写真印刷方式や、微小ノズルアレイからインクを吐出して用紙上に直接画像を印字するインクジェット方式などがあるが、どの方式でもかまわない。
スキャナデバイス206は、CCDなどの光学読取装置を用いて紙などの原稿上の走査を行い、電気信号データを得てこれを変換し、スキャン画像データを生成するデバイス(画像読取デバイス)である。また、ADF(オート・ドキュメント・フィーダ)などの原稿搬送デバイス207は、原稿搬送デバイス207上の原稿台に載置された原稿を1枚ずつスキャナデバイス206に搬送する。スキャナデバイス206は、原稿搬送デバイス207が搬送してきた原稿を読み取る機能の他に、画像処理装置101が持つ原稿台(不図示)上に載置された原稿を読み取る機能を備えていてもよい。
入力デバイス209は、タッチパネルやハードキーなどから構成されるデバイス(入力装置)である。入力デバイス209は、ユーザの操作指示を受け付ける受付部として機能する。そして、指示位置を含む指示情報をCPU201に伝達する。
表示デバイス210は、CPU201が生成した表示データを表示する表示部である。表示デバイス210としては、LCDやCRTなどの表示装置が用いられる。CPU201は、入力デバイス209より受信した指示情報と、表示デバイス210に表示させている表示データとから、いずれの操作が成されたかを判定する。そしてこの判定結果に応じて、画像処理装置101を制御するとともに、新たな表示データを生成し表示デバイス210に表示させる。
外部インタフェース211は、LANや電話回線、赤外線といった近接無線などのネットワークを介して、外部機器と、画像データをはじめとする各種データの送受信を行うためのインタフェースである。外部インタフェース211は、学習装置102やPC(不図示)などの外部機器より、PDLデータ(ページ記述言語で描画内容を記述したデータ、PDL形式のデータ)を受信する。CPU201は、外部インタフェース211が受信したPDLデータを解釈し、画像を生成する。生成した画像は、プリンタデバイス205により印刷したり、ストレージ208に記憶したりする。また、外部インタフェース211は、画像処理サーバ103などの外部機器より画像データを受信する。受信した画像データは、プリンタデバイス205によって印刷されたり、ストレージ208に記憶されたり、外部インタフェース211により、他の外部機器に送信されたりする。
データバス203は、コントローラの内部で扱う画像データ及び制御情報を各処理部の間で互いに送受信するための通信部である。なお、上述した各デバイスは、I/F(不図示)を介してCPU201に接続されている。すなわち、各デバイスとCPU201間の通信信号はI/F(不図示)によって中継される。
なお、画像処理装置101内で実行される画像処理は、CPU201で実行するのではなく、専用の回路で実行してもよい。例えば、PDLデータの解釈によって生成されるベクタ形式のディスプレイリストに対して、レンダリング処理を実行し、ラスタ形式の画像データを出力するRIPを設けてもよい。また、画像データに対して、回転、変倍、圧縮、伸張等の編集処理を行う画像処理回路を設けてもよい。
図2(b)は学習装置の構成を示す図である。図2(b)に示すように、学習装置102は、CPU231、ROM232、RAM234、ストレージ235、入力デバイス236、表示デバイス237、外部インタフェース238、GPU239を備える。各部は、データバス233を介して相互にデータを送受信することができる。
CPU231は、学習装置102の全体を制御するためのコントローラである。CPU231は、データバス233などのバスを介して各部を制御する。CPU231は、不揮発メモリであるROM232に格納されているブートプログラムによりOSを起動する。このOSの上で、ストレージ235に記憶されている学習プログラムを実行する。CPU231は、取得した学習データをRAM234やストレージ235に記憶する。そして、CPU231は、GPU239に対して、学習データを元に学習モデルを更新するための演算処理や、受信した画像データを元に画像変換結果の画像データを生成するための演算処理を実行するように制御する。このように、CPU231が学習プログラムを実行することにより、画像変換を行うニューラルネットワークの学習が進行していく。
RAM234は、CPU231のメインメモリやワークエリア等の一時記憶領域として動作するものである。ストレージ235は、読み出しと書き込みが可能な不揮発メモリであり、前述の学習プログラムを記録する。
入力デバイス236は、マウスやキーボードなどから構成される入力装置である。表示デバイス237は、図2(a)を用いて説明した表示デバイス210と同様である。
データバス233は、学習装置102の内部で扱う画像データ及び制御情報を各処理部の間で互いに送受信するための通信部である。外部インタフェース238は、学習装置102とLAN等のネットワーク104との間を接続するものである。
GPU239は、画像処理プロセッサであり、CPU231と協調してニューラルネットワークの学習を行う。すなわち、GPU239は、CPU231による制御情報に基づいて、学習データを元に学習モデルを更新するための演算処理を実行する。
図2(C)は画像処理サーバの構成を示す図である。図2(c)の画像処理サーバ103は、CPU261、ROM262、RAM264、ストレージ265、入力デバイス266、表示デバイス267、外部インタフェース268を備える。各部は、データバス263を介して相互にデータを送受信することができる。
CPU261は、画像処理サーバ103の全体を制御するためのコントローラである。CPU261は、不揮発メモリであるROM262に格納されているブートプログラムによりOSを起動する。CPU261は、データバス263などのバスを介して各部を制御する。CPU261は、受信した画像データを元に画像変換結果の画像データを生成するための演算処理を実行したりする。なお、学習装置102と同様に、画像処理に関する一部の処理をGPU(不図示)でおこなってよい。
RAM264は、CPU261のメインメモリやワークエリア等の一時記憶領域として動作するものである。ストレージ265は、読み出しと書き込みが可能な不揮発メモリであり、前述の画像処理サーバプログラムを記録する。
入力デバイス266は、図2(b)を用いて説明した入力デバイス236と同様である。表示デバイス267は、図2(a)を用いて説明した表示デバイス210と同様である。
データバス263は、画像処理サーバ103の内部で扱う画像データ及び制御情報を各処理部の間で互いに送受信するための通信部である。外部インタフェース268は、画像処理サーバ103とLAN等のネットワーク104との間を接続するものである。
<学習データ>
S401においてエンジニアが学習装置102に入力した学習データについて説明する。学習データは、学習装置102が学習部112でニューラルネットワークを学習するために用いるデータである。ニューラルネットワークを学習するためには、入力画像と正解画像の対が必要となる。本実施の形態では、無圧縮の画像を正解画像とし、非可逆圧縮されて圧縮ノイズを備える画像を入力画像として用いる。
図3は、学習データの成り立ちを示す図である。図3に示すように、学習データ306は、正解画像と入力画像の対からなるデータである。正解画像303は、PDLデータ300(電子ドキュメント、元データ)をレンダリングして得られる画像301が、無圧縮画像302としてそのまま用いられる。入力画像305は、PDLデータ300をレンダリングして得られる画像301に非可逆圧縮を施した圧縮画像304が用いられる。
ここでは、エンジニアの開発環境下にある装置で非可逆圧縮処理が施される。なお、非可逆圧縮処理に用いる装置は、画像処理装置101aと同機種であることが望ましい。
また、高品位の画像変換を行うには大量の学習データを用いてニューラルネットワークを学習する必要があるが、ここでは既に十分に学習されている前提で説明を行う。
<学習処理>
図6は、図4のS402における学習装置102による学習モデルの学習処理の流れを説明するためのフローチャートである。なお、図6で示す各ステップは、学習装置102のROM232、RAM234、ストレージ235等に記憶され、学習装置102のCPU231及びGPU239によって実行される。
図6に示すように、CPU231は、GPU239を用いて、学習モデルとして用いられるニューラルネットワークを構成する重みパラメータの値を初期化する(S601)。すなわち、CPU231は、例えば、ニューラルネットワークを構成する重みパラメータをランダムな値に設定したり、前回学習済の値をロードして再設定したりする。次に、CPU231は、GPU239を用いて、図4のS401で入力された学習データのうち、解像度や階調の条件が合致する入力画像と正解画像のペアを学習データとして取得する(S602)。
次に、CPU231は、GPU239を用いて、S601で準備したニューラルネットワークに学習データ(入力画像と正解画像のペア)を入力し、入力画像と正解画像の間における画素値の誤差計算のための演算を実行する(S603)。次に、CPU231は、GPU239を用いて、学習モデルの重みパラメータの値を更新する演算を実行する(S604)。この処理は一般に誤差逆伝搬法(バックプロパゲーション)と呼ばれる。次に、CPU231は、GPU239を用いて、所定の学習データ数を用いて所定の学習回数だけ演算処理が終了したか否かを判断する(S605)。ここで、CPU231は、所定の学習データを用いた所定の学習回数が終了したならば(S605でYES)、S606に遷移し、終了していなければ、S602に遷移してS602〜S604の演算を繰り返す。次に、CPU231は、GPU239を用いて、学習済モデルのニューラルネットワークを構成する重みパラメータの値をストレージ235等の記憶部に保存する(S606)。S606で獲得した学習済モデルは、既知の低品位画像を既知の高品位画像に置きかえるのではなく、未知の画像も含めて低品位画像を高品位画像に変換できるような画像変換部として形成される。
本実施の形態では、S602〜S604における繰り返し処理において、図11に示すような正解画像および入力画像を用いる。図11は正解画像および入力画像の例を示す図である。
画像1110は、「東京都足立区」という文字列が描写された無圧縮の画像である。画像1110は正解画像として用いられる。画像1120は画像1110にJPEG圧縮(品質は中程度)を施すことで生成される画像である。
画像1120は、画像部位1121に示すように文字の輪郭に沿ったノイズを含む。このノイズは、モスキートノイズと呼ばれ、輪郭部分や色の変化の激しい部分で起こる画像の乱れである。画像1120は入力画像として用いられる。
画像1130は画像1110にJPEG圧縮(品質は低程度)を施すことで生成される画像である。画像1130は、画像部位1131に示すようにブロック状の輪郭を持つノイズが発生する。このノイズは、ブロックノイズと呼ばれ、画像の一部領域がモザイク状に見える画像乱れである。画像1130は入力画像として用いられる。
画像1110と画像1120のペアのような学習データを多数用意して学習モデルを更新すると、モスキートノイズを除去する特性を獲得することができる。画像1110と画像1130のペアのような学習データを多数用意して学習モデルを更新すると、ブロックノイズを除去する特性を獲得することができる。
本実施の形態では、画像1110と画像1120のペアのような学習データと画像1110と画像1130のペアのような学習データを適量ずつ用意し、S602〜S604を繰り返し実行する。これにより、入力画像と正解画像の差分傾向を学習することで、非可逆圧縮によって画像中に発生したモスキートノイズやブロックノイズを除去する画像変換特性を獲得することができる。
<操作画面>
図4で説明したS406において、入力デバイス209及び表示デバイス210を用いた画面には、ユーザからの出力指示を受け付けるための操作画面が表示される。操作画面の例としては、図8(a),図8(b),図9が挙げられる。図8(a)は受信済み画像データの一覧画面を示す図である。図8(b)はプレビュー画面を示す図である。図9はAI画像変換の設定画面を示す図である。 図8(a)は、プリント、スキャン、FAX等の1つ以上の機能を組み合せて実現可能な機能メニューのうち、受信トレイ機能が選択されている状態を示す画面である。
図8(a)に示す画面では、画像処理装置101bを宛先として送信されてきた画像データの出力指示(印刷、装置、閲覧)を実行できる。
図8(a)に示すように、受信トレイ機能のジョブ選択画面801は、ジョブを選択可能なジョブ一覧821と、選択されたジョブに対する操作指示が可能な、閲覧ボタン823、プリントボタン824、送信ボタン825が配置されている。ジョブ一覧821には、ジョブ名に対応付けてチェックボックスが配置されており、複数のジョブの中から1つのジョブを指定することができる。ジョブを選択すると、選択されたジョブのサムネイル(簡易プレビュー)827が表示される。ここでは、高画質化されていない状態の画像でサムネイル(プレビュー)が行われている。また、本実施の形態では、ジョブ一覧821において、ジョブに非可逆圧縮された画像が含まれているか否かのステータスを確認することもできる。このステータスは、ジョブの解析が実行されたタイミングで更新される。また、ジョブ選択画面801にはAI画像変換ボタン822が配置されている。選択画面801において、AI画像変換ボタン822に対するユーザのタッチ操作が検知されると、図9に示すように、AI画像変換の設定画面901が表示される。
設定画面901には、AI画像変換を許可するONボタン902と、AI画像変換を許可しないOFFボタン903が配置されている。更に、AI画像変換を許可するONボタン902を選択している状態では、AI画像変換の詳細設定904が表示され、AI画像変換を適用するタイミング・出力方法を指定することができる。また、設定画面901には,AI画像変換についての留意点がメッセージとして配置されている。設定画面901は閉じるボタンで閉じるとジョブ選択画面801に戻る。
詳細設定904の例としては、プリント時」「送信時」「プレビュー時」「サムネイル時」が挙げられる。例えば、詳細設定904において「プレビュー時」を設定している状態において、選択画面801で閲覧ボタン823を選択すると、図8(b)に示すプレビュー画面に遷移する。また、選択画面801で選択されていたジョブのデータが画像処理サーバ103に送信され、変換後のデータが画像処理サーバから返ってくる。そして、プレビュー画面には、変換後のデータに基づくプレビュー画像828が表示される。なお、変換後のデータが画像処理サーバから返ってくるまでの間、画像変換前のデータに基づくプレビュー表示をおこなってもよいし、行わなくてもよい。また、詳細設定904において「プレビュー時」を設定していない場合、閲覧ボタン823の選択にしたがって、ストレージ208に記憶されている画像変換されていないデータに基づきプレビュー表示が行われる。プレビュー画面において次のページを表示する指示がなされると、次ページのプレビュー画像が表示される。プレビュー画面を閉じるボタンで閉じるとジョブ選択画面801に戻る。
また、AI画像変換は他の出力にも適用される。
例えば、詳細設定904において「プレビュー時」を設定している状態において、選択画面801でプリントボタン824を選択すると、印刷設定画面(不図示)に遷移する。そして、ユーザにより印刷設定が指定され、印刷開始が指示されると、択画面801で選択されていたジョブのデータが画像処理サーバ103に送信され、変換後のデータが画像処理サーバ103から返ってくる。そして、画像処理サーバ103から返ってきた変換後画像に基づいて印刷が実行される。詳細設定904において「プリント時」を設定していない場合、プリントボタン824の選択にしたがって、印刷設定画面(不図示)に遷移する。そして、ストレージ208に記憶されている画像変換されていないデータに基づく印刷が可能となる。
例えば、詳細設定904において「送信時」を設定している状態において、選択画面801で送信ボタン825を選択すると、送信設定画面(不図示)に遷移する。そして、ユーザにより送信設定が指定され、送信開始が指示されると、選択画面801で選択されていたジョブのデータが画像処理サーバ103に送信され、変換後のデータが画像処理サーバ103から返ってくる。そして画像処理サーバ103から返ってきた変換後画像に基づいて送信が実行される。詳細設定904において「送信時」を設定していない場合、送信ボタン825の選択にしたがって、送信設定画面(不図示)に遷移する。そして、ストレージ208に記憶されている画像変換されていないデータに基づく送信が可能となる。なお、送信設定画面(不図示)では、宛先としては、Eメールアドレスの他、FAX番号、ネットワークフォルダ、クラウドサービス等を指定することが出来る。
ここでは、受信した画像データを出力指示タイミングで出力する例を説明したが、本体設定を変更することによって、画像データを出力指示タイミングではなく、受信タイミングで出力(印刷・送信)することもできる。すなわち、本体設定が第1の設定であれば、受信した圧縮ファイルが内部ストレージ208に格納される。本体設定が第2の設定であれば圧縮ファイルは、受信にともなって印刷される。本体設定が第3の設定であれば圧縮ファイルは、受信にともなって予め指定された宛先(Eメールアドレス、ネットワークストレージ、ドキュメント管理クラウドサービス)に送信される。このように自動で出力する場合においても、詳細設定904に予め設定されている設定内容を適用してもよい。
<画像出力処理>
図5は、画像処理装置101による画像出力処理の流れを説明するためのフローチャートである。なお、図5で示す各ステップは、画像処理装置101のROM202、RAM204、ストレージ208等に記憶され、画像処理装置101のCPU201によって実行される。なお、フローチャートで示す各ステップの処理の一部は、画像処理サーバ103のROM232、RAM234、ストレージ235等に記憶され、CPU201の要求に基づいて画像処理サーバ103のCPU231によって実行される構成であっても良い。
図5に示すように、CPU201は、ネットワーク104を経由した外部インタフェース211で、圧縮ファイルを受信したか否かを判断する(S501)。ここで、CPU201は、圧縮ファイルを受信していれば(S501でYES)、S502に遷移し、受信していなければ(S501でNO)、S501に遷移して圧縮ファイルを受信するまで待つ。
次に、CPU201は、S501で受信した圧縮ファイルの属性情報を取得する(S502)。属性情報には例えばジョブ種の情報等が含まれる。
次に、CPU201は、圧縮ファイルの受信時の応答設定を確認する(S503)。自動印刷設定あるいは自動転送設定であった場合(S503でYES)、CPU201は、S504へ処理を進める。S504において、CPU201は、自動転送設定時の出力設定情報を取得する。
自動印刷設定あるいは自動転送設定でなく、留め置き設定であった場合(S503でNO)、CPU201は、S505へ処理を進める。CPU201は、S505において、ストレージ208の記憶領域に、受信した圧縮ファイルを格納する。次に、CPU201は、入力デバイス209を介してユーザによる出力指示を受信したか否かを判断する(S506)。ここで、CPU201は、出力指示を受信するまで(S506でNO)待機し、受信したならば(S506でYES)、S507に遷移する。S507において、CPU201は、S506の出力指示に従い指定された圧縮ファイルを取得する。
次に、CPU201は、指定された圧縮ファイルがAI画像変換の対象か否かを判定する(S508)。この判定は、例えば、詳細設定904の設定に基づき実行される。AI画像変換の対象である場合(S508:YES)、CPU201は、低品位の画像データを高品位の画像データに変換する画像変換を実行するように制御する(S509)。S508において、AI画像変換の対象でないと判定された場合(S508:NO)、CPU201は、S509をスキップし、画像変換していないデータを用いて印刷又は送信、プレビューを実行する(S510)。本実施の形態では、S407で示したように、圧縮ファイルを画像処理サーバ103に送信することで、画像変換の依頼をおこなう。なお、S509の処理の流れは、図7のフローチャートを用いて別途詳細に説明する。最後に、CPU201は、S509で生成された変換後画像を用いて、印刷又は送信、プレビューを実行する(S510)。
<属性情報>
本実施の形態では、受信データの画像単位毎に圧縮方法の違い、すなわち、画像が非可逆圧縮されているか否かを判断する。そのため、非可逆圧縮がかかっている可能性の高い画像にのみ画像変換処理を実施することができ、処理効率に優れる。上述判断に用いる属性情報は、ドキュメント内のコマンドや画像のヘッダー等から取得される。
図10(a)は入力ファイルの構成例を示す図である。図10(b)はデータ構造例を説明する図である。画像処理装置101aのSEND機能では、スキャンした画像を複数の画像(JPEG)として送信することや、複数の画像を一つのドキュメント(PDF)としてまとめて送信することができる。また、一つのドキュメントとして送信する場合、ドキュメント内に含める画像を様々な形式で圧縮することができる。例えば、ドキュメント内のオブジェクトは、オブジェクト毎に可逆圧縮(例:MMR圧縮)または非可逆圧縮(例:JPEG圧縮)がかけられる。図10(a)には、オブジェクト毎に異なる圧縮がかけられたPDFファイルの構成が記載されている。図10(a)のオブジェクトAには非可逆圧縮が、オブジェクトBには可逆圧縮がかけられている。図10(b)には、図10(a)のPDFファイルの構成に埋め込まれたデータ構造が記載されている。図10(b)において、ヘッダー部1011には当該PDFファイルのバージョン情報が記述される。ボディー部1012には、当該PDFファイルの内容を表す各オブジェクト情報(当該オブジェクトの番号、当該オブジェクトの種類、当該オブジェクトの圧縮方法等)が記述される。相互参照表部1013には、各オブジェクトのオフセット位置(PDFデータの先頭からのバイト位置であり、図中のnnnnnnnnnn)を示すテーブルが記述される。トレイラー部1014には、相互参照表を読み取るための情報が記述される。
<画像変換処理>
図7は、図4のS408および図5のS509における画像処理サーバ103による画像変換処理の流れを説明するためのフローチャートである。なお、図7で示す各ステップは、画像処理サーバ103のROM262、RAM264、ストレージ265等に記憶され、画像処理サーバ103のCPU261によって実行される。
図7に示すように、CPU261は、画像処理装置101bから受信した圧縮ファイルおよびこのデータの属性情報を取得する(S701)。本実施の形態では、対象のデータがPDF等のドキュメントデータである場合、ページ内に含まれるオブジェクト単位での変換が行われ、対象のデータが1又は複数のJPEG等の画像データである場合、ページ単位での変換が行われる。CPU261は、ストレージ265等に記憶された学習モデルの読出しを行う。
S705において、CPU261は受信したデータから最小単位の画像を取得する(S705)。例えば、対象のデータがPDFファイルの場合、CPU261は、相互参照表部1013(データ構造内のxref以下の記述)を参照して当該オブジェクトの位置情報を取得し、当該オブジェクト領域を抽出してラスタ形式の画像データに変換する。次に、CPU261は、属性情報等から、取得した画像が非可逆圧縮されているか否かを判定する(S706)。例えば、ボディー部1012内の当該オブジェクトに埋め込まれた情報を確認し、オブジェクト種類が画像で非可逆圧縮されている旨の記述(例:obj<<Image/DCTDecode>>)があるかどうかを判断する。取得した画像が非可逆圧縮されていると判定された場合(S706:YES)、CPU261は学習モデルに基づく画像変換を実行する(S707)。取得した画像が非可逆圧縮されていないと判定された場合(S706:NO)、CPU261は学習モデルに基づく画像変換をスキップする。対象のデータがドキュメントデータである場合、ページ内のすべてのオブジェクトを対象にすべく処理を繰り返す(S704、S708)。そして、ページ内のすべてのオブジェクトについて処理を終えるとオブジェクトを合成して1つのページ画像を作成する(S709)。具体的には、CPU261は、各オブジェクトの位置情報をもとに、各オブジェクトの画像変換結果を含む全てのオブジェクトを合成した合成画像を生成する。なお、対象のデータが画像データである場合、1ページにつき一度、画像変換のための一連の処理が実行される。こうした処理が1または複数ページ分繰り返されることで(S703、S710)、変換後データの生成が完了する。生成された変換後データは、S510の処理で用いられる。
<備考>
以上で述べたように、第1の実施形態によれば、高品位な画像を出力できる。非可逆圧縮画像の出力時に、学習済モデルを用いた画像変換を実現できる。なお、学習済モデルを用いた画像変換の実行は、画像の出力指示時に限定されるものではない。画像処理装置101bは、例えば、SEND機能により非可逆圧縮されたファイルを受信した時点で画像処理サーバに画像変換を依頼してもよい。また、第1の実施形態によれば、非可逆圧縮がかかっている、すなわち圧縮ノイズが発生しているオブジェクトのみを処理することで、画像変換に要する待ち時間を短縮した上で、高品位の出力画像を生成できる。なお、高品位な画像を単純に出力するだけであれば、詳細な判定は不要である。例えば、S508における判定処理は省いても構わない。また、S706における判定処理は省いても構わない。
[第2の実施形態]
第1の実施形態では、一つの学習モデルを用いて画像変換を行う例を説明した。第2の実施形態では、複数の学習モデル(ニューラルネットワーク)を用いて画像変換を行う例を説明する。なお、第2の実施形態における画像処理システム100は、上述した特徴部分を除き、第1の実施形態の画像処理システム100と同様である。
<複数の学習モデル>
図12は学習モデルの種類を示す図である。第2の実施形態では学習モデルA〜学習モデルNを用いる。これらの学習モデルは、圧縮形式(JPEG,WebP)、圧縮品質(圧縮率)、出力元(出力機器、圧縮回路、圧縮プログラム)等の情報を考慮して細分化されている。このように複数の学習モデルを用意することで、対象画像に適した画像変換を施すことができるようになる。
例えば、学習モデルEは、中程度の品質(中程度の圧縮率)で圧縮された画像を入力画像とする学習データを中心に、学習を行ったモデルである。そのため、中程度の品質でJPEG圧縮した際に顕著なノイズであるモスキートノイズ(画像部位1121参照)を効率的に除去することができる。また、学習モデルIは、低程度の品質(高程度の圧縮率)でJPEG圧縮された画像を入力画像とする学習データを中心に、学習を行ったモデルである。そのため、低程度の品質で圧縮した際に顕著なノイズであるブロックノイズ(画像部位1131参照)を効率的に除去することができる。
また、WebPのように異なる圧縮形式ではノイズの発生傾向が異なる。さらには、出力元によって圧縮品質の定義に差異がある場合や、画像に前処理や後処理を施している場合がある。そこで、圧縮品質が同じ高程度であっても、モデルA、モデルB,モデルC,モデルDのように細分化している。
なお、上述した複数のモデルは、対象の画像の品質情報を取得できる環境で利用することを前提としている。しかしながら、対象画像の圧縮品質が不明なケースも存在する。こうしたケースにも対応できるように、圧縮品質が不明なケースで用いるモデル、例えばモデルM、モデルNを用意するとよい。モデルMは、圧縮品質が中程度の入力画像を用いる学習データ、および、圧縮品質が低程度の入力画像を用いる学習データ、を同程度学習している。そのため、JPEG圧縮に起因するノイズを汎用的に除去することができる。
<画像変換処理>
図13は、第2の実施形態における画像変換処理のフローチャートを示す図である。なお、図13で示す各ステップは、画像処理サーバ103のROM262、RAM264、ストレージ265等に記憶され、画像処理サーバ103のCPU261によって実行される。なお、図13は、本発明の第2の実施形態における図7と共通する部分があるため、共通する部分の説明を省略し、差分の説明のみを行う。
S1301は、S701と同様である。CPU261は、ストレージ265等に記憶された学習モデルの読出しを行う。この実施形態では、図12に示すように複数の学習モデルが読み出される。
S1305において、CPU261は受信したデータから最小単位の画像を取得する(S1305)。次に、CPU261は、属性情報等から、取得した画像が非可逆圧縮されているか否かを判定する(S1306)。ここでは、ボディー部1012内の当該オブジェクトに埋め込まれた情報を確認することで、判定をおこなう。例えば、オブジェクト種類が画像で非可逆圧縮されている旨の記述(例:obj<<Image/DCTDecode>>)やオブジェクトの拡張子情報に基づいて、オブジェクトが非可逆圧縮されているか否かを判断することができる。取得した画像が非可逆圧縮されていない場合(S1306:NO)、CPU261はS1314へと処理を進める。取得した画像が非可逆圧縮されていると判定された場合(S1306:YES)、CPU261は続けて、対象画像の圧縮関連情報を取得する(S1307)。圧縮関連情報とは、圧縮形式の情報(圧縮形式情報)や、圧縮の品質情報や、圧縮画像の出力元の情報である。ここでは圧縮形式の情報(拡張子情報等)は必ず取得される前提で説明する。S1308において、CPU261は、取得された圧縮関連情報の中に圧縮品質の情報が含まれているか否かを判定する。圧縮品質の情報が含まれていない場合(S1308:NO)、CPU261は、利用する学習モデルを決定する材料として、品質不明を指定する(S1310)。その後、画像の圧縮形式・拡張子に基づいて、学習モデルMまたは学習モデルNが利用モデルに決定される(S1312)。
圧縮品質の情報が含まれている場合(S1308:YES)、CPU261は、より正確に学習モデルを選定するために出力元情報の有無を判定する(S1309)。出力元情報が含まれている場合(S1309:YES)、その出力元情報に基づいて学習モデルが決定される。すなわち、学習モデルA〜学習モデルLのいずれかが利用される。出力元情報が含まれていない場合(S1309:NO),CPU261は、利用する学習モデルを決定する材料として、規定の出力元を指定する。規定の出力元は、例えば出力元Aや出力元Cである。そのため、S1312では、学習モデルA、C、E、G、I、Kのいずれかが選択される。その後、決定された学習モデルに基づく画像変換が実行される(S1313)。オブジェクト毎の繰り返し、ページ毎の繰り返しに関する処理であるS1303〜S1305、S1314〜S1316は、S703〜S705、S708〜S710と同様であるため説明を省略する。
<備考>
以上で述べたように、第2の実施形態によれば、圧縮形式(JPEG,WebP)、圧縮品質(圧縮率)、出力元(出力機器、圧縮回路、圧縮プログラム)等の情報を考慮して学習モデルを細分化することで、より精度の高い画像変換をおこなうことができる。なお、学習モデルの細分化は、必ずしも、圧縮形式(JPEG,WebP)、圧縮品質(圧縮率、圧縮モード)、出力元(出力機器、圧縮回路、圧縮プログラム)のすべてを考慮しなくてよい。すなわち、一部の情報のみで学習モデルを細分化してもよい。例えば、圧縮形式(JPEG,WebP)のみでモデルを細分化してもよい。なお、本実施の形態では、品質値が100〜71のものは品質が高程度、品質値が70〜41のものは品質が中程度、品質値が40〜1のものは品質が低程度としているが、数値と高低の関係はこれには限られない。数値と高低の関係は適宜変更してよい。また、高低の分け方は3段階に限られず、2段階や4段階以上であってもよい。また、圧縮形式としてJPEG,WebPを挙げたが、「JPEG 2000」や「JPEG XR」等の非可逆圧縮可能なその他のフォーマットを用いてもよい。品質不明用の学習モデルについては必ずしも用意しなくてよい。
[第3の実施形態]
第1および第2の実施形態では、エンジニアが学習データを予め用意して学習装置に入力していた。これに対し、第3の実施形態では、画像処理装置が稼働中に受信したPDLジョブを用いて学習データを自動生成する。なお、上述した特徴部分およびその関連部分を除き、第3の実施形態の画像処理システム100の構成は、第1及び第2の実施形態の画像処理システム100と同様である。そのため同様の構成には同様の符号を付し、その詳細な説明を省略する。
<画像処理システム100>
図14は、第3の実施形態における画像処理システム100の構成を示した図である。図9に示すように、画像処理システム100は、画像処理装置101、学習装置102、画像処理サーバ103、端末装置105で構成され、ネットワーク104を介して互いに接続される。画像処理装置101、学習装置102、画像処理サーバ103、ネットワーク104については、図1を用いて説明した通りである。
端末装置105は、画像処理装置101に対して印刷ジョブを送信できるパーソナルコンピュータやタブレットなどである。端末装置105は、ユーザが、操作部(不図示)を介して印刷指示を実行すると、印刷ジョブ(PDLデータを含む)を画像処理装置101に送信する。画像処理装置101は、端末装置105からのジョブに従って印刷処理を行うと共に、学習装置102にPDLデータを送信する。学習装置102は、PDLデータ(元データ)から正解画像と入力画像を生成し、生成した画像のペアを学習データとして保持する。端末装置105の構成は画像処理サーバ103の構成と略同一であるものとし、詳細な説明を省略する。
本実施の形態において、学習装置102は、学習データ生成部114を備えている。学習データ生成部114は、取得したPDLデータに対するRIP(レンダリング)及び非可逆圧縮処理によって、正解画像と入力画像のペアである学習データを疑似的に生成する。学習データ生成部114は、生成した学習データを、ストレージ235に保持する。学習データ生成部は、CPU231が学習データ生成プログラムをRAM234に展開して実行することによって実現される。学習部112は、ストレージ235に保持された学習データを用いて、ニューラルネットワークを学習する。学習部112は、CPU231が学習プログラムをRAM234に展開して実行することによって実現される。
<学習シーケンス>
学習シーケンスについて、図15を用いて説明する。図10は、第2の実施形態における画像処理システム100の学習シーケンスを示す図である。
図15(a)は、学習データ生成、学習モデル更新をいずれも学習装置102で実行する場合を示した動作例である。図15(a)に示すように、例えば、ユーザがアプリデータを作成(S1501)し、当該アプリデータを元に、端末装置105におけるプリンタドライバ等で生成されたPDLデータを画像処理装置101bに送信する(S1502)。画像処理装置101bは、受信したPDLデータを学習装置102にデータ転送する(S1503)。これを受けて、学習装置102は、学習データ生成(S1504)、学習モデル更新(S1505)を実行する。更新された学習モデルは、画像処理サーバ103に送信される(S1510)。一方で、ユーザが画像処理装置101bに出力指示を与える(S1506)と、画像処理装置101bは、通常のPDLプリント処理フローと同様に、受信したPDLデータをレンダリング(S1507)し、印刷又は送信等の出力処理(S1508)を実行する。その後、ユーザは出力物を取得する(S1509)。
<自動学習処理>
図16は自動学習処理のフローチャートを示す図である。なお、図16で示す各ステップは、学習装置102のROM232、RAM234、ストレージ235等に記憶され、学習装置102のCPU231及びGPU239によって実行される。
図11に示すように、CPU231は、ネットワーク104を経由した外部インタフェース238で、PDL等のベクタ形式の画像データを受信したか否かを判断する(S1601)。ここで、CPU231は、PDLデータを受信していれば(S1601でYES)、S1602に遷移し、受信していなければ(S1601でNO)、S1601に遷移してPDLデータを受信するまで待つ。次に、CPU231は、PDLデータを解釈してディスプレイリストに変換し、ディスプレイリストをレンダリングすることでラスタ形式の画像データを生成する(S1602)。次に、CPU231は、S1602で生成したラスタ形式の画像データを元に、第1の画像を正解画像として生成する(S1603)。次に、CPU231は、S1602で生成したラスタ形式の画像データに非可逆圧縮処理を施した第2の画像を入力画像として生成する(S1604)。なお、非可逆圧縮の形式や品質等のパラメータは、学習データを利用する学習モデル等によって調整される。ここで、S1603及びS1604で生成する画像データは、例えば、同一の描画オブジェクトを含んだページ内の参照領域(主/副走査の位置座標)で、所定の矩形単位(例:512×512画素)毎に切り出した複数の画像データとして生成するものである。次に、CPU231は、第1の画像を正解画像、第2の画像を入力画像とした、入力画像と正解画像のペアを学習データとしてストレージ235等の記憶部に保存する(S1605)。なお、学習データは、PDLデータのページ数等に応じて複数作成してよい。次に、CPU231は、別のモデル用の学習データを生成するか否かを判断する(S1606)。例えば、学習モデルA用の学習データを生成後、学習モデルE用の学習データを生成するか否かを判断する。学習モデルA用の学習データと学習モデルE用の学習データの違いは、例えば、入力画像を非可逆圧縮する際の圧縮品質のパラメータである。ここで、CPU231は、別の学習モデル用の学習データを続けて生成すると判断したならば(S1606でYES)、S1602に遷移してS1602〜S1605を繰り返す。別の学習モデル用の学習データをこれ以上生成しないと判断したならば(S1606でNO)、学習データ生成の処理を終了する。ここでは、出力可能な全ての圧縮形式・圧縮品質の組合せを網羅できるように、正解画像としての第1の画像と入力画像としての第2の画像を生成しても良い。
次に、CPU231は、更新する学習モデルおよび、その学習モデルの学習に用いる学習データを決定し(S1607)、学習モデルの更新をおこなう(S1608)。学習モデルの更新処理の詳細は、図6で説明した通りである。CPU231は、更新すべき学習モデルがあるか否かを判断し、学習すべき次の学習データがある場合には(S1609:YES)S1607へ処理に進み、次の学習モデルの更新をおこなう。学習すべき次の学習モデルがない場合には(S1609:NO)、自動学習の処理を終了する。ここでは、学習能なすべての学習モデルについて学習をおこなってもよい。
<自動学習設定>
上述したように、本実施の形態では、投入されたPDLデータに基づいて、学習モデルが自動学習される。すなわち、ユーザの利用環境に最適化されるように学習モデルの学習が進行していく。ところで、自動学習の進行は、AI画像変換の特性の変化と同義である。すなわち、過去と未来では同じAI画像変換の結果は得られないことを意味する。そのため、これ以上の自動学習を望まないユーザのために自動学習を停止できることが望ましい。
図17(a)は自動学習の設定画面を示す図である。図17(a)に示すように、本実施の形態では、自動学習の設定画面1701を画像処理装置101bの表示デバイス210に表示させることができる。設定画面1701は、画面901において詳細ボタンを選択して詳細画面(不図示)を表示後、詳細画面(不図示)において「自動学習」の項目を指定することで表示される。画像処理装置101bの表示デバイス210に表示させることができる。設定画面1701ではONボタンとOFFボタンのいずれかを指定可能である。設定画面1701においてONボタンを指定すると自動学習の実行が許可され(自動学習が許容され)、OFFボタンを指定すると自動学習が無効となる。具体的には、自動学習が無効にする方法としては、学習装置102への学習用PDLデータの送信(S1503)を停止する方法が挙げられる。これにより、学習装置102で学習データが生成されなくなるため、学習モデルが更新されなくなる。なお、自動学習を無効にする方法は他の方法で実現してもよい。例えば更新された学習モデルの送信(S1510)があった場合にこれを拒否してもよい。あるいは、学習装置102に自動学習の停止要求を送信し、学習装置102側で学習モデルの更新を実行しないように制御してもよい。
<備考>
以上で述べたように、本実施の形態では、学習モデルを自動学習することで、ユーザの利用環境に最適化していく。そのため、より高い精度でAI画像変換をおこない、ユーザの望む画像を提供することができる。また、本実施例では、印刷等の通常利用で送信されたPDLデータに基づき印刷を行いながら、並行して学習モデルの学習にこのPDLデータを利用している。そのためユーザは、意識して学習データを投入せずに済む。
[その他の実施形態]
本発明は上述した実施の形態に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施形態及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
本発明は、上述した実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。
例えば、第2の実施形態において、学習データ生成部114と学習部112は、学習装置102において実現されるものとしたが、それぞれ別体の装置において実現されるようにしても良い。この場合、学習データ生成部114を実現する装置は、学習データ生成部114が生成した学習データを、学習部112を実現する装置に送信する。そして、学習部112は受信した学習データをもとにニューラルネットワークを学習する。また、学習部112の機能を、画像処理サーバ103や、画像処理装置101bで実現してもよい。すなわち、学習装置102を、画像処理サーバ103や、画像処理装置101bと一体の装置としてもよい。また、画像変換部113としての機能を画像処理装置101bで実現してもよい。すなわち、画像処理サーバ103と画像処理装置101bを一体の装置としてもよい。また、学習データ生成部114の機能を、端末装置105、画像処理装置101b、画像処理サーバ103のいずれかで実現してもよい。
学習データ生成を画像処理装置101bで実行する例を図15(b)に示す。図15(b)は画像処理システム100の変形例における学習シーケンスを示す図である。図15(b)のシーケンスでは、ユーザがアプリデータを作成(S1501)し、当該アプリデータを元に、端末装置105におけるプリンタドライバ等で生成されたPDLデータを画像処理装置101に転送する(S1502)。その後、当該PDLデータを画像処理装置101でレンダリングし、通常のPDLプリントジョブと並行して、学習データも生成する(S1511)。更に、画像処理装置101は、通常のPDLプリントジョブと並行して、学習データを学習装置102に送信する(S1512)。学習装置102は、画像処理装置101から送信された学習データを受信して、学習モデル更新を実行する(S1505)。更新された学習モデルは、画像処理サーバ103に送信される(S1510)。ユーザが画像処理装置101に出力指示を与える(S1506)と、画像処理装置101は、通常のPDLプリント処理フローと同様に、受信したPDLデータをレンダリング(S1507)し、印刷又は送信の出力処理(S1508)を実行する。その後、ユーザは出力物を取得する(S1509)。
学習データ生成を端末装置105で実行する例を図15(c)に示す。図15(c)は画像処理システム100の変形例における学習シーケンスを示す図である。図15(c)に示すシーケンスでは、ユーザによってアプリデータが作成し、当該アプリデータを元に、端末装置105におけるPDLデータを作成する。そして、端末装置105上で動作可能な画像処理シミュレータによってPDLデータをレンダリングし、学習データを生成する(S1521)。生成した学習データは、端末装置105から学習装置102に送信され(S1522)、学習装置102は、この学習データを用いて学習モデル更新を実行する(S1505)。更新された学習モデルは画像処理サーバ103に送信される(S1510)。画像処理装置101bは、通常のPDLプリント処理フローと同様に、受信したPDLデータをレンダリング(S1507)し、印刷又は送信の出力処理(S1508)を実行する。その後、ユーザは出力物を取得する(S1509)。なお、学習データ生成、及び、学習モデル更新を実行する装置は、所定の演算処理を実行可能な計算資源(例:GPU、FPGA)を有することが望ましい。
また、第1の実施形態では、図4(a)で示すように、画像処理装置101aが画像処理装置101bにデータを送信し、画像処理装置101bが画像処理サーバにデータを転送する形態を説明した。しかしながら、図4(b)に示すように、画像処理装置101aが画像処理サーバにデータを直接送信する形態であってもよい。図4(b)は画像処理システムの変形例における利用シーケンスを示す図である。本利用シーケンスにおいて、S401〜S403の工程は、図4(b)の工程と同様である。その後、画像処理装置101aは、画像処理サーバ103に対して、圧縮ファイルを送信する(S454)。画像処理サーバ103は、圧縮ファイルを受信すると、受信した圧縮ファイルを保持する(S455)。その後、ユーザは、画像処理サーバ103に蓄積された圧縮ファイルに基づく画像出力をすべく、画像処理装置101bにファイル指定の操作、指示を行う(S457)。画像処理装置101bは、ユーザの指示に従い、画像処理サーバ103にファイルの要求を行う。画像処理サーバ103は、S455で保持した低品位の変換前画像を入力して高品位の変換後画像を出力する画像変換を行う(S459)。画像処理サーバ103は、S459で生成した高品位の変換後画像を画像処理装置101bに対して送信する(S460)。画像処理装置101bは、S460で受信した高品位の変換後画像を用いて、指示された出力形態(印刷等)で画像出力を行う(S461)。なお、画像出力の例としては、印刷の他、ユーザ所望の送信先への送信、ストレージ(ネットワークストレージ)への保存、および画面への表示(プレビュー)が挙げられる。
また、第2の実施形態では、AI画像変換のON/OFFを用途ごとに設定可能にしたが(画面901)、他の条件に基づいてAI画像変換のON/OFFを設定可能にしてもよい。例えば、画像の圧縮形式によってAI画像変換のON/OFFを設定可能にしてもよい。図17(b)は対象拡張子の設定画面を示す図である。設定画面1702は、画面901において詳細ボタンを選択して詳細画面(不図示)を表示後、詳細画面(不図示)において「拡張子」の項目を指定することで表示できる。設定画面1702においてJPEGのチェックボックスにチェックを入れると、JPEG画像がAI画像変換の対象となり、JPEGのチェックボックスのチェックを外すとJPEG画像がAI画像変換の対象外となる。同様に、WebPのチェックボックスにチェックを入れると、WebP画像がAI画像変換の対象となり、WebPのチェックボックスのチェックを外すとWebP画像がAI画像変換の対象外となる。
また、図17(a),図17(b)、図8(a)、図8(b)、図9に記載の画面は、他の装置において表示可能にしてもよい。例えば、上述した画面を、端末装置105、画像処理サーバ103、学習装置102のいずれかの装置が備える表示デバイスに表示させてもよい。そして、表示する画面に応じた操作を受け付け可能にしてもよい。画面の情報や操作内容は、例えば、ネットワーク104を介して画像処理装置101bに転送することができる。
ADFとは、Auto Documennt Feederのことである。
AIとは、Artificial Intelligenceのことである。
ASICとは、Application Specific Integrated Circuitのことである。
CCDとは、Charge−Coupled Deviceのことである。
CPUとは、Central Processing Unitのことである。
CRTとはCathode Ray Tubeのことである。
FAXとは、facsimileのことである。
FPGAとは、field−programmable gate arrayのことである。
GPUとは、Graphics Processing Unitのことである。
HDDとは、Hard Disk Driveのことである。
JPEGとは、Joint Photographic Experts Groupのことである。
LANとは、Local Area Networkのことである。
LCDとは、Liquid Crystal Displayのことである。
MFPとは、Multi Function Peripheralのことである。
OCRとは、Optical Character Recognition/Readerのことである。
OSとは、Operating Systemのことである。
PCとは、Personal Computerのことである。
PDFとは、Portable Document Formatのことである。
PDLとは、Page Description Languageのことである。
RAMとは、Random‐Access Memoryのことである。
RIPとは、Raster Image Processorのことである。
ROMとは、Read Only Memoryのことである。
SSDとは、Solid State Driveのことである。
WANとは、Wide Area Networkのことである。
100 画像処理システム
101 画像処理装置
102 学習装置
103 画像処理サーバ
104 ネットワーク
105 端末装置

Claims (19)

  1. 画像処理システムであって、
    圧縮画像データを受信する手段と、
    第1の画像データと前記第1の画像データを非可逆圧縮した第2の画像データの対に基づき学習したニューラルネットワークを取得し、前記取得したニューラルネットワークと前記圧縮画像データに少なくとも基づいて変換後画像データを取得する手段と、
    前記変換後画像データに基づく出力をおこなう手段と、を有することを特徴とする画像処理システム。
  2. 前記圧縮画像データの圧縮形式情報を取得する手段を備え、
    前記ニューラルネットワークは、複数のニューラルネットワークの中から少なくとも前記圧縮形式情報に基づき指定されたニューラルネットであることを特徴とする請求項1に記載の画像処理システム。
  3. 前記圧縮画像データの品質情報を取得する手段を備え、
    前記ニューラルネットワークは、複数のニューラルネットワークの中から少なくとも前記品質情報に基づき指定されたニューラルネットであることを特徴とする請求項1または2に記載の画像処理システム。
  4. 前記圧縮画像データの出力元情報を取得する手段を備え、
    前記ニューラルネットワークは、複数のニューラルネットワークの中から少なくとも前記出力元情報に基づき指定されたニューラルネットであることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理システム。
  5. 前記複数のニューラルネットワークは、前記ニューラルネットワークとは異なるニューラルネットワークであって前記第1の画像データと前記第1の画像データを非可逆圧縮した第3の画像データの対に基づき学習したニューラルネットワークであり、前記第2の画像データと前記第3の画像データの圧縮率は異なることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理システム。
  6. PDLデータの受信にしたがって前記PDLデータに基づく画像データ対を生成し、前記複数のニューラルネットワークのうちの少なくとも1つのニューラルネットワークに対し、前記画像データ対に基づく自動学習を行わせる手段を有することを特徴とする請求項2乃至5のいずれか1項に記載の画像処理システム。
  7. 情報を表示する表示部を備え、
    前記表示部は、前記自動学習を許容するか否かを指定可能な画面を表示可能であることを特徴とする請求項6に記載の画像処理システム。
  8. 情報を表示する表示部を備え、
    前記表示部は、ニューラルネットワークによる変換の対象とする圧縮画像の形式を指定可能な画面を表示可能であることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理システム。
  9. 情報を表示する表示部を備え、
    前記表示部は、前記変換後画像を用いる機能をあらかじめ指定可能な画面を表示可能であることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理システム。
  10. シートに画像を形成する画像形成部を備え、
    前記出力をおこなう手段は、前記変換後画像データに基づく画像形成を前記画像形成部に実行させる手段であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理システム。
  11. 前記出力をおこなう手段は、前記変換後画像データを外部装置に送信する手段であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理システム。
  12. 情報を表示する表示部を備え、
    前記出力をおこなう手段は、前記変換後画像データに基づく画面を前記表示部に表示させる手段であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理システム。
  13. 前記第1の画像データはブロックノイズを含まず、前記第2の画像データはブロックノイズを含むことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理システム。
  14. 前記第1の画像データはモスキートノイズを含まず、前記第2の画像データはモスキートノイズを含むことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理システム。
  15. 前記第1の画像データはPDLデータに基づき生成されることを特徴とする請求項1乃至14のいずれか1項に記載の画像処理システム。
  16. 前記第2の画像データは、JPEGの形式の画像データであることを特徴とする請求項1乃至15のいずれか1項に記載の画像処理システム。
  17. 前記第2の画像データは、WebPの形式の画像データであることを特徴とする請求項1乃至15のいずれか1項に記載の画像処理システム。
  18. 画像処理装置であって、
    圧縮画像データを受信する手段と、
    第1の画像データと前記第1の画像データを非可逆圧縮した第2の画像データの対に基づき学習したニューラルネットワークを取得し、前記取得したニューラルネットワークと前記圧縮画像データに少なくとも基づいて変換後画像データを取得する手段と、
    前記変換後画像データに基づく出力をおこなう手段と、を有することを特徴とする画像処理装置。
  19. 画像処理方法であって、
    圧縮画像データを受信する工程と、
    第1の画像データと前記第1の画像データを非可逆圧縮した第2の画像データの対に基づき学習したニューラルネットワークを取得し、前記取得したニューラルネットワークと前記圧縮画像データに少なくとも基づいて変換後画像データを取得する工程と、
    前記変換後画像データに基づく出力をおこなう工程と、を有することを特徴とする画像処理方法。
JP2019060441A 2019-03-27 2019-03-27 画像処理システム、画像処理方法、および画像処理装置 Pending JP2020162025A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019060441A JP2020162025A (ja) 2019-03-27 2019-03-27 画像処理システム、画像処理方法、および画像処理装置
US16/826,660 US11436762B2 (en) 2019-03-27 2020-03-23 Image processing system, image processing method, and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060441A JP2020162025A (ja) 2019-03-27 2019-03-27 画像処理システム、画像処理方法、および画像処理装置

Publications (2)

Publication Number Publication Date
JP2020162025A true JP2020162025A (ja) 2020-10-01
JP2020162025A5 JP2020162025A5 (ja) 2022-03-30

Family

ID=72606198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060441A Pending JP2020162025A (ja) 2019-03-27 2019-03-27 画像処理システム、画像処理方法、および画像処理装置

Country Status (2)

Country Link
US (1) US11436762B2 (ja)
JP (1) JP2020162025A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015346A (ja) * 2019-07-10 2021-02-12 キヤノン株式会社 情報処理方法、画像処理装置、及びプログラム
US11281144B2 (en) * 2020-08-21 2022-03-22 Toshiba Tec Kabushiki Kaisha Image forming apparatus and control method
US20230122449A1 (en) * 2021-10-18 2023-04-20 Tencent America LLC Substitutional quality factor learning in the latent space for neural image compression
CN114187604B (zh) * 2022-02-14 2022-05-17 山东信通电子股份有限公司 一种WebP图片的完整性校验方法、设备及介质
US11704518B1 (en) * 2022-05-17 2023-07-18 Amazon Technologies, Inc. Per-image print setting optimization

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0447470A (ja) * 1990-06-14 1992-02-17 Canon Inc ニューラルネットを用いた画像処理方式及び同方式を用いた画像処理装置
JPH06348840A (ja) * 1993-06-03 1994-12-22 Konica Corp 画像復元方法
JPH10283458A (ja) * 1997-04-04 1998-10-23 Minolta Co Ltd 画像処理装置
JP2009124443A (ja) * 2007-11-14 2009-06-04 Ricoh Co Ltd 画像処理装置及び画像処理方法
JP2013120951A (ja) * 2011-12-06 2013-06-17 Canon Inc 画像処理装置
JP2017038167A (ja) * 2015-08-07 2017-02-16 株式会社リコー 画像処理装置、画像処理方法及びプログラム
JP2018206382A (ja) * 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
JP2019008599A (ja) * 2017-06-26 2019-01-17 株式会社 Ngr 順伝播型ニューラルネットワークを用いた画像ノイズ低減方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7420699B2 (en) * 2003-12-22 2008-09-02 Xerox Corporation Systems and methods for rapid processing of raster intensive color documents
US8023161B2 (en) * 2004-02-26 2011-09-20 Sharp Laboratories Of America, Inc. Systems and methods for providing image data encapsulated in a page description language
JP2016127475A (ja) 2015-01-06 2016-07-11 株式会社リコー 画像処理システム、画像処理方法、及びプログラム
WO2017136083A1 (en) * 2016-02-05 2017-08-10 Google Inc. Compressing images using neural networks
US10579908B2 (en) * 2017-12-15 2020-03-03 Google Llc Machine-learning based technique for fast image enhancement
US10535141B2 (en) * 2018-02-06 2020-01-14 Google Llc Differentiable jaccard loss approximation for training an artificial neural network
US10839564B2 (en) * 2018-02-08 2020-11-17 Uber Technologies, Inc. Leveraging JPEG discrete cosine transform coefficients in neural networks

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0447470A (ja) * 1990-06-14 1992-02-17 Canon Inc ニューラルネットを用いた画像処理方式及び同方式を用いた画像処理装置
JPH06348840A (ja) * 1993-06-03 1994-12-22 Konica Corp 画像復元方法
JPH10283458A (ja) * 1997-04-04 1998-10-23 Minolta Co Ltd 画像処理装置
JP2009124443A (ja) * 2007-11-14 2009-06-04 Ricoh Co Ltd 画像処理装置及び画像処理方法
JP2013120951A (ja) * 2011-12-06 2013-06-17 Canon Inc 画像処理装置
JP2017038167A (ja) * 2015-08-07 2017-02-16 株式会社リコー 画像処理装置、画像処理方法及びプログラム
JP2018206382A (ja) * 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
JP2019008599A (ja) * 2017-06-26 2019-01-17 株式会社 Ngr 順伝播型ニューラルネットワークを用いた画像ノイズ低減方法

Also Published As

Publication number Publication date
US20200311982A1 (en) 2020-10-01
US11436762B2 (en) 2022-09-06

Similar Documents

Publication Publication Date Title
JP2020162025A (ja) 画像処理システム、画像処理方法、および画像処理装置
US9350901B2 (en) Image processing apparatus that is capable of two-color printing, control method therefor, and storage medium storing control program therefor
US8830492B2 (en) Data processing apparatus for sending a single job based on common document information
US9069514B2 (en) Image processing apparatus, including conversion process judging, connectable to server via network
CN101867673A (zh) 图像处理装置及图像处理方法
US8792150B2 (en) Method for storing a profile set, a computer readable recording medium stored with a profile set storage program, a profile set storage system, and a color conversion process device
JP2009048253A (ja) 画像形成システム及び画像形成方法
CN101562680B (zh) 图像形成装置和图像形成方法
JP2020140563A (ja) 画像処理システム、画像処理方法、および画像処理装置
US7447365B2 (en) Systems and methods for mixed raster conversion in direct printing
JP2009212841A (ja) 画像処理システム、画像処理装置、および画像処理方法
JP7338002B2 (ja) 画像処理装置および画像処理方法、およびプログラム
US9830541B2 (en) Image output system, image output method, document server, and non-transitory computer readable recording medium
US10116825B2 (en) Control server
JP5521986B2 (ja) 画像形成システム
US8384920B2 (en) Image processing apparatus and method, and program for implementing the method
JP4960796B2 (ja) 画像処理装置、画像処理方法ならびにそのプログラム及び記憶媒体
JP2008269325A (ja) 印刷装置及び印刷システム
JP2006203857A (ja) 画像編集装置、画像編集方法、画像形成装置及び画像形成装置の制御方法
JP2004266470A (ja) 画像処理装置及び画像処理方法
US8358445B2 (en) Image reading apparatus, control method therefor, and storage medium
US9001388B2 (en) Imaging forming apparatus to merge print data with a rendering image, method of image forming, and computer-readable recording medium
JP5038272B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6085973B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4377981B2 (ja) マルチファンクションシステム、入力機器及びその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230425