JP2022077874A - 情報処理装置及び情報処理プログラム - Google Patents
情報処理装置及び情報処理プログラム Download PDFInfo
- Publication number
- JP2022077874A JP2022077874A JP2020188931A JP2020188931A JP2022077874A JP 2022077874 A JP2022077874 A JP 2022077874A JP 2020188931 A JP2020188931 A JP 2020188931A JP 2020188931 A JP2020188931 A JP 2020188931A JP 2022077874 A JP2022077874 A JP 2022077874A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- glossy
- region
- pixel value
- glossy region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40062—Discrimination between different image types, e.g. two-tone, continuous tone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00005—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00037—Detecting, i.e. determining the occurrence of a predetermined state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/024—Details of scanning heads ; Means for illuminating the original
- H04N1/028—Details of scanning heads ; Means for illuminating the original for picture information pick-up
- H04N1/02815—Means for illuminating the original, not specific to a particular type of pick-up head
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/024—Details of scanning heads ; Means for illuminating the original
- H04N1/028—Details of scanning heads ; Means for illuminating the original for picture information pick-up
- H04N1/03—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40068—Modification of image resolution, i.e. determining the values of picture elements at new relative positions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10008—Still image; Photographic image from scanner, fax or copier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/10—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
- H04N1/1061—Details relating to flat picture-bearing surfaces, e.g. transparent platen
Abstract
【課題】読取画像データの光沢領域の画素値を変換する変換処理において、複数の読取環境における読取処理により生成された、互いに異なる量の正反射光を含む原稿からの反射光に基づく複数の読取画像データを用いることなく、読取画像データの光沢領域の光沢感を表現する。【解決手段】画素値変換学習器46は、光沢領域GRの光沢感が好適に表現されない画質の画像データの画質を、光沢領域GRの光沢感が好適に表現される画質の画像データに変換可能なように学習される。画素値変換処理部54は、画素値変換学習器46に対して、処理対象画像データ、及び、領域識別部52が検出した当該処理対象画像データの光沢領域GRを示す情報を入力することで、当該処理対象画像データの光沢領域GRの光沢感が好適に表現されるように、光沢領域GR内の画素の画素値を変換する。【選択図】図8
Description
本発明は、情報処理装置及び情報処理プログラムに関する。
従来、光源から原稿に対して光を照射し、原稿からの反射光を画像センサで受けて、当該原稿を表した読取画像データを生成する画像読取装置(スキャナ)が知られている。
原稿に対して光を照射した場合、原稿の表面特性(例えば光沢の有無など)に応じて、正反射光の光束が変動し得る。ここで、正反射光とは、反射角度が原稿への入射光の入射角度と同じとなる反射光である。また、光束とは、単位時間当たりの光量である。つまり、光量は光束の時間積分である。なお、光量は光のエネルギーと言い換えることができる。したがって、画像センサが正反射光を受けるように配置されている場合、原稿の表面特性に応じて、読取画像データの画質(例えば明度など)が変動してしまうという問題が生じ得る。一方、正反射光以外の反射光である(種々の反射角度で反射する)拡散反射光の光束は、原稿の表面特性に応じてあまり変動しない。
そこで、従来の画像読取装置においては、図15に示すように、原稿台PLに載置された原稿Scの入射位置Pに対して垂直方向へ反射する反射光を受けるように画像センサSeを配置させた上で、原稿Sc(具体的には入射位置P)への入射光Iの入射角が45°程度となるように光源Lが配置されているのが一般的となっている。これによれば、画像センサSeは、正反射光Rはほぼ受けず、破線で示された拡散反射光Dを主に受けることになるため、原稿Scの表面特性の違いによる読取画像データの画質の変動が抑制される。また、正反射光Rの光量が多いことから、正反射光Rに基づいて生成された読取画像データは画素の輝度値が高くなりすぎる(白んでしまう)などの画質の低下が生じ得るところ、主に拡散反射光Dに基づいて読取画像データを生成することで、高画質を実現できるという利点もある。
ところで、原稿には、光沢性の強い光沢部分が含まれている場合がある。光沢部分は、正反射率が所定反射率以上の部分であると定義することができる。正反射率とは、ある入射角で入射した光の光束に対する、当該入射角と同じ反射角で原稿表面から反射する光(すなわち正反射光)の光束の割合である。なお、正反射率は、鏡面反射率と呼ばれる場合もある。
つまり、光沢部分からの反射光は、正反射光の光束が多く、拡散反射光の光束が少ないと言える。したがって、従来一般的である、主に拡散反射光に基づいて読取画像データを生成する画像読取装置においては、光沢部分からは十分な量の拡散反射光を得ることができない。これにより、読取画像データにおいて、原稿の光沢部分に対応する光沢領域が暗くなってしまい、読取画像データにおいて原稿のような光沢感を表現することができないという問題があった。ここで、光沢感とは、人間が原稿の光沢部分を見たときに感じる質感に相当する質感を意味する。なお、本明細書では、上述のように、画像データにおける、原稿の「光沢部分」に対応する部分(画素群)を「光沢領域」と記載する。また、原稿の光沢部分以外の部分を「非光沢部分」と記載し、画像データにおける、原稿の「非光沢部分」に対応する部分(画素群)を「非光沢領域」と記載する。
当該問題を解決するため、従来、光沢部分を有する原稿を読み取って得られた読取画像データにおいて、光沢部分に対応する光沢領域の光沢感を表現するための技術が提案されている。
例えば特許文献1には、通常スキャンにより第1読取画像データを得て、光を乱反射させる反射光制御部材を光源と原稿の間に配置してスキャンを行うことにより第2読取画像データ(光沢領域の光沢感が表現されたもの)を得る画像読取装置が開示されている。当該画像読取装置においては、第1読取画像データと第2読取画像データに基づいて、原稿から光沢部分を検出した上で、読取画像データの光沢領域内にある画素については第2読取画像データを選択し、読取画像データの非光沢領域内にある画素については第1読取画像データから選択するという、第1読取画像データと第2読取画像データを合成する合成処理を行う。これにより、光沢領域の光沢感が表現された読取画像データを生成している。
また、例えば特許文献2には、1つの光源と、光源からの入射光に対する原稿からの反射光をそれぞれ異なる反射角度の方向にて受光可能なように配置された複数の画像センサとを含む画像読取装置が開示されている。当該画像読取装置においては、複数の画像センサによる読取値を比較することで、判定対象の画素が、光沢領域に含まれるか否かを判定した上で、光沢領域内の画素について適切な画像処理を行うことで、光沢領域において原稿の光沢部分と同等の光沢感を表現している。
従来、原稿を光学的に読み取って得られた読取画像データにおいて、原稿の光沢部分に対応する光沢領域の光沢感を表現するためには、複数の読取環境における読取処理により生成された複数の読取画像データを用いる必要があった。
本発明の目的は、読取画像データの光沢領域の画素値を変換する変換処理において、複数の読取環境における読取処理により生成された、互いに異なる量の正反射光を含む原稿からの反射光に基づく複数の読取画像データを用いることなく、読取画像データの光沢領域の光沢感を表現することにある。
請求項1に係る発明は、プロセッサを備え、前記プロセッサは、画像センサが取得する学習データ用の原稿からの正反射光の光量が正反射光量閾値未満となる第1読取環境にて当該原稿が光学的に読み取られて得られた、原稿の光沢部分に対応する光沢領域を含む第1読取画像データと、前記画像センサが取得する前記正反射光の光量が前記正反射光量閾値以上となる第2読取環境にて当該原稿が光学的に読み取られて得られた、前記光沢領域を含む第2読取画像データとを第1学習データとして用いて、前記第1読取画像データを前記第2読取画像データに変換するように学習された第1学習器に対して、前記第1読取環境にて処理対象の原稿を光学的に読み取ることで得られた処理対象画像データを入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、ことを特徴とする情報処理装置である。
請求項2に係る発明は、前記プロセッサは、学習済みの前記第1学習器に対して、前記処理対象画像データ及び前記処理対象画像データの前記光沢領域を示す情報を入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、ことを特徴とする請求項1に記載の情報処理装置である。
請求項3に係る発明は、前記光沢領域は、原稿が前記第1読取環境にて光学的に読み取られた画像データと、当該原稿が前記第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値以上となる領域であり、前記非光沢領域は、原稿が前記第1読取環境にて光学的に読み取られた画像データと、当該原稿が前記第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値未満となる領域である、ことを特徴とする請求項1又は2に記載の情報処理装置である。
請求項4に係る発明は、前記プロセッサは、前記光沢領域内の画素に第1ラベルが付され、前記非光沢部分内の画素に前記第1ラベルとは異なる第2ラベルが付された画像データを第2学習データとして学習された学習済みの第2学習器を用いて、前記処理対象画像データから前記光沢領域を検出する、ことを特徴とする請求項1又は2に記載の情報処理装置である。
請求項5に係る発明は、前記プロセッサは、前記処理対象画像データを第1分割位置にて分割して得られた第1分割領域群を順次前記第2学習器に入力したときの前記第2学習器の複数の出力に基づいて得られた第1仮光沢領域、及び、前記処理対象画像データを前記第1分割位置とは異なる第2分割位置にて分割して得られた第2分割領域群を順次前記第2学習器に入力したときの前記第2学習器の複数の出力に基づいて得られた第2仮光沢領域に基づいて、前記処理対象画像データから前記光沢領域を検出する、ことを特徴とする請求項4に記載の情報処理装置である。
請求項6に係る発明は、前記プロセッサは、さらに、前記処理対象画像データの解像度を下げた低解像度処理対象画像データを前記第2学習器に入力することで得られた第3仮光沢領域に基づいて、前記処理対象画像データから前記光沢領域を検出する、ことを特徴とする請求項5に記載の情報処理装置である。
請求項7に係る発明は、前記第2学習データとしての画像データは、前記光沢領域に含まれる画素であって前記第1ラベルが付与済みの画素と、前記非光沢領域に含まれる画素であって前記第2ラベルが付与済みの画素とを組み合わせることで生成された画像データである、ことを特徴とする請求項4から6のいずれか1項に記載の情報処理装置である。
請求項8に係る発明は、前記プロセッサは、前記第1読取画像データ、前記第2読取画像データ、及び、当該第2読取画像データの画質を示す付帯情報とを前記第1学習データとして用いて学習された前記第1学習器に対して、前記処理対象画像データ、及び、前記処理対象画像データの前記光沢領域の変換後の画質に関する利用者の指示情報をさらに前記第1学習器に入力することで、前記指示情報に応じて前記光沢領域内の画素の画素値を変換する、ことを特徴とする請求項1又は2に記載の情報処理装置である。
請求項9に係る発明は、前記プロセッサは、それぞれ異なる前記付帯情報を用いて学習された複数の前記第1学習器の中から、前記指示情報に応じて選択された前記第1学習器に、前記処理対象画像データを入力することで、前記光沢領域内の画素の画素値を変換する、ことを特徴とする請求項8に記載の情報処理装置である。
請求項10に係る発明は、コンピュータに、画像センサが取得する学習データ用の原稿からの正反射光の光量が正反射光量閾値未満となる第1読取環境にて当該原稿が光学的に読み取られて得られた、原稿の光沢部分に対応する光沢領域を含む第1読取画像データと、前記画像センサが取得する前記正反射光の光量が前記正反射光量閾値以上となる第2読取環境にて当該原稿が光学的に読み取られて得られた、前記光沢領域を含む第2読取画像データとを第1学習データとして用いて、前記第1読取画像データを前記第2読取画像データに変換するように学習された第1学習器に対して、前記第1読取環境にて処理対象の原稿を光学的に読み取ることで得られた処理対象画像データを入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、ことを特徴とする情報処理プログラムである。
請求項2に係る発明は、前記プロセッサは、学習済みの前記第1学習器に対して、前記処理対象画像データ及び前記処理対象画像データの前記光沢領域を示す情報を入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、ことを特徴とする請求項1に記載の情報処理装置である。
請求項3に係る発明は、前記光沢領域は、原稿が前記第1読取環境にて光学的に読み取られた画像データと、当該原稿が前記第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値以上となる領域であり、前記非光沢領域は、原稿が前記第1読取環境にて光学的に読み取られた画像データと、当該原稿が前記第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値未満となる領域である、ことを特徴とする請求項1又は2に記載の情報処理装置である。
請求項4に係る発明は、前記プロセッサは、前記光沢領域内の画素に第1ラベルが付され、前記非光沢部分内の画素に前記第1ラベルとは異なる第2ラベルが付された画像データを第2学習データとして学習された学習済みの第2学習器を用いて、前記処理対象画像データから前記光沢領域を検出する、ことを特徴とする請求項1又は2に記載の情報処理装置である。
請求項5に係る発明は、前記プロセッサは、前記処理対象画像データを第1分割位置にて分割して得られた第1分割領域群を順次前記第2学習器に入力したときの前記第2学習器の複数の出力に基づいて得られた第1仮光沢領域、及び、前記処理対象画像データを前記第1分割位置とは異なる第2分割位置にて分割して得られた第2分割領域群を順次前記第2学習器に入力したときの前記第2学習器の複数の出力に基づいて得られた第2仮光沢領域に基づいて、前記処理対象画像データから前記光沢領域を検出する、ことを特徴とする請求項4に記載の情報処理装置である。
請求項6に係る発明は、前記プロセッサは、さらに、前記処理対象画像データの解像度を下げた低解像度処理対象画像データを前記第2学習器に入力することで得られた第3仮光沢領域に基づいて、前記処理対象画像データから前記光沢領域を検出する、ことを特徴とする請求項5に記載の情報処理装置である。
請求項7に係る発明は、前記第2学習データとしての画像データは、前記光沢領域に含まれる画素であって前記第1ラベルが付与済みの画素と、前記非光沢領域に含まれる画素であって前記第2ラベルが付与済みの画素とを組み合わせることで生成された画像データである、ことを特徴とする請求項4から6のいずれか1項に記載の情報処理装置である。
請求項8に係る発明は、前記プロセッサは、前記第1読取画像データ、前記第2読取画像データ、及び、当該第2読取画像データの画質を示す付帯情報とを前記第1学習データとして用いて学習された前記第1学習器に対して、前記処理対象画像データ、及び、前記処理対象画像データの前記光沢領域の変換後の画質に関する利用者の指示情報をさらに前記第1学習器に入力することで、前記指示情報に応じて前記光沢領域内の画素の画素値を変換する、ことを特徴とする請求項1又は2に記載の情報処理装置である。
請求項9に係る発明は、前記プロセッサは、それぞれ異なる前記付帯情報を用いて学習された複数の前記第1学習器の中から、前記指示情報に応じて選択された前記第1学習器に、前記処理対象画像データを入力することで、前記光沢領域内の画素の画素値を変換する、ことを特徴とする請求項8に記載の情報処理装置である。
請求項10に係る発明は、コンピュータに、画像センサが取得する学習データ用の原稿からの正反射光の光量が正反射光量閾値未満となる第1読取環境にて当該原稿が光学的に読み取られて得られた、原稿の光沢部分に対応する光沢領域を含む第1読取画像データと、前記画像センサが取得する前記正反射光の光量が前記正反射光量閾値以上となる第2読取環境にて当該原稿が光学的に読み取られて得られた、前記光沢領域を含む第2読取画像データとを第1学習データとして用いて、前記第1読取画像データを前記第2読取画像データに変換するように学習された第1学習器に対して、前記第1読取環境にて処理対象の原稿を光学的に読み取ることで得られた処理対象画像データを入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、ことを特徴とする情報処理プログラムである。
請求項1~3又は10に係る発明によれば、読取画像データの光沢領域の画素値を変換する変換処理において、複数の読取環境における読取処理により生成された、互いに異なる量の正反射光を含む原稿からの反射光に基づく複数の読取画像データを用いることなく、読取画像データの光沢領域の光沢感を表現することができる。
請求項4に係る発明によれば、学習済みの第2学習器により、処理対象画像データから光沢領域を検出することができる。
請求項5に係る発明によれば、処理対象画像データを分割して学習済みの第2学習器に入力する場合に、1つの分割画像データ群を学習済みの第2学習器に入力した場合に比して、処理対象画像データから高精度に光沢領域を検出することができる。
請求項6に係る発明によれば、請求項4に係る発明に比して、処理対象画像データからさらに高精度に光沢領域を検出することができる。
請求項7に係る発明によれば、第2学習データを簡単に作成することができる。
請求項8に係る発明によれば、読取画像データの光沢領域において、利用者からの指示情報に応じた光沢感を表現することができる。
請求項9に係る発明によれば、1つの第1学習器が指示情報に応じて光沢領域内の画素の画素値を変換する場合に比して、高速に光沢領域内の画素の画素値を指示情報に応じて変換することができる。
請求項4に係る発明によれば、学習済みの第2学習器により、処理対象画像データから光沢領域を検出することができる。
請求項5に係る発明によれば、処理対象画像データを分割して学習済みの第2学習器に入力する場合に、1つの分割画像データ群を学習済みの第2学習器に入力した場合に比して、処理対象画像データから高精度に光沢領域を検出することができる。
請求項6に係る発明によれば、請求項4に係る発明に比して、処理対象画像データからさらに高精度に光沢領域を検出することができる。
請求項7に係る発明によれば、第2学習データを簡単に作成することができる。
請求項8に係る発明によれば、読取画像データの光沢領域において、利用者からの指示情報に応じた光沢感を表現することができる。
請求項9に係る発明によれば、1つの第1学習器が指示情報に応じて光沢領域内の画素の画素値を変換する場合に比して、高速に光沢領域内の画素の画素値を指示情報に応じて変換することができる。
図1は、本実施形態に係る情報処理システム10の構成概略図である。情報処理システム10は、学習データ取得用スキャナ12、一般スキャナ14、及び情報処理装置16を含んで構成される。
学習データ取得用スキャナ12は、紙媒体などの原稿を光学的に読み取って、当該原稿を表した読取画像データを取得する画像読取装置である。学習データ取得用スキャナ12としては、光学的な読取処理(すなわちスキャン処理)を実行可能であり、以下に説明する構造を有している限りにおいてどのような装置であってもよい。例えば、スキャナ、スキャン機能を有する複合機などであってよい。後述するように、情報処理装置16は学習器を備えており、学習データ取得用スキャナ12は、専ら、当該学習器を学習させるための学習データとしての読取画像データを取得するために用いられる。なお、図1には、1つの学習データ取得用スキャナ12が示されているが、情報処理システム10は、複数の学習データ取得用スキャナ12を有していてもよい。
図2は、学習データ取得用スキャナ12が読み取る、学習データ用の原稿ScLの例を示す図である。学習データ取得用スキャナ12が読み取る原稿ScLは、光沢性の強い光沢部分Gと、光沢部分以外の非光沢部分NGを含んでいる。なお、本願に係る図面において、原稿上の光沢部分G、及び、読取画像データ上の光沢感が表現されている光沢領域を網掛けで表すこととする。上述の通り、光沢部分Gの定義の1つとしては、正反射率が所定反射率以上の部分である。一方、非光沢部分NGは、正反射率が所定反射率未満の部分であると言える。学習データ用の原稿ScLとしては、1枚の原稿ScLに光沢部分Gと非光沢部分NGとが混在しているものであってもよいし、全面が光沢部分G又は全面が非光沢部分NGであるものであってもよい。学習データ取得用スキャナ12が複数の原稿ScLを読み取ることで、複数の読取画像データにおいて光沢領域と非光沢領域の両方が含まれるようにすればよい。このような複数の読取画像データが、後述の学習器を学習させるための学習データとなる。
学習データ取得用スキャナ12は、互いに異なる読取環境である第1読取環境及び第2読取環境にて、原稿ScLを読み取って読取画像データを生成することができる。本明細書では、第1読取環境で生成された読取画像データを第1読取画像データと呼び、第2読取環境で生成された読取画像データを第2読取画像データと呼ぶ。第1読取環境及び第2読取環境の詳細については後述するが、第1読取環境とは、従来の一般的な画像読取装置と同等の読取環境である。第1読取環境により取得された第1読取画像読取データは、非光沢領域が好適に表現されているが、光沢領域の光沢感が好適に表現されていない画像データである。一方、第2読取環境により取得された第2読取画像読取データは、光沢領域の光沢感が好適に表現されているが、非光沢領域については、輝度が高すぎるなど、好適に表現されていない画像データである。学習データ取得用スキャナ12は、第1読取画像データ及び第2読取画像データを情報処理装置16に送信する。
図3は、学習データ取得用スキャナ12の構造を示す概略図である。学習データ取得用スキャナ12は、原稿台20、第1光源22a、第2光源22b、及び画像センサ24を含んで構成される。
原稿台20は、光透過性の物質例えばガラスなどで形成され、水平面に延びるように配置された板状の部材である。原稿台20には学習データ用の原稿ScLが載置される。
第1光源22a及び第2光源22bは、それぞれ、例えば白色蛍光ランプなどの発光素子が水平方向(図2及び図3の例では紙面の奥行方向)に並んだ発光素子アレイで形成される。第1光源22a及び第2光源22bは、原稿台20の下部に設けられ、原稿ScLの表面(下側面)に向けて光を照射する。なお、1回のスキャン処理において第1光源22a及び第2光源22bは同時には発光せず、いずれか一方の光源のみが発光するようになっている。
画像センサ24は、例えばCCD(Charge-Coupled Device)イメージセンサなどの光を電子信号に変換する撮像素子が、水平方向、具体的には発光素子の並び方向と同じ方向(図2及び図3の例では紙面の奥行方向)に並んだ撮像素子アレイで構成される。画像センサ24は、第1光源22a又は第2光源22bから原稿ScLへ照射された光の原稿ScLの表面(下側面)からの反射光を受けるものである。画像センサ24も原稿台20の下部に設けられる。特に、画像センサ24は、原稿ScLのうち、第1光源22a及び第2光源22bからの光が入射する入射位置Pの真下に配置される。また、画像センサ24は、原稿台20(すなわち原稿台20に載置された原稿ScL)と平行に設けられる。これにより、画像センサ24は、原稿ScLの入射位置Pから垂直方向へ進む反射光を受けるようになっている。なお、図3では、画像センサ24が原稿ScLからの反射光を直接受けるように示されているが、原稿ScLから画像センサ24までの反射光の光路の途中に、反射光をさらに反射してその進行方向を変換する複数のミラー、あるいはレンズが設けられていてもよい。複数のミラーやレンズが設けられている場合であっても、画像センサ24が原稿ScLに対して垂直方向へ進む反射光を受けることには変わりはない。
第1光源22a、第2光源22b、及び画像センサ24は、原稿ScLのスキャン処理にあたって、一体となって、発光素子及び撮像素子の並び方向と垂直な水平方向(図3の例では左右方向)に移動する。これにより、入射位置Pが走査され、画像センサ24は、原稿ScLの各部分からの反射光を受けることとなる。学習データ取得用スキャナ12は、画像センサ24が受けた反射光に基づいて、原稿ScLを表す読取画像データを生成する。
引き続き図3を参照し、第1読取環境としての、第1光源22aを用いたスキャン処理について説明する。第1光源22aは、第1光源22aから照射される入射光Iの進行方向と、原稿台20に載置された原稿ScLに対する垂直方向(図3の一点鎖線で示される方向)とがなす角である入射角が45°となるように配置される。これにより、原稿ScLの表面(具体的には入射位置P)から反射した正反射光Rの反射角度(原稿台20に載置された原稿ScLに対する垂直方向との成す角)も45°となる。したがって、原稿ScL上の入射光Iの入射位置Pから垂直方向へ進む反射光を受けるように配置されている画像センサ24は、第1光源22aからの光の正反射光Rをほぼ受けないようになっている。換言すれば、第1光源22aを用いたスキャン処理においては、画像センサ24が取得する原稿ScLからの正反射光Rの光量が所定の正反射光量閾値未満であると言える。
一方、図3において破線で示されている、第1光源22aからの光の拡散反射光Dは、原稿ScL上の入射位置Pから種々の反射角度で反射する。したがって、画像センサ24は、第1光源22aからの光の拡散反射光Dを多く(少なくとも正反射光Rの光量よりも多い光量を)受けることになる。
図4は、第1光源22aを用いたスキャン処理により図2に示す原稿ScLを読み取ることで生成された第1読取画像データSIaの例を示す図である。第1光源22aを用いたスキャン処理においては、主に拡散反射光Dに基づいて第1読取画像データSIaが生成される。したがって、上述の通り、第1読取画像データSIaにおいては、原稿ScLの表面特性の違いによる第1読取画像データSIaの画質の変動が抑制されると共に、原稿ScLの非光沢部分NGに対応する非光沢領域NGRを高画質(例えば非光沢領域NGRの画素の輝度、明度、彩度が非光沢部分NGを表現するのに適した値)となっている。一方、原稿ScLの光沢部分Gからの反射光は正反射光Rの光量が多く、拡散反射光Dの光量が少ないため、第1読取画像データSIaにおいては、原稿ScLの光沢部分Gからは十分な量の拡散反射光Dを得ることができない。したがって、原稿ScLの光沢部分Gに対応する光沢領域GRが暗くなってしまい、光沢領域GRの光沢感が好適に表現されていない。特に、光沢領域GRの画素の明度がかなり低くなってしまう。図4においては、光沢領域GRが黒で塗られていることでそれが表現されている。
図3と図15を比較して分かる通り、第1読取環境は、図15を用いて説明した従来の画像読取装置におけるスキャン処理の読取環境と同等であると言える。
なお、本実施形態では、第1読取環境として、原稿ScLの入射光Iの入射位置Pから垂直方向へ進む反射光を受けるように画像センサ24を配置した上で、第1光源22aからの入射光Iの入射角度を45°としていたが、画像センサ24が取得する原稿ScLからの正反射光Rの光量が所定の正反射光量閾値未満となる限りにおいて、第1光源22aからの入射光Iの入射角度及び画像センサ24の配置位置は、それには限られない。
次に、図5を参照し、第2読取環境としての、第2光源22bを用いたスキャン処理について説明する。第2光源22bは、第2光源22bから照射される入射光Iの進行方向と、原稿台20に載置された、学習データ用の原稿ScLに対する垂直方向(図5の一点鎖線で示される方向)とがなす角である入射角が5°となるように配置される。これにより、原稿ScLの表面(具体的には入射位置P)から反射した正反射光Rの反射角度(原稿台20に載置された原稿ScLに対する垂直方向との成す角)も5°となる。したがって、原稿ScL上の入射光Iの入射位置Pから垂直方向へ進む反射光を受けるように配置されている画像センサ24は、第1光源22aからの光の正反射光Rを受けることができるようになっている。換言すれば、第2光源22bを用いたスキャン処理においては、画像センサ24が取得する原稿ScLからの正反射光Rの光量が所定の正反射光量閾値以上であると言える。少なくとも、第2光源22bを用いたスキャン処理においては、画像センサ24が取得する原稿ScLからの正反射光Rの光量が、第1光源22aを用いたスキャン処理の場合に比して多くなっている。
図6は、第2光源22bを用いたスキャン処理により図2に示す原稿ScLを読み取ることで生成された第2読取画像データSIbの例を示す図である。第2光源22bを用いたスキャン処理においては、画像センサ24は、正反射光R及び拡散反射光Dに基づいて、第2読取画像データSIbを生成する。しかし、正反射光Rの光量は、拡散反射光Dの光量に比してかなり大きいため、画像センサ24は、主に正反射光Rに基づいて第2読取画像データSIbを生成すると言える。したがって、第2読取画像データSIbにおいては、原稿ScLの光沢部分Gに対応する光沢領域GRの光沢感が、少なくとも第1読取画像データSIaよりも良く表現されている。すなわち、光沢部分Gからは大きな光量の正反射光Rが反射され、画像センサ24はそれを受けているから、光沢領域GRの画素の明度がかなり高くなる。これが光沢感が好適に表現される一因である。なお、光沢感が良く表現されるには、画素の明度のみならず、彩度や色相なども関連していると考えられる。いずれにしろ、光沢領域GRの光沢感が好適に表現される要因は、画像センサ24が、主に原稿ScLからの正反射光Rに基づいて第2読取画像データSIbを生成しているからである。一方、第2読取画像データSIbにおいては、原稿ScLの非光沢部分NGからは過剰な光量の反射光を得てしまうため、原稿ScLの非光沢部分NGに対応する非光沢領域NGRが白んでしまい、非光沢領域NGRの画質が第1読取画像データSIaよりも良くない(例えば非光沢領域NGRの画素の明度が高すぎるなど)ものとなっている。
なお、本実施形態では、第2読取環境として、原稿ScLの入射光Iの入射位置Pから垂直方向へ進む反射光を受けるように画像センサ24を配置した上で、第2光源22bからの入射光Iの入射角度を5°としていたが、画像センサ24が取得する原稿ScLからの正反射光Rの光量が所定の正反射光量閾値以上となる限り、あるいは、画像センサ24が取得する原稿ScLからの正反射光Rの光量が第1読取環境以上となる限りにおいて、第2光源22bからの入射光Iの入射角度及び画像センサ24の配置位置は、それには限られない。
第1読取環境で取得した画像データ(例えば第1読取画像データSIa)の光沢領域GRと、第2読取環境で取得した画像データ(例えば第2読取画像データSIb)の光沢領域GRとの間においては、対応する画素の画素値(例えば明度)がかなり異なることになる。第1読取環境で取得した画像データの非光沢領域NGRと、第2読取環境で取得した画像データの非光沢領域NGRとの間においても、対応する画素の画素値が異なっているが、第1読取環境で取得した画像データと第2読取環境で取得した画像データとの間における対応する画素値の差異は、非光沢領域NGRに比して光沢領域GRの方がかなり大きい。したがって、光沢領域GRにおいては、原稿が第1読取環境にて光学的に読み取られた画像データと、当該原稿が第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値以上となると言える。ここで、画素値閾値は、同一の原稿に対する第1読取環境で取得した画像データの非光沢領域NGRと第2読取環境で取得した画像データの非光沢領域NGRとの間の画素値の差よりも大きく、同一の原稿に対する第1読取環境で取得した画像データの光沢領域GRと第2読取環境で取得した画像データの光沢領域GRとの間の画素値の差よりも小さい値に設定される。一方、非光沢領域NGRにおいては、原稿が第1読取環境にて光学的に読み取られた画像データと、当該原稿が第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値未満となると言える。
図1に戻り、一般スキャナ14は、学習データ取得用スキャナ12同様、紙媒体などの原稿を光学的に読み取って、当該原稿を表した読取画像データを取得する画像読取装置である。一般スキャナ14は、ユーザによりセットされた処理対象の原稿をスキャンして、読取画像データである処理対象画像データを情報処理装置16に送信する。特に、一般スキャナ14は、第1読取環境にてスキャン処理を実行するものである。すなわち、一般スキャナ14は、従来一般的に用いられていた画像読取装置(図15参照)と同等であってよい。一般スキャナ14としては、第1読取環境にてスキャン処理を実行可能である限りにおいてどのような装置であってもよい。例えば、スキャナ、スキャン機能を有する複合機などであってよい。なお、図1には、1つの一般スキャナ14が示されているが、情報処理システム10は、複数のユーザが使用する複数の一般スキャナ14を有していてもよい。
一般スキャナ14は、入力インターフェース14a及びディスプレイ14bを備えている。入力インターフェース14aは、例えばボタンやタッチパネルなどを含んで構成される。入力インターフェース14aは、利用者(ユーザ)からの指示を一般スキャナ14に入力するために用いられる。ディスプレイ14bは、例えば液晶ディスプレイなどを含んで構成される。ディスプレイ14bには、種々の情報を含む種々の画面が表示される。例えば、ディスプレイ14bには、情報処理装置16にて処理済みの画像データが表示される。
図7は、一般スキャナ14の構造を示す概略図である。一般スキャナ14は、原稿台30、光源32、及び画像センサ34を含んで構成される。原稿台30、光源32、及び画像センサ34は、それぞれ学習データ取得用スキャナ12の原稿台20、第1光源22a、及び画像センサ24と同等の物であるため、詳細な説明は省略する。なお、本明細書では、一般スキャナ14が読み取る原稿を処理対象の原稿ScTと呼び、一般スキャナ14が原稿ScTを読み取って生成した読取画像データを処理対象画像データと呼ぶ。
上述の通り、一般スキャナ14は、従来の画像読取装置と同等であってよい(図15も併せて参照)。つまり、光源32は、光源32から照射される入射光Iの進行方向と、原稿台30に載置された原稿ScTに対する垂直方向(図7の一点鎖線で示される方向)とがなす角である入射角が45°となるように配置される。これにより、原稿ScTの表面(具体的には入射位置P)から反射した正反射光Rの反射角度(原稿台30に載置された原稿ScTに対する垂直方向との成す角)も45°となる。したがって、原稿ScT上の入射光Iの入射位置Pから垂直方向へ進む反射光を受けるように配置されている画像センサ34は、光源32からの光の正反射光Rをほぼ受けないようになっている。一方、画像センサ34は、図7において破線で示されている、光源32からの光の拡散反射光Dを多く(少なくとも正反射光Rの光量よりも多い光量を)受けるようになっている。
すなわち、一般スキャナ14は、第1読取環境にて原稿ScTをスキャン処理するようになっている。したがって、一般スキャナ14により読み取られた処理対象画像データは、図4に示した第1読取画像データSIa同様、非光沢領域NGRは好適に表現されているが、光沢領域GRの光沢感が好適に表現されていないものとなる。
図8は、情報処理装置16の構成概略図である。本実施形態では、情報処理装置16はサーバコンピュータであるが、情報処理装置16として、以下に説明する学習器を用いて、処理対象画像データの光沢領域GRの光沢感を表現する処理を実行可能な限りにおいてどのような装置であってもよい。例えば、情報処理装置16は、パーソナルコンピュータなどであってもよい。また、情報処理装置16が発揮する機能は、複数のコンピュータが協働することで実現されるようにしてもよい。
通信インターフェース40は、例えばネットワークアダプタなどを含んで構成される。通信インターフェース40は、他の装置、例えば、学習データ取得用スキャナ12及び一般スキャナ14と通信する機能を発揮する。例えば、通信インターフェース40は、学習データ取得用スキャナ12から、第1読取画像データSIa及び第2読取画像データSIbを受信し、一般スキャナ14から処理対象画像データを受信する。また、通信インターフェース40は、ユーザが一般スキャナ14に入力した指示を示す指示情報(詳細後述)を一般スキャナ14から受信する。さらに、通信インターフェース40は、処理済みの処理対象画像データを一般スキャナ14又はユーザが使用するユーザ端末に送信する。
メモリ42は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)、ROM(Read Only Memory)、あるいはRAM(Random Access Memory)などを含んで構成されている。メモリ42は、後述のプロセッサ48とは別に設けられてもよいし、少なくとも一部がプロセッサ48の内部に設けられていてもよい。メモリ42には、情報処理装置16の各部を動作させるための情報処理プログラムが記憶される。また、図8に示す通り、メモリ42には、領域識別学習器44及び画素値変換学習器46が記憶される。
第2学習器としての領域識別学習器44は、第2学習データを用いて十分に学習されることによって、一般スキャナ14によって生成された処理対象画像データにおいて、光沢領域GRと非光沢領域NGRを識別することができるようになる学習器である。領域識別学習器44としては、例えば、Vijay Badrinarayananらによって提案されたSegNet(https://arxiv.org/abs/1511.00561)を用いることができる。SegNetは、画素毎に当該画素の特徴を示すラベルが付された画像データを学習データとして用いて学習することで、入力画像データの各画素に対して当該画素の特徴を示すラベルを付すものである。本実施形態に当てはめると、SegNetは、各画素に、光沢領域GR内の画素であるか非光沢領域NGR内の画素であるかを示すラベルが付された画像データを第2学習データとして用いて学習することで、入力画像データの各画素を光沢領域GRの画素であるか、非光沢領域NGRの画素であるかを識別することができるようになる。
図9は、領域識別学習器44の構造の例を示す概念図である。領域識別学習器44は、複数の層から構成されるニューラルネットワーク、より詳しくは畳み込みニューラルネットワークである。領域識別学習器44は、複数の層から構成され、入力画像データが有する各画素の画素値に基づいて、入力画像データの内容の特徴を抽出するエンコーダ44aと、同じく複数の層から構成され、抽出された特徴に基づいて、当該入力画像データの各画素にラベルを付すデコーダ44bから構成される。
エンコーダ44aは、複数の畳み込み層44cとプーリング層44dとの組み合わせが複数並べられて構成されている。畳み込み層44cは、入力画像データに対してフィルタ処理を施すことで、当該フィルタに規定された特徴を入力画像データから抽出して特徴マップを生成する処理を行う。プーリング層44dは、畳み込み層44cが生成した特徴マップをダウンサンプリング(画素数を縮小)する処理を行う。ここでは、プーリング層44dは、特徴マップの2×2の4画素の画素値のうちの最大値を抽出して1画素とすることで、画素数を1/4にするダウンサンプリングを行う。ここで、プーリング層44dは、4画素のうち、どの画素の画素値を抽出したかを示すpooling indicesという情報を保持しておく。
デコーダ44bは、アップサンプリング層44eと複数の畳み込み層44fとの組み合わせが複数並べられ、最終出力段にソフトマックス層44gを含んで構成されている。アップサンプリング層44eは、プーリング層44dで縮小された特徴マップを拡大する処理を行う。ここでは、アップサンプリング層44eは、縮小された特徴マップの1画素を2×2の4画素に拡大する。ここで、アップサンプリング層44eは、対応するプーリング層44dから上述のpooling indicesを受け取り、4画素のうちのpooling indicesが示す位置に、縮小された特徴マップの1画素の画素値を配置する。畳み込み層44fは、アップサンプリング層44eにより拡大された特徴マップの空白画素(本例では、4画素のうち、アップサンプリング層44eによって画素値が配置された画素以外の3画素)に対して画素値を補填する処理を行う。ソフトマックス層44gは、最終段の畳み込み層44fにより得られた特徴マップに基づいて、入力された画像データの各画素について、各ラベルである確率を出力するものである。各画素に対して、確率が最大であるラベルを付すならば、ソフトマックス層44gにより、入力された画像データの各画素にラベルが付されることとなる。
領域識別学習器44の学習方法については、プロセッサ48の処理と共に後述する。
第1学習器としての画素値変換学習器46は、第1学習データを用いて十分に学習されることによって、一般スキャナ14によって生成された処理対象画像データ(すなわち、第1読取画像データSIa(図4参照)相当の画質の画像データ)を、第2読取画像データSIb(図6参照)相当の画質の画像データに変換する、すなわち各画素の画素値を変換することができるようになる学習器である。上述の通り、第2読取画像データSIbは、第1読取画像データSIaに比して光沢領域GRの光沢感がより好適に表現された画像データであるから、光沢領域GRについてのみ着目すれば、学習済みの画素値変換学習器46は、処理対象画像データの光沢領域GRの光沢感がより好適に表現されるように、光沢領域GR内の画素の画素値を変換することができると言える。
画素値変換学習器46としては、例えば、Phillip Isolaらによって提案されたImage-to-Image Translation with Conditional Adversarial Networks(https://arxiv.org/pdf/1611.07004.pdf)を用いることができる。Image-to-Image Translation with Conditional Adversarial Networksは、第1画像データと第2画像データのペアを学習データとして用いて、当該第1画像データが有する第1特徴と第2画像データが有する第2特徴との関係性を学習することで、第1特徴を有する入力画像データを第2特徴を有する画像データに変換し、あるいは、第2特徴を有する入力画像データを第1特徴を有する画像データに変換するものである。本実施形態に当てはめると、Image-to-Image Translation with Conditional Adversarial Networksによれば、学習データ取得用スキャナ12が取得した、光沢領域GRの光沢感が好適に表現されない画質という特徴を有する第1読取画像データSIaと、光沢領域GRの光沢感が好適に表現された画質という特徴を有する第2読取画像データSIbとを第1学習データとして学習することで、光沢領域GRの光沢感が好適に表現されない画質の入力画像データを、光沢領域GRの光沢感が好適に表現された画質の画像データに変換することができる。
図10は、画素値変換学習器46の構造の例を示す概念図である。画素値変換学習器46は、GAN(Generative Adversarial Networks;敵対的生成ネットワーク)を含んで構成される。すなわち、画素値変換学習器46は、入力画像データに基づいて生成画像データを生成するジェネレータ46aと、生成画像データと真の画像データとのいずれがジェネレータ46aにより生成された画像データであるかを判定するディスクリミネータ46bを含んで構成される。ジェネレータ46aは、ディスクリミネータ46bを騙すことができるような(すなわちディスクリミネータ46bに生成画像データがジェネレータ46aにより生成されたものであると判定されないような)生成画像データを生成するように学習される。一方、ディスクリミネータ46bは、より高精度に判定ができるように学習される。
画素値変換学習器46の学習方法についても、プロセッサ48の処理と共に後述する。
図8に戻り、プロセッサ48は、広義的な処理装置を指し、汎用的な処理装置(例えばCPU(Central Processing Unit)など)、及び、専用の処理装置(例えばGPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、あるいは、プログラマブル論理デバイスなど)の少なくとも1つを含んで構成される。プロセッサ48としては、1つの処理装置によるものではなく、物理的に離れた位置に存在する複数の処理装置の協働により構成されるものであってもよい。図8に示す通り、プロセッサ48は、メモリ42に記憶された情報処理プログラムにより、学習処理部50、領域識別部52、及び画素値変換処理部54としての機能を発揮する。
学習処理部50は、第2学習データを用いて、処理対象画像データから光沢領域GRを検出可能となるように領域識別学習器44を学習させる。本実施形態では、光沢領域GR内の画素に、当該画素が光沢領域GR内の画素であることを示す第1ラベルが付され、非光沢領域NGR内の画素に、当該画素が非光沢領域NGR内の画素であることを示す、第1ラベルとは異なる第2ラベルが付された画像データを第2学習データとして用いる。
第2学習データとしては、学習データ取得用スキャナ12が取得した第1読取画像データSIa又は第2読取画像データSIbを用いることができる。ただし、第1読取画像データSIa及び第2読取画像データSIbには、各画素に第1ラベル又は第2ラベルが付されていないため、別途の手段にて(例えば人間の手で)、第1読取画像データSIa又は第2読取画像データSIbの各画素に第1ラベル又は第2ラベルを付す必要がある。
また、第1読取画像データSIa又は第2読取画像データSIbに第1ラベル又は第2ラベルを付す手間を省くために、第2学習データとして、光沢領域GRに含まれる画素であって第1ラベルが付与済みの画素と、非光沢領域NGRに含まれる画素であって第2ラベルが付与済みの画素とを組み合わせることで生成された画像データを用いるようにしてもよい。
例えば、まず、全面が(すなわち全画素が)光沢領域GRであって全画素に第1ラベルが付与された全面光沢画像データと、全面が非光沢領域NGRであって全画素に第2ラベルが付与された全面非光沢画像データとを用意する。その上で、全面非光沢画像データの一部の領域を、全面光沢画像データの画素に置換する。これにより、図11に示すように、第1ラベルが付された画素からなる光沢領域GRと第2ラベルが付された画素からなる非光沢領域NGRとを含む第2学習データを得ることができる。または、全面光沢画像データの一部の領域を、全面非光沢画像データの画素に置換することで、第2学習データを得るようにしてもよい。また、置換する領域の位置や大きさを種々に変えることで、種々の第2学習データを得ることができる。当該置換処理は人間の手で行うにしても、このように第2学習データを用意することで、少なくとも第2学習データとしての画像データの全画素に逐一ラベルを付す場合に比して、簡単に第2学習データを得ることができる。
学習処理部50が第2学習データを用いて領域識別学習器44を学習させることで、十分に学習済みの領域識別学習器44は、処理対象画像データにおいて光沢領域GRには第1ラベルを、非光沢領域NGRには第2ラベルを付すことができるようになる。すなわち、処理対象画像データにおいて光沢領域GRを検出することができるようになる。
また、学習処理部50は、学習データ取得用スキャナ12が生成した第1読取画像データSIa及び第2読取画像データSIbを含む第1学習データを用いて、第1読取画像データSIaを第2読取画像データSIbに変換するように、具体的には、第1読取画像データSIaの画質を第2読取画像データSIbの画質に変換可能となるように画素値変換学習器46を学習させる。図10を参照して具体的に説明する。まず、学習処理部50は、ジェネレータ46aに第1読取画像データSIaを入力する。ジェネレータ46aは、第1読取画像データSIaの各画素の画素値が変換された生成画像データを生成する。ディスクリミネータ46bは、学習処理部50により入力された、真の画像データとしての第2読取画像データSIbと、生成画像データとを比較して、生成画像データと第2読取画像データSIbとのいずれがジェネレータ46aにより生成された画像データであるかを判定する。ディスクリミネータ46bの判定結果に基づいて、ジェネレータ46a及びディスクリミネータ46bのパラメータが更新される(すなわち学習される)。これにより、ディスクリミネータ46bは、その識別精度が向上するように学習されると共に、ジェネレータ46aは、生成画像データの画質がより第2読取画像データSIbに近づくように、つまり、第1読取画像データSIaから本物により近い第2読取画像データSIbを得ることができるように、第1読取画像データSIaの各画素の画素値を変換することができるように学習される。
学習処理部50が第1学習データを用いて画素値変換学習器46を学習させることで、十分に学習済みの画素値変換学習器46は、第1読取環境で取得された処理対象画像データの画質を、第2読取環境で取得された画像データの画質相当に変換することができるようになる。特に、処理対象画像データの光沢領域GRに着目すれば、学習済みの画素値変換学習器46は、処理対象画像データの光沢領域GRの光沢感がより好適に表現されるように、光沢領域GR内の画素の画素値を変換することができるようになる。
また、学習処理部50は、第1読取画像データSIa、第2読取画像データSIbに加え、当該第2読取画像データSIbの画質を示す付帯情報を含む第1学習データを用いて、画素値変換学習器46を学習させるようにしてもよい。付帯情報には、例えば、第2読取画像データSIbの色味や明るさなどを示す情報を含めることができる。付帯情報は、第2読取画像データSIbの光沢領域GRの光沢感の程度を示す情報であると言うこともできる。
学習処理部50は、第1読取画像データSIaと共に付帯情報をジェネレータ46aに入力する。ジェネレータ46aは、付帯情報を考慮して生成画像データを生成すると共に、当該生成画像データに対するディスクリミネータ46bの判定結果に基づいて、付帯情報と第2読取画像データSIbとの関係を学習することができる。これにより、ジェネレータ46aは、ユーザからの画質に関する指示に応じた画質の生成画像データを生成可能となる。
また、学習処理部50は、付帯情報毎に、それぞれ異なる画素値変換学習器46を学習させるようにしてもよい。例えば、付帯情報「明るめ」を含む第1学習データを用いて第1の画素値変換学習器46を学習させ、付帯情報「暗め」を含む第1学習データを用いて第2の画素値変換学習器46を学習させる、の如くである。これによれば、付帯情報に応じた複数の学習済み画素値変換学習器46が形成される。互いに異なる付帯情報毎に複数の画素値変換学習器46をそれぞれ学習させることで、各画素値変換学習器46は、当該付帯情報専門のものとなるため、1つの画素値変換学習器46を複数の付帯情報に対応可能なように学習させる場合に比して、学習効率を向上させることができる。
図8に戻り、領域識別部52は、一般スキャナ14が生成した処理対象画像データから、処理対象の原稿ScTの光沢部分Gに対応する光沢領域GRを検出する検出処理を行う。なお、以後の説明においては、処理対象の原稿ScTは図12に示すものであるとする。すなわち、以後の説明における処理対象の原稿ScTは、光沢部分Gと非光沢部分NGの両方を含むものであるとする。なお、処理対象の原稿ScTとしては、全面が光沢部分Gのものであってもよい。
本実施形態では、領域識別部52は、学習済みの領域識別学習器44を用いて、処理対象画像データから光沢領域GRを検出する。具体的には、領域識別部52は、学習済みの領域識別学習器44に処理対象画像データを入力し、領域識別学習器44が第1ラベルを付した画素の集合体を光沢領域GRとして検出する。
なお、領域識別部52は、領域識別学習器44を用いた方法以外の方法で処理対象画像データから光沢領域GRを検出するようにしてもよい。例えば、ユーザが処理対象画像データにおいて手動で光沢領域GRを特定し、領域識別部52は、ユーザによって特定された領域を光沢領域GRとするようにしてもよい。
領域識別学習器44の構造上の制約により、領域識別学習器44に入力可能な画像データのサイズの上限値(例えば512×512ピクセル)が定められている場合がある。したがって、処理対象画像データのサイズによっては、処理対象画像データの全体を一度に領域識別学習器44に入力することができない場合がある。この場合、領域識別部52は、処理対象画像データを複数の分割領域(本明細書では「ブロック」と呼ぶ)に分割して、複数のブロックを順次領域識別学習器44に入力することで、処理対象画像データから光沢領域GRを検出する。もちろん、領域識別部52は、1つのブロックのサイズが領域識別学習器44の入力可能サイズより小さくなるように、処理対象画像データを複数のブロックに分割する。
ここで、各ブロックの外周縁に位置する画素は、その周りにある画素の数が少ないことなどに起因して、当該画素に付すラベルの精度が落ちてしまう場合がある。これにより、各ブロックの外周縁に位置する画素における光沢領域GRの検出力が落ちてしまう場合がある。また、ブロック毎に光沢領域GRを検出する場合、各ブロック内の光沢領域GRと非光沢領域NGRとの分布の傾向が、今までの学習データにない傾向を示す場合、当該ブロックから好適に光沢領域GRを検出できなくなる場合がある。例えば、1つのブロックの全部が光沢領域GRとなる場合が考えられるが、領域識別学習器44が全面光沢領域GRの第2学習データを用いて学習していない場合、ブロックの全部が光沢領域GRであると領域識別学習器44が識別することが難しくなる。
上記のような、処理対象画像データを複数のブロックに分割して、各ブロックを順次領域識別学習器44に入力する場合に生じ得る問題の影響を低減すべく、領域識別部52は、処理対象画像データを第1分割位置にて分割して得られた第1ブロック群を順次領域識別学習器44に入力したときの領域識別学習器44の複数の出力に基づいて得られた第1仮光沢領域、及び、当該処理対象画像データを第1分割位置とは異なる第2分割位置にて分割して得られた第2ブロック群を順次領域識別学習器44に入力したときの領域識別学習器44の複数の出力に基づいて得られた第2仮光沢領域に基づいて、処理対象画像データから光沢領域GRを検出するようにしてもよい。もちろん、領域識別部52は、互いに異なる3つ以上の分割位置にて処理対象画像データを分割し、各ブロック群を領域識別学習器44に入力して得られる3以上の仮光沢領域に基づいて、処理対象画像データから光沢領域GRを検出するようにしてもよい。
さらに、上記問題の影響をより低減すべく、領域識別部52は、さらに、処理対象画像データの解像度を下げた低解像度処理対象画像データを領域識別学習器44に入力することで得られた第3仮光沢領域に基づいて、処理対象画像データから光沢領域GRを検出する。
上記処理を図13を参照して詳しく説明する。図13の上部には、一般スキャナ14が図12に示した処理対象の原稿ScTを読み取ることで得られた2つの処理対象画像データTIが示されている。2つの処理対象画像データTIは、一点鎖線で示されている分割位置にて、それぞれ複数のブロックBに分割されている。ここで、2つの処理対象画像データTIにおいては、互いに分割位置が異なることに留意されたい。したがって、一方の処理対象画像データTIから得られた各ブロックBの外周縁の画素と、他方の処理対象画像データTIから得られた各ブロックBの外周縁の画素は互いに異なる画素となる。
これにより、一方の処理対象画像データTIから得られた第1ブロックB群を順次領域識別学習器44に入力したときの、光沢領域GRの検出力が落ちてしまう画素と、他方の処理対象画像データTIから得られた第2ブロックB群を順次領域識別学習器44に入力したときの、光沢領域GRの検出力が落ちてしまう画素とが互いに異なることとなる。したがって、一方の処理対象画像データTIから得られた第1ブロックB群を順次領域識別学習器44に入力して得られる第1仮光沢領域と、他方の処理対象画像データTIから得られた第2ブロックB群を順次領域識別学習器44に入力して得られる第2仮光沢領域との両方に基づいて光沢領域GRを検出することで、それぞれの光沢領域GRの検出力が弱い部分が補われ、その影響が低減される。本実施形態では、領域識別学習器44は、真に光沢領域GRである画素を誤って非光沢領域NGRであると判定する場合が多いが、真に非光沢領域NGRである画素を誤って光沢領域GRであると判定する場合がかなり少ないという特徴があるため、第1仮光沢領域と第2仮光沢領域との論理和を取って得られた領域を光沢領域GRとしている。
また、図13の上部には、処理対象画像データTIの解像度を下げた低解像度処理対象画像データTILが示されている。低解像度処理対象画像データTILのサイズは、領域識別学習器44に入力することができるサイズとなっており、例えば512×512ピクセルのサイズとなっている。低解像度処理対象画像データTILを領域識別学習器44に入力することで、第3仮光沢領域が得られる。
低解像度処理対象画像データTILは、画像データ全体としてその解像度が低下しているものの、処理対象画像データTIをブロックB群に分割して領域識別学習器44に入力する場合のように、特定の画素の光沢領域GRの検出力が落ちるわけではない。したがって、第1仮光沢領域及び第2仮光沢領域に加え、さらに第3仮光沢領域も考慮して光沢領域GRを得ることで、第1仮光沢領域及び第2仮光沢領域の光沢領域GRの検出力が弱い部分が補われ、その影響を低減することができる。
再度図8に戻り、画素値変換処理部54は、一般スキャナ14が生成した処理対象画像データにおける光沢領域GRの光沢感が表現されるように、光沢領域GR内の画素の画素値を変換する変換処理を行う。具体的には、画素値変換処理部54は、学習済みの画素値変換学習器46に対して、処理対象画像データ、及び、領域識別部52が検出した当該処理対象画像データの光沢領域GRを示す情報を入力することで、当該処理対象画像データの光沢領域GR内の画素の画素値を変換する。
ここで、処理対象画像データ、及び、領域識別部52が検出した当該処理対象画像データの光沢領域GRを示す情報を入力する、とは、領域識別部52の検出処理に基づいて、処理対象画像データから光沢領域GRを抽出した光沢画像データを生成し、当該光沢画像データを学習済みの画素値変換学習器46に入力するようにしてもよいし、処理対象画像データの光沢領域GRを示す情報であるマスクデータと当該処理対象画像データとを学習済みの画素値変換学習器46に入力するようにしてもよい。
画素値変換処理部54が、処理対象画像データ、及び、領域識別部52が検出した当該処理対象画像データの光沢領域GRを示す情報を学習済みの画素値変換学習器46に入力することで、画素値変換学習器46は、処理対象画像データのうち、光沢領域GRのみの画質を、第2読取環境で取得された画像データの画質相当に変換する。つまり、光沢領域GRの光沢感が好適に表現されるように、光沢領域GR内の画素の画素値を変換することができる。したがって、画素値変換処理部54は、光沢領域GRの光沢感が好適に表現された処理対象画像データを得ることができる。
なお、上述のように、画素値変換処理部54は、領域識別部52が検出した当該処理対象画像データの光沢領域GRを変換処理の対象領域とするが、ユーザが、一般スキャナ14の入力インターフェース14aを用いて処理対象画像データの一部の領域を指示することが可能となっていてもよい。この場合、一般スキャナ14から当該指示領域を示す指示領域情報が情報処理装置16に送信され、画素値変換処理部54は、さらに、当該指示領域情報を画素値変換学習器46に入力する。画素値変換処理部54は、領域識別部52が検出した当該処理対象画像データの光沢領域GR内であり、且つ、指示領域情報が示す領域内の画素の画素値を変換することができる。これにより、例えば、領域識別部52が検出した当該処理対象画像データの光沢領域GRの全部ではなく、ユーザが指示したそれらの一部のみの光沢感が表現された処理対象画像データを得ることができる。
画素値変換学習器46が、付帯情報を含む第1学習データを用いて学習されている場合、ユーザは、処理対象の原稿ScTを一般スキャナ14に読み取らせて処理対象画像データを取得させると共に、一般スキャナ14の入力インターフェース14aを用いて、当該処理対象画像データの光沢領域GRの変換後の画質に関する指示を入力するようにしてもよい。例えば、「明るめ」や「暗め」、あるいは色味などの指示が入力される。この場合、一般スキャナ14は、当該処理対象画像データと関連付けて、当該指示を示す指示情報を情報処理装置16に送信する。
この場合、画素値変換処理部54は、当該処理対象画像データ及び指示情報を画素値変換学習器46に入力する。これにより、付帯情報を含む第1学習データを用いて学習済みの画素値変換学習器46は、当該処理対象画像データの光沢領域GRの画質(特に光沢感)を、当該指示情報に応じた画質に変換することができる。
また、互いに異なる付帯情報に応じた複数の学習済み画素値変換学習器46が形成されている場合、画素値変換処理部54は、一般スキャナ14から受信した指示情報に基づいて選択された画素値変換学習器46に、処理対象画像データ、及び、領域識別部52が検出した当該処理対象画像データの光沢領域GRを示す情報を入力する画素値変換学習器46を入力することができる。上述の通り、互いに異なる付帯情報毎に複数の画素値変換学習器46をそれぞれ学習させることで、各画素値変換学習器46は、当該付帯情報専門のものとなるため、1つの画素値変換学習器46を複数の指示情報に対応可能である場合に比して、より高速に光沢領域GR内の画素の画素値を指示情報に応じて変換することができる。
以下、図14を参照しながら、本実施形態に係る領域識別部52及び画素値変換処理部54の処理の流れを説明する。図14の上部には、図12に示す処理対象の原稿ScTを一般スキャナ14が読み取ることで生成された処理対象画像データTIが示されている。上述の通り、処理対象画像データTIは光沢領域GR及び非光沢領域NGRを有しているが、光沢領域GRの光沢感は好適に表現されたものとはなっていない。
領域識別部52は、処理対象画像データTIを学習済みの領域識別学習器44に入力する。領域識別学習器44により、処理対象画像データTIは、光沢領域GRと非光沢領域NGRに識別される。ここでは、領域識別学習器44により、光沢領域GRのみが抽出された光沢画像データGI1と、非光沢領域NGRが抽出された非光沢画像データNGIが生成されるものとする。
画素値変換処理部54は、光沢画像データGI1を学習済みの画素値変換学習器46に入力する。画素値変換学習器46により、光沢画像データGI1の画素値が変換された光沢画像データGI2が生成される。光沢画像データGI2は、光沢領域GRの光沢感が好適に表現されたものである。
画素値変換処理部54は、光沢画像データGI2と、非光沢画像データNGIを結合する。これにより、処理対象画像データTIの光沢領域GRの光沢感が好適に表現された画像データである出力画像データOIが生成される。
プロセッサ48は、出力画像データOIをメモリ42に記憶させてもよいし、一般スキャナ14又はユーザが利用するユーザ端末に送信するようにしてもよい。一般スキャナ14は、情報処理装置16から受信した出力画像データOIをディスプレイ14bに表示させることができる。
以上説明した通り、本実施形態に係る情報処理装置16によれば、学習済みの画素値変換学習器46を一旦用意してしまえば、後は、一般スキャナ14によるスキャン処理(すなわち従来からの第1読取環境においてのスキャン処理)により得られた処理対象画像データの画素の画素値を変換する変換処理を実行するだけで、当該処理対象画像データの光沢領域GRの光沢感を表現することができる。ここで、当該変換処理においては、従来のように複数の読取環境における読取処理により生成された複数の読取画像データを用いる必要がない。したがって、変換処理にあたっては、処理対象画像データの光沢領域GRの光沢感を表現するために、複数の読取環境を用意する必要がなくなる。
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
例えば、領域識別学習器44及び画素値変換学習器46の少なくとも一方は、学習処理部50ではなく、情報処理装置16以外の装置にて学習され、学習済みの領域識別学習器44及び画素値変換学習器46がメモリ42に記憶されるようにしてもよい。この場合、プロセッサ48は、学習処理部50としての機能を発揮する必要がない。
10 情報処理システム、12 学習データ取得用スキャナ、14 一般スキャナ、14a 入力インターフェース、14b ディスプレイ、16 情報処理装置、20,30 原稿台、22a 第1光源、22b 第2光源、24,34 画像センサ、32 光源、40 通信インターフェース、42 メモリ、44 領域識別学習器、46 画素値変換学習器、48 プロセッサ、50 学習処理部、52 領域識別部、54 画素値変換処理部。
Claims (10)
- プロセッサを備え、
前記プロセッサは、
画像センサが取得する学習データ用の原稿からの正反射光の光量が正反射光量閾値未満となる第1読取環境にて当該原稿が光学的に読み取られて得られた、原稿の光沢部分に対応する光沢領域を含む第1読取画像データと、前記画像センサが取得する前記正反射光の光量が前記正反射光量閾値以上となる第2読取環境にて当該原稿が光学的に読み取られて得られた、前記光沢領域を含む第2読取画像データとを第1学習データとして用いて、前記第1読取画像データを前記第2読取画像データに変換するように学習された第1学習器に対して、前記第1読取環境にて処理対象の原稿を光学的に読み取ることで得られた処理対象画像データを入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、
ことを特徴とする情報処理装置。 - 前記プロセッサは、
学習済みの前記第1学習器に対して、前記処理対象画像データ及び前記処理対象画像データの前記光沢領域を示す情報を入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記光沢領域は、原稿が前記第1読取環境にて光学的に読み取られた画像データと、当該原稿が前記第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値以上となる領域であり、
前記非光沢領域は、原稿が前記第1読取環境にて光学的に読み取られた画像データと、当該原稿が前記第2読取環境にて光学的に読み取られた画像データとの間の画素値の差が画素値閾値未満となる領域である、
ことを特徴とする請求項1又は2に記載の情報処理装置。 - 前記プロセッサは、
前記光沢領域内の画素に第1ラベルが付され、前記非光沢部分内の画素に前記第1ラベルとは異なる第2ラベルが付された画像データを第2学習データとして学習された学習済みの第2学習器を用いて、前記処理対象画像データから前記光沢領域を検出する、
ことを特徴とする請求項2に記載の情報処理装置。 - 前記プロセッサは、
前記処理対象画像データを第1分割位置にて分割して得られた第1分割領域群を順次前記第2学習器に入力したときの前記第2学習器の複数の出力に基づいて得られた第1仮光沢領域、及び、前記処理対象画像データを前記第1分割位置とは異なる第2分割位置にて分割して得られた第2分割領域群を順次前記第2学習器に入力したときの前記第2学習器の複数の出力に基づいて得られた第2仮光沢領域に基づいて、前記処理対象画像データから前記光沢領域を検出する、
ことを特徴とする請求項4に記載の情報処理装置。 - 前記プロセッサは、さらに、前記処理対象画像データの解像度を下げた低解像度処理対象画像データを前記第2学習器に入力することで得られた第3仮光沢領域に基づいて、前記処理対象画像データから前記光沢領域を検出する、
ことを特徴とする請求項5に記載の情報処理装置。 - 前記第2学習データとしての画像データは、前記光沢領域に含まれる画素であって前記第1ラベルが付与済みの画素と、前記非光沢領域に含まれる画素であって前記第2ラベルが付与済みの画素とを組み合わせることで生成された画像データである、
ことを特徴とする請求項4から6のいずれか1項に記載の情報処理装置。 - 前記プロセッサは、
前記第1読取画像データ、前記第2読取画像データ、及び、当該第2読取画像データの画質を示す付帯情報とを前記第1学習データとして用いて学習された前記第1学習器に対して、前記処理対象画像データ、及び、前記処理対象画像データの前記光沢領域の変換後の画質に関する利用者の指示情報をさらに前記第1学習器に入力することで、前記指示情報に応じて前記光沢領域内の画素の画素値を変換する、
ことを特徴とする請求項1又は2に記載の情報処理装置。 - 前記プロセッサは、
それぞれ異なる前記付帯情報を用いて学習された複数の前記第1学習器の中から、前記指示情報に応じて選択された前記第1学習器に、前記処理対象画像データを入力することで、前記光沢領域内の画素の画素値を変換する、
ことを特徴とする請求項8に記載の情報処理装置。 - コンピュータに、
画像センサが取得する学習データ用の原稿からの正反射光の光量が正反射光量閾値未満となる第1読取環境にて当該原稿が光学的に読み取られて得られた、原稿の光沢部分に対応する光沢領域を含む第1読取画像データと、前記画像センサが取得する前記正反射光の光量が前記正反射光量閾値以上となる第2読取環境にて当該原稿が光学的に読み取られて得られた、前記光沢領域を含む第2読取画像データとを第1学習データとして用いて、前記第1読取画像データを前記第2読取画像データに変換するように学習された第1学習器に対して、前記第1読取環境にて処理対象の原稿を光学的に読み取ることで得られた処理対象画像データを入力することで、前記処理対象画像データの前記光沢領域内の画素値を変換する、
ことを特徴とする情報処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020188931A JP2022077874A (ja) | 2020-11-12 | 2020-11-12 | 情報処理装置及び情報処理プログラム |
US17/338,689 US11496647B2 (en) | 2020-11-12 | 2021-06-04 | Information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020188931A JP2022077874A (ja) | 2020-11-12 | 2020-11-12 | 情報処理装置及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022077874A true JP2022077874A (ja) | 2022-05-24 |
Family
ID=81453868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020188931A Pending JP2022077874A (ja) | 2020-11-12 | 2020-11-12 | 情報処理装置及び情報処理プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11496647B2 (ja) |
JP (1) | JP2022077874A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11694307B2 (en) * | 2022-02-28 | 2023-07-04 | Huajie ZENG | Image enhancement system and method based on generative adversarial network (GAN) model |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5449159A (en) | 1977-09-26 | 1979-04-18 | Sharp Corp | Display device of instruments |
JP4024737B2 (ja) | 2003-09-22 | 2007-12-19 | シャープ株式会社 | 画像処理装置、画像読取装置、画像形成装置、画像処理方法、およびプログラム |
JP5760562B2 (ja) | 2011-03-22 | 2015-08-12 | セイコーエプソン株式会社 | 読取装置および読取方法 |
JP6708462B2 (ja) | 2016-03-31 | 2020-06-10 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP2019022184A (ja) * | 2017-07-21 | 2019-02-07 | セイコーエプソン株式会社 | 画像読取装置及び読取モジュール |
-
2020
- 2020-11-12 JP JP2020188931A patent/JP2022077874A/ja active Pending
-
2021
- 2021-06-04 US US17/338,689 patent/US11496647B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220150380A1 (en) | 2022-05-12 |
US11496647B2 (en) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4087528B2 (ja) | ラスタ化された画像データ内のエイリアスが除去された画素の検知方法 | |
EP2642738A1 (en) | Apparatus, system, and method of inspecting image, and carrier medium storing image inspection control program | |
JP7292979B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6716979B2 (ja) | 印刷物検査装置、印刷物検査方法およびプログラム | |
JPH05120480A (ja) | 書類処理システム及び書類処理方法 | |
US10477063B2 (en) | Character detection and binarization | |
JP2015195549A (ja) | 画像処理装置、画像処理方法 | |
JP2006304247A (ja) | 画像生成装置、プログラム及び記録媒体 | |
JP2011156861A (ja) | 出力検査用の動的プリンタモデリング | |
CN101409768A (zh) | 图像处理器和图像处理方法 | |
KR101869302B1 (ko) | 래스터 이미지 변환 장치, 화상독취장치, 래스터 이미지 변환 방법 및 컴퓨터 판독가능 기록매체 | |
JP2002084421A (ja) | 信号処理方法、信号処理装置及び画像読取装置 | |
JP2008252862A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP5645612B2 (ja) | 画像処理装置、画像処理方法、プログラム、及び記憶媒体 | |
JP2018139457A (ja) | 画像処理装置、画像処理の制御方法、及びプログラム | |
JP2022077874A (ja) | 情報処理装置及び情報処理プログラム | |
JP2015178190A (ja) | 画像検査装置、画像形成システム及び画像検査方法 | |
US8711446B2 (en) | Reading apparatus and reading method | |
JP2023030811A (ja) | 情報処理装置、抽出処理装置、画像処理システム、情報処理装置の制御方法、及びプログラム | |
JP2019140538A (ja) | 画像処理装置、画像形成装置、画像処理方法、及びプログラム | |
JP4355305B2 (ja) | 画像処理装置、コンピュータプログラム、及び記録媒体 | |
JP2009230556A (ja) | オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置 | |
JP2021052244A (ja) | 画像処理装置およびプログラム | |
JP7327866B1 (ja) | 学習モデル生成方法 | |
JP7339794B2 (ja) | 画像処理装置、画像処理方法、およびプログラム |