JPWO2014132583A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JPWO2014132583A1
JPWO2014132583A1 JP2015502748A JP2015502748A JPWO2014132583A1 JP WO2014132583 A1 JPWO2014132583 A1 JP WO2014132583A1 JP 2015502748 A JP2015502748 A JP 2015502748A JP 2015502748 A JP2015502748 A JP 2015502748A JP WO2014132583 A1 JPWO2014132583 A1 JP WO2014132583A1
Authority
JP
Japan
Prior art keywords
image
overlap region
correction
pixel
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015502748A
Other languages
English (en)
Other versions
JP6052389B2 (ja
Inventor
直之 藤山
直之 藤山
善隆 豊田
善隆 豊田
まさ子 浅村
まさ子 浅村
山縣 浩作
浩作 山縣
聡 山中
聡 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6052389B2 publication Critical patent/JP6052389B2/ja
Publication of JPWO2014132583A1 publication Critical patent/JPWO2014132583A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/1911Simultaneously or substantially simultaneously scanning picture elements on more than one main scanning line, e.g. scanning in swaths
    • H04N1/1912Scanning main scanning lines which are spaced apart from one another in the sub-scanning direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/1911Simultaneously or substantially simultaneously scanning picture elements on more than one main scanning line, e.g. scanning in swaths
    • H04N1/1918Combination of arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4076Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on references outside the picture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/1013Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components
    • H04N1/1017Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components the main-scanning components remaining positionally invariant with respect to one another in the sub-scanning direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/12Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0081Image reader

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Input (AREA)

Abstract

画像処理装置30は、隣り合う端部の検出範囲が重なる部分を有して主走査方向に並べられた複数のラインセンサが出力する画像で、検出範囲が重なる部分の領域にオーバーラップ領域を有する画像を初期画像FDMとして入力し、明るさ補正部40及び画像結合部33を備える。黒補正・白補正部31は初期画像FDMに対し黒補正及び白補正を行いシェーディング補正画像SDMを出力する。明るさ補正部40はオーバーラップ領域の画素値を基に補正係数を算出し補正係数を用いてずれ補正画像の明るさを補正して明るさ補正画像CDMを出力する。画像結合部33は明るさ補正画像CDMを結合して再生画像RDMを生成する。

Description

本発明は、複数のライン状のイメージセンサが千鳥配列され、隣り合うイメージセンサの主走査方向の端部の検出範囲が重なるようにして配置された画像処理装置に関するものである。特に、原稿読取時に各イメージセンサから出力される画像データを補正及び結合して、再生画像を得る画像処理装置に関するものである。ここで、「再生画像」とは、読み取った画像データを補正及び結合して生成した画像である。一般的には、再生画像は読み取った原稿と同じ画像である。
原稿を読み取り、画像データを作成する画像読取装置として、主走査方向に複数のライン状のイメージセンサを千鳥配列した読取装置が知られている。このような読取装置では、読み取られた画像データは、原稿を主走査方向に裁断した副走査方向に長い矩形形状の画像データになる。つまり、副走査方向に長い矩形形状の画像データが主走査方向に並んだ状態となる。ここで、「千鳥配列」とは、2列のものを互い違いに配置することである。つまり、異なる2つのものを順番に列を入れかえて2列に配置することである。「順番に列を入れかえて2列に配置する」ということは、ジグザグに配置することである。ただし、原稿を欠落無く読み取るために、各イメージセンサは、隣り合うイメージセンサの端部を副走査方向に重複(オーバーラップ)するように配置される。ここで、「隣り合う」とは、近くにあることを意味し、接していることを要しない。
このような画像の読み取りを行う際には、黒補正及び白補正によって、均一な明るさの原稿を読んだときに、均一な明るさの再生画像が得られるようにする技術が開示されている(特許文献1)。「黒補正」とは、得られている初期画像の画素値から、照明光が無く読取光学系が暗室状態にあるときのイメージセンサの出力を差し引く補正である。また、「白補正」とは、白い原稿を読んだときに、画素値が取り得る値の最大値または使用者が設定する最大値になるように黒補正後の画素値にゲインを乗算する補正である。
特開2007−267359号公報
しかしながら、白補正を行ったにもかかわらず、各イメージセンサの画像データ間で、全体的な明るさが異なる場合がある。この場合には、イメージセンサの幅を一単位として、一単位ごとに主走査方向に明暗の縞が現れる。明暗の縞が現れることにより再生画像は、品質の低い画像になる。
特許文献1に記載されたように、基準チャートbによる補正を行っても、原稿の読み取り中において、読取光学系から原稿までの距離が変化した場合、又は読取光学系から基準チャートまでの距離と読取光学系から原稿までの距離とが異なる場合には、イメージセンサの幅を一単位として、一単位ごとに主走査方向に明暗の縞が現れるという問題を解消できない。
本発明は、このような課題を解決するために成されたものであり、主走査方向の明暗の縞の発生を抑えた画像読取装置の画像処理方法を提供することを目的とする。
本発明に係る画像処理装置は、隣り合う互いの端部の検出範囲が重なる部分を有するように主走査方向に並べられた複数のライン状のイメージセンサが出力する画像であって、前記検出範囲が重なる部分に対応する領域にオーバーラップ領域を有する画像を初期画像として入力し、前記オーバーラップ領域の画素値を基に補正係数を算出し、前記補正係数を用いて前記初期画像の明るさを補正して明るさ補正画像を出力する明るさ補正部と、前記明るさ補正画像を結合して再生画像を生成する画像結合部とを備え、前記補正係数は、複数の前記オーバーラップ領域の画素に対応した値の和について前記和を加算し、前記加算をした値を前記和のうちのひとつで割ることにより得られる比率を用いて算出されるものである。
本発明によれば、主走査方向の明暗の縞の発生を抑えることが可能である。
実施の形態1に係る画像読取装置の構成図である。 実施の形態1に係る画像処理装置のブロック図である。 実施の形態1に係る千鳥配列されたイメージセンサで読み取られた画像データを示す模式図である。 実施の形態1に係る黒補正・白補正部から出力された画像を示す模式図である。 実施の形態1に係るずれ補正部から出力された画像を示す模式図である。 実施の形態2に係る画像処理装置における平均値計算部41の内部処理を示すブロック図である。
以下、図面に基づいて、本発明の一実施の形態例を説明する。
実施の形態1.
図1は、本発明による画像処理方法が適用される画像読取装置の構成も示した構成図である。画像読取装置10は、読取光学系12、イメージセンサ13及び基板14を有する。画像読取装置10は、固定されたイメージセンサ13に対して原稿20が移動することで原稿20に記載された画像を読み取る。または、画像読取装置10は、固定された原稿20に対してイメージセンサ13が移動することで原稿20に記載された画像を読み取る。
説明を容易にするために、XYZ座標を用いる。X軸方向は主走査方向である。Y軸方向は副走査方向である。X−Y平面に垂直な方向がZ軸方向である。原稿20に対して画像読取装置10の方向が+Z軸方向である。原稿20は、+Y軸方向から−Y軸方向に向かって移動する。相対的に、イメージセンサ13は、−Y軸方向から+Y軸方向に向かって移動して画像を読み取る。+Y軸方向からみて右側が+X軸方向である。イメージセンサ13の順番をnで表す。−X軸方向の端にあるイメージセンサ13をn=1番目とする。+X軸方向の端にあるイメージセンサ13をn=N番目とする。
画像読取装置10が原稿20を読み取る際には、画像読取装置10の内部に配置された図示しない光源から発せられた照明光11が原稿20を照明する。光源は、例えば、ハロゲンランプ又はLEDなどである。原稿20で反射及び散乱された光は、読取光学系12を通って、イメージセンサ13上に結像される。読取光学系12は、レンズ等の光学素子で構成されている。結像された光は、イメージセンサ13の受光素子によって、電気信号に変換されて、画像データとして図示しないメモリに出力される。
図1は、画像読取装置10の構成を示す構成図である。図1では、固定されたイメージセンサ13に対して原稿20が移動する構成を示している。つまり、原稿20が搬送されて、イメージセンサ13が画像を読み取る構成である。図1では、原稿20の搬送方向を方向Fで示す。イメージセンサ13から出力される画像データは、原稿20の搬送と共に順次時系列でメモリに取り込まれる。そして、原稿20の搬送が終了すると、原稿20の全体の画像データがメモリに取得される。「時系列」とは、ある現象の時間的な変化を、連続的に観測して得られた値の系列のことである。「連続的に観測」には、一定間隔をおいた観測又は不連続に行われる観測が含まれる。また、「系列」とは、一連の値のことである。なお、「画像」は、「画像データ」を用いて表示されたものであるが、画像処理の説明では画像信号として捉えられるので、以下の説明では、「画像データ」と「画像」とは、同様の意味で用いる。つまり、例えば、図面に表示された「画像」を「画像データ」として説明する場合がある。また、同様に、信号処理の説明で、「画像データ」を、「画像」として説明する場合がある。
隣り合うイメージセンサ13の端部は、主走査方向に重複して、基板14上に配置されている。「隣り合うイメージセンサ」とは、異なる列の一番近いイメージセンサのことである。例えば、図1で説明すると、n=2番目のイメージセンサ13の「隣り合うイメージセンサ」は、n=1番目のイメージセンサ13とn=3番目のイメージセンサ13とである。イメージセンサ13の端部の重複部分をオーバーラップ部OLと呼ぶ。1つのイメージセンサ13の画像データのうち、隣り合うイメージセンサ13の矩形画像データと重複する部分を、「オーバーラップ領域」と呼ぶ。
図2は、実施の形態1に係る画像処理装置30のブロック図である。画像処理装置30は、黒補正・白補正部31、ずれ補正部32、画像結合部33及び明るさ補正部40を有する。明るさ補正部40は、平均値計算部41、補正係数算出部42及び補正処理部43を有する。
ライン状のイメージセンサで画像を読取る場合には、イメージセンサをイメージセンサの長手方向と直角な方向に移動させる。これにより、線状のイメージセンサで、面状の画像を読取ることができる。この場合には、一般的にイメージセンサの長手方向を主走査方向と呼び、イメージセンサの移動方向を副走査方向と呼ぶ。
イメージセンサは、副走査方向に2列に配置されている。そして、隣り合うイメージセンサは、この2列の上に交互に配置されて主走査方向に並んでいる。また、隣り合うイメージセンサは、主走査方向でその端部が一部重複するように配置されている。上述のように、このような配置を「千鳥配列」と呼ぶ。
図3は、千鳥配列されたイメージセンサ13で読み取られた画像データを示す模式図である図3は、矩形画像IMn−1、矩形画像IM及び矩形画像IMn+1と同時刻に読み取られたデータDIの位置関係を示す。図3に示された、イメージセンサ13で読み取られた画像データを「初期画像」と呼ぶ。つまり、イメージセンサ13で読み取られて、その後に行う画像処理を行っていない画像を「初期画像」と呼ぶ。図3において、X軸方向は主走査方向である。Y軸方向は副走査方向である。イメージセンサ13は、相対的に、−Y軸方向から+Y軸方向に移動して画像を読み取る。図3において、矩形画像IMは、矩形画像IMn−1及び矩形画像IMn+1に対して+Y軸方向に位置がずれている。
千鳥配列されたイメージセンサ13で読み取られた画像データは、原稿20を主走査方向に裁断した矩形形状の画像になる。図3において、矩形画像IMn−1は、n−1番目のイメージセンサ13で読み取られた画像である。矩形画像IMは、n番目のイメージセンサ13で読み取られた画像である。矩形画像IMn+1は、n+1番目のイメージセンサ13で読み取られた画像である。同時刻に読み取られたデータDIは、隣り合う矩形画像IMn−1,IM,IMn+1では、原稿20の異なる位置の画像データである。同時刻に読み取られたデータDIは、原稿20のY軸方向(副走査方向)異なる位置の画像データである。図3で示した「・・・」は、矩形画像IMn−1の−X軸方向にも矩形画像が有ることを示し、矩形画像IMn+1の+X軸方向にも矩形画像が有ることを示している。
実際には、画像処理装置30は、図2で示した一連の処理を、原稿20を読み取りながらリアルタイム処理で行う。このため、副走査方向(Y軸方向)のデータサイズは数画素分のみである。つまり、原稿20の副走査方向(Y軸方向)の読み取りが進むにつれて、画像処理の確定した一画素分の画像データを削除するとともに、新たに読み込まれた一画素分の画像データを追加して、順次、画像結合処理が行われる。ここで、「画像データを削除」とは、例えば、画像読取装置10のメモリからプリンタ等の外部機器へ出力することである。また、「リアルタイム処理」とは、データが発生したときに、そのたびごとに処理を行うことである。「データサイズ」とは、画像データの大きさのことで、画素数で表す。
黒補正・白補正部31は、イメージセンサ13から出力された初期画像FDMのデータを入力として取り込む。そして、黒補正・白補正部31は、黒補正及び白補正を行う。黒補正及び白補正は、併せてシェーディング補正とも呼ばれる。黒補正・白補正部31が、黒補正及び白補正を行った画像を「シェーディング補正画像」と呼ぶ。
「黒補正」とは、得られている初期画像FDMの画素値から、照明光11が無く読取光学系12が暗室状態にある時のイメージセンサ13の出力(バックグラウンド)を差し引く補正である。ここで、初期画像FDMは、イメージセンサ13から出力された画像データである。また、画素値は、赤色(R)、緑色(G)及び青色(B)の信号強度である。「照明光11が無く」とは、照明しない状態である。また、照明光11が無く読取光学系12が暗室状態にある時のイメージセンサ13の出力を「バックグラウンド」と呼ぶ。このバックグラウンドの値は、原稿20を読み取る前に取得しておく。
また、「白補正」とは、真っ白な原稿20を読んだ時に、画素値が取り得る値の最大値または使用者が設定する最大値になるように、黒補正後の画素値にゲインを乗算する補正である。画素値の最大値は、例えば、8ビット画像では255であり、10ビット画像では1023である。このゲインは、原稿20を読み取る前に事前に、白基準板15を読み取り、赤色(R)、緑色(G)及び青色(B)の信号を個別に算出しておく。
白補正では、白い原稿20を読み取った際に、白の画像データを出力しない誤差要因を全て同時に補正する。誤差要因としては、例えば、照明光11の主走査方向の照度分布、読取光学系12の周辺光量比及びイメージセンサ13の各受光素子の感度のばらつき等である。黒補正・白補正部31が行う白補正処理によって、均一な明るさの原稿20を読んだ際に、均一な明るさの再生画像(複写画像)が得られるようになる。「均一な明るさ」とは、輝度及び濃度が均一なことである。
しかし、実際には、下記の要因Aから要因Dまでにより、画像データ全体の明るさを均一化する補正を行っても、主走査方向に明暗の縞が現れた再生画像となる。
要因Aは、原稿20から読取光学系12までの距離が、白補正に用いられる白基準板15から読取光学系12までの距離と異なることである。要因Aは、設計的な制約による場合が多い。
要因Bは、要因Aによって、照明光11の主走査の照度分布及び副走査方向の照度分布が、原稿20を読み取る際と白基準板15を読み取る際とで異なることである。要因Bも、設計的な制約による場合が多い。
要因Cは、千鳥配列された2列のイメージセンサ13に対する照明光11による副走査方向の照度分布の位置ずれである。イメージセンサ13は、照明光11によって照明された原稿20を読み取る。イメージセンサ13は、副走査方向に2列に配置されている。このため、原稿20のイメージセンサ13の読取位置16は、各列のイメージセンサ13で異なる。つまり、読取位置16aと読取位置16bとは、原稿20のY軸方向で異なる位置にある。各列のイメージセンサ13の読取位置16の照度分布が異なると主走査方向に明暗の縞が現れる要因となる。つまり、照度分布の中心が、読取位置16aと読取位置16bとのY軸方向の中心からずれている場合に、読取位置16aでの照度と読取位置16bでの照度とは異なる。要因Cは、製造誤差による場合が多い。「2列のイメージセンサ」とは、図1に示した奇数番目のイメージセンサ13及び偶数番目のイメージセンサ13のことである。
要因Dは、各列のイメージセンサ13の読取位置16が、副走査方向にばらついていることである。つまり、イメージセンサ13が各列から副走査方向にずれた位置に配置されていることである。要因Cは、製造誤差による場合が多い。上述のとおり、奇数番目のイメージセンサ13の読取位置16と偶数番面のイメージセンサ13の読取位置16とは、副走査方向で異なっている。要因Dは、例えば、奇数番目のイメージセンサ13の中で、さらに副走査方向の読取位置16にばらつきがあるということである。
図4は、黒補正・白補正部31から出力された画像を示す模式図である。図4は、黒補正・白補正部31から出力された矩形画像IMn−1、矩形画像IM及び矩形画像IMn+1と同時刻に読み取られたデータDIの位置関係を示す。黒補正・白補正部31から出力された画像は、シェーディング補正画像SDMである。各イメージセンサ13は、画素に対応する複数の受光素子を有している。そして、イメージセンサ13の各々の受光素子は、固有のバックグラウンドの値及びゲインの値を有している。つまり、画像データの全体で、主走査方向の画素の一つずつが固有のバックグラウンドの値及びゲインの値を有している。図4において、矩形画像IMは矩形画像IMn−1及び矩形画像IMn+1に対して+Y軸方向に位置がずれている。
次に、黒補正・白補正部31から出力された画像データ(シェーディング補正画像のデータ)SDMは、ずれ補正部32に入力される。ずれ補正部32は、矩形画像IMn−1,IM,IMn+1の間の副走査方向(Y軸方向)の位置ずれを補正する。つまり、矩形画像IMn−1,IM,IMn+1の間の位置ずれの補正は、黒補正及び白補正の行われた後の画像データ(シェーディング補正画像)SDMに対して行われる。ずれ補正部32で補正された画像を「ずれ補正画像」と呼ぶ。
図1に示すように、隣り合うイメージセンサ13の原稿20上の読取位置16は、副走査方向(Y軸方向)にずれている。このため、図3及び図4に示すように、同時刻に読み取られたデータDIで見ると、隣り合うイメージセンサ13の初期画像FDMは、副走査方向(Y軸方向)にずれている。また、要因Dによって、詳細に見れば、同時刻に読み取られたデータDIで、同じ列のイメージセンサ13の初期画像FDMは、副走査方向(Y軸方向)にずれている。
明るさ補正部40は、ずれ補正画像DMを入力して、各々の矩形画像IMn−1,IM,IMn+1間の明るさを合わせる。つまり、矩形画像IMn−1,IM,IMn+1を結合した際の全体的な明るさを合わせる。ここで、「明るさ」とは、輝度のことである。明るさ補正部40で行われる明るさ補正処理は、オーバーラップ領域R,Lを利用して行われる。明るさ補正部40で補正された画像を「明るさ補正画像」と呼ぶ。
明るさ補正画像CDMは、画像結合部33に入力される。画像結合部33は、明るさ補正された矩形画像IMn−1,IM,IMn+1の結合処理を行う。画像結合部33で結合処理された画像は、「再生画像」である。
黒補正・白補正部31、ずれ補正部32、明るさ補正部40及び画像結合部33は、前述したとおり、実際には、原稿20を読み取りながらリアルタイム処理を行う。このため、副走査方向(Y軸方向)のデータサイズは数画素程度となる。
以下、明るさ補正部40について詳細に説明する。赤を「R」と表現し、緑を「G」と表現し、青を「B」と表現する。そして、それぞれ同じ数式を用いる場合、R、G及びBを「*」と表現する。つまり、「*」を用いた数式は、「*」を「R」、「G」又は「B」に置き換えて解釈される。
図5は、ずれ補正部32で補正されたずれ補正画像DMを示す模式図である。図5は、矩形画像IMn−1、矩形画像IM及び矩形画像IMn+1の位置関係を示す。図5に示すように、領域In−1は、n−1番目のイメージセンサ13が読み取った矩形画像データ(矩形画像IMn−1)の内、後述するオーバーラップ領域Rn−1,Ln−1を除いた領域である。同様に、領域Iは、n番目のイメージセンサ13が読み取った画像データ(矩形画像IM)の内、後述するオーバーラップ領域R,Lを除いた領域である。領域In+1は、n+1番目のイメージセンサ13が読み取った画像データ(矩形画像IMn+1)の内、後述するオーバーラップ領域Rn+1,Ln+1を除いた領域である。図5において、矩形画像IMn−1、矩形画像IM及び矩形画像IMn+1は、Y軸方向に位置がずれている。
オーバーラップ領域Rn−1は、矩形画像IMn−1の中の矩形画像IM側のオーバーラップ領域である。同様に、オーバーラップ領域Rは、矩形画像IMの中の矩形画像IMn+1側のオーバーラップ領域である。オーバーラップ領域Rn+1は、矩形画像IMn+1の中の矩形画像IMn+2側のオーバーラップ領域である。ただし、図5では、矩形画像IMn+2の記載を省略している。
また、オーバーラップ領域Ln−1は、矩形画像IMn−1の中の矩形画像IMn−2側のオーバーラップ領域である。同様に、オーバーラップ領域Lは、矩形画像IMの中の矩形画像IMn−1側のオーバーラップ領域である。オーバーラップ領域Ln+1は、矩形画像IMn+1の中の矩形画像IM側のオーバーラップ領域である。ただし、図5では、矩形画像IMn−2の記載を省略している。
明るさ補正処理について、矩形画像IMn−1、矩形画像IM及び矩形画像IMn+1を用いて説明する。ずれ補正部32によって、矩形画像IMn−1、矩形画像IM及び矩形画像IMn+1は副走査方向(Y軸方向)の位置のずれが補正されている。副走査方向(Y軸方向)は、Y軸方向である。このため、オーバーラップ領域Rn−1の画像とオーバーラップ領域Lの画像とは原稿20の面上では全く同じ領域の画像となる。つまり、オーバーラップ領域Rn−1の画像とオーバーラップ領域Lの画像とは、同じ画素値となるはずである。つまり、オーバーラップ領域Rn−1の画像とオーバーラップ領域Lの画像とは、同じ明るさとなるはずである。しかし、前述の理由により、オーバーラップ領域Rn−1の画像とオーバーラップ領域Lの画像とは、同じ画素値にはならない。
また、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは原稿20の面上では全く同じ領域の画像となる。つまり、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは、同じ画素値となるはずである。つまり、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは、同じ明るさとなるはずである。しかし、前述の理由により、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは、同じ画素値にはならない。そこで、次の処理を行う。
まず、平均値計算部41は、画像データの画素値の平均値AR,ALを求める。
オーバーラップ領域Rn−1に含まれる画像データの画素値の平均値をARn−1(*)と定義して、オーバーラップ領域Lに含まれる画像データの画素値の平均値をAL(*)と定義する。つまり、画素値の平均値ARn−1(*)は、オーバーラップ領域Rn−1に含まれる画素の画素値を加算して、画素数で割った値である。同様に、画素値の平均値AL(*)は、オーバーラップ領域Lに含まれる画素の画素値を加算して、画素数で割った値である。
平均値計算部41は、画素値の平均値AR,ALを補正係数算出部42に出力する。
補正係数算出部42の入力は、画素値の平均値AR,ALである。補正係数算出部42は、画素値の平均値AR,ALを受け取り、パラメータ値WL(*),WR(*)を求める。また、補正係数算出部42は、パラメータ値WL(*),WR(*)から補正係数WGni,WGnqを求める。そして、補正係数算出部42は、補正係数WGni,WGnqを出力する。
画素値の平均値AL(*)に対する{ARn−1(*)+AL(*)}/2の比をパラメータ値WL(*)とする。{ARn−1(*)+AL(*)}/2は、画素値の平均値ARn−1(*)と画素値の平均値AL(*)との平均値である。
また、オーバーラップ領域Rに含まれる画像データの平均値をAR(*)と定義して、オーバーラップ領域Ln+1に含まれる画像データの平均値をALn+1(*)と定義する。つまり、AR(*)は、オーバーラップ領域Rに含まれる画素の画素値を加算して、画素数で割った値である。同様に、画素値の平均値ALn+1(*)は、オーバーラップ領域Ln+1に含まれる画素の画素値を加算して、画素数で割った値である。そして、画素値の平均値AR(*)に対する{AR(*)+ALn+1(*)}/2の比をパラメータ値WR(*)とする。{AR(*)+ALn+1(*)}/2は、画素値の平均値AR(*)と画素値の平均値ALn+1(*)との平均値である。このとき、オーバーラップ領域L及びオーバーラップ領域Rを代表するパラメータ値を式(1)で定義する。式(1)に示すパラメータ値WL(*),WR(*)は、画素の輝度値(画素値)を補正するためのパラメータ値である。なお、以下において、符号n,i等で使用する「・・・」は、符号n,i等が整数列で続くことを示している。
WL(*)={ARn−1(*)+AL(*)}/{2×AL(*)}
n=2,3,・・・,N
WR(*)={AR(*)+ALn+1(*)}/{2×AR(*)}
n=1,2,3,・・・,(N−1)
WL(*)=1.0
WR(*)=1.0
・・・・(1)
ここで、n=1番目のイメージセンサ13における左側(−X軸側)のオーバーラップ領域Lのパラメータ値WL(*)は、WL(*)=WR(*)としても良い。また、n=N番目のイメージセンサ13における右側(+X軸側)のオーバーラップ領域Rのパラメータ値WR(*)は、WR(*)=WL(*)としても良い。
また、前述したように、原稿20を読み取りながら順次画像結合処理を行うので、オーバーラップ領域R,Lのサイズは、主走査方向の画素及び副走査方向(Y軸方向)の画素数が共に数十画素程度となる。
式(1)は画素値の平均値を用いているが、式(2)は、オーバーラップ領域の画像データの画素値の和を用いて求める。オーバーラップ領域Rn−1に含まれる画像データの画素値の和をTRn−1(*)と定義して、オーバーラップ領域Lに含まれる画像データの画素値の和をTL(*)と定義する。また、オーバーラップ領域Rに含まれる画像データの画素値の和をTR(*)と定義して、オーバーラップ領域Ln+1に含まれる画像データの画素値の和をTLn+1(*)と定義する。オーバーラップ領域Rn−1及びオーバーラップ領域Lを代表するパラメータ値および、オーバーラップ領域R及びオーバーラップ領域Ln+1を代表するパラメータ値を次式(2)のように求めることもできる。式(2)に示すパラメータ値WL(*),WR(*)は、画素の輝度値(画素値)を補正するためのパラメータ値である。
WL(*)={TRn−1(*)+TL(*)}/2×TL(*)
n=2,3,・・・,N
WR(*)={TR(*)+TLn+1(*)}/2×TR(*)
n=1,2,・・・,(N−1)
WL(*)=1.0
WR(*)=1.0
・・・・(2)
式(1)と同様に、n=1番目のイメージセンサ13における左側(−X軸側)のオーバーラップ領域Lのパラメータ値WL(*)はWL(*)=WR(*)としても良い。また、n=N番目のイメージセンサ13における右側(+X軸側)のオーバーラップ領域Rのパラメータ値WR(*)はWR(*)=WL(*)としても良い。
上記の式(1)又は式(2)で求めたオーバーラップ領域を代表するパラメータ値WL(*),WR(*)を用いて、n番目のイメージセンサ13の画像データの明るさ補正処理を行う。
n番目のイメージセンサ13の矩形画像IMの主走査方向の画素数からオーバーラップ領域L,Rの主走査方向の画素数を引いた画素数をNI画素とする。また、オーバーラップ領域L,Rの主走査方向の幅を画素数で表してNO画素とする。つまり、画素数NIに画素数NOの2倍を加算した値は、矩形画像IMの主走査方向の画素数である。画素数NOの2倍を加算する理由は、+X軸方向のオーバーラップ領域Rの主走査方向の画素数と−X軸方向のオーバーラップ領域Lの主走査方向の画素数とを加算するからである。このとき、矩形画像データIMに含まれる画素の位置は、画素の順番iで表すことができる。画素の順番iは、−X軸方向から+X軸方向にi=0、1、2、3、・・・、(NI+2×NO−1)と表現することができる。ただし、fixは小数点以下の値を打ち切る関数と定義して用いた。
この表記(fix)を用いて、矩形画像IMの主走査方向でi番目に位置する画素の補正係数は、式(3)のように求められる。
WGni(*)={WL(*)×(NI+NO−1−(i−fix(NO/2)))
+WR(*)×(i−fix(NO/2))}/(NI+NO−1)
i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}
・・・・(3)
1番目(n=1)のイメージセンサ13の左側のオーバーラップ領域Lの補正係数及びN番目(n=N)のイメージセンサ13の右側のオーバーラップ領域Rの補正係数は、次の式(4)で求められる。
WG1i(*)=WL(*)
i=0、・・・、{fix(NO/2)−1}
WG(N)i(*)=WR(*)
i={NI+NO+fix(NO/2)+1}、・・・、{NI+2×NO−1}
・・・・(4)
上記のように補正係数WGniが求まれば、補正処理部43は、矩形画像IMの各画素の画素値に補正係数WGniを乗算する。補正処理部43が、画素値の最大値でクリッピングすることで、明るさ補正画像CDMを得ることができる。画素値の最大値は、例えば、8ビット画像では255であり、10ビット画像では1023である。従って、全てのイメージセンサ13から得られる画像データの明るさを滑らかに繋ぎ合わせることができる。
画像結合部33の行う画像結合処理は、原稿20の搬送に従い、明るさ補正処理の確定した副走査方向(Y軸方向)の一画素分の画像データを結合し出力する。そして新たに副走査方向(Y軸方向)一画素分の画像データが追加される。
原稿20の搬送に従い、前述の処理を副走査方向(Y軸方向)に順次繰り返し行う。すなわち、実施の形態1に係る画像処理によれば、何らかの特別なハードウェアを追加する必要がない。また、原稿を読み取る前に特殊な基準チャートを読み取り、事前に補正する必要もない。
オーバーラップ領域R,Lを利用して、各イメージセンサ13の画像データ間の全体的な明るさ(輝度)を合わせる明るさ補正により、主走査方向の明暗の縞の発生を抑えられる。これにより、より原稿20に近い再生画像RPMを得ることができる。
ここで、明るさ補正部40は、明るさ補正を副走査方向(Y軸方向)のサイズを1画素としたオーバーラップ領域R,Lで行うことも可能である。このため、前述の一連の画像処理では、副走査方向(Y軸方向)が1画素の画像データを読み込むごとに、副走査方向(Y軸方向)が1画素の画像処理結果を出力する。しかし、副走査方向(Y軸方向)を1画素で処理すると、ノイズ成分が混入して、画像データの画素値の和TRn(*)の精度又は画像データの画素値の平均値ARn(*)の精度が低くなる場合がある。その結果、良好な明るさ補正が行えないこととなる。従って、オーバーラップ領域R,Lの副走査方向(Y軸方向)の画素数は、複数の画素を用いるのが望ましい。明るさ補正部に好適なのは、経験的に32画素程度である。
以上説明したように、実施の形態1に係る画像読取装置10は、多数の受光素子を直線状に並べた複数のイメージセンサ13を千鳥配列している。また、画像読取装置10は、隣り合うイメージセンサ13を互いの端部の検出範囲が重なるように主走査方向に並べている。
実施の形態1に係る画像処理装置30は、黒補正・白補正部31、ずれ補正部32、明るさ補正部40及び画像結合部33を有する。黒補正・白補正部31は、イメージセンサ13から出力された各画像データ(初期画像のデータ)FDMに対して、黒補正および白補正を行う。ずれ補正部32は、黒補正・白補正部31で補正された補正後の各画像データ(シェーディング補正画像のデータ)SDMに対して、副走査方向(Y軸方向)のずれの補正を行う。明るさ補正部40は、ずれ補正部32で副走査方向(Y軸方向)のずれが補正されたずれ補正画像DMのデータを用いて、主走査方向の両方の端部のオーバーラップ領域L,Rに含まれる画素の平均値を各々算出し、それらの平均値を用いて補正係数WGni,WGnqを算出する。明るさ補正部40は、その補正係数を用いて、ずれ補正画像DMに対して明るさ補正を行う。画像結合部33は、明るさ補正部40で明るさが補正された明るさ補正画像CDMを結合して再生画像を生成する。
従って、実施の形態1に係る画像処理によれば、何らかの特別なハードウェアを追加する必要がない。また、原稿を読み取る前に特殊な基準チャートを読み取り、事前に補正する必要もない。そして、実施の形態1に係る画像処理は、主走査方向の明暗の縞の発生を抑えられる。これにより、実施の形態1に係る画像処理は、より原稿20に近い再生画像RPMを得ることができる。
また、実施の形態1に係る画像処理装置30では、例えば、オーバーラップ領域R,Lのサイズは十画素程度である。各イメージセンサ13から出力される画像データ(初期画像のデータ)FDMは、一画素ずつ画素値に補正係数WGni,WGnqを乗算されてクリッピングされる。そのような変換処理を副走査方向(Y軸方向)に順次実行していく。
そして、画像処理装置30は、補正処理の確定した一画素分の画像データを出力する。そして、新たに読み込まれた一画素分の画像データを追加して、上述した一連の処理を実行する。
また、明るさ補正部40は、ずれ補正部32で副走査方向(Y軸方向)のずれが補正されたずれ補正画像DMのデータを用いて、主走査方向の両方の端部のオーバーラップ領域L,Rに含まれる画素の画素値の平均値を各々算出し、それらの平均値を用いて補正係数WGni,WGnqを算出する。明るさ補正部40は、その補正係数WGni,WGnqを画素値に乗算し、乗算結果をクリッピングする。従って、実施の形態1によれば、原稿20を読み取りながら、リアルタイムに画像の結合処理をすることができる。
実施の形態2.
実施の形態1における平均値計算部41は、例えば、オーバーラップ領域Rn−1に含まれる画像データの画素値の平均値ARn−1(*)とオーバーラップ領域Lに含まれる画像データの画素値の平均値AL(*)とを出力している。実施の形態2における平均値計算部41は、オーバーラップ領域Rn−1の画像データの画素値とオーバーラップ領域Lの画像データの画素値との間の差が大きい場合には、オーバーラップ領域Rn−1に含まれる画像データの画素値とオーバーラップ領域Lに含まれる画像データの画素値との間で平均を取る。そして、平均値計算部41は、これらの平均値を用いて平均値ARn−1(*)及び平均値AL(*)を求める。
上記の構成とすることで、製造誤差、取り付け誤差及びその他の要因によって、隣り合う矩形画像IMのオーバーラップ領域L,Rの間で画像データの画素値が大きく異なる場合でも、実施の形態2に係る画像処理装置は、その影響を受けにくい補正をすることができる。なお、製造誤差は、イメージセンサ13の製造の際に発生する各画素の感度バラツキ等の誤差である。また、取り付け誤差は、イメージセンサ13を画像読取装置10に取り付ける際に発生するイメージセンサ13の読み取り位置と照明光11の照明位置とのバラツキである。読み取り位置と照明位置とのバラツキにより読み取られた信号強度に誤差が発生する。
実施の形態1における平均値ARn−1(*)と平均値AL(*)とはそれぞれ、オーバーラップ領域Rn−1の画像データの画素値とオーバーラップ領域Lの画像データの画素値とを用いて計算される。オーバーラップ領域Rn−1の画像データの画素値とオーバーラップ領域Lの画像データの画素値とは、原稿上の同じ領域を別のセンサで読み取って得られたものである。そのため、理想の読取装置であれば、平均値ARn−1(*)は平均値AL(*)と等しい値となるはずである(ARn−1(*)=AL(*))。しかしながら、オーバーラップ領域Rn−1の画像データの画素値とオーバーラップ領域Lの画像データの画素値とは、製造誤差、取り付け誤差及びその他の要因により同じ値とはならない。
平均値ARn−1(*)と平均値AL(*)との差が大きくなれば、明るさ補正の精度が悪くなることがある。このような状況を避けるため、本実施の形態2においては、オーバーラップ領域Rn−1とオーバーラップ領域Lとの原稿20上で同じ位置に相当する画素同士の画素値が大きく異なる場合には、実施の形態1とは異なる処理を行う。
まず、画素値の大きく異なるオーバーラップ領域Rn−1の画素の画素値とオーバーラップ領域Lの画素の画素値と平均値を求める。そして、その平均値をオーバーラップ領域Rn−1及びオーバーラップ領域Lの画素値の大きく異なる画素の画素値とする。
つまり、オーバーラップ領域Rn−1及びオーバーラップ領域Lに含まれる画像データの対応する画素の画素値を、これらの対応する画素の平均値に置き換える。
この平均値に置きかえられた画素値を基に、平均値ARn−1(*)と平均値AL(*)とが算出される。ここで、平均値ARn−1(*),AL(*)は、オーバーラップ領域に含まれる画像データの画素値の平均値である。
これにより、明るさ補正の精度が悪くなることを防ぐことができる。以下、図面に基づいて、説明するが、実施の形態1と同一の構成要素には同一の符号を付しその説明を省略する。実施の形態1と同一の構成要素は、黒補正・白補正部31、ずれ補正部32、画像結合部33、補正係数算出部42及び補正処理部43である。
本実施の形態2による画像処理方法が適用される画像読取装置の構成は、実施の形態1と同様に図2に示されたブロック図で表される。なお、上述のように、実施の形態2の平均値計算部41は、実施の形態1の平均値計算部41と相違するが、同じ符号41を用いて説明する。
図2において、イメージセンサ13で読み取られた画像データ(初期画像)FDMは、黒補正・白補正部31に入力される。黒補正・白補正部31の出力(シェーディング補正画像)SDMは、ずれ補正部32に入力される。ずれ補正部32は、位置ずれを補正した画像データ(ずれ補正画像のデータ)DMを出力する。画像データ(ずれ補正画像のデータ)DMとは、画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1及びDRn−1のことである。画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn−1は、それぞれ領域I,L,R,Ln+1,Rn−1における画像データである。領域I,L,R,Ln+1,Rn−1については後述する。
つまり、画像データ(ずれ補正画像のデータ)DIは、領域Iにおける画像データである。画像データ(ずれ補正画像のデータ)DLは、領域Lにおける画像データである。画像データ(ずれ補正画像のデータ)DRは、領域Rにおける画像データである。画像データ(ずれ補正画像のデータ)DLn+1は、領域Ln+1における画像データである。画像データ(ずれ補正画像のデータ)DRn−1は、領域Rn−1における画像データである。
ずれ補正部32から出力される画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn−1は、明るさ補正部40に入力される。明るさ補正部40では、ずれ補正部32の出力(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn−1が補正処理部43に入力される。また、ずれ補正部32の出力(ずれ補正画像のデータ)DL,DR,DLn+1,DRn−1は、平均値計算部41に入力される。
平均値計算部41の出力(画素値の平均値AR,AL)は、補正係数算出部42に入力される。補正係数算出部42の出力(補正係数WGni,WGnq)は、補正処理部43にもう一方の入力信号として入力される。補正処理部43の出力は、明るさ補正部40の出力(明るさ補正画像)CDMとなる。明るさ補正部40の出力(明るさ補正画像)CDMは、画像結合部33に入力される。画像結合部33の出力(再生画像)RPMは、画像処理装置30の出力となる。
図6は、実施の形態2に係る画像処理装置30における平均値計算部41のブロック図である。平均値計算部41は、誤差検出部51及び選択加算部52を有する。
ずれ補正部32は、画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn−1を出力する。画像データ(ずれ補正画像のデータ)DL,DR,DLn+1,DRn−1は、平均値計算部41に入力される。また、閾値THは、平均値計算部41に入力される。閾値THは、ユーザが値を設定してレジスタなどに一時的に保存されている。
平均値計算部41へ入力された画像データ(ずれ補正画像のデータ)DL,DR,DLn+1,DRn−1は、選択加算部52に入力される。また、平均値計算部41へ入力された画像データ(ずれ補正画像のデータ)DL,DR,DLn+1,DRn−1は、誤差検出部51に入力される。平均値計算部41へ入力された閾値THは、誤差検出部51に入力される。
誤差検出部51は、フラグFLを出力する。フラグFLは、画像データの画素値同士の差分と閾値THとの大小関係を示すフラグである。「画素値の差分」とは、2つの画素値の差の絶対値のことである。誤差検出部51から出力されるフラグFLは、選択加算部52に入力信号として入力される。選択加算部52から出力される平均値ARn−1,ALは、平均値計算部41の出力となる。
ここで、図6を用いて、実施の形態1で示した式(1)に記載された平均値ARn−1(*),AL(*),AR(*),ALn+1(*)の求め方を詳細に説明する。平均値ARn−1(*),AL(*),AR(*),ALn+1(*)は、オーバーラップ領域L,Rに含まれる画像データの画素値の平均値である。
まず、画像データ(ずれ補正画像のデータ)DRn−1(*)、画像データ(ずれ補正画像のデータ)DL(*)及び閾値TH(*)を入力する。画像データ(ずれ補正画像のデータ)DRn−1(*)は、矩形画像IMn−1の中の矩形画像IM側のオーバーラップ領域Rn−1に含まれる画像である。画像データ(ずれ補正画像のデータ)DL(*)は、矩形画像IMの中の矩形画像IMn−1側のオーバーラップ領域Lに含まれる画像である。
画像データ(ずれ補正画像のデータ)DRn−1(*)と、画像データ(ずれ補正画像のデータ)DL(*)とは、オーバーラップ領域Rn−1,Lから取得した同じ領域の画像データである。上述のように、「オーバーラップ領域」とは、隣り合うイメージセンサ13の矩形画像IM同士の重複する部分である。イメージセンサ13は、千鳥配列されたライン状のイメージセンサである。画像データ(ずれ補正画像のデータ)DRn−1(*)と、画像データ(ずれ補正画像のデータ)DL(*)との同じ位置の画素値は、通常同じ値になる。
しかし、上述したように、設計的な制約又は製造誤差等により、同じ位置の画素値であっても隣り合うライン状のイメージセンサ13同士の対応する画素の画素値の差が大きくなる場合がある。隣り合うライン状のイメージセンサ13同士の画素値の差が大きい場合には、明るさ補正処理を行っても主走査方向の明暗の縞の発生を抑えることが難しくなる。そのため、式(2)の画像データの画素値の和TRn−1(*),TL(*)(ただし、n=2,・・・,N)を次のように計算する。画像データの画素値の和TL(*)及び画像データの画素値の和TR(*)の計算に関しては後述する。
例えば、図5において、オーバーラップ領域Rn−1及びオーバーラップ領域Lにおける左上の位置を(i,j)=(1,1)とする。左側は、−X軸側である。上側は、−Y軸側である。オーバーラップ領域Rn−1,Lのサイズは、Y軸方向をP画素とし、X軸方向をQ画素とする。そして、オーバーラップ領域Rn−1に含まれる画像データ(ずれ補正画像のデータ)DRn−1の位置(i,j)の画素ごとの画素値を画素値IMRi,j(*)と表す。また、オーバーラップ領域Lに含まれる画像データ(ずれ補正画像のデータ)DLの位置(i,j)の画素ごとの画素値を画素値IMLi,j(*)と表す。なお、位置(i,j)における画像データ(ずれ補正画像のデータ)DRn−1と画像データ(ずれ補正画像のデータ)DLとを画素対とする。
画素値IMRi,j(*)と画素値IMLi,j(*)との差Si,j(*)を以下の式(5)で定義する。また、画素値IMRi,j(*)と画素値IMLi,j(*)との差Si,j(*)を画素対の差分とする。ここで、「差分」とは、一方の値をもう一方の値から引いた値の絶対値とする。
i,j(*)=|IMRi,j(*)−IMLi,j(*)| ・・・・(5)
誤差検出部51は、差Si,j(*)と閾値TH(*)とを比較し、以下の処理を行う。
次の3つの条件を全て満たせば、誤差検出部51は、選択加算部52へ誤差が無いことを示すフラグFL=0を出力する。条件1は、「Si,j(R)<TH(R)」である。条件2は、「Si,j(G)<TH(G)」である。条件3は、「Si,j(B)<TH(B)」である。条件1から3までを満たさない場合には、誤差検出部51は、選択加算部52へ誤差が有ることを示すフラグFL=1を出力する。
選択加算部52は、フラグFL=0の場合には、画素値IMRi,j(*)と画素値IMLi,j(*)とを累積加算する。また、選択加算部52は、フラグFL=1の場合には、画素値IMRi,j(*)と画素値IMLi,j(*)との平均値IMAi,j=(IMRi,j(*)+IMLi,j(*))/2を累積加算する。
誤差検出部51による誤差の解析結果に基づき、選択加算部52は、誤差を軽減した画素値IMRi,j(*)と画素値IMLi,j(*)の累積加算を符号i=1〜Pについて実行し、符号j=1〜Qについて実行する。
選択加算部52は、上述の計算アルゴリズムをn=2,・・・,Nに対して行い、画像データの和TRn−1(*),TL(*)を得る。
次に、画像データ(ずれ補正画像のデータ)DMの画素値の和TL(*)及び画像データ(ずれ補正画像のデータ)DMの画素値の和TR(*)の計算について述べる。オーバーラップ領域Rの画像データ(ずれ補正画像のデータ)DR及びオーバーラップ領域LN+1の画像データ(ずれ補正画像のデータ)DLN+1は、読取装置から得られない。このため、誤差検出部51は、画像データ(ずれ補正画像のデータ)DMの和TL(*)及び画像データ(ずれ補正画像のデータ)DMの和TR(*)を求める際に、差Si,j(*)と閾値TH(*)とを用いた閾値処理をしなう。誤差検出部51は、選択加算部52へ誤差が無いことを示すフラグFL=0を出力する。選択加算部52は、画素値IMRi,j(*)と画素値IMLi,j(*)とを随時累積加算する。
式(1)の平均値ARn−1(*),AL(*),AR(*),ALn+1(*)は、画像データ(ずれ補正画像のデータ)DMの和TRn−1(*),TL(*),TR(*),TLn+1(*)をオーバーラップ領域R,Lの画素数(P×Q)で除算したものである。オーバーラップ領域R,Lのサイズは、Y軸方向をP画素とし、X軸方向をQ画素である。
この時点で、平均値ARn−1(*),AL(*),AR(*),ALn+1(*)又は画像データ(ずれ補正画像のデータ)DMの和TRn−1(*),TL(*),TR(*),TLn+1(*)が得られる。そして、補正係数算出部42は、オーバーラップ領域Rn−1を代表するパラメータ値WRn−1(*)を計算することができる。同様に、補正係数算出部42は、オーバーラップ領域Lを代表するパラメータ値WL(*)を計算することができる。また、補正係数算出部42は、オーバーラップ領域Rを代表するパラメータ値WR(*)を計算することができる。さらに、補正係数算出部42は、オーバーラップ領域Ln+1を代表するパラメータ値WLn+1(*)を計算することができる。


次に、パラメータ値WL(*),WR(*)を用い、矩形画像IMにおいて左端(−X軸方向の端)を1番目とし、主走査方向(X軸方向)のq番目に位置する画素の補正係数WGnq(*)を、補正係数算出部42にて次のように導出する。
n番目のイメージセンサ13の矩形画像データIMの主走査方向の画素数からオーバーラップ領域R,Lの主走査方向の画素数(2×画素数NO)を引いた画素数を画素数NIとする。また、オーバーラップ領域R,Lの主走査方向の幅を画素数で表して画素数NOとする。つまり、画素数NIに画素数NOの2倍を加算した値は、矩形画像IMの主走査方向の画素数である。画素数NOの2倍を加算する理由は、+X軸方向のオーバーラップ領域Rの主走査方向の画素数と−X軸方向のオーバーラップ領域Lの主走査方向の画素数とを加算するからである。このとき、矩形画像データIMに含まれる画素の位置は、画素の順番qで表すことができる。画素の順番qは、−X軸方向から+X軸方向にq=0、1、2、3、・・・、(NI+2×NO−1)と表現することができる。ただし、fixは小数点以下の値を打ち切る関数と定義して用いた。
この表記(fix)を用いて、矩形画像IMの主走査方向でq番目に位置する画素の補正係数WGnq(*)は、式(6)のように求められる。
WGnq(*)={WL(*)×(NI+NO−1−(q−fix(NO/2)))
+WR(*)×(q−fix(NO/2))}/(NI+NO−1)
q=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}
・・・・(6)
1番目(n=1)のイメージセンサ13の左側のオーバーラップ領域Lの補正係数WG1q(*)及びN番目(n=N)のイメージセンサ13の右側のオーバーラップ領域Rの補正係数WG(N)q(*)は、次の式(7)で求められる。
WG1q(*)=WL(*)
q=0、・・・、{fix(NO/2)−1}
WG(N)q(*)=WR(*)
q={NI+NO+fix(NO/2)+1}、・・・、{NI+2×NO−1}
・・・・(7)
補正処理部43は、補正係数WGnq(*)を補正係数算出部42から受け取る。補正処理部43は、矩形画像IMの各画素の画素値に対し、補正係数WGnq(*)を乗算する。各画素の位置は、副走査方向(Y軸方向)にp=fix(P/2)番目である。そして、主走査方向にq=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}番目である。
つまり、矩形画像IMに含まれる画像データ(ずれ補正画像のデータ)をDM(*)と表現すれば、明るさ補正画像のデータCDM(*)は、次の式(8)で求められる。
CDM(*)=DM(*)×WGnq(*) ・・・・(8)
ずれ補正画像のデータDM(*)は、次に示す3つの領域の画像データから構成される。第1の領域は、オーバーラップ領域Lの範囲のX軸方向の中間に位置する画素からオーバーラップ領域Lの範囲の領域Iと隣り合う画素までの領域である。第2の領域は、領域Iである。第3の領域は、オーバーラップ領域Rの範囲の領域Iと隣り合う画素からオーバーラップ領域Rの範囲のX軸方向の中間に位置する画素までの領域である。画素値の最大値は、例えば、8ビット画像では255であり、10ビット画像では1023である。従って、画素値の最大値でCDM(*)をクリッピングし、最終的な明るさ補正画像CDMを得る。
上記処理を全てのイメージセンサ13から得られる画像データ(初期画像)FDMに対し実行することで、イメージセンサ13から得られる全ての画像データ(初期画像)FDMの明るさを滑らかに繋ぎ合わせることができる。
上記のように、本実施の形態2においては、オーバーラップ領域Rn−1とオーバーラップ領域Lとの同じ位置に相当する画素同士の画素値が大きく異なる場合には、画素値が大きく異なる画素対の画素値を、その画素対の平均値に置き換えて、平均値ARn−1(*)と平均値AL(*)とを算出する。
また、本実施の形態2においては、赤色(R)、緑色(G)及び青色(B)のどれか一つでも画素同士の画素値が異なる場合には、それらの画素値を画素対の平均値に置き換える。これにより、明るさ補正の精度が悪くなることを抑えることができる。
画像データ(ずれ補正画像のデータ)DRn−1,DL,DR,DLn+1の画素値の和TRn−1(*),TL(*),TR(*),TLn+1(*)についても同様である。
オーバーラップ領域Rn−1又はオーバーラップ領域Lを読み取るどちらか片方のイメージセンサ13又は光学系等に埃など、点のゴミが存在した場合には、平均値ARn−1(*)と平均値AL(*)との間に大きな差ができてしまう。平均値ARn−1(*)は、オーバーラップ領域Rn−1の画素値の平均値である。平均値AL(*)は、オーバーラップ領域Lの画素値の平均値である。同様に、オーバーラップ領域R又はオーバーラップ領域Ln+1を読み取るどちらか片方のイメージセンサ13又は光学系等に埃など、点のゴミが存在した場合には、平均値AR(*)と平均値ALn+1(*)との間に大きな差ができてしまう。その結果、明るさを補正した後の明るさ補正画像CDMには、主走査方向に線状の弊害が発生してしまう。
副走査方向に一定の長さのゴミが存在する場合には、副走査方向に数ライン分の幅の主走査方向に伸びる帯状の弊害が発生する。平均値AR(*)は、オーバーラップ領域Rの画素値の平均値である。平均値ALn+1(*)は、オーバーラップ領域Ln+1の画素値の平均値である。前述のような計算方法を用いることで、片方のイメージセンサ13又は光学系にゴミなどが存在しても、その影響を抑えて明るさを補正することができる。
なお、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。
10 画像読取装置、11 照明光、 12 読取光学系、 13 イメージセンサ、 14 基板、 15 白基準板、 16 読取位置、 20 原稿、 30 画像処理装置、 31 黒補正・白補正部、 32 ずれ補正部、 33 画像結合部、 40 明るさ補正部、 41 平均値計算部、 42 補正係数算出部、 43 補正処理部、 51 誤差検出部、52 選択加算部、 DI 同時刻に読み取られたデータ、 IMn−1,IM,IMn+1 矩形画像、 In−1,I,In+1 領域、 Rn−1,R,Rn+1 オーバーラップ領域、 Ln−1,L,Ln+1 オーバーラップ領域、 WGnq 補正係数、 NO,NI 画素数、 F 搬送方向、 OL オーバーラップ部。
本発明に係る画像処理装置は、隣り合う互いの端部の検出範囲が重なる部分を有するように主走査方向に並べられた複数のライン状のイメージセンサが出力する画像であって、前記検出範囲が重なる部分に対応する領域にオーバーラップ領域を有する画像を初期画像として入力し、前記オーバーラップ領域の画素値を基に補正係数を算出し、前記補正係数を用いて前記初期画像の明るさを補正して明るさ補正画像を出力する明るさ補正部と、前記明るさ補正画像を結合して再生画像を生成する画像結合部と、前記初期画像に対し、黒補正及び白補正を行い、シェーディング補正画像を出力する黒補正・白補正部と、隣り合う前記イメージセンサの前記シェーディング補正画像に対して、副走査方向の位置ずれを補正してずれ補正画像を出力するずれ補正部とを備え、補正対象とする前記ずれ補正画像に対して、主走査方向の一端の方向を第1の方向とし、他端の方向を第2の方向とし、第1の方向のオーバーラップ領域を第1のオーバーラップ領域とし、第2の方向のオーバーラップ領域を第2のオーバーラップ領域とし、前記補正対象のずれ補正画像の第1の方向に隣り合うずれ補正画像の前記第1のオーバーラップ領域と重なるオーバーラップ領域を第3のオーバーラップ領域とし、前記補正対象のずれ補正画像の第2の方向に隣り合うずれ補正画像の前記第2のオーバーラップ領域と重なるオーバーラップ領域を第4のオーバーラップ領域とし、*を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する前記初期画像の主走査方向の画素の順番を示す記号とし、第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域の画素値の加算値をTR (*)とし、前記第3のオーバーラップ領域の画素値の加算値をTL n+1 (*)とし、前記TR (*)に対する{TR (*)+TL n+1 (*)}/2の比をWR (*)とし、前記第2のオーバーラップ領域の画素値の加算値をTL (*)とし、前記第4のオーバーラップ領域の画素値の加算値をTR n―1 (*)とし、前記TL (*)に対する{TR n−1 (*)+TL (*)}/2の比をWL (*)とし、前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、fixを小数点以下の値を打ち切る関数と定義する場合に、n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WG ni (*)は、
WG ni (*)={WL (*)×(NI+NO−1−(i−fix(NO/2)))+WR (*)×(i−fix(NO/2))}/(NI+NO−1)
i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}
で表されるものである。

Claims (10)

  1. 隣り合う互いの端部の検出範囲が重なる部分を有するように主走査方向に並べられた複数のライン状のイメージセンサが出力する画像であって、前記検出範囲が重なる部分に対応する領域にオーバーラップ領域を有する画像を初期画像として入力し、
    前記オーバーラップ領域の画素値を基に補正係数を算出し、前記補正係数を用いて前記初期画像の明るさを補正して明るさ補正画像を出力する明るさ補正部と、
    前記明るさ補正画像を結合して再生画像を生成する画像結合部と
    を備え、
    前記補正係数は、複数の前記オーバーラップ領域の画素に対応した値の和について前記和を加算し、前記加算をした値を前記和のうちのひとつで割ることにより得られる比率を用いて算出される画像処理装置。
  2. 前記補正係数は、補正対象とする前記ずれ補正画像に対して、主走査方向の一端の方向を第1の方向とし、他端の方向を第2の方向として、
    第1の方向のオーバーラップ領域を第1のオーバーラップ領域とし、第2の方向のオーバーラップ領域を第2のオーバーラップ領域とし、前記補正対象のずれ補正画像の第1の方向に隣り合うずれ補正画像の前記第1のオーバーラップ領域と重なるオーバーラップ領域を第3のオーバーラップ領域とし、前記補正対象のずれ補正画像の第2の方向に隣り合うずれ補正画像の前記第2のオーバーラップ領域と重なるオーバーラップ領域を第4のオーバーラップ領域とする場合に、
    前記第1のオーバーラップ領域の画素に対応した値の和及び前記第3のオーバーラップ領域の画素に対応した値の和の加算値を前記第1のオーバーラップ領域の画素値の和で割った第1の比率と、前記第2のオーバーラップ領域の画素値の和及び前記第4のオーバーラップ領域の画素に対応した値の和の加算値を前記第2のオーバーラップ領域の画素に対応した値の和で割った第2の比率とを用いて算出される請求項1に記載の画像処理装置。
  3. 前記初期画像に対し、黒補正及び白補正を行い、シェーディング補正画像を出力する黒補正・白補正部(31)と、
    隣り合う前記イメージセンサの前記シェーディング補正画像に対して、副走査方向の位置ずれを補正してずれ補正画像を出力するずれ補正部と
    をさらに備えた請求項2に記載の画像処理装置。
  4. 前記画素に対応した値は、画素値である請求項3に記載の画像処理装置。
  5. *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
    第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域の画素値の加算値をTR(*)とし、前記第3のオーバーラップ領域の画素値の加算値をTLn+1(*)とし、前記TR(*)に対する{TR(*)+TLn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域の画素値の加算値をTL(*)とし、前記第4のオーバーラップ領域の画素値の加算値をTRn―1(*)とし、前記TL(*)に対する{TRn−1(*)+TL(*)}/2の比をWL(*)とし、
    前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、fixを小数点以下の値を打ち切る関数と定義する場合に、
    n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO−1−(i−fix(NO/2)))+WR(*)×(i−fix(NO/2))}/(NI+NO−1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}
    で表される請求項4に記載の画像処理装置。
  6. *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
    第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域の画素値の平均値をAR(*)とし、前記第3のオーバーラップ領域の画素値の平均値をALn+1(*)とし、前記AR(*)に対する{AR(*)+ALn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域の画素値の平均値をAL(*)とし、前記第4のオーバーラップ領域の画素値の平均値をARn―1(*)とし、前記AL(*)に対する{ARn−1(*)+AL(*)}/2の比をWL(*)とし、
    前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、
    fixを小数点以下の値を打ち切る関数と定義する場合に、
    n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO−1−(i−fix(NO/2)))+WR(*)×(i−fix(NO/2))}/(NI+NO−1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}
    で表される請求項4に記載の画像処理装置。
  7. 前記第1のオーバーラップ領域及び前記第3のオーバーラップ領域の対応する画素同士、又は前記第2のオーバーラップ領域及び前記第4のオーバーラップ領域の対応する画素同士を画素対として、
    前記画素に対応した値は、
    前記画素対の差分を外部から設定された閾値と比較し、赤色、緑色及び青色のすべての色において前記画素対の差分が外部から設定された閾値より小さい場合には、前記画素と設定され、
    赤色、緑色及び青色のどれかにおいて前記画素対の差分が外部から設定された閾値以上の場合には、前記画素対の平均値と設定される請求項2に記載の画像処理装置。
  8. *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
    第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域における前記画素に対応した値の加算値をTR(*)とし、前記第3のオーバーラップ領域における前記画素に対応した値の加算値をTLn+1(*)とし、前記TR(*)に対する{TR(*)+TLn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域における前記画素に対応した値の加算値をTL(*)とし、前記第4のオーバーラップ領域における前記画素に対応した値の加算値をTRn―1(*)とし、前記TL(*)に対する{TRn−1(*)+TL(*)}/2の比をWL(*)とし、
    前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、fixを小数点以下の値を打ち切る関数と定義する場合に、
    n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO−1−(i−fix(NO/2)))+WR(*)×(i−fix(NO/2))}/(NI+NO−1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}
    で表される請求項7に記載の画像処理装置。
  9. *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
    第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域の前記画素に対応した値の平均値をAR(*)とし、前記第3のオーバーラップ領域の前記画素に対応した値の平均値をALn+1(*)とし、前記AR(*)に対する{AR(*)+ALn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域の前記画素に対応した値の平均値をAL(*)とし、前記第4のオーバーラップ領域の画素値の前記画素に対応した値をARn―1(*)とし、前記AL(*)に対する{ARn−1(*)+AL(*)}/2の比をWL(*)とし、
    前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、
    fixを小数点以下の値を打ち切る関数と定義する場合に、
    n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO−1−(i−fix(NO/2)))+WR(*)×(i−fix(NO/2))}/(NI+NO−1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)−1}
    で表される請求項7に記載の画像処理装置。
  10. 隣り合う互いの端部の検出範囲が重なる部分を有するように主走査方向に並べられた複数のライン状のイメージセンサが出力する画像であって、前記検出範囲が重なる部分に対応する領域にオーバーラップ領域を有する画像を初期画像として入力し、
    前記初期画像に対し、黒補正及び白補正を行い、シェーディング補正画像を出力する黒補正・白補正ステップと、
    隣り合う前記イメージセンサの前記シェーディング補正画像に対して、副走査方向の位置ずれを補正してずれ補正画像を出力するずれ補正ステップと、
    前記オーバーラップ領域の画素値を基に補正係数を算出し、前記補正係数を用いて前記ずれ補正画像の明るさを補正して明るさ補正画像を出力する明るさ補正ステップと、
    前記明るさ補正画像を結合して再生画像を生成する画像結合ステップと
    を備え、
    前記補正係数は、補正対象とする前記ずれ補正画像に対して、主走査方向の一端の方向を第1の方向とし、他端の方向を第2の方向として、
    第1の方向のオーバーラップ領域を第1のオーバーラップ領域とし、第2の方向のオーバーラップ領域を第2のオーバーラップ領域とし、前記補正対象のずれ補正画像の第1の方向に隣り合うずれ補正画像の前記第1のオーバーラップ領域と重なるオーバーラップ領域を第3のオーバーラップ領域とし、前記補正対象のずれ補正画像の第2の方向に隣り合うずれ補正画像の前記第2のオーバーラップ領域と重なるオーバーラップ領域を第4のオーバーラップ領域とする場合に、
    前記第1のオーバーラップ領域の画素に対応した値の和及び前記第3のオーバーラップ領域の画素に対応した値の和の加算値を前記第1のオーバーラップ領域の画素値の和で割った第1の比率と、前記第2のオーバーラップ領域の画素値の和及び前記第4のオーバーラップ領域の画素に対応した値の和の加算値を前記第2のオーバーラップ領域の画素に対応した値の和で割った第2の比率とを用いて算出される画像処理方法。
JP2015502748A 2013-02-28 2014-02-14 画像処理装置及び画像処理方法 Expired - Fee Related JP6052389B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013039404 2013-02-28
JP2013039404 2013-02-28
PCT/JP2014/000750 WO2014132583A1 (ja) 2013-02-28 2014-02-14 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP6052389B2 JP6052389B2 (ja) 2016-12-27
JPWO2014132583A1 true JPWO2014132583A1 (ja) 2017-02-02

Family

ID=51427863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015502748A Expired - Fee Related JP6052389B2 (ja) 2013-02-28 2014-02-14 画像処理装置及び画像処理方法

Country Status (2)

Country Link
JP (1) JP6052389B2 (ja)
WO (1) WO2014132583A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11647141B2 (en) * 2020-01-31 2023-05-09 Mitsubishi Electric Corporation Image reading device and image reading method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004139219A (ja) * 2002-10-16 2004-05-13 Seiko Instruments Inc 画像処理方法および画像処理装置
JP5570315B2 (ja) * 2010-06-17 2014-08-13 三菱電機株式会社 画像読取装置の画像処理方法および画像読取装置

Also Published As

Publication number Publication date
WO2014132583A1 (ja) 2014-09-04
JP6052389B2 (ja) 2016-12-27

Similar Documents

Publication Publication Date Title
JP5672776B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20090040343A1 (en) Methods and apparatuses for defective pixel detection and correction
US10326908B2 (en) Image reading apparatus and image reading method
US9578264B2 (en) Image processing device, imaging device, and image processing method
JP6249939B2 (ja) 画像処理装置、画像処理方法、画像読取装置、及び画像処理プログラム
JP3157063B2 (ja) カラー画像入力装置
JP2006050627A (ja) 色の歪みを補正するための方法およびシステム
US20070285683A1 (en) Image Scanner and Signal Processing Method
KR20070048961A (ko) 디스플레이 장치 화면의 공간적 불균일을 보정하는 방법 및장치
JP6052389B2 (ja) 画像処理装置及び画像処理方法
US7738738B2 (en) Mean preserving interpolation calculation circuit, pixel interpolation circuit, mean preserving interpolation method, and pixel interpolation method
JP5570315B2 (ja) 画像読取装置の画像処理方法および画像読取装置
CN106713694A (zh) 图像读取设备和使用其的图像形成设备
JP5511535B2 (ja) 画像読取装置の画像処理方法および画像読取装置
US10848726B2 (en) Color-shift calibration method and device
JP6422428B2 (ja) 画像処理装置、画像処理方法、画像読取装置、及びプログラム
JP5517769B2 (ja) 画像読取装置の画像処理方法および画像読取装置
JP2017098775A (ja) 撮像装置
JP2008219593A (ja) 画像処理装置及び方法
JP2658089B2 (ja) カラー画像処理方法
JP2006208267A (ja) 位相差検出方式による距離情報分布の取得方法、補正方法および表示方法
JP2007068126A (ja) 欠陥画素補正方法及び装置
JP4900435B2 (ja) 欠陥画素出力信号補正方法
JP4702340B2 (ja) 画像表示装置
JP5590911B2 (ja) 画像読取装置及び方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R151 Written notification of patent or utility model registration

Ref document number: 6052389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees