JP2004166151A - Method and device for producing image data - Google Patents

Method and device for producing image data Download PDF

Info

Publication number
JP2004166151A
JP2004166151A JP2002332400A JP2002332400A JP2004166151A JP 2004166151 A JP2004166151 A JP 2004166151A JP 2002332400 A JP2002332400 A JP 2002332400A JP 2002332400 A JP2002332400 A JP 2002332400A JP 2004166151 A JP2004166151 A JP 2004166151A
Authority
JP
Japan
Prior art keywords
image data
image
light receiving
weighted addition
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002332400A
Other languages
Japanese (ja)
Inventor
Takao Kuwabara
孝夫 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002332400A priority Critical patent/JP2004166151A/en
Publication of JP2004166151A publication Critical patent/JP2004166151A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent quality deterioration of an image produced by combining a plurality of image portions sharing a common region in a method, and to provide device for producing image data. <P>SOLUTION: In the method and device for producing image data, a line-detecting means 20 detects light reflected at a linear region S on an original 30 upon irradiation of a light from a linear light source 62, by moving the original 30 in the sub-scanning Y direction with respect to the line-detecting means 20 which is provided with line sensors 10A and 10B, comprising a plurality of light-receiving sections disposed linearly, such that the light-receiving sections Ak and B4 located at the end portions 11A and 11B of the respective line sensors detect the light emitted from the same position P located on the original 30 in duplicate, and one piece of image data is obtained by giving a weighting processing to the image data obtained from the light-receiving sections Ak and B4 which detect the light emitted from the same position in duplicate, and the image data which show overall image information the original 30 is bearing is produced by adding noise components which are reduced by the weighting processing. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像データ作成方法および装置に関し、同一領域を共有する複数の画像部分それぞれを表す複数の画像データ群を合成して1つの画像を表す画像データを作成する画像データ作成方法および装置に関するものである。
【0002】
【従来の技術】
従来より、主走査方向に線状に並べられた多数の受光部を有するラインセンサからなるライン検出部を原稿上に副走査方向に移動させることにより、この原稿を読み取る装置が知られている。このような装置で大判の原稿を読み取るには長尺のラインセンサを備えた幅広のライン検出部が使用されるが、継ぎ目の無い長尺のラインセンサは製造上の都合により実現が難しいので、複数のラインセンサを互いの端部が重なるように主走査方向に並べて、全体として1本の長尺のラインセンサとしての機能を果たすように構成したライン検出手段が用いられている。
【0003】
このように構成したライン検出手段で大判原稿を読み取る場合には、各ラインセンサの端部に位置するそれぞれの受光部において上記大判原稿上の同一位置を重複して検出し、各ラインセンサ毎に大判原稿中の上記同一位置を共有する画像部分を表す画像データ(画像データ群ともいう)を取得し、これらの画像データ群を合成してこの大判原稿の全体を表す画像データを作成している。
【0004】
上記大判原稿を構成する複数の画像部分それぞれを表す画像データ群を合成して大判原稿の全体を表す画像データ作成する手法として、各ラインセンサの互いに重なる端部に位置する受光部によって検出された上記大判原稿上の同一位置を表す複数の画像データに対して、ラインセンサのより端に位置する受光部から取得された画像データほど重み付けを小さくする重み付け加算処理を施して各位置毎の画像データを得、これらの画像データを用いて上記大判原稿の全体を表す画像データを作成する手法が知られている(例えば、特許文献1、および特許文献2参照)。ここで、大判原稿の全体を表す画像中の重み付け加算処理が施された画像データによって表される領域は副走査方向に延びる帯状の領域となる。
【0005】
【特許文献1】
特開2002−57860号公報
【0006】
【特許文献2】
米国特許第6,348,981号明細書
【0007】
【発明が解決しようとする課題】
しかしながら、上記重み付け加算処理を施す手法では、上記重み付け加算処理が施された帯状の画像領域が含むノイズ成分と、上記重み付け加算処理が施されていない上記帯状領域以外の画像領域が含むノイズ成分との差により、この帯状の画像領域に沿ってスジが現れ、上記大判原稿を表す画像全体としての品質が低下するという問題がある。
【0008】
この帯状の画像領域に沿って現れるスジは、重み付け加算処理によって画像データに含まれるノイズ成分が平均化されて小さくなった結果、重み付け加算処理が施されていない画像データに含まれるノイズ成分と重み付け加算処理が施された画像データに含まれるノイズ成分との差が画像の質感の違いとなって現れたものである。
【0009】
なお、この問題は、上記のように大判原稿上に複数のラインセンサを移動させて画像データを取得する場合に限らず、同一領域を共有する複数の画像部分それぞれの上記同一領域を表す複数の画像データに重み付け加算処理を施して合成し、1つの全体画像を表す画像データを作成する場合に共通する問題である。
【0010】
本発明は上記事情に鑑みてなされたものであり、同一領域を共有する複数の画像部分を合成して作成される画像の品質低下を抑制することができる画像データ作成方法および装置を提供することを目的とするものである。
【0011】
【課題を解決するための手段】
本発明の画像データ作成方法は、同一領域を共有する複数の画像部分それぞれを表す複数の画像データ群を合成して1つの全体画像を表す画像データを作成する際に、全体画像における前記同一領域の各位置の画像データとして、各位置毎に、画像データ群それぞれに属するその位置の複数の画像データに対して、前記画像部分のより端に位置する画像データほど重み付けを小さくした重み付け加算処理を施して1つの画像データを得、この画像データを用いて全体画像を表す画像データを作成する画像データ作成方法であって、前記重み付け加算処理により得られた画像データに対しこの重み付け加算処理により低減されたノイズ成分を補填して全体画像を表す画像データを作成することを特徴とするものである。
【0012】
本発明の画像データ作成装置は、同一領域を共有する複数の画像部分それぞれを表す複数の画像データ群を合成して1つの全体画像を表す画像データを作成する際に、全体画像における前記同一領域の各位置の画像データとして、各位置毎に、画像データ群それぞれに属するその位置の複数の画像データに対して、前記画像部分のより端に位置する画像データほど重み付けを小さくした重み付け加算処理を施して1つの画像データを得、この画像データを用いて全体画像を表す画像データを作成する画像データ作成装置であって、前記重み付け加算処理により得られた画像データに対しこの重み付け加算処理により低減されたノイズ成分を補填して全体画像を表す画像データを作成することを特徴とするものである。
【0013】
本発明のもう1つの画像データ作成方法は、線状に並べられた多数の受光部を有する複数のラインセンサを、これらのラインセンサそれぞれの端部に位置する受光部が画像担持体の同一位置から発せられた光を互いに重複検出するように、主走査方向に並べて構成したライン検出手段に対して、画像担持体を主走査方向と交わる副走査方向に相対的に移動させながら、この画像担持体から発せられた光をライン検出手段で検出して画像担持体が担持する画像情報を表す画像データを作成する画像データ作成方法であって、前記複数のラインセンサの受光部によって光が重複検出された各位置の画像データとして、各位置毎に、該位置から発せられた光を重複検出した複数のラインセンサの各受光部から得られた画像データに対し前記ラインセンサのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して1つの画像データを得、この重み付け加算処理により得られた画像データに対しこの重み付け加算処理によって低減されたノイズ成分を補填して得た画像データを採用して、画像情報の全体を表す画像データを作成することを特徴とするものである。
【0014】
本発明のもう1つの画像データ作成装置は、線状に並べられた多数の受光部を有する複数のラインセンサを、これらのラインセンサそれぞれの端部に位置する受光部が画像担持体の同一位置から発せられた光を互いに重複検出するように、主走査方向に並べて構成したライン検出手段と、このライン検出手段に対して画像担持体を主走査方向と交わる副走査方向に相対的に移動させる走査手段と、ライン検出手段に対して画像担持体を副走査方向に相対的に移動させながら、この画像担持体から発せられた光をライン検出手段で検出して取得した画像データに基づき、画像担持体が担持する画像情報を表す画像データを作成する画像データ作成手段とを備えた画像データ作成装置であって、前記画像データ作成手段が、前記複数のラインセンサの受光部によって光が重複検出された各位置毎に、該位置から発せられた光を重複検出した複数のラインセンサの各受光部から得られた画像データに対し前記ラインセンサのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して1つの画像データを得る重み付け加算処理手段と、前記重み付け加算処理により得られた画像データに対しこの重み付け加算処理によって低減されたノイズ成分を補填するノイズ補填手段とを備え、前記複数のラインセンサの受光部によって光が重複検出された各位置の画像データとして、前記ノイズ成分が補填された画像データを採用して、前記画像情報を表す画像データを作成することを特徴とするものである。
【0015】
前記補填とは、重み付け加算処理によって低減されたノイズ成分を完全に補填する場合に限らず、重み付け加算処理によって低減されたノイズ成分の一部分を補填する場合をも意味するものである。
【0016】
前記画像担持体から発せられた光とは、画像担持体で反射された光、画像担持体を透過した光、あるいは励起光の照射等を受けて画像担持体から発生した光等であって、画像情報を担持している光を意味するものである。
【0017】
前記画像担持体としては、例えば、表面に画像情報が形成された紙やフィルム、あるいは基板上に蓄積性蛍光体層を積層して作成した放射線像変換パネル等を用いることができる。画像担持体として放射線像変換パネルを用いる場合には、励起光の照射により蓄積性蛍光体層から発生した輝尽発光光、すなわち、この蓄積性蛍光体層に潜像として記録された放射線像(画像情報)を示す光が画像担持体から発せられた光となる。
【0018】
【発明の効果】
本発明の画像データ作成方法および装置は、同一領域を共有する複数の画像部分それぞれを表す複数の画像データ群を合成して1つの全体画像を表す画像データを作成する際に、全体画像における上記同一領域の各位置の画像データとして、各位置毎に、画像データ群それぞれに属するその位置の複数の画像データに対して、上記画像部分のより端に位置する画像データほど重み付けを小さくした重み付け加算処理を施して1つの画像データを得、この画像データを用いて全体画像を表す画像データを作成するにあたり、上記重み付け加算処理により得られた画像データに対しこの重み付け加算処理により低減されたノイズ成分を補填して全体画像を表す画像データを作成するようにしたので、全体画像中の上記同一領域に表れるノイズ成分と全体画像中の上記同一領域から外れた領域に表れるノイズ成分との差を小さくすることができ、各領域における画像の質感の差を小さくすることができるので、合成された全体画像としての品質の低下を抑制することができる。ここで、例えば、上記同一領域が細長い場合には、各領域における画像の質感の差を小さくする効果によって、全体画像中のこの同一領域に沿って現れるスジの発生を防止することができる。
【0019】
本発明の他の画像データ作成方法および装置は、線状に並べられた多数の受光部を有する複数のラインセンサを、これらのラインセンサそれぞれの端部に位置する受光部が画像担持体の同一位置から発せられた光を互いに重複検出するように、主走査方向に並べて構成したライン検出手段に対して、画像担持体を主走査方向と交わる副走査方向に相対的に移動させながら、この画像担持体から発せられた光をライン検出手段で検出して画像担持体が担持する画像情報を表す画像データを作成するにあたり、上記複数のラインセンサの受光部によって光が重複検出された各位置の画像データとして、各位置毎に、各位置から発せられた光を重複検出した複数のラインセンサの各受光部から得られた画像データに対しラインセンサのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して1つの画像データを得、この重み付け加算処理により得られた画像データに対し上記重み付け加算処理によって低減されたノイズ成分を補填して得た画像データを採用して、画像情報の全体を表す画像データを作成するようにしたので、上記同一位置から発せられた光を互いに重複検出する受光部から取得された画像データが表す画像領域のノイズ成分と、上記同一位置から発せられた光を互いに重複検出する受光部とは異なる受光部から取得された画像データが表す画像領域のノイズ成分との差を小さくすることができ、各領域における画像の質感の差を小さくすることができるので、画像全体としての品質の低下を抑制することができる。ここで、例えば、上記各領域における画像の質感の差を小さくする効果によって、画像全体の中の、受光部によって光が重複検出された位置の画像データが表す画像領域に沿って現れるスジの発生を防止することができる。
【0020】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を用いて説明する。図1は本発明の実施の形態による画像データ作成装置の概略構成を示す斜視図、図2は原稿で反射されライン検出部の受光部に結像される光の光路を示す拡大斜視図、である。
【0021】
本発明の実施の形態による画像データ作成装置100は、線状に並べられた多数の受光部を有するラインセンサ10A、10Bを、これらのラインセンサ10A、10Bそれぞれの端部11A、11Bに位置する受光部が画像担持体である原稿30の同一位置から発せられた光を互いに重複検出するように、主走査方向(図中矢印X方向、以後、主走査X方向という)に並べて構成したライン検出部20と、このライン検出部20に対して、原稿30を主走査X方向と交わる副走査方向(図中矢印Y方向、以後、副走査Y方向という)に移動させる副走査部40と、ライン検出部20に対して原稿30を副走査Y方向に移動させながら、原稿30から発せられた光をライン検出部20で検出して取得した画像データに基づき、原稿30が担持する画像情報を表す画像データを作成する画像データ作成手段50とを備えている。
【0022】
画像データ作成手段50は、ラインセンサ10A、10Bの受光部によって光が重複検出された各位置の画像データとして、各位置毎に、各位置から発せられた光を重複検出したラインセンサ10A、10Bの各受光部(以後、省略して、互いに重複する受光部という)から得られた画像データに対しこれらのラインセンサのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して1つの画像データを得る加算処理部51と、上記重み付け加算処理により得られた画像データに対しこの重み付け加算処理によって低減されたノイズ成分を補填するノイズ補填部52とを備え、ラインセンサ10A、10Bの受光部によって光が重複検出された各位置の画像データとして、上記ノイズ成分が補填された画像データを採用するとともに、上記互いに重複する受光部とは異なる受光部から得られた画像データを採用して原稿30が担持する画像情報の全体を表す画像データを作成する。
【0023】
なお、上記補填は、線状に並べられた多数の受光部を有する1つの継ぎ目の無い1本のラインセンサからなるライン検出手段を用いて、画像担持体が担持する画像情報の全体を表す画像データを取得したときに、この取得された画像データに発生したであろうノイズ成分と同等のノイズ成分を上記重み付け加算処理が施された画像データが持つようにすることを目標に補填するものであるが、この補填は、作成された画像全体の中の各領域に表れるノイズ成分の差を小さくすることができれば、重み付け加算処理によって低減されたノイズ成分を完全に補填する場合に限らず、重み付け加算処理によって低減されたノイズ成分の一部分あるいは、重み付け加算処理によって低減されたノイズ成分以上のものを補填するものであってもよい。
【0024】
ライン検出部20は、ラインセンサ10A、10Bの他に、原稿30上の主走査X方向に延びる線状の領域Sの像をラインセンサ10A、10Bそれぞれの受光部上に結像させる屈折率分布型レンズ等からなる主走査X方向に延びる結像レンズ21A、21Bと、結像レンズ21A、21Bを通して伝播される光をラインセンサ10A、10Bそれぞれの受光部で受光し検出した電気的な信号をデジタル値からなる画像データに変換するA/D変換器23A、23Bとを備え、結像レンズ21Aが、原稿30上の主走査X方向に延びる線状の領域Sの一部分である領域S1の像をラインセンサ10Aの受光部上に結像し、結像レンズ21Bが、上記線状の領域Sの一部分であり上記領域S1と一部分が重複する領域S2の像をラインセンサ10Bの受光部上に結像する。
【0025】
また、原稿30は主走査X方向に並べられた多数のLD光源とこれらのLD光源から射出された光を上記線状の領域Sに集光させるトーリックレンズとからなるライン光源62によって照明され、このライン光源62からの光の照射を受けて原稿30上の線状の領域S1、S2それぞれで反射された光がラインセンサ10A、10Bそれぞれの受光部上に結像される。
【0026】
次に上記実施の形態における作用について説明する。
【0027】
図3は2つのラインセンサそれぞれから取得された画像部分を合成する様子を示す概念図、図4は2つの画像データ群を合成する様子を示す概念図である。
【0028】
副走査部40の駆動により原稿30を副走査Y方向に移動させながら、ライン光源62で原稿30を照明する。ライン光源62からの光の照射を受けて原稿30上の線状の領域Sで反射された光は、結像レンズ21A、21Bを通して、ラインセンサ10Aの受光部およびラインセンサ10Bの受光部に結像される。上記互いに重複する受光部において、例えば、原稿30上の線状の領域S中の領域S1および領域S2に含まれる位置Pで反射された光が、結像レンズ21A、21Bそれぞれを通して、ラインセンサ10Aの端部11Aに位置する上記互いに重複する受光部の一方である受光部Akと、ラインセンサ10Bの端部11Bに位置する互いに重複する受光部の他方である受光部B4とにそれぞれ結像され受光される(図2参照)。
【0029】
ラインセンサ10Aの受光部で受光され検出された電気的な信号はA/D変換器23AでA/D変換され画像データ群Aが得られ、ラインセンサ10Bの受光部で受光され検出された電気的な信号はA/D変換器23BでA/D変換され画像データ群Bが得られる。上記画像データ群Aおよび画像データ群Bの各画像データは原稿30上の各位置毎の画像情報を表す。
【0030】
ライン検出部20から出力された画像データ群Aと画像データ群Bは画像データ作成手段50の重み付け加算処理部51に入力され、重み付け加算処理部51が、画像データ群Aおよび画像データ群Bの中の上記互いに重複する受光部それぞれから得られた画像データに対して、ラインセンサ10Aあるいはラインセンサ10Bのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して各位置毎の1つの画像データを得る。その後、これらの画像データはノイズ補填部52に入力され、ノイズ補填部52が、上記重み付け加算処理が施された画像データそれぞれに対し、この重み付け加算処理によって低減されたノイズ成分を補填する。そして、上記互いに重複する受光部から得られたノイズ成分が補填された画像データと、互いに重複する受光部とは異なる受光部から得られた画像データとを用いて、原稿30が担持する画像情報の全体を示す全体画像WWを表す画像データWを作成する。
【0031】
ここで、図3に示すように、ラインセンサ10Aで検出され出力された画像データ群Aが表す画像部分AAと、ラインセンサ10Bで検出され出力された画像データ群Bが表す画像部分BBとは一部分が重複している。すなわち、全体画像WW中の画像領域R2は、互いに重複する受光部から得られた画像データによって表される領域であり、この画像領域R2を表す画像データは、重み付け加算処理部51により重み付け加算処理が施されノイズ補填部52によりノイズ成分が補填されて作成されたものである。
【0032】
ここで、全体画像WWを表す画像データWを作成する場合について図4を参照して説明する。
【0033】
図4に示すように、ラインセンサ10Aの各受光部を受光部A1、A2、A3、…Ak−3、Ak−2、Ak−1、Akとし、ラインセンサ10Bの各受光部を受光部B1、B2、B3、B4、…Be−2、Be−1、Beとして、互いに重複する受光部を、受光部Ak−3と受光部B1、受光部Ak−2と受光部B2、受光部Ak−1と受光部B3、および受光部Akと受光部B4とする。したがって、画像部分AAを表す画像データ群Aは受光部A1、A2、A3、…Akから取得され、画像部分BBを表す画像データ群Bは受光部B1、B2、B3、…Beから取得される。なお、全体画像WW中の画像領域R2を表す画像データは、上記互いに重複する受光部である受光部Ak−3、Ak−2、Ak−1、Ak、受光部B1、B2、B3、B4から取得された画像データに基づいて取得される。
【0034】
ここで、全体画像WWを表す画像データWの行(j)におけるW(1、j)からW(m、j)までの画像データを作成する際には、画像データW(1、j)から画像データW(k−4、j)までは画像データ群A中の画像データA(1、j)から画像データA(k−4、j)が採用され、画像データW(k+1、j)から画像データW(m、j)までは画像データ群B中の画像データB(5、j)から画像データB(e、j)が採用される。
【0035】
また、互いに重複する受光部から得られる全体画像WW中の画像領域R2を表す画像データについては、画像データW(k−3、j)が画像データ群Aの画像データA(k−3、j)および画像データ群Bの画像データB(1、j)から作成され、画像データW(k−2、j)が画像データA(k−2、j)および画像データB(2、j)から作成され、画像データW(k−1、j)が画像データA(k−1、j)および画像データB(3、j)から作成され、画像データW(k、j)が画像データA(k、j)および画像データB(4、j)から作成される。
【0036】
次に、互いに重複する受光部から得られた画像データに施される重み付け加算処理について説明する。図5および図6は画像データの位置とこの画像データに施される重み付け加算処理の係数との関係を示す図、図7は重み付け加算処理後の画像におけるノイズ成分の場所による標準偏差の差を示す図である。なお、重み付け加算処理が施されノイズ成分が補填される前の画像データが表す全体画像を全体画像VV、この全体画像VVを表す画像データを画像データVで示す。
【0037】
<重み付け加算処理>
画像データ群Aの画像データA(k−3、j)と画像データ群Bの画像データB(1、j)との重み付け加算処理によって作成されるj行の画像データV(k−3、j)は、重み付け係数をα1〜α4として以下の式によって求められる。
【0038】
V(k−3、j)=α1×A(k−3、j)+(1−α1)×B(1、j)
V(k−2、j)=α2×A(k−2、j)+(1−α2)×B(2、j)
V(k−1、j)=α3×A(k−1、j)+(1−α3)×B(3、j)
V(k、j)=α4×A(k、j)+(1−α4)×B(4、j)
ここで、互いに重複する受光部のうちのラインセンサのより端に位置する受光部から得られる画像データほど重み付け加算処理の重み付けが小さいので、図5に示すように、上記画像領域R2を表す重み付け加算処理が施された画像データVの列(k−3)の値が求められるときには、すなわち、画像データ群Aの列(K−3)と画像データ群Bの列(1)とに対して重み付け加算処理が施されるときには、画像データ群Bに対する重み付けが小さく、上記式の重み付け係数(1−α1)の値には0.2が与えられる(ここで、画像データ群Aの列(K−3)の重み付けα1は0.8となる)。また、画像データVの列(k)、すなわち、画像データ群Aの列(K)と画像データ群Bの列(4)とに対して重み付け加算処理が施されるときには、画像データ群Aに対する重み付けが小さく、上記式の重み付け係数α4の値には0.2が与えられる(ここで、画像データ群Bの列(4)の重み付け(1−α4)は0.8となる)。すなわち、図6に示すように、画像データ群Aに対する重み付け係数α、および画像データ群Bに対する(1−α)の値は、それぞれのラインセンサのより端に位置する受光部から得られた画像データほど小さくなるように、ラインセンサの最も端に位置する受光部からの距離に応じて定められる。このようにして、列(k−3)の重み付け係数α1=0.8、(1−α1)=0.2、列(k−2)の重み付け係数α2=0.6、(1−α2)=0.4、列(k−1)の重み付け係数α3=0.4、(1−α3)=0.6、列(k)の重み付け係数α4=0.2、(1−α4)=0.8が定められる。
【0039】
このように、互いに重複する受光部それぞれから得られた画像データに対して重み付け加算処理が施され各位置毎の1つの画像データを得ることにより画像領域R2を表す画像データVが作成される。
【0040】
なお、上重み付け加算処理が施される際の、画像データ間の演算によりそれぞれの画像データに含まれるノイズ成分が相殺されるノイズ低減効果により、この重み付け加算処理が施された画像データVで表される全体画像VV中の画像領域R2に現れるノイズ成分は、他の領域より小さくなる。すなわち、図7に示すように、全体画像V中の画像データ群Aからの画像データのみで形成された画像領域R1における画像のノイズ成分の標準偏差σ1、および画像データ群Bからの画像データのみで形成された画像領域R3における画像のノイズ成分の標準偏差σ3とは概略等しくなるが、画像データ群Aと画像データ群Bとから作成れた画像領域R2における画像のノイズ成分の標準偏差σ2は、σ1やσ3より小さくなる。このため、画像領域R2におけるノイズ成分と他の領域におけるノイズ成分との差によりこの画像領域R2が他の領域とは異なる質感を有する領域となる。さらに、重み付け加算処理が施される際の重み付け係数が0.5に近づくにしたがって上記ノイズ低減効果が大きくなるため画像領域R2の中央部の列方向(副走査Y方向)にスジが現れる。
【0041】
次に、上記重み付け加算処理によって低減されたノイズ成分を補填する場合について説明する。図8は重み付け加算処理後の画像データにおける列毎のノイズ成分の標準偏差を示す図、図9はノイズ良化画像データを求める様子を示す概念図、図10は重み付け加算処理が施された画像データVの値Doとノイズ良化画像データNの値Nrとの対応関係を示す図、図11は規格化良化関数を示す図、図12はノイズ成分が補填された画像データWが求められる様子を示す図である。
【0042】
<ノイズ成分の補填>
重み付け加算処理が施される前の画像データ群A、あるいは画像データ群Bの画像データに含まれるノイズ成分は以下のように分類される。
【0043】
Nx:X線量子ノイズ
Ni:原稿のストラクチャーノイズ
Nh:光量子ノイズ
Ne:CCD素子の電気ノイズ
ここで、X線量子ノイズNxと原稿のストラクチャーノイズNiは読み取り対象そのものが持っているノイズ成分で、上記のような重み付け加算処理を施しても変化しない。一方、光量子ノイズNhとCCD素子の電気ノイズNeはCCD素子において独立して発生するノイズ成分のため、重み付け加算処理によって減少する。
【0044】
上記ノイズ成分の補填は、重み付け加算処理によって低減される光量子ノイズNhとCCD素子の電気ノイズNeとを予め予想しておき、この低減されたノイズ成分(ここでは、ノイズ良化成分ともいう)を重み付け加算処理が施された画像データに加えることにより実施することができる。
【0045】
ここで、光量子ノイズNhとCCD素子の電気ノイズNeからノイズ良化成分を求める手法はいろいろ考えられるが、直接的で簡単な手法としては、場所によらず一定の濃度を有するいわゆるベタ原稿を用意し、このベタ原稿を実際に読み取って得られた画像データに重み付け加算処理を施した各位置毎の画像データに基づいて、上記ノイズ良化成分を表す2次元状のパターンを求めることができる。
【0046】
ここで、上記ノイズ良化成分は概念的に以下のように示される値となる。すなわち、図8に示すように、場所によらず一定の濃度を有するいわゆるベタ原稿を読み取って重み付け加算処理が施された画像データV(i、j)において、画像データV(i、1)から画像データV(i、n)で表される列(i)の線状の領域を表す各画像データに含まれるノイズ成分の標準偏差をσiとすると、画像データAのみで構成された画像領域R1、および画像データBのみで構成された画像領域R3における各列(i)の線状の領域を表す画像データに含まれるノイズ成分の標準偏差は概略一定でσh≒σi(h=1〜k−4、i=k+1〜m)となる。しかしながら、重み付け加算処理が施されたi=k−3からkの列でのノイズ成分の標準偏差は、各列毎に変化し、各列の位置とノイズ成分の標準偏差との関係は2次曲線gで近似することができる。そして、図8中の直線σ=σnと上記2次曲線gとの差δがノイズ良化成分を示す。
【0047】
実際には、このノイズ良化成分は画像VV上の各位置毎に異なる値を持つランダムなノイズ成分で表されるものであり、ベタ原稿を読み取って得られた2次元状の画像データV(i、j)中の重み付け加算処理が施された画像領域R2において低減されたノイズ成分がノイズ良化成分となる。ここでは、図9に示すように、ライン検出部20が検出可能な最大光量を受光して画像データの最大値が得られるようにベタ原稿を照明し、この明るく照明されたベタ原稿を読み取って得られた画像データに重み付け加算処理を施した画像データV(i、j)と、上記明るく照明されたベタ原稿を継ぎ目の無いラインセンサからなるライン検出手段で読み取って重み付け加算処理を施すことなく得られた画像データと同等の参照画像データV′(i、j)とを用意し、参照画像データV′(i、j)から画像データV(i、j)を差し引くことにより、画像領域R2の各位置におけるノイズ良化成分を表すノイズ良化画像データN(i、j)を得る。なお、上記参照画像データV′に含まれるノイズ成分は領域によらず一定なので、この参照画像データV′は、画像データVにおいて、この画像データV中の画像領域R2を画像領域R1、R3の画像データで補間することにより求めることができる。
【0048】
なお、上記ノイズ良化画像データN(i、j)はライン検出部20で検出可能な最大光量を受光した場合のノイズ良化成分を表すものであり、ここで、光量子ノイズNhは、ライン検出部20によって検出される光の光量、すなわち、ライン検出部20で取得される画像データの値の大きさに応じて非線型に変化するので、ライン検出部20によって検出される光の光量を変化させて(例えば、ベタ原稿の濃度あるいは照明光の強度を変更して)読み取った画像データに基づいて、重み付け加算処理が施された画像データV(i、j)が示す値Dと、この画像データV(i、j)に対応するノイズ良化画像データN(i、j)が示す値Nrとの対応関係を予め測定し定めておく。この対応関係は、図10に示すように、値Dが大きくなるにしたがって値Nrが大きくなる関数Nd′、Nr=Nd′(D)で表される。
【0049】
なお、重み付け加算処理を施す対象となる画像データ群Aおよび画像データ群Bにそれぞれ1つずつ存在する画像データは、互いに重複する受光部それぞれから得られた画像データなのでそれぞれの値は概略一致し、重み付け加算処理が施された結果得られる画像データVの値Dもノイズ成分が低減されてはいるが上記値と概略等しい値となる。
【0050】
次に、図11に示すように、重み付け加算処理が施された画像データVの値Dとノイズ良化値Nrとの対応関係Nr=Nd′(D)を、上記値Dの予想される最大値Dmaxにノイズ良化値が1が対応するように規格化する。これにより規格化良化関数Nd、Nd(D)=(Nd′(D)/Nd′(Dmax))が求まり、この関数は、Nd(Dmax)=1を基準にして値Dが小さくなるにしたがって値Nrも小さくなるものとなる。
【0051】
ここで、ノイズ成分が補填された全体画像WWを表す画像データW(i、j)の値をDD(i、j)とし、この画像データ(i、j)に対応する重み付け加算処理が施された画像データV(i、j)の値をD(i、j)として、位置(i、j)におけるノイズ良化成分Nr(i、j)が、Nr(i、j)=Nd(D(i、j))×N(i、j)の式で求められる。図12に示すように、このノイズ良化成分Nr(i、j)を重み付け加算処理が施された画像データVの値D(i、j)に加えることにより、ノイズ成分が補填された画像データWの値DD(i、j)が求められる。すなわち、値DD(i、j)は、DD(i、j)=D(i、j)+Nd(D(i、j))×N(i、j)の式によって求められる。
【0052】
このようにして、互いに重複する受光部から得られたノイズ成分が補填された画像データと、互いに重複する受光部とは異なる受光部から得られた画像データとを用いて原稿30が担持する画像情報の全体を表す画像データを作成する。これにより、この画像データWによって表される画像WW中の重み付け加算処理が施された画像領域R2に他領域とは異なる質感が現れることがなく(例えば、スジが生じるようなことがなく)画像の品質低下を抑制することができる。
【0053】
また、上記全体画像を表す画像データを作成する手法は、同一領域を共有する複数の画像部分それぞれを表す複数の画像データ群に基づいて、1つの全体画像を表す画像データを作成する場合にも適用することができ、例えば、複数のプロジェクタによって投影されたそれぞれの小さな画像を合成して、大きな1つの画像を作成する場合や、小さな領域を示す複数の3次元画像データを合成して1つの大きな3次元画像データを作成する場合等にこの手法を適用することができる。
【0054】
上記のように、本発明によれば、同一領域を共有する複数の画像部分を合成して作成される画像の品質低下を抑制することができる。
【0055】
なお、原稿はライン検出部に対して副走査Y方向に移動される場合に限らず、この原稿はライン検出部に対して副走査Y方向に相対的に移動されるようにしてもよい。
【0056】
なお、ラインセンサはCCD素子やCMOS素子等とすることができる。また、上記実施の形態においては、互いに重複する受光部は各ラインセンサ中の4つの受光部としたが、この数は1以上であればよく、例えば各ラインセンサ中の100の受光部が互いに重複する受光部となってもよい。
【0057】
上記実施の形態においては、2つのラインセンサを並べて構成したライン検出手段の例を示したが、ライン検出手段は、複数のラインセンサを、これらのラインセンサそれぞれの端部に位置する受光部が画像担持体の同一位置から発せられた光を互いに重複検出するように並べて構成したものであればよく、上記ラインセンサとして3つ以上のラインセンサから構成したライン検出手段を用いても上記と同様の効果が得られることは言うまでもない。
【0058】
また、原稿を放射線像変換パネルとした場合には、ライン光源の代わりに、線状の励起光を射出して放射線像変換パネルの線状の領域から輝尽発光光を発生させる励起光照射部を配設することにより、この放射線像変換パネルに記録された放射線像を読み取ることができる。この場合、放射線像変換パネルから発生する光は輝尽発光光となる。より具体的には、図13の励起光照射部、ライン検出部および放射線像変換パネルを示す側面図、および図14の放射線像変換パネルからの輝尽発光光の発生領域と輝尽発光光を受光するラインセンサとの位置関係を示す上面図に示すように、ライン光源の代わりとなる励起光照射部60Tと、5つのラインセンサからなるライン検出部20Tとを配設することにより、原稿30の代わりとなる放射線像変換パネル30Tからこの放射線像変換パネル30Tに記録された放射線像を読み取ることができる。
【0059】
ここで、励起光照射部60Tは、主走査X方向に並べられた多数のLDからなる励起光光源61Tと、励起光光源61T中の各LDから放射線像変換パネル30Tの表面に対して垂直な方向に射出された励起光Leを放射線像変換パネル30T上の主走査X方向に延びる線状の領域Sに集光させる主走査X方向に延びるトーリックレンズ62Tとからなる。
【0060】
また、ライン検出部20Tは、主走査X方向に線状に並べられた多数の受光部を有するCCD素子からなる5つのラインセンサ7A、7B、7C、7D、7Eが、各ラインセンサそれぞれの端部に位置する受光部が画像担持体である放射線像変換パネル30T上の同一位置から発せられた光を互いに重複検出するように、主走査X方向に並べられて構成されている。ここで、ラインセンサ7A、7C、7Eは、放射線像変換パネル30T上の線状の領域Sの副走査−Y方向(図中矢印−Y方向)の側に配置され、ラインセンサ7B、7Dは、放射線像変換パネル30T上の線状の領域Sの副走査+Y方向(図中矢印+Y方向)の側に配置されている。すなわち、励起光照射部60Tから放射線像変換パネル30Tに照射される線状の励起光の光路を間に挟んで、互いに反対側にラインセンサ7A、7C、7Eと、ラインセンサ7B、7Dとが千鳥状に配置されている。
【0061】
このライン検出部20Tは、上記ラインセンサ7A、7B、7C、7D、7Eの他に、放射線像変換パネル30T上の主走査X方向に延びる線状の領域Sの像をラインセンサ7A、7B、7C、7D、7Eそれぞれの受光部上に結像させる後述する5つの結像レンズからなる結像光学系21Tと、ラインセンサ7A、7B、7C、7D、7Eで受光し光電変換した電気的な画像信号それぞれをデジタル値からなる画像データに変換する5つのA/D変換器23Tとを備えている。結像光学系21Tは、多数の屈折率分布型レンズが主走査X方向に並べられて形成された結像レンズ21A、21B、21C、21D、21Eからなり、放射線像変換パネル30T上の線状の領域部分Sa、Sb,Sc、Sd、Seは各結像レンズ21A、21B、21C、21D、21Eにより各ラインセンサ7A、7B、7C、7D、7E上にそれぞれ結像される。これにより、励起光照射部60Tからの励起光Leの照射により放射線像変換パネル30T上の線状の領域部分Sa、Sb,Sc、Sd、Seから発生した輝尽発光光Keが各ラインセンサ7A、7B、7C、7D、7E上にそれぞれ結像され受光される。
【0062】
ここで、線状の領域部分Saと線状の領域部分Sbとの重複領域Sabから発生した輝尽発光光Keはラインセンサ7A、7Bそれぞれの端部に位置する受光部で検出され、線状の領域部分Sbと線状の領域部分Scとの重複領域Sbcから発生した輝尽発光光Keはラインセンサ7B、7Cそれぞれの端部に位置する受光部で検出され、線状の領域部分Scと線状の領域部分Sdとの重複領域Scdから発生した輝尽発光光Keはラインセンサ7C、7Dそれぞれの端部に位置する受光部で検出され、線状の領域部分Sdと線状の領域部分との重複領域Sdeから発生した輝尽発光光Keはラインセンサ7D、7Eそれぞれの端部に位置する受光部で検出され放射線像変換パネル30T上の各位置を表す画像データが得られる。
【0063】
上記ラインセンサ7A、7B、7C、7D、7Eの端部に位置する互いに重複する受光部から得られた画像データに対し、上記と同様に加算処理部により、ラインセンサのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して1つの画像データを得、ノイズ補填部により、上記重み付け加算処理によって得られた画像データに対しこの重み付け加算処理によって低減されたノイズ成分を補填し、各ラインセンサの受光部によって光が重複検出された各位置の画像データとして、上記ノイズ成分が補填された画像データを採用するとともに、上記互いに重複する受光部とは異なる受光部から得られた画像データを採用して放射線像変換パネル30Tが担持する画像情報の全体を表す画像データが作成される。
【図面の簡単な説明】
【図1】本発明の実施の形態による画像データ作成装置の概略構成を示す斜視図
【図2】原稿で反射されライン検出部の受光部に結像される光の光路を示す拡大斜視図
【図3】2つのラインセンサそれぞれから取得された画像部分を合成する様子を示す図
【図4】2つの画像データ群を合成する様子を示す概念図
【図5】2つの画像データに重み付け加算処理が施される様子を示す図、
【図6】画像データの位置とこの画像データに施される重み付け加算処理の係数との関係を示す図、
【図7】重み付け加算処理後の画像におけるノイズ成分の場所による標準偏差の差を示す図
【図8】重み付け加算処理後の画像におけるノイズ成分の列毎の標準偏差を示す図
【図9】ノイズ良化画像データを求める様子を示す概念図
【図10】重み付け加算処理が施された画像データの値とノイズ良化画像データの値との対応関係を示す図
【図11】規格化良化関数で示される対応関係を示す図
【図12】ノイズ成分が補填された画像データが求められる様子を示す図
【図13】励起光照射部とライン検出部と放射線像変換パネルを示す側面図
【図14】放射線像変換パネルから発生する輝尽発光光の領域とこの輝尽発光光を受光するラインセンサとの位置関係を示す図
【符号の説明】
10A ラインセンサ
10B ラインセンサ
11A 端部
11B 端部
20 ライン検出部
30 原稿
40 副走査部
50 画像作成部
51 重み付け加算処理部
52 ノイズ補填部
62 ライン光源
100 画像データ作成装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image data creation method and apparatus, and more particularly to an image data creation method and apparatus for creating image data representing one image by combining a plurality of image data groups each representing a plurality of image portions sharing the same region. Is.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is known an apparatus that reads a document by moving a line detection unit including a line sensor having a large number of light receiving units arranged in a line in the main scanning direction on the document in the sub-scanning direction. A wide line detection unit with a long line sensor is used to read a large document with such an apparatus, but a seamless long line sensor is difficult to realize due to manufacturing reasons. A line detection unit is used in which a plurality of line sensors are arranged in the main scanning direction so that their end portions overlap each other, and function as a single long line sensor as a whole.
[0003]
When a large document is read by the line detecting means configured as described above, the same position on the large document is repeatedly detected by each light receiving unit located at the end of each line sensor. Image data (also referred to as an image data group) representing the image portion sharing the same position in the large document is acquired, and these image data groups are combined to create image data representing the entire large document. .
[0004]
As a method of creating image data representing the entire large-size original by combining image data groups representing each of a plurality of image portions constituting the large-size original, it is detected by a light receiving unit located at an end portion where each line sensor overlaps each other. A plurality of image data representing the same position on the large document is subjected to a weighted addition process for reducing the weight of the image data acquired from the light receiving unit located at the end of the line sensor, and the image data for each position. There is known a method of creating image data representing the entire large-format original using these image data (see, for example, Patent Document 1 and Patent Document 2). Here, the area represented by the image data subjected to the weighted addition process in the image representing the entire large document is a band-like area extending in the sub-scanning direction.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 2002-57860
[0006]
[Patent Document 2]
US Pat. No. 6,348,981
[0007]
[Problems to be solved by the invention]
However, in the method of performing the weighted addition process, a noise component included in the band-shaped image area subjected to the weighted addition process and a noise component included in an image area other than the band-shaped area not subjected to the weighted addition process Due to this difference, streaks appear along the belt-like image area, and there is a problem in that the quality of the entire image representing the large-size original is deteriorated.
[0008]
The streaks appearing along the band-shaped image region are reduced by averaging the noise components included in the image data by the weighted addition process, and as a result, the noise components included in the image data not subjected to the weighted addition process are weighted. A difference from the noise component included in the image data subjected to the addition processing appears as a difference in image texture.
[0009]
Note that this problem is not limited to the case of acquiring image data by moving a plurality of line sensors on a large document as described above, but a plurality of images representing the same area of each of a plurality of image portions sharing the same area. This is a common problem when image data representing one whole image is created by performing weighted addition processing on image data and combining them.
[0010]
The present invention has been made in view of the above circumstances, and provides an image data creation method and apparatus capable of suppressing deterioration in quality of an image created by combining a plurality of image portions sharing the same region. It is intended.
[0011]
[Means for Solving the Problems]
In the image data creation method of the present invention, when creating a plurality of image data groups each representing a plurality of image portions sharing the same area to create image data representing one whole image, the same area in the whole image As the image data of each position, for each position, a weighted addition process is performed in which the weight of the image data located closer to the end of the image portion is reduced with respect to a plurality of image data at that position belonging to each image data group. An image data creation method for obtaining one image data and creating image data representing an entire image using the image data, wherein the image data obtained by the weighted addition processing is reduced by the weighted addition processing. The present invention is characterized in that image data representing the entire image is created by compensating for the noise component.
[0012]
When the image data creation device of the present invention creates image data representing one whole image by combining a plurality of image data groups each representing a plurality of image portions sharing the same area, the same area in the whole image As the image data of each position, for each position, a weighted addition process is performed in which the weight of the image data located closer to the end of the image portion is reduced with respect to a plurality of image data at that position belonging to each image data group. An image data creation device for obtaining one image data and creating image data representing an entire image using the image data, wherein the image data obtained by the weighted addition process is reduced by the weighted addition process. The present invention is characterized in that image data representing the entire image is created by compensating for the noise component.
[0013]
Another image data creation method according to the present invention includes a plurality of line sensors having a large number of light receiving portions arranged in a line, and the light receiving portions located at the end portions of these line sensors are located at the same position of the image carrier. The image carrier is moved while moving the image carrier relatively in the sub-scanning direction intersecting the main scanning direction with respect to the line detecting means arranged in the main scanning direction so as to detect the light emitted from each other in an overlapping manner. An image data creation method for creating image data representing image information carried by an image carrier by detecting light emitted from a body by a line detection means, wherein the light is detected by the light receiving portions of the plurality of line sensors. As the image data at each position, the line data is obtained for the image data obtained from the light receiving units of the plurality of line sensors that detect the light emitted from the position for each position. The image data obtained from the light receiving unit located at the edge of the sensor is weighted and added to reduce the weight to obtain one image data, and the image data obtained by the weighted addition processing is obtained by the weighted addition processing. Image data representing the entire image information is created by using image data obtained by compensating for the reduced noise component.
[0014]
Another image data creation apparatus according to the present invention includes a plurality of line sensors having a large number of light receiving portions arranged in a line, and the light receiving portions located at the end portions of these line sensors are located at the same position of the image carrier. Line detection means arranged in the main scanning direction so as to detect light emitted from each other and the image detection body is moved relative to the line detection means in the sub-scanning direction intersecting the main scanning direction. Based on the image data obtained by detecting the light emitted from the image carrier with the line detector while moving the image carrier relative to the scanning unit and the line detector in the sub-scanning direction, An image data creation device comprising image data creation means for creating image data representing image information carried by a carrier, wherein the image data creation means comprises the plurality of line sensors. At each position where the light is detected by the light receiving unit, the image data obtained from each light receiving unit of the plurality of line sensors that have detected the light emitted from the position is positioned at the end of the line sensor. A weighted addition processing means for obtaining one image data by performing a weighted addition process for reducing the weight of the image data obtained from the light receiving unit, and reducing the weighted addition process for the image data obtained by the weighted addition process. Noise compensation means for compensating for the noise component, and adopting image data supplemented with the noise component as image data at each position where light is detected by the light receiving units of the plurality of line sensors, Image data representing the image information is created.
[0015]
The compensation means not only the case where noise components reduced by the weighted addition process are completely compensated, but also the case where a part of the noise components reduced by the weighted addition process is compensated.
[0016]
The light emitted from the image carrier is light reflected from the image carrier, light transmitted through the image carrier, light generated from the image carrier upon irradiation with excitation light, etc. It means light carrying image information.
[0017]
As the image carrier, for example, a paper or film having image information formed on the surface, or a radiation image conversion panel formed by stacking a stimulable phosphor layer on a substrate can be used. When a radiation image conversion panel is used as an image carrier, stimulated emission light generated from the stimulable phosphor layer by irradiation of excitation light, that is, a radiation image recorded as a latent image on this stimulable phosphor layer ( Light indicating (image information) is light emitted from the image carrier.
[0018]
【The invention's effect】
The image data creation method and apparatus according to the present invention, when creating a plurality of image data groups each representing a plurality of image portions sharing the same region to create image data representing one whole image, As the image data at each position in the same region, for each position, for the plurality of image data at that position belonging to each image data group, weighted addition in which the weight of the image data located closer to the end of the image portion is smaller When the image processing is performed to obtain one image data, and the image data representing the entire image is created using the image data, the noise component reduced by the weighted addition processing with respect to the image data obtained by the weighted addition processing. Since the image data representing the entire image is created by compensating for the noise component, the noise component that appears in the same area in the entire image Since the difference from the noise component appearing in the area outside the same area in the entire image can be reduced, and the difference in the texture of the image in each area can be reduced, the quality of the synthesized entire image can be reduced. The decrease can be suppressed. Here, for example, in the case where the same region is elongated, the occurrence of streaks appearing along the same region in the entire image can be prevented by the effect of reducing the difference in image texture in each region.
[0019]
Another image data creation method and apparatus according to the present invention includes a plurality of line sensors having a large number of light receiving portions arranged in a line, and the light receiving portions located at the end portions of these line sensors are the same on the image carrier. This image is detected while moving the image carrier relatively in the sub-scanning direction intersecting the main scanning direction with respect to the line detecting means arranged in the main scanning direction so as to detect the light emitted from the position overlapping each other. When the light emitted from the carrier is detected by the line detection means and image data representing the image information carried by the image carrier is generated, the light at the positions where the light is detected by the light receiving units of the plurality of line sensors is detected. As image data, for each position, the image data obtained from each light receiving part of a plurality of line sensors that have detected the light emitted from each position is positioned at the end of the line sensor. The image data obtained from the light receiving unit is subjected to a weighted addition process for reducing the weighting to obtain one image data, and the noise component reduced by the weighted addition process is applied to the image data obtained by the weighted addition process. Since the image data obtained by compensating is used to create image data representing the entire image information, the image data acquired from the light receiving unit that detects the light emitted from the same position is mutually overlapped. It is possible to reduce the difference between the noise component of the image area to be represented and the noise component of the image area represented by the image data acquired from a light receiving unit different from the light receiving unit that detects light emitted from the same position. Since the difference in the texture of the image in each region can be reduced, the deterioration of the quality of the entire image can be suppressed. Here, for example, due to the effect of reducing the difference in the texture of the image in each of the above areas, the occurrence of streaks appearing along the image area represented by the image data at the position where light is detected by the light receiving unit in the entire image. Can be prevented.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view showing a schematic configuration of an image data creation device according to an embodiment of the present invention, and FIG. 2 is an enlarged perspective view showing an optical path of light reflected from a document and imaged on a light receiving unit of a line detection unit. is there.
[0021]
In the image data creation device 100 according to the embodiment of the present invention, line sensors 10A and 10B having a large number of light receiving units arranged in a line are positioned at end portions 11A and 11B of the line sensors 10A and 10B, respectively. Line detection in which the light receiving unit is arranged in the main scanning direction (in the direction of arrow X in the figure, hereinafter referred to as the main scanning X direction) so that the light emitted from the same position of the document 30 as the image carrier is mutually detected. A sub-scanning unit 40 that moves the document 30 in the sub-scanning direction (arrow Y direction in the figure, hereinafter referred to as the sub-scanning Y direction) that intersects the main scanning X direction with respect to the line detection unit 20, and the line Based on the image data acquired by detecting the light emitted from the document 30 by the line detection unit 20 while moving the document 30 in the sub-scanning Y direction with respect to the detection unit 20, the document 30 carries the document 30. And an image data creating means 50 for creating image data representing the image information that.
[0022]
The image data creation means 50 is a line sensor 10A, 10B in which light emitted from each position is redundantly detected for each position as image data at each position where the light is detected by the light receiving units of the line sensors 10A, 10B. The weight of the image data obtained from the light receiving units located at the ends of these line sensors is reduced with respect to the image data obtained from each of the light receiving units (hereinafter abbreviated and referred to as overlapping light receiving units). An addition processing unit 51 that performs addition processing to obtain one image data, and a noise compensation unit 52 that compensates for noise components reduced by the weighted addition processing on the image data obtained by the weighted addition processing, The noise component is compensated for as image data at each position where light is detected redundantly by the light receiving portions of the line sensors 10A and 10B. While adopting the image data, document 30 adopts the image data obtained from different light receiving unit creates image data representing the whole of the image information carrying the light receiving portion overlapping said another.
[0023]
Note that the above-mentioned compensation is an image representing the entire image information carried by the image carrier using line detection means comprising one line sensor without a single joint having a large number of light receiving portions arranged in a line. This is to compensate for the goal that the image data that has been subjected to the above weighted addition processing has a noise component equivalent to the noise component that would have occurred in the acquired image data when the data was acquired. However, this compensation is not limited to the case of completely compensating for the noise component reduced by the weighted addition process, as long as the difference in noise component appearing in each region in the entire created image can be reduced. A part of the noise component reduced by the addition process or a part more than the noise component reduced by the weighted addition process may be compensated.
[0024]
In addition to the line sensors 10A and 10B, the line detection unit 20 forms an image of a linear region S extending in the main scanning X direction on the document 30 on the light receiving units of the line sensors 10A and 10B. Imaging signals 21A and 21B made of a mold lens and the like extending in the main scanning X direction, and light signals propagated through the imaging lenses 21A and 21B are received and detected by the light receiving portions of the line sensors 10A and 10B, respectively. A / D converters 23A and 23B for converting image data composed of digital values, and the imaging lens 21A is an image of a region S1 which is a part of a linear region S extending in the main scanning X direction on the document 30. Is imaged on the light receiving portion of the line sensor 10A, and the imaging lens 21B generates an image of the area S2 which is a part of the linear area S and partially overlaps the area S1. And forms an image on the light receiving portion of the B.
[0025]
The document 30 is illuminated by a line light source 62 including a number of LD light sources arranged in the main scanning X direction and a toric lens for condensing light emitted from these LD light sources in the linear region S. The light reflected by the linear regions S1 and S2 on the original 30 upon receiving the light from the line light source 62 is imaged on the light receiving portions of the line sensors 10A and 10B.
[0026]
Next, the operation in the above embodiment will be described.
[0027]
FIG. 3 is a conceptual diagram showing a state of combining image portions acquired from two line sensors, and FIG. 4 is a conceptual diagram showing a state of combining two image data groups.
[0028]
The original 30 is illuminated by the line light source 62 while moving the original 30 in the sub-scanning Y direction by driving the sub-scanning unit 40. Light that has been irradiated with light from the line light source 62 and reflected by the linear region S on the document 30 is coupled to the light receiving unit of the line sensor 10A and the light receiving unit of the line sensor 10B through the imaging lenses 21A and 21B. Imaged. In the light receiving portions overlapping each other, for example, the light reflected at the position P included in the regions S1 and S2 in the linear region S on the document 30 passes through the imaging lenses 21A and 21B, respectively. The image is formed on the light receiving part Ak that is one of the overlapping light receiving parts located at the end 11A and the light receiving part B4 that is the other of the overlapping light receiving parts located at the end 11B of the line sensor 10B. Light is received (see FIG. 2).
[0029]
The electrical signal received and detected by the light receiving unit of the line sensor 10A is A / D converted by the A / D converter 23A to obtain an image data group A, and the electrical signal received and detected by the light receiving unit of the line sensor 10B. A typical signal is A / D converted by an A / D converter 23B to obtain an image data group B. Each image data of the image data group A and the image data group B represents image information for each position on the document 30.
[0030]
The image data group A and the image data group B output from the line detection unit 20 are input to the weighted addition processing unit 51 of the image data creation unit 50, and the weighted addition processing unit 51 includes the image data group A and the image data group B. The image data obtained from each of the overlapping light receiving units is subjected to a weighted addition process for decreasing the weight of the image data obtained from the light receiving unit located at the end of the line sensor 10A or the line sensor 10B. Thus, one image data for each position is obtained. Thereafter, these image data are input to the noise compensation unit 52, and the noise compensation unit 52 compensates the noise component reduced by the weighted addition processing for each of the image data subjected to the weighted addition processing. Then, the image information carried by the document 30 using the image data supplemented with the noise components obtained from the light receiving units overlapping each other and the image data obtained from a light receiving unit different from the light receiving units overlapping each other. The image data W representing the entire image WW showing the entire image is created.
[0031]
Here, as shown in FIG. 3, the image portion AA represented by the image data group A detected and output by the line sensor 10A and the image portion BB represented by the image data group B detected and output by the line sensor 10B are referred to. Part of it is overlapping. That is, the image region R2 in the entire image WW is a region represented by image data obtained from the light receiving units that overlap each other, and the image data representing the image region R2 is weighted and added by the weighted addition processing unit 51. The noise component is compensated by the noise compensation unit 52 and created.
[0032]
Here, a case where image data W representing the entire image WW is created will be described with reference to FIG.
[0033]
As shown in FIG. 4, each light receiving part of the line sensor 10A is a light receiving part A1, A2, A3,... Ak-3, Ak-2, Ak-1, Ak, and each light receiving part of the line sensor 10B is a light receiving part B1. , B2, B3, B4,..., Be-2, Be-1, and Be, the overlapping light receiving parts are the light receiving part Ak-3 and the light receiving part B1, the light receiving part Ak-2 and the light receiving part B2, and the light receiving part Ak-. 1 and light receiving part B3, and light receiving part Ak and light receiving part B4. Therefore, the image data group A representing the image portion AA is obtained from the light receiving portions A1, A2, A3,... Ak, and the image data group B representing the image portion BB is obtained from the light receiving portions B1, B2, B3,. . Note that image data representing the image region R2 in the entire image WW is received from the light receiving units Ak-3, Ak-2, Ak-1, Ak, and the light receiving units B1, B2, B3, B4, which are the light receiving units that overlap each other. Acquired based on the acquired image data.
[0034]
Here, when creating image data from W (1, j) to W (m, j) in the row (j) of the image data W representing the entire image WW, the image data W (1, j) is used. Up to the image data W (k−4, j), the image data A (1, j) to image data A (k−4, j) in the image data group A are adopted, and from the image data W (k + 1, j). Up to the image data W (m, j), the image data B (5, j) to the image data B (e, j) in the image data group B are employed.
[0035]
For image data representing the image region R2 in the entire image WW obtained from the light receiving units that overlap each other, the image data W (k-3, j) is the image data A (k-3, j) of the image data group A. ) And image data B (1, j) of image data group B, and image data W (k-2, j) is generated from image data A (k-2, j) and image data B (2, j). The image data W (k-1, j) is created from the image data A (k-1, j) and the image data B (3, j), and the image data W (k, j) is created from the image data A ( k, j) and image data B (4, j).
[0036]
Next, a weighted addition process performed on image data obtained from overlapping light receiving units will be described. 5 and 6 are diagrams showing the relationship between the position of image data and the coefficient of weighted addition processing applied to the image data, and FIG. 7 shows the difference in standard deviation depending on the location of the noise component in the image after weighted addition processing. FIG. In addition, the whole image represented by the image data before the weighted addition processing is performed and the noise component is compensated is represented by the whole image VV, and the image data representing the whole image VV is represented by the image data V.
[0037]
<Weighted addition processing>
Image data V (k-3, j) of j rows created by weighted addition processing of image data A (k-3, j) of image data group A and image data B (1, j) of image data group B ) Is obtained by the following equation with weighting coefficients α1 to α4.
[0038]
V (k−3, j) = α1 × A (k−3, j) + (1−α1) × B (1, j)
V (k−2, j) = α2 × A (k−2, j) + (1−α2) × B (2, j)
V (k-1, j) = [alpha] 3 * A (k-1, j) + (1- [alpha] 3) * B (3, j)
V (k, j) = α4 × A (k, j) + (1−α4) × B (4, j)
Here, since the weighting of the weighted addition process is smaller as the image data obtained from the light receiving portion located at the end of the line sensor among the light receiving portions overlapping each other, the weighting representing the image region R2 as shown in FIG. When the value of the column (k-3) of the image data V subjected to the addition process is obtained, that is, for the column (K-3) of the image data group A and the column (1) of the image data group B. When the weighted addition process is performed, the weighting on the image data group B is small, and 0.2 is given to the value of the weighting coefficient (1-α1) in the above equation (here, the column (K of the image data group A) The weight α1 of −3) is 0.8). When the weighted addition processing is performed on the column (k) of the image data V, that is, the column (K) of the image data group A and the column (4) of the image data group B, the image data group A The weight is small, and 0.2 is given to the value of the weighting coefficient α4 in the above formula (here, the weight (1-α4) of the column (4) of the image data group B is 0.8). That is, as shown in FIG. 6, the weighting coefficient α for the image data group A and the value of (1-α) for the image data group B are the images obtained from the light receiving units located at the ends of the respective line sensors. It is determined according to the distance from the light receiving portion located at the end of the line sensor so that the data becomes smaller. In this way, the weighting coefficient α1 = 0.8, (1-α1) = 0.2 of the column (k-3), the weighting coefficient α2 = 0.6, (1-α2) of the column (k-2). = 0.4, column (k-1) weighting factor α3 = 0.4, (1-α3) = 0.6, column (k) weighting factor α4 = 0.2, (1-α4) = 0 .8 is defined.
[0039]
In this way, the image data obtained from each of the overlapping light receiving units is subjected to weighted addition processing to obtain one image data for each position, thereby creating image data V representing the image region R2.
[0040]
Note that the image data V subjected to the weighted addition process is represented by the noise reduction effect in which the noise component included in each image data is canceled by the calculation between the image data when the upper weighted addition process is performed. The noise component that appears in the image area R2 in the entire image VV is smaller than other areas. That is, as shown in FIG. 7, only the standard deviation σ1 of the noise component of the image in the image region R1 formed by only the image data from the image data group A in the entire image V, and only the image data from the image data group B Is approximately equal to the standard deviation σ3 of the image noise component in the image region R3 formed in the above, but the standard deviation σ2 of the image noise component in the image region R2 created from the image data group A and the image data group B is , Smaller than σ1 and σ3. For this reason, due to the difference between the noise component in the image region R2 and the noise component in the other region, the image region R2 becomes a region having a different texture from the other regions. Further, since the noise reduction effect increases as the weighting coefficient when the weighted addition process is performed approaches 0.5, streaks appear in the column direction (sub-scanning Y direction) at the center of the image region R2.
[0041]
Next, a case where the noise component reduced by the weighted addition process is compensated will be described. FIG. 8 is a diagram showing a standard deviation of noise components for each column in image data after weighted addition processing, FIG. 9 is a conceptual diagram showing how noise improved image data is obtained, and FIG. 10 is an image subjected to weighted addition processing. FIG. 11 is a diagram showing a correspondence relationship between the value Do of the data V and the value Nr of the noise-enhanced image data N, FIG. 11 is a diagram showing the normalized improvement function, and FIG. 12 is the image data W supplemented with the noise component. It is a figure which shows a mode.
[0042]
<Noise compensation>
Noise components included in the image data of the image data group A or the image data group B before the weighted addition processing are classified as follows.
[0043]
Nx: X-ray quantum noise
Ni: Document structure noise
Nh: photon noise
Ne: Electric noise of CCD element
Here, the X-ray quantum noise Nx and the document structure noise Ni are noise components of the reading object itself, and do not change even if the above-described weighted addition processing is performed. On the other hand, the photon noise Nh and the electrical noise Ne of the CCD element are noise components generated independently in the CCD element, and are reduced by weighted addition processing.
[0044]
The above-mentioned noise component compensation is performed by predicting in advance the photon noise Nh and the electrical noise Ne of the CCD element that are reduced by the weighted addition process, and this reduced noise component (herein also referred to as noise improving component). It can be implemented by adding to the image data that has been subjected to the weighted addition processing.
[0045]
Here, there are various methods for obtaining the noise improving component from the photon noise Nh and the electrical noise Ne of the CCD element, but as a direct and simple method, a so-called solid manuscript having a constant density is prepared regardless of the place. Then, a two-dimensional pattern representing the noise improving component can be obtained based on the image data for each position obtained by performing weighted addition processing on the image data obtained by actually reading the solid original.
[0046]
Here, the noise improving component is a value conceptually shown as follows. That is, as shown in FIG. 8, in image data V (i, j) obtained by reading a so-called solid original having a constant density regardless of a place and performing weighted addition processing, the image data V (i, 1) If the standard deviation of the noise component included in each image data representing the linear area of the column (i) represented by the image data V (i, n) is σi, the image area R1 composed only of the image data A , And the standard deviation of the noise component included in the image data representing the linear region of each column (i) in the image region R3 composed only of the image data B is approximately constant and σh≈σi (h = 1 to k−). 4, i = k + 1 to m). However, the standard deviation of the noise component in the i = k−3 to k column subjected to the weighted addition process changes for each column, and the relationship between the position of each column and the standard deviation of the noise component is quadratic. It can be approximated by the curve g. A difference δ between the straight line σ = σn and the quadratic curve g in FIG. 8 indicates a noise improving component.
[0047]
Actually, this noise improving component is represented by a random noise component having a different value for each position on the image VV, and the two-dimensional image data V () obtained by reading a solid document. The noise component reduced in the image region R2 on which the weighted addition processing in i, j) is performed becomes the noise improving component. Here, as shown in FIG. 9, the solid document is illuminated so that the maximum amount of light that can be detected by the line detection unit 20 is received and the maximum value of the image data is obtained, and this brightly illuminated solid document is read. The image data V (i, j) obtained by performing weighted addition processing on the obtained image data and the above-described brightly illuminated solid original are read by a line detection unit including a seamless line sensor, and weighted addition processing is not performed. Reference image data V ′ (i, j) equivalent to the obtained image data is prepared, and image region R2 is obtained by subtracting image data V (i, j) from reference image data V ′ (i, j). The noise-enhanced image data N (i, j) representing the noise-enhancing component at each position is obtained. Since the noise component included in the reference image data V ′ is constant regardless of the area, the reference image data V ′ is the image data V in which the image area R2 in the image data V is the image area R1, R3. It can be obtained by interpolating with image data.
[0048]
Note that the noise-enhanced image data N (i, j) represents a noise-enhancing component when the maximum amount of light that can be detected by the line detector 20 is received. Here, the photon noise Nh is a line detection. The amount of light detected by the line detection unit 20, that is, the amount of light detected by the line detection unit 20 changes non-linearly according to the value of the image data acquired by the line detection unit 20. Based on the read image data (for example, by changing the density of the solid document or the intensity of the illumination light), the value D indicated by the image data V (i, j) subjected to the weighted addition process, and this image A correspondence relationship with the value Nr indicated by the noise-enhanced image data N (i, j) corresponding to the data V (i, j) is measured and determined in advance. As shown in FIG. 10, this correspondence relationship is expressed by functions Nd ′ and Nr = Nd ′ (D) in which the value Nr increases as the value D increases.
[0049]
Since the image data that exists in each of the image data group A and the image data group B to be subjected to the weighted addition processing is image data obtained from the light receiving units that overlap each other, the values almost coincide with each other. The value D of the image data V obtained as a result of the weighted addition process is also substantially equal to the above value although the noise component is reduced.
[0050]
Next, as shown in FIG. 11, the correspondence relationship Nr = Nd ′ (D) between the value D of the image data V subjected to the weighted addition process and the noise improvement value Nr is set to the maximum expected value D. Normalization is performed so that the noise improvement value corresponds to the value Dmax. As a result, the standardization / enhancement function Nd, Nd (D) = (Nd ′ (D) / Nd ′ (Dmax)) is obtained, and this function reduces the value D on the basis of Nd (Dmax) = 1. Therefore, the value Nr is also reduced.
[0051]
Here, the value of the image data W (i, j) representing the entire image WW supplemented with the noise component is defined as DD (i, j), and weighted addition processing corresponding to the image data (i, j) is performed. Assuming that the value of the image data V (i, j) is D (i, j), the noise improving component Nr (i, j) at the position (i, j) is Nr (i, j) = Nd (D ( i, j)) × N (i, j). As shown in FIG. 12, the noise improvement component Nr (i, j) is added to the value D (i, j) of the image data V that has been subjected to the weighted addition process, thereby compensating the noise component. A value DD (i, j) of W is obtained. That is, the value DD (i, j) is obtained by the following formula: DD (i, j) = D (i, j) + Nd (D (i, j)) × N (i, j).
[0052]
Thus, the image carried by the document 30 using the image data supplemented with the noise components obtained from the overlapping light receiving units and the image data obtained from a light receiving unit different from the overlapping light receiving units. Image data representing the entire information is created. As a result, the image area R2 that has been subjected to the weighted addition process in the image WW represented by the image data W does not appear to have a different texture from the other areas (for example, no streaking occurs). The deterioration of quality can be suppressed.
[0053]
In addition, the method of creating the image data representing the entire image may be a method of creating image data representing one entire image based on a plurality of image data groups each representing a plurality of image portions sharing the same area. For example, when small images projected by a plurality of projectors are combined to create one large image, or a plurality of three-dimensional image data representing a small region are combined to form a single image This method can be applied when creating large three-dimensional image data.
[0054]
As described above, according to the present invention, it is possible to suppress deterioration in the quality of an image created by combining a plurality of image portions sharing the same area.
[0055]
The document is not limited to being moved in the sub-scanning Y direction with respect to the line detection unit, and the document may be moved relative to the line detection unit in the sub-scanning Y direction.
[0056]
The line sensor can be a CCD element, a CMOS element, or the like. In the above embodiment, the light receiving units that overlap each other are the four light receiving units in each line sensor. However, this number may be one or more, for example, 100 light receiving units in each line sensor are mutually connected. It may be an overlapping light receiving unit.
[0057]
In the above-described embodiment, an example of the line detection unit configured by arranging two line sensors is shown. However, the line detection unit includes a plurality of line sensors, and a light receiving unit positioned at each end of each of the line sensors. As long as the light emitted from the same position of the image carrier is arranged side by side so as to detect each other, the line detection means composed of three or more line sensors may be used as the line sensor. It goes without saying that the effect of can be obtained.
[0058]
In addition, when the original is a radiation image conversion panel, an excitation light irradiation unit that emits a linear excitation light and generates a stimulated emission light from a linear region of the radiation image conversion panel instead of a line light source. The radiation image recorded on this radiation image conversion panel can be read. In this case, the light generated from the radiation image conversion panel is stimulated emission light. More specifically, a side view showing the excitation light irradiation unit, the line detection unit, and the radiation image conversion panel in FIG. 13, and a region where the stimulated emission light is generated from the radiation image conversion panel in FIG. As shown in the top view showing the positional relationship with the line sensor that receives light, by providing an excitation light irradiation unit 60T instead of a line light source and a line detection unit 20T composed of five line sensors, the original 30 The radiation image recorded on the radiation image conversion panel 30T can be read from the radiation image conversion panel 30T instead of the above.
[0059]
Here, the excitation light irradiation unit 60T is perpendicular to the surface of the radiation image conversion panel 30T from each LD in the excitation light source 61T, and the excitation light source 61T composed of a number of LDs arranged in the main scanning X direction. And a toric lens 62T extending in the main scanning X direction for condensing the excitation light Le emitted in the direction on a linear region S extending in the main scanning X direction on the radiation image conversion panel 30T.
[0060]
Further, the line detection unit 20T includes five line sensors 7A, 7B, 7C, 7D, and 7E that are composed of CCD elements having a large number of light receiving units arranged linearly in the main scanning X direction. The light receiving units located in the unit are arranged in the main scanning X direction so that light emitted from the same position on the radiation image conversion panel 30T, which is an image carrier, overlaps each other. Here, the line sensors 7A, 7C, and 7E are arranged on the side of the linear region S on the radiation image conversion panel 30T in the sub-scanning-Y direction (arrow -Y direction in the figure), and the line sensors 7B and 7D are The linear region S on the radiation image conversion panel 30T is disposed on the sub-scanning + Y direction (arrow + Y direction in the figure) side. That is, the line sensors 7A, 7C, and 7E and the line sensors 7B and 7D are disposed on opposite sides of the optical path of the linear excitation light that is irradiated from the excitation light irradiation unit 60T to the radiation image conversion panel 30T. Arranged in a staggered pattern.
[0061]
In addition to the line sensors 7A, 7B, 7C, 7D, and 7E, the line detection unit 20T uses the line sensors 7A, 7B, and 7C to display an image of a linear region S extending in the main scanning X direction on the radiation image conversion panel 30T. An electrical image that is received and photoelectrically converted by an imaging optical system 21T composed of five imaging lenses, which will be described later, and the line sensors 7A, 7B, 7C, 7D, and 7E. There are provided five A / D converters 23T for converting each image signal into image data composed of digital values. The imaging optical system 21T includes imaging lenses 21A, 21B, 21C, 21D, and 21E formed by arranging a large number of gradient index lenses in the main scanning X direction, and is linear on the radiation image conversion panel 30T. The area portions Sa, Sb, Sc, Sd, and Se are imaged on the line sensors 7A, 7B, 7C, 7D, and 7E by the imaging lenses 21A, 21B, 21C, 21D, and 21E, respectively. As a result, the stimulated emission light Ke generated from the linear region portions Sa, Sb, Sc, Sd, Se on the radiation image conversion panel 30T by the irradiation of the excitation light Le from the excitation light irradiation unit 60T is converted into each line sensor 7A. , 7B, 7C, 7D, and 7E are imaged and received.
[0062]
Here, the stimulated emission light Ke generated from the overlapping region Sab of the linear region portion Sa and the linear region portion Sb is detected by the light receiving unit located at the end of each of the line sensors 7A and 7B. Stimulated emission light Ke generated from the overlapping region Sbc of the region portion Sb and the linear region portion Sc is detected by the light receiving portions located at the ends of the line sensors 7B and 7C, and the linear region portion Sc The stimulated emission light Ke generated from the overlapping region Scd with the linear region portion Sd is detected by the light receiving portions located at the end portions of the line sensors 7C and 7D, and the linear region portion Sd and the linear region portion are detected. The stimulated emission light Ke generated from the overlapping region Sde is detected by the light receiving portion located at the end of each of the line sensors 7D and 7E, and image data representing each position on the radiation image conversion panel 30T is obtained.
[0063]
For the image data obtained from the overlapping light receiving portions located at the end portions of the line sensors 7A, 7B, 7C, 7D, and 7E, the light receiving portion located at the further end of the line sensor is added by the addition processing portion as described above. The image data obtained from the unit is subjected to a weighted addition process for reducing the weight to obtain one image data, and the noise compensation unit reduces the image data obtained by the weighted addition process by the weighted addition process. The image data supplemented with the noise component is adopted as the image data at each position where the noise component is compensated and the light is detected by the light receiving unit of each line sensor. The image data representing the entire image information carried by the radiation image conversion panel 30T using the image data obtained from the unit is It is made.
[Brief description of the drawings]
FIG. 1 is a perspective view showing a schematic configuration of an image data creation device according to an embodiment of the present invention.
FIG. 2 is an enlarged perspective view showing an optical path of light reflected from a document and imaged on a light receiving unit of a line detection unit.
FIG. 3 is a diagram illustrating a state in which image portions acquired from two line sensors are combined.
FIG. 4 is a conceptual diagram showing how two image data groups are combined.
FIG. 5 is a diagram showing how weighted addition processing is performed on two image data;
FIG. 6 is a diagram showing the relationship between the position of image data and the coefficient of weighted addition processing applied to the image data;
FIG. 7 is a diagram illustrating a difference in standard deviation depending on the location of a noise component in an image after weighted addition processing;
FIG. 8 is a diagram showing a standard deviation for each column of noise components in an image after weighted addition processing;
FIG. 9 is a conceptual diagram showing how to obtain noise-enhanced image data.
FIG. 10 is a diagram illustrating a correspondence relationship between the value of image data subjected to weighted addition processing and the value of noise-enhanced image data.
FIG. 11 is a diagram showing a correspondence relationship indicated by a standardized improvement function.
FIG. 12 is a diagram illustrating how image data in which noise components are compensated is obtained
FIG. 13 is a side view showing an excitation light irradiation unit, a line detection unit, and a radiation image conversion panel.
FIG. 14 is a diagram showing a positional relationship between a region of stimulated emission light generated from the radiation image conversion panel and a line sensor that receives the stimulated emission light.
[Explanation of symbols]
10A line sensor
10B line sensor
11A end
11B end
20 line detector
30 Manuscript
40 Sub-scanning unit
50 Image creation section
51 Weighted addition processing unit
52 Noise compensation part
62 line light source
100 Image data creation device

Claims (4)

同一領域を共有する複数の画像部分それぞれを表す複数の画像データ群を合成して1つの全体画像を表す画像データを作成する際に、前記全体画像における前記同一領域の各位置の画像データとして、各位置毎に、前記画像データ群それぞれに属するその位置の複数の画像データに対して、前記画像部分のより端に位置する画像データほど重み付けを小さくした重み付け加算処理を施して1つの画像データを得、該画像データを用いて前記全体画像を表す画像データを作成する画像データ作成方法であって、
前記重み付け加算処理により得られた画像データに対し該重み付け加算処理により低減されたノイズ成分を補填して前記全体画像を表す画像データを作成することを特徴とする画像データ作成方法。
When creating image data representing one entire image by combining a plurality of image data groups representing each of a plurality of image parts sharing the same region, as image data at each position of the same region in the entire image, For each position, a plurality of image data at that position belonging to each of the image data groups is subjected to a weighted addition process in which the weight of the image data located closer to the edge of the image portion is reduced to obtain one image data. An image data creation method for creating image data representing the entire image using the image data,
A method of creating image data, wherein image data representing the entire image is created by compensating for noise components reduced by the weighted addition process for the image data obtained by the weighted addition process.
同一領域を共有する複数の画像部分それぞれを表す複数の画像データ群を合成して1つの全体画像を表す画像データを作成する際に、前記全体画像における前記同一領域の各位置の画像データとして、各位置毎に、前記画像データ群それぞれに属するその位置の複数の画像データに対して、前記画像部分のより端に位置する画像データほど重み付けを小さくした重み付け加算処理を施して1つの画像データを得、該画像データを用いて前記全体画像を表す画像データを作成する画像データ作成装置であって、
前記重み付け加算処理により得られた画像データに対し該重み付け加算処理により低減されたノイズ成分を補填して前記全体画像を表す画像データを作成することを特徴とする画像データ作成装置。
When creating image data representing one entire image by combining a plurality of image data groups representing each of a plurality of image parts sharing the same region, as image data at each position of the same region in the entire image, For each position, a plurality of image data at that position belonging to each of the image data groups is subjected to a weighted addition process in which the weight of the image data located closer to the edge of the image portion is reduced to obtain one image data. An image data creation device that creates image data representing the entire image using the image data,
An image data creating apparatus, wherein image data representing the entire image is created by compensating for noise components reduced by the weighted addition process for the image data obtained by the weighted addition process.
線状に並べられた多数の受光部を有する複数のラインセンサを、該ラインセンサそれぞれの端部に位置する受光部が画像担持体の同一位置から発せられた光を互いに重複検出するように、主走査方向に並べて構成したライン検出手段に対して、前記画像担持体を前記主走査方向と交わる副走査方向に相対的に移動させながら、該画像担持体から発せられた光を前記ライン検出手段で検出して前記画像担持体が担持する画像情報を表す画像データを作成する画像データ作成方法であって、
前記複数のラインセンサの受光部によって光が重複検出された各位置の画像データとして、各位置毎に、該位置から発せられた光を重複検出した複数のラインセンサの各受光部から得られた画像データに対し前記ラインセンサのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して1つの画像データを得、この重み付け加算処理により得られた画像データに対し該重み付け加算処理によって低減されたノイズ成分を補填して得た画像データを採用して、前記画像情報の全体を表す画像データを作成することを特徴とする画像データ作成方法。
A plurality of line sensors having a large number of light receiving parts arranged in a line are arranged so that the light receiving parts located at the ends of the line sensors respectively detect light emitted from the same position of the image carrier. With respect to the line detection means arranged side by side in the main scanning direction, the line detection means emits light emitted from the image carrier while relatively moving the image carrier in the sub-scanning direction intersecting the main scanning direction. An image data creating method for creating image data representing image information carried by the image carrier detected by
As the image data of each position where the light is detected by the light receiving units of the plurality of line sensors, the light was emitted from each light receiving unit of the plurality of line sensors that detected the light emitted from the position for each position. The image data obtained from the light receiving unit located at the end of the line sensor is subjected to a weighted addition process for decreasing the weight to obtain one image data, and the image data obtained by the weighted addition process is obtained. An image data creation method, wherein image data representing the entire image information is created by using image data obtained by compensating for noise components reduced by the weighted addition processing.
線状に並べられた多数の受光部を有する複数のラインセンサを、該ラインセンサそれぞれの端部に位置する受光部が画像担持体の同一位置から発せられた光を互いに重複検出するように、主走査方向に並べて構成したライン検出手段と、該ライン検出手段に対して前記画像担持体を前記主走査方向と交わる副走査方向に相対的に移動させる走査手段と、前記ライン検出手段に対して前記画像担持体を前記副走査方向に相対的に移動させながら、該画像担持体から発せられた光を前記ライン検出手段で検出して取得した画像データに基づき、前記画像担持体が担持する画像情報を表す画像データを作成する画像データ作成手段とを備えた画像データ作成装置であって、
前記画像データ作成手段が、前記複数のラインセンサの受光部によって光が重複検出された各位置毎に、該位置から発せられた光を重複検出した複数のラインセンサの各受光部から得られた画像データに対し前記ラインセンサのより端に位置する受光部から得られた画像データほど重み付けを小さくする重み付け加算処理を施して1つの画像データを得る重み付け加算処理手段と、
該重み付け加算処理により得られた画像データに対し前記重み付け加算処理によって低減されたノイズ成分を補填するノイズ補填手段とを備え、
前記複数のラインセンサの受光部によって光が重複検出された各位置の画像データとして、前記ノイズ成分が補填された画像データを採用して、前記画像情報を表す画像データを作成する画像データ作成装置。
A plurality of line sensors having a large number of light receiving parts arranged in a line are arranged so that the light receiving parts located at the ends of the line sensors respectively detect light emitted from the same position of the image carrier. Line detection means arranged side by side in the main scanning direction, scanning means for moving the image carrier relative to the line detection means in the sub-scanning direction intersecting the main scanning direction, and the line detection means An image carried by the image carrier based on the image data obtained by detecting the light emitted from the image carrier by the line detection means while relatively moving the image carrier in the sub-scanning direction. An image data creation device comprising image data creation means for creating image data representing information,
The image data creation means is obtained from each light receiving unit of the plurality of line sensors that has detected the light emitted from the position for each position where light is detected by the light receiving units of the plurality of line sensors. A weighted addition processing means for obtaining one image data by performing a weighted addition process for reducing the weight of the image data obtained from the light receiving unit located at the end of the line sensor with respect to the image data;
Noise compensation means for compensating for the noise component reduced by the weighted addition process for the image data obtained by the weighted addition process,
An image data creation device that employs image data supplemented with the noise component as image data at each position where light is detected redundantly by the light receiving units of the plurality of line sensors, and creates image data representing the image information. .
JP2002332400A 2002-11-15 2002-11-15 Method and device for producing image data Withdrawn JP2004166151A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002332400A JP2004166151A (en) 2002-11-15 2002-11-15 Method and device for producing image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002332400A JP2004166151A (en) 2002-11-15 2002-11-15 Method and device for producing image data

Publications (1)

Publication Number Publication Date
JP2004166151A true JP2004166151A (en) 2004-06-10

Family

ID=32809495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002332400A Withdrawn JP2004166151A (en) 2002-11-15 2002-11-15 Method and device for producing image data

Country Status (1)

Country Link
JP (1) JP2004166151A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524555A (en) * 2012-06-26 2015-08-24 ケーエルエー−テンカー コーポレイション Algorithmic removal from scanning and diffraction optical measurements in angle-resolved reflectometry

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524555A (en) * 2012-06-26 2015-08-24 ケーエルエー−テンカー コーポレイション Algorithmic removal from scanning and diffraction optical measurements in angle-resolved reflectometry

Similar Documents

Publication Publication Date Title
JP2004172856A (en) Image data making method and its apparatus
JP4987449B2 (en) Color input scanner calibration system
JP5764617B2 (en) Image processing method, image reading apparatus, and image forming apparatus
JPS59228467A (en) Method for correcting reading error of radiant ray picture information
JP2004166151A (en) Method and device for producing image data
US6891645B1 (en) Image reading apparatus and image reading method
JP2007013333A (en) Fixed structure of solid-state imaging element, image reading unit, and image forming apparatus
JP4928597B2 (en) Image reading apparatus, image processing apparatus, image forming apparatus, system thereof, and control method thereof
JP4134151B2 (en) Image reading apparatus and shading correction data creation method
WO2019190880A1 (en) Scanner capable of compensating for distortion
JP4864029B2 (en) Document reader
JP4121714B2 (en) Interpolation calculation method and image reading apparatus
JP3727606B2 (en) Identification code reader
JP2011239212A (en) Close contact type image sensor
JPH0473567B2 (en)
JP2004241809A (en) Image reading apparatus, image forming apparatus, and image processing method
JP2006074274A (en) Image processor and method for correcting image
JP5680520B2 (en) Image processing apparatus and image processing method
JP2004317545A (en) Method for setting amount of light in image exposure apparatus
JP2010246125A (en) Image reading apparatus, image processing apparatus and control method thereof
JP2003198954A (en) Picture reader
JPH07221952A (en) Image processor
JP2009012252A (en) Image formation device
JP2004233856A (en) Radiological image reader
JP2001007987A (en) Image processing method, image reader and its adjustment method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207