JP2019193071A - Information processing apparatus, image processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, image processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2019193071A
JP2019193071A JP2018083085A JP2018083085A JP2019193071A JP 2019193071 A JP2019193071 A JP 2019193071A JP 2018083085 A JP2018083085 A JP 2018083085A JP 2018083085 A JP2018083085 A JP 2018083085A JP 2019193071 A JP2019193071 A JP 2019193071A
Authority
JP
Japan
Prior art keywords
pixel
correction
value
processing apparatus
main scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018083085A
Other languages
Japanese (ja)
Other versions
JP7056350B2 (en
Inventor
正 北井
Tadashi Kitai
正 北井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018083085A priority Critical patent/JP7056350B2/en
Publication of JP2019193071A publication Critical patent/JP2019193071A/en
Application granted granted Critical
Publication of JP7056350B2 publication Critical patent/JP7056350B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

To improve accuracy of correction on a color image.SOLUTION: An image processing apparatus 1 includes a correction processing unit 102 that corrects luminance in image data of a color image acquired by scanning light on an object to be irradiated. The correction processing unit 102 corrects a pixel value indicating a combination of gradation values of a plurality of color components, on the basis of a position of a pixel in a main scanning direction and a hue of the pixel. The correction processing unit 102 corrects the pixel value on the basis of a three-dimensional lookup table in which the position in the main scanning direction and a pixel value before correction are input values and a pixel value after the correction is an output value.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、画像処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an image processing apparatus, an information processing method, and a program.

原稿を光で走査することにより画像を読み取る機能を有するスキャナ等の装置において、走査光の光量ムラ等に起因する輝度のばらつきを補正するシェーディング補正が行われている。   In an apparatus such as a scanner having a function of reading an image by scanning an original with light, shading correction for correcting a variation in luminance caused by unevenness in the amount of light of scanning light is performed.

例えば、走査光を照射する光照射部と、被照射体からの光を受光して被照射体のカラー画像を読み取る読取部と、カラー画像に対して主走査方向位置毎に算出された補正係数を用いて色補正を行う補正部と、色補正を行う前にカラー画像に対して白色板から読み取った出力信号を基準とする前処理を行う前処理部とを備える装置が開示されている(特許文献1)。   For example, a light irradiation unit that irradiates scanning light, a reading unit that receives light from the irradiated object and reads a color image of the irradiated object, and a correction coefficient calculated for each position in the main scanning direction with respect to the color image An apparatus is disclosed that includes a correction unit that performs color correction using a color image and a preprocessing unit that performs preprocessing on the basis of an output signal read from a white plate for a color image before color correction is performed ( Patent Document 1).

走査光の光量ムラに起因して生じる輝度のばらつきは、走査光の主走査方向位置に応じて変化する。例えば、主走査範囲内の中心部と端部とにおいて輝度のばらつきの大きさ(偏差量)が異なる場合がある。これは、走査光生成手段(発光素子、レンズ、ミラー、アクチュエータ等)の特性に起因して、走査光の光量が主走査方向位置に応じてばらつくからである。そこで、上記従来技術のように、主走査方向位置毎に算出された係数を利用することにより、このような走査光の光量ムラに起因する輝度のばらつきを補正することができる。   The variation in brightness caused by the unevenness in the amount of scanning light varies depending on the position of the scanning light in the main scanning direction. For example, the magnitude (deviation amount) of the luminance variation may be different between the central portion and the end portion in the main scanning range. This is because the amount of scanning light varies depending on the position in the main scanning direction due to the characteristics of the scanning light generation means (light emitting element, lens, mirror, actuator, etc.). Therefore, as in the prior art described above, by using a coefficient calculated for each position in the main scanning direction, it is possible to correct the luminance variation caused by the unevenness in the amount of scanning light.

従来のシェーディング補正は、受光素子等のセンサ毎の白レベルと黒レベルを補正するものであるが、カラー画像を読み取る際に生じる輝度のばらつきは、走査光の光量ムラに起因する偏差だけでなく、主走査方向位置と色相(RGB等の複数の色成分の階調値の組み合わせ)に起因する偏差も含む。例えば、RGB=(120,40,30)の画素(暗い赤色を呈する画素)とRGB=(120,100,150)の画素(明るい青色を呈する画素)についてR成分の輝度の偏差量を比較する場合、両画素のR値が同一であっても、R成分の輝度の偏差量が互いに異なる場合がある。これは、両画素間におけるG値及びB値の相違、すなわち色相の相違に起因するものである。従って、単色成分の輝度値のみを考慮した従来のシェーディング補正では、カラー画像に対する補正が不十分である。   Conventional shading correction corrects the white level and black level of each sensor such as a light receiving element. However, the variation in luminance that occurs when reading a color image is not only a deviation caused by unevenness in the amount of light of scanning light. In addition, a deviation caused by a position in the main scanning direction and a hue (a combination of gradation values of a plurality of color components such as RGB) is also included. For example, the R component luminance deviation amount is compared for RGB = (120, 40, 30) pixels (pixels exhibiting dark red) and RGB = (120, 100, 150) pixels (pixels exhibiting bright blue). In this case, even if the R values of both pixels are the same, the deviation amount of the luminance of the R component may be different from each other. This is due to a difference in G value and B value between the two pixels, that is, a difference in hue. Therefore, in the conventional shading correction considering only the luminance value of the single color component, the correction for the color image is insufficient.

本発明は、上記に鑑みてなされたものであって、カラー画像に対する補正の精度を向上させることを目的とする。   The present invention has been made in view of the above, and an object thereof is to improve the accuracy of correction of a color image.

上述した課題を解決し、目的を達成するために、本発明の一形態は、被照射体に光を走査させることにより取得されたカラー画像の画像データにおける輝度を補正する情報処理装置であって、画素の主走査方向位置と前記画素の色相とに基づいて、複数の色成分の階調値の組み合わせを示す画素値を補正する補正処理部を備えることを特徴とする。   In order to solve the above-described problem and achieve the object, one embodiment of the present invention is an information processing apparatus that corrects luminance in image data of a color image acquired by scanning an irradiated object with light. And a correction processing unit that corrects a pixel value indicating a combination of gradation values of a plurality of color components based on the position of the pixel in the main scanning direction and the hue of the pixel.

本発明によれば、カラー画像に対する補正の精度を向上させることが可能となる。   According to the present invention, it is possible to improve the accuracy of correction for a color image.

図1は、第1の実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the first embodiment. 図2は、第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration example of the image processing apparatus according to the first embodiment. 図3は、カラー画像におけるR値の輝度の偏差量を例示するグラフである。FIG. 3 is a graph illustrating the deviation amount of the luminance of the R value in the color image. 図4は、第1の実施形態に係る3DLUTの機能を模式的に例示する図である。FIG. 4 is a diagram schematically illustrating the function of the 3DLUT according to the first embodiment. 図5は、第1の実施形態に係る主走査方向位置を例示する図である。FIG. 5 is a diagram illustrating positions in the main scanning direction according to the first embodiment. 図6は、第1の実施形態に係る3DLUTの一部を構成する2DLUTのデータ構造例を示す図である。FIG. 6 is a diagram illustrating a data structure example of a 2DLUT constituting a part of the 3DLUT according to the first embodiment. 図7は、第1の実施形態に係る3DLUTのデータ構造例を示す図である。FIG. 7 is a diagram illustrating a data structure example of the 3DLUT according to the first embodiment. 図8は、第1の実施形態に係る補間処理を利用する場合における3DLUTへの入力値の例を示す図である。FIG. 8 is a diagram illustrating an example of input values to the 3DLUT when the interpolation processing according to the first embodiment is used. 図9は、第1の実施形態に係る主走査色偏差補正の処理例を示すフローチャートである。FIG. 9 is a flowchart illustrating a processing example of main scanning color deviation correction according to the first embodiment. 図10は、第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a functional configuration example of the image processing apparatus according to the second embodiment. 図11は、第2の実施形態に係るR値変換用LUTのデータ構造例を示す図である。FIG. 11 is a diagram illustrating a data structure example of an R value conversion LUT according to the second embodiment. 図12は、第2の実施形態に係る主走査色偏差補正の処理例を示すフローチャートである。FIG. 12 is a flowchart illustrating a processing example of main scanning color deviation correction according to the second embodiment.

以下に添付図面を参照して、情報処理装置、画像処理装置、情報処理方法、及びプログラムの実施形態を詳細に説明する。以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には当業者が容易に想到できるもの、実質的に同一のもの、及びいわゆる均等の範囲のものが含まれる。以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更、及び組み合わせを行うことができる。   Hereinafter, embodiments of an information processing device, an image processing device, an information processing method, and a program will be described in detail with reference to the accompanying drawings. The present invention is not limited by the following embodiments, and constituent elements in the following embodiments include those that can be easily conceived by those skilled in the art, those that are substantially the same, and those in the so-called equivalent range. . Various omissions, substitutions, changes, and combinations of the components can be made without departing from the scope of the following embodiments.

(第1の実施形態)
図1は、第1の実施形態に係る画像処理装置1のハードウェア構成例を示すブロック図である。画像処理装置1は、原稿(被照射体)を光で走査することにより読み取った画像の画像データを処理する装置であり、例えばスキャナ、コピー機、ファクシミリ、複合機、商用印刷装置等であり得る。本実施形態に係る画像処理装置1は、マザーボード11及び画像処理ボード12(情報処理装置)を含む。
(First embodiment)
FIG. 1 is a block diagram illustrating a hardware configuration example of the image processing apparatus 1 according to the first embodiment. The image processing apparatus 1 is an apparatus that processes image data of an image read by scanning an original (irradiated body) with light, and may be, for example, a scanner, a copier, a facsimile machine, a multifunction machine, a commercial printing apparatus, or the like. . The image processing apparatus 1 according to the present embodiment includes a mother board 11 and an image processing board 12 (information processing apparatus).

マザーボード11は、画像処理装置1の主要な制御演算処理を行う電子回路基板であり、CPU(Central Processing Unit)21、メモリ22、及びASIC(Application Specific Integrated Circuit)23を含む。CPU21は、不揮発性メモリ13に記憶されているプログラム、外部装置(例えばユーザが使用するPC(Personal Computer)等)から送信される制御情報等に基づいて、画像処理装置1の各種機能を実行するための処理を行う。メモリ22は、CPU21のワーキングエリアとして機能する記憶デバイスであり、例えばDRAM(Dynamic Random Access Memory)等であり得る。ASIC23は、特定用途向けの集積回路であり、MCH(Memory Controller Hub)(ノースブリッジともいう)、ICH(I/O Controller Hub)(サウスブリッジともいう)等を含んでいる。MCHは、CPU21、メモリ22、PCI(Peripheral Component Interconnect)バス等との間でデータの受け渡しを可能にする。ICHは、不揮発性メモリ13、外部装置等との間でデータの受け渡しを可能にする。   The motherboard 11 is an electronic circuit board that performs main control calculation processing of the image processing apparatus 1, and includes a CPU (Central Processing Unit) 21, a memory 22, and an ASIC (Application Specific Integrated Circuit) 23. The CPU 21 executes various functions of the image processing apparatus 1 based on a program stored in the nonvolatile memory 13, control information transmitted from an external device (for example, a PC (Personal Computer) used by a user), and the like. Process. The memory 22 is a storage device that functions as a working area of the CPU 21, and may be, for example, a DRAM (Dynamic Random Access Memory). The ASIC 23 is an integrated circuit for a specific application, and includes an MCH (Memory Controller Hub) (also referred to as a North Bridge), an ICH (I / O Controller Hub) (also referred to as a South Bridge), and the like. The MCH makes it possible to exchange data with the CPU 21, memory 22, PCI (Peripheral Component Interconnect) bus, and the like. The ICH enables data exchange with the nonvolatile memory 13, an external device, and the like.

画像処理ボード12は、所定の画像読取機構(例えば原稿台、走査光照射装置、光電変換素子等を含む機構)により取得された画像データに対して所定の画像処理を行う電子回路基板である。本実施形態に係る画像データは、従来のシェーディング補正処理が実施されたデータである。当該画像処理には、画素の主走査方向位置及び色相を考慮してカラー画像の色偏差を補正する主走査色偏差補正が含まれる。画像処理ボード12は、例えば、FPGA(Field-programmable Gate Array)31等のハードロジックを中心に構成された拡張ボード等であり得るが、これに限定されるものではない。例えば、画像処理ボート12の代わりに、所定のプログラムにより制御されるプロセッサ、汎用コンピュータ等を利用してもよい。   The image processing board 12 is an electronic circuit board that performs predetermined image processing on image data acquired by a predetermined image reading mechanism (for example, a mechanism including a document table, a scanning light irradiation device, a photoelectric conversion element, and the like). The image data according to the present embodiment is data that has been subjected to conventional shading correction processing. The image processing includes main scanning color deviation correction that corrects the color deviation of the color image in consideration of the position and hue of the pixel in the main scanning direction. The image processing board 12 can be, for example, an expansion board mainly composed of hard logic such as a field-programmable gate array (FPGA) 31, but is not limited thereto. For example, instead of the image processing boat 12, a processor controlled by a predetermined program, a general-purpose computer, or the like may be used.

不揮発性メモリ13は、CPU21を制御するプログラムや各種データを記憶する記憶デバイスであり、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)等であり得る。   The nonvolatile memory 13 is a storage device that stores a program for controlling the CPU 21 and various data, and may be, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like.

図2は、第1の実施形態に係る画像処理装置1の機能構成例を示すブロック図である。画像処理装置1は、システム制御部101及び補正処理部102を含む。   FIG. 2 is a block diagram illustrating a functional configuration example of the image processing apparatus 1 according to the first embodiment. The image processing apparatus 1 includes a system control unit 101 and a correction processing unit 102.

システム制御部101は、画像処理装置1の全体的な制御を行い、本実施形態においては主にマザーボード11の機能により実現される。システム制御部101は、外部I/F制御部111、パラメータ設定部112、画像データ処理部113、及び一時記憶部114を含む。   The system control unit 101 performs overall control of the image processing apparatus 1 and is realized mainly by the function of the mother board 11 in this embodiment. The system control unit 101 includes an external I / F control unit 111, a parameter setting unit 112, an image data processing unit 113, and a temporary storage unit 114.

外部I/F制御部111は、外部装置からの制御情報を受信する。パラメータ設定部112は、外部I/F制御部111により受信された制御情報に基づいて、補正を行うか否かを示す情報等を含む各種のパラメータを生成し、補正処理部102に送信する。また、パラメータ設定部112は、補正処理部102に含まれる機能部のステータスを受信する。画像データ処理部113は、補正処理部102により主走査色偏差補正された後の画像データを不揮発性メモリ13又は一時記憶部114に記憶させる。一時記憶部114は、補正後の画像データを一時的に記憶するバッファである。   The external I / F control unit 111 receives control information from an external device. The parameter setting unit 112 generates various parameters including information indicating whether to perform correction based on the control information received by the external I / F control unit 111, and transmits the generated parameter to the correction processing unit 102. Further, the parameter setting unit 112 receives the status of the functional unit included in the correction processing unit 102. The image data processing unit 113 stores the image data after the main scanning color deviation correction by the correction processing unit 102 in the nonvolatile memory 13 or the temporary storage unit 114. The temporary storage unit 114 is a buffer that temporarily stores the corrected image data.

補正処理部102は、シェーディング補正後の画像データに対して主走査色偏差補正を行う。本実施形態に係る補正処理部102は、主に画像処理ボード12の機能により実現される。補正処理部102は、補正処理制御部121、画像データ受信部122、LUT画素値取得部123、3DLUT(3次元ルックアップテーブル)記憶部124、補間処理部125、及び画像データ送信部126を含む。   The correction processing unit 102 performs main scanning color deviation correction on the image data after the shading correction. The correction processing unit 102 according to the present embodiment is realized mainly by the function of the image processing board 12. The correction processing unit 102 includes a correction processing control unit 121, an image data reception unit 122, an LUT pixel value acquisition unit 123, a 3DLUT (three-dimensional lookup table) storage unit 124, an interpolation processing unit 125, and an image data transmission unit 126. .

補正処理制御部121は、画像データに対して行われる主走査色偏差補正を全体的に制御する。補正処理制御部121は、パラメータ設定部112から受信したパラメータに基づいて、画像データにおける1ラインの画素数及び1フレームのライン数を設定する。画像データ受信部122は、画像読取機構から画像データを受信し、補正処理制御部121により設定された1ラインの画素数及び1フレームのライン数に基づいて、受信した画像データから必要なデータのみをLUT画素値取得部123に送信する。   The correction processing control unit 121 generally controls main scanning color deviation correction performed on image data. The correction processing control unit 121 sets the number of pixels of one line and the number of lines of one frame in the image data based on the parameters received from the parameter setting unit 112. The image data receiving unit 122 receives image data from the image reading mechanism, and based on the number of pixels of one line and the number of lines of one frame set by the correction processing control unit 121, only necessary data is received from the received image data. Is transmitted to the LUT pixel value acquisition unit 123.

LUT画素値取得部123は、パラメータ設定部112から送信されたパラメータに基づいて、3DLUT記憶部124に記憶されている3DLUTを抽出し、抽出された3DLUTを用いて、補正対象となる画素の主走査方向位置と画像データ受信部122から送信された画像データの画素値(補正前の画素値)とに対応する補正後の画素値を取得する。   The LUT pixel value acquisition unit 123 extracts the 3DLUT stored in the 3DLUT storage unit 124 based on the parameter transmitted from the parameter setting unit 112, and uses the extracted 3DLUT to extract the main pixel of the correction target pixel. The pixel value after correction corresponding to the scanning direction position and the pixel value (pixel value before correction) of the image data transmitted from the image data receiving unit 122 is acquired.

補間処理部125は、LUT画素値取得部123により取得された補正後の画素値を用いて、3DLUTにおいて間引かれた画素値(階調値)に対応する補正後の画素値を近似的に求める補間処理を行う。補間処理は、例えば線形補間、多項式補間等であり得る。補間処理後の画素値を含む画像データは、主走査色偏差補正後の画像データとして画像データ送信部126に送信される。画像データ送信部126は、主走査色偏差補正後の画像データを画像データ処理部113に送信する。画像データ処理部113は、主走査方向色偏差補正後の画像データを不揮発性メモリ13又は一時記憶部114に記憶させる。   The interpolation processing unit 125 uses the corrected pixel value acquired by the LUT pixel value acquisition unit 123 to approximately calculate the corrected pixel value corresponding to the pixel value (gradation value) thinned out in the 3DLUT. Perform the required interpolation process. The interpolation process can be, for example, linear interpolation or polynomial interpolation. Image data including pixel values after interpolation processing is transmitted to the image data transmission unit 126 as image data after main scanning color deviation correction. The image data transmission unit 126 transmits the image data after the main scanning color deviation correction to the image data processing unit 113. The image data processing unit 113 stores the image data after color deviation correction in the main scanning direction in the nonvolatile memory 13 or the temporary storage unit 114.

ここで、主走査色偏差補正の対象となる画素における輝度のばらつきについて説明する。図3は、カラー画像におけるR値の輝度の偏差量を例示するグラフである。図3において、横軸は画素の主走査方向位置を示し、縦軸はR値の輝度の偏差量(平均値からの差分)を示している。図3において、色相(本例では赤、青、灰、及び黄)の違いに応じて輝度の偏差量が異なっている状態が示されている。例えば、主走査位置が27である場合、色相が青であるときの偏差量はおよそ−1〜2であるが、色相が赤であるときの偏差量はおよそ−5〜−8となっている。すなわち、主走査方向位置が同じであっても、色相が異なる場合には、R値の輝度の偏差量が異なる。従って、RGBのうちRに着目する場合、R値だけを考慮してガンマ補正等を行っても、主走査色偏差補正を高い精度で行うことはできない。G値及びB値についても同様である。   Here, a description will be given of luminance variations in pixels that are targets of main scanning color deviation correction. FIG. 3 is a graph illustrating the deviation amount of the luminance of the R value in the color image. In FIG. 3, the horizontal axis indicates the position of the pixel in the main scanning direction, and the vertical axis indicates the luminance deviation amount (difference from the average value) of the R value. FIG. 3 shows a state in which the amount of deviation in luminance differs according to the difference in hue (in this example, red, blue, gray, and yellow). For example, when the main scanning position is 27, the deviation amount when the hue is blue is approximately −1 to 2, but the deviation amount when the hue is red is approximately −5 to −8. . In other words, even when the main scanning direction position is the same, when the hue is different, the deviation amount of the luminance of the R value is different. Therefore, when focusing on R of RGB, main scanning color deviation correction cannot be performed with high accuracy even if gamma correction or the like is performed considering only the R value. The same applies to the G value and the B value.

上記のように、カラー画像における輝度のばらつきは、画素の主走査方向位置だけでなく、色相にも応じて変化する。そこで、本実施形態は、3DLUT及び補間処理を利用することにより、カラー画像における主走査色偏差補正の精度を向上させるものである。   As described above, the luminance variation in the color image changes not only according to the position of the pixel in the main scanning direction but also according to the hue. Therefore, in the present embodiment, the accuracy of main scanning color deviation correction in a color image is improved by using a 3DLUT and an interpolation process.

図4は、第1の実施形態に係る3DLUTの機能を模式的に例示する図である。3DLUTは、3次元色空間変換を行うためのLUTである。図4に示すように、3DLUTを用いることにより、入力画素値(Rin,Gin,Bin)が出力画素値(Rout,Gout,Bout)に変換される。すなわち、3DLUTは、入力画素値の3成分の組み合わせ毎に出力画素値の3成分の組み合わせが対応付けられたテーブルであり、3DLUTへの入力要素数をNinとすると、出力要素数NoutはNinなる。例えば、8ビット(0〜255)のRGB値全てを入力要素とするとき、RGB値の組み合わせは256組となるため、256組分の変換用データが必要となり、更にこのような変換用データが主走査方向位置毎に用意されることとなる。 FIG. 4 is a diagram schematically illustrating the function of the 3DLUT according to the first embodiment. The 3DLUT is an LUT for performing a three-dimensional color space conversion. As shown in FIG. 4, by using 3DLUT, input pixel values (Rin, Gin, Bin) are converted into output pixel values (Rout, Gout, Bout). That is, the 3DLUT is a table in which combinations of the three components of the output pixel value are associated with the combinations of the three components of the input pixel value. When the number of input elements to the 3DLUT is Nin, the number of output elements Nout is Nin 3. Become. For example, when all RGB values of 8 bits (0 to 255) are used as input elements, the combination of RGB values is 256, 3 sets, and 256 3 sets of conversion data are required. Data is prepared for each position in the main scanning direction.

図5は、第1の実施形態に係る主走査方向位置を例示する図である。図5において、原稿51に光を走査させて画像データを取得する際の主走査方向の全走査領域Hが複数の領域H0〜Hmに分割された状態が示されている。各領域H0〜Hmは、一定の領域幅Hwを有している。領域幅Hwは使用条件に応じて適宜設定されるべきものであるが、例えば32画素分、128画素分等のように設定され得る。補正の対象となる画素の主走査方向位置は、当該画素が属している領域H0〜Hmに対応する。画素のX座標をPxとするとき、当該画素の主走査方向位置に相当する領域Hnは、下記式(1)により算出することができる。   FIG. 5 is a diagram illustrating positions in the main scanning direction according to the first embodiment. FIG. 5 shows a state in which the entire scanning area H in the main scanning direction when the original 51 is scanned with light to acquire image data is divided into a plurality of areas H0 to Hm. Each region H0 to Hm has a certain region width Hw. The region width Hw should be set as appropriate according to the use conditions, but can be set to 32 pixels, 128 pixels, or the like. The position in the main scanning direction of the pixel to be corrected corresponds to the regions H0 to Hm to which the pixel belongs. When the X coordinate of the pixel is Px, a region Hn corresponding to the position in the main scanning direction of the pixel can be calculated by the following equation (1).

Hn=Px/Hw[小数点以下切捨て] …(1)   Hn = Px / Hw [rounded down to the nearest decimal point] (1)

図6は、第1の実施形態に係る3DLUTの一部を構成する2DLUT(2次元ルックアップテーブル)61のデータ構造例を示す図である。図6に示す2DLUT61は、Binが0の場合における画素値の変換を規定するテーブルである。本例の2DLUT61は、例えば、入力画素値(Rin,Gin,Bin)=(128,128,0)を出力画素値(Rout,Gout,Bout)=(124,130,0)に変換することを示している。このような2DLUT61をR及びGのそれぞれについて、且つ各主走査方向位置(領域H0〜Hm)について用意することにより、3DLUTが構成される。   FIG. 6 is a diagram illustrating a data structure example of a 2DLUT (two-dimensional lookup table) 61 constituting a part of the 3DLUT according to the first embodiment. The 2DLUT 61 shown in FIG. 6 is a table that prescribes conversion of pixel values when Bin is 0. The 2DLUT 61 of this example converts an input pixel value (Rin, Gin, Bin) = (128, 128, 0) into an output pixel value (Rout, Gout, Bout) = (124, 130, 0), for example. Show. By preparing such a 2DLUT 61 for each of R and G and for each position in the main scanning direction (regions H0 to Hm), the 3DLUT is configured.

図7は、第1の実施形態に係る3DLUT71のデータ構造例を示す図である。本例の3DLUT71は、複数の2DLUT61を含んでいる。主走査方向位置(領域H0〜Hm)毎に、入力要素数Nin*3の2DLUT61が用意されている。例えば、入力要素数Nin=256である場合(8ビット分全ての組み合わせのデータを用意する場合)、1つの3DLUT71に256*3*(m+1)の2DLUT61が含まれることとなる。   FIG. 7 is a diagram illustrating a data structure example of the 3DLUT 71 according to the first embodiment. The 3DLUT 71 of this example includes a plurality of 2DLUTs 61. A 2DLUT 61 having the number of input elements Nin * 3 is prepared for each main scanning direction position (regions H0 to Hm). For example, when the number of input elements is Nin = 256 (when all combinations of data for 8 bits are prepared), one 3DLUT 71 includes 256 * 3 * (m + 1) 2DLUTs 61.

上記のように、3DLUT71のデータサイズは大きくなりがちであるが、3DLUT71を、RGBの階調値を間引いたデータ構造とし、適宜な補間処理を利用することにより、入力要素数Nin(2DLUT61の数)を削減し、3DLUT71のデータサイズを削減することができる。   As described above, the data size of the 3DLUT 71 tends to increase, but the 3DLUT 71 has a data structure in which RGB gradation values are thinned out, and by using an appropriate interpolation process, the number of input elements Nin (the number of 2DLUT 61) ) And the data size of the 3DLUT 71 can be reduced.

例えば、入力要素数Nin=17とし、原画素値(R,G,B)の各成分の階調を256とし、8点補間法を用いる場合、入力画素値(Rin,Gin,Bin)は、8点用意され、下記式(2)〜(4)により算出される。   For example, when the number of input elements is Nin = 17, the gradation of each component of the original pixel value (R, G, B) is 256, and the 8-point interpolation method is used, the input pixel value (Rin, Gin, Bin) is Eight points are prepared and calculated by the following formulas (2) to (4).

Rin=R/16[小数点以下切捨て] …(2)
Gin=G/16[小数点以下切捨て] …(3)
Bin=B/16[小数点以下切捨て] …(4)
Rin = R / 16 [rounded down] (2)
Gin = G / 16 [rounded down] (3)
Bin = B / 16 [rounded down] (4)

図8は、第1の実施形態に係る補間処理を利用する場合における3DLUTへの入力値Pn(n=0〜7)の例を示す図である。原画素値(R,G,B)と入力画素値(Rin,Gin,Bin)との各差分dR,dG,dBは、余剰演算(mod)を用いて下記式(5)〜(7)により算出される。   FIG. 8 is a diagram illustrating an example of input values Pn (n = 0 to 7) to the 3DLUT when the interpolation processing according to the first embodiment is used. Each difference dR, dG, dB between the original pixel value (R, G, B) and the input pixel value (Rin, Gin, Bin) is calculated by the following formulas (5) to (7) using a surplus calculation (mod). Calculated.

dR=Rmod16 …(5)
dG=Gmod16 …(6)
dB=Bmod16 …(7)
dR = Rmod16 (5)
dG = Gmod16 (6)
dB = Bmod16 (7)

出力画素値(Rout,Gout,Bout)のRoutは下記式(8)により算出される。Gout及びBoutについても同様である。   Rout of the output pixel values (Rout, Gout, Bout) is calculated by the following equation (8). The same applies to Gout and Bout.

Rout=(R_P0*(16−dR)/16+R_P1*dR+R_P2*(16−dR)/16+R_P3*dR+R_P4*(16−dR)/16+R_P5*dR+R_P6*(16−dR)/16+R_P7*dR)/8 …(8)   Rout = (R_P0 * (16-dR) / 16 + R_P1 * dR + R_P2 * (16-dR) / 16 + R_P3 * dR + R_P4 * (16-dR) / 16 + R_P5 * dR + R_P6 * (16-dR) / 16 + R_P7 * dR) / 8 (8) )

なお、階調値を間引く間隔(入力要素数Nin)は上記に限られるものではない。入力要素数Ninを大きくすれば、3DLUTのデータサイズが大きくなるが、補正精度を向上させることができる。入力要素数Ninを小さくすれば、補正精度が低下するが、3DLUTのデータサイズを小さくすることができる。また、補間処理に用いる点数は上記8点に限られるものではない。点数を増やすことにより補正精度を向上させることができ、点数を減らすことにより演算負荷の軽減等を図ることができる。   Note that the interval of thinning out gradation values (the number of input elements Nin) is not limited to the above. Increasing the number of input elements Nin increases the data size of the 3DLUT, but can improve the correction accuracy. If the number of input elements Nin is reduced, the correction accuracy is reduced, but the data size of the 3DLUT can be reduced. Further, the number of points used for the interpolation processing is not limited to the above eight points. The correction accuracy can be improved by increasing the score, and the calculation load can be reduced by reducing the score.

図9は、第1の実施形態に係る主走査色偏差補正の処理例を示すフローチャートである。先ず、補正処理制御部121は、補正対象となる画素の画素情報を取得する(S101)。画素情報には、画素値(原画素値(R,G,B))及び主走査方向の座標(X座標Px)が含まれる。   FIG. 9 is a flowchart illustrating a processing example of main scanning color deviation correction according to the first embodiment. First, the correction process control unit 121 acquires pixel information of a pixel to be corrected (S101). The pixel information includes a pixel value (original pixel value (R, G, B)) and a coordinate in the main scanning direction (X coordinate Px).

LUT画素値取得部123は、取得したX座標Pxから主走査方向位置Hn(領域H0〜Hm)を算出し、算出された主走査方向位置Hnに対応する2DLUT61を参照して原画素値に対応する8点の補間画素値を取得する(S102)。補間処理部125は、取得された8点の補間画素値を用いて補間処理を行い(S103)、出力画素値(Rout,Gout,Bout)を取得する。   The LUT pixel value acquisition unit 123 calculates the main scanning direction position Hn (regions H0 to Hm) from the acquired X coordinate Px, and corresponds to the original pixel value with reference to the 2DLUT 61 corresponding to the calculated main scanning direction position Hn. Eight interpolated pixel values are acquired (S102). The interpolation processing unit 125 performs an interpolation process using the acquired eight interpolation pixel values (S103), and acquires output pixel values (Rout, Gout, Bout).

補正処理制御部121は、全ての画素について処理が終了したか否かを判定し(S104)、処理が終了していない画素が残っている場合(S104:No)には再びステップS101を実行し、全ての画素について処理が終了している場合(S104:Yes)にはシェーディング補正処理を終了する。なお、本実施形態に係る主走査色偏差補正は、シェーディング補正後の画像データに対して行われるものであるが、シェーディング補正が主走査色偏差補正に含まれていてもよい。   The correction process control unit 121 determines whether or not the process has been completed for all the pixels (S104), and when there is a pixel for which the process has not been completed (S104: No), executes the step S101 again. When the processing has been completed for all the pixels (S104: Yes), the shading correction processing is terminated. The main scanning color deviation correction according to the present embodiment is performed on the image data after the shading correction, but the shading correction may be included in the main scanning color deviation correction.

本実施形態によれば、画素の主走査方向位置及び輝度値に加え、色相も考慮してカラー画像の色偏差を補正する主走査色偏差補正を行うことが可能となる。これにより、シェーディング補正のみでは補正しきれない色偏差を高い精度で補正することが可能となる。また、補間処理を利用することにより、3DLUTのデータサイズを削減することが可能となる。   According to the present embodiment, it is possible to perform main scanning color deviation correction that corrects the color deviation of a color image in consideration of the hue in addition to the position and luminance value of the pixel in the main scanning direction. This makes it possible to correct with high accuracy color deviations that cannot be corrected by only shading correction. In addition, the data size of the 3DLUT can be reduced by using the interpolation process.

以下に、他の実施形態について図面を参照して説明するが、第1の実施形態と同一又は同様の作用効果を奏する箇所については同一の符号を付してその説明を省略する場合がある。   Other embodiments will be described below with reference to the drawings. However, the same or similar portions as those of the first embodiment may be denoted by the same reference numerals and the description thereof may be omitted.

(第2の実施形態)
上記第1の実施形態では、3DLUTを用いて主走査色偏差補正を行う構成を示した。3DLUTは、上述したように、データサイズが大きくなりやすいため、メモリ容量に制約がある場合等にはその利用が困難となる。そこで、本実施形態においては、予め設定された係数を用いた後述するSTU変換処理(変換演算処理)により、原画素値を、色相による影響を加味した色相考慮画素値に変換し、色相考慮画素値(STU変換後の画素値)をLUTへの入力値とすることにより、データサイズが小さい1DLUT(1次元ルックアップテーブル)を用いてシェーディング補正を行えるようにするものである。
(Second Embodiment)
In the first embodiment, the configuration in which the main scanning color deviation correction is performed using the 3DLUT has been described. As described above, since the data size tends to be large, the 3DLUT is difficult to use when there is a restriction on the memory capacity. Therefore, in the present embodiment, the original pixel value is converted into a hue-considered pixel value that takes into account the influence of the hue by an STU conversion process (conversion calculation process) described later using a preset coefficient. By using a value (pixel value after STU conversion) as an input value to the LUT, shading correction can be performed using a 1DLUT (one-dimensional lookup table) having a small data size.

図10は、第2の実施形態に係る画像処理装置201の機能構成例を示すブロック図である。画像処理装置201は、システム制御部101及び補正処理部202を含む。システム制御部101は第1の実施形態と同様であるため、以下では主に補正処理部202について説明する。   FIG. 10 is a block diagram illustrating a functional configuration example of the image processing apparatus 201 according to the second embodiment. The image processing apparatus 201 includes a system control unit 101 and a correction processing unit 202. Since the system control unit 101 is the same as that of the first embodiment, the correction processing unit 202 will be mainly described below.

補正処理部202は、第1の実施形態に係る補正処理部102と同様に、シェーディング補正後の画像データに対して主走査色偏差補正を行うものであり、主に画像処理ボード12の機能により実現される。本実施形態に係る補正処理部202は、補正処理制御部211、画像データ受信部212、画像データ記憶部213、STU変換処理部214、LUT補正値取得部215、1DLUT記憶部216、補正演算処理部217、及び画像データ送信部218を含む。   Similar to the correction processing unit 102 according to the first embodiment, the correction processing unit 202 performs main scanning color deviation correction on image data after shading correction, and is mainly based on the function of the image processing board 12. Realized. The correction processing unit 202 according to the present embodiment includes a correction processing control unit 211, an image data receiving unit 212, an image data storage unit 213, an STU conversion processing unit 214, an LUT correction value acquisition unit 215, a 1DLUT storage unit 216, and a correction calculation process. A unit 217 and an image data transmission unit 218.

補正処理制御部211は、パラメータ設定部112から受信したパラメータに基づいて、画像データにおける1ラインの画素数及び1フレームのライン数を設定する。画像データ受信部212は、画像読取機構からシェーディング補正後の画像データを受信し、補正処理制御部211により設定された1ラインの画素数及び1フレームのライン数に基づいて、受信した画像データから必要なデータのみを画像データ記憶部213に送信する。画像データ記憶部213は、画像データ受信部212から送信された画像データを記憶し、補正演算処理部217からの読み出し要求に応じて画像データを補正演算処理部217に送信する。   The correction processing control unit 211 sets the number of pixels per line and the number of lines per frame in the image data based on the parameters received from the parameter setting unit 112. The image data receiving unit 212 receives image data after shading correction from the image reading mechanism, and based on the received image data based on the number of pixels of one line and the number of lines of one frame set by the correction processing control unit 211. Only necessary data is transmitted to the image data storage unit 213. The image data storage unit 213 stores the image data transmitted from the image data reception unit 212, and transmits the image data to the correction calculation processing unit 217 in response to a read request from the correction calculation processing unit 217.

STU変換処理部214は、パラメータ設定部112から送信されたパラメータに基づいて、画像データ受信部212が受信した画像データの各画素の画素値(原画素値)に対してSTU変換処理を行い、STU変換後の画素値(色相考慮画素値)を含む画像データをLUT補正値取得部215に送信する。   The STU conversion processing unit 214 performs STU conversion processing on the pixel value (original pixel value) of each pixel of the image data received by the image data receiving unit 212 based on the parameter transmitted from the parameter setting unit 112, Image data including pixel values (hue-considered pixel values) after STU conversion is transmitted to the LUT correction value acquisition unit 215.

STU変換処理とは、補正対象となる画素の原画素値を、色相による影響を加味した色相考慮画素値に変換する処理であり、例えば予め設定された係数を用いてYUV変換と同様の処理を行う方法等により実現することができる。原画素値を(R,G,B)、色相考慮画素値を(VR,VG,VB)、VRに対応する係数を(sR,tR,uR)、VGに対応する係数を(sG,tG,uG)、VBに対応する係数を(sB,tB,uB)とすると、下記式(9)〜(11)が成り立つ。   The STU conversion process is a process of converting the original pixel value of the pixel to be corrected into a hue-considered pixel value that takes into account the influence of the hue. For example, the same process as the YUV conversion is performed using a preset coefficient. It can be realized by a method to be performed. The original pixel value is (R, G, B), the hue-considered pixel value is (VR, VG, VB), the coefficient corresponding to VR is (sR, tR, uR), and the coefficient corresponding to VG is (sG, tG, If the coefficients corresponding to uG) and VB are (sB, tB, uB), the following equations (9) to (11) hold.

VR=sR*R+tR*G+uR*B …(9)
VG=sG*R+tG*G+uG*B …(10)
VB=sB*R+tB*G+uB*B …(11)
VR = sR * R + tR * G + uR * B (9)
VG = sG * R + tG * G + uG * B (10)
VB = sB * R + tB * G + uB * B (11)

本例の色相考慮画素値(VR,VG,VB)は、各値が−128〜128の範囲内となるように正規化されている。係数sR,tR,uR,sG,tG,uG,sB,tB,uBは、画像処理装置201毎に事前に最適化された値であり、原画素値(R,G,B)毎に異なる値である。係数sR,tR,uR,sG,tG,uG,sB,tB,uBの設定方法は使用条件に応じて適宜選択されるべきものであるが、例えば、画像処理装置201のユーザ(管理者、設計者等を含む)が、原稿と、当該原稿を走査光で読み取って複写した印刷物とを目視により比較し、印刷物の画像の状態が原稿にできるだけ近づくように各係数sR,tR,uR,sG,tG,uG,sB,tB,uBを設定してもよい。また、このような設定方法を自動化させてもよい。   The hue-considered pixel values (VR, VG, VB) in this example are normalized so that each value falls within the range of −128 to 128. The coefficients sR, tR, uR, sG, tG, uG, sB, tB, uB are values optimized in advance for each image processing apparatus 201, and are different values for each original pixel value (R, G, B). It is. The setting method of the coefficients sR, tR, uR, sG, tG, uG, sB, tB, uB should be appropriately selected according to the use conditions. For example, the user of the image processing apparatus 201 (administrator, design The original and the printed material obtained by scanning the original with scanning light, and visually comparing the printed material with the coefficients sR, tR, uR, sG, tG, uG, sB, tB, and uB may be set. Further, such a setting method may be automated.

LUT補正値取得部215は、パラメータ設定部112から送信されたパラメータに基づいて、1DLUT記憶部216に記憶されている1DLUTを抽出し、抽出された1DLUTを用いて、STU変換処理部214から送信された色相考慮画素値(VR,VG,VB)に対応する補正値(CR,CG,CB)を取得する。   The LUT correction value acquisition unit 215 extracts the 1DLUT stored in the 1DLUT storage unit 216 based on the parameter transmitted from the parameter setting unit 112, and transmits it from the STU conversion processing unit 214 using the extracted 1DLUT. Correction values (CR, CG, CB) corresponding to the hue consideration pixel values (VR, VG, VB) are acquired.

図11は、第2の実施形態に係るR値変換用LUT241のデータ構造例を示す図である。R値変換用LUT241は、1DLUTの一部を構成するLUTであり、STU変換後のR値であるVRのインデックスID(VR)と主走査方向位置H0〜Hmとを入力値とし、Rに関する補正値であるCRを出力値とするテーブルである。本例のR値変換用LUT241は、VRの値を所定の間隔で間引いたデータ構造を有しており、VRの値を4毎に示すインデックスID(VR)を入力値としている。インデックスID(VR)は、例えば下記式(12)により算出することができる。   FIG. 11 is a diagram illustrating a data structure example of the R value conversion LUT 241 according to the second embodiment. The R value conversion LUT 241 is an LUT that constitutes a part of the 1DLUT, and uses the VR index ID (VR), which is the R value after STU conversion, and the main scanning direction positions H0 to Hm as input values, and corrects R. It is a table which makes CR which is a value an output value. The R value conversion LUT 241 of this example has a data structure in which VR values are thinned out at a predetermined interval, and an index ID (VR) indicating the VR value every 4 is used as an input value. The index ID (VR) can be calculated by the following equation (12), for example.

ID(VR)=(VR/4[小数点以下四捨五入])*4 …(12)   ID (VR) = (VR / 4 [rounded to the nearest decimal point)) * 4 (12)

1DLUT記憶部216には、上記のようなR値変換用LUT241と同様のデータ構造を有する、G値変換用LUT及びB値変換用LUTが記憶されている。すなわち、G値変換用LUTは、STU変換後のG値であるVGのインデックスID(VG)と主走査方向位置H0〜Hmとを入力値とし、Gに関する補正値であるCGを出力値とするテーブルであり、B値変換用LUTは、STU変換後のB値であるVBのインデックスID(VB)と主走査方向位置H0〜Hmとを入力値とし、Bに関する補正値であるCBを出力値とするテーブルである。本実施形態の1DLUTは、このようなR値変換用LUT241、G値変換用LUT、及びB値変換用LUTを含む。LUT補正値取得部215は、当該1DLUTを用いて、主走査色偏差補正に用いられる補正値であるCR,CG,CBを取得する。なお、上記のようにSTU処理後の値(色相考慮画素値)(VR,VG,VB)を間引いたインデックスを利用することにより1DLUTのデータサイズを削減することができるが、1DLUTのデータ構造はこれに限られるものではなく、例えば全階調(256階調)分のデータを含むデータ構造であってもよい。   The 1DLUT storage unit 216 stores a G value conversion LUT and a B value conversion LUT having the same data structure as the R value conversion LUT 241 as described above. That is, the G-value conversion LUT uses the VG index ID (VG), which is the G value after STU conversion, and the main scanning direction positions H0 to Hm as input values, and CG, which is a correction value for G, as output values. B value conversion LUT is a VB index ID (VB) that is a B value after STU conversion and main scanning direction positions H0 to Hm as input values, and CB that is a correction value for B is an output value. It is a table. The 1DLUT of this embodiment includes such an R value conversion LUT 241, a G value conversion LUT, and a B value conversion LUT. The LUT correction value acquisition unit 215 acquires CR, CG, and CB, which are correction values used for main scanning color deviation correction, using the 1DLUT. It should be noted that the data size of 1DLUT can be reduced by using an index obtained by thinning out the values after STU processing (hue-considered pixel values) (VR, VG, VB) as described above. However, the present invention is not limited to this, and a data structure including data for all gradations (256 gradations) may be used.

補正演算処理部217は、LUT補正値取得部215により取得された補正値(CR,CG,CB)を用いて、各画素の原画素値(R,G,B)に主走査色偏差補正を行う。補正画素値(主走査色偏差補正後の画素値)を(R’,G’,B’)とすると、下記式(13)〜(15)が成り立つ。   The correction calculation processing unit 217 uses the correction values (CR, CG, CB) acquired by the LUT correction value acquisition unit 215 to perform main scanning color deviation correction on the original pixel values (R, G, B) of each pixel. Do. When the correction pixel value (pixel value after main scanning color deviation correction) is (R ′, G ′, B ′), the following equations (13) to (15) are established.

R’=R+CR …(13)
G’=G+CG …(14)
B’=B+CB …(15)
R ′ = R + CR (13)
G ′ = G + CG (14)
B ′ = B + CB (15)

画像データ送信部218は、補正画素値(R’,G’,B’)を含む画像データを画像データ処理部113に送信する。画像データ処理部113は、補正画素値(R’,G’,B’)を含む画像データ、すなわち主走査色偏差補正後の画像データを不揮発性メモリ13又は一時記憶部114に記憶させる。   The image data transmission unit 218 transmits image data including the corrected pixel values (R ′, G ′, B ′) to the image data processing unit 113. The image data processing unit 113 stores the image data including the corrected pixel values (R ′, G ′, B ′), that is, the image data after the main scanning color deviation correction in the nonvolatile memory 13 or the temporary storage unit 114.

図12は、第2の実施形態に係る主走査色偏差補正の処理例を示すフローチャートである。先ず、補正処理制御部211は、補正対象となる画素の画素情報を取得する(S201)。画素情報には、画素値(原画素値(R,G,B))及び主走査方向の座標(X座標Px)が含まれる。   FIG. 12 is a flowchart illustrating a processing example of main scanning color deviation correction according to the second embodiment. First, the correction process control unit 211 acquires pixel information of a pixel to be corrected (S201). The pixel information includes a pixel value (original pixel value (R, G, B)) and a coordinate in the main scanning direction (X coordinate Px).

STU変換処理部214は、補正対象となる画素の原画素値(R,G,B)に対してSTU変換を行い、色相考慮画素値(VR,VG,VB)を算出する(S202)。LUT補正値取得部215は、取得したX座標Pxから主走査方向位置Hn(領域H0〜Hm)を算出し、算出された主走査方向位置Hn及び算出された色相考慮画素値(VR,VG,VB)に対応する補正値(CR,CG,CB)を1DLUTから取得する(S203)。   The STU conversion processing unit 214 performs STU conversion on the original pixel values (R, G, B) of the pixels to be corrected, and calculates hue-considered pixel values (VR, VG, VB) (S202). The LUT correction value acquisition unit 215 calculates a main scanning direction position Hn (regions H0 to Hm) from the acquired X coordinate Px, calculates the calculated main scanning direction position Hn, and calculated hue-considered pixel values (VR, VG, Correction values (CR, CG, CB) corresponding to (VB) are acquired from the 1DLUT (S203).

補正演算処理部217は、取得された補正値(CR,CG,CB)を用いて補正演算処理を行い(S204)、主走査色偏差補正された補正画素値(R’,G’,B’)を取得する。その後、補正処理制御部211は、全ての画素について処理が終了したか否かを判定し(S205)、処理が終了していない画素が残っている場合(S205:No)には再びステップS201を実行し、全ての画素について処理が終了している場合(S205:Yes)には主走査色偏差補正処理を終了する。なお、本実施形態に係る主走査色偏差補正は、シェーディング補正後の画像データに対して行われるものであるが、シェーディング補正が主走査色偏差補正に含まれていてもよい。   The correction calculation processing unit 217 performs correction calculation processing using the acquired correction values (CR, CG, CB) (S204), and correction pixel values (R ′, G ′, B ′) corrected for main scanning color deviation. ) To get. Thereafter, the correction processing control unit 211 determines whether or not the processing has been completed for all the pixels (S205), and when there is a pixel for which the processing has not been completed (S205: No), step S201 is performed again. When the process is completed for all the pixels (S205: Yes), the main scanning color deviation correction process ends. The main scanning color deviation correction according to the present embodiment is performed on the image data after the shading correction, but the shading correction may be included in the main scanning color deviation correction.

本実施形態によれば、輝度値と色相の情報を1次元の情報に変換するSTU変換を利用することにより、データサイズが小さい1DLUTを用いて主走査色偏差補正を行うことが可能となる。これにより、少ないメモリ容量で、シェーディング補正のみでは補正しきれないカラー画像の色偏差を高い精度で補正することが可能となる。   According to the present embodiment, it is possible to perform main scanning color deviation correction using a 1DLUT having a small data size by using STU conversion that converts luminance value and hue information into one-dimensional information. As a result, it is possible to correct with high accuracy the color deviation of a color image that cannot be corrected only by shading correction with a small memory capacity.

上記画像処理装置1,201の機能を実現するプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。   The program that realizes the functions of the image processing apparatuses 1 and 201 is an installable or executable file that can be read by a computer such as a CD-ROM, memory card, CD-R, and DVD (Digital Versatile Disk). And stored as a computer program product.

また、プログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。また、プログラムをROM等に予め組み込んで提供するように構成してもよい。また、プログラムは画像処理装置1,201に含まれる機能部のうちプログラムにより実現可能な機能を含むモジュール構成となっていてもよい。プログラムにより実現される機能は、記憶媒体からプログラムを読み出して実行することにより主記憶装置にロードされる。すなわち、プログラムにより実現される機能は主記憶装置上に生成される。   Further, the program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program may be provided via a network such as the Internet without being downloaded. Further, the program may be provided by being preinstalled in a ROM or the like. The program may have a module configuration including functions that can be realized by the program among the functional units included in the image processing apparatuses 1 and 201. The functions realized by the program are loaded into the main storage device by reading the program from the storage medium and executing it. That is, the function realized by the program is generated on the main storage device.

以上、本発明の実施形態を説明したが、上記実施形態は例として提示したものであり、発明の範囲を限定することを意図するものではない。この新規な実施形態はその他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更、及び組み合わせを行うことができる。この実施形態及びその変形は発明の範囲及び要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, the said embodiment is shown as an example and is not intending limiting the range of invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1,201 画像処理装置
11 マザーボード
12 画像処理ボード(情報処理装置)
13 不揮発性メモリ
21 CPU
22 メモリ
23 ASIC
31 FPGA
51 原稿
61 2DLUT
71 3DLUT
101 システム制御部
102,202 補正処理部
111 外部I/F制御部
112 パラメータ設定部
113 画像データ処理部
114 一時記憶部
121 補正処理制御部
122 画像データ受信部
123 LUT画素値取得部
124 3DLUT記憶部
125 補間処理部
126 画像データ送信部
211 補正処理制御部
212 画像データ受信部
213 画像データ記憶部
214 STU変換処理部
215 LUT補正値取得部
216 1DLUT記憶部
217 補正演算処理部
218 画像データ送信部
241 R値変換用LUT
1,201 Image processing device 11 Motherboard 12 Image processing board (information processing device)
13 Nonvolatile memory 21 CPU
22 Memory 23 ASIC
31 FPGA
51 Document 61 2DLUT
71 3DLUT
DESCRIPTION OF SYMBOLS 101 System control part 102,202 Correction processing part 111 External I / F control part 112 Parameter setting part 113 Image data processing part 114 Temporary storage part 121 Correction processing control part 122 Image data receiving part 123 LUT Pixel value acquisition part 124 3DLUT storage part 125 Interpolation processing unit 126 Image data transmission unit 211 Correction processing control unit 212 Image data reception unit 213 Image data storage unit 214 STU conversion processing unit 215 LUT correction value acquisition unit 216 1DLUT storage unit 217 Correction calculation processing unit 218 Image data transmission unit 241 R value conversion LUT

特開2015−146493号公報JP2015-146493A

Claims (9)

被照射体に光を走査させることにより取得されたカラー画像の画像データにおける輝度を補正する情報処理装置であって、
画素の主走査方向位置と前記画素の色相とに基づいて、複数の色成分の階調値の組み合わせを示す画素値を補正する補正処理部、
を備える情報処理装置。
An information processing apparatus that corrects luminance in image data of a color image acquired by scanning an irradiated object with light,
A correction processing unit that corrects a pixel value indicating a combination of gradation values of a plurality of color components based on the position in the main scanning direction of the pixel and the hue of the pixel;
An information processing apparatus comprising:
前記補正処理部は、前記主走査方向位置と補正前の前記画素値とを入力値とし、前記輝度を補正するための値を出力値とする3次元ルックアップテーブルに基づいて、前記画素の前記画素値を補正する、
請求項1に記載の情報処理装置。
The correction processing unit has the pixel of the pixel based on a three-dimensional lookup table having the main scanning direction position and the pixel value before correction as an input value and a value for correcting the luminance as an output value. Correct pixel values,
The information processing apparatus according to claim 1.
前記3次元ルックアップテーブルは、前記階調値を間引いたデータ構造を有し、
前記補正処理部は、前記3次元ルックアップテーブルから取得される前記出力値に基づいて、間引かれた階調値に対応する出力値を近似的に求める補間処理を行う、
請求項2に記載の情報処理装置。
The three-dimensional lookup table has a data structure in which the gradation value is thinned out,
The correction processing unit performs an interpolation process for approximately obtaining an output value corresponding to the thinned gradation value based on the output value acquired from the three-dimensional lookup table.
The information processing apparatus according to claim 2.
前記補正処理部は、
予め設定された係数を用いた変換演算処理により、補正前の前記画素値を前記色相による影響を加味した色相考慮画素値に変換し、
前記主走査方向位置と前記色相考慮画素値とを入力値とし、前記輝度を補正するための値を出力値とする1次元ルックアップテーブルに基づいて、前記画素の前記画素値を補正する、
請求項1に記載の情報処理装置。
The correction processing unit
By the conversion calculation process using a preset coefficient, the pixel value before correction is converted into a hue-considered pixel value taking into account the influence of the hue,
Correcting the pixel value of the pixel based on a one-dimensional lookup table having the main scanning direction position and the hue-considered pixel value as input values and the value for correcting the luminance as an output value;
The information processing apparatus according to claim 1.
前記変換演算処理は、RGB値をYUV値に変換するYUV変換を含む、
請求項4に記載の情報処理装置。
The conversion calculation processing includes YUV conversion for converting RGB values into YUV values.
The information processing apparatus according to claim 4.
前記補正処理部は、シェーディング補正後の前記画像データに対して補正を行う、
請求項1〜5のいずれか1項に記載の情報処理装置。
The correction processing unit corrects the image data after shading correction.
The information processing apparatus according to any one of claims 1 to 5.
前記被照射体に光を走査させることにより前記画像データを取得する画像読取機構と、
請求項1〜6のいずれか1項に記載の情報処理装置と、
を備える画像処理装置。
An image reading mechanism for acquiring the image data by causing the irradiated object to scan with light;
The information processing apparatus according to any one of claims 1 to 6,
An image processing apparatus comprising:
被照射体に光を走査させることにより取得されたカラー画像の画像データにおける輝度を補正する情報処理方法であって、
画素の主走査方向位置と前記画素の色相とに基づいて、複数の色成分の階調値の組み合わせを示す画素値を補正する工程、
を含む情報処理方法。
An information processing method for correcting luminance in image data of a color image acquired by scanning an object with light,
Correcting a pixel value indicating a combination of gradation values of a plurality of color components based on a main scanning direction position of the pixel and a hue of the pixel;
Information processing method including:
被照射体に光を走査させることにより取得されたカラー画像の画像データにおける輝度を補正する処理を行うコンピュータに、
画素の主走査方向位置と前記画素の色相とに基づいて、複数の色成分の階調値の組み合わせを示す画素値を補正する処理、
を実行させるプログラム。
To a computer that performs processing for correcting the luminance in the image data of a color image obtained by scanning the object with light,
A process of correcting a pixel value indicating a combination of gradation values of a plurality of color components based on the position of the pixel in the main scanning direction and the hue of the pixel;
A program that executes
JP2018083085A 2018-04-24 2018-04-24 Information processing equipment, image processing equipment, information processing methods, and programs Active JP7056350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018083085A JP7056350B2 (en) 2018-04-24 2018-04-24 Information processing equipment, image processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018083085A JP7056350B2 (en) 2018-04-24 2018-04-24 Information processing equipment, image processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019193071A true JP2019193071A (en) 2019-10-31
JP7056350B2 JP7056350B2 (en) 2022-04-19

Family

ID=68390998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083085A Active JP7056350B2 (en) 2018-04-24 2018-04-24 Information processing equipment, image processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7056350B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04252667A (en) * 1991-01-29 1992-09-08 Fujitsu Ltd Color image reader
JP2002112046A (en) * 2000-09-13 2002-04-12 Toshiba Tec Corp Image-forming device and color image-reading device used for it
JP2003008911A (en) * 2001-04-19 2003-01-10 Canon Inc Image reading apparatus, its control method, controller, program, and storage medium
JP2007060354A (en) * 2005-08-25 2007-03-08 Fuji Xerox Co Ltd Image processing method and device, image reading device, image forming device, and program
JP2012170002A (en) * 2011-02-16 2012-09-06 Canon Inc Image processing apparatus, image processing method, and image processing program therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04252667A (en) * 1991-01-29 1992-09-08 Fujitsu Ltd Color image reader
JP2002112046A (en) * 2000-09-13 2002-04-12 Toshiba Tec Corp Image-forming device and color image-reading device used for it
JP2003008911A (en) * 2001-04-19 2003-01-10 Canon Inc Image reading apparatus, its control method, controller, program, and storage medium
JP2007060354A (en) * 2005-08-25 2007-03-08 Fuji Xerox Co Ltd Image processing method and device, image reading device, image forming device, and program
JP2012170002A (en) * 2011-02-16 2012-09-06 Canon Inc Image processing apparatus, image processing method, and image processing program therefor

Also Published As

Publication number Publication date
JP7056350B2 (en) 2022-04-19

Similar Documents

Publication Publication Date Title
JP6182092B2 (en) Image processing apparatus and image processing method
KR100467610B1 (en) Method and apparatus for improvement of digital image quality
US10015368B2 (en) Calibration system, calibration method, and image forming apparatus
US8107132B2 (en) Image forming apparatus and control method thereof
JP3671616B2 (en) Image processing device
US20100310160A1 (en) Image processing apparatus and method for generating color conversion table
US7995114B2 (en) Method for providing image illumination calibration for an imaging apparatus
US10742838B2 (en) Image processing apparatus with an improved dithering processing
JP7056350B2 (en) Information processing equipment, image processing equipment, information processing methods, and programs
JP6350474B2 (en) Calibration system, calibration method, image forming apparatus, and calibration program
US10791250B2 (en) Image processing apparatus, image forming apparatus, and image processing method which correct tone jump
JP6350472B2 (en) Calibration system, calibration method, image forming apparatus, and calibration program
JP2010226615A (en) Apparatus, method, and program for processing image
US10897557B2 (en) Image forming apparatus performing color calibrating by reading a plurality of patterns of different colors
JP6350473B2 (en) Calibration system, calibration method, image forming apparatus, and calibration program
JP2005109831A (en) Image processor
JP2014219724A (en) Image processor, method for controlling image processor, and program
JP2010283665A (en) Image reading method and image reading system
JP2011188473A (en) Apparatus and method processing
JP6648591B2 (en) Image reading apparatus and image processing method
JP4265374B2 (en) Image reading apparatus and image processing program
JP2023020463A (en) Image forming apparatus, program, and image forming method
JP2021197717A (en) Image processing device and computer program
JP2007060049A (en) Image reading apparatus
JP6168971B2 (en) Image reading apparatus and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220321

R151 Written notification of patent or utility model registration

Ref document number: 7056350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151