JP7169231B2 - Image processing device, image processing method, and image processing program - Google Patents

Image processing device, image processing method, and image processing program Download PDF

Info

Publication number
JP7169231B2
JP7169231B2 JP2019041768A JP2019041768A JP7169231B2 JP 7169231 B2 JP7169231 B2 JP 7169231B2 JP 2019041768 A JP2019041768 A JP 2019041768A JP 2019041768 A JP2019041768 A JP 2019041768A JP 7169231 B2 JP7169231 B2 JP 7169231B2
Authority
JP
Japan
Prior art keywords
color shift
image
green
hue
reduction rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019041768A
Other languages
Japanese (ja)
Other versions
JP2020145615A (en
Inventor
憲吾 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2019041768A priority Critical patent/JP7169231B2/en
Publication of JP2020145615A publication Critical patent/JP2020145615A/en
Application granted granted Critical
Publication of JP7169231B2 publication Critical patent/JP7169231B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Color Image Communication Systems (AREA)

Description

開示の技術は、画像処理装置、画像処理方法、及び、画像処理プログラムに関する。 The technology disclosed herein relates to an image processing device, an image processing method, and an image processing program.

例えばスキャナ装置やコピー機等の画像読取装置には、コンタクトイメージセンサ(CIS:Contact Image Sensor)を使用したものがある。CISを使用した画像読取装置では、光源のLED(Light Emitting Diode)を例えばB光(青色光)→R光(赤色光)→G光(緑色光)→B光→R光→G光→B光→…という所定の点灯順序で点灯させて画像を読み取る。 2. Description of the Related Art Some image reading devices such as scanners and copiers use a contact image sensor (CIS). In an image reading apparatus using CIS, LEDs (Light Emitting Diodes) of a light source are arranged, for example, by B light (blue light)→R light (red light)→G light (green light)→B light→R light→G light→B The image is read by lighting in a predetermined lighting order of light → .

特開2012-060690号公報JP 2012-060690 A 特開2016-092474号公報JP 2016-092474 A

CISを使用した画像読取装置において光源のLEDを上記のような所定の点灯順序で点灯させて画像を読み取ると、CISによって読み取られた画像(以下では「読取画像」と呼ぶことがある)に「色ズレ」が発生してしまうことがある。例えば、読取画像が黒色の文字の画像(以下では「黒文字画像」と呼ぶことがある)である場合、黒文字画像の上端や下端に有彩色の色ズレが発生してしまうことがある。 In an image reading apparatus using CIS, when an image is read by lighting the LEDs of the light source in the predetermined lighting order as described above, the image read by CIS (hereinafter sometimes referred to as "read image") has " "Color deviation" may occur. For example, when the read image is an image of black characters (hereinafter sometimes referred to as a "black character image"), chromatic color shift may occur at the upper and lower ends of the black character image.

開示の技術は、上記に鑑みてなされたものであって、読取画像に発生する色ズレを低減することを目的とする。 The disclosed technique has been made in view of the above, and aims to reduce color misregistration that occurs in a read image.

開示の態様の画像処理装置は、イメージセンサにより読み取られた読取画像に対する画像処理を行う。前記イメージセンサは、主走査方向に一列に配列された複数の撮像素子と、青色、赤色、緑色の光を所定の点灯順序で読取対象媒体に照射可能な光源とを有する。前記画像処理装置は、記憶部と、検出部と、補正部とを有する。前記記憶部は、前記読取画像を記憶する。前記検出部は、前記読取画像において前記イメージセンサの副走査方向での色相の切り替わり部分を検出する。前記補正部は、前記切り替わり部分に発生する色ズレであって、前記切り替わり部分における前記色相の切り替わりの態様と、前記所定の点灯順序とに応じた前記色ズレを補正する。 An image processing apparatus according to an aspect of the disclosure performs image processing on a read image read by an image sensor. The image sensor has a plurality of imaging elements arranged in a row in the main scanning direction, and a light source capable of irradiating a medium to be read with blue, red, and green lights in a predetermined lighting order. The image processing apparatus has a storage section, a detection section, and a correction section. The storage unit stores the read image. The detection unit detects a hue switching portion in the sub-scanning direction of the image sensor in the read image. The correcting unit corrects the color shift occurring in the switching portion according to the mode of hue switching in the switching portion and the predetermined lighting order.

開示の態様によれば、読取画像に発生する色ズレを低減することができる。 According to the disclosed aspect, it is possible to reduce color misregistration that occurs in a read image.

図1は、実施例1の画像読取装置の構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an image reading apparatus according to a first embodiment; 図2は、実施例1の光源の点灯順序の一例を示す図である。FIG. 2 is a diagram showing an example of the lighting order of the light sources according to the first embodiment. 図3は、実施例1の色ズレの一例を示す図である。FIG. 3 is a diagram illustrating an example of color misregistration according to the first embodiment. 図4は、実施例1の色ズレの一例を示す図である。FIG. 4 is a diagram illustrating an example of color misregistration according to the first embodiment. 図5は、実施例1の色ズレの一例を示す図である。FIG. 5 is a diagram illustrating an example of color misregistration according to the first embodiment. 図6は、実施例1の画像処理装置の処理の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of processing of the image processing apparatus according to the first embodiment; 図7は、実施例1の画像処理装置の処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of processing of the image processing apparatus according to the first embodiment; 図8は、実施例1の画像処理装置の動作例を示す図である。FIG. 8 is a diagram illustrating an operation example of the image processing apparatus according to the first embodiment; 図9は、実施例1の画像処理装置の動作例を示す図である。FIG. 9 is a diagram illustrating an operation example of the image processing apparatus according to the first embodiment; 図10は、実施例1の画像処理装置の動作例を示す図である。FIG. 10 is a diagram illustrating an operation example of the image processing apparatus according to the first embodiment; 図11は、実施例2の光源の点灯順序の一例を示す図である。FIG. 11 is a diagram illustrating an example of the lighting order of the light sources according to the second embodiment. 図12は、実施例2の色ズレの一例を示す図である。FIG. 12 is a diagram illustrating an example of color misregistration according to the second embodiment. 図13は、実施例2の画像処理装置の動作例を示す図である。FIG. 13 is a diagram illustrating an operation example of the image processing apparatus according to the second embodiment; 図14は、実施例2の画像処理装置の動作例を示す図である。FIG. 14 is a diagram illustrating an operation example of the image processing apparatus according to the second embodiment;

以下に、本願の開示する画像処理装置、画像処理方法、及び、画像処理プログラムの実施例を図面に基づいて説明する。なお、この実施例により本願の開示する画像処理装置、画像処理方法、及び、画像処理プログラムが限定されるものではない。また、実施例において同一の機能を有する構成、及び、同一の処理を行うステップには同一の符号を付す。 Embodiments of an image processing apparatus, an image processing method, and an image processing program disclosed in the present application will be described below with reference to the drawings. Note that the image processing apparatus, the image processing method, and the image processing program disclosed in the present application are not limited to these embodiments. Also, in the embodiments, the same symbols are attached to the configurations having the same functions and the steps performing the same processing.

以下では、黒文字画像をコンテンツ画像の一例に挙げて説明する。しかし、開示の技術を適用可能なコンテンツ画像は黒文字画像に限定されない。例えば、絵柄の画像や図形の画像等のコンテンツ画像に対しても開示の技術を適用可能である。 A black character image will be described below as an example of a content image. However, content images to which the technology disclosed herein can be applied are not limited to black character images. For example, the technology disclosed herein can also be applied to content images such as pattern images and graphic images.

[実施例1]
<画像読取装置の構成>
図1は、実施例1の画像読取装置の構成例を示す図である。図1において、画像読取装置1は、CIS20と、点灯制御部31と、画像処理装置10とを有する。画像読取装置1の一例として、スキャナ装置、コピー機等が挙げられる。
[Example 1]
<Configuration of image reading device>
FIG. 1 is a diagram illustrating a configuration example of an image reading apparatus according to a first embodiment; In FIG. 1 , the image reading device 1 has a CIS 20 , a lighting control section 31 and an image processing device 10 . Examples of the image reading device 1 include a scanner device, a copier, and the like.

CIS20は、例えばLEDアレイによって形成される光源21と、CIS20の主走査方向に一列に配列された複数の撮像素子22とを有する。光源21は、B光(青色光)、R光(赤色光)、G光(緑色光)の各光を所定の点灯順序で読取対象媒体に照射可能である。B光、R光、G光の点灯順序と、B光、R光、G光の各点灯時間とは、点灯制御部31により制御される。読取対象媒体の一例として、黒色の文字が印刷されている白色の用紙が挙げられる。 The CIS 20 has a light source 21 formed by, for example, an LED array, and a plurality of imaging elements 22 arranged in a row in the main scanning direction of the CIS 20 . The light source 21 can irradiate the medium to be read with B light (blue light), R light (red light), and G light (green light) in a predetermined lighting order. The lighting control unit 31 controls the lighting order of the B light, the R light, and the G light, and the lighting time of each of the B light, the R light, and the G light. An example of a medium to be read is white paper on which black characters are printed.

画像処理装置10は、記憶部11と、平滑化部12と、検出部13と、補正部14とを有する。 The image processing device 10 has a storage unit 11 , a smoothing unit 12 , a detection unit 13 and a correction unit 14 .

CIS20によって読み取られた画像(つまり「読取画像」)は、記憶部11に記憶される。 Images read by the CIS 20 (that is, “read images”) are stored in the storage unit 11 .

平滑化部12、検出部13、及び、補正部14は、読取画像に対する画像処理を行う。平滑化部12は、読取画像の彩度を平滑化する。検出部13は、彩度の平滑化後の読取画像(以下では「平滑化後画像」と呼ぶことがある)において、CIS20の副走査方向での色相の切り替わり部分(以下では「色相切替部分」と呼ぶことがある)を検出する。補正部14は、色相切替部分に発生する色ズレを補正する。平滑化部12、検出部13及び補正部14についての詳細は後述する。 The smoothing unit 12, the detection unit 13, and the correction unit 14 perform image processing on the read image. A smoothing unit 12 smoothes the saturation of the read image. The detection unit 13 detects a hue switching portion (hereinafter referred to as a “hue switching portion”) in the sub-scanning direction of the CIS 20 in the read image after the saturation is smoothed (hereinafter sometimes referred to as a “smoothed image”). ) is detected. The correcting unit 14 corrects color misregistration that occurs in hue switching portions. Details of the smoothing unit 12, the detecting unit 13, and the correcting unit 14 will be described later.

記憶部11は、ハードウェアとして、例えば、メモリにより実現される。メモリの一例として、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。 The storage unit 11 is implemented as hardware, for example, by a memory. Examples of memory include RAM (Random Access Memory) such as SDRAM (Synchronous Dynamic Random Access Memory), ROM (Read Only Memory), and flash memory.

点灯制御部31、平滑化部12、検出部13、及び、補正部14は、ハードウェアとして、例えばプロセッサにより実現される。プロセッサの一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)等が挙げられる。また、点灯制御部31、平滑化部12、検出部13、及び、補正部14は、プロセッサと周辺回路とを含むLSI(Large Scale Integrated circuit)によって実現されても良い。さらに、点灯制御部31、平滑化部12、検出部13、及び、補正部14は、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)等を用いて実現されても良い。 The lighting control unit 31, the smoothing unit 12, the detecting unit 13, and the correcting unit 14 are implemented as hardware by, for example, a processor. Examples of processors include CPUs (Central Processing Units), DSPs (Digital Signal Processors), and FPGAs (Field Programmable Gate Arrays). Also, the lighting control unit 31, the smoothing unit 12, the detection unit 13, and the correction unit 14 may be realized by an LSI (Large Scale Integrated circuit) including a processor and peripheral circuits. Furthermore, the lighting control unit 31, the smoothing unit 12, the detection unit 13, and the correction unit 14 may be implemented using a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), or the like.

<光源の点灯順序と色ズレとの関係>
図2は、実施例1の光源の点灯順序の一例を示す図である。図3~図5は、実施例1の色ズレの一例を示す図である。
<Relationship between lighting order of light sources and color shift>
FIG. 2 is a diagram showing an example of the lighting order of the light sources according to the first embodiment. 3 to 5 are diagrams showing an example of color misregistration according to the first embodiment.

図2に示すように、点灯制御部31は、CIS20の副走査方向への移動に伴って、一定の周期LTで、B光→R光→G光→B光→R光→G光→B光→…という所定の点灯順序OR1で光源21を点灯させる。周期LTは、CIS20の1ライン(1行)の読取周期に相当する。つまり、点灯順序OR1では、点灯制御部31は、周期LTの始端においてB光の点灯を開始し、B光を所定の点灯時間TB1だけ点灯させた後にB光をR光に切り替え、R光を所定の点灯時間TR1だけ点灯させた後にR光をG光に切り替え、G光を所定の点灯時間TG1だけ周期LTの終端まで点灯させる。また、点灯制御部31は、周期LTの1周期におけるB光、R光、G光の各点灯時間TB1,TR1,TG1の関係を「TB1=TG1」かつ「TB1,TG1<TR1」とする。 As shown in FIG. 2, as the CIS 20 moves in the sub-scanning direction, the lighting control unit 31 performs B light→R light→G light→B light→R light→G light→B at a constant period LT. The light sources 21 are turned on in a predetermined lighting order OR1 of light → . The cycle LT corresponds to the reading cycle of one line (one row) of the CIS 20 . That is, in the lighting order OR1, the lighting control unit 31 starts lighting the B light at the beginning of the cycle LT, and after lighting the B light for a predetermined lighting time TB1, switches the B light to the R light, and turns the R light on. After lighting for a predetermined lighting time TR1, the R light is switched to G light, and the G light is lighted for a predetermined lighting time TG1 until the end of the period LT. Further, the lighting control unit 31 sets the relationship between the lighting times TB1, TR1, and TG1 of the B light, the R light, and the G light in one period of the period LT to be "TB1=TG1" and "TB1, TG1<TR1."

以上のような点灯順序OR1及び点灯時間TB1,TR1,TG1で光源21を点灯させると、例えば読取画像に図3に示すような「TEST」なる4つの黒文字画像が含まれる場合には、「TEST」の各文字の画像の上端部と下端部とに色ズレが発生することがある。以下では、黒文字画像の上端部を「黒文字画像上端部」と呼び、黒文字画像の下端部を「黒文字画像下端部」と呼ぶことがある。図3に示すように、「T」の黒文字画像には、例えば1つの黒文字画像上端部と3つの黒文字画像下端部とが存在し、「E」の黒文字画像には、例えば3つの黒文字画像上端部と3つの黒文字画像下端部とが存在し、「S」の黒文字画像には、例えば4つの黒文字画像上端部と4つの黒文字画像下端部とが存在する。そして、「TEST」なる黒文字画像におけるこれらの黒文字画像上端部及び黒文字画像下端部に色ズレが発生する。 When the light sources 21 are lit in the lighting order OR1 and the lighting times TB1, TR1, and TG1 as described above, for example, when the read image includes four black character images "TEST" as shown in FIG. , color shift may occur between the upper end and the lower end of the image of each character. Hereinafter, the upper end portion of the black character image may be referred to as the "black character image upper end portion", and the lower end portion of the black character image may be referred to as the "black character image lower end portion". As shown in FIG. 3, the black character image of "T" has, for example, one black character image top portion and three black character image bottom portions, and the black character image of "E" has, for example, three black character image top portions. and three black character image bottoms, and the black character image of "S" has, for example, four black character image tops and four black character image bottoms. Then, a color shift occurs at the black character image upper end portion and the black character image lower end portion of the black character image "TEST".

例えば、「TEST」なる4つの黒文字画像において「T」の黒文字画像に注目すると、図4に示すように、コンテンツ画像である黒文字画像「T」は、コンテンツ画素●から形成される。また、読取画像RIは、黒色のコンテンツ画像と、コンテンツ画像以外の白色の画像(以下では「背景画像」と呼ぶことがある)とを含み、背景画像は、図4に示すように、背景画素○、背景画素△、及び、背景画素▽から形成される。背景画素○,△,▽のうち、背景画素△は、黒文字画像上端部においてコンテンツ画素●と隣接する背景画素(以下では「上端部隣接画素」と呼ぶことがある)であり、背景画素▽は、黒文字画像下端部においてコンテンツ画素●と隣接する背景画素(以下では「下端部隣接画素」と呼ぶことがある)である。そして、以上のような点灯順序OR1及び点灯時間TB1,TR1,TG1で光源21を点灯させると、上端部隣接画素△及び下端部隣接画素▽に、図5に示すように、B光、R光、G光の各点灯タイミングに応じた特定の色相の色ズレが発生する。なお、図5では図示を簡略にするために、B光、R光、G光の各点灯時間の長さが同一なものとして図示されているが、実際には上記のように、B光、R光、G光の各点灯時間TB1,TR1,TG1の関係は「TB1=TG1」かつ「TB1,TG1<TR1」である。 For example, focusing on the black character image "T" in the four black character images "TEST", as shown in FIG. The read image RI includes a black content image and a white image other than the content image (hereinafter sometimes referred to as a “background image”). It is formed from a circle, a background pixel Δ, and a background pixel ▽. Of the background pixels ◯, Δ, and ▽, the background pixel △ is the background pixel adjacent to the content pixel ● in the upper edge of the black character image (hereinafter sometimes referred to as the “upper edge adjacent pixel”), and the background pixel ▽ , and background pixels adjacent to the content pixel ● at the lower edge of the black character image (hereinafter sometimes referred to as “lower edge adjacent pixels”). When the light source 21 is turned on in the lighting order OR1 and the lighting times TB1, TR1, and TG1 as described above, B light and R light are applied to the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽ as shown in FIG. , a color shift of a specific hue corresponding to each lighting timing of the G light. In FIG. 5, for the sake of simplification, the B light, R light, and G light are shown to have the same length of lighting time. The relationship between the lighting times TB1, TR1 and TG1 of the R light and the G light is "TB1=TG1" and "TB1, TG1<TR1".

図5において、状態A1には、B光の点灯開始タイミングに一致して黒文字画像上端部が訪れるとともに、G光の消灯タイミングに一致して黒文字画像下端部が訪れた状態を示す。状態A1では、上端部隣接画素△にも下端部隣接画素▽にも色ズレは発生しない。 In FIG. 5, state A1 shows a state in which the upper end of the black character image arrives at the timing when the B light is turned on, and the lower end of the black character image arrives at the timing when the G light is extinguished. In the state A1, no color shift occurs in the upper edge adjacent pixel Δ or the lower edge adjacent pixel ▽.

また、状態B1には、B光の点灯中に黒文字画像上端部が訪れた状態を示す。状態B1では、上端部隣接画素△に青色の色ズレが発生する。 State B1 shows a state in which the upper end of the black character image is reached while the B light is on. In state B1, a blue color shift occurs in the upper edge adjacent pixel Δ.

また、状態C1には、R光の点灯中またはG光の点灯中に黒文字画像上端部が訪れた状態を示す。状態C1では、上端部隣接画素△にマゼンタ色の色ズレが発生する。 State C1 indicates a state in which the upper end of the black character image is reached while the R light or the G light is being lit. In state C1, a magenta color shift occurs in the upper edge adjacent pixel Δ.

また、状態D1には、G光の点灯中に黒文字画像下端部が訪れた状態を示す。状態D1では、下端部隣接画素▽に緑色の色ズレが発生する。 State D1 indicates a state in which the lower end of the black character image is reached while the G light is on. In state D1, a green color shift occurs in the pixels ▽ adjacent to the lower edge.

また、状態E1には、B光の点灯中またはR光の点灯中に黒文字画像下端部が訪れた状態を示す。状態E1では、下端部隣接画素▽に黄色の色ズレが発生する。 State E1 indicates a state in which the lower end of the black character image is reached while the B light is being lit or the R light is being lit. In the state E1, a yellow color shift occurs in the pixels ▽ adjacent to the lower edge.

このように、点灯順序OR1及び点灯時間TB1,TR1,TG1で光源21を点灯させると、上端部隣接画素△には、青色またはマゼンタ色を有する色ズレが発生する可能性があり、下端部隣接画素▽には、緑色または黄色を有する色ズレが発生する可能性がある。上端部隣接画素△における青色及びマゼンタ色の色ズレと、下端部隣接画素▽における緑色及び黄色の色ズレとの組合せは、「第一の種別の色ズレ」に該当する。また、上端部隣接画素△に発生する色ズレについては、マゼンタ色の色ズレの方が、青色の色ズレよりも発生率が高いため、上端部隣接画素△には、よりマゼンタ色に近い色相の色ズレが発生する可能性が高い。一方で、下端部隣接画素▽に発生する色ズレについては、黄色の色ズレの方が、緑色の色ズレよりも発生率が高いため、下端部隣接画素▽には、より黄色に近い色相の色ズレが発生する可能性が高い。 Thus, if the light sources 21 are lit in the lighting order OR1 and the lighting times TB1, TR1, and TG1, there is a possibility that color misregistration having blue or magenta may occur in the pixels Δ adjacent to the upper edge. Pixel ▽ may have a color shift with a green or yellow color. The combination of the blue and magenta color shifts in the top adjacent pixel Δ and the green and yellow color shifts in the bottom adjacent pixel ▽ corresponds to the “first type of color shift”. As for the color shift that occurs in the upper-end adjacent pixel Δ, since the occurrence rate of magenta color shift is higher than that of blue color shift, the upper-end adjacent pixel Δ has a hue closer to magenta. There is a high possibility that color misalignment will occur. On the other hand, regarding the color shift that occurs in the bottom-portion adjacent pixel ▽, yellow color shift is more likely to occur than green color shift. There is a high possibility that color misregistration will occur.

<画像処理装置の処理・動作>
図6及び図7は、実施例1の画像処理装置の処理の一例を示すフローチャートである。図8~図10は、実施例1の画像処理装置の動作例を示す図である。
<Processing/Operation of Image Processing Apparatus>
6 and 7 are flowcharts illustrating an example of processing of the image processing apparatus according to the first embodiment. 8 to 10 are diagrams showing an operation example of the image processing apparatus according to the first embodiment.

図6において、ステップS101では、平滑化部12は、記憶部11から読取画像RIを取得し、取得した読取画像RIを形成する全画素●,○,△,▽を対象として各画素の彩度を平均化することにより、読取画像RIの彩度を平滑化する。平滑化部12は、例えば、5画素×5画素のサイズの平滑化フィルタを用い、読取画像RIを形成する全画素●,○,△,▽において平滑化の対象となる画素(以下では「平滑化対象画素」と呼ぶことがある)を順次移動しながら、平滑化対象画素を中心とした左右上下2個分の合計25個の画素の彩度成分を平均し、平均後の彩度成分で平滑化対象画素の彩度成分を更新する。このように、例えば5画素×5画素のサイズの平滑化フィルタを用いて彩度の平滑化を行うことにより、色ズレを5分の1程度に低減することが可能になる。 In FIG. 6, in step S101, the smoothing unit 12 acquires the read image RI from the storage unit 11, targets all the pixels ●, ◯, Δ, and ▽ forming the acquired read image RI, and calculates the saturation of each pixel. is averaged to smooth the saturation of the read image RI. The smoothing unit 12 uses, for example, a smoothing filter having a size of 5 pixels×5 pixels, and smoothes all the pixels ●, ◯, Δ, and ▽ forming the read image RI. While moving sequentially, the saturation components of a total of 25 pixels, two pixels on the left, right, top and bottom centered on the smoothing target pixel, are averaged, and the saturation components after averaging are Update the saturation component of the smoothing target pixel. In this way, by smoothing the saturation using a smoothing filter having a size of, for example, 5 pixels×5 pixels, it is possible to reduce the color shift to about one-fifth.

次いで、ステップS103では、検出部13は、平滑化後画像において、色相切替部分を検出する。図7に、ステップS103で行われる色相切替部分の検出の処理フローを示す。 Next, in step S103, the detection unit 13 detects a hue switching portion in the smoothed image. FIG. 7 shows a processing flow for detecting a hue change portion performed in step S103.

図7において、ステップS201では、検出部13は、行カウンタnを「1」にリセットする。 In FIG. 7, in step S201, the detection unit 13 resets the row counter n to "1".

次いで、ステップS203では、検出部13は、列カウンタmを「1」にリセットする。 Next, in step S203, the detection unit 13 resets the column counter m to "1".

次いで、ステップS205では、検出部13は、平滑化後画像に含まれるN×M個の全画素のうち、副走査方向におけるn行目(つまり、nライン目)、かつ、主走査方向におけるm列目の画素(つまり、n×m番目の画素)(以下では「注目画素」と呼ぶことがある)のRGBデータを周知の変換式に従ってYUVデータ(Y:輝度成分、UV:彩度成分)に変換し、注目画素をY成分(輝度成分)と、UV成分(彩度成分)とに分解する。 Next, in step S205, the detection unit 13 selects the n-th row (that is, the n-th line) in the sub-scanning direction and m YUV data (Y: luminance component, UV: chroma component) is converted from RGB data of the pixel in the column (that is, the n×m-th pixel) (hereinafter sometimes referred to as the “target pixel”) according to a known conversion formula. , and the pixel of interest is decomposed into a Y component (luminance component) and a UV component (chroma component).

次いで、ステップS207では、検出部13は、注目画素のUV成分(つまり、注目画素の彩度)が閾値TH1未満であるか否かを判定する。 Next, in step S207, the detection unit 13 determines whether or not the UV component of the pixel of interest (that is, the saturation of the pixel of interest) is less than the threshold TH1.

注目画素のUV成分が閾値TH1未満である場合は(ステップS207:Yes)、検出部13は、注目画素の色相が無彩色(白,黒またはグレー)であると判定し、処理はステップS211へ進む。 If the UV component of the pixel of interest is less than the threshold TH1 (step S207: Yes), the detection unit 13 determines that the hue of the pixel of interest is achromatic (white, black, or gray), and the process proceeds to step S211. move on.

一方で、注目画素のUV成分が閾値TH1以上である場合は(ステップS207:No)、ステップS209において、検出部13は、注目画素の色相が有彩色であると判定し、注目画素に「ラベルC」を付与する。ステップS209の処理後、処理はステップS217へ進む。 On the other hand, when the UV component of the pixel of interest is equal to or greater than the threshold TH1 (step S207: No), in step S209, the detection unit 13 determines that the hue of the pixel of interest is chromatic, and assigns the "label C” is given. After the process of step S209, the process proceeds to step S217.

ステップS211では、検出部13は、注目画素のY成分(つまり、注目画素の輝度)が閾値TH2以上であるか否かを判定する。 In step S211, the detection unit 13 determines whether or not the Y component of the pixel of interest (that is, the luminance of the pixel of interest) is equal to or greater than the threshold TH2.

注目画素のY成分が閾値TH2以上である場合は(ステップS211:Yes)、ステップS213において、検出部13は、注目画素の輝度が「ハイライト」であると判定し、注目画素に「ラベルH」を付与する。ステップS213の処理後、処理はステップS217へ進む。 If the Y component of the pixel of interest is equal to or greater than the threshold TH2 (step S211: Yes), in step S213, the detection unit 13 determines that the luminance of the pixel of interest is "highlight" and assigns the pixel of interest "label H ” is given. After the process of step S213, the process proceeds to step S217.

一方で、注目画素のY成分が閾値TH2未満である場合は(ステップS211:No)、ステップS215において、検出部13は、注目画素の輝度が「シャドー」であると判定し、注目画素に「ラベルS」を付与する。ステップS215の処理後、処理はステップS217へ進む。 On the other hand, when the Y component of the pixel of interest is less than the threshold TH2 (step S211: No), in step S215, the detection unit 13 determines that the luminance of the pixel of interest is "shadow" and assigns " Label S” is given. After the process of step S215, the process proceeds to step S217.

ステップS217では、検出部13は、列カウンタmが平滑後画像の全画素における列数Mに達しているか否かを判定する。列カウンタmが列数Mに達していない場合は(ステップS217:No)、処理はステップS219へ進む。一方で、列カウンタmが列数Mに達している場合は(ステップS217:Yes)、処理はステップS221へ進む。 In step S217, the detection unit 13 determines whether or not the column counter m has reached the number of columns M in all pixels of the smoothed image. If the column counter m has not reached the number of columns M (step S217: No), the process proceeds to step S219. On the other hand, if the column counter m has reached the number of columns M (step S217: Yes), the process proceeds to step S221.

ステップS219では、検出部13は、列カウンタmをインクリメントする。ステップS219の処理後、処理はステップS205に戻る。 In step S219, the detection unit 13 increments the column counter m. After the process of step S219, the process returns to step S205.

一方、ステップS221では、検出部13は、行カウンタnが平滑後画像の全画素における行数Nに達しているか否かを判定する。行カウンタnが行数Nに達していない場合は(ステップS221:No)、処理はステップS223へ進む。一方で、行カウンタnが行数Nに達している場合は(ステップS221:Yes)、処理はステップS225へ進む。 On the other hand, in step S221, the detection unit 13 determines whether or not the row counter n has reached the number of rows N in all pixels of the smoothed image. If the row counter n has not reached the number of rows N (step S221: No), the process proceeds to step S223. On the other hand, if the row counter n has reached the number of rows N (step S221: Yes), the process proceeds to step S225.

ステップS223では、検出部13は、行カウンタnをインクリメントする。ステップS223の処理後、処理はステップS203に戻る。 In step S223, the detection unit 13 increments the row counter n. After the process of step S223, the process returns to step S203.

以上のステップS201~S223の処理により、平滑後画像の全画素の各々に、ラベルC、ラベルH、または、ラベルSの何れかが付される。 Through the processing of steps S201 to S223 described above, each of all pixels in the smoothed image is labeled with either label C, label H, or label S.

そして、ステップS225では、検出部13は、平滑後画像の全画素のラベルを調べ、副走査方向(つまり、列方向)において、ラベルHが付された画素(以下では「H画素」と呼ぶことがある)からラベルSが付された画素(以下では「S画素」と呼ぶことがある)への切替部分(以下では「HS切替部分」と呼ぶことがある)を検出するとともに、S画素からH画素への切替部分(以下では「SH切替部分」と呼ぶことがある)を検出する。つまり、平滑後画像の副走査方向での色相切替部分における色相の切り替わりの態様のうち、補正部14での補正の対象となる態様としては、ハイライトからシャドーへの切り替わり、及び、シャドーからハイライトへの切り替わりの2つの態様が存在する。 Then, in step S225, the detection unit 13 examines the labels of all pixels in the smoothed image, and detects pixels labeled H (hereinafter referred to as "H pixels") in the sub-scanning direction (that is, column direction). ) to the pixel labeled S (hereinafter sometimes referred to as “S pixel”) (hereinafter sometimes referred to as “HS switching portion”), and from the S pixel to A switching portion to H pixels (hereinafter sometimes referred to as “SH switching portion”) is detected. In other words, of the modes of hue switching in the hue switching portion in the sub-scanning direction of the smoothed image, modes to be corrected by the correction unit 14 include switching from highlight to shadow and switching from shadow to high. There are two modes of switching to light.

よって例えば、上記の図4において、H画素である上端部隣接画素△とS画素であるコンテンツ画素との副走査方向での境界、つまり、副走査方向で背景画素からコンテンツ画素に切り替わる部分が検出部13によってHS切替部分として検出される。また、上記の図4において、S画素であるコンテンツ画素とH画素である下端部隣接画素▽との副走査方向での境界、つまり、副走査方向でコンテンツ画素から背景画素に切り替わる部分が検出部13によってSH切替部分として検出される。 Therefore, for example, in FIG. 4, the boundary in the sub-scanning direction between the upper-end adjacent pixel Δ that is the H pixel and the content pixel that is the S pixel, that is, the portion where the background pixel is switched to the content pixel in the sub-scanning direction is detected. It is detected by the unit 13 as the HS switching portion. In FIG. 4 above, the boundary in the sub-scanning direction between the content pixel that is the S pixel and the lower-end adjacent pixel ▽ that is the H pixel, that is, the portion where the content pixel is switched to the background pixel in the sub-scanning direction is the detection unit. 13 as the SH switching portion.

このようして、検出部13は、平滑後画像においてCIS20の副走査方向での色相の切り替わり部分を検出する。 In this way, the detection unit 13 detects a hue switching portion in the sub-scanning direction of the CIS 20 in the smoothed image.

ステップS225の処理後、処理はステップS105(図6)へ進む。 After the process of step S225, the process proceeds to step S105 (FIG. 6).

図6に戻り、ステップS105では、補正部14は、以下のようにして、HS切替部分に発生する色ズレ(以下では「HS部分色ズレ」と呼ぶことがある)、及び、SH切替部分に発生する色ズレ(以下では「SH部分色ズレ」と呼ぶことがある)を補正する。 Returning to FIG. 6, in step S105, the correction unit 14 corrects color shift occurring in the HS switching portion (hereinafter sometimes referred to as "HS partial color shift") and SH switching portion. The color shift that occurs (hereinafter sometimes referred to as "SH partial color shift") is corrected.

ここで、以上のように、点灯順序OR1及び点灯時間TB1,TR1,TG1で光源21を点灯させると、HS切替部分を形成する上端部隣接画素△には、HS部分色ズレとして、青色またはマゼンタ色を有する色ズレが発生する可能性があり、SH切替部分を形成する下端部隣接画素▽には、SH部分色ズレとして、緑色または黄色を有する色ズレが発生する可能性がある。また、上端部隣接画素△に発生する色ズレ(つまり、HS部分色ズレ)については、マゼンタ色の色ズレの方が、青色の色ズレよりも発生率が高く、下端部隣接画素▽に発生する色ズレ(つまり、SH部分色ズレ)については、黄色の色ズレの方が、緑色の色ズレよりも発生率が高い。 As described above, when the light source 21 is lit in the lighting order OR1 and the lighting times TB1, TR1, and TG1, the pixels Δ forming the HS switching portion are colored blue or magenta as the HS partial color shift. There is a possibility that a color shift having a color may occur, and a color shift having green or yellow may occur as an SH partial color shift at the lower edge adjacent pixel ▽ forming the SH switching portion. As for the color shift (that is, the HS partial color shift) that occurs in the upper-end adjacent pixel Δ, the occurrence rate of magenta color shift is higher than that of blue color shift, and it occurs in the lower-end adjacent pixel ▽. As for the color shift (that is, SH partial color shift), yellow color shift has a higher occurrence rate than green color shift.

そこで、補正部14は、まず、上端部隣接画素△及び下端部隣接画素▽のRGBデータを周知の変換式に従ってXYZデータに変換し、さらに周知の変換式に従って、XYZデータをLabデータに変換する。Labデータにおいて、「L」は輝度成分であり、「ab」は彩度成分である。また、彩度成分abを用いると、図8及び図9に示すように、a軸(±a)とb軸(±b)との二次元の座標によって各画素の色相が表される。図8及び図9において、a及びbが0(ゼロ)に近づくほど色相は無彩色に近づく。 Therefore, the correction unit 14 first converts the RGB data of the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽ into XYZ data according to a known conversion formula, and further converts the XYZ data into Lab data according to a known conversion formula. . In the Lab data, "L" is the luminance component and "ab" is the saturation component. When the saturation component ab is used, as shown in FIGS. 8 and 9, the hue of each pixel is represented by the two-dimensional coordinates of the a-axis (±a) and the b-axis (±b). In FIGS. 8 and 9, as a and b approach 0 (zero), the hue approaches achromatic color.

なお、図9では、a軸(±a)とb軸(±b)との二次元の座標によって表される色相の範囲を36°ずつ10分割することにより設定した10個の所定の範囲のそれぞれに各色相を割り当てた場合を一例として示す。図9に示す例では、例えば、108°以上144°未満の範囲がマゼンタ色に相当し、144°以上180°未満の範囲が青紫色に相当し、180°以上216°未満の範囲が青色に相当する。また例えば、図9に示す例では、324°以上360°未満の範囲が黄色に相当し、288°以上324°未満の範囲が黄緑色に相当し、252°以上288°未満の範囲が緑色に相当する。 In FIG. 9, ten predetermined ranges set by dividing the hue range represented by the two-dimensional coordinates of the a-axis (±a) and the b-axis (±b) by 36° into 10 A case where each hue is assigned to each is shown as an example. In the example shown in FIG. 9, for example, the range of 108° or more and less than 144° corresponds to magenta, the range of 144° or more and less than 180° corresponds to bluish purple, and the range of 180° or more and less than 216° corresponds to blue. Equivalent to. For example, in the example shown in FIG. 9, the range of 324° or more and less than 360° corresponds to yellow, the range of 288° or more and less than 324° corresponds to yellowish green, and the range of 252° or more and less than 288° corresponds to green. Equivalent to.

次いで、補正部14は、図10に示すようにして、上端部隣接画素△及び下端部隣接画素▽の色ズレを補正する。図10において、「L-in」は補正前の輝度成分、「a_in」は補正前のa、「b_in」は補正前のbを示し、「L_out」は補正後の輝度成分、「a_out」は補正後のa、「b_out」は補正後のbを示す。 Next, as shown in FIG. 10, the correction unit 14 corrects the color misregistration of the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽. In FIG. 10, "L-in" is the luminance component before correction, "a_in" is a before correction, "b_in" is b before correction, "L_out" is the luminance component after correction, and "a_out" is a after correction, and "b_out" indicates b after correction.

すなわち、図10に示すように、補正部14は、上端部隣接画素△及び下端部隣接画素▽ともに、輝度成分Lを補正しない。 That is, as shown in FIG. 10, the correction unit 14 does not correct the luminance component L of both the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽.

また、補正部14は、上端部隣接画素△について、例えば、上端部隣接画素△の補正前の色相(つまり、上端部隣接画素△に発生する色ズレが有する色相)が(a_in,b_in)=(20,-20)である場合CS11には、(a_in,b_in)=(20,-20)を(a_out,b_out)=(2.0,-2.0)に補正する。(a_in,b_in)=(20,-20)によって特定される色相は、図9に示すように、マゼンタ色に相当する。 Further, the correction unit 14 determines that, for the upper-edge adjacent pixel Δ, the hue before correction of the upper-edge adjacent pixel Δ (that is, the hue of the color shift occurring in the upper-edge adjacent pixel Δ) is (a_in, b_in)= If (20, -20), CS11 corrects (a_in, b_in)=(20, -20) to (a_out, b_out)=(2.0, -2.0). The hue specified by (a_in, b_in)=(20,-20) corresponds to magenta, as shown in FIG.

また、補正部14は、上端部隣接画素△について、例えば、上端部隣接画素△の補正前の色相が(a_in,b_in)=(5,-30)である場合CS12には、(a_in,b_in)=(5,-30)を(a_out,b_out)=(2.5,-15.0)に補正する。(a_in,b_in)=(5,-30)によって特定される色相は、図9に示すように、青紫色に相当する。 In addition, for the upper-end adjacent pixel Δ, for example, when the hue before correction of the upper-end adjacent pixel Δ is (a_in, b_in)=(5, −30), the correction unit 14 outputs (a_in, b_in ) = (5, -30) to (a_out, b_out) = (2.5, -15.0). The hue specified by (a_in, b_in)=(5,-30) corresponds to bluish purple, as shown in FIG.

また、補正部14は、上端部隣接画素△について、例えば、上端部隣接画素△の補正前の色相が(a_in,b_in)=(-10,-30)である場合CS13には、(a_in,b_in)=(-10,-30)を(a_out,b_out)=(-9.0,-27.0)に補正する。(a_in,b_in)=(-10,-30)によって特定される色相は、図9に示すように、青色に相当する。 For the upper-end adjacent pixel Δ, for example, when the hue before correction of the upper-end adjacent pixel Δ is (a_in, b_in)=(−10, −30), the correction unit 14 outputs (a_in, b_in) = (-10, -30) is corrected to (a_out, b_out) = (-9.0, -27.0). The hue specified by (a_in, b_in)=(-10,-30) corresponds to blue, as shown in FIG.

このように、場合CS11での色相成分の低減率は、場合CS12での色相成分の低減率より大きく、場合CS12での色相成分の低減率は、場合CS13での色相成分の低減率より大きいため、上端部隣接画素△についての色相成分の低減率の大きさを大,中,小の順に並べると、場合CS11,場合CS12,場合CS13の順になる(図9及び図10)。 Thus, the hue component reduction rate in case CS11 is greater than the hue component reduction rate in case CS12, and the hue component reduction rate in case CS12 is greater than the hue component reduction rate in case CS13. , CS11, CS12, and CS13 in the order of large, medium, and small hue component reduction ratios for the upper-end adjacent pixel Δ (FIGS. 9 and 10).

また、補正部14は、下端部隣接画素▽について、例えば、下端部隣接画素▽の補正前の色相(つまり、下端部隣接画素▽に発生する色ズレが有する色相)が(a_in,b_in)=(-5,30)である場合CS21には、(a_in,b_in)=(-5,30)を(a_out,b_out)=(-0.5,3.0)に補正する。(a_in,b_in)=(-5,30)によって特定される色相は、図9に示すように、黄色に相当する。 Further, the correction unit 14 determines that, for the lower-end adjacent pixel ▽, for example, the hue before correction of the lower-end adjacent pixel ▽ (that is, the hue of the color shift occurring in the lower-end adjacent pixel ▽) is (a_in, b_in)= If (-5, 30), CS21 corrects (a_in, b_in)=(-5, 30) to (a_out, b_out)=(-0.5, 3.0). The hue specified by (a_in, b_in)=(-5, 30) corresponds to yellow, as shown in FIG.

また、補正部14は、下端部隣接画素▽について、例えば、下端部隣接画素▽の補正前の色相が(a_in,b_in)=(-20,20)である場合CS22には、(a_in,b_in)=(-20,20)を(a_out,b_out)=(-10.0,10.0)に補正する。(a_in,b_in)=(-20,20)によって特定される色相は、図9に示すように、黄緑色に相当する。 For example, when the hue before correction of the lower-end adjacent pixel ▽ is (a_in, b_in)=(−20, 20), the correction unit 14 sets (a_in, b_in ) = (-20, 20) is corrected to (a_out, b_out) = (-10.0, 10.0). The hue specified by (a_in, b_in)=(-20, 20) corresponds to yellow-green, as shown in FIG.

また、補正部14は、下端部隣接画素▽について、例えば、下端部隣接画素▽の補正前の色相が(a_in,b_in)=(-30,0)である場合CS23には、(a_in,b_in)=(-30,0)を(a_out,b_out)=(-27.0,0)に補正する。(a_in,b_in)=(-30,0)によって特定される色相は、図9に示すように、緑色に相当する。 In addition, for the lower-end adjacent pixel ▽, for example, when the hue before correction of the lower-end adjacent pixel ▽ is (a_in, b_in)=(−30, 0), the correction unit 14 outputs (a_in, b_in ) = (-30, 0) to (a_out, b_out) = (-27.0, 0). The hue specified by (a_in, b_in)=(-30, 0) corresponds to green, as shown in FIG.

このように、場合CS21での色相成分の低減率は、場合CS22での色相成分の低減率より大きく、場合CS22での色相成分の低減率は、場合CS23での色相成分の低減率より大きいため、下端部隣接画素▽についての色相成分の低減率の大きさを大,中,小の順に並べると、場合CS21,場合CS22,場合CS23の順になる(図9及び図10)。 Thus, the hue component reduction rate in case CS21 is greater than the hue component reduction rate in case CS22, and the hue component reduction rate in case CS22 is greater than the hue component reduction rate in case CS23. , and lower-end adjacent pixels ▽ are arranged in the order of large, medium, and small, in the order CS21, CS22, and CS23 (FIGS. 9 and 10).

補正部14は、図10に示すような彩度成分の補正を、例えば、様々な複数の(a_in,b_in)に対して様々な複数の(a_out,b_out)が対応付けて設定された色相変換テーブルTB1を用いて行う。色相変換テーブルTB1は、予め記憶部11に記憶される。 The correction unit 14 corrects the chroma component as shown in FIG. This is done using table TB1. The hue conversion table TB1 is stored in the storage unit 11 in advance.

そして、補正部14は、彩度成分補正後の上端部隣接画素△及び下端部隣接画素▽のLabデータを周知の変換式に従ってXYZデータに逆変換し、さらに周知の変換式に従って、XYZデータをRGBデータに逆変換する。 Then, the correction unit 14 inversely transforms the Lab data of the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽ after the saturation component correction into XYZ data according to a known conversion formula, and converts the XYZ data to XYZ data according to a known conversion formula. Convert back to RGB data.

以上のように、補正部14は、第一の種別の色ズレが有する可能性がある特定の色相であるマゼンタ色、青紫色、青色、黄色、黄緑色、及び、緑色の彩度を低減させることにより第一の種別の色ズレを補正する。 As described above, the correction unit 14 reduces the saturation of magenta, bluish purple, blue, yellow, yellowish green, and green, which are specific hues that the first type of color shift may have. This corrects the first type of color misregistration.

また、補正部14は、第一の種別の色ズレが有する可能性がある特定の色相であるマゼンタ色、青紫色、青色、黄色、黄緑色、及び、緑色の彩度に応じた低減率で彩度を低減させる。 In addition, the correction unit 14 performs a reduction rate according to the saturation of magenta, bluish purple, blue, yellow, yellowish green, and green, which are specific hues that the first type of color shift may have. Reduce saturation.

以上、実施例1について説明した。 The first embodiment has been described above.

[実施例2]
実施例2では、光源21におけるB光、R光、G光の点灯順序が実施例1と異なる。以下、実施例1と相違する点について説明する。
[Example 2]
In the second embodiment, the lighting order of the B light, the R light, and the G light in the light source 21 is different from that in the first embodiment. Differences from the first embodiment will be described below.

<光源の点灯順序と色ズレとの関係>
図11は、実施例2の光源の点灯順序の一例を示す図である。図12は、実施例2の色ズレの一例を示す図である。
<Relationship between lighting order of light sources and color shift>
FIG. 11 is a diagram illustrating an example of the lighting order of the light sources according to the second embodiment. FIG. 12 is a diagram illustrating an example of color misregistration according to the second embodiment.

図11に示すように、点灯制御部31は、CIS20の副走査方向への移動に伴って、一定の周期LTで、R光→B光→G光→R光→B光→G光→R光→…という所定の点灯順序OR2で光源21を点灯させる。周期LTは、CIS20の1ラインの読取周期に相当する。つまり、点灯順序OR2では、点灯制御部31は、周期LTの始端においてR光の点灯を開始し、R光を所定の点灯時間TR2だけ点灯させた後にR光をB光に切り替え、B光を所定の点灯時間TB2だけ点灯させた後にB光をG光に切り替え、G光を所定の点灯時間TG2だけ周期LTの終端まで点灯させる。また、点灯制御部31は、周期LTの1周期におけるR光、B光、G光の各点灯時間TR2,TB2,TG2の関係を「TR2=TG2」かつ「TR2,TG2<TB2」とする。 As shown in FIG. 11, as the CIS 20 moves in the sub-scanning direction, the lighting control unit 31 performs R light→B light→G light→R light→B light→G light→R at a constant period LT. The light sources 21 are turned on in a predetermined lighting order OR2 of light → . The period LT corresponds to the one-line read period of the CIS 20 . That is, in the lighting order OR2, the lighting control unit 31 starts lighting the R light at the beginning of the period LT, and after lighting the R light for the predetermined lighting time TR2, switches the R light to the B light, and turns the B light on. After lighting for the predetermined lighting time TB2, the B light is switched to the G light, and the G light is lit for the predetermined lighting time TG2 until the end of the cycle LT. Further, the lighting control unit 31 sets the relationship between the lighting times TR2, TB2, and TG2 of the R light, B light, and G light in one period of the period LT to be "TR2=TG2" and "TR2, TG2<TB2."

以上のような点灯順序OR2及び点灯時間TR2,TB2,TG2で光源21を点灯させると、実施例1と同様に、黒文字画像上端部及び黒文字画像下端部の双方に色ズレが発生することがある。 When the light sources 21 are lit in the lighting order OR2 and the lighting times TR2, TB2, and TG2 as described above, color shift may occur at both the upper end of the black character image and the lower end of the black character image, as in the first embodiment. .

また、以上のような点灯順序OR2及び点灯時間TR2,TB2,TG2で光源21を点灯させると、上端部隣接画素△及び下端部隣接画素▽に、図12に示すように、R光、B光、G光の各点灯タイミングに応じた特定の色相の色ズレが発生する。なお、図12では図示を簡略にするために、R光、B光、G光の各点灯時間の長さが同一なものとして図示されているが、実際には上記のように、R光、B光、G光の各点灯時間TR2,TB2,TG2の関係は「TR2=TG2」かつ「TR2,TG2<TB2」である。 Further, when the light source 21 is lit in the lighting order OR2 and the lighting times TR2, TB2, TG2 as described above, R light and B light are applied to the upper edge adjacent pixel Δ and the lower edge adjacent pixel ▽ as shown in FIG. , a color shift of a specific hue corresponding to each lighting timing of the G light. In FIG. 12, for the sake of simplification, the R light, B light, and G light are shown to have the same length of lighting time. The relationship between the lighting times TR2, TB2 and TG2 of the B light and the G light is "TR2=TG2" and "TR2, TG2<TB2".

図12において、状態A2には、R光の点灯開始タイミングに一致して黒文字画像上端部が訪れるとともに、G光の消灯タイミングに一致して黒文字画像下端部が訪れた状態を示す。状態A2では、上端部隣接画素△にも下端部隣接画素▽にも色ズレは発生しない。 In FIG. 12, state A2 shows a state in which the upper end of the black character image arrives at the timing when the R light is turned on, and the lower end of the black character image arrives at the timing when the G light is extinguished. In the state A2, no color shift occurs in the upper edge adjacent pixel Δ or the lower edge adjacent pixel ▽.

また、状態B2には、R光の点灯中に黒文字画像上端部が訪れた状態を示す。状態B2では、上端部隣接画素△に赤色の色ズレが発生する。 State B2 shows a state in which the upper end of the black character image is reached while the R light is on. In state B2, a red color shift occurs in the upper edge adjacent pixel Δ.

また、状態C2には、B光の点灯中またはG光の点灯中に黒文字画像上端部が訪れた状態を示す。状態C2では、上端部隣接画素△にマゼンタ色の色ズレが発生する。 State C2 indicates a state in which the upper end of the black character image is reached while the B light is on or the G light is on. In state C2, a magenta color shift occurs in the upper edge adjacent pixel Δ.

また、状態D2には、G光の点灯中に黒文字画像下端部が訪れた状態を示す。状態D2では、下端部隣接画素▽に緑色の色ズレが発生する。 State D2 indicates a state in which the lower end of the black character image is reached while the G light is on. In the state D2, a green color shift occurs in the pixels ▽ adjacent to the lower edge.

また、状態E2には、R光の点灯中またはB光の点灯中に黒文字画像下端部が訪れた状態を示す。状態E2では、下端部隣接画素▽にシアン色の色ズレが発生する。 State E2 indicates a state in which the lower end of the black character image is reached during the lighting of the R light or the lighting of the B light. In the state E2, a cyan color shift occurs in the pixels ▽ adjacent to the lower edge.

このように、点灯順序OR2及び点灯時間TR2,TB2,TG2で光源21を点灯させると、上端部隣接画素△には、赤色またはマゼンタ色を有する色ズレが発生する可能性があり、下端部隣接画素▽には、緑色またはシアン色を有する色ズレが発生する可能性がある。上端部隣接画素△における赤色及びマゼンタ色の色ズレと、下端部隣接画素▽における緑色及びシアン色の色ズレとの組合せは、「第二の種別の色ズレ」に該当する。また、上端部隣接画素△に発生する色ズレについては、マゼンタ色の色ズレの方が、赤色の色ズレよりも発生率が高いため、上端部隣接画素△には、よりマゼンタ色に近い色相の色ズレが発生する可能性が高い。一方で、下端部隣接画素▽に発生する色ズレについては、シアン色の色ズレの方が、緑色の色ズレよりも発生率が高いため、下端部隣接画素▽には、よりシアン色に近い色相の色ズレが発生する可能性が高い。 In this way, if the light source 21 is lit in the lighting order OR2 and the lighting times TR2, TB2, and TG2, there is a possibility that the pixels Δ adjacent to the upper edge will have a color shift of red or magenta. Pixel ▽ may have a color shift with a green or cyan color. The combination of the red and magenta color shifts in the upper-end adjacent pixel Δ and the green and cyan color shifts in the lower-end adjacent pixel ▽ corresponds to the “second type of color shift”. In addition, regarding the color shift that occurs in the upper edge adjacent pixel Δ, since the occurrence rate of magenta color shift is higher than that of red color shift, the upper edge adjacent pixel Δ has a hue closer to magenta. There is a high possibility that color misalignment will occur. On the other hand, regarding the color shift that occurs in the bottom-portion adjacent pixel ▽, since the rate of occurrence of cyan color shift is higher than that of green color shift, the bottom-portion adjacent pixel ▽ is closer to cyan. There is a high possibility that color shift in hue occurs.

<画像処理装置の処理・動作>
図13及び図14は、実施例2の画像処理装置の動作例を示す図である。
<Processing/Operation of Image Processing Apparatus>
13 and 14 are diagrams illustrating an operation example of the image processing apparatus according to the second embodiment.

図6のステップS105では、補正部14は、以下のようにして、HS部分色ズレ及びSH部分色ズレを補正する。 In step S105 of FIG. 6, the correction unit 14 corrects the HS partial color shift and the SH partial color shift as follows.

ここで、以上のように、点灯順序OR2及び点灯時間TR2,TB2,TG2で光源21を点灯させると、HS切替部分を形成する上端部隣接画素△には、HS部分色ズレとして、赤色またはマゼンタ色を有する色ズレが発生する可能性があり、SH切替部分を形成する下端部隣接画素▽には、SH部分色ズレとして、緑色またはシアン色を有する色ズレが発生する可能性がある。また、上端部隣接画素△に発生する色ズレ(つまり、HS部分色ズレ)については、マゼンタ色の色ズレの方が、赤色の色ズレよりも発生率が高く、下端部隣接画素▽に発生する色ズレ(つまり、SH部分色ズレ)については、シアン色の色ズレの方が、緑色の色ズレよりも発生率が高い。 As described above, when the light source 21 is lit in the lighting order OR2 and the lighting times TR2, TB2, and TG2, red or magenta colors are generated as the HS partial color shift in the upper edge adjacent pixels Δ forming the HS switching portion. There is a possibility that a color shift having color occurs, and a color shift having green or cyan color may occur as an SH partial color shift at the lower edge adjacent pixel ▽ forming the SH switching portion. As for the color shift (that is, the HS partial color shift) that occurs in the upper edge adjacent pixel Δ, the occurrence rate of magenta color shift is higher than that of red color shift, and it occurs in the lower edge adjacent pixel ▽. As for the color shift (that is, SH partial color shift), the occurrence rate of cyan color shift is higher than that of green color shift.

そこで、補正部14は、実施例1と同様に、まず、上端部隣接画素△及び下端部隣接画素▽のRGBデータを周知の変換式に従ってXYZデータに変換し、さらに周知の変換式に従って、XYZデータをLabデータに変換する。 Therefore, as in the first embodiment, the correction unit 14 first converts the RGB data of the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽ into XYZ data according to a known conversion formula, and further converts XYZ data according to a known conversion formula. Convert the data to Lab data.

次いで、補正部14は、図13に示すようにして、上端部隣接画素△及び下端部隣接画素▽の色ズレを補正する。 Next, as shown in FIG. 13, the correction unit 14 corrects the color misregistration of the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽.

すなわち、図13に示すように、補正部14は、上端部隣接画素△及び下端部隣接画素▽ともに、輝度成分Lを補正しない。 That is, as shown in FIG. 13, the correction unit 14 does not correct the luminance component L of both the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽.

また、補正部14は、上端部隣接画素△について、例えば、上端部隣接画素△の補正前の色相(つまり、上端部隣接画素△に発生する色ズレが有する色相)が(a_in,b_in)=(20,-20)である場合CS31には、(a_in,b_in)=(20,-20)を(a_out,b_out)=(2.0,-2.0)に補正する。(a_in,b_in)=(20,-20)によって特定される色相は、図14に示すように、マゼンタ色に相当する。 Further, the correction unit 14 determines that, for the upper-edge adjacent pixel Δ, the hue before correction of the upper-edge adjacent pixel Δ (that is, the hue of the color shift occurring in the upper-edge adjacent pixel Δ) is (a_in, b_in)= If (20, -20), CS31 corrects (a_in, b_in)=(20, -20) to (a_out, b_out)=(2.0, -2.0). The hue specified by (a_in, b_in)=(20, -20) corresponds to magenta, as shown in FIG.

また、補正部14は、上端部隣接画素△について、例えば、上端部隣接画素△の補正前の色相が(a_in,b_in)=(30,0)である場合CS32には、(a_in,b_in)=(30,0)を(a_out,b_out)=(15.0,0)に補正する。(a_in,b_in)=(30,0)によって特定される色相は、図14に示すように、赤紫色に相当する。 For the upper-end adjacent pixel Δ, for example, when the hue before correction of the upper-end adjacent pixel Δ is (a_in, b_in)=(30, 0), the correction unit 14 adds (a_in, b_in) to CS32. = (30, 0) is corrected to (a_out, b_out) = (15.0, 0). The hue specified by (a_in, b_in)=(30, 0) corresponds to reddish purple, as shown in FIG.

また、補正部14は、上端部隣接画素△について、例えば、上端部隣接画素△の補正前の色相が(a_in,b_in)=(20,20)である場合CS33には、(a_in,b_in)=(20,20)を(a_out,b_out)=(18.0,18.0)に補正する。(a_in,b_in)=(20,20)によって特定される色相は、図14に示すように、赤色に相当する。 For the upper-end adjacent pixel Δ, for example, when the hue before correction of the upper-end adjacent pixel Δ is (a_in, b_in)=(20, 20), the correction unit 14 adds (a_in, b_in) to CS 33 . = (20, 20) is corrected to (a_out, b_out) = (18.0, 18.0). The hue specified by (a_in, b_in)=(20, 20) corresponds to red, as shown in FIG.

このように、場合CS31での色相成分の低減率は、場合CS32での色相成分の低減率より大きく、場合CS32での色相成分の低減率は、場合CS33での色相成分の低減率より大きいため、上端部隣接画素△についての色相成分の低減率の大きさを大,中,小の順に並べると、場合CS31,場合CS32,場合CS33の順になる(図13及び図14)。 Thus, the hue component reduction rate in case CS31 is greater than the hue component reduction rate in case CS32, and the hue component reduction rate in case CS32 is greater than the hue component reduction rate in case CS33. , the magnitude of the hue component reduction rate for the upper edge adjacent pixel Δ is arranged in the order of large, medium, and small, in the case CS31, in the case CS32, and in the case CS33 (FIGS. 13 and 14).

また、補正部14は、下端部隣接画素▽について、例えば、下端部隣接画素▽の補正前の色相(つまり、下端部隣接画素▽に発生する色ズレが有する色相)が(a_in,b_in)=(-20,-20)である場合CS41には、(a_in,b_in)=(-20,-20)を(a_out,b_out)=(-2.0,-2.0)に補正する。(a_in,b_in)=(-20,-20)によって特定される色相は、図14に示すように、シアン色に相当する。 Further, the correction unit 14 determines that, for the lower-end adjacent pixel ▽, for example, the hue before correction of the lower-end adjacent pixel ▽ (that is, the hue of the color shift occurring in the lower-end adjacent pixel ▽) is (a_in, b_in)= If (-20, -20), CS41 corrects (a_in, b_in) = (-20, -20) to (a_out, b_out) = (-2.0, -2.0). The hue specified by (a_in, b_in)=(-20, -20) corresponds to cyan, as shown in FIG.

また、補正部14は、下端部隣接画素▽について、例えば、下端部隣接画素▽の補正前の色相が(a_in,b_in)=(-25,-10)である場合CS42には、(a_in,b_in)=(-25,-10)を(a_out,b_out)=(-12.5,-5.0)に補正する。(a_in,b_in)=(-25,-10)によって特定される色相は、図14に示すように、シアン緑色に相当する。 For example, when the hue before correction of the lower-end adjacent pixel ▽ is (a_in, b_in)=(-25,-10), the correction unit 14 outputs (a_in, b_in) = (-25, -10) is corrected to (a_out, b_out) = (-12.5, -5.0). The hue specified by (a_in, b_in)=(-25,-10) corresponds to cyan green, as shown in FIG.

また、補正部14は、下端部隣接画素▽について、例えば、下端部隣接画素▽の補正前の色相が(a_in,b_in)=(-30,0)である場合CS43には、(a_in,b_in)=(-30,0)を(a_out,b_out)=(-27.0,0)に補正する。(a_in,b_in)=(-30,0)によって特定される色相は、図14に示すように、緑色に相当する。 In addition, for the lower-end adjacent pixel ▽, for example, when the hue before correction of the lower-end adjacent pixel ▽ is (a_in, b_in)=(−30, 0), the correction unit 14 outputs (a_in, b_in ) = (-30, 0) to (a_out, b_out) = (-27.0, 0). The hue specified by (a_in, b_in)=(-30, 0) corresponds to green, as shown in FIG.

このように、場合CS41での色相成分の低減率は、場合CS42での色相成分の低減率より大きく、場合CS42での色相成分の低減率は、場合CS43での色相成分の低減率より大きいため、下端部隣接画素▽についての色相成分の低減率の大きさを大,中,小の順に並べると、場合CS41,場合CS42,場合CS43の順になる(図13及び図14)。 Thus, the hue component reduction rate in case CS41 is greater than the hue component reduction rate in case CS42, and the hue component reduction rate in case CS42 is greater than the hue component reduction rate in case CS43. , and lower-end adjacent pixels ▽ are arranged in the order of large, medium, and small, in the order CS41, CS42, and CS43 (FIGS. 13 and 14).

なお、図14では、図9と同様に、a軸(±a)とb軸(±b)との二次元の座標によって表される色相の範囲を36°ずつ10分割することにより設定した10個の所定の範囲のそれぞれに各色相を割り当てた場合を一例として示す。図14に示す例では、図9と同様に、例えば、108°以上144°未満の範囲がマゼンタ色に相当し、144°以上180°未満の範囲が青紫色に相当し、180°以上216°未満の範囲が青色に相当する。また例えば、図14に示す例では、図9と同様に、324°以上360°未満の範囲が黄色に相当し、288°以上324°未満の範囲が黄緑色に相当し、252°以上288°未満の範囲が緑色に相当する。 In FIG. 14, as in FIG. 9, the hue range represented by the two-dimensional coordinates of the a-axis (±a) and the b-axis (±b) is divided into 10 by 36°. A case where each hue is assigned to each of the predetermined ranges is shown as an example. In the example shown in FIG. 14, similarly to FIG. 9, for example, the range of 108° or more and less than 144° corresponds to magenta, the range of 144° or more and less than 180° corresponds to bluish purple, and the range of 180° or more and 216° corresponds to magenta. The range below corresponds to blue. Further, for example, in the example shown in FIG. 14, similar to FIG. 9, the range of 324° or more and less than 360° corresponds to yellow, the range of 288° or more and less than 324° corresponds to yellowish green, and the range of 252° or more and 288° corresponds to yellow. The range below corresponds to green.

補正部14は、図13に示すような彩度成分の補正を、例えば、様々な複数の(a_in,b_in)に対して様々な複数の(a_out,b_out)が対応付けて設定された色相変換テーブルTB2を用いて行う。色相変換テーブルTB2は、予め記憶部11に記憶される。 The correction unit 14 corrects the chroma component as shown in FIG. This is done using table TB2. The hue conversion table TB2 is stored in the storage unit 11 in advance.

そして、補正部14は、彩度成分補正後の上端部隣接画素△及び下端部隣接画素▽のLabデータを周知の変換式に従ってXYZデータに逆変換し、さらに周知の変換式に従って、XYZデータをRGBデータに逆変換する。 Then, the correction unit 14 inversely transforms the Lab data of the upper-end adjacent pixel Δ and the lower-end adjacent pixel ▽ after the saturation component correction into XYZ data according to a known conversion formula, and converts the XYZ data to XYZ data according to a known conversion formula. Convert back to RGB data.

以上のように、補正部14は、第二の種別の色ズレが有する可能性がある特定の色相であるマゼンタ色、赤紫色、赤色、シアン色、シアン緑色、及び、緑色の彩度を低減させることにより第二の種別の色ズレを補正する。 As described above, the correction unit 14 reduces the saturation of magenta, magenta, red, cyan, cyan green, and green, which are specific hues that the second type of color shift may have. The second type of color misregistration is corrected by causing the

また、補正部14は、第二の種別の色ズレが有する可能性がある特定の色相であるマゼンタ色、赤紫色、赤色、シアン色、シアン緑色、及び、緑色の彩度に応じた低減率で彩度を低減させる。 In addition, the correction unit 14 sets the reduction rate according to the saturation of magenta, magenta, red, cyan, cyan green, and green, which are specific hues that the second type of color shift may have. to reduce saturation.

以上、実施例2について説明した。 The second embodiment has been described above.

なお、実施例1及び実施例2において、画像処理装置10から平滑化部12を省き、検出部13が、記憶部11に記憶されている読取画像、つまり、彩度が平滑化されていない読取画像に対してステップS103(図6)の処理を施しても良い。例えば、補正部14だけで補正することが困難な過度な色ズレが読取画像に発生する場合に、補正部14での補正の前処理として、平滑化部12が読取画像の彩度の平滑化を行うと良い。また例えば、読取画像の画像ファイルのサイズを圧縮したい場合に読取画像の彩度の平滑化を行うと良い。 In Examples 1 and 2, the smoothing unit 12 is omitted from the image processing apparatus 10, and the detection unit 13 detects the read image stored in the storage unit 11, that is, the read image in which the saturation is not smoothed. The image may be processed in step S103 (FIG. 6). For example, when excessive color misregistration that is difficult to correct by the correction unit 14 occurs in the read image, the smoothing unit 12 smoothes the saturation of the read image as preprocessing for correction by the correction unit 14. It is good to do Further, for example, when it is desired to compress the size of the image file of the read image, it is preferable to smooth the saturation of the read image.

以上のように実施例1及び実施例2では、画像処理装置10は、読取画像に対する画像処理を行う。CIS20は、CIS20の主走査方向に一列に配列された複数の撮像素子22と、青色、赤色、緑色の光を所定の点灯順序で読取対象媒体に照射可能な光源21とを有する。また、画像処理装置10は、記憶部11と、検出部13と、補正部14とを有する。記憶部11は、読取画像を記憶する。検出部13は、読取画像において色相切替部分を検出する。補正部14は、色相切替部分に発生する色ズレであって、色相切替部分における色相の切り替わりの態様と、青色、赤色、緑色の光の所定の点灯順序とに応じた色ズレを補正する。 As described above, in the first and second embodiments, the image processing apparatus 10 performs image processing on the read image. The CIS 20 has a plurality of imaging elements 22 arranged in a row in the main scanning direction of the CIS 20, and a light source 21 capable of irradiating a medium to be read with blue, red, and green lights in a predetermined lighting order. The image processing apparatus 10 also has a storage unit 11 , a detection unit 13 , and a correction unit 14 . The storage unit 11 stores read images. The detection unit 13 detects the hue switching portion in the read image. The correction unit 14 corrects the color shift occurring in the hue switching portion, which corresponds to the mode of hue switching in the hue switching portion and the predetermined lighting order of the blue, red, and green lights.

こうすることで、読取画像に発生する色ズレを低減することができる。また、色相切替部分における色相の切り替わりの態様と、青色、赤色、緑色の光の所定の点灯順序とに応じた色ズレを補正することで、色相が限定される色ズレを重点的に補正することが可能になるため、色ズレの低減効果を高めることができる。 By doing so, it is possible to reduce color misregistration that occurs in the read image. In addition, by correcting the color shift according to the mode of hue switching in the hue switching portion and the predetermined lighting order of the blue, red, and green lights, the color shift whose hue is limited is mainly corrected. Therefore, the effect of reducing color misregistration can be enhanced.

また、実施例1及び実施例2では、検出部13は、色相切替部分として、副走査方向で背景画素からコンテンツ画素に切り替わるHS切替部分と、副走査方向でコンテンツ画素から背景画素に切り替わるSH切替部分とを検出する。 In Embodiments 1 and 2, the detection unit 13 uses, as hue switching portions, an HS switching portion for switching from background pixels to content pixels in the sub-scanning direction and an SH switching portion for switching from content pixels to background pixels in the sub-scanning direction. Detect parts.

また、実施例1では、補正部14は、マゼンタ色または青色を有するHS部分色ズレ、及び、黄色または緑色を有するSH部分色ズレを補正する。 In addition, in the first embodiment, the correction unit 14 corrects the HS partial color shift with magenta or blue and the SH partial color shift with yellow or green.

また、実施例2では、補正部14は、マゼンタ色または赤色を有するHS部分色ズレ、及び、シアン色または緑色を有するSH部分色ズレを補正する。 In addition, in the second embodiment, the correction unit 14 corrects the HS partial color shift having magenta or red color and the SH partial color shift having cyan or green color.

こうすることで、読取画像においてHS切替部分とSH切替部分とに対してだけ色ズレ補正が行われるため、効率的に色ズレの補正を行うことができる。また、HS切替部分とSH切替部分とのそれぞれに応じた最適な補正を行うことができる。 By doing so, color misregistration correction is performed only for the HS switching portion and the SH switching portion in the read image, so color misregistration correction can be performed efficiently. In addition, optimum correction can be performed for each of the HS switching portion and the SH switching portion.

また、実施例1及び実施例2では、補正部14は、色ズレの種別に応じた特定の色相の彩度を低減させることにより色ズレを補正する。 Further, in the first and second embodiments, the correction unit 14 corrects color drift by reducing the saturation of a specific hue according to the type of color drift.

こうすることで、色ズレを効率的に補正することができる。 By doing so, it is possible to efficiently correct the color misregistration.

また、実施例1及び実施例2では、補正部14は、色ズレの種別に応じた特定の色相の彩度に応じた低減率で、色ズレの種別に応じた特定の色相の彩度を低減させる。 In addition, in the first and second embodiments, the correction unit 14 reduces the saturation of a specific hue according to the type of color misregistration at a reduction rate according to the saturation of a specific hue according to the type of color misregistration. Reduce.

こうすることで、色ズレの種別に応じて色相が限定される色ズレを重点的に補正することができる。 By doing so, it is possible to intensively correct the color shift whose hue is limited according to the type of color shift.

また、実施例1及び実施例2では、画像処理装置10は、平滑化部12を有する。平滑化部12は、読取画像の彩度を平滑化する。そして、検出部13は、平滑化後画像において色相切替部分を検出する。 Further, in the first and second embodiments, the image processing apparatus 10 has the smoothing unit 12 . A smoothing unit 12 smoothes the saturation of the read image. Then, the detection unit 13 detects the hue switching portion in the smoothed image.

こうすることで、読取画像に過度な色ズレが発生している場合でも、補正部14が補正可能な範囲に色ズレの度合を収めることができる。 By doing so, even when excessive color misregistration occurs in the read image, the degree of color misregistration can be kept within a range that can be corrected by the correction unit 14 .

また、実施例1及び実施例2におけるコンテンツ画像は黒文字画像である。 Also, the content image in the first and second embodiments is a black character image.

こうすることで、OCR(Optical Character Recognition)の認識精度を向上させることができる。 By doing so, the recognition accuracy of OCR (Optical Character Recognition) can be improved.

[実施例3]
画像処理装置10での上記説明における各処理の全部または一部は、各処理に対応するプログラムを画像処理装置10が有するプロセッサに実行させることによって実現しても良い。例えば、上記説明における各処理に対応するプログラムが記憶部11に記憶され、プログラムがプロセッサによって記憶部11から読み出されて実行されても良い。また、プログラムは、任意のネットワークを介して画像処理装置10に接続されたプログラムサーバに記憶され、そのプログラムサーバから画像処理装置10にダウンロードされて実行されたり、画像処理装置10が読み取り可能な記録媒体に記憶され、その記録媒体から読み出されて実行されても良い。画像処理装置10が読み取り可能な記録媒体には、例えば、メモリカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、CD-ROM、DVD、及び、Blu-ray(登録商標)ディスク等の可搬の記憶媒体が含まれる。また、プログラムは、任意の言語や任意の記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。また、プログラムは必ずしも単一的に構成されるものに限られず、複数のモジュールや複数のライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものも含む。
[Example 3]
All or part of each process in the above description in the image processing apparatus 10 may be realized by causing a processor of the image processing apparatus 10 to execute a program corresponding to each process. For example, a program corresponding to each process described above may be stored in the storage unit 11, and the program may be read from the storage unit 11 and executed by the processor. The program is stored in a program server connected to the image processing apparatus 10 via an arbitrary network, downloaded from the program server to the image processing apparatus 10 and executed, or stored in a record readable by the image processing apparatus 10 . It may be stored in a medium and read and executed from the recording medium. Examples of recording media readable by the image processing apparatus 10 include memory cards, USB memories, SD cards, flexible disks, magneto-optical disks, CD-ROMs, DVDs, and Blu-ray (registered trademark) disks. A portable storage medium is included. A program is a data processing method written in an arbitrary language and an arbitrary description method, and may be in any format such as source code or binary code. In addition, the program is not necessarily configured in a single unit, but may be distributed as multiple modules or multiple libraries, or cooperate with a separate program represented by the OS to achieve its function. Including things.

画像処理装置10の分散・統合の具体的形態は図示するものに限られず、画像処理装置10の全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 The specific form of distribution/integration of the image processing apparatus 10 is not limited to the illustrated one, and all or part of the image processing apparatus 10 can be arranged in arbitrary units according to various additions or functional loads. It can be configured by distributing and integrating functionally or physically.

実施例1及び実施例2では、画像処理装置10が画像読取装置1に搭載される場合を一例として挙げた。しかし、画像処理装置10は、画像読取装置に搭載されず、コンピュータ装置のように、画像読取装置とは別の装置として存在しても良い。 In Embodiments 1 and 2, the case where the image processing apparatus 10 is installed in the image reading apparatus 1 is taken as an example. However, the image processing apparatus 10 may not be installed in the image reading apparatus, and may exist as a device separate from the image reading apparatus, such as a computer device.

以上、実施例3について説明した。 The third embodiment has been described above.

1 画像読取装置
20 CIS
21 光源
22 撮像素子
31 点灯制御部
10 画像処理装置
11 記憶部
12 平滑化部
13 検出部
14 補正部
1 image reader 20 CIS
21 light source 22 image sensor 31 lighting control unit 10 image processing device 11 storage unit 12 smoothing unit 13 detection unit 14 correction unit

Claims (5)

主走査方向に一列に配列された複数の撮像素子と、青色、赤色、緑色の光を所定の点灯順序で読取対象媒体に照射可能な光源とを有するイメージセンサにより読み取られた読取画像に対する画像処理を行う画像処理装置であって、
前記読取画像を記憶する記憶部と、
前記読取画像において前記イメージセンサの副走査方向での色相の切り替わり部分を検出する検出部と、
前記切り替わり部分に発生する色ズレであって、前記切り替わり部分における前記色相の切り替わりの態様と、前記所定の点灯順序とに応じた前記色ズレを補正する補正部と、
を具備し、
前記所定の点灯順序は、青色、赤色、緑色の順序であり、
前記読取画像は、コンテンツ画像を形成するコンテンツ画素と、前記コンテンツ画像以外の背景画像を形成する背景画素であって、前記コンテンツ画素に隣接する前記背景画素とを含み、
前記検出部は、前記切り替わり部分として、前記副走査方向で前記背景画素から前記コンテンツ画素に切り替わる第一部分と、前記副走査方向で前記コンテンツ画素から前記背景画素に切り替わる第二部分とを検出し、
前記補正部は、前記第一部分に発生する第一の色ズレであって、マゼンタ色、青色または青紫色を有する前記第一の色ズレ、及び、前記第二部分に発生する第二の色ズレであって、黄色、緑色または黄緑色を有する前記第二の色ズレを補正し、
前記第一の色ズレの補正において、前記マゼンタ色の色ズレにおける色相成分の低減率は、前記青紫色の色ズレにおける色相成分の低減率より大きく、前記青紫色の色ズレにおける色相成分の低減率は、前記青色の色ズレにおける色相成分の低減率より大きく、かつ、前記黄色の色ズレにおける色相成分の低減率は、前記黄緑色の色ズレにおける色相成分の低減率より大きく、前記黄緑色の色ズレにおける色相成分の低減率は、前記緑色での色相成分の低減率より大きい、
画像処理装置。
Image processing for a read image read by an image sensor having a plurality of image pickup elements arranged in a line in the main scanning direction and a light source capable of irradiating a medium to be read with blue, red, and green light in a predetermined lighting order. An image processing device that performs
a storage unit that stores the read image;
a detection unit that detects a hue switching portion in the sub-scanning direction of the image sensor in the read image;
a correction unit that corrects the color shift that occurs in the switching portion, and that corrects the color shift according to the mode of hue switching in the switching portion and the predetermined lighting order;
and
the predetermined lighting order is the order of blue, red, and green;
the read image includes content pixels forming a content image and background pixels forming a background image other than the content image and adjacent to the content pixels;
The detection unit detects, as the switching portions, a first portion where the background pixels are switched to the content pixels in the sub-scanning direction and a second portion where the content pixels are switched to the background pixels in the sub-scanning direction,
The correcting unit corrects the first color misregistration occurring in the first portion, the first color misregistration having magenta, blue, or bluish purple, and the second color misregistration occurring in the second portion. correcting the second color shift having yellow, green or yellow-green,
In the correction of the first color shift, the reduction rate of the hue component in the magenta color shift is greater than the reduction rate of the hue component in the blue-purple color shift, and the reduction of the hue component in the blue-purple color shift. is greater than the reduction rate of the hue component in the blue color shift, and the reduction rate of the hue component in the yellow color shift is greater than the reduction rate of the hue component in the yellow-green color shift, and the yellow-green The reduction rate of the hue component in the color shift is greater than the reduction rate of the hue component in the green,
Image processing device.
前記読取画像の彩度を平滑化する平滑化部、をさらに具備し、
前記検出部は、前記彩度の平滑化後の前記読取画像において前記切り替わり部分を検出する、
請求項1に記載の画像処理装置。
a smoothing unit that smoothes the saturation of the read image;
The detection unit detects the switching portion in the read image after smoothing the saturation.
The image processing apparatus according to claim 1.
前記コンテンツ画像は、黒色の文字の画像である、
請求項に記載の画像処理装置。
The content image is an image of black characters,
The image processing apparatus according to claim 1 .
主走査方向に一列に配列された複数の撮像素子と、青色、赤色、緑色の光を所定の点灯順序で読取対象媒体に照射可能な光源とを有するイメージセンサにより読み取られた読取画像に対する画像処理方法であって、
前記読取画像において前記イメージセンサの副走査方向での色相の切り替わり部分を検出し、
前記切り替わり部分に発生する色ズレであって、前記切り替わり部分における前記色相の切り替わりの態様と、前記所定の点灯順序とに応じた前記色ズレを補正
前記所定の点灯順序は、青色、赤色、緑色の順序であり、
前記読取画像は、コンテンツ画像を形成するコンテンツ画素と、前記コンテンツ画像以外の背景画像を形成する背景画素であって、前記コンテンツ画素に隣接する前記背景画素とを含み、
前記切り替わり部分として、前記副走査方向で前記背景画素から前記コンテンツ画素に切り替わる第一部分と、前記副走査方向で前記コンテンツ画素から前記背景画素に切り替わる第二部分とを検出し、
前記第一部分に発生する第一の色ズレであって、マゼンタ色、青色または青紫色を有する前記第一の色ズレ、及び、前記第二部分に発生する第二の色ズレであって、黄色、緑色または黄緑色を有する前記第二の色ズレを補正し、
前記第一の色ズレの補正において、前記マゼンタ色の色ズレにおける色相成分の低減率は、前記青紫色の色ズレにおける色相成分の低減率より大きく、前記青紫色の色ズレにおける色相成分の低減率は、前記青色の色ズレにおける色相成分の低減率より大きく、かつ、前記黄色の色ズレにおける色相成分の低減率は、前記黄緑色の色ズレにおける色相成分の低減率より大きく、前記黄緑色の色ズレにおける色相成分の低減率は、前記緑色での色相成分の低減率より大きい、
画像処理方法。
Image processing for a read image read by an image sensor having a plurality of image pickup elements arranged in a line in the main scanning direction and a light source capable of irradiating a medium to be read with blue, red, and green light in a predetermined lighting order. a method,
detecting a hue switching portion in the sub-scanning direction of the image sensor in the read image;
correcting the color shift that occurs in the switching portion according to the switching mode of the hue in the switching portion and the predetermined lighting order;
the predetermined lighting order is the order of blue, red, and green;
the read image includes content pixels forming a content image and background pixels forming a background image other than the content image and adjacent to the content pixels;
detecting, as the switching portions, a first portion where the background pixels are switched to the content pixels in the sub-scanning direction and a second portion where the content pixels are switched to the background pixels in the sub-scanning direction;
The first color misregistration occurring in the first portion, the first color misregistration having magenta, blue, or bluish purple, and the second color misregistration occurring in the second portion, the yellow , correcting the second color shift having green or yellow-green,
In the correction of the first color shift, the reduction rate of the hue component in the magenta color shift is greater than the reduction rate of the hue component in the blue-purple color shift, and the reduction of the hue component in the blue-purple color shift. is greater than the reduction rate of the hue component in the blue color shift, and the reduction rate of the hue component in the yellow color shift is greater than the reduction rate of the hue component in the yellow-green color shift, and the yellow-green The reduction rate of the hue component in the color shift is greater than the reduction rate of the hue component in the green,
Image processing method.
主走査方向に一列に配列された複数の撮像素子と、青色、赤色、緑色の光を所定の点灯順序で読取対象媒体に照射可能な光源とを有するイメージセンサにより読み取られた読取画像に対する画像処理であって、
前記読取画像において前記イメージセンサの副走査方向での色相の切り替わり部分を検出し、
前記切り替わり部分に発生する色ズレであって、前記切り替わり部分における前記色相の切り替わりの態様と、前記所定の点灯順序とに応じた前記色ズレを補正する、
前記画像処理をプロセッサに実行させるための画像処理プログラムであって、
前記所定の点灯順序は、青色、赤色、緑色の順序であり、
前記読取画像は、コンテンツ画像を形成するコンテンツ画素と、前記コンテンツ画像以外の背景画像を形成する背景画素であって、前記コンテンツ画素に隣接する前記背景画素とを含み、
前記切り替わり部分として、前記副走査方向で前記背景画素から前記コンテンツ画素に切り替わる第一部分と、前記副走査方向で前記コンテンツ画素から前記背景画素に切り替わる第二部分とを検出し、
前記第一部分に発生する第一の色ズレであって、マゼンタ色、青色または青紫色を有する前記第一の色ズレ、及び、前記第二部分に発生する第二の色ズレであって、黄色、緑色または黄緑色を有する前記第二の色ズレを補正し、
前記第一の色ズレの補正において、前記マゼンタ色の色ズレにおける色相成分の低減率は、前記青紫色の色ズレにおける色相成分の低減率より大きく、前記青紫色の色ズレにおける色相成分の低減率は、前記青色の色ズレにおける色相成分の低減率より大きく、かつ、前記黄色の色ズレにおける色相成分の低減率は、前記黄緑色の色ズレにおける色相成分の低減率より大きく、前記黄緑色の色ズレにおける色相成分の低減率は、前記緑色での色相成分の低減率より大きい、
画像処理プログラム
Image processing for a read image read by an image sensor having a plurality of image pickup elements arranged in a line in the main scanning direction and a light source capable of irradiating a medium to be read with blue, red, and green light in a predetermined lighting order. and
detecting a hue switching portion in the sub-scanning direction of the image sensor in the read image;
correcting the color shift that occurs in the switching portion according to the switching mode of the hue in the switching portion and the predetermined lighting order;
An image processing program for causing a processor to execute the image processing ,
the predetermined lighting order is the order of blue, red, and green;
the read image includes content pixels forming a content image and background pixels forming a background image other than the content image and adjacent to the content pixels;
detecting, as the switching portions, a first portion where the background pixels are switched to the content pixels in the sub-scanning direction and a second portion where the content pixels are switched to the background pixels in the sub-scanning direction;
The first color misregistration occurring in the first portion, the first color misregistration having magenta, blue, or bluish purple, and the second color misregistration occurring in the second portion, the yellow , correcting the second color shift having green or yellow-green,
In the correction of the first color shift, the reduction rate of the hue component in the magenta color shift is greater than the reduction rate of the hue component in the blue-purple color shift, and the reduction of the hue component in the blue-purple color shift. is greater than the reduction rate of the hue component in the blue color shift, and the reduction rate of the hue component in the yellow color shift is greater than the reduction rate of the hue component in the yellow-green color shift, and the yellow-green The reduction rate of the hue component in the color shift is greater than the reduction rate of the hue component in the green,
Image processing program .
JP2019041768A 2019-03-07 2019-03-07 Image processing device, image processing method, and image processing program Active JP7169231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019041768A JP7169231B2 (en) 2019-03-07 2019-03-07 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041768A JP7169231B2 (en) 2019-03-07 2019-03-07 Image processing device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2020145615A JP2020145615A (en) 2020-09-10
JP7169231B2 true JP7169231B2 (en) 2022-11-10

Family

ID=72354616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041768A Active JP7169231B2 (en) 2019-03-07 2019-03-07 Image processing device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP7169231B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212815A (en) 2008-03-04 2009-09-17 Murata Mach Ltd Image processor, original document scanning apparatus, test chart and color/monochrome determining method
JP2011139349A (en) 2009-12-28 2011-07-14 Canon Inc Image processor, image processing method, and computer program
JP2016092475A (en) 2014-10-30 2016-05-23 コニカミノルタ株式会社 Image processing system and image reader
JP2017098623A (en) 2015-11-18 2017-06-01 富士ゼロックス株式会社 Image reader and image forming apparatus employing the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009212815A (en) 2008-03-04 2009-09-17 Murata Mach Ltd Image processor, original document scanning apparatus, test chart and color/monochrome determining method
JP2011139349A (en) 2009-12-28 2011-07-14 Canon Inc Image processor, image processing method, and computer program
JP2016092475A (en) 2014-10-30 2016-05-23 コニカミノルタ株式会社 Image processing system and image reader
JP2017098623A (en) 2015-11-18 2017-06-01 富士ゼロックス株式会社 Image reader and image forming apparatus employing the same

Also Published As

Publication number Publication date
JP2020145615A (en) 2020-09-10

Similar Documents

Publication Publication Date Title
US9025870B2 (en) Image processing device correcting color of border region between object and background in image
US9247105B2 (en) Image forming apparatus and image forming method therefor
JP2600515B2 (en) Image processing method
JPH04336869A (en) Color picture editing device
US11816830B2 (en) Image processing apparatus, image processing method, and storage medium
US9665944B2 (en) Image processing apparatus and non-transitory computer readable recording medium storing an image processing program with improved duplication of characters against a background image
JP2001128013A (en) Processing method for color picture
US7515298B2 (en) Image processing apparatus and method determining noise in image data
US20080239352A1 (en) Image forming apparatus and control method thereof
JP4922272B2 (en) Image processing apparatus and image processing method
EP2919452B1 (en) Apparatus, image processing apparatus, and method
US10726316B2 (en) Image processing apparatus, image processing method, and storage medium
JP7169231B2 (en) Image processing device, image processing method, and image processing program
JP2007298669A (en) Image forming apparatus and density uneveness detection method
JP3861498B2 (en) Black edge discrimination device and image processing device
JPH01200964A (en) Apparatus for forming color image
KR101233986B1 (en) Apparatus and method of correcting purple fringing
JP6614504B2 (en) Image reading apparatus, image reading method, image forming apparatus, image reading program, and image forming program
JP2019047441A (en) Image processing apparatus, reading apparatus, image processing method, and program
US10924635B2 (en) Image processing apparatus and image processing method
JP2618893B2 (en) Color image processing equipment
JP4384791B2 (en) Print detection device
JP2004096625A (en) Image processing apparatus and method therefor
JPH11205618A (en) Image forming device
JPS6364479A (en) Color identifying device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221028

R150 Certificate of patent or registration of utility model

Ref document number: 7169231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150