JP2020150458A - Image reading device, image reading method, and program - Google Patents
Image reading device, image reading method, and program Download PDFInfo
- Publication number
- JP2020150458A JP2020150458A JP2019047517A JP2019047517A JP2020150458A JP 2020150458 A JP2020150458 A JP 2020150458A JP 2019047517 A JP2019047517 A JP 2019047517A JP 2019047517 A JP2019047517 A JP 2019047517A JP 2020150458 A JP2020150458 A JP 2020150458A
- Authority
- JP
- Japan
- Prior art keywords
- color
- data
- paper
- luminance
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Input (AREA)
- Facsimile Scanning Arrangements (AREA)
Abstract
Description
本発明は、画像読取装置、画像読取方法およびプログラムに関する。 The present invention relates to an image reader, an image reading method and a program.
移動方向(副走査方向)に垂直な方向(主走査方向)を長手方向とする領域を読み取って画像データを取得する画像読取装置が知られている。 An image reading device is known that acquires image data by reading a region whose longitudinal direction is a direction (main scanning direction) perpendicular to the moving direction (secondary scanning direction).
特許文献1の画像読取装置では、R(red)G(green)B(blue)の各色のラインセンサを間隔を置いて2つ配置し、低解像度モードおよび高解像度モードのいずれかに切り替えて読み取りを行う。低解像度モードでは、2つのラインセンサの間隔で読み取り位置を順次変更しながら読み取りを行い、同じ位置の画像データを合成する。高解像度モードでは、2つのラインセンサの間隔を所定の数で分割した間隔で読み取り位置を順次変更しながら読み取りを行い、同じ位置の画像データを合成する。 In the image reader of Patent Document 1, two line sensors of each color of R (red), G (green), and B (blue) are arranged at intervals, and the image reading device is switched between the low resolution mode and the high resolution mode for reading. I do. In the low resolution mode, reading is performed while sequentially changing the reading position at intervals between the two line sensors, and image data at the same position is combined. In the high resolution mode, reading is performed while sequentially changing the reading position at intervals obtained by dividing the distance between the two line sensors by a predetermined number, and image data at the same position is combined.
ところで、画像読取装置では、最も輝度の高い1色の画素情報を用いてマーク位置またはエッジ位置が検出される。そのため、従来の画像読取装置では、画像読取時の印刷媒体の搬送速度が高くなると対応しきれない場合がある。 By the way, in the image reading device, the mark position or the edge position is detected by using the pixel information of one color having the highest brightness. Therefore, the conventional image reading device may not be able to cope with the increase in the transport speed of the print medium at the time of image reading.
本発明は、上記に鑑みてなされたものであって、印刷媒体とラインセンサとの間の相対的な搬送速度が高くなっても、印刷媒体のマーク位置またはエッジ位置を従来に比して精度よく検出することができる画像読取装置、画像読取方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and even if the relative transport speed between the print medium and the line sensor is high, the mark position or edge position of the print medium is more accurate than before. It is an object of the present invention to provide an image reading device, an image reading method and a program that can be detected well.
上述した課題を解決し、目的を達成するために、本発明は、用紙搬送方向に複数色のカラーフィルタが配列されたカラーイメージセンサと、用紙と前記カラーイメージセンサとを前記用紙搬送方向に相対的に動かす駆動機構と、前記カラーイメージセンサで取得された画像データのうち2つ以上の色の輝度データを用いて前記用紙の位置検出を行う制御部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the present invention relates a color image sensor in which color filters of a plurality of colors are arranged in the paper transport direction, and the paper and the color image sensor relative to the paper transport direction. It is characterized by including a drive mechanism for moving the paper, and a control unit for detecting the position of the paper using brightness data of two or more colors among the image data acquired by the color image sensor.
本発明によれば、印刷媒体の搬送速度が高くなっても、印刷媒体のマーク位置またはエッジ位置を従来に比して精度よく検出することができるという効果を奏する。 According to the present invention, even if the transport speed of the print medium is increased, the mark position or edge position of the print medium can be detected more accurately than in the conventional case.
以下に、図面を参照しながら、本発明に係る画像読取装置、画像読取方法およびプログラムの実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Hereinafter, embodiments of an image reading device, an image reading method, and a program according to the present invention will be described in detail with reference to the drawings. Further, the present invention is not limited by the following embodiments, and the components in the following embodiments include those easily conceived by those skilled in the art, substantially the same, and so-called equivalent ranges. Is included. Furthermore, various omissions, substitutions, changes and combinations of components can be made without departing from the gist of the following embodiments.
(第1の実施形態)
[画像形成装置の構成]
図1は、第1の実施形態による画像読取装置が含まれる画像形成装置の全体構成の一例を示す図である。図1を参照しながら、画像形成装置1の全体構成について説明する。
(First Embodiment)
[Configuration of image forming apparatus]
FIG. 1 is a diagram showing an example of the overall configuration of an image forming apparatus including the image reading apparatus according to the first embodiment. The overall configuration of the image forming apparatus 1 will be described with reference to FIG.
図1に示すように、画像形成装置1は、給紙ユニット11と、先塗ユニット12と、作像ユニット13と、乾燥・冷却ユニット14と、反転ユニット15と、排紙ユニット16と、を備えている。 As shown in FIG. 1, the image forming apparatus 1 includes a paper feeding unit 11, a precoating unit 12, an image forming unit 13, a drying / cooling unit 14, an inversion unit 15, and a paper ejection unit 16. I have.
給紙ユニット11は、印刷媒体である用紙を1枚ずつ給紙して、先塗ユニット12へ搬送するユニットである。 The paper feed unit 11 is a unit that feeds paper, which is a print medium, one by one and conveys it to the precoat unit 12.
先塗ユニット12は、インクを用紙に定着させるための先塗液を予め塗布するユニットである。インクが定着しにくい用紙もあるため、先塗ユニット12により先塗液を予め塗布しておくことにより、インクを定着させやすくすることができる。また、先塗ユニット12は、用紙に先塗液を塗布した後、ヒータによって乾燥させて、用紙を作像ユニット13へ搬送する。 The pre-coating unit 12 is a unit for pre-applying a pre-coating liquid for fixing ink on paper. Since some papers are difficult to fix the ink, it is possible to easily fix the ink by applying the precoat liquid in advance by the precoat unit 12. Further, the precoating unit 12 applies the precoating liquid to the paper, dries it with a heater, and conveys the paper to the image forming unit 13.
作像ユニット13は、用紙をドラムに巻き付けて搬送し、ラインヘッド方式の記録ヘッドにより印刷処理(画像形成)を行うユニットである。作像ユニット13の構成の詳細については、後述する。作像ユニット13は、印刷した用紙を、乾燥・冷却ユニット14搬送する。 The image forming unit 13 is a unit that winds paper around a drum, conveys it, and performs printing processing (image formation) by a line head type recording head. Details of the configuration of the image forming unit 13 will be described later. The image forming unit 13 conveys the printed paper to the drying / cooling unit 14.
乾燥・冷却ユニット14は、画像が印刷された用紙上のインクの水分を乾燥させて、インクを用紙に定着させるユニットである。また、乾燥・冷却ユニット14は、用紙を乾燥した後、高温になった当該用紙を冷却して温度を下げ、反転ユニット15へ搬送する。 The drying / cooling unit 14 is a unit that dries the moisture of the ink on the paper on which the image is printed and fixes the ink on the paper. Further, the drying / cooling unit 14 dries the paper, cools the high-temperature paper to lower the temperature, and conveys the paper to the reversing unit 15.
反転ユニット15は、両面印刷の設定になっている場合に、乾燥・冷却ユニット14から搬送されてきた表面が印刷された用紙に対してスイッチバック反転を行い、作像ユニット13へ用紙を搬送するユニットである。ここで、スイッチバック反転とは、用紙の搬送方向に垂直であって、対向する2辺(用紙先端の辺および用紙後端の辺)を入れ替えるために、用紙先端が反転ローラを通過してから、後端が通過する前に、当該反転ローラの回転方向を逆転させて、後端だった用紙の端部を先端として搬送する反転方式である。また、反転ユニット15は、両面印刷ではなく通常印刷(片面印刷)の設定になっている場合には、用紙に対してスイッチバック反転を行わず、用紙を排紙ユニット16へ搬送する。 When the reversing unit 15 is set for double-sided printing, the reversing unit 15 performs switchback reversal on the paper whose surface is printed, which is transferred from the drying / cooling unit 14, and transfers the paper to the image forming unit 13. It is a unit. Here, the switchback reversal means that the paper tip passes through the reversing roller in order to replace the two opposing sides (the side at the front end of the paper and the side at the rear end of the paper) that are perpendicular to the paper transport direction. This is a reversing method in which the rotation direction of the reversing roller is reversed before the rear end passes, and the end of the paper, which was the rear end, is used as the front end. When the reversing unit 15 is set to normal printing (single-sided printing) instead of double-sided printing, the reversing unit 15 does not perform switchback reversal on the paper and conveys the paper to the paper ejection unit 16.
排紙ユニット16は、反転ユニット15から搬送されてきた印刷済みの用紙をスタック部に排紙するユニットである。 The paper ejection unit 16 is a unit that ejects the printed paper conveyed from the reversing unit 15 to the stack portion.
なお、図1に示す画像形成装置1のユニット構成は一例であり、その他のユニット構成であってもよい。例えば、給紙ユニット11において用紙の給紙ボリュームが多い場合、複数のユニットを連結して構成した給紙ユニットとしてもよい。また、例えば、先塗ユニット12と、作像ユニット13との間に、用紙の搬送タイミングの調整および位置調整等を行うレジストユニットを配置するものとしてもよい。 The unit configuration of the image forming apparatus 1 shown in FIG. 1 is an example, and other unit configurations may be used. For example, when the paper feed volume of the paper feed unit 11 is large, the paper feed unit may be configured by connecting a plurality of units. Further, for example, a resist unit for adjusting the paper transport timing, adjusting the position, and the like may be arranged between the precoating unit 12 and the image forming unit 13.
本実施形態による画像読取装置20は、両面印字処理で、表面印字後の用紙画像位置を読み取って、裏面画像の印字位置にフィードバックする目的で利用される。そのため、例えば、作像ユニット13内の両面搬送パス上に設けられる。 The image reading device 20 according to the present embodiment is used for the purpose of reading the paper image position after front surface printing and feeding back to the printing position of the back surface image in the double-sided printing process. Therefore, for example, it is provided on the double-sided transport path in the image forming unit 13.
図2は、画像形成装置のハードウェアの電気的接続の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of electrical connection of hardware of an image forming apparatus.
図2に示すように、画像形成装置1は、コントローラ100とエンジン部(Engine)160とエンジン部(Engine)170とをPCIバスで接続した構成となる。コントローラ100は、画像形成装置1の全体の制御、描画、通信、及び操作表示部であるオペレーションパネル120からの入力を制御するコントローラである。エンジン部160は、PCIバスに接続可能なエンジンであり、例えば、スキャナエンジンなどである。エンジン部160には、エンジン部分に加えて、誤差拡散またはガンマ変換などの画像処理部分も含まれる。エンジン部170は、PCIバスに接続可能なエンジンであり、例えば、作像ユニット13等のプリントエンジン部などである。 As shown in FIG. 2, the image forming apparatus 1 has a configuration in which the controller 100, the engine unit (Engine) 160, and the engine unit (Engine) 170 are connected by a PCI bus. The controller 100 is a controller that controls overall control, drawing, communication, and input from the operation panel 120, which is an operation display unit, of the image forming apparatus 1. The engine unit 160 is an engine that can be connected to the PCI bus, and is, for example, a scanner engine or the like. In addition to the engine portion, the engine portion 160 also includes an image processing portion such as error diffusion or gamma conversion. The engine unit 170 is an engine that can be connected to the PCI bus, and is, for example, a print engine unit such as an image forming unit 13.
コントローラ100は、CPU(Central Processing Unit)111と、ノースブリッジ(NB)113と、システムメモリ(MEM−P)112と、サウスブリッジ(SB)114と、ローカルメモリ(MEM−C)117と、ASIC(Application Specific Integrated Circuit)116と、ハードディスクドライブ(HDD)118とを有し、NB113とASIC116との間をAGP(Accelerated Graphics Port)バス115で接続した構成となる。また、MEM−P112は、ROM112aと、RAM112bとをさらに有する。 The controller 100 includes a CPU (Central Processing Unit) 111, a north bridge (NB) 113, a system memory (MEM-P) 112, a south bridge (SB) 114, a local memory (MEM-C) 117, and an ASIC. (Application Specific Integrated Circuit) 116 and a hard disk drive (HDD) 118 are provided, and the NB 113 and the ASIC 116 are connected by an AGP (Accelerated Graphics Port) bus 115. Further, the MEM-P112 further includes a ROM 112a and a RAM 112b.
CPU111は、画像形成装置1の全体制御を行うものであり、NB113、MEM−P112およびSB114からなるチップセットを有し、このチップセットを介して他の機器と接続される。 The CPU 111 controls the entire image forming apparatus 1, has a chipset including NB113, MEM-P112, and SB114, and is connected to other devices via this chipset.
NB113は、CPU111とMEM−P112、SB114、AGPバス115とを接続するためのブリッジであり、MEM−P112に対する読み書きなどを制御するメモリコントローラと、PCIマスタおよびAGPターゲットとを有する。 The NB 113 is a bridge for connecting the CPU 111 to the MEM-P112, SB114, and the AGP bus 115, and has a memory controller that controls reading and writing to the MEM-P112, a PCI master, and an AGP target.
MEM−P112は、プログラムやデータの格納用メモリ、プログラムまたはデータの展開用メモリ、プリンタの描画用メモリなどとして用いるシステムメモリであり、ROM112aとRAM112bとからなる。ROM112aは、プログラムまたはデータの格納用メモリとして用いる読み出し専用のメモリであり、RAM112bは、プログラムまたはデータの展開用メモリ、プリンタの描画用メモリなどとして用いる書き込みおよび読み出し可能なメモリである。 The MEM-P112 is a system memory used as a memory for storing a program or data, a memory for expanding a program or data, a memory for drawing a printer, or the like, and includes a ROM 112a and a RAM 112b. The ROM 112a is a read-only memory used as a memory for storing a program or data, and the RAM 112b is a writeable and readable memory used as a memory for expanding a program or data, a memory for drawing a printer, and the like.
SB114は、NB113とPCIデバイス、周辺デバイスとを接続するためのブリッジである。このSB114は、PCIバスを介してNB113と接続されており、このPCIバスには、ネットワークインタフェース(I/F)部なども接続される。 The SB 114 is a bridge for connecting the NB 113 to the PCI device and peripheral devices. The SB 114 is connected to the NB 113 via a PCI bus, and a network interface (I / F) unit or the like is also connected to the PCI bus.
ASIC116は、画像処理用のハードウェア要素を有する画像処理用途向けのIC(Integrated Circuit)であり、AGPバス115、PCIバス、HDD118およびMEM−C117をそれぞれ接続するブリッジの役割を有する。このASIC116は、PCIターゲットおよびAGPマスタと、ASIC116の中核をなすアービタ(ARB)と、MEM−C117を制御するメモリコントローラと、ハードウェアロジックなどにより画像データの回転などをおこなう複数のDMAC(Direct Memory Access Controller)と、エンジン部160またはエンジン部170との間でPCIバスを介したデータ転送をおこなうPCIユニットとからなる。このASIC116には、PCIバスを介してUSB40、IEEE1394(the Institute of Electrical and Electronics Engineers 1394)インタフェース(I/F)150が接続される。オペレーションパネル120はASIC116に直接接続されている。 The ASIC 116 is an IC (Integrated Circuit) for image processing applications having hardware elements for image processing, and has a role of a bridge connecting the AGP bus 115, the PCI bus, HDD 118, and MEM-C117, respectively. This ASIC116 includes a PCI target and an AGP master, an arbiter (ARB) which is the core of the ASIC116, a memory controller which controls MEM-C117, and a plurality of DMACs (Direct Memory) which rotate image data by hardware logic and the like. It consists of an Access Controller) and a PCI unit that transfers data between the engine unit 160 or the engine unit 170 via the PCI bus. A USB 40 and an IEEE 1394 (the Institute of Electrical and Electronics Engineers 1394) interface (I / F) 150 are connected to the ASIC 116 via a PCI bus. The operation panel 120 is directly connected to the ASIC 116.
MEM−C117は、画像バッファ、符号バッファとして用いるローカルメモリであり、HDD118は、画像データの蓄積、プログラムの蓄積、フォントデータの蓄積、フォームの蓄積を行うためのストレージである。 The MEM-C117 is a local memory used as an image buffer and a code buffer, and the HDD 118 is a storage for accumulating image data, a program, font data, and a form.
AGPバス115は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM−P112に高スループットで直接アクセスすることにより、グラフィックスアクセラレータカードを高速にするものである。 The AGP bus 115 is a bus interface for a graphics accelerator card proposed to speed up graphic processing, and speeds up the graphics accelerator card by directly accessing the MEM-P112 with high throughput. ..
本実施の形態の画像形成装置1で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The program executed by the image forming apparatus 1 of the present embodiment is a file in an installable format or an executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). It may be configured to be recorded and provided on a computer-readable recording medium.
さらに、本実施の形態の画像形成装置1で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の画像形成装置1で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the program executed by the image forming apparatus 1 of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the program executed by the image forming apparatus 1 of the present embodiment may be configured to be provided or distributed via a network such as the Internet.
[画像読取装置の構成]
図3は、第1の実施形態による画像読取装置の機能構成の一例を示すブロック図である。画像読取装置20は、カラーイメージセンサ21と、駆動機構22と、制御部23と、を有する。
[Configuration of image reader]
FIG. 3 is a block diagram showing an example of the functional configuration of the image reading device according to the first embodiment. The image reading device 20 includes a color image sensor 21, a driving mechanism 22, and a control unit 23.
カラーイメージセンサ21は、印刷媒体である用紙に印刷されたカラー画像を読み取る画像読取部である。カラーイメージセンサ21は、例えば、赤(R),緑(G),青(B)の各フィルタを組み合わせた3ラインのイメージセンサである。図4は、カラーイメージセンサの一例を示す図であり、(a)は、カラーイメージセンサと印刷媒体との間の配置関係を示す図であり、(b)はカラーイメージセンサの内部のカラーフィルタの配列の一例を模式的に示す図である。 The color image sensor 21 is an image reading unit that reads a color image printed on paper, which is a printing medium. The color image sensor 21 is, for example, a three-line image sensor that combines red (R), green (G), and blue (B) filters. FIG. 4 is a diagram showing an example of a color image sensor, FIG. 4A is a diagram showing an arrangement relationship between the color image sensor and a print medium, and FIG. 4B is a diagram showing a color filter inside the color image sensor. It is a figure which shows an example of the arrangement of.
図4(a)に示されるように、カラーイメージセンサ21は、エッジ検出対象の用紙310の画像を読み取る。カラーイメージセンサ21は、用紙310またはカラーイメージセンサ21の搬送方向がカラーイメージセンサ21の副走査方向となるように配置される。本実施形態では、カラーイメージセンサ21は、RGB光源を順次切り替えて読み取る光源線切替型ではなく、副走査方向にRGBカラーフィルタが配列されたカラーフィルタ型が用いられる。 As shown in FIG. 4A, the color image sensor 21 reads an image of the paper 310 to be edge-detected. The color image sensor 21 is arranged so that the transport direction of the paper 310 or the color image sensor 21 is the sub-scanning direction of the color image sensor 21. In the present embodiment, the color image sensor 21 is not a light source line switching type that sequentially switches and reads RGB light sources, but a color filter type in which RGB color filters are arranged in the sub-scanning direction.
副走査方向に垂直な方向(主走査方向)の所定の位置で、副走査方向に配列されたカラーフィルタの色画素211R,211G,211Bは1ピクセルを構成する。1ピクセル内の色画素211R,211G,211Bは、例えば走査方向に色画素ピッチΔpで配置される。カラーイメージセンサ21はスキャン周期Δt毎に1ピクセル内の色データを3色分読み取るが、実際に読み取る色データは厳密には、それぞれ副走査方向に色画素ピッチΔp分だけ異なる領域の色データを取得していることになる。 The color pixels 211R, 211G, 211B of the color filters arranged in the sub-scanning direction at a predetermined position in the direction perpendicular to the sub-scanning direction (main scanning direction) constitute one pixel. The color pixels 211R, 211G, and 211B within one pixel are arranged, for example, in the scanning direction with a color pixel pitch Δp. The color image sensor 21 reads color data within one pixel for three colors in each scan cycle Δt, but strictly speaking, the color data actually read is color data in a region different by the color pixel pitch Δp in the sub-scanning direction. It means that you have acquired it.
エッジ検出対象としては、背景320と用紙310との界面または用紙310と用紙内トンボマーク311との界面などがあり、これらのエッジを読取画像内の検出領域331において検出する。なお、ここで使用するカラーイメージセンサ21の画素数および配列方向は必ずしも図4で示した例と一致しなくてもよい。 The edge detection target includes the interface between the background 320 and the paper 310 or the interface between the paper 310 and the register mark 311 in the paper, and these edges are detected in the detection area 331 in the scanned image. The number of pixels and the arrangement direction of the color image sensor 21 used here do not necessarily have to match the example shown in FIG.
駆動機構22は、カラーイメージセンサ21と印刷媒体との少なくとも一方を、カラーイメージセンサ21の副走査方向に相対的に移動させる。 The drive mechanism 22 moves at least one of the color image sensor 21 and the print medium relatively in the sub-scanning direction of the color image sensor 21.
制御部23は、カラーイメージセンサ21から画像データを取得し、用紙のエッジ位置またはトンボマークの位置などの用紙の位置検出を行い、用紙の形状を読み取るなどの処理を行う。制御部23は、画像データ取得部231と、色選択部232と、レベル補正部233と、画素位置変換部234と、結合処理部235と、を有する。 The control unit 23 acquires image data from the color image sensor 21, detects the position of the paper such as the edge position of the paper or the position of the register mark, and performs processing such as reading the shape of the paper. The control unit 23 includes an image data acquisition unit 231, a color selection unit 232, a level correction unit 233, a pixel position conversion unit 234, and a coupling processing unit 235.
画像データ取得部231は、カラーイメージセンサ21からカラー画像を取得する。 The image data acquisition unit 231 acquires a color image from the color image sensor 21.
色選択部232は、取得したカラー画像におけるR,G,Bの各色の輝度情報を集めた輝度データを用いてエッジ位置の判定に使用する色を選択する。後述するように、色選択部232は、最大絶対輝度が閾値を超えている色が2色以上ある場合には、複数の色を選択する。 The color selection unit 232 selects a color to be used for determining the edge position by using the luminance data collected from the luminance information of each of the R, G, and B colors in the acquired color image. As will be described later, the color selection unit 232 selects a plurality of colors when there are two or more colors whose maximum absolute brightness exceeds the threshold value.
図5は、読取領域でのカラーイメージセンサと用紙との間の時系列の位置関係を模式的に示す図である。この図で、横軸は、時間を示し、縦軸は位置を示している。カラーイメージセンサ21のスキャン周期をΔtとしたとき、Δtの時間で用紙310またはカラーイメージセンサ21が搬送される距離(副走査解像度)である搬送距離間隔をΔLとする。また、各時刻ti(i=n,n+1,n+2,n+3,・・・)でカラーイメージセンサ21で読み取られた位置をラインというものとする。 FIG. 5 is a diagram schematically showing a time-series positional relationship between the color image sensor and the paper in the reading region. In this figure, the horizontal axis represents time and the vertical axis represents position. When the scan cycle of the color image sensor 21 is Δt, the transfer distance interval, which is the distance (secondary scanning resolution) that the paper 310 or the color image sensor 21 is conveyed in the time of Δt, is ΔL. Each time t i (i = n, n + 1, n + 2, n + 3, ···) will be referred to as a position read by the color image sensor 21 in the line.
一般的な画像読取装置では、搬送方向に配置された色画素で取得された輝度情報のうち、1色の輝度情報のみを用いてエッジ検出用データを算出していた。この場合、輝度情報は、搬送距離間隔ΔLでしか取得できていなかった。 In a general image reading device, edge detection data is calculated using only the luminance information of one color among the luminance information acquired by the color pixels arranged in the transport direction. In this case, the luminance information could be acquired only at the transport distance interval ΔL.
一方、本実施形態では副走査方向に複数のカラーフィルタ(色画素211R,211G,211B)が並んでいることに着目し、少なくとも2つの色画素で取得された輝度情報を用いる。すなわち、基準となる色画素での検出結果を他の色画素での検出結果を用いて補完する。その結果、搬送距離間隔ΔL未満の間隔で輝度情報を取得することができる。 On the other hand, in the present embodiment, attention is paid to the fact that a plurality of color filters (color pixels 211R, 211G, 211B) are arranged in the sub-scanning direction, and the luminance information acquired by at least two color pixels is used. That is, the detection result of the reference color pixel is complemented by using the detection result of another color pixel. As a result, the luminance information can be acquired at intervals less than the transport distance interval ΔL.
図5の時刻tn〜tn+3の時間において、一般的な画像読取装置のように1色のみ、例えばGデータのみを抽出して輝度情報を取得した場合、得られる輝度情報は搬送距離間隔がΔLの4点のみである。しかし、Gデータに加えてRデータおよびBデータの少なくとも一方の色データを用いることができれば、搬送距離間隔ΔLのGデータに加えて、ΔL+ΔpおよびΔL−Δpの少なくとも一方の位置の色データでサンプル点を補完することができる。そのため、副走査方向の見かけ上の解像度が増加しエッジ近傍での輝度変化への追従性が向上する。 When brightness information is acquired by extracting only one color, for example, G data, as in a general image reader at times t n to t n + 3 in FIG. 5, the obtained luminance information is the transport distance. There are only four points with an interval of ΔL. However, if at least one of the color data of the R data and the B data can be used in addition to the G data, the color data of at least one position of ΔL + Δp and ΔL−Δp is sampled in addition to the G data of the transport distance interval ΔL. The points can be complemented. Therefore, the apparent resolution in the sub-scanning direction is increased, and the ability to follow the change in brightness in the vicinity of the edge is improved.
そこで、本実施形態では、色選択部232は、検出領域331におけるR、G,Bの各色の輝度データ(以下、色データともいう)について最大輝度値を算出し、最大輝度値が所定の閾値以上となる色を選択する。色選択部232は、選択した色が2つ以上ある場合には、以下で説明する補正処理の実施を示す補正処理実施フラグを立てる。また、選択した色が1つの場合には補正処理実施フラグを立てない。 Therefore, in the present embodiment, the color selection unit 232 calculates the maximum luminance value for the luminance data (hereinafter, also referred to as color data) of each color of R, G, and B in the detection region 331, and the maximum luminance value is a predetermined threshold value. Select the above color. When there are two or more selected colors, the color selection unit 232 sets a correction processing execution flag indicating the execution of the correction processing described below. If there is only one selected color, the correction processing execution flag is not set.
図6は、検出領域におけるR,G,Bの各色の輝度データの一例を示す図である。この図で、横軸は時間(位置)を示し、縦軸は各画素の輝度を示している。例えば、判定の基準となる閾値がTH1である場合には、RとGの輝度データの最大輝度値は閾値TH1を超えているが、Bの輝度データの最大値は閾値TH1を超えていない。そのため、ここでは、RとGとが色画素として選択されるとともに、補正処理実施フラグが立てられる。 FIG. 6 is a diagram showing an example of luminance data of each color of R, G, and B in the detection region. In this figure, the horizontal axis represents time (position) and the vertical axis represents the brightness of each pixel. For example, when the threshold value used as a reference for determination is TH1, the maximum luminance value of the luminance data of R and G exceeds the threshold value TH1, but the maximum value of the luminance data of B does not exceed the threshold value TH1. Therefore, here, R and G are selected as color pixels, and a correction processing execution flag is set.
レベル補正部233は、色選択部232で選択された色について絶対輝度データを相対輝度データに変換して、各色の輝度データのレベルを合わせる補正を行う。例えば、取得した画像データの白レベルをすべての色で揃えることで、画像の輝度データを絶対輝度から相対輝度に変換する。相対輝度は、最小輝度値を0%とし、最大輝度値を100%としたパーセンテージで表現される。mピクセル目の最小輝度値および最大輝度値は、読み取った画像データのうち検出領域331で示された範囲の中で探索される。例えば、nライン目のmピクセル目の相対輝度は、次式(1)によって求められる。
相対輝度(nライン目、mピクセル目)%
=絶対輝度(nライン目、mピクセル目)÷[最大輝度(mピクセル目)−最小輝度(mピクセル目)]×100 ・・・(1)
The level correction unit 233 converts the absolute luminance data for the color selected by the color selection section 232 into relative luminance data, and performs correction to match the level of the luminance data of each color. For example, by aligning the white level of the acquired image data with all colors, the luminance data of the image is converted from the absolute luminance to the relative luminance. Relative brightness is expressed as a percentage with the minimum brightness value as 0% and the maximum brightness value as 100%. The minimum luminance value and the maximum luminance value of the m-th pixel are searched within the range indicated by the detection area 331 in the read image data. For example, the relative brightness of the m-th pixel of the n-th line is obtained by the following equation (1).
Relative brightness (n-line, m-pixel)%
= Absolute brightness (n-line, m-pixel) ÷ [Maximum brightness (m-pixel) -Minimum brightness (m-pixel)] x 100 ... (1)
この補正は、絶対白(白基準板)と絶対黒(LED OFF)で行う通常のシェーディング補正に変えて、用紙地肌と背景(LED ON)でシェーディング補正を行うことに他ならない。 This correction is nothing other than performing shading correction on the paper background and background (LED ON) instead of the normal shading correction performed on absolute white (white reference plate) and absolute black (LED OFF).
画素位置変換部234は、色選択部232で選択された色の相対輝度データについて、データのライン位置から、実際のカラーイメージセンサ21における色画素の位置を考慮した画素位置にシフトする変換処理を行う。例えば、図4および図5から、同じ時刻で取得された画素データのうち、色画素211Gを基準画素とする。この基準画素の位置に対して、色画素211R,211Bは±Δpだけ位置がずれている。画素位置変換部234は、基準画素以外の色画素で取得された相対輝度データの位置を、基準画素の相対輝度データの位置座標に合わせる処理を行う。 The pixel position conversion unit 234 performs a conversion process for shifting the relative luminance data of the color selected by the color selection unit 232 from the data line position to the pixel position in consideration of the position of the color pixel in the actual color image sensor 21. Do. For example, from FIG. 4 and FIG. 5, among the pixel data acquired at the same time, the color pixel 211G is used as the reference pixel. The color pixels 211R and 211B are displaced by ± Δp with respect to the position of the reference pixel. The pixel position conversion unit 234 performs a process of aligning the position of the relative luminance data acquired by the color pixels other than the reference pixel with the position coordinates of the relative luminance data of the reference pixel.
図7は、画素位置の変換処理の一例を示す図であり、(a)は変換処理を行う前の相対輝度データであり、(b)は、Rデータの変換処理の例を示す図であり、(c)はBデータの変換処理の例を示す図であり、(d)は変換処理を行った後の相対輝度データである。これらの図で、横軸は検出位置を示し、縦軸は相対輝度を示している。また、横軸の目盛は、色画素ピッチΔpを示している。ここでは、スキャン周期Δtでの搬送距離間隔ΔLは、色画素ピッチΔpの半分であるものとする。また、すべての色が色選択部232で選択されたものとする。 7A and 7B are diagrams showing an example of pixel position conversion processing, FIG. 7A is a diagram showing relative luminance data before the conversion processing is performed, and FIG. 7B is a diagram showing an example of R data conversion processing. , (C) are diagrams showing an example of B data conversion processing, and (d) is relative luminance data after the conversion processing is performed. In these figures, the horizontal axis represents the detection position and the vertical axis represents the relative brightness. The scale on the horizontal axis indicates the color pixel pitch Δp. Here, it is assumed that the transport distance interval ΔL in the scan cycle Δt is half of the color pixel pitch Δp. Further, it is assumed that all the colors are selected by the color selection unit 232.
図7(a)のように、R,G,Bの各色の相対輝度データが得られる。ここで、カラーイメージセンサ21の副走査方向の中央に配置されている色画素211Gで取得されるGの相対輝度データを基準とし、R,Bの相対輝度データの画素位置の変換処理を行う。 As shown in FIG. 7A, relative luminance data of each color of R, G, and B can be obtained. Here, the pixel position conversion processing of the relative luminance data of R and B is performed with reference to the relative luminance data of G acquired by the color pixels 211G arranged in the center of the color image sensor 21 in the sub-scanning direction.
まず、図7(b)に示されるように、Rの相対輝度データの画素位置の変換処理を行う。図4(b)に示されるように、カラーイメージセンサ21の1ピクセル内では、Gの色画素211Gに対して、Rの色画素211Rは副走査方向に色画素ピッチΔpだけずれて配置されている。そこで、Rの相対輝度データを構成する各相対輝度情報の位置を色画素ピッチΔpだけGの色画素211Gの方向にシフトさせる。 First, as shown in FIG. 7B, the pixel position conversion process of the relative luminance data of R is performed. As shown in FIG. 4B, within one pixel of the color image sensor 21, the color pixels 211R of R are arranged so as to be offset by the color pixel pitch Δp in the sub-scanning direction with respect to the color pixels 211G of G. There is. Therefore, the position of each relative luminance information constituting the relative luminance data of R is shifted in the direction of the color pixel 211G of G by the color pixel pitch Δp.
ついで、図7(c)に示されるように、Bの相対輝度データの画素位置の変換処理を行う。図4(b)に示されるように、カラーイメージセンサ21の1ピクセル内では、Gの色画素211Gに対して、Bの色画素211Bは副走査方向に色画素ピッチΔpだけずれて配置されている。そこで、Bの相対輝度データを構成する各相対輝度情報の位置を色画素ピッチΔpだけGの色画素211Gの方向にシフトさせる。以上の処理を行った結果、図7(d)に示されるように、R,Bの相対輝度データは、基準となるGの相対輝度データの検出位置にシフトされる。 Then, as shown in FIG. 7C, the pixel position conversion process of the relative luminance data of B is performed. As shown in FIG. 4B, within one pixel of the color image sensor 21, the color pixels 211B of B are arranged so as to be offset by the color pixel pitch Δp in the sub-scanning direction with respect to the color pixels 211G of G. There is. Therefore, the position of each relative luminance information constituting the relative luminance data of B is shifted in the direction of the color pixel 211G of G by the color pixel pitch Δp. As a result of performing the above processing, as shown in FIG. 7D, the relative luminance data of R and B is shifted to the detection position of the relative luminance data of G as a reference.
ここではカラーイメージセンサ21の副走査方向の中央に配置されるGの色画素211Gを基準画素としたが、両端のRの色画素211GまたはBの色画素211Bを基準に置くことも可能である。また、トンボマーク中心位置を算出するなどの用途で、複数のエッジ位置検出結果を元にエッジ間距離を算出する場合には、すべてのエッジ位置の検出で使用される基準画素は統一される。 Here, the color pixel 211G of G arranged in the center of the color image sensor 21 in the sub-scanning direction is used as a reference pixel, but it is also possible to use the color pixel 211G of R at both ends or the color pixel 211B of B at both ends as a reference. .. Further, when the distance between edges is calculated based on the results of detecting a plurality of edge positions for the purpose of calculating the center position of the register mark, the reference pixels used for detecting all the edge positions are unified.
結合処理部235は、画素位置変換部234で得られた全ての色の相対輝度データを、データ位置の順にソートして結合することで、単色での場合に比較して解像度が増加したエッジ検出用の輝度変化データを生成する。このとき、搬送速度とスキャン周期、色画素ピッチの関係から同一位置に複数の相対輝度情報が存在する状態になった場合には、結合処理部235は、それらの平均値を当該位置のデータとする平均化処理を実施する。 The combination processing unit 235 sorts and combines the relative luminance data of all the colors obtained by the pixel position conversion unit 234 in the order of the data positions, so that the edge detection has an increased resolution as compared with the case of a single color. Generate brightness change data for. At this time, when a plurality of relative luminance information exists at the same position due to the relationship between the transport speed, the scan cycle, and the color pixel pitch, the coupling processing unit 235 sets the average value of them as the data at that position. Perform the averaging process.
図8は、相対輝度データの結合処理の一例を示す図であり、(a)は図7(d)の相対輝度データについての平均化処理の例を示す図であり、(b)は、(a)のデータを用いた結合処理の例を示す図である。図8(a)の位置P1,P2などでは、同じ検出位置にR,G,Bの相対輝度情報が存在する。そこで、結合処理部235は、同じ検出位置の複数の相対輝度情報の平均値を算出し、この平均値を、算出を行った検出位置での相対輝度情報とする。複数の相対輝度情報が存在するすべての検出位置で平均化処理を行った後、検出位置の順に相対輝度情報、あるいは相対輝度情報および相対輝度情報の平均値をソートして結合することで、図8(b)に示される輝度変化データが得られる。 FIG. 8 is a diagram showing an example of a combination process of relative luminance data, FIG. 8A is a diagram showing an example of an averaging process for the relative luminance data of FIG. 7D, and FIG. It is a figure which shows the example of the combination processing using the data of a). At the positions P1 and P2 in FIG. 8A, the relative luminance information of R, G, and B exists at the same detection position. Therefore, the coupling processing unit 235 calculates an average value of a plurality of relative luminance information at the same detection position, and uses this average value as the relative luminance information at the calculated detection position. After performing the averaging process at all the detection positions where a plurality of relative brightness information exists, the relative brightness information, or the average values of the relative brightness information and the relative brightness information are sorted and combined in the order of the detection positions. The luminance change data shown in 8 (b) can be obtained.
レベル補正部233、画素位置変換部234および結合処理部235での補正処理を、読取画像の全データ範囲(nmax×mmax)に渡って実行することで、主走査方向の各ピクセル位置におけるエッジ検出用の輝度変化データが生成される。 By executing the correction processing in the level correction unit 233, the pixel position conversion unit 234, and the coupling processing unit 235 over the entire data range (n max × m max ) of the scanned image, at each pixel position in the main scanning direction. Luminance change data for edge detection is generated.
[画像読取方法]
つぎに、このような画像読取装置20における画像読取方法について説明する。図9は、第1の実施形態による画像読取方法の手順の一例を示すフローチャートである。まず、シェーディング補正、黒白レベル調整などの読取系の調整処理を行い(ステップS11)、カラーイメージセンサ21で画像読み取りを実施する(ステップS12)。これによって、画像データ取得部231は、カラーイメージセンサ21で読み取られた画像データを取得する。
[Image reading method]
Next, an image reading method in such an image reading device 20 will be described. FIG. 9 is a flowchart showing an example of the procedure of the image reading method according to the first embodiment. First, adjustment processing of the reading system such as shading correction and black-and-white level adjustment is performed (step S11), and image reading is performed by the color image sensor 21 (step S12). As a result, the image data acquisition unit 231 acquires the image data read by the color image sensor 21.
ついで、色選択部232は、エッジ位置判定に使用する色画素を選択する使用色選択処理を実施する(ステップS13)。 Next, the color selection unit 232 executes a color selection process for selecting a color pixel used for edge position determination (step S13).
図10は、使用色選択処理の手順の一例を示すフローチャートである。まず、色選択部232は、色データの補正処理実施フラグを初期化する(ステップS31)。補正処理実施フラグは、2つの以上の色の相対輝度情報を結合した輝度変化データを生成する補正処理を実施するか否かを示すものである。 FIG. 10 is a flowchart showing an example of the procedure of the color selection process. First, the color selection unit 232 initializes the color data correction processing execution flag (step S31). The correction processing execution flag indicates whether or not to carry out the correction processing for generating the luminance change data in which the relative luminance information of two or more colors is combined.
ついで、色選択部232は、各色の絶対輝度データについて最大輝度値を算出し(ステップS32)、最大輝度値が閾値以上となる絶対輝度データが2つ以上かを判定する(ステップS33)。最大輝度値が閾値以上となる絶対輝度データが2つ以上である場合(ステップS33でYesの場合)には、色選択部232は、閾値以上の最大輝度値を有する色を選択するとともに、補正処理実施フラグを立てる(ステップS34)。なお、ここで最大輝度値が閾値未満の色データを除く理由は、絶対輝度のダイナミックレンジが低いと、相対輝度へ変換した際にエッジ近傍の中間輝度の精度が悪化するからである。つまり、閾値は、相対輝度へ変換した際にエッジ近傍の中間輝度の精度が悪化しない程度の輝度とすることができる。そして、処理が図9に戻る。 Next, the color selection unit 232 calculates the maximum luminance value for the absolute luminance data of each color (step S32), and determines whether there are two or more absolute luminance data whose maximum luminance value is equal to or more than the threshold value (step S33). When there are two or more absolute luminance data in which the maximum luminance value is equal to or greater than the threshold value (Yes in step S33), the color selection unit 232 selects a color having the maximum luminance value equal to or greater than the threshold value and corrects it. The process execution flag is set (step S34). The reason for excluding the color data whose maximum luminance value is less than the threshold value here is that if the dynamic range of the absolute luminance is low, the accuracy of the intermediate luminance near the edge deteriorates when converted to the relative luminance. That is, the threshold value can be set to such a degree that the accuracy of the intermediate brightness near the edge does not deteriorate when converted to the relative brightness. Then, the process returns to FIG.
また、最大輝度値が閾値以上となる絶対輝度データが2つ未満である場合(ステップS33でNoの場合)には、本実施形態による補正処理を実行することができないので、色選択部232は、最大輝度値が最も高い絶対輝度データを選択する(ステップS35)。このとき、色選択部232は、補正処理実施フラグは立てない。そして、処理が図9に戻る。なお、色データの補正処理実施フラグが立っていない場合には、以降のステップS14のレベル補正処理からステップS15の画素位置変換処理までを実行せず、1つの色の輝度データを用いてステップS16のエッジ位置判定処理を実施することになる。 Further, when there are less than two absolute luminance data whose maximum luminance value is equal to or greater than the threshold value (No in step S33), the correction process according to the present embodiment cannot be executed, so that the color selection unit 232 , The absolute luminance data having the highest maximum luminance value is selected (step S35). At this time, the color selection unit 232 does not set the correction processing execution flag. Then, the process returns to FIG. If the color data correction processing execution flag is not set, the subsequent level correction processing in step S14 to the pixel position conversion processing in step S15 are not executed, and the brightness data of one color is used in step S16. Edge position determination processing will be performed.
その後、図9に戻り、レベル補正部233は、選択された色の絶対輝度データを相対輝度データに変換するレベル補正処理を行う(ステップS14)。 After that, returning to FIG. 9, the level correction unit 233 performs a level correction process for converting the absolute luminance data of the selected color into the relative luminance data (step S14).
図11は、レベル補正処理の手順の一例を示すフローチャートである。レベル補正部233は、色画素Rについて補正処理実施フラグが立っているかを判定する(ステップS51)。補正処理実施フラグが立っている場合(ステップS51でYesの場合)には、レベル補正部233は、(1)式を用いて、画像データ中の色画素Rで取得された絶対輝度データを相対輝度データに変換する(ステップS52)。 FIG. 11 is a flowchart showing an example of the procedure of the level correction process. The level correction unit 233 determines whether the correction processing execution flag is set for the color pixel R (step S51). When the correction processing execution flag is set (Yes in step S51), the level correction unit 233 uses the equation (1) to relative the absolute luminance data acquired by the color pixel R in the image data. It is converted into luminance data (step S52).
その後、またはステップS51で補正処理実施フラグが立っていない場合(ステップS51でNoの場合)には、レベル補正部233は、色画素Gについて補正処理実施フラグが立っているかを判定する(ステップS53)。補正処理実施フラグが立っている場合(ステップS53でYesの場合)には、レベル補正部233は、(1)式を用いて、画像データ中の色画素Gで取得された絶対輝度データを相対輝度データに変換する(ステップS54)。 After that, or when the correction processing execution flag is not set in step S51 (No in step S51), the level correction unit 233 determines whether the correction processing execution flag is set for the color pixel G (step S53). ). When the correction processing execution flag is set (Yes in step S53), the level correction unit 233 uses the equation (1) to relative the absolute luminance data acquired by the color pixels G in the image data. It is converted into luminance data (step S54).
その後、またはステップS53で補正処理実施フラグが立っていない場合(ステップS53でNoの場合)には、レベル補正部233は、色画素Bについて補正処理実施フラグが立っているかを判定する(ステップS55)。補正処理実施フラグが立っている場合(ステップS55でYesの場合)には、レベル補正部233は、(1)式を用いて、画像データ中の色画素Bで取得された絶対輝度データを相対輝度データに変換する(ステップS56)。その後、またはステップS55で補正処理実施フラグが立っていない場合(ステップS55でNoの場合)には、レベル補正処理が終了し、処理が図9に戻る。 After that, or when the correction processing execution flag is not set in step S53 (No in step S53), the level correction unit 233 determines whether the correction processing execution flag is set for the color pixel B (step S55). ). When the correction processing execution flag is set (Yes in step S55), the level correction unit 233 uses the equation (1) to relative the absolute luminance data acquired by the color pixel B in the image data. It is converted into luminance data (step S56). After that, or when the correction processing execution flag is not set in step S55 (when No in step S55), the level correction processing ends and the processing returns to FIG.
なお、図4の用紙310のエッジ検出の例では、最小レベルを搬送路背景、最大レベルを用紙310の地肌に合わせてレベル変換を行っている。この操作により、用紙エッジ近傍での各色データの絶対輝度変化量を、搬送路背景と用紙地肌との間での相対輝度変化に変換し、用紙色で異なる各色画素の輝度レベルを統一した相対変化量で表現可能にしている。 In the example of edge detection of the paper 310 in FIG. 4, the minimum level is set to the background of the transport path, and the maximum level is changed to match the background of the paper 310. By this operation, the absolute luminance change amount of each color data near the paper edge is converted into the relative luminance change between the transport path background and the paper background, and the relative luminance level of each color pixel different depending on the paper color is unified. It can be expressed by quantity.
図9に戻り、レベル補正処理の後、変換された各色の相対輝度データを用いた画素位置変換処理が行われる(ステップS16)。 Returning to FIG. 9, after the level correction process, the pixel position conversion process using the converted relative luminance data of each color is performed (step S16).
図12は、画素位置変換処理の手順の一例を示すフローチャートである。ここでは、ラインが0番目からn(nは2以上の自然数)番目まで存在し、ピクセルが0番目からm(mは2以上の自然数)番目まで存在するものとする。また、色画素Gを基準画素とする場合を例に挙げる。 FIG. 12 is a flowchart showing an example of the procedure of the pixel position conversion process. Here, it is assumed that the line exists from the 0th to the nth (n is a natural number of 2 or more) and the pixel exists from the 0th to the m (m is a natural number of 2 or more). Further, an example will be given in which the color pixel G is used as the reference pixel.
まず、画素位置変換部234は、0番目のラインと0番目のピクセルとを選択する(ステップS71)。ついで、画素位置変換部234は、色画素Rについて補正処理実施フラグが立っているかを判定する(ステップS72)。補正処理実施フラグが立っている場合(ステップS72でYesの場合)には、nライン目でmピクセル目の色画素Rの相対輝度情報を色画素Gからの色画素ピッチΔpだけシフトする(ステップS73)。例えば、対象となる色画素Rで取得された相対輝度情報の副走査方向(搬送方向)におけるライン位置をxnmとし、相対輝度をVRnmとすると、シフト後の色データRnmは(xnm+Δp,VRnm)となる。 First, the pixel position conversion unit 234 selects the 0th line and the 0th pixel (step S71). Next, the pixel position conversion unit 234 determines whether the correction processing execution flag is set for the color pixel R (step S72). When the correction processing execution flag is set (Yes in step S72), the relative brightness information of the color pixel R of the mth pixel at the nth line is shifted by the color pixel pitch Δp from the color pixel G (step). S73). For example, the line positions in the sub-scanning direction (conveying direction) of the relative luminance information acquired by the color pixels R of interest and x nm, when the relative luminance and V Rnm, color data R nm after shift (x nm + Δp, V Rnm ).
補正処理実施フラグが立っていない場合(ステップS72でNoの場合)には、Rデータを使用しないため、相対輝度情報を空データとする(ステップS74)。上記の例では、シフト後の色データRnmは(xnm+Δp,null)となる。 When the correction processing execution flag is not set (No in step S72), the relative luminance information is set as empty data because the R data is not used (step S74). In the above example, the color data R nm after shifting is (x nm + Δp, null).
ステップS73の後またはステップS74の後、画素位置変換部234は、色画素Gについて補正処理実施フラグが立っているかを判定する(ステップS75)。補正処理実施フラグが立っている場合(ステップS75でYesの場合)には、nライン目でmピクセル目の色画素Gの相対輝度情報を色画素Gからの色画素ピッチだけシフトする(ステップS76)。ここでは、色画素Gを基準画素としているので、色画素ピッチは0となる。例えば、対象となる色画素Gで取得された相対輝度情報の副走査方向(搬送方向)におけるライン位置をxnmとし、相対輝度をVGnmとすると、シフト後の色データGnmは(xnm,VGnm)となる。 After step S73 or after step S74, the pixel position conversion unit 234 determines whether the correction processing execution flag is set for the color pixel G (step S75). When the correction processing execution flag is set (Yes in step S75), the relative brightness information of the color pixel G of the m-th pixel at the n-th line is shifted by the color pixel pitch from the color pixel G (step S76). ). Here, since the color pixel G is used as the reference pixel, the color pixel pitch is 0. For example, the line positions in the sub-scanning direction (conveying direction) of the relative luminance information acquired in the color pixel G of interest and x nm, when the relative luminance and V GNM, color data G nm after shift (x nm , V Gnm ).
補正処理実施フラグが立っていない場合(ステップS75でNoの場合)には、Gデータを使用しないため、相対輝度情報を空データとする(ステップS77)。上記の例では、シフト後の色データGnmは(xnm,null)となる。 When the correction processing execution flag is not set (No in step S75), the relative luminance information is set as empty data because G data is not used (step S77). In the above example, the color data G nm after shifting is (x nm , null).
ステップS75の後またはステップS77の後、画素位置変換部234は、色画素Bについて補正処理実施フラグが立っているかを判定する(ステップS78)。補正処理実施フラグが立っている場合(ステップS78でYesの場合)には、nライン目でmピクセル目の色画素Bの相対輝度情報を色画素Gからの色画素ピッチΔpだけシフトする(ステップS79)。例えば、対象となる色画素Bで取得された相対輝度情報の副走査方向(搬送方向)におけるライン位置をxnmとし、相対輝度をVBnmとすると、シフト後の色データBnmは(xnm−Δp,VBnm)となる。 After step S75 or after step S77, the pixel position conversion unit 234 determines whether the correction processing execution flag is set for the color pixel B (step S78). When the correction processing execution flag is set (Yes in step S78), the relative brightness information of the color pixel B of the m-th pixel on the n-th line is shifted by the color pixel pitch Δp from the color pixel G (step). S79). For example, the line positions in the sub-scanning direction (conveying direction) of the relative luminance information acquired in the color pixel B of interest and x nm, when the relative luminance and V Bnm, color data B nm after shift (x nm −Δp, V Bnm ).
補正処理実施フラグが立っていない場合(ステップS79でNoの場合)には、Bデータを使用しないため、相対輝度情報を空データとする(ステップS80)。上記の例では、シフト後の色データBnmは(xnm−Δp,null)となる。 When the correction processing execution flag is not set (No in step S79), the relative luminance information is set as empty data because the B data is not used (step S80). In the above example, the color data B nm after shifting is (x nm −Δp, null).
ステップS79の後またはステップS80の後、結合処理部235は、mピクセル目の色データを、変換した位置順にソートし結合する(ステップS81)。その後、結合処理部235は、同一位置に色データが複数存在するかを判定する(ステップS82)。同一位置に色データが複数存在する場合(ステップS82でYesの場合)には、結合処理部235は、同一位置の色データの相対輝度情報の平均値を算出し、算出した平均値を該当位置の相対輝度情報とする平均化処理を行う(ステップS83)。 After step S79 or after step S80, the combination processing unit 235 sorts and combines the color data of the m-th pixel in the order of the converted positions (step S81). After that, the combination processing unit 235 determines whether or not a plurality of color data exists at the same position (step S82). When a plurality of color data exist at the same position (Yes in step S82), the combination processing unit 235 calculates the average value of the relative luminance information of the color data at the same position, and the calculated average value is used as the corresponding position. Performs averaging processing using the relative luminance information of (step S83).
その後、あるいはステップS82で同一位置に色データが複数存在しない場合(ステップS82でNoの場合)には、画素位置変換部234は、現在処理中のラインは最後のラインであるかを判定する(ステップS84)。すなわち、他のラインが存在しないか判定する。最後のラインでない場合(ステップS84でNoの場合)には、次のラインを選択し(ステップS85)、処理がステップS72に戻る。そして、m番目のピクセルについて、すべてのラインの位置でステップS72〜S83の処理を行うことで、エッジ検出用の輝度変化データが得られる。 After that, or when a plurality of color data do not exist at the same position in step S82 (No in step S82), the pixel position conversion unit 234 determines whether the line currently being processed is the last line (when it is No). Step S84). That is, it is determined whether or not another line exists. If it is not the last line (No in step S84), the next line is selected (step S85), and the process returns to step S72. Then, by performing the processes of steps S72 to S83 at the positions of all the lines for the m-th pixel, the luminance change data for edge detection can be obtained.
また、最後のラインである場合(ステップS84でYesの場合)には、画素位置変換部234は、0番目のラインを選択し(ステップS86)、現在処理中のピクセルは最後のピクセルであるかを判定する(ステップS87)。すなわち、他のピクセルが存在しないか判定する。最後のピクセルでない場合(ステップS87でNoの場合)には、次のピクセルを選択し(ステップS88)、処理がステップS72に戻る。そして、すべてのピクセルについて、ステップS72〜S88の処理を行うことで、主走査方向の各ピクセルの位置で、エッジ検出用の輝度変化データが得られる。その後、処理が図9に戻る。 If it is the last line (Yes in step S84), the pixel position conversion unit 234 selects the 0th line (step S86), and is the pixel currently being processed the last pixel? Is determined (step S87). That is, it is determined whether or not another pixel exists. If it is not the last pixel (No in step S87), the next pixel is selected (step S88), and the process returns to step S72. Then, by performing the processes of steps S72 to S88 for all the pixels, the luminance change data for edge detection can be obtained at the position of each pixel in the main scanning direction. After that, the process returns to FIG.
再び図9に戻り、得られたエッジ検出用の輝度変化データを用いて、エッジ位置判定処理が行われる(ステップS16)。以上で、処理が終了する。 Returning to FIG. 9 again, the edge position determination process is performed using the obtained luminance change data for edge detection (step S16). This completes the process.
以上説明したように、第1の実施形態では、カラーイメージセンサ21で読み取られたR,G,Bの輝度データのうち、基準となる輝度データを他の輝度データを用いて補完して、エッジ検出用の輝度変化データを作成する。このように、2つ以上の色の輝度データを用いることで、データ点が増加し、見かけ上の解像度を向上させることができるので、印刷媒体の搬送速度が高くなっても、印刷媒体のマーク位置またはエッジ位置を従来に比して精度よく検出することができるという効果を有する。例えば、搬送速度が上昇し、搬送距離間隔ΔLが大きくなった際に、一般的な画像読取装置では、エッジ近傍でのデータ数が減少し、エッジ検出精度が悪化してしまう。しかし、第1の実施形態による画像読取装置では、複数の色画素によるデータ補完を行うことで、搬送速度上昇に伴う精度低下の影響を抑えることができる。 As described above, in the first embodiment, among the luminance data of R, G, and B read by the color image sensor 21, the reference luminance data is complemented by using other luminance data, and the edge is formed. Create luminance change data for detection. In this way, by using the luminance data of two or more colors, the number of data points can be increased and the apparent resolution can be improved. Therefore, even if the transport speed of the print medium is increased, the mark on the print medium can be improved. It has the effect that the position or edge position can be detected more accurately than in the past. For example, when the transport speed increases and the transport distance interval ΔL increases, the number of data in the vicinity of the edge decreases in a general image reading device, and the edge detection accuracy deteriorates. However, in the image reading device according to the first embodiment, by performing data complementation by a plurality of color pixels, it is possible to suppress the influence of a decrease in accuracy due to an increase in the transport speed.
また、輝度変化データの生成時に、同一位置に複数の色の輝度情報が存在する場合に、複数の色の輝度情報の平均値を、同一位置の輝度情報とした。これによって、輝度データのばらつきを低減することができるという効果を有する。 Further, when the luminance information of a plurality of colors exists at the same position when the luminance change data is generated, the average value of the luminance information of the plurality of colors is used as the luminance information of the same position. This has the effect of reducing the variation in luminance data.
さらに、基準の色と他の色の輝度データについて、絶対輝度情報を相対輝度情報に変換した。これによって、色による絶対的な輝度の差異の影響を無くして、全ての色の輝度データを同等に扱うことができるという効果を有する。 Further, for the luminance data of the reference color and other colors, the absolute luminance information was converted into the relative luminance information. This has the effect of eliminating the influence of the absolute difference in luminance depending on the color and treating the luminance data of all colors equally.
また、複数色のカラーフィルタで得られた輝度データの最大値が所定の値よりも大きい色の輝度データを位置検出に用いるようにした。これによって、ユーザが用紙の色または種類を意識することなく、位置検出に最適な色データを選択することができるという効果を有する。 Further, the luminance data of the color in which the maximum value of the luminance data obtained by the color filters of a plurality of colors is larger than a predetermined value is used for the position detection. This has the effect that the user can select the optimum color data for position detection without being aware of the color or type of the paper.
(第2の実施形態)
第1の実施形態では、使用色選択処理で、最大輝度が閾値以上となる2色以上の色データを選択していたが、別の方法で色データを選択してもよい。
(Second Embodiment)
In the first embodiment, the color data of two or more colors having the maximum luminance of the threshold value or more is selected in the color selection process to be used, but the color data may be selected by another method.
図13は、第2の実施形態による使用色選択処理の手順の一例を示すフローチャートである。まず、色選択部232は、色データの補正処理実施フラグを初期化する(ステップS101)。ついで、色選択部232は、用紙情報を読み込む(ステップS102)。用紙情報は、印刷開始時にユーザによって手動で入力されたものであり、用紙の色を示す情報である。 FIG. 13 is a flowchart showing an example of the procedure of the color selection process according to the second embodiment. First, the color selection unit 232 initializes the color data correction processing execution flag (step S101). Then, the color selection unit 232 reads the paper information (step S102). The paper information is manually input by the user at the start of printing, and is information indicating the color of the paper.
その後、色選択部232は、用紙情報に応じた色データを色選択情報から選択する(ステップS103)。図14は、色選択情報の一例を示す図である。色選択情報は、用紙の色に対してR,G,Bのうち位置検出に使用する2つ以上の色を対応付けた情報である。 After that, the color selection unit 232 selects the color data corresponding to the paper information from the color selection information (step S103). FIG. 14 is a diagram showing an example of color selection information. The color selection information is information in which two or more colors of R, G, and B used for position detection are associated with the color of the paper.
ついで、選択された色データについて補正処理実施フラグを立て(ステップS104)、処理が終了する。 Then, the correction processing execution flag is set for the selected color data (step S104), and the processing is completed.
用紙色と使用画素との関係性がユーザによって明確な場合、あるいは用紙に応じてユーザが任意の組み合わせを実現したい場合に、図10のフローに代えて図13のフローを適用することができる。 When the relationship between the paper color and the pixels used is clear by the user, or when the user wants to realize an arbitrary combination depending on the paper, the flow of FIG. 13 can be applied instead of the flow of FIG.
なお、図10および図13の使用色選択処理を行うことなく、取得した全ての色データを用いてもよい。 It should be noted that all the acquired color data may be used without performing the color selection process of FIGS. 10 and 13.
第2の実施形態では、ユーザによって手動で入力された用紙情報から、用紙の色と位置検出に使用する2つ以上の色とを対応付けた色選択情報を参照して、色を選択する。これによって、ユーザによって色情報または任意の色データを選択することができるという効果を、第1の実施形態の効果に加えて得ることができる。 In the second embodiment, a color is selected from the paper information manually input by the user by referring to the color selection information in which the color of the paper is associated with two or more colors used for position detection. Thereby, the effect that the color information or arbitrary color data can be selected by the user can be obtained in addition to the effect of the first embodiment.
1 画像形成装置
20 画像読取装置
21 カラーイメージセンサ
22 駆動機構
23 制御部
211R,211G,211B 色画素
231 画像データ取得部
232 色選択部
233 レベル補正部
234 画素位置変換部
235 結合処理部
1 Image forming device 20 Image reading device 21 Color image sensor 22 Drive mechanism 23 Control unit 211R, 211G, 211B Color pixel 231 Image data acquisition unit 232 Color selection unit 233 Level correction unit 234 Pixel position conversion unit 235 Coupling processing unit
Claims (8)
用紙と前記カラーイメージセンサとを前記用紙搬送方向に相対的に動かす駆動機構と、
前記カラーイメージセンサで取得された画像データのうち2つ以上の色の輝度データを用いて前記用紙の位置検出を行う制御部と、
を備える画像読取装置。 A color image sensor in which multiple color filters are arranged in the paper transport direction, and
A drive mechanism that moves the paper and the color image sensor relative to the paper transport direction, and
A control unit that detects the position of the paper using luminance data of two or more colors among the image data acquired by the color image sensor, and a control unit.
An image reader comprising.
基準の色のカラーフィルタに対する他の色のカラーフィルタの前記用紙搬送方向のピッチを用いて、前記他の色の輝度データの位置を、前記基準の色の輝度データで用いられる位置を基準とした位置に変換し、
前記基準の色の輝度データおよび前記他の色の輝度データを結合して、輝度変化データを生成する請求項1に記載の画像読取装置。 The control unit
Using the pitch of the color filter of the other color in the paper transport direction with respect to the color filter of the reference color, the position of the brightness data of the other color was used as the reference for the position used in the brightness data of the reference color. Convert to position and
The image reading device according to claim 1, wherein the luminance data of the reference color and the luminance data of the other colors are combined to generate the luminance change data.
前記カラーイメージセンサで画像データを撮像する第2工程と、
前記画像データのうち2つ以上の色の輝度データを用いて前記用紙の位置検出を行う第3工程と、
を含む画像読取方法。 The first step of moving the color image sensor in which multiple color filters are arranged and the paper relative to the paper transport direction, and
The second step of capturing image data with the color image sensor and
A third step of detecting the position of the paper using the luminance data of two or more colors in the image data, and
Image reading method including.
前記カラーイメージセンサで画像データを撮像する第1ステップと、
前記画像データのうち2つ以上の色の輝度データを用いて前記用紙の位置検出を行う第2ステップと、
を実行させるためのプログラム。 A computer that controls an image reading device including a color image sensor in which color filters of a plurality of colors are arranged in the paper transport direction and a drive mechanism for moving the paper and the color image sensor relative to the paper transport direction.
The first step of capturing image data with the color image sensor and
The second step of detecting the position of the paper using the luminance data of two or more colors in the image data, and
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047517A JP7207041B2 (en) | 2019-03-14 | 2019-03-14 | Image reading device, image reading method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047517A JP7207041B2 (en) | 2019-03-14 | 2019-03-14 | Image reading device, image reading method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020150458A true JP2020150458A (en) | 2020-09-17 |
JP7207041B2 JP7207041B2 (en) | 2023-01-18 |
Family
ID=72432292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019047517A Active JP7207041B2 (en) | 2019-03-14 | 2019-03-14 | Image reading device, image reading method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7207041B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008148072A (en) * | 2006-12-11 | 2008-06-26 | Canon Inc | Image processor and its control method |
JP2011077759A (en) * | 2009-09-30 | 2011-04-14 | Kyocera Mita Corp | Image reader and image forming apparatus |
JP2011217323A (en) * | 2010-04-02 | 2011-10-27 | Canon Inc | Image reading apparatus, and image reading method |
JP2013223087A (en) * | 2012-04-16 | 2013-10-28 | Mitsubishi Electric Corp | Image reading device, image processing device, image processing method, and computer program |
JP2013232771A (en) * | 2012-04-27 | 2013-11-14 | Brother Ind Ltd | Image reading device and document presence determination program |
-
2019
- 2019-03-14 JP JP2019047517A patent/JP7207041B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008148072A (en) * | 2006-12-11 | 2008-06-26 | Canon Inc | Image processor and its control method |
JP2011077759A (en) * | 2009-09-30 | 2011-04-14 | Kyocera Mita Corp | Image reader and image forming apparatus |
JP2011217323A (en) * | 2010-04-02 | 2011-10-27 | Canon Inc | Image reading apparatus, and image reading method |
JP2013223087A (en) * | 2012-04-16 | 2013-10-28 | Mitsubishi Electric Corp | Image reading device, image processing device, image processing method, and computer program |
JP2013232771A (en) * | 2012-04-27 | 2013-11-14 | Brother Ind Ltd | Image reading device and document presence determination program |
Also Published As
Publication number | Publication date |
---|---|
JP7207041B2 (en) | 2023-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10326916B2 (en) | Inspection apparatus, inspection method and storage medium | |
JP4557184B2 (en) | Image processing apparatus, image reading apparatus, and image processing program | |
US8964249B2 (en) | Image test apparatus, image test system, and image test method for testing a print image based on master image data | |
US20110181919A1 (en) | Image reading apparatus, control method thereof and computer-readable storage medium | |
JP2010252194A (en) | Image processing apparatus and image processing method | |
JP2016061659A (en) | Printed matter inspection device, printed matter inspection system, and printed matter inspection method | |
JP2004056752A (en) | Image processing apparatus and the image processing methodology | |
JP2016178557A (en) | Image processing apparatus, correction method and program | |
JP2016061603A (en) | Projection device and projection method | |
US20160059577A1 (en) | Image processing apparatus and image processing method | |
JP6459190B2 (en) | Image inspection apparatus, image forming system, and image inspection method | |
JP7207041B2 (en) | Image reading device, image reading method and program | |
US9749495B2 (en) | Information processing apparatus, image forming apparatus, image processing method, and non-transitory computer-readable medium, configured to convert image data to lower resolution and delete pixel of interest | |
JP6907621B2 (en) | Image processing equipment, image processing system, image processing method and program | |
US8964243B2 (en) | Image forming apparatus capable of enhancing resolution of image data in high quality | |
JP6391348B2 (en) | Image processing apparatus, image processing method, and program | |
JP7139769B2 (en) | Inspection device, image forming device and inspection program | |
US9986128B1 (en) | Image forming apparatus and image forming method facilitating processing color | |
JP2020184011A (en) | Image forming apparatus, image forming method, and image forming program | |
JP2009005398A (en) | Image processor | |
JP5278071B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20240195931A1 (en) | Image forming apparatus, control method of image forming apparatus, and storage medium | |
US10419637B2 (en) | Image processing apparatus and non-transitory computer readable medium including change of an image processing unit after performance of a rotation | |
JP4995751B2 (en) | Image processing apparatus, control method therefor, and ASIC apparatus | |
JP2018078464A (en) | Image processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7207041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |