JP2016116212A - Read image processing apparatus, image reading device, image forming apparatus, read image processing method, and read image processing program - Google Patents

Read image processing apparatus, image reading device, image forming apparatus, read image processing method, and read image processing program Download PDF

Info

Publication number
JP2016116212A
JP2016116212A JP2015220553A JP2015220553A JP2016116212A JP 2016116212 A JP2016116212 A JP 2016116212A JP 2015220553 A JP2015220553 A JP 2015220553A JP 2015220553 A JP2015220553 A JP 2015220553A JP 2016116212 A JP2016116212 A JP 2016116212A
Authority
JP
Japan
Prior art keywords
image
read
joint
reading
read image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015220553A
Other languages
Japanese (ja)
Inventor
理恵 鈴木
Rie Suzuki
理恵 鈴木
鈴木 英明
Hideaki Suzuki
英明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US14/967,854 priority Critical patent/US9609165B2/en
Publication of JP2016116212A publication Critical patent/JP2016116212A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image reading device that enables reading of a wide range of images by connecting reading results of a plurality of line image sensors, and suitably perform correction processing in connecting images read by the adjacent line image sensors.SOLUTION: When processing a read image read by a reading part having a plurality of CISs arranged in a staggered manner, a read image processing apparatus detects a predetermined number of times or more of changes in density of a joint read image for each of a plurality of areas included in the joint read image, and composes joint read images respectively read by the different CISs in a mode according to a result of the detection of the predetermined number of times or more changes in density of the joint read image to create a joint image.SELECTED DRAWING: Figure 8

Description

本発明は、読取画像処理装置、画像読取装置、画像形成装置、読取画像処理方法及び読取画像処理プログラムに関する。   The present invention relates to a read image processing apparatus, an image reading apparatus, an image forming apparatus, a read image processing method, and a read image processing program.

近年、情報の電子化が推進される傾向にあり、電子化された情報の出力に用いられるプリンタやファクシミリ及び書類の電子化に用いるスキャナ等の画像処理装置は欠かせない機器となっている。このような画像処理装置は、撮像機能、画像形成機能及び通信機能等を備えることにより、プリンタ、ファクシミリ、スキャナ、複写機として利用可能な複合機として構成されることが多い。   In recent years, there has been a tendency to digitize information, and image processing apparatuses such as printers and facsimiles used for outputting digitized information and scanners used for digitizing documents have become indispensable devices. Such an image processing apparatus is often configured as a multifunction machine that can be used as a printer, a facsimile, a scanner, or a copier by providing an imaging function, an image forming function, a communication function, and the like.

このような画像処理装置のうち、情報の電子化に用いるスキャナの一態様として、A0サイズのような広幅の画像読取装置がある。広幅の画像読取装置においては、低コスト化のため、A4サイズ等の比較的短いラインイメージセンサ複数個を主走査方向に千鳥状に配置し、各ラインイメージセンサによる画像データを合成することにより、広幅の読取処理を可能としたものがある。   Among such image processing apparatuses, one aspect of a scanner used for digitizing information is a wide image reading apparatus such as A0 size. In a wide-width image reading apparatus, a plurality of relatively short line image sensors such as A4 size are arranged in a staggered manner in the main scanning direction for cost reduction, and image data from each line image sensor is synthesized. Some have made it possible to perform wide reading processing.

上述したA4サイズ等のラインイメージセンサ複数個を主走査方向に千鳥状に配置した構成の場合、ラインイメージセンサの副走査方向の位置が異なるため、A0サイズのような広幅サイズの用紙において、用紙の搬送速度などが原因で、ラインイメージセンサごとの画像データが繋ぎ目部分でずれてしまう問題がある。   In the case of a configuration in which a plurality of line image sensors of A4 size or the like described above are arranged in a staggered pattern in the main scanning direction, the position of the line image sensor in the sub-scanning direction is different. There is a problem that the image data for each line image sensor is shifted at the joint portion due to the conveyance speed of the line.

このような問題を解決するため、繋ぎ目部分が網点であるか否かを検知し、その検知結果に基づいて補正処理の要否を決定することにより、補正による副作用を低減する方法が提案されている(例えば、特許文献1参照)。   In order to solve such a problem, a method for reducing side effects due to correction is proposed by detecting whether or not the joint portion is a halftone dot and determining whether or not correction processing is necessary based on the detection result. (For example, refer to Patent Document 1).

しかしながら、特許文献1に開示された方法を用いる場合において、繋ぎ目画像全体として網点判断を行っても、網点であるにも関わらず網点と判定されない場合がある。その結果、ラインイメージセンサで読み取った繋ぎ目画像の濃淡が損失してしまうなどの問題がある。   However, when the method disclosed in Patent Document 1 is used, even if the halftone dot is determined for the entire joint image, the halftone dot may not be determined although it is a halftone dot. As a result, there is a problem that the density of the joint image read by the line image sensor is lost.

本発明は、このような課題を解決するためになされたものであり、複数のラインイメージセンサによる読取結果を連結することにより広範な画像の読み取りを可能とする画像読取装置において、隣接するラインイメージセンサによって読み取られた画像を連結する際の補正処理を好適に行うことを目的とする。   The present invention has been made to solve such a problem, and in an image reading apparatus capable of reading a wide range of images by connecting the reading results of a plurality of line image sensors, adjacent line images are provided. An object of the present invention is to suitably perform correction processing when connecting images read by a sensor.

上記課題を解決するために、本発明の一態様は、複数のラインイメージセンサにおいて各画素に対応する読取素子の並び方向の端部同士が、前記読取素子の並び方向と直交する方向に重複するように配置されて構成された読取部によって読み取られた読取画像を処理する読取画像処理装置であって、前記夫々のラインイメージセンサに含まれる読取素子のうち前記直交する方向に重複している範囲の読取素子によって読み取られた読取画像である繋ぎ目読取画像における、所定の回数以上の画像の濃度の変化を検知する濃度変化検知部と、異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像に基づき前記ラインイメージセンサが副走査方向に重複している部分の画像である繋ぎ目画像を生成する繋ぎ目処理部と、前記夫々のラインイメージセンサによって読み取られた読取画像及び生成された前記繋ぎ目画像に基づいて1ライン分の読取画像を生成するライン画像生成部とを含み、前記繋ぎ目処理部は、異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像を、前記濃度変化検知部における所定の回数以上の濃度の変化の検知結果に応じた態様で合成して前記繋ぎ目画像を生成し、前記濃度変化検知部は、前記繋ぎ目読取画像に含まれる複数の領域について所定の回数以上の画像の濃度の変化を検知することを特徴とする。   In order to solve the above-described problem, according to one embodiment of the present invention, in a plurality of line image sensors, ends of reading elements corresponding to each pixel overlap in a direction orthogonal to the reading elements. A read image processing apparatus that processes a read image read by a reading unit that is arranged and configured as described above, and is a range that overlaps in the orthogonal direction among reading elements included in each line image sensor In the joint read image that is a read image read by the reading element, a density change detection unit that detects a change in the density of the image more than a predetermined number of times and the joint read image read by different line image sensors, respectively. A seam processing unit for generating a seam image that is an image of a portion where the line image sensor overlaps in the sub-scanning direction, and A line image generation unit that generates a read image for one line based on the read image read by each line image sensor and the generated joint image, and the joint processing unit includes different line image sensors. The joint read images read respectively by the density change detection unit in a manner corresponding to the detection result of the density change more than a predetermined number of times in the density change detection unit to generate the joint image, and the density change detection unit Is characterized in that a change in image density is detected a predetermined number of times or more for a plurality of regions included in the joint read image.

本発明は、このような課題を解決するためになされたものであり、複数のラインイメージセンサによる読取結果を連結することにより広範な画像の読み取りを可能とする画像読取装置において、隣接するラインイメージセンサによって読み取られた画像を連結する際の補正処理を好適に行うことを目的とする。   The present invention has been made to solve such a problem, and in an image reading apparatus capable of reading a wide range of images by connecting the reading results of a plurality of line image sensors, adjacent line images are provided. An object of the present invention is to suitably perform correction processing when connecting images read by a sensor.

本発明の実施形態に係る画像処理装置の外観図である。1 is an external view of an image processing apparatus according to an embodiment of the present invention. 本発明の実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置のコントローラの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the controller of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るスキャナユニットの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the scanner unit which concerns on embodiment of this invention. 本発明の実施形態に係るライン合成処理部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the line composition process part which concerns on embodiment of this invention. 本発明の実施形態に係る網点及びベタの判定処理の態様を示す図である。It is a figure which shows the aspect of the determination process of a halftone dot and a solid which concerns on embodiment of this invention. 本発明の実施形態に係る網点及びベタの判定処理の態様を示す図である。It is a figure which shows the aspect of the determination process of a halftone dot and a solid which concerns on embodiment of this invention. 本発明の実施形態に係る繋ぎ目補正処理を示す図である。It is a figure which shows the joint correction process which concerns on embodiment of this invention. 本発明の実施形態に係る網点及びベタの判定処理の態様を示す図である。It is a figure which shows the aspect of the determination process of a halftone dot and a solid which concerns on embodiment of this invention. 本発明の実施形態に係る網点及びベタの判定処理の態様を示す図である。It is a figure which shows the aspect of the determination process of a halftone dot and a solid which concerns on embodiment of this invention. 本発明の実施形態に係る網点及びベタの判定処理の態様を示す図である。It is a figure which shows the aspect of the determination process of a halftone dot and a solid which concerns on embodiment of this invention. 本発明の実施形態に係る網点及びベタの判定処理の態様を示す図である。It is a figure which shows the aspect of the determination process of a halftone dot and a solid which concerns on embodiment of this invention. 本発明の実施形態に係る重み付け処理の態様を示す図である。It is a figure which shows the aspect of the weighting process which concerns on embodiment of this invention.

以下、図面を参照して、本発明の実施形態について説明する。本実施形態においては、図1に示すようなA0サイズに対応した広幅の画像読取装置を含むMFP(Multi Function Peripheral:複合機)を例として説明する。図1は、本実施形態に係る画像処理装置1の外観図である。   Embodiments of the present invention will be described below with reference to the drawings. In the present embodiment, an MFP (Multi Function Peripheral) including a wide image reading apparatus corresponding to the A0 size as shown in FIG. 1 will be described as an example. FIG. 1 is an external view of an image processing apparatus 1 according to the present embodiment.

次に、本実施形態に係る画像処理装置1全体のハードウェア構成について説明する。図2は、本実施形態に係る画像処理装置1のハードウェア構成を示すブロック図である。図2に示すように、本実施形態に係る画像処理装置1は、一般的なPC(Personal Computer)やサーバ等の情報処理装置と同様の構成を有する。即ち、本実施形態に係る画像処理装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)20、ROM(Read Only Memory)30、HDD(Hard Disk Drive)40及びI/F50がバス90を介して接続されている。また、I/F50にはLCD(Liquid Crystal Display)60、操作部70及び専用デバイス80が接続されている。   Next, the hardware configuration of the entire image processing apparatus 1 according to the present embodiment will be described. FIG. 2 is a block diagram illustrating a hardware configuration of the image processing apparatus 1 according to the present embodiment. As shown in FIG. 2, the image processing apparatus 1 according to the present embodiment has the same configuration as an information processing apparatus such as a general PC (Personal Computer) or a server. That is, the image processing apparatus 1 according to this embodiment includes a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 20, a ROM (Read Only Memory) 30, an HDD (Hard Disk Drive) 40, and an I / F 50. 90 is connected. Further, an LCD (Liquid Crystal Display) 60, an operation unit 70, and a dedicated device 80 are connected to the I / F 50.

CPU10は演算手段であり、画像処理装置1全体の動作を制御する。RAM20は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU10が情報を処理する際の作業領域として用いられる。ROM30は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。HDD40は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム等が格納されている。   The CPU 10 is a calculation unit and controls the operation of the entire image processing apparatus 1. The RAM 20 is a volatile storage medium capable of reading and writing information at high speed, and is used as a work area when the CPU 10 processes information. The ROM 30 is a read-only nonvolatile storage medium and stores a program such as firmware. The HDD 40 is a non-volatile storage medium that can read and write information, and stores an OS (Operating System), various control programs, application programs, and the like.

I/F50は、バス90と各種のハードウェアやネットワーク等を接続し制御する。LCD60は、ユーザが画像処理装置1の状態を確認するための視覚的ユーザインタフェースである。操作部70は、ユーザが画像処理装置1に情報を入力するためのユーザインタフェースであり、本実施形態においては、タッチパネルやハードキー等によって構成される。   The I / F 50 connects and controls the bus 90 and various hardware and networks. The LCD 60 is a visual user interface for the user to check the state of the image processing apparatus 1. The operation unit 70 is a user interface for a user to input information to the image processing apparatus 1. In the present embodiment, the operation unit 70 includes a touch panel, a hard key, and the like.

専用デバイス80は、画像処理装置1特有の機能を実現するためのハードウェアであり、紙面上に画像形成出力を実行するプリントエンジンや、紙面上の画像を読み取るためのスキャナユニットである。本実施形態に係る画像処理装置1は、このスキャナユニットに特徴を有する。   The dedicated device 80 is hardware for realizing functions unique to the image processing apparatus 1, and is a print engine that executes image formation output on a paper surface and a scanner unit for reading an image on the paper surface. The image processing apparatus 1 according to the present embodiment is characterized by this scanner unit.

このようなハードウェア構成において、ROM30やHDD40若しくは図示しない光学ディスク等の記録媒体に格納されたプログラムがRAM20に読み出され、CPU10がそれらのプログラムに従って演算を行うことにより、ソフトウェア制御部が構成される。このようにして構成されたソフトウェア制御部と、ハードウェアとの組み合わせによって、画像処理装置1の機能を実現する機能ブロックが構成される。   In such a hardware configuration, a program stored in a recording medium such as the ROM 30, the HDD 40, or an optical disk (not shown) is read into the RAM 20, and the CPU 10 performs calculations according to those programs, thereby configuring a software control unit. The A functional block that realizes the function of the image processing apparatus 1 is configured by a combination of the software control unit configured as described above and hardware.

次に本実施形態に係る画像処理装置1の機能構成について、図3を参照して説明する。図3は、本実施形態に係る画像処理装置1の機能構成を示すブロック図である。図3に示すように、本実施形態に係る画像処理装置1は、コントローラ100、ADF(Auto Documennt Feeder:原稿自動搬送装置)101、スキャナユニット102、排紙トレイ103、ディスプレイパネル104、給紙テーブル105、プリントエンジン106、排紙トレイ107及びネットワークI/F108を有する。   Next, the functional configuration of the image processing apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing a functional configuration of the image processing apparatus 1 according to the present embodiment. As shown in FIG. 3, the image processing apparatus 1 according to the present embodiment includes a controller 100, an ADF (Auto Document Feeder) 101, a scanner unit 102, a paper discharge tray 103, a display panel 104, and a paper feed table. 105, a print engine 106, a paper discharge tray 107, and a network I / F 108.

本実施形態に係るコントローラ100の機能構成について、図4を参照して説明する。図4は、本実施形態に係るコントローラ100の機能構成を示すブロック図である。図4にしめすように、コントローラ100は、主制御部110、エンジン制御部120、画像処理部130、操作表示制御部140及び入出力制御部150を含む。図3に示すように、本実施形態に係る画像処理装置1は、スキャナユニット102、プリントエンジン106を有する複合機として構成されている。スキャナユニット102及びプリントエンジン106は、夫々コントローラ100から出力される命令信号によって動作を制御される。尚、図3においては、電気的接続を実線の矢印で示しており、用紙の流れを破線の矢印で示している。   A functional configuration of the controller 100 according to the present embodiment will be described with reference to FIG. FIG. 4 is a block diagram illustrating a functional configuration of the controller 100 according to the present embodiment. As shown in FIG. 4, the controller 100 includes a main control unit 110, an engine control unit 120, an image processing unit 130, an operation display control unit 140, and an input / output control unit 150. As shown in FIG. 3, the image processing apparatus 1 according to the present embodiment is configured as a multifunction machine having a scanner unit 102 and a print engine 106. The operations of the scanner unit 102 and the print engine 106 are controlled by command signals output from the controller 100, respectively. In FIG. 3, the electrical connection is indicated by solid arrows, and the flow of paper is indicated by broken arrows.

ディスプレイパネル104は、画像処理装置1の状態を視覚的に表示する出力インタフェースであると共に、タッチパネルとしてユーザが画像処理装置1を直接操作し、若しくは画像処理装置1に対して情報を入力する際の入力インタフェースでもある。即ち、ディスプレイパネル104は、ユーザによる操作を受けるための画像を表示する機能を含む。ディスプレイパネル104は、図2に示すLCD60及び操作部70によって実現される。   The display panel 104 is an output interface that visually displays the state of the image processing apparatus 1, and when the user directly operates the image processing apparatus 1 as a touch panel or inputs information to the image processing apparatus 1. It is also an input interface. That is, the display panel 104 includes a function for displaying an image for receiving an operation by the user. The display panel 104 is realized by the LCD 60 and the operation unit 70 shown in FIG.

ネットワークI/F108は、画像処理装置1がネットワークを介して他の機器と通信するためのインタフェースであり、Ethernet(登録商標)やUSB(Universal Serial Bus)インタフェースが用いられる。ネットワークI/F108は、TCP/IPプロトコルによる通信が可能である。また、ネットワークI/F108は、画像処理装置1がファクシミリとして機能する際に、ファクシミリ送信を実行するためのインタフェースとしても機能する。そのため、ネットワークI/F108は、電話回線にも接続されている。ネットワークI/F108は、図2に示すI/F50によって実現される。   The network I / F 108 is an interface for the image processing apparatus 1 to communicate with other devices via the network, and an Ethernet (registered trademark) or USB (Universal Serial Bus) interface is used. The network I / F 108 can communicate using the TCP / IP protocol. The network I / F 108 also functions as an interface for executing facsimile transmission when the image processing apparatus 1 functions as a facsimile. For this reason, the network I / F 108 is also connected to a telephone line. The network I / F 108 is realized by the I / F 50 shown in FIG.

コントローラ100は、ソフトウェアとハードウェアとの組み合わせによって構成される。具体的には、ROM30や不揮発性メモリ並びにHDD40や光学ディスク等の不揮発性記憶媒体に格納されたプログラムが、RAM20等の揮発性メモリ(以下、メモリ)にロードされ、CPU10がそのプログラムに従って演算を行うことにより構成されるソフトウェア制御部と集積回路などのハードウェアとによってコントローラ100が構成される。コントローラ100は、画像処理装置1全体を制御する制御部として機能する。   The controller 100 is configured by a combination of software and hardware. Specifically, a program stored in a nonvolatile storage medium such as the ROM 30 and the nonvolatile memory and the HDD 40 and the optical disk is loaded into a volatile memory (hereinafter referred to as a memory) such as the RAM 20, and the CPU 10 performs an operation according to the program. The controller 100 is configured by a software control unit configured by performing and hardware such as an integrated circuit. The controller 100 functions as a control unit that controls the entire image processing apparatus 1.

主制御部110は、コントローラ100に含まれる各部を制御する役割を担い、コントローラ100の各部に命令を与える。エンジン制御部120は、プリントエンジン106やスキャナユニット102等を制御若しくは駆動する駆動手段としての役割を担う。画像処理部130は、主制御部110の制御に従い、印刷出力すべき画像情報に基づいて描画情報を生成する。この描画情報とは、画像形成部であるプリントエンジン106が画像形成動作において形成すべき画像を描画するための情報である。   The main control unit 110 plays a role of controlling each unit included in the controller 100, and gives a command to each unit of the controller 100. The engine control unit 120 serves as a driving unit that controls or drives the print engine 106, the scanner unit 102, and the like. The image processing unit 130 generates drawing information based on image information to be printed out under the control of the main control unit 110. The drawing information is information for drawing an image to be formed in the image forming operation by the print engine 106 as an image forming unit.

また、画像処理部130は、スキャナユニット102から入力される撮像データを処理し、画像データを生成する。この画像データとは、スキャナ動作の結果物として画像処理装置1の記憶領域に格納され若しくはネットワークI/F108を介して他の情報処理端末や記憶装置に送信される情報である。   The image processing unit 130 processes image data input from the scanner unit 102 to generate image data. This image data is information stored in the storage area of the image processing apparatus 1 as a result of the scanner operation or transmitted to another information processing terminal or storage device via the network I / F 108.

操作表示制御部140は、ディスプレイパネル104に情報表示を行い若しくはディスプレイパネル104を介して入力された情報を主制御部110に通知する。入出力制御部150は、ネットワークI/F108を介して入力される情報を主制御部110に入力する。また、主制御部110は、入出力制御部150を制御し、ネットワークI/F108及びネットワークを介してネットワークに接続された他の機器にアクセスする。   The operation display control unit 140 displays information on the display panel 104 or notifies the main control unit 110 of information input via the display panel 104. The input / output control unit 150 inputs information input via the network I / F 108 to the main control unit 110. The main control unit 110 also controls the input / output control unit 150 to access the network I / F 108 and other devices connected to the network via the network.

画像処理装置1がプリンタとして動作する場合は、まず、入出力制御部150がネットワークI/F108を介して印刷ジョブを受信する。入出力制御部150は、受信した印刷ジョブを主制御部110に転送する。主制御部110は、印刷ジョブを受信すると、画像処理部130を制御して印刷ジョブに含まれる文書情報若しくは画像情報に基づいて描画情報を生成させる。   When the image processing apparatus 1 operates as a printer, first, the input / output control unit 150 receives a print job via the network I / F 108. The input / output control unit 150 transfers the received print job to the main control unit 110. When receiving the print job, the main control unit 110 controls the image processing unit 130 to generate drawing information based on document information or image information included in the print job.

本実施形態に係る印刷ジョブには、出力対象の画像情報が画像処理装置1の画像処理部130によって解析可能な情報形式で記述された画像の情報の他、画像形成出力に際して設定されるべきパラメータの情報が含まれる。このパラメータの情報とは、例えば、両面印刷の設定、集約印刷の設定、カラー/モノクロの設定等の情報である。   In the print job according to this embodiment, in addition to image information in which image information to be output is described in an information format that can be analyzed by the image processing unit 130 of the image processing apparatus 1, parameters to be set at the time of image formation output Information is included. The parameter information is, for example, information such as duplex printing setting, aggregate printing setting, and color / monochrome setting.

画像処理部130によって描画情報が生成されると、エンジン制御部120は、プリントエンジン106を制御し、上記生成された描画情報に基づき、給紙テーブル105から搬送される用紙に対して画像形成を実行させる。即ち、画像処理部130、エンジン制御部120及びプリントエンジン106が画像形成出力部として機能する。プリントエンジン106の具体的態様としては、インクジェット方式による画像形成機構や電子写真方式による画像形成機構等を用いることが可能である。プリントエンジン106によって画像形成が施された文書は排紙トレイ107に排紙される。   When drawing information is generated by the image processing unit 130, the engine control unit 120 controls the print engine 106 to form an image on the paper conveyed from the paper feed table 105 based on the generated drawing information. Let it run. That is, the image processing unit 130, the engine control unit 120, and the print engine 106 function as an image formation output unit. As a specific aspect of the print engine 106, an image forming mechanism using an ink jet method, an image forming mechanism using an electrophotographic method, or the like can be used. A document on which image formation has been performed by the print engine 106 is discharged to a discharge tray 107.

画像処理装置1がスキャナとして動作する場合は、ユーザによるディスプレイパネル104の操作若しくはネットワークI/F108を介して他の端末から入力されるスキャン実行指示に応じて、操作表示制御部140若しくは入出力制御部150が主制御部110にスキャン実行信号を転送する。主制御部110は、受信したスキャン実行信号に基づき、エンジン制御部120を制御する。   When the image processing apparatus 1 operates as a scanner, the operation display control unit 140 or input / output control is performed in accordance with a user operation on the display panel 104 or a scan execution instruction input from another terminal via the network I / F 108. The unit 150 transfers the scan execution signal to the main control unit 110. The main control unit 110 controls the engine control unit 120 based on the received scan execution signal.

エンジン制御部120は、ADF101を駆動し、ADF101にセットされた撮像対象原稿をスキャナユニット102に搬送する。また、エンジン制御部120は、スキャナユニット102を駆動し、ADF101から搬送される原稿を撮像する。また、ADF101に原稿がセットされておらず、スキャナユニット102に直接原稿がセットされた場合、スキャナユニット102は、エンジン制御部120の制御に従い、セットされた原稿を撮像する。即ち、スキャナユニット102が撮像部として動作すると共に、エンジン制御部120が、読取制御部として機能する。   The engine control unit 120 drives the ADF 101 and conveys the document to be imaged set on the ADF 101 to the scanner unit 102. In addition, the engine control unit 120 drives the scanner unit 102 and images a document conveyed from the ADF 101. If no original is set on the ADF 101 and the original is set directly on the scanner unit 102, the scanner unit 102 images the set original according to the control of the engine control unit 120. That is, the scanner unit 102 operates as an imaging unit, and the engine control unit 120 functions as a reading control unit.

撮像動作においては、スキャナユニット102に含まれるCIS(Contact Image Sensor)やCCD(charge−coupled device)等の撮像素子が原稿を光学的に走査し、光学情報に基づいて生成された撮像情報が生成される。エンジン制御部120は、スキャナユニット102が生成した撮像情報を画像処理部130に転送する。画像処理部130は、主制御部110の制御に従い、エンジン制御部120から受信した撮像情報に基づき画像情報を生成する。   In the imaging operation, an imaging element such as a contact image sensor (CIS) or a charge-coupled device (CCD) included in the scanner unit 102 optically scans a document, and imaging information generated based on the optical information is generated. Is done. The engine control unit 120 transfers the imaging information generated by the scanner unit 102 to the image processing unit 130. The image processing unit 130 generates image information based on the imaging information received from the engine control unit 120 according to the control of the main control unit 110.

画像処理部130が生成した画像情報は主制御部110が取得し、主制御部110がHDD40等の画像処理装置1に装着された記憶媒体に保存する。即ち、スキャナユニット102、エンジン制御部120及び画像処理部130が連動して、画像入力部として機能する。画像処理部130によって生成された画像情報は、ユーザの指示に応じてそのままHDD40等に格納され若しくは入出力制御部150及びネットワークI/F108を介して外部の装置に送信される。   Image information generated by the image processing unit 130 is acquired by the main control unit 110, and the main control unit 110 stores the image information in a storage medium attached to the image processing apparatus 1 such as the HDD 40. That is, the scanner unit 102, the engine control unit 120, and the image processing unit 130 work together to function as an image input unit. The image information generated by the image processing unit 130 is stored in the HDD 40 or the like as it is according to a user instruction or transmitted to an external device via the input / output control unit 150 and the network I / F 108.

また、画像処理装置1が複写機として動作する場合は、エンジン制御部120がスキャナユニット102から受信した撮像情報若しくは画像処理部130が生成した画像情報に基づき、画像処理部130が描画情報を生成する。その描画情報に基づいてプリンタ動作の場合と同様に、エンジン制御部120がプリントエンジン106を駆動する。尚、描画情報と撮像情報との情報形式が同一である場合は、撮像情報をそのまま描画情報として用いることも可能である。   Further, when the image processing apparatus 1 operates as a copying machine, the image processing unit 130 generates drawing information based on imaging information received by the engine control unit 120 from the scanner unit 102 or image information generated by the image processing unit 130. To do. Based on the drawing information, the engine control unit 120 drives the print engine 106 as in the case of the printer operation. When the information format of the drawing information and the imaging information is the same, the imaging information can be used as the drawing information as it is.

このような構成において、本実施形態は、スキャナユニット102内部の構成に特徴を有する。図5を参照して、スキャナユニット102内部の構成について説明する。図5に示すように、本実施形態に係るスキャナユニット102は、CIS201、CIS202、CIS203、A/D変換器204、A/D変換器205、A/D変換器206、メモリ207、メモリ208、メモリ209及びライン合成処理部210を含む。   In this configuration, the present embodiment is characterized by the internal configuration of the scanner unit 102. The internal configuration of the scanner unit 102 will be described with reference to FIG. As shown in FIG. 5, the scanner unit 102 according to this embodiment includes a CIS 201, a CIS 202, a CIS 203, an A / D converter 204, an A / D converter 205, an A / D converter 206, a memory 207, a memory 208, A memory 209 and a line composition processing unit 210 are included.

CIS201〜203は夫々複数の素子が主走査方向に沿って一直線状に配置されたラインイメージセンサである。この3つのラインイメージセンサのライン幅によってA0サイズの主走査方向幅全体がカバーされるように並べて配置されている。また、3つのラインイメージセンサは千鳥状に配置されており、夫々隣り合うラインイメージセンサの端部の数画素分が主走査方向に重複するように配置されている。換言すると、夫々のラインイメージセンサにおける画素の並び方向の端部同士が、画素の並び方向と直交する方向に対向するように配置されることにより、読取範囲の主走査方向全範囲をカバーする読取部が構成されている。尚、本実施形態においては3つのラインイメージセンサによって意図した範囲をカバーする態様を例として説明するが、これは一例であり、2つであっても4つ以上であっても同様に適用可能である。   CIS 201 to 203 are line image sensors in which a plurality of elements are arranged in a straight line along the main scanning direction. The three line image sensors are arranged side by side so that the entire width in the main scanning direction of the A0 size is covered by the line width of the three line image sensors. Further, the three line image sensors are arranged in a zigzag pattern, and are arranged so that several pixels at the ends of the adjacent line image sensors overlap in the main scanning direction. In other words, reading that covers the entire range of the reading range in the main scanning direction by arranging the end portions in the pixel arrangement direction of each line image sensor so as to face each other in a direction orthogonal to the pixel arrangement direction. The part is composed. In the present embodiment, an example in which the intended range is covered by three line image sensors will be described as an example. However, this is an example, and two or four or more can be similarly applied. It is.

また、3つのラインイメージセンサは副走査方向にずらされて配置されており、中央に配置されたCIS202が副走査方向の最上流側に配置され、両端のCIS201、CIS203が副走査方向の下流側に配置されている。尚、図5は、機能ブロック図であるが、CIS201〜CIS203は、図5に示すように千鳥状に配置されている。   The three line image sensors are arranged shifted in the sub-scanning direction, the CIS 202 arranged in the center is arranged on the most upstream side in the sub-scanning direction, and the CIS 201 and CIS 203 at both ends are downstream in the sub-scanning direction. Is arranged. FIG. 5 is a functional block diagram, but the CIS 201 to CIS 203 are arranged in a staggered manner as shown in FIG.

CIS201から出力される画像データはA/D変換器204によってデジタル信号に変換され、ライン合成処理部210に入力される。CIS202、CIS203から夫々出力される画像データは、夫々A/D変換器205、A/D変換器206によってデジタル信号に変換された後、メモリ207、メモリ208によって夫々所定期間遅延されてからライン合成処理部210に転送される。   Image data output from the CIS 201 is converted into a digital signal by the A / D converter 204 and input to the line composition processing unit 210. The image data output from the CIS 202 and CIS 203 are converted into digital signals by the A / D converter 205 and the A / D converter 206, respectively, and then delayed by a predetermined period by the memory 207 and the memory 208, respectively. Transferred to the processing unit 210.

メモリ207、メモリ208夫々による遅延は、CIS202、CIS203とCIS201との副走査方向の配置関係の差分を吸収するための遅延である。CIS201は副走査方向の最下流側に配置されており、遅延の必要がないことからメモリによる遅延は不要であり、直接ライン合成処理部210に入力される。他方、CIS203は、調整容易化のためCIS201よりも数ライン上流側に配置されていることから、メモリ208による遅延が必要となる。   The delay caused by the memory 207 and the memory 208 is a delay for absorbing the difference in the arrangement relationship between the CIS 202, the CIS 203, and the CIS 201 in the sub-scanning direction. The CIS 201 is arranged on the most downstream side in the sub-scanning direction, and there is no need for a delay. Therefore, the delay by the memory is unnecessary, and the CIS 201 is directly input to the line composition processing unit 210. On the other hand, the CIS 203 is arranged several lines upstream of the CIS 201 for easy adjustment, so that a delay by the memory 208 is required.

ライン合成処理部210は、CIS201とCIS202、CIS202とCIS203とが夫々重なる部分、即ち繋ぎ目での網点の検知、網点の検知結果を考慮した繋ぎ目補正処理、そして、繋ぎ目補正処理が施されたCIS201〜CIS203による読取結果の1ライン化処理を行い、1ライン分の撮像データを生成する。ライン合成処理部210は、そのようにして生成した1ライン分の撮像データを、図4において説明したエンジン制御部120に転送する。メモリ209は、ライン合成処理部210によるライン合成処理において用いられる記憶領域である。   The line composition processing unit 210 performs CIS 201 and CIS 202, CIS 202 and CIS 203, respectively, that is, detection of halftone dots at joints, joint correction processing considering the detection results of halftone dots, and joint correction processing. One line processing of the read result by the applied CIS 201 to CIS 203 is performed, and imaging data for one line is generated. The line composition processing unit 210 transfers the imaging data for one line thus generated to the engine control unit 120 described with reference to FIG. The memory 209 is a storage area used in the line composition processing by the line composition processing unit 210.

次に、本実施形態に係るライン合成処理部210の機能構成について、図6を参照して説明する。図6に示すように、本実施形態に係るライン合成処理部210は、網点周期算出部211、重み値算出部212、繋ぎ目補正処理部213、1ライン化処理部214、濃度変化検知部215を含む。尚、図6においては、ライン合成処理部210への入力を1本で示しているが、図5において説明したように、ライン合成処理部210への入力はCIS201〜CS203夫々に対応する3本分である。   Next, the functional configuration of the line composition processing unit 210 according to the present embodiment will be described with reference to FIG. As shown in FIG. 6, the line composition processing unit 210 according to this embodiment includes a halftone dot period calculation unit 211, a weight value calculation unit 212, a joint correction processing unit 213, a one-line conversion processing unit 214, and a density change detection unit. 215. In FIG. 6, one input to the line composition processing unit 210 is shown, but as described in FIG. 5, three inputs to the line composition processing unit 210 correspond to CIS 201 to CS 203, respectively. Minutes.

濃度変化検知部215は、上述したように、CIS201、CIS202及びCIS203夫々の繋ぎ目部分の画素(以降、「繋ぎ目読取画像」とする)を参照し、繋ぎ目読取画像が、画像の濃度が周期的に変化する網点画像であるか否かを判断して検知する。具体的には、繋ぎ目読取画像における画像の濃度が所定の濃度差以上で変化するエッジの個数を検知し、そのエッジの個数で網点かベタかの判断を行う。   As described above, the density change detection unit 215 refers to the pixels of the joint portions of the CIS 201, the CIS 202, and the CIS 203 (hereinafter referred to as “joint read images”), and the joint read image has the image density. It is determined whether or not it is a halftone dot image that changes periodically. Specifically, the number of edges in which the density of the image in the joint read image changes with a predetermined density difference or more is detected, and whether the halftone dot is solid or not is determined based on the number of edges.

網点周期算出部211は、上述したように判定した網点画像において画像の濃度が周期的に変化する網点周期を算出する。網点周期算出部211が網点周期を算出する方法については、後に詳述する。   The halftone dot period calculation unit 211 calculates a halftone period in which the image density changes periodically in the halftone dot image determined as described above. The method by which the halftone dot period calculation unit 211 calculates the halftone dot period will be described in detail later.

図7(a)は繋ぎ目読取画像において、網点画像として検知される場合の、各画素の濃度と主走査位置の関係を示す図である。他方、図7(b)はベタ画像として検知される場合の、各画素の濃度と主走査位置の関係を示す図である。   FIG. 7A is a diagram showing the relationship between the density of each pixel and the main scanning position when it is detected as a halftone dot image in the joint read image. On the other hand, FIG. 7B is a diagram showing the relationship between the density of each pixel and the main scanning position when it is detected as a solid image.

尚、図7(a)、(b)において、縦軸は濃度を示し、横軸は繋ぎ目読取画像の画素の位置を示している。また、図7(a)、(b)における平均とは、後述する注目画素と周囲画素の濃度の平均である。この平均は、閾値H及び閾値Lを算出するために必要なものである。   7A and 7B, the vertical axis indicates the density, and the horizontal axis indicates the pixel position of the joint read image. In addition, the average in FIGS. 7A and 7B is the average of the densities of the target pixel and the surrounding pixels described later. This average is necessary to calculate the threshold value H and the threshold value L.

濃度変化検知部215は、繋ぎ目読取画像においてエッジを検知するために、注目する画素を1つ決定する。これが注目画素である。ここで、エッジとは、上述したように画像の濃度が所定の濃度差以上で変化する部分のことである。本実施形態に係る濃度変化検知部215は、図7(a)、(b)に示す閾値H、及び閾値Lを用いて画像のエッジを判断する。具体的には、主走査方向に順番に画素の濃度を参照し、濃度が閾値L以下となった後に閾値Hを超えた場合に画像のエッジであると判断する。濃度変化検知部215は、繋ぎ目読取画像の端部から端部まで1画素ずつ注目してエッジを検知する。   The density change detection unit 215 determines one pixel of interest in order to detect an edge in the joint read image. This is the pixel of interest. Here, the edge is a portion where the density of the image changes with a predetermined density difference or more as described above. The density change detection unit 215 according to the present embodiment determines the edge of the image using the threshold value H and the threshold value L shown in FIGS. Specifically, the pixel density is sequentially referred to in the main scanning direction, and when the density exceeds the threshold H after the density becomes equal to or lower than the threshold L, it is determined that the edge of the image. The density change detection unit 215 detects an edge by paying attention to each pixel from end to end of the joint read image.

濃度変化検知部215は、注目画素を決定したら、濃度の平均を算出するために、注目画素を中心として、対称的に左右数画素分、注目する画素群を決定する。これが周囲画素である。図7(a)、(b)においては、周囲画素の数を15とし、その中間である8画素目を注目画素としている。即ち、注目画素を含め、左に7画素、右に7画素をとった計15の画素群が周囲画素である。そして、濃度変化検知部215は、周囲画素を決定したら周囲画素の濃度の平均を算出する。その後、濃度変化検知部215は、その平均を基準として閾値H及び閾値Lを決定する。濃度変化検知部215は、この周囲画素の領域内において、エッジの個数をカウントし、網点かベタかの判断を行う。   After determining the target pixel, the density change detection unit 215 symmetrically determines a pixel group of interest for several pixels on the left and right sides with respect to the target pixel in order to calculate the average density. This is the surrounding pixel. In FIGS. 7A and 7B, the number of surrounding pixels is 15, and the eighth pixel in the middle is the target pixel. That is, a total of 15 pixel groups including the pixel of interest including 7 pixels on the left and 7 pixels on the right are the surrounding pixels. Then, when the density change detection unit 215 determines the surrounding pixels, the density change detection unit 215 calculates the average density of the surrounding pixels. Thereafter, the density change detection unit 215 determines the threshold value H and the threshold value L based on the average. The density change detection unit 215 counts the number of edges in the surrounding pixel region, and determines whether the dot is solid or solid.

濃度変化検知部215は、エッジの数が所定数を超えたときには網点とし、超えなかったときにはベタと判断する。例えば、本発明の例においては、エッジの個数が2以上であれば網点、1以下であればベタといったように、注目画素ごとに網点かベタかの判断を行っている。従って、図7(a)は上述したエッジの数が多く2以上であるため網点となり、図7(b)はエッジがカウントされないためベタとなる。尚、エッジは濃度変化検知部215が網点かベタかの判断に必要なだけでなく、後に詳述する網点周期算出部211が網点周期を算出する際においても必要なものである。   The density change detection unit 215 determines a halftone dot when the number of edges exceeds a predetermined number, and determines that it is solid when it does not exceed the predetermined number. For example, in the example of the present invention, whether the dot is solid or solid is determined for each pixel of interest, such as a halftone dot if the number of edges is 2 or more and a solid dot if the number of edges is 1 or less. Accordingly, FIG. 7A is a halftone dot because the number of edges described above is many and two or more, and FIG. 7B is solid because edges are not counted. Note that the edge is not only necessary for determining whether the density change detection unit 215 is a halftone dot or solid, but is also necessary when the halftone dot period calculation unit 211 described in detail later calculates a halftone dot period.

ここで、繋ぎ目読取画像が網点画像であるにも関わらず一部にごみが付着している場合や、繋ぎ目読取画像において網点画像とベタ画像とが混在している場合、網点の判断を正確に行うことが出来ない。例えば、網点画像の一部にごみが付着している場合、その部分は網点画像ではなくごみが読み取られることとなる。その結果、図7(a)に示すような網点画像に応じた濃度の変化ではなく、ごみの濃度に応じた読取結果となり、例えば図7(b)に示すようなベタ画像に対応する読取結果となる。その結果、エッジが検知されず、網点画像であるにも関わらず網点として判断されない。   Here, when the joint read image is a halftone dot image, dust is partially attached, or when the halftone dot image and the solid image are mixed in the joint read image, the halftone dot Cannot be accurately determined. For example, when dust is attached to a part of a halftone image, the part is not a halftone image but dust is read. As a result, instead of the change in density according to the halftone dot image as shown in FIG. 7A, a reading result according to the dust density is obtained. For example, the reading corresponding to the solid image as shown in FIG. Result. As a result, the edge is not detected and is not determined as a halftone dot although it is a halftone image.

また、繋ぎ目読取画像において網点画像とベタ画像とが混在していると、平均値の算出結果や、その結果検知されるエッジの数により、網点画像を正確に判断できない場合がある。そのような場合について、図8(a)、(b)を参照して説明する。   Also, if a halftone image and a solid image are mixed in the joint read image, the halftone image may not be determined accurately depending on the average value calculation result and the number of edges detected as a result. Such a case will be described with reference to FIGS.

図8(a)は、繋ぎ目読取画像において、比較的明度の低い網点画像及び明度の高いベタ画像が含まれる場合の各画素の濃度と主走査位置の関係を示す図である。図8(a)において縦軸は画素の濃度を示し、横軸は画素の位置を示す。また、図8(a)においては、周囲画素は上記と同様に15である。その場合において、注目画素を4の位置とした場合の平均を4として示している。平均7及び平均11も同様である。   FIG. 8A is a diagram illustrating the relationship between the density of each pixel and the main scanning position when a dot image having a relatively low brightness and a solid image having a high brightness are included in the joint read image. In FIG. 8A, the vertical axis indicates the pixel density, and the horizontal axis indicates the pixel position. In FIG. 8A, the number of surrounding pixels is 15 as described above. In this case, the average when the pixel of interest is at the position of 4 is shown as 4. The same applies to average 7 and average 11.

図8(b)は、注目画素ごとに網点かベタかを判断していった結果を示す表である。このようにして網点かベタかの判断をしていったときに、注目画素7と注目画素8の位置においては、理想としては網点と判断されなければならない。しかし、エッジを所定数以上検知することができないため、ベタと誤検知したことを示している。   FIG. 8B is a table showing the result of determining whether a dot is solid or solid for each pixel of interest. In this way, when it is determined whether the dot is solid or solid, at the positions of the pixel of interest 7 and the pixel of attention 8, it should be determined that the dot is ideal. However, since a predetermined number or more of the edges cannot be detected, it indicates that the edges are erroneously detected.

例えば、注目画素を7とした場合、周囲画素には明度の低い部分と明度の高い部分とが含まれる。その結果、図8(a)に示すように平均値は明度の低い部分と明度の高い部分との中間の位置となる。そのため、図8(a)に示す平均7に対して設定された閾値Lを下回った後に閾値Hを上回るような濃度の変動が1度しか発生しない。結果的に、エッジの検知数が少なく、網点画像として判断されない。注目画素を8とする場合も同様である。このような弊害は、図8(a)に示すように、濃度の異なる2つの領域の境目に位置する画素を注目画素とした場合に発生しやすい。ここで、網点判断の検知結果が不正確である場合の問題について説明する。   For example, if the target pixel is 7, the surrounding pixels include a low brightness part and a high brightness part. As a result, as shown in FIG. 8A, the average value is an intermediate position between the low lightness portion and the high lightness portion. Therefore, the density fluctuation that exceeds the threshold value H after the threshold value L set for the average 7 shown in FIG. As a result, the number of detected edges is small and it is not determined as a halftone image. The same applies when the pixel of interest is set to 8. Such an adverse effect is likely to occur when a pixel located at the boundary between two regions having different densities is used as a target pixel, as shown in FIG. Here, a problem when the detection result of the halftone dot determination is inaccurate will be described.

図9(a)はCIS201及びCIS202が、夫々網点とベタの両方含む画像を読み取る場合を示している。図9(b)は、CIS201、CIS202夫々の読み取り結果である繋ぎ目読取画像及びそれらに基づいて繋ぎ目補正処理によって生成された画像を示す図である。図9(b)においては、色の濃度をハッチングの量によって表現している。   FIG. 9A shows a case where the CIS 201 and the CIS 202 read images including both halftone dots and solids, respectively. FIG. 9B is a diagram illustrating a joint reading image that is a reading result of each of the CIS 201 and the CIS 202 and an image generated by the joint correction processing based on the joint reading image. In FIG. 9B, the color density is expressed by the amount of hatching.

CIS201とCIS202とで副走査方向にずれがある場合、図9(a)に示すような画像では、CIS201とCIS202とで網点の判断結果にずれが生じることとなる。これに対して、繋ぎ目補正処理においては、CIS201の読み取り結果とCIS202の読み取り結果とを所定の割合で足し合わせるような処理を行う。そのため、図9(a)に示すような画像において副走査方向にずれが生じた状態で繋ぎ目補正処理が行われてしまうと、図9(b)に示すように網点画像における濃度差がつぶれてしまう。   When there is a deviation in the sub-scanning direction between the CIS 201 and the CIS 202, in the image as shown in FIG. 9A, there is a deviation in the halftone dot judgment result between the CIS 201 and the CIS 202. On the other hand, in the joint correction process, a process is performed in which the reading result of the CIS 201 and the reading result of the CIS 202 are added at a predetermined ratio. For this reason, if the seam correction processing is performed in a state where the image as shown in FIG. 9A is shifted in the sub-scanning direction, the density difference in the halftone image is changed as shown in FIG. 9B. It will be crushed.

このように網点画像の濃度差がつぶれてしまう問題を回避するため、網点画像と判断された場合、繋ぎ目補正処理部213は繋ぎ目補正の態様を切り替え、濃度差がつぶれないように処理する。しかしながら、上述したように網点の判断結果が不正確である場合には、網点画像であるにも関わらず誤った処理が行われてしまうこととなる。   In order to avoid the problem that the density difference of the halftone image is crushed in this way, when it is determined that the image is a halftone image, the joint correction processing unit 213 switches the joint correction mode so that the density difference is not crushed. To process. However, when the halftone dot determination result is inaccurate as described above, an erroneous process is performed despite the halftone dot image.

従来においては、繋ぎ目読取画像が網点であるかベタであるかを判断する方法として、まず注目画素と周囲画素を定め、夫々の濃度の平均をとる。次に、それを基準として閾値Hと閾値Lを定める。その後、エッジを検知し、その個数によって濃度変化検知部215は網点かベタかの判断を行う。この方法であると、図8(a)、(b)において説明した問題が生じてしまう。従って、本発明では、検知する幅を2分割し、夫々の領域で異なる検知を行う。そして、夫々の領域のいずれかでエッジを多く検知した方を採用することで、上述した問題を解消する。即ち、分割されたいずれかの領域内において網点を検知した場合、そちらの方の検知結果を採用することで、上述した問題を解消する。以下、本発明について説明をする。   Conventionally, as a method for determining whether a joint read image is a halftone dot or a solid, first, a target pixel and surrounding pixels are determined, and an average of the respective densities is taken. Next, a threshold value H and a threshold value L are determined based on that. Thereafter, the edge is detected, and the density change detection unit 215 determines whether the dot is solid or solid according to the number of edges. With this method, the problem described in FIGS. 8A and 8B occurs. Therefore, in the present invention, the detection width is divided into two, and different detection is performed in each region. And the problem mentioned above is solved by employ | adopting the direction which detected many edges in either of each area | region. That is, when a halftone dot is detected in any of the divided areas, the above-described problem is solved by adopting the detection result of that halftone area. The present invention will be described below.

図10は本発明の網点であるかベタであるかの判断方法の要旨を示す図である。本発明では、注目画素から、左側領域、右側領域といったように検知する領域を2分割して検知を行う。そして、夫々の領域において、平均L、平均R、閾値HL、閾値LL、閾値HR、閾値LR、エッジqL、エッジqRを算出する。図10では、左側領域ではエッジを1つしか検知できないためベタと判断される。一方、右側領域においてはエッジを4つ検知できるため網点と判断される。そして、このようにして網点とベタの両方が検知された場合、網点周期算出部211は、網点との判断結果を優先する。尚、図10においては、左側領域及び右側領域の周囲画素は、夫々15である。   FIG. 10 is a diagram showing the gist of the method for determining whether a dot is solid or solid according to the present invention. In the present invention, detection is performed by dividing an area to be detected, such as a left area and a right area, from the target pixel. Then, average L, average R, threshold HL, threshold LL, threshold HR, threshold LR, edge qL, and edge qR are calculated in each region. In FIG. 10, since only one edge can be detected in the left region, it is determined as solid. On the other hand, since four edges can be detected in the right region, it is determined as a halftone dot. When both halftone dots and solids are detected in this way, the halftone dot period calculation unit 211 gives priority to the determination result of halftone dots. In FIG. 10, there are 15 surrounding pixels in the left and right regions.

この方法により、繋ぎ目部分の画像データが、網点とベタが含まれる場合や濃度の異なる複数の領域を含んだ網点画像等である場合、濃度変化検知部215が、ベタと誤検知してしまう問題を回避することができる。これにより、繋ぎ目補正処理するべきではない網点画像の箇所を繋ぎ目補正処理してしまい、網点画像の濃淡がつぶれてしまう問題が解消される。   By this method, when the image data of the joint portion includes halftone dots and solids, or is a halftone dot image including a plurality of regions having different densities, the density change detection unit 215 erroneously detects solids. Can be avoided. This eliminates the problem that the halftone image portion that should not be subjected to joint correction processing is subjected to joint correction processing, and the density of the halftone image is crushed.

図11を用いて具体的な本発明の処理について説明する。図11(a)における周囲画素は、左側領域及び右側領域共に15である。上述したとおり、濃度変化検知部215は、左右夫々の領域で注目画素ごとに網点かベタかの判断を行う。図11(b)は、濃度変化検知部215の判定結果を示した図である。本発明では、濃度変化検知部215は図10(b)のように、左側と右側でエッジqLまたはqRのいずれかの個数が多いものを採用し、優先的に網点と判断することを特徴とする。   Specific processing of the present invention will be described with reference to FIG. The number of surrounding pixels in FIG. 11A is 15 for both the left side area and the right side area. As described above, the density change detection unit 215 determines whether the dot is solid or solid for each pixel of interest in the left and right regions. FIG. 11B is a diagram illustrating a determination result of the density change detection unit 215. In the present invention, as shown in FIG. 10B, the density change detection unit 215 employs one having a large number of either the edge qL or qR on the left side and the right side, and preferentially determines a halftone dot. And

濃度変化検知部215は、CIS201及びCIS202の繋ぎ目、CIS202及びCIS203の繋ぎ目において、いずれか一方のCISで読み取った繋ぎ目読取画像を用いて、網点かベタかの判断を行っている。このように、ラインイメージセンサで読み取った繋ぎ目部分のいずれかのデータを用いて、網点かベタかの判断をする方法は、本発明の実施形態の一つである。   The density change detection unit 215 determines whether a halftone dot is solid or not by using a joint read image read by one of the CISs at the joint between the CIS 201 and the CIS 202 and the joint between the CIS 202 and the CIS 203. As described above, a method for determining whether a dot is solid or solid by using any data of the joint portion read by the line image sensor is one embodiment of the present invention.

濃度変化検知部215が、ラインイメージセンサで読み取った繋ぎ目部分の画像データの両方を用いて、網点かベタかの判断を行うことについて図11を参照にして説明する。要するに、濃度変化検知部215は、CIS201で読み取った画像データを用いて上述した網点検知を行い、左右夫々の領域でエッジqL及びエッジqRを検知する。同様にして、CIS202においても、左右夫々の領域でエッジqL及びエッジqRを検知する。そこで、CIS201及びCIS202で検知した左右夫々のエッジqLまたはエッジqR個数のうち、最も多い方を採用するのも本発明の実施形態の一つである。尚、図11においては、CIS201及びCIS202を例に説明をしているが、CIS202及びCIS203で検知を行っても同様である。   The density change detection unit 215 will be described with reference to FIG. 11 to determine whether the density change detection unit 215 uses halftone dots or solid images by using both image data of joints read by the line image sensor. In short, the density change detection unit 215 performs the above-described halftone dot detection using the image data read by the CIS 201, and detects the edge qL and the edge qR in the left and right regions. Similarly, also in the CIS 202, the edge qL and the edge qR are detected in the left and right regions. Therefore, it is also one of the embodiments of the present invention to employ the largest number of the left and right edges qL or the number of edges qR detected by the CIS 201 and the CIS 202. In FIG. 11, the CIS 201 and the CIS 202 are described as an example, but the same applies when detection is performed by the CIS 202 and the CIS 203.

図13は、図12と手法が若干異なる。図12では、単純にCIS201及びCIS202の左右夫々の領域で検知したエッジqL及びエッジqRの個数だけを見て、網点かベタかの判断を行っている。他方、図13では、CIS201及びCIS202で夫々網点かベタかの判断を行ってから、最終的に網点かベタかの判断を行うという点で異なる。このようにして、本発明では、設定によって網点かベタかの判断方法を変えることができる。   FIG. 13 is slightly different from FIG. In FIG. 12, it is determined whether a halftone dot is solid or not by simply looking at the number of edges qL and edges qR detected in the left and right regions of CIS201 and CIS202. On the other hand, FIG. 13 is different in that it is determined whether the halftone dot is solid or not in the CIS 201 and the CIS 202, and then it is finally determined whether the dot is solid or solid. In this way, in the present invention, the method for determining whether a dot is solid or solid can be changed by setting.

従来技術に係る網点検知処理においては、図8において説明したように、注目画素を中心とした所定範囲の領域全体について網点検知処理を行っていた。これに対して、本実施形態に係る濃度変化検知部215は、注目画素を中心とした所定範囲の領域について、注目画素を含む主走査方向の一方側の領域と、他方側の領域夫々について網点検知処理を行う。そして、夫々の領域の検知結果のうち、より多くのエッジが検知された結果を採用する。   In the halftone detection processing according to the prior art, as described with reference to FIG. 8, the halftone detection processing is performed on the entire region in a predetermined range centered on the target pixel. On the other hand, the density change detection unit 215 according to the present embodiment has a network for each of the one side area in the main scanning direction including the target pixel and the other side area in a predetermined range centered on the target pixel. Perform point detection processing. And the result in which more edges were detected among the detection results of each area is adopted.

尚、本実施形態においては、図11〜図13に示すように、繋ぎ目読取画像に含まれる画素のうち複数の画素を注目画素として、夫々上述したように一方側、他方側の領域についての網点検知処理、即ちエッジ数のカウント処理を行っている。この場合、夫々の注目画素について検知されたエッジ数のうち最も大きい値が最終的なエッジ数のカウント値として用いられる。これにより、繋ぎ目読取画像に含まれるエッジ数をより高精度にカウントすることが出来る。   In the present embodiment, as shown in FIGS. 11 to 13, as described above, a plurality of pixels among the pixels included in the joint read image are used as the target pixel, and the regions on one side and the other side are respectively described above. Halftone detection processing, that is, edge count processing is performed. In this case, the largest value among the number of edges detected for each target pixel is used as the final count value of the number of edges. As a result, the number of edges included in the joint read image can be counted with higher accuracy.

しかしながらこれは一例であり、本実施形態に係る要旨は、繋ぎ目読取画像に含まれる画素のうちから注目画素を選択した場合に、その注目画素に対して主走査方向の一方側の領域と他方側の領域について夫々エッジ数のカウント処理を行うことである。従って、図11〜図13に示すように、複数の注目画素についてエッジ数のカウントを行うのではなく、いずれか1つの注目画素についてのみエッジ数のカウントを行っても良い。   However, this is merely an example, and the gist of the present embodiment is that when a pixel of interest is selected from among pixels included in a joint read image, a region on one side and the other in the main scanning direction with respect to the pixel of interest. This is to count the number of edges for each side area. Therefore, as shown in FIGS. 11 to 13, the number of edges may be counted only for one of the target pixels, instead of counting the number of edges for the plurality of target pixels.

更に、上述した注目画素に対して主走査方向の一方側の領域と他方側の領域夫々を解析対象とすることも一例である。このような処理を行う趣旨は、繋ぎ目読取画像に含まれる主走査方向の画像の領域において、複数の領域についてエッジ数のカウントを行い、最も値の大きいカウント結果を採用することである。従って、注目画素に対して主走査方向の一方側の領域と他方側の領域夫々を解析対象とする場合に限らず、繋ぎ目読取画像に含まれる複数の領域についてエッジ数のカウントを行い、夫々のカウント結果のうち最も値の大きいものを採用しても良い。   Furthermore, it is also an example that the region on one side and the region on the other side in the main scanning direction with respect to the target pixel are set as analysis targets. The purpose of performing such processing is to count the number of edges in a plurality of areas in the image area in the main scanning direction included in the joint read image and adopt the count result having the largest value. Therefore, the number of edges is counted for a plurality of areas included in the joint read image, not only when one area and the other area in the main scanning direction with respect to the target pixel are analyzed. Of these count results, the one with the largest value may be adopted.

以上のようにして、濃度変化検知部215が行ったエッジの個数を検知結果に基づいて、網点周期算出部211は、以下の式によって、網点周期を算出する。Tは網点周期、Dは周囲画素、qはエッジの個数を表す。
As described above, based on the detection result of the number of edges performed by the density change detection unit 215, the halftone period calculation unit 211 calculates a halftone period using the following equation. T is a halftone dot period, D is a surrounding pixel, and q is the number of edges.

上記式(1)で算出された網点周期Tは、重み値算出部212において重み値を算出するのに必要となる。重み値算出部212が、重み値を算出するのは以下のようにして行われる。以下の式(2)においては、G1はCIS201の重み値、G2はCIS202の重み値を表す。また、nは繋ぎ目部分の左端の値を“1”としたときの主走査方向の位置を表し、Nは繋ぎ目部分の画素数を表す。さらに、αは重み付け係数曲線のカーブを決定する定数を表す。
The halftone dot period T calculated by the above equation (1) is necessary for the weight value calculation unit 212 to calculate the weight value. The weight value calculation unit 212 calculates the weight value as follows. In the following equation (2), G1 represents the weight value of CIS201, and G2 represents the weight value of CIS202. Further, n represents the position in the main scanning direction when the value at the left end of the joint portion is “1”, and N represents the number of pixels in the joint portion. Furthermore, α represents a constant that determines the curve of the weighting coefficient curve.

但し、上記式(2)において用いる変数TSは以下の式で算出される。ここで、Tmaxは、検知する周期範囲の最大値を表す。

However, the variable TS used in the above equation (2) is calculated by the following equation. Here, T max represents the maximum value of the period range to be detected.

以上のようにして、網点周期算出部211は、式(1)によって網点周期Tを算出する。そして、重み値算出部212は、網点周期算出部211によって算出された網点周期Tを用いて式(2)及び(3)式により重み値を算出する。ここで、重み値G1及びG2の具体例として、網点周期T1のときを図14(a)に、網点周期T2のときを図14(b)に、また網点周期T3のときを図14(c)に示す。図14(a)〜(c)においては、繋ぎ目読取画像の画素数N=128画素、重み付け係数を表す曲線のカーブを決定する定数α=1である。また、網点周期T1、網点周期T2及び網点周期T3の間には、網点周期T1>網点周期T2>網点周期T3の関係が成り立つ。そして、周期範囲の最大値Tmaxは、T1とT2の間の値である。 As described above, the halftone dot period calculation unit 211 calculates the halftone dot period T using Equation (1). Then, the weight value calculation unit 212 uses the halftone dot period T calculated by the halftone dot period calculation unit 211 to calculate a weight value according to equations (2) and (3). Here, as specific examples of the weight values G1 and G2, FIG. 14A shows the case of the halftone period T1, FIG. 14B shows the case of the halftone period T2, and FIG. 14B shows the case of the halftone period T3. 14 (c). In FIGS. 14A to 14C, the number of pixels of the joint read image is N = 128, and the constant α = 1 that determines the curve of the curve representing the weighting coefficient. Further, a relationship of halftone dot period T1> halftone dot period T2> halftone dot period T3 is established between halftone dot period T1, halftone dot period T2, and halftone dot period T3. The maximum value T max of the period range is a value between T1 and T2.

2つのCISによって読み取られた繋ぎ目読取画像に基づいて最終的な繋ぎ目画像を生成する際、原則として繋ぎ目補正処理部213は、夫々のCISによる繋ぎ目読取画像に係数を乗じて足し合わせる。この係数が、重み値算出部212によって算出される重み値である。   When the final seam image is generated based on the seam read images read by the two CISs, the seam correction processing unit 213 in principle multiplies each seam read image by the CIS by a coefficient and adds them together. . This coefficient is a weight value calculated by the weight value calculation unit 212.

重み値算出部212は重み値を算出すると、その算出した重み値を繋ぎ目補正処理部213に供給する。そして、繋ぎ目補正処理部213は、重み値算出部212によって供給された重み値に基づいて、図14(a)〜(c)に示す繋ぎ目補正処理を行う。図14(a)は、網点周期Tが最も長いT1である場合における処理を表している。   When calculating the weight value, the weight value calculation unit 212 supplies the calculated weight value to the joint correction processing unit 213. Then, the joint correction processing unit 213 performs joint correction processing shown in FIGS. 14A to 14C based on the weight value supplied by the weight value calculation unit 212. FIG. 14A shows processing in the case where the halftone dot period T is the longest T1.

網点周期Tが長い画像とは、濃淡の大きな変化が少ない画像、即ちベタ画像やそれに近い画像である。即ち、図14(a)においてCIS201、202及び203によって読み取られる繋ぎ目部分の画像は、ベタ画像である。   An image having a long halftone dot period T is an image with little change in shading, that is, a solid image or an image close thereto. That is, the image of the joint portion read by the CISs 201, 202, and 203 in FIG. 14A is a solid image.

画像がベタ画像やそれに近い画像である場合、上述した繋ぎ目補正処理を行うことにより、2つのCISによって読み取られた画像の境目を目立たせることなく繋ぎ目画像を生成することが出来る。従って、網点周期TがTmaxを超えるような大きな値である場合、繋ぎ目画像に含まれる各画素に乗ずる係数である重み値は、図14(a)に示すような態様となる。 When the image is a solid image or an image close thereto, the joint image can be generated without making the boundary between the images read by the two CISs conspicuous by performing the joint correction process described above. Therefore, when the halftone dot period T is a large value exceeding Tmax , the weight value, which is a coefficient to be multiplied by each pixel included in the joint image, is as shown in FIG.

即ち、CIS201による繋ぎ目読取画像に対しては、最も左に位置する画素の重み値を“1”として、右の画素に移動するに従って重み値が直線的に減少する。他方、CIS202による繋ぎ目読取画像に対しては、最も右に位置する画素の重み値を“1”として、左の画素に移動するに従って重み値が直線的に減少する。   That is, for the joint read image by the CIS 201, the weight value of the leftmost pixel is set to “1”, and the weight value decreases linearly as the pixel moves to the right pixel. On the other hand, for the joint read image by the CIS 202, the weight value of the rightmost pixel is set to “1”, and the weight value decreases linearly as the pixel moves to the left pixel.

このように主走査方向の位置に応じて変化する重み値を夫々の位置の画素値に乗じ、CIS201による繋ぎ目読取画像とCIS202による繋ぎ目読取画像とで対応する位置の画素値を足し合わせることにより、2つの読み取り結果が合成された繋ぎ目画像が生成される。   In this way, the pixel value at each position is multiplied by the weight value that changes according to the position in the main scanning direction, and the pixel value at the corresponding position is added to the joint read image by CIS201 and the joint read image by CIS202. Thus, a joint image in which the two reading results are combined is generated.

CIS201による繋ぎ目読取画像に対する重み値と、CIS202による繋ぎ目読取画像に対する重み値とは、対応する画素位置の値を足し合わせると“1”になる。これにより、2つのCISによる繋ぎ目読取画像を足し合わせて繋ぎ目画像を生成することが出来ると共に、図14(a)に示すように重み値を調整することにより、繋ぎ目をぼかして目立ちにくくすることが可能となる。   The weight value for the joint read image by the CIS 201 and the weight value for the joint read image by the CIS 202 are “1” when the corresponding pixel position values are added together. This makes it possible to generate a joint image by adding together the joint reading images of the two CISs, and by adjusting the weight value as shown in FIG. It becomes possible to do.

しかしながら、網点画像においてこのような処理を行うと、CIS201とCIS202とで主走査方向や副走査方向に画像のずれがある場合、図9(a)、(b)に基づいて説明したような問題が生じる。   However, when such processing is performed on a halftone image, if there is an image shift between the CIS 201 and the CIS 202 in the main scanning direction and the sub-scanning direction, as described with reference to FIGS. Problems arise.

図14(c)は、網点周期Tが最も短い場合における処理を表している。このとき、CIS201、202及び203によって読み取られる繋ぎ目部分の画像は、網点画像である。上記式(3)を参照すると、網点周期Tが短い場合、TSの値はゼロに近づく。そして、上記式(2)を参照すると、TSの値がゼロに近づく場合、G1の値は、nがN/2以下の場合には、1に近づき、nがN/2以上の場合には0に近づく。   FIG. 14C shows the process when the halftone period T is the shortest. At this time, the image of the joint portion read by the CIS 201, 202, and 203 is a halftone image. Referring to the above equation (3), when the halftone period T is short, the value of TS approaches zero. Then, referring to the above formula (2), when the value of TS approaches zero, the value of G1 approaches 1 when n is N / 2 or less, and when n is N / 2 or more, Approaching zero.

このような場合、図14(c)に示すように、CIS201による繋ぎ目読取画像及びCIS202による繋ぎ目読取画像夫々に対して重み値を乗じた上で足し合わせるような処理は行われない。N/2までの画素は一方のCISによる繋ぎ目読取画像が、N/2以降の画素はもう一方のCISによる繋ぎ目読取画像が用いられて繋ぎ目画像が生成される。   In such a case, as shown in FIG. 14 (c), a process of adding the weighted values to the joint read image by the CIS 201 and the joint read image by the CIS 202 is not performed. A joint image is generated by using a joint read image by one CIS for pixels up to N / 2 and a joint read image by another CIS for pixels after N / 2.

このような場合、N/2の位置において夫々のCISによる繋ぎ目読取画像がつなぎ合わせられることとなる。そのため、N/2の位置における画像の繋ぎ目が目立ってしまう可能性はあるが、2つのCISによる繋ぎ目読取画像を足し合わせる処理がないため、図7(a)、(b)において説明したような網点画像の濃淡がつぶれてしまうようなことは発生しない。   In such a case, the joint read images by the respective CISs are joined at the position of N / 2. Therefore, there is a possibility that the joint of the image at the position of N / 2 may be conspicuous, but there is no processing for adding the joint read images by the two CISs, so that it has been described with reference to FIGS. It does not occur that the shading of the halftone dot image is crushed.

図14(b)は、網点周期TがT2である場合における処理を表している。T2は周期範囲の最大値Tmaxよりも小さく、且つ上記式(3)によるTSの計算結果がゼロに近くなり過ぎない値である。このとき、繋ぎ目読取画像は、網点とベタの両方を含む画像やあまり細かくない網点画像である。この場合、主走査位置に応じた重み値は、主走査位置の変化に応じた変化量が図2(a)の場合よりも小さい状態で緩やかに変化することにより、2つのCISのうちいずれか一方のCISによる繋ぎ目読取画像が重要視される状態で遷移する。そして、N/2の周辺で急峻に変化することにより、もう一方のCISによる繋ぎ目読取画像が重視される状態となる。 FIG. 14B shows a process when the halftone dot period T is T2. T2 is a value smaller than the maximum value Tmax of the period range, and the TS calculation result according to the above equation (3) is not too close to zero. At this time, the joint read image is an image including both halftone dots and solids or a halftone dot image that is not very fine. In this case, the weight value corresponding to the main scanning position changes gently in a state where the amount of change corresponding to the change in the main scanning position is smaller than in the case of FIG. The transition is made in a state where the joint read image by one CIS is regarded as important. Then, by changing sharply around N / 2, the seam read image by the other CIS becomes important.

このため、図14(b)の場合、N/2の近辺以外の主走査位置においては、いずれか一方のCISによる繋ぎ目読取画像のデータが重視されて足し合わせられるため、仮にその部分が網点画像であって、主走査方向や副走査方向にずれが生じていても、画像の特徴をなるべく失わせることなく繋ぎ目読取画像を足し合わせることが出来る。他方、N/2の近辺の主走査位置においては、2つのCISによる繋ぎ目読取画像を同程度の割合で足し合わせることにより、繋ぎ目が目立たないように画像がぼかされる。特に、図14(b)の場合、これにより、網点画像の濃淡をつぶさない効果と、画像の繋ぎ目を目立たせなくする効果を両立することが可能となる。   For this reason, in the case of FIG. 14B, at the main scanning position other than the vicinity of N / 2, since the data of the joint read image by either one of the CISs is emphasized and added, the portion is assumed to be a network. Even if a point image is misaligned in the main scanning direction or the sub-scanning direction, it is possible to add the joint reading images without losing the characteristics of the image as much as possible. On the other hand, at the main scanning position in the vicinity of N / 2, the joint read images by the two CISs are added together at a similar rate, so that the image is blurred so that the joint is not conspicuous. In particular, in the case of FIG. 14B, this makes it possible to achieve both the effect of not obscuring the halftone image and the effect of making the joint of the image inconspicuous.

1ライン化処理部214は、CIS201〜CIS203について並列に転送される夫々の読取画像と、繋ぎ目補正処理部213によって生成された繋ぎ目部分の画像である繋ぎ目画像とに基づいて1ライン分の撮像画像を生成し、図4において示すエンジン制御部120に転送する。   The one-line processing unit 214 performs one line-based processing based on each read image transferred in parallel for the CIS 201 to CIS 203 and a joint image that is an image of a joint part generated by the joint correction processing unit 213. Are captured and transferred to the engine control unit 120 shown in FIG.

このように、本実施形態に係るライン合成処理部210においては、2つのCISによる繋ぎ目読取画像を所定の割合で合成して繋ぎ目画像を生成する。その際、濃度変化検知部215が、繋ぎ目画像に含まれる画像のエッジの数をカウントする。そして、そのカウント結果に基づいて、網点周期算出部211が、上記式(1)により、繋ぎ目画像に濃度の濃淡が周期的に発生する場合の網点周期Tを算出する。   As described above, in the line composition processing unit 210 according to the present embodiment, a joint read image by two CIS is synthesized at a predetermined ratio to generate a joint image. At that time, the density change detection unit 215 counts the number of edges of the image included in the joint image. Based on the count result, the halftone dot period calculation unit 211 calculates the halftone dot period T when density shading occurs periodically in the joint image by the above equation (1).

そのようにして算出された網点周期Tに基づいて、重み値算出部212が上記式(2)、(3)により重み値を算出する。このようにして算出された重み値は、2つのCISによる繋ぎ目読取画像を繋ぎ目補正処理部213が合成する際の割合として用いられる。そして、1ライン化処理部214が、生成された繋ぎ目画像と他の部分の画像とを合成して1ライン分の読取画像を生成する。即ち、本実施形態においては、重み値算出部212、繋ぎ目補正処理部213が連動して繋ぎ目処理部として機能する。また、1ライン化処理部214が、ライン画像生成部として機能する。   Based on the halftone dot period T thus calculated, the weight value calculation unit 212 calculates a weight value by the above formulas (2) and (3). The weight value calculated in this way is used as a ratio when the joint correction processing unit 213 combines the joint reading images by the two CISs. Then, the one-line processing unit 214 generates the read image for one line by synthesizing the generated joint image and the image of the other part. That is, in the present embodiment, the weight value calculation unit 212 and the joint correction processing unit 213 function as a joint processing unit in conjunction with each other. Further, the one-line processing unit 214 functions as a line image generation unit.

このようなライン合成処理部210による繋ぎ目画像の生成処理において、網点周期算出部211は、網点周期Tを算出する。その際、網点周期算出部211は、繋ぎ目画像全体ではなく、繋ぎ目画像を部分的に参照すると共に、濃度変化検知部215による複数の領域に対して行われたエッジ数のカウント結果を参照する。そして、複数の領域におけるエッジ数のカウント値のうち、最も大きい値を最終的なカウント値として採用して、網点周期Tを算出する。   In such a seam image generation process by the line composition processing unit 210, the halftone dot period calculation unit 211 calculates a halftone period T. At that time, the halftone dot period calculation unit 211 partially refers to the joint image instead of the whole joint image, and also displays the count result of the number of edges performed on the plurality of regions by the density change detection unit 215. refer. Then, the halftone dot period T is calculated by adopting the largest value among the count values of the number of edges in the plurality of regions as the final count value.

このような処理により、濃度の異なる領域が繋ぎ目読取画像に含まれることにより、画像のエッジを判断するための閾値が適切に設定されずにエッジのカウントに失敗することを回避することが出来る。また、繋ぎ目読取画像にごみが含まれる場合や、擦れ、滲み等の印刷状態が悪い領域が含まれる場合に、本来網点画像であるはずの領域が網点として判断されないことを回避することが出来る。   With such a process, it is possible to avoid failure in counting edges without appropriately setting a threshold for determining an edge of an image because regions having different densities are included in the joint read image. . In addition, when the joint reading image includes dust, or when the printing state such as rubbing or bleeding is included, it is avoided that the area that should originally be a halftone image is not determined as a halftone dot. I can do it.

尚、図11〜図13においては、夫々のエッジ数のカウント結果に対して閾値を適用することにより、網点画像であるか否かの判断を行う場合を例としている。しかしながら、上述したように、本実施形態の趣旨は、夫々のエッジ数のカウント結果のうち、最も値の大きいものを採用することである。従って、網点画像であるか否かの判断は必ずしも必要ではない。   11 to 13 exemplify a case where it is determined whether or not the image is a halftone image by applying a threshold value to each edge count result. However, as described above, the gist of the present embodiment is to employ the largest value among the count results of the respective number of edges. Therefore, it is not always necessary to determine whether the image is a halftone image.

他方、網点画像の判断結果に基づいて、上記式(1)による網点周期Tの計算や、上記式(3)の計算を簡略化することが出来る。エッジ数のカウント値が大きい場合、上記式(1)の計算結果は小さくなり、その結果、上記式(3)の計算結果は、ゼロに近づく。その結果、上述したように、繋ぎ目画像の生成態様は図14(b)の態様から図14(c)の態様に近づいていき、2つのCISによる繋ぎ目読取画像が所定割合で合成されるのではなく、N/2の位置を境目として夫々のCISによる繋ぎ目読取画像が繋ぎ合わせられる態様に近づく。   On the other hand, based on the determination result of the halftone image, the calculation of the halftone period T according to the above equation (1) and the calculation of the above equation (3) can be simplified. When the count value of the number of edges is large, the calculation result of the above equation (1) becomes small, and as a result, the calculation result of the above equation (3) approaches zero. As a result, as described above, the seam image generation mode approaches the mode of FIG. 14C from the mode of FIG. 14B, and the seam read images by the two CISs are synthesized at a predetermined ratio. Instead of this, it approaches the mode in which the joint read images by the respective CISs are joined together with the position of N / 2 as the boundary.

これらの処理は、いずれも上記式(1)〜(3)の計算結果に基づいて行われる。他方、エッジ数のカウント値が大きく、所定の閾値を超えたことにより網点画像であると判断される場合には、上記式(1)、(3)を行わずにTS=0であると判断可能である。その場合、上記式(1)、(3)の計算を省略し、処理を簡略化することが出来る。   These processes are all performed based on the calculation results of the above formulas (1) to (3). On the other hand, if the count value of the number of edges is large and exceeds the predetermined threshold value, and it is determined that the image is a halftone image, TS = 0 without performing the above equations (1) and (3). Judgment is possible. In that case, the calculation of the above formulas (1) and (3) can be omitted, and the processing can be simplified.

また、エッジ数のカウント結果に基づいて上記式(3)の計算を行う場合、TSの計算結果はTの値が小さい程ゼロに近づいていくものの、完全にゼロになることは無い。その結果、上記式(2)の計算によるG1、G2の計算結果は完全に0、1とはならないため、繋ぎ目補正処理部213は、0、1ではない係数を乗ずる計算を行うこととなる。   Further, when the calculation of the above formula (3) is performed based on the count result of the number of edges, the TS calculation result approaches zero as the value of T decreases, but does not become completely zero. As a result, since the calculation results of G1 and G2 by the calculation of the above formula (2) are not completely 0 and 1, the joint correction processing unit 213 performs the calculation of multiplying by a coefficient other than 0 and 1. .

これに対して、上述したように網点として判断された場合にTS=0であるとして処理を行う場合、上記式(2)によるG1、G2の計算結果は完全に0、1となる。そのため、繋ぎ目補正処理部213は、N/2の位置を境目として2つのCISによる繋ぎ目読取画像のいずれかを採用すればよく、処理を簡略化することが出来る。   On the other hand, when processing is performed assuming that TS = 0 when it is determined as a halftone dot as described above, the calculation results of G1 and G2 according to the above equation (2) are completely 0 and 1. For this reason, the joint correction processing unit 213 may adopt one of the two CIS joint read images with the N / 2 position as a boundary, and can simplify the process.

1 画像処理装置
10 CPU
20 RAM
30 ROM
40 HDD
50 I/F
60 LCD
70 操作部
80 専用デバイス
90 バス
100 コントローラ
101 ADF
102 スキャナユニット
103 排紙トレイ
104 ディスプレイパネル
105 給紙テーブル
106 プリントエンジン
107 排紙トレイ
108 ネットワークI/F
110 主制御部
120 エンジン制御部
130 画像処理部
140 操作表示制御部
150 入出力制御部
201、202、203 CIS
204、205、206 A/D
207、208、209 メモリ
210 ライン合成処理部
211 網点周期算出部
212 重み値算出部
213 繋ぎ目補正処理部
214 1ライン化処理部
215 濃度変化検知部
1 Image processing apparatus 10 CPU
20 RAM
30 ROM
40 HDD
50 I / F
60 LCD
70 Operation unit 80 Dedicated device 90 Bus 100 Controller 101 ADF
102 Scanner unit 103 Paper discharge tray 104 Display panel 105 Paper feed table 106 Print engine 107 Paper discharge tray 108 Network I / F
110 Main Control Unit 120 Engine Control Unit 130 Image Processing Unit 140 Operation Display Control Unit 150 Input / Output Control Units 201, 202, 203 CIS
204, 205, 206 A / D
207, 208, 209 Memory 210 Line composition processing unit 211 Halftone period calculation unit 212 Weight value calculation unit 213 Joint correction processing unit 214 One line processing unit 215 Density change detection unit

特開2007−336440号公報JP 2007-336440 A

Claims (10)

複数のラインイメージセンサにおいて各画素に対応する読取素子の並び方向の端部同士が、前記読取素子の並び方向と直交する方向に重複するように配置されて構成された読取部によって読み取られた読取画像を処理する読取画像処理装置であって、
前記夫々のラインイメージセンサに含まれる読取素子のうち前記直交する方向に重複している範囲の読取素子によって読み取られた読取画像である繋ぎ目読取画像における、所定の回数以上の画像の濃度の変化を検知する濃度変化検知部と、
異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像に基づき前記ラインイメージセンサが副走査方向に重複している部分の画像である繋ぎ目画像を生成する繋ぎ目処理部と、
前記夫々のラインイメージセンサによって読み取られた読取画像及び生成された前記繋ぎ目画像に基づいて1ライン分の読取画像を生成するライン画像生成部とを含み、
前記繋ぎ目処理部は、異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像を、前記濃度変化検知部における所定の回数以上の濃度の変化の検知結果に応じた態様で合成して前記繋ぎ目画像を生成し、
前記濃度変化検知部は、前記繋ぎ目読取画像に含まれる複数の領域について所定の回数以上の画像の濃度の変化を検知することを特徴とする読取画像処理装置。
Reading performed by a reading unit configured such that end portions of reading elements corresponding to each pixel in a plurality of line image sensors overlap in a direction orthogonal to the reading element arrangement direction. A read image processing apparatus for processing an image,
Changes in image density over a predetermined number of times in a joint read image which is a read image read by a reading element in a range overlapping in the orthogonal direction among the reading elements included in each of the line image sensors. A density change detection unit for detecting
A seam processing unit that generates a seam image that is an image of a portion where the line image sensor overlaps in the sub-scanning direction based on the seam read image read by each of different line image sensors;
A line image generation unit that generates a read image for one line based on the read image read by each of the line image sensors and the generated joint image;
The joint processing unit synthesizes the joint read images respectively read by different line image sensors in a manner according to a detection result of a density change more than a predetermined number of times in the density change detection unit. Generate eye images,
The read image processing apparatus, wherein the density change detection unit detects a change in density of an image at a predetermined number of times or more for a plurality of regions included in the joint read image.
前記濃度変化検知部は、前記繋ぎ目読取画像における所定の回数以上の画像の濃度の変化の頻度を解析し、
前記繋ぎ目処理部は、前記複数の領域についての解析結果のうち、画像の濃度の周期的な変化が最も頻繁である結果を用いて前記繋ぎ目画像を生成することを特徴とする請求項1に記載の読取画像処理装置。
The density change detection unit analyzes the frequency of the density change of the image more than a predetermined number of times in the joint read image,
The said joint process part produces | generates the said joint image using the result in which the periodic change of the density of an image is the most frequent among the analysis results about these several area | regions. The read image processing apparatus according to 1.
前記濃度変化検知部は、前記繋ぎ目読取画像における画像の濃度が所定の範囲以上に変化する部分の数をカウントし、
前記繋ぎ目処理部は、前記複数の領域についてのカウント値のうち最も大きい値を用いて前記繋ぎ目画像を生成することを特徴とする請求項2に記載の読取画像処理装置。
The density change detection unit counts the number of portions where the density of the image in the joint read image changes beyond a predetermined range,
The read image processing apparatus according to claim 2, wherein the joint processing unit generates the joint image using a largest value among count values for the plurality of regions.
前記濃度変化検知部は、前記繋ぎ目読取画像に含まれる複数の画素から選択された注目画素に対して主走査方向の一方側の領域と他方側の領域夫々について所定の回数以上の画像の濃度の変化を検知することを特徴とする請求項1乃至3いずれか1項に記載の読取画像処理装置。   The density change detection unit has a density of an image that is equal to or greater than a predetermined number of times for each of the one side region and the other side region in the main scanning direction with respect to a target pixel selected from a plurality of pixels included in the joint read image. 4. The read image processing apparatus according to claim 1, wherein a change in the image is detected. 5. 前記濃度変化検知部は、前記繋ぎ目読取画像に含まれる複数の画素から選択された複数の注目画素について、夫々主走査方向の一方側の領域と他方側の領域夫々について所定の回数以上の画像の濃度の変化を検知することを特徴とする請求項4に記載の読取画像処理装置。   The density change detection unit is configured to detect images of a predetermined number of times for each of the one side region and the other side region in the main scanning direction for a plurality of target pixels selected from a plurality of pixels included in the joint read image. The read image processing apparatus according to claim 4, wherein a change in the density is detected. 前記繋ぎ目処理部は、
異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像のうち対応する画素を、所定の回数以上の前記濃度の変化の検知結果に基づいて算出された重み値による重み付けにより合成して前記繋ぎ目画像を生成する合成処理と、異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像の各画素について、前記異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像のいずれか一方を選択して前記繋ぎ目画像を生成する連結処理とを実行可能であり、
前記複数の領域についての解析結果のうち所定の回数以上の画像の濃度の変化が最も頻繁である結果が所定の頻度を超えていた場合には、前記連結処理を選択することを特徴とする請求項1乃至5いずれか1項に記載の読取画像処理装置。
The joint processing unit
Corresponding pixels of the joint read images read by different line image sensors are combined by weighting with a weight value calculated based on the detection result of the density change more than a predetermined number of times, and the joints are combined. Selecting one of the joint reading images read by the different line image sensors for each pixel of the joint reading images read by the different line image sensors; A connection process for generating the joint image can be executed;
The connection processing is selected when a result of the most frequent change in image density more than a predetermined number of times among analysis results for the plurality of regions exceeds a predetermined frequency. Item 6. The read image processing apparatus according to any one of Items 1 to 5.
請求項1乃至6いずれか1項に記載の読取画像処理装置を含むことを特徴とする画像読取装置。   An image reading apparatus comprising the read image processing apparatus according to claim 1. 請求項7に記載の画像読取装置を含むことを特徴とする画像形成装置。   An image forming apparatus comprising the image reading apparatus according to claim 7. 複数のラインイメージセンサにおいて各画素に対応する読取素子の並び方向の端部同士が、前記読取素子の並び方向と直交する方向に重複するように配置されて構成された読取部によって読み取られた読取画像を処理する読取画像処理方法であって、
前記夫々のラインイメージセンサに含まれる読取素子のうち前記直交する方向に重複している範囲の読取素子によって読み取られた読取画像である繋ぎ目読取画像における、所定の回数以上の画像の濃度の変化を、前記繋ぎ目読取画像に含まれる複数の領域について夫々検知し、
異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像を、前記繋ぎ目読取画像における所定の回数以上の濃度の変化の検知結果に応じた態様で合成することにより、前記ラインイメージセンサが副走査方向に重複している部分の画像である繋ぎ目画像を生成し、
前記夫々のラインイメージセンサによって読み取られた読取画像及び生成された前記繋ぎ目画像に基づいて1ライン分の読取画像を生成することを特徴とする読取画像処理方法。
Reading performed by a reading unit configured such that end portions of reading elements corresponding to each pixel in a plurality of line image sensors overlap in a direction orthogonal to the reading element arrangement direction. A read image processing method for processing an image, comprising:
Changes in image density over a predetermined number of times in a joint read image which is a read image read by a reading element in a range overlapping in the orthogonal direction among the reading elements included in each of the line image sensors. For each of a plurality of regions included in the joint read image,
The line image sensor performs sub-scanning by synthesizing the joint read images read by different line image sensors in a manner corresponding to the detection result of the density change more than a predetermined number of times in the joint read image. Generate a seam image that is an image of the overlapping part in the direction,
A read image processing method, wherein a read image for one line is generated based on a read image read by each of the line image sensors and the generated joint image.
複数のラインイメージセンサにおいて各画素に対応する読取素子の並び方向の端部同士が、前記読取素子の並び方向と直交する方向に重複するように配置されて構成された読取部によって読み取られた読取画像を処理する読取画像処理プログラムであって、
前記夫々のラインイメージセンサに含まれる読取素子のうち前記直交する方向に重複している範囲の読取素子によって読み取られた読取画像である繋ぎ目読取画像における、所定の回数以上の画像の濃度の変化を、前記繋ぎ目読取画像に含まれる複数の領域について夫々検知するステップと、
異なるラインイメージセンサによって夫々読み取られた前記繋ぎ目読取画像を、前記繋ぎ目読取画像における所定の回数以上の濃度の変化の検知結果に応じた態様で合成することにより、前記ラインイメージセンサが副走査方向に重複している部分の画像である繋ぎ目画像を生成するステップと、
前記夫々のラインイメージセンサによって読み取られた読取画像及び生成された前記繋ぎ目画像に基づいて1ライン分の読取画像を生成するステップとを情報処理装置に実行させることを特徴とする読取画像処理プログラム。
Reading performed by a reading unit configured such that end portions of reading elements corresponding to each pixel in a plurality of line image sensors overlap in a direction orthogonal to the reading element arrangement direction. A read image processing program for processing an image,
Changes in image density over a predetermined number of times in a joint read image which is a read image read by a reading element in a range overlapping in the orthogonal direction among the reading elements included in each of the line image sensors. Detecting each of a plurality of regions included in the joint read image;
The line image sensor performs sub-scanning by synthesizing the joint read images read by different line image sensors in a manner corresponding to the detection result of the density change more than a predetermined number of times in the joint read image. Generating a seam image that is an image of a portion overlapping in the direction;
A read image processing program causing an information processing apparatus to execute a step of generating a read image for one line based on the read image read by each of the line image sensors and the generated joint image. .
JP2015220553A 2014-12-15 2015-11-10 Read image processing apparatus, image reading device, image forming apparatus, read image processing method, and read image processing program Pending JP2016116212A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/967,854 US9609165B2 (en) 2014-12-15 2015-12-14 Processing image read by overlapping adjacent line sensors by detecting frequency of density variations in seam-read image and synthesizing seam-read images based on detection result to form seam image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014253332 2014-12-15
JP2014253332 2014-12-15

Publications (1)

Publication Number Publication Date
JP2016116212A true JP2016116212A (en) 2016-06-23

Family

ID=56142497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015220553A Pending JP2016116212A (en) 2014-12-15 2015-11-10 Read image processing apparatus, image reading device, image forming apparatus, read image processing method, and read image processing program

Country Status (1)

Country Link
JP (1) JP2016116212A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336440A (en) * 2006-06-19 2007-12-27 Ricoh Co Ltd Joint image data correction method, image reading apparatus, and image forming apparatus
JP2014179910A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Image reading device, image formation device, image processing program, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336440A (en) * 2006-06-19 2007-12-27 Ricoh Co Ltd Joint image data correction method, image reading apparatus, and image forming apparatus
JP2014179910A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Image reading device, image formation device, image processing program, and image processing method

Similar Documents

Publication Publication Date Title
US8570589B2 (en) Image forming apparatus, image forming method, and computer program product for processing an image based on the type and characteristics of the recording medium
JP2013257506A (en) Image processing device, image processing method, and computer program
JP4820435B2 (en) Image forming apparatus and image forming system
KR102055293B1 (en) Apparatus, method, and storage medium storing program
US8451498B2 (en) Image processing device, image processing method, tone-correction-parameter generation sheet, and storage medium
JP2007116272A (en) Image processing apparatus
JP2016009941A (en) Image processing apparatus and image processing method
JP6343956B2 (en) Read image processing apparatus, image reading apparatus, image forming apparatus, read image processing program, and read image processing method
US10387998B2 (en) Electronic apparatus and non-transitory computer readable medium storing program
US9609165B2 (en) Processing image read by overlapping adjacent line sensors by detecting frequency of density variations in seam-read image and synthesizing seam-read images based on detection result to form seam image
US8098407B2 (en) Image forming apparatus and correction of position shift of a scan line in a sub-scan direction
JP2009018476A (en) Line printer, halftone processing method, program and dither mask
JP5884362B2 (en) Image processing method, image reading apparatus, and image processing program
JP2009272891A (en) Image reader, image forming apparatus, image reading method, and image formation method
JP2016116212A (en) Read image processing apparatus, image reading device, image forming apparatus, read image processing method, and read image processing program
US20110158663A1 (en) Printing apparatus, printing method, printing system, and program for implementing the printing method
JP2007258804A (en) Image processing unit
JP6394079B2 (en) Read image processing apparatus, image reading apparatus, image forming apparatus, read image processing program, and read image processing method
US20120050822A1 (en) Image scanning device, image formation device and image scanning method
US9762770B2 (en) Image processing apparatus having dynamically reconfigurable circuits to perform image processing, control method thereof, and storage medium storing computer program therefor
JP7361513B2 (en) Image forming apparatus, its control method, and program
JP2016139870A (en) Read image processing apparatus, image reading device, image forming apparatus, read image processing program, and read image processing method
JP4753253B2 (en) Image processing device
JP2019080169A (en) Image processing device and image processing method
JP2012129924A (en) Image forming apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191021

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201201