JP5322885B2 - Image combination apparatus and image combination position calculation method - Google Patents

Image combination apparatus and image combination position calculation method Download PDF

Info

Publication number
JP5322885B2
JP5322885B2 JP2009243624A JP2009243624A JP5322885B2 JP 5322885 B2 JP5322885 B2 JP 5322885B2 JP 2009243624 A JP2009243624 A JP 2009243624A JP 2009243624 A JP2009243624 A JP 2009243624A JP 5322885 B2 JP5322885 B2 JP 5322885B2
Authority
JP
Japan
Prior art keywords
image
specifying
line
combined
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009243624A
Other languages
Japanese (ja)
Other versions
JP2011091638A (en
Inventor
淳子 牧田
徹也 久野
剛一 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009243624A priority Critical patent/JP5322885B2/en
Publication of JP2011091638A publication Critical patent/JP2011091638A/en
Application granted granted Critical
Publication of JP5322885B2 publication Critical patent/JP5322885B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image combining device for combining a plurality of images at a higher speed with higher accuracy. <P>SOLUTION: The image combining device 106 includes a unit 165 for setting a matching area for correlation detection, a unit 166 for setting an area to be matched for correlation detection, a correlation calculation unit 167, a combining position specifying unit 168, and a combining position estimating unit 169. The setting unit 165 sets up a matching area composed of a plurality of first images in a first image group. The setting unit 166 sets up a plurality of areas to be matched of different sizes in a second image group, the areas to be matched including an area to be matched in which the size of an image is the same as that of an image in the matching area. The correlation calculation unit 167 calculates a value which specifies correlation between the matching area and each of the plurality of areas to be matched. The combining position specifying unit 168 selects an area to be matched having the highest correlation with the matching area, and specifies a position in the sub-scanning direction of an image included in the area to be matched for combining the first image included in the matching area, as a combining position. The combining position estimating unit 169 estimates the image combining position where specification of the combining position is suspended. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、主走査方向において取得された複数の画像を結合する技術に関する。   The present invention relates to a technique for combining a plurality of images acquired in a main scanning direction.

一般に、ディジタル複写機、イメージスキャナ、及び、ファクシミリ装置等に適用される画像入出力システムでは、その入力手段、例えば、一次元撮像素子(ラインセンサ)を原稿の読み取り方向に移動させるか、又は、読み取られる原稿をラインセンサに対して移動させて、1ラインごとに画像を読み取ることが良く知られている。また、ラインセンサに平行な方向を主走査方向、ラインセンサに対して垂直な方向(原稿又はラインセンサの移動方向)を副走査方向と呼ぶ。   Generally, in an image input / output system applied to a digital copying machine, an image scanner, a facsimile machine, etc., its input means, for example, a one-dimensional image sensor (line sensor) is moved in the reading direction of the document, or It is well known to read an image line by line by moving a document to be read with respect to a line sensor. A direction parallel to the line sensor is called a main scanning direction, and a direction perpendicular to the line sensor (moving direction of the document or the line sensor) is called a sub-scanning direction.

このような画像入出力システムでラインセンサとして用いられるCCDセンサ又はCMOSセンサは、半導体集積技術における製造上の問題から通常6インチ又は8インチウェハで生産されるため、A3サイズ以上の原稿を読み取ることができる長尺のラインセンサを製造することは困難である。   A CCD sensor or a CMOS sensor used as a line sensor in such an image input / output system is usually produced on a 6-inch or 8-inch wafer due to manufacturing problems in the semiconductor integrated technology, and therefore reads an A3 size or larger document. It is difficult to manufacture a long line sensor that can

そのため、従来は、必要とする長さより短い短尺のラインセンサを複数、ライン上に配置したものを、一つの長尺ラインセンサとして用い、原稿の1ライン分をそれぞれ短尺のラインセンサで分割して読み取るとともに、複数のラインセンサで読み取られた画像間において欠落する箇所には画素補間処理を行うことで、欠落する箇所の画像を補っていた。   For this reason, conventionally, a plurality of short line sensors shorter than the required length are arranged on the line as one long line sensor, and one line of the original is divided by each short line sensor. In addition to reading, a pixel interpolation process is performed on a missing portion between images read by a plurality of line sensors to compensate for the missing portion image.

しかしながら、このような画素補間処理では欠落した箇所の画像として十分な精度の画像を得ることができない。そのため、特許文献1では、読み取り時に原稿内の画像データが欠落しないように、複数の短尺のラインセンサを千鳥状に配置し、原稿の1ラインの領域の画像情報を異なった時間で各々の分割領域として読み取るとともに、各分割領域の境界付近の画像データを数画素分重複して読み取り、隣接する2つの短尺のラインセンサで読み取る画像の端部が主走査方向に数画素分重なるように構成した入力手段に関する技術が開示されている。そして、特許文献1に記載の技術では、千鳥状に配置された短尺のラインセンサに副走査方向のギャップがあるため、このようなギャップにより短尺のラインセンサで読み取られる画像には空間的なズレが生ずる。このため、特許文献1に記載の技術では、各々の短尺のラインセンサで読み取られた画像を結合する際に、固定のズレ量(ギャップ)Δxを予め定めておき、メモリを用いた遅延によりそのズレ量Δxを補正して結合を行う。   However, with such pixel interpolation processing, an image with sufficient accuracy cannot be obtained as an image of a missing portion. For this reason, in Patent Document 1, a plurality of short line sensors are arranged in a staggered manner so that image data in the document is not lost during reading, and the image information of one line area of the document is divided at different times. In addition to reading as a region, the image data near the boundary of each divided region is read by overlapping several pixels, and the edge of the image read by two adjacent short line sensors is overlapped by several pixels in the main scanning direction Techniques relating to input means are disclosed. In the technique described in Patent Document 1, since a short line sensor arranged in a staggered pattern has a gap in the sub-scanning direction, an image read by the short line sensor due to such a gap is spatially shifted. Will occur. For this reason, in the technique described in Patent Document 1, when images read by the respective short line sensors are combined, a fixed shift amount (gap) Δx is determined in advance, and this is caused by a delay using a memory. The correction is performed by correcting the shift amount Δx.

特許文献2には、複数の画像を合成して1枚の画像を生成する技術が開示されている。例えば、特許文献2に記載された技術では、相互の歪み/伸縮検出部により、画像相互の歪みやズレを検出し、この検出結果に基づいて画像補正部によって画像を補正し、画像合成部によって複数の画像を結合する。   Patent Document 2 discloses a technique for generating a single image by combining a plurality of images. For example, in the technique described in Patent Document 2, the mutual distortion / extension detection unit detects mutual distortion and misalignment of the images, and the image correction unit corrects the image based on the detection result, and the image synthesis unit Combine multiple images.

特許第2982032号公報(図8、図12、段落0038)Japanese Patent No. 2982032 (FIGS. 8, 12, paragraph 0038) 国際公開第2004/077356号パンフレット(図17、要約)International Publication No. 2004/077356 Pamphlet (Figure 17, Summary)

特許文献1に記載の技術では、装置の構造上の問題等により、原稿の読み取り中にズレ量が増減したり、短尺のラインセンサで読み取られる画像のズレ量が最初に定めたズレ量Δxと異なる値に変化したりすると、そのズレ量の変化分だけ画像結合後の画質に影響を与える。   In the technique described in Patent Document 1, the amount of deviation increases or decreases during document reading due to structural problems of the apparatus, or the amount of deviation of an image read by a short line sensor is determined to be an initial amount of deviation Δx. If the value is changed to a different value, the image quality after image combination is affected by the change in the amount of deviation.

特許文献2に記載の技術では、画像のズレが原稿の読み取り位置により異なる場合でも画像を補正し適切に結合できるが、例えば、薄いグラディエーションや白無地など、ズレや歪み検出位置の目安となるエッジなどの特徴的な画像が存在しない部分においては、その前後にある特徴的な画像部分で検出したズレ量や歪み量に基づいて補完方法を決めるため、結合位置検出に用いる領域すべての読み取りと特徴的な画像が存在する位置での画像相互の歪みやズレの検出をあらかじめ完了しておかないと画像接合処理に移れない。また、A4サイズやA3サイズの原稿の幅に相当する数のラインセンサを一列に並べて同時に走査する装置においては、膨大な処理時間が必要になる。   In the technique described in Patent Document 2, images can be corrected and appropriately combined even when the image misalignment varies depending on the reading position of the document. However, for example, it is a measure of misalignment or distortion detection position such as thin gradient or white plain color. In areas where there is no characteristic image such as an edge, the interpolation method is determined based on the amount of displacement and distortion detected in the characteristic image parts before and after that. If the detection of distortion and misalignment between images at a position where a characteristic image exists is not completed in advance, the image joining process cannot be started. In addition, an enormous amount of processing time is required in an apparatus that simultaneously scans a number of line sensors corresponding to the width of an A4 size or A3 size document in a line.

そこで、本発明は、画像信号処理によって複数の画像の結合を高速かつ高精度に行うことを目的とする。   Therefore, an object of the present invention is to combine a plurality of images with high speed and high accuracy by image signal processing.

以上の課題を解決するため、本発明は、第1の画像を取得する第1の撮像手段と、主走査方向において、前記第1の画像の次に隣接する第2の画像を取得する第2の撮像手段と、副走査方向に並ぶ複数の走査ラインにおいて、前記第1の撮像手段で撮像された前記第1の画像を複数有する第1の画像群、及び、前記第2の撮像手段で撮像された前記第2の画像を複数有する第2の画像群、を記憶する記憶手段と、前記第1の画像群に含まれる前記第1の画像と、前記第2の画像群に含まれる画像と、を結合する結合位置を算出し、結合する制御手段と、を有し、前記制御手段は、前記第1の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭位置の前記第1の画像から連続する複数の走査ラインで取得された複数の前記第1の画像からなるマッチング領域を設定する相関検出用領域設定手段と、前記第2の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭ラインから、前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、互いにサイズの異なる複数の被マッチング領域を設定する被相関検出用領域設定手段と、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する相関算出手段と、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示す場合には、前記マッチング領域と最も相関度の高い前記被マッチング領域を選択し、前記マッチング領域に含まれる前記第1の画像を結合する、前記被マッチング領域に含まれる画像の副走査方向における位置を、前記結合位置として特定し、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示さない場合には、前記マッチング領域に含まれる前記第1の画像の前記結合位置を特定する処理を保留する結合位置特定手段と、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像を結合する、前記第2の画像群に含まれる画像の副走査方向における位置を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像とは異なる他の前記第1の画像の前記結合位置から、前記結合位置として算出する結合位置推定手段と、を備えることを特徴とする。   In order to solve the above-described problems, the present invention provides a first imaging unit that acquires a first image and a second image that acquires a second image adjacent to the first image in the main scanning direction. The first image group having a plurality of the first images picked up by the first image pickup means and the second image pickup means in a plurality of scanning lines arranged in the sub-scanning direction Storage means for storing the second image group having a plurality of the second images, the first image included in the first image group, and the image included in the second image group , And a control unit for combining, wherein the control unit includes the first position of the head position on the scanning line in which the combination position is not calculated in the first image group. A plurality of images acquired from a plurality of continuous scanning lines from one image. Correlation detection area setting means for setting a matching area consisting of the first image, and a size of the matching area from the first line in the scanning line in which the combined position is not calculated in the second image group Correlated detection area setting means for setting a plurality of matching areas having different sizes including a matching area that results in an image of the same size, the matching area, and each of the plurality of matching areas, Correlation calculating means for calculating a value for specifying the correlation degree, and when the correlation degree specified by the value for specifying the correlation degree indicates a correlation higher than a predetermined correlation degree, The matching region is selected by selecting the matching region having the highest degree of correlation and combining the first images included in the matching region. When the position in the sub-scanning direction of the included image is specified as the combination position, and the degree of correlation specified by the value specifying the degree of correlation does not indicate a correlation higher than a predetermined degree of correlation, A combination position specifying unit for deferring the process of specifying the combination position of the first image included in the matching area; and the first image for which the combination position specifying unit has deferred the process of specifying the combination position. The position of the image included in the second image group to be combined in the sub-scanning direction is different from the first image in which the combination position specifying unit has suspended the process of specifying the combination position. And a combined position estimating means for calculating the combined position from the combined position of the image.

以上のように、本発明によれば、複数の画像の結合を高速かつ高精度に行う画像合成装置を提供することができる。   As described above, according to the present invention, it is possible to provide an image composition device that combines a plurality of images with high speed and high accuracy.

実施の形態1に係る画像読取装置の概略図。1 is a schematic diagram of an image reading apparatus according to Embodiment 1. FIG. 実施の形態1において、複数に分割された画像を一枚の画像に結合する例を示す概略図。FIG. 3 is a schematic diagram illustrating an example of combining a plurality of divided images into one image in the first embodiment. 実施の形態1において、結合する画像位置が副走査方向にずれた画像が得られた際に、複数に分割された画像を一枚の画像に結合する例を示す概略図。FIG. 3 is a schematic diagram illustrating an example of combining a plurality of divided images into one image when an image in which the image position to be combined is shifted in the sub-scanning direction is obtained in the first embodiment. 実施の形態1において、副走査方向に画像のズレが生じる原理を説明する概略図。FIG. 3 is a schematic diagram for explaining the principle of image misalignment in the sub-scanning direction in the first embodiment. 実施の形態1の画像結合装置の機能構成を示す機能ブロック図。FIG. 3 is a functional block diagram illustrating a functional configuration of the image combining device according to the first embodiment. 実施の形態1の結合位置情報テーブルの概略図。FIG. 3 is a schematic diagram of a combined position information table according to the first embodiment. 実施の形態1において、N画像群に対して設定するマッチング領域の一例を示す概略図。FIG. 3 is a schematic diagram illustrating an example of a matching region set for an N image group in the first embodiment. 実施の形態1において、画像群に対して設定する被マッチング領域の一例を示す概略図。FIG. 3 is a schematic diagram illustrating an example of a matching area set for an image group in the first embodiment. (a)及び(b)は、実施の形態1において、マッチング領域と同じ大きさの被マッチング領域に、注目ラインを結合する画像位置を特定する際の処理を説明する概略図。(A) And (b) is the schematic explaining the process at the time of specifying the image position which combines an attention line with the to-be-matched area | region of the same magnitude | size as a matching area | region in Embodiment 1. FIG. (a)〜(c)は、実施の形態1において、マッチング領域よりも大きさの小さい被マッチング領域に、注目ラインを結合する画像位置を特定する際の処理を説明する概略図。(A)-(c) is the schematic explaining the process at the time of specifying the image position which couple | bonds an attention line to the to-be-matched area | region smaller than a matching area | region in Embodiment 1. FIG. (a)〜(c)は、実施の形態1において、マッチング領域よりも大きさの大きい被マッチング領域に、注目ラインを結合する画像位置を特定する際の処理を説明する概略図。(A)-(c) is the schematic explaining the process at the time of specifying the image position which couple | bonds an attention line to the to-be-matched area | region larger than a matching area | region in Embodiment 1. FIG. (a)及び(b)は、実施の形態1において、保留ラインを有するマッチング領域と同じ大きさの被マッチング領域に、保留ライン及び注目ラインを結合する画像位置を特定する際の処理を説明する概略図。(A) And (b) demonstrates the process at the time of specifying the image position which couple | bonds a reservation line and an attention line with the matching area | region of the same magnitude | size as the matching area | region which has a reservation line in Embodiment 1. FIG. Schematic. (a)〜(c)は、実施の形態1において、保留ラインを含むマッチング領域よりも大きさの小さい被マッチング領域に、保留ライン及び注目ラインを結合する画像位置を特定する際の処理を説明する概略図。(A)-(c) demonstrates the process at the time of specifying the image position which couple | bonds a reservation line and an attention line to the to-be-matched area | region smaller in size than the matching area | region containing a reservation line in Embodiment 1. FIG. Schematic to do. (a)〜(c)は、実施の形態1において、保留ラインSlを含むマッチング領域Erよりも大きさの大きい被マッチング領域に、各々の保留ライン及び注目ラインを結合する画像位置を特定する際の処理を説明する概略図。(A)-(c) is a case where, in the first embodiment, an image position where each reserved line and target line are combined with a matching area larger than the matching area Er including the reserved line S1 is specified. Schematic explaining the process. 実施の形態1における画像処理を示すフローチャート(その1)。6 is a flowchart (part 1) illustrating image processing according to the first embodiment. 実施の形態1における画像処理を示すフローチャート(その2)。7 is a flowchart (part 2) illustrating image processing according to the first embodiment. 実施の形態1において、結合位置を算出する際の結合位置情報テーブルの一例を示す概略図。FIG. 3 is a schematic diagram illustrating an example of a combined position information table when calculating a combined position in the first embodiment. 実施の形態1におけるズレ量テーブルの概略図。FIG. 3 is a schematic diagram of a deviation amount table in the first embodiment. 実施の形態1におけるズレ量変化テーブルの概略図。FIG. 3 is a schematic diagram of a deviation amount change table in the first embodiment. 実施の形態1におけるズレ量変化テーブルの概略図。FIG. 3 is a schematic diagram of a deviation amount change table in the first embodiment. 実施の形態1におけるズレ量テーブルの概略図。FIG. 3 is a schematic diagram of a deviation amount table in the first embodiment. 実施の形態1の変形例における結像光学系要素と主要光路を示した概略斜視図。FIG. 6 is a schematic perspective view showing imaging optical system elements and main optical paths in a modification of the first embodiment. 実施の形態1の変形例に並ぶ2つのセルの結像光学系要素と主要光路を示した概略断面図。FIG. 6 is a schematic cross-sectional view showing imaging optical system elements and main optical paths of two cells arranged in a modification of the first embodiment.

実施の形態1.
図1は本発明の実施の形態1に係る画像読取装置100の概略図である。図示するように、画像読取装置100は、結像光学系101と、照明光源102と、天板103と、基板104上に配置された複数の撮像素子部141,142,143,144,145,146,147,148と、ラインメモリ105と、画像結合装置106と、を有する。
Embodiment 1 FIG.
FIG. 1 is a schematic diagram of an image reading apparatus 100 according to Embodiment 1 of the present invention. As illustrated, the image reading apparatus 100 includes an imaging optical system 101, an illumination light source 102, a top plate 103, and a plurality of image sensor elements 141, 142, 143, 144, 145, which are arranged on a substrate 104. 146, 147, 148, a line memory 105, and an image combining device 106.

なお、図1は本実施の形態の画像結合装置106をディジタル複写機に適用した場合の例であり、複数の画像を結合することが必要な装置、例えば、ハンドスキャナ、ファクシミリ、パノラマ画像合成装置などにも適用できる。   FIG. 1 shows an example in which the image combining device 106 of the present embodiment is applied to a digital copying machine. For example, a device that needs to combine a plurality of images, for example, a hand scanner, a facsimile, a panoramic image composition device. It can also be applied.

以下においては、XYZ直交座標系を用いて説明を行う。画像の読み取りにおける主走査方向DxをX軸とし、主走査方向Dxに直交する副走査方向DyをY軸とし、主走査方向Dx及び副走査方向Dyの両方に直交する深度方向DzをZ軸とする。したがって、主走査方向Dxは「X軸方向」とも言い、副走査方向Dyは「Y軸方向」とも言い、深度方向Dzは「Z軸方向」とも言う。また、以下の説明において、Z軸方向は、画像読取装置100の厚み方向である。   In the following description, an XYZ orthogonal coordinate system is used. In the image reading, the main scanning direction Dx is the X axis, the sub scanning direction Dy orthogonal to the main scanning direction Dx is the Y axis, and the depth direction Dz orthogonal to both the main scanning direction Dx and the sub scanning direction Dy is the Z axis. To do. Accordingly, the main scanning direction Dx is also referred to as “X-axis direction”, the sub-scanning direction Dy is also referred to as “Y-axis direction”, and the depth direction Dz is also referred to as “Z-axis direction”. In the following description, the Z-axis direction is the thickness direction of the image reading apparatus 100.

結像光学系101は、後述するように基板104上に千鳥状に配列された複数の短尺のラインセンサ141,142,・・・,148に対応する複数の結像光学部111,112,・・・,118を含む。   The imaging optical system 101 includes a plurality of imaging optical units 111, 112,... Corresponding to a plurality of short line sensors 141, 142,. .., 118 included.

結像光学部111,112,・・・,118のそれぞれは、機能的に独立した光学手段である。複数の結像光学部111,112,・・・,118は、XY面に平行な面上で千鳥状(隣接する結像光学部が、X軸方向に所定の間隔離れた第1の位置と、X軸方向及びY軸方向に所定の間隔離れた第2の位置と、に並べられた状態)に配置されている円柱状の光学セルによって構成される(通常セルフォックレンズアレイと称されるものである)。   Each of the imaging optical units 111, 112,..., 118 is a functionally independent optical means. The plurality of imaging optical units 111, 112,..., 118 are staggered on a plane parallel to the XY plane (adjacent imaging optical units are spaced apart from each other at a predetermined position in the X-axis direction). , Composed of cylindrical optical cells arranged in a second position spaced apart by a predetermined distance in the X-axis direction and the Y-axis direction (usually referred to as a Selfoc lens array). ).

ここで、実施の形態1においては、複数の結像光学部111,112,・・・,118のうちの、主走査方向Dxに並ぶ1列の結像光学部111,113,115,117を、第1の結像光学部群といい、主走査方向Dxに並ぶ1列の結像光学部112,114,116,118を、第2の結像光学部群という。このように、複数のセルによって結像光学系を構成しているので装置を小型化することができる。   Here, in the first embodiment, among the plurality of imaging optical units 111, 112,..., 118, one row of imaging optical units 111, 113, 115, 117 arranged in the main scanning direction Dx is provided. The first imaging optical unit group, and one row of the imaging optical units 112, 114, 116, and 118 arranged in the main scanning direction Dx are referred to as a second imaging optical unit group. Thus, since the imaging optical system is composed of a plurality of cells, the apparatus can be miniaturized.

第1の結像光学部群111,113,115,117は、原稿の被撮像領域31,33,35,37から第1の結像光学部群111,113,115,117に向かう第1の光の主光線が互いに平行になるように構成されている。すなわち、第1の結像光学部群111,113,115,117は、結像光学部の光軸が互いに平行になるように構成されている。また、第2の結像光学部群112,114,116,118は、原稿の被撮像領域32,34,36,38から第2の結像光学部群112,114,116,118に向かう第2の光の主光線が互いに平行になるように構成されている。すなわち、第2の結像光学部群112,114,116,118は、結像光学部の光軸が互いに平行になるように構成されている。   The first imaging optical unit groups 111, 113, 115, 117 are the first imaging optical unit groups 111, 113, 115, 117 from the imaged areas 31, 33, 35, 37 of the document toward the first imaging optical unit groups 111, 113, 115, 117. The principal rays of light are configured to be parallel to each other. That is, the first imaging optical unit groups 111, 113, 115, and 117 are configured such that the optical axes of the imaging optical units are parallel to each other. The second imaging optical unit groups 112, 114, 116, and 118 are the first imaging optical unit groups 112, 114, 116, and 118 that are directed from the imaged regions 32, 34, 36, and 38 of the document toward the second imaging optical unit group 112, 114, 116, and 118. The principal rays of the two lights are configured to be parallel to each other. That is, the second imaging optical unit group 112, 114, 116, 118 is configured such that the optical axes of the imaging optical unit are parallel to each other.

なお、図1には、結像光学系101が、第1の結像光学部群111,113,115,117と第2の結像光学部群112,114,116,118からなる場合を説明したが、本発明はこのような態様に限定されず、副走査方向Dyに結合光学部群が3列以上配置されるようにすることもできる。   FIG. 1 illustrates a case where the imaging optical system 101 includes a first imaging optical unit group 111, 113, 115, 117 and a second imaging optical unit group 112, 114, 116, 118. However, the present invention is not limited to such an embodiment, and three or more coupling optical unit groups may be arranged in the sub-scanning direction Dy.

基板104には、短尺のラインセンサ141,142,・・・,148が、結像光学部111,112,・・・,118に対応するように千鳥状に形成される。主走査方向Dxに並ぶ1列の短尺のラインセンサ141,143,145,147は、第1の結像光学部群111,113,115,117に対応するように配置され、これらの1列の短尺のラインセンサ141,143,145,147を第1の撮像素子部群という。また、主走査方向Dxに並ぶ1列の短尺のラインセンサ142,144,146,148は、第2の結像光学部群112,114,116,118に対応するように配置され、これらの1列の短尺のラインセンサ142,144,146,148を第2の撮像素子部群という。   On the substrate 104, short line sensors 141, 142,..., 148 are formed in a staggered pattern so as to correspond to the imaging optical units 111, 112,. A row of short line sensors 141, 143, 145, and 147 arranged in the main scanning direction Dx are arranged so as to correspond to the first imaging optical unit groups 111, 113, 115, and 117, and these one row of the line sensors 141, 143, 145, and 147 are arranged. The short line sensors 141, 143, 145, and 147 are referred to as a first image sensor unit group. In addition, one row of short line sensors 142, 144, 146, 148 arranged in the main scanning direction Dx is arranged so as to correspond to the second imaging optical unit group 112, 114, 116, 118. The short line sensors 142, 144, 146, and 148 in the row are referred to as a second image sensor unit group.

なお、図1には、基板104に、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、が形成される場合を説明したが、このような態様に限定されず、基板104の副走査方向Dyに、撮像素子部群が3列以上配置されるようにすることもできる。   FIG. 1 illustrates a case where the first image sensor unit groups 141, 143, 145, and 147 and the second image sensor unit groups 142, 144, 146, and 148 are formed on the substrate 104. However, the present invention is not limited to such an embodiment, and three or more rows of imaging element units can be arranged in the sub-scanning direction Dy of the substrate 104.

照明光源102は、例えば、蛍光灯又はLEDなどから構成される。照明光源102は、例えば、天板103の下方であって原稿の被撮像領域31,32,33,34,35,36,37,38の読み取りに支障が生じない位置に配置される。照明光源102は、原稿の被撮像領域31,32,・・・,38に光を照射する。なお、照明光源102の形状は、図1に示されるような長尺形状に限定されず、他の形状であってもよい。また、図1には、照明光源102が、結像光学系101の副走査方向Dyの一方の側にのみ配置されている場合を示したが、照明光源を結像光学系101の副走査方向Dyの両側に配置してもよい。   The illumination light source 102 is composed of, for example, a fluorescent lamp or an LED. For example, the illumination light source 102 is disposed below the top plate 103 and at a position where there is no trouble in reading the imaged areas 31, 32, 33, 34, 35, 36, 37, and 38 of the document. The illumination light source 102 irradiates the imaged areas 31, 32,. The shape of the illumination light source 102 is not limited to the long shape as shown in FIG. 1, and may be another shape. FIG. 1 shows the case where the illumination light source 102 is disposed only on one side of the imaging optical system 101 in the sub-scanning direction Dy. You may arrange | position on both sides of Dy.

天板103は、被撮像物(被写体)の一例である原稿(図1には図示せず)が載置される原稿載置部材であり、例えば、透明なガラス板で構成することができる。また、天板103は、原稿の深度方向Dzの位置(すなわち、結像光学系101から原稿の被撮像領域までの距離)を決めることができる位置決め部として機能する。天板103には、原稿が、天板103の上面103aの位置又はこの上面103aから深度方向Dzにずれた位置に載置される。実施の形態1においては、天板103の上面103aを合焦位置としており、原稿の読み取り位置に存在する被撮像領域31,32,・・・,38が合焦位置にあるときには、原稿の被撮像領域31,32,・・・,38から結像光学系101を通してラインセンサ141,142,・・・,148に画像を結像する。   The top plate 103 is a document placing member on which a document (not shown in FIG. 1), which is an example of an object to be imaged (subject), is placed, and can be composed of a transparent glass plate, for example. Further, the top plate 103 functions as a positioning unit that can determine the position of the document in the depth direction Dz (that is, the distance from the imaging optical system 101 to the imaged region of the document). The document is placed on the top plate 103 at a position on the top surface 103a of the top plate 103 or a position shifted in the depth direction Dz from the top surface 103a. In the first embodiment, the upper surface 103a of the top plate 103 is the in-focus position, and when the imaged areas 31, 32,..., 38 existing at the original reading position are in the in-focus position, Images are formed on the line sensors 141, 142,..., 148 from the imaging regions 31, 32,.

なお、天板103は、被撮像物の位置決め部として機能し、原稿の被撮像領域31,32,・・・,38を撮像可能にできる構成であれば、ガラス板に限定されず、原稿を位置決めできる他の手段であってもよい。また、被撮像物には、文章、書画、写真などを表示した原稿の他に、紙幣、人間の指などのように、画像を読み取る対象となり得るすべてのものが含まれる。   The top plate 103 is not limited to a glass plate as long as it functions as a positioning unit for an object to be imaged and can image the imaged areas 31, 32,. Other means capable of positioning may be used. In addition to the manuscript on which text, a document, a photograph, and the like are displayed, the object to be imaged includes everything that can be an object to read an image, such as a banknote or a human finger.

図1において、被撮像領域31,32,・・・,38は、原稿の天板103側の面であって、ラインセンサ141,142,・・・,148によって読み取られる領域(視野範囲)であり、主走査方向Dxに並ぶ複数の領域である。ここで、被撮像領域31,32,・・・,38は、主走査方向Dxにおいて各々の領域の一部が重なり合うようにされている。   In FIG. 1, imaged areas 31, 32,..., 38 are surfaces on the top plate 103 side of the document, and are areas (viewing field ranges) read by the line sensors 141, 142,. There are a plurality of regions arranged in the main scanning direction Dx. Here, the imaged areas 31, 32,..., 38 are configured such that a part of each area overlaps in the main scanning direction Dx.

そして、画像読取装置100は、主走査方向Dxに沿って天板103上の原稿の被撮像領域31,32,・・・,38の画像を読み取り、主走査方向Dxの読み取りが完了する毎に、副走査方向Dyに読み取り位置を相対的に移動させる。この副走査方向Dyの読み取り位置の移動は、原稿の移動又は結像光学系101を含む画像読取装置200の移動のいずれかによって行うことができる。   The image reading apparatus 100 reads the images of the imaged areas 31, 32,..., 38 of the document on the top plate 103 along the main scanning direction Dx, and every time reading in the main scanning direction Dx is completed. The reading position is relatively moved in the sub-scanning direction Dy. The reading position in the sub-scanning direction Dy can be moved by either moving the document or moving the image reading apparatus 200 including the imaging optical system 101.

ラインメモリ105は、第1の撮像素子部群141,143,145,147及び第2の撮像素子部群142,144,146,148によって取得された画像情報を一時的に記憶する記憶部であり、主走査方向に読み取っていった披撮像領域31,32,・・・,38を1ラインとして複数のラインを記憶保持する。   The line memory 105 is a storage unit that temporarily stores image information acquired by the first image sensor unit groups 141, 143, 145, and 147 and the second image sensor unit groups 142, 144, 146, and 148. A plurality of lines are stored and held with the imaging areas 31, 32,..., 38 read in the main scanning direction as one line.

画像結合装置106は、ラインメモリ105に記憶された画像情報を結合することによって結合画像を生成する。図1には、ラインメモリ105と画像結合装置106とを別個の構成として示しているが、これらは、例えば、同じ回路基板上の一体的な構成であってもよい。   The image combining device 106 generates a combined image by combining the image information stored in the line memory 105. In FIG. 1, the line memory 105 and the image combining device 106 are shown as separate configurations, but these may be an integrated configuration on the same circuit board, for example.

ここで、本実施の形態のように、短尺のラインセンサ141,142,・・・,148は、被撮影領域31,32,・・・,38を分割して読み取っていくため、ラインセンサ141,142,…,148からは読み取り原稿が分割された複数の画像が出力される。例えば、図2に示すように、原稿が分割された画像が出力され、原稿の複写を行うにはこれら複数に画像を一枚の画像に結合しなければならない。   Here, the short line sensors 141, 142,..., 148 divide the imaged areas 31, 32,. , 142,... 148 output a plurality of images obtained by dividing the read original. For example, as shown in FIG. 2, an image obtained by dividing a document is output, and in order to copy the document, the images must be combined into a single image.

ここで、本実施の形態のように、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、を副走査方向Dyにおいて、所定の間隔を離して配置し、第1の撮像素子部群141,143,145,147の光軸及び第2の撮像素子部群142,144,146,148の光軸が、YZ平面に投影された場合に、合焦位置(本実施の形態においては、天板103の上面103a)において交差するようにした場合には、隣り合う画像の主走査方向Dxの結合位置は一定だが、副走査方向Dyの結合位置は原稿の位置(原稿と天板103の間の距離)に応じて変化する。   Here, as in the present embodiment, the first image sensor unit groups 141, 143, 145, and 147 and the second image sensor unit groups 142, 144, 146, and 148 are arranged in the sub-scanning direction Dy. The optical axes of the first image sensor unit groups 141, 143, 145, and 147 and the optical axes of the second image sensor unit groups 142, 144, 146, and 148 are projected on the YZ plane. In this case, when intersecting at the in-focus position (in this embodiment, the upper surface 103a of the top plate 103), the combined position of the adjacent images in the main scanning direction Dx is constant, but the sub-scanning is performed. The coupling position in the direction Dy changes according to the position of the document (the distance between the document and the top plate 103).

そのため、図3に示すように結合する画像位置が副走査方向Dyにずれた画像が得られるため、隣接する2つの画像を結合するときには重ね合わせの位置を調整したうえで結合する必要がある。なお、一方において、このように画像が副走査方向Dyにずれることにより得られる効果がある。副走査方向Dyにずれている量が分かると、原稿と天板103の間の距離Δzを求めることができる。天板103から原稿面までの距離Δzを画像のぼやけ補正処理のパラメータとして使用することにより、ぼやけ具合に応じた適切な補正が行えるため、画質の改善が期待できる。   Therefore, as shown in FIG. 3, an image in which the image position to be combined is shifted in the sub-scanning direction Dy is obtained. Therefore, when two adjacent images are combined, it is necessary to adjust the overlapping position and combine them. On the other hand, there is an effect obtained by shifting the image in the sub-scanning direction Dy in this way. When the amount of deviation in the sub-scanning direction Dy is known, the distance Δz between the original and the top plate 103 can be obtained. By using the distance Δz from the top plate 103 to the document surface as a parameter for image blur correction processing, appropriate correction according to the degree of blur can be performed, so that improvement in image quality can be expected.

図4を用いて、副走査方向Dyに画像のズレが生じる原理について更に詳しく説明する。図4では、画像読取装置100が左から右に移動しながら、一部において天板103からΔz浮いている原稿70を読み取る場合を例とする。   With reference to FIG. 4, the principle of image misalignment in the sub-scanning direction Dy will be described in more detail. In FIG. 4, as an example, the image reading apparatus 100 reads a document 70 partially floating Δz from the top plate 103 while moving from left to right.

画像読取装置100がP1及びP3の位置にあるときには、天板103の上面103aと原稿70とが接しているため、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、が読み取る画像にずれはない。一方、画像読取装置100がP2の位置にあるときには、天板103の上面103aと原稿70とがΔzの距離離れているため、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、が読み取る画像にはΔyのズレがある。   When the image reading apparatus 100 is at the positions P1 and P3, the upper surface 103a of the top plate 103 and the document 70 are in contact with each other, so that the first imaging element unit groups 141, 143, 145, 147, and the second imaging There is no deviation in the images read by the element group 142, 144, 146, 148. On the other hand, when the image reading apparatus 100 is at the position P2, since the upper surface 103a of the top plate 103 and the original 70 are separated by a distance of Δz, the first image sensor unit groups 141, 143, 145, 147, and the first There is a deviation of Δy in the images read by the two image sensor unit groups 142, 144, 146, and 148.

図4のように合焦位置(合焦面)に対して間隔の開いている原稿70を読み取ると、隣り合う画像のズレ量が原稿70と合焦位置との間の距離Δzに応じて変化する。特許文献1に記載の技術のように、予め固定のズレ量を定め、メモリを用いた遅延によりそのズレを補正しながら画像の結合を行うと、ズレ量(ここでは、原稿70と合焦位置との間の距離)が変化すると画像が滑らかに繋がらない。よって、高精度な画像の結合を行うためには、隣接する2枚の画像が繋がる位置の検出と画像の拡大又は縮小が必要となる。   As shown in FIG. 4, when a document 70 that is spaced apart from the in-focus position (focusing surface) is read, the amount of deviation between adjacent images changes according to the distance Δz between the document 70 and the in-focus position. To do. As in the technique described in Patent Document 1, when a fixed shift amount is determined in advance and images are combined while correcting the shift by a delay using a memory, the shift amount (here, the original 70 and the in-focus position) is obtained. If the distance between them changes, the images will not be smoothly connected. Therefore, in order to combine images with high accuracy, it is necessary to detect a position where two adjacent images are connected and to enlarge or reduce the image.

図5は、画像結合装置106の機能構成を示す機能ブロック図である。図示するように、画像結合装置106は、記憶部161と、制御部163と、を有する。   FIG. 5 is a functional block diagram showing a functional configuration of the image combining device 106. As illustrated, the image combining device 106 includes a storage unit 161 and a control unit 163.

記憶部161は、結合位置情報記憶部162を有する。結合位置情報記憶部162には、各ラインセンサで撮像された各ラインにおける画像を、隣接するラインセンサで撮像された各ラインにおける画像と結合させる位置を特定する結合位置情報が記憶される。例えば、本実施の形態においては、図6に示すような結合位置情報テーブル162aが記憶される。   The storage unit 161 includes a coupling position information storage unit 162. The combined position information storage unit 162 stores combined position information for specifying a position where an image in each line imaged by each line sensor is combined with an image in each line imaged by an adjacent line sensor. For example, in the present embodiment, a combined position information table 162a as shown in FIG. 6 is stored.

図示するように、結合位置情報テーブル162aは、画像群列162bと、ライン位置行162cと、結合位置格納領域162dと、を有する。   As illustrated, the combined position information table 162a includes an image group column 162b, a line position row 162c, and a combined position storage area 162d.

画像群列162bは、各ラインセンサ141,142,・・・,148で読み取られた画像を特定する。例えば、1画像群は、ラインセンサ141で撮像された画像を、2画像群は、ラインセンサ142で撮像された画像を、3画像群は、ラインセンサ143で撮像された画像を、4画像群は、ラインセンサ144で撮像された画像を、5画像群は、ラインセンサ145で撮像された画像を、6画像群は、ラインセンサ146で撮像された画像を、7画像群は、ラインセンサ147で撮像された画像を、示す。   The image group sequence 162b specifies an image read by each of the line sensors 141, 142,. For example, one image group is an image captured by the line sensor 141, two image groups are images captured by the line sensor 142, three image groups are images captured by the line sensor 143, and four image groups. Is an image captured by the line sensor 144, a 5 image group is an image captured by the line sensor 145, a 6 image group is an image captured by the line sensor 146, and a 7 image group is the line sensor 147. The image imaged in is shown.

ライン位置行162cは、画像を読み取る副走査方向Dyにおける走査ラインの位置を特定する。例えば、1ライン目は、副走査方向Dyにおける最初(先頭)の走査ラインを、2ライン目は、副走査方向Dyにおける1ライン目の次の走査ラインを、3ライン目は、副走査方向Dyにおける2ライン目の次の走査ラインを、4ライン目は、副走査方向Dyにおける3ライン目の次の走査ラインを、示す。なお、ライン位置行162cには、画像を読み取る原稿等の対象に応じて定まる走査ラインの数の行が設けられる。また、必要最小限のライン数(本実施の形態の場合、hMAX(後述)+1ライン)の行を設けて使いまわしてもよい。   The line position row 162c specifies the position of the scanning line in the sub-scanning direction Dy for reading an image. For example, the first line is the first (first) scan line in the sub-scanning direction Dy, the second line is the next scan line in the sub-scanning direction Dy, and the third line is the sub-scanning direction Dy. The second scanning line in FIG. 4 shows the next scanning line, and the fourth line shows the third scanning line in the sub-scanning direction Dy. It should be noted that the line position row 162c is provided with the number of scanning lines determined according to a target such as a document from which an image is read. Further, a minimum number of lines (hMAX (described later) + 1 line in the case of this embodiment) may be provided and used.

結合位置格納領域162dには、ライン列行162cで特定される走査ラインにおいて、画像群列162bで特定される、ラインセンサ141,142,・・・,148で読み取られた画像群に含まれる画像を、当該画像と同じ走査ラインの主走査方向Dxにおける次の画像群に含まれる画像に結合させる位置を特定する情報が格納される。なお、結合位置格納領域162dに格納される値は、後述する結合位置特定部168が算出するが、結合位置を特定できない場合には、保留ラインフラグとして空欄にされる。   In the combined position storage area 162d, the image included in the image group read by the line sensors 141, 142,..., 148 specified by the image group column 162b in the scanning line specified by the line column row 162c. Is stored in the main scanning direction Dx of the same scanning line as the image. The information for specifying the position to be combined with the image included in the next image group is stored. The value stored in the combined position storage area 162d is calculated by a combined position specifying unit 168, which will be described later. If the combined position cannot be specified, it is left blank as a reserved line flag.

例えば、本実施の形態においては、結合位置格納領域162dには、ライン列行162cで特定される走査ラインにおいて、画像群列162bで特定される、ラインセンサ141,142,・・・,148で読み取られた画像群に属する画像を、当該画像と同じ走査ラインの主走査方向Dxにおける次の画像群に含まれる画像に結合させた際に、当該画像の、当該次の画像群に含まれる画像における副走査方向Dyの結合到達位置を特定する情報が、結合させる位置を特定する情報として格納される。図6の例では、1画像群列の2ライン目行の欄に格納されている「1.9」の数値は、1画像群に含まれる2ライン目の画像と2画像群に含まれる画像とを結合させた際に、1画像群の画像は、2画像群の画像の2ライン目の画像の副走査方向Dyにおける先頭から副走査方向Dyにおける終端に向かって、0.9の割合の位置(画像2の2ライン目の画像を10等分して、副走査方向Dyの先頭から9つ目までの位置)にまで達することを示している。すなわち、結合位置格納領域162dに格納された数値のうち、整数部分は、走査ラインを示しており、少数部分は、整数部分で示される走査ラインの次の走査ラインで撮像された画像の副走査方向Dyにおける先頭位置から結合する終端までの割合を示している。   For example, in the present embodiment, the combined position storage area 162d includes the line sensors 141, 142,..., 148 specified by the image group column 162b in the scanning line specified by the line column row 162c. When an image belonging to the read image group is combined with an image included in the next image group in the main scanning direction Dx of the same scanning line as the image, the image included in the next image group of the image The information for specifying the combined arrival position in the sub-scanning direction Dy is stored as information for specifying the position to be combined. In the example of FIG. 6, the numerical value “1.9” stored in the column of the second line of the first image group column is the second line image included in the first image group and the image included in the second image group. Are combined at a ratio of 0.9 from the beginning in the sub-scanning direction Dy to the end in the sub-scanning direction Dy of the image of the second line of the images in the second image group. This indicates that the position reaches the position (the position from the top in the sub-scanning direction Dy to the ninth position) by dividing the second line image of the image 2 into 10 equal parts. That is, of the numerical values stored in the combined position storage area 162d, the integer part indicates the scanning line, and the decimal part is the sub-scan of the image captured by the scanning line next to the scanning line indicated by the integer part. The ratio from the head position in the direction Dy to the end of coupling is shown.

図5に戻り、制御部163は、結合位置検出部164と、結合位置推定部169と、画像結合部170と、を有する。   Returning to FIG. 5, the control unit 163 includes a combined position detecting unit 164, a combined position estimating unit 169, and an image combining unit 170.

結合位置検出部164は、ラインセンサ141,142,・・・,148で読み取られた各々の画像を、当該画像と同じ走査ラインの主走査方向Dxにおける次の画像に結合させる位置を検出する。ここで、結合位置検出部164は、相関検出用領域設定部165と、被相関検出用領域設定部166と、相関算出部167と、結合位置特定部168と、を有する。   The combined position detection unit 164 detects a position where each image read by the line sensors 141, 142,..., 148 is combined with the next image in the main scanning direction Dx of the same scanning line as the image. Here, the combined position detection unit 164 includes a correlation detection region setting unit 165, a correlated detection region setting unit 166, a correlation calculation unit 167, and a combined position specifying unit 168.

相関検出用領域設定部165は、各々のラインセンサ141,142,・・・,148により、一つ以上の走査ラインで読み取られた画像を含む画像の集合に対して、マッチング領域を設定する。   The correlation detection area setting unit 165 sets a matching area for a set of images including images read by one or more scanning lines by the line sensors 141, 142,.

ここで、特定のラインセンサにおいて、一つ以上の走査ラインで読み取られた画像の集合をN画像群(Nは、各々の画像群を識別するために各々の画像群に割り振られたインデックスであって、本実施の形態においては、各々の画像群に対して、1から順に自然数が割り振られている)という。例えば、1画像群は、ラインセンサ141において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、2画像群は、ラインセンサ142において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、3画像群は、ラインセンサ143において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、4画像群は、ラインセンサ144において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、5画像群は、ラインセンサ145において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、6画像群は、ラインセンサ146において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、7画像群は、ラインセンサ147において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、8画像群は、ラインセンサ148において、一つ以上の走査ラインで読み取られた画像を含む画像の集合である。   Here, in a specific line sensor, a set of images read by one or more scanning lines is represented by N image groups (N is an index assigned to each image group in order to identify each image group. In the present embodiment, a natural number is assigned in order from 1 to each image group). For example, one image group is a set of images including images read by one or more scanning lines in the line sensor 141, and two image groups are read by one or more scanning lines in the line sensor 142. A group of three images is a set of images including an image read by one or more scanning lines in the line sensor 143. A group of four images is one in the line sensor 144. A set of images including images read by one or more scanning lines. The five image group is a set of images including images read by one or more scanning lines in the line sensor 145. Six image groups Is a set of images including images read by one or more scanning lines in the line sensor 146, and seven image groups are one or more in the line sensor 147. A set image including the image read by the scanning lines of the, 8 images, in the line sensor 148, is a set of images including the image read by one or more scan lines.

図7は、相関検出用領域設定部165がN画像群に対して設定するマッチング領域の一例を示す概略図である。ここで、図7において、上方から下方に向かって複数並べられている同一形状の矩形状のセルはN画像群に含まれる画像を示し、N画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。   FIG. 7 is a schematic diagram illustrating an example of a matching region set by the correlation detection region setting unit 165 for the N image group. Here, in FIG. 7, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate the images included in the N image group, and the order from the top to the bottom of the images included in the N image group. Indicates the order of reading by the line sensor (the order of young scanning lines).

そして、図7に示すように、相関検出用領域設定部165は、N画像群において、後述するような確定ライン又は保留ラインとはされていないラインのうち、先頭ラインを注目ラインAlとし、注目ラインAlと、注目ラインAlに続く予め設定された数nのラインからなる対象ラインOlと、保留ライン(図7では図示せず)と、をマッチング領域Mrとする。ここで、保留ラインとは、そのラインが注目ラインとされたときに隣接する画像との結合位置が検出できず、結合位置の特定が保留されたラインのことを示す。また、確定ラインは、隣接する画像との結合位置が確定されたラインのことを示す。   Then, as shown in FIG. 7, the correlation detection area setting unit 165 sets the first line as the attention line Al among the lines that are not determined lines or reserved lines as will be described later in the N image group. A line Al, a target line Ol including a predetermined number n of lines following the target line Al, and a reserved line (not shown in FIG. 7) are set as a matching region Mr. Here, the reserved line indicates a line for which specification of the combined position is suspended because the combined position with the adjacent image cannot be detected when the line is set as the target line. Further, the fixed line indicates a line in which the coupling position with the adjacent image is fixed.

また、相関検出用領域設定部165は、注目ラインAlと、注目ラインAlの一つ下のラインと、からなる2ラインをエッジ検出領域Erとする。また、Epは、エッジ検出位置を示す。   Further, the correlation detection area setting unit 165 sets two lines including the attention line Al and a line immediately below the attention line Al as the edge detection area Er. Ep indicates the edge detection position.

図7に示す例では、対象ラインOlを5ラインとしているが、対象ラインOlの数はこれに限定されるものではない。また、エッジ検出領域Erのラインの数も2ラインに限るものではない。   In the example illustrated in FIG. 7, the target lines Ol are five lines, but the number of target lines Ol is not limited to this. Further, the number of lines in the edge detection area Er is not limited to two.

図5に戻り、被相関検出用領域設定部166は、相関検出用領域設定部165がマッチング領域を設定した画像群に含まれる画像に対して、主走査方向Dxにおいて次に撮像される画像を含む画像群に対して複数の被マッチング領域を設定する。   Returning to FIG. 5, the correlated detection region setting unit 166 selects the next image captured in the main scanning direction Dx with respect to the image included in the image group in which the correlation detection region setting unit 165 has set the matching region. A plurality of matching areas are set for the included image group.

例えば、被相関検出用領域設定部166は、後述するような被結合ラインとはされていない画像領域のうち、先頭ラインに含まれる画像領域から、マッチング領域と同じ大きさ(同じライン数)の領域を基準とし、さらに、領域の開始位置を固定した状態で領域の終了位置を−mラインから+mラインのサイズまで変化させた、大きさの異なる複数の領域を被マッチング領域として設定する。なお、mは被マッチング領域生成係数であって、予め任意の自然数が設定されているものとする。また、領域の終了位置を−mラインから+mラインのサイズまで変化させるさいの差分値についても予め設定されているものとする。ここで、被結合ラインとは、マッチング領域に含まれる注目ラインAl(確定ライン)と結合することが確定した被マッチング領域の画像領域をいう。   For example, the correlated detection region setting unit 166 has the same size (the same number of lines) as the matching region from the image region included in the first line among the image regions that are not the combined lines as described later. Based on the region, a plurality of regions having different sizes, in which the region end position is changed from -m line to + m line size with the region start position fixed, are set as the matching regions. Note that m is a matched region generation coefficient, and an arbitrary natural number is set in advance. It is also assumed that a difference value for changing the end position of the region from the −m line to the + m line size is set in advance. Here, the to-be-coupled line refers to an image area of the to-be-matched area that is confirmed to be coupled to the target line Al (determined line) included in the matching area.

図8は、被相関検出用領域設定部166が画像群に対して設定する被マッチング領域の一例を示す概略図である。ここで、図8において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。   FIG. 8 is a schematic diagram illustrating an example of a matched region set for the image group by the correlated detection region setting unit 166. Here, in FIG. 8, a plurality of rectangular cells of the same shape arranged from the top to the bottom indicate images included in the image group, and the order from the top to the bottom of the images included in the image group is as follows. It is assumed that the order of reading by the line sensor (the order of young scanning lines) is shown.

そして、被相関検出用領域設定部166は、相関検出用領域設定部165が設定したマッチング領域が6ラインであり、被マッチング領域生成係数mが3に設定されているとすると、マッチング領域と同じ大きさの被マッチング領域Trと、マッチング領域よりも1ライン大きな被マッチング領域Trと、マッチング領域よりも2ライン大きな被マッチング領域Trと、マッチング領域よりも3ライン大きな被マッチング領域Trと、マッチング領域よりも1ライン小さな被マッチング領域Tr−1と、マッチング領域よりも2ライン小さな被マッチング領域Tr−2と、マッチング領域よりも3ライン小さな被マッチング領域Tr−3と、を設定する。なお、ここでは、1ライン単位で大きさが変化する複数の被マッチング領域を設けたが、変化の単位はこれに限定されるものではなく、2ライン以上でも1ライン未満でもよい。 Then, the correlated detection region setting unit 166 is the same as the matching region, assuming that the matching region set by the correlation detection region setting unit 165 has 6 lines and the matching region generation coefficient m is set to 3. and the matching area Tr 0 size, 1 line and large the matching area Tr 1 than the matching area, two lines and large the matching area Tr 2 than the matching area, three lines larger the matching area Tr 3 than the matching area And a matching region Tr- 1 that is one line smaller than the matching region, a matching region Tr- 2 that is two lines smaller than the matching region, and a matching region Tr- 3 that is three lines smaller than the matching region are set. . Here, a plurality of matching regions whose sizes change in units of one line are provided, but the unit of change is not limited to this, and may be two or more lines or less than one line.

図5に戻り、相関算出部167は、相関検出用領域設定部165が設定したマッチング領域と、被相関検出用領域設定部166が設定した複数の被マッチング領域の各々と、の組み合わせ毎に、これらの間の相関度を特定する値を算出する。   Returning to FIG. 5, the correlation calculation unit 167 performs, for each combination of the matching region set by the correlation detection region setting unit 165 and each of the plurality of matching regions set by the correlated detection region setting unit 166, A value specifying the degree of correlation between them is calculated.

例えば、相関算出部167は、相関検出用領域設定部165が設定したマッチング領域と、被相関検出用領域設定部166が設定した被マッチング領域と、の大きさが同じ場合には、マッチング領域に含まれるラインの画像と、マッチング領域に含まれるラインの位置に対応する被マッチング領域に含まれるラインの画像と、の差分値を算出して、すべてのラインの差分値を合計する。   For example, if the size of the matching region set by the correlation detection region setting unit 165 and the matching region set by the correlated detection region setting unit 166 are the same, the correlation calculation unit 167 sets the matching region as the matching region. A difference value between the image of the line included and the image of the line included in the matching region corresponding to the position of the line included in the matching region is calculated, and the difference values of all the lines are summed.

また、相関算出部167は、相関検出用領域設定部165が設定したマッチング領域と、被相関検出用領域設定部166が設定した被マッチング領域と、の大きさが異なる場合には、検出用領域設定部166が設定した被マッチング領域の大きさを、相関検出用領域設定部165が設定したマッチング領域の大きさに合わせてから、相関検出用領域設定部165が設定したマッチング領域に含まれるラインの画像と、マッチング領域に含まれるラインの位置に対応する被マッチング領域に含まれる画像と、の差分値を算出して、すべてのラインの差分値を合計する。   In addition, the correlation calculation unit 167 determines the detection region when the size of the matching region set by the correlation detection region setting unit 165 and the matching region set by the correlated detection region setting unit 166 are different. The line included in the matching region set by the correlation detection region setting unit 165 after the size of the matching region set by the setting unit 166 matches the size of the matching region set by the correlation detection region setting unit 165 The difference value between the image and the image included in the matching area corresponding to the position of the line included in the matching area is calculated, and the difference values of all lines are summed.

なお、相関算出部167が算出する相関度を特定する値は、このような差分値に限定されず、例えば、上述のように同じ大きさである又は同じ大きさにされたマッチング領域のラインに含まれる画像の画素値と、マッチング領域のラインに対応する被マッチング領域の画像の画素値と、から相関係数を算出し、すべてのラインについて算出した相関係数を合計するようにしてもよい。   Note that the value that specifies the degree of correlation calculated by the correlation calculation unit 167 is not limited to such a difference value. For example, in the matching area line that is the same size or the same size as described above. The correlation coefficient may be calculated from the pixel value of the included image and the pixel value of the image in the matching area corresponding to the line in the matching area, and the correlation coefficient calculated for all lines may be summed. .

また、領域サイズの変換には色々な手法があるが、例えば、一次変換でサイズ変換を行えばよい。さらに、ラインに含まれる画像のデータ(画素値等)同士ではなく、1ライン未満のデータを補間により作成して相関度を特定する値を算出しても良く、マッチング領域全体と被マッチング領域全体とを比較して相関度を特定する値を算出してもよい。   There are various methods for converting the region size. For example, the size conversion may be performed by primary conversion. Furthermore, instead of the image data (pixel values, etc.) included in the line, the value for specifying the correlation may be calculated by creating data of less than one line by interpolation, and the entire matching area and the entire matching area may be calculated. And a value for specifying the degree of correlation may be calculated.

結合位置特定部168は、相関算出部167が算出した相関度を特定する値より、マッチング領域と、特定の被マッチング領域と、の間の相関度が高いと判断した場合には、最も相関度の高い被マッチング領域を選択して、マッチング領域に含まれる注目ラインAlに結合する、被マッチング領域の画像位置を特定する。   When the combined position specifying unit 168 determines that the degree of correlation between the matching region and the specific matching region is higher than the value for specifying the degree of correlation calculated by the correlation calculating unit 167, the degree of correlation is the highest. A matching region having a high value is selected, and an image position of the matching region that is coupled to the target line Al included in the matching region is specified.

図9から図14を用いて、結合位置特定部168が、マッチング領域に含まれる注目ラインAlに結合する、被マッチング領域の画像位置を特定する処理を説明する。   With reference to FIGS. 9 to 14, a description will be given of a process in which the combined position specifying unit 168 specifies the image position of the matched region that is combined with the target line Al included in the matching region.

図9(a)及び(b)は、マッチング領域Erと同じ大きさの被マッチング領域Trに、注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図9(a)及び(b)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。 FIG. 9 (a) and (b) are to be matching area Tr 0 of the same size as the matching area Er, it is a schematic diagram for explaining the processing for specifying an image position for coupling the target line Al. Here, in FIGS. 9A and 9B, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young).

結合位置特定部168は、図9(a)に示すように、マッチング領域Erと、被マッチング領域Trの大きさが同じ場合には、図9(b)に示すように、被マッチング領域Trの先頭位置から注目ラインAlと同じ大きさの画像領域Iaを注目ラインAlと結合する領域として特定し、画像領域Iaの終端位置Epを特定する情報を結合位置とする。なお、結合位置は、被マッチング領域Trを設定した画像群の先頭位置から画像領域Iaの終端位置Epまでに含まれる画像(一つの走査ラインで取得される画像)の数と、終端位置Epが含まれる画像の先頭位置から終端位置Epまでの割合と、を加算した値で特定する。 As shown in FIG. 9A, the coupling position specifying unit 168, when the size of the matching region Er and the matching region Tr 0 is the same, as shown in FIG. 9B, the matching region Tr An image region Ia having the same size as the target line Al is specified as a region to be combined with the target line Al from the leading position of 0 , and information specifying the end position Ep of the image region Ia is set as a combined position. Note that the combination position includes the number of images (images acquired in one scanning line) included from the start position of the image group in which the matching area Tr 0 is set to the end position Ep of the image area Ia, and the end position Ep. Is specified by a value obtained by adding the ratio from the start position to the end position Ep of the image including the.

なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。   When the line below the target line Al is set as the next target line, the next matching region is assigned from the line below the end position Ep.

図10(a)〜(c)は、マッチング領域Erよりも大きさの小さい被マッチング領域Tr−2に、注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図10(a)〜(c)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。 FIGS. 10A to 10C are schematic diagrams for explaining processing when specifying an image position where the target line Al is coupled to the matching region Tr- 2 having a smaller size than the matching region Er. Here, in FIGS. 10A to 10C, a plurality of rectangular cells having the same shape arranged from the upper side to the lower side indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young).

結合位置特定部168は、図10(a)に示すように、マッチング領域Erよりも被マッチング領域Tr−2の大きさが小さい場合には、図10(b)に示すように、被マッチング領域Tr−2に含まれる画像をマッチング領域Erと同じ大きさに拡大し(図10(a)〜(c)の例では、6/4倍)、拡大された被マッチング領域ETr−2の先頭位置から注目ラインAlと同じ大きさの画像領域Iaを注目ラインAlと結合する領域とし、図10(c)に示すように、拡大された被マッチング領域ETr−2に含まれる画像を縮小することで(ここでは、4/6倍)元の大きさに戻した際に、同じ割合で縮小された画像領域Iaの終端位置Epを特定する情報を結合位置とする。 As shown in FIG. 10A, the coupling position specifying unit 168, when the size of the matching region Tr- 2 is smaller than the matching region Er, as shown in FIG. The image included in Tr- 2 is enlarged to the same size as the matching area Er (6/4 times in the examples of FIGS. 10A to 10C), and the start position of the enlarged matching area ETr- 2 And the image area Ia 0 having the same size as the noticed line Al is used as an area to be joined with the noticed line Al, and the image included in the enlarged matched area ETr- 2 is reduced as shown in FIG. in (here, 4/6-fold) when returning to its original size, and the binding position information identifying the end position Ep 1 of the reduced image region Ia 1 at the same rate.

なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.

図11(a)〜(c)は、マッチング領域Erよりも大きさの大きい被マッチング領域Trに、注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図11において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。 Figure 11 (a) ~ (c) is to be matching area Tr 2 larger size than the matching area Er is a schematic diagram for explaining the processing for specifying an image position for coupling the target line Al. Here, in FIG. 11, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate the images included in the image group, and the order from the top to the bottom of the images included in the image group is as follows. It is assumed that the order of reading by the line sensor (the order of young scanning lines) is shown.

結合位置特定部168は、図11(a)に示すように、マッチング領域Erよりも被マッチング領域Trの大きさが大きい場合には、図11(b)に示すように、被マッチング領域Trに含まれる画像をマッチング領域Erと同じ大きさに縮小し(図11(a)〜(c)の例では、6/8倍)、縮小された被マッチング領域RTrの先頭位置から注目ラインAlと同じ大きさの画像領域Iaを注目ラインAlと結合する領域とし、図11(c)に示すように、縮小された被マッチング領域RTr−2に含まれる画像を拡大することで(ここでは、8/6倍)元の大きさに戻した際に、同じ割合で拡大された画像領域Iaの終端位置Epを特定する情報を結合位置とする。 Coupling position specifying unit 168, as shown in FIG. 11 (a), when than the matching area Er large size of the matching area Tr 2, as shown in FIG. 11 (b), the matching area Tr reducing the image contained in the 2 to the same size as the matching area Er (in the example of FIG. 11 (a) ~ (c) , 6/8 -fold), the line of interest from the reduced head position of the matching area RTr 2 By setting the image area Ia 0 having the same size as Al as the area to be combined with the target line Al, as shown in FIG. 11C, by enlarging the image included in the reduced matching area RTr -2 (here So when returning to 8/6 times) its original size, and the binding position information identifying the end position Ep 1 of the enlarged image region Ia 1 at the same rate.

なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.

図12(a)及び(b)は、保留ラインSlを有するマッチング領域Erと同じ大きさの被マッチング領域Trに、保留ラインSl及び注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図12において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。また、図12(a)及び(b)においては、保留ラインSlが3ライン分含まれている場合を示す。 Figure 12 (a) and (b) are the same size of the matching area Tr 0 and matching area Er having pending line Sl, the processing for specifying an image position for coupling the hold line Sl and the target line Al It is the schematic to explain. Here, in FIG. 12, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate images included in the image group, and the order from the top to the bottom of the images included in the image group is as follows. It is assumed that the order of reading by the line sensor (the order of young scanning lines) is shown. FIGS. 12A and 12B show a case in which three reserved lines S1 are included.

結合位置特定部168は、図12(a)に示すように、マッチング領域Erと、被マッチング領域Trの大きさが同じ場合には、図12(b)に示すように、被マッチング領域Trの先頭位置から各々の保留ラインSl及び注目ラインAlと同じ大きさの各々の画像領域Iaを、保留ラインSl及び注目ラインAlと結合する領域として特定し、各々の画像領域Iaの終端位置Epを特定する情報を結合位置とする。 As shown in FIG. 12A, the coupling position specifying unit 168, when the size of the matching region Er and the matching region Tr 0 is the same, as shown in FIG. Each image area Ia having the same size as each of the reserved line S1 and the target line Al from the head position of 0 is specified as an area connected to the reserved line S1 and the target line Al, and the end position Ep of each image area Ia The information for identifying is set as the coupling position.

なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。   When the line below the target line Al is set as the next target line, the next matching region is assigned from the line below the end position Ep.

図13(a)〜(c)は、保留ラインSlを含むマッチング領域Erよりも大きさの小さい被マッチング領域Tr−2に、保留ラインSl及び注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図13(a)〜(c)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。また、図13(a)〜(c)においては、保留ラインSlが3ライン分含まれている場合を示す。 FIGS. 13A to 13C are diagrams for specifying an image position that joins the reserved line S1 and the target line Al to the matching area Tr- 2 having a smaller size than the matching area Er including the reserved line S1. It is the schematic explaining a process. Here, in FIGS. 13A to 13C, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young). FIGS. 13A to 13C show a case in which three reserved lines S1 are included.

結合位置特定部168は、図13(a)に示すように、マッチング領域Erよりも被マッチング領域Tr−2の大きさが小さい場合には、図13(b)に示すように、被マッチング領域Tr−2の大きさをマッチング領域Erと同じ大きさに拡大し(図13(a)〜(c)の例では、9/7倍)、拡大された被マッチング領域ETr−2の先頭位置から、各々の保留ラインSl及び注目ラインAlと同じ大きさの画像領域Iaを、各々の保留ラインSl及び注目ラインAlと結合する領域とし、図13(c)に示すように、拡大された被マッチング領域ETr−2を縮小することで(ここでは、7/9倍)元の大きさに戻した際に、同じ割合で縮小された画像領域Iaの終端位置Epを特定する情報を結合位置とする。 As shown in FIG. 13A, the combined position specifying unit 168, when the size of the matching region Tr- 2 is smaller than the matching region Er, as shown in FIG. The size of Tr- 2 is enlarged to the same size as the matching region Er (9/7 times in the examples of FIGS. 13A to 13C), and from the head position of the enlarged matching region ETr- 2 As shown in FIG. 13C, the image area Ia 0 having the same size as each of the reserved lines S1 and the target line Al is defined as an area coupled to each of the reserved lines S1 and the target line Al. by reducing the matching area ETr -2 (here, 7/9-fold) when returning to its original size, binding information identifying the end position Ep 1 of the reduced image region Ia 1 at the same rate Position.

なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.

図14(a)〜(c)は、保留ラインSlを含むマッチング領域Erよりも大きさの大きい被マッチング領域Trに、各々の保留ラインSl及び注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図14(a)〜(c)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。また、図14(a)〜(c)においては、保留ラインSlが3ライン分含まれている場合を示す。 Figure 14 (a) ~ (c) is to be matching area Tr 2 larger size than the matching area Er including the hold line Sl, when specifying the image position to couple the respective hold lines Sl and the target line Al It is the schematic explaining the process of. Here, in FIGS. 14A to 14C, a plurality of rectangular cells having the same shape arranged from the upper side to the lower side indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young). Further, FIGS. 14A to 14C show a case in which three reserved lines S1 are included.

結合位置特定部168は、図14(a)に示すように、マッチング領域Erよりも被マッチング領域Trの大きさが大きい場合には、図14(b)に示すように、被マッチング領域Trの大きさをマッチング領域Erと同じ大きさに縮小し(図14(a)〜(c)の例では、9/11倍)、縮小された被マッチング領域RTrの先頭位置から、各々の保留ラインSl及び注目ラインAlと同じ大きさの画像領域Iaを、各々の保留ラインSl及び注目ラインAlと結合する領域とし、図14(c)に示すように、縮小された被マッチング領域RTr−2を拡大することで(ここでは、11/9倍)元の大きさに戻した際に、同じ割合で拡大された画像領域Iaの終端位置Epを特定する情報を結合位置とする。 Coupling position specifying unit 168, as shown in FIG. 14 (a), when than the matching area Er large size of the matching area Tr 2, as shown in FIG. 14 (b), the matching area Tr 2 is reduced to the same size as the matching region Er (9/11 times in the examples of FIGS. 14A to 14C), and each of the reduced matching target regions RTr 2 is started from the start position. An image region Ia 0 having the same size as the reserved line S1 and the target line Al is set as a region that is connected to each reserved line S1 and the target line Al, and as shown in FIG. by expanding -2 (here, 11/9-fold) when returning to its original size, and the binding position information identifying the end position Ep 1 of the enlarged image region Ia 1 at the same rate .

なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.

図5に戻り、結合位置特定部168は、以上のようにして算出した結合位置を結合位置情報記憶部162に記憶する処理を制御する。   Returning to FIG. 5, the coupling position specifying unit 168 controls processing for storing the coupling position calculated as described above in the coupling position information storage unit 162.

結合位置推定部169は、一つの画像群の中で、結合位置特定部168により保留ラインとされた画像が予め定められた数に達した場合には、先頭の保留ラインに対応する画像を結合する結合位置を推定する処理を行う。   The combined position estimation unit 169 combines the images corresponding to the first reserved line when the number of images set as the reserved lines by the combined position specifying unit 168 reaches a predetermined number in one image group. The process which estimates the coupling position to perform is performed.

ここで、結合位置があらかじめ定められた間隔よりもずれるのは、図4に示したように撮像の対象である紙が曲がったり、何らかの理由により搬送の途中でラインセンサと原稿との距離が変化したりしたときである。通常、搬送する紙が曲がったり反ったりする場合、その方向は副走査方向であり、また紙の変化は局所的には対象とする撮像エリアの両隣のエリアの変化率と相関が高い。   Here, the coupling position deviates from a predetermined interval because the paper to be imaged is bent as shown in FIG. 4, or the distance between the line sensor and the original changes during the conveyance for some reason. It is time to do. Normally, when the paper to be conveyed is bent or warped, the direction is the sub-scanning direction, and the change in the paper is locally highly correlated with the rate of change in the areas adjacent to the target imaging area.

例えば、図1において、撮像エリア33の位置において何らかの紙の変化が生じたとき、撮像エリア32及び撮像エリア34にもその傾向が現れる可能性が高い。そこで、結合位置推定部169では、周辺に結合位置が確定している画像があれば、その画像の結合位置情報の変化の様子から保留ラインの画像の結合位置を推定する。なお、結合位置推定部169での処理は、下記に詳細に説明する。   For example, in FIG. 1, when any paper change occurs at the position of the imaging area 33, there is a high possibility that the tendency appears in the imaging area 32 and the imaging area 34. Therefore, if there is an image whose combined position is fixed in the vicinity, the combined position estimation unit 169 estimates the combined position of the image on the reserved line from the state of change in the combined position information of the image. In addition, the process in the joint position estimation part 169 is demonstrated in detail below.

画像結合部170は、結合位置情報記憶部162に記憶されている結合位置情報に基づいて、各々の画像を結合する。なお、画像結合部170での処理は、下記に詳細に説明する。   The image combination unit 170 combines the images based on the combination position information stored in the combination position information storage unit 162. The processing in the image combining unit 170 will be described in detail below.

以上に記載した画像結合装置106は、例えば、CPU(Central Processing Unit)と、メモリと、を備えたコンピュータで実現できる。例えば、記憶部161は、CPUがメモリを利用することにより実現でき、制御部163は、所定のプログラムをCPUで実行することで実現できる。ただし、本実施の形態の画像結合装置106は、コンピュータシステム上にソフトウェア的に実現されるものに限定されない。例えば、ASIC(Application Specific Integrated Circuits)、FPGA(Field Programmable Gate Array)等の集積ロジックICによりハード的に実現されるものでもよいし、あるいは、DSP(Digital Signal Processor)等によりソフトウェア的に実現されるものでもよい。   The image combining device 106 described above can be realized by a computer including a CPU (Central Processing Unit) and a memory, for example. For example, the storage unit 161 can be realized by the CPU using a memory, and the control unit 163 can be realized by executing a predetermined program by the CPU. However, the image combining device 106 according to the present embodiment is not limited to that realized by software on a computer system. For example, it may be realized in hardware by an integrated logic IC such as ASIC (Application Specific Integrated Circuits) or FPGA (Field Programmable Gate Array), or may be realized in software by a DSP (Digital Signal Processor) or the like. It may be a thing.

図15及び16は、画像結合装置106での画像処理を示すフローチャートである。   15 and 16 are flowcharts showing image processing in the image combining device 106. FIG.

まず、結合位置特定部168は、画像群を示すインデックスNに1を設定し、処理するラインを示すインデックスiに1を設定する(S10)。   First, the combined position specifying unit 168 sets 1 to an index N indicating an image group, and sets 1 to an index i indicating a line to be processed (S10).

次に、結合位置特定部168は、処理ライン数を示すインデックスhを0に初期化する(S11)。   Next, the coupling position specifying unit 168 initializes an index h indicating the number of processing lines to 0 (S11).

次に、相関検出用領域設定部165は、N画像群内に、マッチング領域Mrを設定する(S12)。例えば、相関検出用領域設定部165は、N画像群内において、インデックスiで示されるラインの上のラインが保留ラインではない場合には、インデックスiで示されるラインと、インデックスiで示されるラインの次の走査ラインから予め設定された数の対象ラインOlと、をマッチング領域Mrに設定する。また、相関検出用領域設定部165は、N画像群内において、インデックスiで示されるラインの上のラインが保留ラインである場合には、インデックスiで示されるラインよりも一つ前の走査ラインから連続して続く保留ラインと、インデックスiで示されるラインと、インデックスiで示されるラインの次の走査ラインから予め設定された数の対象ラインOlと、をマッチング領域Mrに設定する。   Next, the correlation detection region setting unit 165 sets a matching region Mr in the N image group (S12). For example, when the line above the line indicated by the index i is not a reserved line in the N image group, the correlation detection area setting unit 165 and the line indicated by the index i A preset number of target lines Ol from the next scanning line is set in the matching region Mr. The correlation detection area setting unit 165 also scans the line preceding the line indicated by the index i when the line above the line indicated by the index i is a reserved line in the N image group. Are set in the matching area Mr, the reserved line that continues from, the line indicated by the index i, and the preset number of target lines Ol from the scanning line next to the line indicated by the index i.

なお、相関検出用領域設定部165は、結合位置情報テーブル162aにおいて、インデックスNで特定される画像群列162bで特定される結合位置格納領域162dの欄において、インデックスiで特定される注目ラインに対応するライン位置行162cで特定される結合位置格納領域162dの欄よりも上方の位置に、保留ラインフラグがあるか否かで、マッチング領域に保留ラインを含めるか否かを判断することができる。   The correlation detection area setting unit 165 sets the attention line specified by the index i in the column of the combined position storage area 162d specified by the image group sequence 162b specified by the index N in the combined position information table 162a. Whether or not to include a reserved line in the matching area can be determined based on whether or not there is a reserved line flag at a position above the column of the combined position storage area 162d specified by the corresponding line position row 162c. .

また、相関検出用領域設定部165は、ステップS12で設定されたマッチング領域Mrに、インデックスiで特定される走査ラインを注目ラインAlとして設定し、注目ラインAlと、注目ラインAlの次の走査ラインと、をエッジ検出領域Erとして設定する(S13)。   Further, the correlation detection area setting unit 165 sets the scanning line specified by the index i as the attention line Al in the matching area Mr set in step S12, the attention line Al, and the next scanning of the attention line Al. The line is set as the edge detection area Er (S13).

次に、被相関検出用領域設定部166は、N画像群に含まれる画像の主走査方向における次の画像が含まれるN+1画像群に、予め定められた数の被マッチング領域を設定する(S13)。例えば、被相関検出用領域設定部166は、ステップS12で設定されたマッチング領域と同じサイズの被マッチング領域と、ステップS12で設定されたマッチング領域のサイズから予め定められた被マッチング領域生成係数で特定されるサイズに至るまで、予め定められた差分値を増減した大きさのサイズの被マッチング領域と、を設定する。   Next, the correlated detection region setting unit 166 sets a predetermined number of matching regions in the N + 1 image group including the next image in the main scanning direction of the image included in the N image group (S13). ). For example, the correlated detection region setting unit 166 uses a matching region generation coefficient determined in advance from a matching region having the same size as the matching region set in step S12 and the size of the matching region set in step S12. A matching area having a size that is obtained by increasing or decreasing a predetermined difference value until the specified size is reached is set.

次に、結合位置特定部168は、ステップS13で設定されたエッジ検出領域Erに、画像における特徴的な部分が含まれているか否かを判断する(S15)。そして、特徴的な部分が含まれている場合には(ステップS15でYes)ステップS16に進み、特徴的な部分が含まれていない場合には(ステップS15でNo)ステップS20に進む。ここでいう特徴的な部分とは、画像の結合に必要な重ね合わせ位置を検出する際に、目印としてわかりやすい画像のエッジや文字、文様などを示す。すなわち、画像の信号レベルの変化が大きな部分をいう。   Next, the combination position specifying unit 168 determines whether or not the edge detection area Er set in step S13 includes a characteristic part in the image (S15). If a characteristic part is included (Yes in step S15), the process proceeds to step S16. If a characteristic part is not included (No in step S15), the process proceeds to step S20. The characteristic portion referred to here indicates an edge, a character, a pattern, or the like of an image that is easy to understand as a mark when detecting a superposition position necessary for combining images. That is, it means a portion where the signal level change of the image is large.

本実施の形態では、エッジ検出領域Erでの画像内の特徴的な部分の検出の手法は特に限定しないが、隣り合う画像の重ね合わせの位置は副走査方向にのみ移動するため、副走査方向に対して垂直なエッジが存在する位置で重ね合わせの位置を検出すると、確度の高い結果が得られる。そこで、例えば、上下のラインにおける信号成分の差の合計が予め定められていた値より大きいとき信号の変化が大きい、すなわち画像のエッジが存在すると判断する。   In the present embodiment, a method for detecting a characteristic portion in an image in the edge detection region Er is not particularly limited, but the overlapping position of adjacent images moves only in the sub-scanning direction. If the overlapping position is detected at a position where there is a vertical edge, a highly accurate result can be obtained. Therefore, for example, when the sum of the differences between the signal components in the upper and lower lines is larger than a predetermined value, it is determined that the signal change is large, that is, the edge of the image exists.

ステップS16では、相関算出部167は、ステップS12で設定されたマッチング領域Erと、ステップS14で設定された複数の被マッチング領域の各々と、の相関度を特定する値を算出する(S16)。   In step S16, the correlation calculation unit 167 calculates a value that specifies the degree of correlation between the matching region Er set in step S12 and each of the plurality of matching regions set in step S14 (S16).

なお、マッチング領域、非マッチング領域ともに、各ラインには結合精度を上げるため1ラインより細かいサブラインが設けられており、それぞれのサブラインは領域サイズを拡大又は縮小する際にデータ補間して生成する。データの補間は線形補間、バイキュービックなど手法は問わない。   In both the matching area and the non-matching area, each line is provided with a subline finer than one line in order to increase the coupling accuracy, and each subline is generated by data interpolation when the area size is enlarged or reduced. Data interpolation may be performed using any method such as linear interpolation or bicubic.

そして、結合位置特定部168は、ステップS16で算出された相関度を特定する値のうち、予め定められた閾値よりも強い相関を示す値が算出された被マッチング領域があるか否かを判断する(S17)。このようなマッチング領域がある場合には(ステップS17でYes)ステップS18に進み、このようなマッチング領域がない場合には(ステップS17でNo)ステップS20に進む。   Then, the combined position specifying unit 168 determines whether or not there is a matching region in which a value indicating a correlation stronger than a predetermined threshold is calculated among the values specifying the correlation degree calculated in step S16. (S17). If there is such a matching area (Yes in step S17), the process proceeds to step S18, and if there is no such matching area (No in step S17), the process proceeds to step S20.

ステップS18では、結合位置特定部168は、ステップS16で算出された相関度を特定する値のうち、最も強い相関を示す値が算出された被マッチング領域を選択する。   In step S18, the combined position specifying unit 168 selects a matching region in which a value indicating the strongest correlation is calculated among the values specifying the degree of correlation calculated in step S16.

そして、結合位置特定部168は、ステップS12で設定されたマッチング領域の先頭位置からエッジ検出位置までのラインの結合位置を特定する(S19)。ここで、本実施の形態においては、エッジ検出領域Erを2ラインとし、上下ラインの差からエッジを検出したため、エッジ検出領域Erの1ライン目、すなわち、注目ラインAlまでの結合位置を特定する。なお、このようにして特定した結合位置については、結合位置特定部168が、結合位置情報テーブル162aにおいて、インデックスNで特定される画像群列162bと、結合位置が算出されたラインに対応するライン位置行162cと、で特定される結合位置格納領域162dの欄に、算出された結合位置を特定する情報を格納する。   Then, the joint position specifying unit 168 specifies the joint position of the line from the head position of the matching area set in step S12 to the edge detection position (S19). Here, in this embodiment, since the edge detection area Er is set to two lines and the edge is detected from the difference between the upper and lower lines, the first line of the edge detection area Er, that is, the coupling position to the target line Al is specified. . Note that for the joint position specified in this way, the joint position specifying unit 168 uses the image group sequence 162b specified by the index N in the joint position information table 162a and the line corresponding to the line for which the joint position is calculated. Information for specifying the calculated coupling position is stored in the column of the coupling position storage area 162d identified by the position row 162c.

一方、ステップS20では、結合位置特定部168は、ステップS13で特定された注目ラインAlを保留ラインとする。例えば、結合位置特定部168は、結合位置情報テーブル162aにおいて、インデックスNで特定される画像群列162bと、インデックスiで特定される注目ラインに対応するライン位置行162cと、で特定される結合位置格納領域162dの欄に、保留ラインフラグを格納する。なお、本実施形態においては、結合位置格納領域162dの欄を空欄とすることで、保留ラインフラグとする。   On the other hand, in step S20, the coupling position specifying unit 168 sets the attention line Al specified in step S13 as a reserved line. For example, in the combined position information table 162a, the combined position specifying unit 168 specifies the combination specified by the image group sequence 162b specified by the index N and the line position row 162c corresponding to the target line specified by the index i. The reserved line flag is stored in the column of the position storage area 162d. In the present embodiment, the reserved line flag is set by leaving the column of the combined position storage area 162d blank.

次に、結合位置特定部168は、インデックスNで特定される画像群が、Nの最大値(NMAX)であるか否かを確認し(S21)、Nの最大値ではない場合には(ステップS21でNo)ステップS22に進み、Nの最大値である場合には(ステップS21でYes)ステップS23に進む。なお、Nの最大値は、ラインセンサ141,142,・・・,148の数から1を減算した数である。   Next, the combined position specifying unit 168 checks whether or not the image group specified by the index N is the maximum value of N (NMAX) (S21). If NO in S21, the process proceeds to Step S22, and if it is the maximum value of N (Yes in Step S21), the process proceeds to Step S23. The maximum value of N is a number obtained by subtracting 1 from the number of line sensors 141, 142,.

ステップS22では、結合位置特定部168は、インデックスNに1を加算して、ステップS12に戻り処理を繰り返す。また、ステップS23では、結合位置特定部168は、インデックスhに1を加算して、ステップS24に進む。   In step S22, the coupling position specifying unit 168 adds 1 to the index N, returns to step S12, and repeats the processing. In step S23, the coupling position specifying unit 168 adds 1 to the index h, and proceeds to step S24.

ステップS24では、結合位置特定部168は、インデックスhが、hの最大値(hMAX)であるか否かを確認し、hの最大値(hMAX)ではない場合には(ステップS24でNo)ステップS25に進み、hの最大値(hMAX)である場合には(ステップS24でYes)図16のステップS26に進む。ここで、hMAXの値は、結合位置を算出するラインと、画像を結合するラインと、の差分値である。そして、hMAXの値は、画像のサイズ(走査ライン数)を超えない範囲で任意の値(本実施の形態では19)を設定できるが、hMAXの値が大きくなるほど、注目ラインと、画像の結合結果を出力するラインと、の位置の差が大きくなり、その結果、画像データを一時的に保存しておくメモリの容量が大きくなるため、あまり大きな値にしない方が望ましい。   In step S24, the coupling position specifying unit 168 confirms whether or not the index h is the maximum value (hMAX) of h, and if it is not the maximum value (hMAX) of h (No in step S24), step The process proceeds to S25, and if it is the maximum value of h (hMAX) (Yes in Step S24), the process proceeds to Step S26 in FIG. Here, the value of hMAX is a difference value between the line for calculating the combining position and the line for combining the images. The hMAX value can be set to an arbitrary value (19 in the present embodiment) within a range not exceeding the image size (number of scanning lines). However, as the hMAX value increases, the line of interest and the image are combined. Since the position difference from the line for outputting the result becomes large, and as a result, the capacity of the memory for temporarily storing the image data becomes large, it is desirable not to set the value so large.

ステップS25では、結合位置特定部168は、インデックスNを1に初期化し、インデックスiに1を加算する。そして、結合位置特定部168は、ステップS11に戻り、処理を繰り返す。   In step S25, the coupling position specifying unit 168 initializes the index N to 1, and adds 1 to the index i. Then, the coupling position specifying unit 168 returns to Step S11 and repeats the process.

ステップS26では、結合位置特定部168は、インデックスiの値から、hMAXの値を減算した値で示されるラインに保留ラインの設定があるか否かを確認し、保留ラインの設定がある場合には(ステップS26でYes)ステップS27に進み、保留ラインの設定がない場合には(ステップS26でNo)ステップS28に進む。ここで、インデックスiの値から、hMAXの値を減算した値で示されるラインに保留ラインの設定があるか否かは、結合位置情報テーブル162aにおいて、インデックスiの値から、hMAXの値を減算した値に対応するライン位置行162cの結合位置格納領域162dの欄に、保留ラインフラグがあるか否かで判断することができる。   In step S26, the combined position specifying unit 168 checks whether there is a reserved line setting on the line indicated by the value obtained by subtracting the hMAX value from the index i value. (Yes in step S26), the process proceeds to step S27, and if no hold line is set (No in step S26), the process proceeds to step S28. Here, whether or not there is a reserved line in the line indicated by the value obtained by subtracting the hMAX value from the index i value is obtained by subtracting the hMAX value from the index i value in the combined position information table 162a. It can be determined by whether or not there is a reserved line flag in the column of the combined position storage area 162d of the line position row 162c corresponding to the value.

ステップS27では、結合位置推定部169は、インデックスiの値から、hMAXの値を減算した値で示されるラインに設定されている保留ラインの結合位置を算出し、確定ラインとする。ステップS27での算出処理については、下記において詳細に説明する。   In step S27, the combined position estimation unit 169 calculates the combined position of the reserved line set in the line indicated by the value obtained by subtracting the hMAX value from the index i value, and sets it as the confirmed line. The calculation process in step S27 will be described in detail below.

ステップS28では、画像結合部170は、インデックスiの値から、hMAXの値に1を加算した値を減算した値で示されるラインに含まれる画像を、結合位置情報テーブル162aに示される値に従って結合する。ステップS28での結合処理については、下記において詳細に説明する。   In step S28, the image combining unit 170 combines the images included in the line indicated by the value obtained by subtracting the value obtained by adding 1 to the hMAX value from the value of the index i according to the value indicated in the combined position information table 162a. To do. The combining process in step S28 will be described in detail below.

次に、結合位置特定部168は、インデックスiで特定されるラインが、iの最大値(iMAX)であるか否かを確認し(S29)、iの最大値ではない場合には(ステップS29でNo)ステップS30に進み、iの最大値である場合には(ステップS29でYes)ステップS31に進む。ここで、iの最大値は、副走査方向における走査ラインの総ライン数である。   Next, the joint position specifying unit 168 checks whether or not the line specified by the index i is the maximum value of i (iMAX) (S29). If the line is not the maximum value of i (step S29). No), the process proceeds to step S30, and if i is the maximum value (Yes in step S29), the process proceeds to step S31. Here, the maximum value of i is the total number of scanning lines in the sub-scanning direction.

ステップS30では、結合位置特定部168は、インデックスNを1に初期化し、インデックスiに1を加算し、インデックスhから1を減算する。そして、結合位置特定部168は、図15のステップS11に戻り処理を繰り返す。   In step S30, the coupling position specifying unit 168 initializes the index N to 1, adds 1 to the index i, and subtracts 1 from the index h. Then, the coupling position specifying unit 168 returns to Step S11 in FIG. 15 and repeats the process.

ステップS31では、画像結合部170は、未だ結合していない画像を、結合位置情報テーブル162aに示される値に従って結合する。なお、結合位置情報テーブル162aの結合位置格納領域162dに保留ラインフラグが設定されているときは、結合位置推定部169が結合位置を算出して、算出した結合位置に従って、画像結合部170が結合を行う。   In step S31, the image combination unit 170 combines the images that have not been combined yet according to the values indicated in the combination position information table 162a. When the reserved line flag is set in the combined position storage area 162d of the combined position information table 162a, the combined position estimation unit 169 calculates the combined position, and the image combining unit 170 combines the calculated combined positions. I do.

ここで、結合位置推定部169による結合データの算出方法について説明する。図17(a)及び(b)は、結合位置情報テーブル162aの一例である。   Here, a method of calculating combined data by the combined position estimation unit 169 will be described. FIGS. 17A and 17B are examples of the combined position information table 162a.

まず、結合位置情報テーブル162aが図17(a)に示すようになっており、3画像群列における3ライン目行以降が保留ラインとなっており、これらの保留ラインで示される画像の結合位置が不定であるとする。   First, the combined position information table 162a is as shown in FIG. 17A, and the third and subsequent rows in the three image group column are reserved lines, and the combined positions of the images indicated by these reserved lines Is indefinite.

そして、図16のステップS27において、結合位置推定部169は、3画像群列の3ライン目行に対応する画像の結合位置を算出しなければならないとき、まず初めに、結合位置情報テーブル162aにおいて、結合位置を算出する対象となっているラインの一つ上のラインから結合位置を算出する対象となっているラインまで(ここでは、2ライン目から3ライン目まで)の右隣の画像群との結合位置のズレ量Sを画像毎に下記の(1)式を用いて算出する。

Figure 0005322885
In step S27 of FIG. 16, when the combined position estimation unit 169 must calculate the combined position of the image corresponding to the third line of the three image group sequence, first, in the combined position information table 162a. A group of images adjacent to the right from the line immediately above the line for which the coupling position is calculated to the line for which the coupling position is calculated (in this case, from the second line to the third line) Is calculated for each image using the following equation (1).
Figure 0005322885

結合位置推定部169が(1)式を用いて算出した値を、図18に示すズレ量テーブル180aに示す。ズレ量テーブル180aでは、(1)式を用いて算出したS(N,L)の値を、N画像群及びLライン目に対応する欄に格納している。例えば、1画像群の3ライン目は2画像群の2.75ライン目と結合することから、1画像群の3ライン目における2画像とのズレ量は2.75−3.0=−0.25ラインとなる。同様に、2画像群の3ライン目における3画像群とのズレ量は0.25ライン、4画像群の3ライン目における5画像群とのズレ量は0.25ラインとなる。3画像群の3ライン目における4画像群とのズレ量は結合位置の情報がないため空欄とする。   The values calculated by the combined position estimation unit 169 using the expression (1) are shown in the deviation amount table 180a shown in FIG. In the deviation amount table 180a, the value of S (N, L) calculated using the equation (1) is stored in the column corresponding to the N image group and the Lth line. For example, since the third line of the first image group is combined with the second 2.75 line of the second image group, the amount of deviation from the second image in the third line of the first image group is 2.75−3.0 = −0. .25 lines. Similarly, the amount of deviation from the third image group in the third line of the second image group is 0.25 lines, and the amount of deviation from the fifth image group in the third line of the fourth image group is 0.25 lines. The amount of deviation from the fourth image group in the third line of the third image group is blank because there is no information on the coupling position.

次に、結合位置推定部169は、下記の(2)式により、各画像における結合位置のズレ量の変化量ΔSを算出する。

Figure 0005322885
Next, the combined position estimation unit 169 calculates the amount of change ΔS of the combined position shift amount in each image by the following equation (2).
Figure 0005322885

結合位置推定部169が(2)式を用いて算出した値を、図21に示すズレ量変化テーブル181aに示す。ズレ量変化テーブル181aでは、(2)式を用いて算出したΔS(N,L)の値を、N画像群及びLライン目に対応する欄に格納している。例えば、1画像群の2ライン目と3ライン目の間のズレ量の変化は(−0.25)−(−0.1)=−0.15となる。同様に、2画像群の2ライン目と3ライン目のズレ量の変化は0.15ライン、4画像群の2ライン目と3ライン目のズレ量の変化は0.15ラインとなる。3画像群の2ライン目と3ライン目のズレ量の変化は結合位置の情報がないため空欄とする。   The values calculated by the coupling position estimation unit 169 using the equation (2) are shown in the deviation amount change table 181a shown in FIG. In the deviation amount change table 181a, the value of ΔS (N, L) calculated using the equation (2) is stored in the column corresponding to the N image group and the L line. For example, a change in the amount of deviation between the second line and the third line of one image group is (−0.25) − (− 0.1) = − 0.15. Similarly, the change in the shift amount between the second line and the third line in the two image group is 0.15 line, and the change in the shift amount between the second line and the third line in the four image group is 0.15 line. The change in the amount of deviation between the second line and the third line of the three image groups is left blank because there is no information on the coupling position.

次に、結合位置推定部169は、結合位置の算出の対象となっている保留ラインに対応する画像のズレ量の変化を周辺のズレ量の変化から推定する。そもそもズレ量は原稿面までの距離に対応するので、ズレ量が変化しているということは原稿面までの距離が変化していることを表す。原稿は連続した面を持つことから、ある位置で原稿面距離が変化していれば、その近辺でも原稿面距離の変化が起きていると考えられる。そこで、結合位置の算出の対象となっている保留ラインの近隣の確定ラインのズレ量の変化から保留ラインのズレ量の変化を推定する。   Next, the combined position estimation unit 169 estimates a change in the shift amount of the image corresponding to the reserved line for which the combined position is calculated from the change in the peripheral shift amount. In the first place, since the amount of deviation corresponds to the distance to the document surface, a change in the amount of deviation represents a change in the distance to the document surface. Since the original has a continuous surface, if the original surface distance changes at a certain position, it is considered that the original surface distance also changes in the vicinity. Therefore, a change in the amount of deviation of the reserved line is estimated from a change in the amount of deviation of the fixed line adjacent to the reserved line that is the target of calculation of the combined position.

例えば、結合位置推定部169は、ズレ量変化テーブル181aにおいて、結合位置の算出の対象となっている保留ラインの左右両隣が保留ラインでなければ左右の画像のズレ量の変化量の平均値を保留ラインの値とする。   For example, in the shift amount change table 181a, the combined position estimation unit 169 calculates the average value of the shift amounts of the left and right images when the left and right sides of the reserved line that is the target of the combined position are not reserved lines. Hold line value.

また、結合位置推定部169は、例えば、ズレ量変化テーブル181aにおいて、左右両隣のいずれか一方が保留ラインでない場合には、保留ラインでない画像のズレ量の変化量をそのまま用いても良いし、そのようなズレ量の変化量に2分の1を乗算する等予め定められた補正値で補正した値を用いてもよい。   Further, for example, in the shift amount change table 181a, the combined position estimation unit 169 may use the shift amount of the shift amount of the image that is not the reserved line as it is when either one of the left and right sides is not the reserved line. A value corrected by a predetermined correction value such as multiplying the change amount of the deviation amount by a half may be used.

一方、結合位置推定部169は、ズレ量変化テーブル181aにおいて、結合位置の算出の対象となっている保留ラインの左右両隣が共に保留ラインの場合には、2つ以上離れた画像群の同じラインに属する画像のズレ量の変化量から推定する。例えば、結合位置の算出の対象となっている保留ラインと同じラインに属する画像の内、当該保留ラインに最も近い画像のズレ量の変化量をそのまま用いてもよく、また、このような画像のズレ量の変化量を予め定められた補正値で補正した値を用いてもよい。   On the other hand, in the shift amount change table 181a, the combined position estimation unit 169 determines that the same line in two or more separated image groups when both the left and right sides of the reserved line for which the combined position is calculated are reserved lines. It is estimated from the amount of change in the amount of deviation of the image belonging to. For example, among the images belonging to the same line as the reserved line for which the combined position is to be calculated, the amount of change in the shift amount of the image closest to the reserved line may be used as it is. A value obtained by correcting the change amount of the shift amount with a predetermined correction value may be used.

なお、結合位置の算出の対象となっている保留ラインと同じラインに属する画像の内、当該保留ラインに最も近い画像が二つある場合には、例えば、当該保留ラインから三つの画像群離れた画像が確定ラインになっている場合には、これらの値の平均値を予め定められた補正値で補正した値を用いればよい。さらに、ここでの補正値は、当該保留ラインから画像群が離れるに従って、ズレ量の変化量の値が小さくなるように補正するものを用いるのが望ましい。   In addition, when there are two images that are closest to the reserved line among the images belonging to the same line as the reserved line for which the combined position is calculated, for example, three images are separated from the reserved line. If the image is a fixed line, a value obtained by correcting the average value of these values with a predetermined correction value may be used. Further, as the correction value here, it is desirable to use a correction value that corrects the change amount of the shift amount to be smaller as the image group moves away from the reserved line.

また、結合位置推定部169は、ズレ量変化テーブル181aにおいて、結合位置の算出の対象となっている保留ラインの左右両隣が共に保留ラインの場合には、ズレ量に変化なし、つまりΔS=0としてもよい。   In addition, in the deviation amount change table 181a, the combined position estimation unit 169 has no change in the amount of deviation, that is, ΔS = 0 when both the left and right sides of the reserved line for which the combined position is calculated are reserved lines. It is good.

このとき、図1に示す光学系を用いると、原稿面の位置が変化した時、隣り合う画像が原稿を読み取る位置が異なる方向に変化することから、推定値は符号を考慮しなければならない。例えば、図19に示すように、ズレ量変化テーブル181aにおいて、3画像群における3ライン目の保留ラインの左右両隣の画像のズレ量の変化は共に0.15なので、その平均値も0.15となる。しかし、隣接画像のズレ量の変化は逆方向になることから、符号を反転した−0.15がΔS(3、3)の推定値となる。一方、2つ離れた画像は、ズレ量の変化が同じ方向になるため、符号を反転する必要はない。つまり、画像の属する画像群を、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、に分けた場合、同一の群に属する画像の値はそのまま用いればよいが、異なる群に属する画像の値は符号を反転してから用いる必要がある。   At this time, when the optical system shown in FIG. 1 is used, when the position of the document surface changes, the position where the adjacent image is read in the document changes in a different direction. Therefore, the estimated value must consider the sign. For example, as shown in FIG. 19, in the shift amount change table 181a, the change in the shift amount between the left and right adjacent images of the third reserved line in the three image group is both 0.15, so the average value is also 0.15. It becomes. However, since the change in the shift amount of the adjacent images is in the reverse direction, −0.15 with the sign reversed is an estimated value of ΔS (3, 3). On the other hand, since the change in the amount of deviation is the same in two distant images, there is no need to reverse the sign. That is, when the image group to which the image belongs is divided into the first image sensor unit group 141, 143, 145, 147 and the second image sensor unit group 142, 144, 146, 148, the same group. The value of the image belonging to the image may be used as it is, but the value of the image belonging to a different group needs to be used after inverting the sign.

以上のようにして、結合位置推定部169が算出した、結合位置の算出の対象となっている保留ラインのズレ量の変化量を格納したズレ量変化テーブル181bを図20に示す。   FIG. 20 shows a deviation amount change table 181b that stores the amount of change in the deviation amount of the reserved line, which is the calculation target of the combined position, calculated by the combined position estimation unit 169 as described above.

そして、結合位置推定部169は、以上のようにして求めた、結合位置の算出の対象となっている保留ラインのズレ量の変化量を用いて(2)式の逆算により、すなわち、下記の(3)式により、当該保留ラインのズレ量を算出する。

Figure 0005322885
Then, the combined position estimation unit 169 uses the change amount of the deviation amount of the reserved line that is the target of calculation of the combined position obtained as described above, by the reverse calculation of the expression (2), that is, (3) The amount of deviation of the reserved line is calculated by the equation (3).
Figure 0005322885

なお、結合位置推定部169が(3)式を用いて算出した、結合位置の算出の対象となっている保留ラインのズレ量を、図21に示すズレ量テーブル180bに示す。   Note that the shift amount table 180b shown in FIG. 21 shows the shift amount of the reserved line, which is the calculation target of the combined position, calculated by the combined position estimation unit 169 using Equation (3).

さらに、結合位置推定部169は、(3)式で求めたズレ量を用いて(1)式の逆算により、すなわち、下記の(4)式により、結合位置の算出の対象となっている保留ラインの結合位置を算出する。

Figure 0005322885
Furthermore, the combined position estimation unit 169 uses the amount of deviation obtained by the expression (3) to perform the reverse calculation of the expression (1), that is, the holding position that is the object of calculation of the combined position by the following expression (4). Calculate the line coupling position.
Figure 0005322885

以上のようにして、結合位置推定部169が算出した、結合位置の算出の対象となっている保留ラインの結合位置は、図17(b)に示すように、結合位置情報テーブル162aに格納される。   As shown in FIG. 17B, the combined position of the reserved line, which is the calculation target of the combined position, calculated by the combined position estimation unit 169 as described above is stored in the combined position information table 162a. The

以上のように、本実施の形態では、結合位置が不明の場合に、原稿形状の変化の相関に基づいて隣接画像との結合位置を定める結合位置を推定することにより、より精度の高い結合位置を導出することができる。   As described above, in the present embodiment, when the coupling position is unknown, a coupling position with higher accuracy is estimated by estimating the coupling position that determines the coupling position with the adjacent image based on the correlation of changes in the document shape. Can be derived.

次に、画像結合部170での結合処理について説明する。結合位置情報テーブル162aには、各画像のiライン目(1ラインの画像データ)が右隣の画像の何ライン目と一致するか(副走査方向における位置)を表すため、結合位置情報テーブル162aのデータが示すラインの画像を順番につなげるだけでは1ライン分の結合画像は生成できない。そこで、図6に示す結合位置情報テーブル162aの2ライン目に対応する結合位置格納領域162dの値を使って具体的に説明する。   Next, the combining process in the image combining unit 170 will be described. In the combined position information table 162a, since the i-th line (one-line image data) of each image matches with which line of the image on the right side (position in the sub-scanning direction), the combined position information table 162a. A combined image for one line cannot be generated simply by connecting the images of the lines indicated by the data in order. Therefore, a specific description will be given using the value of the combined position storage area 162d corresponding to the second line of the combined position information table 162a shown in FIG.

画像結合部170は、1画像の2ライン目の値より、1画像群の2ライン目は右隣の2画像群の1.9ライン目と一致することがわかっているので、N画像の2ライン目の画像に、2画像群の1ライン目の終端位置及び1.9ライン目の終端位置の間で特定される画像を拡大して繋ぎ合わせる。   The image combining unit 170 knows from the value of the second line of one image that the second line of the one image group matches the 1.9th line of the two image groups adjacent to the right. An image specified between the end position of the first line and the end position of the 1.9 line of the second image group is enlarged and connected to the image of the line.

次に、画像結合部170は、2画像群に含まれる画像と3画像群に含まれる画像とを繋ぎ合わせるが、このとき図6の2画像群の2ライン目の結合位置格納領域162dに格納されている値に従って3画像群の画像の2.1ライン目と繋ぎ合わせると、画像は繋がらない。これは、既に、1画像群の2ライン目と2画像群の1.9ライン目を繋ぎ合わせているため、これらと繋がるようにするには、2画像群の1.9ライン目と一致する3画像群のライン数を求める必要がある。   Next, the image combining unit 170 connects the images included in the two image groups and the images included in the three image groups. At this time, the images are stored in the combined position storage area 162d of the second line of the two image groups in FIG. If it is connected with the 2.1st line of the images of the three image groups according to the values that are set, the images are not connected. This is because the second line of the first image group and the 1.9th line of the second image group are already connected, and in order to connect these, it matches the 1.9th line of the second image group. It is necessary to determine the number of lines in the three image groups.

ここでは、実際に画像を繋ぎ合わせるラインを座標データと呼び、簡易的に、以下の(5)式〜(7)式により結合位置格納領域162dに格納されている値から座標データを算出する。Cは結合位置の値、Pは座標データ、Nは画像群を区別する自然数、iはライン数である。なお、C(N,i)は、結合位置情報テーブル162aにおいて、N画像群及びiライン目に対応する結合位置格納領域162dの値、P(N,i)は、N画像群及びiライン目の画像データをN+1画像群に含まれる画像に結合させるための座標データの値、である。   Here, the line that actually connects the images is referred to as coordinate data, and the coordinate data is simply calculated from the values stored in the combined position storage area 162d by the following equations (5) to (7). C is a value of the coupling position, P is coordinate data, N is a natural number for distinguishing image groups, and i is the number of lines. Note that C (N, i) is the value of the combined position storage area 162d corresponding to the N image group and the i-th line in the combined position information table 162a, and P (N, i) is the N image group and the i-th line. Is the value of the coordinate data for combining the image data with the images included in the N + 1 image group.

Figure 0005322885
Figure 0005322885
Figure 0005322885
Figure 0005322885
Figure 0005322885
Figure 0005322885

N=1として図9の2ライン目の座標データを求めると、P(1,2)=2、P(2,2)=1.9、P(3,2)=2、P(4,2)=1.9、P(5,2)=2となる。つまり、2ライン目の結合画像を生成する際には、1画像群の2ライン目と2画像群の1.9ライン目と3画像群の2ライン目と4画像群の1.9ライン目と5画像群の2ライン目とを、それぞれ拡大又は縮小して繋ぎ合わせればよい。   When N = 1, the coordinate data of the second line in FIG. 9 is obtained, P (1,2) = 2, P (2,2) = 1.9, P (3,2) = 2, P (4, 2) = 1.9 and P (5,2) = 2. That is, when the combined image of the second line is generated, the second line of the first image group, the first line of the second image group, the second line of the third image group, and the first line of the fourth image group are 1.9th line. And the second line of the five image groups may be enlarged or reduced and joined together.

以上のように、本実施の形態によれば、各々のラインにおいて、各々の撮像素子部141,142,・・・,148によって取得された画像を、その特徴部が一致するように縮小又は拡大させてつなぎ合わせるため、滑らかにつながった画像が取得される。   As described above, according to the present embodiment, in each line, the images acquired by the respective image sensor units 141, 142,..., 148 are reduced or enlarged so that the feature portions thereof coincide with each other. In order to connect them together, a smoothly connected image is acquired.

また、エッジ検出領域内に特徴的な部分が無い原稿の読み取り中に原稿面距離が変化すると、特徴的な部分が現れたところで急激な画像の拡大縮小が必要となる場合がある。そこで、本実施の形態では、画像に特徴的な部分が無いために、エッジが検出できない、若しくはマッチング領域と被マッチング領域の相関が取れないという状態になった場合には、結合位置を確定せずに保留してマッチング領域を広げることにより、結合位置が急激に変化しても1ラインあたりの拡大縮小量が減るため、拡大縮小処理による画像の歪みを小さくすることができるようにしている。   Further, if the document surface distance changes during reading of a document having no characteristic part in the edge detection area, it may be necessary to rapidly enlarge or reduce the image when the characteristic part appears. Therefore, in the present embodiment, when there is no characteristic part in the image and thus an edge cannot be detected or a correlation between the matching area and the matching area cannot be obtained, the coupling position is determined. Instead, the enlargement / reduction amount per line is reduced even if the coupling position changes suddenly, so that the distortion of the image due to the enlargement / reduction process can be reduced.

ただし、原稿に特徴的な部分がある場合にマッチング領域を広く設定すると、原稿面距離の細かい変化に追従できなくなる。よって、本実施の形態では、原稿に特徴的な部分があり、マッチング領域と被マッチング領域の相関が取れる場合には、最小限のマッチング領域で結合位置を検出し、特徴的な部分が無い場合にはマッチング領域を広げることにより、画像を拡大縮小したときの歪みが目立たない上に、原稿面距離の変化に追従して結合位置を検出することにより精度の良い画像結合ができるようにしている。また、本実施の形態では、結合位置が確定したラインの次のラインにマッチング領域や被マッチング領域を設定することにより画像の連続性が保たれるため、結合位置検出処理のエラーなどによる画像の欠損、同一画像の繰り返し、前後関係の入れ替わりなどの著しい画質の劣化は生じない。   However, if the matching area is set wide when there is a characteristic part in the document, it becomes impossible to follow a minute change in the document surface distance. Therefore, in this embodiment, when there is a characteristic part in the original and the matching area and the area to be matched can be correlated, the coupling position is detected with the minimum matching area, and there is no characteristic part. In addition, by expanding the matching area, distortion when the image is enlarged or reduced is not conspicuous, and by detecting the coupling position following the change in the document surface distance, it is possible to perform accurate image coupling. . In this embodiment, since the continuity of the image is maintained by setting the matching area and the matching area to the line next to the line where the coupling position is determined, the image of the image due to the coupling position detection processing error or the like is maintained. There is no significant deterioration in image quality, such as loss, repetition of the same image, or change of context.

さらに、本実施の形態では、マッチング領域を小さく設け、読取装置から1ライン入力される毎に一定ライン分遅延した1ライン分の結合画像を出力する逐次処理を行うため、全画像データを保存するためのフレームメモリが不要となり、コストが抑えられる。また、1フレーム分の画像の読み取りが終了するまで待つ結合処理を必要がないため、処理スピードの高速化が図れる。   Furthermore, in this embodiment, the matching region is provided small, and every time one line is input from the reading apparatus, sequential processing for outputting a combined image for one line delayed by a fixed line is performed, so that all image data is stored. Therefore, the frame memory is not necessary, and the cost can be reduced. Further, since it is not necessary to perform a combining process that waits until image reading for one frame is completed, the processing speed can be increased.

また、結合すべき画像の領域(被マッチング領域)が検出されたときの結合位置の確定をエッジ検出範囲までとするのは、画像の特徴のあるエッジ部分単位ごとに結合処理をしたほうが、誤差が少なくなるためである。言い換えると、相関度は、隣接画像が最もよく一致する被マッチング領域の大きさにおいて最も高くなる。しかし、エッジ検出領域より下側には画像に特徴があるかどうか現時点では不明である。特徴的な画像が含まれている場合には結合位置の検出に役立つが、含まれて居ない場合にはエッジ検出領域の下側で急激な画像のズレが生じても検知できない。よって、確実に特徴的な画像が含まれるエッジ検出位置まで結合位置を確定することで、結合位置の誤検出を回避できる。   In addition, when the region of the image to be combined (matched region) is detected, the combined position is determined up to the edge detection range. This is because there is less. In other words, the degree of correlation is the highest in the size of the matched region where the adjacent images are best matched. However, it is unclear at this time whether the image has a feature below the edge detection region. When a characteristic image is included, it is useful for detection of the coupling position. When it is not included, it cannot be detected even if a sharp image shift occurs below the edge detection region. Therefore, it is possible to avoid erroneous detection of the combined position by reliably determining the combined position up to the edge detection position where the characteristic image is included.

実施の形態1の変形例.
本発明の実施の形態1では、結像光学系101は円柱状の光学セルで構成したが、このような態様に限定されるものではなく、例えば、複数の光学部品から構成される反射光学系、又は結像光学系でも同等の効果は得られる。図22に反射光学系を用いた場合の例を示す。
Modification of the first embodiment.
In Embodiment 1 of the present invention, the imaging optical system 101 is configured by a cylindrical optical cell. However, the present invention is not limited to such an embodiment. For example, a reflection optical system configured by a plurality of optical components is used. Alternatively, the same effect can be obtained with the imaging optical system. FIG. 22 shows an example in which a reflection optical system is used.

まず、各セルについての光学系要素の配置と光路を説明する。図22は主走査方向(X方向)のセル411の結像光学系要素と主要光路を示した図である。図23は、副走査方向(Y方向)に並ぶ2つのセル411,412の結像光学系要素と主要光路を示した断面図である。各セルの光学系は原稿側にテレセントリックな光学系である。   First, the arrangement and optical paths of optical system elements for each cell will be described. FIG. 22 is a diagram showing the imaging optical system elements and main optical paths of the cell 411 in the main scanning direction (X direction). FIG. 23 is a cross-sectional view showing imaging optical system elements and main optical paths of two cells 411 and 412 arranged in the sub-scanning direction (Y direction). The optical system of each cell is an optical system telecentric on the document side.

系列1に属するセル411は第1レンズ452aとアパーチャ453a、第2レンズ454aとそれらを保持する保持具から構成されている。系列2に属するセル412は第1レンズ452bとアパーチャ453b、第2レンズ454bとそれらを保持する保持具から構成されている。第1レンズ452a,452bは、反射光学系としての凹面鏡であるが、レンズと同様の機能を持つので、第1レンズと呼ぶ。また、第2レンズ454a,454bは、反射光学系としての凹面鏡であるが、レンズと同様の機能を持つので、第2レンズと呼ぶ。セル411には、原稿面からセルへの光路の途中に水平方向への第1の折り返しミラー451aが挿入されている。第1の折り返しミラー451aによる折り返し方向は系列1では図17及び図18における右側である。第2の折り返しミラー451bによる折り返し方向は系列2では図18における左側である。また、第2レンズ454aから撮像素子141への光路の途中に、第2の折り返しミラー455aが挿入されている。第2の折り返しミラー455aによる折り返し方向は、系列1では図22及び図23における下向き(基板404上の撮像素子141に向かう方向)である。第2の折り返しミラー455bによる折り返し方向は、系列2では図23における下向き(撮像素子142に向かう方向)である。天板103に対して各セルの光軸は副走査方向に関して斜め入射である。ほかのセルも同様な構成である。   The cell 411 belonging to the series 1 includes a first lens 452a and an aperture 453a, a second lens 454a, and a holder for holding them. The cell 412 belonging to the series 2 includes a first lens 452b and an aperture 453b, a second lens 454b, and a holder for holding them. The first lenses 452a and 452b are concave mirrors as a reflection optical system, but are called first lenses because they have the same functions as the lenses. The second lenses 454a and 454b are concave mirrors as a reflecting optical system, but are called second lenses because they have the same functions as the lenses. In the cell 411, a first folding mirror 451a in the horizontal direction is inserted in the middle of the optical path from the document surface to the cell. The folding direction by the first folding mirror 451a is the right side in FIGS. The folding direction by the second folding mirror 451b is the left side in FIG. A second folding mirror 455a is inserted in the middle of the optical path from the second lens 454a to the image sensor 141. The folding direction by the second folding mirror 455a is downward in FIG. 22 and FIG. 23 in the series 1 (direction toward the image sensor 141 on the substrate 404). The folding direction by the second folding mirror 455b is downward in FIG. 23 (direction toward the image sensor 142) in the second series. The optical axis of each cell is obliquely incident on the top plate 103 with respect to the sub-scanning direction. Other cells have the same configuration.

第1レンズ452a,452bの後ろ側焦点位置にアパーチャ453a,453bを配置すれば、原稿側にテレセントリックな光学系を実現できる。転写倍率は、1より大きい拡大でも、1より小さい縮小でも構わないが、等倍にしておくと、一般に流通している解像度のセンサを流用できるというメリットがある。また、折り返しミラーの効果により、Z方向の厚みを抑えることができ、小型の画像読取装置を得ることができる。   If the apertures 453a and 453b are arranged at the back focal positions of the first lenses 452a and 452b, a telecentric optical system can be realized on the document side. The transfer magnification may be larger than 1 or reduced smaller than 1, but if it is set to the same magnification, there is a merit that a sensor having a generally distributed resolution can be used. Further, the thickness in the Z direction can be suppressed by the effect of the folding mirror, and a small image reading apparatus can be obtained.

図22及び図23の例では各セルの原稿画像はそれぞれに対応する撮像素子141,142上に反転像が作られる。そのため、結合処理に先立ち、画像を反転する処理が必要である。反転処理は、結合処理の前処理として専用の回路を組んで行っても良いし、ラインメモリ105へ画像データを格納するときの順番とラインメモリ105から画像データを読み出すときの順番を逆転することにより行っても良い。   In the example of FIGS. 22 and 23, the original image of each cell is formed as an inverted image on the corresponding image sensor 141, 142. Therefore, it is necessary to invert the image prior to the combining process. The inversion processing may be performed by assembling a dedicated circuit as preprocessing of the combination processing, or the order in which the image data is stored in the line memory 105 and the order in which the image data is read out from the line memory 105 are reversed. May be performed.

ここで、各セル411,412は原稿側にテレセントリックな光学系なので、図23に示すように、原稿の位置が73,74,75と変化しても、撮像素子141,142に対する画像の転写倍率が変化することがないという特徴がある。さらに、主走査方向に関して各セル411,412の光軸と天板103とが垂直なので、同様に、原稿位置の変動によっても各セル411,412の画像は主走査方向にはまったく動かない。しかし、副走査方向に関しては、各セル411,412の光軸と天板103とが垂直ではないため、原稿70の位置が73,74,75と変化すると、光学系が原稿を読み取る位置がずれる。その結果、原稿の位置に応じて得られる画像は副走査方向に移動する。   Here, since the cells 411 and 412 are telecentric optical systems on the document side, as shown in FIG. 23, even if the position of the document changes to 73, 74, and 75, the image transfer magnification with respect to the image sensors 141 and 142 There is a feature that does not change. Further, since the optical axis of each cell 411, 412 and the top plate 103 are perpendicular to the main scanning direction, similarly, the image of each cell 411, 412 does not move in the main scanning direction even if the document position changes. However, with respect to the sub-scanning direction, the optical axis of each cell 411, 412 and the top plate 103 are not perpendicular, so if the position of the document 70 changes to 73, 74, 75, the position where the optical system reads the document shifts. . As a result, the image obtained according to the position of the document moves in the sub-scanning direction.

このとき、系列1のセル411と系列2のセル412の光軸は副走査方向に関して逆向きに傾いている。そのため、原稿の位置が変化した時に画像が移動する方向も逆向きになる。   At this time, the optical axes of the cell 1 of the series 1 and the cell 412 of the series 2 are inclined in the opposite directions with respect to the sub-scanning direction. Therefore, the direction in which the image moves when the position of the document is changed is also reversed.

図22及び図23に示す構成を持つ画像結合装置によれば、既に説明した実施の形態1に係る画像結合装置と同様の機能を実現でき、同様の効果を得ることができる。さらに、画像結像装置の薄型化を実現できる。   According to the image combining device having the configuration shown in FIGS. 22 and 23, the same function as that of the image combining device according to the first embodiment described above can be realized, and the same effect can be obtained. Further, the image forming apparatus can be thinned.

100:画像読取装置、101:結像光学系、102:照明光源、103:天板、104:基板、141,142,143,144,145,146,147,148:撮像素子部、105:ラインメモリ、106:画像結合装置、161:記憶部、162:結合位置情報記憶部、163:制御部、164:結合位置検出部、165:相関検出用領域設定部、166:被相関検出用領域設定部、167:相関算出部、168:結合位置特定部、169:結合位置推定部、170:画像結合部。 DESCRIPTION OF SYMBOLS 100: Image reading apparatus, 101: Imaging optical system, 102: Illumination light source, 103: Top plate, 104: Substrate, 141, 142, 143, 144, 145, 146, 147, 148: Image sensor part, 105: Line Memory: 106: Image combiner, 161: Storage unit, 162: Combined position information storage unit, 163: Control unit, 164: Combined position detection unit, 165: Correlation detection region setting unit, 166: Correlated detection region setting Unit, 167: correlation calculation unit, 168: combined position specifying unit, 169: combined position estimating unit, 170: image combining unit.

Claims (20)

第1の画像を取得する第1の撮像手段と、
主走査方向において、前記第1の画像の次に隣接する第2の画像を取得する第2の撮像手段と、
副走査方向に並ぶ複数の走査ラインにおいて、前記第1の撮像手段で撮像された前記第1の画像を複数有する第1の画像群、及び、前記第2の撮像手段で撮像された前記第2の画像を複数有する第2の画像群、を記憶する記憶手段と、
前記第1の画像群に含まれる前記第1の画像と、前記第2の画像群に含まれる画像と、を結合する結合位置を算出し、結合する制御手段と、を有し、
前記制御手段は、
前記第1の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭位置の前記第1の画像から連続する複数の走査ラインで取得された複数の前記第1の画像からなるマッチング領域を設定する相関検出用領域設定手段と、
前記第2の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭ラインから、前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、互いにサイズの異なる複数の被マッチング領域を設定する被相関検出用領域設定手段と、
前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する相関算出手段と、
前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示す場合には、前記マッチング領域と最も相関度の高い前記被マッチング領域を選択し、前記マッチング領域に含まれる前記第1の画像を結合する、前記被マッチング領域に含まれる画像の副走査方向における位置を、前記結合位置として特定し、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示さない場合には、前記マッチング領域に含まれる前記第1の画像の前記結合位置を特定する処理を保留する結合位置特定手段と、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像を結合する、前記第2の画像群に含まれる画像の副走査方向における位置を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像とは異なる他の前記第1の画像の前記結合位置から、前記結合位置として算出する結合位置推定手段と、
を備える
ことを特徴とする画像結合装置。
First imaging means for acquiring a first image;
A second imaging means for acquiring a second image adjacent to the first image in the main scanning direction;
In a plurality of scanning lines arranged in the sub-scanning direction, a first image group including a plurality of the first images captured by the first imaging unit, and the second image captured by the second imaging unit. Storage means for storing a second image group having a plurality of images;
Control means for calculating and combining a combining position for combining the first image included in the first image group and the image included in the second image group;
The control means includes
In the first image group, a matching region composed of a plurality of the first images acquired from a plurality of scanning lines continuous from the first image at the head position in the scanning line, for which the combined position is not calculated. Correlation detection area setting means for setting
In the second image group, a plurality of sizes different from each other including a matching region in which an image having the same size as the size of the matching region is obtained from the head line in the scanning line where the combined position is not calculated. Correlated detection area setting means for setting a matched area;
Correlation calculating means for calculating a value for specifying a degree of correlation between the matching region and each of the plurality of matching regions;
When the correlation level specified by the value specifying the correlation level indicates a correlation higher than a predetermined correlation level, the matching region having the highest correlation level with the matching region is selected, and the matching is performed. The position in the sub-scanning direction of the image included in the matching area that combines the first images included in the area is specified as the combination position, and the correlation degree specified by the value specifying the correlation degree is In a case where the correlation is not higher than a predetermined correlation degree, a combined position specifying unit that suspends processing for specifying the combined position of the first image included in the matching area;
The combined position specifying means determines the position in the sub-scanning direction of the image included in the second image group, which combines the first images for which the combined position specifying means has suspended the process of specifying the combined position. A combined position estimating means for calculating as the combined position from the combined position of the other first image different from the first image for which the process of specifying the combined position is suspended;
An image combining device comprising:
前記結合位置特定手段は、前記前記マッチング領域内の特定の画像領域に、画像のエッジとなり得るエッジ部分がない場合にも、前記結合位置を特定する処理を保留すること
を特徴とする請求項1に記載の画像結合装置。
The combination position specifying unit suspends the process of specifying the combination position even when there is no edge portion that can be an edge of an image in the specific image area in the matching area. The image combining device described in 1.
前記結合位置推定手段は、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像が含まれる走査ラインで取得された前記第1の画像に対して算出された前記結合位置の当該走査ラインとの第1のズレ量を算出する処理と、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像が含まれる走査ラインの一つ上の走査ラインで取得された前記第1の画像に対して算出された第2のズレ量を算出する処理と、
前記第1のズレ量と前記第2のズレ量との間の変化量を、同じ前記第1の画像群に含まれる前記第1の画像から算出する処理と、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において隣接する画像から算出された前記変化量に対応する変化量を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像の変化量として特定し、特定した変化量に対応する前記結合位置を算出する処理と、
を行うこと
を特徴とする請求項1又は2に記載の画像結合装置。
The coupling position estimation means includes
The combination position specifying unit and the scan line of the combination position calculated with respect to the first image acquired in the scan line including the first image for which the process of specifying the combination position is suspended. A process of calculating a first deviation amount;
The second calculated for the first image acquired in the scan line one above the scan line including the first image for which the combination position specifying unit has suspended the process of specifying the combination position. Processing to calculate the amount of deviation of
A process of calculating a change amount between the first shift amount and the second shift amount from the first images included in the same first image group;
A change amount corresponding to the change amount calculated from an adjacent image in the main scanning direction with respect to the first image for which the combination position specifying unit has suspended the process of specifying the combination position is specified as the combination position specification. A process in which the means specifies the change amount of the first image for which the process of specifying the combination position is suspended, and calculates the combination position corresponding to the specified change amount;
The image combining device according to claim 1, wherein:
前記結合位置推定手段は、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において最も近い位置から読み取られた画像から算出された前記変化量に対応する変化量を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像の変化量とすること
を特徴とする請求項3に記載の画像結合装置。
The coupling position estimation means includes
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the combination position specifying unit has suspended the process of specifying the combination position, the combination position specifying unit For the first image for which the process of specifying the combination position is suspended, a change amount corresponding to the change amount calculated from an image read from the closest position in the main scanning direction is determined as the combination position specification. The image combining apparatus according to claim 3, wherein a change amount of the first image in which processing for specifying the combination position is suspended by a unit is used.
前記結合位置推定手段は、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像の変化量はないものとすること
を特徴とする請求項3に記載の画像結合装置。
The coupling position estimation means includes
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the combination position specifying unit has suspended the process of specifying the combination position, the combination position specifying unit The image combination apparatus according to claim 3, wherein there is no change amount of the first image for which the process of specifying the combination position is suspended.
前記相関検出用領域設定手段は、前記マッチング領域に含まれる前記第1の画像のうち、走査ラインにおける先頭位置の前記第1の画像を注目ラインとし、
前記結合位置特定手段は、前記注目ラインに対応する前記第1の画像の前記結合位置を算出する
ことを特徴とする請求項1から5の何れか一項に記載の画像結合装置。
The correlation detection area setting means sets the first image at the head position in the scanning line as the attention line among the first images included in the matching area,
The image combination apparatus according to claim 1, wherein the combination position specifying unit calculates the combination position of the first image corresponding to the target line.
前記結合位置特定手段は、前記相関度を特定する値で特定される相関度が、予め定められた閾値に満たない場合には、前記結合位置の算出を保留し、
前記相関検出用領域設定手段は、前記結合位置特定手段が前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留された前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定手段は、前記相関検出用領域設定手段が前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項6に記載の画像結合装置。
The binding position specifying means suspends calculation of the binding position when the correlation specified by the value specifying the correlation is less than a predetermined threshold value,
The correlation detection area setting unit is configured to increase the first image included in the matching area and to suspend the calculation of the combined position when the combined position specifying unit has suspended the calculation of the combined position. The first image in the next lower line in the scan line of the first image is the attention line,
The correlated detection area setting means includes a plurality of different sizes including a matched area such that the correlation detection area setting means results in an image having the same size as the size of the matching area obtained by increasing the first image. Set the matching area of
The correlation calculating means calculates a value that specifies the degree of correlation between the matching area and each of the plurality of matched areas.
The image combining device according to claim 6, wherein the processing is repeated until the combined position specifying unit calculates the combined position.
前記結合位置特定手段は、前記注目ラインを含む特定の画像領域に、画像のエッジとなり得るエッジ部分がない場合には、前記結合位置の算出を保留し、
前記相関検出用領域設定手段は、前記結合位置特定手段が前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留された前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定手段は、前記相関検出用領域設定手段が前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項6又は7に記載の画像結合装置。
The combination position specifying unit suspends calculation of the combination position when there is no edge portion that can be an edge of the image in the specific image region including the target line
The correlation detection area setting unit is configured to increase the first image included in the matching area and to suspend the calculation of the combined position when the combined position specifying unit has suspended the calculation of the combined position. The first image in the next lower line in the scan line of the first image is the attention line,
The correlated detection area setting means includes a plurality of different sizes including a matched area such that the correlation detection area setting means results in an image having the same size as the size of the matching area obtained by increasing the first image. Set the matching area of
The correlation calculating means calculates a value that specifies the degree of correlation between the matching area and each of the plurality of matched areas.
The image combining device according to claim 6 or 7, wherein the processing is repeated until the combined position specifying unit calculates the combined position.
前記結合位置特定手段は、前記マッチング領域と、前記被マッチング領域と、のサイズが異なる場合には、前記被マッチング領域のサイズを変更して前記マッチング領域と同じサイズとし、変更された前記被マッチング領域における前記注目ラインに対応する位置及びサイズの画像を前記注目ラインに結合する結合画像とし、変更された被マッチング領域を元のサイズに戻した際の結合画像の位置及びサイズにより前記結合位置を特定する
ことを特徴とする請求項6から8の何れか一項に記載の画像結合装置。
If the size of the matching region and the matching region is different, the coupling position specifying unit changes the size of the matching region to the same size as the matching region, and the changed matching target An image having a position and size corresponding to the target line in the region is combined with the target line, and the combined position is determined based on the position and size of the combined image when the changed matching region is returned to the original size. The image combining device according to claim 6, wherein the image combining device is specified.
前記結合位置推定手段は、前記結合位置特定手段が前記結合位置の算出を保留した前記第1の画像が予め定めた数に達した場合に、最初に保留された前記第1の画像の前記結合位置を算出すること
を特徴とする請求項6から9の何れか一項に記載の画像結合装置。
The combination position estimation unit is configured to combine the first image held first when the first number of images for which the combination position specifying unit has suspended calculation of the combination position reaches a predetermined number. The position is calculated. The image combining device according to claim 6, wherein the position is calculated.
第1の画像を取得する第1の撮像手段と、
主走査方向において、前記第1の画像の次に隣接する第2の画像を取得する第2の撮像手段と、
副走査方向に並ぶ複数の走査ラインにおいて、前記第1の撮像手段で撮像された前記第1の画像を複数有する第1の画像群、及び、前記第2の撮像手段で撮像された前記第2の画像を複数有する第2の画像群、を記憶する記憶手段と、
前記第1の画像群に含まれる前記第1の画像と、前記第2の画像群に含まれる画像と、を結合する結合位置を算出し、結合する制御手段と、を有する画像結合装置が行う画像結合位置算出方法であって、
前記制御手段が、前記第1の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭位置の前記第1の画像から連続する複数の走査ラインで取得された複数の前記第1の画像からなるマッチング領域を設定する相関検出用領域設定手段と、
前記制御手段が、前記第2の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭ラインから、前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、互いにサイズの異なる複数の被マッチング領域を設定する被相関検出用領域設定処理ステップと、
前記制御手段が、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する相関算出処理ステップと、
前記制御手段が、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示す場合には、前記マッチング領域と最も相関度の高い前記被マッチング領域を選択し、前記マッチング領域に含まれる前記第1の画像を結合する、前記被マッチング領域に含まれる画像の副走査方向における位置を、前記結合位置として特定し、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示さない場合には、前記マッチング領域に含まれる前記第1の画像の前記結合位置を特定する処理を保留する結合位置特定処理ステップと、
前記制御手段が、前記結合位置特定処理ステップで、前記結合位置を特定する処理を保留された前記第1の画像を結合する、前記第2の画像群に含まれる画像の副走査方向における位置を、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像とは異なる他の前記第1の画像の前記結合位置から、前記結合位置として算出する結合位置推定処理ステップと、
を有する
ことを特徴とする画像結合位置算出方法。
First imaging means for acquiring a first image;
A second imaging means for acquiring a second image adjacent to the first image in the main scanning direction;
In a plurality of scanning lines arranged in the sub-scanning direction, a first image group including a plurality of the first images captured by the first imaging unit, and the second image captured by the second imaging unit. Storage means for storing a second image group having a plurality of images;
A control unit that calculates and combines a coupling position for coupling the first image included in the first image group and the image included in the second image group is performed. An image combination position calculation method,
The control means includes a plurality of the first images acquired from a plurality of scanning lines continuous from the first image at the head position in the scanning line, in which the combined position is not calculated in the first image group. Correlation detection area setting means for setting a matching area consisting of images;
In the second image group, the control means includes a matching region in which the combined position is not calculated, and the matching region is an image having the same size as the size of the matching region from the head line in the scanning line. A correlated detection area setting processing step for setting a plurality of matched areas of different sizes;
A correlation calculation processing step in which the control means calculates a value specifying a degree of correlation between the matching area and each of the plurality of matching areas;
In the case where the control means shows a correlation higher than a predetermined correlation degree, the matching area having the highest correlation degree with the matching area is selected as the correlation area specified by the value specifying the correlation degree. The position in the sub-scanning direction of the image included in the matching area to be selected and combined with the first image included in the matching area is specified as the combination position, and specified by the value specifying the correlation degree When the correlation degree to be displayed does not indicate a correlation higher than a predetermined correlation degree, a combined position specifying process step for deferring the process of specifying the combined position of the first image included in the matching region When,
The control unit is configured to determine a position in the sub-scanning direction of an image included in the second image group, in which the first image for which the process of specifying the combining position is suspended is combined in the combining position specifying processing step. A combined position estimation process for calculating the combined position from the combined position of the first image different from the first image for which the process of specifying the combined position in the combined position specifying process step is suspended. Steps,
An image combination position calculation method characterized by comprising:
前記結合位置特定処理ステップは、前記前記マッチング領域内の特定の画像領域に、画像のエッジとなり得るエッジ部分がない場合にも、前記結合位置を特定する処理を保留すること
を特徴とする請求項11に記載の画像結合位置算出方法。
The combination position specifying processing step suspends the process of specifying the combination position even when there is no edge portion that can be an edge of an image in the specific image area in the matching area. 11. The image combination position calculation method according to 11.
前記結合位置推定処理ステップは、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像が含まれる走査ラインで取得された前記第1の画像に対して算出された前記結合位置の当該走査ラインとの第1のズレ量を算出する処理を行うステップと、
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像が含まれる走査ラインの一つ上の走査ラインで取得された前記第1の画像に対して算出された第2のズレ量を算出する処理を行うステップと、
前記第1のズレ量と前記第2のズレ量との間の変化量を、同じ前記第1の画像群に含まれる前記第1の画像から算出する処理を行うステップと、
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において隣接する画像から算出された前記変化量に対応する変化量を、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像の変化量として特定し、特定した変化量に対応する前記結合位置を算出する処理を行うステップと、
を行うこと
を特徴とする請求項11又は12に記載の画像結合位置算出方法。
The combined position estimation processing step includes:
The combination position specifying unit and the scan line of the combination position calculated with respect to the first image acquired in the scan line including the first image for which the process of specifying the combination position is suspended. Performing a process of calculating a first deviation amount;
Calculated for the first image acquired in the scan line one above the scan line including the first image for which the process of specifying the combined position is suspended in the combined position specifying process step. Performing a process of calculating a second deviation amount;
Performing a process of calculating a change amount between the first shift amount and the second shift amount from the first images included in the same first image group;
The amount of change corresponding to the amount of change calculated from the adjacent image in the main scanning direction with respect to the first image for which the process of specifying the combining position in the combining position specifying processing step is suspended Performing a process of specifying the change position of the first image for which the process of specifying the combination position in the position specifying process step is suspended and calculating the combination position corresponding to the specified change amount;
The image combining position calculation method according to claim 11 or 12, wherein:
前記結合位置推定処理ステップは、
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において最も近い位置から読み取られた画像から算出された前記変化量に対応する変化量を、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像の変化量とすること
を特徴とする請求項13に記載の画像結合位置算出方法。
The combined position estimation processing step includes:
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the process of specifying the combined position in the combined position specifying process step is suspended, the combined position A change amount corresponding to the change amount calculated from the image read from the closest position in the main scanning direction with respect to the first image for which the process of specifying the coupling position in the specifying process step is suspended. The image combination position calculation method according to claim 13, wherein a change amount of the first image for which the process of specifying the combination position is suspended in the combination position specification processing step is used.
前記結合位置推定処理ステップは、
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像の変化量はないものとすること
を特徴とする請求項13に記載の画像結合位置算出方法。
The combined position estimation processing step includes:
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the process of specifying the combined position in the combined position specifying process step is suspended, the combined position The image combination position calculation method according to claim 13, wherein there is no change amount of the first image for which the process of specifying the combination position in the specifying process step is suspended.
前記相関検出用領域設定処理ステップでは、前記制御手段は、前記マッチング領域に含まれる前記第1の画像のうち、走査ラインにおける先頭位置の前記第1の画像を注目ラインとし、
前記結合位置特定処理ステップでは、前記制御手段は、前記注目ラインに対応する前記第1の画像の前記結合位置を算出する
ことを特徴とする請求項11から15の何れか一項に記載の画像結合位置算出方法。
In the correlation detection region setting processing step, the control means sets the first image at the head position in the scanning line as the attention line among the first images included in the matching region,
The image according to any one of claims 11 to 15, wherein, in the combined position specifying processing step, the control unit calculates the combined position of the first image corresponding to the target line. Bonding position calculation method.
前記結合位置特定処理ステップでは、前記制御手段は、前記相関度を特定する値で特定される相関度が、予め定められた閾値に満たない場合には、前記結合位置の算出を保留し、
前記相関検出用領域設定処理ステップでは、前記制御手段は、前記結合位置特定処理ステップで前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留した前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定処理ステップでは、前記制御手段は、前記相関検出用領域設定処理ステップで前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出処理ステップでは、前記制御手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定処理ステップで、前記制御手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項16に記載の画像結合位置算出方法。
In the combined position specifying processing step, the control means suspends calculation of the combined position when the correlation specified by the value specifying the correlation is less than a predetermined threshold,
In the correlation detection region setting processing step, the control means increases the first image included in the matching region when the calculation of the combined position is suspended in the combined position specifying processing step, and The first image of the next lower line in the scan line of the first image for which the position calculation is suspended is set as the attention line,
In the correlated detection region setting processing step, the control unit is configured to match the matching region so that an image having the same size as the size of the matching region obtained by increasing the first image in the correlation detection region setting processing step is obtained. Set multiple matching areas with different sizes, including
In the correlation calculation processing step, the control means calculates a value that specifies a degree of correlation between the matching region and each of the plurality of matching regions.
The image combination position calculation method according to claim 16, wherein the process is repeated until the control unit calculates the combination position in the combination position specification processing step.
前記結合位置特定処理ステップでは、前記制御手段は、前記注目ラインを含む特定の画像領域に、画像のエッジとなり得るエッジ部分がない場合には、前記結合位置の算出を保留し、
前記相関検出用領域設定処理ステップでは、前記制御手段は、前記結合位置特定手段が前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留された前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定処理ステップでは、前記制御手段は、前記相関検出用領域設定処理ステップで前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出処理ステップでは、前記制御手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定処理ステップで、前記制御手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項16又は17に記載の画像結合位置算出方法。
In the combined position specifying processing step, the control unit suspends calculation of the combined position when there is no edge portion that can be an edge of the image in the specific image area including the target line,
In the correlation detection region setting processing step, the control unit increases the first image included in the matching region when the combined position specifying unit has suspended calculation of the combined position, and the combined position The first image in the line below the scanning line of the first image for which the calculation of
In the correlated detection region setting processing step, the control unit is configured to match the matching region so that an image having the same size as the size of the matching region obtained by increasing the first image in the correlation detection region setting processing step is obtained. Set multiple matching areas with different sizes, including
In the correlation calculation processing step, the control means calculates a value that specifies a degree of correlation between the matching region and each of the plurality of matching regions.
18. The image combination position calculation method according to claim 16, wherein the processing is repeated until the control unit calculates the combination position in the combination position specification processing step.
前記結合位置特定処理ステップでは、前記制御手段は、前記マッチング領域と、前記被マッチング領域と、のサイズが異なる場合には、前記被マッチング領域のサイズを変更して前記マッチング領域と同じサイズとし、変更された前記被マッチング領域における前記注目ラインに対応する位置及びサイズの画像を前記注目ラインに結合する結合画像とし、変更された被マッチング領域を元のサイズに戻した際の結合画像の位置及びサイズにより前記結合位置を特定する
ことを特徴とする請求項16から18の何れか一項に記載の画像結合位置算出方法。
In the coupling position specifying processing step, when the size of the matching region and the matching region is different, the control unit changes the size of the matching region to be the same size as the matching region, An image having a position and size corresponding to the target line in the changed matching area is used as a combined image that is combined with the target line, and the position of the combined image when the changed matching area is returned to the original size and The image combination position calculation method according to any one of claims 16 to 18, wherein the combination position is specified by a size.
前記結合位置推定処理ステップでは、前記制御手段は、前記結合位置特定処理ステップで、前記制御手段が前記結合位置の算出を保留した前記第1の画像が予め定めた数に達した場合に、最初に保留された前記第1の画像の前記結合位置を算出すること
を特徴とする請求項16から19の何れか一項に記載の画像結合位置算出方法。
In the combined position estimation processing step, the control means starts when the number of the first images for which the control means has suspended calculation of the combined position in the combined position specifying processing step reaches a predetermined number. The image combination position calculation method according to any one of claims 16 to 19, wherein the combination position of the first image held on the left is calculated.
JP2009243624A 2009-10-22 2009-10-22 Image combination apparatus and image combination position calculation method Expired - Fee Related JP5322885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009243624A JP5322885B2 (en) 2009-10-22 2009-10-22 Image combination apparatus and image combination position calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009243624A JP5322885B2 (en) 2009-10-22 2009-10-22 Image combination apparatus and image combination position calculation method

Publications (2)

Publication Number Publication Date
JP2011091638A JP2011091638A (en) 2011-05-06
JP5322885B2 true JP5322885B2 (en) 2013-10-23

Family

ID=44109465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009243624A Expired - Fee Related JP5322885B2 (en) 2009-10-22 2009-10-22 Image combination apparatus and image combination position calculation method

Country Status (1)

Country Link
JP (1) JP5322885B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016163133A1 (en) * 2015-04-09 2016-10-13 三菱電機株式会社 Image combination device, image reading device and image combination method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5970970B2 (en) * 2012-06-13 2016-08-17 富士通株式会社 Image processing apparatus, method, and program
KR101298277B1 (en) * 2013-01-14 2013-08-20 김종덕 Device and method for authoring cubic-map and computer-readable recording medium for the same
JP6413542B2 (en) * 2014-09-22 2018-10-31 富士ゼロックス株式会社 Image processing apparatus and image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3616256B2 (en) * 1998-07-03 2005-02-02 シャープ株式会社 Image processing device
WO2009122483A1 (en) * 2008-03-31 2009-10-08 三菱電機株式会社 Image scanner

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016163133A1 (en) * 2015-04-09 2016-10-13 三菱電機株式会社 Image combination device, image reading device and image combination method
JP6075588B1 (en) * 2015-04-09 2017-02-08 三菱電機株式会社 Image combining apparatus, image reading apparatus, and image combining method
US9936098B2 (en) 2015-04-09 2018-04-03 Mitsubishi Electric Corporation Image combination device, image reading device and image combination method

Also Published As

Publication number Publication date
JP2011091638A (en) 2011-05-06

Similar Documents

Publication Publication Date Title
KR101141345B1 (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium
CN101510936B (en) Image reading device and image forming apparatus
KR101297959B1 (en) Image reading apparatus
US20130020470A1 (en) Camera system with multiple pixel arrays on a chip
JP2004226128A (en) Apparatus and method for visual inspection
JP2012109737A (en) Image coupler, image coupling method, image input/output system. program and recording medium
JP5322885B2 (en) Image combination apparatus and image combination position calculation method
JP5202267B2 (en) Image reading device
JP4947072B2 (en) Image reading device
JP5495710B2 (en) Image combination apparatus and image combination position calculation method
JP4913089B2 (en) Image reading device
JP2019179342A (en) Image processing device and image processing method
JP2006112912A (en) Defect inspection device
JP5068236B2 (en) Image reading device
JP2013110582A (en) Image reading apparatus, image reading method and mtf compensation parameter determining method
CN116134289A (en) Three-dimensional measuring device
JP6246379B2 (en) Image processing apparatus, image processing method, image reading apparatus, and program
JP5224976B2 (en) Image correction apparatus, image correction method, program, and recording medium
JP2002232654A (en) Device and method for image processing and computer readable recording medium with program for making computer perform the method recorded thereon
JP2014042147A (en) Image reading device
JP4965594B2 (en) Image reading device
JPS5837923A (en) Inspection apparatus for photo mask
EP2798573B1 (en) Method and system for recording images of surfaces of moving objects with reduced distortion
JP2009188829A (en) Image reading device and image forming device
EP2293537A1 (en) Imaging system &amp; method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130716

R150 Certificate of patent or registration of utility model

Ref document number: 5322885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees