JP5322885B2 - Image combination apparatus and image combination position calculation method - Google Patents
Image combination apparatus and image combination position calculation method Download PDFInfo
- Publication number
- JP5322885B2 JP5322885B2 JP2009243624A JP2009243624A JP5322885B2 JP 5322885 B2 JP5322885 B2 JP 5322885B2 JP 2009243624 A JP2009243624 A JP 2009243624A JP 2009243624 A JP2009243624 A JP 2009243624A JP 5322885 B2 JP5322885 B2 JP 5322885B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- specifying
- line
- combined
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
Description
本発明は、主走査方向において取得された複数の画像を結合する技術に関する。 The present invention relates to a technique for combining a plurality of images acquired in a main scanning direction.
一般に、ディジタル複写機、イメージスキャナ、及び、ファクシミリ装置等に適用される画像入出力システムでは、その入力手段、例えば、一次元撮像素子(ラインセンサ)を原稿の読み取り方向に移動させるか、又は、読み取られる原稿をラインセンサに対して移動させて、1ラインごとに画像を読み取ることが良く知られている。また、ラインセンサに平行な方向を主走査方向、ラインセンサに対して垂直な方向(原稿又はラインセンサの移動方向)を副走査方向と呼ぶ。 Generally, in an image input / output system applied to a digital copying machine, an image scanner, a facsimile machine, etc., its input means, for example, a one-dimensional image sensor (line sensor) is moved in the reading direction of the document, or It is well known to read an image line by line by moving a document to be read with respect to a line sensor. A direction parallel to the line sensor is called a main scanning direction, and a direction perpendicular to the line sensor (moving direction of the document or the line sensor) is called a sub-scanning direction.
このような画像入出力システムでラインセンサとして用いられるCCDセンサ又はCMOSセンサは、半導体集積技術における製造上の問題から通常6インチ又は8インチウェハで生産されるため、A3サイズ以上の原稿を読み取ることができる長尺のラインセンサを製造することは困難である。 A CCD sensor or a CMOS sensor used as a line sensor in such an image input / output system is usually produced on a 6-inch or 8-inch wafer due to manufacturing problems in the semiconductor integrated technology, and therefore reads an A3 size or larger document. It is difficult to manufacture a long line sensor that can
そのため、従来は、必要とする長さより短い短尺のラインセンサを複数、ライン上に配置したものを、一つの長尺ラインセンサとして用い、原稿の1ライン分をそれぞれ短尺のラインセンサで分割して読み取るとともに、複数のラインセンサで読み取られた画像間において欠落する箇所には画素補間処理を行うことで、欠落する箇所の画像を補っていた。 For this reason, conventionally, a plurality of short line sensors shorter than the required length are arranged on the line as one long line sensor, and one line of the original is divided by each short line sensor. In addition to reading, a pixel interpolation process is performed on a missing portion between images read by a plurality of line sensors to compensate for the missing portion image.
しかしながら、このような画素補間処理では欠落した箇所の画像として十分な精度の画像を得ることができない。そのため、特許文献1では、読み取り時に原稿内の画像データが欠落しないように、複数の短尺のラインセンサを千鳥状に配置し、原稿の1ラインの領域の画像情報を異なった時間で各々の分割領域として読み取るとともに、各分割領域の境界付近の画像データを数画素分重複して読み取り、隣接する2つの短尺のラインセンサで読み取る画像の端部が主走査方向に数画素分重なるように構成した入力手段に関する技術が開示されている。そして、特許文献1に記載の技術では、千鳥状に配置された短尺のラインセンサに副走査方向のギャップがあるため、このようなギャップにより短尺のラインセンサで読み取られる画像には空間的なズレが生ずる。このため、特許文献1に記載の技術では、各々の短尺のラインセンサで読み取られた画像を結合する際に、固定のズレ量(ギャップ)Δxを予め定めておき、メモリを用いた遅延によりそのズレ量Δxを補正して結合を行う。
However, with such pixel interpolation processing, an image with sufficient accuracy cannot be obtained as an image of a missing portion. For this reason, in
特許文献2には、複数の画像を合成して1枚の画像を生成する技術が開示されている。例えば、特許文献2に記載された技術では、相互の歪み/伸縮検出部により、画像相互の歪みやズレを検出し、この検出結果に基づいて画像補正部によって画像を補正し、画像合成部によって複数の画像を結合する。
特許文献1に記載の技術では、装置の構造上の問題等により、原稿の読み取り中にズレ量が増減したり、短尺のラインセンサで読み取られる画像のズレ量が最初に定めたズレ量Δxと異なる値に変化したりすると、そのズレ量の変化分だけ画像結合後の画質に影響を与える。
In the technique described in
特許文献2に記載の技術では、画像のズレが原稿の読み取り位置により異なる場合でも画像を補正し適切に結合できるが、例えば、薄いグラディエーションや白無地など、ズレや歪み検出位置の目安となるエッジなどの特徴的な画像が存在しない部分においては、その前後にある特徴的な画像部分で検出したズレ量や歪み量に基づいて補完方法を決めるため、結合位置検出に用いる領域すべての読み取りと特徴的な画像が存在する位置での画像相互の歪みやズレの検出をあらかじめ完了しておかないと画像接合処理に移れない。また、A4サイズやA3サイズの原稿の幅に相当する数のラインセンサを一列に並べて同時に走査する装置においては、膨大な処理時間が必要になる。
In the technique described in
そこで、本発明は、画像信号処理によって複数の画像の結合を高速かつ高精度に行うことを目的とする。 Therefore, an object of the present invention is to combine a plurality of images with high speed and high accuracy by image signal processing.
以上の課題を解決するため、本発明は、第1の画像を取得する第1の撮像手段と、主走査方向において、前記第1の画像の次に隣接する第2の画像を取得する第2の撮像手段と、副走査方向に並ぶ複数の走査ラインにおいて、前記第1の撮像手段で撮像された前記第1の画像を複数有する第1の画像群、及び、前記第2の撮像手段で撮像された前記第2の画像を複数有する第2の画像群、を記憶する記憶手段と、前記第1の画像群に含まれる前記第1の画像と、前記第2の画像群に含まれる画像と、を結合する結合位置を算出し、結合する制御手段と、を有し、前記制御手段は、前記第1の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭位置の前記第1の画像から連続する複数の走査ラインで取得された複数の前記第1の画像からなるマッチング領域を設定する相関検出用領域設定手段と、前記第2の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭ラインから、前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、互いにサイズの異なる複数の被マッチング領域を設定する被相関検出用領域設定手段と、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する相関算出手段と、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示す場合には、前記マッチング領域と最も相関度の高い前記被マッチング領域を選択し、前記マッチング領域に含まれる前記第1の画像を結合する、前記被マッチング領域に含まれる画像の副走査方向における位置を、前記結合位置として特定し、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示さない場合には、前記マッチング領域に含まれる前記第1の画像の前記結合位置を特定する処理を保留する結合位置特定手段と、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像を結合する、前記第2の画像群に含まれる画像の副走査方向における位置を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像とは異なる他の前記第1の画像の前記結合位置から、前記結合位置として算出する結合位置推定手段と、を備えることを特徴とする。 In order to solve the above-described problems, the present invention provides a first imaging unit that acquires a first image and a second image that acquires a second image adjacent to the first image in the main scanning direction. The first image group having a plurality of the first images picked up by the first image pickup means and the second image pickup means in a plurality of scanning lines arranged in the sub-scanning direction Storage means for storing the second image group having a plurality of the second images, the first image included in the first image group, and the image included in the second image group , And a control unit for combining, wherein the control unit includes the first position of the head position on the scanning line in which the combination position is not calculated in the first image group. A plurality of images acquired from a plurality of continuous scanning lines from one image. Correlation detection area setting means for setting a matching area consisting of the first image, and a size of the matching area from the first line in the scanning line in which the combined position is not calculated in the second image group Correlated detection area setting means for setting a plurality of matching areas having different sizes including a matching area that results in an image of the same size, the matching area, and each of the plurality of matching areas, Correlation calculating means for calculating a value for specifying the correlation degree, and when the correlation degree specified by the value for specifying the correlation degree indicates a correlation higher than a predetermined correlation degree, The matching region is selected by selecting the matching region having the highest degree of correlation and combining the first images included in the matching region. When the position in the sub-scanning direction of the included image is specified as the combination position, and the degree of correlation specified by the value specifying the degree of correlation does not indicate a correlation higher than a predetermined degree of correlation, A combination position specifying unit for deferring the process of specifying the combination position of the first image included in the matching area; and the first image for which the combination position specifying unit has deferred the process of specifying the combination position. The position of the image included in the second image group to be combined in the sub-scanning direction is different from the first image in which the combination position specifying unit has suspended the process of specifying the combination position. And a combined position estimating means for calculating the combined position from the combined position of the image.
以上のように、本発明によれば、複数の画像の結合を高速かつ高精度に行う画像合成装置を提供することができる。 As described above, according to the present invention, it is possible to provide an image composition device that combines a plurality of images with high speed and high accuracy.
実施の形態1.
図1は本発明の実施の形態1に係る画像読取装置100の概略図である。図示するように、画像読取装置100は、結像光学系101と、照明光源102と、天板103と、基板104上に配置された複数の撮像素子部141,142,143,144,145,146,147,148と、ラインメモリ105と、画像結合装置106と、を有する。
FIG. 1 is a schematic diagram of an
なお、図1は本実施の形態の画像結合装置106をディジタル複写機に適用した場合の例であり、複数の画像を結合することが必要な装置、例えば、ハンドスキャナ、ファクシミリ、パノラマ画像合成装置などにも適用できる。
FIG. 1 shows an example in which the
以下においては、XYZ直交座標系を用いて説明を行う。画像の読み取りにおける主走査方向DxをX軸とし、主走査方向Dxに直交する副走査方向DyをY軸とし、主走査方向Dx及び副走査方向Dyの両方に直交する深度方向DzをZ軸とする。したがって、主走査方向Dxは「X軸方向」とも言い、副走査方向Dyは「Y軸方向」とも言い、深度方向Dzは「Z軸方向」とも言う。また、以下の説明において、Z軸方向は、画像読取装置100の厚み方向である。
In the following description, an XYZ orthogonal coordinate system is used. In the image reading, the main scanning direction Dx is the X axis, the sub scanning direction Dy orthogonal to the main scanning direction Dx is the Y axis, and the depth direction Dz orthogonal to both the main scanning direction Dx and the sub scanning direction Dy is the Z axis. To do. Accordingly, the main scanning direction Dx is also referred to as “X-axis direction”, the sub-scanning direction Dy is also referred to as “Y-axis direction”, and the depth direction Dz is also referred to as “Z-axis direction”. In the following description, the Z-axis direction is the thickness direction of the
結像光学系101は、後述するように基板104上に千鳥状に配列された複数の短尺のラインセンサ141,142,・・・,148に対応する複数の結像光学部111,112,・・・,118を含む。
The imaging
結像光学部111,112,・・・,118のそれぞれは、機能的に独立した光学手段である。複数の結像光学部111,112,・・・,118は、XY面に平行な面上で千鳥状(隣接する結像光学部が、X軸方向に所定の間隔離れた第1の位置と、X軸方向及びY軸方向に所定の間隔離れた第2の位置と、に並べられた状態)に配置されている円柱状の光学セルによって構成される(通常セルフォックレンズアレイと称されるものである)。 Each of the imaging optical units 111, 112,..., 118 is a functionally independent optical means. The plurality of imaging optical units 111, 112,..., 118 are staggered on a plane parallel to the XY plane (adjacent imaging optical units are spaced apart from each other at a predetermined position in the X-axis direction). , Composed of cylindrical optical cells arranged in a second position spaced apart by a predetermined distance in the X-axis direction and the Y-axis direction (usually referred to as a Selfoc lens array). ).
ここで、実施の形態1においては、複数の結像光学部111,112,・・・,118のうちの、主走査方向Dxに並ぶ1列の結像光学部111,113,115,117を、第1の結像光学部群といい、主走査方向Dxに並ぶ1列の結像光学部112,114,116,118を、第2の結像光学部群という。このように、複数のセルによって結像光学系を構成しているので装置を小型化することができる。
Here, in the first embodiment, among the plurality of imaging optical units 111, 112,..., 118, one row of imaging
第1の結像光学部群111,113,115,117は、原稿の被撮像領域31,33,35,37から第1の結像光学部群111,113,115,117に向かう第1の光の主光線が互いに平行になるように構成されている。すなわち、第1の結像光学部群111,113,115,117は、結像光学部の光軸が互いに平行になるように構成されている。また、第2の結像光学部群112,114,116,118は、原稿の被撮像領域32,34,36,38から第2の結像光学部群112,114,116,118に向かう第2の光の主光線が互いに平行になるように構成されている。すなわち、第2の結像光学部群112,114,116,118は、結像光学部の光軸が互いに平行になるように構成されている。
The first imaging
なお、図1には、結像光学系101が、第1の結像光学部群111,113,115,117と第2の結像光学部群112,114,116,118からなる場合を説明したが、本発明はこのような態様に限定されず、副走査方向Dyに結合光学部群が3列以上配置されるようにすることもできる。
FIG. 1 illustrates a case where the imaging
基板104には、短尺のラインセンサ141,142,・・・,148が、結像光学部111,112,・・・,118に対応するように千鳥状に形成される。主走査方向Dxに並ぶ1列の短尺のラインセンサ141,143,145,147は、第1の結像光学部群111,113,115,117に対応するように配置され、これらの1列の短尺のラインセンサ141,143,145,147を第1の撮像素子部群という。また、主走査方向Dxに並ぶ1列の短尺のラインセンサ142,144,146,148は、第2の結像光学部群112,114,116,118に対応するように配置され、これらの1列の短尺のラインセンサ142,144,146,148を第2の撮像素子部群という。
On the
なお、図1には、基板104に、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、が形成される場合を説明したが、このような態様に限定されず、基板104の副走査方向Dyに、撮像素子部群が3列以上配置されるようにすることもできる。
FIG. 1 illustrates a case where the first image
照明光源102は、例えば、蛍光灯又はLEDなどから構成される。照明光源102は、例えば、天板103の下方であって原稿の被撮像領域31,32,33,34,35,36,37,38の読み取りに支障が生じない位置に配置される。照明光源102は、原稿の被撮像領域31,32,・・・,38に光を照射する。なお、照明光源102の形状は、図1に示されるような長尺形状に限定されず、他の形状であってもよい。また、図1には、照明光源102が、結像光学系101の副走査方向Dyの一方の側にのみ配置されている場合を示したが、照明光源を結像光学系101の副走査方向Dyの両側に配置してもよい。
The
天板103は、被撮像物(被写体)の一例である原稿(図1には図示せず)が載置される原稿載置部材であり、例えば、透明なガラス板で構成することができる。また、天板103は、原稿の深度方向Dzの位置(すなわち、結像光学系101から原稿の被撮像領域までの距離)を決めることができる位置決め部として機能する。天板103には、原稿が、天板103の上面103aの位置又はこの上面103aから深度方向Dzにずれた位置に載置される。実施の形態1においては、天板103の上面103aを合焦位置としており、原稿の読み取り位置に存在する被撮像領域31,32,・・・,38が合焦位置にあるときには、原稿の被撮像領域31,32,・・・,38から結像光学系101を通してラインセンサ141,142,・・・,148に画像を結像する。
The
なお、天板103は、被撮像物の位置決め部として機能し、原稿の被撮像領域31,32,・・・,38を撮像可能にできる構成であれば、ガラス板に限定されず、原稿を位置決めできる他の手段であってもよい。また、被撮像物には、文章、書画、写真などを表示した原稿の他に、紙幣、人間の指などのように、画像を読み取る対象となり得るすべてのものが含まれる。
The
図1において、被撮像領域31,32,・・・,38は、原稿の天板103側の面であって、ラインセンサ141,142,・・・,148によって読み取られる領域(視野範囲)であり、主走査方向Dxに並ぶ複数の領域である。ここで、被撮像領域31,32,・・・,38は、主走査方向Dxにおいて各々の領域の一部が重なり合うようにされている。
In FIG. 1, imaged
そして、画像読取装置100は、主走査方向Dxに沿って天板103上の原稿の被撮像領域31,32,・・・,38の画像を読み取り、主走査方向Dxの読み取りが完了する毎に、副走査方向Dyに読み取り位置を相対的に移動させる。この副走査方向Dyの読み取り位置の移動は、原稿の移動又は結像光学系101を含む画像読取装置200の移動のいずれかによって行うことができる。
The
ラインメモリ105は、第1の撮像素子部群141,143,145,147及び第2の撮像素子部群142,144,146,148によって取得された画像情報を一時的に記憶する記憶部であり、主走査方向に読み取っていった披撮像領域31,32,・・・,38を1ラインとして複数のラインを記憶保持する。
The
画像結合装置106は、ラインメモリ105に記憶された画像情報を結合することによって結合画像を生成する。図1には、ラインメモリ105と画像結合装置106とを別個の構成として示しているが、これらは、例えば、同じ回路基板上の一体的な構成であってもよい。
The
ここで、本実施の形態のように、短尺のラインセンサ141,142,・・・,148は、被撮影領域31,32,・・・,38を分割して読み取っていくため、ラインセンサ141,142,…,148からは読み取り原稿が分割された複数の画像が出力される。例えば、図2に示すように、原稿が分割された画像が出力され、原稿の複写を行うにはこれら複数に画像を一枚の画像に結合しなければならない。
Here, the
ここで、本実施の形態のように、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、を副走査方向Dyにおいて、所定の間隔を離して配置し、第1の撮像素子部群141,143,145,147の光軸及び第2の撮像素子部群142,144,146,148の光軸が、YZ平面に投影された場合に、合焦位置(本実施の形態においては、天板103の上面103a)において交差するようにした場合には、隣り合う画像の主走査方向Dxの結合位置は一定だが、副走査方向Dyの結合位置は原稿の位置(原稿と天板103の間の距離)に応じて変化する。
Here, as in the present embodiment, the first image
そのため、図3に示すように結合する画像位置が副走査方向Dyにずれた画像が得られるため、隣接する2つの画像を結合するときには重ね合わせの位置を調整したうえで結合する必要がある。なお、一方において、このように画像が副走査方向Dyにずれることにより得られる効果がある。副走査方向Dyにずれている量が分かると、原稿と天板103の間の距離Δzを求めることができる。天板103から原稿面までの距離Δzを画像のぼやけ補正処理のパラメータとして使用することにより、ぼやけ具合に応じた適切な補正が行えるため、画質の改善が期待できる。
Therefore, as shown in FIG. 3, an image in which the image position to be combined is shifted in the sub-scanning direction Dy is obtained. Therefore, when two adjacent images are combined, it is necessary to adjust the overlapping position and combine them. On the other hand, there is an effect obtained by shifting the image in the sub-scanning direction Dy in this way. When the amount of deviation in the sub-scanning direction Dy is known, the distance Δz between the original and the
図4を用いて、副走査方向Dyに画像のズレが生じる原理について更に詳しく説明する。図4では、画像読取装置100が左から右に移動しながら、一部において天板103からΔz浮いている原稿70を読み取る場合を例とする。
With reference to FIG. 4, the principle of image misalignment in the sub-scanning direction Dy will be described in more detail. In FIG. 4, as an example, the
画像読取装置100がP1及びP3の位置にあるときには、天板103の上面103aと原稿70とが接しているため、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、が読み取る画像にずれはない。一方、画像読取装置100がP2の位置にあるときには、天板103の上面103aと原稿70とがΔzの距離離れているため、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、が読み取る画像にはΔyのズレがある。
When the
図4のように合焦位置(合焦面)に対して間隔の開いている原稿70を読み取ると、隣り合う画像のズレ量が原稿70と合焦位置との間の距離Δzに応じて変化する。特許文献1に記載の技術のように、予め固定のズレ量を定め、メモリを用いた遅延によりそのズレを補正しながら画像の結合を行うと、ズレ量(ここでは、原稿70と合焦位置との間の距離)が変化すると画像が滑らかに繋がらない。よって、高精度な画像の結合を行うためには、隣接する2枚の画像が繋がる位置の検出と画像の拡大又は縮小が必要となる。
As shown in FIG. 4, when a
図5は、画像結合装置106の機能構成を示す機能ブロック図である。図示するように、画像結合装置106は、記憶部161と、制御部163と、を有する。
FIG. 5 is a functional block diagram showing a functional configuration of the
記憶部161は、結合位置情報記憶部162を有する。結合位置情報記憶部162には、各ラインセンサで撮像された各ラインにおける画像を、隣接するラインセンサで撮像された各ラインにおける画像と結合させる位置を特定する結合位置情報が記憶される。例えば、本実施の形態においては、図6に示すような結合位置情報テーブル162aが記憶される。
The
図示するように、結合位置情報テーブル162aは、画像群列162bと、ライン位置行162cと、結合位置格納領域162dと、を有する。
As illustrated, the combined position information table 162a includes an
画像群列162bは、各ラインセンサ141,142,・・・,148で読み取られた画像を特定する。例えば、1画像群は、ラインセンサ141で撮像された画像を、2画像群は、ラインセンサ142で撮像された画像を、3画像群は、ラインセンサ143で撮像された画像を、4画像群は、ラインセンサ144で撮像された画像を、5画像群は、ラインセンサ145で撮像された画像を、6画像群は、ラインセンサ146で撮像された画像を、7画像群は、ラインセンサ147で撮像された画像を、示す。
The
ライン位置行162cは、画像を読み取る副走査方向Dyにおける走査ラインの位置を特定する。例えば、1ライン目は、副走査方向Dyにおける最初(先頭)の走査ラインを、2ライン目は、副走査方向Dyにおける1ライン目の次の走査ラインを、3ライン目は、副走査方向Dyにおける2ライン目の次の走査ラインを、4ライン目は、副走査方向Dyにおける3ライン目の次の走査ラインを、示す。なお、ライン位置行162cには、画像を読み取る原稿等の対象に応じて定まる走査ラインの数の行が設けられる。また、必要最小限のライン数(本実施の形態の場合、hMAX(後述)+1ライン)の行を設けて使いまわしてもよい。
The
結合位置格納領域162dには、ライン列行162cで特定される走査ラインにおいて、画像群列162bで特定される、ラインセンサ141,142,・・・,148で読み取られた画像群に含まれる画像を、当該画像と同じ走査ラインの主走査方向Dxにおける次の画像群に含まれる画像に結合させる位置を特定する情報が格納される。なお、結合位置格納領域162dに格納される値は、後述する結合位置特定部168が算出するが、結合位置を特定できない場合には、保留ラインフラグとして空欄にされる。
In the combined
例えば、本実施の形態においては、結合位置格納領域162dには、ライン列行162cで特定される走査ラインにおいて、画像群列162bで特定される、ラインセンサ141,142,・・・,148で読み取られた画像群に属する画像を、当該画像と同じ走査ラインの主走査方向Dxにおける次の画像群に含まれる画像に結合させた際に、当該画像の、当該次の画像群に含まれる画像における副走査方向Dyの結合到達位置を特定する情報が、結合させる位置を特定する情報として格納される。図6の例では、1画像群列の2ライン目行の欄に格納されている「1.9」の数値は、1画像群に含まれる2ライン目の画像と2画像群に含まれる画像とを結合させた際に、1画像群の画像は、2画像群の画像の2ライン目の画像の副走査方向Dyにおける先頭から副走査方向Dyにおける終端に向かって、0.9の割合の位置(画像2の2ライン目の画像を10等分して、副走査方向Dyの先頭から9つ目までの位置)にまで達することを示している。すなわち、結合位置格納領域162dに格納された数値のうち、整数部分は、走査ラインを示しており、少数部分は、整数部分で示される走査ラインの次の走査ラインで撮像された画像の副走査方向Dyにおける先頭位置から結合する終端までの割合を示している。
For example, in the present embodiment, the combined
図5に戻り、制御部163は、結合位置検出部164と、結合位置推定部169と、画像結合部170と、を有する。
Returning to FIG. 5, the
結合位置検出部164は、ラインセンサ141,142,・・・,148で読み取られた各々の画像を、当該画像と同じ走査ラインの主走査方向Dxにおける次の画像に結合させる位置を検出する。ここで、結合位置検出部164は、相関検出用領域設定部165と、被相関検出用領域設定部166と、相関算出部167と、結合位置特定部168と、を有する。
The combined
相関検出用領域設定部165は、各々のラインセンサ141,142,・・・,148により、一つ以上の走査ラインで読み取られた画像を含む画像の集合に対して、マッチング領域を設定する。
The correlation detection
ここで、特定のラインセンサにおいて、一つ以上の走査ラインで読み取られた画像の集合をN画像群(Nは、各々の画像群を識別するために各々の画像群に割り振られたインデックスであって、本実施の形態においては、各々の画像群に対して、1から順に自然数が割り振られている)という。例えば、1画像群は、ラインセンサ141において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、2画像群は、ラインセンサ142において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、3画像群は、ラインセンサ143において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、4画像群は、ラインセンサ144において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、5画像群は、ラインセンサ145において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、6画像群は、ラインセンサ146において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、7画像群は、ラインセンサ147において、一つ以上の走査ラインで読み取られた画像を含む画像の集合であり、8画像群は、ラインセンサ148において、一つ以上の走査ラインで読み取られた画像を含む画像の集合である。
Here, in a specific line sensor, a set of images read by one or more scanning lines is represented by N image groups (N is an index assigned to each image group in order to identify each image group. In the present embodiment, a natural number is assigned in order from 1 to each image group). For example, one image group is a set of images including images read by one or more scanning lines in the
図7は、相関検出用領域設定部165がN画像群に対して設定するマッチング領域の一例を示す概略図である。ここで、図7において、上方から下方に向かって複数並べられている同一形状の矩形状のセルはN画像群に含まれる画像を示し、N画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。
FIG. 7 is a schematic diagram illustrating an example of a matching region set by the correlation detection
そして、図7に示すように、相関検出用領域設定部165は、N画像群において、後述するような確定ライン又は保留ラインとはされていないラインのうち、先頭ラインを注目ラインAlとし、注目ラインAlと、注目ラインAlに続く予め設定された数nのラインからなる対象ラインOlと、保留ライン(図7では図示せず)と、をマッチング領域Mrとする。ここで、保留ラインとは、そのラインが注目ラインとされたときに隣接する画像との結合位置が検出できず、結合位置の特定が保留されたラインのことを示す。また、確定ラインは、隣接する画像との結合位置が確定されたラインのことを示す。
Then, as shown in FIG. 7, the correlation detection
また、相関検出用領域設定部165は、注目ラインAlと、注目ラインAlの一つ下のラインと、からなる2ラインをエッジ検出領域Erとする。また、Epは、エッジ検出位置を示す。
Further, the correlation detection
図7に示す例では、対象ラインOlを5ラインとしているが、対象ラインOlの数はこれに限定されるものではない。また、エッジ検出領域Erのラインの数も2ラインに限るものではない。 In the example illustrated in FIG. 7, the target lines Ol are five lines, but the number of target lines Ol is not limited to this. Further, the number of lines in the edge detection area Er is not limited to two.
図5に戻り、被相関検出用領域設定部166は、相関検出用領域設定部165がマッチング領域を設定した画像群に含まれる画像に対して、主走査方向Dxにおいて次に撮像される画像を含む画像群に対して複数の被マッチング領域を設定する。
Returning to FIG. 5, the correlated detection
例えば、被相関検出用領域設定部166は、後述するような被結合ラインとはされていない画像領域のうち、先頭ラインに含まれる画像領域から、マッチング領域と同じ大きさ(同じライン数)の領域を基準とし、さらに、領域の開始位置を固定した状態で領域の終了位置を−mラインから+mラインのサイズまで変化させた、大きさの異なる複数の領域を被マッチング領域として設定する。なお、mは被マッチング領域生成係数であって、予め任意の自然数が設定されているものとする。また、領域の終了位置を−mラインから+mラインのサイズまで変化させるさいの差分値についても予め設定されているものとする。ここで、被結合ラインとは、マッチング領域に含まれる注目ラインAl(確定ライン)と結合することが確定した被マッチング領域の画像領域をいう。
For example, the correlated detection
図8は、被相関検出用領域設定部166が画像群に対して設定する被マッチング領域の一例を示す概略図である。ここで、図8において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。
FIG. 8 is a schematic diagram illustrating an example of a matched region set for the image group by the correlated detection
そして、被相関検出用領域設定部166は、相関検出用領域設定部165が設定したマッチング領域が6ラインであり、被マッチング領域生成係数mが3に設定されているとすると、マッチング領域と同じ大きさの被マッチング領域Tr0と、マッチング領域よりも1ライン大きな被マッチング領域Tr1と、マッチング領域よりも2ライン大きな被マッチング領域Tr2と、マッチング領域よりも3ライン大きな被マッチング領域Tr3と、マッチング領域よりも1ライン小さな被マッチング領域Tr−1と、マッチング領域よりも2ライン小さな被マッチング領域Tr−2と、マッチング領域よりも3ライン小さな被マッチング領域Tr−3と、を設定する。なお、ここでは、1ライン単位で大きさが変化する複数の被マッチング領域を設けたが、変化の単位はこれに限定されるものではなく、2ライン以上でも1ライン未満でもよい。
Then, the correlated detection
図5に戻り、相関算出部167は、相関検出用領域設定部165が設定したマッチング領域と、被相関検出用領域設定部166が設定した複数の被マッチング領域の各々と、の組み合わせ毎に、これらの間の相関度を特定する値を算出する。
Returning to FIG. 5, the
例えば、相関算出部167は、相関検出用領域設定部165が設定したマッチング領域と、被相関検出用領域設定部166が設定した被マッチング領域と、の大きさが同じ場合には、マッチング領域に含まれるラインの画像と、マッチング領域に含まれるラインの位置に対応する被マッチング領域に含まれるラインの画像と、の差分値を算出して、すべてのラインの差分値を合計する。
For example, if the size of the matching region set by the correlation detection
また、相関算出部167は、相関検出用領域設定部165が設定したマッチング領域と、被相関検出用領域設定部166が設定した被マッチング領域と、の大きさが異なる場合には、検出用領域設定部166が設定した被マッチング領域の大きさを、相関検出用領域設定部165が設定したマッチング領域の大きさに合わせてから、相関検出用領域設定部165が設定したマッチング領域に含まれるラインの画像と、マッチング領域に含まれるラインの位置に対応する被マッチング領域に含まれる画像と、の差分値を算出して、すべてのラインの差分値を合計する。
In addition, the
なお、相関算出部167が算出する相関度を特定する値は、このような差分値に限定されず、例えば、上述のように同じ大きさである又は同じ大きさにされたマッチング領域のラインに含まれる画像の画素値と、マッチング領域のラインに対応する被マッチング領域の画像の画素値と、から相関係数を算出し、すべてのラインについて算出した相関係数を合計するようにしてもよい。
Note that the value that specifies the degree of correlation calculated by the
また、領域サイズの変換には色々な手法があるが、例えば、一次変換でサイズ変換を行えばよい。さらに、ラインに含まれる画像のデータ(画素値等)同士ではなく、1ライン未満のデータを補間により作成して相関度を特定する値を算出しても良く、マッチング領域全体と被マッチング領域全体とを比較して相関度を特定する値を算出してもよい。 There are various methods for converting the region size. For example, the size conversion may be performed by primary conversion. Furthermore, instead of the image data (pixel values, etc.) included in the line, the value for specifying the correlation may be calculated by creating data of less than one line by interpolation, and the entire matching area and the entire matching area may be calculated. And a value for specifying the degree of correlation may be calculated.
結合位置特定部168は、相関算出部167が算出した相関度を特定する値より、マッチング領域と、特定の被マッチング領域と、の間の相関度が高いと判断した場合には、最も相関度の高い被マッチング領域を選択して、マッチング領域に含まれる注目ラインAlに結合する、被マッチング領域の画像位置を特定する。
When the combined
図9から図14を用いて、結合位置特定部168が、マッチング領域に含まれる注目ラインAlに結合する、被マッチング領域の画像位置を特定する処理を説明する。
With reference to FIGS. 9 to 14, a description will be given of a process in which the combined
図9(a)及び(b)は、マッチング領域Erと同じ大きさの被マッチング領域Tr0に、注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図9(a)及び(b)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。 FIG. 9 (a) and (b) are to be matching area Tr 0 of the same size as the matching area Er, it is a schematic diagram for explaining the processing for specifying an image position for coupling the target line Al. Here, in FIGS. 9A and 9B, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young).
結合位置特定部168は、図9(a)に示すように、マッチング領域Erと、被マッチング領域Tr0の大きさが同じ場合には、図9(b)に示すように、被マッチング領域Tr0の先頭位置から注目ラインAlと同じ大きさの画像領域Iaを注目ラインAlと結合する領域として特定し、画像領域Iaの終端位置Epを特定する情報を結合位置とする。なお、結合位置は、被マッチング領域Tr0を設定した画像群の先頭位置から画像領域Iaの終端位置Epまでに含まれる画像(一つの走査ラインで取得される画像)の数と、終端位置Epが含まれる画像の先頭位置から終端位置Epまでの割合と、を加算した値で特定する。
As shown in FIG. 9A, the coupling
なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。 When the line below the target line Al is set as the next target line, the next matching region is assigned from the line below the end position Ep.
図10(a)〜(c)は、マッチング領域Erよりも大きさの小さい被マッチング領域Tr−2に、注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図10(a)〜(c)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。 FIGS. 10A to 10C are schematic diagrams for explaining processing when specifying an image position where the target line Al is coupled to the matching region Tr- 2 having a smaller size than the matching region Er. Here, in FIGS. 10A to 10C, a plurality of rectangular cells having the same shape arranged from the upper side to the lower side indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young).
結合位置特定部168は、図10(a)に示すように、マッチング領域Erよりも被マッチング領域Tr−2の大きさが小さい場合には、図10(b)に示すように、被マッチング領域Tr−2に含まれる画像をマッチング領域Erと同じ大きさに拡大し(図10(a)〜(c)の例では、6/4倍)、拡大された被マッチング領域ETr−2の先頭位置から注目ラインAlと同じ大きさの画像領域Ia0を注目ラインAlと結合する領域とし、図10(c)に示すように、拡大された被マッチング領域ETr−2に含まれる画像を縮小することで(ここでは、4/6倍)元の大きさに戻した際に、同じ割合で縮小された画像領域Ia1の終端位置Ep1を特定する情報を結合位置とする。
As shown in FIG. 10A, the coupling
なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Ep1の下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.
図11(a)〜(c)は、マッチング領域Erよりも大きさの大きい被マッチング領域Tr2に、注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図11において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。 Figure 11 (a) ~ (c) is to be matching area Tr 2 larger size than the matching area Er is a schematic diagram for explaining the processing for specifying an image position for coupling the target line Al. Here, in FIG. 11, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate the images included in the image group, and the order from the top to the bottom of the images included in the image group is as follows. It is assumed that the order of reading by the line sensor (the order of young scanning lines) is shown.
結合位置特定部168は、図11(a)に示すように、マッチング領域Erよりも被マッチング領域Tr2の大きさが大きい場合には、図11(b)に示すように、被マッチング領域Tr2に含まれる画像をマッチング領域Erと同じ大きさに縮小し(図11(a)〜(c)の例では、6/8倍)、縮小された被マッチング領域RTr2の先頭位置から注目ラインAlと同じ大きさの画像領域Ia0を注目ラインAlと結合する領域とし、図11(c)に示すように、縮小された被マッチング領域RTr−2に含まれる画像を拡大することで(ここでは、8/6倍)元の大きさに戻した際に、同じ割合で拡大された画像領域Ia1の終端位置Ep1を特定する情報を結合位置とする。
Coupling
なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Ep1の下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.
図12(a)及び(b)は、保留ラインSlを有するマッチング領域Erと同じ大きさの被マッチング領域Tr0に、保留ラインSl及び注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図12において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。また、図12(a)及び(b)においては、保留ラインSlが3ライン分含まれている場合を示す。 Figure 12 (a) and (b) are the same size of the matching area Tr 0 and matching area Er having pending line Sl, the processing for specifying an image position for coupling the hold line Sl and the target line Al It is the schematic to explain. Here, in FIG. 12, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate images included in the image group, and the order from the top to the bottom of the images included in the image group is as follows. It is assumed that the order of reading by the line sensor (the order of young scanning lines) is shown. FIGS. 12A and 12B show a case in which three reserved lines S1 are included.
結合位置特定部168は、図12(a)に示すように、マッチング領域Erと、被マッチング領域Tr0の大きさが同じ場合には、図12(b)に示すように、被マッチング領域Tr0の先頭位置から各々の保留ラインSl及び注目ラインAlと同じ大きさの各々の画像領域Iaを、保留ラインSl及び注目ラインAlと結合する領域として特定し、各々の画像領域Iaの終端位置Epを特定する情報を結合位置とする。
As shown in FIG. 12A, the coupling
なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Epの下のラインから次の被マッチング領域が割り当てられる。 When the line below the target line Al is set as the next target line, the next matching region is assigned from the line below the end position Ep.
図13(a)〜(c)は、保留ラインSlを含むマッチング領域Erよりも大きさの小さい被マッチング領域Tr−2に、保留ラインSl及び注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図13(a)〜(c)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。また、図13(a)〜(c)においては、保留ラインSlが3ライン分含まれている場合を示す。 FIGS. 13A to 13C are diagrams for specifying an image position that joins the reserved line S1 and the target line Al to the matching area Tr- 2 having a smaller size than the matching area Er including the reserved line S1. It is the schematic explaining a process. Here, in FIGS. 13A to 13C, a plurality of rectangular cells having the same shape arranged from the top to the bottom indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young). FIGS. 13A to 13C show a case in which three reserved lines S1 are included.
結合位置特定部168は、図13(a)に示すように、マッチング領域Erよりも被マッチング領域Tr−2の大きさが小さい場合には、図13(b)に示すように、被マッチング領域Tr−2の大きさをマッチング領域Erと同じ大きさに拡大し(図13(a)〜(c)の例では、9/7倍)、拡大された被マッチング領域ETr−2の先頭位置から、各々の保留ラインSl及び注目ラインAlと同じ大きさの画像領域Ia0を、各々の保留ラインSl及び注目ラインAlと結合する領域とし、図13(c)に示すように、拡大された被マッチング領域ETr−2を縮小することで(ここでは、7/9倍)元の大きさに戻した際に、同じ割合で縮小された画像領域Ia1の終端位置Ep1を特定する情報を結合位置とする。
As shown in FIG. 13A, the combined
なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Ep1の下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.
図14(a)〜(c)は、保留ラインSlを含むマッチング領域Erよりも大きさの大きい被マッチング領域Tr2に、各々の保留ラインSl及び注目ラインAlを結合する画像位置を特定する際の処理を説明する概略図である。ここで、図14(a)〜(c)において、上方から下方に向かって複数並べられている同一形状の矩形状のセルは画像群に含まれる画像を示し、画像群に含まれる画像の上方から下方に向かう順番が、ラインセンサで読み込まれた順番(走査ラインの若い順)を示すものとする。また、図14(a)〜(c)においては、保留ラインSlが3ライン分含まれている場合を示す。 Figure 14 (a) ~ (c) is to be matching area Tr 2 larger size than the matching area Er including the hold line Sl, when specifying the image position to couple the respective hold lines Sl and the target line Al It is the schematic explaining the process of. Here, in FIGS. 14A to 14C, a plurality of rectangular cells having the same shape arranged from the upper side to the lower side indicate images included in the image group, and above the images included in the image group. The order from the bottom to the bottom indicates the order read by the line sensor (the order in which scanning lines are young). Further, FIGS. 14A to 14C show a case in which three reserved lines S1 are included.
結合位置特定部168は、図14(a)に示すように、マッチング領域Erよりも被マッチング領域Tr2の大きさが大きい場合には、図14(b)に示すように、被マッチング領域Tr2の大きさをマッチング領域Erと同じ大きさに縮小し(図14(a)〜(c)の例では、9/11倍)、縮小された被マッチング領域RTr2の先頭位置から、各々の保留ラインSl及び注目ラインAlと同じ大きさの画像領域Ia0を、各々の保留ラインSl及び注目ラインAlと結合する領域とし、図14(c)に示すように、縮小された被マッチング領域RTr−2を拡大することで(ここでは、11/9倍)元の大きさに戻した際に、同じ割合で拡大された画像領域Ia1の終端位置Ep1を特定する情報を結合位置とする。
Coupling
なお、注目ラインAlの下のラインを次の注目ラインとした場合には、終端位置Ep1の下のラインから次の被マッチング領域が割り当てられる。 In the case where the line below the target line Al as the next line of interest, the matching area of the next is assigned a line below the end position Ep 1.
図5に戻り、結合位置特定部168は、以上のようにして算出した結合位置を結合位置情報記憶部162に記憶する処理を制御する。
Returning to FIG. 5, the coupling
結合位置推定部169は、一つの画像群の中で、結合位置特定部168により保留ラインとされた画像が予め定められた数に達した場合には、先頭の保留ラインに対応する画像を結合する結合位置を推定する処理を行う。
The combined
ここで、結合位置があらかじめ定められた間隔よりもずれるのは、図4に示したように撮像の対象である紙が曲がったり、何らかの理由により搬送の途中でラインセンサと原稿との距離が変化したりしたときである。通常、搬送する紙が曲がったり反ったりする場合、その方向は副走査方向であり、また紙の変化は局所的には対象とする撮像エリアの両隣のエリアの変化率と相関が高い。 Here, the coupling position deviates from a predetermined interval because the paper to be imaged is bent as shown in FIG. 4, or the distance between the line sensor and the original changes during the conveyance for some reason. It is time to do. Normally, when the paper to be conveyed is bent or warped, the direction is the sub-scanning direction, and the change in the paper is locally highly correlated with the rate of change in the areas adjacent to the target imaging area.
例えば、図1において、撮像エリア33の位置において何らかの紙の変化が生じたとき、撮像エリア32及び撮像エリア34にもその傾向が現れる可能性が高い。そこで、結合位置推定部169では、周辺に結合位置が確定している画像があれば、その画像の結合位置情報の変化の様子から保留ラインの画像の結合位置を推定する。なお、結合位置推定部169での処理は、下記に詳細に説明する。
For example, in FIG. 1, when any paper change occurs at the position of the
画像結合部170は、結合位置情報記憶部162に記憶されている結合位置情報に基づいて、各々の画像を結合する。なお、画像結合部170での処理は、下記に詳細に説明する。
The
以上に記載した画像結合装置106は、例えば、CPU(Central Processing Unit)と、メモリと、を備えたコンピュータで実現できる。例えば、記憶部161は、CPUがメモリを利用することにより実現でき、制御部163は、所定のプログラムをCPUで実行することで実現できる。ただし、本実施の形態の画像結合装置106は、コンピュータシステム上にソフトウェア的に実現されるものに限定されない。例えば、ASIC(Application Specific Integrated Circuits)、FPGA(Field Programmable Gate Array)等の集積ロジックICによりハード的に実現されるものでもよいし、あるいは、DSP(Digital Signal Processor)等によりソフトウェア的に実現されるものでもよい。
The
図15及び16は、画像結合装置106での画像処理を示すフローチャートである。
15 and 16 are flowcharts showing image processing in the
まず、結合位置特定部168は、画像群を示すインデックスNに1を設定し、処理するラインを示すインデックスiに1を設定する(S10)。
First, the combined
次に、結合位置特定部168は、処理ライン数を示すインデックスhを0に初期化する(S11)。
Next, the coupling
次に、相関検出用領域設定部165は、N画像群内に、マッチング領域Mrを設定する(S12)。例えば、相関検出用領域設定部165は、N画像群内において、インデックスiで示されるラインの上のラインが保留ラインではない場合には、インデックスiで示されるラインと、インデックスiで示されるラインの次の走査ラインから予め設定された数の対象ラインOlと、をマッチング領域Mrに設定する。また、相関検出用領域設定部165は、N画像群内において、インデックスiで示されるラインの上のラインが保留ラインである場合には、インデックスiで示されるラインよりも一つ前の走査ラインから連続して続く保留ラインと、インデックスiで示されるラインと、インデックスiで示されるラインの次の走査ラインから予め設定された数の対象ラインOlと、をマッチング領域Mrに設定する。
Next, the correlation detection
なお、相関検出用領域設定部165は、結合位置情報テーブル162aにおいて、インデックスNで特定される画像群列162bで特定される結合位置格納領域162dの欄において、インデックスiで特定される注目ラインに対応するライン位置行162cで特定される結合位置格納領域162dの欄よりも上方の位置に、保留ラインフラグがあるか否かで、マッチング領域に保留ラインを含めるか否かを判断することができる。
The correlation detection
また、相関検出用領域設定部165は、ステップS12で設定されたマッチング領域Mrに、インデックスiで特定される走査ラインを注目ラインAlとして設定し、注目ラインAlと、注目ラインAlの次の走査ラインと、をエッジ検出領域Erとして設定する(S13)。
Further, the correlation detection
次に、被相関検出用領域設定部166は、N画像群に含まれる画像の主走査方向における次の画像が含まれるN+1画像群に、予め定められた数の被マッチング領域を設定する(S13)。例えば、被相関検出用領域設定部166は、ステップS12で設定されたマッチング領域と同じサイズの被マッチング領域と、ステップS12で設定されたマッチング領域のサイズから予め定められた被マッチング領域生成係数で特定されるサイズに至るまで、予め定められた差分値を増減した大きさのサイズの被マッチング領域と、を設定する。
Next, the correlated detection
次に、結合位置特定部168は、ステップS13で設定されたエッジ検出領域Erに、画像における特徴的な部分が含まれているか否かを判断する(S15)。そして、特徴的な部分が含まれている場合には(ステップS15でYes)ステップS16に進み、特徴的な部分が含まれていない場合には(ステップS15でNo)ステップS20に進む。ここでいう特徴的な部分とは、画像の結合に必要な重ね合わせ位置を検出する際に、目印としてわかりやすい画像のエッジや文字、文様などを示す。すなわち、画像の信号レベルの変化が大きな部分をいう。
Next, the combination
本実施の形態では、エッジ検出領域Erでの画像内の特徴的な部分の検出の手法は特に限定しないが、隣り合う画像の重ね合わせの位置は副走査方向にのみ移動するため、副走査方向に対して垂直なエッジが存在する位置で重ね合わせの位置を検出すると、確度の高い結果が得られる。そこで、例えば、上下のラインにおける信号成分の差の合計が予め定められていた値より大きいとき信号の変化が大きい、すなわち画像のエッジが存在すると判断する。 In the present embodiment, a method for detecting a characteristic portion in an image in the edge detection region Er is not particularly limited, but the overlapping position of adjacent images moves only in the sub-scanning direction. If the overlapping position is detected at a position where there is a vertical edge, a highly accurate result can be obtained. Therefore, for example, when the sum of the differences between the signal components in the upper and lower lines is larger than a predetermined value, it is determined that the signal change is large, that is, the edge of the image exists.
ステップS16では、相関算出部167は、ステップS12で設定されたマッチング領域Erと、ステップS14で設定された複数の被マッチング領域の各々と、の相関度を特定する値を算出する(S16)。
In step S16, the
なお、マッチング領域、非マッチング領域ともに、各ラインには結合精度を上げるため1ラインより細かいサブラインが設けられており、それぞれのサブラインは領域サイズを拡大又は縮小する際にデータ補間して生成する。データの補間は線形補間、バイキュービックなど手法は問わない。 In both the matching area and the non-matching area, each line is provided with a subline finer than one line in order to increase the coupling accuracy, and each subline is generated by data interpolation when the area size is enlarged or reduced. Data interpolation may be performed using any method such as linear interpolation or bicubic.
そして、結合位置特定部168は、ステップS16で算出された相関度を特定する値のうち、予め定められた閾値よりも強い相関を示す値が算出された被マッチング領域があるか否かを判断する(S17)。このようなマッチング領域がある場合には(ステップS17でYes)ステップS18に進み、このようなマッチング領域がない場合には(ステップS17でNo)ステップS20に進む。
Then, the combined
ステップS18では、結合位置特定部168は、ステップS16で算出された相関度を特定する値のうち、最も強い相関を示す値が算出された被マッチング領域を選択する。
In step S18, the combined
そして、結合位置特定部168は、ステップS12で設定されたマッチング領域の先頭位置からエッジ検出位置までのラインの結合位置を特定する(S19)。ここで、本実施の形態においては、エッジ検出領域Erを2ラインとし、上下ラインの差からエッジを検出したため、エッジ検出領域Erの1ライン目、すなわち、注目ラインAlまでの結合位置を特定する。なお、このようにして特定した結合位置については、結合位置特定部168が、結合位置情報テーブル162aにおいて、インデックスNで特定される画像群列162bと、結合位置が算出されたラインに対応するライン位置行162cと、で特定される結合位置格納領域162dの欄に、算出された結合位置を特定する情報を格納する。
Then, the joint
一方、ステップS20では、結合位置特定部168は、ステップS13で特定された注目ラインAlを保留ラインとする。例えば、結合位置特定部168は、結合位置情報テーブル162aにおいて、インデックスNで特定される画像群列162bと、インデックスiで特定される注目ラインに対応するライン位置行162cと、で特定される結合位置格納領域162dの欄に、保留ラインフラグを格納する。なお、本実施形態においては、結合位置格納領域162dの欄を空欄とすることで、保留ラインフラグとする。
On the other hand, in step S20, the coupling
次に、結合位置特定部168は、インデックスNで特定される画像群が、Nの最大値(NMAX)であるか否かを確認し(S21)、Nの最大値ではない場合には(ステップS21でNo)ステップS22に進み、Nの最大値である場合には(ステップS21でYes)ステップS23に進む。なお、Nの最大値は、ラインセンサ141,142,・・・,148の数から1を減算した数である。
Next, the combined
ステップS22では、結合位置特定部168は、インデックスNに1を加算して、ステップS12に戻り処理を繰り返す。また、ステップS23では、結合位置特定部168は、インデックスhに1を加算して、ステップS24に進む。
In step S22, the coupling
ステップS24では、結合位置特定部168は、インデックスhが、hの最大値(hMAX)であるか否かを確認し、hの最大値(hMAX)ではない場合には(ステップS24でNo)ステップS25に進み、hの最大値(hMAX)である場合には(ステップS24でYes)図16のステップS26に進む。ここで、hMAXの値は、結合位置を算出するラインと、画像を結合するラインと、の差分値である。そして、hMAXの値は、画像のサイズ(走査ライン数)を超えない範囲で任意の値(本実施の形態では19)を設定できるが、hMAXの値が大きくなるほど、注目ラインと、画像の結合結果を出力するラインと、の位置の差が大きくなり、その結果、画像データを一時的に保存しておくメモリの容量が大きくなるため、あまり大きな値にしない方が望ましい。
In step S24, the coupling
ステップS25では、結合位置特定部168は、インデックスNを1に初期化し、インデックスiに1を加算する。そして、結合位置特定部168は、ステップS11に戻り、処理を繰り返す。
In step S25, the coupling
ステップS26では、結合位置特定部168は、インデックスiの値から、hMAXの値を減算した値で示されるラインに保留ラインの設定があるか否かを確認し、保留ラインの設定がある場合には(ステップS26でYes)ステップS27に進み、保留ラインの設定がない場合には(ステップS26でNo)ステップS28に進む。ここで、インデックスiの値から、hMAXの値を減算した値で示されるラインに保留ラインの設定があるか否かは、結合位置情報テーブル162aにおいて、インデックスiの値から、hMAXの値を減算した値に対応するライン位置行162cの結合位置格納領域162dの欄に、保留ラインフラグがあるか否かで判断することができる。
In step S26, the combined
ステップS27では、結合位置推定部169は、インデックスiの値から、hMAXの値を減算した値で示されるラインに設定されている保留ラインの結合位置を算出し、確定ラインとする。ステップS27での算出処理については、下記において詳細に説明する。
In step S27, the combined
ステップS28では、画像結合部170は、インデックスiの値から、hMAXの値に1を加算した値を減算した値で示されるラインに含まれる画像を、結合位置情報テーブル162aに示される値に従って結合する。ステップS28での結合処理については、下記において詳細に説明する。
In step S28, the
次に、結合位置特定部168は、インデックスiで特定されるラインが、iの最大値(iMAX)であるか否かを確認し(S29)、iの最大値ではない場合には(ステップS29でNo)ステップS30に進み、iの最大値である場合には(ステップS29でYes)ステップS31に進む。ここで、iの最大値は、副走査方向における走査ラインの総ライン数である。
Next, the joint
ステップS30では、結合位置特定部168は、インデックスNを1に初期化し、インデックスiに1を加算し、インデックスhから1を減算する。そして、結合位置特定部168は、図15のステップS11に戻り処理を繰り返す。
In step S30, the coupling
ステップS31では、画像結合部170は、未だ結合していない画像を、結合位置情報テーブル162aに示される値に従って結合する。なお、結合位置情報テーブル162aの結合位置格納領域162dに保留ラインフラグが設定されているときは、結合位置推定部169が結合位置を算出して、算出した結合位置に従って、画像結合部170が結合を行う。
In step S31, the
ここで、結合位置推定部169による結合データの算出方法について説明する。図17(a)及び(b)は、結合位置情報テーブル162aの一例である。
Here, a method of calculating combined data by the combined
まず、結合位置情報テーブル162aが図17(a)に示すようになっており、3画像群列における3ライン目行以降が保留ラインとなっており、これらの保留ラインで示される画像の結合位置が不定であるとする。 First, the combined position information table 162a is as shown in FIG. 17A, and the third and subsequent rows in the three image group column are reserved lines, and the combined positions of the images indicated by these reserved lines Is indefinite.
そして、図16のステップS27において、結合位置推定部169は、3画像群列の3ライン目行に対応する画像の結合位置を算出しなければならないとき、まず初めに、結合位置情報テーブル162aにおいて、結合位置を算出する対象となっているラインの一つ上のラインから結合位置を算出する対象となっているラインまで(ここでは、2ライン目から3ライン目まで)の右隣の画像群との結合位置のズレ量Sを画像毎に下記の(1)式を用いて算出する。
結合位置推定部169が(1)式を用いて算出した値を、図18に示すズレ量テーブル180aに示す。ズレ量テーブル180aでは、(1)式を用いて算出したS(N,L)の値を、N画像群及びLライン目に対応する欄に格納している。例えば、1画像群の3ライン目は2画像群の2.75ライン目と結合することから、1画像群の3ライン目における2画像とのズレ量は2.75−3.0=−0.25ラインとなる。同様に、2画像群の3ライン目における3画像群とのズレ量は0.25ライン、4画像群の3ライン目における5画像群とのズレ量は0.25ラインとなる。3画像群の3ライン目における4画像群とのズレ量は結合位置の情報がないため空欄とする。
The values calculated by the combined
次に、結合位置推定部169は、下記の(2)式により、各画像における結合位置のズレ量の変化量ΔSを算出する。
結合位置推定部169が(2)式を用いて算出した値を、図21に示すズレ量変化テーブル181aに示す。ズレ量変化テーブル181aでは、(2)式を用いて算出したΔS(N,L)の値を、N画像群及びLライン目に対応する欄に格納している。例えば、1画像群の2ライン目と3ライン目の間のズレ量の変化は(−0.25)−(−0.1)=−0.15となる。同様に、2画像群の2ライン目と3ライン目のズレ量の変化は0.15ライン、4画像群の2ライン目と3ライン目のズレ量の変化は0.15ラインとなる。3画像群の2ライン目と3ライン目のズレ量の変化は結合位置の情報がないため空欄とする。
The values calculated by the coupling
次に、結合位置推定部169は、結合位置の算出の対象となっている保留ラインに対応する画像のズレ量の変化を周辺のズレ量の変化から推定する。そもそもズレ量は原稿面までの距離に対応するので、ズレ量が変化しているということは原稿面までの距離が変化していることを表す。原稿は連続した面を持つことから、ある位置で原稿面距離が変化していれば、その近辺でも原稿面距離の変化が起きていると考えられる。そこで、結合位置の算出の対象となっている保留ラインの近隣の確定ラインのズレ量の変化から保留ラインのズレ量の変化を推定する。
Next, the combined
例えば、結合位置推定部169は、ズレ量変化テーブル181aにおいて、結合位置の算出の対象となっている保留ラインの左右両隣が保留ラインでなければ左右の画像のズレ量の変化量の平均値を保留ラインの値とする。
For example, in the shift amount change table 181a, the combined
また、結合位置推定部169は、例えば、ズレ量変化テーブル181aにおいて、左右両隣のいずれか一方が保留ラインでない場合には、保留ラインでない画像のズレ量の変化量をそのまま用いても良いし、そのようなズレ量の変化量に2分の1を乗算する等予め定められた補正値で補正した値を用いてもよい。
Further, for example, in the shift amount change table 181a, the combined
一方、結合位置推定部169は、ズレ量変化テーブル181aにおいて、結合位置の算出の対象となっている保留ラインの左右両隣が共に保留ラインの場合には、2つ以上離れた画像群の同じラインに属する画像のズレ量の変化量から推定する。例えば、結合位置の算出の対象となっている保留ラインと同じラインに属する画像の内、当該保留ラインに最も近い画像のズレ量の変化量をそのまま用いてもよく、また、このような画像のズレ量の変化量を予め定められた補正値で補正した値を用いてもよい。
On the other hand, in the shift amount change table 181a, the combined
なお、結合位置の算出の対象となっている保留ラインと同じラインに属する画像の内、当該保留ラインに最も近い画像が二つある場合には、例えば、当該保留ラインから三つの画像群離れた画像が確定ラインになっている場合には、これらの値の平均値を予め定められた補正値で補正した値を用いればよい。さらに、ここでの補正値は、当該保留ラインから画像群が離れるに従って、ズレ量の変化量の値が小さくなるように補正するものを用いるのが望ましい。 In addition, when there are two images that are closest to the reserved line among the images belonging to the same line as the reserved line for which the combined position is calculated, for example, three images are separated from the reserved line. If the image is a fixed line, a value obtained by correcting the average value of these values with a predetermined correction value may be used. Further, as the correction value here, it is desirable to use a correction value that corrects the change amount of the shift amount to be smaller as the image group moves away from the reserved line.
また、結合位置推定部169は、ズレ量変化テーブル181aにおいて、結合位置の算出の対象となっている保留ラインの左右両隣が共に保留ラインの場合には、ズレ量に変化なし、つまりΔS=0としてもよい。
In addition, in the deviation amount change table 181a, the combined
このとき、図1に示す光学系を用いると、原稿面の位置が変化した時、隣り合う画像が原稿を読み取る位置が異なる方向に変化することから、推定値は符号を考慮しなければならない。例えば、図19に示すように、ズレ量変化テーブル181aにおいて、3画像群における3ライン目の保留ラインの左右両隣の画像のズレ量の変化は共に0.15なので、その平均値も0.15となる。しかし、隣接画像のズレ量の変化は逆方向になることから、符号を反転した−0.15がΔS(3、3)の推定値となる。一方、2つ離れた画像は、ズレ量の変化が同じ方向になるため、符号を反転する必要はない。つまり、画像の属する画像群を、第1の撮像素子部群141,143,145,147と、第2の撮像素子部群142,144,146,148と、に分けた場合、同一の群に属する画像の値はそのまま用いればよいが、異なる群に属する画像の値は符号を反転してから用いる必要がある。
At this time, when the optical system shown in FIG. 1 is used, when the position of the document surface changes, the position where the adjacent image is read in the document changes in a different direction. Therefore, the estimated value must consider the sign. For example, as shown in FIG. 19, in the shift amount change table 181a, the change in the shift amount between the left and right adjacent images of the third reserved line in the three image group is both 0.15, so the average value is also 0.15. It becomes. However, since the change in the shift amount of the adjacent images is in the reverse direction, −0.15 with the sign reversed is an estimated value of ΔS (3, 3). On the other hand, since the change in the amount of deviation is the same in two distant images, there is no need to reverse the sign. That is, when the image group to which the image belongs is divided into the first image
以上のようにして、結合位置推定部169が算出した、結合位置の算出の対象となっている保留ラインのズレ量の変化量を格納したズレ量変化テーブル181bを図20に示す。
FIG. 20 shows a deviation amount change table 181b that stores the amount of change in the deviation amount of the reserved line, which is the calculation target of the combined position, calculated by the combined
そして、結合位置推定部169は、以上のようにして求めた、結合位置の算出の対象となっている保留ラインのズレ量の変化量を用いて(2)式の逆算により、すなわち、下記の(3)式により、当該保留ラインのズレ量を算出する。
なお、結合位置推定部169が(3)式を用いて算出した、結合位置の算出の対象となっている保留ラインのズレ量を、図21に示すズレ量テーブル180bに示す。
Note that the shift amount table 180b shown in FIG. 21 shows the shift amount of the reserved line, which is the calculation target of the combined position, calculated by the combined
さらに、結合位置推定部169は、(3)式で求めたズレ量を用いて(1)式の逆算により、すなわち、下記の(4)式により、結合位置の算出の対象となっている保留ラインの結合位置を算出する。
以上のようにして、結合位置推定部169が算出した、結合位置の算出の対象となっている保留ラインの結合位置は、図17(b)に示すように、結合位置情報テーブル162aに格納される。
As shown in FIG. 17B, the combined position of the reserved line, which is the calculation target of the combined position, calculated by the combined
以上のように、本実施の形態では、結合位置が不明の場合に、原稿形状の変化の相関に基づいて隣接画像との結合位置を定める結合位置を推定することにより、より精度の高い結合位置を導出することができる。 As described above, in the present embodiment, when the coupling position is unknown, a coupling position with higher accuracy is estimated by estimating the coupling position that determines the coupling position with the adjacent image based on the correlation of changes in the document shape. Can be derived.
次に、画像結合部170での結合処理について説明する。結合位置情報テーブル162aには、各画像のiライン目(1ラインの画像データ)が右隣の画像の何ライン目と一致するか(副走査方向における位置)を表すため、結合位置情報テーブル162aのデータが示すラインの画像を順番につなげるだけでは1ライン分の結合画像は生成できない。そこで、図6に示す結合位置情報テーブル162aの2ライン目に対応する結合位置格納領域162dの値を使って具体的に説明する。
Next, the combining process in the
画像結合部170は、1画像の2ライン目の値より、1画像群の2ライン目は右隣の2画像群の1.9ライン目と一致することがわかっているので、N画像の2ライン目の画像に、2画像群の1ライン目の終端位置及び1.9ライン目の終端位置の間で特定される画像を拡大して繋ぎ合わせる。
The
次に、画像結合部170は、2画像群に含まれる画像と3画像群に含まれる画像とを繋ぎ合わせるが、このとき図6の2画像群の2ライン目の結合位置格納領域162dに格納されている値に従って3画像群の画像の2.1ライン目と繋ぎ合わせると、画像は繋がらない。これは、既に、1画像群の2ライン目と2画像群の1.9ライン目を繋ぎ合わせているため、これらと繋がるようにするには、2画像群の1.9ライン目と一致する3画像群のライン数を求める必要がある。
Next, the
ここでは、実際に画像を繋ぎ合わせるラインを座標データと呼び、簡易的に、以下の(5)式〜(7)式により結合位置格納領域162dに格納されている値から座標データを算出する。Cは結合位置の値、Pは座標データ、Nは画像群を区別する自然数、iはライン数である。なお、C(N,i)は、結合位置情報テーブル162aにおいて、N画像群及びiライン目に対応する結合位置格納領域162dの値、P(N,i)は、N画像群及びiライン目の画像データをN+1画像群に含まれる画像に結合させるための座標データの値、である。
Here, the line that actually connects the images is referred to as coordinate data, and the coordinate data is simply calculated from the values stored in the combined
N=1として図9の2ライン目の座標データを求めると、P(1,2)=2、P(2,2)=1.9、P(3,2)=2、P(4,2)=1.9、P(5,2)=2となる。つまり、2ライン目の結合画像を生成する際には、1画像群の2ライン目と2画像群の1.9ライン目と3画像群の2ライン目と4画像群の1.9ライン目と5画像群の2ライン目とを、それぞれ拡大又は縮小して繋ぎ合わせればよい。 When N = 1, the coordinate data of the second line in FIG. 9 is obtained, P (1,2) = 2, P (2,2) = 1.9, P (3,2) = 2, P (4, 2) = 1.9 and P (5,2) = 2. That is, when the combined image of the second line is generated, the second line of the first image group, the first line of the second image group, the second line of the third image group, and the first line of the fourth image group are 1.9th line. And the second line of the five image groups may be enlarged or reduced and joined together.
以上のように、本実施の形態によれば、各々のラインにおいて、各々の撮像素子部141,142,・・・,148によって取得された画像を、その特徴部が一致するように縮小又は拡大させてつなぎ合わせるため、滑らかにつながった画像が取得される。
As described above, according to the present embodiment, in each line, the images acquired by the respective
また、エッジ検出領域内に特徴的な部分が無い原稿の読み取り中に原稿面距離が変化すると、特徴的な部分が現れたところで急激な画像の拡大縮小が必要となる場合がある。そこで、本実施の形態では、画像に特徴的な部分が無いために、エッジが検出できない、若しくはマッチング領域と被マッチング領域の相関が取れないという状態になった場合には、結合位置を確定せずに保留してマッチング領域を広げることにより、結合位置が急激に変化しても1ラインあたりの拡大縮小量が減るため、拡大縮小処理による画像の歪みを小さくすることができるようにしている。 Further, if the document surface distance changes during reading of a document having no characteristic part in the edge detection area, it may be necessary to rapidly enlarge or reduce the image when the characteristic part appears. Therefore, in the present embodiment, when there is no characteristic part in the image and thus an edge cannot be detected or a correlation between the matching area and the matching area cannot be obtained, the coupling position is determined. Instead, the enlargement / reduction amount per line is reduced even if the coupling position changes suddenly, so that the distortion of the image due to the enlargement / reduction process can be reduced.
ただし、原稿に特徴的な部分がある場合にマッチング領域を広く設定すると、原稿面距離の細かい変化に追従できなくなる。よって、本実施の形態では、原稿に特徴的な部分があり、マッチング領域と被マッチング領域の相関が取れる場合には、最小限のマッチング領域で結合位置を検出し、特徴的な部分が無い場合にはマッチング領域を広げることにより、画像を拡大縮小したときの歪みが目立たない上に、原稿面距離の変化に追従して結合位置を検出することにより精度の良い画像結合ができるようにしている。また、本実施の形態では、結合位置が確定したラインの次のラインにマッチング領域や被マッチング領域を設定することにより画像の連続性が保たれるため、結合位置検出処理のエラーなどによる画像の欠損、同一画像の繰り返し、前後関係の入れ替わりなどの著しい画質の劣化は生じない。 However, if the matching area is set wide when there is a characteristic part in the document, it becomes impossible to follow a minute change in the document surface distance. Therefore, in this embodiment, when there is a characteristic part in the original and the matching area and the area to be matched can be correlated, the coupling position is detected with the minimum matching area, and there is no characteristic part. In addition, by expanding the matching area, distortion when the image is enlarged or reduced is not conspicuous, and by detecting the coupling position following the change in the document surface distance, it is possible to perform accurate image coupling. . In this embodiment, since the continuity of the image is maintained by setting the matching area and the matching area to the line next to the line where the coupling position is determined, the image of the image due to the coupling position detection processing error or the like is maintained. There is no significant deterioration in image quality, such as loss, repetition of the same image, or change of context.
さらに、本実施の形態では、マッチング領域を小さく設け、読取装置から1ライン入力される毎に一定ライン分遅延した1ライン分の結合画像を出力する逐次処理を行うため、全画像データを保存するためのフレームメモリが不要となり、コストが抑えられる。また、1フレーム分の画像の読み取りが終了するまで待つ結合処理を必要がないため、処理スピードの高速化が図れる。 Furthermore, in this embodiment, the matching region is provided small, and every time one line is input from the reading apparatus, sequential processing for outputting a combined image for one line delayed by a fixed line is performed, so that all image data is stored. Therefore, the frame memory is not necessary, and the cost can be reduced. Further, since it is not necessary to perform a combining process that waits until image reading for one frame is completed, the processing speed can be increased.
また、結合すべき画像の領域(被マッチング領域)が検出されたときの結合位置の確定をエッジ検出範囲までとするのは、画像の特徴のあるエッジ部分単位ごとに結合処理をしたほうが、誤差が少なくなるためである。言い換えると、相関度は、隣接画像が最もよく一致する被マッチング領域の大きさにおいて最も高くなる。しかし、エッジ検出領域より下側には画像に特徴があるかどうか現時点では不明である。特徴的な画像が含まれている場合には結合位置の検出に役立つが、含まれて居ない場合にはエッジ検出領域の下側で急激な画像のズレが生じても検知できない。よって、確実に特徴的な画像が含まれるエッジ検出位置まで結合位置を確定することで、結合位置の誤検出を回避できる。 In addition, when the region of the image to be combined (matched region) is detected, the combined position is determined up to the edge detection range. This is because there is less. In other words, the degree of correlation is the highest in the size of the matched region where the adjacent images are best matched. However, it is unclear at this time whether the image has a feature below the edge detection region. When a characteristic image is included, it is useful for detection of the coupling position. When it is not included, it cannot be detected even if a sharp image shift occurs below the edge detection region. Therefore, it is possible to avoid erroneous detection of the combined position by reliably determining the combined position up to the edge detection position where the characteristic image is included.
実施の形態1の変形例.
本発明の実施の形態1では、結像光学系101は円柱状の光学セルで構成したが、このような態様に限定されるものではなく、例えば、複数の光学部品から構成される反射光学系、又は結像光学系でも同等の効果は得られる。図22に反射光学系を用いた場合の例を示す。
Modification of the first embodiment.
In
まず、各セルについての光学系要素の配置と光路を説明する。図22は主走査方向(X方向)のセル411の結像光学系要素と主要光路を示した図である。図23は、副走査方向(Y方向)に並ぶ2つのセル411,412の結像光学系要素と主要光路を示した断面図である。各セルの光学系は原稿側にテレセントリックな光学系である。
First, the arrangement and optical paths of optical system elements for each cell will be described. FIG. 22 is a diagram showing the imaging optical system elements and main optical paths of the
系列1に属するセル411は第1レンズ452aとアパーチャ453a、第2レンズ454aとそれらを保持する保持具から構成されている。系列2に属するセル412は第1レンズ452bとアパーチャ453b、第2レンズ454bとそれらを保持する保持具から構成されている。第1レンズ452a,452bは、反射光学系としての凹面鏡であるが、レンズと同様の機能を持つので、第1レンズと呼ぶ。また、第2レンズ454a,454bは、反射光学系としての凹面鏡であるが、レンズと同様の機能を持つので、第2レンズと呼ぶ。セル411には、原稿面からセルへの光路の途中に水平方向への第1の折り返しミラー451aが挿入されている。第1の折り返しミラー451aによる折り返し方向は系列1では図17及び図18における右側である。第2の折り返しミラー451bによる折り返し方向は系列2では図18における左側である。また、第2レンズ454aから撮像素子141への光路の途中に、第2の折り返しミラー455aが挿入されている。第2の折り返しミラー455aによる折り返し方向は、系列1では図22及び図23における下向き(基板404上の撮像素子141に向かう方向)である。第2の折り返しミラー455bによる折り返し方向は、系列2では図23における下向き(撮像素子142に向かう方向)である。天板103に対して各セルの光軸は副走査方向に関して斜め入射である。ほかのセルも同様な構成である。
The
第1レンズ452a,452bの後ろ側焦点位置にアパーチャ453a,453bを配置すれば、原稿側にテレセントリックな光学系を実現できる。転写倍率は、1より大きい拡大でも、1より小さい縮小でも構わないが、等倍にしておくと、一般に流通している解像度のセンサを流用できるというメリットがある。また、折り返しミラーの効果により、Z方向の厚みを抑えることができ、小型の画像読取装置を得ることができる。
If the
図22及び図23の例では各セルの原稿画像はそれぞれに対応する撮像素子141,142上に反転像が作られる。そのため、結合処理に先立ち、画像を反転する処理が必要である。反転処理は、結合処理の前処理として専用の回路を組んで行っても良いし、ラインメモリ105へ画像データを格納するときの順番とラインメモリ105から画像データを読み出すときの順番を逆転することにより行っても良い。
In the example of FIGS. 22 and 23, the original image of each cell is formed as an inverted image on the
ここで、各セル411,412は原稿側にテレセントリックな光学系なので、図23に示すように、原稿の位置が73,74,75と変化しても、撮像素子141,142に対する画像の転写倍率が変化することがないという特徴がある。さらに、主走査方向に関して各セル411,412の光軸と天板103とが垂直なので、同様に、原稿位置の変動によっても各セル411,412の画像は主走査方向にはまったく動かない。しかし、副走査方向に関しては、各セル411,412の光軸と天板103とが垂直ではないため、原稿70の位置が73,74,75と変化すると、光学系が原稿を読み取る位置がずれる。その結果、原稿の位置に応じて得られる画像は副走査方向に移動する。
Here, since the
このとき、系列1のセル411と系列2のセル412の光軸は副走査方向に関して逆向きに傾いている。そのため、原稿の位置が変化した時に画像が移動する方向も逆向きになる。
At this time, the optical axes of the
図22及び図23に示す構成を持つ画像結合装置によれば、既に説明した実施の形態1に係る画像結合装置と同様の機能を実現でき、同様の効果を得ることができる。さらに、画像結像装置の薄型化を実現できる。 According to the image combining device having the configuration shown in FIGS. 22 and 23, the same function as that of the image combining device according to the first embodiment described above can be realized, and the same effect can be obtained. Further, the image forming apparatus can be thinned.
100:画像読取装置、101:結像光学系、102:照明光源、103:天板、104:基板、141,142,143,144,145,146,147,148:撮像素子部、105:ラインメモリ、106:画像結合装置、161:記憶部、162:結合位置情報記憶部、163:制御部、164:結合位置検出部、165:相関検出用領域設定部、166:被相関検出用領域設定部、167:相関算出部、168:結合位置特定部、169:結合位置推定部、170:画像結合部。 DESCRIPTION OF SYMBOLS 100: Image reading apparatus, 101: Imaging optical system, 102: Illumination light source, 103: Top plate, 104: Substrate, 141, 142, 143, 144, 145, 146, 147, 148: Image sensor part, 105: Line Memory: 106: Image combiner, 161: Storage unit, 162: Combined position information storage unit, 163: Control unit, 164: Combined position detection unit, 165: Correlation detection region setting unit, 166: Correlated detection region setting Unit, 167: correlation calculation unit, 168: combined position specifying unit, 169: combined position estimating unit, 170: image combining unit.
Claims (20)
主走査方向において、前記第1の画像の次に隣接する第2の画像を取得する第2の撮像手段と、
副走査方向に並ぶ複数の走査ラインにおいて、前記第1の撮像手段で撮像された前記第1の画像を複数有する第1の画像群、及び、前記第2の撮像手段で撮像された前記第2の画像を複数有する第2の画像群、を記憶する記憶手段と、
前記第1の画像群に含まれる前記第1の画像と、前記第2の画像群に含まれる画像と、を結合する結合位置を算出し、結合する制御手段と、を有し、
前記制御手段は、
前記第1の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭位置の前記第1の画像から連続する複数の走査ラインで取得された複数の前記第1の画像からなるマッチング領域を設定する相関検出用領域設定手段と、
前記第2の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭ラインから、前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、互いにサイズの異なる複数の被マッチング領域を設定する被相関検出用領域設定手段と、
前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する相関算出手段と、
前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示す場合には、前記マッチング領域と最も相関度の高い前記被マッチング領域を選択し、前記マッチング領域に含まれる前記第1の画像を結合する、前記被マッチング領域に含まれる画像の副走査方向における位置を、前記結合位置として特定し、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示さない場合には、前記マッチング領域に含まれる前記第1の画像の前記結合位置を特定する処理を保留する結合位置特定手段と、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像を結合する、前記第2の画像群に含まれる画像の副走査方向における位置を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像とは異なる他の前記第1の画像の前記結合位置から、前記結合位置として算出する結合位置推定手段と、
を備える
ことを特徴とする画像結合装置。 First imaging means for acquiring a first image;
A second imaging means for acquiring a second image adjacent to the first image in the main scanning direction;
In a plurality of scanning lines arranged in the sub-scanning direction, a first image group including a plurality of the first images captured by the first imaging unit, and the second image captured by the second imaging unit. Storage means for storing a second image group having a plurality of images;
Control means for calculating and combining a combining position for combining the first image included in the first image group and the image included in the second image group;
The control means includes
In the first image group, a matching region composed of a plurality of the first images acquired from a plurality of scanning lines continuous from the first image at the head position in the scanning line, for which the combined position is not calculated. Correlation detection area setting means for setting
In the second image group, a plurality of sizes different from each other including a matching region in which an image having the same size as the size of the matching region is obtained from the head line in the scanning line where the combined position is not calculated. Correlated detection area setting means for setting a matched area;
Correlation calculating means for calculating a value for specifying a degree of correlation between the matching region and each of the plurality of matching regions;
When the correlation level specified by the value specifying the correlation level indicates a correlation higher than a predetermined correlation level, the matching region having the highest correlation level with the matching region is selected, and the matching is performed. The position in the sub-scanning direction of the image included in the matching area that combines the first images included in the area is specified as the combination position, and the correlation degree specified by the value specifying the correlation degree is In a case where the correlation is not higher than a predetermined correlation degree, a combined position specifying unit that suspends processing for specifying the combined position of the first image included in the matching area;
The combined position specifying means determines the position in the sub-scanning direction of the image included in the second image group, which combines the first images for which the combined position specifying means has suspended the process of specifying the combined position. A combined position estimating means for calculating as the combined position from the combined position of the other first image different from the first image for which the process of specifying the combined position is suspended;
An image combining device comprising:
を特徴とする請求項1に記載の画像結合装置。 The combination position specifying unit suspends the process of specifying the combination position even when there is no edge portion that can be an edge of an image in the specific image area in the matching area. The image combining device described in 1.
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像が含まれる走査ラインで取得された前記第1の画像に対して算出された前記結合位置の当該走査ラインとの第1のズレ量を算出する処理と、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像が含まれる走査ラインの一つ上の走査ラインで取得された前記第1の画像に対して算出された第2のズレ量を算出する処理と、
前記第1のズレ量と前記第2のズレ量との間の変化量を、同じ前記第1の画像群に含まれる前記第1の画像から算出する処理と、
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において隣接する画像から算出された前記変化量に対応する変化量を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像の変化量として特定し、特定した変化量に対応する前記結合位置を算出する処理と、
を行うこと
を特徴とする請求項1又は2に記載の画像結合装置。 The coupling position estimation means includes
The combination position specifying unit and the scan line of the combination position calculated with respect to the first image acquired in the scan line including the first image for which the process of specifying the combination position is suspended. A process of calculating a first deviation amount;
The second calculated for the first image acquired in the scan line one above the scan line including the first image for which the combination position specifying unit has suspended the process of specifying the combination position. Processing to calculate the amount of deviation of
A process of calculating a change amount between the first shift amount and the second shift amount from the first images included in the same first image group;
A change amount corresponding to the change amount calculated from an adjacent image in the main scanning direction with respect to the first image for which the combination position specifying unit has suspended the process of specifying the combination position is specified as the combination position specification. A process in which the means specifies the change amount of the first image for which the process of specifying the combination position is suspended, and calculates the combination position corresponding to the specified change amount;
The image combining device according to claim 1, wherein:
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において最も近い位置から読み取られた画像から算出された前記変化量に対応する変化量を、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像の変化量とすること
を特徴とする請求項3に記載の画像結合装置。 The coupling position estimation means includes
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the combination position specifying unit has suspended the process of specifying the combination position, the combination position specifying unit For the first image for which the process of specifying the combination position is suspended, a change amount corresponding to the change amount calculated from an image read from the closest position in the main scanning direction is determined as the combination position specification. The image combining apparatus according to claim 3, wherein a change amount of the first image in which processing for specifying the combination position is suspended by a unit is used.
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像の変化量はないものとすること
を特徴とする請求項3に記載の画像結合装置。 The coupling position estimation means includes
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the combination position specifying unit has suspended the process of specifying the combination position, the combination position specifying unit The image combination apparatus according to claim 3, wherein there is no change amount of the first image for which the process of specifying the combination position is suspended.
前記結合位置特定手段は、前記注目ラインに対応する前記第1の画像の前記結合位置を算出する
ことを特徴とする請求項1から5の何れか一項に記載の画像結合装置。 The correlation detection area setting means sets the first image at the head position in the scanning line as the attention line among the first images included in the matching area,
The image combination apparatus according to claim 1, wherein the combination position specifying unit calculates the combination position of the first image corresponding to the target line.
前記相関検出用領域設定手段は、前記結合位置特定手段が前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留された前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定手段は、前記相関検出用領域設定手段が前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項6に記載の画像結合装置。 The binding position specifying means suspends calculation of the binding position when the correlation specified by the value specifying the correlation is less than a predetermined threshold value,
The correlation detection area setting unit is configured to increase the first image included in the matching area and to suspend the calculation of the combined position when the combined position specifying unit has suspended the calculation of the combined position. The first image in the next lower line in the scan line of the first image is the attention line,
The correlated detection area setting means includes a plurality of different sizes including a matched area such that the correlation detection area setting means results in an image having the same size as the size of the matching area obtained by increasing the first image. Set the matching area of
The correlation calculating means calculates a value that specifies the degree of correlation between the matching area and each of the plurality of matched areas.
The image combining device according to claim 6, wherein the processing is repeated until the combined position specifying unit calculates the combined position.
前記相関検出用領域設定手段は、前記結合位置特定手段が前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留された前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定手段は、前記相関検出用領域設定手段が前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項6又は7に記載の画像結合装置。 The combination position specifying unit suspends calculation of the combination position when there is no edge portion that can be an edge of the image in the specific image region including the target line
The correlation detection area setting unit is configured to increase the first image included in the matching area and to suspend the calculation of the combined position when the combined position specifying unit has suspended the calculation of the combined position. The first image in the next lower line in the scan line of the first image is the attention line,
The correlated detection area setting means includes a plurality of different sizes including a matched area such that the correlation detection area setting means results in an image having the same size as the size of the matching area obtained by increasing the first image. Set the matching area of
The correlation calculating means calculates a value that specifies the degree of correlation between the matching area and each of the plurality of matched areas.
The image combining device according to claim 6 or 7, wherein the processing is repeated until the combined position specifying unit calculates the combined position.
ことを特徴とする請求項6から8の何れか一項に記載の画像結合装置。 If the size of the matching region and the matching region is different, the coupling position specifying unit changes the size of the matching region to the same size as the matching region, and the changed matching target An image having a position and size corresponding to the target line in the region is combined with the target line, and the combined position is determined based on the position and size of the combined image when the changed matching region is returned to the original size. The image combining device according to claim 6, wherein the image combining device is specified.
を特徴とする請求項6から9の何れか一項に記載の画像結合装置。 The combination position estimation unit is configured to combine the first image held first when the first number of images for which the combination position specifying unit has suspended calculation of the combination position reaches a predetermined number. The position is calculated. The image combining device according to claim 6, wherein the position is calculated.
主走査方向において、前記第1の画像の次に隣接する第2の画像を取得する第2の撮像手段と、
副走査方向に並ぶ複数の走査ラインにおいて、前記第1の撮像手段で撮像された前記第1の画像を複数有する第1の画像群、及び、前記第2の撮像手段で撮像された前記第2の画像を複数有する第2の画像群、を記憶する記憶手段と、
前記第1の画像群に含まれる前記第1の画像と、前記第2の画像群に含まれる画像と、を結合する結合位置を算出し、結合する制御手段と、を有する画像結合装置が行う画像結合位置算出方法であって、
前記制御手段が、前記第1の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭位置の前記第1の画像から連続する複数の走査ラインで取得された複数の前記第1の画像からなるマッチング領域を設定する相関検出用領域設定手段と、
前記制御手段が、前記第2の画像群において、前記結合位置が算出されていない、走査ラインにおける先頭ラインから、前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、互いにサイズの異なる複数の被マッチング領域を設定する被相関検出用領域設定処理ステップと、
前記制御手段が、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する相関算出処理ステップと、
前記制御手段が、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示す場合には、前記マッチング領域と最も相関度の高い前記被マッチング領域を選択し、前記マッチング領域に含まれる前記第1の画像を結合する、前記被マッチング領域に含まれる画像の副走査方向における位置を、前記結合位置として特定し、前記相関度を特定する値により特定される相関度が、予め定められた相関度よりも高い相関を示さない場合には、前記マッチング領域に含まれる前記第1の画像の前記結合位置を特定する処理を保留する結合位置特定処理ステップと、
前記制御手段が、前記結合位置特定処理ステップで、前記結合位置を特定する処理を保留された前記第1の画像を結合する、前記第2の画像群に含まれる画像の副走査方向における位置を、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像とは異なる他の前記第1の画像の前記結合位置から、前記結合位置として算出する結合位置推定処理ステップと、
を有する
ことを特徴とする画像結合位置算出方法。 First imaging means for acquiring a first image;
A second imaging means for acquiring a second image adjacent to the first image in the main scanning direction;
In a plurality of scanning lines arranged in the sub-scanning direction, a first image group including a plurality of the first images captured by the first imaging unit, and the second image captured by the second imaging unit. Storage means for storing a second image group having a plurality of images;
A control unit that calculates and combines a coupling position for coupling the first image included in the first image group and the image included in the second image group is performed. An image combination position calculation method,
The control means includes a plurality of the first images acquired from a plurality of scanning lines continuous from the first image at the head position in the scanning line, in which the combined position is not calculated in the first image group. Correlation detection area setting means for setting a matching area consisting of images;
In the second image group, the control means includes a matching region in which the combined position is not calculated, and the matching region is an image having the same size as the size of the matching region from the head line in the scanning line. A correlated detection area setting processing step for setting a plurality of matched areas of different sizes;
A correlation calculation processing step in which the control means calculates a value specifying a degree of correlation between the matching area and each of the plurality of matching areas;
In the case where the control means shows a correlation higher than a predetermined correlation degree, the matching area having the highest correlation degree with the matching area is selected as the correlation area specified by the value specifying the correlation degree. The position in the sub-scanning direction of the image included in the matching area to be selected and combined with the first image included in the matching area is specified as the combination position, and specified by the value specifying the correlation degree When the correlation degree to be displayed does not indicate a correlation higher than a predetermined correlation degree, a combined position specifying process step for deferring the process of specifying the combined position of the first image included in the matching region When,
The control unit is configured to determine a position in the sub-scanning direction of an image included in the second image group, in which the first image for which the process of specifying the combining position is suspended is combined in the combining position specifying processing step. A combined position estimation process for calculating the combined position from the combined position of the first image different from the first image for which the process of specifying the combined position in the combined position specifying process step is suspended. Steps,
An image combination position calculation method characterized by comprising:
を特徴とする請求項11に記載の画像結合位置算出方法。 The combination position specifying processing step suspends the process of specifying the combination position even when there is no edge portion that can be an edge of an image in the specific image area in the matching area. 11. The image combination position calculation method according to 11.
前記結合位置特定手段が前記結合位置を特定する処理を保留した前記第1の画像が含まれる走査ラインで取得された前記第1の画像に対して算出された前記結合位置の当該走査ラインとの第1のズレ量を算出する処理を行うステップと、
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像が含まれる走査ラインの一つ上の走査ラインで取得された前記第1の画像に対して算出された第2のズレ量を算出する処理を行うステップと、
前記第1のズレ量と前記第2のズレ量との間の変化量を、同じ前記第1の画像群に含まれる前記第1の画像から算出する処理を行うステップと、
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において隣接する画像から算出された前記変化量に対応する変化量を、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像の変化量として特定し、特定した変化量に対応する前記結合位置を算出する処理を行うステップと、
を行うこと
を特徴とする請求項11又は12に記載の画像結合位置算出方法。 The combined position estimation processing step includes:
The combination position specifying unit and the scan line of the combination position calculated with respect to the first image acquired in the scan line including the first image for which the process of specifying the combination position is suspended. Performing a process of calculating a first deviation amount;
Calculated for the first image acquired in the scan line one above the scan line including the first image for which the process of specifying the combined position is suspended in the combined position specifying process step. Performing a process of calculating a second deviation amount;
Performing a process of calculating a change amount between the first shift amount and the second shift amount from the first images included in the same first image group;
The amount of change corresponding to the amount of change calculated from the adjacent image in the main scanning direction with respect to the first image for which the process of specifying the combining position in the combining position specifying processing step is suspended Performing a process of specifying the change position of the first image for which the process of specifying the combination position in the position specifying process step is suspended and calculating the combination position corresponding to the specified change amount;
The image combining position calculation method according to claim 11 or 12, wherein:
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において最も近い位置から読み取られた画像から算出された前記変化量に対応する変化量を、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像の変化量とすること
を特徴とする請求項13に記載の画像結合位置算出方法。 The combined position estimation processing step includes:
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the process of specifying the combined position in the combined position specifying process step is suspended, the combined position A change amount corresponding to the change amount calculated from the image read from the closest position in the main scanning direction with respect to the first image for which the process of specifying the coupling position in the specifying process step is suspended. The image combination position calculation method according to claim 13, wherein a change amount of the first image for which the process of specifying the combination position is suspended in the combination position specification processing step is used.
前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像に対して、主走査方向において隣接する画像から前記変化量が算出できなかった場合には、前記結合位置特定処理ステップで前記結合位置を特定する処理が保留された前記第1の画像の変化量はないものとすること
を特徴とする請求項13に記載の画像結合位置算出方法。 The combined position estimation processing step includes:
When the change amount cannot be calculated from the adjacent image in the main scanning direction with respect to the first image for which the process of specifying the combined position in the combined position specifying process step is suspended, the combined position The image combination position calculation method according to claim 13, wherein there is no change amount of the first image for which the process of specifying the combination position in the specifying process step is suspended.
前記結合位置特定処理ステップでは、前記制御手段は、前記注目ラインに対応する前記第1の画像の前記結合位置を算出する
ことを特徴とする請求項11から15の何れか一項に記載の画像結合位置算出方法。 In the correlation detection region setting processing step, the control means sets the first image at the head position in the scanning line as the attention line among the first images included in the matching region,
The image according to any one of claims 11 to 15, wherein, in the combined position specifying processing step, the control unit calculates the combined position of the first image corresponding to the target line. Bonding position calculation method.
前記相関検出用領域設定処理ステップでは、前記制御手段は、前記結合位置特定処理ステップで前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留した前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定処理ステップでは、前記制御手段は、前記相関検出用領域設定処理ステップで前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出処理ステップでは、前記制御手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定処理ステップで、前記制御手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項16に記載の画像結合位置算出方法。 In the combined position specifying processing step, the control means suspends calculation of the combined position when the correlation specified by the value specifying the correlation is less than a predetermined threshold,
In the correlation detection region setting processing step, the control means increases the first image included in the matching region when the calculation of the combined position is suspended in the combined position specifying processing step, and The first image of the next lower line in the scan line of the first image for which the position calculation is suspended is set as the attention line,
In the correlated detection region setting processing step, the control unit is configured to match the matching region so that an image having the same size as the size of the matching region obtained by increasing the first image in the correlation detection region setting processing step is obtained. Set multiple matching areas with different sizes, including
In the correlation calculation processing step, the control means calculates a value that specifies a degree of correlation between the matching region and each of the plurality of matching regions.
The image combination position calculation method according to claim 16, wherein the process is repeated until the control unit calculates the combination position in the combination position specification processing step.
前記相関検出用領域設定処理ステップでは、前記制御手段は、前記結合位置特定手段が前記結合位置の算出を保留した場合には、前記マッチング領域に含まれる前記第1の画像を増やし、前記結合位置の算出を保留された前記第1の画像の走査ラインにおける一つ下のラインの前記第1の画像を前記注目ラインとし、
前記被相関検出用領域設定処理ステップでは、前記制御手段は、前記相関検出用領域設定処理ステップで前記第1の画像を増やした前記マッチング領域のサイズと同じサイズの画像となるような被マッチング領域を含む、サイズの異なる複数の被マッチング領域を設定し、
前記相関算出処理ステップでは、前記制御手段は、前記マッチング領域と、複数の前記被マッチング領域の各々と、の相関度を特定する値を算出する、
処理を、前記結合位置特定処理ステップで、前記制御手段が、前記結合位置を算出するまで繰り返す
ことを特徴とする請求項16又は17に記載の画像結合位置算出方法。 In the combined position specifying processing step, the control unit suspends calculation of the combined position when there is no edge portion that can be an edge of the image in the specific image area including the target line,
In the correlation detection region setting processing step, the control unit increases the first image included in the matching region when the combined position specifying unit has suspended calculation of the combined position, and the combined position The first image in the line below the scanning line of the first image for which the calculation of
In the correlated detection region setting processing step, the control unit is configured to match the matching region so that an image having the same size as the size of the matching region obtained by increasing the first image in the correlation detection region setting processing step is obtained. Set multiple matching areas with different sizes, including
In the correlation calculation processing step, the control means calculates a value that specifies a degree of correlation between the matching region and each of the plurality of matching regions.
18. The image combination position calculation method according to claim 16, wherein the processing is repeated until the control unit calculates the combination position in the combination position specification processing step.
ことを特徴とする請求項16から18の何れか一項に記載の画像結合位置算出方法。 In the coupling position specifying processing step, when the size of the matching region and the matching region is different, the control unit changes the size of the matching region to be the same size as the matching region, An image having a position and size corresponding to the target line in the changed matching area is used as a combined image that is combined with the target line, and the position of the combined image when the changed matching area is returned to the original size and The image combination position calculation method according to any one of claims 16 to 18, wherein the combination position is specified by a size.
を特徴とする請求項16から19の何れか一項に記載の画像結合位置算出方法。 In the combined position estimation processing step, the control means starts when the number of the first images for which the control means has suspended calculation of the combined position in the combined position specifying processing step reaches a predetermined number. The image combination position calculation method according to any one of claims 16 to 19, wherein the combination position of the first image held on the left is calculated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009243624A JP5322885B2 (en) | 2009-10-22 | 2009-10-22 | Image combination apparatus and image combination position calculation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009243624A JP5322885B2 (en) | 2009-10-22 | 2009-10-22 | Image combination apparatus and image combination position calculation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011091638A JP2011091638A (en) | 2011-05-06 |
JP5322885B2 true JP5322885B2 (en) | 2013-10-23 |
Family
ID=44109465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009243624A Expired - Fee Related JP5322885B2 (en) | 2009-10-22 | 2009-10-22 | Image combination apparatus and image combination position calculation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5322885B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016163133A1 (en) * | 2015-04-09 | 2016-10-13 | 三菱電機株式会社 | Image combination device, image reading device and image combination method |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5970970B2 (en) * | 2012-06-13 | 2016-08-17 | 富士通株式会社 | Image processing apparatus, method, and program |
KR101298277B1 (en) * | 2013-01-14 | 2013-08-20 | 김종덕 | Device and method for authoring cubic-map and computer-readable recording medium for the same |
JP6413542B2 (en) * | 2014-09-22 | 2018-10-31 | 富士ゼロックス株式会社 | Image processing apparatus and image processing program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3616256B2 (en) * | 1998-07-03 | 2005-02-02 | シャープ株式会社 | Image processing device |
WO2009122483A1 (en) * | 2008-03-31 | 2009-10-08 | 三菱電機株式会社 | Image scanner |
-
2009
- 2009-10-22 JP JP2009243624A patent/JP5322885B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016163133A1 (en) * | 2015-04-09 | 2016-10-13 | 三菱電機株式会社 | Image combination device, image reading device and image combination method |
JP6075588B1 (en) * | 2015-04-09 | 2017-02-08 | 三菱電機株式会社 | Image combining apparatus, image reading apparatus, and image combining method |
US9936098B2 (en) | 2015-04-09 | 2018-04-03 | Mitsubishi Electric Corporation | Image combination device, image reading device and image combination method |
Also Published As
Publication number | Publication date |
---|---|
JP2011091638A (en) | 2011-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101141345B1 (en) | Three-dimensional shape measuring device, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium | |
CN101510936B (en) | Image reading device and image forming apparatus | |
KR101297959B1 (en) | Image reading apparatus | |
US20130020470A1 (en) | Camera system with multiple pixel arrays on a chip | |
JP2004226128A (en) | Apparatus and method for visual inspection | |
JP2012109737A (en) | Image coupler, image coupling method, image input/output system. program and recording medium | |
JP5322885B2 (en) | Image combination apparatus and image combination position calculation method | |
JP5202267B2 (en) | Image reading device | |
JP4947072B2 (en) | Image reading device | |
JP5495710B2 (en) | Image combination apparatus and image combination position calculation method | |
JP4913089B2 (en) | Image reading device | |
JP2019179342A (en) | Image processing device and image processing method | |
JP2006112912A (en) | Defect inspection device | |
JP5068236B2 (en) | Image reading device | |
JP2013110582A (en) | Image reading apparatus, image reading method and mtf compensation parameter determining method | |
CN116134289A (en) | Three-dimensional measuring device | |
JP6246379B2 (en) | Image processing apparatus, image processing method, image reading apparatus, and program | |
JP5224976B2 (en) | Image correction apparatus, image correction method, program, and recording medium | |
JP2002232654A (en) | Device and method for image processing and computer readable recording medium with program for making computer perform the method recorded thereon | |
JP2014042147A (en) | Image reading device | |
JP4965594B2 (en) | Image reading device | |
JPS5837923A (en) | Inspection apparatus for photo mask | |
EP2798573B1 (en) | Method and system for recording images of surfaces of moving objects with reduced distortion | |
JP2009188829A (en) | Image reading device and image forming device | |
EP2293537A1 (en) | Imaging system & method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121012 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5322885 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |