JP2000013588A - Image processor - Google Patents

Image processor

Info

Publication number
JP2000013588A
JP2000013588A JP10177241A JP17724198A JP2000013588A JP 2000013588 A JP2000013588 A JP 2000013588A JP 10177241 A JP10177241 A JP 10177241A JP 17724198 A JP17724198 A JP 17724198A JP 2000013588 A JP2000013588 A JP 2000013588A
Authority
JP
Japan
Prior art keywords
image
divided
line
connection
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10177241A
Other languages
Japanese (ja)
Other versions
JP3519607B2 (en
Inventor
Itaru Furukawa
至 古川
Kunio Muraji
国男 連
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP17724198A priority Critical patent/JP3519607B2/en
Publication of JP2000013588A publication Critical patent/JP2000013588A/en
Application granted granted Critical
Publication of JP3519607B2 publication Critical patent/JP3519607B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To decide an appropriate connection position even at the time of divided images obtained by reading a source image in which an original surface is rugged like a pasted mount or the like. SOLUTION: In an image extraction part 21, each time input for each line is present for the divided images A and B, image parts Ga and Gb of the overlap area of the divided images A and B are extracted. A block division part 22 divides the respective image parts Ga and Gb and generates two block images. A comparison part 23 compares the divided images A with B for the respective block images and generates two characteristic data. Then, connection candidate positions Z1 and Z2 are detected for the respective two characteristic data. In a connection position decision part 25, whether or not the original surface is rugged is decided based on the two connection candidate positions Z1 and Z2, and at the time of deciding the connection position for the pertinent line, the connection position eliminating the effects of ruggedness is decided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、原画像が分割さ
れた複数の分割画像に対するつなぎ処理を施す際のつな
ぎ位置を決定する画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for determining a connecting position when performing a connecting process on a plurality of divided images obtained by dividing an original image.

【0002】[0002]

【従来の技術】入力スキャナ等のような画像を読み取る
装置において、読み取る画像が大きいときには、1回の
読み取りで全画像を読み取ることができないため、画像
を分割入力し、後の画像処理において分割入力した複数
の画像に対してつなぎ処理が施され、全体の1つの原画
像を復元(再現)することが行われている。
2. Description of the Related Art In a device for reading an image such as an input scanner or the like, when the image to be read is large, it is not possible to read all the images by one reading. A connection process is performed on the plurality of images thus processed, and a whole original image is restored (reproduced).

【0003】例えば、図13に示すように主走査方向で
あるX方向に複数の画素が配列されたCCDラインセン
サ8が、原画像2を読み取る際には、副走査方向である
Y方向に走査することによって第1の分割画像を読み取
り、次にCCDラインセンサ8をX方向に移動させた位
置(図13に示す一点鎖線で示す位置)から再びY方向
に走査することによって第2の分割画像を読み取る。こ
れにより、原画像2の全体を読み取ることができる。こ
のようにして得られた複数の分割画像に対してつなぎ処
理を施して原画像2全体についての画像データを生成す
る。つなぎ処理を行うために、図13に示すように第1
と第2の分割画像とで重複領域GRが読み取られる。
For example, as shown in FIG. 13, a CCD line sensor 8 having a plurality of pixels arranged in an X direction which is a main scanning direction scans an original image 2 in a Y direction which is a sub scanning direction. Then, the first divided image is read, and then the CCD line sensor 8 is moved again in the X direction (the position indicated by the dashed line in FIG. 13), and is again scanned in the Y direction. Read. Thus, the entire original image 2 can be read. The connection processing is performed on the plurality of divided images obtained in this manner to generate image data for the entire original image 2. As shown in FIG. 13, the first
The overlapping area GR is read between the image and the second divided image.

【0004】このようなつなぎ処理を行う従来の画像処
理装置の概略構成を図14に示す。入力スキャナ等の画
像読み取りヘッド部分に相当する画像入力部210は、
1つの原画像2を分割した画像をそれぞれ順次に画像処
理部220に送るように構成されている。例えば、図1
3に示したように原画像2を2分割した状態で読み取っ
て入力する場合には、先に入力する分割画像をAとし、
後に入力する分割画像をBとする。画像入力部210
は、画像処理部220に対して分割画像A,Bを順次に
送出する。なお、画像入力部210は、分割画像A,B
のそれぞれを出力する際、上記のようなCCDラインセ
ンサ8の1ラインごとの読み取りが行われるごとに出力
する。
FIG. 14 shows a schematic configuration of a conventional image processing apparatus that performs such a connection process. An image input unit 210 corresponding to an image reading head part such as an input scanner,
The image obtained by dividing one original image 2 is sequentially sent to the image processing unit 220. For example, FIG.
In the case where the original image 2 is read and input in a state where the original image 2 is split into two as shown in FIG.
The divided image to be input later is assumed to be B. Image input unit 210
Sends the divided images A and B to the image processing unit 220 sequentially. Note that the image input unit 210 outputs the divided images A and B
Are output each time the CCD line sensor 8 reads each line as described above.

【0005】画像処理部220は、分割画像A,Bのそ
れぞれを後段のつなぎ処理部240に出力する。また、
画像処理部220は、内部に画像抽出部221と比較部
222とつなぎ位置決定部225とを備えている。
[0005] The image processing section 220 outputs each of the divided images A and B to the subsequent connection processing section 240. Also,
The image processing unit 220 includes an image extraction unit 221, a comparison unit 222, and a connection position determination unit 225 inside.

【0006】画像抽出部221は、画像入力部210か
ら先に入力する分割画像Aのうちから重複領域GRに相
当する画像部分Gaのみを1ラインごとに抽出し、この
画像部分Gaを比較部222に出力する。ここでの抽出
は、例えば、分割画像Aの+X側の端部から−X方向に
所定の数(k個)の画素を抽出することにより行われ
る。
The image extracting section 221 extracts, for each line, only the image portion Ga corresponding to the overlapping area GR from the divided images A previously inputted from the image input section 210, and compares this image portion Ga with the comparing section 222. Output to The extraction here is performed by, for example, extracting a predetermined number (k) of pixels in the −X direction from the end on the + X side of the divided image A.

【0007】比較部222は、分割画像Aについての画
像部分Gaを内部に設けられた図示しないメモリ等に一
時的に格納しておく。
The comparing section 222 temporarily stores an image portion Ga of the divided image A in a memory or the like (not shown) provided therein.

【0008】そして、後に画像入力部210から分割画
像Bが1ラインごとに入力される際に、画像抽出部22
1は、分割画像Bのうちから重複領域GRに相当する画
像部分Gbのみを抽出する。ここでの抽出は、例えば、
分割画像Bの−X側の端部から+X方向に所定の数(j
個)の画素を抽出することにより行われる。そして、分
割画像Bについての画像部分Gbは比較部222に送ら
れる。
When the divided image B is input line by line later from the image input unit 210, the image extracting unit 22
1 extracts only the image part Gb corresponding to the overlapping area GR from the divided images B. The extraction here is, for example,
A predetermined number (j) in the + X direction from the end on the -X side of the divided image B
) Pixels. Then, the image portion Gb of the divided image B is sent to the comparing section 222.

【0009】そして、比較部222は、メモリ等から先
に入力した分割画像Aについての画像部分Gaを読み出
し、双方の画像部分GaとGbとを比較する。ここでの
比較は、分割画像Bについての画像部分Gbの比較対象
とする部分を+X方向に向かって画素単位で段階的に移
動させ、それぞれの画素位置において比較対象とされる
部分の画像部分Gbとメモリ等から読み出された画像部
分Gaとを比較することにより行われる。
The comparing section 222 reads the image portion Ga of the previously input divided image A from a memory or the like, and compares both image portions Ga and Gb. In this comparison, the portion to be compared of the image portion Gb of the divided image B is stepwise moved in the + X direction in pixel units, and the image portion Gb of the portion to be compared at each pixel position This is performed by comparing the image portion Ga read from the memory or the like.

【0010】具体的には、画像部分Gbについての移動
量をZ画素分とすると、
Specifically, assuming that the movement amount for the image portion Gb is Z pixels,

【0011】[0011]

【数1】 (Equation 1)

【0012】に示すように移動量Zについての特性デー
タSh(Z)を得ることができる。数1において、kは上
記の画像部分Gaに含まれている画素数を示しており、
iはk個の画素のうちのi番目の画素を示している。す
なわち、数1は、分割画像AとBとのうちの一方を画素
単位でずらしながら、画素ごとの差分値を積算するもの
である。この差分の積算値は、両画像の相関度を示して
いる。このような特性データSh(Z)を移動量Zの値ご
とに(すなわち、1画素移動させる度に)導き、比較結
果とする。なお、図15は、数1によって得られる移動
量Zと特性データSh(Z)との関係を示す図である。
As shown in FIG. 2, characteristic data Sh (Z) for the movement amount Z can be obtained. In Equation 1, k represents the number of pixels included in the image portion Ga, and
i indicates the i-th pixel among the k pixels. That is, Equation 1 integrates the difference value for each pixel while shifting one of the divided images A and B for each pixel. The integrated value of the difference indicates the degree of correlation between the two images. Such characteristic data Sh (Z) is derived for each value of the movement amount Z (that is, each time one pixel is moved), and is set as a comparison result. FIG. 15 is a diagram illustrating a relationship between the movement amount Z obtained by Expression 1 and the characteristic data Sh (Z).

【0013】そして、比較部222における比較結果
は、つなぎ位置決定部225に送られる。
[0013] The comparison result in the comparing section 222 is sent to the joint position determining section 225.

【0014】つなぎ位置決定部225では、比較部22
2から送られてくる比較結果に基づいて、画像部分Ga
とGbとの相関度が最も高くなる画素位置をつなぎ位置
として決定する。例えば、図15に示すような特性デー
タSh(Z)が得られると、この特性データSh(Z)を最
小にする移動量Zのときに、画像部分GaとGbとの相
関度が最も高くなることとなる。つなぎ位置決定部22
5で決定されたつなぎ位置は、つなぎ位置情報としてつ
なぎ処理部240に送られる。
In the connection position determining section 225, the comparing section 22
2 based on the comparison result sent from
The pixel position at which the degree of correlation between Gb and Gb is the highest is determined as the connection position. For example, when the characteristic data Sh (Z) as shown in FIG. 15 is obtained, the correlation between the image portions Ga and Gb becomes the highest when the movement amount Z minimizes the characteristic data Sh (Z). It will be. Joint position determination unit 22
The connection position determined in step 5 is sent to the connection processing unit 240 as connection position information.

【0015】なお、画像処理部220におけるつなぎ位
置の決定の処理は、第2の分割画像Bの入力に伴って1
ラインごとに行われる。
The processing for determining the connection position in the image processing section 220 is performed in accordance with the input of the second divided image B.
Performed line by line.

【0016】そして、つなぎ処理部240は、画像処理
部220から与えられる先に入力した分割画像Aを内部
に設けられた磁気ディスク等の記憶部に格納しておき、
分割画像Bの1ラインごとの入力とともに、画像処理部
220内のつなぎ位置決定部225から入力するつなぎ
位置情報に基づいて分割画像A,Bのつなぎ処理を施し
て原画像2についての1つの画像データを生成すること
ができる。そして、得られた原画像2についての1つの
画像データは、記憶部内に再び格納したり、後段の装置
に画像出力することができるように構成されている。
The connection processing unit 240 stores the previously input divided image A provided from the image processing unit 220 in a storage unit such as a magnetic disk provided therein.
One image of the original image 2 is obtained by performing the connection processing of the divided images A and B based on the connection position information input from the connection position determination unit 225 in the image processing unit 220 together with the input of each line of the divided image B. Data can be generated. Then, the obtained one image data of the original image 2 is configured to be stored again in the storage unit or output to a subsequent device as an image.

【0017】なお、3分割以上の分割画像を入力する場
合についても上記のような処理が繰り返されることとな
る。
The above-described processing is repeated also when a divided image of three or more divisions is input.

【0018】[0018]

【発明が解決しようとする課題】ところで、上記のよう
な画像処理装置によるつなぎ位置の決定を行うと、貼り
込み台紙等のような原稿面に凹凸があるような原画像を
読み取る場合、適切なつなぎ位置を決定することができ
ない。
By the way, when the splicing position is determined by the image processing apparatus as described above, when an original image having irregularities on the original surface such as a pasteboard is read, an appropriate image is read. The connection position cannot be determined.

【0019】例えば、図16に示すように、原稿2aに
原稿2bが貼り込まれているとする。そして、分割画像
Aを読み取る際のCCDラインセンサ8の位置が図16
に示す8aであり、分割画像Bを読み取る際のCCDラ
インセンサ8の位置が図16に示す8bであるとする。
For example, it is assumed that a document 2b is pasted on a document 2a as shown in FIG. The position of the CCD line sensor 8 when reading the divided image A is shown in FIG.
It is assumed that the position of the CCD line sensor 8 when reading the divided image B is 8b shown in FIG.

【0020】このような場合に原稿2a,2bを所定の
倍率で読み取ると、原稿2aの黒化部分P1は、分割画
像Aの画素Pa1と分割画像Bの画素Pb1とに投影さ
れる。また、原稿2bの黒化部分P2は、分割画像Aの
画素Pa2と分割画像Bの画素Pb2とに投影される。
When the originals 2a and 2b are read at a predetermined magnification in such a case, the blackened portion P1 of the original 2a is projected onto the pixel Pa1 of the divided image A and the pixel Pb1 of the divided image B. Further, the blackened portion P2 of the original 2b is projected onto the pixel Pa2 of the divided image A and the pixel Pb2 of the divided image B.

【0021】そして、図16に示す画素位置8a,8b
を比較すれば、分割画像Aについて黒化部分P1,P2
が投影される範囲と分割画像Bについて黒化部分P1,
P2が投影される範囲とが異なっていることがわかる。
換言すれば、黒化部分P1,P2が投影される位置が分
割画像AとBとで主走査方向に位置ズレを発生させてい
る。この現象は、原稿面に凹凸部分が存在することによ
り、一方の分割画像からは段差の側面を検出することが
できるが、他方の分割画像からは段差の側面を検出する
ことができないことに起因している。
The pixel positions 8a and 8b shown in FIG.
Are compared, the blackened portions P1 and P2 of the divided image A are
Are projected and the blackened portion P1,
It can be seen that the range in which P2 is projected is different.
In other words, the positions where the blackened portions P1 and P2 are projected cause a positional shift between the divided images A and B in the main scanning direction. This phenomenon is caused by the fact that the side of the step can be detected from one of the divided images, but the side of the step cannot be detected from the other divided image due to the presence of the uneven portion on the document surface. are doing.

【0022】このようにして得られる分割画像AとBと
に基づいて上記のような比較部222での処理を行う
と、分割画像Aの画素Pa1と分割画像Bの画素Pb1
とが一致するときの移動量Zのときに相関度が高くなる
とともに、分割画像Aの画素Pa2と分割画像Bの画素
Pb2とが一致するときの移動量Zのときにも相関度が
高くなる。すなわち、比較部222において得られる特
性データSh(Z)は、図17に示すようなものとなる。
図17に示す特性データSh(Z)は、2つの異なるつな
ぎ位置を有する特性データが合成されたものであると言
える。
By performing the above-described processing in the comparing section 222 based on the divided images A and B obtained as described above, the pixel Pa1 of the divided image A and the pixel Pb1 of the divided image B are obtained.
Is high when the amount of movement Z is the same as when the amount of movement Z is equal, and the degree of correlation is also high when the amount of movement Z is such that the pixel Pa2 of the divided image A matches the pixel Pb2 of the divided image B. . That is, the characteristic data Sh (Z) obtained in the comparing section 222 is as shown in FIG.
It can be said that the characteristic data Sh (Z) shown in FIG. 17 is obtained by synthesizing characteristic data having two different connection positions.

【0023】図17のような特性データSh(Z)に基づ
いてつなぎ位置を決定しようとすると、移動量Zd〜Z
uの間でつなぎ位置が変動することとなり、つなぎ位置
が安定しないとともに、適切なつなぎ位置とは言えな
い。
If the connection position is to be determined based on the characteristic data Sh (Z) as shown in FIG.
The connection position fluctuates between u and the connection position is not stable, and cannot be said to be an appropriate connection position.

【0024】このように、分割画像Aと分割画像Bとの
重複領域の画像部分Ga,Gbに原稿面の凹凸部分が存
在すると、特性データSh(Z)に凹凸部分の影響が現
れ、適切なつなぎ位置を決定することができず、問題と
なる。
As described above, if there are irregularities on the document surface in the image portions Ga and Gb in the overlapping area of the divided image A and the divided image B, the irregularities appear on the characteristic data Sh (Z), and an appropriate effect is obtained. The connection position cannot be determined, which is problematic.

【0025】この発明は、上記課題に鑑みてなされたも
のであって、貼り込み台紙等のような原稿面に凹凸があ
るような原画像を読み取って得られる分割画像であって
も、適切なつなぎ位置を決定することができる画像処理
装置を提供することを目的とする。
The present invention has been made in view of the above-described problems, and is suitable for a divided image obtained by reading an original image having irregularities on a document surface such as a pasteboard. It is an object of the present invention to provide an image processing apparatus capable of determining a connection position.

【0026】[0026]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の発明は、原画像が分割された第1
の分割画像と第2の分割画像とに重複して含まれる重複
領域において、第1の分割画像と第2の分割画像とのつ
なぎ処理を行うためのつなぎ位置を1ラインごとに決定
する画像処理装置であって、(a)つなぎ処理の対象とな
る第1の分割画像と第2の分割画像とを順次に1ライン
ごとに入力する画像入力手段と、(b)当該ラインについ
ての第1の分割画像のうちから所定部分の画像を抽出す
ることにより第1の分割画像についての重複領域の画像
部分を抽出するとともに、当該ラインについての第2の
分割画像のうちから所定部分の画像を抽出することによ
り第2の分割画像についての重複領域の画像部分を抽出
する画像抽出手段と、(c)画像抽出部で抽出された第1
の分割画像についての第1の画像部分と、第2の分割画
像についての第2の画像部分とのそれぞれを所定の位置
で分割し、複数のブロック画像を生成するブロック分割
手段と、(d)第1の画像部分の複数のブロック画像と、
第2の画像部分の複数のブロック画像とを比較すること
によって、ブロック画像ごとの相関度を示す複数の特性
データを生成する比較手段と、(e)複数の特性データの
それぞれについて第1の分割画像と第2の分割画像との
複数のつなぎ候補位置を検出するつなぎ位置検出手段
と、(f)複数のつなぎ候補位置に基づいて、当該ライン
についてのつなぎ位置を決定するつなぎ位置決定手段と
を備えている。
In order to achieve the above object, according to the first aspect of the present invention, there is provided an image processing method comprising the steps of:
Image processing for determining, for each line, a connecting position for performing a connecting process between the first divided image and the second divided image in an overlapping region included in the divided image and the second divided image in an overlapping manner. An image input means for (a) sequentially inputting a first divided image and a second divided image to be connected to each other line by line, and (b) a first image processing unit for the line. By extracting an image of a predetermined portion from among the divided images, an image portion of an overlapping region of the first divided image is extracted, and an image of a predetermined portion is extracted from the second divided image of the line. Image extracting means for extracting an image portion of an overlapping area of the second divided image, and (c) the first image extracted by the image extracting unit.
(D) dividing a first image portion of the divided image and a second image portion of the second divided image at predetermined positions to generate a plurality of block images; A plurality of block images of the first image portion;
Comparing means for generating a plurality of characteristic data indicating a degree of correlation for each block image by comparing the plurality of block images of the second image portion; and (e) a first division for each of the plurality of characteristic data Connecting position detecting means for detecting a plurality of connecting candidate positions between the image and the second divided image; and (f) connecting position determining means for determining a connecting position for the line based on the plurality of connecting candidate positions. Have.

【0027】請求項2に記載の発明は、請求項1に記載
の画像処理装置において、ブロック分割手段は、第1の
画像部分を中央部分で2分割することにより、第1の画
像部分について2個のブロック画像を生成するととも
に、第2の画像部分を中央部分で2分割することによ
り、第2の画像部分について2個のブロック画像を生成
し、つなぎ位置決定手段は、各ブロック画像ごとに検出
されたつなぎ候補位置が所定の範囲内にある場合は、つ
なぎ候補位置の分布範囲内のうちから当該ラインについ
てのつなぎ位置を決定し、つなぎ候補位置が前記所定の
範囲内にない場合は、前回のラインについてのつなぎ位
置を当該ラインについてのつなぎ位置として決定するこ
とを特徴としている。
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the block dividing means divides the first image portion into two at a central portion, thereby dividing the first image portion into two. By generating two block images and dividing the second image portion into two at the center portion, two block images are generated for the second image portion. If the detected connection candidate position is within a predetermined range, determine the connection position for the line from within the distribution range of the connection candidate position, and if the connection candidate position is not within the predetermined range, The connection position of the previous line is determined as the connection position of the line.

【0028】請求項3に記載の発明は、請求項1又は2
に記載の画像処理装置において、つなぎ位置決定手段
は、前回のラインについてのつなぎ位置を当該ラインに
ついてのつなぎ位置として決定した場合、当該ライン以
後の所定数のラインについてのつなぎ位置を前回のライ
ンについてのつなぎ位置とすることを特徴としている。
The invention described in claim 3 is the first or second invention.
In the image processing device described in the above, when the connection position determining means determines the connection position for the previous line as the connection position for the line, the connection position for a predetermined number of lines after the line is determined for the previous line. It is characterized by a connecting position.

【0029】請求項4に記載の発明は、請求項1ないし
3のいずれかに記載の画像処理装置において、比較手段
は、第1の画像部分の複数のブロック画像と、第2の画
像部分の複数のブロック画像とを比較する際に、それぞ
れのブロック画像に含まれる各画素に対して所定の重み
付け係数を積算することを特徴としている。
According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the comparing means includes a plurality of block images of the first image portion and a plurality of block images of the second image portion. When comparing with a plurality of block images, a predetermined weighting coefficient is accumulated for each pixel included in each block image.

【0030】[0030]

【発明の実施の形態】<1.第1の実施の形態>図1
は、この発明の第1の実施の形態の画像処理装置100
の構成を示すブロック図である。図1に示すように、こ
の画像処理装置100は、画像入力部10と画像処理部
20とつなぎ処理部40とを備えている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <1. First Embodiment> FIG.
Is an image processing apparatus 100 according to the first embodiment of the present invention.
FIG. 3 is a block diagram showing the configuration of FIG. As shown in FIG. 1, the image processing apparatus 100 includes an image input unit 10, an image processing unit 20, and a connection processing unit 40.

【0031】画像入力部10は、入力スキャナの画像読
み取りヘッド部分等のように原画像を読み取って複数の
分割画像を生成する装置である。以下においては、画像
入力部10からは原画像について2つの分割画像A,B
が得られる場合について説明する。なお、ここでは画像
入力部10は、図13に示すように主走査方向であるX
方向に複数の画素が配列されたCCDラインセンサ8が
副走査方向であるY方向に走査することによって原画像
2を読み取り、分割画像A,Bを生成するものとする。
The image input unit 10 is a device that reads an original image and generates a plurality of divided images, such as an image reading head of an input scanner. In the following, the image input unit 10 outputs two divided images A and B for the original image.
Will be described. In this case, the image input unit 10 is configured to set X in the main scanning direction as shown in FIG.
The original image 2 is read by scanning the CCD line sensor 8 in which a plurality of pixels are arranged in the Y direction, which is the sub-scanning direction, to generate divided images A and B.

【0032】図2は、分割画像A,Bを説明する図であ
る。図2(a)は、原画像2を示しており、図2(b)
は、分割画像Aを示しており、図2(c)は、分割画像
Bを示している。図2(a)に示すような原画像2を分
割入力すると、図2(b),(c)に示すような分割画
像A,Bが得られる。図2(b),(c)に示す斜線領
域は、分割画像A,Bについて重複して得られる重複領
域の画像部分Ga,Gbである。2つの分割画像A,B
は、この重複領域内においてつなぎ処理が施される。
FIG. 2 is a diagram for explaining the divided images A and B. FIG. 2A shows an original image 2 and FIG.
Shows a divided image A, and FIG. 2C shows a divided image B. When the original image 2 as shown in FIG. 2A is divided and input, divided images A and B as shown in FIGS. 2B and 2C are obtained. The shaded areas shown in FIGS. 2B and 2C are the image parts Ga and Gb of the overlapping area obtained by overlapping the divided images A and B. Two divided images A and B
Are connected in this overlapping area.

【0033】ところで、2つの分割画像A,Bのそれぞ
れにおいては、図2(b),(c)の一点鎖線で示すよ
うに、画像入力部10の機械的構成や、原画像2以外の
部分に設けられた基準線を読み取った画素の位置等から
予めつなぎ基準位置を予測することができる。しかし、
つなぎ基準位置には、実際の原画像2の読み取りの際に
生じる走査ムラ,原稿の撓み,原稿面の凹凸等は反映さ
れていないため、分割画像AとBとをそれぞれのつなぎ
基準位置でつなぎ処理を行うと画像の歪み等の画質劣化
を招くこととなる。
In each of the two divided images A and B, as shown by the dashed line in FIGS. 2B and 2C, the mechanical structure of the image input unit 10 and the parts other than the original image 2 It is possible to predict the connection reference position in advance from the position of the pixel that has read the reference line provided in the. But,
Since the scanning reference position does not reflect the scanning unevenness, the bending of the document, and the unevenness of the document surface that occur when the actual original image 2 is read, the divided images A and B are connected at the respective connecting reference positions. When the processing is performed, image quality deterioration such as image distortion is caused.

【0034】そこで、この実施の形態では、先に入力す
る分割画像Aの重複領域をつなぎ基準位置で固定させて
おき、後に入力する分割画像Bの重複領域を分割画像A
の重複領域に対して主走査方向に適切な移動量の分だけ
移動させることにより適切なつなぎ処理を行うために、
適切な移動量、すなわち、適切なつなぎ位置を決定する
ものである。
Therefore, in this embodiment, the overlapping area of the divided image A to be inputted first is fixed at the connection reference position, and the overlapping area of the divided image B to be inputted later is divided into the divided image A.
In order to perform appropriate connection processing by moving by an appropriate amount of movement in the main scanning direction with respect to the overlapping area of
This determines an appropriate moving amount, that is, an appropriate connecting position.

【0035】画像入力部10から得られる分割画像A,
Bは、画像処理部20に送られる。この画像入力部10
からは、まず、分割画像A(第1の分割画像)が主走査
方向(X方向)の1ラインごとに順次に出力され、分割
画像Aの全体が出力された後に続いて分割画像B(第2
の分割画像)が主走査方向の1ラインごとに出力され
る。
The divided images A,
B is sent to the image processing unit 20. This image input unit 10
After that, first, the divided image A (first divided image) is sequentially output for each line in the main scanning direction (X direction), and after the entire divided image A is output, the divided image B (first divided image) is successively output. 2
Are output for each line in the main scanning direction.

【0036】画像処理部20には、画像抽出部21とブ
ロック分割部22と比較部23とつなぎ位置検出部24
とつなぎ位置決定部25とが設けられている。
The image processing unit 20 includes an image extracting unit 21, a block dividing unit 22, a comparing unit 23, and a connecting position detecting unit 24.
And a connection position determining unit 25 are provided.

【0037】画像抽出部21は、画像入力部10から得
られる分割画像A,Bのうちから重複領域の画像部分G
a,Gbを抽出する。画像抽出部21は、まず、分割画
像Aについての1ラインごとの入力がある度に、分割画
像Aについての重複領域の画像部分Gaを抽出してブロ
ック分割部22に送出する。
The image extracting section 21 selects an image portion G of the overlapping area from among the divided images A and B obtained from the image input section 10.
a and Gb are extracted. The image extracting unit 21 first extracts the image portion Ga of the overlapping area of the divided image A and sends it to the block dividing unit 22 every time there is an input for each line of the divided image A.

【0038】図3は、画像抽出部21において分割画像
Aからの重複領域の画像部分Gaの抽出を説明する図で
ある。画像抽出部21は、主走査方向の1ラインごとに
入力する分割画像Aのうちから比較対象とするk個の画
素を抽出し、重複領域の画像部分Ga(画素数k個)を
得る。この抽出は、例えば、分割画像Aについてのつな
ぎ基準位置(図3の一点鎖線で示す位置)を中心にk個
の画素を抽出することによって1ラインごとに行われ
る。
FIG. 3 is a diagram for explaining the extraction of the image portion Ga of the overlapping area from the divided image A by the image extracting section 21. The image extraction unit 21 extracts k pixels to be compared from among the divided images A input for each line in the main scanning direction, and obtains an image portion Ga (k pixels) of the overlapping area. This extraction is performed line by line, for example, by extracting k pixels centered on the connection reference position (the position indicated by the dashed line in FIG. 3) for the divided image A.

【0039】そして、ブロック分割部22では、分割画
像Aの1ライン分について抽出された重複領域の画像部
分Gaを入力すると、画像部分Gaを所定の位置で分割
し、2つのブロック画像Ga1,Ga2を生成する。例
えば、ブロック分割部22は、画像部分Gaの中心であ
るつなぎ基準位置で左側部分と右側部分とに分割する。
そして、左側部分をブロック画像Ga1とし、右側部分
をブロック画像Ga2とする。図4は、ブロック分割部
22における画像部分の分割を示す図である。図4
(a)に示すように、分割画像Aについての画像部分G
aに対してブロック分割を行い、2つのブロック画像G
a1,Ga2が生成される。このようにして得られた2
つのブロック画像Ga1,Ga2は、比較部23に送ら
れる。
When the image portion Ga of the overlap region extracted for one line of the divided image A is input, the block dividing section 22 divides the image portion Ga at a predetermined position and divides the image portion Ga into two block images Ga1 and Ga2. Generate For example, the block division unit 22 divides the image part Ga into a left part and a right part at a connection reference position that is the center of the image part Ga.
Then, the left part is set as the block image Ga1, and the right part is set as the block image Ga2. FIG. 4 is a diagram illustrating division of an image portion in the block division unit 22. FIG.
As shown in (a), the image portion G of the divided image A
a is divided into two blocks G
a1 and Ga2 are generated. 2 obtained in this way
The two block images Ga1 and Ga2 are sent to the comparison unit 23.

【0040】比較部23では、分割画像Aの全てのライ
ンについて抽出された重複領域の画像部分Gaのブロッ
ク画像Ga1,Ga2を内部に設けられたメモリ等に一
時的に格納しておく。
In the comparing section 23, the block images Ga1 and Ga2 of the image portion Ga of the overlapping area extracted for all the lines of the divided image A are temporarily stored in a memory or the like provided therein.

【0041】一方、画像入力部10から入力する分割画
像Aの全体の画像データは、ラインごとに後段のつなぎ
処理部40にも導かれ、つなぎ処理部40において内部
に設けられた磁気ディスク等の記憶部に対して入力する
主走査ラインごとに順次格納していく。従って、つなぎ
処理部40の記憶部には、図2(b)に示した分割画像
Aの全体の画像データが格納されることとなる。
On the other hand, the entire image data of the divided image A input from the image input unit 10 is also guided to the subsequent connection processing unit 40 line by line, and the connection processing unit 40 is provided with a magnetic disk or the like provided therein. The data is sequentially stored for each main scanning line input to the storage unit. Accordingly, the storage section of the connection processing section 40 stores the entire image data of the divided image A shown in FIG.

【0042】画像入力部10は、分割画像Aの全体の画
像データを画像処理部20に対して送出すると、次に、
分割画像Bを画像処理部20に対して主走査方向の1ラ
インごとに送出する。
When the image input unit 10 sends out the entire image data of the divided image A to the image processing unit 20, next,
The divided image B is transmitted to the image processing unit 20 line by line in the main scanning direction.

【0043】画像抽出部21は、画像入力部10から分
割画像Bが1ラインごとに入力される度に、分割画像B
のうちから重複領域GRに相当する画像部分Gbのみを
抽出する。ここでの抽出は、例えば、分割画像Bについ
てのつなぎ基準位置を中心に、又は、画像入力部10か
ら入力した当該ラインの前回のラインについて決定され
たつなぎ位置を中心に所定の数(j個)の画素を抽出す
ることにより行われる。図5は、画像抽出部21におい
て分割画像Bからの重複領域の画像部分Gbの抽出を説
明する図である。図5に示す一点鎖線は、つなぎ基準位
置又は前回のラインについて決定されたつなぎ位置であ
る。例えば、最初の1ライン分の分割画像Bについて
は、つなぎ基準位置を中心に所定の数の画素を抽出し、
2ライン目以降の分割画像Bについては、前回のライン
について決定されたつなぎ位置を中心に所定の数の画素
を抽出することが考えられる。このようにして、画像抽
出部21は、主走査方向の1ラインごとに入力する分割
画像Bのうちから比較対象とするj個の画素を抽出し、
重複領域の画像部分Gbを得る。
Each time the divided image B is input from the image input unit 10 line by line, the image extracting unit 21
Among them, only the image portion Gb corresponding to the overlapping area GR is extracted. The extraction here is performed, for example, with a predetermined number (j pieces) centered on the connection reference position of the divided image B or a connection position determined on the previous line of the line input from the image input unit 10. ) Is performed by extracting pixels. FIG. 5 is a diagram illustrating the extraction of the image portion Gb of the overlapping area from the divided image B by the image extracting unit 21. The one-dot chain line shown in FIG. 5 is the connection reference position or the connection position determined for the previous line. For example, with respect to the divided image B for the first one line, a predetermined number of pixels are extracted around the connection reference position,
For the divided image B of the second and subsequent lines, it is conceivable to extract a predetermined number of pixels around the joint position determined for the previous line. In this way, the image extracting unit 21 extracts j pixels to be compared from the divided image B input for each line in the main scanning direction,
An image portion Gb of the overlapping area is obtained.

【0044】そして、画像抽出部21において抽出され
た分割画像Bについての1ラインごとの画像部分Gbは
ブロック分割部22に送られる。すなわち、画像抽出部
21は、画像入力部10から1ライン分の分割画像Bを
入力すると当該ラインについての1ライン分の画像部分
Gbをブロック分割部22に出力する。
The image portion Gb for each line of the divided image B extracted by the image extracting section 21 is sent to the block dividing section 22. That is, when the image extracting unit 21 receives the divided image B for one line from the image input unit 10, the image extracting unit 21 outputs the image part Gb for one line of the line to the block dividing unit 22.

【0045】そして、ブロック分割部22では、分割画
像Bの1ライン分について抽出された重複領域の画像部
分Gbを入力すると、画像部分Gbを所定の位置で分割
し、2つのブロック画像Gb1,Gb2を生成する。例
えば、ブロック分割部22は、画像部分Gbの中心であ
るつなぎ基準位置又は前回のラインについてのつなぎ位
置で左側部分と右側部分とに分割する。そして、左側部
分をブロック画像Gb1とし、右側部分をブロック画像
Gb2とする。すなわち、図4(b)に示すように、分
割画像Bについての画像部分Gbに対してブロック分割
を行い、2つのブロック画像Gb1,Gb2が生成され
る。このようにして得られた2つのブロック画像Gb
1,Gb2は、比較部23に送られる。
When the image portion Gb of the overlap area extracted for one line of the divided image B is input, the block dividing section 22 divides the image portion Gb at a predetermined position and divides the image portion Gb into two block images Gb1 and Gb2. Generate For example, the block division unit 22 divides the image portion Gb into a left portion and a right portion at a connection reference position at the center of the image portion Gb or a connection position of the previous line. Then, the left part is set as the block image Gb1, and the right part is set as the block image Gb2. That is, as shown in FIG. 4B, the image portion Gb of the divided image B is divided into blocks, and two block images Gb1 and Gb2 are generated. The two block images Gb thus obtained
1 and Gb2 are sent to the comparison unit 23.

【0046】そして、比較部23は、ブロック分割部2
2から1ラインごとにブロック画像Gb1,Gb2を入
力すると、そのラインに対応する分割画像Aのブロック
画像Ga1,Ga2をメモリ等から読み出し、分割画像
Aについてのブロック画像Ga1と分割画像Bについて
のブロック画像Gb1との比較および分割画像Aについ
てのブロック画像Ga2と分割画像Bについてのブロッ
ク画像Gb2との比較を行う。すなわち、所定の位置で
分割された画像部分Ga,Gbの左側部分どうしおよび
右側部分どうしで比較を行う。
Then, the comparing section 23 outputs the block dividing section 2
When the block images Gb1 and Gb2 are input every 2 lines, the block images Ga1 and Ga2 of the divided image A corresponding to the line are read out from a memory or the like, and the block images Ga1 and B of the divided image A are read. The comparison with the image Gb1 and the comparison between the block image Ga2 for the divided image A and the block image Gb2 for the divided image B are performed. That is, a comparison is made between the left and right portions of the image portions Ga and Gb divided at a predetermined position.

【0047】ブロック画像Gb1とブロック画像Ga1
との比較は、ブロック画像Ga1に対してブロック画像
Gb1を主走査方向の右方向および左方向(±X方向)
に向かって画素単位で段階的に移動させ、それぞれの画
素位置においてブロック画像Gb1とメモリ等から読み
出されたブロック画像Ga1とを比較することにより行
われる。
Block image Gb1 and block image Ga1
Is compared to the block image Ga1 by shifting the block image Gb1 to the right and left in the main scanning direction (± X direction).
, And the block image Gb1 is compared at each pixel position with the block image Ga1 read from the memory or the like.

【0048】例えば、分割画像A,Bについての同一の
ラインに対応する画像部分Ga,Gbがそれぞれ図4
(a),(b)に示すように得られたとする。この場
合、ブロック画像Gb1についての移動量をZ画素分と
すると、図6に示すように、分割画像Bについてのブロ
ック画像Gb1を画素単位で移動させ、分割画像Aにつ
いてのブロック画像Ga1とを比較する。具体的には、
For example, image portions Ga and Gb corresponding to the same line in divided images A and B are respectively shown in FIG.
Suppose that it was obtained as shown in (a) and (b). In this case, assuming that the movement amount of the block image Gb1 is Z pixels, as shown in FIG. 6, the block image Gb1 of the divided image B is moved in pixel units, and the divided image A is compared with the block image Ga1. I do. In particular,

【0049】[0049]

【数2】 (Equation 2)

【0050】により、移動量Zに関する特性データSh
L(Z)を求めることが行われる。数2において、nは上
記のブロック画像Ga1に含まれている画素数を示して
おり、iはn個の画素のうちのi番目の画素を示してい
る。すなわち、数2は、ブロック画像Gb1を画素単位
でずらしながら、画素ごとの差分値を積算するものであ
る。この差分の積算値は、両画像の相関度を示してい
る。このような特性データShL(Z)を移動量Zの値ご
とに(すなわち、1画素移動させる度に)導き、比較結
果とする。図4(a),(b)のようなブロック画像G
a1,Gb1である場合は、図6に示すように、Z=−
1のときにブロック画像Ga1の黒化画素とブロック画
像Gb1の黒化画素が同一位置に位置することなるた
め、このときに相関度が最も高くなる。
Thus, the characteristic data Sh relating to the movement amount Z
Finding L (Z) is performed. In Equation 2, n indicates the number of pixels included in the block image Ga1, and i indicates the i-th pixel among the n pixels. That is, Equation 2 is to integrate the difference value for each pixel while shifting the block image Gb1 in pixel units. The integrated value of the difference indicates the degree of correlation between the two images. Such characteristic data Sh L (Z) is derived for each value of the movement amount Z (that is, each time one pixel is moved), and is set as a comparison result. A block image G as shown in FIGS.
When a1 and Gb1 are satisfied, as shown in FIG.
At 1, the blackened pixel of the block image Ga1 and the blackened pixel of the block image Gb1 are located at the same position. At this time, the degree of correlation is the highest.

【0051】また、ブロック画像Gb2とブロック画像
Ga2との比較についても上記と同様である。ブロック
画像Gb2とブロック画像Ga2との比較は、ブロック
画像Ga2に対してブロック画像Gb2を主走査方向の
右方向および左方向(±X方向)に向かって画素単位で
段階的に移動させ、それぞれの画素位置においてブロッ
ク画像Gb2とメモリ等から読み出されたブロック画像
Ga2とを比較することにより行われる。
The comparison between the block image Gb2 and the block image Ga2 is the same as above. The comparison between the block image Gb2 and the block image Ga2 is performed by moving the block image Gb2 stepwise in pixel units in the main scanning direction rightward and leftward (± X directions) with respect to the block image Ga2. This is performed by comparing the block image Gb2 at the pixel position with the block image Ga2 read from the memory or the like.

【0052】例えば、分割画像A,Bについての同一の
ラインに対応する画像部分Ga,Gbがそれぞれ図4
(a),(b)に示すように得られたとする。この場
合、ブロック画像Gb2についての移動量をZ画素分と
すると、図7に示すように、分割画像Bについてのブロ
ック画像Gb2を画素単位で移動させ、分割画像Aにつ
いてのブロック画像Ga2とを比較する。具体的には、
For example, image portions Ga and Gb corresponding to the same line in divided images A and B are respectively shown in FIG.
Suppose that it was obtained as shown in (a) and (b). In this case, assuming that the movement amount of the block image Gb2 is Z pixels, as shown in FIG. 7, the block image Gb2 of the divided image B is moved in pixel units, and the block image G2 of the divided image A is compared with the block image Ga2. I do. In particular,

【0053】[0053]

【数3】 (Equation 3)

【0054】により、移動量Zに関する特性データSh
R(Z)を求めることが行われる。数3において、nは上
記のブロック画像Ga2に含まれている画素数を示して
おり、iはn個の画素のうちのi番目の画素を示してい
る。すなわち、数3は、ブロック画像Gb2を画素単位
でずらしながら、画素ごとの差分値を積算するものであ
る。この差分の積算値は、両画像の相関度を示してい
る。このような特性データShR(Z)を移動量Zの値ご
とに(すなわち、1画素移動させる度に)導き、比較結
果とする。図4(a),(b)のようなブロック画像G
a2,Gb2である場合は、図7に示すように、Z=−
4のときにブロック画像Ga2の黒化画素とブロック画
像Gb2の黒化画素が同一位置に位置することなるた
め、このときに相関度が最も高くなる。
Thus, the characteristic data Sh relating to the movement amount Z
Finding R (Z) is performed. In Equation 3, n indicates the number of pixels included in the block image Ga2, and i indicates the i-th pixel among the n pixels. That is, Expression 3 integrates the difference value for each pixel while shifting the block image Gb2 in pixel units. The integrated value of the difference indicates the degree of correlation between the two images. Such characteristic data Sh R (Z) is derived for each value of the movement amount Z (that is, each time one pixel is moved), and is set as a comparison result. A block image G as shown in FIGS.
a2 and Gb2, as shown in FIG.
In the case of 4, since the blackened pixel of the block image Ga2 and the blackened pixel of the block image Gb2 are located at the same position, the degree of correlation is the highest at this time.

【0055】このようにして、比較部23において、所
定の位置で分割された画像部分Ga,Gbの左側部分ど
うしおよび右側部分どうしで比較が行われ、比較結果と
して得られる2つの特性データShL(Z),ShR(Z)
は、つなぎ位置検出部24に送られる。
In this way, the comparison section 23 compares the left and right portions of the image portions Ga and Gb divided at a predetermined position, and two characteristic data Sh L obtained as a comparison result. (Z), Sh R (Z)
Is sent to the joint position detection unit 24.

【0056】つなぎ位置検出部24では、分割画像A,
Bの重複領域の左側部分および右側部分について得られ
た2つの特性データShL(Z),ShR(Z)のそれぞれか
らつなぎ候補位置Z1,Z2を検出する。
In the connection position detecting section 24, the divided images A,
The connection candidate positions Z1 and Z2 are detected from each of the two characteristic data Sh L (Z) and Sh R (Z) obtained for the left portion and the right portion of the overlapping region of B.

【0057】比較部23から得られる2つの特性データ
ShL(Z),ShR(Z)は、図8に示すようなものとな
る。つなぎ位置検出部24においては、これらの特性デ
ータShL(Z),ShR(Z)のそれぞれについて相関度が
最も高いと認められる最小値を検出し、その最小値を示
す移動量Z1,Z2を取得する。このように取得された
移動量Z1は、重複領域の左側部分について検出したつ
なぎ候補位置Z1となり、また、移動量Z2は、重複領
域の右側部分について検出したつなぎ候補位置Z2とな
る。そして、つなぎ位置検出部24で検出された重複領
域の左側部分および右側部分についてのつなぎ候補位置
Z1,Z2は、つなぎ位置決定部25に送られる。
The two characteristic data Sh L (Z) and Sh R (Z) obtained from the comparing section 23 are as shown in FIG. The connection position detection unit 24 detects the minimum value of each of the characteristic data Sh L (Z) and Sh R (Z) that is recognized as having the highest degree of correlation, and moves amounts Z1 and Z2 indicating the minimum value. To get. The movement amount Z1 obtained in this manner is a connection candidate position Z1 detected for the left portion of the overlap region, and the movement amount Z2 is a connection candidate position Z2 detected for the right portion of the overlap region. Then, the connection candidate positions Z1 and Z2 for the left and right portions of the overlap area detected by the connection position detection unit 24 are sent to the connection position determination unit 25.

【0058】つなぎ位置決定部25では、入力する2つ
のつなぎ候補位置Z1,Z2が所定の範囲内にあるか否
か、すなわち互いに近接した位置にあるか否かを判定す
る。具体的には、予め設定された閾値Dに対して、
The joint position determining section 25 determines whether or not the two joint candidate positions Z1 and Z2 to be inputted are within a predetermined range, that is, whether or not they are located close to each other. Specifically, for a preset threshold D,

【0059】[0059]

【数4】 (Equation 4)

【0060】の条件を満たすかどうかが判断される。そ
して、つなぎ候補位置Z1,Z2が数4の条件を満足す
る場合は、つなぎ候補位置Z1,Z2は互いに近接した
位置にあると判断できるので、分割画像A,Bの重複領
域には原稿面の凹凸は存在しないと判定する。逆に、つ
なぎ候補位置Z1,Z2が数4の条件を満足しない場合
は、つなぎ候補位置Z1,Z2は所定の範囲内の位置に
ないと判断できるので、分割画像A,Bの重複領域に原
稿面の凹凸が存在すると判定する。
It is determined whether the condition (1) is satisfied. When the connection candidate positions Z1 and Z2 satisfy the condition of Expression 4, it can be determined that the connection candidate positions Z1 and Z2 are close to each other. It is determined that no irregularities exist. Conversely, if the connection candidate positions Z1 and Z2 do not satisfy the condition of Equation 4, it can be determined that the connection candidate positions Z1 and Z2 are not located within a predetermined range. It is determined that surface irregularities exist.

【0061】そして、つなぎ位置決定部25は、原稿面
に凹凸が存在すると判定した場合は、前回のラインにつ
いて決定されたつなぎ位置を当該ラインについてのつな
ぎ位置Zpとして決定する。
If the connection position determination unit 25 determines that there is unevenness on the document surface, it determines the connection position determined for the previous line as the connection position Zp for that line.

【0062】一方、原稿面に凹凸が存在しないと判定し
た場合は、つなぎ位置検出部24で得られたつなぎ候補
位置Z1,Z2の分布範囲内のうちから当該ラインにつ
いてのつなぎ位置Zpを決定する。つなぎ候補位置Z
1,Z2の分布範囲内とは、図8に示したつなぎ候補位
置Z1とZ2の間の範囲をいう。例えば、つなぎ候補位
置Z1とZ2との中間の位置をつなぎ位置Zpとして決
定したり、また、図8に示すつなぎ候補位置Z1,Z2
における2つの特性データShL(Z),ShR(Z)のうち
でより小さい値をとる方のつなぎ候補位置をつなぎ位置
Zpとして決定しても良い。
On the other hand, if it is determined that there is no irregularity on the document surface, the connection position Zp for the line is determined from the distribution range of the connection candidate positions Z1 and Z2 obtained by the connection position detection unit 24. . Connection candidate position Z
The distribution range of 1, Z2 refers to the range between the candidate connection positions Z1 and Z2 shown in FIG. For example, an intermediate position between the connection candidate positions Z1 and Z2 is determined as the connection position Zp, or the connection candidate positions Z1 and Z2 shown in FIG.
Of the two characteristic data Sh L (Z) and Sh R (Z), the connection candidate position having the smaller value may be determined as the connection position Zp.

【0063】そして、つなぎ位置決定部25で決定され
たつなぎ位置Zpはつなぎ処理部40に送られる。
The connection position Zp determined by the connection position determination unit 25 is sent to the connection processing unit 40.

【0064】以上で、画像処理部20が入力した分割画
像Bについての主走査1ライン分についての処理が終了
したこととなり、それ以後に入力するラインについても
同様の処理が施される。そして、分割画像Bについての
ラインごとの入力がある度に、画像処理部20は当該ラ
インについてのつなぎ位置Zpをつなぎ処理部40に順
次に送出することとなる。
As described above, the processing for one line in the main scanning for the divided image B input by the image processing unit 20 is completed, and the same processing is performed for the lines input thereafter. Then, every time there is an input for each line of the divided image B, the image processing unit 20 sequentially sends the connection position Zp for the line to the connection processing unit 40.

【0065】また、画像処理部20が画像入力部10か
ら入力した分割画像Bの全体の画像データは、ラインご
とに後段のつなぎ処理部40に導かれる。
Further, the entire image data of the divided image B input from the image input unit 10 by the image processing unit 20 is guided to the subsequent connection processing unit 40 line by line.

【0066】つなぎ処理部40においては、内部に設け
られた記憶部から分割画像Aについての画像データを読
み出し、画像処理部20を介して入力する分割画像Bに
ついての1ラインごとの画像データを前回のラインのつ
なぎ位置からつなぎ位置Zpの分だけ主走査方向に移動
させて、分割画像Aと分割画像Bとのつなぎ処理を行
う。
The connection processing unit 40 reads out the image data of the divided image A from the storage unit provided therein, and stores the image data for each line of the divided image B input through the image processing unit 20 in the previous time. Is moved in the main scanning direction by the connection position Zp from the connection position of the line of No. 3 to perform the connection processing of the divided image A and the divided image B.

【0067】すなわち、つなぎ処理部40は、画像処理
部20から与えられる先に入力した分割画像Aを内部に
設けられた磁気ディスク等の記憶部に格納しておき、分
割画像Bの1ラインごとの入力とともに、画像処理部2
0内のつなぎ位置決定部25から入力するつなぎ位置Z
pに基づいて分割画像A,Bのつなぎ処理を施して原画
像2についての1つの画像データを生成する。そして、
得られた原画像2についての1つの画像データは、記憶
部内に再び格納したり、後段の装置に画像出力すること
ができるように構成されている。
That is, the connection processing unit 40 stores the previously input divided image A given from the image processing unit 20 in a storage unit such as a magnetic disk provided therein, and stores the divided image A for each line of the divided image B. And the image processing unit 2
A connection position Z input from the connection position determination unit 25 within 0
One image data of the original image 2 is generated by performing a joining process of the divided images A and B based on p. And
One piece of image data of the obtained original image 2 is configured to be stored again in the storage unit or output to a subsequent device.

【0068】なお、3分割以上の分割画像を入力する場
合についても上記のような処理が繰り返されることとな
る。
The above processing is repeated also when a divided image of three or more divisions is input.

【0069】このように、この実施の形態の画像処理装
置100では、分割画像Aについての画像部分Gaを所
定の位置で分割して左側部分のブロック画像Ga1と右
側部分のブロック画像Ga2とを生成するとともに、分
割画像Bについても画像部分Gbを所定の位置で分割し
て左側部分のブロック画像Gb1と右側部分のブロック
画像Gb2とを生成する。そして、分割画像Aについて
の右側部分のブロック画像Ga1と分割画像Bについて
の右側部分のブロック画像Gb1とを比較して、その比
較結果に基づいて左側部分についてのつなぎ候補位置Z
1を検出するとともに、同様の手法により、右側部分に
ついてのつなぎ候補位置Z2を検出するように構成され
ている。このため、これらのつなぎ候補位置Z1,Z2
を評価することにより、原稿面に凹凸があるか否かを判
定することができる。そして、つなぎ候補位置Z1,Z
2が所定の範囲内にある場合は、つなぎ候補位置の分布
範囲内のうちから当該ラインについてのつなぎ位置を決
定し、つなぎ候補位置Z1,Z2が所定の範囲内にない
場合は、前回のラインについてのつなぎ位置を当該ライ
ンについてのつなぎ位置として決定するように構成して
いるため、貼り込み台紙等のような原稿面に凹凸がある
ような原画像を読み取って得られる分割画像であって
も、つなぎ位置が変動することはなく、適切なつなぎ位
置を決定することができる。この結果、つなぎ処理部4
0において復元された原画像2は高品質な画像となる。
As described above, in the image processing apparatus 100 of this embodiment, the image portion Ga of the divided image A is divided at a predetermined position to generate the left side block image Ga1 and the right side block image Ga2. At the same time, the image part Gb of the divided image B is also divided at a predetermined position to generate a left-side block image Gb1 and a right-side block image Gb2. Then, the right side block image Ga1 of the divided image A is compared with the right side block image Gb1 of the divided image B, and the connection candidate position Z for the left side is determined based on the comparison result.
1 as well as a connection candidate position Z2 for the right side portion is detected by the same method. Therefore, these connection candidate positions Z1, Z2
Is evaluated, it can be determined whether or not the document surface has irregularities. Then, connection candidate positions Z1, Z
2 is within the predetermined range, the connection position for the line is determined from the distribution range of the connection candidate positions, and if the connection candidate positions Z1 and Z2 are not within the predetermined range, the previous line is determined. Is determined as the connection position for the line, even if the divided image is obtained by reading an original image having irregularities on the original surface such as a pasteboard. The connection position does not change, and an appropriate connection position can be determined. As a result, the connection processing unit 4
0, the original image 2 restored becomes a high quality image.

【0070】なお、本来原稿面に凹凸が存在する場合で
あっても、ノイズなどの影響により、上記のつなぎ位置
決定部25において原稿面の凹凸を検出することができ
ないことがある。このため、つなぎ位置決定部25にお
いては、前回のラインについてのつなぎ位置を当該ライ
ンについてのつなぎ位置として決定した場合、当該ライ
ン以後の所定数のラインについてのつなぎ位置をも前回
のラインについてのつなぎ位置として決定するような構
成としても良い。このような構成とすることにより、ノ
イズなどの影響によって原稿面に存在する凹凸を検出す
ることができなかった場合であっても、そのノイズなど
の影響を取り除くことができる。
It should be noted that, even if the original surface has irregularities, the connection position determination unit 25 may not be able to detect the irregularities on the original surface due to the influence of noise or the like. Therefore, when the connection position determination unit 25 determines the connection position of the previous line as the connection position of the line, the connection positions of a predetermined number of lines after the line are also connected to the previous line. It is good also as composition which determines as a position. With such a configuration, even when it is not possible to detect the unevenness existing on the document surface due to the influence of noise or the like, the influence of the noise or the like can be removed.

【0071】また、比較部23において、2つの特性デ
ータShL(Z),ShR(Z)を得る際に、各ブロック画像
Ga1,Gb1およびGa2,Gb2に含まれる有効な
画像成分を高感度に特性データに反映させるために、所
定の重み付け係数K(i)を積算するようにしても良い。
すなわち、2つの特性データShL(Z),ShR(Z)を、
When the comparison unit 23 obtains the two characteristic data Sh L (Z) and Sh R (Z), the effective image components contained in each of the block images Ga 1 and Gb 1 and Ga 2 and Gb 2 are highly sensitive. A predetermined weighting coefficient K (i) may be integrated in order to reflect the characteristic data on the characteristic data.
That is, the two characteristic data Sh L (Z) and Sh R (Z) are

【0072】[0072]

【数5】 (Equation 5)

【0073】[0073]

【数6】 (Equation 6)

【0074】により求めても良い。ここで、重み付け係
数K(i)は、例えば、図9に示すように各ブロック画像
の中央部で最大値をとり、各ブロック画像の端の方に向
かうにつれて小さくなるように設定された係数である。
このような重み付け係数K(i)を用いて特性データSh
L(Z),ShR(Z)を求めると、各ブロック画像の有効な
画像成分が増幅されるため、より高感度に原稿面の凹凸
を検出することが可能となる。なお、重み付け係数K
(i)は、図9に示すようなものに限定されない。
May be obtained by Here, the weighting coefficient K (i) is, for example, a coefficient set to have a maximum value at the center of each block image and become smaller toward the edge of each block image as shown in FIG. is there.
The characteristic data Sh is calculated using the weighting coefficient K (i).
When L (Z) and Sh R (Z) are obtained, the effective image components of each block image are amplified, so that it is possible to detect irregularities on the document surface with higher sensitivity. Note that the weighting coefficient K
(i) is not limited to the one shown in FIG.

【0075】<2.第2の実施の形態>次に、この発明
の第2の実施の形態について説明する。この実施の形態
においては、分割画像A,Bについての重複領域の画像
部分Ga,Gbを3以上の複数のブロック画像に分割す
る。そして、複数のブロック画像のそれぞれに対して特
性データを生成する。そして、得られた複数の特性デー
タから複数のつなぎ候補位置を検出し、原稿面の凹凸部
分が複数のブロック画像のうちのどのブロック画像に含
まれているかを検出するものである。
<2. Second Preferred Embodiment> Next, a second preferred embodiment of the present invention will be described. In this embodiment, the image portions Ga and Gb of the overlapping area for the divided images A and B are divided into three or more block images. Then, characteristic data is generated for each of the plurality of block images. Then, a plurality of connection candidate positions are detected from the obtained plurality of characteristic data, and it is detected which of the plurality of block images includes an uneven portion on the document surface.

【0076】図10は、この発明の第2の実施の形態の
画像処理装置100の構成を示すブロック図である。図
10に示すように、この実施の形態の画像処理装置10
0は、上記第1の実施の形態と同様の構成となってい
る。この実施の形態の画像処理部20において、上記第
1の実施の形態と異なる処理を行う部分は、ブロック分
割部22と比較部23とつなぎ位置検出部24とつなぎ
位置決定部25である。
FIG. 10 is a block diagram showing a configuration of an image processing apparatus 100 according to the second embodiment of the present invention. As shown in FIG. 10, an image processing apparatus 10 according to this embodiment
0 has the same configuration as in the first embodiment. In the image processing unit 20 of this embodiment, the parts that perform processing different from those of the first embodiment are a block division unit 22, a comparison unit 23, a connection position detection unit 24, and a connection position determination unit 25.

【0077】ブロック分割部22では、分割画像Aの1
ライン分について抽出された重複領域の画像部分Gaを
入力すると、画像部分Gaを所定の位置で分割し、3以
上の複数のブロック画像Ga1,Ga2,Ga3,…を
生成する。例えば、ブロック分割部22は、画像部分G
aを等分割することにより、複数のブロック画像Ga
1,Ga2,Ga3,…を生成する。このようにして得
られた複数のブロック画像Ga1,Ga2,Ga3,…
を比較部23に送出する。
In the block dividing section 22, 1 of the divided image A is
When the image portion Ga of the overlapping area extracted for the line is input, the image portion Ga is divided at a predetermined position to generate three or more block images Ga1, Ga2, Ga3,. For example, the block division unit 22
a into a plurality of block images Ga
1, Ga2, Ga3,... The plurality of block images Ga1, Ga2, Ga3,.
To the comparison unit 23.

【0078】比較部23では、分割画像Aの各ラインご
とに得られる複数のブロック画像Ga1,Ga2,Ga
3,…を内部に設けられたメモリ等に一時的に格納して
おく。
In the comparing section 23, a plurality of block images Ga1, Ga2, Ga obtained for each line of the divided image A
Are temporarily stored in a memory or the like provided therein.

【0079】また、ブロック分割部22では、分割画像
Bの1ライン分について抽出された重複領域の画像部分
Gbを入力すると、分割画像Aの場合と同様に、画像部
分Gbを所定の位置で分割し、3以上の複数のブロック
画像Gb1,Gb2,Gb3,…を生成する。そして、
複数のブロック画像Ga1,Ga2,Ga3,…を比較
部23に送出する。
When the image portion Gb of the overlap area extracted for one line of the divided image B is input to the block dividing section 22, the image portion Gb is divided at a predetermined position as in the case of the divided image A. Then, three or more block images Gb1, Gb2, Gb3,... Are generated. And
A plurality of block images Ga1, Ga2, Ga3,...

【0080】そして、比較部23は、ブロック分割部2
2から1ラインごとにブロック画像Gb1,Gb2,G
b3,…を入力すると、そのラインに対応する分割画像
Aのブロック画像Ga1,Ga2,Ga3,…をメモリ
等から読み出し、ブロック画像Ga1とブロック画像G
b1、ブロック画像Ga2とブロック画像Gb2、ブロ
ック画像Ga3とブロック画像Gb3、…というような
比較を行う。すなわち、比較部23では、画像部分Gb
について生成された複数のブロック画像のそれぞれと、
画像部分Gaの対応するブロック画像とが比較される。
Then, the comparing section 23 outputs the block dividing section 2
Block images Gb1, Gb2, G for every 2 to 1 line
When b3,... are input, the block images Ga1, Ga2, Ga3,.
b1, the block image Ga2 and the block image Gb2, the block image Ga3 and the block image Gb3,... are compared. That is, in the comparing unit 23, the image portion Gb
Each of the plurality of block images generated for
The corresponding block image of the image part Ga is compared.

【0081】ここでの比較は、第1の実施の形態で説明
した各ブロック画像ごとの比較と同様である。従って、
比較部23では比較結果として3以上の複数の特性デー
タSh1,Sh2,Sh3,…が生成される。例えば、
画像部分Ga,Gbについてブロック画像がm個生成さ
れている場合は、比較部23においてm個の特性データ
が生成される。そして、複数の特性データは、つなぎ位
置検出部24に送られる。
The comparison here is the same as the comparison for each block image described in the first embodiment. Therefore,
The comparison unit 23 generates three or more pieces of characteristic data Sh1, Sh2, Sh3,... As a comparison result. For example,
When m block images have been generated for the image portions Ga and Gb, the comparison unit 23 generates m characteristic data. Then, the plurality of characteristic data is sent to the joint position detecting unit 24.

【0082】つなぎ位置検出部24では、各ブロック画
像ごとに得られた複数の特性データSh1,Sh2,S
h3,…のそれぞれからつなぎ候補位置Z1,Z2,Z
3,…を検出する。
In the joint position detecting section 24, a plurality of pieces of characteristic data Sh1, Sh2, S
h3, ..., candidate connection positions Z1, Z2, Z
3, ... are detected.

【0083】比較部23から得られる複数の特性データ
Sh1,Sh2,Sh3,…は、図11に示すようなも
のとなる。図11(a)は、原稿面に凹凸がない場合を
示しており、図11(b)は、原稿面に凹凸がある場合
を示している。
The plurality of characteristic data Sh1, Sh2, Sh3,... Obtained from the comparing section 23 are as shown in FIG. FIG. 11A shows a case where there is no irregularity on the original surface, and FIG. 11B shows a case where there is irregularity on the original surface.

【0084】図11(a)に示すように、原稿面に凹凸
がない場合、複数の特性データは全て同一の移動量Za
の付近で最小値を示す。
As shown in FIG. 11 (a), when there is no irregularity on the original surface, all of the plurality of characteristic data have the same movement amount Za.
Shows the minimum value near.

【0085】一方、原稿面に凹凸がある場合は、図11
(b)に示すように、移動量Zbの付近に最小値を有す
る特性データ群SG1と、移動量Zcの付近に最小値を
有する特性データ群SG2と、略一定レベルとなる特性
データ群SG3とに区別することができる。
On the other hand, if the original surface has irregularities,
As shown in (b), a characteristic data group SG1 having a minimum value near the movement amount Zb, a characteristic data group SG2 having a minimum value near the movement amount Zc, and a characteristic data group SG3 having a substantially constant level. Can be distinguished.

【0086】ここで、略一定レベルとなる特性データ群
SG3が現れる理由について説明する。図16に示した
ように、CCDラインセンサ8が画素位置8aにある場
合は、原稿2bによって生じる段差の側面は検出しない
が、画素位置8bにある場合は、原稿2bによって生じ
る段差の側面を検出する。このため、上記のように複数
のブロック画像に分割して比較を行う場合、段差側面に
ついてのブロック画像を他方のブロック画像と比較して
も相関度の高い位置は検出することができない。このよ
うな理由により、原稿面に凹凸がある場合は略一定レベ
ルとなる特性データ群SG3が現れることとなる。
Here, the reason why the characteristic data group SG3 having a substantially constant level appears will be described. As shown in FIG. 16, when the CCD line sensor 8 is at the pixel position 8a, the side surface of the step caused by the document 2b is not detected, but when the CCD line sensor 8 is at the pixel position 8b, the side surface of the step caused by the document 2b is detected. I do. For this reason, when a comparison is made by dividing the image into a plurality of block images as described above, a position having a high degree of correlation cannot be detected even if the block image on the step side surface is compared with the other block image. For this reason, when the original surface has irregularities, a characteristic data group SG3 having a substantially constant level appears.

【0087】つなぎ位置検出部24では、各特性データ
ごとに最小値を示す移動量を検出し、つなぎ候補位置Z
1,Z2,Z3,…としてつなぎ位置決定部25に送出
する。なお、図11(b)の特性データ群SG3に含ま
れる特性データについて最小値を検出すると、移動量Z
bとZcとのいずれにも近接していない部分に最小値が
検出されることが多くなる。
The connection position detecting section 24 detects the movement amount indicating the minimum value for each characteristic data, and determines the connection candidate position Z
Are sent to the connection position determination unit 25 as 1, Z2, Z3,. Note that when the minimum value is detected for the characteristic data included in the characteristic data group SG3 of FIG.
In many cases, the minimum value is detected in a portion that is not close to any of b and Zc.

【0088】つなぎ位置決定部25においては、隣接す
るブロック画像どうしのつなぎ候補位置が近接している
ものは同一平面であると判断する。例えば、図11
(b)の特性データ群SG1が連続する特性データであ
れば、移動量Zbの付近につなぎ候補位置が集合してい
るため、特性データ群SG1に含まれる特性データの生
成源となった各ブロック画像は同一平面に位置すると判
断される。また、図11(b)の特性データ群SG2も
連続する特性データであれば、移動量Zcの付近につな
ぎ候補位置が集合しているため、特性データ群SG2に
含まれる特性データの生成源となった各ブロック画像は
同一平面に位置すると判断される。換言すれば、特性デ
ータ群SG1とSG2とは、異なる高さ位置の平面であ
ると判断される。
The joint position determining section 25 judges that the adjacent block image adjacent to the candidate joint position is on the same plane. For example, FIG.
If the characteristic data group SG1 of (b) is continuous characteristic data, the connection candidate positions are gathered in the vicinity of the movement amount Zb. Therefore, each block serving as a generation source of the characteristic data included in the characteristic data group SG1. The images are determined to be located on the same plane. Further, if the characteristic data group SG2 in FIG. 11B is also continuous characteristic data, since connection candidate positions are gathered near the movement amount Zc, the generation source of the characteristic data included in the characteristic data group SG2 is Each of the resulting block images is determined to be located on the same plane. In other words, the characteristic data groups SG1 and SG2 are determined to be planes at different height positions.

【0089】そして、つなぎ位置決定部25は、同一平
面に位置すると判断したつなぎ候補位置の平均値を求め
る。図12は、同一平面に位置すると判断したつなぎ候
補位置の平均値を求めた際の各ブロック画像に対応する
ブロックごとのつなぎ候補位置を示す図である。図12
に示すように、ブロック1〜αまでが同一平面とみなさ
れ、平均化されたつなぎ候補位置Zbとなっている。ま
た、ブロックβ〜mまでが同一平面とみなされ、平均化
されたつなぎ候補位置Zcとなっている。そして、ブロ
ック(α+1)〜(β−1)は同一平面とみなされなか
ったブロックを示しており、図11(b)の特性データ
群SG3のような特性データを示していたブロックであ
る。従って、ブロック(α+1)〜(β−1)には、一
方のブロック画像に段差側面についての画像情報が含ま
れていることとなる。
Then, the joint position determining section 25 calculates an average value of the joint candidate positions determined to be located on the same plane. FIG. 12 is a diagram illustrating connection candidate positions for each block corresponding to each block image when an average value of connection candidate positions determined to be located on the same plane is obtained. FIG.
As shown in (1), blocks 1 to α are regarded as the same plane, and are averaged connection candidate positions Zb. The blocks β to m are regarded as the same plane, and are averaged connection candidate positions Zc. Blocks (α + 1) to (β-1) indicate blocks that are not regarded as being on the same plane, and indicate characteristic data such as the characteristic data group SG3 in FIG. 11B. Therefore, in blocks (α + 1) to (β-1), one block image includes image information on the step side surface.

【0090】このような場合、つなぎ位置決定部25
は、凹凸境界部分についての境界情報Va,Vbをつな
ぎ位置情報として後段のつなぎ処理部40に出力する。
In such a case, the connection position determination unit 25
Outputs the boundary information Va and Vb about the uneven boundary portion to the subsequent connection processing section 40 as connection position information.

【0091】一方、原稿面に凹凸がない場合は、複数の
特性データは図11(a)のようになるため、平均化さ
れたつなぎ候補位置は全てZaとなる。このため、つな
ぎ位置決定部25は、移動量Zaをつなぎ位置Zpとし
て決定し、後段のつなぎ処理部40に出力する。
On the other hand, when there is no unevenness on the document surface, the plurality of characteristic data are as shown in FIG. 11A, and thus all the averaged connection candidate positions are Za. For this reason, the connection position determination unit 25 determines the movement amount Za as the connection position Zp, and outputs it to the subsequent connection processing unit 40.

【0092】以上で、この実施の形態における画像処理
部20が入力した分割画像Bについての主走査1ライン
分についての処理が終了したこととなり、それ以後に入
力するラインについても同様の処理が施される。そし
て、分割画像Bについてのラインごとの入力がある度
に、画像処理部20は当該ラインについての境界情報V
a,Vb若しくはつなぎ位置Zpをつなぎ処理部40に
順次に送出することとなる。
As described above, the processing for one main scanning line for the divided image B input by the image processing unit 20 in this embodiment is completed, and the same processing is performed for the lines input thereafter. Is done. Then, every time there is an input for each line for the divided image B, the image processing unit 20 sets the boundary information V for that line.
a, Vb or the connection position Zp are sequentially transmitted to the connection processing unit 40.

【0093】また、画像処理部20が画像入力部10か
ら入力した分割画像Bの全体の画像データは、ラインご
とに後段のつなぎ処理部40に導かれる。
Further, the entire image data of the divided image B input from the image input unit 10 by the image processing unit 20 is guided to the subsequent connection processing unit 40 line by line.

【0094】つなぎ処理部40においては、内部に設け
られた記憶部から分割画像Aについての画像データを読
み出し、原稿面に凹凸がある場合は、境界情報Va,V
bに基づいて分割画像A,Bが互いに近寄る位置でつな
ぎ処理を行う。例えば、図12に示すように原稿面の凹
凸が検出された場合は、分割画像Aのα番目のブロック
画像Gaαに対して分割画像Bのβ番目のブロック画像
Gbβを連結することにより、つなぎ処理を行う。
The connection processing section 40 reads out the image data of the divided image A from the storage section provided therein, and if the original has irregularities, the boundary information Va, V
Based on b, a connection process is performed at a position where the divided images A and B approach each other. For example, as shown in FIG. 12, when unevenness on the document surface is detected, the α-th block image Gaα of the divided image A is connected to the β-th block image Gbβ of the divided image B, thereby performing the joining process. I do.

【0095】また、原稿面に凹凸がない場合は、つなぎ
位置Zpに基づいてつなぎ処理を行う。例えば、画像処
理部20を介して入力する分割画像Bについての1ライ
ンごとの画像データを前回のラインのつなぎ位置からつ
なぎ位置Zpの分だけ主走査方向に移動させて、分割画
像Aと分割画像Bとのつなぎ処理を行う。
If there is no irregularity on the document surface, a connection process is performed based on the connection position Zp. For example, the image data for each line of the divided image B input via the image processing unit 20 is moved in the main scanning direction from the previous line connection position by the connection position Zp, and the divided image A and the divided image A connection process with B is performed.

【0096】なお、3分割以上の分割画像を入力する場
合についても上記のような処理が繰り返されることとな
る。
The above processing is repeated also when a divided image of three or more divisions is input.

【0097】このように、この実施の形態の画像処理装
置100では、分割画像Aについての画像部分Gaを所
定の位置で3以上の複数のブロック画像に分割し、それ
ぞれのブロックごとに比較を行って複数の特性データを
生成する。そして、これら複数の特性データに基づい
て、原稿面に凹凸が存在するか否かを検出する。そし
て、原稿面に凹凸が存在する場合は、段差側面の影響が
ない部分で分割画像A,Bのつなぎ処理を行うように構
成しているため、貼り込み台紙等のような原稿面に凹凸
があるような原画像を読み取って得られる分割画像であ
っても、つなぎ位置が変動することはなく、また、一方
の分割画像で段差側面が検出されているにもかかわらず
他方の分割画像で段差側面が検出されていないことによ
ってつなぎ処理の際に生じる画質劣化を抑制することが
できる。この結果、つなぎ処理部40において復元され
た原画像2は高品質な画像となる。
As described above, in the image processing apparatus 100 of this embodiment, the image portion Ga of the divided image A is divided into three or more block images at a predetermined position, and comparison is performed for each block. To generate a plurality of characteristic data. Then, based on the plurality of characteristic data, it is detected whether or not the document surface has irregularities. If there is unevenness on the original surface, the connecting process of the divided images A and B is performed at a portion where the side surface of the step is not affected. Even in the case of a divided image obtained by reading a certain original image, the connecting position does not fluctuate, and even though the step side surface is detected in one of the divided images, the step difference is detected in the other divided image. It is possible to suppress the image quality deterioration that occurs at the time of the connection processing due to the fact that the side surface is not detected. As a result, the original image 2 restored by the connection processing unit 40 becomes a high-quality image.

【0098】なお、比較部23において、ブロック画像
ごとの複数の特性データを得る際に、各ブロック画像に
含まれる有効な画像成分を高感度に特性データに反映さ
せるために、第1の実施の形態で説明したような所定の
重み付け係数K(i)を積算するようにしても良い。重み
付け係数K(i)を用いて特性データを求めることによ
り、各ブロック画像の有効な画像成分を増幅させること
ができるため、より高感度に原稿面の凹凸を検出するこ
とが可能となる。
When the comparison unit 23 obtains a plurality of characteristic data for each block image, the first embodiment is performed in order to reflect the effective image components contained in each block image with high sensitivity to the characteristic data. The predetermined weighting coefficient K (i) as described in the embodiment may be integrated. By obtaining the characteristic data using the weighting coefficient K (i), it is possible to amplify the effective image components of each block image, so that it is possible to detect irregularities on the document surface with higher sensitivity.

【0099】<3.変形例>上記の各実施の形態では、
複数の分割画像が横方向に存在する場合のつなぎ処理を
一例として説明したが、これに限定するものではない。
すなわち、縦方向に複数の分割画像が存在する場合であ
っても縦方向の1ラインごとに上記と同様の処理を行え
ば適切なつなぎ位置を導くことができることは明らかで
ある。
<3. Modification> In each of the above embodiments,
The connection processing when a plurality of divided images exist in the horizontal direction has been described as an example, but the present invention is not limited to this.
In other words, it is clear that even if a plurality of divided images exist in the vertical direction, an appropriate joint position can be derived by performing the same processing as described above for each line in the vertical direction.

【0100】また、上記の各実施の形態で示した構成の
うち、つなぎ処理部40を別体として構成しても良い。
すなわち、各実施の形態に示す画像入力部10と画像処
理部20とを入力スキャナ等に組み込んだ状態で構成
し、つなぎ処理部40を別体としてコンピュータ等に担
当させることもできる。この場合も、つなぎ処理部とし
てのコンピュータは、分割画像Aを一旦磁気ディスク等
に格納しておき、その後、1ラインごとの分割画像Bと
ともに入力するつなぎ位置Zp又は境界情報Va,Vb
に基づいて、当該ラインの分割画像Bを分割画像Aに対
して連結するつなぎ処理を行うように構成すれば良い。
Further, of the configurations shown in the above embodiments, the connection processing unit 40 may be configured as a separate unit.
That is, the image input unit 10 and the image processing unit 20 described in each embodiment can be configured to be incorporated in an input scanner or the like, and the connection processing unit 40 can be separately assigned to a computer or the like. Also in this case, the computer as the connection processing unit temporarily stores the divided image A on a magnetic disk or the like, and thereafter, the connection position Zp or the boundary information Va, Vb input together with the divided image B for each line.
May be configured to perform a linking process of connecting the divided image B of the line to the divided image A based on

【0101】また、上記説明においては、画像入力部1
0は、入力スキャナ等のように原画像を読み取ることに
よって分割画像A,Bを生成している場合について説明
したが、これに限定するものでもない。例えば、画像入
力部10が、予め生成された複数の分割画像を単に格納
しておくものであり、後段の画像処理部20に対して複
数の分割画像を主走査方向の1ラインごとに順次に送出
することができるものであっても良い。このような場合
であっても後段の画像処理部20では適切に画像抽出、
比較、つなぎ位置検出、つなぎ位置決定等の処理を行う
ことができることは言うまでもない。
In the above description, the image input unit 1
In the case of 0, the case where the divided images A and B are generated by reading the original image as in an input scanner or the like has been described, but the invention is not limited to this. For example, the image input unit 10 simply stores a plurality of divided images generated in advance, and sequentially transmits the plurality of divided images to the subsequent image processing unit 20 line by line in the main scanning direction. What can be transmitted may be sufficient. Even in such a case, the subsequent image processing unit 20 appropriately extracts the image,
Needless to say, processes such as comparison, connection position detection, and connection position determination can be performed.

【0102】さらに、この実施の形態に示した分割画像
のつなぎ処理は、画像処理部20が画像入力部10から
3分割以上の分割画像を入力する場合についても同様に
適用可能である。この場合は、各分割画像の入力に伴っ
て、先に入力した分割画像と比較する重複領域を抽出す
るとともに、後に入力する分割画像と比較する重複領域
をも抽出しておくことが必要である。そして、この場
合、画像入力部10から現在入力中である分割画像が第
2の分割画像となり、比較部23が内部のメモリ等から
読み出す対象となるのが第1の分割画像となる。
Further, the connection processing of the divided images shown in this embodiment can be similarly applied to a case where the image processing unit 20 inputs three or more divided images from the image input unit 10. In this case, it is necessary to extract the overlapping area to be compared with the previously input divided image and also to extract the overlapping area to be compared with the later input divided image in accordance with the input of each divided image. . In this case, the divided image that is currently being input from the image input unit 10 is the second divided image, and the comparison unit 23 reads from the internal memory or the like is the first divided image.

【0103】[0103]

【発明の効果】以上説明したように、請求項1に記載の
発明によれば、第1の画像部分から得られる複数のブロ
ック画像と、第2の画像部分から得られる複数のブロッ
ク画像とを比較することによって、ブロック画像ごとの
相関度を示す複数の特性データを生成し、複数の特性デ
ータのそれぞれについて第1の分割画像と第2の分割画
像との複数のつなぎ候補位置を検出し、これら複数のつ
なぎ候補位置に基づいて、当該ラインについてのつなぎ
位置を決定するため、貼り込み台紙等のような原稿面に
凹凸があるような原画像を読み取って得られる分割画像
であっても、分割画像に含まれる凹凸を検出することが
できるので、適切なつなぎ位置を決定することができ
る。また、凹凸による段差側面の影響を除去することが
できる。
As described above, according to the first aspect of the invention, a plurality of block images obtained from the first image portion and a plurality of block images obtained from the second image portion are formed. By comparing, a plurality of characteristic data indicating the degree of correlation for each block image is generated, and a plurality of connection candidate positions between the first divided image and the second divided image are detected for each of the plurality of characteristic data, Based on these plurality of connection candidate positions, in order to determine the connection position for the line, even if the divided image is obtained by reading an original image such as a pasteboard or the like having irregularities on the original surface, Since the unevenness included in the divided image can be detected, an appropriate connection position can be determined. In addition, the influence of unevenness on the side surface of the step can be eliminated.

【0104】請求項2に記載の発明によれば、ブロック
分割手段が、第1の画像部分を中央部分で2分割するこ
とにより、第1の画像部分について2個のブロック画像
を生成するとともに、第2の画像部分を中央部分で2分
割することにより、第2の画像部分について2個のブロ
ック画像を生成し、つなぎ位置決定手段が、各ブロック
画像ごとに検出されたつなぎ候補位置が所定の範囲内に
ある場合は、つなぎ候補位置の分布範囲内のうちから当
該ラインについてのつなぎ位置を決定し、つなぎ候補位
置が所定の範囲内にない場合は、前回のラインについて
のつなぎ位置を当該ラインについてのつなぎ位置として
決定するため、貼り込み台紙等のような原稿面に凹凸が
あるような原画像を読み取って得られる分割画像であっ
ても、つなぎ位置が変動することはなく、適切なつなぎ
位置を決定することができる。
According to the second aspect of the present invention, the block dividing means generates two block images for the first image portion by dividing the first image portion into two at the central portion. By dividing the second image portion into two at the center portion, two block images are generated for the second image portion, and the connection position determining means determines that the connection candidate position detected for each block image is a predetermined position. If the connection position is within the range, the connection position for the line is determined from the distribution range of the connection candidate position, and if the connection candidate position is not within the predetermined range, the connection position for the previous line is set to the line. For the divided image obtained by reading the original image such as a pasteboard or the like having irregularities on the original surface, the connection position is determined. It never changes, it is possible to determine the appropriate splice point.

【0105】請求項3に記載の発明によれば、つなぎ位
置決定手段は、前回のラインについてのつなぎ位置を当
該ラインについてのつなぎ位置として決定した場合、当
該ライン以後の所定数のラインについてのつなぎ位置を
前回のラインについてのつなぎ位置とするため、ノイズ
などの影響によって原稿面に存在する凹凸を検出するこ
とができなかった場合であっても、そのノイズなどの影
響を取り除くことができ、適切なつなぎ位置とすること
ができる。
According to the third aspect of the present invention, when the connecting position determining means determines the connecting position for the previous line as the connecting position for the line, the connecting position determining means sets the connecting position for a predetermined number of lines after the line. Since the position is the connection position for the previous line, even if it is not possible to detect irregularities on the document surface due to the effects of noise, it is possible to remove the effects of noise etc. The connecting position can be set.

【0106】請求項4に記載の発明によれば、比較手段
は第1の画像部分の複数のブロック画像と、第2の画像
部分の複数のブロック画像とを比較する際に、それぞれ
のブロック画像に含まれる各画素に対して所定の重み付
け係数を積算するように構成されているため、各ブロッ
ク画像の有効な画像成分が増幅させることができ、より
高感度に原稿面の凹凸を検出することが可能となる。そ
の結果、より適切なつなぎ位置を決定することができ
る。
According to the fourth aspect of the present invention, when comparing the plurality of block images of the first image portion and the plurality of block images of the second image portion, each of the block images Is configured to accumulate a predetermined weighting coefficient for each pixel included in the image, so that an effective image component of each block image can be amplified, and the irregularities on the document surface can be detected with higher sensitivity. Becomes possible. As a result, a more appropriate connection position can be determined.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1の実施の形態の画像処理装置の
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention.

【図2】分割画像A,Bを説明する図である。FIG. 2 is a diagram illustrating divided images A and B.

【図3】画像抽出部において分割画像Aからの重複領域
の画像部分Gaの抽出を説明する図である。
FIG. 3 is a diagram illustrating extraction of an image portion Ga of an overlapping area from a divided image A by an image extracting unit.

【図4】第1の実施の形態におけるブロック分割部にお
ける画像部分の分割を示す図である。
FIG. 4 is a diagram illustrating division of an image portion in a block division unit according to the first embodiment.

【図5】画像抽出部において分割画像Bからの重複領域
の画像部分Gbの抽出を説明する図である。
FIG. 5 is a diagram illustrating extraction of an image portion Gb of an overlapping area from a divided image B by an image extracting unit.

【図6】第1の実施の形態における比較部におけるブロ
ック画像の比較を説明する図である。
FIG. 6 is a diagram illustrating comparison of block images in a comparison unit according to the first embodiment.

【図7】第1の実施の形態における比較部におけるブロ
ック画像の比較を説明する図である。
FIG. 7 is a diagram illustrating comparison of block images in a comparison unit according to the first embodiment.

【図8】第1の実施の形態における比較部から得られる
2つの特性データを示す図である。
FIG. 8 is a diagram illustrating two characteristic data obtained from a comparison unit according to the first embodiment.

【図9】重み付け係数の一例を示す図である。FIG. 9 is a diagram illustrating an example of a weighting coefficient.

【図10】この発明の第2の実施の形態の画像処理装置
の構成を示すブロック図である。
FIG. 10 is a block diagram illustrating a configuration of an image processing apparatus according to a second embodiment of the present invention.

【図11】第2の実施の形態における比較部から得られ
る複数の特性データを示す図である。
FIG. 11 is a diagram illustrating a plurality of characteristic data obtained from a comparison unit according to the second embodiment.

【図12】各ブロック画像に対応するブロックごとのつ
なぎ候補位置を示す図である。
FIG. 12 is a diagram showing connection candidate positions for each block corresponding to each block image.

【図13】原画像を2分割した状態で読み取る場合につ
いての説明図である。
FIG. 13 is an explanatory diagram of a case where an original image is read in a state of being divided into two parts.

【図14】従来の画像処理装置の概略構成を示すブロッ
ク図である。
FIG. 14 is a block diagram illustrating a schematic configuration of a conventional image processing apparatus.

【図15】移動量Zと特性データSh(Z)との関係を示
す図である。
FIG. 15 is a diagram illustrating a relationship between a movement amount Z and characteristic data Sh (Z).

【図16】貼り込み台紙等のような原稿面に凹凸がある
ような原画像の読み取りを説明する図である。
FIG. 16 is a view for explaining reading of an original image such as a mounting sheet or the like in which the original surface has irregularities.

【図17】従来の画像処理装置によって得られる貼り込
み台紙等のような原稿面に凹凸がある場合の特性データ
を示す図である。
FIG. 17 is a diagram showing characteristic data when there is unevenness on a document surface, such as a pasteboard, obtained by a conventional image processing apparatus.

【符号の説明】[Explanation of symbols]

10 画像入力部 20 画像処理部 21 画像抽出部 22 ブロック分割部 23 比較部 24 つなぎ位置検出部 25 つなぎ位置決定部 40 つなぎ処理部 A 分割画像(第1の分割画像) B 分割画像(第2の分割画像) Reference Signs List 10 image input unit 20 image processing unit 21 image extraction unit 22 block division unit 23 comparison unit 24 connection position detection unit 25 connection position determination unit 40 connection processing unit A division image (first division image) B division image (second division image) Split image)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 連 国男 京都府久世郡久御山町佐山新開地304番地 1 大日本スクリーン製造株式会社久御山 事業所内 Fターム(参考) 5B057 AA11 CA16 CB16 CE09 CE10 CH09 DA07 DA08 DC34 5C076 AA12 AA19 AA36 BA08 CA10 ────────────────────────────────────────────────── ─── Continued from the front page (72) Inventor Kunio Ren 304 No.1, Sayama Shinkaichi, Kumiyama-cho, Kuse-gun, Kyoto 1 F-term in the Kumiyama Office of Dainippon Screen Mfg. Co., Ltd. 5B057 AA11 CA16 CB16 CE09 CE10 CH09 DA07 DA08 DC34 5C076 AA12 AA19 AA36 BA08 CA10

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 原画像が分割された第1の分割画像と第
2の分割画像とに重複して含まれる重複領域において、
前記第1の分割画像と前記第2の分割画像とのつなぎ処
理を行うためのつなぎ位置を1ラインごとに決定する画
像処理装置であって、 (a) 前記つなぎ処理の対象となる前記第1の分割画像と
前記第2の分割画像とを順次に1ラインごとに入力する
画像入力手段と、 (b) 当該ラインについての前記第1の分割画像のうちか
ら所定部分の画像を抽出することにより前記第1の分割
画像についての前記重複領域の画像部分を抽出するとと
もに、当該ラインについての前記第2の分割画像のうち
から所定部分の画像を抽出することにより前記第2の分
割画像についての前記重複領域の画像部分を抽出する画
像抽出手段と、 (c) 前記画像抽出部で抽出された前記第1の分割画像に
ついての第1の画像部分と、前記第2の分割画像につい
ての第2の画像部分とのそれぞれを所定の位置で分割
し、複数のブロック画像を生成するブロック分割手段
と、 (d) 前記第1の画像部分の複数のブロック画像と、前記
第2の画像部分の複数のブロック画像とを比較すること
によって、ブロック画像ごとの相関度を示す複数の特性
データを生成する比較手段と、 (e) 前記複数の特性データのそれぞれについて前記第1
の分割画像と前記第2の分割画像との複数のつなぎ候補
位置を検出するつなぎ位置検出手段と、 (f) 前記複数のつなぎ候補位置に基づいて、当該ライン
についてのつなぎ位置を決定するつなぎ位置決定手段
と、を備えることを特徴とする画像処理装置。
1. An overlapping area included in a first divided image and a second divided image obtained by dividing an original image,
An image processing apparatus that determines a connection position for performing a connection process between the first divided image and the second divided image for each line, and (a) the first processing unit that is a target of the connection process Image input means for sequentially inputting the divided image and the second divided image line by line, and (b) extracting an image of a predetermined portion from the first divided image for the line. By extracting an image portion of the overlapping region for the first divided image, and extracting an image of a predetermined portion from the second divided image for the line, the second divided image for the second divided image is extracted. Image extracting means for extracting an image portion of the overlapping area; (c) a first image portion of the first divided image extracted by the image extracting section, and a second image portion of the second divided image. Image part And (d) a plurality of block images of the first image portion, and a plurality of block images of the second image portion. Comparing means to generate a plurality of characteristic data indicating the degree of correlation for each block image; and (e) the first characteristic data for each of the plurality of characteristic data.
A connection position detecting means for detecting a plurality of connection candidate positions between the divided image and the second divided image; and (f) a connection position for determining a connection position for the line based on the plurality of connection candidate positions. An image processing apparatus comprising: a determination unit.
【請求項2】 請求項1に記載の画像処理装置におい
て、 前記ブロック分割手段は、前記第1の画像部分を中央部
分で2分割することにより、前記第1の画像部分につい
て2個のブロック画像を生成するとともに、前記第2の
画像部分を中央部分で2分割することにより、前記第2
の画像部分について2個のブロック画像を生成し、 前記つなぎ位置決定手段は、各ブロック画像ごとに検出
されたつなぎ候補位置が所定の範囲内にある場合は、前
記つなぎ候補位置の分布範囲内のうちから当該ラインに
ついてのつなぎ位置を決定し、前記つなぎ候補位置が前
記所定の範囲内にない場合は、前回のラインについての
つなぎ位置を当該ラインについてのつなぎ位置として決
定することを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the block dividing unit divides the first image part into two parts at a center part, thereby obtaining two block images for the first image part. And by dividing the second image portion into two at the center,
Generating two block images with respect to the image portion of (a), the connection position determining means, when the connection candidate position detected for each block image is within a predetermined range, within the distribution range of the connection candidate position An image characterized in that a connection position for the line is determined from among the above, and if the connection candidate position is not within the predetermined range, a connection position for the previous line is determined as a connection position for the line. Processing equipment.
【請求項3】 請求項1又は2に記載の画像処理装置に
おいて、 前記つなぎ位置決定手段は、前回のラインについてのつ
なぎ位置を当該ラインについてのつなぎ位置として決定
した場合、当該ライン以後の所定数のラインについての
つなぎ位置を前回のラインについてのつなぎ位置とする
ことを特徴とする画像処理装置。
3. The image processing apparatus according to claim 1, wherein the connection position determining unit determines a connection position of a previous line as a connection position of the line, and determines a predetermined number of lines after the line. An image processing apparatus characterized in that a connection position for a line is set as a connection position for a previous line.
【請求項4】 請求項1ないし3のいずれかに記載の画
像処理装置において、 前記比較手段は、前記第1の画像部分の複数のブロック
画像と、前記第2の画像部分の複数のブロック画像とを
比較する際に、それぞれのブロック画像に含まれる各画
素に対して所定の重み付け係数を積算することを特徴と
する画像処理装置。
4. The image processing apparatus according to claim 1, wherein the comparing unit includes a plurality of block images of the first image portion and a plurality of block images of the second image portion. An image processing device for integrating a predetermined weighting coefficient for each pixel included in each block image when comparing
JP17724198A 1998-06-24 1998-06-24 Image processing device Expired - Fee Related JP3519607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17724198A JP3519607B2 (en) 1998-06-24 1998-06-24 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17724198A JP3519607B2 (en) 1998-06-24 1998-06-24 Image processing device

Publications (2)

Publication Number Publication Date
JP2000013588A true JP2000013588A (en) 2000-01-14
JP3519607B2 JP3519607B2 (en) 2004-04-19

Family

ID=16027628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17724198A Expired - Fee Related JP3519607B2 (en) 1998-06-24 1998-06-24 Image processing device

Country Status (1)

Country Link
JP (1) JP3519607B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008297A (en) * 2008-06-30 2010-01-14 Jfe Steel Corp Detection method of position of welding hole

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63103563A (en) * 1986-10-20 1988-05-09 Sharp Corp Method for connecting and processing image input data
JPH04310062A (en) * 1991-04-08 1992-11-02 Dainippon Screen Mfg Co Ltd Picture read method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63103563A (en) * 1986-10-20 1988-05-09 Sharp Corp Method for connecting and processing image input data
JPH04310062A (en) * 1991-04-08 1992-11-02 Dainippon Screen Mfg Co Ltd Picture read method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008297A (en) * 2008-06-30 2010-01-14 Jfe Steel Corp Detection method of position of welding hole

Also Published As

Publication number Publication date
JP3519607B2 (en) 2004-04-19

Similar Documents

Publication Publication Date Title
US7667738B2 (en) Image processing device for detecting chromatic difference of magnification from raw data, image processing program, and electronic camera
JP4554316B2 (en) Stereo image processing device
US7936950B2 (en) Apparatus for creating interpolation frame
JP4932819B2 (en) Surface inspection apparatus and method
JP4108969B2 (en) Image angle detection apparatus and scanning line interpolation apparatus having the same
JPH0877340A (en) Offset for scanning system and method for decision of gain correction
EP1367540A2 (en) Motion vector correction circuit and method
EP2536123B1 (en) Image processing method and image processing apparatus
JP2005252359A (en) Motion vector detecting apparatus, motion vector detection method and computer program
JP3534551B2 (en) Motion detection device
US7433539B2 (en) Method for run-time streak removal
JP2000013588A (en) Image processor
JP3333012B2 (en) Image synthesis device
JP2005079816A (en) Method and apparatus for creating image data
US6625301B2 (en) Image processing apparatus, image processing method and transmission medium
JP4600350B2 (en) Image processing apparatus and program
JP2007206963A (en) Image processor, image processing method, program and storage medium
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP2000011153A (en) Image processor
JP2000011154A (en) Image processor
JP3527412B2 (en) Image processing device
JP2005165925A (en) Method and system for binarization process
JPH11331556A (en) Image processor
JP2008048459A (en) Image composing apparatus
JP2023161484A (en) Image processing apparatus, method, and program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040129

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110206

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110206

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees