JPH0923330A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH0923330A
JPH0923330A JP7194199A JP19419995A JPH0923330A JP H0923330 A JPH0923330 A JP H0923330A JP 7194199 A JP7194199 A JP 7194199A JP 19419995 A JP19419995 A JP 19419995A JP H0923330 A JPH0923330 A JP H0923330A
Authority
JP
Japan
Prior art keywords
image data
image
joining
line
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7194199A
Other languages
Japanese (ja)
Other versions
JP3530882B2 (en
Inventor
Hiroshi Murakami
比呂志 村上
Hideo Kumashiro
秀郎 熊城
Koichi Kanbe
幸一 掃部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP19419995A priority Critical patent/JP3530882B2/en
Priority to US08/675,485 priority patent/US6148118A/en
Publication of JPH0923330A publication Critical patent/JPH0923330A/en
Application granted granted Critical
Publication of JP3530882B2 publication Critical patent/JP3530882B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To make slippage inconspicuous in overlap areas by comparing and operating pixels of overlapping picture data to select the data minimizing the density difference on a junction boundary at the time of joining picture data, which are divided into plural parts and have overlap areas in boundary parts, into one picture. SOLUTION: A picture processing part 4 generates picture data of a document read by an image read part 2 and sends it to memories A51 and B52 of a picture synthesis part 5. When picture data is inputted to and outputted from memories A51 and B52, addresses of input/output data are indicated by an address counter 55. One of data inputted to memories A51 and B52 is selected by a selector 53 and is transferred to a memory C54. The selector 53 selects data in accordance with the command from a boundary data holding part 56 based on the operation in a control part 3.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、境界部に重複領域を有
するように分割された画像を接合して、1枚の合成画像
を得る画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus which joins images divided so as to have an overlapping region at a boundary to obtain one composite image.

【0002】[0002]

【従来の技術】原稿台に全体を載置できない大判の原稿
を、互いに重複部分を有する複数の画像(=原稿台に載
置可能な大きさの複数の画像)に分割して順に読み取っ
てメモリに記憶し、各分割画像を合成して出力する装置
が提案されている。例えば、特開平5−122501号
公報には、大判の原稿画像を互いに重複部分を有する複
数の画像に分けて読み取り、各分割画像の重複部分をパ
ターンマッチングにより認識して非重複部分との境界線
を求め、この境界線に従って各分割画像を合成する装置
と方法が開示されている。
2. Description of the Related Art A large-sized document that cannot be entirely placed on a document table is divided into a plurality of images having overlapping portions (= a plurality of images of a size that can be placed on the document table) and sequentially read and stored in a memory. An apparatus has been proposed which stores the divided images in each image and synthesizes and outputs each divided image. For example, in Japanese Laid-Open Patent Publication No. 5-122501, a large-sized original image is read by dividing it into a plurality of images having overlapping portions, the overlapping portions of each divided image are recognized by pattern matching, and a boundary line with a non-overlapping portion is recognized. And an apparatus and method for synthesizing each divided image according to this boundary line.

【0003】画像の合成に関する従来技術としては、下
記の公報もある。例えば、特開昭61−219258号
公報には、1枚の原稿画像を互いに重複部分を有する複
数の画像に分割して読み取り、隣接する2つの分割画像
を重複部分で接合して合成する際、該2つの分割画像の
重複部分を各々帯状の小領域に分割して、各分割画像か
ら交互に帯状の小領域を選抜して配列するように制御す
る装置が開示されている。
The following publications are also known as prior art relating to image composition. For example, in Japanese Patent Laid-Open No. 61-219258, when one original image is read by dividing it into a plurality of images having overlapping portions and two adjacent divided images are combined at the overlapping portions and combined, An apparatus is disclosed in which an overlapping portion of the two divided images is divided into strip-shaped small regions, and the strip-shaped small regions are alternately selected and arranged from each divided image.

【0004】また、特開平3−182976号公報に
は、重複部分を有するように撮像された2枚の画像を接
合する方法の一例が開示されている。この方法では、ま
ず、各画像の濃度が等しくなるように濃度変換した後に
各々2値化し、2値化後の各画像内から各々2個の特徴
粒子を抽出し、該2個の特徴粒子の重心を結ぶ直線を接
合線とし、この接合線に従って各画像を接合している。
ここで、特徴粒子は、特定の画素数で形成される粒子状
の小領域を抽出し、該小領域が2個となるように特定の
画素数を決定することで求めている。
Further, Japanese Patent Laid-Open No. 3-182976 discloses an example of a method of joining two images taken so as to have overlapping portions. In this method, first, density conversion is performed so that the densities of the respective images are equalized, then each is binarized, and two characteristic particles are extracted from each image after binarization, and the two characteristic particles are extracted. A straight line connecting the centers of gravity is used as a joining line, and the images are joined according to the joining line.
Here, the characteristic particles are obtained by extracting a particle-shaped small area formed with a specific number of pixels and determining the specific number of pixels so that the number of the small areas is two.

【0005】[0005]

【発明が解決しようとする課題】上述の各公報には、画
像欠損と重複が生じないように接合する技術が開示され
ている。即ち、上述の各接合方式では、接合部で画像欠
損が生じないように、各画像を読み取る際に各々の隣接
部分を重複させて読み取るとともに、接合部で重複が生
じたり、画像がズレたりしないように重複領域内又は端
部で境界線(接合線)を求め、該境界線に従って接合し
て重複部分を重ね合わせている。
Each of the above publications discloses a technique for joining so as not to cause image loss and overlap. That is, in each of the above-mentioned joining methods, when the respective images are read, the adjacent portions are overlapped and read so that the image loss does not occur at the joining portions, and the overlapping portions do not occur or the images do not shift. As described above, the boundary line (joint line) is obtained in the overlapping region or at the end portion, and the overlapping portion is overlapped by joining according to the boundary line.

【0006】隣接部分を重複して読み取られた各画像の
重複領域内の各画像間の対応部分には、濃度差が生じて
いる場合がある。したがって、上述の各公報の方式のよ
うに、画像欠損や画像のズレ、或いは、重複が生じない
ように接合するだけでは、上記濃度差に起因して接合部
が線状に目立ち易くなるという不具合が生ずる。
In some cases, a density difference may occur in the corresponding portion between the images in the overlapping area of the images in which the adjacent portions are read in an overlapping manner. Therefore, as in the method of each of the above-mentioned publications, if the joining is performed without causing the image loss, the image shift, or the overlapping, the joining portion is likely to stand out linearly due to the density difference. Occurs.

【0007】本発明は、複数に分割され境界部に重複領
域を有する画像データを1つの画像として接合して出力
する方式に於いて、接合境界での濃度差を最小にするこ
とにより、接合部が線状に目立つ現象を抑制することを
目的とする。また、ズレが目立たないように、接合境界
を決定することを目的とする。
The present invention is a method of joining image data having a plurality of divided areas and overlapping areas at the boundary portion as one image and outputting the merged image data by minimizing the density difference at the joining boundary. The purpose is to suppress the phenomenon in which the line is conspicuous. Further, the purpose is to determine the joining boundary so that the deviation is not noticeable.

【0008】[0008]

【課題を解決するための手段】本発明は、互いに共通な
重複画像データを有する第1画像データと、第2画像デ
ータとを1つの画像データとして接合し出力する画像処
理装置において、複数パターンの接合線を記憶する接合
線記憶手段と、前記接合線上に位置する前記第1及び第
2画像データの各重複画像データの画素を比較し、両画
素の画像濃度の差を演算する演算手段と、前記演算手段
によって演算の結果、両画素の画像濃度の差が所定の値
以上である画素数を、前記接合線記憶手段に記憶された
各接合線ごとに計数する計数手段と、前記計数手段によ
って計数された画素数が最小となる接合線を抽出する抽
出手段と、前記抽出手段によって抽出された接合線にし
たがって、重複画像データを第1記憶手段と第2記憶手
段とのどちらから出力するか選択する選択手段と、前記
選択手段によって選択された重複画像データを出力する
出力手段と、を有することを特徴とする画像形成装置で
ある。
SUMMARY OF THE INVENTION The present invention is an image processing apparatus for joining and outputting first image data and second image data, which have common overlapping image data, as one image data and outputs a plurality of patterns. Bonding line storage means for storing a bonding line, and a calculation means for comparing the pixels of the respective overlapping image data of the first and second image data located on the bonding line and calculating the difference in image density between the two pixels. As a result of the calculation by the calculation means, the number of pixels in which the difference in image density between the two pixels is equal to or more than a predetermined value is counted for each bonding line stored in the bonding line storage means, and the counting means Depending on which of the first storage means and the second storage means the overlapping image data is extracted according to the extraction means for extracting the connection line having the smallest number of pixels and the connection line extracted by the extraction means. Selection means for selecting either the force, which is an image forming apparatus characterized by and an output means for outputting a redundant image data selected by said selecting means.

【0009】また、本発明は、互いに共通な重複画像デ
ータを有する第1画像データと、第2画像データとを1
つの画像データとして接合し出力する画像処理装置にお
いて、複数パターンの接合線を記憶する接合線記憶手段
と、前記第1画像データで、前記各接合線上に位置する
画像濃度が所定の値以上である画素数を、前記接合線記
憶手段に記憶された各接合線ごとに計数する計数手段
と、前記計数手段によって計数された画素数が最小とな
る接合線を抽出する抽出手段と、前記抽出手段によって
抽出された接合線にしたがって、重複画像データを第1
記憶手段と第2記憶手段とのどちらから出力するか選択
する選択手段と、前記選択手段によって選択された重複
画像データを出力する出力手段と、を有することを特徴
とする画像形成装置である。
Further, according to the present invention, the first image data and the second image data, which have common overlapping image data, are combined.
In an image processing apparatus for joining and outputting as one image data, joining line storage means for storing joining lines of a plurality of patterns, and the image density located on each joining line in the first image data is a predetermined value or more. Counting means for counting the number of pixels for each bonding line stored in the bonding line storage means, extracting means for extracting the bonding line with the minimum number of pixels counted by the counting means, and the extracting means According to the extracted joining line, the overlapping image data is first
An image forming apparatus comprising: a selection unit that selects which of the storage unit and the second storage unit to output, and an output unit that outputs the overlapping image data selected by the selection unit.

【0010】また、本発明は、互いに共通な重複画像デ
ータを有する第1画像データと、第2画像データとを1
つの画像データとして接合し出力する画像処理装置にお
いて、前記第1画像データの重複画像データの下地濃度
を決定する下地濃度決定手段と、前記第1画像データの
重複画像データで、前記下地濃度決定手段によって決定
された下地濃度と比較して画像濃度が所定の値以上であ
る画素数を、1ラインごとに計数する計数手段と、前記
計数手段によって計数された画素数が最小となる線を、
接合線として抽出する抽出手段と、前記抽出手段によっ
て抽出された接合線にしたがって、重複画像データを第
1記憶手段と第2記憶手段とのどちらから出力するか選
択する選択手段と、前記選択手段によって選択された重
複画像データを出力する出力手段と、を有することを特
徴とする画像形成装置である。
Further, according to the present invention, the first image data and the second image data, which have common overlapping image data, are combined into one.
In an image processing apparatus for combining and outputting as one image data, a background density determining unit that determines a background density of overlapping image data of the first image data, and the background density determining unit using the overlapping image data of the first image data. A counting means for counting, for each line, the number of pixels whose image density is equal to or more than a predetermined value compared with the background density determined by; and a line having the minimum number of pixels counted by the counting means,
Extracting means for extracting as a joining line, selecting means for choosing which of the first storing means and the second storing means the overlapping image data is to be output according to the joining line extracted by the extracting means, and the selecting means. And an output unit that outputs the overlapping image data selected by the image forming apparatus.

【0011】また、本発明は、上記構成に、さらに、前
記重複領域が写真画像である場合には、前記接合手段の
処理を禁止する手段を付加してなる画像処理装置であ
る。
Further, the present invention is the image processing apparatus according to the above structure, further comprising means for prohibiting the processing of the joining means when the overlapping area is a photographic image.

【0012】[0012]

【作用】複数に分割された各分割画像の境界部に設けら
れた重複領域内から、隣接する分割画像間での濃度差の
小さい画素を連結した線が接合線として抽出され、該接
合線の部分で各隣接画像が接合される。
A line connecting pixels having a small density difference between adjacent divided images is extracted as a joining line from the overlapping area provided at the boundary of each of the plurality of divided images, and the joining line is extracted. Each adjacent image is joined at the part.

【0013】複数に分割された各分割領域の境界部に設
けられた重複領域であって、一方の分割領域に属する領
域内から、近接画素との濃度差の小さい画素を連結した
線が接合線として抽出され、該接合線の部分で各隣接画
像が接合される。
In the overlapping area provided at the boundary of each of the plurality of divided areas, a line connecting pixels having a small density difference from adjacent pixels from the area belonging to one of the divided areas is a joining line. And the adjacent images are joined at the portion of the joining line.

【0014】[0014]

【実施例】図2は、本実施例装置の構成を模式的に示
す。図示の装置は、原稿台ガラス27の上に画像面を下向
きに載置した原稿D を公知の走査光学装置(=光源21,
反射ミラー22a,22b,22c,22d,レンズ群23, CCDライン
センサ24, 駆動モータ25, ドライバIC26等で構成され
る装置)で読み取り、これを、画像処理部4 へ送って公
知の画像処理(A/D変換,シェーディング補正,変倍
等)を施すことで画像データを生成し、この画像データ
を画像合成部5 にて必要に応じて接合して、外部へ出力
する装置である。なお、図2中、28は原稿カバーであ
る。
EXAMPLE FIG. 2 schematically shows the structure of the apparatus of this example. The apparatus shown in the figure is a known scanning optical device (= light source 21, light source 21, which is a document D placed on a platen glass 27 with its image surface facing downward.
The image is read by the reflection mirrors 22a, 22b, 22c, 22d, the lens group 23, the CCD line sensor 24, the drive motor 25, the driver IC 26, and the like) and sent to the image processing unit 4 to perform known image processing ( This is a device for generating image data by performing A / D conversion, shading correction, scaling, etc., and combining the image data in the image synthesizing unit 5 as necessary, and outputting it to the outside. In FIG. 2, 28 is an original cover.

【0015】走査光学装置は、光源21と反射ミラー22a
を搭載する第1移動体(不図示)及び反射ミラー22b,22
c を搭載する第2移動体(不図示)を、原稿台ガラス27
の下面に沿って図の左右方向へ移動させることにより、
原稿D の画像反射光をレンズ系23を介してライン単位で
CCDラインセンサ24に結像させる装置である。ここ
で、第1移動体の移動速度は、第2移動体の移動速度の
2倍である。CCDラインセンサ24は、上記の如く結像
されるライン単位の画像反射光に対応して、当該ライン
の各画素の電気信号を生成して、画像処理部4 へ出力す
る。
The scanning optical device includes a light source 21 and a reflection mirror 22a.
First moving body (not shown) for mounting and reflection mirrors 22b, 22
Mount the second moving body (not shown) that mounts c on the platen glass 27
By moving to the left and right of the figure along the bottom surface of
This is a device for forming an image of reflected light of the document D on a CCD line sensor 24 line by line via a lens system 23. Here, the moving speed of the first moving body is twice the moving speed of the second moving body. The CCD line sensor 24 generates an electric signal of each pixel of the line corresponding to the image reflected light of each line formed as described above, and outputs the electric signal to the image processing unit 4.

【0016】後述の大判合成モードのように変倍処理が
行われる場合には、画像処理部4 に於ける画像データの
変倍処理と併せて、走査光学装置の走査速度(第1,2
移動体の移動速度)が変更される。即ち、設定された変
倍率に適合するように、走査速度が基準の速度(等倍時
の速度)から変更される。これは、走査光学装置の駆動
モータ25の速度を、設定された変倍率に応じて基準の速
度から変更することで行われ得る。例えば、A2サイズ
の大判原稿を分割して読み取って、1/2に縮小した後
に合成する場合であれば、走査速度は、基準の速度の2
1/2 倍に変更される。
When the scaling processing is performed as in the large-format combining mode described below, the scanning speed (first and second scanning speeds of the scanning optical device is combined with the scaling processing of the image data in the image processing unit 4.
The moving speed of the moving body) is changed. That is, the scanning speed is changed from the reference speed (speed at the same magnification) so as to match the set scaling ratio. This can be performed by changing the speed of the drive motor 25 of the scanning optical device from the reference speed according to the set scaling ratio. For example, in the case where a large-sized document of A2 size is divided and read, and the image is reduced to 1/2 and then combined, the scanning speed is 2 times the reference speed.
It is changed to 1/2 times.

【0017】原稿台ガラス27は、図3に示すようにA3
サイズよりも横幅(図3では上下方向の幅)がLだけ大
きいサイズである。このため、A2サイズの原稿を半分
に分割して、その各々を順に読み取る場合には、上記L
に相当する幅の帯状部分が重複して読み取られる。つま
り、図7の上左欄の如く原稿の上半分を読み取る場合に
は、図3の右上位置の記号S2が示すラインが原稿の上
縁を合わせる基準ラインとなり、図3で原稿台ガラス27
の下縁(手前側の縁)から幅Lの帯状部分が重複領域と
なる。逆に、図7の上右欄の如く原稿の下半分を読み取
る場合には、図3の右下位置の記号S1が示すラインが
原稿の下端を合わせる基準ラインとなり、図3で原稿台
ガラス27の上縁(奥側の縁)から幅Lの帯状部分が重複
領域となる。なお、図3では、原稿カバー28の図示は省
略されている。
As shown in FIG. 3, the platen glass 27 is A3 size.
The width is larger by L than the size (width in the vertical direction in FIG. 3). Therefore, when the A2 size original is divided into halves and each of them is read in order,
The strip-shaped portion having a width corresponding to is read in duplicate. That is, when reading the upper half of the document as shown in the upper left column of FIG. 7, the line indicated by the symbol S2 at the upper right position of FIG. 3 is the reference line for aligning the upper edges of the document, and in FIG.
A strip-shaped portion having a width L from the lower edge (the edge on the front side) is the overlapping area. On the contrary, when reading the lower half of the document as shown in the upper right column of FIG. 7, the line indicated by the symbol S1 at the lower right position of FIG. 3 is the reference line for aligning the lower ends of the documents, and in FIG. A strip-shaped portion having a width L from the upper edge (edge on the back side) is the overlapping area. The original cover 28 is not shown in FIG.

【0018】また、図3に示すように、原稿台ガラス27
の右手前(図で右下方)には、操作パネル1 が設けられ
ている。操作パネル1 には、原稿読取動作の開始を指令
するためのスタートキー11、通常モードと大判合成モー
ドの切換を指令するためのモードキー12、大判合成モー
ドの設定状態を点灯して表示する大判モード表示ランプ
13、数値入力用のテンキー及びクリア・ストップキー1
4、読取倍率値や読取サイズ等を表示するための表示パ
ネル15が設けられている。
Also, as shown in FIG.
An operation panel 1 is provided on the right front side (lower right side in the figure) of the. The operation panel 1 has a start key 11 for instructing the start of the document reading operation, a mode key 12 for instructing the switching between the normal mode and the large format compositing mode, and a large format for illuminating and displaying the setting state of the large format compositing mode. Mode indicator lamp
13. Numeric keypad for numeric input and clear stop key 1
4. A display panel 15 for displaying the reading magnification value, reading size, etc. is provided.

【0019】大判合成モードとは、A3サイズより大き
く、且つ、A2サイズ以下である原稿を、2回に分割し
て、重複部分(原稿の上半分を読み取る場合は原稿台ガ
ラス27の手前側の縁から幅Lの帯状部分、下半分を読み
取る場合は奥側の縁から幅Lの帯状部分)を有するよう
に縮小倍率で読み取り、この読み取った各画像を、重複
領域内に後述の如く求めた接合線に従って接合すること
により、A3サイズ以下の単一の画像に合成して、出力
するモードである。
In the large-format combining mode, a document larger than A3 size and smaller than A2 size is divided into two parts, and an overlapping part (when reading the upper half of the document, the front side of the platen glass 27 is read). The strip-shaped portion having the width L from the edge and the strip-shaped portion having the width L from the inner edge when reading the lower half are read at a reduction ratio, and the read images are obtained in the overlapping area as described below. This is a mode in which the images are combined into a single image of A3 size or smaller by combining the images according to the connection line and output.

【0020】上述の重複領域にて2つの画像を接合して
合成する処理は、画像合成部5 にて行われる。画像合成
部5 は、図1に示すように、画像メモリA51、画像メモ
リB52、セレクタ53、アドレスカウンタ55、境界データ
保持部56、及び、画像メモリC54を有する。この画像合
成部5 は、前記画像読取部2 や前記画像処理部4と同様
に、制御部3 によって制御される。
The process of joining and synthesizing two images in the overlapping area is performed by the image synthesizing unit 5. As shown in FIG. 1, the image composition section 5 has an image memory A51, an image memory B52, a selector 53, an address counter 55, a boundary data holding section 56, and an image memory C54. The image synthesizing unit 5 is controlled by the control unit 3 like the image reading unit 2 and the image processing unit 4.

【0021】画像メモリA51には、通常モードで読み取
られた画像データが格納される。また、大判合成モード
では、画像メモリA51には1回目に縮小倍率で読み取ら
れた上半分の画像データが格納され、画像メモリB52に
は2回目に縮小倍率で読み取られた下半分の画像データ
が格納される。
The image data read in the normal mode is stored in the image memory A51. Also, in the large-format combining mode, the image memory A51 stores the upper half image data read at the first reduction ratio, and the image memory B52 stores the lower half image data read at the second reduction ratio. Is stored.

【0022】前述のように、原稿上半分の読取時には原
稿台ガラス27の手前側の縁から幅Lの帯状部分が重複領
域となり、原稿下半分の読取時には原稿台ガラス27の奥
側の縁から幅Lの帯状部分が重複領域となる。この重複
領域に於いて2つの画像(上半分の画像と下半分の画
像)が合成される。この合成は、後述のように、何れか
一方の分割画像に属する画像データを、セレクタ53によ
って選択することで行われる。
As described above, when reading the upper half of the original, the strip-shaped portion having the width L from the front edge of the original table glass 27 becomes an overlapping area, and when reading the lower half of the original from the rear edge of the original table glass 27. The strip-shaped portion having the width L is the overlapping region. Two images (an upper half image and a lower half image) are combined in this overlapping area. This combining is performed by selecting image data belonging to one of the divided images by the selector 53, as described later.

【0023】したがって、この重複領域内の各画素に関
しては、画像メモリA51と画像メモリB52のアドレスを
共通化する必要がある。このため、例えば、画像メモリ
A51の最終のアドレスから重複部分に相当するアドレス
を逆上ったアドレスを、画像メモリB52の先頭アドレス
として割り当てる等のアドレスシフト処理が行われて、
重複領域のアドレスが画像メモリA51と画像メモリB52
とで共通化される。例えば、画像メモリA51に1番地〜
180番地を割り当てるとともに、そのうち121番地
〜180番地を重複領域とした場合、画像メモリB52に
は121番地〜300番地を割り当てて、そのうち12
1番地〜180番地を重複領域とする処理が行われる。
なお、画像メモリA51と画像メモリB52に記憶する際
に、画像の位置基準を変えて記憶することで、画像メモ
リA51と画像メモリB52の重複部分のアドレスを共通化
してもよい。
Therefore, for each pixel in this overlapping area, the addresses of the image memory A51 and the image memory B52 must be made common. Therefore, for example, an address shift process is performed in which an address obtained by moving up the address corresponding to the overlapping portion from the final address of the image memory A51 is assigned as the start address of the image memory B52.
The addresses of the overlapping areas are the image memory A51 and the image memory B52.
Is shared by and. For example, the first address in the image memory A51
When 180 addresses are assigned and 121 to 180 of them are used as overlapping areas, 121 to 300 are assigned to the image memory B52 and 12 of them are assigned.
A process is performed in which addresses 1 to 180 are set as overlapping areas.
When the image memory A51 and the image memory B52 are stored, the position reference of the image may be changed and stored, so that the addresses of the overlapping portions of the image memory A51 and the image memory B52 are made common.

【0024】画像メモリC54にはA3サイズまでの画像
データを格納可能である。通常モードでは、画像メモリ
A51の画像データが転送されて格納される。また、大判
合成モードでは、画像メモリA51と画像メモリB52の合
成画像が格納される。この画像メモリC54の画像データ
が、不図示のプリンタやファクシミリ等の外部機器へ出
力される。
The image memory C54 can store image data up to A3 size. In the normal mode, the image data in the image memory A51 is transferred and stored. Further, in the large-size combining mode, the combined image of the image memory A51 and the image memory B52 is stored. The image data in the image memory C54 is output to an external device such as a printer or a facsimile (not shown).

【0025】アドレスカウンタ55は、画像メモリA51、
画像メモリB52、画像メモリC54の画像データの入出力
に際して、入出力すべきデータのアドレスを指示する。
The address counter 55 includes an image memory A51,
When inputting / outputting the image data of the image memory B52 and the image memory C54, the address of the data to be input / output is designated.

【0026】セレクタ53は、通常モードでは、画像メモ
リA51から読み出される画像データを、そのまま画像メ
モリC54へ送る。また、セレクタ53は、大判合成モード
に於ける重複領域では、画像メモリA51及び画像メモリ
B52から同時に読み出される同一アドレスの画像データ
のうちの何れか一方を、境界データ保持部56からの指令
に従って選択して、画像メモリC54へ送る。なお、大判
合成モードであっても、非重複領域では画像メモリA51
と画像メモリB52のアドレスは重複していないため、ア
ドレスカウンタ55で指示されるアドレスの画像データが
そのまま画像メモリC54へ送られる。
In the normal mode, the selector 53 sends the image data read from the image memory A51 to the image memory C54 as it is. Further, the selector 53 selects either one of the image data of the same address read from the image memory A51 and the image memory B52 at the same time in the overlap area in the large-size combining mode in accordance with the instruction from the boundary data holding unit 56. And sends it to the image memory C54. Even in the large-format combining mode, the image memory A51 is not displayed in the non-overlapping area.
Since the address of the image memory B52 does not overlap, the image data of the address designated by the address counter 55 is sent to the image memory C54 as it is.

【0027】境界データ保持部56は、制御部3 に於ける
演算により決定された境界形状データ(この場合、X1
〜X3 、Y1 〜Y5 に相当する格子状のラインのデータ
から選択された境界形状データ)に対応するアドレスを
記憶しており、この境界形状データに従ってセレクタ53
の切換動作を制御する。これにより、大判合成モードに
於ける重複領域では、上述の如く画像メモリA51及び画
像メモリB52の同一アドレスの画像データ(対の画像デ
ータ)のうち何れか一方の画像データが境界形状データ
に従って選択されて、画像メモリC54へ転送される。
The boundary data holding unit 56 stores the boundary shape data (X1 in this case) determined by the calculation in the control unit 3.
To X3, Y1 to Y5, the address corresponding to the boundary shape data selected from the grid line data) is stored, and the selector 53 is operated according to this boundary shape data.
Is controlled. As a result, in the overlapping area in the large-size compositing mode, one of the image data (paired image data) having the same address in the image memory A51 and the image memory B52 is selected according to the boundary shape data as described above. And is transferred to the image memory C54.

【0028】次に、上記接合境界形状データを求める演
算を、図4や図5を参照して説明する。図4は、大判合
成モードを選択した場合の操作手順を示す。
Next, the calculation for obtaining the above-mentioned joining boundary shape data will be described with reference to FIG. 4 and FIG. FIG. 4 shows an operation procedure when the large-format combining mode is selected.

【0029】スタートキー11がオンされると(S11;YES)
、大判合成モードが設定されているか否か判定され(S1
3) 、通常モードである場合は(S13;NO)、通常の画像読
取処理が行われる(S27) 。即ち、画像メモリA51の画像
データを、そのまま画像メモリC54へ送り、外部へ出力
する処理が行われる。
When the start key 11 is turned on (S11; YES)
, It is determined whether or not the large format composite mode is set (S1
3) If it is the normal mode (S13; NO), the normal image reading process is performed (S27). That is, the image data in the image memory A51 is sent to the image memory C54 as it is and output to the outside.

【0030】ステップS13 で大判合成モードと判定され
た場合は(S13;YES) 、まず、原稿の上半分(正確には図
7の上左欄のように原稿上半分と原稿中央部の幅Lの重
複部分)に関して、画像読取動作と画像データ処理が行
われる(S15) 。即ち、原稿上縁を原稿台ガラス27の奥側
の縁(記号S2が指示する縁)に合わせてセットされて
いる原稿が、画像読取部2 により読み取られ、この画像
信号が画像処理部4 にて処理されて画像データとされ
て、画像メモリ51に格納される。本例ではA2サイズを
分割して読み取った後にA3サイズに合成するため、画
像読取時の縮小倍率は0.707倍である。
When it is determined in step S13 that the mode is the large-format combining mode (S13; YES), first, the upper half of the document (to be precise, the upper half of the document and the width L of the center of the document as shown in the upper left column of FIG. 7). The image reading operation and the image data processing are performed (S15). That is, the document set with the top edge of the document aligned with the edge on the back side of the document table glass 27 (the edge indicated by the symbol S2) is read by the image reading section 2, and this image signal is sent to the image processing section 4. Is processed, processed into image data, and stored in the image memory 51. In this example, since the A2 size is divided and read and then combined into the A3 size, the reduction ratio at the time of image reading is 0.707.

【0031】次に、原稿下縁を原稿台ガラス27の手前側
の縁(記号S1が指示する縁)に合わせて原稿が置かれ
た後、スタートキー11がオンされると(S17;YES) 、該原
稿の下半分(正確には図7の上右欄のように原稿中央部
の幅Lの重複部分と原稿下半分)に関して、画像読取動
作と画像データ処理が行われる(S19) 。即ち、画像読取
部2 による画像読取動作(ここでの縮小倍率は上記と同
様に0.707倍である)が行われ、読み取られた画像
信号が画像処理部4 にて処理されて画像データとされ
て、画像メモリB52に格納される。
Next, after the original is placed with the lower edge of the original aligned with the front edge of the original glass 27 (the edge indicated by the symbol S1), the start key 11 is turned on (S17; YES). The image reading operation and the image data processing are performed on the lower half of the original (more precisely, the overlapping portion of the width L of the central portion of the original and the lower half of the original as shown in the upper right column of FIG. 7) (S19). That is, the image reading operation (the reduction magnification here is 0.707 times as described above) is performed by the image reading unit 2, and the read image signal is processed by the image processing unit 4 to obtain the image data. And stored in the image memory B52.

【0032】ここで、原稿中央部の幅Lの部分の画像デ
ータの格納先のアドレスは、前述のように、画像メモリ
A51と画像メモリB52とで、共通である。画像メモリA
51への画像データの格納が終了し、続いて、画像メモリ
B52への画像データの格納が終了すると、接合境界が決
定される(S21) 。この処理については、後述する。
Here, the address of the storage destination of the image data in the width L portion of the central portion of the document is common to the image memory A51 and the image memory B52 as described above. Image memory A
When the storage of the image data in 51 is completed and then the storage of the image data in the image memory B52 is completed, the junction boundary is determined (S21). This processing will be described later.

【0033】接合境界が決定されると、該接合境界に従
って接合された画像データが、画像メモリC54に展開さ
れて(S23) 、外部へ出力される(S25) 。「接合境界に従
って接合された画像データ」とは、「接合境界形状デー
タに従って境界データ保持部56によって制御されるセレ
クタ53により画像メモリA51又は画像メモリB52から選
択されて画像メモリC54へ転送されたデータ」をいう。
When the joining boundary is determined, the image data joined according to the joining boundary is developed in the image memory C54 (S23) and output to the outside (S25). "Image data joined according to the joining boundary" means "data selected from the image memory A51 or the image memory B52 by the selector 53 controlled by the boundary data holding unit 56 according to the joining boundary shape data and transferred to the image memory C54. ".

【0034】次に、前記接合境界決定処理(S21) につい
て述べる。まず、重複領域の画像データが、画像メモリ
A51と画像メモリB52から各々抽出される(S51) 。つま
り、画像メモリA51からは、原稿台ガラス27の手前の縁
から幅Lの帯状部分に相当する画像データが抽出され
る。また、画像メモリB52からは、原稿台ガラス27の奥
の縁から幅Lの帯状部分に相当するデータが抽出され
る。この重複領域内に於いて対となる画素の画像データ
のアドレスは、前述のように同一である。対となる画素
とは、上記「原稿台ガラス27の手前の縁から幅Lの帯状
部分」と上記「原稿台ガラス27の奥の縁から幅Lの帯状
部分」とを重ねた場合に、重なる位置にある画素をい
う。
Next, the joint boundary determining process (S21) will be described. First, the image data of the overlapping area is extracted from the image memory A51 and the image memory B52 (S51). That is, from the image memory A51, image data corresponding to a strip-shaped portion having a width L from the front edge of the document table glass 27 is extracted. Further, from the image memory B52, data corresponding to a strip-shaped portion having a width L from the inner edge of the platen glass 27 is extracted. The addresses of the image data of the paired pixels in the overlapping area are the same as described above. The pair of pixels are overlapped when the above-mentioned “belt-shaped portion having a width L from the front edge of the document table glass 27” and the above-mentioned “belt-shaped portion having a width L from the rear edge of the document table glass 27” are overlapped. A pixel at a position.

【0035】次に、上記重複領域が、写真領域であるか
否か判定される(S53) 。その結果、写真領域であれば(S
53;YES) 、接合が不可とされる(S65) 。
Next, it is determined whether or not the overlapping area is a photograph area (S53). As a result, (S
53; YES), and joining is disabled (S65).

【0036】ステップS53 で写真領域でないと判定され
た場合は(S53;NO)、ステップS55 〜S63 の処理手順に従
って、接合境界データが決定される。
If it is determined in step S53 that the area is not the photograph area (S53; NO), the junction boundary data is determined according to the processing procedure of steps S55 to S63.

【0037】まず、上記重複領域に於いて、図10のよ
うに、各々が接合境界の候補となる合計32本の線分が
決められる(S55) 。即ち、まず、線分X1 〜X3 と線分
Y1〜Y5 が決められ、さらに、線分X1,X2,X3 の各
々がY2,Y3,Y4 によって4分割されて12本の線分と
されるとともに、線分Y1,Y2,Y3,Y4,Y5 の各々がX
1,X2,X3 によって4分割されて20本の線分とされ
る。こうして、合計32本の線分が決められる。
First, in the overlapping area, as shown in FIG. 10, a total of 32 line segments each of which is a candidate for a joining boundary are determined (S55). That is, first, the line segments X1 to X3 and the line segments Y1 to Y5 are determined, and each of the line segments X1, X2, and X3 is divided into four by Y2, Y3, and Y4 to form 12 line segments. , Line segments Y1, Y2, Y3, Y4, Y5 are each X
It is divided into four by 1, X2, X3 to make 20 line segments. In this way, a total of 32 line segments are determined.

【0038】次に、上述の合計32本の線分の各々につ
いて、各線分上に位置する画素のうちで黒画素と見做さ
れる画素の数が計数される(S57) 。ここで、黒画素と見
做される画素とは、画像メモリA51と画像メモリB52の
アドレスが同一の画素、即ち、対となっている画素であ
って、画素データ値の差が或る所定値を越えている画素
である。例えば、画像メモリA51では「白」として記憶
されているが、画像メモリB52では「黒」として記憶さ
れているような対の画素が、黒画素となる。
Next, for each of the above-mentioned 32 line segments in total, the number of pixels considered as black pixels among the pixels located on each line segment is counted (S57). Here, the pixel regarded as a black pixel is a pixel having the same address in the image memory A51 and the image memory B52, that is, a pair of pixels, and a difference in pixel data value is a predetermined value. Pixels that exceed. For example, a pair of pixels stored as "white" in the image memory A51 but stored as "black" in the image memory B52 becomes a black pixel.

【0039】例えば、図8のように、重複領域Lでズレ
が生じている画像の場合、対となる各画素について各々
画素データの差を求め、その差が上述の所定値を越えて
いる画素を黒く塗りつぶすと、図9のようになる。この
黒く塗りつぶされた部分が上述の線分上に有る場合、そ
の部分が当該線分上の黒画素として計数される。
For example, as shown in FIG. 8, in the case of an image in which a deviation occurs in the overlapping area L, a difference in pixel data is obtained for each pixel forming a pair, and the pixel whose difference exceeds the above-mentioned predetermined value. When is filled with black, it becomes as shown in FIG. When this black-painted portion is on the above line segment, that portion is counted as a black pixel on the line segment.

【0040】本実施例では、黒画素の数が最小となる線
分の組合せ(経路)が、接合境界として選択される(S5
9,S61) 。つまり、図10に於いて、線分Y1,Y2,Y3,
Y4,Y5 の何れかの左端から、線分Y1,Y2,Y3,Y4,Y
5 の何れかの右端に到るように経路(上述の32本の線
分の組合せの中から選ばれる経路であるため54 =62
5通りの経路がある)をとる場合、その経路上の黒画素
の総数が最小となる経路が、接合境界として選択される
(S61) 。
In the present embodiment, the combination (route) of line segments that minimizes the number of black pixels is selected as the junction boundary (S5
9, S61). That is, in FIG. 10, line segments Y1, Y2, Y3,
From the left end of either Y4 or Y5, the line segment Y1, Y2, Y3, Y4, Y
Route to reach the right end of any of 5 (because it is a route selected from the above-mentioned combination of 32 line segments, 5 4 = 62
If there are 5 routes), the route with the minimum total number of black pixels on that route is selected as the junction boundary.
(S61).

【0041】このことを、図10と図11に即して説明
する。図10及び図11で、各線分の傍に付した数値
が、当該線分上の黒画素の数を示す。例えば、図10の
(a)のように黒画素数が分布している線分群の中か
ら、図10の(b)に太線で示す経路を選択すると、該
経路上の黒画素の総数は、 「0+0+0+0+0+100+0+0+0+0+10
0+0+0+0+0+200=400」 である。
This will be described with reference to FIGS. 10 and 11. In FIGS. 10 and 11, the numerical value attached to each line segment indicates the number of black pixels on the line segment. For example, when the route indicated by the thick line in FIG. 10B is selected from the line segment group in which the number of black pixels is distributed as shown in FIG. 10A, the total number of black pixels on the route is "0 + 0 + 0 + 0 + 0 + 100 + 0 + 0 + 0 + 0 + 10
0 + 0 + 0 + 0 + 0 + 200 = 400 ”.

【0042】これに対して、上記と同じ線分群の中か
ら、図11に太線で示す経路を選択すると、該経路上の
黒画素の総数は、 「0+0+0+0+0+0+0+0+0+0+0+0+
0+0+0+0=0」 である。
On the other hand, if the route shown by the bold line in FIG. 11 is selected from the same line segment group as above, the total number of black pixels on the route is "0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 + 0 +".
0 + 0 + 0 + 0 = 0 ”.

【0043】即ち、図11の太線の経路の方が、図10
の(b)の太線の経路よりも、黒画素の総数が少ない。
本実施例では、図11のように経路が選択され、この経
路が、接合境界形状として決定される。
That is, the thick line route in FIG. 11 is shown in FIG.
The total number of black pixels is smaller than that of the bold line in (b).
In this embodiment, a route is selected as shown in FIG. 11, and this route is determined as the joining boundary shape.

【0044】このようにして決定された接合境界形状を
示すデータは、境界データ保持部56に格納される。これ
に基づいて前述のようにセレクタ32が切り換え制御さ
れ、画像メモリA51と画像メモリB52の画像データのう
ち何れか選択された方の画像データが、画像メモリC54
へ送られる。こうして、図7に示すように、2つの画像
が境界部で濃度差を生じないように良好に接合される。
The data indicating the joint boundary shape thus determined is stored in the boundary data holding unit 56. Based on this, the selector 32 is switched and controlled as described above, and the selected image data of the image data of the image memory A51 and the image memory B52 is the image memory C54.
Sent to Thus, as shown in FIG. 7, the two images are well joined so as not to cause a density difference at the boundary portion.

【0045】上記実施例では、前述のように、画像メモ
リA51と画像メモリB52の画像データから、対となる画
素に関して各々画像データの差を求め、その値が或る所
定値を越える画素を黒画素として計数している。即ち、
2つの分割画像のズレに起因して濃度差が大きくなって
いる部分(図9で黒く塗りつぶして示している部分)
を、黒画素として計数している。このため、例えば、黒
い下地に画像が白く表現されているような場合でも、速
やかに処理できるという効果がある。
In the above embodiment, as described above, the difference between the image data of the pair of pixels is obtained from the image data of the image memory A51 and the image data of the image memory B52, and the pixel whose value exceeds a certain predetermined value is blacked. It is counted as a pixel. That is,
The part where the difference in density is large due to the deviation of the two divided images (the part shown in black in FIG. 9)
Are counted as black pixels. Therefore, for example, even when the image is expressed white on a black background, there is an effect that it can be processed promptly.

【0046】上記実施例の装置によると、読取時の条件
等で分割画像の重複部分に濃度差が生じた場合に濃度差
を目立たないように接合できるばかりでなく、1回目
(上半分と中央の重複部分)と2回目(中央の重複部分
と下半分)の読取で、重複部分にズレが生じた場合に、
該ズレが目立たないように2つの画像を接合することが
できるという効果がある。なお、図12は本装置により
接合した場合を示し、図13は従来装置により接合した
場合を示す。
According to the apparatus of the above-described embodiment, when the density difference occurs in the overlapping portion of the divided images due to the reading condition or the like, not only the density difference can be conspicuously joined but also the first time (the upper half and the center). Overlapping part) and the second (the central overlapping part and the lower half) reading, if there is a gap in the overlapping part,
There is an effect that two images can be joined so that the shift is not noticeable. Note that FIG. 12 shows the case of joining by this device, and FIG. 13 shows the case of joining by the conventional device.

【0047】上記実施例では、画像メモリA51と画像メ
モリB52の重複領域内の対応する位置(=同一アドレ
ス)の画素データ値の濃度差が最小となる経路を、接合
境界として選択しているが、本発明は、以下の実施例の
ように実現してもよい。
In the above embodiment, the path having the smallest density difference between the pixel data values at corresponding positions (= same address) in the overlapping area of the image memory A51 and the image memory B52 is selected as the junction boundary. The present invention may be implemented as in the following embodiments.

【0048】例えば、下地領域を通る経路を接合境界と
して選択してもよい。つまり、画像メモリA51又は画像
メモリB52の何れか一方の重複領域に関して、所定の下
地濃度より大きな濃度の部分を黒画素として検出して、
上述の実施例と同様に処理するようにしてもよい。
For example, a path passing through the base region may be selected as the joining boundary. That is, in the overlapping area of either the image memory A51 or the image memory B52, a portion having a density higher than a predetermined background density is detected as a black pixel,
You may make it process similarly to the above-mentioned Example.

【0049】図14は、画像メモリA51の画像データに
関して、所定の下地濃度との濃度差が大きな部分を、黒
画素(図14で黒で塗りつぶした部分)として検出した
ものである。なお、縦横の線分X1 〜X3 、Y1 〜Y5
は、前述の実施例と同様とする。この例では、左端〜X
1 の間では線分Y2 〜Y5 の何れか1つが選択され、X
1 〜X2 の間では線分Y5 が選択され、X2 〜X3 の間
では線分Y2 が選択され、X3 〜右端の間では線分Y4
が選択される。このように、図14の実施例では、何れ
か一方の分割画像(図14では画像メモリA51の画像)
に於いて、下地部分との濃度差が大きな部分(黒画素)
を避けるように選択した線分の経路が接合境界形状とし
て決定され、これが、前述の実施例と同様にセレクタ53
の切換制御に用いられて、分割画像が接合される。
FIG. 14 is a diagram in which, in the image data of the image memory A51, a portion having a large density difference from a predetermined background density is detected as a black pixel (a portion filled with black in FIG. 14). The vertical and horizontal line segments X1 to X3, Y1 to Y5
Is the same as in the above-mentioned embodiment. In this example, the left end to X
One of the line segments Y2 to Y5 is selected between 1 and X
The line segment Y5 is selected between 1 and X2, the line segment Y2 is selected between X2 and X3, and the line segment Y4 is selected between X3 and the right end.
Is selected. Thus, in the embodiment of FIG. 14, either one of the divided images (the image of the image memory A51 in FIG. 14)
Area where the density difference from the background area is large (black pixels)
The path of the line segment selected so as to avoid is determined as the joining boundary shape, which is the same as in the above-described embodiment.
Is used for the switching control of the, and the divided images are joined.

【0050】なお、下地濃度よりも或る値を越えて大き
い画素を抽出する方法としては、下地濃度を求めてその
値との差を求めてもよいが、隣接もしくは近接する画素
との濃度差が或る所定値よりも大きな画素を選択するよ
うにしてもよい。
As a method for extracting pixels larger than the background density by exceeding a certain value, the background density may be obtained and the difference between the values may be obtained. It is also possible to select pixels larger than a predetermined value.

【0051】また、図15に示すように、文字領域や写
真領域を避けるように接合境界線を選択することで、下
地領域を通る経路を選択してもよい。即ち、横方向の各
ライン毎に画素の濃度の総計を求め、その総計が最小と
なるライン(矢印Aで示すライン・太線で示すライン)
を接合境界線として選択してもよい。この方法は、文字
等が規則的に並んでいる画像の場合に有効である。
Further, as shown in FIG. 15, a route passing through the base region may be selected by selecting the joining boundary line so as to avoid the character region and the photo region. That is, the total of pixel densities is calculated for each line in the horizontal direction, and the total is the minimum line (line indicated by arrow A / line indicated by thick line).
May be selected as the joining boundary line. This method is effective for an image in which characters and the like are regularly arranged.

【0052】また、濃度変化の少ない部分を選んで経路
を選択したり、カラー画像の場合であれば色彩変化の少
ない部分を選んで経路を選択してもよい。また、文字領
域や写真領域等に応じて接合境界形状を選択したり、そ
の選択のアルゴリズムを変更するようにしてもよい。
Further, it is also possible to select a path by selecting a portion with a small density change, or select a path with a small color change in the case of a color image. Further, the joining boundary shape may be selected or the selection algorithm may be changed according to the character area, the photograph area, or the like.

【0053】また、前述の各実施例では、左端〜X1 の
間、X1 〜X2 の間、X2 〜X3 の間、X3 〜右端の間
の各々に於いて、2以上の線分が選択されないようにし
ている。換言すれば、戻り経路の無いように線分を選択
している。しかし、戻り経路を許容するように選択する
こともできる。その場合には、データの処理量は増大す
るが、より良好な接合を行い得る場合がある。なお、デ
ータ処理量の極端な増大を避けるために、総経路長に上
限を定めるようにしてもよい。
Further, in each of the above-described embodiments, two or more line segments are not selected in each of the left end to X1, the X1 to X2, the X2 to X3, and the X3 to the right end. I have to. In other words, the line segment is selected so that there is no return route. However, it is also possible to choose to allow the return route. In that case, although the amount of data to be processed increases, it may be possible to perform better joining. It should be noted that an upper limit may be set for the total path length in order to avoid an extreme increase in the data processing amount.

【0054】また、前述の実施例では、図10に示す線
分X1 〜X3 と線分Y1 〜Y5 を基本として接合境界形
状を定めている。即ち、直交する線分を基本として接合
境界形状を定めている。しかし、データ処理能力に余裕
が有る場合は、斜め線や、さらには曲線等、任意の線に
よって接合境界形状を決定するようにしてもよい。
In the above-described embodiment, the joint boundary shape is defined based on the line segments X1 to X3 and the line segments Y1 to Y5 shown in FIG. That is, the joint boundary shape is defined based on the orthogonal line segments. However, if the data processing capacity has a margin, the joining boundary shape may be determined by an arbitrary line such as a diagonal line or a curved line.

【0055】[0055]

【発明の効果】本発明では、重複領域内から隣接画像間
での濃度差の小さい画素を連結した線が接合線として抽
出されて該部分で各隣接画像が接合されるため、接合さ
れた画像では、接合境界部の濃度差が小さくなる。ま
た、重複領域でズレが生じている場合でも、該ズレが目
立ち難くなる。
According to the present invention, a line connecting pixels having a small density difference between adjacent images from the overlapping area is extracted as a joining line and each adjacent image is joined at the portion, so that the joined images are joined. Then, the concentration difference at the junction boundary becomes small. In addition, even when a deviation occurs in the overlapping area, the deviation is less noticeable.

【0056】また、本発明では、一方の画像の重複領域
内から近接画素との濃度差の小さい画素を連結した線が
接合線として抽出されて該部分で各隣接画像が接合され
るため、濃度変化の大きい部分での接合が回避される。
その結果、接合された画像では、接合境界部の濃度差が
小さくなって目立ち難くなる。
Further, according to the present invention, a line connecting pixels having a small density difference from adjacent pixels is extracted as a joining line from the overlapping area of one image, and each adjacent image is joined at that portion. Joining in the part where the change is large is avoided.
As a result, in the joined image, the density difference at the joining boundary portion becomes small, making it less noticeable.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例装置の全体構成を示すブロック図。FIG. 1 is a block diagram showing the overall configuration of a device according to an embodiment.

【図2】実施例装置の画像読取部の機構を示す模式図。FIG. 2 is a schematic diagram showing a mechanism of an image reading unit of the embodiment apparatus.

【図3】実施例装置の原稿載置台を示す説明図。FIG. 3 is an explanatory view showing a document placing table of the embodiment apparatus.

【図4】実施例装置の制御部での処理の概要を示すフロ
−チャ−ト。
FIG. 4 is a flowchart showing an outline of processing in a control unit of the embodiment apparatus.

【図5】図4の接合境界決定処理を示すフロ−チャ−
ト。
5 is a flow chart showing the joint boundary determination processing of FIG.
G.

【図6】原稿画像と該原稿画像を分割して読み取り合成
した画像を示す説明図。
FIG. 6 is an explanatory diagram showing a document image and an image obtained by reading, synthesizing, and dividing the document image.

【図7】実施例装置での処理の概要を示す説明図。FIG. 7 is an explanatory diagram showing an outline of processing in the apparatus according to the embodiment.

【図8】分割画像を重複部分で重ね合わせた様子を示す
説明図。
FIG. 8 is an explanatory diagram showing a state in which divided images are overlapped at overlapping portions.

【図9】図8の重複部分での像のずれを示す説明図。FIG. 9 is an explanatory diagram showing a shift of images in the overlapping portion of FIG.

【図10】接合境界線を定めるために重複部分を分割す
る様子を示す説明図。
FIG. 10 is an explanatory diagram showing a manner of dividing an overlapping portion in order to determine a joining boundary line.

【図11】図6〜図9に示す画像の場合の重複部分の接
合境界線を示す説明図。
FIG. 11 is an explanatory diagram showing a joining boundary line of overlapping portions in the case of the images shown in FIGS. 6 to 9;

【図12】図11の接合境界線と図6〜図9に示す画像
の重複部分を示す説明図。
FIG. 12 is an explanatory diagram showing an overlapping portion of the joining boundary line of FIG. 11 and the images shown in FIGS. 6 to 9.

【図13】図6〜図9に示す画像を従来の方法で接合し
た場合を示す説明図。
FIG. 13 is an explanatory diagram showing a case where the images shown in FIGS. 6 to 9 are joined by a conventional method.

【図14】隣接する画像のうちの一方の画像の重複領域
から接合線を求めるアルゴリズムを示す説明図。
FIG. 14 is an explanatory diagram showing an algorithm for obtaining a joining line from an overlapping area of one of adjacent images.

【図15】隣接する画像のうちの一方の画像の重複領域
から接合線を求める図14とは別のアルゴリズムを示す
説明図。
FIG. 15 is an explanatory diagram showing an algorithm different from that of FIG. 14 for obtaining a joining line from an overlapping region of one of adjacent images.

【符号の説明】[Explanation of symbols]

27 原稿台ガラス D 原稿 27 Platen glass D Original

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 互いに共通な重複画像データを有する第
1画像データと、第2画像データとを1つの画像データ
として接合し出力する画像処理装置において、 複数パターンの接合線を記憶する接合線記憶手段と、 前記接合線上に位置する前記第1及び第2画像データの
各重複画像データの画素を比較し、両画素の画像濃度の
差を演算する演算手段と、 前記演算手段によって演算の結果、両画素の画像濃度の
差が所定の値以上である画素数を、前記接合線記憶手段
に記憶された各接合線ごとに計数する計数手段と、 前記計数手段によって計数された画素数が最小となる接
合線を抽出する抽出手段と、 前記抽出手段によって抽出された接合線にしたがって、
重複画像データを第1記憶手段と第2記憶手段とのどち
らから出力するか選択する選択手段と、 前記選択手段によって選択された重複画像データを出力
する出力手段と、を有することを特徴とする画像形成装
置。
1. An image processing apparatus for joining and outputting first image data and second image data, which have common overlapping image data, as one image data, and join line memory for storing joining lines of a plurality of patterns. Means for calculating the difference between the image densities of the two pixels by comparing the pixels of the overlapping image data of the first and second image data located on the joining line, and the result of the calculation by the calculating means, Counting means for counting the number of pixels whose image density difference between both pixels is a predetermined value or more for each of the joining lines stored in the joining line storage means, and the number of pixels counted by the counting means is the minimum. Extraction means for extracting the joining line consisting of, according to the joining line extracted by the extracting means,
It is characterized by further comprising: a selection unit for selecting which of the first storage unit and the second storage unit the overlapping image data is to be output, and an output unit for outputting the overlapping image data selected by the selection unit. Image forming apparatus.
【請求項2】 互いに共通な重複画像データを有する第
1画像データと、第2画像データとを1つの画像データ
として接合し出力する画像処理装置において、 複数パターンの接合線を記憶する接合線記憶手段と、 前記第1画像データで、前記各接合線上に位置する画像
濃度が所定の値以上である画素数を、前記接合線記憶手
段に記憶された各接合線ごとに計数する計数手段と、 前記計数手段によって計数された画素数が最小となる接
合線を抽出する抽出手段と、 前記抽出手段によって抽出された接合線にしたがって、
重複画像データを第1記憶手段と第2記憶手段とのどち
らから出力するか選択する選択手段と、 前記選択手段によって選択された重複画像データを出力
する出力手段と、を有することを特徴とする画像形成装
置。
2. An image processing apparatus for joining and outputting first image data and second image data, which have common overlapping image data, as one image data and outputs the joined line memory for storing joining lines of a plurality of patterns. Means for counting the number of pixels, in the first image data, in which the image density located on each of the joining lines is a predetermined value or more, for each joining line stored in the joining line storage means; Extraction means for extracting the junction line having the minimum number of pixels counted by the counting means, and the junction line extracted by the extraction means,
It is characterized by further comprising: a selection unit for selecting which of the first storage unit and the second storage unit the overlapping image data is to be output, and an output unit for outputting the overlapping image data selected by the selection unit. Image forming apparatus.
【請求項3】 互いに共通な重複画像データを有する第
1画像データと、第2画像データとを1つの画像データ
として接合し出力する画像処理装置において、 前記第1画像データの重複画像データの下地濃度を決定
する下地濃度決定手段と、 前記第1画像データの重複画像データで、前記下地濃度
決定手段によって決定された下地濃度と比較して画像濃
度が所定の値以上である画素数を、1ラインごとに計数
する計数手段と、 前記計数手段によって計数された画素数が最小となる線
を、接合線として抽出する抽出手段と、 前記抽出手段によって抽出された接合線にしたがって、
重複画像データを第1記憶手段と第2記憶手段とのどち
らから出力するか選択する選択手段と、 前記選択手段によって選択された重複画像データを出力
する出力手段と、を有することを特徴とする画像形成装
置。
3. An image processing apparatus for joining and outputting first image data and second image data, which have common overlapping image data, as one image data, and a background of the overlapping image data of the first image data. The background density determining means for determining the density, and the overlapping image data of the first image data, the number of pixels whose image density is a predetermined value or more compared with the background density determined by the background density determining means is 1 Counting means for counting for each line, a line in which the number of pixels counted by the counting means is the minimum, extraction means for extracting as a joining line, and according to the joining line extracted by the extracting means,
It is characterized by further comprising: a selection unit for selecting which of the first storage unit and the second storage unit the overlapping image data is to be output, and an output unit for outputting the overlapping image data selected by the selection unit. Image forming apparatus.
【請求項4】 請求項1、請求項2、請求項3に於い
て、さらに、 前記重複領域が写真画像である場合は前記接合手段の処
理を禁止する手段、 を有する画像処理装置。
4. The image processing apparatus according to claim 1, claim 2, or claim 3, further comprising: a unit that prohibits processing of the joining unit when the overlapping region is a photographic image.
JP19419995A 1995-07-05 1995-07-05 Image processing device Expired - Fee Related JP3530882B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP19419995A JP3530882B2 (en) 1995-07-05 1995-07-05 Image processing device
US08/675,485 US6148118A (en) 1995-07-05 1996-07-03 Image processing apparatus capable of reproducing large-sized document

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19419995A JP3530882B2 (en) 1995-07-05 1995-07-05 Image processing device

Publications (2)

Publication Number Publication Date
JPH0923330A true JPH0923330A (en) 1997-01-21
JP3530882B2 JP3530882B2 (en) 2004-05-24

Family

ID=16320609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19419995A Expired - Fee Related JP3530882B2 (en) 1995-07-05 1995-07-05 Image processing device

Country Status (1)

Country Link
JP (1) JP3530882B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549681B1 (en) 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
US6720997B1 (en) 1997-12-26 2004-04-13 Minolta Co., Ltd. Image generating apparatus
JP2010272093A (en) * 2009-05-25 2010-12-02 Asahi Koyo Kk Image connecting method, device and program
WO2011090111A1 (en) * 2010-01-22 2011-07-28 株式会社 日立ハイテクノロジーズ Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
JP2011151681A (en) * 2010-01-22 2011-08-04 Toshiba Corp Information processor, information processing program, information processing system, and information processing method
JP2016220109A (en) * 2015-05-22 2016-12-22 京セラドキュメントソリューションズ株式会社 Image processing apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6549681B1 (en) 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
US7085435B2 (en) 1995-09-26 2006-08-01 Canon Kabushiki Kaisha Image synthesization method
US7366360B2 (en) 1995-09-26 2008-04-29 Canon Kabushiki Kaisha Image synthesization method
US6720997B1 (en) 1997-12-26 2004-04-13 Minolta Co., Ltd. Image generating apparatus
JP2010272093A (en) * 2009-05-25 2010-12-02 Asahi Koyo Kk Image connecting method, device and program
WO2011090111A1 (en) * 2010-01-22 2011-07-28 株式会社 日立ハイテクノロジーズ Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
JP2011150146A (en) * 2010-01-22 2011-08-04 Hitachi High-Technologies Corp Method for extracting contour line of image data obtained by charged particle beam device, and contour line extracting device
JP2011151681A (en) * 2010-01-22 2011-08-04 Toshiba Corp Information processor, information processing program, information processing system, and information processing method
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
JP2016220109A (en) * 2015-05-22 2016-12-22 京セラドキュメントソリューションズ株式会社 Image processing apparatus

Also Published As

Publication number Publication date
JP3530882B2 (en) 2004-05-24

Similar Documents

Publication Publication Date Title
JPH11175710A (en) Picture forming device
JP3530882B2 (en) Image processing device
JP2002232654A (en) Device and method for image processing and computer readable recording medium with program for making computer perform the method recorded thereon
JPH11243483A (en) Image processor
JPH09121277A (en) Image processor
JP2537192B2 (en) Image playback device
JPH0754958B2 (en) Image processor
JPH0341880A (en) High quality picture input device
JPH0519863B2 (en)
JPH09120444A (en) Image processor
JP2752018B2 (en) Image forming device
JP2885996B2 (en) Image processing method and apparatus
JPH08265522A (en) Image input device
EP0924574A2 (en) Apparatus for displaying and printing composite images
JP2575301B2 (en) Image processing device
JP2591592B2 (en) Document reading device
JP3312958B2 (en) Electronic filing equipment
JP2575300B2 (en) Image processing device
JP2719473B2 (en) Image forming device
JPS58136167A (en) Picture reader
JPH09214686A (en) Image reproducing system
KR930013776A (en) Digital zoom function of the camera
JPH03191673A (en) Black/white edge processing method for color reading device
JPS60114081A (en) Picture processing device
JPH06121122A (en) Image reader

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080312

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090312

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090312

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100312

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110312

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110312

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120312

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 10

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees