JP2001127977A - Device and method for correcting document image - Google Patents

Device and method for correcting document image

Info

Publication number
JP2001127977A
JP2001127977A JP30469699A JP30469699A JP2001127977A JP 2001127977 A JP2001127977 A JP 2001127977A JP 30469699 A JP30469699 A JP 30469699A JP 30469699 A JP30469699 A JP 30469699A JP 2001127977 A JP2001127977 A JP 2001127977A
Authority
JP
Japan
Prior art keywords
image
image data
correction information
correction
valued
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP30469699A
Other languages
Japanese (ja)
Inventor
Hiroyuki Takakura
裕幸 高倉
Kenichiro Sakai
憲一郎 酒井
Tsuguo Noda
嗣男 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP30469699A priority Critical patent/JP2001127977A/en
Publication of JP2001127977A publication Critical patent/JP2001127977A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device and a method for automatically correcting a multilevel document image in a direction at high speed and for automatically composting the multilevel document image at the high speed, which is inputted by division plural number of times. SOLUTION: An inputted multilevel image (a color image and a gray scale image) is stored in an image memory and also processed by binarization. The a direction and a superimposing position are detected concerning binarized image data. A direction, detecting result and a superimposing position detecting result which are obtained concerning the binarized image, are used to execute the correct processing of the multilevel picture which is stored in the image memory and, then, it is adopted as an output image. Thus, the document image which is transmitted by an operation being different from the normal one in direction or the document image which transmitted by division into the plurality of image through the use of a hard-held scanner, etc., is stored as one kind of erect image data and are outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、スキャナ等の画像
入力装置より入力した多値の画像を補正するための装置
及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for correcting a multi-valued image input from an image input device such as a scanner.

【0002】[0002]

【従来の技術】近年、据え置き型のフラットヘッドスキ
ャナに加え、持ち運びが容易な手動操作型の小型ハンド
ヘルドスキャナが開発・製品化されている。
2. Description of the Related Art In recent years, in addition to a stationary flat head scanner, a small, hand-operated, hand-held scanner that is easy to carry has been developed and commercialized.

【0003】ハンドヘルドスキャナは手走査であるた
め、ユーザは読み込ませようとする文書の縦横どちらの
方向からでもスキャンできる反面、画像が回転したり鏡
像反転するという問題がある。これらの問題を解決する
ため、自動的に画像の向きを補正する技術が開発されて
いる(特願平10−146926号明細書参照)。
[0003] Since the handheld scanner is a manual scan, the user can scan the document to be read from either the vertical or horizontal direction, but there is a problem that the image is rotated or the mirror image is inverted. In order to solve these problems, a technique for automatically correcting the orientation of an image has been developed (see Japanese Patent Application No. 10-146926).

【0004】また、ハンドヘルドスキャナは本体が小型
であるため一度にスキャンできる幅が狭い。スキャナ幅
を越える大きな画像を取り込むためには、画像を複数回
に分けて取り込み、合成する必要がある。画像を、重な
る領域ができるようにして複数回に分けて取り込み、バ
ッファメモリに取り込まれる際に、自動的に画像を合成
し、合成結果の画像をバッファメモリに記録する技術が
開発されている(特願平11−111708号明細書参
照)。
[0004] Further, the hand-held scanner has a small body, so that the width at which scanning can be performed at one time is narrow. In order to capture a large image exceeding the width of the scanner, it is necessary to capture the image in a plurality of times and combine the images. A technique has been developed in which an image is captured in a plurality of times so as to form an overlapping area, and when the image is captured in the buffer memory, the image is automatically combined and the resultant image is recorded in the buffer memory ( See Japanese Patent Application No. 11-111708).

【0005】これらの技術は2値で入力した文書画像を
補正する技術であり、多値で入力した文書画像を補正す
る技術は開発されていなかった。
[0005] These techniques are for correcting a binary-input document image, and no technique for correcting a multi-level input document image has been developed.

【0006】なお、ここで、多値の画像とは、画像を構
成する画素が多値のパラメータで表現される、あるい
は、多値の複数のパラメータで表現される画像のことで
ある。例えば、グレースケール画像は、色を表現するパ
ラメータは輝度のみであるが、輝度の取りうる値が複数
の値となっているので、多値画像と呼ぶ。また、他の例
としては、カラー画像である。カラー画像は、例えば、
1つの画素がR値、G値、B値の3つのパラメータで表
現され、かつ、各パラメータが複数の値を取りうると言
う意味で多値画像である。
Here, the multi-valued image is an image in which pixels constituting the image are represented by multi-valued parameters or a plurality of multi-valued parameters. For example, a gray-scale image is a multi-valued image because the only parameter that expresses color is luminance, but the possible values of luminance are a plurality of values. Another example is a color image. A color image, for example,
It is a multi-valued image in the sense that one pixel is represented by three parameters of R value, G value and B value, and each parameter can take a plurality of values.

【0007】[0007]

【発明が解決しようとする課題】従来の、入力した文書
画像の向きを自動的に補正する技術や、分割して入力し
た文書画像を自動的に合成する技術は、2値の文書画像
を補正する技術であり、多値の文書画像を補正する技術
は開発されていなかった。
Conventional techniques for automatically correcting the direction of an input document image and techniques for automatically synthesizing a divided and input document image automatically correct a binary document image. A technique for correcting a multi-valued document image has not been developed.

【0008】また、多値の画像は2値の画像と比較して
データ量が大きいため、多値画像データそのものを処理
していると、必要なメモリ量が大きくなり、処理時間が
長くなるといった問題が生じる。
Also, since a multi-valued image has a larger data amount than a binary image, processing the multi-valued image data itself requires a larger amount of memory and a longer processing time. Problems arise.

【0009】本発明の課題は、多値の文書画像を自動的
かつ高速に方向補正し、更に、複数回に分けて入力した
多値の文書画像を自動的かつ高速に合成するための装置
及び方法を提供することである。
An object of the present invention is to provide an apparatus and a method for automatically and rapidly correcting a direction of a multi-valued document image and further automatically and rapidly synthesizing a multi-valued document image inputted in a plurality of times. Is to provide a way.

【0010】[0010]

【課題を解決するための手段】本発明の装置は、取得さ
れた画像データを2値化する2値化手段と、該2値化手
段によって2値化された2値画像データから補正情報を
生成する補正情報生成手段と、該補正情報生成手段によ
って得られた補正情報に基づいて、該画像取得手段によ
って取得された多値画像の画像データを補正する補正手
段とを備えることを特徴とする。
An apparatus according to the present invention comprises a binarizing unit for binarizing acquired image data, and correcting information from the binary image data binarized by the binarizing unit. A correction information generating unit configured to generate the correction information, and a correction unit configured to correct the image data of the multi-valued image obtained by the image obtaining unit based on the correction information obtained by the correction information generating unit. .

【0011】本発明の方法は、(a)取得された画像デ
ータを2値化するステップと、(b)該ステップ(a)
において2値化された2値画像データから補正情報を生
成するステップと、(c)該ステップ(b)において得
られた補正情報に基づいて、該画像取得手段によって取
得された多値画像の画像データを補正するステップとを
備えることを特徴とする。
The method of the present invention comprises the steps of: (a) binarizing the acquired image data; and (b) the step (a).
Generating correction information from the binary image data binarized in step (c), and (c) an image of a multi-valued image obtained by the image obtaining means based on the correction information obtained in step (b) Correcting the data.

【0012】本発明によれば、多値画像から2値画像を
生成し、2値画像に基づいて補正情報を生成して、この
補正情報を用いて多値画像を補正する。従って、多値画
像をそのまま補正処理するために、多くのメモリ容量を
費やしたり、多くの処理時間をかけることなく、多値画
像の補正を行うことが出来る。
According to the present invention, a binary image is generated from a multi-valued image, correction information is generated based on the binary image, and the multi-valued image is corrected using the correction information. Therefore, the correction of the multi-valued image can be performed without consuming a large amount of memory or taking a lot of processing time to perform the correction processing on the multi-valued image as it is.

【0013】特に、ハンドヘルドスキャナを用いて、多
値画像を取得する場合、画像の方向が通常とは異なって
いたり、1枚の画像が複数枚に分割されて取得される場
合にも、多値画像をそのまま処理するのではなく、2値
画像に変換して補正情報を得てから処理するので、処理
用のメモリ容量も小さくてすみ、高速に、多値画像を1
枚の正立した画像に補正することが出来る。
In particular, when a multi-valued image is acquired by using a handheld scanner, even when the direction of the image is different from the normal direction or when one image is divided into a plurality of images, the multi-valued image is acquired. Since the image is not processed as it is, but is converted into a binary image and the correction information is obtained before processing, the memory capacity for the processing can be small, and the multi-valued image can be quickly converted to one.
It can be corrected to an erect image.

【0014】[0014]

【発明の実施の形態】図1は、本発明の原理を説明する
図である。
FIG. 1 is a diagram for explaining the principle of the present invention.

【0015】本発明においては、多値で入力した文書画
像を自動的に方向補正し、更に複数回に分けて入力した
多値の文書画像を自動的に結合することを特徴とする。
The present invention is characterized in that the direction of a multi-valued document image is automatically corrected, and the multi-valued document images input in a plurality of times are automatically combined.

【0016】まず、ステップS1において、画像を入力
する。画像は、カラースキャナ等の多値の画像を読み取
り可能な装置を使って読みとる。入力された多値画像デ
ータは、2つに分岐され、一方は、ステップS3におい
て、2値化される。そして、ステップS4において、2
値化した画像から文字方向及び重なり位置を検出する。
First, in step S1, an image is input. The image is read using a device capable of reading a multi-value image such as a color scanner. The input multi-valued image data is branched into two, and one is binarized in step S3. Then, in step S4, 2
The character direction and the overlapping position are detected from the digitized image.

【0017】分岐された多値画像データの他方は、ステ
ップS2において、入力画像記録用のメモリに保存され
る。そして、ステップS4における方向検出及び重なり
位置検出処理が完了すると、ステップS5において、多
値画像データが入力画像記録用メモリから読み出され、
ステップS4で得られた検出結果に基づいて、補正処理
が施される。ステップS5の補正処理が終了すると、回
転あるいは反転され、あるいは、複数に分割されて入力
された多値画像は、正立した1つの文書画像として構成
されるので、これを、ステップS6において、出力画像
として出力する。
The other of the branched multivalued image data is stored in a memory for recording an input image in step S2. When the direction detection and the overlap position detection processing in step S4 are completed, in step S5, the multi-valued image data is read from the input image recording memory,
Correction processing is performed based on the detection result obtained in step S4. When the correction processing in step S5 is completed, the multi-valued image that has been rotated, inverted, or divided into a plurality of pieces is configured as one erect document image, which is output in step S6. Output as an image.

【0018】以上の処理により多値画像を自動的に方向
補正し、かつ複数の文書画像を自動的に結合することが
できる。
With the above processing, the direction of a multi-valued image can be automatically corrected, and a plurality of document images can be automatically combined.

【0019】図1のステップS4の方向検出には、特願
平10−240871号明細書に記載された「文書画像
補正装置及び文書画像補正方法」などを用い、重なり位
置検出には、特願平11−009381号明細書に記載
された「文書画像結合装置、文書画像結合方法及び文書
画像結合プログラム」などを用いる。
The direction detection in step S4 in FIG. 1 uses a "document image correction apparatus and method" described in Japanese Patent Application No. 10-240871. A “document image combining device, a document image combining method, and a document image combining program” described in Japanese Patent Application Laid-Open No. 11-00381 are used.

【0020】2値化処理は、入力画像の色成分RGB値
に着目して処理する方法と、色成分RGB値を輝度成分
に変換し、輝度成分に着目して処理する方法を用いるこ
とができる。
The binarization processing can be performed by a method of processing by focusing on the RGB values of the color components of the input image, or a method of converting the RGB values of the color components into luminance components and processing by focusing on the luminance components. .

【0021】入力画像の色成分から決定する方法は、R
GB値のうち1つの成分に着目し、その成分が閾値を越
える画素は白とし、それ以外の画素はすべて黒とする方
法と、RGB値のうち少なくとも2つ以上の成分が閾値
を越える画素は白とし、それ以外の画素はすべて黒とす
る2つの方法が考えられる。RGB値の内、1つの成分
に着目する場合は、スキャナがR、G、Bの全ての光源
を有していない場合であって、すなわち、スキャナがグ
レースケール画像取得用スキャナである場合である。R
GB値の内、2つ以上の成分に着目するのは、フルカラ
ーのスキャナの場合である。フルカラーの場合、一般的
な文書においては、背景色は、比較的明るい色で着色さ
れ、文字は比較的暗い色で着色されることが知られてい
る。もちろん、白抜き文字のように逆の場合もあるが、
背景色と文字色とは対照的な色となる傾向がある。この
場合、一般に明るい色は、RGB値の3つの成分の内、
少なくとも2つの成分が大きな値を持っていることが知
られており、RGB値の2つ以上の成分が閾値以上の場
合には白とする2値化の方法は、このことを利用するも
のである。
The method of determining from the color components of the input image is R
Focusing on one component of the RGB values, the pixel whose component exceeds the threshold is set to white, and all the other pixels are set to black. The pixel in which at least two components of the RGB value exceed the threshold is set as the pixel. Two methods can be considered in which white is set and all other pixels are set to black. Focusing on one component of the RGB values is a case where the scanner does not have all the R, G, and B light sources, that is, a case where the scanner is a grayscale image acquisition scanner. . R
Attention is paid to two or more components of the GB value in the case of a full-color scanner. In the case of full color, it is known that in a general document, the background color is colored with a relatively light color, and the characters are colored with a relatively dark color. Of course, the opposite may be the case, such as white characters,
There is a tendency for the background color and the character color to be contrasting colors. In this case, generally, a bright color is one of the three components of the RGB values.
It is known that at least two components have a large value, and a binarization method that makes white when two or more components of RGB values are equal to or larger than a threshold value utilizes this fact. is there.

【0022】また、明るい色は輝度成分が高くなり、暗
い色は輝度成分が低くなる傾向がある。そこで、RGB
値を輝度成分に変換し、輝度成分が閾値を越える画素は
白、それ以外はすべて黒とする方法も使用可能である。
Also, a bright color tends to have a high luminance component, and a dark color tends to have a low luminance component. So, RGB
It is also possible to use a method in which the value is converted to a luminance component, and pixels in which the luminance component exceeds the threshold value are white, and all other pixels are black.

【0023】図2及び図3は、閾値の求め方の一例を示
す図である。
FIG. 2 and FIG. 3 are diagrams showing an example of how to obtain a threshold.

【0024】閾値を求める場合には、入力した画像の色
成分を色成分毎にヒストグラムに表し、ヒストグラム上
にできた2つの山の中央を閾値にする方法(図2)と、
RGB成分の最大値と最小値を求め、最大値と最小値の
中央を閾値とする方法(図3)の2通りが代表的であ
る。図2、3はそれぞれRGB成分のうち1つの成分を
グラフに示したもので、閾値を求める時は、全ての成分
について処理を行う。
When the threshold value is obtained, a method of expressing the color components of the input image in a histogram for each color component and setting the center of two peaks formed on the histogram as a threshold value (FIG. 2)
The two typical methods are a method of calculating the maximum value and the minimum value of the RGB components, and using the center of the maximum value and the minimum value as a threshold (FIG. 3). FIGS. 2 and 3 each show one component of the RGB components in a graph. When a threshold value is obtained, processing is performed on all components.

【0025】図2の方法は、文書画像は下地色と文字色
の色に大きく分かれるため、ヒストグラムを取ると図2
のように大きく山が2つできる。そこで、2つの山の中
央を閾値とすれば、下地部分と文字部分を2値に分ける
ことができることに着目したものである。
In the method of FIG. 2, since a document image is largely divided into a base color and a character color, a histogram is obtained as shown in FIG.
There are two large mountains like. Therefore, attention has been paid to the fact that if the center of the two peaks is set as the threshold value, the background portion and the character portion can be divided into binary values.

【0026】文書画像に複数の下地色を使った場合や複
数の文字色を使った場合など、ヒストグラム上に山が複
数できる場合があるため、前者の方法では閾値を決定す
ることができない場合がある。その場合には、図3のよ
うにRGB成分の最大値と最小値の中間を取ることで下
地部分と文字部分を2値に分けることができる。
In some cases, such as when a document image uses a plurality of background colors or a plurality of character colors, a plurality of peaks can be formed on the histogram, so that the threshold value cannot be determined by the former method. is there. In this case, by taking the middle between the maximum value and the minimum value of the RGB components as shown in FIG. 3, the background portion and the character portion can be divided into two values.

【0027】従って、一般に、閾値を決定する場合に
は、RGB成分のヒストグラムを作った後、山の数を数
え、1成分につき2つだけ山がある場合には、図2の方
法を用い、3つ以上山がある場合には、図3の方法を使
用する。
Therefore, in general, when determining a threshold value, a histogram of RGB components is created, the number of peaks is counted, and when only two peaks are present per component, the method of FIG. If there are three or more peaks, the method of FIG. 3 is used.

【0028】図4〜図6は、文字方向の補正処理を説明
する図である。
FIGS. 4 to 6 are diagrams for explaining the correction process in the character direction.

【0029】図4に示すように、横書き文書をハンドヘ
ルドスキャナを用いて取り込むと、画像データは随時ス
キャナ側から送られてきて、一時的にバッファメモリに
蓄積される。ある一定量のデータが送られてきた段階
で、バッファに蓄積されたデータの一部を抽出し、抽出
した画像を2値化する。そして、図5に示されるよう
に、2値画像を処理して画像の文字方向を検出する。検
出は、例えば、1つの文字(図5の場合、「あ」)を抽
出して、抽出した文字を適当な角度だけ回転させ、認識
を行う。認識した結果所定の文字であることが判別でき
た角度を0°とすれば、文字は判別できた角度だけ、文
字を回転させた方向と反対方向に向いていることが判別
できる。文字方向を検出出来なければ、異なる領域から
再びデータの一部を抽出し、同様の処理を行う。
As shown in FIG. 4, when a horizontally written document is captured using a handheld scanner, image data is sent from the scanner as needed and temporarily stored in a buffer memory. When a certain amount of data has been sent, a part of the data stored in the buffer is extracted, and the extracted image is binarized. Then, as shown in FIG. 5, the binary image is processed to detect the character direction of the image. In the detection, for example, one character (“A” in FIG. 5) is extracted, and the extracted character is rotated by an appropriate angle to perform recognition. Assuming that the angle at which the character can be determined to be a predetermined character as a result of the recognition is 0 °, it can be determined that the character is oriented by the determined angle in the direction opposite to the direction in which the character is rotated. If the character direction cannot be detected, a part of the data is extracted again from a different area, and the same processing is performed.

【0030】画像の一部を抽出して処理を行うことによ
り、画像全体を処理するよりも、画像の一部を処理する
方が必要なメモリ量が少なくてすみ、高速に処理するこ
とができる。
By processing a part of an image by extracting a part of the image, processing a part of the image requires a smaller amount of memory and processing at a high speed than processing the entire image. .

【0031】図6は、スキャナ入力した画像データの格
納の仕方を説明する図である。
FIG. 6 is a diagram for explaining a method of storing image data input by a scanner.

【0032】例えば、本発明の実施形態の画像補正装置
はMicrosoft Windows用アプリケーションに搭載されて
いるとする。この場合、入力装置から送られてきたデー
タはDib形式のフォーマットで格納している。しか
し、画像の保存形式はPBM形式など、その他のフォー
マットで格納しても良い。
For example, it is assumed that the image correction apparatus according to the embodiment of the present invention is installed in a Microsoft Windows application. In this case, the data sent from the input device is stored in a Dib format. However, the image may be stored in another format such as the PBM format.

【0033】バッファメモリには、スキャンされた順
に、1ライン毎に、ビットマップデータが格納されてい
く。ここで、本発明の実施形態では、多値画像がこのよ
うに、バッファメモリに格納される順序あるいは、方向
を検出結果に基づいて変えることにより、多値文書画像
を正立させてバッファメモリに格納するようにする。
In the buffer memory, bit map data is stored for each line in the order of scanning. Here, in the embodiment of the present invention, by changing the order or direction in which the multi-valued image is stored in the buffer memory based on the detection result, the multi-valued document image is erected and stored in the buffer memory. To be stored.

【0034】図7、8は、文字方向検出後の文書変換の
様子を説明する図である。
FIGS. 7 and 8 are views for explaining the state of document conversion after the detection of the character direction.

【0035】図7に示すように、入力画像の文字方向を
検出した段階で、それまでにバッファメモリに蓄積され
ていたデータを補正して、出力画像メモリに格納し、更
にスキャナ側から送られてくるデータを補正しながら出
力メモリに格納していく。スキャナ側から送られてきた
データの一部を抽出して、先に文字方向を検出し、文字
方向が決定した後は、画像データを順次変換しながら出
力画像メモリに格納することで、画像の入力が全て終了
した時点で処理するよりも、高速に正立した文書画像を
得ることができる。スキャナ側から送られてくるデータ
を補正する方法は、基本的に、カラー画像と2値画像と
で同じであり、ビットマップのデータの配列の順序を縦
から横あるいは、横から縦の方向に並べ替えて出力画像
メモリに保存する。
As shown in FIG. 7, when the character direction of the input image is detected, the data stored in the buffer memory up to that time is corrected, stored in the output image memory, and sent from the scanner. The incoming data is stored in the output memory while being corrected. By extracting a part of the data sent from the scanner, detecting the character direction first, and determining the character direction, the image data is stored in the output image memory while sequentially converting the image data. An erect document image can be obtained at a higher speed than when processing is performed when all inputs are completed. The method of correcting the data sent from the scanner is basically the same for a color image and a binary image, and the order of bitmap data arrangement is from vertical to horizontal or from horizontal to vertical. Rearrange and save in output image memory.

【0036】Windows のDib形式では、入力した画像
のサイズが分からなければ画像を保存することができな
い。そのため、図8に示すように、画像を入力している
段階で文字方向を検出し、画像の入力が終了した時点で
バッファメモリに蓄積された画像データを一括して成立
した方向に変換しても良い。
In the Windows Dib format, an image cannot be saved unless the size of the input image is known. Therefore, as shown in FIG. 8, the character direction is detected at the stage of inputting the image, and the image data stored in the buffer memory is converted into the direction that has been established at once when the input of the image is completed. Is also good.

【0037】図9〜14は、画像の重なり補正及び方向
補正の処理を説明する図である。
FIGS. 9 to 14 are diagrams for explaining the processing of image overlap correction and direction correction.

【0038】図9のように、画像の重なり位置を検出す
るためには、画像の方向を正立した状態に変換する必要
がある。前述の方法で入力画像の文字方向を検出し、2
値画像を方向補正する。そして、2値画像を方向補正し
た後に、“特願平11−009381号「文書画像結合
装置、文書画像結合方法及び文書画像結合プログラ
ム」”の手法を用いて重なり位置を検出する。
As shown in FIG. 9, in order to detect the overlapping position of the images, it is necessary to change the direction of the image to an erect state. The character direction of the input image is detected by the method described above, and 2
Correct the direction of the value image. Then, after the direction of the binary image is corrected, the overlapping position is detected by using the method described in Japanese Patent Application No. 11-00381 “Document image combining device, document image combining method and document image combining program”.

【0039】図10が示すように、スキャナから入力し
た2枚の画像はバッファメモリに蓄積しておく。重なり
位置を検出後、2枚目の画像の取り込みが終了していれ
ば、1枚目の画像、2枚目の画像のデータの中で合成に
必要な部分を、検出した文字方向に変換し、合成しなが
ら格納していく。
As shown in FIG. 10, two images input from the scanner are stored in a buffer memory. If the capture of the second image has been completed after detecting the overlap position, the portion of the data of the first image and the second image required for the composition is converted into the detected character direction. , And store them while compositing.

【0040】2枚目の画像の取り込みが終了していなけ
れば、バッファメモリに蓄積された1枚目の画像のデー
タの中で合成に必要な部分を、検出した文字方向に変換
し、合成しながら格納していく。また、それまでにバッ
ファメモリに蓄積された2枚目の画像のデータのなか
で、合成に必要な部分を、検出した文字方向に変換し、
合成しながら格納していく。更に、スキャナ側から送ら
れてくるデータも同様に変換しながら格納していく。
If the capture of the second image has not been completed, the portion of the data of the first image stored in the buffer memory that is necessary for the composition is converted into the detected character direction and composed. While storing. Also, of the data of the second image stored in the buffer memory up to that point, the part necessary for the composition is converted into the detected character direction,
Store while compositing. Further, the data sent from the scanner is stored while being converted in the same manner.

【0041】これにより、処理に必要なメモリ量を抑
え、高速に処理することができる。
As a result, the amount of memory required for processing can be suppressed, and processing can be performed at high speed.

【0042】図11は、画像の読み取り方法の一例を示
す図である。
FIG. 11 is a diagram showing an example of an image reading method.

【0043】文書の行と平行方向にスキャナを走査す
る。図11に記載した文書は横書きであるため横方向に
スキャナを走査するが、文書が縦書きであれば縦方向に
走査する。
The scanner is scanned in a direction parallel to the line of the document. Since the document shown in FIG. 11 is written horizontally, the scanner is scanned in the horizontal direction. If the document is written vertically, the scanner is scanned in the vertical direction.

【0044】画像の重なる領域の文字が一致する点に着
目して、画像の重なり位置を検出するため、重なる領域
を持つように画像を取り込む。
Attention is paid to the point where the characters in the overlapping area of the image coincide with each other, and the image is captured so as to have the overlapping area in order to detect the overlapping position of the image.

【0045】スキャナの走査方向は行と平行であればど
ちらの方向から取り込んでもかまわない。しかし、必ず
重なる領域を持つように取り込むこととする。
As long as the scanning direction of the scanner is parallel to the row, the scanning may be performed from either direction. However, it is assumed that the data is always captured so as to have an overlapping area.

【0046】図12は、画像の重なり位置検出方法の一
例を説明する図である。
FIG. 12 is a diagram for explaining an example of a method of detecting an overlapping position of images.

【0047】まず1枚目の画像を取り込む。データが送
られてきている段階で、画像の一部を抽出し、2値画像
を作成する。2値画像から画像の正立方向を検出し、検
出した方向に2値画像を補正する。
First, the first image is captured. At the stage where the data is being sent, a part of the image is extracted to create a binary image. The erect direction of the image is detected from the binary image, and the binary image is corrected in the detected direction.

【0048】次に、2枚目の画像を取り込む。データが
送られてきている段階で、画像の一部を抽出し、2値画
像を作成する。2値画像から画像の正立方向を検出し、
検出した方向に2値画像を補正する。
Next, the second image is captured. At the stage where the data is being sent, a part of the image is extracted to create a binary image. The erect direction of the image is detected from the binary image,
The binary image is corrected in the detected direction.

【0049】データを受け取る処理以外に、コンピュー
タに補正する余裕があれば、データが送られてきている
段階で、画像の2値化処理、正立方向への補正処理を行
う。補正処理する余裕がなければ、画像の取り込み終了
後、補正処理を行ってもかまわない。これは、画像のデ
ータ受信がコンピュータへの割り込みという形で行われ
ることに基づいている。割り込みが生じている間、受信
装置は画像データを受信するが、コンピュータ本体は何
もしていない場合が多いので、この何もしていない時
に、画像の正立方向への補正処理を行うようにすれば、
より効率的に処理を行うことが出来る。
If the computer has room for correction other than the process of receiving the data, the image is binarized and the image is corrected in the erecting direction when the data is being sent. If there is no room for the correction processing, the correction processing may be performed after the image capturing is completed. This is based on the fact that image data reception is performed in the form of interruption to a computer. While the interruption occurs, the receiving device receives the image data, but in many cases, the computer itself does nothing, so when this operation is not being performed, the image is corrected in the erect direction. If
Processing can be performed more efficiently.

【0050】次に、正立方向へ補正した2つの2値画像
から、重なり位置を検出する。重なり位置検出方法は、
ここでは特願平11−111708号の手法を用いる
が、他の手法を用いてもかまわない。
Next, an overlap position is detected from the two binary images corrected in the erect direction. The overlapping position detection method
Here, the method of Japanese Patent Application No. 11-111708 is used, but another method may be used.

【0051】図13、14に、検出した重なり位置で、
2つの多値画像を結合する手法を示す。
FIGS. 13 and 14 show the detected overlapping positions.
3 shows a method of combining two multi-valued images.

【0052】2枚目の画像の取り込みが終了が終了後、
画像の重なり位置を検出した場合の結合方法を図13に
示し、2枚目の画像の取り込みが終了する前に、重なり
位置を検出した場合の結合方法を図14に示す。
After the second image has been captured,
FIG. 13 shows a combining method when the overlapping position of the images is detected, and FIG. 14 shows a combining method when the overlapping position is detected before the capture of the second image is completed.

【0053】2値画像を正立方向に補正した画像から重
なり位置を検出しているため、正立方向に補正する前の
重なり位置に座標を変換して、2つの画像の重なり位置
とする。
Since the overlapping position is detected from the image obtained by correcting the binary image in the erect direction, the coordinates are converted to the overlapping position before the correction in the erect direction to obtain the overlapping position of the two images.

【0054】図13の方法では、検出した正立方向に補
正しながら、検出した重なり位置に合わせて2つの画像
を格納していく。
In the method of FIG. 13, two images are stored in accordance with the detected overlapping position while correcting in the detected erect direction.

【0055】図14の方法では、2枚目の画像の取り込
みが終了していないため、1枚目のデータ、及び、それ
までに送られてきたデータを検出した正立方向に補正し
ながら、検出した重なり位置に合わせて2つの画像を格
納していく。送られてきたデータも同様に補正しながら
格納していく。
In the method of FIG. 14, since the capture of the second image has not been completed, the first data and the data transmitted so far are corrected in the detected erect direction while Two images are stored according to the detected overlapping position. The transmitted data is stored while being corrected in the same manner.

【0056】以上の処理から多値画像を結合することが
できる。
From the above processing, multi-valued images can be combined.

【0057】図15は、多値画像を方向補正及び文書結
合する処理装置の構成例を示す図である。
FIG. 15 is a diagram showing an example of the configuration of a processing device for correcting the direction of a multivalued image and combining the documents.

【0058】入力機器10は、カラースキャナ等の多値
画像を取り込み可能な画像取り込み装置である。入力機
器10から入力した多値画像データを画像メモリ13に
保存し、カラー画像補正を行う場合に、画像メモリ13
から画像を読み出して処理する。一方、入力機器10に
よって読み込まれたカラー画像(グレースケール画像)
は、2値化処理部11に入力され2値化処理されて、2
値画像となる。2値画像は、方向検出/重なり位置検出
部12に入力され、2値画像から画像情報(正立方向、
重なり位置)が検出される。2値画像から検出した画像
情報は、カラー画像補正処理部14に入力され、画像メ
モリ13から入力される多値(カラー)画像に方向変
換、重なり処理が施される。このようにして、補正され
た多値画像は、出力画像として画像出力部15に出力さ
れる。
The input device 10 is an image capturing device such as a color scanner capable of capturing a multi-valued image. When multi-valued image data input from the input device 10 is stored in the image memory 13 and color image correction is performed, the image memory 13
The image is read from and processed. On the other hand, a color image (grayscale image) read by the input device 10
Is input to the binarization processing unit 11 and binarized,
Value image. The binary image is input to the direction detection / overlap position detection unit 12, and image information (erect direction,
(Overlapping position) is detected. Image information detected from the binary image is input to the color image correction processing unit 14, where the multi-value (color) image input from the image memory 13 undergoes direction conversion and overlap processing. The multi-valued image corrected in this way is output to the image output unit 15 as an output image.

【0059】図16は、本発明の実施形態の全体の処理
を示すフローチャートである。
FIG. 16 is a flowchart showing the overall processing of the embodiment of the present invention.

【0060】まず、ステップS101において、入力機
器から画像を読み込む。次に、ユーザから画像結合を行
うか否かを入力させ、その入力に従って、結合モードに
設定されたか否かを判断する(ステップS102)。ス
テップS102の判断の結果がNOならば、入力した画
像を正立した画像に補正する方向補正を行い(ステップ
S103)、ステップS102の判断がYESなら、2
枚目の画像を読み込む(ステップS104)。そして、
ステップS101で読み込まれた1枚目の画像とステッ
プS104で読み込まれた2枚目の画像とを、ステップ
S105において、合成し結合画像を生成・出力して処
理を終了する。
First, in step S101, an image is read from an input device. Next, the user inputs whether or not to combine images, and determines whether or not the combination mode has been set according to the input (step S102). If the result of the determination in step S102 is NO, direction correction for correcting the input image to an erect image is performed (step S103), and if the determination in step S102 is YES, 2
The first image is read (step S104). And
In step S105, the first image read in step S101 and the second image read in step S104 are combined to generate and output a combined image, and the process ends.

【0061】以上の動作により、多値で入力した文書画
像を自動的に方向補正し、かつ複数の文書画像を自動的
に結合することができる。また、処理に必要なメモリ量
を抑え、高速に処理する事が出来る。
With the above operation, the direction of a multi-value input document image can be automatically corrected, and a plurality of document images can be automatically combined. Further, the amount of memory required for processing can be suppressed, and processing can be performed at high speed.

【0062】図17は、図16のステップS103の文
書画像方向補正処理の一例を示すフローチャートであ
る。
FIG. 17 is a flowchart showing an example of the document image direction correction processing in step S103 of FIG.

【0063】まず、入力機器から取り込んだ多値画像デ
ータを、ステップS101において、画像メモリに格納
する。次に、ステップS107において、全ての画像デ
ータについて処理したか否かを判断する。処理のはじめ
では、画像データの処理を開始したばかりなので、ステ
ップS102に進む。ステップS102において、画像
メモリに格納したデータの一部を取り出す。ステップS
103において、取り出した一部のデータを2値化す
る。そして、ステップS104において、2値化したモ
ノクロ画像から画像の正立方向を検出する。正立方向の
検出は、特願平11−009381号の明細書に記載さ
れた方法を用いる。
First, in step S101, the multivalued image data fetched from the input device is stored in the image memory. Next, in step S107, it is determined whether all image data has been processed. At the beginning of the process, since the process of the image data has just started, the process proceeds to step S102. In step S102, a part of the data stored in the image memory is extracted. Step S
At 103, some of the extracted data is binarized. In step S104, the erect direction of the image is detected from the binarized monochrome image. The detection of the erect direction uses the method described in the specification of Japanese Patent Application No. 11-00381.

【0064】次に、ステップS105において、画像の
正立方向が検出できたか否かを判断し、検出出来なけれ
ばステップS107に戻り、最初に取り出したデータ領
域と別のデータ領域、もしくは最初に取り出したデータ
領域+別のデータ領域を取り出して、再び、画像の正立
方向の向きを検出する。この処理は、画像の正立方向を
検出するまで繰り返し行う。ステップS105におい
て、方向検出が出来ず、画像のすべての領域に対して処
理しても方向検出できなければ、ステップS107にお
ける判断がYESとなり、処理を終了する。ステップS
105において、画像の正立方向を検出できたらステッ
プS106に進む。
Next, in step S105, it is determined whether or not the erect direction of the image has been detected. If the erect direction has not been detected, the process returns to step S107, and a data area different from the first data area or the first data area has The data area + another data area is taken out, and the orientation of the image in the erect direction is detected again. This process is repeated until the erect direction of the image is detected. In step S105, if the direction cannot be detected and the direction cannot be detected even when processing is performed on all regions of the image, the determination in step S107 is YES, and the process ends. Step S
If the erect direction of the image can be detected in 105, the process proceeds to step S106.

【0065】ステップS106では、ステップS104
において検出した画像の正立方向に基づいて、ステップ
S101で格納した多値のカラー画像を補正する。
In step S106, step S104
The multi-valued color image stored in step S101 is corrected based on the erect direction of the image detected in.

【0066】以上の処理により、多値で入力した文書画
像を正立方向に補正することができる。
With the above processing, a multi-valued input document image can be corrected in the erect direction.

【0067】図18は、図16のステップS105にお
ける文書画像結合処理の一例を示すフローチャートであ
る。
FIG. 18 is a flowchart showing an example of the document image combining process in step S105 of FIG.

【0068】まず、ステップS201において、1枚目
の画像を取り込む。ステップS202において、取り込
んだ1枚目の画像データを画像メモリに格納する。そし
て、ステップS217において、全ての画像データを処
理したか否かを判断し、全ての画像データについて、既
に処理している場合には、方向検出が出来なかったとし
て処理を終了する。ステップS217において、まだ、
全ての画像データについて処理を行っていない場合に
は、ステップS203において、格納した画像データの
一部を取り出す。そして、ステップS204において、
取り出した一部の画像データを2値化する。そして、ス
テップS205において、2値化したモノクロ画像から
画像の正立方向を検出する。ステップS206におい
て、画像の正立方向を検出できたか否かを判断し、検出
できなかった場合にはステップS217に戻る。ステッ
プS206において、方向検出が出来たと判断された場
合には、ステップS207において、2値画像を正立方
向に補正して、ステップS215に進む。
First, in step S201, the first image is captured. In step S202, the captured first image data is stored in the image memory. Then, in step S217, it is determined whether or not all the image data has been processed. If all of the image data has already been processed, the process ends because the direction cannot be detected. In step S217,
If the processing has not been performed for all the image data, a part of the stored image data is extracted in step S203. Then, in step S204,
The extracted part of the image data is binarized. Then, in step S205, the erect direction of the image is detected from the binarized monochrome image. In step S206, it is determined whether the erect direction of the image has been detected. If the erect direction has not been detected, the process returns to step S217. If it is determined in step S206 that the direction has been detected, the binary image is corrected in the erect direction in step S207, and the process proceeds to step S215.

【0069】次に、1枚目の画像がすべて取り込み終わ
った後に、ステップS208において2枚目の画像を取
り込む。ステップS209において、取り込んだ2枚目
の画像データを画像メモリに格納する。次に、ステップ
S218において、全ての画像データを処理したか否か
を判断し、全ての画像データについて処理し終わった場
合には、2枚目の画像について正立方向が検出できなか
ったとして、処理を終了する。ステップS218におい
て、まだ、全ての画像データを処理していないと判断さ
れた場合には、ステップS210に進み、画像メモリに
保存されている画像データの一部を取り出し、ステップ
S211において、2値化する。そして、ステップS2
12において、方向検出を行い、ステップS213にお
いて、方向検出が成功したか否かを判断する。方向検出
が失敗した場合には、ステップS218に戻って、ステ
ップS210からステップS213までの処理を繰り返
す。ステップS213において、方向検出が成功したと
判断された場合には、ステップS214において、2値
画像を正立方向に補正する。そして、ステップS207
とステップS214で得られた正立方向に補正された2
値画像を使って、ステップS215において、重なり位
置を検出する。そして、ステップS219において、重
なり位置が検出できたか否かを判断し、検出できない場
合には、処理を終了する。ステップS219において、
重なり位置が検出できた場合には、ステップS216に
進む。
Next, after all the first images have been captured, the second image is captured in step S208. In step S209, the captured second image data is stored in the image memory. Next, in step S218, it is determined whether or not all image data has been processed. If processing has been completed for all image data, it is determined that the erect direction cannot be detected for the second image. The process ends. If it is determined in step S218 that all image data has not been processed, the process proceeds to step S210, where a part of the image data stored in the image memory is extracted, and in step S211 the binarization is performed. I do. Then, step S2
At 12, the direction is detected, and at step S213, it is determined whether or not the direction detection is successful. If the direction detection has failed, the process returns to step S218, and the processes from step S210 to step S213 are repeated. If it is determined in step S213 that the direction detection has been successful, the binary image is corrected in the erect direction in step S214. Then, step S207
And 2 corrected in the erect direction obtained in step S214.
In step S215, the overlapping position is detected using the value image. Then, in step S219, it is determined whether or not the overlap position has been detected. If the overlap position has not been detected, the process ends. In step S219,
If the overlap position has been detected, the process proceeds to step S216.

【0070】ステップS202にて格納した1枚目の画
像データ、ステップS205にて検出した1枚目の画像
の正立方向、ステップS209にて格納した2枚目の画
像データ、ステップS212にて検出した2枚目の画像
の正立方向、ステップS215にて検出した2つの画像
の重なり位置を、ステップS216の補正処理に使用す
る。ステップS216において、入力した2つの画像
を、検出した画像の正立方向に補正しながら、検出した
重なり位置で結合する。
The first image data stored in step S202, the erect direction of the first image detected in step S205, the second image data stored in step S209, and the detection in step S212 The erect direction of the second image thus obtained, and the overlapping position of the two images detected in step S215 are used for the correction processing in step S216. In step S216, the two input images are combined at the detected overlapping position while correcting the detected images in the erect direction.

【0071】以上の処理により、多値で入力した2枚の
文書画像を自動的に結合することが出来る。
By the above processing, two document images input in multi-value can be automatically combined.

【0072】図19は、本発明の実施形態をプログラム
で実現する場合のプログラムを実行させるためのハード
ウェア環境を示す図である。
FIG. 19 is a diagram showing a hardware environment for executing a program when the embodiment of the present invention is realized by a program.

【0073】電源投入時、CPU21は、バス20を介
して、ROM22からBIOSなどを読み込み、入出力
機器30、通信インターフェース24、記録媒体読み取
り装置28、記憶装置27、及びRAM23の制御を行
う。
When the power is turned on, the CPU 21 reads the BIOS and the like from the ROM 22 via the bus 20, and controls the input / output device 30, the communication interface 24, the recording medium reader 28, the storage device 27, and the RAM 23.

【0074】本実施形態を実現するプログラムは、コン
ピュータ31を本発明の実施形態の実現に専用に使用す
る場合には、ROM22に記憶しておき、CPU21が
当該プログラムを読み込んで、実行するようにする。
When the computer 31 is used exclusively for realizing the embodiment of the present invention, the program for realizing the present embodiment is stored in the ROM 22 so that the CPU 21 reads and executes the program. I do.

【0075】あるいは、当該プログラムを、ハードディ
スクなどの記憶装置27に記録しておき、必要に応じて
RAM23に展開し、CPU21が実行する様にしても
良い。また、当該プログラムがフロッピーディスクや、
CD−ROM、DVDなどの可搬記録媒体29によって
頒布される場合には、ユーザは、可搬記録媒体29に記
録された当該プログラムを購入し、記録媒体読み取り装
置28で読み取り、記憶装置27に格納して使用する様
にしても良い。あるいは、可搬記録媒体29から直接R
AM23に読み込みながら、CPU21が順次当該プロ
グラムを実行する様にしても良い。
Alternatively, the program may be recorded in a storage device 27 such as a hard disk, expanded as necessary in the RAM 23, and executed by the CPU 21. Also, if the program is a floppy disk,
When the program is distributed on a portable recording medium 29 such as a CD-ROM or a DVD, the user purchases the program recorded on the portable recording medium 29, reads the program with the recording medium reading device 28, and stores the program in the storage device 27. It may be stored and used. Alternatively, R
The CPU 21 may sequentially execute the program while reading the program into the AM 23.

【0076】本発明の実施形態を実施する場合には、入
出力装置30は、通常の、キーボードやマウス、ディス
プレイの他に、画像読み取り装置であるスキャナや、画
像出力装置(プリンタなど)を備えている必要がある。
ただし、コンピュータ31を画像取得専用、あるいは、
画像出力専用とする場合には、スキャナあるいは画像出
力装置のいずれかのみを備えている構成でも良い。入出
力装置30のスキャナから読み込まれた画像データは、
可搬記録媒体29、記憶装置27、あるいは、ROM2
2に記録されている当該プログラムを実行することによ
り処理され、入出力装置30に設けられる画像出力装置
から出力される。また、スキャナによって取り込まれた
画像データを、通信インターフェース24を介してネッ
トワーク25に送出し、ネットワーク25で接続される
他のユーザに画像データを送るようにしても良い。この
他のユーザは、コンピュータ31と同等の装置を有して
おり、送信されてきた画像データを処理して、画像出力
装置から画像を出力させる。
In implementing the embodiment of the present invention, the input / output device 30 includes a scanner, which is an image reading device, and an image output device (such as a printer) in addition to a normal keyboard, mouse, and display. Need to be.
However, the computer 31 is dedicated to image acquisition, or
In the case of exclusive use for image output, a configuration including only one of the scanner and the image output device may be employed. The image data read from the scanner of the input / output device 30 is
Portable recording medium 29, storage device 27, or ROM2
The program is processed by executing the program recorded in the input / output device 2 and is output from an image output device provided in the input / output device 30. Further, the image data captured by the scanner may be transmitted to the network 25 via the communication interface 24, and the image data may be transmitted to another user connected via the network 25. The other user has a device equivalent to the computer 31, processes the transmitted image data, and causes the image output device to output an image.

【0077】また、本発明の実施形態を実現するプログ
ラムは、通信インターフェース24に接続されるネット
ワーク25を介して、情報提供者26からダウンロード
して、取得することも可能である。ダウンロードされた
当該プログラムは、記憶装置27等に記憶され、必要に
応じてCPU21が、RAM23に展開された当該プロ
グラムを実行することにより、本発明の実施形態を実現
することができる。また、ネットワーク25がLANな
どである場合、当該プログラムをダウンロードすること
なく、ネットワーク環境下で実行することも可能であ
る。
A program for implementing the embodiment of the present invention can be downloaded from an information provider 26 via a network 25 connected to the communication interface 24 and acquired. The downloaded program is stored in the storage device 27 or the like, and the CPU 21 executes the program expanded in the RAM 23 as necessary, whereby the embodiment of the present invention can be realized. When the network 25 is a LAN or the like, the program can be executed in a network environment without downloading.

【0078】[0078]

【発明の効果】本発明によれば、ハンドヘルドスキャナ
を用いて縦横どちらの方向から入力した多値の文書画像
でも、自動的に正立方向に補正することができる。ま
た、スキャナ幅を越える文書であっても、複数回に分け
て画像を入力すれば、自動的に1枚の文書画像に合成す
ることができる。
According to the present invention, a multi-valued document image input from either the vertical or horizontal direction using a hand-held scanner can be automatically corrected in the erect direction. Further, even if the document exceeds the width of the scanner, the image can be automatically combined into one document image by inputting the image in a plurality of times.

【0079】更に、入力した多値画像を2値化し、2値
化した画像から文書方向、重なり位置を検出するため、
処理に必要なメモリ量を抑え、かつ高速に処理すること
ができる。
Further, in order to binarize the input multi-valued image and detect the document direction and the overlapping position from the binarized image,
The amount of memory required for processing can be reduced and processing can be performed at high speed.

【0080】従って、本発明はハンドヘルドスキャナに
よる画像入力の操作性およびユーザインターフェースの
改善に寄与するところが大きい。
Therefore, the present invention greatly contributes to improvement of operability of image input by the handheld scanner and improvement of the user interface.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明する図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】閾値の求め方の一例を示す図(その1)であ
る。
FIG. 2 is a diagram (part 1) illustrating an example of how to determine a threshold.

【図3】閾値の求め方の一例を示す図(その2)であ
る。
FIG. 3 is a diagram (part 2) illustrating an example of how to obtain a threshold.

【図4】文字方向の補正処理を説明する図(その1)で
ある。
FIG. 4 is a diagram (part 1) for explaining a character direction correction process;

【図5】文字方向の補正処理を説明する図(その2)で
ある。
FIG. 5 is a diagram (part 2) for explaining a character direction correction process;

【図6】文字方向の補正処理を説明する図(その3)で
ある。
FIG. 6 is a diagram (part 3) for explaining a character direction correction process;

【図7】文字方向検出後の文書変換の様子を説明する図
(その1)である。
FIG. 7 is a diagram (part 1) illustrating a state of document conversion after character direction detection.

【図8】文字方向検出後の文書変換の様子を説明する図
(その2)である。
FIG. 8 is a diagram (part 2) for explaining the state of document conversion after character direction detection.

【図9】画像の重なり補正及び方向補正の処理を説明す
る図である。
FIG. 9 is a diagram for explaining processing of image overlap correction and direction correction.

【図10】画像の重なり補正及び方向補正の処理を説明
する図(その1)である。
FIG. 10 is a diagram (part 1) for explaining processing of image overlap correction and direction correction;

【図11】画像の重なり補正及び方向補正の処理を説明
する図(その2)である。
FIG. 11 is a diagram (part 2) for explaining processing of image overlap correction and direction correction;

【図12】画像の重なり補正及び方向補正の処理を説明
する図(その3)である。
FIG. 12 is a diagram (part 3) for explaining processing of image overlap correction and direction correction;

【図13】画像の重なり補正及び方向補正の処理を説明
する図(その4)である。
FIG. 13 is a diagram (part 4) for explaining the process of image overlap correction and direction correction;

【図14】画像の重なり補正及び方向補正の処理を説明
する図(その5)である。
FIG. 14 is a diagram (No. 5) for explaining the processing of image overlap correction and direction correction;

【図15】多値画像を方向補正及び文書結合する処理装
置の構成例を示す図である。
FIG. 15 is a diagram illustrating a configuration example of a processing device that performs direction correction and document combination of a multivalued image.

【図16】本発明の実施形態の全体の処理を示すフロー
チャートである。
FIG. 16 is a flowchart illustrating an overall process according to the embodiment of the present invention.

【図17】図16のステップS103の文書画像方向補
正処理の一例を示すフローチャートである。
17 is a flowchart illustrating an example of a document image direction correction process in step S103 of FIG.

【図18】図16のステップS105における文書画像
結合処理の一例を示すフローチャートである。
FIG. 18 is a flowchart illustrating an example of a document image combining process in step S105 of FIG.

【図19】本発明の実施形態をプログラムで実現する場
合のプログラムを実行させるためのハードウェア環境を
示す図である。
FIG. 19 is a diagram illustrating a hardware environment for executing a program when the embodiment of the present invention is implemented by the program.

【符号の説明】[Explanation of symbols]

10 入力機器 11 2値化処理部 12 方向検出/重なり位置検出部 13 画像メモリ 14 カラー画像補正処理部 15 画像出力部 Reference Signs List 10 input device 11 binarization processing unit 12 direction detection / overlapping position detection unit 13 image memory 14 color image correction processing unit 15 image output unit

フロントページの続き (72)発明者 野田 嗣男 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 Fターム(参考) 5B057 CA01 CA08 CA12 CB01 CB06 CB08 CB12 CD03 CE09 CE10 CH01 CH11 DA07 DB02 DB06 DB09 5C076 AA11 AA19 AA24 AA36 BA03 BA06 5C077 LL18 MM18 MP08 NP01 PP22 PP23 PP32 PQ12 PQ22 RR02Continuation of the front page (72) Inventor Tsuguo Noda 4-1-1, Kamidadanaka, Nakahara-ku, Kawasaki-shi, Kanagawa F-term within Fujitsu Limited (Reference) 5B057 CA01 CA08 CA12 CB01 CB06 CB08 CB12 CD03 CE09 CE10 CH01 CH11 DA07 DB02 DB06 DB09 5C076 AA11 AA19 AA24 AA36 BA03 BA06 5C077 LL18 MM18 MP08 NP01 PP22 PP23 PP32 PQ12 PQ22 RR02

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】取得された画像データを2値化する2値化
手段と、 該2値化手段によって2値化された2値画像データから
補正情報を生成する補正情報生成手段と、 該補正情報生成手段によって得られた補正情報に基づい
て、該画像取得手段によって取得された多値画像の画像
データを補正する補正手段と、を備えることを特徴とす
る装置。
1. Binarization means for binarizing acquired image data, correction information generation means for generating correction information from binary image data binarized by the binarization means, A correction unit configured to correct the image data of the multi-valued image obtained by the image obtaining unit based on the correction information obtained by the information generation unit.
【請求項2】前記補正情報は、前記画像データが正立の
状態に対して、どの方向を向いているかを示す方向情報
であり、前記補正手段は、画像の方向を補正することを
特徴とする請求項1に記載の装置。
2. The image forming apparatus according to claim 1, wherein the correction information is direction information indicating a direction of the image data with respect to an erect state, and the correction unit corrects an image direction. The apparatus of claim 1, wherein:
【請求項3】前記補正情報は、1つの画像が複数の画像
データに分割された場合の、該複数の画像データ間の重
なり状態を示す重なり位置情報であり、前記補正手段
は、画像の結合を行うことを特徴とする請求項1に記載
の装置。
3. The image forming apparatus according to claim 1, wherein the correction information is overlapping position information indicating an overlapping state between the plurality of image data when one image is divided into a plurality of image data. The apparatus according to claim 1, wherein:
【請求項4】前記2値化手段は、前記画像データの色成
分の内、少なくとも1つ以上の成分が、所定の閾値を越
えるか否かを決定することによって、前記2値画像デー
タを生成することを特徴とする請求項1に記載の装置。
4. The binarizing means generates the binary image data by determining whether at least one of the color components of the image data exceeds a predetermined threshold. The device of claim 1, wherein
【請求項5】前記2値化手段は、前記画像データの色成
分の内、少なくとも2つ以上の成分が、所定の閾値を越
えるか否かを決定することによって、前記2値画像デー
タを生成することを特徴とする請求項1に記載の装置。
5. The binarizing means generates the binary image data by determining whether at least two or more of the color components of the image data exceed a predetermined threshold value. The device of claim 1, wherein
【請求項6】前記2値化手段は、前記画像データの輝度
成分を抽出し、該画像データの該輝度成分が所定の閾値
より大きいか否かを決定することにより、前記2値化画
像データを生成することを特徴とする請求項1に記載の
装置。
6. The binarized image data by extracting a luminance component of the image data and determining whether or not the luminance component of the image data is larger than a predetermined threshold value. The apparatus according to claim 1, wherein the apparatus generates:
【請求項7】前記補正情報生成手段は、前記画像データ
の一部に対応する2値画像データについて補正情報を生
成し、この補正情報を用いて該画像データの全体を補正
することを特徴とする請求項1に記載の装置。
7. The apparatus according to claim 1, wherein said correction information generating means generates correction information for binary image data corresponding to a part of said image data, and corrects the entire image data using said correction information. The apparatus of claim 1, wherein:
【請求項8】(a)取得された画像データを2値化する
ステップと、 (b)該ステップ(a)において2値化された2値画像
データから補正情報を生成するステップと、(c)該ス
テップ(b)において得られた補正情報に基づいて、該
画像取得手 段によって取得された多値画像の画像データを補正する
ステップと、を備えることを特徴とする方法。
8. A step of: (a) binarizing the acquired image data; (b) generating correction information from the binary image data binarized in the step (a); Correcting the image data of the multi-valued image obtained by the image obtaining means based on the correction information obtained in the step (b).
【請求項9】コンピュータに、 (a)取得された画像データを2値化するステップと、 (b)該ステップ(a)において2値化された2値画像
データから補正情報を生成するステップと、 (c)該ステップ(b)において得られた補正情報に基
づいて、該画像取得手段によって取得された多値画像の
画像データを補正するステップと、を備えることを特徴
とする方法を実現させるプログラムを記録した、コンピ
ュータ読み取り可能な記録媒体。
9. A computer comprising: (a) binarizing acquired image data; and (b) generating correction information from the binary image data binarized in step (a). And (c) correcting the image data of the multi-valued image obtained by the image obtaining means based on the correction information obtained in the step (b). A computer-readable recording medium on which a program is recorded.
JP30469699A 1999-10-26 1999-10-26 Device and method for correcting document image Pending JP2001127977A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30469699A JP2001127977A (en) 1999-10-26 1999-10-26 Device and method for correcting document image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30469699A JP2001127977A (en) 1999-10-26 1999-10-26 Device and method for correcting document image

Publications (1)

Publication Number Publication Date
JP2001127977A true JP2001127977A (en) 2001-05-11

Family

ID=17936127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30469699A Pending JP2001127977A (en) 1999-10-26 1999-10-26 Device and method for correcting document image

Country Status (1)

Country Link
JP (1) JP2001127977A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015174208A1 (en) * 2014-05-12 2017-04-20 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Image recognition apparatus and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015174208A1 (en) * 2014-05-12 2017-04-20 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Image recognition apparatus and control method thereof

Similar Documents

Publication Publication Date Title
US6347156B1 (en) Device, method and storage medium for recognizing a document image
JP4228530B2 (en) Image processing method and image processing apparatus
US6798906B1 (en) Image processing apparatus and method including line segment data extraction
JP2001043310A (en) Device and method for correcting document picture
JP2013042415A (en) Image processing apparatus, image processing method, and computer program
US6944340B1 (en) Method and apparatus for efficient determination of recognition parameters
JP2009032299A (en) Document image processing method, document image processor, document image processing program, and storage medium
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP5870745B2 (en) Image processing apparatus, binarization threshold value calculation method, and computer program
JP4582200B2 (en) Image processing apparatus, image conversion method, and computer program
JP2000022934A (en) Image processor
US20030095270A1 (en) Method and apparatus for adaptively binarizing color document images
JP2003337941A (en) Device and method for image recognition, and program
JP4693289B2 (en) Image compression apparatus, image compression method, program code, and storage medium
JP2001127977A (en) Device and method for correcting document image
US6961465B2 (en) System and method for efficient determination of recognition initial conditions
JP2005182098A (en) Device and method for generating and displaying composite image
JP5337844B2 (en) Region detection apparatus, region detection method, and program
JP2007295210A (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JP2002077631A (en) Image compression apparatus, image expansion apparatus, its method and recording medium
JP3358133B2 (en) Image processing device
JP2522310B2 (en) Optical character reader
JP4230478B2 (en) Document processing apparatus, method and program
TWI446277B (en) System and method for comparing images and deleting acceptable errors
JP2021061564A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051202

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20051219

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060106