JP4629718B2 - Boundary detection method, program, and image processing apparatus - Google Patents

Boundary detection method, program, and image processing apparatus Download PDF

Info

Publication number
JP4629718B2
JP4629718B2 JP2007293115A JP2007293115A JP4629718B2 JP 4629718 B2 JP4629718 B2 JP 4629718B2 JP 2007293115 A JP2007293115 A JP 2007293115A JP 2007293115 A JP2007293115 A JP 2007293115A JP 4629718 B2 JP4629718 B2 JP 4629718B2
Authority
JP
Japan
Prior art keywords
image
boundary
pixel
frequency component
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007293115A
Other languages
Japanese (ja)
Other versions
JP2008052758A (en
Inventor
真一 江口
直子 鈴木
裕 勝又
浩一 金元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fujitsu Frontech Ltd
Original Assignee
Fujitsu Ltd
Fujitsu Frontech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fujitsu Frontech Ltd filed Critical Fujitsu Ltd
Priority to JP2007293115A priority Critical patent/JP4629718B2/en
Publication of JP2008052758A publication Critical patent/JP2008052758A/en
Application granted granted Critical
Publication of JP4629718B2 publication Critical patent/JP4629718B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理技術に関し、特に、画像上の領域の特徴が変化する位置を検出する画像処理技術に関する。   The present invention relates to an image processing technique, and more particularly to an image processing technique for detecting a position where a feature of a region on an image changes.

原稿(例えば紙媒体など)を読み取ることのできる装置として、スキャナやコピー機などの、光学式に読み取りを行なう画像読取装置が知られている。このような画像読取装置における原稿画像の読み取りは一般に、画像読取装置の読み取り面に向けて原稿の表面(読取対象面)がセットされ、その原稿の背面から、原稿を覆う原稿カバーが被せられた状態で、読み取りが行なわれる。   As an apparatus that can read a document (for example, a paper medium), an image reading apparatus that performs optical reading, such as a scanner or a copier, is known. In order to read a document image in such an image reading apparatus, the surface of the document (read target surface) is generally set toward the reading surface of the image reading apparatus, and a document cover covering the document is covered from the back of the document. In the state, a reading is performed.

そして、画像の読み取りに際しては、セットされた原稿表面に向けて読み取り面側から光を照射し、反射してきた光を読み取り面側に構成された光読み取り部(CCD)で読み取ることを一ライン単位で行ない、このように読み取った原稿表面の情報を電気信号に変換することにより、原稿の画像データを取得している。   When reading an image, light is emitted from the reading surface toward the set document surface, and the reflected light is read by a light reading unit (CCD) configured on the reading surface. The image data of the document is obtained by converting the information on the surface of the document read in this way into an electrical signal.

原稿の大きさが読み取り面よりも小さい場合には、読み取り面側から見た原稿の周りに原稿カバーの裏面側(原稿カバーの読み取り面側であり、原稿の背景となりうるので、以下、背景板と呼ぶこととする。)が現れてしまい、画像読み取り時には原稿の表面に加えてこの背景板も読み取られることとなるため、当然、取得される画像データは、原稿周りに背景板が写りこんだものとなる。   When the size of the document is smaller than the reading surface, the back side of the document cover around the document viewed from the reading surface side (the reading surface side of the document cover is the background of the document. When the image is read, this background plate is also read in addition to the surface of the document. Naturally, the acquired image data includes a background plate around the document. It will be a thing.

そして、このように取得された画像データは、例えば、印字部によって印字されて紙出力されることに利用されたり、画像編集部に送られて画像データ内の部分的な切り抜きや画像データの回転補正等がなされ、さらには、画像データ中の文字領域のOCR処理に利用され、または画像データのままデータベースに保存されたりするなど様々な方面に活用されていく。しかし、このような活用、特に前述した活用においては顕著に表れるが、画像データにおける、原稿以外の背景板の写り込みは様々な問題を引き起こす。   The image data acquired in this way is used, for example, to be printed by a printing unit and output to paper, or sent to the image editing unit to cut out a part of the image data or rotate the image data. Correction is performed, and further, it is used for OCR processing of a character area in image data, or is stored in a database as it is, and is used in various fields. However, in such utilization, particularly in the above-described utilization, the reflection of the background plate other than the original in the image data causes various problems.

そして、このような問題を解決する技術も各方面において開示されてはいるが、何れも汎用的に利用できる技術には値しない。
特開平5−110779号公報 特開平7−115514号公報
Although techniques for solving such problems have been disclosed in various fields, none of them is a technique that can be used for general purposes.
Japanese Patent Laid-Open No. 5-110779 JP 7-115514 A

開示されている技術の一つに、取得した画像データをOCR処理したり、電子ファイルとしてデータベースに保存したりすることを対象に開発された技術がある。
一般に、OCR処理を施す対象の原稿としては、帳票のように印字位置が一定の定型文書が利用され、データ化された定型文書画像のOCR処理を施す際は、定型文書画像を適宜回転補正するなどし、定型文書画像の基準位置(例えば定型文書画像の上端左端の位置)からどの位置に印字位置が位置するかを予め設定しておけば、対象の定型文書画像から印字位置を特定して、その特定した位置に対するOCR処理によって文字認識を行ない、所望の文字情報を取り出すことが可能となる。
One of the disclosed techniques is a technique developed for subjecting acquired image data to OCR processing or storing it in a database as an electronic file.
In general, as a document to be subjected to OCR processing, a standard document having a fixed printing position such as a form is used. When performing OCR processing of a standardized document image that has been converted to data, the standard document image is appropriately rotated and corrected. If the print position is set in advance from the reference position of the standard document image (for example, the position of the upper left end of the standard document image), the print position is specified from the target standard document image. Character recognition is performed by OCR processing for the specified position, and desired character information can be extracted.

帳票のような原稿の縁は一般に白い余白を有するものが多く、同色またはそれに近い色の背景板を使用して、読み取り面よりも小さい原稿に対する画像データを取得すると、取得された画像データは原稿のエッジと背景板の境界を有しない、その境界付近では白一色の画像データが生成される。   The edges of a document such as a form generally have white margins. When image data for a document smaller than the reading surface is acquired using a background plate of the same color or a color similar to that, the acquired image data is the document. No white boundary image data is generated in the vicinity of the boundary between the edge and the background plate.

この画像データにおいて上記OCR処理を行なうためには、この画像データに原稿がどのような状態(角度や配置)で写り込んでいるのか特定する必要が生じる。
しかし、原稿のエッジは背景板と同色のため検出できない。
In order to perform the OCR process on the image data, it is necessary to specify in what state (angle or arrangement) the document is reflected in the image data.
However, the edge of the document cannot be detected because it is the same color as the background plate.

そこで、これを解決する技術として、この画像データに写り込んでいる原稿の状態の指標となる画像データのエッジを検出できるように、背景板の色を黒にすることで、白い余白を縁に有する原稿の角度や配置を特定して、原稿の読み取りを行なわせるようにしている。   Therefore, as a technique for solving this problem, the white color of the background plate is set to black so that the edge of the image data serving as an index of the state of the original in the image data can be detected. By specifying the angle and arrangement of the original, the original is read.

しかし、このような方法を用いなければならない画像読取装置においては、汎用的でない特殊用途向きのものに使用されているため、非常に高価なものとなってしまうということや、背景板が黒であるため、厚みの薄い白色の原稿においては、背景板の黒色が透けてしまい、読み取った画像データの例えば文字などが判別しにくくなるという欠点がある。   However, since the image reading apparatus that must use such a method is used for a special purpose that is not general-purpose, it becomes very expensive and the background plate is black. For this reason, in a thin white original, the black background plate is transparent, and it is difficult to distinguish, for example, characters in the read image data.

また、その他に開示されている技術としては、コピー機などに適用される原稿の大きさと同じ大きさで紙出力させるための技術がある。
これは、上述したように背景板を黒に変更するものとは異なり、背景板のRGB配列を恣意的に組替え操作して、コピー品質に影響を与えない程度の白色を背景板に構成させたものである。
As another disclosed technique, there is a technique for outputting paper with the same size as a document applied to a copier or the like.
Unlike the case where the background plate is changed to black as described above, the background plate is configured to have a white color that does not affect the copy quality by arbitrarily rearranging the RGB arrangement of the background plate. Is.

当然、そのRGB配列の組替え情報を認識しているため、画素一つ一つを判定することにより配列の異なるものと区別することが可能で、原稿の大きさを特定できるようになる。   Naturally, since the recombination information of the RGB arrangement is recognized, it is possible to distinguish from the different arrangement by determining each pixel, and the size of the original can be specified.

しかし、この場合においても、予め背景板のRGB配列情報を有した専用の画像読取装置でしか実現できないため、汎用途には向かない技術であった。
また、何れの技術も、画像を読み取る時点で細工をし、読み込んだ画像から原稿のエッジを特定しており、画像を読み込んだ後の画像処理のみで原稿のエッジを検出できるものはない。
However, even in this case, since it can be realized only by a dedicated image reading apparatus having the RGB array information of the background plate in advance, the technique is not suitable for general purpose.
In any of the techniques, the edge of the document is specified from the read image by crafting at the time of reading the image, and there is nothing that can detect the edge of the document only by image processing after the image is read.

そこで本方法、プログラム、及び画像処理装置は、上記課題を解決するために、原稿と背景板との任意の組み合わせにおいて読み取られた画像データから原稿のエッジを検出する、境界検出方法、プログラム、及び画像処理装置を提供することを目的とする。   Accordingly, in order to solve the above problems, the present method, program, and image processing apparatus detect a document edge from image data read in an arbitrary combination of a document and a background plate, a boundary detection method, a program, and An object is to provide an image processing apparatus.

開示の境界検出方法は、画像読み取り手段により読み取られる画像データの水平及び垂直方向に複数の画素を有する領域毎に前記画像データの周波数成分を抽出し、抽出した各領域の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として仮決定し、前記領域より狭い、境界として仮決定した画素を含む画素列と前記画素列の前後の所定数の画素列の周波数成分を抽出し、抽出した複数の前記画素列の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として決定する。   In the disclosed boundary detection method, the frequency component of the image data is extracted for each region having a plurality of pixels in the horizontal and vertical directions of the image data read by the image reading means, and the amount of change in the frequency component of each extracted region is calculated. Find the peak of the change amount of the frequency component, apply linear approximation to the detected peak, provisionally determine a plurality of pixels on the approximate straight line obtained by linear approximation as a boundary, Extract the frequency components of the pixel column including the tentatively determined pixel and a predetermined number of pixel columns before and after the pixel column, determine the amount of change in the frequency components of the plurality of extracted pixel columns, and determine the peak of the frequency component change amount Are detected, linear approximation is performed on the detected peak, and a plurality of pixels on the approximate straight line obtained by the linear approximation are determined as boundaries.

本プログラムの態様の一つは、画像データ上の任意の隣り合う領域において、互いに特徴の異なる領域間の境界を検出することをコンピュータに実行させることを前提とし、該画像データ上の単位領域毎に、該単位領域内の全画素によって決まる特徴情報を抽出する機能と、任意の該単位領域を基準に、隣接する該単位領域との該特徴情報の差を求める機能と、該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する機能と、を実現させる。   One of the aspects of this program is that each unit region on the image data is premised on having the computer execute detection of boundaries between regions having different characteristics in any adjacent region on the image data. A function for extracting feature information determined by all the pixels in the unit region, a function for obtaining a difference in the feature information from the adjacent unit region with respect to any unit region, and the difference is at least predetermined. And a function of determining the reference unit region that is equal to or higher than the level as the boundary.

また、本プログラムのその他の態様の一つは、画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出することをコンピュータに実行させることを前提とし、該画像データの単位領域毎に、画像周波数情報を抽出する機能と、該単位領域毎に、該抽出した画像周波数情報に基づく代表特徴情報を決定する機能と、任意の該単位領域を基準に、隣接する該単位領域との該代表特徴情報の差を求める機能と、該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する機能と、を実現させる。   Another aspect of the present program is based on the premise that the computer executes detection of boundaries between regions having different pixel arrangements in arbitrary adjacent regions on the image data. A function for extracting image frequency information for each unit area, a function for determining representative feature information based on the extracted image frequency information for each unit area, and the adjacent adjacent ones based on the arbitrary unit area The function of obtaining the difference of the representative feature information from the unit area and the function of determining the reference unit area as the boundary at which the difference is at least a predetermined level are realized.

本画像処理装置の態様の一つは、画像データ上の任意の隣り合う領域において、互いに特徴の異なる領域間の境界を検出することを前提とし、該画像データ上の単位領域毎に、該単位領域内の全画素によって決まる特徴情報を抽出する特徴強調手段と、任意の該単位領域を基準に、隣接する該単位領域との該特徴情報の差を求め、該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する境界決定手段と、を有する。   One aspect of the present image processing apparatus is based on the premise that a boundary between regions having different characteristics is detected in any adjacent region on the image data, and for each unit region on the image data, the unit A feature enhancement unit that extracts feature information determined by all the pixels in the region and a difference between the feature information between the adjacent unit regions with respect to an arbitrary unit region, and the difference is at least a predetermined level or more Boundary determining means for determining the reference unit region as the boundary.

また、本画像処理装置のその他の態様の一つは、画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出することを前提とし、該画像データの単位領域毎に画像周波数情報を抽出する特徴強調手段と、該単位領域毎に、該抽出した画像周波数情報に基づく代表特徴情報を決定し、任意の該単位領域を基準に、隣接する該単位領域との該代表特徴情報の差を求め、該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する境界決定手段と、を有する。   Another aspect of the present image processing apparatus is based on the premise that a boundary between regions having different pixel arrangements is detected in any adjacent region on the image data, and for each unit region of the image data. Characteristic enhancement means for extracting image frequency information in the unit, and representative feature information based on the extracted image frequency information is determined for each unit region, and the adjacent unit region is determined based on any unit region. Boundary determining means for determining a difference between representative feature information and determining the reference unit region as the boundary, at which the difference is at least a predetermined level or more.

また、原稿を光学式に読み取って該原稿の前記画像データを生成する画像読取手段を、さらに有する、ように構成してもよい。   Further, it may be configured to further include image reading means for optically reading a document and generating the image data of the document.

本方法、プログラム、及び画像処理装置では、画像データ上の単位領域毎に、その単位画素の全体として決まる画像周波数などの特徴情報を抽出するので、その画像データに仮に表面の状態の異なる二つの紙が写り込んでいるとすれば、その二つの紙が同色であっても、その状態の違いを異なる特徴情報として抽出することができる。   In the present method, program, and image processing apparatus, feature information such as an image frequency determined as a whole of the unit pixel is extracted for each unit region on the image data, so that two different surface states are temporarily included in the image data. If paper is reflected, even if the two papers are the same color, the difference in the state can be extracted as different feature information.

そして、そのように抽出した特徴情報を使って隣接領域間の変化量を求めれば、表面の状態が異なる上記二つの紙の境界で変化量が増大するので、画像上における変化量のその増大位置を二つの紙の境界として特定できる。   Then, if the amount of change between adjacent regions is obtained using the feature information extracted in this way, the amount of change increases at the boundary between the two papers having different surface states. Can be specified as the boundary between two papers.

以下、本発明の実施の形態について図を参照しながら詳細に説明する。
本発明の実施の形態における画像処理装置は、例えばスキャナやコピー機などに構成される、背景板(原稿を光読取面側に向けてセットする再に背面から原稿を押さえる、原稿背面と接する側の原稿カバーに構成される部材)を背に宛てて原稿画像の読み取りを行なう画像読取装置によって読み取られた、上記背景板の画像(以下、背景板画像と呼ぶこととする)を周囲に有する原稿画像(以下、枠付き原稿画像と呼ぶこととする)を対象に、上記枠付き原稿画像の原稿画像と背景板画像との境界検出を行なうこととする。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
An image processing apparatus according to an embodiment of the present invention includes, for example, a scanner, a copier, and the like. A document having a background image (hereinafter referred to as a background plate image) that is read by an image reading device that reads the document image with the back member facing the back of the document cover) For an image (hereinafter referred to as a framed document image), the boundary between the document image of the framed document image and the background plate image is detected.

そして、上記画像読取装置に読み取られる原稿は白色の余白領域を周囲に有し、背景板の色も余白領域と同様の白色であるものとする。
また、便宜上、上記原稿は矩形の紙を想定し、原稿の余白領域以外を、文字や罫線の印字されている印字領域が占有しているもの(例えば帳票など)とする。
The document read by the image reading apparatus has a white margin area around it, and the background plate has the same white color as the margin area.
For the sake of convenience, it is assumed that the original is rectangular paper, and the print area where characters and ruled lines are printed (for example, a form) occupies the area other than the margin area of the original.

図1は、本発明の実施の形態における画像処理装置のブロック図である。
同図に示す画像処理装置は、印字領域除外部100、特徴強調部102、エッジ仮決定部104、及びエッジ決定部106によって構成され、入力情報として枠付き原稿画像Aを受け取り、出力情報としてエッジ情報Bを出力する。
FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus shown in FIG. 1 includes a print area exclusion unit 100, a feature enhancement unit 102, an edge provisional determination unit 104, and an edge determination unit 106. The image processing apparatus receives a framed document image A as input information and outputs edge information as output information. Information B is output.

同図の枠付き原稿画像Aは、特に図示されていない上述した既知の画像読取装置によって原稿表面を画素単位で読み取り、それらの電気変換によって生成された画素毎のR(Red)、G(Green)、及びB(Blue)の濃度情報、またはルックアップテーブルによる管理に基づいた画像情報を有している。   The framed document image A shown in FIG. 1 is obtained by reading the surface of the document in units of pixels by the above-described known image reading device (not shown), and generating R (Red) and G (Green) for each pixel generated by electrical conversion thereof. ) And B (Blue) density information, or image information based on management by a lookup table.

ここで、上記各部の説明をする前に、この枠付き原稿画像の特徴を図2に従って説明しておく。
図2は、上述したように生成された図1の枠付き原稿画像Aを図示されていない表示装置(例えばモニタなど)の画像平面(水平方向をX軸、垂直方向をY軸とした、X−Y座標平面)上に表示させた場合の一例である。
Here, before describing each part, the characteristics of the framed document image will be described with reference to FIG.
2 shows an image plane of a display device (for example, a monitor or the like) not shown in FIG. 1 generated as described above, with the horizontal direction as the X axis and the vertical direction as the Y axis. It is an example when displayed on the (−Y coordinate plane).

同図の枠付き原稿画像Aは、以下の説明を分かり易くするために原稿の一辺(実際には枠付き原稿画像に示されないが、説明のため同図の破線で示す原稿画像の左端のエッジ)のみに着眼した画像で、図中の破線を境に、右側を原稿画像、左側を原稿外のために背景板の一部から読み取られた背景板画像としている。   The framed document image A in the figure is one side of the document for easy understanding of the following description (actually not shown in the framed document image, but the left edge of the document image indicated by the broken line in the figure for explanation) ), The right side is the original image on the right side of the broken line, and the left side is the background plate image read from a part of the background plate for the outside of the original.

ここで、文字や罫線や記号などが示される領域を、原稿の印字領域200とし、その印字領域200を取り囲む、原稿画像の余白部分を余白領域202とし、背景板画像の領域を背景板領域204と呼ぶこととする。   Here, an area where characters, ruled lines, symbols, and the like are shown is an original print area 200, a margin portion of the original image surrounding the print area 200 is a margin area 202, and a background board image area is a background board area 204. I will call it.

同図に示されるように画像中にエッジの影が写り込んでいる部分206においては、階調値の差が明確に検出できるため、エッジの位置の特定が可能である。
しかし、枠付き原稿画像から見て取る事のできない、エッジの影が写り込んでいない部分においては、同図からも明らかなように背景板の色と余白の色とが同色で、それらの境界の隣り合う画素間では色の差の生じない一続きのデータが形成されているため、エッジの位置の特定ができない。
As shown in the figure, in the portion 206 where the shadow of the edge is reflected in the image, the difference in the gradation value can be clearly detected, so that the position of the edge can be specified.
However, in the portion where the shadow of the edge that cannot be seen from the framed document image is not reflected, the background plate color and the margin color are the same color, as is apparent from the figure, and the border between these colors is adjacent. Since a series of data that does not cause a color difference between the matched pixels is formed, the position of the edge cannot be specified.

しかし、背景板の状態(例えば、表面が粗い状態、表面が滑らかな状態、または素材の種類によって他の素材との区別をする素材の状態など)と原稿の余白の状態(例えば、表面が粗い状態、表面が滑らかな状態、または素材の種類によって他の素材との区別をする素材の状態など)とは一般的に異なるため、その状態の違いを数種類の特徴量として抽出することに着目する、エッジ領域の特定方法が考えられる。   However, the state of the background plate (for example, the surface is rough, the surface is smooth, or the material is distinguished from other materials depending on the type of material) and the margin of the document (for example, the surface is rough) It is generally different from the state, smooth surface, or material state that differentiates from other materials depending on the type of material), so focus on extracting the difference in the state as several types of features A method for specifying the edge region is conceivable.

同図に示す拡大図208は、枠付き原稿画像Aの背景板領域204と余白領域202を股がってそれらの境界を含むように設定した矩形領域210と、その矩形領域近傍を対象に、上記状態の違いを示す如く彩度の強調を施した場合の、部分拡大画像を示している。   The enlarged view 208 shown in the figure is for a rectangular area 210 set to include the boundary between the background board area 204 and the margin area 202 of the framed document image A and the vicinity of the rectangular area. A partially enlarged image is shown when saturation enhancement is performed so as to show the difference in the state.

上記枠付き原稿画像Aに対して彩度の強調を施すことにより、余白領域202と背景板領域204の、上記状態の違いに基づくRGB配列パターンの相違が強調され、同図に示されるように、視覚的に、夫々の領域の違いによるそれらの境界を判別できるようになる。   By applying saturation enhancement to the framed document image A, the difference in RGB arrangement pattern based on the above-described difference between the blank area 202 and the background board area 204 is emphasized, as shown in FIG. Visually, it becomes possible to discriminate between the boundaries due to the difference of the respective areas.

この特徴に着目して、枠付き原稿画像において判別ができなかった原稿のエッジを検出し、その画像上の原稿領域と背景板領域との区別を可能にする画像処理装置の各部について、図2の枠付き原稿画像Aを参照しながら以下に説明する。   Focusing on this feature, each part of the image processing apparatus that detects the edge of the document that could not be discriminated in the framed document image and can distinguish between the document region and the background plate region on the image will be described with reference to FIG. This will be described below with reference to the framed document image A.

図1の印字領域除外部100では、枠付き原稿画像Aの各画素の階調値を走査して図2の印字領域200を特定する(例えば、RGBの階調値で200以下を含む画素を印字領域と判断し、エッジ検出の走査対象から外す)。   1 scans the gradation value of each pixel of the framed document image A to identify the printing area 200 of FIG. 2 (for example, pixels including 200 or less RGB gradation values). Judged as the print area and removed from the edge detection scanning target).

図1の特徴強調部102では、枠付き原稿画像Aから、指定する範囲(またはブロックと呼ぶこととする)毎に異なる特徴量(例えば、その画素領域に含まれる画像周波数(またはスペクトル)や周波数分布など)を所定の範囲単位で抽出する(例えば、縦32pixel×横4pixel単位で2次元高速フーリエ変換を実行し、各領域のスペクトルを求め、求めたスペクトルの高周波成分、低周波成分、直流成分、及びスペクトルの周波数分布の夫々の平均値を該当領域の特徴量とする)。   In the feature emphasizing unit 102 in FIG. 1, different feature amounts (for example, image frequency (or spectrum) or frequency included in the pixel region) differ from the framed document image A for each designated range (or block). Distribution) is extracted in a predetermined range unit (for example, two-dimensional fast Fourier transform is executed in units of 32 pixels vertical by 4 pixels horizontal to obtain the spectrum of each region, and the high frequency component, low frequency component, and DC component of the obtained spectrum are obtained. And the average value of the frequency distribution of the spectrum is used as the feature amount of the corresponding region).

なお、上記所定の範囲とは、例えば、縦をlピクセル(pixel)とし、横をm(pixel)とした範囲(但しl及びmは整数)であり、上記画像平面上における枠付き原稿画像の、上記所定範囲を単位に指定される各画素の単位領域を、以下において画素領域と呼ぶこととする。   The predetermined range is, for example, a range in which the vertical is 1 pixel (pixel) and the horizontal is m (pixel) (where l and m are integers), and the framed document image on the image plane is The unit area of each pixel designated in units of the predetermined range is hereinafter referred to as a pixel area.

この特徴強調部では、印字領域除外部100で特定した図2に示す印字領域200を除外して、各画素領域の特徴量を抽出することも可能である。
図1のエッジ仮決定部104では、特徴強調部102において画素領域毎に抽出した特徴量に基づいて、枠付き原稿画像上の原稿のエッジに相当する位置を仮決定する(例えば、その画素領域の各特徴量をある重みで足し合わせた値を差異値とし、その差異値の一番端側のピークをエッジとし、求めたエッジを元に直線近似を行ない、そのように得られた直線をエッジとして仮決定する)。
In this feature emphasizing unit, it is possible to exclude the print region 200 shown in FIG. 2 specified by the print region excluding unit 100 and extract the feature amount of each pixel region.
The provisional edge determination unit 104 in FIG. 1 provisionally determines a position corresponding to the edge of the document on the framed document image based on the feature amount extracted for each pixel region by the feature enhancement unit 102 (for example, the pixel region The value obtained by adding each feature amount with a certain weight is used as the difference value, the peak at the extreme end of the difference value is used as the edge, and a straight line approximation is performed based on the obtained edge. Tentatively determined as an edge).

図1のエッジ決定部106では、エッジ仮決定部104において仮決定したエッジの位置と、そのエッジの位置の、画像平面上の近傍領域とから、上記特徴強調部102において特長量を抽出する単位とした画素領域よりもさらに狭い範囲の画素領域を単位として各種の特徴量を抽出し、この特徴量に基づいて、枠付き原稿画像上の原稿のエッジ位置を最終決定する(例えば仮決定したエッジの位置とその近傍の領域を対象に縦32pixel×横4pixel単位で1次元高速フーリエ変換を実行し、この実行に基づいて抽出された特徴量にさらにウエーブレット変換を実行し、この結果得られる値に基づくピーク位置に直線近似を施すことによって、近似直線上の位置をエッジ位置と決定するなど)。   In the edge determination unit 106 in FIG. 1, the feature enhancement unit 102 extracts a feature amount from the position of the edge temporarily determined by the edge temporary determination unit 104 and the vicinity of the edge position on the image plane. Various feature amounts are extracted in units of pixel regions that are narrower than the pixel region, and the edge position of the document on the framed document image is finally determined based on the feature amount (for example, the temporarily determined edge A one-dimensional fast Fourier transform is executed in the unit of 32 pixels vertical by 4 pixels horizontal for the position of and the area in the vicinity thereof, and a wavelet transform is further executed on the feature quantity extracted based on this execution, and the value obtained as a result The position on the approximate line is determined as the edge position by performing a linear approximation on the peak position based on the

そして、同図のようなエッジ情報Bを出力する。
次に、本発明の実施の形態における画像処理装置の、上記各部の動作フローの一例を以下に説明する。
Then, edge information B as shown in FIG.
Next, an example of the operation flow of each of the above units of the image processing apparatus according to the embodiment of the present invention will be described below.

なお、本例に示す画像の処理の走査方法において、特に明記しない限り、図2に示される枠付き原稿画像A上の各画素を、同図の上端左端から縦32pixel単位で、水平方向の同一画素列に対して同図の右端に向かって走査をし、上記画素列の処理が終わると、その下の段を縦32pixel単位で、水平方向の同一画素列に対して上記同様の処理をし、同図枠付き原稿画像Aの下端に達するまで同様の処理を繰り返す、縦32pixel幅の横方向のラインを単位として処理が行なわれるものとして説明する。   In the image processing scanning method shown in this example, unless otherwise specified, each pixel on the framed document image A shown in FIG. 2 is the same in the horizontal direction in units of 32 pixels vertically from the upper left end of the figure. The pixel row is scanned toward the right end of the figure, and when the processing of the pixel row is completed, the same processing as described above is performed on the same pixel row in the horizontal direction in the lower stage in units of 32 pixels vertically. In the following description, it is assumed that the processing is repeated in units of horizontal lines having a width of 32 pixels in the vertical direction until the lower end of the document image A with a frame is reached.

また、本動作フローの理解を助けるために、適宜、実測図等を参照しながら説明する。
図3は、図1の印字領域除外部100において行なわれる動作フローの一例である。
図3の動作フローにおいては、先ず、図2の枠付き原稿画像Aの、画像平面上において最初の読み取り対象とする開始ラインの位置を図2に示す画像Aの上端の位置に設定する(S300)。
Further, in order to help understanding of this operation flow, description will be made with reference to actual measurement drawings as appropriate.
FIG. 3 is an example of an operation flow performed in the print area exclusion unit 100 of FIG.
In the operation flow of FIG. 3, first, the position of the start line to be read first on the image plane of the framed document image A of FIG. 2 is set to the position of the upper end of the image A shown in FIG. ).

そして、設定したラインの図2の左端に位置する画素を読み取り対象として設定する(S302)。
ここで、上記設定した画素のRGB階調値を読み取って、本例において予め取り決めた、印字領域として除外する基準となるRGB階調値200を超えないものがあるかどうかを判定する(S304)。
Then, the pixel located at the left end in FIG. 2 of the set line is set as a reading target (S302).
Here, the RGB gradation values of the set pixels are read, and it is determined whether or not there is a pixel that does not exceed the RGB gradation value 200 that is determined in advance in this example and serves as a reference to be excluded as a print area (S304). .

この判定の基準となるRGB階調値は、原稿に応じて適宜設定してよい。
ステップS304において、読み取った画素のRGB階調値が200を超えている場合は、その画素は印字領域ではないと判定し、同一ライン上の右隣に位置する画素を次の読み取り対象として設定する(S306)。
The RGB gradation value used as the reference for this determination may be appropriately set according to the original.
In step S304, if the RGB gradation value of the read pixel exceeds 200, it is determined that the pixel is not a print area, and the pixel located on the right side of the same line is set as the next read target. (S306).

また、ステップS304において、読み取った画素のRGB階調値が200以下であった場合は、この領域に印字領域があるものと仮設定し、続くステップS308のノイズ判定処理に移行する。   In step S304, when the RGB gradation value of the read pixel is 200 or less, it is provisionally set that there is a print area in this area, and the process proceeds to the subsequent noise determination process in step S308.

ステップS308においては、ステップS304において印字領域があるものと仮設定された画素に対し、画像平面上における位置が連続し、印字領域として仮設定されている画素が存在するかどうかの判定を行なう。   In step S308, a determination is made as to whether or not there is a pixel that is temporarily set as a print area by continuously positioning the position on the image plane for the pixel that is temporarily set as having a print area in step S304.

このステップS308において連続する画素が存在しないと判定されると、ステップS306の処理に移行して、現在処理対象となっている画素の、同一ライン上の右隣に位置する画素を読み取り対象として設定し、上記同様なステップで処理を実行する。   If it is determined in step S308 that there is no continuous pixel, the process proceeds to step S306, and a pixel located on the right side of the current processing target pixel on the same line is set as a reading target. Then, the process is executed in the same steps as described above.

これは、2画素続けて印字領域として仮設定されていないものは、印字領域とは関係のない、ゴミ等によるノイズである可能性が高いためで、この判定の基準とする連続画素数の設定は、適宜設定できる。   This is because a pixel that is not temporarily set as a print area for two consecutive pixels is likely to be noise due to dust or the like, which is not related to the print area. Can be set as appropriate.

ステップS308において連続する画素が存在すると判定されると、当該画素を図2の画像Aの左端から最初に検出された印字領域200として設定する(S310)。
続いて、ステップS312において、本ラインで処理されていない画素が残っているかどうかを判定する。
If it is determined in step S308 that there is a continuous pixel, the pixel is set as the print area 200 detected first from the left end of the image A in FIG. 2 (S310).
Subsequently, in step S312, it is determined whether or not there is a pixel that has not been processed in this line.

このステップS312において本ラインで処理する画素が残っていると判定されると、ステップS306の処理に移行して、残りの画素についても同様に、上述したステップで処理を実行する。   If it is determined in step S312 that pixels to be processed in this line remain, the process proceeds to step S306, and the remaining pixels are similarly processed in the above-described steps.

ステップS312において本ラインで処理する画素がないと判定されると、本ラインが図2の画像Aの下端まで移動した最終ラインであるかどうかを判定する(S314)。
このステップS314において本ラインが最終ラインではないと判定されると、画像平面上における、本ラインの直下の位置にラインを設定し(S316)、この設定されたラインの左端から、ステップS302以後に示す処理を繰り返し実行する。
If it is determined in step S312 that there is no pixel to be processed in the main line, it is determined whether the main line is the last line moved to the lower end of the image A in FIG. 2 (S314).
If it is determined in step S314 that the main line is not the final line, the line is set at a position immediately below the main line on the image plane (S316). From the left end of the set line, step S302 and subsequent steps are performed. Repeat the process shown.

そして、図2の画像Aにおいて全ての走査が終了する、上記最終ラインまでの走査が終了すると、ステップS314において本ラインが最終ラインであると判定されて本処理を終了する。   When all the scans in the image A in FIG. 2 are completed and the scan up to the final line is completed, it is determined in step S314 that the main line is the final line, and the process ends.

図4は、上記動作フローによって特定された印字領域を元画像と比較させた図である。
同図(a)は、元画像である図2の枠付き原稿画像Aを示した図であり、同図(b)は、上記動作フローによって特定された印字領域を黒塗りで示した図である。
FIG. 4 is a diagram in which the print area specified by the operation flow is compared with the original image.
2A is a view showing the original image A with a frame in FIG. 2 as an original image, and FIG. 2B is a view showing the print area specified by the operation flow in black. is there.

同図(b)に示されるように、図2の印字領域200とエッジの影が写り込んでいる部分206とが印字領域400として特定されたことが分かる。
このように、図1の印字領域除外部100に入力された枠付き原稿画像Aは、図2に画像平面上での表示を示す枠付き原稿画像Aの、印字領域200、及び本例においてはエッジの影が写り込んでいる部分206までをも、印字領域として特定している。
As shown in FIG. 5B, it can be seen that the print area 200 and the portion 206 where the shadow of the edge is reflected are specified as the print area 400 in FIG.
As described above, the framed document image A input to the print area exclusion unit 100 in FIG. 1 is the print area 200 of the framed document image A that is displayed on the image plane in FIG. A portion 206 where the shadow of the edge is reflected is also specified as the print area.

そして、この後に続く処理において、このように特定した図4の印字領域400を除外する事が可能となる。
図5は、図1の特徴強調部102において行なわれる動作フローの一例である。
In the subsequent processing, it is possible to exclude the print area 400 of FIG. 4 specified in this way.
FIG. 5 is an example of an operation flow performed in the feature emphasizing unit 102 of FIG.

本動作フローは、図1の印字領域除外部100によって印字領域を特定した画像Aを対象に行なわれる。
また、本動作フローにおいては、図6に示すように、画像平面上に示された枠付き原稿画像Aを同図に示す範囲600(本例においては、縦32pixel×横4pixelのブロックとする)を単位に領域分割させた各画素領域が、特に明記しない限り処理の単位として利用されるものとする。
This operation flow is performed on the image A in which the print area is specified by the print area excluding unit 100 in FIG.
In this operation flow, as shown in FIG. 6, a framed document image A shown on the image plane is shown in a range 600 shown in FIG. 6 (in this example, a block of 32 pixels vertical by 4 pixels horizontal). Each pixel region obtained by dividing the region into units is used as a unit of processing unless otherwise specified.

図5の動作フローにおいては、先ず、図6の枠付き原稿画像Aの上部左端に上記範囲600で指定される画素領域602を、処理対象とする開始ブロックとして設定する(S500)。   In the operation flow of FIG. 5, first, the pixel area 602 designated by the above range 600 is set as the start block to be processed at the upper left end of the framed document image A of FIG. 6 (S500).

そして、当該画素領域(本段階においては画素領域602であり、以下においても同様である)が図4の印字領域400を含んでいるかどうかを、図1の印字領域除外部100によって特定された画素の図4の印字領域400を示す情報に基づいて判定する(S502)。   Then, the pixel specified by the print area excluding unit 100 in FIG. 1 as to whether or not the pixel area (the pixel area 602 in this stage and the same applies below) includes the print area 400 in FIG. The determination is made based on the information indicating the print area 400 of FIG. 4 (S502).

このステップS502において当該画素領域に図4の印字領域400が含まれていると判定されると、図6の画像Aにおいて当該画素領域の走査方向に位置する画素領域を処理対象の領域として設定し直す(S504)。   If it is determined in step S502 that the print area 400 of FIG. 4 is included in the pixel area, a pixel area located in the scanning direction of the pixel area in the image A of FIG. 6 is set as a process target area. Correct (S504).

ステップS502において当該画素領域に図4の印字領域400が含まれないと判定されると、当該画素領域に対し、画素領域単位で、既知の2次元高速フーリエ変換処理(以下、2DFFTと略記する)を実行し、当該画素領域のスペクトルを求める(S506)。   If it is determined in step S502 that the print area 400 in FIG. 4 is not included in the pixel area, a known two-dimensional fast Fourier transform process (hereinafter abbreviated as 2DFFT) is performed for the pixel area in units of pixel areas. To obtain the spectrum of the pixel region (S506).

ここで、当該画素領域において求めたスペクトルの、高周波成分(本例においては、1/2π≦ω<3/4πとする、なおωは周波数を示す変数である)の平均値を求める(S508)。   Here, an average value of high-frequency components (in this example, 1 / 2π ≦ ω <3 / 4π, where ω is a variable indicating frequency) of the spectrum obtained in the pixel region is obtained (S508). .

続いて、当該画素領域において求めたスペクトルの、低周波成分(本例においては、0<ω<1/2πとする)の平均値を求める(S510)。
さらに続けて、当該画素領域において求めたスペクトルの、直流成分(本例においては、ω=0とする)の平均値を求める(S512)。
Subsequently, an average value of low-frequency components (0 <ω <1 / 2π in this example) of the spectrum obtained in the pixel region is obtained (S510).
Subsequently, an average value of DC components (in this example, ω = 0) of the spectrum obtained in the pixel region is obtained (S512).

図7は、図2に示される矩形領域210(縦32pixel×横144pixel)内において、縦32pixel×横4pixelを単位とした画素領域毎に求めた上記各種成分の平均値の実測データである。なお、この実測データにおいてはRGB別に算出結果を示すものとし、RGB別の各値の変動を分かり易いものとした。   FIG. 7 shows actual measurement data of the average values of the various components obtained for each pixel area in units of 32 pixels × 4 pixels in the rectangular area 210 (32 pixels × 144 pixels) shown in FIG. In the actual measurement data, the calculation result is shown for each RGB, and the variation of each value for each RGB is easy to understand.

同図のX座標は、図2の画像AのX軸方向に対応し、図2の矩形領域210の左端をX座標の原点として右方向に画素数をカウントした時の画素数の値が示されている。
そして、図7には、図2の矩形領域210の左端からの画素数の位置である、 X座標に指定された位置に対応させて、RGB別の直流成分(直流成分R、直流成分G、及び直流成分B)として階調値、RGB別の低周波成分(低周波成分R、低周波成分G、及び低周波成分B)としてスペクトル値、及びRGB別の高周波成分(高周波成分R、高周波成分G、及び高周波成分B)としてスペクトル値が示されている。
2 corresponds to the X-axis direction of the image A in FIG. 2, and indicates the value of the number of pixels when the number of pixels is counted in the right direction with the left end of the rectangular area 210 in FIG. 2 as the origin of the X coordinate. Has been.
7 corresponds to the position designated by the X coordinate, which is the position of the number of pixels from the left end of the rectangular area 210 in FIG. 2, and direct current components (DC component R, DC component G, And a DC component B), a gradation value, a low frequency component for each RGB (low frequency component R, a low frequency component G, and a low frequency component B), a spectral value, and a high frequency component for each RGB (high frequency component R, high frequency component) The spectral values are shown as G and the high frequency component B).

そして、これらの各成分の値を折れ線グラフで示すと、図8から図10のようなグラフが得られる。
図8は、高周波成分に対するグラフであり、横軸を画素数(各画素領域の左端の画素数)、縦軸をスペクトル値として、RGB別にスペクトルの変化を示した。
When the values of these components are indicated by a line graph, graphs as shown in FIGS. 8 to 10 are obtained.
FIG. 8 is a graph with respect to the high-frequency component, showing the change in spectrum for each RGB with the horizontal axis representing the number of pixels (the number of pixels at the left end of each pixel region) and the vertical axis representing the spectral value.

図9は、低周波成分に対するグラフであり、高周波成分のグラフと同様に、横軸を画素数(各画素領域の左端の画素数)、縦軸をスペクトル値として、RGB別にスペクトルの変化を示した。   FIG. 9 is a graph for low-frequency components. Like the graph for high-frequency components, the horizontal axis indicates the number of pixels (the number of pixels at the left end of each pixel region), and the vertical axis indicates the spectrum value. It was.

図10は、直流成分に対するグラフであり、横軸を画素数(各画素領域の左端の画素数)、縦軸を階調値として、RGB別に階調値の変化を示した。
図8から図10の折れ線の変化からも予想されるように、X座標が136の位置において、最も急激な上下変化が見られ、図7から図10にもX座標が136の位置に実線で示されるように、この位置に対し、原稿のエッジの存在が予想される。
FIG. 10 is a graph with respect to the direct current component. The horizontal axis indicates the number of pixels (the number of pixels at the left end of each pixel region), and the vertical axis indicates the gradation value.
As expected from the change in the broken line in FIGS. 8 to 10, the most rapid vertical change is observed at the position where the X coordinate is 136, and also in FIGS. 7 to 10, the solid line at the position where the X coordinate is 136. As shown, the presence of an edge of the document is expected for this position.

さて、ここで図5の動作フローの説明に戻る。
上述したステップでは3種類の成分の平均値を求めたが、更にここでは、当該画素領域のスペクトルから半値幅を求め、求めた半値幅を当該画素領域の周波数分布として設定する(S514)。
Now, it returns to description of the operation | movement flow of FIG.
In the above-described step, the average value of the three types of components is obtained. However, here, the half-value width is obtained from the spectrum of the pixel region, and the obtained half-value width is set as the frequency distribution of the pixel region (S514).

なお、半値幅とは、横軸を周期、縦軸をスペクトルの強さとした時に得られる周波数分布図において、ピーク値の半分の強さを示す、ピーク周期近傍の2つの周期間の間隔である。   The half-value width is an interval between two periods in the vicinity of the peak period, indicating half the peak value in the frequency distribution diagram obtained when the horizontal axis is the period and the vertical axis is the spectrum intensity. .

そして、ステップ508からステップS512で求めた各種成分毎の平均値、及びステップS514で設定した周波数分布を当該画素領域の特徴量として設定する(S516)。   Then, the average value for each component obtained in steps S508 to S512 and the frequency distribution set in step S514 are set as the feature amount of the pixel area (S516).

ここで、図6に示される枠付き原稿画像Aの全ての画素領域に対して上述した処理を実行したかどうかを判定する(S518)。
このステップS518において当該画素領域の次の走査対象となる画素領域があると判定されると、ステップS504に移行して図6の画像Aにおける次の走査対象となる画素領域を処理対象の領域として設定し直し、上述したステップで処理を実行する。
Here, it is determined whether or not the above-described processing has been executed for all the pixel areas of the framed document image A shown in FIG. 6 (S518).
If it is determined in step S518 that there is a pixel area to be scanned next to the pixel area, the process proceeds to step S504, and the pixel area to be scanned next in the image A in FIG. Re-set and execute the process in the steps described above.

そして、ステップS518において、画像Aの全ての画素領域に対して上述した処理が実行され、当該画素領域の次の走査対象となる画素領域がないと判定されると、本処理を終了する。   In step S518, the above-described processing is executed for all the pixel regions of the image A, and when it is determined that there is no pixel region to be scanned next to the pixel region, the processing ends.

なお、本動作フローにおいては、4つの特徴量を求めたが、これのみに限定されず、さらに他の特徴量を加えても良い。
このように、図1の特徴強調部102においては、印字領域除外部100によって処理を施された枠付き原稿画像Aから、所定の大きさの画素領域を単位とする各種特徴量を抽出することができる。
In this operation flow, four feature amounts are obtained. However, the present invention is not limited to this, and other feature amounts may be added.
As described above, the feature enhancement unit 102 in FIG. 1 extracts various feature amounts in units of pixel regions of a predetermined size from the framed document image A processed by the print region exclusion unit 100. Can do.

図11は、図1のエッジ仮決定部104において行なわれる動作フローの一例である。
本動作フローは、図1の特徴強調部102で抽出した各種の特徴量に基づいて実行される。
FIG. 11 is an example of an operation flow performed in the temporary edge determination unit 104 in FIG.
This operation flow is executed based on various feature amounts extracted by the feature enhancement unit 102 of FIG.

本動作フローにおいては、先ず、図2の枠付き原稿画像Aの領域を分割して示した、図6の範囲600で指定される画素領域を単位に、枠付き原稿画像の処理対象範囲を判定し、該当する処理範囲を設定する(S1100)。   In this operation flow, first, the processing target range of the framed document image is determined on the basis of the pixel region specified by the range 600 in FIG. Then, the corresponding processing range is set (S1100).

なお、本例における処理範囲の判定は、図4(b)に印字領域を黒塗りして示した画像Aの、左端から印字領域400までを処理対象範囲であるとして判定する。
このようにして処理範囲が確定すると、図6に示される枠付き原稿画像Aの上端のラインを、画素領域を読み取る開始ラインとして設定する(S1102)。
The determination of the processing range in this example is performed by determining that the range from the left end to the printing region 400 of the image A shown by blackening the printing region in FIG.
When the processing range is determined in this way, the upper end line of the framed document image A shown in FIG. 6 is set as a start line for reading the pixel area (S1102).

ここで、後に詳しく説明する、上記各種の特徴量の重み決定処理を実行する(S1104)。
そして、当該設定されているラインの左端に位置する画素領域を、本ラインの最初に読み取る画素領域として設定する(S1106)。
Here, the weight determination processing of the various feature amounts, which will be described in detail later, is executed (S1104).
Then, the pixel area located at the left end of the set line is set as the pixel area to be read first in this line (S1106).

続いて、当該画素領域に対して隣接して連なる画素領域(本例においては、該当する画素領域に対して左に隣接して連なる、最大で2つのまで画素領域とする)に対し、図5の動作フロー(ステップS508からステップS514)で求めた特徴量毎の平均を求める(S1108)。   Subsequently, with respect to the pixel area adjacent to the pixel area (in this example, up to two pixel areas connected to the left adjacent to the corresponding pixel area), FIG. The average for each feature amount obtained in the operation flow (from step S508 to step S514) is obtained (S1108).

図12は、処理の対象となっている画素領域における、上記平均を求める対象となる画素領域の配置関係を図示したものである。
同図は、図6の枠付き原稿画像A上において処理対象の画素領域として指定される、画素領域604を処理の対象として示しており、この場合には、画素領域604の左に隣接する画素領域1202とさらに左に位置する画素領域1204の合計2つの画素領域が、処理の対象として指定されている画素領域604に対する、隣接画素領域の特徴量毎の平均を算出するための画素領域として指定される。
FIG. 12 illustrates the arrangement relationship of the pixel areas to be averaged in the pixel areas to be processed.
This figure shows a pixel area 604 designated as a processing target pixel area on the framed document image A in FIG. 6 as a processing target. In this case, a pixel adjacent to the left of the pixel area 604 is shown. A total of two pixel areas, the area 1202 and the pixel area 1204 located further to the left, are designated as pixel areas for calculating the average for each feature amount of the adjacent pixel areas with respect to the pixel area 604 designated as the processing target. Is done.

そして、このようにして求めた特徴量毎の平均を、図11の引き続きの処理(ステップS1110)に使用する。
図11のステップS1110においては、処理の対象となっている画素領域の各種特徴量とステップS1108で求めた特徴量毎の平均との、特徴量毎の変化量を求める。
And the average for every feature-value calculated | required in this way is used for the continuing process (step S1110) of FIG.
In step S1110 of FIG. 11, the amount of change for each feature amount is obtained between the various feature amounts of the pixel area to be processed and the average for each feature amount obtained in step S1108.

このようにして求めた各種特徴量の変化量を、ステップS1104の重み決定処理で求めた各種特徴量の重み、または、予め統計的に求めておいた重み(望ましくは、高周波成分を1、低周波成分を2、直流成分を1、周波数分布を1とする)で足し合わせ、その値を当該画素領域における特徴変化量として設定する(S1112)。   The variation amounts of the various feature values obtained in this way are the weights of the various feature values obtained by the weight determination process in step S1104, or the weights statistically obtained in advance (desirably, the high-frequency component is set to 1, The frequency component is 2, the DC component is 1, and the frequency distribution is 1, and the value is set as the feature change amount in the pixel region (S1112).

ここで、ステップS1112で画素領域毎に設定された特徴変化量のピークを求めるための処理を行なう(S1114)。
ここに示すピークを求めるための処理(ピーク検出処理)は、後に詳しく説明するものとする。
Here, a process for obtaining the peak of the feature change amount set for each pixel region in step S1112 is performed (S1114).
The processing for obtaining the peak shown here (peak detection processing) will be described in detail later.

そして、上記ピーク検出処理に基づく当該画素領域の特徴変化量の、ピーク判定を行なう(S1116)。
このステップS1116においてピーク無しと判定されると、続いて、次に走査する画素領域(図12においては画素領域1206)に対して、その画素領域が印字領域であるかどうかを判定する(S1118)。
Then, the peak determination of the feature change amount of the pixel region based on the peak detection process is performed (S1116).
If it is determined in step S1116 that there is no peak, it is then determined whether the pixel area to be scanned next (pixel area 1206 in FIG. 12) is a print area (S1118). .

そして、このステップS1118において、次に走査する画素領域は印字領域ではないと判定されると、続いて、その画素領域(図12においては画素領域1206)は、中央の画素領域から1画素領域だけ走査方向側の画素領域であるかどうかを判定する(S1120)。   If it is determined in step S1118 that the pixel area to be scanned next is not a print area, the pixel area (the pixel area 1206 in FIG. 12) is only one pixel area from the central pixel area. It is determined whether the pixel region is on the scanning direction side (S1120).

このステップS1120においてその画素領域は中央の画素領域から1画素領域だけ走査方向側の画素領域であると判定されると、処理対象となっている画素領域が最終ラインに位置するものであるかどうかを判定する(S1122)。   If it is determined in step S1120 that the pixel area is a pixel area on the scanning direction side from the central pixel area, whether or not the pixel area to be processed is located on the last line. Is determined (S1122).

また、ステップS1116の処理にもどって、ステップS1116から示した各ステップが上記とは反対の判定を受けた場合は、以下のように処理を実行する。
ステップS1116においてピーク有りと判定されると、処理対象となっているこの画素領域をエッジに相当する画素領域であると判定し、この画素領域を、本例では原稿画像の左端のエッジとして仮決定する(S1124)。そして、上述したステップS1122の処理に移行する。
Returning to the process of step S1116, if each step shown from step S1116 receives a determination opposite to the above, the process is executed as follows.
If it is determined in step S1116 that there is a peak, it is determined that this pixel area to be processed is a pixel area corresponding to an edge, and this pixel area is temporarily determined as the left edge of the original image in this example. (S1124). And it transfers to the process of step S1122 mentioned above.

ステップS1118において、処理対象の画素領域が印字領域であると判定されると、ステップS1122の処理に移行する。
ステップS1120において、その画素領域(図12においては画素領域1206)は中央の画素領域から1画素領域だけ走査方向側の画素領域でないと判定されると、ステップS1126の処理に移行して次に走査する画素領域を処理対象の画素領域として設定し、ステップS1108から、上述したステップ順で処理を繰り返し実行する。
If it is determined in step S1118 that the pixel area to be processed is a print area, the process proceeds to step S1122.
If it is determined in step S1120 that the pixel region (pixel region 1206 in FIG. 12) is not a pixel region on the scanning direction side from the central pixel region by one pixel region, the process proceeds to step S1126 and the next scanning is performed. A pixel region to be processed is set as a pixel region to be processed, and the processing is repeatedly executed in the order of steps described above from step S1108.

ステップS1122において、処理対象となっている画素領域が最終ラインに位置するものでないと判定されると、ステップS1126の処理に移行して、上述したステップ順で処理を実行する。   If it is determined in step S1122 that the pixel area to be processed is not located on the last line, the process proceeds to step S1126, and the processes are executed in the order of steps described above.

また、ステップS1122において、処理対象となっている画素領域が最終ラインに位置するものであると判定されると、続くステップS1128の処理に移行する。
このステップS1128においては、ステップS1124で検出された、エッジに相当する全ての画素領域に対して、画像平面上における直線近似を施して、得られた近似直線上の画素を原稿画像左端のエッジ部分として仮決定して、本処理を終了する。
If it is determined in step S1122 that the pixel area to be processed is located on the last line, the process proceeds to the subsequent step S1128.
In step S1128, linear approximation on the image plane is performed on all the pixel areas corresponding to the edges detected in step S1124, and the pixels on the obtained approximate straight line are converted into edge portions at the left end of the document image. Are temporarily determined, and this processing is terminated.

なお、上記動作フロー(図11)は、RGB各色のスペクトル値において最も特徴が大きく示された色のみを対象に実行させてもよいし、RGBにおいて任意に組み合わせた2つ以上の色を対象に実行させてもよい。   Note that the above operation flow (FIG. 11) may be executed only for the color having the largest characteristic in the spectral values of each RGB color, or for two or more colors arbitrarily combined in RGB. It may be executed.

図13は、上記処理によって仮決定したエッジの配置を図2の枠付き原稿画像Aに照らして示した図である。
同図の画像Aに対して示される直線1300が、上記ステップS1128で求められる近似直線であり、この近似直線1300に対応した画素が、原稿画像の左端のエッジとして仮決定される。
FIG. 13 is a diagram showing the arrangement of edges provisionally determined by the above processing in light of the framed document image A in FIG.
A straight line 1300 shown with respect to the image A in the figure is the approximate straight line obtained in step S1128, and a pixel corresponding to the approximate straight line 1300 is provisionally determined as the left edge of the document image.

同図においては、図2に破線で示した余白領域202と背景板領域204の実際の境界に対して若干ズレているものの、その境界に近い位置に原稿画像のエッジを設定できた。
このように、図1のエッジ仮決定部104において、実際のエッジの位置に対して、より近い位置にエッジを仮決めできる、エッジ位置の絞込みが行なえる。
In this figure, the edge of the original image can be set at a position close to the actual boundary between the marginal area 202 and the background plate area 204 indicated by the broken line in FIG.
In this way, the edge provisional determination unit 104 in FIG. 1 can narrow down the edge positions so that the edges can be provisionally determined closer to the actual edge positions.

ここで、図11に含まれる重み決定処理(ステップS1104)及び、ピーク検出処理(ステップS1114)について順番に説明する。
図14は重み決定処理の動作フローを示している。
Here, the weight determination process (step S1104) and the peak detection process (step S1114) included in FIG. 11 will be described in order.
FIG. 14 shows an operation flow of the weight determination process.

重み決定処理では、先ず、図1の特徴強調部102における動作フローを示した図5の各ステップの、ステップS506で求めた画素領域毎のスペクトルの各成分(高周波成分、低周波成分、及び直流成分)及び周波数分布を、例えば左右に位置する画素領域との単純平均等により正規化する(S1400)。   In the weight determination processing, first, each component of the spectrum (high frequency component, low frequency component, and direct current) for each pixel region obtained in step S506 of each step of FIG. 5 showing the operation flow in the feature enhancement unit 102 of FIG. Component) and frequency distribution are normalized by, for example, a simple average with pixel regions located on the left and right sides (S1400).

この正規化によって、上記ステップS506で求めたスペクトルの各成分及び周波数分布の、微小変動による誤差を吸収できる。
続いて、図11のステップS1100において判定した処理範囲(枠付き原稿画像の左端から印字領域が始まる位置まで)における、上記各成分及び周波数分布の平均値を求め、その求めた平均値を基準に、上記所定範囲における上記各成分及び周波数分布の、分散量を算出する(S1402)。
By this normalization, errors due to minute fluctuations in each component of the spectrum and the frequency distribution obtained in step S506 can be absorbed.
Subsequently, in the processing range determined in step S1100 in FIG. 11 (from the left end of the framed document image to the position where the print area starts), the average value of each component and frequency distribution is obtained, and the obtained average value is used as a reference. Then, a dispersion amount of each component and frequency distribution in the predetermined range is calculated (S1402).

そして、このようにして算出した分散量が予め設定した閾値以上変動しているかどうかを、成分及び周波数分布毎に判定する(S1404)。
なお、上記閾値は例えば変動平均値の2割に設定するなどした値である。
Then, it is determined for each component and frequency distribution whether the variance calculated in this way fluctuates more than a preset threshold value (S1404).
The threshold value is a value set to 20% of the fluctuation average value, for example.

このステップS1404においてその分散量は予め設定した閾値以上変動していると判定されたものがあると、その成分及び周波数分布について分散量の最大を求め、その値を当該成分及び周波数分布の変化量として設定する(S1406)。   If it is determined in step S1404 that the amount of dispersion has fluctuated by a predetermined threshold or more, the maximum amount of dispersion is obtained for the component and frequency distribution, and the value is the amount of change in the component and frequency distribution. (S1406).

また、ステップS1404においてその分散量は予め設定した閾値以上変動していないと判定されたものは、変化量無しとして設定する(S1408)。
そして最後に、上記設定した各成分及び周波数分布の変化量の比率に対する逆数を求め、その値を夫々の成分及び周波数分布の重みとして決定し(S1410)、本処理を終了する。
If it is determined in step S1404 that the amount of dispersion does not fluctuate more than a preset threshold, it is set as no amount of change (S1408).
Finally, the reciprocal of the set ratio of each component and frequency distribution is calculated, the value is determined as the weight of each component and frequency distribution (S1410), and the process ends.

図15は、ピーク検出処理の動作フローを示している。
ピーク検出処理では、先ず、処理対象とする画素領域を指定する(S1500)。
そして、指定された画素領域よりも、走査方向とは反対方向に位置する、同一ラインの画素領域の全てに対してレベル平均値を求める(S1502)
図16は、横軸に図12の枠付き原稿画像Aの水平軸(X軸)をとり、縦軸に上記レベルをとった、一ラインに対するレベル分布図である。
FIG. 15 shows an operation flow of peak detection processing.
In the peak detection process, first, a pixel area to be processed is designated (S1500).
Then, level average values are obtained for all pixel areas on the same line located in the direction opposite to the scanning direction from the designated pixel area (S1502).
FIG. 16 is a level distribution diagram for one line in which the horizontal axis represents the horizontal axis (X axis) of the framed document image A in FIG. 12 and the vertical axis represents the above level.

同図にプロットされた全ての白丸1600は、所定の画素領域単位の代表値を示している。
今、同図において突出した白丸1602を、ピーク検出処理の対象とする画素領域のレベルとすると、その左に位置する全ての画素領域のレベル1604が上記平均化される対象となる。
All the white circles 1600 plotted in the figure indicate representative values in a predetermined pixel area unit.
If the white circle 1602 that protrudes in the figure is the level of the pixel area that is the target of the peak detection process, the levels 1604 of all the pixel areas that are located to the left of the white area 1602 are the objects to be averaged.

なお、レベル平均値に示すレベルとは、図11のエッジ仮決定の処理においては特徴変化量のことを差すものとする。
本ピーク検出処理は、これから説明する、図1のエッジ決定部106の動作フローにおいても使用され、その際のステップS1502の処理においては特徴変化量を使用しないため、本ピーク検出処理フローの説明においては、便宜上、レベル平均値とした。
Note that the level indicated by the level average value refers to a feature change amount in the edge provisional determination process of FIG.
This peak detection process is also used in the operation flow of the edge determination unit 106 in FIG. 1 to be described below, and the feature change amount is not used in the process of step S1502 at that time. Therefore, in the description of this peak detection process flow Is a level average value for convenience.

さて、ステップS1502においてレベル平均値が求まると、処理対象となっている画素領域のピーク判定を行なう(S1504)。
これは、上記レベル平均値に対して、予め統計的に算出した定数α(本例で示すような水平方向の走査においては、α=2.5とすることが最も望ましく、また、縦4pixel×横32pixelを画素領域の単位として、これらの画素領域を垂直方向に走査する形態で各種の処理を行なう場合には、α=2.0とすることが最も望ましい)を掛け合わせ、処理対象となっている画素領域のレベル(図11のエッジ仮決定の処理においては特徴変化量)が、上記αを乗じたレベル平均値を超える頂点となっているかどうかの判定を行なうものである。
When the level average value is obtained in step S1502, the peak determination of the pixel area to be processed is performed (S1504).
This is because a constant α calculated statistically in advance with respect to the above average level value (in the horizontal scanning as shown in this example, α = 2.5 is most desirable, and vertical 4 pixel × When various processes are performed in a mode in which the horizontal 32 pixels is a unit of pixel area and these pixel areas are scanned in the vertical direction, α = 2.0 is most preferable. It is determined whether or not the level of the pixel area (the feature change amount in the provisional edge determination process of FIG. 11) is a vertex exceeding the level average value multiplied by α.

このステップS1504において、対象となっているレベルが上記頂点ではないと判定されると、次に走査する画素領域をセットし直して(S1506)、ステップS1502から上記ステップ順で処理を繰り返す。   If it is determined in step S1504 that the target level is not the vertex, the pixel area to be scanned next is reset (S1506), and the process is repeated from step S1502 in the order of the steps.

また、対象となっているレベルが上記頂点であると判定されると、ピーク検出処理を終了する。
続いて、図1のエッジ仮決定部104で仮決定されたエッジを基にエッジの正確な位置を絞り込む、図1のエッジ決定部106の処理を説明する。
If it is determined that the target level is the vertex, the peak detection process is terminated.
Next, processing of the edge determination unit 106 in FIG. 1 for narrowing down the exact position of the edge based on the edges temporarily determined by the edge temporary determination unit 104 in FIG. 1 will be described.

なお、説明を分かり易くするために、図1のエッジ仮決定部104で仮決定されたエッジの位置は、縦32pixelを単位として、同一の列に並んだ画素に示されているものとする。   For ease of explanation, it is assumed that the edge positions provisionally determined by the edge provisional determination unit 104 in FIG. 1 are shown in pixels arranged in the same column in units of 32 pixels vertically.

図17は、図1のエッジ決定部106において行なわれる動作フローである。
本動作フローにおいては、先ず、図13の枠付き原稿画像Aの上端のラインにエッジの位置として仮設定された画素列(縦32pixel×横1pixel)の、走査方向に対して前後に位置する各々16pixelの範囲を処理の対象として設定する(S1700)。
FIG. 17 is an operation flow performed in the edge determination unit 106 of FIG.
In this operation flow, first, pixel rows (32 pixels long × 1 pixel wide) temporarily set as edge positions on the upper end line of the framed document image A shown in FIG. A range of 16 pixels is set as a processing target (S1700).

そして、本処理における画素領域の単位を、縦32pixel、横1pixelの範囲とした画素列とし、この画素列単位で上記範囲の1次元高速フーリエ変換を行ない、各画素列のスペクトルを求める(S1702)。   Then, the unit of the pixel area in this process is a pixel column having a range of 32 pixels vertically and 1 pixel horizontally, and the one-dimensional fast Fourier transform of the above range is performed in this pixel column unit to obtain the spectrum of each pixel column (S1702). .

図18は、位置ラインに対する上記処理対象の範囲を示している。
図18(a)は、図13の近似直線1300の画素列を含む、一ラインの処理対象範囲を示している。
FIG. 18 shows the range to be processed with respect to the position line.
FIG. 18A shows one line of the processing target range including the pixel column of the approximate straight line 1300 in FIG.

同図の矩形領域1800が、破線で示すライン1802上の処理対象範囲となり、特に図示されていないが、他のラインも同様に処理対象範囲が設定される。
同図(b)は、上記矩形領域1800を拡大して、エッジの位置として仮決定された位置と上記処理対象の範囲の位置関係を示している。
A rectangular area 1800 in the figure is a processing target range on a line 1802 indicated by a broken line, and although not particularly illustrated, the processing target range is similarly set for other lines.
FIG. 7B shows the positional relationship between the position that is temporarily determined as the position of the edge by enlarging the rectangular area 1800 and the range to be processed.

この図から、図中の中央に線で示された仮エッジ1804の、矢印で示す走査方向に対して前後16pixelに配列された各画素列1806(縦32pixel×横1pixel)を、上記処理対象の範囲としていることが分かる。   From this figure, each pixel row 1806 (vertical 32 pixels × horizontal 1 pixel) arranged 16 pixels forward and backward with respect to the scanning direction indicated by the arrow of the temporary edge 1804 indicated by a line in the center in the figure is the processing target. You can see that it is in range.

さて、ステップS1702でスペクトルを求めると、続いて、スペクトルの各成分(高周波成分、低周波成分、及び直流成分)及び周波数分布の平均値を上記画素列1806単位で求める(S1704)。   When the spectrum is obtained in step S1702, the spectrum components (high frequency component, low frequency component, and direct current component) and the average value of the frequency distribution are obtained in units of the pixel column 1806 (S1704).

そして、図11のステップS1104で求めた、または予め統計的に求められた重みで、画素列1806ごとに成分及び周波数分布を足し合わせ、得られた値をその画素列の特徴値とする(S1706)。   Then, the component and the frequency distribution are added for each pixel column 1806 with the weight calculated in step S1104 in FIG. 11 or statistically calculated in advance, and the obtained value is used as the feature value of the pixel column (S1706). ).

ここで、この特徴値に対して画素列ごとに既知のウエーブレット変換を行なう(S1708)。
ウエーブレット変換によって得られた値は、ライン単位で、図15及び図16で説明したピーク検出処理に使用される。
Here, a known wavelet transform is performed on this feature value for each pixel column (S1708).
The value obtained by the wavelet transform is used for the peak detection processing described with reference to FIGS. 15 and 16 in line units.

以下は、ステップS1710で行なわれるピーク検出処理を図15に基づいて示している。
ステップS1710のピーク検出処理フローにおいては、先ず、当該ラインにおいて処理対象となる画素列の開始画素列を、図18(b)の例においては、左端の画素列に指定する(S1500)。
The following shows the peak detection process performed in step S1710 based on FIG.
In the peak detection processing flow of step S1710, first, the start pixel column of the pixel column to be processed in the line is designated as the leftmost pixel column in the example of FIG. 18B (S1500).

続いて、指定された画素列よりも、走査方向とは反対方向に位置する、同一ラインの画素列の全てに対してレベル平均値(ここにおいては、ウエーブレット変換結果の平均値)を求める(S1502)
そして、ウエーブレット変換結果の平均値を基に、処理対象となっている画素列のピーク判定を行なう(S1504)。
Subsequently, level average values (in this case, average values of wavelet transform results) are obtained for all pixel columns on the same line located in the direction opposite to the scanning direction from the designated pixel column ( S1502)
Then, based on the average value of the wavelet conversion results, the peak determination of the pixel row to be processed is performed (S1504).

これは、上記ウエーブレット変換結果の平均値に対して、予め統計的に算出した定数αを掛け合わせ、処理対象となっている画素列のウエーブレット変換結果が、上記αを乗じたウエーブレット変換結果の平均値を超える頂点となっているかどうかの判定を行なうものである。   This is because the average value of the wavelet conversion result is multiplied by a constant α calculated statistically in advance, and the wavelet conversion result of the pixel row to be processed is multiplied by α. It is determined whether or not the vertex exceeds the average value of the results.

このステップS1504において、対象となっているウエーブレット変換結果が上記頂点ではないと判定されると、次に走査する画素列をセットし直して(S1506)、ステップS1502から上記ステップ順で処理を繰り返す。   If it is determined in step S1504 that the target wavelet transformation result is not the vertex, the pixel row to be scanned next is reset (S1506), and the processing is repeated from step S1502 in the order of the steps. .

また、対象となっているウエーブレット変換結果が上記頂点であると判定されると、ピーク検出処理を終了する。
さて、ステップS1710におけるピーク検出処理を終えると、処理の対象としているラインが仮エッジとして指定された最終のラインであるかどうかを判定する(S1712)。
Further, when it is determined that the target wavelet transformation result is the vertex, the peak detection process is terminated.
Now, after the peak detection process in step S1710 is completed, it is determined whether or not the line to be processed is the last line designated as a temporary edge (S1712).

最終ラインでなければ、次に走査するラインを設定し(S1714)、ステップS1702から上述したステップを繰り返す。
ステップS1712において最終ラインと判定されると、図11のステップS1128に示した処理と同様な要領で、ステップS1710でピークが検出された全ての画素列に対して、画像平面上における直線近似を施して、得られた近似直線上の画素を原稿画像左端のエッジ部分として決定する(S1716)。
If it is not the last line, the line to be scanned next is set (S1714), and the above-described steps are repeated from step S1702.
If the final line is determined in step S1712, linear approximation on the image plane is performed on all pixel columns in which peaks are detected in step S1710 in the same manner as the processing shown in step S1128 of FIG. Thus, the pixel on the obtained approximate straight line is determined as the edge portion at the left end of the document image (S1716).

そして、最後に、ロバスト補正をかけて本処理を終了する(S1718)。
なお、このロバスト補正は、以下に示すフローに基づいて処理が行なわれる。
図19は、ロバスト補正の処理フローである。
Finally, robust correction is performed and this process is terminated (S1718).
The robust correction is performed based on the following flow.
FIG. 19 is a processing flow of robust correction.

同図のように、先ず、エッジとして決定した画素列間の画像平面上におけるX軸差分(Δx)を求めることにより、エッジの傾きを求める(S1900)。
続いて、上記求めた各傾きにおける、平均値とその分散値を算出する(S1902)。
As shown in the figure, the slope of the edge is first obtained by obtaining the X-axis difference (Δx) on the image plane between the pixel columns determined as the edge (S1900).
Subsequently, an average value and a variance value are calculated for each of the obtained slopes (S1902).

ここで、ステップS1900で求めた差分(Δx)が上記平均値、分散値を超えるような画素列を除外する(S1904)。
さらに、差分(Δx)がマイナス方向となる画素列を排除する(S1906)。
Here, pixel rows whose difference (Δx) obtained in step S1900 exceeds the average value and the variance value are excluded (S1904).
Further, a pixel column in which the difference (Δx) is in the negative direction is excluded (S1906).

そして、最小二乗法による直線近似を行なう(S1980)。
続くステップS1910では、本処理の回数を判定し、本例においては、本処理が3回完了していなければ、ステップS1912の処理に移行してステップS1908で得られた近似直線と、この直線の算出に使用された画素列との距離値を算出し、予め決めた閾値を超えている画素列がある場合には、閾値を超えている画素列を除外する(S1912)。
Then, linear approximation by the least square method is performed (S1980).
In subsequent step S1910, the number of times of this process is determined. In this example, if this process has not been completed three times, the process proceeds to step S1912 and the approximate straight line obtained in step S1908 and The distance value with the pixel column used for the calculation is calculated, and when there is a pixel column exceeding a predetermined threshold, the pixel column exceeding the threshold is excluded (S1912).

この後の処理においては閾値を変更して(S1914)、ステップS1900から上述したステップを順番に実行する。
そして最後に、ステップS1910において本処理が3回実行されたと判定されると、その時点で得られている最新の近似直線上の画素が、原稿画像左端のエッジ部分として最終決定され、全処理を終了する。
In the subsequent processing, the threshold value is changed (S1914), and the steps described above from step S1900 are executed in order.
Finally, when it is determined in step S1910 that this process has been executed three times, the pixel on the latest approximate straight line obtained at that time is finally determined as the edge portion on the left end of the document image, and all the processes are performed. finish.

なお、上記動作フロー(図17)は、RGB各色のスペクトル値において最も特徴が大きく示された色のみを対象に実行させてもよいし、RGBにおいて任意に組み合わせた2つ以上の色を対象に実行させてもよい。   Note that the above operation flow (FIG. 17) may be executed only for the color having the largest characteristic in the spectral value of each RGB color, or for two or more colors arbitrarily combined in RGB. It may be executed.

このように、図1のエッジ決定部106においては、図1のエッジ仮決定部104で仮に求めたエッジ位置とその近傍範囲のみを対象に、エッジの特定処理を行なえばよい。
そして、エッジと予想される付近のみを処理対象にできるので、エッジとは関係ない画像領域におけるノイズ(他の画像情報)に対して敏感に反応し易いウェーブレット変換を適用しても、エッジを含まない他の画像領域の範囲が狭くノイズが少ない本対象領域において、さらに正確なエッジ位置が検出できるようになる。
As described above, the edge determination unit 106 in FIG. 1 may perform the edge specifying process only for the edge position temporarily obtained by the temporary edge determination unit 104 in FIG.
Since only the vicinity that is expected to be an edge can be processed, even if wavelet transform that is sensitive to noise (other image information) in an image area unrelated to the edge is applied, the edge is included. A more accurate edge position can be detected in the target region where the range of other image regions that are not present is narrow and noise is low.

また、上述した全ての処理は、説明を理解し易くするために、原稿の左端エッジについてのみ述べたが、その他のエッジ(原稿の上端エッジ、右端エッジ、または下端エッジ)においても、夫々の方向から対向する方向に向けて走査を行なうことで、各エッジの決定を行なうことが可能であり、この処理結果を統合することで、原稿を取り囲む全てのエッジや原稿サイズ等が判別できるようになる。   In addition, all the processes described above are described only for the left edge of the document for easy understanding of the description. However, the other edges (the upper edge, the right edge, or the lower edge of the document) also have their respective directions. It is possible to determine each edge by performing scanning in the opposite direction from each other, and by integrating these processing results, it becomes possible to determine all the edges surrounding the document, the document size, and the like. .

図20は、上記4箇所のエッジ(原稿の左端エッジ、右端エッジ、上端エッジ、及び下端エッジ)の検出を行なって原稿周囲のエッジを特定する、全体処理フローの例である。
同図の左側に各処理を示し、同図の右側に前記各処理に対応する、枠付き原稿画像(原稿領域を網掛けで示した)Aの処理イメージを示した。
FIG. 20 shows an example of the overall processing flow in which the four edges (the left edge, the right edge, the upper edge, and the lower edge of the document) are detected and the edges around the document are specified.
Each processing is shown on the left side of the figure, and a processing image of a framed document image (document area is shown by shading) A corresponding to each process is shown on the right side of the figure.

なお、本処理においては、枠付き原稿画像Aに含まれる印字領域を上述したイに字領域除外処理を施して除外していることを前提とし、先ず、垂直エッジの検出を行なって、その後に水平エッジの検出を行なうこととした。   In this process, it is assumed that the print area included in the framed document image A is excluded by applying the character area exclusion process to the above-mentioned a. First, the vertical edge is detected, and then It was decided to detect the horizontal edge.

先ず、垂直エッジの検出を行なうために、枠付き原稿画像Aから、特徴量(例えば、その領域に含まれる画像周波数(またはスペクトル)や周波数分布など)を、本例では、縦32pixel×横4pixel単位とした画素領域毎に、同処理の枠付き原稿画像内の横線で示されるような縦32pixelのライン単位で抽出する(S2000)。   First, in order to detect a vertical edge, a feature amount (for example, an image frequency (or spectrum) or a frequency distribution included in the region) from the framed document image A, in this example, 32 pixels vertical by 4 pixels horizontal. For each pixel area as a unit, extraction is performed in units of 32 pixels in the vertical direction as indicated by a horizontal line in the framed document image of the same process (S2000).

続いて、左側エッジを対象とした同図の左端側から右側への走査に基づいて、上記抽出した特徴量から左端エッジに相当する位置を仮決定し、左端エッジの仮決定位置及びその近傍(当該画素領域に隣接する画素領域)における特長量を抽出し、この特徴量に基づいて検出されるエッジ位置を左端エッジの位置と断定する(S2002)。   Subsequently, based on the scanning from the left end side to the right side of the figure for the left edge, a position corresponding to the left end edge is provisionally determined from the extracted feature amount, and the provisional determination position of the left end edge and its vicinity ( The feature amount in the pixel region adjacent to the pixel region is extracted, and the edge position detected based on the feature amount is determined as the position of the left end edge (S2002).

続いて、右側エッジを対象とした同図の右側側から左側への走査に基づいて、上記抽出した特徴量から右端エッジに相当する位置を仮決定し、右端エッジの仮決定位置及びその近傍(当該画素領域に隣接する画素領域)における特長量を抽出し、この特徴量に基づいて検出されるエッジ位置を右端エッジの位置と断定する(S2004)。   Subsequently, based on scanning from the right side to the left side of the figure for the right edge, a position corresponding to the right end edge is provisionally determined from the extracted feature value, and the provisional determination position of the right end edge and its vicinity ( The feature amount in the pixel region adjacent to the pixel region is extracted, and the edge position detected based on the feature amount is determined as the position of the right end edge (S2004).

次に、水平エッジの検出を行なう。
先ず、水平エッジの検出を行なうために、枠付き原稿画像Aから、特徴量(例えば、その領域に含まれる画像周波数(またはスペクトル)や周波数分布など)を、本例では、縦4pixel×横32pixel単位とした画素領域毎に、同処理の枠付き原稿画像内の縦線で示されるような横32pixelのライン単位で抽出する(S2006)。
Next, the horizontal edge is detected.
First, in order to detect a horizontal edge, a feature amount (for example, an image frequency (or spectrum) or a frequency distribution included in the region) is detected from the framed document image A. For each pixel area as a unit, extraction is performed in units of lines of 32 pixels in the horizontal direction as indicated by vertical lines in the framed document image of the same processing (S2006).

続いて、上端エッジを対象とした同図の上端側から下端側への走査に基づいて、上記抽出した特徴量から上端エッジに相当する位置を仮決定し、上端エッジの仮決定位置及びその近傍(当該画素領域に隣接する画素領域)における特長量を抽出し、この特徴量に基づいて検出されるエッジ位置を上端エッジの位置と断定する(S2008)。   Subsequently, based on the scanning from the upper end side to the lower end side in the figure for the upper edge, the position corresponding to the upper edge is provisionally determined from the extracted feature amount, and the upper edge is temporarily determined and its vicinity. The feature amount in the (pixel region adjacent to the pixel region) is extracted, and the edge position detected based on the feature amount is determined as the position of the upper edge (S2008).

続いて、下端エッジを対象とした同図の下側から上側への走査に基づいて、上記抽出した特徴量から下端エッジに相当する位置を仮決定し、下端エッジの仮決定位置及びその近傍における特長量を抽出し、この特徴量に基づいて検出されるエッジ位置を下端エッジの位置と断定する(S2010)。   Subsequently, based on the scanning from the lower side to the upper side of the figure for the lower edge, the position corresponding to the lower edge is provisionally determined from the extracted feature value, and the position of the lower edge is temporarily determined and in the vicinity thereof. The feature amount is extracted, and the edge position detected based on the feature amount is determined as the position of the lower edge (S2010).

なお、上端エッジまたは下端エッジを検出するために上記走査において縦方向の走査を行なう場合には、上述したラインのピクセル設定や、画素領域を指定する範囲のピクセル設定に、上述した横方向の走査におけるピクセル設定の縦横を逆転させて用いることが望ましい。   In the case where the vertical scanning is performed in order to detect the upper edge or the lower edge, the horizontal scanning described above is used for the pixel setting of the line described above or the pixel setting of the range for specifying the pixel region. It is desirable to reverse the vertical and horizontal pixel settings in

このように4方向からの処理を行なうことで、原稿の4箇所のエッジを特定できる。
なお、上記においては、原稿を白色の余白領域を周囲に有するもとのし、背景板の色も余白領域と同様の白色であるものとして説明を行なったが、当然、本発明はこれに限定されるものではなく、その他の色においても適用可能である。
By performing processing from four directions in this way, four edges of the document can be specified.
In the above description, it is assumed that the document has a white margin area around it, and the background plate has the same white color as the margin area, but the present invention is naturally limited to this. In addition, the present invention can be applied to other colors.

また、便宜上、原稿の余白領域以外を、文字や罫線の印字されている印字領域が占有しているものとして説明したが、印字領域が無い原稿に対しては、上述した印字領域除外処理を省くことも可能である。   For the sake of convenience, the description has been made assuming that the print area where characters and ruled lines are printed is occupied except for the margin area of the document. However, the above-described print area exclusion process is omitted for a document having no print area. It is also possible.

以上各種の動作フローに含まれる各機能は、画像処理装置に構成されるRAM(Random Access Memory)やROM(Read Only Memory)などのメモリに、CPU(中央演算処理装置)が読み取り可能なプログラムコードの形態で記憶され、メモリとバス接続されたCPUにそのプログラムが実行処理されることによって実現される。   Each function included in the various operation flows described above is a program code that can be read by a CPU (Central Processing Unit) in a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory) configured in the image processing apparatus. The program is executed by a CPU stored in the form of the above and connected to the memory by a bus.

このような画像処理装置が構成されるものの一例としてコピー機がある。
図21は、コピー機のブロック図を示している。
同図のコピー機2100では、画像読取部2102に構成される読み取り面2104に対して原稿Cの表面(読取対象面)をセットし、その原稿の背面からは、原稿を覆う原稿カバー2106が被せられた状態で、画像の読み取りを行なう。
A copy machine is an example of such an image processing apparatus.
FIG. 21 shows a block diagram of the copier.
In the copier 2100 in FIG. 2, the surface of the document C (read target surface) is set on the reading surface 2104 configured in the image reading unit 2102, and the document cover 2106 covering the document is covered from the back of the document. In this state, the image is read.

画像読取部2102における画像の読み取りは、セットされた原稿Cに向けて読み取り面2104側から光を照射し、反射してきた光を画像読取部に構成された光読取部2108(CCD)が一ライン毎に読み取り、読み取った原稿表面の情報を電気信号に変換して、変換された画像情報を上述したエッジ検出処理を行なう画像処理部2110に送る。   The image reading unit 2102 reads an image by irradiating light from the reading surface 2104 side toward the set original C, and the light reading unit 2108 (CCD) configured as the image reading unit outputs one line of reflected light. Each time it is read, the read document surface information is converted into an electrical signal, and the converted image information is sent to the image processing unit 2110 that performs the edge detection process described above.

画像処理部2110では、上述したように、同色の、背景画像と原稿の余白の境界(原稿のエッジ)を検出できるので、この検出によって得られたエッジ情報を原稿サイズ検出部2112に送り、原稿サイズを特定することによって、この特定した原稿サイズでの原稿Cのコピーを、印字部2114から、コピー機の排出台2116に対して印字出力できる。   As described above, the image processing unit 2110 can detect the boundary between the background image of the same color and the margin of the document (the edge of the document), and sends the edge information obtained by this detection to the document size detection unit 2112. By specifying the size, a copy of the original C with the specified original size can be printed out from the printing unit 2114 to the discharge stand 2116 of the copier.

図22は、上述した画像処理技術を使用するハードウエア構成の一例である。
同図では、スキャナ2200と画像処理用パーソナルコンピュータ(PC)2202とがケーブル2204により接続された構成をとっている。
FIG. 22 is an example of a hardware configuration that uses the image processing technique described above.
In the drawing, a scanner 2200 and an image processing personal computer (PC) 2202 are connected by a cable 2204.

このような構成においては、PC2202内部に構成される不図示のRAM(Random Access Memory)やROM(Read Only Memory)などのメモリに上記プログラムが記憶され、メモリとバス接続されたCPUにそのプログラムを実行させることにより、スキャナ2200で読み取られ、ケーブル2204を介してPC2202に送信される画像データから原稿エッジ情報を抽出する。   In such a configuration, the program is stored in a memory (not shown) such as a RAM (Random Access Memory) or a ROM (Read Only Memory) configured in the PC 2202, and the program is stored in a CPU bus-connected to the memory. By executing this, document edge information is extracted from image data read by the scanner 2200 and transmitted to the PC 2202 via the cable 2204.

図23は、上述した画像処理技術を使用するハードウエア構成の一例である。
同図では、図20のスキャナ2200及びPC2202に加え、画像編集済の画像データを蓄積する画像データ蓄積部2300及びファイリングPCがケーブル2204によって接続された画像ファイリングシステムを構成する。
FIG. 23 is an example of a hardware configuration that uses the image processing technique described above.
In FIG. 20, in addition to the scanner 2200 and the PC 2202 of FIG. 20, an image filing system in which an image data storage unit 2300 that stores image data that has been edited and a filing PC are connected by a cable 2204 is configured.

このような構成においては、PC2202のスキャナドライバ2304を駆動してスキャナ2200から読み込んだ画像データを、PC2202に取り込み、その取り込んだ画像データに対して原稿エッジの検出処理2306を行ない、得られたエッジ情報を基に背景板画像を切り取って画像サイズを最適化したり、得られたエッジ情報を基に回転をかけて斜行補正したりする画像編集処理2308などをして、画像データ蓄積部2300に編集済みの画像データを蓄積する。   In such a configuration, image data read from the scanner 2200 by driving the scanner driver 2304 of the PC 2202 is taken into the PC 2202, and the original edge detection processing 2306 is performed on the fetched image data, and the obtained edge is obtained. The image data storage unit 2300 performs image editing processing 2308 that cuts out the background plate image based on the information to optimize the image size, or performs skew correction by rotation based on the obtained edge information. Store edited image data.

この際、画像データ蓄積部2300に蓄積された画像データの関連情報を各画像データ毎にファイリングPC2302の図示されていない管理テーブルに対応付けして、ファイリングPC2302に画像データを管理させる。   At this time, the related information of the image data stored in the image data storage unit 2300 is associated with a management table (not shown) of the filing PC 2302 for each image data, and the filing PC 2302 manages the image data.

図24は、図23のハードウエア構成における動作フローの一例である。
先ず、スキャナドライバ2304を駆動してスキャナ2200から読み込んだ画像データを、PC2202に取り込む(S2400)。
FIG. 24 is an example of an operation flow in the hardware configuration of FIG.
First, the scanner driver 2304 is driven and the image data read from the scanner 2200 is taken into the PC 2202 (S2400).

そして、上記において詳細に説明したエッジの検出処理をその画像データに施し(S2402)、原稿のエッジ情報を取得する(S2404)。
ここで、画像データの編集として、4方をエッジで囲まれた画像領域であるか否かの判定をし(S2406)、4方をエッジで囲まれた画像領域(原稿画像)のみを抽出する(S2408)。
Then, the edge detection process described in detail above is performed on the image data (S2402), and the edge information of the document is acquired (S2404).
Here, as editing of the image data, it is determined whether or not the image area is surrounded by the four sides (S2406), and only the image area (original image) surrounded by the four sides is extracted. (S2408).

そして、このように最適化された画像原稿を画像データ蓄積部2300に記録する(S2410)。
図25は、図23のハードウエア構成における動作フローの一例である。
Then, the image document optimized in this way is recorded in the image data storage unit 2300 (S2410).
FIG. 25 is an example of an operation flow in the hardware configuration of FIG.

先ず、スキャナドライバ2304を駆動してスキャナ2200から読み込んだ画像データを、PC2202に取り込む(S2500)。
そして、上記において詳細に説明したエッジの検出処理をその画像データに施し(S2502)、原稿のエッジ情報を取得する(S2504)。
First, the scanner driver 2304 is driven and the image data read from the scanner 2200 is taken into the PC 2202 (S2500).
Then, the edge detection process described in detail above is performed on the image data (S2502), and the edge information of the document is acquired (S2504).

ここで、画像データの編集として、取得されたエッジの、画像平面上の軸(X軸またはY軸)に対する例えば最小の傾きを検出し(S2506)、その傾きがなくなるように画像データを回転して斜行補正する(S2508)。   Here, as editing of the image data, for example, the minimum inclination of the acquired edge with respect to the axis (X axis or Y axis) on the image plane is detected (S2506), and the image data is rotated so that the inclination disappears. To correct the skew (S2508).

そして、このように補正された画像原稿を画像データ蓄積部2300に記録する(S2510)。
なお、上記図24と図25の動作フローを組み合わせることも可能であり、例えば、図25のステップS2506及びステップS2508の処理を図24のステップS2404及びステップS2406の処理の間に行なわせるようにすることができる。
Then, the image document corrected in this way is recorded in the image data storage unit 2300 (S2510).
It is possible to combine the operation flows of FIG. 24 and FIG. 25. For example, the processing of step S2506 and step S2508 of FIG. 25 is performed between the processing of step S2404 and step S2406 of FIG. be able to.

このように斜行補正を施すことにより、後処理をしやすくすることが可能になる。
また、背景画像データを切り落とすことによって、余分なデータを取り除く事が可能になり、データ量も小さくて済むので、データの保管も少ない容量で済み、データの利用において処理スピードを早くすることができる。
By performing the skew correction in this way, post-processing can be facilitated.
Also, by cutting off the background image data, it becomes possible to remove excess data, and the amount of data can be reduced, so that data can be stored in a small capacity and the processing speed can be increased in the use of data. .

続いて、図26は、上述した2つの構成のPC2202において実行させる処理の拡張例である。
同図では、Windows(登録商標)環境を有するPC2202での処理を示し、その環境の下、スキャナドライバ2304の駆動によってスキャナ2200から枠付き原稿画像Aを読み込み、PC2202に取り込んで、その画像Aに対して原稿エッジ検出処理2306を実行して、得られたエッジ情報を基に、その外側の背景板画像を黒色に着色した黒色背景板画像Eを生成して、この画像Eに対して既知の文字認識処理2308を実行した結果をアプリケーション2310に渡して、アプリケーション2310から文字認識された情報(コードデータなど)を取り出すことを可能にしている。
Next, FIG. 26 is an extended example of processing executed by the PC 2202 having the two configurations described above.
This figure shows processing in a PC 2202 having a Windows (registered trademark) environment. Under this environment, the scanner driver 2304 drives the framed original image A from the scanner 2200, loads it into the PC 2202, and loads the image A into the image A. On the basis of the obtained edge information, the document edge detection processing 2306 is executed to generate a black background plate image E in which the outer background plate image is colored black. The result of executing the character recognition processing 2308 is passed to the application 2310, and the character-recognized information (such as code data) can be extracted from the application 2310.

図27は、上記黒色背景板画像Eを生成するためのフローである。
先ず、スキャナドライバ2304を駆動してスキャナ2200から読み込んだ画像データAを、PC2202に取り込む(S2700)。
FIG. 27 is a flow for generating the black background board image E.
First, the scanner driver 2304 is driven and the image data A read from the scanner 2200 is taken into the PC 2202 (S2700).

そして、上記において詳細に説明したエッジの検出処理をその画像データに施し(S2702)、原稿のエッジ情報を取得する(S2704)。
さらに、画像データに対して、4方をエッジで囲まれた画像領域以外の画像領域を判定し(S2706)、4方をエッジで囲まれた画像領域(原稿画像)以外の画像領域の階調濃度を黒色になるように変更する(S2708)。
Then, the edge detection process described in detail above is performed on the image data (S2702), and the edge information of the document is acquired (S2704).
Further, an image area other than the image area surrounded by the four edges is determined for the image data (S2706), and the gradation of the image area other than the image area (original image) surrounded by the four edges is determined. The density is changed to black (S2708).

そして最後に、原稿画像の始点(例えば画像平面上における原稿画像の上端左端の位置)を特定して、例えば、予め記憶部などに記憶された、上記始点からの印字位置を対象に、画像を切り抜いてその画像を分析し、その画像に含まれる文字をパターン認識処理に基づいて抽出するなどといった文字認識処理を施す(S2710)。   Finally, the starting point of the document image (for example, the position of the upper left end of the document image on the image plane) is specified, and for example, the image is printed for the print position from the starting point stored in advance in the storage unit or the like. Character recognition processing such as cutting out and analyzing the image and extracting characters included in the image based on the pattern recognition processing is performed (S2710).

なお、本処理において、図25の動作フローと組み合わせることも可能であり、例えば、図25のステップS2506及びステップS2508の処理を図27のステップS2704及びステップS2706の処理の間に行なわせるようにすることができる。   Note that this processing can be combined with the operation flow of FIG. 25. For example, the processing of step S2506 and step S2508 of FIG. 25 is performed between the processing of step S2704 and step S2706 of FIG. be able to.

このように、背景板画像を黒色に着色することで、従来の黒色背景板のスキャナから取り込んだ、黒色背景板画像を原稿画像の縁の周辺に有した、従来画像と同じ仕様の画像データを作成できるので、従来の黒色背景を有した画像データを編集する装置(例えばOCR処理装置など)に対して、本発明の画像処理装置を介して得られた画像データを利用させることも可能である。   In this way, by coloring the background plate image to black, the image data of the same specifications as the conventional image having the black background plate image taken around the edge of the original image captured from the scanner of the conventional black background plate is obtained. Since the image data can be created, the image data obtained through the image processing apparatus of the present invention can be used by a conventional apparatus (such as an OCR processing apparatus) for editing image data having a black background. .

なお、以上説明してきた各処理(当然、エッジ検出処理を含む)はプログラムの形態で配布することもできる。
その場合、フロッピー(登録商標)ディスク、CD−ROM、DVDなどの記録媒体(例えば、図22においてはCD-ROM挿入部2206に挿入されるCD−ROM)に上記プログラムを記録させて配布したり、或いは、公衆網等で用いられる伝送媒体を介して、そのプログラムの一部、若しくは全部を配信するようにしたりすることができる。
Each processing described above (of course, including edge detection processing) can also be distributed in the form of a program.
In that case, the program is recorded and distributed on a recording medium such as a floppy (registered trademark) disk, a CD-ROM, or a DVD (for example, a CD-ROM inserted in the CD-ROM insertion unit 2206 in FIG. 22). Alternatively, part or all of the program can be distributed via a transmission medium used in a public network or the like.

そして、上記形態で配布されたプログラムを取得したユーザーは、コンピュータなどのデータ処理装置に構成される、例えば、前記記録媒体に記録された情報を読み取る読み取り部や外部機器とデータ通信を行う通信部などを介して、各々とバスを介して接続されるRAMやROMなどのメモリに上記プログラムを読み込ませ、上記メモリとバスを介して接続されるCPU(中央演算処理装置)にそのプログラムを実行させることで、上記画像処理をユーザのデータ処理装置において実現することが可能となる。   A user who acquires the program distributed in the above form is configured in a data processing device such as a computer, for example, a reading unit that reads information recorded on the recording medium or a communication unit that performs data communication with an external device The above program is read into a memory such as a RAM or a ROM connected to each other via a bus, and the program is executed by a CPU (central processing unit) connected to the memory via a bus. Thus, the image processing can be realized in the user data processing apparatus.

以上述べたように、本発明の実施の形態においては、最初に印字領域を除外して処理対象を狭めているので、その後の処理を高速に行なえる。
また、印字領域に基づく、隣接領域との特徴情報の変化量を無視できるので、背景板と原稿との境界が特定し易くなる。
As described above, in the embodiment of the present invention, the processing target is narrowed by first excluding the print area, so that the subsequent processing can be performed at high speed.
Further, since the amount of change in the feature information with the adjacent area based on the print area can be ignored, the boundary between the background plate and the document can be easily specified.

また、本発明の実施の形態においては、先ず始めに、画像の単位領域をやや広めにとって、画像上の背景板と原稿との境界位置を2DFFTで得られた特徴量に基づいて仮決定し、この後、仮決定した位置と誤差範囲を含めた領域のみを対象に、上記単位領域よりも小さい領域を単位とした1次元高速フーリエ変換(1DFFT)を施して、さらにウエーブレット変換を施しているので、境界を検出するまでの処理を高速に行なうことができ、さらに、精度良く境界の位置を検出できる。
また、上記画像処理は背景板と原稿の素材の組み合わせを選ばないので、如何なる背景板を有するスキャナから読み込まれた原稿画像であっても、適用することが可能である。
In the embodiment of the present invention, first, for the purpose of slightly widening the unit area of the image, the boundary position between the background plate and the document on the image is provisionally determined based on the feature amount obtained by 2DFFT, Thereafter, only a region including the tentatively determined position and error range is subjected to a one-dimensional fast Fourier transform (1DFFT) with a region smaller than the unit region as a unit, and a wavelet transform is further performed. As a result, processing up to detecting the boundary can be performed at high speed, and the position of the boundary can be detected with high accuracy.
Further, since the image processing does not select a combination of the background plate and the original material, it can be applied to an original image read from a scanner having any background plate.

(付記1) 画像データ上の任意の隣り合う領域において、互いに特徴の異なる領域間の境界を検出する境界検出方法であって、
該画像データ上の単位領域毎に、該単位領域内の全画素によって決まる特徴情報を抽出し、
任意の該単位領域を基準に、隣接する該単位領域との該特徴情報の差を求め、
該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する、
ことを特徴とする境界検出方法。
(付記2) 画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出する境界検出方法であって、
該画像データの単位領域毎に、画像周波数情報を抽出し、
該単位領域毎に、該抽出した画像周波数情報に基づく代表特徴情報を決定し、
任意の該単位領域を基準に、隣接する該単位領域との該代表特徴情報の差を求め、
該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する、
ことを特徴とする境界検出方法。
(付記3) 画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出する境界検出方法であって、
該画像データの第一単位領域毎に、第一画像周波数情報を抽出し、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、
任意の該第一単位領域の該代表特徴情報において、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる第一単位領域を該境界として仮決定し、
該境界として仮決定した該第一単位領域及び該第一単位領域の近傍領域において、該第一単位領域より狭い第二単位領域毎に第二画像周波数情報を抽出し、
任意の該第二単位領域の該第二画像周波数情報における、隣接する該第二単位領域の該第二画像周波数情報との変化量に基づく値が少なくとも所定レベル以上となる第二単位領域を該境界として決定する、
ことを特徴とする境界検出方法。
(付記4) 背景板を背面に配置して正面から画像入力を行なった原稿の、該背景板の一部と該原稿とからなる入力画像データにおいて、該背景板の一部と該原稿の縁とが同一色で画像入力された入力画像データの、該背景板の一部と該原稿との境界を検出する境界検出方法であって、
該入力画像データの第一単位領域毎にフーリエ変換を施し、
該フーリエ変換によって得られる第一画像周波数情報を抽出し、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、
任意の該第一単位領域における、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる第一単位領域に対し、直線近似を施す事によって近似直線上に該当する領域を該境界として仮決定し、
該境界として仮決定した領域及び該領域の近傍領域において、該第一単位領域より狭い第二単位領域毎にフーリエ変換を施し、
該フーリエ変換によって得られる第二画像周波数情報を抽出し、
該第二単位領域毎に、該抽出した第二画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、
該代表特徴情報に対してウエーブレット変換を施し、
該ウエーブレット変換によって得られる該第二単位領域毎の値が少なくとも所定レベル以上となる第二単位領域に対して直線近似を施し、
該直線近似によって得られる近似直線上の位置を該境界として決定する、
ことを特徴とする境界検出方法。
(付記5)前記原稿の四方が前記背景板によって取り囲まれた画像データにおいて、該画像データ上の、互いに平行または直交し、互いに方向の異なる4つの向きから前記検出を行なうことを特徴とする付記4に記載の境界検出方法。
(付記6) 前記画像データまたは前記入力画像データに対して、最初、印字領域を特定し、該印字領域を除外した画像データまたは入力画像データを処理対象とすることを特徴とする付記1乃至5の何れか一つに記載の境界検出方法。
(付記7) 前記特徴情報または前記周波数情報は、高周波成分、低周波成分、直流成分、及び周波数分布である、ことを特徴とする付記1乃至6の何れか一つに記載の境界検出方法。
(付記8) 前記決定した境界が矩形である場合に、該境界を基に該矩形に含まれる領域の斜行補正を行なう、
ことを特徴とする付記1乃至7の何れか一つに記載の境界検出方法。
(付記9) 前記決定した境界を基に、該境界に隣接する一方の領域または前記画像データの原稿部分を残して、他方の領域または前記画像データの背景板部分を取り除く、
ことを特徴とする付記1乃至8の何れか一つに記載の境界検出方法。
(付記10) 前記決定した境界を基に、該境界に隣接する一方の領域または前記画像データの背景板部分を黒色に着色し、
該境界に隣接する、該黒色に着色した領域以外の、他方の領域に含まれる文字を認識する、
ことを特徴とする付記1乃至8の何れか一つに記載の境界検出方法。
(付記11) 画像データ上の任意の隣り合う領域において、互いに特徴の異なる領域間の境界を検出する処理をコンピュータに実行させるプログラムであって、
該画像データ上の単位領域毎に、該単位領域内の全画素によって決まる特徴情報を抽出する機能と、
任意の該単位領域を基準に、隣接する該単位領域との該特徴情報の差を求める機能と、
該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する機能と、
を実現させるためのプログラム。
(付記12) 画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出する処理をコンピュータに実行させるプログラムであって、
該画像データの単位領域毎に、画像周波数情報を抽出する機能と、
該単位領域毎に、該抽出した画像周波数情報に基づく代表特徴情報を決定する機能と、
任意の該単位領域を基準に、隣接する該単位領域との該代表特徴情報の差を求める機能と、
該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する機能と、
を実現させるためのプログラム。
(付記13) 画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出する処理をコンピュータに実行させるプログラムであって、
該画像データの第一単位領域毎に、第一画像周波数情報を抽出する機能と、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とする機能と、
任意の該第一単位領域の該代表特徴情報において、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる第一単位領域を該境界として仮決定する機能と、
該境界として仮決定した該第一単位領域及び該第一単位領域の近傍領域において、該第一単位領域より狭い第二単位領域毎に第二画像周波数情報を抽出する機能と、
任意の該第二単位領域の該第二画像周波数情報における、隣接する該第二単位領域の該第二画像周波数情報との変化量に基づく値が少なくとも所定レベル以上となる第二単位領域を該境界として決定する機能と、
を実現させるためのプログラム。
(付記14) 背景板を背面に配置して正面から画像入力を行なった原稿の、該背景板の一部と該原稿とからなる入力画像データにおいて、該背景板の一部と該原稿の縁とが同一色で画像入力された入力画像データの、該背景板の一部と該原稿との境界を検出する処理をコンピュータに実行させるプログラムであって、
該入力画像データの第一単位領域毎にフーリエ変換を施す機能と、
該フーリエ変換によって得られる第一画像周波数情報を抽出する機能と、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とする機能と、
任意の該第一単位領域における、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる第一単位領域に対し、直線近似を施す事によって近似直線上に該当する領域を該境界として仮決定する機能と、
該境界として仮決定した領域及び該領域の近傍領域において、該第一単位領域より狭い第二単位領域毎にフーリエ変換を施す機能と、
該フーリエ変換によって得られる第二画像周波数情報を抽出する機能と、
該第二単位領域毎に、該抽出した第二画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とする機能と、
該代表特徴情報に対してウエーブレット変換を施す機能と、
該ウエーブレット変換によって得られる該第二単位領域毎の値が少なくとも所定レベル以上となる第二単位領域に対して直線近似を施す機能と、
該直線近似によって得られる近似直線上の位置を該境界として決定する機能と、
を実現させるためのプログラム。
(付記15)前記原稿の四方が前記背景板によって取り囲まれた画像データにおいて、該画像データ上の、互いに平行または直交し、互いに方向の異なる4つの向きから前記検出を行なう機能をさらに実現させることを特徴とする付記14に記載のプログラム。
(付記16) 前記画像データまたは前記入力画像データに対して、最初、印字領域を特定し、該印字領域を除外した画像データまたは入力画像データを処理対象とする機能をさらに実現させる付記11乃至15の何れか一つに記載のプログラム。
(付記17) 前記特徴情報または前記周波数情報は、高周波成分、低周波成分、直流成分、及び周波数分布である、ことを特徴とする付記11乃至16の何れか一つに記載のプログラム。
(付記18) 前記決定した境界が矩形である場合に、該境界を基に該矩形に含まれる領域の斜行補正を行なう機能をさらに実現させる、付記11乃至17の何れか一つに記載のプログラム。
(付記19) 前記決定した境界を基に、該境界に隣接する一方の領域または前記画像データの原稿部分を残して、他方の領域または前記画像データの背景板部分を取り除く機能をさらに実現させる、付記11乃至18の何れか一つに記載のプログラム。
(付記20) 前記決定した境界を基に、該境界に隣接する一方の領域または前記画像データの背景板部分を黒色に着色する機能と、
該境界に隣接する、該黒色に着色した領域以外の、他方の領域に含まれる文字を認識する機能と、
をさらに実現させる付記11乃至19の何れか一つに記載のプログラム。
(付記21) 画像データ上の任意の隣り合う領域において、互いに特徴の異なる領域間の境界を検出する画像処理装置であって、
該画像データ上の単位領域毎に、該単位領域内の全画素によって決まる特徴情報を抽出する特徴強調手段と、
任意の該単位領域を基準に、隣接する該単位領域との該特徴情報の差を求め、該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する境界決定手段と、
を有することを特徴とする画像処理装置。
(付記22) 画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出する画像処理装置であって、
該画像データの単位領域毎に画像周波数情報を抽出する特徴強調手段と、
該単位領域毎に、該抽出した画像周波数情報に基づく代表特徴情報を決定し、任意の該単位領域を基準に、隣接する該単位領域との該代表特徴情報の差を求め、該差が少なくとも所定レベル以上となる、該基準の単位領域を該境界として決定する境界決定手段と、
を有することを特徴とする画像処理装置。
(付記23) 画像データ上の任意の隣り合う領域において、互いに画素配列の異なる領域間の境界を検出する画像処理装置であって、
該画像データの第一単位領域毎に、第一画像周波数情報を抽出する特徴強調手段と、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、任意の該第一単位領域の該代表特徴情報において、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる第一単位領域を該境界として仮決定する境界仮決定手段と、
該境界として仮決定した該第一単位領域及び該第一単位領域の近傍領域において、該第一単位領域より狭い第二単位領域毎に第二画像周波数情報を抽出し、任意の該第二単位領域の該第二画像周波数情報における、隣接する該第二単位領域の該第二画像周波数情報との変化量に基づく値が少なくとも所定レベル以上となる第二単位領域を該境界として決定する境界決定手段と、
を有することを特徴とする画像処理装置。
(付記24) 背景板を背面に配置して正面から画像入力を行なった原稿の、該背景板の一部と該原稿とからなる入力画像データにおいて、該背景板の一部と該原稿の縁とが同一色で画像入力された入力画像データの、該背景板の一部と該原稿との境界を検出する画像処理装置であって、
該入力画像データの第一単位領域毎にフーリエ変換を施し、該フーリエ変換によって得られる第一画像周波数情報を抽出する特徴強調手段と、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、任意の該第一単位領域における、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる第一単位領域に対し、直線近似を施す事によって近似直線上に該当する領域を該境界として仮決定する境界仮決定手段と、
該境界として仮決定した領域及び該領域の近傍領域において、該第一単位領域より狭い第二単位領域毎にフーリエ変換を施し、該フーリエ変換によって得られる第二画像周波数情報を抽出し、該第二単位領域毎に、該抽出した第二画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、該代表特徴情報に対してウエーブレット変換を施し、該ウエーブレット変換によって得られる該第二単位領域毎の値が少なくとも所定レベル以上となる第二単位領域に対して直線近似を施し、該直線近似によって得られる近似直線上の位置を該境界として決定する境界決定手段と、
を有することを特徴とする画像処理装置。
(付記25)原稿の四方が前記背景板によって取り囲まれた画像データにおいて、前記各手段は、該画像データ上の、互いに平行または直交し、互いに方向の異なる4つの向きに対して機能することを特徴とする付記24に記載の画像処理装置。
(付記26) 前記画像データの印字領域を除外する印字領域除外部をさらに有することを特徴とする請求項21乃至25の何れか一つに記載の画像処理装置。
(付記27) 前記特徴情報または前記周波数情報は、高周波成分、低周波成分、直流成分、及び周波数分布である、ことを特徴とする請求項21乃至26の何れか一つに記載の画像処理装置。
(付記28) 原稿を光学式に読み取って該原稿の前記画像データを生成する画像読取手段をさらに有することを特徴とする付記21乃至27の何れか一つに記載の画像処理装置。
(付記29) 前記決定した境界が矩形である場合に、該境界を基に該矩形に含まれる領域の斜行補正を行なう斜行補正手段をさらに有する、ことを特徴とする付記21乃至28の何れか一つに記載の画像処理装置。
(付記30) 前記決定した境界を基に、該境界に隣接する一方の領域または前記画像データの原稿部分を残して、他方の領域または前記画像データの背景板部分を取り除く画像除外部をさらに有する、ことを特徴とする付記21乃至29の何れか一つに記載の画像処理装置。
(付記31) 前記決定した境界を基に、該境界に隣接する一方の領域または前記画像データの背景板部分を黒色に着色する画像着色手段と、
該境界に隣接する、該黒色に着色した領域以外の、他方の領域に含まれる文字を認識する、文字認識手段と、
を有することを特徴とする付記21乃至30の何れか一つに記載の画像処理装置。
(付記32) 背景板を原稿の背面に配置して該原稿の画像情報を該原稿の正面から読み取り、該背景板と該原稿の境界検出に基づく該原稿サイズの特定により該原稿のコピーを出力するコピー機において、
画像情報の印字領域を除外する印字領域除外部と、
該画像情報上の単位領域毎に、該単位領域内の全画像情報によって決まる特徴情報を抽出する特徴強調手段と、
任意の該単位領域を基準に、隣接する該単位領域との該特徴情報の差を求め、該差が少なくとも所定レベル以上となる、該印字領域以外の該基準の単位領域を該境界として決定する境界決定手段と、
を有することを特徴とするコピー機。
(付記33) 背景板を原稿の背面に配置して該原稿の画像情報を該原稿の正面から読み取り、該背景板と該原稿の境界検出に基づく該原稿サイズの特定により該原稿のコピーを出力するコピー機において、
画像情報の印字領域を除外する印字領域除外部と、
該画像情報の単位領域毎に画像周波数情報を抽出する特徴強調手段と、
該単位領域毎に、該抽出した画像周波数情報に基づく代表特徴情報を決定し、任意の該単位領域を基準に、隣接する該単位領域との該代表特徴情報の差を求め、該差が少なくとも所定レベル以上となる、該印字領域以外の該基準の単位領域を該境界として決定する境界決定手段と、
を有することを特徴とするコピー機。
(付記34) 背景板を原稿の背面に配置して該原稿の画像情報を該原稿の正面から読み取り、該背景板と該原稿の境界検出に基づく該原稿サイズの特定により該原稿のコピーを出力するコピー機において、
画像情報の印字領域を除外する印字領域除外部と、
該画像情報の第一単位領域毎に、第一画像周波数情報を抽出する特徴強調手段と、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、任意の該第一単位領域の該代表特徴情報において、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる該印字領域以外の第一単位領域を該境界として仮決定する境界仮決定手段と、
該境界として仮決定した該第一単位領域及び該第一単位領域の近傍領域において、該第一単位領域より狭い第二単位領域毎に第二画像周波数情報を抽出し、任意の該第二単位領域の該第二画像周波数情報における、隣接する該第二単位領域の該第二画像周波数情報との変化量に基づく値が少なくとも所定レベル以上となる第二単位領域を該境界として決定する境界決定手段と、
を有することを特徴とするコピー機。
(付記35) 背景板を原稿の背面に配置して該原稿の画像情報を該原稿の正面から読み取り、該背景板と該原稿の境界検出に基づく該原稿サイズの特定により該原稿のコピーを出力するコピー機において、
画像情報の印字領域を除外する印字領域除外部と、
該画像情報の第一単位領域毎にフーリエ変換を施し、該フーリエ変換によって得られる第一画像周波数情報を抽出する特徴強調手段と、
該第一単位領域毎に、該抽出した第一画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、任意の該第一単位領域における、隣接する該第一単位領域の代表特徴情報との変化量が少なくとも所定レベル以上となる該印字領域以外の第一単位領域に対し、直線近似を施す事によって近似直線上に該当する領域を該境界として仮決定する境界仮決定手段と、
該境界として仮決定した領域及び該領域の近傍領域において、該第一単位領域より狭い第二単位領域毎にフーリエ変換を施し、該フーリエ変換によって得られる第二画像周波数情報を抽出し、該第二単位領域毎に、該抽出した第二画像周波数情報の各種を所定の重みで加算した値を代表特徴情報とし、該代表特徴情報に対してウエーブレット変換を施し、該ウエーブレット変換によって得られる該第二単位領域毎の値が少なくとも所定レベル以上となる第二単位領域に対して直線近似を施し、該直線近似によって得られる近似直線上の位置を該境界として決定する境界決定手段と、
を有することを特徴とするコピー機。
(付記36)原稿の四方が前記背景板によって取り囲まれた画像データにおいて、前記各手段は、該画像データ上の、互いに平行または直交し、互いに方向の異なる4つの向きに対して機能することを特徴とする付記35に記載のコピー機。
(付記37) 前記画像情報の印字領域を階調値に基づいて除外することを特徴とする付記32乃至36の何れか一つに記載のコピー機。
(Supplementary Note 1) A boundary detection method for detecting a boundary between regions having different characteristics in any adjacent region on image data,
For each unit area on the image data, extract feature information determined by all pixels in the unit area,
Finding the difference of the feature information from the adjacent unit region based on the arbitrary unit region,
Determining the reference unit region as the boundary, at which the difference is at least a predetermined level,
A boundary detection method characterized by that.
(Supplementary Note 2) A boundary detection method for detecting a boundary between regions having different pixel arrangements in any adjacent region on image data,
Image frequency information is extracted for each unit area of the image data,
For each unit region, determine representative feature information based on the extracted image frequency information,
The difference between the representative feature information with the adjacent unit region is obtained with reference to the arbitrary unit region,
Determining the reference unit region as the boundary, at which the difference is at least a predetermined level,
A boundary detection method characterized by that.
(Supplementary Note 3) A boundary detection method for detecting a boundary between regions having different pixel arrangements in any adjacent region on image data,
For each first unit region of the image data, extract the first image frequency information,
For each first unit region, a value obtained by adding various kinds of the extracted first image frequency information with a predetermined weight is used as representative feature information.
In the representative feature information of any of the first unit regions, a first unit region whose amount of change from the representative feature information of the adjacent first unit region is at least a predetermined level is provisionally determined as the boundary,
Second image frequency information is extracted for each second unit region that is narrower than the first unit region in the first unit region that is provisionally determined as the boundary and in the vicinity region of the first unit region,
A second unit region in which a value based on a change amount of the second image frequency information of the adjacent second unit region with respect to the second image frequency information of an arbitrary second unit region is at least a predetermined level or more. As a boundary,
A boundary detection method characterized by that.
(Supplementary Note 4) In an input image data composed of a part of the background plate and the document, the image is input from the front with the background plate arranged on the back side, and a part of the background plate and the edge of the document Is a boundary detection method for detecting a boundary between a part of the background plate and the original of input image data input with the same color image,
Fourier transform is performed for each first unit region of the input image data,
Extracting the first image frequency information obtained by the Fourier transform;
For each first unit region, a value obtained by adding various kinds of the extracted first image frequency information with a predetermined weight is used as representative feature information.
Corresponding to the approximate straight line by applying a linear approximation to the first unit area in which the amount of change from the representative feature information of the adjacent first unit area is at least a predetermined level in any one of the first unit areas Temporarily determine the region as the boundary,
In the region tentatively determined as the boundary and the region near the region, Fourier transform is performed for each second unit region narrower than the first unit region,
Extracting second image frequency information obtained by the Fourier transform;
For each second unit region, a value obtained by adding various kinds of the extracted second image frequency information with a predetermined weight is used as representative feature information.
Wavelet transformation is performed on the representative feature information,
A linear approximation is applied to the second unit region where the value for each second unit region obtained by the wavelet transform is at least a predetermined level,
A position on an approximate line obtained by the straight line approximation is determined as the boundary;
A boundary detection method characterized by that.
(Supplementary Note 5) In the image data in which the four sides of the document are surrounded by the background plate, the detection is performed from four directions on the image data that are parallel or orthogonal to each other and different from each other. 5. The boundary detection method according to 4.
(Supplementary note 6) Supplementary notes 1 to 5 characterized in that, for the image data or the input image data, first, a print area is specified, and the image data or the input image data excluding the print area is a processing target. The boundary detection method according to any one of the above.
(Supplementary note 7) The boundary detection method according to any one of supplementary notes 1 to 6, wherein the feature information or the frequency information is a high-frequency component, a low-frequency component, a DC component, and a frequency distribution.
(Supplementary Note 8) When the determined boundary is a rectangle, the skew correction of the region included in the rectangle is performed based on the boundary.
The boundary detection method according to any one of appendices 1 to 7, wherein:
(Additional remark 9) Based on the determined boundary, leaving one region adjacent to the boundary or the original portion of the image data, and removing the other region or the background plate portion of the image data,
The boundary detection method according to any one of appendices 1 to 8, wherein:
(Supplementary Note 10) Based on the determined boundary, one region adjacent to the boundary or the background plate portion of the image data is colored black,
Recognize characters included in the other area other than the black colored area adjacent to the boundary;
The boundary detection method according to any one of appendices 1 to 8, wherein:
(Supplementary Note 11) A program for causing a computer to execute a process of detecting a boundary between regions having different characteristics in any adjacent region on image data,
A function for extracting feature information determined by all pixels in the unit area for each unit area on the image data;
A function for obtaining a difference in the feature information from the adjacent unit region with reference to the arbitrary unit region;
A function for determining the reference unit region as the boundary, the difference being at least a predetermined level;
A program to realize
(Supplementary Note 12) A program for causing a computer to execute a process of detecting a boundary between regions having different pixel arrays in any adjacent region on image data,
A function of extracting image frequency information for each unit area of the image data;
A function for determining representative feature information based on the extracted image frequency information for each unit region;
A function of obtaining a difference in the representative feature information from the adjacent unit region with respect to any unit region;
A function for determining the reference unit region as the boundary, the difference being at least a predetermined level;
A program to realize
(Supplementary note 13) A program for causing a computer to execute processing for detecting a boundary between regions having different pixel arrangements in any adjacent region on image data,
A function of extracting first image frequency information for each first unit region of the image data;
For each first unit region, a function of adding various values of the extracted first image frequency information with a predetermined weight as representative feature information;
In the representative feature information of any of the first unit regions, a function of temporarily determining, as the boundary, a first unit region whose amount of change from the representative feature information of the adjacent first unit region is at least a predetermined level;
A function of extracting second image frequency information for each second unit region narrower than the first unit region in the first unit region temporarily determined as the boundary and a region near the first unit region;
A second unit region in which a value based on a change amount of the second image frequency information of the adjacent second unit region with respect to the second image frequency information of an arbitrary second unit region is at least a predetermined level or more. The ability to determine the boundary,
A program to realize
(Supplementary Note 14) In an input image data composed of a part of the background plate and the document, the image is input from the front with the background plate arranged on the back side, and a part of the background plate and the edge of the document Is a program for causing a computer to execute a process of detecting a boundary between a part of the background plate and the document of input image data input with the same color image,
A function of performing a Fourier transform for each first unit region of the input image data;
A function of extracting first image frequency information obtained by the Fourier transform;
For each first unit region, a function of adding various values of the extracted first image frequency information with a predetermined weight as representative feature information;
Corresponding to the approximate straight line by applying a linear approximation to the first unit area in which the amount of change from the representative feature information of the adjacent first unit area is at least a predetermined level in any one of the first unit areas A function of temporarily determining a region as the boundary;
In a region provisionally determined as the boundary and a region near the region, a function of performing a Fourier transform for each second unit region narrower than the first unit region;
A function of extracting second image frequency information obtained by the Fourier transform;
For each second unit region, a function of adding various values of the extracted second image frequency information with a predetermined weight as representative feature information;
A function of performing wavelet transformation on the representative feature information;
A function of performing a linear approximation on the second unit region in which the value for each second unit region obtained by the wavelet transform is at least a predetermined level;
A function for determining a position on an approximate line obtained by the straight line approximation as the boundary;
A program to realize
(Supplementary Note 15) In the image data in which the four sides of the document are surrounded by the background plate, the function of performing the detection from four directions on the image data that are parallel or orthogonal to each other and different from each other is further realized. The program according to appendix 14, characterized by:
(Additional remark 16) Additional remarks 11 thru | or 15 which implement | achieve further the function which specifies a printing area | region first and excludes this printing area | region with respect to the said image data or the said input image data, and processes the input image data. The program as described in any one of.
(Supplementary note 17) The program according to any one of supplementary notes 11 to 16, wherein the feature information or the frequency information is a high-frequency component, a low-frequency component, a DC component, and a frequency distribution.
(Additional remark 18) When the determined boundary is a rectangle, the function which performs skew correction of the area | region included in this rectangle based on this boundary is further implement | achieved, The additional description 11 thru | or 17 program.
(Additional remark 19) Based on the determined boundary, the function of removing the other region or the background plate portion of the image data by leaving one region adjacent to the boundary or the original portion of the image data is further realized. The program according to any one of appendices 11 to 18.
(Supplementary Note 20) Based on the determined boundary, a function of coloring one region adjacent to the boundary or a background plate portion of the image data to black,
A function of recognizing characters included in the other region other than the black colored region adjacent to the boundary;
The program according to any one of appendices 11 to 19, further realizing the above.
(Supplementary note 21) An image processing apparatus for detecting a boundary between regions having different characteristics in any adjacent region on image data,
Feature enhancement means for extracting feature information determined by all pixels in the unit region for each unit region on the image data;
Boundary determining means for obtaining a difference in the feature information from the adjacent unit region with respect to any unit region, and determining the reference unit region as the boundary, the difference being at least a predetermined level;
An image processing apparatus comprising:
(Supplementary note 22) An image processing apparatus for detecting a boundary between regions having different pixel arrangements in any adjacent region on image data,
Feature enhancement means for extracting image frequency information for each unit region of the image data;
For each unit region, representative feature information based on the extracted image frequency information is determined, and a difference between the representative feature information with the adjacent unit region is obtained with reference to any unit region, and the difference is at least Boundary determining means for determining the reference unit region as the boundary that is equal to or higher than a predetermined level;
An image processing apparatus comprising:
(Supplementary note 23) An image processing apparatus for detecting a boundary between regions having different pixel arrangements in any adjacent region on image data,
Feature enhancement means for extracting first image frequency information for each first unit region of the image data;
For each of the first unit areas, a value obtained by adding various kinds of the extracted first image frequency information with a predetermined weight is used as representative feature information. Tentative boundary determination means for tentatively determining, as the boundary, a first unit area whose amount of change from the representative feature information of one unit area is at least a predetermined level;
Second image frequency information is extracted for each second unit region that is narrower than the first unit region in the first unit region that is provisionally determined as the boundary and in the vicinity of the first unit region, and any second unit Boundary determination for determining, as the boundary, a second unit area in which a value based on a change amount of the second image frequency information of the area with the second image frequency information of the adjacent second unit area is at least a predetermined level or more Means,
An image processing apparatus comprising:
(Supplementary Note 24) In an input image data composed of a part of the background plate and the document, the image is input from the front with the background plate arranged on the back side. Is an image processing apparatus for detecting a boundary between a part of the background plate and the original of input image data input with the same color image,
Applying a Fourier transform to each first unit region of the input image data, and extracting the first image frequency information obtained by the Fourier transform;
For each first unit area, a value obtained by adding various kinds of the extracted first image frequency information with a predetermined weight is used as representative feature information, and a representative of the adjacent first unit area in any one of the first unit areas Boundary provisional deciding means for tentatively deciding a region corresponding to the approximate straight line as the boundary by performing linear approximation on the first unit region whose amount of change from the feature information is at least a predetermined level;
In the region tentatively determined as the boundary and in the vicinity of the region, Fourier transform is performed for each second unit region narrower than the first unit region, second image frequency information obtained by the Fourier transform is extracted, and the second unit region is extracted. For each two unit regions, a value obtained by adding various kinds of the extracted second image frequency information with a predetermined weight is used as representative feature information, wavelet transform is performed on the representative feature information, and the wavelet transform is obtained. Boundary determination means for performing linear approximation on the second unit region in which the value for each second unit region is at least a predetermined level and determining the position on the approximate line obtained by the linear approximation as the boundary;
An image processing apparatus comprising:
(Supplementary Note 25) In the image data in which the four sides of the document are surrounded by the background plate, each means functions in four directions on the image data that are parallel or orthogonal to each other and different from each other. The image processing apparatus according to Supplementary Note 24, which is a feature.
(Supplementary note 26) The image processing apparatus according to any one of claims 21 to 25, further comprising a print area exclusion unit that excludes a print area of the image data.
(Supplementary note 27) The image processing apparatus according to any one of claims 21 to 26, wherein the feature information or the frequency information is a high-frequency component, a low-frequency component, a DC component, and a frequency distribution. .
(Supplementary note 28) The image processing apparatus according to any one of supplementary notes 21 to 27, further comprising image reading means for optically reading a document to generate the image data of the document.
(Supplementary note 29) The supplementary notes 21 to 28, further comprising skew correction means for performing skew correction on a region included in the rectangle based on the boundary when the determined boundary is a rectangle. The image processing apparatus according to any one of the above.
(Supplementary Note 30) The image processing apparatus further includes an image excluding unit that removes the other region or the background plate portion of the image data while leaving one region adjacent to the boundary or the original portion of the image data based on the determined boundary. 30. The image processing device according to any one of appendices 21 to 29, wherein
(Supplementary Note 31) Based on the determined boundary, image coloring means for coloring one area adjacent to the boundary or a background plate portion of the image data to black,
A character recognition means for recognizing a character included in the other area other than the black colored area adjacent to the boundary;
31. The image processing apparatus according to any one of appendices 21 to 30, wherein the image processing apparatus includes:
(Supplementary Note 32) A background plate is arranged on the back side of the document, image information of the document is read from the front of the document, and a copy of the document is output by specifying the document size based on detection of the boundary between the background plate and the document. Copy machine
A print area exclusion unit for excluding the print area of image information;
Feature enhancement means for extracting feature information determined by all image information in the unit area for each unit area on the image information;
The difference between the feature information with the adjacent unit area is obtained with reference to the arbitrary unit area, and the reference unit area other than the print area where the difference is at least a predetermined level is determined as the boundary. Boundary determination means;
A copier characterized by comprising:
(Supplementary Note 33) A background plate is arranged on the back side of the document, image information of the document is read from the front of the document, and a copy of the document is output by specifying the document size based on detection of the boundary between the background plate and the document. Copy machine
A print area exclusion unit for excluding the print area of image information;
Feature enhancement means for extracting image frequency information for each unit region of the image information;
For each unit region, representative feature information based on the extracted image frequency information is determined, and a difference between the representative feature information with the adjacent unit region is obtained with reference to any unit region, and the difference is at least Boundary determining means for determining, as the boundary, the reference unit area other than the print area that is equal to or higher than a predetermined level;
A copier characterized by comprising:
(Supplementary Note 34) A background plate is arranged on the back side of the document, image information of the document is read from the front of the document, and a copy of the document is output by specifying the document size based on detection of the boundary between the background plate and the document. Copy machine
A print area exclusion unit for excluding the print area of image information;
Feature enhancement means for extracting first image frequency information for each first unit region of the image information;
For each of the first unit areas, a value obtained by adding various kinds of the extracted first image frequency information with a predetermined weight is used as representative feature information. Temporary boundary determination means for temporarily determining, as the boundary, a first unit area other than the print area in which the amount of change from the representative feature information of one unit area is at least a predetermined level;
Second image frequency information is extracted for each second unit region that is narrower than the first unit region in the first unit region that is provisionally determined as the boundary and in the vicinity of the first unit region, and any second unit Boundary determination for determining, as the boundary, a second unit area in which a value based on a change amount of the second image frequency information of the area with the second image frequency information of the adjacent second unit area is at least a predetermined level or more Means,
A copier characterized by comprising:
(Supplementary Note 35) A background plate is placed on the back side of the document, image information of the document is read from the front of the document, and a copy of the document is output by specifying the document size based on detection of the boundary between the background plate and the document. Copy machine
A print area exclusion unit for excluding the print area of image information;
Feature enhancement means for performing Fourier transform for each first unit region of the image information and extracting first image frequency information obtained by the Fourier transform;
For each first unit area, a value obtained by adding various kinds of the extracted first image frequency information with a predetermined weight is used as representative feature information, and a representative of the adjacent first unit area in any one of the first unit areas Boundary provisional deciding means for provisionally deciding a region corresponding to the approximate straight line as the boundary by performing linear approximation on the first unit region other than the print region where the amount of change from the feature information is at least a predetermined level or more ,
In the region tentatively determined as the boundary and in the vicinity of the region, Fourier transform is performed for each second unit region narrower than the first unit region, second image frequency information obtained by the Fourier transform is extracted, and the second unit region is extracted. For each two unit regions, a value obtained by adding various kinds of the extracted second image frequency information with a predetermined weight is used as representative feature information, wavelet transform is performed on the representative feature information, and the wavelet transform is obtained. Boundary determination means for performing linear approximation on the second unit region in which the value for each second unit region is at least a predetermined level and determining the position on the approximate line obtained by the linear approximation as the boundary;
A copier characterized by comprising:
(Supplementary Note 36) In the image data in which the four sides of the document are surrounded by the background plate, each means functions in four directions on the image data that are parallel or orthogonal to each other and different from each other. The copying machine according to Supplementary Note 35, which is characterized.
(Supplementary note 37) The copier according to any one of supplementary notes 32 to 36, wherein a print area of the image information is excluded based on a gradation value.

以上述べたように、本発明によれば、原稿と背景板との任意の組み合わせにおいて読み取られた画像データから原稿のエッジを検出することが可能となり、既存の画像読取装置から入力された画像データであっても、原稿と背景板との境界を検出することが可能となる。   As described above, according to the present invention, it is possible to detect the edge of an original from image data read in an arbitrary combination of an original and a background plate, and image data input from an existing image reading apparatus. Even so, the boundary between the document and the background plate can be detected.

また、黒背景の読取装置では得られない、白背景の読取装置の優位性、すなわちコントラストが高いという特徴、薄い紙の読み取りに強いという特徴、裏写りしないという特徴、を維持したままOCR処理を行なうことができる。   In addition, OCR processing is maintained while maintaining the superiority of white background readers, that is, the characteristics of high contrast, the ability to read thin paper, and the characteristic of not showing through, which cannot be obtained with a black background reader. Can be done.

本発明の実施の形態における画像処理装置のブロック図である。1 is a block diagram of an image processing apparatus according to an embodiment of the present invention. 枠付き原稿画像の表示例である。It is a display example of a document image with a frame. 印字領域除外部100において行なわれる動作フローの一例である。3 is an example of an operation flow performed in a print area exclusion unit 100. 印字領域除外部100において特定された印字領域と元画像との比較図である。FIG. 6 is a comparison diagram between a print area specified by a print area exclusion unit 100 and an original image. 特徴強調部102において行なわれる動作フローの一例である。It is an example of the operation | movement flow performed in the feature emphasis part 102. 枠付き原稿画像A上を単位画素領域に分けて走査する場合の例である。In this example, the framed document image A is divided into unit pixel areas for scanning. 図2の矩形領域210内において求めた特徴量の実測データである。This is actual measurement data of the feature amount obtained in the rectangular area 210 of FIG. 図7の実測データに基づく高周波成分のグラフである。It is a graph of the high frequency component based on the measurement data of FIG. 図7の実測データに基づく低周波成分のグラフである。It is a graph of the low frequency component based on the measurement data of FIG. 図7の実測データに基づく直流成分のグラフである。It is a graph of the DC component based on the actual measurement data of FIG. エッジ仮決定部104において行なわれる動作フローの一例である。It is an example of the operation | movement flow performed in the edge temporary determination part 104. FIG. 特徴量の平均を求める対象の、画素領域の配置関係である。This is an arrangement relationship of pixel areas for which an average of feature amounts is to be obtained. 枠付き原稿画像Aに対して仮決定したエッジの配置である。This is an arrangement of edges temporarily determined for the document image A with a frame. 重み決定処理の動作フローである。It is an operation | movement flow of a weight determination process. ピーク検出処理の動作フローである。It is an operation | movement flow of a peak detection process. 所定のラインを対象としたレベル分布図である。It is a level distribution diagram for a predetermined line. エッジ決定部106において行なわれる動作フローである。It is an operation | movement flow performed in the edge determination part 106. FIG. 枠付き原稿画像Aに対し、エッジ決定部106において行なわれる単位画素領域を示した図である。FIG. 6 is a diagram showing a unit pixel area performed in an edge determination unit 106 for a framed document image A. ロバスト補正の処理フローである。It is a processing flow of robust correction. 原稿周囲のエッジを特定する、全体処理フローの一例である。It is an example of the whole processing flow which specifies the edge around a document. コピー機のブロック図である。1 is a block diagram of a copier. 本画像処理技術を使用するハードウエア構成の一例である。(その1)It is an example of the hardware constitutions which use this image processing technique. (Part 1) 本画像処理技術を使用するハードウエア構成の一例である。(その2)It is an example of the hardware constitutions which use this image processing technique. (Part 2) 図23のハードウエア構成における動作フローの一例である。(その1)It is an example of the operation | movement flow in the hardware constitutions of FIG. (Part 1) 図23のハードウエア構成における動作フローの一例である。(その2)It is an example of the operation | movement flow in the hardware constitutions of FIG. (Part 2) 本画像処理技術の応用例である。It is an application example of this image processing technology. 黒色背景板画像Eを生成するためのフローである。It is a flow for generating a black background board image E.

符号の説明Explanation of symbols

100 印字領域除外部
102 特徴強調部
104 エッジ仮決定部
106 エッジ決定部
A 枠付き原稿画像
B エッジ情報
DESCRIPTION OF SYMBOLS 100 Print area exclusion part 102 Feature emphasis part 104 Edge temporary determination part 106 Edge determination part A Document image with a frame B Edge information

Claims (6)

画像読み取り手段により読み取られる画像データの水平及び垂直方向に複数の画素を有する領域毎に前記画像データの周波数成分を抽出し、
抽出した各領域の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として仮決定し、
前記領域より狭い、境界として仮決定した画素を含む画素列と前記画素列の前後の所定数の画素列の周波数成分を抽出し、
抽出した複数の前記画素列の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として決定する境界検出方法。
Extracting the frequency component of the image data for each region having a plurality of pixels in the horizontal and vertical directions of the image data read by the image reading means;
Obtain the amount of change in the frequency component of each extracted area, detect the peak of the amount of change in the frequency component, perform linear approximation on the detected peak, and use multiple pixels on the approximate line obtained by linear approximation as boundaries Tentatively decided,
Extracting frequency components of a pixel column that includes a pixel that is tentatively determined as a boundary that is narrower than the region and a predetermined number of pixel columns before and after the pixel column
Obtain the amount of change in the frequency component of the extracted plurality of pixel columns, detect the peak of the amount of change in the frequency component, perform linear approximation on the detected peak, and then apply the linear approximation to the pixels on the approximate line obtained by linear approximation Boundary detection method that decides as a boundary.
背景板上に置かれた原稿を画像読み取り手段により読み取り、読み取った画像データの前記背景板と前記原稿の境界を検出する境界検出方法であって、
前記各領域の画像データに対してフーリエ変換を施し、前記フーリエ変換により得られる前記画像データの高周波成分、低周波成分及び直流成分を抽出し、
抽出した各領域の前記画像データの高周波成分、低周波成分及び直流成分の値に所定の重み付けを施した値の変化量を算出し、変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の前記複数の画素を境界として仮決定し、
前記領域より狭い、境界として仮決定した前記複数の画素を含む画素列と前記画素列の前後の所定数の画素列に対してフーリエ変換を施し、前記フーリエ変換により得られる複数の画素列の高周波成分、低周波成分及び直流成分の値に所定の重み付けを施した値に対してウエーブレット変換を施し、
前記ウエーブレット変換により得られる複数の値のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として決定する請求項1記載の境界検出方法。
A boundary detection method for reading a document placed on a background plate by an image reading unit and detecting a boundary between the background plate and the document in the read image data,
Apply Fourier transform to the image data of each region, extract the high frequency component, low frequency component and DC component of the image data obtained by the Fourier transform,
Calculates the amount of change in the weighted values of the high-frequency component, low-frequency component, and DC component of the extracted image data for each extracted area, detects the peak of the change, and linearizes the detected peak Apply approximation, provisionally determine the plurality of pixels on the approximate line obtained by linear approximation as boundaries,
A high frequency of a plurality of pixel columns obtained by performing Fourier transform on a pixel column including the plurality of pixels provisionally determined as boundaries and a predetermined number of pixel columns before and after the pixel column and narrower than the region, and obtained by the Fourier transform Wavelet transform is applied to the value obtained by applying a predetermined weight to the component, low frequency component and direct current component values.
2. The boundary according to claim 1, wherein peaks of a plurality of values obtained by the wavelet transform are detected, linear approximation is performed on the detected peaks, and a plurality of pixels on the approximate straight line obtained by the linear approximation is determined as a boundary. Detection method.
画像読み取り手段により読み取られる画像データの水平及び垂直方向に複数の画素を有する領域毎に前記画像データの周波数成分を抽出する処理と、
抽出した各領域の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として仮決定する処理と、
前記領域より狭い、境界として仮決定した画素を含む画素列と前記画素列の前後の所定数の画素列の周波数成分を抽出する処理と、
抽出した複数の前記画素列の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として決定する処理とをコンピュータに実行させる境界検出プログラム。
A process of extracting the frequency component of the image data for each region having a plurality of pixels in the horizontal and vertical directions of the image data read by the image reading means;
Obtain the amount of change in the frequency component of each extracted area, detect the peak of the amount of change in the frequency component, perform linear approximation on the detected peak, and use multiple pixels on the approximate line obtained by linear approximation as boundaries A provisional decision process;
A process of extracting a frequency component of a pixel column that is narrower than the region and includes a pixel provisionally determined as a boundary and a predetermined number of pixel columns before and after the pixel column;
Obtain the amount of change in the frequency component of the extracted plurality of pixel columns, detect the peak of the amount of change in the frequency component, perform linear approximation on the detected peak, and then apply the linear approximation to the pixels on the approximate line obtained by linear approximation A boundary detection program for causing a computer to execute processing for determining a boundary as a boundary .
背景板上に置かれた原稿を画像読み取り手段により読み取り、読み取った画像データの前記背景板と前記原稿の境界を検出する境界検出プログラムであって、
前記抽出処理は、前記各領域の画像データに対してフーリエ変換を施し、前記フーリエ変換により得られる前記画像データの高周波成分、低周波成分及び直流成分を抽出し、
前記仮決定処理は、抽出した各領域の前記画像データの高周波成分、低周波成分及び直流成分の値に所定の重み付けを施した値の変化量を算出し、変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の前記複数の画素を境界として仮決定し、
前記抽出処理は、前記領域より狭い、境界として仮決定した前記画素を含む画素列と前記画素列の前後の所定数の画素列に対してフーリエ変換を施し、前記フーリエ変換により得られる複数の画素列の高周波成分、低周波成分及び直流成分の値に所定の重み付けを施した値に対してウエーブレット変換を施し、
前記決定処理は、前記ウエーブレット変換により得られる複数の値のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として決定する請求項3記載の境界検出プログラム。
A boundary detection program for reading a document placed on a background plate by an image reading unit and detecting a boundary between the background plate and the document in the read image data,
The extraction process performs a Fourier transform on the image data of each region, and extracts a high frequency component, a low frequency component and a direct current component of the image data obtained by the Fourier transform,
The provisional determination process calculates a change amount of a value obtained by applying a predetermined weight to the values of the high frequency component, the low frequency component, and the direct current component of the image data of each extracted region, detects a peak of the change amount, and detects A linear approximation is performed on the peak, and the plurality of pixels on the approximate straight line obtained by the linear approximation are provisionally determined as boundaries,
In the extraction process, a plurality of pixels obtained by performing Fourier transform on a pixel array including the pixels tentatively determined as a boundary, which is narrower than the area, and a predetermined number of pixel arrays before and after the pixel array, are obtained by the Fourier transform. Wavelet transform is applied to the values obtained by applying a predetermined weight to the values of the high-frequency component, low-frequency component, and DC component of the column,
The determination process detects peaks of a plurality of values obtained by the wavelet transform, performs linear approximation on the detected peaks, and determines a plurality of pixels on an approximate line obtained by linear approximation as boundaries. Item 4. The boundary detection program according to item 3 .
画像読み取り手段により読み取られる画像データの水平及び垂直方向に複数の画素を有する領域毎に前記画像データの周波数成分を抽出する第1の抽出手段と、
前記第1の抽出手段により抽出した各領域の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として仮決定する境界仮決定手段と、
前記領域より狭い、境界として仮決定した画素を含む画素列と前記画素列の前後の所定数の画素列の周波数成分を抽出する第2の抽出手段と、
前記第2の抽出手段により抽出した複数の前記画素列の周波数成分の変化量を求め、周波数成分の変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として決定する境界決定手段とを備える画像処理装置。
First extraction means for extracting a frequency component of the image data for each region having a plurality of pixels in the horizontal and vertical directions of the image data read by the image reading means;
A frequency component change amount of each region extracted by the first extraction means is obtained, a peak of the frequency component change amount is detected, a linear approximation is performed on the detected peak, and an approximate straight line obtained by linear approximation is obtained. Boundary provisional determination means for temporarily determining a plurality of pixels as boundaries,
A second extraction unit that extracts a frequency component of a pixel column that is narrower than the region and includes a pixel temporarily determined as a boundary, and a predetermined number of pixel columns before and after the pixel column;
The amount of change in the frequency component of the plurality of pixel columns extracted by the second extraction means is obtained, the peak of the amount of change in the frequency component is detected, the detected peak is subjected to linear approximation, and obtained by linear approximation. An image processing apparatus comprising: a boundary determining unit that determines a plurality of pixels on the approximate line as a boundary .
背景板上に置かれた原稿を画像読み取り手段により読み取り、読み取った画像データの前記背景板と前記原稿の境界を検出する画像処理装置であって、
前記第1の抽出手段は、前記各領域の画像データに対してフーリエ変換を施し、前記フーリエ変換により得られる前記画像データの高周波成分、低周波成分及び直流成分を抽出し、
前記境界仮決定手段は、前記第1の抽出手段により抽出した各領域の前記画像データの高周波成分、低周波成分及び直流成分の値に所定の重み付けを施した値の変化量を算出し、変化量のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の前記複数の画素を境界として仮決定し、
前記第2の抽出手段は、前記領域より狭い、境界として仮決定した前記画素を含む画素列と前記画素列の前後の所定数の画素列に対してフーリエ変換を施し、前記フーリエ変換により得られる複数の画素列の高周波成分、低周波成分及び直流成分の値に所定の重み付けを施した値に対してウエーブレット変換を施し、
前記境界決定手段は、前記ウエーブレット変換により得られる複数の値のピークを検出し、検出したピークに対して直線近似を施し、直線近似により得られる近似直線上の複数の画素を境界として決定する請求項5記載の画像処理装置。
An image processing apparatus that reads a document placed on a background plate by an image reading unit and detects a boundary between the background plate and the document in the read image data,
The first extraction means performs a Fourier transform on the image data of each region, extracts a high frequency component, a low frequency component and a direct current component of the image data obtained by the Fourier transform,
The temporary boundary determination means calculates a change amount of a value obtained by applying a predetermined weight to the values of the high frequency component, the low frequency component, and the direct current component of the image data of each region extracted by the first extraction means. A peak of the amount is detected, linear approximation is performed on the detected peak, and the plurality of pixels on the approximate straight line obtained by the linear approximation are provisionally determined as boundaries,
The second extraction means performs a Fourier transform on a pixel array that is narrower than the region and includes the pixels that are provisionally determined as boundaries, and a predetermined number of pixel arrays before and after the pixel array, and is obtained by the Fourier transform. Wavelet transform is applied to the values obtained by applying a predetermined weight to the values of the high frequency component, low frequency component and DC component of the plurality of pixel columns,
The boundary determining unit detects peaks of a plurality of values obtained by the wavelet transform, performs a linear approximation on the detected peaks, and determines a plurality of pixels on the approximate straight line obtained by the linear approximation as a boundary. The image processing apparatus according to claim 5 .
JP2007293115A 2007-11-12 2007-11-12 Boundary detection method, program, and image processing apparatus Expired - Fee Related JP4629718B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007293115A JP4629718B2 (en) 2007-11-12 2007-11-12 Boundary detection method, program, and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007293115A JP4629718B2 (en) 2007-11-12 2007-11-12 Boundary detection method, program, and image processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002370596A Division JP4067957B2 (en) 2002-12-20 2002-12-20 Boundary detection method, program, and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2008052758A JP2008052758A (en) 2008-03-06
JP4629718B2 true JP4629718B2 (en) 2011-02-09

Family

ID=39236690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007293115A Expired - Fee Related JP4629718B2 (en) 2007-11-12 2007-11-12 Boundary detection method, program, and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4629718B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195921B1 (en) 2012-01-09 2012-10-30 동국대학교 산학협력단 Edge detection apparatus for image signal

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103688528B (en) * 2011-05-16 2016-08-17 罗思+韦伯有限责任公司 By width and the method for position of image information detection document in large-scale scanning system
CN110427932B (en) * 2019-08-02 2023-05-02 杭州睿琪软件有限公司 Method and device for identifying multiple bill areas in image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032767A (en) * 2000-07-19 2002-01-31 Giken Torasutemu Kk Method for recognizing object

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04154368A (en) * 1990-10-18 1992-05-27 Fujitsu Ltd Area dividing system for document image
JPH0760462B2 (en) * 1991-07-08 1995-06-28 株式会社エイ・ティ・アール通信システム研究所 Image area dividing device
JPH0637987A (en) * 1992-07-20 1994-02-10 Canon Inc Original detector
JPH06149959A (en) * 1992-11-10 1994-05-31 Toppan Printing Co Ltd Image clipping device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032767A (en) * 2000-07-19 2002-01-31 Giken Torasutemu Kk Method for recognizing object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101195921B1 (en) 2012-01-09 2012-10-30 동국대학교 산학협력단 Edge detection apparatus for image signal

Also Published As

Publication number Publication date
JP2008052758A (en) 2008-03-06

Similar Documents

Publication Publication Date Title
JP4067957B2 (en) Boundary detection method, program, and image processing apparatus
JP4598426B2 (en) Boundary extraction method, program, and apparatus using the same
Chetverikov A simple and efficient algorithm for detection of high curvature points in planar curves
JP4877374B2 (en) Image processing apparatus and program
KR101177626B1 (en) Object checking apparatus and method
US9153013B2 (en) Image processing apparatus, image processing method and computer readable medium
US20120257822A1 (en) Image processing apparatus, image processing method, and computer readable medium
US20050123195A1 (en) Image processing method and image processing apparatus
JP2002288589A (en) Image processing method, image processor and computer readable recording medium recording program for executing the image processing method by computer
JP4629718B2 (en) Boundary detection method, program, and image processing apparatus
JP2010147937A (en) Image processing apparatus
JP2008040557A (en) Image display apparatus, image display method, and image display program
JP6272219B2 (en) Image processing apparatus, image processing method, and program
JP5979008B2 (en) Image processing apparatus, image processing method, and program
JP2010134958A (en) Boundary detection method, program and device using the same
JP2011170554A (en) Object recognition device, object recognition method, and object recognition program
JP2005242600A (en) Pattern recognition processing apparatus, method, and program
JP4579646B2 (en) Image processing apparatus, image processing method, computer program, and storage medium
Keramidas et al. Noise-robust statistical feature distributions for texture analysis
JP6272220B2 (en) Image processing apparatus and image processing method
JP6613625B2 (en) Image processing program, image processing apparatus, and image processing method
CN111491069B (en) Automatic setting method for color mode of document image
Thumfart et al. A quantitative evaluation of texture feature robustness and interpolation behaviour
Liu et al. Oscillation analysis for salient object detection
KR20230020448A (en) Automated Artifact Detection

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4629718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees