JP2018157417A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2018157417A
JP2018157417A JP2017053528A JP2017053528A JP2018157417A JP 2018157417 A JP2018157417 A JP 2018157417A JP 2017053528 A JP2017053528 A JP 2017053528A JP 2017053528 A JP2017053528 A JP 2017053528A JP 2018157417 A JP2018157417 A JP 2018157417A
Authority
JP
Japan
Prior art keywords
shadow
document
area
image
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017053528A
Other languages
Japanese (ja)
Other versions
JP6874450B2 (en
Inventor
歩 橋本
Ayumi Hashimoto
歩 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017053528A priority Critical patent/JP6874450B2/en
Publication of JP2018157417A publication Critical patent/JP2018157417A/en
Application granted granted Critical
Publication of JP6874450B2 publication Critical patent/JP6874450B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus that can improve detection accuracy of an edge of a document area in a reading image irrespective of variation of document conveyance.SOLUTION: In this image processing apparatus, a document edge detection unit 102 detects an edge of a document area for a reading image from an image reading unit 101. The document edge detection unit 102 binarizes information of the reading image by means of a function of boundary detection means. This detects a boundary between a shadow area and a background area, which is produced in the neighborhood of a contour end part of the document area in the reading image. Also, the document edge detection unit 102 detects width of the shadow area by means of a function of shadow width detection means. Further, the document edge detection unit 102 combines the width of the detected shadow area with the boundary between the shadow area and the background area, which is detected by document edge detection means and performs addition of the width and the boundary, and detects the edge of the document area in the reading image.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

従来、一般的な画像処理装置の現状機種では、自動原稿送り装置(ADF:Automaic Document Feeder)の原稿読取時の画像処理のスキューをメカ的な機構で補正している。因みに、スキューは、グラフィックアプリケーション図形を斜めに歪ませる操作を示すものである。また、ここでの搬送される原稿は、一般的には紙であるが、以下も同様であるようにそれ以外のコート紙、ラベル紙等の他、オーバヘッドプロジェクタシート、フィルム、可撓性を持つ薄板等を対象にしても良い。   2. Description of the Related Art Conventionally, in a current model of a general image processing apparatus, an image processing skew at the time of reading an original by an automatic document feeder (ADF: Automatic Document Feeder) is corrected by a mechanical mechanism. Incidentally, the skew indicates an operation for distorting the graphic application figure obliquely. In addition, the document conveyed here is generally paper, but the same applies to the following, as well as other coated paper, label paper, etc., overhead projector sheet, film, and flexibility. A thin plate or the like may be targeted.

ところが、メカ的な機構による補正では、原稿をローラに突き当てる時や、原稿を引っ張るときの音が騒音となってしまうという問題がある。そこで、自動原稿送り装置による原稿の読み取り時の低騒音化のため、画像処理でスキューの補正を行うエレキスキュー補正技術が既に知られている。このエレキスキュー補正技術は、スキューして読み取られた読取画像からスキュー角度や原稿位置を検知し、それらの情報に基づいて読取画像に対して補正を行う技術である。   However, in the correction by the mechanical mechanism, there is a problem that the sound generated when the document is abutted against the roller or when the document is pulled becomes noise. Therefore, an electric skew correction technique for correcting skew by image processing has been already known in order to reduce noise when reading an original by an automatic document feeder. This electric skew correction technique is a technique for detecting a skew angle and a document position from a read image read by skew, and correcting the read image based on such information.

このようなエレキスキュー補正技術に関連する周知技術として、原稿の色や明度に左右されずに、原稿の輪郭検出精度を向上することを課題とした「画像読取装置、画像処理方法及びプログラム」(特許文献1参照)が挙げられる。   As a well-known technique related to such an electric skew correction technique, “an image reading apparatus, an image processing method, and a program”, which are intended to improve the accuracy of detecting the outline of an original document regardless of the color and brightness of the original document ( Patent Document 1).

上述した特許文献1に係る技術は、副走査方向に離して配置した2つの発光部の発光強度を交互に切り替えるようにしている。これにより、原稿のエッジ(輪郭端部)近傍に鮮明な影領域を写り込ませて読取画像における原稿領域のエッジの検出をし易くしたり、更に影領域が確実に出るように読取解像度を出力解像度より大きくしたりする手法を提案している。   In the technique according to Patent Document 1 described above, the light emission intensities of two light emitting units arranged apart in the sub-scanning direction are switched alternately. As a result, a clear shadow area is reflected near the edge (outline edge) of the document, making it easy to detect the edge of the document area in the scanned image, and reading resolution is output so that the shadow area is more reliably generated. It proposes a method to make it larger than the resolution.

こうした技術では原稿によらずに読取画像上で原稿領域のエッジを抽出し易くするように影領域を発生させて背景領域(背景板)と影領域とのエッジを抽出できる。しかしながら、原稿の搬送のばらつきで影領域が変化するため、読取画像での原稿領域のエッジの検出精度が低くなってしまうという問題がある。   With such a technique, it is possible to extract the edge of the background area (background plate) and the shadow area by generating a shadow area so that the edge of the original area can be easily extracted on the read image without depending on the original. However, since the shadow area changes due to variations in the conveyance of the document, there is a problem that the detection accuracy of the edge of the document area in the read image is lowered.

即ち、既存の影領域を使用した原稿のエッジの検出では、影領域が光源の当て方や原稿の搬送位置と背景領域との距離の関係で変化する。このため、搬送のばらつきによって実際の原稿のエッジの位置や背景領域と影領域との境界の位置が変わることなり、読取画像での原稿領域のエッジの検出精度が低下し、原稿領域の切り出し時の副走査方向における位置ずれに影響してしまうという問題を生じる。具体的に云えば、背景領域と原稿の搬送位置との高さが小さくて原稿が背景領域に近い位置を通過する場合、影領域は幅が細くなるように発生する。これに対し、背景領域と原稿搬送位置の高さが大きくて原稿が背景領域から遠い位置を通過する場合、影領域は幅が太くなるように発生する。   In other words, in the detection of the edge of the document using the existing shadow region, the shadow region changes depending on how the light source is applied and the distance between the document transport position and the background region. For this reason, the actual position of the edge of the document and the position of the boundary between the background area and the shadow area change due to variations in conveyance, and the detection accuracy of the edge of the document area in the scanned image decreases, and the document area is cut out. This causes a problem that the positional deviation in the sub-scanning direction is affected. Specifically, when the height of the background area and the document transport position is small and the document passes a position close to the background area, the shadow area is generated so that the width becomes narrow. On the other hand, when the height of the background area and the document transport position is large and the document passes through a position far from the background area, the shadow area is generated so as to have a large width.

本発明は、このような問題点を解決すべくなされたもので、その技術的課題は、原稿の搬送のばらつきに依らず、読取画像における原稿領域のエッジの検出精度を高め得る画像処理装置、画像処理方法、及び画像処理プログラムを提供することにある。   The present invention has been made to solve such problems, and the technical problem thereof is an image processing apparatus capable of improving the detection accuracy of an edge of a document area in a read image, regardless of variations in document conveyance, An object is to provide an image processing method and an image processing program.

上記技術的課題を達成するため、本発明は、搬送路に沿って搬送される原稿の画像を読み取る画像読取手段を備えた画像処理装置であって、読取画像における原稿領域の輪郭端部近傍に生じる影領域と背景領域との境界を検出する境界検出手段と、影領域の幅を検出する影幅検出手段と、境界検出手段で検出した影領域と背景領域との境界に対し、影幅検出手段で検出した当該影領域の幅を組み合わせることにより、読取画像における原稿領域のエッジを検出する原稿エッジ検出手段と、を備えたことを特徴とする。   In order to achieve the above technical problem, the present invention is an image processing apparatus including an image reading unit that reads an image of a document conveyed along a conveyance path, and is provided in the vicinity of a contour edge of a document area in the read image. Boundary detection means for detecting the boundary between the generated shadow area and the background area, shadow width detection means for detecting the width of the shadow area, and shadow width detection for the boundary between the shadow area and the background area detected by the boundary detection means And a document edge detecting means for detecting the edge of the document area in the read image by combining the widths of the shadow areas detected by the means.

本発明によれば、上記構成により、原稿の搬送のばらつきに依らず、読取画像における原稿領域のエッジの検出精度を高め得るようになる。上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。   According to the present invention, with the above configuration, it is possible to improve the accuracy of detecting the edge of the document area in the read image regardless of variations in document conveyance. Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の実施例に係る画像処理装置の基本構成を示す機能ブロック図である。1 is a functional block diagram illustrating a basic configuration of an image processing apparatus according to an embodiment of the present invention. 図1に示す画像処理装置の要部におけるスキュー補正処理、及び位置補正処理を含む周知の画像処理の概要を説明するための流れ図である。It is a flowchart for demonstrating the outline | summary of the well-known image processing including the skew correction process in the principal part of the image processing apparatus shown in FIG. 1, and a position correction process. 図1に示す画像処理装置に備えられる原稿エッジ検出部による周知の背景領域と影領域との画素値変化に基づく原稿エッジ検出処理の概要を説明するための図である。図3(a)は読取画像に関する図、図3(b)は読取画像の要部における位置に対する画素値の特性図である。FIG. 2 is a diagram for describing an outline of document edge detection processing based on a known change in pixel value between a background area and a shadow area by a document edge detection unit provided in the image processing apparatus illustrated in FIG. 1. FIG. 3A is a diagram relating to the read image, and FIG. 3B is a characteristic diagram of the pixel value with respect to the position in the main part of the read image. 図1に示す画像処理装置に備えられる画像読取部での原稿の読み取り状況に応じた原稿エッジ検出処理における背景領域と影領域との画素値変化を検出する場合の影領域の異なるパターンを説明するための図である。図4(a)は読取時の原稿先端側に影領域が発生する原理を示す図、図4(b)は原稿通過位置が背景板に近い場合の影領域の発生を示す図、図4(c)は図4(b)の場合の読取画像における影領域の様子を示す図である。また、図4(d)は原稿通過位置が背景板から遠い場合の影領域の発生を示す図、図4(e)は図4(d)の場合の読取画像における影領域の様子を示す図である。A description will be given of different patterns of shadow areas when detecting pixel value changes between the background area and the shadow area in the document edge detection process according to the document reading state in the image reading unit provided in the image processing apparatus shown in FIG. FIG. 4A is a diagram showing the principle of generation of a shadow area on the leading edge side of a document at the time of reading, FIG. 4B is a diagram showing generation of a shadow area when the document passage position is close to the background plate, and FIG. FIG. 4C is a diagram illustrating a state of a shadow area in the read image in the case of FIG. FIG. 4D is a diagram showing the generation of a shadow region when the document passage position is far from the background plate, and FIG. 4E is a diagram showing the state of the shadow region in the read image in the case of FIG. It is. 図1に示す画像処理装置に備えられる原稿エッジ検出部による影領域の幅検出を説明するための図である。図5(a)は読取画像の要部に関する図、図5(b)は読取画像の要部における位置に対する画素値の特性図である。FIG. 2 is a diagram for explaining shadow area width detection by a document edge detection unit provided in the image processing apparatus shown in FIG. 1. FIG. 5A is a diagram relating to the main part of the read image, and FIG. 5B is a characteristic diagram of the pixel value with respect to the position in the main part of the read image. 図1に示す画像処理装置に備えられる原稿エッジ検出部による画像処理での影領域の幅検出を原稿の地色と影領域との明暗差に応じて説明するための図である。1)は原稿の地色と影領域とに明暗差が有る場合の図、2)は原稿の地色と影領域とに明暗差が無い場合の図である。FIG. 3 is a diagram for explaining detection of a shadow area width in image processing by an original edge detection unit provided in the image processing apparatus shown in FIG. 1 according to a difference in brightness between a background color of the original and a shadow area. 1) shows a case where there is a light / dark difference between the background color and the shadow area of the document, and 2) shows a case where there is no light / dark difference between the background color and the shadow area of the document. 図6で説明した原稿エッジ検出部による影領域の幅検出が失敗する場合の対応について説明するための図である。1)は影領域の幅検出が失敗する場合の特性図、2)は予め想定される影幅検出対象領域の決定を説明するための図である。FIG. 7 is a diagram for explaining a response when the width detection of the shadow area by the document edge detection unit described in FIG. 6 fails. 1) is a characteristic diagram in the case where the shadow area width detection fails, and 2) is a diagram for explaining the determination of the shadow width detection target area assumed in advance. 図1に示す画像処理装置に備えられる画像読取部が距離センサを備える場合の影領域の幅(影幅)検出を説明するための図である。It is a figure for demonstrating the width | variety (shadow width) detection of the shadow area | region in case the image reading part with which the image processing apparatus shown in FIG. 1 is provided with a distance sensor. 図1に示す画像処理装置に備えられる原稿エッジ検出部が参照する記憶部にテーブル形式で格納された原稿の通過高さの値に対する影幅の値のデータを例示した図である。FIG. 2 is a diagram illustrating shadow width value data with respect to a document passing height value stored in a table format in a storage unit referred to by a document edge detecting unit provided in the image processing apparatus illustrated in FIG. 1. 図1に示す画像処理装置のハードウェア構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of the hardware constitutions of the image processing apparatus shown in FIG. 図10に示した画像処理装置100に搭載されたCPU110による原稿読取後の原稿領域E1のエッジ検出に係る動作処理を示すフローチャートである。11 is a flowchart showing an operation process related to edge detection of a document area E1 after a document is read by a CPU 110 mounted in the image processing apparatus 100 shown in FIG.

以下、本発明の画像処理装置、画像処理方法、及び画像処理プログラムについて、以下に実施例を挙げ、図面を参照して詳細に説明する。   Hereinafter, an image processing apparatus, an image processing method, and an image processing program of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施例に係る画像処理装置の基本構成を示す機能ブロック図である。図1を参照すれば、この画像処理装置は、機能ブロック上で画像読取部101、原稿エッジ検出部102、スキュー角度決定部103、原稿原点座標決定部104、スキュー補正部105、位置補正部106、及び画像データ出力部107を備えて構成される。   FIG. 1 is a functional block diagram showing a basic configuration of an image processing apparatus according to an embodiment of the present invention. Referring to FIG. 1, the image processing apparatus includes an image reading unit 101, a document edge detection unit 102, a skew angle determination unit 103, a document origin coordinate determination unit 104, a skew correction unit 105, and a position correction unit 106 on functional blocks. , And an image data output unit 107.

各部について、画像読取部101は、搬送路に沿って搬送される原稿の画像を読み取る画像読取手段として機能する。具体的には、原稿をスキャンすることで得られる原稿の濃淡情報から三つの原色である赤(Red)、緑(Green)、青(Blue)を示すRGB各8ビットのデジタル画像データを生成出力する。   For each unit, the image reading unit 101 functions as an image reading unit that reads an image of a document transported along a transport path. Specifically, digital image data of 8 bits for each of RGB representing three primary colors, red (Red), green (Green), and blue (Blue), is generated and output from the density information of the original obtained by scanning the original. To do.

原稿エッジ検出部102は、画像読取部101から入力されるデジタル画像データに対し、原稿領域と背景領域とを含んだ全面画像(読取画像の情報)に対して原稿領域のエッジを検出する。このため、原稿エッジ検出部102は,読取画像の情報を第1の判定閾値で2値化する。これにより、読取画像における原稿領域の輪郭端部近傍に生じる影領域と背景領域との境界を検出する境界検出手段としての機能を持つ。また、原稿エッジ検出部102は、影領域の幅を検出する影幅検出手段としての機能を持つ。更に、原稿エッジ検出部102は、境界検出手段で検出した影領域と背景領域との境界に対し、影幅検出手段で検出した影領域の幅を組み合わせて加算する。これにより、読取画像における原稿領域のエッジを検出する原稿エッジ検出手段としての機能を持つ。これらの各種機能については、後文で詳述する。   The document edge detection unit 102 detects the edge of the document region for the entire image (read image information) including the document region and the background region with respect to the digital image data input from the image reading unit 101. For this reason, the document edge detection unit 102 binarizes the information of the read image with the first determination threshold value. Thus, it has a function as a boundary detecting means for detecting the boundary between the shadow area and the background area generated in the vicinity of the contour edge of the document area in the read image. The document edge detection unit 102 has a function as a shadow width detection unit that detects the width of the shadow area. Further, the document edge detection unit 102 adds the width of the shadow region detected by the shadow width detection unit in combination to the boundary between the shadow region and the background region detected by the boundary detection unit. Thus, it has a function as document edge detecting means for detecting the edge of the document area in the read image. These various functions will be described in detail later.

スキュー角度決定部103は、原稿エッジ検出部102で検出した読取画像での原稿領域のエッジの検出情報を用いて原稿領域のスキュー角度を決定する。スキュー角度の決定は、原稿エッジ検出部102で検出した読取画像での原稿領域のエッジの検出情報を直線に近似した角度を求める手法を採用しても良く、その手法は問わないものとする。   The skew angle determination unit 103 determines the skew angle of the document region using the detection information of the edge of the document region in the read image detected by the document edge detection unit 102. The determination of the skew angle may employ a method of obtaining an angle that approximates the detection information of the edge of the document area in the read image detected by the document edge detection unit 102 to a straight line, and the method is not limited.

原稿原点座標決定部104は、原稿エッジ検出部102で検出した読取画像での原稿領域のエッジの検出情報を用いて原稿の原点位置を決定する。原点位置の決定は、原稿エッジ検出部102で検出した読取画像での原稿領域のエッジの検出情報を直線に近似した直線と縦辺検出した交点とを使って求める手法を採用しても良く、その手法は問わないものとする。   The document origin coordinate determination unit 104 determines the document origin position using the detection information of the edge of the document area in the read image detected by the document edge detection unit 102. The origin position may be determined by using a method of obtaining detection information of the edge of the document area in the read image detected by the document edge detection unit 102 using a straight line approximating a straight line and an intersection detected from the vertical side, The method is not limited.

スキュー補正部105は、スキュー角度決定部103で決定されたスキュー角度の情報を用いて読取画像に対して回転処理によるスキュー補正を行う。位置補正部106は、原稿原点座標決定部104で決定された原稿領域の原点位置の座標情報とスキュー補正の情報とを用いて平行移動による位置補正を行う。画像データ出力部107は、位置補正の情報に基づいて後段処理用に画像データを出力する。   The skew correction unit 105 performs skew correction by rotation processing on the read image using the information on the skew angle determined by the skew angle determination unit 103. The position correction unit 106 performs position correction by translation using the coordinate information of the origin position of the document area determined by the document origin coordinate determination unit 104 and skew correction information. The image data output unit 107 outputs image data for subsequent processing based on the position correction information.

図2は、実施例に係る画像処理装置の要部におけるスキュー補正処理、及び位置補正処理を含む周知の画像処理の概要を説明するための流れ図である。尚、図2に示す画像処理による各種画像は、後文で説明する本願発明の技術的要旨の理解を助けるためのものである。   FIG. 2 is a flowchart for explaining an overview of known image processing including skew correction processing and position correction processing in the main part of the image processing apparatus according to the embodiment. The various images obtained by the image processing shown in FIG. 2 are for helping understanding of the technical gist of the present invention described later.

図2を参照すれば、画像読取部101で原稿からスキャンされて読み込まれた画像は、スキューした状態の読取画像aに示されるように背景領域E2に対して原稿領域E1が傾いた様子となる。この読取画像aを用いて、画像処理により原稿領域E1のスキュー角度θと原稿の原点座標P(x0、y0)とを検出する。   Referring to FIG. 2, an image scanned and read from the original by the image reading unit 101 is in a state where the original area E1 is inclined with respect to the background area E2, as shown in the read image a in a skewed state. . Using the read image a, the skew angle θ of the document area E1 and the origin coordinate P (x0, y0) of the document are detected by image processing.

次に、スキュー補正部105により、検出したスキュー角度θを用いてその角度分だけ画像を回転補正することでスキュー補正画像bとする。更に、位置補正部106により、スキュー補正画像bに対して検出した原稿の原点座標P(x0、y0)を利用し、画像の位置補正を実施して位置補正画像cとする。これらのスキュー補正や位置補正は、一般的な画像回転と画像平行移動とで実施できる。最後に、画像データ出力部107により、背景領域E2を含んだ画像から原稿領域E1を切り出して切り出し画像dとする。これにより、ユーザが必要な部分のみをスキュー無しに取得することができる。   Next, the skew correction unit 105 uses the detected skew angle θ to rotationally correct the image by that angle to obtain a skew corrected image b. Further, the original position coordinates P (x0, y0) of the original detected by the position correction unit 106 with respect to the skew correction image b is used to correct the position of the image to obtain a position correction image c. These skew correction and position correction can be performed by general image rotation and image translation. Finally, the document area E1 is cut out from the image including the background area E2 by the image data output unit 107 to obtain a cut-out image d. Thereby, only the part which a user needs can be acquired without skew.

図3は、実施例に係る画像処理装置に備えられる原稿エッジ検出部102による周知の背景領域E2と影領域E3との画素値変化に基づく原稿エッジ検出処理の概要を説明するための図である。同図(a)は読取画像に関する図、同図(b)は読取画像における要部の位置に対する画素値の特性図である。   FIG. 3 is a diagram for explaining the outline of the document edge detection process based on the known change in the pixel values of the background area E2 and the shadow area E3 by the document edge detection unit 102 provided in the image processing apparatus according to the embodiment. . FIG. 4A is a diagram relating to a read image, and FIG. 4B is a characteristic diagram of pixel values with respect to positions of main parts in the read image.

光源を用いた背景領域E2と影領域E3との画素値変化に基づく読取画像での原稿領域E1のエッジの検出では、画像読取部101でスキャンされて読み込まれたスキューした状態の読取画像の背景領域E2内の原稿領域E1の輪郭端部近傍には影領域E3が生じる。画像読取部101が原稿のスキャナ読取、特に自動原稿送り装置による読み取りを行った場合、図3(a)に示されるように読取画像での原稿領域E1の先端部近傍に影領域E3が発生する。   In the detection of the edge of the document area E1 in the read image based on the pixel value change between the background area E2 and the shadow area E3 using the light source, the background of the skewed read image scanned and read by the image reading unit 101 is used. A shadow area E3 is generated in the vicinity of the edge of the document area E1 in the area E2. When the image reading unit 101 scans a document, particularly by an automatic document feeder, a shadow region E3 is generated in the vicinity of the front end of the document region E1 in the scanned image as shown in FIG. .

図3(b)に示される読取画像の要部における位置に対する画素値の特性図では、副走査方向に見た場合の原稿の先端側での背景領域E2、影領域E3、原稿領域E1へと推移する画素値変化を示している。例えば丸印で囲った特定領域E4では画素値が急激に低下しており、背景領域E2から影領域E3に至った様子を把握することができる。ところが、自動原稿送り装置でイメージセンサを通過する際の原稿の位置にはばらつきがあり、それによってイメージセンサが読み取る影領域E3の大きさに変化が生じる。そこで、従来では影領域E3の大きさが一定であるものとして、影領域E3を検出し始めた段階から一定のオフセット(補正値)を持たせることで原稿領域E1のエッジを検出している。しかしながら、こうした手法によれば、影領域E3の大きさが一定でない場合に原稿領域E1のエッジの検出精度が低下してしまう。   In the characteristic diagram of the pixel value with respect to the position in the main part of the read image shown in FIG. 3B, the background region E2, the shadow region E3, and the document region E1 on the leading end side of the document when viewed in the sub-scanning direction. The pixel value change which changes is shown. For example, in the specific area E4 surrounded by a circle, the pixel value is drastically decreased, and it is possible to grasp the state from the background area E2 to the shadow area E3. However, the position of the document when passing through the image sensor by the automatic document feeder varies, and the size of the shadow area E3 read by the image sensor changes accordingly. Therefore, conventionally, assuming that the size of the shadow region E3 is constant, the edge of the document region E1 is detected by giving a constant offset (correction value) from the stage where the shadow region E3 is started to be detected. However, according to such a method, when the size of the shadow area E3 is not constant, the detection accuracy of the edge of the document area E1 is lowered.

図4は、実施例に係る画像処理装置に備えられる画像読取部101での原稿400の読み取り状況に応じた原稿エッジ検出処理における背景領域E2と影領域E3との画素値変化を検出する場合の影領域E3の異なるパターンを説明するための図である。同図(a)は読取時の原稿先端側に影領域E3が発生する原理を示す図、同図(b)は原稿通過位置が背景板401に近い場合の影領域E3aの発生を示す図、同図(c)は同図(b)の場合の読取画像における影領域E3aの様子を示す図である。また、同図(d)は原稿通過位置が背景板401から遠い場合の影領域E3bの発生を示す図、同図(e)は同図(d)の場合の読取画像における影領域E3bの様子を示す図である。   FIG. 4 illustrates a case where the pixel value change between the background area E2 and the shadow area E3 is detected in the document edge detection process according to the reading state of the document 400 by the image reading unit 101 provided in the image processing apparatus according to the embodiment. It is a figure for demonstrating the different pattern of the shadow area | region E3. FIG. 6A is a diagram showing the principle that a shadow area E3 is generated on the leading edge side of the document at the time of reading. FIG. 5B is a diagram showing the generation of a shadow area E3a when the document passage position is close to the background plate 401. FIG. 7C is a diagram showing the state of the shadow area E3a in the read image in the case of FIG. FIG. 4D shows the generation of the shadow area E3b when the document passage position is far from the background plate 401, and FIG. 4E shows the state of the shadow area E3b in the read image in the case of FIG. FIG.

画像読取部101が自動原稿送り装置の場合、図4(a)に示されるように装置本体内に読取面404のイメージセンサ403を挟むように光源402が具備される。読取時には原稿400を搬送しながらイメージセンサ403でライン毎に読み取ることでスキャン動作を行う。背景板401と読取面404との間には原稿400を搬送するためのギャップがあり、読取時にはイメージセンサ403の両側から光源402により照射光を照射し、イメージセンサ403が照射光の反射光を読み取る。このとき、原稿400の搬送元の光源402からの照射光が原稿先端によって一部遮られ、それが原稿400のエッジの影領域E3となって読取画像に現れる。   When the image reading unit 101 is an automatic document feeder, a light source 402 is provided in the apparatus main body so as to sandwich an image sensor 403 of the reading surface 404 as shown in FIG. At the time of reading, a scanning operation is performed by reading the document 400 line by line while conveying the document 400. There is a gap for conveying the document 400 between the background plate 401 and the reading surface 404. During reading, irradiation light is emitted from both sides of the image sensor 403 by the light source 402, and the image sensor 403 emits reflected light of the irradiation light. read. At this time, a part of the irradiation light from the light source 402 that is the conveyance source of the document 400 is blocked by the leading edge of the document 400, and this appears as a shadow area E3 at the edge of the document 400 and appears in the read image.

様々な厚さの原稿400を通すために読取面404と背景板401との間には或る程度のギャップがあり、原稿400の厚さや撓み等によって、原稿先端の位置が背景板401と読取面404との間のどの位置を通過するかはスキャン毎にばらつく。このばらつきは、スキャナ光学系の往動動作において、往動開始位置の違いや装置個々の機械的負荷のばらつきにより一定速度までの立ち上がりプロフィールが違うことに起因する。この結果、影領域E3の幅にもばらつきが生じる。   There is a certain gap between the reading surface 404 and the background plate 401 in order to pass the document 400 of various thicknesses, and the position of the leading edge of the document is read from the background plate 401 due to the thickness or bending of the document 400. The position between the surface 404 and the surface 404 varies from scan to scan. This variation is caused by the difference in the rising profile up to a certain speed due to the difference in the forward movement start position and the variation in the mechanical load of each device in the forward movement of the scanner optical system. As a result, the width of the shadow area E3 also varies.

図4(b)に示されるように、原稿通過位置が背景板401に近く、読取面404から遠い位置を通過した場合、原稿先端が光源402の照射光を遮る影響が小さくなり、これに伴って影領域E3aは幅が狭くなる。この結果、読取画像における影領域E3aは、図4(c)に示されるように原稿領域E1と比べて相当に小さく現れる。これに対し、図4(d)に示されるように、原稿通過位置が背景板401から遠く、読取面404に近い位置を通過した場合、原稿先端が光源402の照射光を遮る影響が大きくなり、これに伴って影領域E3bは幅が広くなる。この結果、読取画像における影領域E3bは、図4(e)に示されるように原稿領域E1と比べて相当に大きく現れる。   As shown in FIG. 4B, when the document passage position is close to the background plate 401 and passes a position far from the reading surface 404, the influence of the document leading edge blocking the light emitted from the light source 402 is reduced. Thus, the shadow region E3a becomes narrower. As a result, the shadow area E3a in the read image appears considerably smaller than the document area E1 as shown in FIG. On the other hand, as shown in FIG. 4D, when the document passage position is far from the background plate 401 and passes through a position close to the reading surface 404, the influence of the document leading edge to block the irradiation light of the light source 402 becomes large. Accordingly, the shadow region E3b becomes wider. As a result, the shadow area E3b in the read image appears considerably larger than the document area E1 as shown in FIG.

このように搬送のばらつきによって影領域E3が変化するため、背景領域E2と影領域E3の境界を検出し、そこから補正値を持たせた位置を読取画像での原稿領域のエッジとして検出すると、実際の原稿領域E1のエッジとの差が発生してしまう。こうした補正値を用いて位置補正を行った場合、読取画像での副走査方向における原稿領域E1のエッジの検出精度が劣化してしまう。また、読取画像上で影領域E3が原稿領域E1と比べて相当に大きく現れる際、背景領域E2と影領域E3との境界と実際の原稿領域E1のエッジとの差分を埋める補正値以上の影領域E3の幅となる場合がある。こうした場合、図2を参照して説明した原稿領域E1の切り出し後の読取画像の内部に影領域E3が黒筋として残ってしまい、画質劣化を来すことにもなる。   Since the shadow area E3 changes due to variations in conveyance in this way, the boundary between the background area E2 and the shadow area E3 is detected, and the position having the correction value is detected as the edge of the document area in the read image. A difference from the actual edge of the document area E1 occurs. When position correction is performed using such correction values, the edge detection accuracy of the document area E1 in the sub-scanning direction in the read image is deteriorated. Further, when the shadow area E3 appears considerably larger than the document area E1 on the read image, the shadow is equal to or greater than a correction value that fills the difference between the boundary between the background area E2 and the shadow area E3 and the actual edge of the document area E1. The width of the region E3 may be obtained. In such a case, the shadow area E3 remains as a black streak in the read image after cutting out the document area E1 described with reference to FIG.

そこで、本願発明では、スキャン入力画像の原稿400として、ユーザがどういった原稿400を使うか判らないので、影領域E3及び背景領域E2の画素値変化に基づいて読取画像での影領域E3と背景領域E2との境界を検出することを基本とする。また、背景領域E2と原稿領域E1との間に生じる影領域E3が或る幅を持つことを留意し、その幅を検出して影領域E3と背景領域E2との境界に対して組み合わせることによって補正値を得て、読取画像での原稿領域E1のエッジを検出するようにする。   Therefore, in the present invention, since the user does not know what original 400 is used as the original 400 of the scan input image, the shadow area E3 in the read image is determined based on the pixel value change in the shadow area E3 and the background area E2. Basically, the boundary with the background region E2 is detected. Also, note that the shadow area E3 generated between the background area E2 and the document area E1 has a certain width, and that width is detected and combined with the boundary between the shadow area E3 and the background area E2. A correction value is obtained and the edge of the document area E1 in the read image is detected.

図5は、実施例に係る画像処理装置に備えられる原稿エッジ検出部102による影領域E3′の幅検出を説明するための図である。同図(a)は読取画像の要部に関する図、同図(b)は読取画像の要部における位置に対する画素値の特性図である。   FIG. 5 is a diagram for explaining the width detection of the shadow region E3 ′ by the document edge detection unit 102 provided in the image processing apparatus according to the embodiment. FIG. 4A is a diagram relating to the main part of the read image, and FIG. 4B is a characteristic diagram of the pixel value with respect to the position in the main part of the read image.

実施例に係る画像処理装置では、多様な原稿400に対して読取画像における原稿領域E1のエッジを適確に検出できるようにするため、例えば図5(a)に示されるように読取画像における原稿領域先端部に幅の広い影領域E3′が存在している場合を想定する。こうした場合、原稿エッジ検出部102では、まず境界検出手段の機能により、読取画像の情報を第1の閾値で2値化する。2値化した後の値の変化を読み取ることで、図5(b)に示されるように読取画像における原稿領域E1の輪郭端部近傍に生じる背景領域E2と影領域E3′との境界を示すエッジ検出位置αを検出する。   In the image processing apparatus according to the embodiment, in order to be able to accurately detect the edge of the document area E1 in the read image with respect to various documents 400, for example, as illustrated in FIG. Assume that a wide shadow region E3 ′ exists at the tip of the region. In such a case, the document edge detecting unit 102 first binarizes the information of the read image with the first threshold value by the function of the boundary detecting unit. By reading the change in the value after binarization, the boundary between the background region E2 and the shadow region E3 ′ generated in the vicinity of the contour edge of the document region E1 in the read image is shown as shown in FIG. 5B. Edge detection position α is detected.

また、搬送のばらつきで影領域E3′の幅が変化することに対応させるため、影幅検出手段の機能により図5(b)に示されるように影領域E3′の幅dを検出する。更に、原稿エッジ検出手段の機能により、検出した影領域E3′と背景領域E2との境界を示すエッジ検出位置αに対し、検出した影領域E3の幅dを組み合わせて加算し、読取画像における原稿領域E1のエッジを示すエッジ演算検出位置β(=α+d)を検出する。これにより、読取画像における副走査方向(搬送方向)での原稿領域E1のエッジ検出の精度を向上することができる。   Further, in order to cope with the change in the width of the shadow area E3 ′ due to the variation in the conveyance, the width d of the shadow area E3 ′ is detected as shown in FIG. Further, by the function of the document edge detection means, the width d of the detected shadow region E3 is added in combination to the edge detection position α indicating the boundary between the detected shadow region E3 ′ and the background region E2, and the document in the read image is added. An edge calculation detection position β (= α + d) indicating the edge of the region E1 is detected. Thereby, it is possible to improve the accuracy of edge detection of the document area E1 in the sub-scanning direction (conveyance direction) in the read image.

図6は、実施例に係る画像処理装置に備えられる原稿エッジ検出部102による画像処理での影領域E3の幅検出を原稿400の地色と影領域E3との明暗差に応じて説明するための図である。1)は原稿400の地色と影領域E3とに明暗差が有る場合の図、2)は原稿400の地色と影領域E3とに明暗差が無い場合の図である。   FIG. 6 is a diagram for explaining the width detection of the shadow region E3 in the image processing by the document edge detection unit 102 provided in the image processing apparatus according to the embodiment according to the contrast between the ground color of the document 400 and the shadow region E3. FIG. 1) is a diagram in the case where there is a contrast between the ground color of the document 400 and the shadow region E3, and 2) is a diagram in which there is no contrast between the ground color of the document 400 and the shadow region E3.

図6の1)の原稿400の地色と影領域E3とに明暗差が有る場合は原稿400の地色が白に近いときであり、図6の2)の原稿400の地色と影領域E3とに明暗差が無い場合は原稿400の地色が黒に近いときを示している。   The ground color of the original 400 in FIG. 6 and the shadow area E3 have a light / dark difference when the ground color of the original 400 is close to white, and the ground color and shadow area of the original 400 in 2) of FIG. When there is no contrast between E3 and E3, the background color of the document 400 is close to black.

まず、第1の判定閾値でエッジの判定を行うことで、背景領域E2と影領域E3との境界を示すエッジのみを検出できる。   First, by performing edge determination using the first determination threshold, only an edge indicating the boundary between the background region E2 and the shadow region E3 can be detected.

更に、第2の判定閾値でエッジの判定を行いエッジ検出する。ここで背景領域E2と影領域E3との境界のエッジを検出した箇所から副走査方向(搬送方向)に走査し、最初に第2の判定閾値で2値化し、値が変化する箇所を影領域E3と原稿領域E1とのエッジの検出箇所と判定する。即ち、背景領域E2と影領域E3との境界に対し、影領域E3の幅の分だけ補正した箇所を読取画像における真の原稿領域E1のエッジとして検出する。   Further, the edge is detected by the second determination threshold value to detect the edge. Here, scanning is performed in the sub-scanning direction (conveying direction) from the position where the edge of the boundary between the background area E2 and the shadow area E3 is detected, and binarization is first performed using the second determination threshold, and the position where the value changes is the shadow area. It is determined that the edge is detected between E3 and the document area E1. That is, a portion corrected by the width of the shadow region E3 with respect to the boundary between the background region E2 and the shadow region E3 is detected as the edge of the true document region E1 in the read image.

因みに、影領域E3と原稿領域E1とのエッジを検出し易くするため、第2の判定閾値は第1の判定閾値と比べて小さい値にしておけば、原稿400の地色が影領域E3に近いような場合でも検出できる可能性が大きくなる。この結果、読取画像における原稿領域E1のエッジ検出の精度を高めることができる。但し、第2の判定閾値を用いて最初から影領域E3と原稿領域E1とのエッジを検出しようとすると、背景領域E2のノイズやゴミを拾ってしまうために誤検出を発生する可能が高まる。そこで、大きく程度予想できる画素値変化に基づく背景領域E2と影領域E3とのエッジの検出は、ノイズやゴミの影響を受けないような十分大きな第1の判定閾値を使用してエッジの判定を行い、背景領域E2と影領域E3との境界のエッジを決める。その後に小さな第2の判定閾値で真の原稿領域E1のエッジを決めるようにすれば、読取領域における原稿領域E1のエッジの検出精度を上げることができる。   Incidentally, in order to easily detect the edge between the shadow area E3 and the document area E1, if the second determination threshold value is set smaller than the first determination threshold value, the ground color of the document 400 is changed to the shadow area E3. The possibility that it can be detected even in the case of being close increases. As a result, the accuracy of edge detection of the document area E1 in the read image can be improved. However, if it is attempted to detect the edge between the shadow area E3 and the document area E1 from the beginning using the second determination threshold, the possibility of erroneous detection increases because noise and dust in the background area E2 are picked up. Therefore, the detection of the edge between the background region E2 and the shadow region E3 based on the pixel value change that can be predicted to a large extent is performed by using a sufficiently large first determination threshold that is not affected by noise or dust. The boundary edge between the background area E2 and the shadow area E3 is determined. Thereafter, if the edge of the true document area E1 is determined with a small second determination threshold, the detection accuracy of the edge of the document area E1 in the reading area can be increased.

図6の1)、2)を参照して説明した内容は、原稿エッジ検出部102の影幅検出手段の機能で実現される。この影幅検出手段の機能は、第2の判定閾値で2値化することにより、読取画像における領域エッジの検出を行うことを基本とする。この上で、領域エッジの最後の検出位置から副走査方向側に走査して最初の影領域E3と背景領域E2との境界のエッジが検出された位置までの距離を影領域E3の幅とするものである。こうした画像処理により、影領域E3の幅の検出を行うことができる。   The contents described with reference to 1) and 2) in FIG. 6 are realized by the function of the shadow width detecting means of the document edge detecting unit 102. The function of this shadow width detection means is based on the detection of the region edge in the read image by binarizing with the second determination threshold value. On this basis, the distance from the last detection position of the area edge to the position where the edge of the boundary between the first shadow area E3 and the background area E2 is detected by scanning in the sub-scanning direction is defined as the width of the shadow area E3. Is. By such image processing, the width of the shadow area E3 can be detected.

但し、影幅検出手段で2値化する際の第2の判定閾値は、境界検出手段で2値化する際の第1の判定閾値よりも小さい値であるようにする。これによって、影領域E3と原稿領域E1との間のエッジを可能な限り検出し易くできる。   However, the second determination threshold value when binarizing by the shadow width detection unit is set to a value smaller than the first determination threshold value when binarizing by the boundary detection unit. This makes it possible to detect the edge between the shadow area E3 and the document area E1 as easily as possible.

図7は、上述の図6で説明した原稿エッジ検出部102による影領域E3の幅検出が失敗する場合の対応について説明するための図である。1)は影領域E3の幅検出が失敗する場合の特性図、2)は予め想定される影幅検出対象領域の決定を説明するための図である。但し、ここでも図7の1)の(a)は読取画像の要部における位置に対する画素値の特性図を示す。   FIG. 7 is a diagram for explaining a response when the width detection of the shadow area E3 by the document edge detection unit 102 described with reference to FIG. 6 fails. 1) is a characteristic diagram when the width detection of the shadow region E3 fails, and 2) is a diagram for explaining the determination of the shadow width detection target region assumed in advance. Here, however, (a) of 1) in FIG. 7 shows a characteristic diagram of the pixel value with respect to the position in the main part of the read image.

図7の1)に該当するのは、原稿400の地色が影領域E3とほぼ同一のときであり、読取画像における影領域E3と原稿領域E1とのエッジの判定を行うことができない。こうした場合には、図7の2)に示すように、画像読取部101における背景板401と読取面との距離からハード上想定される最大影幅となる影領域E3maxの影幅検出対象領域を設定する。   7 corresponds to 1) when the background color of the document 400 is substantially the same as that of the shadow region E3, and the edge between the shadow region E3 and the document region E1 in the read image cannot be determined. In such a case, as shown in 2) of FIG. 7, the shadow width detection target area of the shadow area E3max that is the maximum shadow width assumed on the hardware from the distance between the background plate 401 and the reading surface in the image reading unit 101 is set. Set.

具体的に云えば、原稿エッジ検出部102では、影幅検出手段の機能により影幅検出対象領域内で影領域E3と原稿領域E1とのエッジ判定し、影領域E3の幅を検出できなければ影幅検出失敗とし、領域エッジの検出を行う。また、原稿エッジ検出手段の機能により領域エッジの検出結果を一定の幅値で補正した値(領域エッジの検出結果から一定のオフセットを持った位置)を読取画像における原稿領域E1のエッジとして検出する。ここでの影幅検出失敗時の一定の幅値は、搬送位置のばらつきの中心値を通過した場合にできる影幅に設定しておけば良く、こうした原稿領域E1のエッジ検出を行えば、画像データの出力への影響を最小にできる。即ち、例え読取画像における影領域E3と原稿領域E1とのエッジを検出できない場合でも、領域エッジを検出した結果を一定の幅値で補正した値で原稿領域E1のエッジとすることにより、原稿領域E1のエッジ検出の精度を可能な限り向上することができる。   Specifically, the document edge detection unit 102 determines the edge between the shadow region E3 and the document region E1 within the shadow width detection target region by the function of the shadow width detection unit, and cannot detect the width of the shadow region E3. The shadow width detection is failed and the region edge is detected. Further, a value obtained by correcting the detection result of the region edge with a constant width value by the function of the document edge detection means (a position having a constant offset from the detection result of the region edge) is detected as an edge of the document region E1 in the read image. . The constant width value at the time of the shadow width detection failure here may be set to a shadow width that can be generated when the center value of the variation in the transport position passes, and if such edge detection of the document area E1 is performed, the image is detected. The impact on data output can be minimized. That is, even if the edge between the shadow area E3 and the document area E1 in the read image cannot be detected, the result of detecting the area edge is used as the edge of the document area E1 with a value corrected with a certain width value, thereby The accuracy of E1 edge detection can be improved as much as possible.

図8は、実施例に係る画像処理装置に備えられる画像読取部101が距離センサ405を備える場合の影領域E3の幅(影幅)検出を説明するための図である。   FIG. 8 is a diagram for explaining the detection of the width (shadow width) of the shadow region E3 when the image reading unit 101 included in the image processing apparatus according to the embodiment includes the distance sensor 405.

図8を参照すれば、ここでの画像読取部101は、読取モジュールに設けられた距離検出手段としての距離センサ405を用いて原稿400の通過高さの値を検出する。そこで、原稿エッジ検出部102では、影幅検出手段の機能により検出された原稿400の通過高さの値に基づいて計算により影領域E3の幅を検出する。具体的に云えば、距離センサ405は、背景板401と読取面404との距離yの間で原稿400がどの位置を通過したかの距離xを検出する。距離センサ405で検出した距離x、背景板401と読取面404との距離y、最大となる影幅Max_Sを用いると、影幅XはX=(1−x/y)×Max_sなる関係式で求めることができる。これを受け、原稿エッジ検出部102では、原稿エッジ検出手段の機能により求めた背景領域E2と影領域E3との境界のエッジに対し、上記関係式で求めた影幅Xだけ副走査方向(搬送方向)に補正した位置を原稿領域E1のエッジ検出結果とする。このように、距離センサ405を用いることで原稿400の通過高さの値が判るため、精度良く影領域E3の幅(影幅X)を取得し、原稿領域E1のエッジ検出の精度を向上することができる。   Referring to FIG. 8, the image reading unit 101 here detects the value of the passing height of the document 400 using a distance sensor 405 as a distance detection unit provided in the reading module. Therefore, the document edge detection unit 102 detects the width of the shadow region E3 by calculation based on the value of the passing height of the document 400 detected by the function of the shadow width detection unit. More specifically, the distance sensor 405 detects a distance x indicating which position the document 400 has passed between the distance y between the background plate 401 and the reading surface 404. Using the distance x detected by the distance sensor 405, the distance y between the background plate 401 and the reading surface 404, and the maximum shadow width Max_S, the shadow width X is a relational expression of X = (1−x / y) × Max_s. Can be sought. In response to this, the document edge detection unit 102 applies the shadow width X obtained by the above relational expression to the edge of the boundary between the background area E2 and the shadow area E3 obtained by the function of the document edge detection means (conveyance). The position corrected in (direction) is set as the edge detection result of the document area E1. In this way, since the value of the passing height of the document 400 can be determined by using the distance sensor 405, the width (shadow width X) of the shadow region E3 is obtained with high accuracy, and the accuracy of edge detection of the document region E1 is improved. be able to.

図9は、実施例に係る画像処理装置に備えられる原稿エッジ検出部102が参照する記憶部にテーブル形式で格納された原稿400の通過高さの値に対する影幅の値のデータを例示した図である。   FIG. 9 is a diagram exemplifying shadow width value data with respect to the passing height value of the document 400 stored in a table form in the storage unit referred to by the document edge detection unit 102 provided in the image processing apparatus according to the embodiment. It is.

図8では距離センサ405で検出した距離xから関係式で影幅Xを算出して求めたが、図9では原稿エッジ検出部102の影幅検出手段の機能により記憶部に予めテーブル形式で格納された原稿400の通過高さの値に対する影幅の値(ピクセル)を参照する。この記憶部は原稿エッジ検出部102自体に内蔵させるか、或いは画像読取部101に持たせて原稿エッジ検出部102の影幅検出手段の機能で参照するようにしても良い。何れにしても、原稿エッジ検出部102の影幅検出手段が記憶部を参照することで距離センサ405により検出された距離xに対応する影幅の値を容易に決定できる。こうした手法は、分解能が小さくなっても検出精度として数ピクセル程度のずれならば許容できるという場合に計算コストを削減できるという点で有効である。   In FIG. 8, the shadow width X is calculated from the distance x detected by the distance sensor 405 using a relational expression, but in FIG. 9, the shadow width detection unit of the document edge detection unit 102 stores the table in advance in a table format. The shadow width value (pixel) with respect to the passing height value of the document 400 is referred to. The storage unit may be built in the document edge detection unit 102 itself, or may be provided in the image reading unit 101 and referred to by the function of the shadow width detection unit of the document edge detection unit 102. In any case, a shadow width value corresponding to the distance x detected by the distance sensor 405 can be easily determined by the shadow width detecting means of the document edge detecting section 102 referring to the storage section. Such a technique is effective in that the calculation cost can be reduced when a resolution of about several pixels is acceptable as the detection accuracy even if the resolution is reduced.

要するに、実施例に係る画像処理装置では、読取画像における背景領域E2と影領域E3とのエッジを検出してスキュー角度や原稿原点位置(原稿原点座標P)を検出する画像処理を改善している。具体的には、原稿400の搬送のばらつきや原稿400の色や濃度(明度)に左右されずに原稿領域E1のエッジを検出するため、背景領域E2と影領域E3との境界を検出する以外、影領域E3の幅dを検出し、これらの加算値を読取画像における原稿領域E1のエッジとして検出する。この結果、副走査方向(搬送方向)での原稿位置を高精度に検出することができる。   In short, the image processing apparatus according to the embodiment improves image processing for detecting the skew angle and the document origin position (document origin coordinate P) by detecting the edges of the background region E2 and the shadow region E3 in the read image. . Specifically, in order to detect the edge of the document area E1 regardless of variations in the conveyance of the document 400 and the color and density (brightness) of the document 400, the boundary between the background area E2 and the shadow area E3 is detected. The width d of the shadow area E3 is detected, and these added values are detected as the edge of the document area E1 in the read image. As a result, the document position in the sub-scanning direction (conveyance direction) can be detected with high accuracy.

以上に説明した実施例に係る画像処理装置の技術的要点は、画像処理方法として換言することができる。この場合の画像処理方法は、画像読取手段により、搬送路に沿って搬送される原稿の画像を読み取る画像読み取りステップを有することを前提とする。この他、境界検出手段により、画像読み取りステップで読み取られた読取画像の情報を第1の判定閾値で2値化する。これにより、読取画像における原稿領域E1の輪郭端部近傍に生じる影領域E3と背景領域E2との境界を検出する境界検出ステップを有する。また、影幅検出手段により、影領域E3の幅dを検出する影幅検出ステップを有する。更に、原稿エッジ検出手段により、境界検出ステップで検出した影領域E3と背景領域E2との境界に対し、影幅検出ステップで検出した影領域E3の幅dを組み合わせる。これにより、読取画像における原稿領域E1のエッジを検出する原稿エッジ検出ステップを有する。   The technical point of the image processing apparatus according to the embodiment described above can be restated as an image processing method. The image processing method in this case is premised on having an image reading step of reading an image of a document conveyed along the conveyance path by an image reading unit. In addition, the boundary detection means binarizes the information of the read image read in the image reading step with the first determination threshold value. Thus, there is a boundary detection step for detecting the boundary between the shadow area E3 and the background area E2 generated in the vicinity of the contour edge of the document area E1 in the read image. Further, a shadow width detecting step of detecting the width d of the shadow area E3 by the shadow width detecting means is provided. Further, the width d of the shadow area E3 detected in the shadow width detection step is combined with the boundary between the shadow area E3 detected in the boundary detection step and the background area E2 by the document edge detection means. Thus, there is a document edge detection step for detecting the edge of the document area E1 in the read image.

上記画像処理方法において、影幅検出ステップでは、読取画像の情報を第2の判定閾値で2値化する。これにより、読取画像における領域エッジの検出を行い、領域エッジの最後の検出位置から副走査方向側に走査して最初の影領域E3と背景領域E2との境界のエッジが検出された位置までの距離を影領域E3の幅dとすることは好ましい。また、影幅検出ステップで第2のフィルタ処理により得られた微分情報を2値化する際の第2の判定閾値を、境界検出ステップで2値化する際の第1の判定閾値よりも小さい値とすることは好ましい。   In the image processing method, in the shadow width detection step, the information of the read image is binarized with the second determination threshold value. Thus, the region edge in the read image is detected, and scanning from the last detection position of the region edge in the sub-scanning direction side to the position where the edge of the boundary between the first shadow region E3 and the background region E2 is detected. It is preferable to set the distance to the width d of the shadow area E3. Further, the second determination threshold value when binarizing the differential information obtained by the second filter process in the shadow width detection step is smaller than the first determination threshold value when binarizing in the boundary detection step. A value is preferable.

更に、これらの画像処理方法において、影幅検出ステップでは、画像読取手段の背景板401と読取面404との距離から決定される影幅検出対象領域内で影領域E3の幅dの検出動作を実行し、影幅検出対象領域内で影領域E3の幅dを検出できない場合は領域エッジの検出を行う。こうした前提において、原稿エッジ検出ステップでは、影幅検出ステップによる領域エッジの検出結果を一定の幅値で補正した値を読取画像での原稿領域E1のエッジとして検出することは好ましい。   Further, in these image processing methods, in the shadow width detection step, the operation of detecting the width d of the shadow area E3 within the shadow width detection target area determined from the distance between the background plate 401 of the image reading means and the reading surface 404 is performed. When the width d of the shadow area E3 cannot be detected in the shadow width detection target area, the area edge is detected. Under such a premise, in the document edge detection step, it is preferable to detect a value obtained by correcting the region edge detection result in the shadow width detection step with a constant width value as the edge of the document region E1 in the read image.

その他、上記画像処理方法において、影幅検出ステップでは、画像読取手段の読取モジュールに設けられた距離検出手段を用いて検出した原稿400の通過高さの値に基づいて計算により影領域E3の幅dを検出することは好ましい。加えて、上記画像処理方法において、記憶部により予めテーブル形式で原稿400の通過高さの値に対する影領域E3の幅dの値を格納する記憶ステップを有するようにしても良い。こうした前提で、影幅検出ステップでは、距離検出手段で得られる原稿400の通過高さの値に応じて記憶ステップを参照して影領域E3の幅dの値を決定することは好ましい。   In addition, in the image processing method, in the shadow width detection step, the width of the shadow region E3 is calculated by calculation based on the value of the passing height of the document 400 detected by using the distance detection unit provided in the reading module of the image reading unit. It is preferable to detect d. In addition, the image processing method may further include a storage step of storing the value of the width d of the shadow area E3 with respect to the value of the passing height of the document 400 in advance in a table format by the storage unit. Under such a premise, in the shadow width detection step, it is preferable to determine the value of the width d of the shadow region E3 with reference to the storage step according to the value of the passing height of the document 400 obtained by the distance detection means.

何れにしても、上記画像処理方法における画像読み取りステップ、境界検出ステップ、影幅検出ステップ、及び原稿エッジ検出ステップはコンピュータが実行するための画像処理プログラムとして構築可能なものである。また、上記画像処理方法における記憶ステップをコンピュータが実行可能な画像処理プログラムとしても構築できる。   In any case, the image reading step, boundary detection step, shadow width detection step, and document edge detection step in the image processing method can be constructed as an image processing program to be executed by a computer. The storage step in the image processing method can also be constructed as an image processing program that can be executed by a computer.

図10は、上述した実施例に係る画像処理装置100のハードウェア構成の一例を示す概略ブロック図である。図10を参照すれば、画像処理装置100は、ハードウェア構成上で表示装置131、入力装置132、認証装置133、及び画像出力装置134を含んで構成される。   FIG. 10 is a schematic block diagram illustrating an example of a hardware configuration of the image processing apparatus 100 according to the above-described embodiment. Referring to FIG. 10, the image processing apparatus 100 includes a display device 131, an input device 132, an authentication device 133, and an image output device 134 in terms of hardware configuration.

表示装置131としては、例えば液晶ディスプレイ(LCD)やCRT(cathode-ray tube)ディスプレイ等の各種ディスプレイ装置が使用される。入力装置132は、キーボードやマウス等を含む。入力装置132は、タブレットを含んでも良い。また、画像処理装置100は、表示装置131と入力装置132とを含むタッチパネルを搭載するものであっても良い。認証装置133は、接触型/非接触型のICカード認証装置や指静脈認証装置等を含む。画像出力装置134は、プリンタ(エンジン)である。   As the display device 131, various display devices such as a liquid crystal display (LCD) and a CRT (cathode-ray tube) display are used. The input device 132 includes a keyboard, a mouse, and the like. The input device 132 may include a tablet. Further, the image processing apparatus 100 may be equipped with a touch panel including the display device 131 and the input device 132. The authentication device 133 includes a contact / non-contact IC card authentication device, a finger vein authentication device, and the like. The image output device 134 is a printer (engine).

画像処理装置100は、CPU(central processing unit)110を含む。CPU110は、バスを介してNV−RAM(Non Volatile−Random Access Memory)111、ROM(Read Only Member)112、標準及び増設オプションのRAM113、SSD(Solid State Drive)114に接続されている。その他、ハードディスクドライブ(HDD)115、通信制御部(通信インターフェイス)116、表示制御部121、入力制御部122、認証制御部123、印刷制御部124、起動制御部125に接続されている。   The image processing apparatus 100 includes a CPU (central processing unit) 110. The CPU 110 is connected to an NV-RAM (Non Volatile-Random Access Memory) 111, a ROM (Read Only Member) 112, a standard and expansion option RAM 113, and an SSD (Solid State Drive) 114 via a bus. In addition, they are connected to a hard disk drive (HDD) 115, a communication control unit (communication interface) 116, a display control unit 121, an input control unit 122, an authentication control unit 123, a print control unit 124, and an activation control unit 125.

画像処理装置100の制御バスには、オプション接続用の拡張スロット126が接続されている。標準的な出荷状態では、増設RAMのようなオプションは、拡張スロット126に装着されていない(以下、出荷時の状態、即ち、出荷時からオプションが追加されていない状態を標準状態ということがある)。管理者やユーザは、拡張スロット126を介して、新たなハードウェア(拡張OP)150を画像処理装置100に搭載することができる。通信制御部(通信インターフェイス)116には、ローカルエリアネットワーク(LAN)300が接続されている。また、ローカルエリアネットワーク300には、パーソナルコンピュータ(PC)等の複数の端末装置200A、200B、200Cが接続されている。   An expansion slot 126 for connecting an option is connected to the control bus of the image processing apparatus 100. In a standard shipment state, an option such as an additional RAM is not installed in the expansion slot 126 (hereinafter, a state at the time of shipment, that is, a state in which no option has been added since the shipment may be referred to as a standard state). ). An administrator or a user can install new hardware (expansion OP) 150 in the image processing apparatus 100 via the expansion slot 126. A local area network (LAN) 300 is connected to the communication control unit (communication interface) 116. In addition, a plurality of terminal devices 200A, 200B, and 200C such as personal computers (PCs) are connected to the local area network 300.

CPU110は、NV−RAM111、ROM112、標準及び増設オプションのRAM113、SSD114、ハードディスクドライブ115に記憶されているデータに基づいて、画像処理装置100の全体の動作を制御する。RAM(揮発メモリ)113は、CPU110が動作するための作業領域を提供する。RAM113に関しては、標準状態では、1枚のメモリモジュールが作業領域を実現する。但し、オプション機能が拡張されたときには、複数枚のメモリモジュールが協働して作業領域を実現することができる。   The CPU 110 controls the overall operation of the image processing apparatus 100 based on data stored in the NV-RAM 111, ROM 112, standard and expansion option RAM 113, SSD 114, and hard disk drive 115. A RAM (volatile memory) 113 provides a work area for the CPU 110 to operate. Regarding the RAM 113, in a standard state, one memory module implements a work area. However, when the optional function is expanded, a plurality of memory modules can cooperate to realize a work area.

SSD(第1の不揮発メモリ)114は、SATA(Serial Advanced Technology Attachment)インターフェイスのNANDコントローラとNANDフラッシュメモリとを含む。SSD114は、CPU110が実行するための動作プログラムを格納する。SSD114は、ハードディスクドライブ115よりも高速アクセス可能な不揮発メモリである。即ち、起動制御部125は、ハードディスクドライブ115からよりも、SSD114からの方がより早くデータを読み出すことができる。   The SSD (first nonvolatile memory) 114 includes a NAND controller having a SATA (Serial Advanced Technology Attachment) interface and a NAND flash memory. The SSD 114 stores an operation program for the CPU 110 to execute. The SSD 114 is a nonvolatile memory that can be accessed at a higher speed than the hard disk drive 115. In other words, the activation control unit 125 can read data faster from the SSD 114 than from the hard disk drive 115.

また、SSD114は、高速起動(ハイバネーション起動)するためのスナップショットイメージを圧縮して格納する。因みに、スナップショットイメージとは、電源OFF時にRAM113に格納されているデータを示す。換言すれば、スナップショットイメージは、次に電源がONされる際にRAM113に格納されるべきデータを示す。より詳細に云えば、起動制御部125は、画像処理装置100の電源がOFFされる際に、スナップショットイメージを圧縮してSSD114に格納する。そして、起動制御部125は、画像処理装置100の電源がONされた際にSSD114のスナップショットイメージを伸張し、RAM113へと読み出す。ここでは、スナップショットイメージの全体を全体スナップショットイメージとも呼ぶ。尚、全体スナップショットイメージは、スナップショットイメージの全体が圧縮されたデータであっても良い。   Further, the SSD 114 compresses and stores a snapshot image for high-speed activation (hibernation activation). Incidentally, the snapshot image indicates data stored in the RAM 113 when the power is turned off. In other words, the snapshot image shows data to be stored in the RAM 113 when the power is turned on next time. More specifically, the activation control unit 125 compresses the snapshot image and stores it in the SSD 114 when the image processing apparatus 100 is powered off. Then, the activation control unit 125 decompresses the snapshot image of the SSD 114 and reads it into the RAM 113 when the power of the image processing apparatus 100 is turned on. Here, the entire snapshot image is also called a whole snapshot image. The entire snapshot image may be data obtained by compressing the entire snapshot image.

ハードディスクドライブ(第2の不揮発メモリ)115は、画像処理装置100がコピージョブやプリントジョブを実行する際に、画像形成される画像データ等を一時的に格納する。また、ハードディスクドライブ115は、スキャンジョブで読み取られた画像データを後処理で出力可能なように格納(BOX保存)する。更に、ハードディスクドライブ115は、高速起動(ハイバネーション起動)のための複数種類のスナップショット差分情報(部分スナップショットイメージ)を格納する。ここでは、全体スナップショットイメージのうちのオプション構成によって異なる部分を部分スナップショットイメージとも呼ぶ。換言すれば、全体スナップショットイメージのうちの、最新の(現在の)オプション構成に対応する高速起動FW(ファームウェア)プログラムに相当する部分を部分スナップショットイメージとも呼ぶ。尚、部分スナップショットイメージは、スナップショットイメージの一部が圧縮されたデータであっても良い。   A hard disk drive (second non-volatile memory) 115 temporarily stores image data to be formed when the image processing apparatus 100 executes a copy job or a print job. Further, the hard disk drive 115 stores (BOX save) the image data read by the scan job so that it can be output by post-processing. Furthermore, the hard disk drive 115 stores a plurality of types of snapshot difference information (partial snapshot images) for high-speed activation (hibernation activation). Here, the part of the entire snapshot image that differs depending on the optional configuration is also referred to as a partial snapshot image. In other words, a portion corresponding to the fast startup FW (firmware) program corresponding to the latest (current) option configuration in the entire snapshot image is also referred to as a partial snapshot image. The partial snapshot image may be data in which a part of the snapshot image is compressed.

加えて、ハードディスクドライブ115は、オプションの組み合わせ(オプション構成)毎に部分スナップショットイメージを格納する。この場合には、全体スナップショットイメージは、その時のオプション構成に対応する部分スナップショットイメージと、オプション構成とは独立した共通スナップショットとを含むことになる。或いは、ハードディスクドライブ115は、オプション毎に部分スナップショットイメージを格納する。この場合には、全体スナップショットイメージが複数のオプションのそれぞれに対応する複数の部分スナップショットイメージと、オプション構成とは独立した共通スナップショットイメージとを含むことになる。   In addition, the hard disk drive 115 stores a partial snapshot image for each option combination (option configuration). In this case, the entire snapshot image includes a partial snapshot image corresponding to the option configuration at that time and a common snapshot independent of the option configuration. Alternatively, the hard disk drive 115 stores a partial snapshot image for each option. In this case, the entire snapshot image includes a plurality of partial snapshot images corresponding to the plurality of options, and a common snapshot image independent of the option configuration.

起動制御部125は、画像処理装置100の拡張スロット126に装着されるハードウェア及びインストールされるソフトウェアのオプション構成に基づいて、ハードディスクドライブ115に格納されている部分スナップショットイメージを選択する。起動制御部125は、選択された部分スナップショットイメージとオプション構成から独立した共通スナップショットイメージとを組み合わせることによって、その時のオプション構成に対応する最新の全体スナップショットイメージを生成する。換言すれば、起動制御部125は、ハードウェアやソフトウェアのオプション構成に基づいてSSD114に格納されている全体スナップショットイメージの一部分をハードディスクドライブ115に格納されている部分スナップショットイメージによって更新する。これによって、最新の全体スナップショットイメージを生成する。   The activation control unit 125 selects a partial snapshot image stored in the hard disk drive 115 based on an optional configuration of hardware installed in the expansion slot 126 of the image processing apparatus 100 and installed software. The activation control unit 125 combines the selected partial snapshot image and the common snapshot image independent of the option configuration to generate the latest entire snapshot image corresponding to the option configuration at that time. In other words, the activation control unit 125 updates a part of the entire snapshot image stored in the SSD 114 with the partial snapshot image stored in the hard disk drive 115 based on the hardware or software option configuration. As a result, the latest entire snapshot image is generated.

尚、図10において、CPU110とは別に画像処理装置100に搭載された起動制御部125がSSD114に格納される全体スナップショットイメージを更新するものである。また、CPU110がNV−RAM111に記憶されているデータに基づいて起動制御部125の機能を兼ねるものであっても良い。即ち、起動制御部125がCPU110の一部の機能であってもよい。何れにしても、画像処理装置100はハードウェア構成上で技術的特徴を持つものでなく、主としてCPU110の中央演算処理機能が図1を参照して説明した画像読取部101に接続される各部の機能ブロックに該当する役割を担う点に特色がある。   In FIG. 10, the activation control unit 125 installed in the image processing apparatus 100 separately from the CPU 110 updates the entire snapshot image stored in the SSD 114. Further, the CPU 110 may also serve as the function of the activation control unit 125 based on data stored in the NV-RAM 111. That is, the activation control unit 125 may be a partial function of the CPU 110. In any case, the image processing apparatus 100 does not have a technical feature in terms of hardware configuration, and the central processing function of the CPU 110 is mainly connected to the image reading unit 101 described with reference to FIG. It is unique in that it plays a role corresponding to a functional block.

図11は、図10に示した画像処理装置100に搭載されたCPU110による原稿読取後の原稿領域E1のエッジ検出に係る動作処理を示すフローチャートである。   FIG. 11 is a flowchart showing an operation process related to edge detection of the document area E1 after the document is read by the CPU 110 mounted in the image processing apparatus 100 shown in FIG.

図11を参照すれば、CPU110では画像読取部101で原稿400の画像が読み取る原稿読取が行われたことを前提とし、最初に境界検出手段の機能により、読取画像の情報を取得した後に第1の判定閾値で2値化する。これにより、読取画像における原稿領域E1の輪郭端部近傍に生じる影領域E3と背景領域E2との境界検出(ステップS1)を行う。   Referring to FIG. 11, the CPU 110 assumes that the image reading unit 101 has read the image of the original 400 and first acquires information of the read image by the function of the boundary detection unit, and then performs the first operation. It binarizes with the determination threshold value. As a result, the boundary detection between the shadow area E3 and the background area E2 occurring in the vicinity of the contour edge of the document area E1 in the read image is performed (step S1).

次に、CPU110では、影幅検出手段の機能により、影領域E3の幅dを検出する影領域幅検出(ステップS2)を行う。更に、CPU110では、原稿エッジ検出手段の機能により、検出された影領域E3と背景領域E2との境界に対し、検出された影領域E3の幅dを組み合わせる。これにより、境界に幅dの値を加算して原稿領域E1のエッジ検出(ステップS3)を行う。尚、ここでの動作処理の細部については、上述した手法を適用すれば良い。   Next, the CPU 110 performs shadow area width detection (step S2) for detecting the width d of the shadow area E3 by the function of the shadow width detection means. Further, the CPU 110 combines the width d of the detected shadow area E3 with the boundary between the detected shadow area E3 and the background area E2 by the function of the document edge detection means. As a result, the value of the width d is added to the boundary to detect the edge of the document area E1 (step S3). In addition, what is necessary is just to apply the method mentioned above about the detail of the operation | movement process here.

尚、本実施形態において、原稿エッジ検出部102は読取画像の情報に対して2値化処理を行うことでエッジを検出する場合を説明したが、例えば読取画像の情報に対してフィルタ処理を施して得られた結果に対して2値化処理を行うようにしても良い。   In the present embodiment, the document edge detection unit 102 has described the case where the edge is detected by performing binarization processing on the read image information. For example, the document edge detection unit 102 performs filter processing on the read image information. The binarization process may be performed on the result obtained.

100 画像処理装置
101 画像読取部
102 原稿エッジ検出部
103 スキュー角度決定部
104 原稿原点座標決定部
105 スキュー補正部
106 位置補正部
107 画像データ出力部
110 CPU
111 NV−RAM
112 RAM
113 RAM
114 SDD
115 ハードディスクドライブ
121 表示制御部
122 入力制御部
123 認証制御部
124 印刷制御部
125 起動制御部
126 拡張スロット
150 ハードウェア(拡張OP)
131 表示装置
132 入力装置
133 認証装置
134 画像出力装置
200A、200B、200C 端末装置
300 ローカルエリアネットワーク
400 原稿
401 背景板
402 光源
403 イメージセンサ
404 読取面
405 距離センサ
E1 原稿領域
E2 背景領域
E3、E3′、E3a、E3b 影領域
E4 特定領域
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Image reading part 102 Document edge detection part 103 Skew angle determination part 104 Original origin coordinate determination part 105 Skew correction part 106 Position correction part 107 Image data output part 110 CPU
111 NV-RAM
112 RAM
113 RAM
114 SDD
115 Hard Disk Drive 121 Display Control Unit 122 Input Control Unit 123 Authentication Control Unit 124 Print Control Unit 125 Startup Control Unit 126 Expansion Slot 150 Hardware (Expansion OP)
131 Display device 132 Input device 133 Authentication device 134 Image output device 200A, 200B, 200C Terminal device 300 Local area network 400 Document 401 Background plate 402 Light source 403 Image sensor 404 Reading surface 405 Distance sensor E1 Document region E2 Background region E3, E3 ′ , E3a, E3b Shadow area E4 Specific area

特許第5231978号公報Japanese Patent No. 5231978

Claims (7)

搬送される原稿の画像を読み取る画像読取手段を備えた画像処理装置であって、
読取画像における原稿領域の輪郭端部近傍に生じる影領域と背景領域との境界を検出する境界検出手段と、
前記影領域の幅を検出する影幅検出手段と、
前記境界検出手段で検出した前記影領域と前記背景領域との境界に対し、前記影幅検出手段で検出した当該影領域の幅を組み合わせることにより、前記読取画像における前記原稿領域のエッジを検出する原稿エッジ検出手段と、を備えたことを特徴とする画像処理装置。
An image processing apparatus including an image reading unit that reads an image of a conveyed document,
Boundary detection means for detecting a boundary between a shadow area and a background area generated in the vicinity of the contour edge of the document area in the read image;
Shadow width detecting means for detecting the width of the shadow region;
The edge of the document area in the read image is detected by combining the width of the shadow area detected by the shadow width detection means with the boundary between the shadow area and the background area detected by the boundary detection means. An image processing apparatus comprising: document edge detection means.
請求項1記載の画像処理装置において、
前記影幅検出手段は、前記読取画像の情報又はそれに基づいて得られる情報を第1の判定閾値で2値化し、当該読取画像における原稿領域の輪郭端部近傍に生じる影領域と背景領域との境界を検出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The shadow width detecting unit binarizes the information of the read image or information obtained based on the information with a first determination threshold value, and calculates a shadow area and a background area generated in the vicinity of the edge of the document area in the read image. An image processing apparatus for detecting a boundary.
請求項1又は2記載の画像処理装置において、
前記影幅検出手段は、前記読取画像の情報又はそれに基づいて得られる情報を第1の判定閾値よりも小さい第2の判定閾値で2値化することにより、当該読取画像における領域エッジの検出を行い、当該領域エッジの最後の検出位置から副走査方向側に走査して最初の前記影領域と前記背景領域との境界のエッジが検出された位置までの距離を当該影領域の幅とすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The shadow width detecting unit binarizes the information of the read image or information obtained based on the information with a second determination threshold smaller than the first determination threshold, thereby detecting a region edge in the read image. And the distance from the last detection position of the area edge to the position where the edge of the boundary between the shadow area and the background area is detected by scanning in the sub-scanning direction side is defined as the width of the shadow area. An image processing apparatus.
請求項2又は3記載の画像処理装置において、
前記影幅検出手段は、前記画像読取手段の背景板と読取面との距離から決定される影幅検出対象領域内で前記影領域の幅の検出動作を実行し、当該影幅検出対象領域内で当該影領域の幅を検出できない場合は領域エッジの検出を行い、
前記原稿エッジ検出手段は、前記影幅検出手段による前記領域エッジの検出結果を一定の幅値で補正した値を前記読取画像での前記原稿領域のエッジとして検出することを特徴とする画像処理装置。
The image processing apparatus according to claim 2 or 3,
The shadow width detection unit executes a detection operation of the width of the shadow region within a shadow width detection target region determined from the distance between the background plate of the image reading unit and the reading surface, and the shadow width detection target region If the width of the shadow area cannot be detected with
The document edge detection unit detects a value obtained by correcting the detection result of the region edge by the shadow width detection unit with a constant width value as an edge of the document region in the read image. .
請求項1記載の画像処理装置において、
前記影幅検出手段は、前記画像読取手段の読取モジュールに設けられた距離検出手段を用いて検出した前記原稿の通過高さの値に基づいて計算により前記影領域の幅を検出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The shadow width detecting means detects the width of the shadow area by calculation based on a value of the passing height of the document detected by using a distance detecting means provided in a reading module of the image reading means. An image processing apparatus.
画像読取手段により、搬送される原稿の画像を読み取る画像読み取りステップを有する画像処理方法であって、
境界検出手段により、読取画像における原稿領域の輪郭端部近傍に生じる影領域と背景領域との境界を検出する境界検出ステップと、
影幅検出手段により、前記影領域の幅を検出する影幅検出ステップと、
原稿エッジ検出手段により、前記境界検出ステップで検出した前記影領域と前記背景領域との境界に対し、前記影幅検出ステップで検出した当該影領域の幅を組み合わせることにより、前記読取画像における前記原稿領域のエッジを検出する原稿エッジ検出ステップと、を有することを特徴とする画像処理方法。
An image processing method comprising an image reading step of reading an image of a conveyed document by an image reading means,
A boundary detecting step for detecting a boundary between a shadow region and a background region generated in the vicinity of the edge of the contour of the document region in the read image by the boundary detection unit;
A shadow width detecting step of detecting a width of the shadow region by a shadow width detecting means;
By combining the width of the shadow area detected in the shadow width detection step with the boundary between the shadow area and the background area detected in the boundary detection step by the document edge detection means, the original in the read image And a document edge detecting step for detecting an edge of the area.
請求項6記載の画像処理方法における前記画像読み取りステップ、前記境界検出ステップ、前記影幅検出ステップ、及び前記原稿エッジ検出ステップをコンピュータが実行するための画像処理プログラム。   7. An image processing program for causing a computer to execute the image reading step, the boundary detection step, the shadow width detection step, and the document edge detection step in the image processing method according to claim 6.
JP2017053528A 2017-03-17 2017-03-17 Image processing equipment, image processing method, and image processing program Active JP6874450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017053528A JP6874450B2 (en) 2017-03-17 2017-03-17 Image processing equipment, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017053528A JP6874450B2 (en) 2017-03-17 2017-03-17 Image processing equipment, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2018157417A true JP2018157417A (en) 2018-10-04
JP6874450B2 JP6874450B2 (en) 2021-05-19

Family

ID=63718231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017053528A Active JP6874450B2 (en) 2017-03-17 2017-03-17 Image processing equipment, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6874450B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123839A (en) * 2019-01-30 2020-08-13 株式会社リコー Inclination detection device, reading device, image processing apparatus, and inclination detection method
JP2021044701A (en) * 2019-09-11 2021-03-18 キヤノン株式会社 Image reading apparatus and control method thereof
US11102364B2 (en) 2019-01-31 2021-08-24 Ricoh Company, Ltd. Inclination detecting device, reading device, image processing apparatus, and method of detecting inclination
US11347980B2 (en) 2019-10-01 2022-05-31 Ricoh Company, Ltd. Positional-deviation correcting device and image forming apparatus including positional-deviation correcting device
US11558520B2 (en) 2020-10-07 2023-01-17 Ricoh Company, Ltd. Image reading device, image forming apparatus, image correction method, and non-transitory recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014003397A (en) * 2012-06-15 2014-01-09 Canon Electronics Inc Image reader, image processing method and program
JP2014086803A (en) * 2012-10-22 2014-05-12 Canon Inc Original reading apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014003397A (en) * 2012-06-15 2014-01-09 Canon Electronics Inc Image reader, image processing method and program
JP2014086803A (en) * 2012-10-22 2014-05-12 Canon Inc Original reading apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123839A (en) * 2019-01-30 2020-08-13 株式会社リコー Inclination detection device, reading device, image processing apparatus, and inclination detection method
JP7196644B2 (en) 2019-01-30 2022-12-27 株式会社リコー TILT DETECTION DEVICE, READING DEVICE, IMAGE PROCESSING DEVICE, AND TILT DETECTION METHOD
US11102364B2 (en) 2019-01-31 2021-08-24 Ricoh Company, Ltd. Inclination detecting device, reading device, image processing apparatus, and method of detecting inclination
JP2021044701A (en) * 2019-09-11 2021-03-18 キヤノン株式会社 Image reading apparatus and control method thereof
JP7341808B2 (en) 2019-09-11 2023-09-11 キヤノン株式会社 Image reading device and its control method
US11347980B2 (en) 2019-10-01 2022-05-31 Ricoh Company, Ltd. Positional-deviation correcting device and image forming apparatus including positional-deviation correcting device
US11558520B2 (en) 2020-10-07 2023-01-17 Ricoh Company, Ltd. Image reading device, image forming apparatus, image correction method, and non-transitory recording medium

Also Published As

Publication number Publication date
JP6874450B2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
JP6874450B2 (en) Image processing equipment, image processing method, and image processing program
US10988335B2 (en) Transporting apparatus, program, and control method of transporting apparatus
JP4557184B2 (en) Image processing apparatus, image reading apparatus, and image processing program
US11816830B2 (en) Image processing apparatus, image processing method, and storage medium
US9451126B2 (en) Technique for image processing
JP6330505B2 (en) Image reading device
US10225436B2 (en) Image processing apparatus, and method and computer-readable medium therefor
JP2018128825A (en) Image processing apparatus and image processing program
US20230386020A1 (en) Image processing apparatus, method of controlling the same, and storage medium
CN108513035B (en) Image processing apparatus and image processing method
US11399108B2 (en) Image reading apparatus capable of determining whether missing part of document image occurs based on edge shape of at least one of leading and trailing edges of document image
JP2005316550A (en) Image processor, image reader, image inspection device and program
JP2016005187A (en) Image reading apparatus
JP5313565B2 (en) Image reading apparatus, image reading method, image reading system, and program
JP2021086049A (en) Image processing apparatus, image processing system, and program
JP7006145B2 (en) Image processing device, image processing method
JP7510602B2 (en) Image reader
JP7510603B2 (en) Image reader
JP7474410B2 (en) Image reader
JP7474411B2 (en) Image reader
US11665296B2 (en) Image reading device
JP6950236B2 (en) Computer programs and image processing equipment
JP2018078462A (en) Image processing apparatus, method for controlling image processing apparatus, and program
JP6950237B2 (en) Computer programs and image processing equipment
JP2021184518A (en) Image reading device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R151 Written notification of patent or utility model registration

Ref document number: 6874450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151