JP2017175328A - Image processing device, information processing device, and image processing method - Google Patents

Image processing device, information processing device, and image processing method Download PDF

Info

Publication number
JP2017175328A
JP2017175328A JP2016058110A JP2016058110A JP2017175328A JP 2017175328 A JP2017175328 A JP 2017175328A JP 2016058110 A JP2016058110 A JP 2016058110A JP 2016058110 A JP2016058110 A JP 2016058110A JP 2017175328 A JP2017175328 A JP 2017175328A
Authority
JP
Japan
Prior art keywords
image data
edge
region
determination
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016058110A
Other languages
Japanese (ja)
Inventor
朋洋 中村
Tomohiro Nakamura
朋洋 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016058110A priority Critical patent/JP2017175328A/en
Publication of JP2017175328A publication Critical patent/JP2017175328A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To appropriately partition image data into a scan target object part and a background part.SOLUTION: A feeding unit feeds a scan target object. A scan unit scans the scan target object fed, and outputs image data. An edge extraction unit extracts an edge of the image data. An area detection unit detects, based on the edge, an edge area and a non-edge area of image data for judgement from an upper end to a predetermined line of the image data. A first judgement unit judges whether the edge area and the non-edge area detected are a scan target object area or a background area. The latter judgement unit judges about the scan target object area and the background area of the continuous image data based on a judgement result of the scan target object area and the background area of the image data for judgement, and the edge of the continuous image data following the image data for judgement.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、情報処理装置、および画像処理方法に関する。   The present invention relates to an image processing device, an information processing device, and an image processing method.

特許文献1には、画像読取装置の自動原稿給送装置に用紙サイズ検出専用のセンサーを設けること無く、読み取った画像領域から自動で抽出された原稿領域を判定する画像読み取りシステムが開示されている。   Patent Document 1 discloses an image reading system that determines a document area automatically extracted from a read image area without providing a sensor dedicated to paper size detection in an automatic document feeder of the image reading apparatus. .

特開2010−141509号公報JP 2010-141509 A

特許文献1では、スキャンした画像データの上端から所定距離内に存在する原稿の2つの頂点と、下端から所定距離内に存在する2つの頂点により原稿サイズを求める。そのため、特許文献1では、矩形でない原稿の頂点の判定が困難な場合があり、画像データを原稿部分と背景部分(原稿でない部分)とに分けることが困難な場合がある。   In Patent Document 1, the document size is obtained from two vertices of a document existing within a predetermined distance from the upper end of the scanned image data and two vertices existing within a predetermined distance from the lower end. Therefore, in Patent Document 1, it may be difficult to determine the vertex of a non-rectangular document, and it may be difficult to divide image data into a document portion and a background portion (a portion that is not a document).

そこで本発明は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる技術を提供する。   Therefore, the present invention provides a technique capable of appropriately dividing image data into a scan target part and a background part.

上記の課題を解決するための本発明の第一の態様は、スキャン対象物を給送する給送部と、給送される前記スキャン対象物をスキャンし、画像データを出力するスキャン部と、前記画像データのエッジを抽出するエッジ抽出部と、前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出する領域検出部と、検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定する前判定部と、前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定する続判定部と、を有することを特徴とする画像処理装置である。第一の態様によれば、画像処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   A first aspect of the present invention for solving the above problems is a feeding unit that feeds a scan object, a scanning unit that scans the fed scan object and outputs image data, An edge extraction unit that extracts an edge of the image data; and an area detection unit that detects an edge region and a non-edge region of determination image data from the upper end of the image data to a predetermined line based on the edge; A pre-determination unit for determining whether the region is a scan target region or a background region with respect to the edge region and the non-edge region, and a determination result of the scan target region and the background region of the determination image data And the scan object area and the background area of the subsequent image data based on the edge of the subsequent image data following the determination image data. A connection judging unit, an image processing apparatus characterized by having a. According to the first aspect, the image processing apparatus can appropriately divide the image data into the scan target part and the background part.

前記前判定部は、前記エッジを含まない前記非エッジ領域を前記背景領域と仮判定し、前記エッジを含む前記非エッジ領域と、前記エッジ領域とを前記スキャン対象物領域と仮判定する、ことを特徴としてもよい。これにより、画像処理装置は、エッジ領域および非エッジ領域に対し、背景領域であるかスキャン対象物領域であるか適切に仮判定することができる。   The pre-determination unit provisionally determines the non-edge area not including the edge as the background area, and temporarily determines the non-edge area including the edge and the edge area as the scan target area. May be a feature. As a result, the image processing apparatus can appropriately provisionally determine whether the edge region and the non-edge region are the background region or the scan target region.

前記スキャン部は、前記スキャン対象物をオーバースキャンし、前記前判定部は、仮判定した前記エッジ領域および前記非エッジ領域が、前記判定用画像データの上端に接しておらず、前記判定用画像データの下端に接し、かつ前記スキャン部の前記スキャン対象物が通過する座標を含む場合、仮判定した前記エッジ領域および前記非エッジ領域を前記スキャン対象物領域と判定する、ことを特徴としてもよい。これにより、画像処理装置は、仮判定したエッジ領域および非エッジ領域に対し、背景領域であるかスキャン対象物領域であるか適切に補正することができる。   The scan unit overscans the scan object, and the pre-determination unit does not contact the upper edge of the determination image data with the provisionally determined edge region and the non-edge region, and the determination image The edge region and the non-edge region that have been provisionally determined may be determined as the scan object region when it includes a coordinate that touches the lower end of the data and passes through the scan object of the scan unit. . As a result, the image processing apparatus can appropriately correct the temporarily determined edge region and non-edge region as a background region or a scan target region.

前記前判定部は、仮判定した前記エッジ領域および前記非エッジ領域が、前記判定用画像データの下端に接し、かつ前記スキャン部の前記スキャン対象物が通過する座標を含む場合であって、前記エッジ領域および前記非エッジ領域が、前記判定用画像データの上端に接しない場合、前記エッジ領域および前記非エッジ領域を、第1型スキャン対象物領域と判定し、前記エッジ領域および前記非エッジ領域が、前記第1型スキャン対象物領域でなく、前記判定用画像データの左上端点と右上端点とに接しない場合、前記エッジ領域および前記非エッジ領域を、第2型スキャン対象物領域と判定し、前記エッジ領域および前記非エッジ領域が、前記第1型スキャン対象物領域かつ前記第2型スキャン対象物領域でなく、前記判定用画像データの左上端点と右上端点とのいずれか一方にのみ接する場合、前記エッジ領域および前記非エッジ領域を、第3型スキャン対象物領域と判定し、前記第1型スキャン対象物領域、前記第2型スキャン対象物領域、および前記第3型スキャン対象物領域の有無に基づいて、前記エッジ領域および前記非エッジ領域が前記スキャン対象物領域であるかまたは前記背景領域であるか判定する、ことを特徴としてもよい。これにより、画像処理装置は、仮判定したエッジ領域および非エッジ領域に対し、背景領域であるかスキャン対象物領域であるか適切に補正することができる。   The pre-determination unit includes a case where the temporarily determined edge region and the non-edge region include a coordinate that is in contact with a lower end of the determination image data and through which the scan object of the scan unit passes. When the edge region and the non-edge region do not touch the upper end of the determination image data, the edge region and the non-edge region are determined as a first type scan object region, and the edge region and the non-edge region Is not the first type scan target area and does not contact the upper left end point and the upper right end point of the determination image data, the edge area and the non-edge area are determined to be the second type scan target area. The edge region and the non-edge region are not the first type scan target region and the second type scan target region, but the determination image data When contacting only one of the upper end point and the upper right end point, the edge region and the non-edge region are determined as a third type scan target region, and the first type scan target region and the second type scan are determined. Determining whether the edge region and the non-edge region are the scan target region or the background region based on the presence of the target region and the third type scan target region Also good. As a result, the image processing apparatus can appropriately correct the temporarily determined edge region and non-edge region as a background region or a scan target region.

前記続判定部は、前記判定用画像データの前記エッジ領域および前記非エッジ領域に続く前記続画像データの前記エッジ領域および前記非エッジ領域に対し、前記判定用画像データで判定された判定結果を適用する、ことを特徴としてもよい。これにより、画像処理装置は、続画像データのエッジ領域および非エッジ領域に対し、背景領域であるかスキャン対象物領域であるか適切に判定することができる。   The continuation determination unit determines a determination result determined by the determination image data for the edge region and the non-edge region of the continuation image data following the edge region and the non-edge region of the determination image data. It may be characterized by applying. As a result, the image processing apparatus can appropriately determine whether the edge area and the non-edge area of the subsequent image data are the background area or the scan target area.

前記スキャン部が前記給送部から給送される前記スキャン対象物をスキャンするかまたは台の上に置かれた前記スキャン対象物をスキャンするかを判定するスキャン種別判定部、をさらに有し、前記前判定部は、前記スキャン種別判定部の判定結果に応じて、前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定を行う、ことを特徴としてもよい。   A scan type determination unit that determines whether the scan unit scans the scan object fed from the feeding unit or scans the scan object placed on a table; The pre-determination unit may determine the scan object region and the background region of the determination image data according to a determination result of the scan type determination unit.

前記エッジ抽出部は、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出し、前記輝度分散差に基づいて、前記画像データのエッジを抽出する、ことを特徴としてもよい。これにより、画像処理装置は、エッジを適切に抽出することができる。   The edge extraction unit calculates a luminance dispersion difference between a luminance dispersion of a first pixel of the image data and a luminance dispersion of a second pixel around the first pixel, and based on the luminance dispersion difference , Extracting an edge of the image data. Thereby, the image processing apparatus can appropriately extract the edge.

上記の課題を解決するための本発明の第二の態様は、画像処理装置がスキャン対象物を給送してスキャンした画像データを、前記画像処理装置から受信する受信部と、前記画像データのエッジを抽出するエッジ抽出部と、前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出する領域検出部と、検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定する前判定部と、前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定する続判定部と、を有することを特徴とする情報処理装置である。第二の態様によれば、情報処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   According to a second aspect of the present invention for solving the above-described problem, the image processing apparatus feeds a scan object and scans image data scanned from the image processing apparatus, and the image data An edge extraction unit that extracts an edge; an area detection unit that detects an edge region and a non-edge region of image data for determination from an upper end of the image data to a predetermined line based on the edge; and the detected edge region And a pre-determination unit that determines whether the non-edge region is a scan target region or a background region, a determination result of the scan target region and the background region of the determination image data, and the determination Continuation determination for determining the scan object region and the background region of the continuation image data based on the edge of the continuation image data following the image data for use When an information processing apparatus characterized by having a. According to the second aspect, the information processing apparatus can appropriately divide the image data into the scan target part and the background part.

上記の課題を解決するための本発明の第三の態様は、画像処理装置の画像処理方法であって、スキャン対象物を給送するステップと、給送される前記スキャン対象物をスキャンし、画像データを出力するステップと、前記画像データのエッジを抽出するステップと、前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出するステップと、検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定するステップと、前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定するステップと、を含むことを特徴とする画像処理方法である。第三の態様によれば、画像処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   A third aspect of the present invention for solving the above-mentioned problem is an image processing method of an image processing apparatus, the step of feeding a scan object, and scanning the scan object to be fed, A step of outputting image data; a step of extracting edges of the image data; and a step of detecting edge regions and non-edge regions of determination image data from an upper end of the image data to a predetermined line based on the edges. Determining whether the detected edge region and the non-edge region are a scan target region or a background region; and the scan target region and the background region of the determination image data Based on the determination result and the edge of the subsequent image data following the determination image data, the scan object of the subsequent image data A frequency and determining the background region, an image processing method, which comprises a. According to the third aspect, the image processing apparatus can appropriately divide the image data into the scan target part and the background part.

上記の課題を解決するための本発明の第四の態様は、情報処理装置の画像処理方法であって、画像処理装置がスキャン対象物を給送してスキャンした画像データを、前記画像処理装置から受信するステップと、前記画像データのエッジを抽出するステップと、前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出するステップと、検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定するステップと、前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定するステップと、を含むことを特徴とする画像処理方法である。第四の態様によれば、情報処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   A fourth aspect of the present invention for solving the above problem is an image processing method of an information processing apparatus, wherein the image processing apparatus supplies image data scanned by a scanning object to the image processing apparatus. Receiving the image data, extracting the edge of the image data, detecting the edge region and the non-edge region of the image data for determination from the upper end of the image data to a predetermined line based on the edge, A step of determining whether the detected edge region and the non-edge region are a scan target region or a background region, and a determination result of the scan target region and the background region of the determination image data And the scan object region of the subsequent image data based on the edge of the subsequent image data following the determination image data. And determining the fine the background region, an image processing method, which comprises a. According to the fourth aspect, the information processing apparatus can appropriately separate the image data into the scan target part and the background part.

第1の実施の形態に係る画像処理装置の概略斜視図である。1 is a schematic perspective view of an image processing apparatus according to a first embodiment. カバーの一部の概略断面図である。It is a schematic sectional drawing of a part of cover. スキャン部によってスキャンされた原稿の画像データ例を示した図である。6 is a diagram illustrating an example of image data of a document scanned by a scanning unit. FIG. 画像処理装置の機能ブロック構成例を示した図である。It is the figure which showed the functional block structural example of the image processing apparatus. エッジ抽出部によって抽出されるエッジの例を示した図である。It is the figure which showed the example of the edge extracted by the edge extraction part. エッジ抽出部の輝度分散差の算出例を説明する図である。It is a figure explaining the example of calculation of the luminance dispersion difference of an edge extraction part. エッジの判定例を説明する図である。It is a figure explaining the example of determination of an edge. 領域検出部によるエッジ領域および非エッジ領域の検出例を示した図である。It is the figure which showed the example of a detection of the edge area | region and non-edge area | region by an area | region detection part. 注目画素と参照画素とを説明する図である。It is a figure explaining an attention pixel and a reference pixel. 領域検出部の領域検出動作例を説明する図である。It is a figure explaining the area | region detection operation example of an area | region detection part. 前判定部の動作例を説明する図である。It is a figure explaining the operation example of the front determination part. 続判定部の判定結果例を示した図である。It is the figure which showed the example of a determination result of a continuation determination part. 続判定部が行う第1のパターン判定の判定条件を示した図である。It is the figure which showed the determination conditions of the 1st pattern determination which a continuation determination part performs. 記憶部のデータ構成例を示した図のその1である。It is the 1 of the figure which showed the data structural example of the memory | storage part. 続判定部の第1のパターン判定の動作例を説明する図のその1である。FIG. 6 is a first diagram illustrating an operation example of the first pattern determination of the continuation determination unit. 続判定部の第1のパターン判定の動作例を説明する図のその2である。FIG. 6B is a second diagram illustrating an operation example of the first pattern determination of the continuation determination unit. 続判定部が行う第2のパターン判定の判定条件を示した図である。It is the figure which showed the determination conditions of the 2nd pattern determination which a continuation determination part performs. 記憶部のデータ構成例を示した図のその2である。It is the 2 of the figure which showed the data structural example of the memory | storage part. 続判定部の第2のパターン判定の動作例を説明する図のその1である。FIG. 10 is a first diagram illustrating an operation example of second pattern determination of the continuation determination unit. 続判定部の第2のパターン判定の動作例を説明する図のその2である。FIG. 14B is a second diagram illustrating an operation example of the second pattern determination of the continuation determination unit. 原稿の切り出し例を説明する図のその1である。FIG. 3 is a first diagram illustrating an example of document cutting. 原稿の切り出し例を説明する図のその2である。FIG. 3B is a second diagram for explaining an example of cutting out a document; 原稿の切り出し例を説明する図のその3である。FIG. 3C is a third diagram illustrating an example of document cutout. 画像処理装置の動作例を示したフローチャートである。3 is a flowchart illustrating an operation example of the image processing apparatus. 情報処理装置の機能ブロック構成例を示した図である。It is the figure which showed the functional block structural example of information processing apparatus. 第2の実施の形態に係る画像処理装置の機能ブロック構成例を示した図である。It is the figure which showed the functional block structural example of the image processing apparatus which concerns on 2nd Embodiment. 前判定部の動作例を説明する図である。It is a figure explaining the operation example of the front determination part. 第1型原稿領域、第2型原稿領域、および第3型原稿領域を説明する図である。FIG. 5 is a diagram for explaining a first type original area, a second type original area, and a third type original area.

以下、本発明の実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施の形態]
図1は、第1の実施の形態に係る画像処理装置1の概略斜視図である。図1に示す画像処理装置1は、例えば、複合機であり、本体2と、カバー3と、ADF(Auto Document Feeder)部(本発明の給送部に相当する)4と、入力装置5とを有している。
[First Embodiment]
FIG. 1 is a schematic perspective view of an image processing apparatus 1 according to the first embodiment. An image processing apparatus 1 shown in FIG. 1 is, for example, a multifunction peripheral, and includes a main body 2, a cover 3, an ADF (Auto Document Feeder) unit (corresponding to a feeding unit of the present invention) 4, and an input device 5. have.

カバー3は、本体2の上面(ガラス等で構成された読み取り台)に対し、開閉できるようになっている。カバー3は、本体2の読み取り台に対して閉じられることにより、本体2の読み取り台に置かれた原稿を押さえる。   The cover 3 can be opened and closed with respect to the upper surface of the main body 2 (reading table made of glass or the like). The cover 3 is closed with respect to the reading table of the main body 2, thereby pressing the document placed on the reading table of the main body 2.

ADF部4は、カバー3に設けられている。ADF部4は、原稿等のスキャン対象物が給紙される給紙口4aと、スキャンしたスキャン対象物を排紙する排紙口4bとを有している。以下では、スキャン対象物を原稿として説明する。   The ADF unit 4 is provided on the cover 3. The ADF unit 4 includes a paper feed port 4a through which a scan target such as a document is fed, and a paper discharge port 4b through which the scanned scan target is discharged. In the following description, the scan target object is a document.

入力装置5は、例えば、表示装置の画面に設けられたタッチパネルである。入力装置5は、ユーザーから所定の操作を受付ける。   The input device 5 is a touch panel provided on the screen of the display device, for example. The input device 5 receives a predetermined operation from the user.

画像処理装置1は、給紙口4aに原稿が置かれ、入力装置5がユーザーから所定の操作を受付けると、給紙口4aに置かれた原稿を自動で取り込み、取り込んだ原稿の画像データを読み込む。画像処理装置1は、画像データを読み込んだ原稿を排紙口4bから排出する。   When an original is placed in the paper feed opening 4a and the input device 5 receives a predetermined operation from the user, the image processing apparatus 1 automatically takes in the original placed in the paper feed opening 4a, and receives the image data of the taken-in original. Read. The image processing apparatus 1 discharges the original from which the image data has been read from the paper discharge port 4b.

図2は、カバー3の一部の概略断面図である。図2の(A)は、画像処理装置1の正面から見たカバー3の概略断面図であり、図2の(B)は、画像処理装置1の上面から見たカバー3の概略断面図である。図2において、図1と同じものには同じ符号が付してある。また、図2には、給紙口4aに置かれた原稿11が示してある。   FIG. 2 is a schematic sectional view of a part of the cover 3. 2A is a schematic cross-sectional view of the cover 3 viewed from the front of the image processing apparatus 1, and FIG. 2B is a schematic cross-sectional view of the cover 3 viewed from the upper surface of the image processing apparatus 1. is there. In FIG. 2, the same components as those in FIG. FIG. 2 also shows the document 11 placed in the paper feed port 4a.

図2の(A),(B)に示すように、カバー3は、紙検知センサー12を有している。紙検知センサー12は、原稿11が給紙口4aに置かれたか否かを検出する。紙検知センサー12は、図2の(B)に示すように、給紙口4aのx軸方向(原稿11の進行方向に対し、垂直方向)の略中央部に設けられている。すなわち、紙検知センサー12は、原稿11のx軸方向の略中心部分が通過する位置に設けられている。   As shown in FIGS. 2A and 2B, the cover 3 has a paper detection sensor 12. The paper detection sensor 12 detects whether or not the document 11 is placed in the paper feed port 4a. As shown in FIG. 2B, the paper detection sensor 12 is provided at a substantially central portion of the paper feed port 4a in the x-axis direction (perpendicular to the traveling direction of the document 11). That is, the paper detection sensor 12 is provided at a position through which the substantially central portion of the document 11 in the x-axis direction passes.

図2の(A),(B)に示すように、本体2は、スキャン部13を有している。スキャン部13は、例えば、イメージセンサー(図示せず)を備え、ADF部4によって給送される原稿11を光学的にスキャンし、原稿11の画像データを出力する。   As shown in FIGS. 2A and 2B, the main body 2 has a scanning unit 13. The scanning unit 13 includes, for example, an image sensor (not shown), optically scans the document 11 fed by the ADF unit 4, and outputs image data of the document 11.

スキャン部13は、図2の(A)に示す位置から、右方向へ移動することができる。また、スキャン部13は、図2の(A)の右方向から、図2の(A)に示す位置へ移動することができる。スキャン部13は、紙検知センサー12によって、原稿11が検知されると、図2の(A)に示す位置に移動(配置)され、ADF部4によって給送される原稿11をスキャンする。   The scanning unit 13 can move to the right from the position shown in FIG. Further, the scanning unit 13 can move from the right direction in FIG. 2A to the position shown in FIG. When the paper 11 is detected by the paper detection sensor 12, the scan unit 13 is moved (arranged) to the position shown in FIG. 2A and scans the document 11 fed by the ADF unit 4.

スキャン部13は、本体2の読み取り台に置かれた原稿11の画像データを出力することもできる。この場合、スキャン部13は、例えば、図2の(A)に示す位置から、右方向へ移動し、本体2の読み取り台に置かれた原稿11をスキャンする。以下では、スキャン部13は、ADF部4によって給送される原稿11をスキャンするとして説明する。   The scanning unit 13 can also output the image data of the document 11 placed on the reading table of the main body 2. In this case, for example, the scanning unit 13 moves rightward from the position shown in FIG. 2A and scans the document 11 placed on the reading table of the main body 2. In the following description, it is assumed that the scanning unit 13 scans the document 11 fed by the ADF unit 4.

図3は、スキャン部13によってスキャンされた原稿11の画像データ例を示した図である。図3に示す画像データ21は、ADF部4によって給送された原稿11を、スキャン部13がスキャンした画像データの例を示している。図3に示す領域22は、スキャン部13がスキャンした原稿11の画像データ領域を示している。   FIG. 3 is a diagram illustrating an example of image data of the document 11 scanned by the scanning unit 13. The image data 21 shown in FIG. 3 shows an example of image data obtained by scanning the document 11 fed by the ADF unit 4 by the scanning unit 13. An area 22 illustrated in FIG. 3 indicates an image data area of the document 11 scanned by the scanning unit 13.

スキャン部13は、ADF部4によって給送される原稿11をオーバースキャンする。このため、図3のオーバースキャンOS1,OS2に示すように、画像データ21の上部と下部には、原稿11以外の画像データ(背景の画像データ)が含まれる。また、原稿11の幅の大きさによっては、画像データ21の左右部分にも、背景の画像データが含まれる。   The scanning unit 13 overscans the document 11 fed by the ADF unit 4. Therefore, as shown in the overscan OS1 and OS2 in FIG. 3, the upper and lower portions of the image data 21 include image data other than the document 11 (background image data). Depending on the width of the document 11, the left and right portions of the image data 21 include background image data.

画像処理装置1は、スキャン部13によってスキャンした画像データ21から、原稿11の画像データ部分を切り出す。すなわち、画像処理装置1は、画像データ21から背景部分を除去し、領域22を切り出す。画像処理装置1は、この切り出し処理の際、スキャン部13から出力される画像データ21を、2つの画像データ領域に分ける。   The image processing apparatus 1 cuts out the image data portion of the document 11 from the image data 21 scanned by the scanning unit 13. That is, the image processing apparatus 1 removes the background portion from the image data 21 and cuts out the region 22. The image processing apparatus 1 divides the image data 21 output from the scanning unit 13 into two image data areas during the clipping process.

例えば、画像処理装置1は、図3に示すように画像データ21を、判定用画像データ21aと、続画像データ21bとの2つの領域に分ける。判定用画像データ21aは、スキャン部13がオーバースキャンを開始してから、所定ラインまでの画像データ(画像データ21の上端から所定ラインまでの画像データ)である。続画像データ21bは、判定用画像データ21aに続く、所定ラインより後(下)の画像データである。   For example, as shown in FIG. 3, the image processing apparatus 1 divides the image data 21 into two areas of determination image data 21a and continuation image data 21b. The determination image data 21a is image data up to a predetermined line (image data from the upper end of the image data 21 to a predetermined line) after the scanning unit 13 starts overscanning. The subsequent image data 21b is image data after (below) a predetermined line following the determination image data 21a.

図3に示す点線は、画像データ21の所定ラインの例を示している。所定ラインは、少なくとも、スキャン部13がオーバースキャンを開始し、原稿11をスキャンし始めるラインより、下のラインとする。例えば、所定ラインは、図3に示す領域22の上端より下のラインとする。   A dotted line shown in FIG. 3 shows an example of a predetermined line of the image data 21. The predetermined line is at least a line below the line where the scanning unit 13 starts overscanning and starts scanning the document 11. For example, the predetermined line is a line below the upper end of the region 22 shown in FIG.

以下で詳述するが、画像処理装置1は、判定用画像データ21aにおいて、原稿11の部分(原稿領域)と、原稿11以外の背景部分(背景領域)とを判定する。そして、画像処理装置1は、判定用画像データ21aの原稿領域および背景領域を用いて、判定用画像データ21aに続く続画像データ21bの原稿領域および背景領域を判定する。これにより、画像処理装置1は、画像データ21から、領域22で示される原稿11の部分を切り出す。   As will be described in detail below, the image processing apparatus 1 determines a portion of the document 11 (document region) and a background portion (background region) other than the document 11 in the determination image data 21a. Then, the image processing apparatus 1 determines the document area and the background area of the subsequent image data 21b following the determination image data 21a using the document area and the background area of the determination image data 21a. As a result, the image processing apparatus 1 cuts out the portion of the document 11 indicated by the region 22 from the image data 21.

画像処理装置1は、切り出した原稿部分の画像データを、例えば、画像処理装置1と接続されたパーソナルコンピュータやタブレット端末等の情報処理装置(図示せず)に送信する。または、画像処理装置1は、切り出した原稿部分の画像データを、例えば、USB(Universal Serial Bus)メモリー等の外部メモリー(図示せず)に記憶する。これにより、ユーザーは、原稿部分のみの画像データを取得することができる。   The image processing apparatus 1 transmits the image data of the clipped document portion to, for example, an information processing apparatus (not shown) such as a personal computer or a tablet terminal connected to the image processing apparatus 1. Alternatively, the image processing apparatus 1 stores the image data of the clipped document portion in an external memory (not shown) such as a USB (Universal Serial Bus) memory. As a result, the user can acquire image data of only the document portion.

なお、画像処理装置1は、スキャン部13の画像データ21の出力とともに、画像データ21の原稿領域および背景領域の判定処理を行う。すなわち、画像処理装置1は、スキャンしながらリアルタイムで、画像データ21の原稿領域および背景領域の判定処理を行う。   Note that the image processing apparatus 1 performs determination processing of the document area and the background area of the image data 21 together with the output of the image data 21 of the scanning unit 13. In other words, the image processing apparatus 1 performs determination processing of the document area and the background area of the image data 21 in real time while scanning.

図4は、画像処理装置1の機能ブロック構成例を示した図である。図4に示すように、画像処理装置1は、ADF部4と、スキャン部13と、制御部31と、通信部32と、入力部33と、記憶部34とを有している。   FIG. 4 is a diagram illustrating a functional block configuration example of the image processing apparatus 1. As illustrated in FIG. 4, the image processing apparatus 1 includes an ADF unit 4, a scanning unit 13, a control unit 31, a communication unit 32, an input unit 33, and a storage unit 34.

ADF部4は、図1および図2で説明したADF部である。ADF部4は、制御部31の制御によって、給紙口4aに置かれた原稿をスキャン部13に送り出し、排紙口4bに排紙する。   The ADF unit 4 is the ADF unit described with reference to FIGS. Under the control of the control unit 31, the ADF unit 4 sends the document placed at the paper feed port 4a to the scan unit 13 and discharges it to the paper discharge port 4b.

スキャン部13は、図2で説明したスキャン部である。スキャン部13は、制御部31の制御によって、ADF部4によって給送された原稿をスキャンし、原稿の画像データを出力する。スキャン部13は、例えば、カラー(RGB)の画像データを出力する。スキャン部13から出力された画像データは、例えば、記憶部34に記憶される。   The scan unit 13 is the scan unit described with reference to FIG. The scan unit 13 scans the document fed by the ADF unit 4 under the control of the control unit 31 and outputs image data of the document. For example, the scanning unit 13 outputs color (RGB) image data. The image data output from the scanning unit 13 is stored in the storage unit 34, for example.

制御部31は、画像処理装置1の動作を統合的に制御する。制御部31は、以下で詳述するが、スキャン部13によってスキャンされた原稿の画像データ(記憶部34に記憶された画像データ)を、背景部分と原稿部分とに分け、原稿部分を切り出す。   The control unit 31 controls the operation of the image processing apparatus 1 in an integrated manner. As will be described in detail below, the control unit 31 divides the image data of the document scanned by the scanning unit 13 (image data stored in the storage unit 34) into a background portion and a document portion, and cuts out the document portion.

通信部32は、パーソナルコンピュータやタブレット端末等の情報処理装置と通信を行う。通信部32は、例えば、有線または無線によって、情報処理装置と通信を行う。   The communication unit 32 communicates with an information processing apparatus such as a personal computer or a tablet terminal. The communication unit 32 communicates with the information processing apparatus by, for example, wired or wireless.

入力部33は、入力装置5から、ユーザーからの操作データを受信する。   The input unit 33 receives operation data from the user from the input device 5.

記憶部34には、制御部31が計算処理や制御処理を行うためのプログラムやデータ等を記憶している。また、記憶部34は、制御部31が所定のアプリケーション機能を実現するためのプログラムやデータ等を記憶している。各種のプログラムやデータ等は、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、制御部31が通信ネットワークを介してサーバーから受信して記憶部34に記憶させてもよい。記憶部34は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種IC(Integrated Circuit)メモリーやハードディスク、メモリーカードなどの記録媒体等により構成される。   The storage unit 34 stores programs, data, and the like for the control unit 31 to perform calculation processing and control processing. The storage unit 34 stores a program, data, and the like for the control unit 31 to realize a predetermined application function. Various programs, data, and the like may be stored in advance in a nonvolatile recording medium, or may be received by the control unit 31 from the server via the communication network and stored in the storage unit 34. The storage unit 34 includes, for example, various IC (Integrated Circuit) memories such as a ROM (Read Only Memory), a flash ROM, and a RAM (Random Access Memory), a recording medium such as a hard disk and a memory card, and the like.

制御部31は、エッジ抽出部41と、領域検出部42と、前判定部43と、続判定部44と、切り出し部45とを有している。制御部31の各部は、例えば、記憶部34に記憶されたプログラムを実行するCPU(Central Processing Unit)によって、その機能が実現される。なお、制御部31の各部は、ASIC(Application Specific Integrated Circuit)などのカスタムIC(Integrated Circuit)によって、その機能を実現してもよいし、CPUとASICとによって、その機能を実現してもよい。   The control unit 31 includes an edge extraction unit 41, a region detection unit 42, a previous determination unit 43, a continuation determination unit 44, and a cutout unit 45. The functions of each unit of the control unit 31 are realized by, for example, a CPU (Central Processing Unit) that executes a program stored in the storage unit 34. In addition, each part of the control part 31 may implement | achieve the function by custom IC (Integrated Circuit), such as ASIC (Application Specific Integrated Circuit), and may implement | achieve the function by CPU and ASIC. .

エッジ抽出部41は、スキャン部13から出力される画像データのエッジを抽出する。   The edge extraction unit 41 extracts the edge of the image data output from the scanning unit 13.

図5は、エッジ抽出部41によって抽出されるエッジの例を示した図である。図5の(A)には、スキャン部13から出力される画像データのうちの判定用画像データ51と、背景52と、影53と、原稿54とが示してある。   FIG. 5 is a diagram illustrating an example of edges extracted by the edge extraction unit 41. FIG. 5A shows determination image data 51 out of image data output from the scanning unit 13, a background 52, a shadow 53, and a document 54.

背景52は、スキャン部13によって読み込まれた原稿以外の領域に対応する。影53は、原稿54と背景52との境界に対応する。原稿54と背景52との境は、影53として画像データに現れる。原稿54は、スキャン部13によって読み込まれた原稿に対応する。   The background 52 corresponds to an area other than the original read by the scanning unit 13. The shadow 53 corresponds to the boundary between the document 54 and the background 52. The boundary between the document 54 and the background 52 appears in the image data as a shadow 53. The document 54 corresponds to the document read by the scanning unit 13.

図5の(B)には、図5の(A)の判定用画像データ51から抽出したエッジの例が示してある。エッジ抽出部41が、図5の(A)の判定用画像データ51からエッジを抽出すると、図5の(B)に示すようになる。   FIG. 5B shows an example of an edge extracted from the determination image data 51 shown in FIG. When the edge extraction unit 41 extracts an edge from the determination image data 51 of FIG. 5A, the edge extraction unit 41 is as shown in FIG.

図5の(B)に示す白い部分が、エッジ領域である。エッジ領域は、図5の(A)の影53に対応する。図5の(B)に示す黒く塗りつぶした部分が、非エッジ領域である。非エッジ領域は、図5の(A)の背景52と原稿54とに対応する。   A white portion shown in FIG. 5B is an edge region. The edge region corresponds to the shadow 53 in FIG. A black portion shown in FIG. 5B is a non-edge region. The non-edge region corresponds to the background 52 and the document 54 in FIG.

なお、図5では、判定用画像データ51のエッジ抽出の例を示しているが、エッジ抽出部41は、判定用画像データ51に続く続画像データのエッジも抽出する。すなわち、エッジ抽出部41は、スキャン部13から出力される画像データのエッジを抽出する。   Although FIG. 5 shows an example of edge extraction of the determination image data 51, the edge extraction unit 41 also extracts the edge of the subsequent image data following the determination image data 51. That is, the edge extraction unit 41 extracts the edge of the image data output from the scanning unit 13.

また、図5には示していないが、原稿54に文字等が含まれている場合、文字もエッジとして抽出される。   Although not shown in FIG. 5, when the document 54 includes characters or the like, the characters are also extracted as edges.

エッジ抽出部41のエッジ抽出動作について具体的に説明する。エッジ抽出部41は、スキャン部13によってスキャンされた原稿のRGBの画像データを、輝度の画像データに変換する。エッジ抽出部41は、次の式(1)によって、RGBの画像データを輝度の画像データに変換する。   The edge extraction operation of the edge extraction unit 41 will be specifically described. The edge extraction unit 41 converts the RGB image data of the original scanned by the scanning unit 13 into luminance image data. The edge extraction unit 41 converts RGB image data into luminance image data by the following equation (1).

Figure 2017175328
Figure 2017175328

次に、エッジ抽出部41は、式(1)によって算出した輝度の画像データを用いて、注目画素と、その周囲の画素との輝度平均を算出する。そして、エッジ抽出部41は、算出した輝度平均を用いて、注目画素の輝度分散を算出し、注目画素と周囲の画素との輝度分散差を算出する。   Next, the edge extraction unit 41 calculates the average luminance of the pixel of interest and the surrounding pixels using the luminance image data calculated by the equation (1). Then, the edge extraction unit 41 calculates the luminance variance of the pixel of interest using the calculated luminance average, and calculates the luminance variance difference between the pixel of interest and the surrounding pixels.

図6は、エッジ抽出部41の輝度分散差の算出例を説明する図である。図6に示すマス目は、画素を示している。「P0」は、注目画素を示している。「P1〜P8」は、注目画素の周囲の画素(注目画素に隣接している画素)を示している。以下では、注目画素の周囲の画素を、「周囲画素」と呼ぶことがある。   FIG. 6 is a diagram for explaining a calculation example of the luminance dispersion difference of the edge extraction unit 41. The squares shown in FIG. 6 indicate pixels. “P0” indicates a target pixel. “P1 to P8” indicate pixels around the target pixel (pixels adjacent to the target pixel). Hereinafter, pixels around the target pixel may be referred to as “peripheral pixels”.

エッジ抽出部41は、注目画素P0と、周囲画素P1〜P8との輝度平均を算出する。具体的には、エッジ抽出部41は、次の式(2)によって、注目画素P0と、周囲画素P1〜P8との輝度平均「Y」を算出する。 The edge extraction unit 41 calculates the average luminance of the target pixel P0 and the surrounding pixels P1 to P8. Specifically, the edge extraction unit 41 calculates the luminance average “Y u ” between the target pixel P0 and the surrounding pixels P1 to P8 by the following equation (2).

Figure 2017175328
Figure 2017175328

ここで、式(2)の「x,y」は、画素の座標を示している。「Y(x,y)」は、座標「x,y」における画素の輝度(式(1)によって算出された輝度)を示している。すなわち、エッジ抽出部41は、図6に示している太枠内の画素の輝度平均「Y」を算出する。 Here, “x j , y i ” in Expression (2) indicates the coordinates of the pixel. “Y (x j , y i )” indicates the luminance of the pixel at the coordinates “x j , y i ” (the luminance calculated by equation (1)). That is, the edge extraction unit 41 calculates the luminance average “Y u ” of the pixels in the thick frame shown in FIG.

エッジ抽出部41は、式(2)によって輝度平均を算出すると、算出した輝度平均を用いて、注目画素P0の輝度分散を算出する。具体的には、エッジ抽出部41は、次の式(3)によって、注目画素P0の輝度分散「Y」を算出する。 The edge extraction unit 41 calculates a luminance average of the target pixel P <b> 0 using the calculated luminance average when the luminance average is calculated according to the equation (2). Specifically, the edge extraction unit 41 calculates the luminance dispersion “Y s ” of the pixel of interest P0 by the following equation (3).

Figure 2017175328
Figure 2017175328

エッジ抽出部41は、画像データの全ての画素に対し、輝度分散「Y」を算出する。例えば、エッジ抽出部41は、注目画素P0をラスタースキャンのように移動し、画像データの全ての画素の輝度分散「Y」を算出する。 The edge extraction unit 41 calculates the luminance dispersion “Y s ” for all the pixels of the image data. For example, the edge extraction unit 41 moves the target pixel P0 like a raster scan, and calculates the luminance dispersion “Y s ” of all the pixels of the image data.

エッジ抽出部41は、全画素の輝度分散を算出すると、注目画素の輝度分散と、周囲画素の輝度分散との輝度分散差を算出する。例えば、エッジ抽出部41は、図6に示す注目画素P0の輝度分散と、周囲画素P1〜P8のそれぞれの輝度分散との差(輝度分散差)を算出する。より具体的には、エッジ抽出部41は、周囲画素P1と、注目画素P0との輝度分散差を算出し、周囲画素P2と、注目画素P0との輝度分散差を算出し、以下同様にして、周囲画素P8と、注目画素P0との輝度分散差を算出する。   After calculating the luminance variance of all pixels, the edge extraction unit 41 calculates a luminance variance difference between the luminance variance of the target pixel and the luminance variance of surrounding pixels. For example, the edge extraction unit 41 calculates a difference (luminance dispersion difference) between the luminance dispersion of the target pixel P0 illustrated in FIG. 6 and the luminance dispersion of each of the surrounding pixels P1 to P8. More specifically, the edge extraction unit 41 calculates the luminance dispersion difference between the surrounding pixel P1 and the target pixel P0, calculates the luminance dispersion difference between the surrounding pixel P2 and the target pixel P0, and so on. Then, the luminance dispersion difference between the surrounding pixel P8 and the target pixel P0 is calculated.

エッジ抽出部41は、注目画素と周囲画素との輝度分散差を算出すると、算出した輝度分散差に基づいて、画像データのエッジを判定する。例えば、エッジ抽出部41は、注目画素P0と、周囲画素P1〜P8との輝度分散差の絶対値が、少なくとも1つ以上、所定の閾値(以下では、「輝度分散差閾値」と呼ぶことがある)を超えている場合、注目画素P0をエッジ画素と判定する。   After calculating the luminance dispersion difference between the target pixel and the surrounding pixels, the edge extraction unit 41 determines the edge of the image data based on the calculated luminance dispersion difference. For example, the edge extraction unit 41 may call at least one or more absolute values of the luminance dispersion difference between the target pixel P0 and the surrounding pixels P1 to P8 as a predetermined threshold (hereinafter referred to as “luminance dispersion difference threshold”). If it exceeds (Yes), the target pixel P0 is determined as an edge pixel.

エッジ抽出部41は、画像データの全ての画素に対し、輝度分散差を算出する。例えば、エッジ抽出部41は、注目画素P0をラスタースキャンのように移動し、画像データの全ての画素に対して輝度分散差を算出する。そして、エッジ抽出部41は、画像データの全ての画素についてエッジを判定する。   The edge extraction unit 41 calculates a luminance dispersion difference for all the pixels of the image data. For example, the edge extraction unit 41 moves the target pixel P0 like a raster scan, and calculates a luminance dispersion difference for all the pixels of the image data. Then, the edge extraction unit 41 determines an edge for all the pixels of the image data.

図7は、エッジの判定例を説明する図である。図7には、スキャン部13によってスキャンされた原稿の画像データのうちの、判定用画像データ51が示してある。図7において、図5の(A)と同じものには同じ符号が付してある。図7に示す輝度分散差D0〜D2のそれぞれは、矢印A0〜A2のそれぞれの矢先が示す画素の輝度分散差(絶対値)を示している。   FIG. 7 is a diagram illustrating an example of edge determination. FIG. 7 shows determination image data 51 among the image data of the original scanned by the scanning unit 13. In FIG. 7, the same components as those in FIG. Each of the luminance dispersion differences D0 to D2 illustrated in FIG. 7 indicates the luminance dispersion difference (absolute value) of the pixel indicated by each of the arrows A0 to A2.

図7に示すように、矢印A1に示す画素の輝度分散差D1は、輝度分散差閾値を超え、矢印A1に示す画素は、エッジと判定される。これにより、図7に示す判定用画像データ51のエッジは、図5の(B)に示したようになる。   As illustrated in FIG. 7, the luminance dispersion difference D1 of the pixel indicated by the arrow A1 exceeds the luminance dispersion difference threshold, and the pixel indicated by the arrow A1 is determined to be an edge. Thereby, the edge of the determination image data 51 shown in FIG. 7 becomes as shown in FIG.

図4の説明に戻る。領域検出部42は、スキャン部13から出力される画像データのうち、判定用画像データを読み込む。そして、領域検出部42は、エッジ抽出部41が抽出したエッジに基づいて、判定用画像データのエッジ領域および非エッジ領域を検出する。   Returning to the description of FIG. The area detection unit 42 reads determination image data out of the image data output from the scanning unit 13. Then, the region detection unit 42 detects the edge region and the non-edge region of the determination image data based on the edge extracted by the edge extraction unit 41.

例えば、領域検出部42は、エッジ抽出部41が抽出したエッジの領域をエッジ領域として検出する。また、例えば、領域検出部42は、エッジ抽出部41が抽出したエッジによって囲まれる閉じた領域を非エッジ領域と判定する。また、例えば、領域検出部42は、エッジ抽出部41が抽出したエッジと、判定用画像データの端とで囲まれる閉じた領域を非エッジ領域と判定する。   For example, the region detection unit 42 detects the edge region extracted by the edge extraction unit 41 as an edge region. For example, the region detection unit 42 determines that the closed region surrounded by the edges extracted by the edge extraction unit 41 is a non-edge region. For example, the region detection unit 42 determines a closed region surrounded by the edge extracted by the edge extraction unit 41 and the end of the determination image data as a non-edge region.

図8は、領域検出部42によるエッジ領域および非エッジ領域の検出例を示した図である。図8に示す領域L1は、図5の(B)に示した白く塗りつぶしたエッジと、判定用画像データ51の上端と、左端と、右端と、下端の一部とに囲まれた領域である。これにより、図8に示す領域L1は、領域検出部42によって、非エッジ領域として検出される。   FIG. 8 is a diagram illustrating an example of detection of edge regions and non-edge regions by the region detection unit 42. A region L1 illustrated in FIG. 8 is a region surrounded by the white solid edge illustrated in FIG. 5B, the upper end, the left end, the right end, and a part of the lower end of the determination image data 51. . Accordingly, the region L1 illustrated in FIG. 8 is detected as a non-edge region by the region detection unit 42.

図8に示す領域L2は、図5の(B)に示した白く塗りつぶしたエッジに対応する。これにより、図8に示す領域L2は、領域検出部42によって、エッジ領域として検出される。   A region L2 illustrated in FIG. 8 corresponds to the white painted edge illustrated in FIG. Accordingly, the region L2 illustrated in FIG. 8 is detected as an edge region by the region detection unit 42.

図8に示す領域L3は、図5の(B)に示した白く塗りつぶしたエッジと、判定用画像データ51の下端の一部とに囲まれた領域である。これにより、図8に示す領域L3は、領域検出部42によって、非エッジ領域として検出される。   A region L3 illustrated in FIG. 8 is a region surrounded by the white painted edge illustrated in FIG. 5B and a part of the lower end of the determination image data 51. Accordingly, the region L3 illustrated in FIG. 8 is detected as a non-edge region by the region detection unit 42.

なお、図8に示す一点鎖線は、紙検知センサー12が通過する部分(座標)を示している。   In addition, the dashed-dotted line shown in FIG. 8 has shown the part (coordinate) through which the paper detection sensor 12 passes.

領域検出部42の動作例について具体的に説明する。まず、注目画素と参照画素の定義について説明する。   An example of the operation of the area detection unit 42 will be specifically described. First, the definition of the target pixel and the reference pixel will be described.

図9は、注目画素と参照画素とを説明する図である。図9に示す「注」は注目画素を示し、「参」は参照画素を示している。注目画素がエッジ画素の場合、参照画素は、図9の(A)に示すように、注目画素の左隣りの画素、左斜め上の画素、上の画素、および右斜め上の画素となる。注目画素が非エッジ画素の場合、参照画素は、図9の(B)に示すように、注目画素の左隣りの画素および上の画素となる。   FIG. 9 is a diagram for explaining a target pixel and a reference pixel. “Note” shown in FIG. 9 indicates a target pixel, and “reference” indicates a reference pixel. When the pixel of interest is an edge pixel, the reference pixel is a pixel adjacent to the left of the pixel of interest, an upper left pixel, an upper pixel, and an upper right pixel, as shown in FIG. When the target pixel is a non-edge pixel, the reference pixel is a pixel adjacent to the left of the target pixel and an upper pixel, as shown in FIG. 9B.

領域検出部42は、注目画素に対し、ラベル値を割り当てていく。領域検出部42は、注目画素と同じエッジ値(エッジであるか非エッジであるかを示す値)の参照画素が存在しない場合、注目画素に最後に割り当てたラベル値に「1」を加算したラベル値を割り当てる(最初に割り当てるラベル値は「1」とする)。ただし、領域検出部42は、注目画素と同じエッジ値の参照画素が存在する場合、その参照画素の最も小さいラベル値を、注目画素に割り当てる。また、領域検出部42は、参照画素の最も小さいラベル値を、注目画素に割り当てた場合、注目画素と同じエッジ値の参照画素のラベル値を、その最も小さいラベル値に補正する。   The area detection unit 42 assigns a label value to the target pixel. When there is no reference pixel having the same edge value as the target pixel (a value indicating whether it is an edge or a non-edge), the region detection unit 42 adds “1” to the label value last assigned to the target pixel. A label value is assigned (the label value to be assigned first is “1”). However, when there is a reference pixel having the same edge value as that of the target pixel, the region detection unit 42 assigns the smallest label value of the reference pixel to the target pixel. Further, when the smallest label value of the reference pixel is assigned to the target pixel, the region detection unit 42 corrects the label value of the reference pixel having the same edge value as the target pixel to the smallest label value.

図10は、領域検出部42の領域検出動作例を説明する図である。図10に示すマス目は、画像データの画素に対応している。ハッチングされたマス目は、非エッジ画素に対応し、ハッチングされていないマス目は、エッジ画素に対応している。また、図10に示す下線が付されたラベル値の画素は、注目画素を示している。   FIG. 10 is a diagram for explaining an example of the region detection operation of the region detection unit 42. The squares shown in FIG. 10 correspond to the pixels of the image data. Hatched squares correspond to non-edge pixels, and unhatched squares correspond to edge pixels. Moreover, the pixel of the label value with the underline shown in FIG. 10 has shown the attention pixel.

領域検出部42は、図10の(A)に示すように、左上の画素から右の画素へと順に、ラベル値を割り当てる。領域検出部42は、注目画素と同じエッジ値の参照画素が存在しない場合、注目画素に最後に割り当てたラベル値に「1」を加算したラベル値を割り当てる。また、領域検出部42は、注目画素と同じエッジ値の参照画素が存在する場合、その参照画素の最も小さいラベル値を、注目画素に割り当てる。   As shown in FIG. 10A, the area detection unit 42 assigns label values in order from the upper left pixel to the right pixel. When there is no reference pixel having the same edge value as the target pixel, the region detection unit 42 assigns a label value obtained by adding “1” to the label value assigned last to the target pixel. In addition, when there is a reference pixel having the same edge value as the target pixel, the region detection unit 42 assigns the smallest label value of the reference pixel to the target pixel.

例えば、図10の(A)の上から3行目で、左から7列目の画素を注目画素とする。この注目画素は、非エッジの画素である。この場合、図9の(B)に基づく参照画素は、2つとも注目画素のエッジ値とは異なるエッジの画素である。従って、図10の(A)の上から3行目で、左から7列目の注目画素のラベル値は、最後に注目画素に割り当てたラベル値「3」に「1」を加算した「4」となる。   For example, the pixel in the third row from the top in FIG. 10A and the seventh column from the left is the target pixel. This target pixel is a non-edge pixel. In this case, both reference pixels based on (B) in FIG. 9 are pixels having an edge different from the edge value of the target pixel. Accordingly, the label value of the target pixel in the third row from the top in FIG. 10A and the seventh column from the left is “4” obtained by adding “1” to the label value “3” last assigned to the target pixel. "

図10の(A)に示すラベル値「4」の右隣に、注目画素が移動したとする。この注目画素は、非エッジの画素である。この場合、図8の(B)に基づく参照画素は、2つとも注目画素のエッジ値と同じ非エッジの画素であるため、ラベル値は、図10の(B)に示すように、参照画素のラベル値の最小値である「1」となる。また、この注目画素の左隣りの参照画素は、注目画素と同じ非エッジ画素であり、領域検出部42は、その参照画素の補正ラベル値「4」を、図10の(B)に示すように、補正ラベル値「1」に変更する。   Assume that the pixel of interest has moved to the right of the label value “4” shown in FIG. This target pixel is a non-edge pixel. In this case, since both of the reference pixels based on (B) in FIG. 8 are non-edge pixels that are the same as the edge value of the target pixel, the label value is the reference pixel as shown in (B) in FIG. This is “1”, which is the minimum value of the label value. Further, the reference pixel on the left side of the target pixel is the same non-edge pixel as the target pixel, and the region detection unit 42 indicates the correction label value “4” of the reference pixel as shown in FIG. The correction label value is changed to “1”.

領域検出部42が、上記の動作を繰り返すと、各画素には、図10の(C)に示すようなラベル値が割り当てられる。領域検出部42は、全ての画素にラベル値を割り当てると、ラベル値を補正ラベル値に補正する。例えば、領域検出部42は、ラベル値「4」を補正ラベル値「1」に補正する。これにより、各画素に割り当てられたラベル値は、図10の(D)に示すようになる。   When the area detection unit 42 repeats the above operation, a label value as shown in FIG. 10C is assigned to each pixel. When the region detection unit 42 assigns a label value to all the pixels, the region detection unit 42 corrects the label value to a corrected label value. For example, the region detection unit 42 corrects the label value “4” to the correction label value “1”. As a result, the label value assigned to each pixel is as shown in FIG.

このように、領域検出部42は、画像データのエッジ領域と非エッジ領域とにラベル値を割り当てる。これにより、領域検出部42は、ラベル値により、判定用画像データのエッジ領域および非エッジ領域を検出できる。例えば、領域検出部42は、ラベル値「1」が割り当てられた非エッジ領域と、ラベル値「2」が割り当てられたエッジ領域と、ラベル値「3」が割り当てられた非エッジ領域とを検出することができる。   As described above, the region detection unit 42 assigns label values to the edge region and the non-edge region of the image data. Thereby, the area detection unit 42 can detect the edge area and the non-edge area of the image data for determination based on the label value. For example, the region detection unit 42 detects a non-edge region to which the label value “1” is assigned, an edge region to which the label value “2” is assigned, and a non-edge region to which the label value “3” is assigned. can do.

なお、領域検出部42の領域検出動作は、上記の動作例に限られない。判定用画像データのエッジ領域および非エッジ領域の検出には、一般的な画像データ処理技術を用いることができる。   Note that the region detection operation of the region detection unit 42 is not limited to the above operation example. A general image data processing technique can be used to detect the edge region and the non-edge region of the determination image data.

図4の説明に戻る。前判定部43は、領域検出部42によって検出されたエッジ領域および非エッジ領域が、原稿領域であるかまたは背景領域であるか判定する。前判定部43は、以下の手順に従って、領域検出部42によって検出されたエッジ領域および非エッジ領域が、原稿領域であるかまたは領域であるか判定する。   Returning to the description of FIG. The front determination unit 43 determines whether the edge region and the non-edge region detected by the region detection unit 42 are a document region or a background region. The pre-determination unit 43 determines whether the edge region and the non-edge region detected by the region detection unit 42 are document regions or regions according to the following procedure.

(手順1)まず、前判定部43は、領域検出部42によって検出された領域(エッジ領域および非エッジ領域)が、次の2つの条件を全て満たす場合、領域検出部42によって検出された領域を、背景領域として仮判定する。一方、前判定部43は、次の2つの条件を1つでも満たさない場合、領域検出部42によって検出された領域を、原稿領域として仮判定する。   (Procedure 1) First, the pre-determination unit 43 detects the region detected by the region detection unit 42 when the regions (edge region and non-edge region) detected by the region detection unit 42 satisfy all of the following two conditions: Are temporarily determined as a background region. On the other hand, the pre-determination unit 43 tentatively determines the area detected by the area detection unit 42 as a document area when even one of the following two conditions is not satisfied.

条件1−1:非エッジ領域であること
条件1−2:領域内にエッジが含まれていないこと
Condition 1-1: It is a non-edge area Condition 1-2: No edge is included in the area

図11は、前判定部43の動作例を説明する図である。図11の(A)には、図8の非エッジ領域L1,L3およびエッジ領域L2に対する、原稿領域および背景領域の仮判定結果が示してある。図11の黒く塗りつぶした部分は、背景領域と仮判定された部分を示し、白く塗りつぶした部分は、原稿領域と仮判定された部分を示している。   FIG. 11 is a diagram illustrating an operation example of the pre-determination unit 43. FIG. 11A shows the provisional determination result of the document area and the background area for the non-edge areas L1 and L3 and the edge area L2 in FIG. In FIG. 11, black portions indicate portions that are provisionally determined as background regions, and white portions indicate portions that are provisionally determined as document regions.

例えば、図8の非エッジ領域L1,L3は、条件1−1および条件1−2を満たす。従って、前判定部43は、非エッジ領域L1,L3を背景領域と仮判定する。一方、エッジ領域L2は、条件1−1を満たさない。従って、前判定部43は、エッジ領域L2を原稿領域と仮判定する。   For example, the non-edge regions L1 and L3 in FIG. 8 satisfy the condition 1-1 and the condition 1-2. Accordingly, the front determination unit 43 temporarily determines the non-edge regions L1 and L3 as background regions. On the other hand, the edge region L2 does not satisfy the condition 1-1. Accordingly, the pre-determination unit 43 provisionally determines the edge area L2 as a document area.

これにより、図8の非エッジ領域L1,L3およびエッジ領域L2に対する、原稿領域および背景領域の仮判定結果は、図11の(A)に示すようになる。なお、図11に示す一点鎖線は、紙検知センサー12が通過する座標を示している。   Accordingly, the provisional determination result of the document area and the background area for the non-edge areas L1 and L3 and the edge area L2 in FIG. 8 is as shown in FIG. In addition, the dashed-dotted line shown in FIG. 11 has shown the coordinate which the paper detection sensor 12 passes.

(手順2)次に、前判定部43は、上記で仮判定した領域が、次の3つの条件を全て満たす場合、仮判定した領域を原稿領域と判定(変更)する。   (Procedure 2) Next, the pre-determination unit 43 determines (changes) the tentatively determined area as the document area when the tentatively determined area satisfies all the following three conditions.

条件2−1:判定用画像データの下端に接すること
条件2−2:紙検知センサー12が通過する座標を含むことまたは給送の開始と完了を検出する給紙センサーが通過する座標を含むこと(スキャン部13の原稿が通過する座標を含むこと、例えば、図2の(B)に示すスキャン部13の走査方向軸(x軸)の原稿が通過する座標を含むこと)
条件2−3:判定用画像データの上端に接しないこと
Condition 2-1: Touching the lower end of the determination image data Condition 2-2: Including coordinates through which the paper detection sensor 12 passes or including coordinates through which a paper feed sensor that detects the start and completion of feeding passes (Including the coordinates through which the document of the scanning unit 13 passes, for example, the coordinates of the document in the scanning direction axis (x axis) of the scanning unit 13 shown in FIG. 2B)
Condition 2-3: Do not touch the upper end of the image data for determination

図11の(B)には、図11の(A)の仮判定結果に対する、原稿領域および背景領域の判定結果が示してある。   FIG. 11B shows the determination result of the document area and the background area with respect to the temporary determination result of FIG.

例えば、背景領域と仮判定された非エッジ領域L1は、条件2−3を満たさない。従って、前判定部43は、非エッジ領域L1を背景領域のままとする。原稿領域と仮判定されたエッジ領域L2は、条件2−1〜条件2−3を満たす。従って、前判定部43は、エッジ領域L2を原稿領域のままとする。背景領域と判定された非エッジ領域L3は、条件2−1〜条件2−3を満たす。従って、前判定部43は、非エッジ領域L3を原稿領域と判定(変更)する。   For example, the non-edge region L1 provisionally determined as the background region does not satisfy the condition 2-3. Therefore, the previous determination unit 43 leaves the non-edge region L1 as the background region. The edge region L2 provisionally determined as the document region satisfies the conditions 2-1 to 2-3. Accordingly, the pre-determination unit 43 leaves the edge area L2 as the original area. The non-edge region L3 determined as the background region satisfies the conditions 2-1 to 2-3. Accordingly, the pre-determination unit 43 determines (changes) the non-edge region L3 as a document region.

これにより、図11の(A)に示す仮判定結果は、図11の(B)に示すように変更される。すなわち、図8の非エッジ領域L1,L3およびエッジ領域L2に対する、原稿領域および背景領域の判定結果は、最終的に図11の(B)に示すようになる。   Thereby, the provisional determination result shown in FIG. 11A is changed as shown in FIG. That is, the determination results of the document area and the background area for the non-edge areas L1 and L3 and the edge area L2 in FIG. 8 are finally as shown in FIG.

図4の説明に戻る。続判定部44は、前判定部43によって判定された判定用画像データの原稿領域および背景領域の判定結果と、エッジ抽出部41によって抽出された続画像データのエッジとに基づいて、続画像データの原稿領域および背景領域を判定する。例えば、続判定部44は、判定用画像データのエッジ領域および非エッジ領域に続く続画像データのエッジ領域および非エッジ領域に対し、判定用画像データで判定された判定結果を適用する。   Returning to the description of FIG. The continuation determination unit 44 determines the continuation image data based on the determination result of the document region and the background region of the determination image data determined by the previous determination unit 43 and the edge of the continuation image data extracted by the edge extraction unit 41. The document area and the background area are determined. For example, the continuation determination unit 44 applies the determination result determined by the determination image data to the edge region and non-edge region of the subsequent image data following the edge region and non-edge region of the determination image data.

より具体的には、続判定部44は、背景領域と判定された判定用画像データのエッジ領域に続く、続画像データのエッジ領域に対し、背景領域と判定する。また、続判定部44は、背景領域と判定された判定用画像データの非エッジ領域に続く、続画像データの非エッジ領域に対し、背景領域と判定する。また、続判定部44は、原稿領域と判定された判定用画像データのエッジ領域に続く、続画像データのエッジ領域に対し、原稿領域と判定する。また、続判定部44は、原稿領域と判定された判定用画像データの非エッジ領域に続く、続画像データの非エッジ領域に対し、原稿領域と判定する。   More specifically, the continuation determination unit 44 determines that the edge region of the continuation image data following the edge region of the determination image data determined as the background region is a background region. Further, the continuation determination unit 44 determines that the non-edge area of the continuation image data following the non-edge area of the determination image data determined as the background area is the background area. Further, the continuation determination unit 44 determines that the edge area of the continuation image data following the edge area of the determination image data determined as the document area is the document area. Further, the continuation determination unit 44 determines that the non-edge area of the continuation image data following the non-edge area of the determination image data determined to be the document area is the document area.

図12は、続判定部44の判定結果例を示した図である。図12には、続判定部44によって判定された、スキャン部13から出力された画像データの背景領域と原稿領域とが示してある。図12の黒く塗りつぶした部分は、背景領域と判定された部分を示し、白く塗りつぶした部分は、原稿領域と判定された部分を示している。また、図12に示す判定用画像データD11は、スキャン部13から出力された画像データの判定用画像データ部分を示し、続画像データD12は、スキャン部13から出力された画像データの続画像データ部分を示している。   FIG. 12 is a diagram illustrating a determination result example of the continuation determination unit 44. FIG. 12 shows the background area and the document area of the image data output from the scanning unit 13 determined by the continuation determining unit 44. In FIG. 12, black portions indicate portions determined as background regions, and white portions indicate portions determined as document regions. 12 indicates the determination image data portion of the image data output from the scan unit 13, and the subsequent image data D12 indicates the subsequent image data of the image data output from the scan unit 13. Shows the part.

図8に示した非エッジ領域L1は、図11の(B)で説明したように、前判定部43によって背景領域と判定される。従って、続判定部44は、判定用画像データD11の非エッジ領域L1に続く非エッジ領域を背景領域と判定する。   The non-edge region L1 illustrated in FIG. 8 is determined as a background region by the previous determination unit 43, as described with reference to FIG. Therefore, the continuation determination unit 44 determines that the non-edge region following the non-edge region L1 of the determination image data D11 is a background region.

図8に示したエッジ領域L2および非エッジ領域L3は、図11の(B)で説明したように、前判定部43によって原稿領域と判定される。従って、続判定部44は、判定用画像データD11のエッジ領域L2に続くエッジ領域と、判定用画像データD11の非エッジ領域L3に続く非エッジ領域とを原稿領域と判定する。   The edge region L2 and the non-edge region L3 shown in FIG. 8 are determined to be document regions by the previous determination unit 43, as described with reference to FIG. Accordingly, the continuation determination unit 44 determines that the edge region following the edge region L2 of the determination image data D11 and the non-edge region following the non-edge region L3 of the determination image data D11 are document regions.

これにより、スキャン部13から出力される画像データは、図12に示すように、原稿領域と背景領域とに分けられる。   As a result, the image data output from the scanning unit 13 is divided into a document area and a background area as shown in FIG.

続判定部44の判定動作について具体的に説明する。続判定部44は、続画像データの1ラインにおいて、一端から他端(例えば、左端から右端)に向けて第1のパターン判定を行い、1ラインの各画素の原稿領域および背景領域を仮判定する。続判定部44は、1ラインの一端から他端に向け、各画素の原稿領域および背景領域を仮判定すると、逆にそのラインにおいて、他端から一端(例えば、右端から左端)に向けて第2のパターン判定を行い、仮判定された原稿領域および背景領域を補正する。続判定部44は、続画像データの全ラインにおいて、上記の処理を行う。   The determination operation of the continuation determination unit 44 will be specifically described. The continuation determination unit 44 performs a first pattern determination from one end to the other end (for example, from the left end to the right end) in one line of the continuation image data, and temporarily determines the document area and the background area of each pixel in one line. To do. When the continuation determination unit 44 provisionally determines the document area and the background area of each pixel from one end to the other end of the line, conversely, in the line, from the other end to one end (for example, from the right end to the left end) 2 pattern determination is performed, and the temporarily determined original area and background area are corrected. The continuation determination unit 44 performs the above processing on all lines of the continuation image data.

図13は、続判定部44が行う第1のパターン判定の判定条件を示した図である。図13に示す注目画素と参照画素は、図9で説明した注目画素と参照画素の定義と同様であるので、その説明を省略する。   FIG. 13 is a diagram illustrating determination conditions for the first pattern determination performed by the continuation determination unit 44. The attention pixel and the reference pixel shown in FIG. 13 are the same as the definition of the attention pixel and the reference pixel described in FIG.

続判定部44は、図13に示す判定条件に従って、続画像データの1ラインの、左端から右端に向けた、各画素の第1のパターン判定を行う。例えば、続判定部44は、注目画素が「エッジ」の場合、8ビットデータで示される第1判定パターンの4ビット目に「1」を立てる。また、例えば、続判定部44は、図9に示した定義に基づく参照画素において、原稿かつエッジの参照画素が存在する場合、第1判定パターンの3ビット目に「1」を立てる。   The continuation determination unit 44 performs the first pattern determination of each pixel from the left end to the right end of one line of the continuation image data in accordance with the determination condition shown in FIG. For example, when the target pixel is “edge”, the continuation determination unit 44 sets “1” to the fourth bit of the first determination pattern indicated by 8-bit data. Further, for example, if the reference pixel based on the definition shown in FIG. 9 includes a document and an edge reference pixel, the continuation determination unit 44 sets “1” to the third bit of the first determination pattern.

なお、上記では、第1判定パターンは、8ビットとしたが、これに限られない。第1判定パターンは、ビット目が「0〜4ビット」存在するので、少なくとも5ビットあれば足りる。   In the above description, the first determination pattern is 8 bits, but is not limited thereto. Since the first determination pattern has “0 to 4 bits” in the bit, at least 5 bits are sufficient.

図14は、記憶部34のデータ構成例を示した図のその1である。図14に示すように、記憶部34には予め、第1判定パターンと、注目画素が原稿領域の画素であるのか、または背景領域の画素であるのかを示す「1」,「0」の情報とが対応付けられて記憶される。   FIG. 14 is a first diagram illustrating a data configuration example of the storage unit 34. As shown in FIG. 14, in the storage unit 34, information on “1” and “0” indicating whether the target pixel is a pixel in the document area or a background area is stored in advance in the first determination pattern. Are stored in association with each other.

例えば、続判定部44の第1のパターン判定による、ある注目画素の第1判定パターンの結果が「9」(8ビットデータでは「00001001」)であったとする。図14の例の場合、その注目画素は、背景領域の画素と仮判定される。   For example, it is assumed that the result of the first determination pattern of a pixel of interest by the first pattern determination of the continuation determination unit 44 is “9” (“00000101” in 8-bit data). In the case of the example in FIG. 14, the target pixel is provisionally determined to be a pixel in the background area.

図15は、続判定部44の第1のパターン判定の動作例を説明する図のその1である。図15の(A),(C)の矢印A11に示すラインの画素は、判定用画像データの下端の画素を示している。すなわち、図15の(A),(C)の矢印A11に示すラインの画素およびそれより上の画素は、判定用画像データの画素を示している。また、図15の(A),(C)の矢印A11に示すラインの画素より下の画素は、続画像データの画素を示している。   FIG. 15 is a first diagram illustrating an operation example of the first pattern determination of the continuation determination unit 44. The pixels on the line indicated by the arrow A11 in FIGS. 15A and 15C indicate the pixels at the lower end of the determination image data. That is, the pixels on the line indicated by the arrow A11 in FIGS. 15A and 15C and the pixels above it indicate the pixels of the determination image data. Further, the pixels below the pixels on the line indicated by the arrow A11 in FIGS. 15A and 15C indicate the pixels of the subsequent image data.

図15の(A),(C)に示すハッチングされたマス目は、非エッジの画素を示し、ハッチングされていないマス目は、エッジの画素を示している。また、マス目内に示している「0」は、背景領域の画素を示し、「1」は、原稿領域の画素を示している。   The hatched cells shown in FIGS. 15A and 15C indicate non-edge pixels, and the non-hatched cells indicate edge pixels. Further, “0” shown in the square indicates a pixel in the background area, and “1” indicates a pixel in the document area.

なお、画像データの各画素のエッジおよび非エッジ(図15のハッチングされていないマス目およびハッチングされているマス目)は、エッジ抽出部41によって、すでに抽出されている。また、判定用画像データの原稿領域および背景領域(図15の矢印A11のラインまでの「0」,「1」)は、前判定部43によって、すでに判定されている。   Note that the edges and non-edges of each pixel of the image data (unhatched and hatched cells in FIG. 15) have already been extracted by the edge extraction unit 41. Further, the document area and the background area (“0” and “1” up to the line of the arrow A11 in FIG. 15) of the determination image data have already been determined by the previous determination unit 43.

続判定部44は、判定用画像データの下端の画素のエッジおよび非エッジと、原稿領域および背景領域の判定結果とを用いて、第1のパターン判定を行い、続画像データの原稿領域および背景領域を行う。   The continuation determination unit 44 performs the first pattern determination using the edge and non-edge of the pixel at the lower end of the determination image data and the determination results of the document area and the background area, and performs the document area and background of the continuation image data. Do the area.

例えば、図15の(A)に示す「a1」の画素を、注目画素とする。この注目画素は、非エッジであるので、参照画素は、図9の(B)となる。この場合、第1判定パターンは、図15の(B)に示すように、「01001」(10進数では「9」)となる。   For example, the pixel “a1” shown in FIG. Since the target pixel is a non-edge, the reference pixel is (B) in FIG. In this case, the first determination pattern is “01001” (“9” in decimal) as shown in FIG.

続判定部44は、図14に示した記憶部34を参照し、第1判定パターン「9」に対応する「背景領域」を取得する。これにより、図15の(A)に示す「a1」の画素は、図15の(C)に示すように、「0」(背景領域)となる。   The continuation determination unit 44 refers to the storage unit 34 illustrated in FIG. 14 and acquires the “background region” corresponding to the first determination pattern “9”. Thus, the pixel “a1” shown in FIG. 15A becomes “0” (background region) as shown in FIG. 15C.

図16は、続判定部44の第1のパターン判定の動作例を説明する図のその2である。図16の(A)には、図15の(C)に示した画素が示してある。   FIG. 16 is a second diagram illustrating an operation example of the first pattern determination of the continuation determination unit 44. FIG. 16A shows the pixel shown in FIG.

図16の(A)に示す「a2」の画素を、注目画素とする。この注目画素は、エッジであるので、参照画素は、図9の(A)となる。この場合、第1判定パターンは、図16の(B)に示すように、「11101」(10進数では「29」)となる。   A pixel “a2” illustrated in FIG. 16A is a target pixel. Since the target pixel is an edge, the reference pixel is (A) in FIG. In this case, the first determination pattern is “11101” (“29” in decimal) as shown in FIG.

続判定部44は、図14に示した記憶部34を参照し、第1判定パターン「29」に対応する「原稿領域」を取得する。これにより、図16の(A)に示す「a2」の画素は、図16の(C)に示すように、「1」(原稿領域)となる。   The continuation determination unit 44 refers to the storage unit 34 illustrated in FIG. 14 and acquires the “document area” corresponding to the first determination pattern “29”. As a result, the pixel “a2” shown in FIG. 16A becomes “1” (document area) as shown in FIG.

続判定部44は、1ラインにおいて、右端まで第1のパターン判定を行うと、その1ラインにおいて、逆方向に向けた第2のパターン判定を行い、第1のパターン判定結果を補正する。   When the first pattern determination is performed up to the right end in one line, the continuation determination unit 44 performs a second pattern determination in the reverse direction and corrects the first pattern determination result.

図17は、続判定部44が行う第2のパターン判定の判定条件を示した図である。第2のパターン判定では、参照画素は、注目画素がエッジおよび非エッジのどちらにもかかわらず、注目画素の右隣りの画素のみとなる。   FIG. 17 is a diagram illustrating determination conditions for the second pattern determination performed by the continuation determination unit 44. In the second pattern determination, the reference pixel is only a pixel on the right side of the target pixel regardless of whether the target pixel is an edge or a non-edge.

続判定部44は、図17に示す判定条件に従って、続画像データの1ラインの、右端から左端に向けた、各画素の第2のパターン判定を行う。例えば、続判定部44は、注目画素が「原稿」の場合、8ビットデータで示される第2判定パターンの3ビット目に「1」を立てる。また、例えば、続判定部44は、右隣の画素がエッジの場合、第2判定パターンの0ビット目に「1」を立てる。   The continuation determination unit 44 performs the second pattern determination of each pixel from the right end to the left end of one line of the continuation image data according to the determination condition shown in FIG. For example, when the target pixel is “original”, the continuation determination unit 44 sets “1” to the third bit of the second determination pattern indicated by the 8-bit data. For example, the continuation determination unit 44 sets “1” to the 0th bit of the second determination pattern when the pixel on the right is an edge.

なお、上記では、第2判定パターンは、8ビットとしたが、これに限られない。第2判定パターンは、ビット目が「0〜3ビット」存在するので、少なくとも4ビットあれば足りる。   In the above description, the second determination pattern is 8 bits, but is not limited thereto. Since the second determination pattern has “0 to 3 bits” in the bit, at least 4 bits are sufficient.

図18は、記憶部34のデータ構成例を示した図のその2である。記憶部34には、図14に示したデータに加え、図18に示すデータも記憶される。記憶部34には予め、第2判定パターンと、注目画素が原稿領域の画素であるのか、または背景領域の画素であるのかを示す「1」,「0」の情報とが対応付けられて記憶される。   FIG. 18 is a second diagram illustrating a data configuration example of the storage unit 34. In addition to the data shown in FIG. 14, the storage unit 34 also stores data shown in FIG. The storage unit 34 stores in advance the second determination pattern and information “1” and “0” indicating whether the target pixel is a pixel in the document area or a pixel in the background area. Is done.

例えば、続判定部44の第2のパターン判定による、ある注目画素の第2判定パターンの結果が「8」(8ビットデータでは「00001000」)であったとする。図18の例の場合、その注目画素は、背景領域の画素と判定される。   For example, it is assumed that the result of the second determination pattern of a pixel of interest by the second pattern determination of the continuation determination unit 44 is “8” (“00001000” in 8-bit data). In the case of the example in FIG. 18, the target pixel is determined to be a pixel in the background area.

図19は、続判定部44の第2のパターン判定の動作例を説明する図のその1である。続判定部44は、1ラインにおいて、第1のパターン判定を右端まで行うと、そのラインにおいて、左端に向かって、第2のパターン判定を行う。   FIG. 19 is a first diagram illustrating an operation example of the second pattern determination of the continuation determination unit 44. When the continuation determination unit 44 performs the first pattern determination to the right end in one line, the continuation determination unit 44 performs the second pattern determination toward the left end in the line.

図19の(A)の下線を付した「1」の画素を注目画素とする。参照画素は、注目画素の右隣の画素である。この場合、第2判定パターンは、図19の(B)に示すように、「1000」(10進数では「8」)となる。   A pixel “1” with an underline in FIG. 19A is a pixel of interest. The reference pixel is a pixel on the right side of the target pixel. In this case, the second determination pattern is “1000” (“8” in decimal) as shown in FIG.

続判定部44は、図18に示した記憶部34を参照し、第2判定パターン「8」に対応する「背景領域」を取得する。これにより、図19の(A)に示す下線を付した「1」の画素は、図19の(C)に示すように、「0」(背景領域)に補正される。   The continuation determination unit 44 refers to the storage unit 34 illustrated in FIG. 18 and acquires the “background region” corresponding to the second determination pattern “8”. Accordingly, the underlined “1” pixel shown in FIG. 19A is corrected to “0” (background region) as shown in FIG. 19C.

図20は、続判定部44の第2のパターン判定の動作例を説明する図のその2である。図20の(A)には、図19の(C)に示した画素が示してある。   FIG. 20 is a second diagram illustrating an operation example of the second pattern determination of the continuation determination unit 44. FIG. 20A shows the pixel shown in FIG.

図20の(A)の下線を付した「1」の画素を注目画素とする。参照画素は、注目画素の右隣の画素である。この場合、第2判定パターンは、図20の(B)に示すように、「1100」(10進数では「12」)となる。   A pixel “1” with an underline in FIG. The reference pixel is a pixel on the right side of the target pixel. In this case, as shown in FIG. 20B, the second determination pattern is “1100” (decimal number “12”).

続判定部44は、図18に示した記憶部34を参照し、第2判定パターン「12」に対応する「原稿領域」を取得する。これにより、図20の(A)に示す下線を付した「1」の画素は、図20の(C)に示すように、「1」(原稿領域)となる。   The continuation determination unit 44 refers to the storage unit 34 illustrated in FIG. 18 and acquires the “document area” corresponding to the second determination pattern “12”. Thus, the underlined “1” pixel shown in FIG. 20A becomes “1” (document area) as shown in FIG. 20C.

続判定部44は、続画像データの下端まで、1ラインずつ、上記の第1のパターン判定と、第2のパターン判定とを行う。続判定部44は、第1のパターン判定および第2のパターン判定により、画像データの各画素に割り当てた「0」および「1」に基づいて、例えば、図12に示したように、続画像データD12を原稿領域と背景領域とに分けることができる。   The continuation determination unit 44 performs the first pattern determination and the second pattern determination for each line up to the lower end of the continuation image data. Based on “0” and “1” assigned to each pixel of the image data by the first pattern determination and the second pattern determination, for example, as shown in FIG. Data D12 can be divided into a document area and a background area.

なお、続判定部44の処理は、次の考え方に基づいている。
以下のように、参照画素に注目画素と同じエッジ値がある場合は、参照画素の原稿領域および背景領域を注目画素に設定する。
・参照画素にエッジかつ原稿領域が存在する場合において、注目画素がエッジのときは、注目画素を原稿領域とする。
・参照画素に非エッジかつ原稿領域が存在する場合において、注目画素が非エッジのときは、注目画素を原稿領域とする。
・参照画素にエッジかつ背景領域が存在する場合において、注目画素がエッジのときは、注目画素を背景領域とする。
・参照画素に非エッジかつ背景領域が存在する場合において、注目画素が非エッジのときは、注目画素を背景領域とする。
The process of the continuation determination unit 44 is based on the following concept.
As described below, when the reference pixel has the same edge value as the target pixel, the document region and the background region of the reference pixel are set as the target pixel.
When the reference pixel has an edge and a document area, and the target pixel is an edge, the target pixel is set as the document area.
If the reference pixel has a non-edge and document area, and the target pixel is non-edge, the target pixel is set as the document area.
If the reference pixel has an edge and a background area and the target pixel is an edge, the target pixel is set as the background area.
If the reference pixel has a non-edge and background area and the target pixel is non-edge, the target pixel is set as the background area.

上記に該当しない場合は、以下のように、周りの原稿領域および背景領域によって注目画素が原稿領域か背景領域かを決定する。
・参照画素が原稿領域のみの場合は、注目画素を原稿領域とする。
・参照画素に原稿領域と背景領域がある場合において、注目画素がエッジのときは、注目画素を原稿領域、注目画素が非エッジのときは、注目画素を背景領域とする。
・参照画素が背景領域のみの場合は、注目画素を背景領域とする。
When the above does not apply, whether the pixel of interest is the document region or the background region is determined by the surrounding document region and the background region as follows.
When the reference pixel is only the document area, the target pixel is set as the document area.
When the reference pixel includes a document area and a background area, when the target pixel is an edge, the target pixel is a document area. When the target pixel is a non-edge, the target pixel is a background area.
When the reference pixel is only the background area, the target pixel is set as the background area.

図4の説明に戻る。切り出し部45は、前判定部43および続判定部44によって判定された画像データの原稿領域および背景領域に基づいて、スキャン部13から出力された画像データから、原稿部分を切り出す。   Returning to the description of FIG. The cutout unit 45 cuts out a document portion from the image data output from the scan unit 13 based on the document region and the background region of the image data determined by the previous determination unit 43 and the continuation determination unit 44.

図21は、原稿の切り出し例を説明する図のその1である。図21には、前判定部43および続判定部44が判定した画像データの原稿領域(白く塗りつぶした部分)と背景領域(黒く塗りつぶした部分)とが示してある。   FIG. 21 is a first diagram illustrating an example of document cutting. FIG. 21 shows a document area (a white area) and a background area (a black area) of the image data determined by the pre-determination unit 43 and the continuation determination unit 44.

切り出し部45は、画像データの上端から下端に向けて(+y軸方向に向けて)、前判定部43および続判定部44が判定した画像データの原稿領域を探索する。例えば、切り出し部45は、図21の矢印に示すように、+y軸方向に向けて、原稿領域を探索する。切り出し部45は、最初に探索(発見)した原稿領域の座標(x,y)を、原稿の上端座標として、記憶部34に記憶する。   The cutout unit 45 searches the document area of the image data determined by the previous determination unit 43 and the subsequent determination unit 44 from the upper end to the lower end of the image data (in the + y-axis direction). For example, the cutout unit 45 searches the document area in the + y-axis direction as indicated by an arrow in FIG. The cutout unit 45 stores the coordinates (x, y) of the document area searched (found) first in the storage unit 34 as the upper end coordinates of the document.

なお、切り出し部45は、x座標を1ずつインクリメントしながら、+y軸方向に向けて、最初の原稿領域を探索する。   Note that the cutout unit 45 searches the first document area in the + y-axis direction while incrementing the x coordinate by one.

図22は、原稿の切り出し例を説明する図のその2である。図22に示す黒丸は、切り出し部45が、+y軸方向に向けて最初に探索した原稿領域の座標が示してある。なお、図22には、15個の座標しか示していないが、実際はもっと沢山存在している。   FIG. 22 is a second diagram illustrating an example of document cutting. The black circles shown in FIG. 22 indicate the coordinates of the document area that the cutout unit 45 first searches in the + y-axis direction. FIG. 22 shows only 15 coordinates, but there are actually many more.

切り出し部45は、+y軸方向において探索した最初の原稿領域の座標の中央値を、原稿の上端と判定する。   The clipping unit 45 determines that the median value of the coordinates of the first document area searched in the + y-axis direction is the upper end of the document.

図23は、原稿の切り出し例を説明する図のその3である。図23に示すように、切り出し部45は、+y軸方向に探索した原稿領域の座標を、y座標値に基づいて降順に並べ替える。そして、切り出し部45は、並べ替えたy座標値の中央値の座標を、原稿の上端として判定する。例えば、切り出し部45は、図23に示す矢印A21の座標のy座標値を、原稿の上端の座標値と判定する。   FIG. 23 is a third diagram illustrating an example of document cutting. As shown in FIG. 23, the cutout unit 45 rearranges the coordinates of the document area searched in the + y-axis direction in descending order based on the y-coordinate values. Then, the cutout unit 45 determines the coordinate of the median value of the rearranged y coordinate values as the upper end of the document. For example, the cutout unit 45 determines the y coordinate value of the coordinate of the arrow A21 shown in FIG. 23 as the coordinate value of the upper end of the document.

切り出し部45は、画像データの下端から、上端に向けても(−y軸方向に向けても)、図21および図22と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図23と同様にして、探索した原稿領域の中央値のy座標値を、原稿の下端の座標値と判定する。   The clipping unit 45 searches the first document area in the same manner as in FIGS. 21 and 22, whether from the lower end of the image data toward the upper end (in the −y-axis direction). Then, in the same manner as in FIG. 23, the cutout unit 45 determines that the median y coordinate value of the searched document area is the coordinate value of the lower end of the document.

また、切り出し部45は、画像データの左端から、右端に向けても(+x軸方向に向けても)、図21および図22と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図23と同様にして、探索した原稿領域の中央値のx座標値を、原稿の左端の座標値と判定する。   In addition, the cutout unit 45 searches for the first document area in the same manner as in FIGS. 21 and 22, whether from the left end of the image data to the right end (toward the + x axis direction). Then, in the same manner as in FIG. 23, the cutout unit 45 determines the x coordinate value of the median value of the searched document area as the coordinate value of the left end of the document.

また、切り出し部45は、画像データの右端から、左端に向けても(−x軸方向に向けても)、図21および図22と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図23と同様にして、探索した原稿領域の中央値のx座標値を、原稿の右端の座標値と判定する。   Further, the cutout unit 45 searches for the first document area in the same manner as in FIGS. 21 and 22, whether from the right end of the image data to the left end (toward the −x axis direction). Then, the cutout unit 45 determines the x coordinate value of the median value of the searched document area as the coordinate value of the right end of the document, as in FIG.

そして、切り出し部45は、上記のようにして判定した、原稿の上下左右の端を示す座標値(矩形領域)を用いて、スキャン部13から出力された画像データから、原稿部分を切り出す。これにより、例えば、図21に示す白い部分(原稿部分)が切り出される。   Then, the cutout unit 45 cuts out the document portion from the image data output from the scan unit 13 using the coordinate values (rectangular regions) indicating the top, bottom, left, and right edges of the document determined as described above. Thereby, for example, a white portion (original portion) shown in FIG. 21 is cut out.

図24は、画像処理装置1の動作例を示したフローチャートである。画像処理装置1は、給紙口4aに原稿が置かれ、入力装置5がユーザーから所定の操作を受付けると、図24に示すフローチャートの処理を実行する。   FIG. 24 is a flowchart illustrating an operation example of the image processing apparatus 1. The image processing apparatus 1 executes the processing of the flowchart shown in FIG. 24 when a document is placed in the paper feed port 4a and the input device 5 receives a predetermined operation from the user.

まず、ADF部4は、給紙口4aに置かれた原稿をスキャン部13へ給送する(ステップS1)。   First, the ADF unit 4 feeds a document placed in the paper feed port 4a to the scanning unit 13 (step S1).

次に、スキャン部13は、ステップS1にてADF部4により給送された原稿をスキャンし、画像データを出力する(ステップS2)。   Next, the scanning unit 13 scans the document fed by the ADF unit 4 in step S1, and outputs image data (step S2).

次に、エッジ抽出部41は、ステップS2にて出力される画像データのエッジを抽出する(ステップS3)。   Next, the edge extraction part 41 extracts the edge of the image data output in step S2 (step S3).

次に、領域検出部42は、ステップS2にて出力される画像データから、所定ライン分の画像データである判定用画像データを読み込み、ステップS3にて抽出されたエッジに基づき、判定用画像データのエッジ領域および非エッジ領域を検出する(ステップS4)。   Next, the area detection unit 42 reads determination image data, which is image data for a predetermined line, from the image data output in step S2, and based on the edges extracted in step S3, the determination image data The edge region and the non-edge region are detected (step S4).

次に、前判定部43は、条件1−1,1−2および条件2−1〜2−3に基づいて、ステップS4にて検出された、判定用画像データのエッジ領域および非エッジ領域が、原稿領域であるかまたは背景領域であるか判定する(ステップS5)。   Next, the pre-determination unit 43 determines whether the edge region and the non-edge region of the determination image data detected in step S4 based on the conditions 1-1, 1-2 and the conditions 2-1 to 2-3. It is determined whether the document area or the background area (step S5).

次に、続判定部44は、ステップS5にて判定された判定用画像データの原稿領域および背景領域と、ステップS3にて抽出されたエッジとに基づいて、判定用画像データに続く続画像データの原稿領域と背景領域とを判定する(ステップS6)。   Next, the continuation determination unit 44 continues the continuation image data following the determination image data based on the document area and the background area of the determination image data determined in step S5 and the edge extracted in step S3. The document area and the background area are determined (step S6).

次に、切り出し部45は、ステップS5にて判定された判定用画像データの原稿領域および背景領域と、ステップS6にて判定された続画像データの原稿領域および背景領域とに基づいて、ステップS2にて出力される画像データから、原稿領域を切り出す(ステップS7)。そして、画像処理装置1は、当該フローチャートの処理を終了する。   Next, the cutout unit 45 performs step S2 based on the document area and background area of the determination image data determined in step S5 and the document area and background area of the continuous image data determined in step S6. The document area is cut out from the image data output at (Step S7). Then, the image processing apparatus 1 ends the process of the flowchart.

このように、スキャン部13は、ADF部4から給送される原稿をスキャンし、画像データを出力する。エッジ抽出部41は、スキャン部13から出力される画像データのエッジを抽出し、領域検出部42は、エッジ抽出部41によって抽出されたエッジに基づき、判定用画像データのエッジ領域および非エッジ領域を検出する。前判定部43は、領域検出部42によって検出された判定用画像データのエッジ領域および非エッジ領域が、原稿領域であるかまたは背景領域であるか判定する。そして、続判定部44は、エッジ抽出部41によって抽出されたエッジと、前判定部43によって判定された判定用画像データの原稿領域および背景領域の判定結果とに基づいて、判定用画像データに続く続画像データの原稿領域および背景領域を判定する。これにより、画像処理装置1は、画像データを原稿部分と背景部分とに適切に分けることができる。   As described above, the scanning unit 13 scans the original fed from the ADF unit 4 and outputs image data. The edge extraction unit 41 extracts the edge of the image data output from the scanning unit 13, and the region detection unit 42 based on the edge extracted by the edge extraction unit 41, the edge region and the non-edge region of the determination image data Is detected. The pre-determination unit 43 determines whether the edge region and the non-edge region of the determination image data detected by the region detection unit 42 are a document region or a background region. Then, the continuation determination unit 44 converts the determination image data into the determination image data based on the edge extracted by the edge extraction unit 41 and the determination result of the document area and the background area of the determination image data determined by the previous determination unit 43. The document area and background area of subsequent image data are determined. Thereby, the image processing apparatus 1 can appropriately separate the image data into the document portion and the background portion.

また、画像処理装置1は、続画像データの原稿領域および背景領域を、判定用にパターン化した注目画素のエッジ値および参照画素のエッジ値と、原稿領域および背景領域とにより判定する。これにより、画像処理装置1は、続画像データに対し、上から下に1度だけ領域の判定処理を行えばよく、処理時間の短縮を図ることができる。   Further, the image processing apparatus 1 determines the document area and the background area of the subsequent image data based on the edge value of the target pixel and the edge value of the reference pixel patterned for determination, and the document area and the background area. As a result, the image processing apparatus 1 may perform the region determination process only once from the top to the bottom for the subsequent image data, and the processing time can be shortened.

なお、制御部31は、スキャン部13がADF部4から給送される原稿をスキャンするかまたは本体2の読み取り台に置かれた原稿をスキャンするかを判定するスキャン種別判定部、をさらに有してもよい。スキャン種別判定部は、例えば、紙検知センサー12が原稿を検知し、ユーザーが入力装置5に対し、所定の操作を行うと、スキャン部13がADF部4から給送される原稿をスキャンすると判定する。そして、エッジ抽出部41、領域検出部42、前判定部43、続判定部44、および切り出し部45は、スキャン種別判定部によって、スキャン部13がADF部4から給送される原稿をスキャンすると判定された場合に、上記で説明した動作を行う。   The control unit 31 further includes a scan type determination unit that determines whether the scanning unit 13 scans a document fed from the ADF unit 4 or scans a document placed on the reading table of the main body 2. May be. For example, when the paper detection sensor 12 detects a document and the user performs a predetermined operation on the input device 5, the scan type determination unit determines that the scan unit 13 scans a document fed from the ADF unit 4. To do. The edge extraction unit 41, the region detection unit 42, the previous determination unit 43, the continuation determination unit 44, and the cutout unit 45 are scanned by the scan type determination unit when the scan unit 13 scans a document fed from the ADF unit 4. When it is determined, the operation described above is performed.

一方、制御部31は、スキャン種別判定部によって、本体2の読み取り台に置かれた原稿をスキャンすると判定された場合、読み取り台に置かれた原稿の画像データから、所定の処理により、原稿領域を切り出す。例えば、制御部31は、スキャン部13から出力された画像データのエッジを抽出し、抽出されたエッジに基づいて、画像データの非エッジ領域を検出する。そして、制御部31は、以下の第1の仮判定条件および第2の仮判定条件に基づいて、検出した非エッジ領域を、原稿領域であるか背景領域であるか仮判定し、仮判定した非エッジ領域の配置に基づいて、非エッジ領域の仮判定を補正し、仮判定を補正した原稿領域および背景領域から、原稿領域を切り出してもよい。例えば、隣接する背景領域が存在し、そのうちの1つが原稿領域と隣接しているとする。この場合、制御部31は、原稿領域に隣接している背景領域を原稿領域に補正する。   On the other hand, when the scan type determination unit determines that the document placed on the reading table of the main body 2 is scanned, the control unit 31 performs a predetermined process on the document area from the image data of the document placed on the reading table. Cut out. For example, the control unit 31 extracts an edge of the image data output from the scanning unit 13, and detects a non-edge region of the image data based on the extracted edge. Then, the control unit 31 tentatively determines whether the detected non-edge region is a document region or a background region based on the following first tentative determination condition and second tentative determination condition. Based on the arrangement of the non-edge regions, the provisional determination of the non-edge regions may be corrected, and the document region may be cut out from the document region and the background region in which the provisional determination is corrected. For example, it is assumed that there are adjacent background areas, one of which is adjacent to the document area. In this case, the control unit 31 corrects the background area adjacent to the document area to the document area.

第1の仮判定条件:非エッジ領域が画像データの2辺以上のデータ端に接していること
第2の仮判定条件:非エッジ領域にエッジが含まれていないこと
First provisional determination condition: the non-edge region is in contact with data edges of two or more sides of the image data Second provisional determination condition: the non-edge region does not include an edge

また、図4に示した制御部31の機能は、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置が有していてもよい。   Further, the function of the control unit 31 illustrated in FIG. 4 may be included in an information processing apparatus such as a personal computer or a tablet terminal.

図25は、情報処理装置60の機能ブロック構成例を示した図である。図25に示すように、情報処理装置60は、制御部31aと、I/F部61と、記憶部62とを有している。   FIG. 25 is a diagram illustrating a functional block configuration example of the information processing apparatus 60. As illustrated in FIG. 25, the information processing apparatus 60 includes a control unit 31a, an I / F unit 61, and a storage unit 62.

図25に示す制御部31a、エッジ抽出部41a、領域検出部42a、前判定部43a、続判定部44a、および切り出し部45aは、図4に示した制御部31、エッジ抽出部41、領域検出部42、前判定部43、続判定部44、および切り出し部45と同様の機能を有するため、その説明を省略する。   The control unit 31a, the edge extraction unit 41a, the region detection unit 42a, the previous determination unit 43a, the continuation determination unit 44a, and the cutout unit 45a illustrated in FIG. Since it has the same function as the unit 42, the previous determination unit 43, the continuation determination unit 44, and the cutout unit 45, description thereof will be omitted.

I/F部61(本発明の受信部に相当する)は、有線または無線によって、画像処理装置1のスキャン部13がスキャンした原稿の画像データを受信する。受信された画像データは、記憶部62に記憶される。   An I / F unit 61 (corresponding to a receiving unit of the present invention) receives image data of a document scanned by the scanning unit 13 of the image processing apparatus 1 by wire or wirelessly. The received image data is stored in the storage unit 62.

記憶部62には、制御部31aの機能を実現するアプリケーションプログラムが記憶されている。記憶部62は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶装置である。   The storage unit 62 stores an application program that realizes the function of the control unit 31a. The storage unit 62 is a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

制御部31aは、記憶部62に記憶されたアプリケーションプログラムを実行するCPUによって、その機能が実現される。制御部31aは、I/F部61によって受信された画像データ(記憶部62に記憶された画像データ)に対し、上記で説明したのと同様にして、画像データの原稿領域および背景領域を判定する。そして、制御部31aは、画像データから、原稿部分を切り出す。   The function of the control unit 31a is realized by a CPU that executes an application program stored in the storage unit 62. The control unit 31a determines the document area and the background area of the image data in the same manner as described above for the image data received by the I / F unit 61 (image data stored in the storage unit 62). To do. Then, the control unit 31a cuts out the document portion from the image data.

このように、情報処理装置60が、画像データを、原稿領域と背景領域とに分け、原稿部分を切り出してもよい。   As described above, the information processing apparatus 60 may divide the image data into the document area and the background area and cut out the document portion.

[第2の実施の形態]
第2の実施の形態では、判定用画像データの原稿領域および背景領域の判定方法が第1の実施の形態と異なる。
[Second Embodiment]
In the second embodiment, the determination method of the document area and the background area of the determination image data is different from that of the first embodiment.

図26は、第2の実施の形態に係る画像処理装置1の機能ブロック構成例を示した図である。図26において、図4と同じものには同じ符号が付してある。以下では、図4と異なる部分について説明する。図26に示すように、画像処理装置1の制御部31は、前判定部71を有している。   FIG. 26 is a diagram illustrating a functional block configuration example of the image processing apparatus 1 according to the second embodiment. In FIG. 26, the same components as those in FIG. 4 are denoted by the same reference numerals. Below, a different part from FIG. 4 is demonstrated. As shown in FIG. 26, the control unit 31 of the image processing apparatus 1 has a pre-determination unit 71.

前判定部71は、領域検出部42によって検出されたエッジ領域および非エッジ領域が、原稿領域であるかまたは背景領域であるか判定する。前判定部71は、以下の手順に従って、領域検出部42によって検出されたエッジ領域および非エッジ領域が、原稿領域であるかまたは領域であるか判定する。   The front determination unit 71 determines whether the edge region and the non-edge region detected by the region detection unit 42 are a document region or a background region. The pre-determination unit 71 determines whether the edge region and the non-edge region detected by the region detection unit 42 are document regions or regions according to the following procedure.

(手順1)まず、前判定部71は、領域検出部42によって検出された領域が、次の2つの条件を全て満たす場合、領域検出部42によって検出された領域を、背景領域として仮判定する。一方、前判定部71は、次の2つの条件を1つでも満たさない場合、領域検出部42によって検出された領域を、原稿領域として仮判定する。   (Procedure 1) First, when the region detected by the region detection unit 42 satisfies all the following two conditions, the pre-determination unit 71 temporarily determines the region detected by the region detection unit 42 as a background region. . On the other hand, when at least one of the following two conditions is not satisfied, the pre-determination unit 71 provisionally determines the region detected by the region detection unit 42 as a document region.

条件11−1:非エッジ領域であること
条件11−2:領域内にエッジが含まれていないこと
Condition 11-1: Non-edge area Condition 11-2: No edge is included in the area

図27は、前判定部71の動作例を説明する図である。図27の(A)には、スキャン部13から出力される画像データのうちの判定用画像データ81が示してある。判定用画像データ81には、縦筋82と、背景83と、影84と、原稿85とが含まれている。縦筋82は、例えば、スキャン部13に溜まった紙粉等によって現れる。   FIG. 27 is a diagram for explaining an operation example of the pre-determination unit 71. FIG. 27A shows determination image data 81 among the image data output from the scanning unit 13. The determination image data 81 includes a vertical stripe 82, a background 83, a shadow 84, and a document 85. The vertical stripes 82 appear due to, for example, paper dust accumulated in the scanning unit 13.

図27の(B)には、図27の(A)の判定用画像データ81から抽出したエッジの例が示してある。エッジ抽出部41が、図27の(A)の判定用画像データ81からエッジを抽出すると、図27の(B)に示すようになる。図27の(B)に示す白い部分が、エッジ領域である。縦筋82は、エッジとして抽出される。   FIG. 27B shows an example of an edge extracted from the determination image data 81 shown in FIG. When the edge extraction unit 41 extracts an edge from the determination-use image data 81 shown in FIG. 27A, the edge extraction unit 41 becomes as shown in FIG. A white portion shown in FIG. 27B is an edge region. The vertical stripes 82 are extracted as edges.

図27の(C)には、図27の(B)のエッジに基づいて検出されたエッジ領域および非エッジ領域が示してある。領域検出部42が、図27の(B)のエッジに基づき、エッジ領域および非エッジ領域を検出すると、図27の(C)に示すように、非エッジ領域L11と、エッジ領域L12と、非エッジ領域L13と、エッジ領域L14と、非エッジ領域L15とが検出される。   FIG. 27C shows edge regions and non-edge regions detected based on the edges in FIG. When the area detection unit 42 detects the edge area and the non-edge area based on the edge of FIG. 27B, as shown in FIG. 27C, the non-edge area L11, the edge area L12, and the non-edge area An edge region L13, an edge region L14, and a non-edge region L15 are detected.

図27の(D)には、図27の(C)の非エッジ領域L11,L13,L15およびエッジ領域L12,L14に対する、原稿領域および背景領域の仮判定結果が示してある。前判定部71が、上記の条件11−1,11−2に基づいて、図27の(C)の非エッジ領域L11,L13,L15およびエッジ領域L12,L14に対し、原稿領域および背景領域を仮判定すると、図27の(D)に示すようになる。   FIG. 27D shows the provisional determination results of the document area and the background area for the non-edge areas L11, L13, L15 and the edge areas L12, L14 shown in FIG. Based on the above conditions 11-1 and 11-2, the pre-determination unit 71 determines the document area and the background area for the non-edge areas L11, L13, and L15 and the edge areas L12 and L14 in FIG. The provisional determination is as shown in FIG.

例えば、図27の(C)の非エッジ領域L11,L13,L15は、図27の(D)に示すように、背景領域(黒く塗りつぶした部分)と仮判定される。また、図27の(C)のエッジ領域L12,L14は、図27の(D)に示すように、原稿領域(白く塗りつぶした部分)と仮判定される。   For example, the non-edge regions L11, L13, and L15 in (C) of FIG. 27 are temporarily determined as background regions (blackened portions) as shown in (D) of FIG. Further, the edge regions L12 and L14 in FIG. 27C are provisionally determined as document regions (white portions) as shown in FIG.

(手順2)次に、前判定部71は、上記で仮判定した領域が、次の2つの条件を満たすか否か判定する。   (Procedure 2) Next, the pre-determination unit 71 determines whether or not the area temporarily determined above satisfies the following two conditions.

条件12−1:判定用画像データの下端に接する領域であること
条件12−2:紙検知センサー12が通過する座標を含むことまたは給紙センサーが通過する座標を含むこと
Condition 12-1: The area is in contact with the lower end of the image data for determination. Condition 12-2: The coordinates through which the paper detection sensor 12 passes or the coordinates through which the paper feed sensor passes are included.

そして、前判定部71は、上記の2つの条件を満たす領域であって、判定用画像データの上端に接しない場合、その領域を第1型原稿領域と判定する。   The pre-determination unit 71 determines that the area satisfies the above two conditions and does not contact the upper end of the determination image data as the first type original area.

また、前判定部71は、上記の2つの条件を満たす領域であって、第1型原稿領域でなく、判定用画像データの左上端と右上端とに接しない場合、その領域を第2型原稿領域と判定する。   Further, if the pre-determination unit 71 is an area that satisfies the above two conditions and does not contact the upper left end and the upper right end of the image data for determination but not the first type original area, the predetermination unit 71 determines that the area is the second type The document area is determined.

また、前判定部71は、上記の2つの条件を満たす領域であって、第1型原稿領域および第2型原稿領域でなく、判定用画像データの左上端と右上端とのいずれか一方に接する場合、その領域を第3型原稿領域と判定する。   Further, the pre-determination unit 71 is an area that satisfies the above two conditions, and is not in the first-type original area or the second-type original area, but in either the upper left end or the upper right end of the determination image data. In the case of contact, the area is determined as the third type document area.

図28は、第1型原稿領域、第2型原稿領域、および第3型原稿領域を説明する図である。図28の(A)には、第1型原稿領域の形態が示してある。図28の(B)には、第2型原稿領域の形態が示してある。図28の(C),(D)には、第3型原稿領域の形態が示してある。図28の黒く塗りつぶした部分は背景領域を示し、白く塗りつぶした部分は原稿領域を示している。   FIG. 28 is a diagram for explaining the first type document region, the second type document region, and the third type document region. FIG. 28A shows the form of the first type document area. FIG. 28B shows a form of the second type document area. (C) and (D) of FIG. 28 show the form of the third type document area. In FIG. 28, the black-painted portion indicates the background area, and the white-painted portion indicates the document area.

例えば、図27の(C),(D)の背景領域と仮判定された非エッジ領域L13は、上記の条件12−1,12−2を満たす領域であって、判定用画像データの右上端のみに接する領域である。従って、非エッジ領域L13は、図28の(C)の第3型原稿領域と仮判定される。   For example, the non-edge region L13 provisionally determined as the background region in (C) and (D) of FIG. 27 is a region that satisfies the above conditions 12-1 and 12-2, and is the upper right end of the determination image data. It is the area that touches only. Therefore, the non-edge region L13 is provisionally determined to be the third type document region in FIG.

また、図27の(C),(D)の原稿領域と仮判定されたエッジ領域L14と、非エッジ領域L15は、上記の条件12−1,12−2を満たす領域であって、判定用画像データの上端に接しない領域である。従って、エッジ領域L14と非エッジ領域L15は、図28の(A)の第1型原稿領域と判定される。   27C and 27D, the edge region L14 and the non-edge region L15, which are provisionally determined to be the document region, satisfy the above conditions 12-1 and 12-2 and are used for determination. This is an area that does not touch the upper end of the image data. Therefore, the edge region L14 and the non-edge region L15 are determined as the first type document region in FIG.

(手順3)次に、前判定部71は、第1型原稿領域、第2型原稿領域、および第3型原稿領域の有無に基づいて、第1型原稿領域、第2型原稿領域、および第3型原稿領域が原稿領域であるかまたは背景領域であるか判定する。   (Procedure 3) Next, the pre-determination unit 71 determines whether the first-type original area, the second-type original area, the second-type original area, It is determined whether the third type document area is a document area or a background area.

例えば、前判定部71は、第1型原稿領域が存在する場合、第1型原稿領域を原稿領域と判定し、第2型原稿領域および第3型原稿領域を背景領域と判定する。   For example, when the first type document area exists, the front determination unit 71 determines the first type document area as the document area, and determines the second type document area and the third type document area as the background area.

また、前判定部71は、第1型原稿領域が存在せず、第2型原稿領域が存在する場合、第2型原稿領域を原稿領域と判定し、第3型原稿領域を背景領域と判定する。   Further, when the first type original area does not exist and the second type original area exists, the pre-determination unit 71 determines that the second type original area is the original area, and determines that the third type original area is the background area. To do.

また、前判定部71は、第1型原稿領域および第2型原稿領域が存在せず、第3型原稿領域が存在する場合、第3型原稿領域を原稿領域と判定する。   Further, when the first-type document area and the second-type document area do not exist and the third-type document area exists, the pre-determination unit 71 determines that the third-type document area is the document area.

また、前判定部71は、第1型原稿領域、第2型原稿領域、および第3型原稿領域が存在しない場合、全領域を原稿領域と判定する。   Further, when the first-type document area, the second-type document area, and the third-type document area do not exist, the previous determination unit 71 determines that all areas are document areas.

なお、上記手順2で説明した例では、エッジ領域L14と非エッジ領域L15は、第1型原稿領域と判定され、非エッジ領域L13は、第3型原稿領域と判定された。従って、エッジ領域L14と非エッジ領域L15は、当該手順3により、原稿領域と判定され、非エッジ領域L13は、背景領域と判定される。   In the example described in the procedure 2, the edge region L14 and the non-edge region L15 are determined as the first type document region, and the non-edge region L13 is determined as the third type document region. Therefore, the edge region L14 and the non-edge region L15 are determined as the document region by the procedure 3, and the non-edge region L13 is determined as the background region.

(手順4)次に、前判定部71は、上記手順によって、原稿領域と判定した領域が、次の2つ条件を全て満たす場合、その領域を背景領域に変更する。   (Procedure 4) Next, when the area determined as the document area by the above procedure satisfies all the following two conditions, the previous determination unit 71 changes the area to the background area.

条件13−1:判定用画像データの下端に接すること
条件13−2:紙検知センサー12が通過する座標を含まないことまたは給紙センサーが通過する座標を含まないこと
Condition 13-1: Touching the lower end of the determination image data Condition 13-2: Do not include coordinates through which the paper detection sensor 12 passes or do not include coordinates through which the paper feed sensor passes

例えば、エッジ領域L12は、手順1において、原稿領域と判定されている。エッジ領域L12は、上記の条件13−1,13−2を満たす。従って、前判定部71は、エッジ領域L12を背景領域に変更する。   For example, the edge region L12 is determined as the document region in the procedure 1. The edge region L12 satisfies the above conditions 13-1 and 13-2. Accordingly, the front determination unit 71 changes the edge region L12 to the background region.

なお、図27の(C)に示した非エッジ領域L11,L13およびエッジ領域L12は、上記の手順1〜手順4により、最終的に背景領域と判定される。また、図27の(C)に示したエッジ領域L14および非エッジ領域L15は、上記の手順1〜手順4により、最終的に原稿領域と判定される。すなわち、図27の(A)に示した判定用画像データ81は、図11の(B)と同様に、原稿領域と背景領域とが判定される。   Note that the non-edge regions L11 and L13 and the edge region L12 illustrated in FIG. 27C are finally determined as background regions by the above-described procedure 1 to procedure 4. Further, the edge region L14 and the non-edge region L15 shown in FIG. 27C are finally determined as document regions by the above-described procedure 1 to procedure 4. That is, in the determination image data 81 shown in FIG. 27A, the document area and the background area are determined as in FIG. 11B.

このように、前判定部71は、手順1〜手順4に基づいて、判定用画像データの原稿領域および背景領域を判定する。これにより、画像処理装置1は、例えば、紙粉等による縦筋(ノイズ)が画像データに含まれても、画像データを原稿部分と背景部分とに適切に分けることができる。   As described above, the pre-determination unit 71 determines the document area and the background area of the determination-use image data based on the procedures 1 to 4. As a result, the image processing apparatus 1 can appropriately separate the image data into the document portion and the background portion even if the image data includes vertical stripes (noise) due to paper dust or the like.

以上、本発明について実施形態を用いて説明したが、画像処理装置1および情報処理装置60の機能構成は、その構成を理解しやすくするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。画像処理装置1および情報処理装置60の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   As mentioned above, although this invention was demonstrated using embodiment, the functional structure of the image processing apparatus 1 and the information processing apparatus 60 is classified according to the main processing content in order to make the structure easy to understand. . The present invention is not limited by the way of classification and names of the constituent elements. The configurations of the image processing device 1 and the information processing device 60 can be classified into more components according to the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.

また、本発明の技術的範囲は、上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更又は改良を加えることが可能であることが当業者には明らかである。例えば、各実施の形態を組み合わせてもよい。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。また、本発明は、画像処理装置1および情報処理装置60の機能を実現するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。   Further, the technical scope of the present invention is not limited to the scope described in the above embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made to the above-described embodiment. For example, the embodiments may be combined. Further, it is apparent from the scope of the claims that embodiments with such changes or improvements can also be included in the technical scope of the present invention. The present invention can also be provided as a program that realizes the functions of the image processing apparatus 1 and the information processing apparatus 60 and a storage medium that stores the program.

1…画像処理装置、2…本体、3…カバー、4…ADF部、4a…給紙口、4b…排紙口、5…入力装置、11…原稿、12…紙検知センサー、13…スキャン部、21…画像データ、21a…判定用画像データ、21b…続画像データ、22…領域、OS1,OS2…オーバースキャン、31,31a…制御部、32…通信部、33…入力部、34…記憶部、41,41a…エッジ抽出部、42,42a…領域検出部、43,43a…前判定部、44,44a…続判定部、45,45a…切り出し部、51…判定用画像データ、52…背景、53…影、54…原稿、60…情報処理装置、61…I/F部、62…記憶部、71…前判定部、81…判定用画像データ、82…縦筋、83…背景、84…影、85…原稿。   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 ... Main body, 3 ... Cover, 4 ... ADF part, 4a ... Paper feed port, 4b ... Paper discharge port, 5 ... Input device, 11 ... Document, 12 ... Paper detection sensor, 13 ... Scan part 21 ... Image data, 21a ... Image data for determination, 21b ... Continuous image data, 22 ... Area, OS1, OS2 ... Overscan, 31, 31a ... Control part, 32 ... Communication part, 33 ... Input part, 34 ... Memory , 41, 41a ... edge extraction unit, 42, 42a ... area detection unit, 43, 43a ... previous determination unit, 44, 44a ... continuation determination unit, 45, 45a ... cutout unit, 51 ... determination image data, 52 ... Background, 53 ... Shadow, 54 ... Document, 60 ... Information processing device, 61 ... I / F unit, 62 ... Storage unit, 71 ... Predetermining unit, 81 ... Image data for determination, 82 ... Vertical stripe, 83 ... Background, 84 ... Shadow, 85 ... Original.

Claims (10)

スキャン対象物を給送する給送部と、
給送される前記スキャン対象物をスキャンし、画像データを出力するスキャン部と、
前記画像データのエッジを抽出するエッジ抽出部と、
前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出する領域検出部と、
検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定する前判定部と、
前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定する続判定部と、
を有することを特徴とする画像処理装置。
A feeding unit for feeding the scan object;
A scanning unit that scans the scanned object to be fed and outputs image data;
An edge extraction unit for extracting an edge of the image data;
An area detection unit that detects an edge area and a non-edge area of image data for determination from the upper end of the image data to a predetermined line based on the edge;
A pre-determination unit that determines whether the detected edge region and the non-edge region are a scan target region or a background region;
Based on the determination result of the scan target area and the background area of the determination image data and the edge of the subsequent image data following the determination image data, the scan target area of the subsequent image data and the A continuation determination unit for determining a background area;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記前判定部は、前記エッジを含まない前記非エッジ領域を前記背景領域と仮判定し、
前記エッジを含む前記非エッジ領域と、前記エッジ領域とを前記スキャン対象物領域と仮判定する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The pre-determination unit provisionally determines the non-edge region that does not include the edge as the background region,
Tentatively determining the non-edge area including the edge and the edge area as the scan object area;
An image processing apparatus.
請求項2に記載の画像処理装置であって、
前記スキャン部は、前記スキャン対象物をオーバースキャンし、
前記前判定部は、仮判定した前記エッジ領域および前記非エッジ領域が、前記判定用画像データの上端に接しておらず、前記判定用画像データの下端に接し、かつ前記スキャン部の前記スキャン対象物が通過する座標を含む場合、仮判定した前記エッジ領域および前記非エッジ領域を前記スキャン対象物領域と判定する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The scan unit overscans the scan object,
In the pre-determination unit, the temporarily determined edge region and the non-edge region are not in contact with the upper end of the determination image data, but in contact with the lower end of the determination image data, and the scan target of the scan unit When the object includes coordinates that pass, the provisionally determined edge region and the non-edge region are determined as the scan target region,
An image processing apparatus.
請求項2に記載の画像処理装置であって、
前記前判定部は、仮判定した前記エッジ領域および前記非エッジ領域が、前記判定用画像データの下端に接し、かつ前記スキャン部の前記スキャン対象物が通過する座標を含む場合であって、
前記エッジ領域および前記非エッジ領域が、前記判定用画像データの上端に接しない場合、前記エッジ領域および前記非エッジ領域を、第1型スキャン対象物領域と判定し、
前記エッジ領域および前記非エッジ領域が、前記第1型スキャン対象物領域でなく、前記判定用画像データの左上端点と右上端点とに接しない場合、前記エッジ領域および前記非エッジ領域を、第2型スキャン対象物領域と判定し、
前記エッジ領域および前記非エッジ領域が、前記第1型スキャン対象物領域かつ前記第2型スキャン対象物領域でなく、前記判定用画像データの左上端点と右上端点とのいずれか一方にのみ接する場合、前記エッジ領域および前記非エッジ領域を、第3型スキャン対象物領域と判定し、
前記第1型スキャン対象物領域、前記第2型スキャン対象物領域、および前記第3型スキャン対象物領域の有無に基づいて、前記エッジ領域および前記非エッジ領域が前記スキャン対象物領域であるかまたは前記背景領域であるか判定する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The pre-determination unit includes the provisionally determined edge region and the non-edge region that are in contact with a lower end of the determination image data and include coordinates through which the scan target of the scan unit passes.
When the edge region and the non-edge region do not touch the upper end of the determination image data, the edge region and the non-edge region are determined as a first type scan object region,
When the edge region and the non-edge region are not the first type scan object region and do not touch the upper left end point and the upper right end point of the image data for determination, the edge region and the non-edge region are Mold scanning object area,
When the edge region and the non-edge region touch only one of the upper left end point and the upper right end point of the determination image data, not the first type scan target region and the second type scan target region , Determining the edge region and the non-edge region as a third type scan object region,
Whether the edge area and the non-edge area are the scan object areas based on the presence or absence of the first type scan object area, the second type scan object area, and the third type scan object area Or determine whether it is the background area,
An image processing apparatus.
請求項1〜4のいずれか一項に記載の画像処理装置であって、
前記続判定部は、前記判定用画像データの前記エッジ領域および前記非エッジ領域に続く前記続画像データの前記エッジ領域および前記非エッジ領域に対し、前記判定用画像データで判定された判定結果を適用する、
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The continuation determination unit determines a determination result determined by the determination image data for the edge region and the non-edge region of the continuation image data following the edge region and the non-edge region of the determination image data. Apply,
An image processing apparatus.
請求項1〜5のいずれか一項に記載の画像処理装置であって、
前記スキャン部が前記給送部から給送される前記スキャン対象物をスキャンするかまたは台の上に置かれた前記スキャン対象物をスキャンするかを判定するスキャン種別判定部、をさらに有し、
前記前判定部は、前記スキャン種別判定部の判定結果に応じて、前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定を行う、
ことを特徴とする画像処理装置。
An image processing apparatus according to any one of claims 1 to 5,
A scan type determination unit that determines whether the scan unit scans the scan object fed from the feeding unit or scans the scan object placed on a table;
The pre-determination unit determines the scan target region and the background region of the determination image data according to a determination result of the scan type determination unit.
An image processing apparatus.
請求項1〜6のいずれか一項に記載の画像処理装置であって、
前記エッジ抽出部は、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出し、前記輝度分散差に基づいて、前記画像データのエッジを抽出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The edge extraction unit calculates a luminance dispersion difference between a luminance dispersion of a first pixel of the image data and a luminance dispersion of a second pixel around the first pixel, and based on the luminance dispersion difference Extracting an edge of the image data;
An image processing apparatus.
画像処理装置がスキャン対象物を給送してスキャンした画像データを、前記画像処理装置から受信する受信部と、
前記画像データのエッジを抽出するエッジ抽出部と、
前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出する領域検出部と、
検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定する前判定部と、
前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定する続判定部と、
を有することを特徴とする情報処理装置。
A receiving unit that receives image data scanned by the image processing apparatus by feeding a scan object;
An edge extraction unit for extracting an edge of the image data;
An area detection unit that detects an edge area and a non-edge area of image data for determination from the upper end of the image data to a predetermined line based on the edge;
A pre-determination unit that determines whether the detected edge region and the non-edge region are a scan target region or a background region;
Based on the determination result of the scan target area and the background area of the determination image data and the edge of the subsequent image data following the determination image data, the scan target area of the subsequent image data and the A continuation determination unit for determining a background area;
An information processing apparatus comprising:
画像処理装置の画像処理方法であって、
スキャン対象物を給送するステップと、
給送される前記スキャン対象物をスキャンし、画像データを出力するステップと、
前記画像データのエッジを抽出するステップと、
前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出するステップと、
検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定するステップと、
前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定するステップと、
を含むことを特徴とする画像処理方法。
An image processing method of an image processing apparatus,
Feeding the scan object;
Scanning the object to be fed and outputting image data;
Extracting an edge of the image data;
Detecting an edge region and a non-edge region of image data for determination from the upper end of the image data to a predetermined line based on the edge;
Determining whether the detected edge region and the non-edge region are a scan target region or a background region;
Based on the determination result of the scan target area and the background area of the determination image data and the edge of the subsequent image data following the determination image data, the scan target area of the subsequent image data and the Determining a background region;
An image processing method comprising:
情報処理装置の画像処理方法であって、
画像処理装置がスキャン対象物を給送してスキャンした画像データを、前記画像処理装置から受信するステップと、
前記画像データのエッジを抽出するステップと、
前記エッジに基づいて、前記画像データの上端から所定ラインまでの判定用画像データのエッジ領域および非エッジ領域を検出するステップと、
検出された前記エッジ領域および前記非エッジ領域に対し、スキャン対象物領域であるかまたは背景領域であるか判定するステップと、
前記判定用画像データの前記スキャン対象物領域および前記背景領域の判定結果と、前記判定用画像データに続く続画像データの前記エッジとに基づいて、前記続画像データの前記スキャン対象物領域および前記背景領域を判定するステップと、
を含むことを特徴とする画像処理方法。
An image processing method for an information processing apparatus,
Receiving from the image processing apparatus image data scanned by the image processing apparatus feeding a scan object; and
Extracting an edge of the image data;
Detecting an edge region and a non-edge region of image data for determination from the upper end of the image data to a predetermined line based on the edge;
Determining whether the detected edge region and the non-edge region are a scan target region or a background region;
Based on the determination result of the scan target area and the background area of the determination image data and the edge of the subsequent image data following the determination image data, the scan target area of the subsequent image data and the Determining a background region;
An image processing method comprising:
JP2016058110A 2016-03-23 2016-03-23 Image processing device, information processing device, and image processing method Pending JP2017175328A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016058110A JP2017175328A (en) 2016-03-23 2016-03-23 Image processing device, information processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016058110A JP2017175328A (en) 2016-03-23 2016-03-23 Image processing device, information processing device, and image processing method

Publications (1)

Publication Number Publication Date
JP2017175328A true JP2017175328A (en) 2017-09-28

Family

ID=59973456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016058110A Pending JP2017175328A (en) 2016-03-23 2016-03-23 Image processing device, information processing device, and image processing method

Country Status (1)

Country Link
JP (1) JP2017175328A (en)

Similar Documents

Publication Publication Date Title
US5384864A (en) Method and apparatus for automatic determination of text line, word and character cell spatial features
US7269298B2 (en) Image processing device, image processing method, and record medium on which the same is recorded
JP3083918B2 (en) Image processing device
JP5766073B2 (en) Image processing apparatus, image processing method, image processing program, and image processing system
US20040170324A1 (en) Boundary detection method between areas having different features in image data
EP2437215A1 (en) Detection of a contour edge of an object in an image
GB2190778A (en) Character recognition with variable subdivision of a character region
JP2010218420A (en) Character recognition apparatus, image reading apparatus, and program
WO2009094446A1 (en) Method and apparatus for cropping images
JP6021665B2 (en) Image processing apparatus, image processing method, and computer program
CN114820594A (en) Method for detecting edge sealing defects of plate based on image, related equipment and storage medium
JP4393411B2 (en) Image processing apparatus, image processing program, and image processing method
CN110321887B (en) Document image processing method, document image processing apparatus, and storage medium
US20130027732A1 (en) Image processing device for accurately identifying region in image without increase in memory requirement
JPH0418351B2 (en)
JPH09311905A (en) Line detecting method and character recognition device
CN111008987A (en) Method and device for extracting edge image based on gray background and readable storage medium
JP2017175328A (en) Image processing device, information processing device, and image processing method
US10424051B2 (en) Image analyzing apparatus and non-transitory storage medium storing instructions executable by the image analyzing apparatus
JP5693418B2 (en) Image processing apparatus, image processing method, image processing program, and image processing system
JP6693184B2 (en) Image processing apparatus and image processing method
JP3443141B2 (en) Image tilt detection method and table processing method
JP7341758B2 (en) Image processing device, image processing method, and program
US9648206B2 (en) Image processing apparatus, image processing method and computer program
JP2017163407A (en) Image processing apparatus, information processing apparatus, and image processing method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180907

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181119