JP6693184B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6693184B2
JP6693184B2 JP2016047315A JP2016047315A JP6693184B2 JP 6693184 B2 JP6693184 B2 JP 6693184B2 JP 2016047315 A JP2016047315 A JP 2016047315A JP 2016047315 A JP2016047315 A JP 2016047315A JP 6693184 B2 JP6693184 B2 JP 6693184B2
Authority
JP
Japan
Prior art keywords
edge
area
unit
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016047315A
Other languages
Japanese (ja)
Other versions
JP2017163411A (en
Inventor
朋洋 中村
朋洋 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016047315A priority Critical patent/JP6693184B2/en
Publication of JP2017163411A publication Critical patent/JP2017163411A/en
Application granted granted Critical
Publication of JP6693184B2 publication Critical patent/JP6693184B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Input (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。
The present invention relates to an image processing apparatus, and an image processing method.

特許文献1には、「原稿が1枚である場合でも、原稿が複数枚である場合でも、原稿領域を適切に得ることができる画像処理装置、画像処理方法、およびプログラム」が開示されている。   Patent Document 1 discloses "an image processing apparatus, an image processing method, and a program capable of appropriately obtaining a document area regardless of whether there is one document or a plurality of documents." ..

特開2010−288188号公報JP, 2010-288188, A

原稿などのスキャン対象物には、例えば、罫線などの線が含まれている場合がある。このような線を含むスキャン対象物の画像データは、スキャンする台に置かれる位置によって、スキャン対象物の部分と、背景の部分(例えば、原稿を押さえるカバー)とに分けることが困難な場合がある。   A scan target such as a document may include lines such as ruled lines. It may be difficult to divide the image data of the scan target including such a line into a part of the scan target and a background part (for example, a cover for pressing the document) depending on the position placed on the scanning table. is there.

なお、特許文献1には、原稿の置き方による、画像データの原稿部分と背景部分との分離については記載がない。   It should be noted that Patent Document 1 does not describe separation of the original portion and the background portion of the image data depending on how the original is placed.

そこで本発明は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる技術を提供する。   Therefore, the present invention provides a technique capable of appropriately dividing image data into a scan target portion and a background portion.

上記の課題を解決するための本発明の第一の態様は、スキャン対象物をスキャンし、画像データを出力するスキャン部と、前記画像データのエッジを抽出するエッジ抽出部と、前記エッジに基づいて、前記画像データの非エッジ領域を検出する非エッジ領域検出部と、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定部と、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正部と、を有することを特徴とする画像処理部である。第一の態様によれば、画像処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   A first aspect of the present invention for solving the above-mentioned problems is to scan a scanning object, a scanning unit that outputs image data, an edge extraction unit that extracts an edge of the image data, and based on the edge. A non-edge area detection unit that detects a non-edge area of the image data, and the non-edge area is an image area of the scan target object or a background image area, based on a predetermined condition. An image processing unit comprising: a provisional determination unit that makes a provisional determination; and a correction unit that corrects the provisional determination of the non-edge region based on the provisionally determined arrangement of the non-edge region. According to the first aspect, the image processing apparatus can appropriately divide the image data into the scan target object portion and the background portion.

前記所定の条件は、次の2つの条件であり、第1の条件は、前記非エッジ領域が前記画像データの2辺以上のデータ端に接していること、第2の条件は、前記非エッジ領域に前記エッジが含まれていないこと、を特徴としてもよい。これにより、画像処理装置は、非エッジ領域がスキャン対象物の画像領域であるかまたは背景の画像領域であるか、適切に仮判定することができる。   The predetermined condition is the following two conditions, the first condition is that the non-edge region is in contact with two or more data edges of the image data, and the second condition is the non-edge. The region may not include the edge. Accordingly, the image processing apparatus can appropriately provisionally determine whether the non-edge area is the image area of the scan target object or the background image area.

前記仮判定部は、前記非エッジ領域が前記第1の条件および前記第2の条件のいずれか一方を満たさない場合、前記非エッジ領域を前記スキャン対象物の画像領域と仮判定し、前記非エッジ領域が前記第1の条件および前記第2の条件の両方を満たす場合、前記非エッジ領域を前記背景の画像領域と仮判定する、ことを特徴としてもよい。これにより、画像処理装置は、非エッジ領域がスキャン対象物の画像領域であるかまたは背景の画像領域であるか、適切に仮判定することができる。   When the non-edge region does not satisfy one of the first condition and the second condition, the provisional determination unit provisionally determines the non-edge region as an image region of the scan target, When the edge region satisfies both the first condition and the second condition, the non-edge region may be provisionally determined as the image region of the background. Accordingly, the image processing apparatus can appropriately provisionally determine whether the non-edge area is the image area of the scan target object or the background image area.

前記補正部は、前記背景の画像領域と仮判定された第1の非エッジ領域と第2の非エッジ領域とが隣接し、前記第1の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に隣接し、前記第2の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に接していない場合、前記第1の非エッジ領域を前記スキャン対象物の画像領域と補正する、ことを特徴としてもよい。これにより、画像処理装置は、仮判定を適切に補正することができる。   In the correction unit, the first non-edge area and the second non-edge area that are tentatively determined to be the image area of the background are adjacent to each other, and the first non-edge area is tentatively the image area of the scan target. If the second non-edge area is adjacent to the determined non-edge area and is not in contact with the non-edge area tentatively determined to be the image area of the scan target, the first non-edge area is It may be characterized in that it is corrected with the image area of the scan object. Thereby, the image processing apparatus can appropriately correct the temporary determination.

前記仮判定部によって仮判定される前記非エッジ領域の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、ことを特徴としてもよい。これにより、画像処理装置は、仮判定された様々な配置の非エッジ領域を補正することができる。   The correction unit further includes a storage unit that stores the non-edge region arrangement combination provisionally determined by the provisional determination unit and the corrected non-edge region arrangement combination in association with each other. The provisional determination of the non-edge region may be corrected with reference to a section. As a result, the image processing apparatus can correct the provisionally determined non-edge regions having various arrangements.

前記仮判定された前記非エッジ領域のレイアウトを、単純化したレイアウトに変換する変換部と、前記仮判定部によって仮判定される前記非エッジ領域のレイアウト変換後の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、ことを特徴としてもよい。これにより、画像処理装置は、記憶部の記憶容量を低減することができる。   A conversion unit that converts the provisionally determined layout of the non-edge region into a simplified layout, a layout combination after layout conversion of the non-edge region that is provisionally determined by the provisional determination unit, and the corrected layout. A storage unit that stores the arrangement combination of the non-edge regions in association with each other, wherein the correction unit corrects the provisional determination of the non-edge regions by referring to the storage unit. Good. As a result, the image processing device can reduce the storage capacity of the storage unit.

前記エッジ抽出部は、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出し、前記輝度分散差に基づいて、前記画像データのエッジを抽出する、ことを特徴としてもよい。これにより、画像処理装置は、エッジを適切に抽出することができる。   The edge extraction unit calculates a luminance dispersion difference between a luminance dispersion of a first pixel of the image data and a luminance dispersion of a second pixel around the first pixel, and based on the luminance dispersion difference, The edge of the image data may be extracted. Thereby, the image processing apparatus can appropriately extract the edge.

上記の課題を解決するための本発明の第二の態様は、画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信する受信部と、前記画像データのエッジを抽出するエッジ抽出部と、前記エッジに基づいて、前記画像データの非エッジ領域を検出する非エッジ領域検出部と、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定部と、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正部と、を有することを特徴とする情報処理装置である。第二の態様によれば、情報処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   A second aspect of the present invention for solving the above problem is to extract image data of a scan object scanned by an image processing apparatus from a receiving unit that receives the image data from the image processing apparatus, and to extract edges of the image data. An edge extraction unit, a non-edge region detection unit that detects a non-edge region of the image data based on the edge, and the non-edge region is an image region of the scan target object or a background image region. Or a provisional determination unit that makes a provisional determination based on a predetermined condition, and a correction unit that corrects the provisional determination of the non-edge region based on the provisionally determined arrangement of the non-edge region. Is an information processing device. According to the second aspect, the information processing apparatus can appropriately divide the image data into the scan target object portion and the background portion.

上記の課題を解決するための本発明の第三の態様は、画像処理装置の画像処理方法であって、スキャン対象物をスキャンして画像データを出力するステップと、前記画像データのエッジを抽出するステップと、前記エッジに基づいて、前記画像データの非エッジ領域を検出するステップと、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定するステップと、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正するステップと、を含むことを特徴とする画像処理方法である。第三の態様によれば、画像処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   A third aspect of the present invention for solving the above-mentioned problems is an image processing method of an image processing device, comprising a step of scanning a scan target object and outputting image data, and extracting an edge of the image data. And a step of detecting a non-edge region of the image data based on the edge, the non-edge region being an image region of the scan target object or a background image region, or a predetermined An image processing method comprising: a tentative determination based on a condition; and a step of correcting the tentative determination of the non-edge region based on the provisionally determined placement of the non-edge region. According to the third aspect, the image processing apparatus can appropriately divide the image data into the scan target portion and the background portion.

上記の課題を解決するための本発明の第四の態様は、情報処理装置の画像処理方法であって、画像処理装置がスキャンしたスキャン対象物の画像データを、前記画像処理装置から受信するステップと、前記画像データのエッジを抽出するステップと、前記エッジに基づいて、前記画像データの非エッジ領域を検出するステップと、前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定するステップと、仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正するステップと、を含むことを特徴とする画像処理方法である。第四の態様によれば、情報処理装置は、画像データをスキャン対象物部分と背景部分とに適切に分けることができる。   A fourth aspect of the present invention for solving the above-mentioned problems is an image processing method for an information processing apparatus, the step of receiving image data of a scan target scanned by the image processing apparatus from the image processing apparatus. A step of extracting an edge of the image data, a step of detecting a non-edge area of the image data based on the edge, and the non-edge area being an image area of the scan target or a background Of the image area, the step of temporarily determining based on a predetermined condition, and the step of correcting the temporary determination of the non-edge area based on the provisionally determined arrangement of the non-edge area. This is a characteristic image processing method. According to the fourth aspect, the information processing apparatus can appropriately divide the image data into the scan target object portion and the background portion.

第1の実施の形態に係る画像処理装置の概略斜視図である。It is a schematic perspective view of the image processing apparatus according to the first embodiment. 画像データを原稿部分と背景部分とに分ける方法を説明する図のその1である。It is the 1 of the figure explaining the method of dividing image data into a manuscript part and a background part. 画像データを原稿部分と背景部分とに分ける方法を説明する図のその2である。It is the 2 of the figure explaining the method of dividing image data into a manuscript part and a background part. 画像処理装置の機能ブロック構成例を示した図である。It is a figure showing an example of functional block composition of an image processing device. エッジ抽出部の輝度分散差の算出例を説明する図である。It is a figure explaining the example of calculation of the brightness | luminance dispersion difference of an edge extraction part. エッジの判定例を説明する図である。It is a figure explaining the example of determination of an edge. 非エッジ領域検出部の非エッジ領域の検出例を説明する図である。It is a figure explaining the example of detection of the non-edge area of a non-edge area detection part. 注目画素と参照画素とを説明する図である。It is a figure explaining a noticed pixel and a reference pixel. 非エッジ領域検出部の非エッジ領域検出動作例を説明する図である。It is a figure explaining the non-edge area detection operation example of a non-edge area detection part. 非エッジ領域内のエッジ領域の有無判定例を説明する図である。FIG. 8 is a diagram illustrating an example of determining the presence or absence of an edge area in a non-edge area. 画像データの補正後の原稿領域および背景領域を説明する図である。FIG. 6 is a diagram illustrating a document area and a background area after correction of image data. 非エッジ領域の隣接判定例を説明する図である。It is a figure explaining the adjacency determination example of a non-edge area. 原稿の切り出し例を説明する図のその1である。It is the 1st of the figure explaining the example which cuts out a manuscript. 原稿の切り出し例を説明する図のその2である。FIG. 7B is a second diagram illustrating an example of cutting out a document. 原稿の切り出し例を説明する図のその3である。FIG. 11 is a third diagram illustrating an example of cutting out a document. 画像処理装置の動作例を示したフローチャートである。6 is a flowchart showing an operation example of the image processing apparatus. 情報処理装置の機能ブロック構成例を示した図である。It is a figure showing an example of functional block composition of an information processor. 第2の実施の形態に係る画像処理装置の機能ブロック構成例を示した図である。It is the figure which showed the functional block structural example of the image processing apparatus which concerns on 2nd Embodiment. 非エッジ領域のレイアウト例を示した図である。FIG. 6 is a diagram showing a layout example of a non-edge region. 非エッジ領域がレイアウトのどの位置に配置されているかを判定するための判定条件を示した図である。It is a figure showing the judgment conditions for judging in which position of the layout the non-edge region is arranged. 記憶部のデータ構成例を示した図である。It is the figure which showed the data structural example of a memory | storage part. 画像処理装置の動作例を説明する図のその1である。It is the 1st of the figure explaining the example of operation of an image processing device. 画像処理装置の動作例を説明する図のその2である。It is the 2 of the figure explaining the example of operation of an image processing device. 画像処理装置の動作例を説明する図のその3である。It is the third of the diagram illustrating the operation example of the image processing apparatus. 第3の実施の形態に係る画像処理装置の機能ブロック構成例を示した図である。It is the figure which showed the functional block structural example of the image processing apparatus which concerns on 3rd Embodiment. レイアウト変換を説明する図である。It is a figure explaining layout conversion. レイアウトの変換条件を示した図である。FIG. 9 is a diagram showing layout conversion conditions. 記憶部のデータ構成例を示した図のその1である。It is the 1 of the figure which showed the data structural example of a memory | storage part. 記憶部のデータ構成例を示した図のその2である。It is the 2 of the figure which showed the data structural example of a memory | storage part. 画像処理装置の動作例を説明する図のその1である。It is the 1st of the figure explaining the example of operation of an image processing device. 画像処理装置の動作例を説明する図のその2である。It is the 2 of the figure explaining the example of operation of an image processing device. 画像処理装置の動作例を説明する図のその3である。It is the third of the diagram illustrating the operation example of the image processing apparatus. 画像処理装置の動作例を示したフローチャートである。6 is a flowchart showing an operation example of the image processing apparatus.

以下、本発明の実施の形態を、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[第1の実施の形態]
図1は、第1の実施の形態に係る画像処理装置1の概略斜視図である。図1に示す画像処理装置1は、例えば、スキャナーであり、台2と、カバー3と、入力装置4と、を有している。
[First Embodiment]
FIG. 1 is a schematic perspective view of an image processing device 1 according to the first embodiment. The image processing apparatus 1 illustrated in FIG. 1 is, for example, a scanner, and includes a base 2, a cover 3, and an input device 4.

台2の上部には、画像処理装置1によって画像データが読み込まれるスキャン対象物が置かれる。スキャン対象物は、例えば、原稿である。以下では、スキャン対象物を原稿として説明する。   On the upper part of the table 2, a scan target whose image data is read by the image processing apparatus 1 is placed. The scan target is, for example, a document. In the following, the scan target will be described as a document.

カバー3は、台2の上部に対し、開閉できるようになっている。カバー3は、台2の上部に対して閉じられることにより、台2の上部に置かれた原稿を押さえる。   The cover 3 can be opened and closed with respect to the upper portion of the base 2. The cover 3 is closed with respect to the upper part of the table 2 to hold the document placed on the upper part of the table 2.

入力装置4は、例えば、キー装置やタッチパネルである。入力装置4は、ユーザーから所定の操作を受付ける。   The input device 4 is, for example, a key device or a touch panel. The input device 4 receives a predetermined operation from the user.

画像処理装置1は、台2の上部に原稿が置かれて、カバー3が閉じられ、入力装置4がユーザーから所定の操作を受付けると、台2の上部に置かれた原稿の画像データを読み込む。   In the image processing apparatus 1, when a document is placed on the table 2 and the cover 3 is closed and the input device 4 receives a predetermined operation from the user, the image data of the document placed on the table 2 is read. ..

画像処理装置1は、画像データを読み込むと、読み込んだ画像データのエッジを抽出する(例えば、図7の(A)参照)。以下で詳述するが、画像処理装置1は、抽出したエッジに基づいて、読み込んだ画像データの非エッジ領域を検出し(例えば、図7の(B)のL1〜L3参照)、検出した非エッジ領域が、原稿部分であるか、または背景部分(例えば、原稿とともにスキャンされたカバー3の下側の面の部分)であるか、所定の条件に基づいて仮判定する。   When the image processing device 1 reads the image data, the image processing device 1 extracts the edge of the read image data (see, for example, (A) in FIG. 7). As described in detail below, the image processing apparatus 1 detects a non-edge region of the read image data based on the extracted edge (see, for example, L1 to L3 in FIG. 7B), and detects the detected non-edge region. It is tentatively determined based on a predetermined condition whether the edge area is a document portion or a background portion (for example, a portion of the lower surface of the cover 3 scanned with the document).

そして、画像処置装置1は、仮判定した非エッジ領域の配置に基づいて、非エッジ領域の仮判定を補正する。例えば、画像処理装置1は、「原稿−背景−背景」や「背景−原稿−背景」といった、仮判定された非エッジ領域L1〜L3(図7の(B)参照)の並び方に基づいて、背景部分と仮判定した非エッジ領域を、原稿部分と補正したり、原稿部分と仮判定した非エッジ領域を背景部分と補正したりする。   Then, the image processing apparatus 1 corrects the provisional determination of the non-edge region based on the provisionally determined arrangement of the non-edge region. For example, the image processing apparatus 1 determines, based on the arrangement of the provisionally determined non-edge regions L1 to L3 (see (B) of FIG. 7) such as “original-background-background” or “background-original-background”. The non-edge area tentatively determined to be the background portion is corrected as the original portion, and the non-edge area tentatively determined to be the original portion is corrected as the background portion.

画像処理装置1は、領域補正した原稿部分および背景部分に基づいて、読み込んだ画像データから、原稿部分を切り出す。   The image processing apparatus 1 cuts out the original portion from the read image data based on the area-corrected original portion and background portion.

画像処理装置1は、切り出した原稿部分の画像データを、例えば、画像処理装置1と接続されたパーソナルコンピュータやタブレット端末等の情報処理装置(図示せず)に送信する。または、画像処理装置1は、切り出した原稿部分の画像データを、例えば、USB(Universal Serial Bus)メモリー等の外部メモリー(図示せず)に記憶する。これにより、ユーザーは、原稿部分のみの画像データを取得することができる。   The image processing apparatus 1 transmits the image data of the cut out document portion to an information processing apparatus (not shown) such as a personal computer or a tablet terminal connected to the image processing apparatus 1, for example. Alternatively, the image processing apparatus 1 stores the cut-out image data of the original portion in an external memory (not shown) such as a USB (Universal Serial Bus) memory. As a result, the user can acquire the image data of only the document portion.

ここで、画像処理装置1とは別の方法による原稿部分と背景部分との分離について説明する。別の方法により原稿部分と背景部分とを分離する画像処理装置は、画像データの端に接している非エッジ領域を背景部分と判定して、画像データを原稿部分と背景部分とに分ける。別の方法による画像処理装置は、画像処理装置1と同様に、台と、カバーと、入力装置とを有しているとする。   Here, the separation of the original portion and the background portion by a method different from that of the image processing apparatus 1 will be described. An image processing apparatus that separates a document portion and a background portion by another method determines a non-edge region that is in contact with an edge of image data as a background portion, and divides the image data into a document portion and a background portion. An image processing apparatus according to another method has a base, a cover, and an input device, like the image processing apparatus 1.

図2は、画像データを原稿部分と背景部分とに分ける方法を説明する図のその1である。図2の(A)には、画像処理装置がスキャンした原稿の画像データの例が示してある。図2の(A)に示すスキャン範囲11は、例えば、画像処理装置の台の、光が出射されるガラス面の端に対応する。すなわち、スキャン範囲11は、画像データの端である。   FIG. 2 is a first diagram illustrating a method of dividing image data into a document portion and a background portion. FIG. 2A shows an example of image data of a document scanned by the image processing apparatus. The scan range 11 shown in FIG. 2A corresponds to, for example, the edge of the glass surface of the table of the image processing apparatus from which light is emitted. That is, the scan range 11 is the edge of the image data.

背景12は、原稿とともにスキャンされたカバーに対応している。原稿13は、台の上部に置かれ、スキャンされた原稿に対応している。罫線14は、原稿13に描かれている罫線に対応している。文字15は、原稿13に描かれている文字に対応している。   The background 12 corresponds to the cover scanned with the original. The document 13 is placed on the top of the table and corresponds to the scanned document. The ruled lines 14 correspond to the ruled lines drawn on the original 13. The character 15 corresponds to the character drawn on the original 13.

図2の(B)には、図2の(A)の画像データをエッジ処理したエッジデータの例が示してある。図2の(B)の白い部分がエッジ領域であり、黒い部分が非エッジ領域(エッジでない領域)である。図2の(B)の白線に示すように、背景12と原稿13との境界と、罫線14と、文字15とがエッジとして現れる。   FIG. 2B shows an example of edge data obtained by edge-processing the image data of FIG. The white portion in FIG. 2B is an edge area, and the black portion is a non-edge area (non-edge area). As shown by the white line in FIG. 2B, the boundary between the background 12 and the document 13, the ruled line 14, and the character 15 appear as edges.

画像処理装置は、画像データの端に接している非エッジ領域を背景と判定する。例えば、画像処理装置は、図2の(B)に示す大きい白線の四角形外の非エッジ領域を背景と判定する。そして、画像処理装置は、それ以外の領域(図2の(B)に示す大きい白線の四角形内)を原稿と判定する。   The image processing apparatus determines that a non-edge region in contact with an edge of image data is a background. For example, the image processing apparatus determines a non-edge region outside the large white line rectangle shown in FIG. 2B as the background. Then, the image processing apparatus determines the other area (inside the large white square shown in FIG. 2B) as the original.

これにより、画像処理装置は、画像データを、図2の(C)に示すように、背景12の部分(黒く塗りつぶした部分)と、原稿13の部分(白く塗りつぶした部分)とに分けることができる。   As a result, the image processing apparatus can divide the image data into a portion of the background 12 (a portion painted black) and a portion of the document 13 (a portion painted white), as shown in FIG. 2C. it can.

図3は、画像データを原稿部分と背景部分とに分ける方法を説明する図のその2である。図3には、スキャン範囲21と、背景22と、原稿23と、罫線24と、文字25とが示してある。   FIG. 3 is a second diagram for explaining a method of dividing the image data into a document portion and a background portion. In FIG. 3, a scan range 21, a background 22, a document 23, ruled lines 24, and characters 25 are shown.

図3の(A)には、原稿23がスキャン範囲21に接してまたは超えて、台に置かれ、スキャンされた場合の画像データの例が示してある。図3の(B)には、図3の(A)の画像データをエッジ処理したエッジデータの例が示してある。   FIG. 3A shows an example of image data when the document 23 is placed on a table in contact with or beyond the scan range 21 and scanned. FIG. 3B shows an example of edge data obtained by edge-processing the image data of FIG.

画像処理装置は、図2の説明と同様に、画像データの端に接している非エッジ領域を背景と判定する。しかし、図3の(B)に示すように、3つの非エッジ領域26a〜26cは、全て画像データの端に接している。このため、画像処理装置は、原稿23も背景22と判定してしまい、画像データを背景22と原稿23とに適切に区分することは困難である。また、「A」という文字のエッジを含む非エッジ領域26aを原稿と判定しても、非エッジ領域26bは、エッジを含まないため、原稿と判定されない。   The image processing apparatus determines the non-edge region in contact with the edge of the image data as the background, as in the description of FIG. However, as shown in FIG. 3B, the three non-edge regions 26a to 26c are all in contact with the edges of the image data. Therefore, the image processing apparatus determines that the original 23 is also the background 22, and it is difficult to properly divide the image data into the background 22 and the original 23. Further, even if the non-edge area 26a including the edge of the character "A" is determined to be the original, the non-edge area 26b does not include the edge and is not determined to be the original.

すなわち、画像処理装置は、図2に示したように、原稿13がスキャン範囲11内に収まるように、台に置かれれば、適切に原稿部分と背景部分とを分けることができるが、図3に示したように、原稿23がスキャン範囲21に接してまたは超えて、台に置かれ、スキャンされた場合、原稿部分と背景部分とを適切に分けることができない。   That is, as shown in FIG. 2, the image processing apparatus can properly separate the original portion and the background portion if the original 13 is placed on the table so that the original 13 fits within the scan range 11. As shown in FIG. 3, when the document 23 is placed on the table in contact with or beyond the scan range 21 and scanned, the document part and the background part cannot be properly separated.

そこで、図1の画像処理装置1は、原稿23がスキャン範囲21に接してまたは超えて、台2に置かれても、適切に画像データの原稿部分と背景部分とを分ける。   Therefore, the image processing apparatus 1 of FIG. 1 appropriately separates the original portion and the background portion of the image data even when the original 23 is placed on the table 2 in contact with or beyond the scan range 21.

図4は、画像処理装置1の機能ブロック構成例を示した図である。図4に示すように、画像処理装置1は、スキャン部31と、制御部32と、通信部33と、入力部34と、記憶部35とを有している。   FIG. 4 is a diagram showing a functional block configuration example of the image processing apparatus 1. As shown in FIG. 4, the image processing device 1 includes a scan unit 31, a control unit 32, a communication unit 33, an input unit 34, and a storage unit 35.

スキャン部31は、例えば、イメージセンサー(図示せず)を備え、台2に置かれた原稿を光学的にスキャンし、原稿の画像データを出力する。スキャン部31は、例えば、カラー(RGB)の画像データを出力する。スキャン部31から出力された画像データは、記憶部35に記憶される。   The scanning unit 31 includes, for example, an image sensor (not shown), optically scans a document placed on the table 2, and outputs image data of the document. The scanning unit 31 outputs, for example, color (RGB) image data. The image data output from the scanning unit 31 is stored in the storage unit 35.

制御部32は、画像処理装置1の動作を統合的に制御する。制御部32は、以下で詳述するが、スキャン部31によってスキャンされた原稿の画像データ(記憶部35に記憶された画像データ)を、背景部分と原稿部分とに分け、原稿部分を切り出す。   The control unit 32 integrally controls the operation of the image processing device 1. As will be described in detail below, the control unit 32 divides the image data of the document scanned by the scanning unit 31 (image data stored in the storage unit 35) into a background portion and a document portion, and cuts out the document portion.

通信部33は、パーソナルコンピュータやタブレット端末等の情報処理装置と通信を行う。通信部33は、例えば、有線または無線によって、情報処理装置と通信を行う。   The communication unit 33 communicates with an information processing device such as a personal computer or a tablet terminal. The communication unit 33 communicates with the information processing device, for example, by wire or wirelessly.

入力部34は、入力装置4から、ユーザーからの操作データを受信する。   The input unit 34 receives operation data from the user from the input device 4.

記憶部35には、制御部32が計算処理や制御処理を行うためのプログラムやデータ等を記憶している。また、記憶部35は、制御部32が所定のアプリケーション機能を実現するためのプログラムやデータ等を記憶している。各種のプログラムやデータ等は、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、制御部32が通信ネットワークを介してサーバーから受信して記憶部35に記憶させてもよい。記憶部35は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種IC(Integrated Circuit)メモリーやハードディスク、メモリーカードなどの記録媒体等により構成される。   The storage unit 35 stores programs and data for the control unit 32 to perform calculation processing and control processing. The storage unit 35 also stores a program, data, and the like for the control unit 32 to realize a predetermined application function. Various programs, data, and the like may be stored in advance in a non-volatile recording medium, or the control unit 32 may receive them from the server via the communication network and store them in the storage unit 35. The storage unit 35 includes, for example, various IC (Integrated Circuit) memories such as ROM (Read Only Memory), flash ROM, and RAM (Random Access Memory), hard disks, and recording media such as memory cards.

制御部32は、エッジ抽出部41と、非エッジ領域検出部42と、仮判定部43と、補正部44と、切り出し部45とを有している。制御部32の各部は、例えば、記憶部35に記憶されたプログラムを実行するCPU(Central Processing Unit)によって、その機能が実現される。なお、制御部32の各部は、ASIC(Application Specific Integrated Circuit)などのカスタムIC(Integrated Circuit)によって、その機能を実現してもよいし、CPUとASICとによって、その機能を実現してもよい。   The control unit 32 includes an edge extraction unit 41, a non-edge region detection unit 42, a temporary determination unit 43, a correction unit 44, and a cutout unit 45. The functions of the respective units of the control unit 32 are realized by, for example, a CPU (Central Processing Unit) that executes a program stored in the storage unit 35. Each unit of the control unit 32 may realize its function by a custom IC (Integrated Circuit) such as an ASIC (Application Specific Integrated Circuit), or may realize its function by a CPU and an ASIC. ..

エッジ抽出部41は、スキャン部31によってスキャンされた原稿の画像データのエッジを抽出する。例えば、スキャン部31は、図3の(A)に示すような画像データを出力したとする。この場合、エッジ抽出部41は、図3の(B)に示すようなエッジデータを出力する。   The edge extraction unit 41 extracts the edge of the image data of the document scanned by the scanning unit 31. For example, it is assumed that the scanning unit 31 outputs image data as shown in FIG. In this case, the edge extraction unit 41 outputs edge data as shown in FIG.

エッジ抽出部41のエッジ抽出動作について具体的に説明する。エッジ抽出部41は、スキャン部31によってスキャンされた原稿のRGBの画像データを、輝度の画像データに変換する。エッジ抽出部41は、次の式(1)によって、RGBの画像データを輝度の画像データに変換する。   The edge extracting operation of the edge extracting unit 41 will be specifically described. The edge extraction unit 41 converts the RGB image data of the document scanned by the scanning unit 31 into luminance image data. The edge extraction unit 41 converts the RGB image data into luminance image data by the following equation (1).

Figure 0006693184
Figure 0006693184

次に、エッジ抽出部41は、式(1)によって算出した輝度の画像データを用いて、注目画素と、その周囲の画素との輝度平均を算出する。そして、エッジ抽出部41は、算出した輝度平均を用いて、注目画素の輝度分散を算出し、注目画素と周囲の画素との輝度分散差を算出する。   Next, the edge extraction unit 41 uses the image data of the brightness calculated by the equation (1) to calculate the brightness average of the pixel of interest and the surrounding pixels. Then, the edge extraction unit 41 calculates the luminance dispersion of the target pixel using the calculated luminance average, and calculates the luminance dispersion difference between the target pixel and surrounding pixels.

図5は、エッジ抽出部41の輝度分散差の算出例を説明する図である。図5に示すマス目は、画素を示している。「P0」は、注目画素を示している。「P1〜P8」は、注目画素の周囲の画素(注目画素に隣接している画素)を示している。以下では、注目画素の周囲の画素を、「周囲画素」と呼ぶことがある。   FIG. 5 is a diagram illustrating an example of calculation of the luminance dispersion difference of the edge extraction unit 41. The squares shown in FIG. 5 indicate pixels. “P0” indicates the target pixel. “P1 to P8” indicate pixels around the target pixel (pixels adjacent to the target pixel). Hereinafter, the pixels around the pixel of interest may be referred to as “surrounding pixels”.

エッジ抽出部41は、注目画素P0と、周囲画素P1〜P8との輝度平均を算出する。具体的には、エッジ抽出部41は、次の式(2)によって、注目画素P0と、周囲画素P1〜P8との輝度平均「Y」を算出する。 The edge extraction unit 41 calculates the average luminance of the target pixel P0 and the surrounding pixels P1 to P8. Specifically, the edge extraction unit 41 calculates the luminance average “Y u ” of the target pixel P0 and the surrounding pixels P1 to P8 by the following equation (2).

Figure 0006693184
Figure 0006693184

ここで、式(2)の「x,y」は、画素の座標を示している。「Y(x,y)」は、座標「x,y」における画素の輝度(式(1)によって算出された輝度)を示している。すなわち、エッジ抽出部41は、図5に示している太枠内の画素の輝度平均「Y」を算出する。 Here, “x j , y i ” in the equation (2) indicates the coordinates of the pixel. “Y (x j , y i )” indicates the brightness of the pixel at the coordinates “x j , y i ” (the brightness calculated by equation (1)). That is, the edge extraction unit 41 calculates the average luminance “Y u ” of the pixels in the thick frame shown in FIG.

エッジ抽出部41は、式(2)によって輝度平均を算出すると、算出した輝度平均を用いて、注目画素P0の輝度分散を算出する。具体的には、エッジ抽出部41は、次の式(3)によって、注目画素P0の輝度分散「Y」を算出する。 The edge extraction unit 41, after calculating the brightness average by the equation (2), calculates the brightness dispersion of the pixel of interest P0 using the calculated brightness average. Specifically, the edge extraction unit 41 calculates the luminance variance “Y s ” of the pixel of interest P0 by the following equation (3).

Figure 0006693184
Figure 0006693184

エッジ抽出部41は、画像データの全ての画素に対し、輝度分散「Y」を算出する。例えば、エッジ抽出部41は、注目画素P0をラスタースキャンのように移動し、画像データの全ての画素の輝度分散「Y」を算出する。 The edge extraction unit 41 calculates the luminance variance “Y s ” for all the pixels of the image data. For example, the edge extraction unit 41 moves the target pixel P0 like a raster scan, and calculates the luminance variance “Y s ” of all the pixels of the image data.

エッジ抽出部41は、全画素の輝度分散を算出すると、注目画素の輝度分散と、周囲画素の輝度分散との輝度分散差を算出する。例えば、エッジ抽出部41は、図5に示す注目画素P0の輝度分散と、周囲画素P1〜P8のそれぞれの輝度分散との差(輝度分散差)を算出する。より具体的には、エッジ抽出部41は、周囲画素P1と、注目画素P0との輝度分散差を算出し、周囲画素P2と、注目画素P0との輝度分散差を算出し、以下同様にして、周囲画素P8と、注目画素P0との輝度分散差を算出する。   After calculating the luminance dispersion of all pixels, the edge extraction unit 41 calculates the luminance dispersion difference between the luminance dispersion of the target pixel and the luminance dispersion of the surrounding pixels. For example, the edge extraction unit 41 calculates the difference (luminance dispersion difference) between the luminance dispersion of the pixel of interest P0 shown in FIG. 5 and the luminance dispersion of each of the surrounding pixels P1 to P8. More specifically, the edge extraction unit 41 calculates the brightness dispersion difference between the peripheral pixel P1 and the target pixel P0, calculates the brightness dispersion difference between the peripheral pixel P2 and the target pixel P0, and so on. , The luminance dispersion difference between the surrounding pixel P8 and the target pixel P0 is calculated.

エッジ抽出部41は、注目画素と周囲画素との輝度分散差を算出すると、算出した輝度分散差に基づいて、画像データのエッジを判定する。例えば、エッジ抽出部41は、注目画素P0と、周囲画素P1〜P8との輝度分散差の絶対値が、少なくとも1つ以上、所定の閾値(以下では、「輝度分散差閾値」と呼ぶことがある)を超えている場合、注目画素P0をエッジ画素と判定する。   After calculating the brightness dispersion difference between the target pixel and the surrounding pixels, the edge extraction unit 41 determines the edge of the image data based on the calculated brightness dispersion difference. For example, the edge extraction unit 41 has at least one absolute value of the luminance dispersion difference between the pixel of interest P0 and the surrounding pixels P1 to P8 and a predetermined threshold value (hereinafter, referred to as “luminance dispersion difference threshold value”). If it exceeds the certain value, the target pixel P0 is determined to be an edge pixel.

エッジ抽出部41は、画像データの全ての画素に対し、輝度分散差を算出する。例えば、エッジ抽出部41は、注目画素P0をラスタースキャンのように移動し、画像データの全ての画素に対して輝度分散差を算出する。そして、エッジ抽出部41は、画像データの全ての画素についてエッジを判定する。   The edge extraction unit 41 calculates the luminance dispersion difference for all the pixels of the image data. For example, the edge extraction unit 41 moves the target pixel P0 like a raster scan, and calculates the luminance dispersion difference for all the pixels of the image data. Then, the edge extraction unit 41 determines edges for all pixels of the image data.

図6は、エッジの判定例を説明する図である。図6には、スキャン部31によってスキャンされた原稿の画像データが示してある。図6において、図3と同じものには同じ符号が付してある。図6に示す輝度分散差D0〜D3のそれぞれは、矢印A0〜A3のそれぞれの矢先が示す画素の輝度分散差(絶対値)を示している。   FIG. 6 is a diagram illustrating an example of edge determination. FIG. 6 shows image data of a document scanned by the scanning unit 31. 6, the same parts as those in FIG. 3 are designated by the same reference numerals. Each of the luminance dispersion differences D0 to D3 shown in FIG. 6 indicates the luminance dispersion difference (absolute value) of the pixel indicated by the arrow head of each of the arrows A0 to A3.

図6に示すように、矢印A1に示す画素の輝度分散差D1は、輝度分散差閾値を超え、矢印A1に示す画素は、エッジと判定される。また、矢印A3に示す画素の輝度分散差D3は、輝度分散差閾値を超え、矢印A3に示す画素は、エッジと判定される。なお、図6には示していないが、文字25の輝度分散差は、輝度分散差閾値を超え、エッジと判定される。これにより、図6に示す画像データのエッジは、例えば、以下の図7の(A)に示すようになる。   As shown in FIG. 6, the luminance dispersion difference D1 of the pixel indicated by the arrow A1 exceeds the luminance dispersion difference threshold, and the pixel indicated by the arrow A1 is determined to be an edge. The luminance dispersion difference D3 of the pixel indicated by the arrow A3 exceeds the luminance dispersion difference threshold, and the pixel indicated by the arrow A3 is determined to be an edge. Although not shown in FIG. 6, the luminance dispersion difference of the character 25 exceeds the luminance dispersion difference threshold and is determined as an edge. As a result, the edge of the image data shown in FIG. 6 becomes as shown in (A) of FIG. 7 below, for example.

図4の説明に戻る。非エッジ領域検出部42は、エッジ抽出部41によって抽出された画像データのエッジ(エッジデータ)に基づいて、画像データの非エッジ領域を検出する。例えば、非エッジ領域検出部42は、エッジと画像データの端とで閉じられた領域やエッジで閉じられた領域を非エッジ領域として検出する。   Returning to the explanation of FIG. The non-edge area detection unit 42 detects the non-edge area of the image data based on the edge (edge data) of the image data extracted by the edge extraction unit 41. For example, the non-edge area detection unit 42 detects an area closed by an edge and an edge of image data or an area closed by an edge as a non-edge area.

図7は、非エッジ領域検出部42の非エッジ領域の検出例を説明する図である。図7の(A)には、図6に示した画像データのエッジデータが示してある。非エッジ領域検出部42は、図7の(A)に示すエッジデータに基づいて、図6に示した画像データの非エッジ領域L1〜L3(図7の(B))を検出する。   FIG. 7 is a diagram illustrating an example of detection of a non-edge area by the non-edge area detection unit 42. In FIG. 7A, the edge data of the image data shown in FIG. 6 is shown. The non-edge area detection unit 42 detects the non-edge areas L1 to L3 ((B) in FIG. 7) of the image data shown in FIG. 6 based on the edge data shown in (A) in FIG.

非エッジ領域検出部42の動作例について具体的に説明する。まず、注目画素と参照画素の定義について説明する。   An operation example of the non-edge area detection unit 42 will be specifically described. First, the definition of the pixel of interest and the reference pixel will be described.

図8は、注目画素と参照画素とを説明する図である。図8に示す「注」は注目画素を示し、「参」は参照画素を示している。注目画素がエッジ画素の場合、参照画素は、図8の(A)に示すように、注目画素の左隣りの画素、左斜め上の画素、上の画素、および右斜め上の画素となる。注目画素が非エッジ画素の場合、参照画素は、図8の(B)に示すように、注目画素の左隣りの画素および上の画素となる。   FIG. 8 is a diagram illustrating a target pixel and a reference pixel. “Note” shown in FIG. 8 indicates a target pixel, and “reference” indicates a reference pixel. When the target pixel is an edge pixel, the reference pixels are a pixel adjacent to the left of the target pixel, a pixel on the upper left, a pixel on the upper, and a pixel on the upper right, as shown in FIG. 8A. When the pixel of interest is a non-edge pixel, the reference pixels are the pixel to the left of and adjacent to the pixel of interest, as shown in FIG. 8B.

非エッジ領域検出部42は、注目画素に対し、ラベル値を割り当てていく。非エッジ領域検出部42は、注目画素と同じエッジ値(エッジであるか非エッジであるかを示す値)の参照画素が存在しない場合、注目画素に最後に割り当てたラベル値に「1」を加算したラベル値を割り当てる(最初に割り当てるラベル値は「1」とする)。ただし、非エッジ領域検出部42は、注目画素と同じエッジ値の参照画素が存在する場合、その参照画素の最も小さいラベル値を、注目画素に割り当てる。また、非エッジ領域検出部42は、参照画素の最も小さいラベル値を、注目画素に割り当てた場合、注目画素と同じエッジ値の参照画素のラベル値を、その最も小さいラベル値に補正する。   The non-edge area detection unit 42 allocates label values to the target pixel. When there is no reference pixel having the same edge value as the target pixel (a value indicating whether it is an edge or a non-edge), the non-edge region detection unit 42 sets “1” to the label value assigned last to the target pixel. The added label value is assigned (the label value assigned first is "1"). However, when the reference pixel having the same edge value as the target pixel exists, the non-edge region detection unit 42 assigns the smallest label value of the reference pixel to the target pixel. In addition, when the smallest label value of the reference pixel is assigned to the target pixel, the non-edge region detection unit 42 corrects the label value of the reference pixel having the same edge value as the target pixel to the smallest label value.

図9は、非エッジ領域検出部42の非エッジ領域検出動作例を説明する図である。図9に示すマス目は、画像データの画素に対応している。ハッチングされたマス目は、非エッジ画素に対応し、ハッチングされていないマス目は、エッジ画素に対応している。また、図9に示す下線が付されたラベル値の画素は、注目画素を示している。   FIG. 9 is a diagram illustrating an example of the non-edge area detection operation of the non-edge area detection unit 42. The cells shown in FIG. 9 correspond to the pixels of the image data. The hatched cells correspond to non-edge pixels, and the unhatched cells correspond to edge pixels. The underlined label value pixel shown in FIG. 9 indicates the pixel of interest.

非エッジ領域検出部42は、図9の(A)に示すように、左上の画素から右の画素へと順に、ラベル値を割り当てる。非エッジ領域検出部42は、注目画素と同じエッジ値の参照画素が存在しない場合、注目画素に最後に割り当てたラベル値に「1」を加算したラベル値を割り当てる。また、非エッジ領域検出部42は、注目画素と同じエッジ値の参照画素が存在する場合、その参照画素の最も小さいラベル値を、注目画素に割り当てる。   As shown in FIG. 9A, the non-edge area detection unit 42 sequentially assigns label values from the upper left pixel to the right pixel. When the reference pixel having the same edge value as the target pixel does not exist, the non-edge region detection unit 42 assigns the label value obtained by adding “1” to the label value assigned last to the target pixel. In addition, when there is a reference pixel having the same edge value as the target pixel, the non-edge area detection unit 42 assigns the smallest label value of the reference pixel to the target pixel.

例えば、図9の(A)の左上端の画素の下の画素を注目画素とする。この注目画素は、非エッジの画素である。この場合、参照画素は、図8の(B)の参照画素の定義に基づき、左上端の画素のみとなる。左上端の画素は、注目画素と同じエッジ値の非エッジの画素であり、ラベル値は、「1」であるので、注目画素のラベル値は「1」となる。   For example, the pixel below the pixel at the upper left corner of FIG. This pixel of interest is a non-edge pixel. In this case, the reference pixel is only the upper left pixel based on the definition of the reference pixel in FIG. The pixel at the upper left corner is a non-edge pixel having the same edge value as the pixel of interest, and the label value is "1", so the label value of the pixel of interest is "1".

図9の(A)に示すラベル値「7」の右隣に、注目画素が移動したとする。この注目画素は、エッジ画素であるので、図8の(A)の参照画素の定義に基づき、ラベル値は、図9の(B)に示すように「2」となる。また、ラベル値「2」の注目画素の左隣りの参照画素は、注目画素と同じエッジ画素であり、非エッジ領域検出部42は、その参照画素の補正ラベル値「7」を、図9の(B)に示すように、補正ラベル値「2」に変更する。   It is assumed that the pixel of interest has moved to the right of the label value “7” shown in FIG. Since this target pixel is an edge pixel, the label value is “2” as shown in FIG. 9B, based on the definition of the reference pixel in FIG. Further, the reference pixel to the left of the pixel of interest having the label value “2” is the same edge pixel as the pixel of interest, and the non-edge region detection unit 42 sets the corrected label value “7” of the reference pixel to that of FIG. As shown in (B), the correction label value is changed to "2".

非エッジ領域検出部42が、上記の動作を繰り返すと、画素には、図9の(C)に示すようなラベル値が割り当てられる。非エッジ領域検出部42は、全ての画素にラベル値を割り当てると、ラベル値を補正ラベル値に補正する。例えば、非エッジ領域検出部42は、ラベル値「7」を補正ラベル値「2」に補正する。これにより、画素に割り当てられたラベル値は、図9の(D)に示すようになる。   When the non-edge area detection unit 42 repeats the above operation, the label value shown in FIG. 9C is assigned to the pixel. When the label value is assigned to all the pixels, the non-edge area detection unit 42 corrects the label value to the corrected label value. For example, the non-edge area detection unit 42 corrects the label value “7” to the corrected label value “2”. As a result, the label value assigned to the pixel becomes as shown in FIG.

このように、非エッジ領域検出部42は、画像データのエッジ領域と非エッジ領域とにラベル値を割り当てる。これにより、非エッジ領域検出部42は、ラベル値により、画像データの非エッジ領域を区別して検出できる。例えば、非エッジ領域検出部42は、ラベル値「1」が割り当てられた非エッジ領域と、ラベル値「3」が割り当てられた非エッジ領域と、ラベル値「5」が割り当てられた非エッジ領域とを検出することができる。   In this way, the non-edge area detection unit 42 assigns the label value to the edge area and the non-edge area of the image data. As a result, the non-edge area detection unit 42 can detect the non-edge area of the image data by distinguishing the label value. For example, the non-edge area detection unit 42 may assign the non-edge area to which the label value “1” is assigned, the non-edge area to which the label value “3” is assigned, and the non-edge area to which the label value “5” is assigned. And can be detected.

なお、非エッジ領域検出部42の非エッジ領域の検出動作は、上記の動作例に限られない。画像データの非エッジ領域の検出には、一般的な画像データ処理技術を用いることができる。   The non-edge area detection operation of the non-edge area detection unit 42 is not limited to the above operation example. A general image data processing technique can be used to detect the non-edge region of the image data.

図4の説明に戻る。仮判定部43は、非エッジ領域検出部42によって検出された非エッジ領域が、以下に示す2つの条件を両方満たす場合、その非エッジ領域を背景部分(背景領域)と仮判定する。一方、仮判定部43は、非エッジ領域検出部42によって検出された非エッジ領域が、以下に示す2つの条件の少なくとも一方を満たさない場合、その非エッジ領域を原稿部分(原稿領域)と仮判定する。   Returning to the explanation of FIG. When the non-edge region detected by the non-edge region detection unit 42 satisfies both of the following two conditions, the tentative determination unit 43 tentatively determines the non-edge region as a background portion (background region). On the other hand, when the non-edge area detected by the non-edge area detection unit 42 does not satisfy at least one of the following two conditions, the tentative determination unit 43 temporarily determines the non-edge area as the original portion (original area). judge.

第1の仮判定条件:画像データの2辺以上のデータ端に接していること
第2の仮判定条件:エッジが含まれていないこと
First tentative determination condition: Must be in contact with data edges of two or more sides of image data Second tentative determination condition: No edge is included

例えば、図7の(B)には、上記で説明したように、非エッジ領域検出部42によって検出された非エッジ領域L1〜L3が示してある。非エッジ領域L1には、文字によるエッジが含まれているため、非エッジ領域L1は、第2の仮判定条件を満たさない。従って、仮判定部43は、非エッジ領域L1を原稿領域と仮判定する。これに対し、非エッジ領域L2,L3は、第1の仮判定条件および第2の仮判定条件を満たす。従って、仮判定部43は、非エッジ領域L2,L3を背景領域と仮判定する。   For example, FIG. 7B shows the non-edge regions L1 to L3 detected by the non-edge region detection unit 42 as described above. Since the non-edge region L1 includes a character edge, the non-edge region L1 does not satisfy the second provisional determination condition. Therefore, the provisional determination unit 43 provisionally determines the non-edge area L1 as the original area. On the other hand, the non-edge regions L2 and L3 satisfy the first provisional determination condition and the second provisional determination condition. Therefore, the provisional determination unit 43 provisionally determines the non-edge regions L2 and L3 as background regions.

なお、非エッジ領域L1,L3は、3辺のデータ端に接している。非エッジ領域L2は、2辺のデータ端に接している。   The non-edge regions L1 and L3 are in contact with the data ends of the three sides. The non-edge region L2 is in contact with the data ends of the two sides.

原稿の中がくり抜かれている場合、くり抜かれた部分の非エッジ領域は、第1の仮判定条件を満たさないため、原稿領域として仮判定される。しかし、後述するように、原稿領域は、矩形で切り出されるため、くり抜かれた部分が原稿として仮判定されても問題はない。   When the original is hollowed out, the non-edge region of the hollowed-out portion does not satisfy the first provisional determination condition, and thus is provisionally determined as the original region. However, as will be described later, since the original area is cut out in a rectangular shape, there is no problem even if the cutout portion is provisionally determined as the original.

また、画像データの1辺だけに接する非エッジ領域としては、原稿の端が欠けたものが考えられる。この場合、非エッジ領域は、第1の仮判定条件を満たさないため、原稿領域として仮判定される。しかし、上記と同様に、原稿領域は、矩形で切り出されるため、欠けた部分が原稿として仮判定されても問題はない。   Further, as the non-edge region which is in contact with only one side of the image data, it is conceivable that the document has a missing edge. In this case, since the non-edge area does not satisfy the first provisional determination condition, it is provisionally determined as the original area. However, similarly to the above, since the original area is cut out in a rectangular shape, there is no problem even if the missing portion is provisionally determined as the original.

仮判定部43は、非エッジ領域にエッジ領域が含まれているか否かについて(第2の仮判定条件を満たすか否かについて)、非エッジ領域検出部42が算出したラベル値に基づいて、判定することができる。   The provisional determination unit 43 determines whether the non-edge region includes an edge region (whether or not the second provisional determination condition is satisfied) based on the label value calculated by the non-edge region detection unit 42. Can be determined.

図10は、非エッジ領域内のエッジ領域の有無判定例を説明する図である。図10には、図9の(D)に示したラベル値の例が示してある。仮判定部43は、注目画素がエッジの場合、注目画素の周囲8画素のラベル値を参照する。仮判定部43は、周囲8画素が非エッジであり、かつ、そのラベル値が1種類の場合、注目画素は非エッジ領域に含まれていると判定する。   FIG. 10 is a diagram illustrating an example of determining the presence / absence of an edge area in a non-edge area. FIG. 10 shows an example of the label value shown in FIG. 9 (D). If the pixel of interest is an edge, the provisional determination unit 43 refers to the label values of the eight pixels surrounding the pixel of interest. The tentative determination unit 43 determines that the target pixel is included in the non-edge region when the surrounding eight pixels are non-edge and the label value is one type.

例えば、図10に示すラベル値「6」の画素は、エッジである。これを注目画素とすると、周囲8画素は、ラベル値が1種類(ラベル値「1」)の非エッジとなる。従って、この場合、仮判定部43は、ラベル値「1」の非エッジ領域には、ラベル値「6」のエッジ領域が含まれていると判定する。すなわち、仮判定部43は、第2の判定条件を上記のようにして判定することができる。   For example, the pixel having the label value “6” shown in FIG. 10 is an edge. When this is the target pixel, the surrounding 8 pixels are non-edges with one type of label value (label value “1”). Therefore, in this case, the provisional determination unit 43 determines that the non-edge region with the label value “1” includes the edge region with the label value “6”. That is, the provisional determination unit 43 can determine the second determination condition as described above.

なお、上記では、仮判定部43は、注目画素の周囲8画素のラベル値を参照するとしたが、これに限られない。例えば、仮判定部43は、n×nの周囲画素のラベル値を参照してもよい。また、非エッジ領域にエッジ領域が含まれているか否かの判定は、非エッジ領域検出部42が実行してもよい。すなわち、仮判定部43は、非エッジ領域検出部42の判定結果を用いて、第2の仮判定条件を判定してもよい。   In the above description, the provisional determination unit 43 refers to the label values of the eight pixels around the pixel of interest, but the present invention is not limited to this. For example, the provisional determination unit 43 may refer to the label values of n × n surrounding pixels. Further, the non-edge area detection unit 42 may execute the determination as to whether or not the non-edge area includes an edge area. That is, the provisional determination unit 43 may determine the second provisional determination condition using the determination result of the non-edge region detection unit 42.

図4の説明に戻る。補正部44は、仮判定部43によって仮判定された非エッジ領域の配置に基づいて、非エッジ領域の仮判定結果を補正する。例えば、背景領域と仮判定された2個の非エッジ領域が隣接して存在するとする。そのうちの一方は、原稿領域と仮判定された非エッジ領域に隣接し、他方は、原稿領域と仮判定された非エッジ領域に隣接していないとする。この場合、補正部44は、原稿領域と仮判定された非エッジ領域に隣接している方の、背景領域と仮判定された非エッジ領域を、原稿領域に補正する。また、補正部44は、隣接する2つの背景領域が、両方とも原稿領域に隣接していない場合、両方の背景領域を原稿領域に補正する。   Returning to the explanation of FIG. The correction unit 44 corrects the provisional determination result of the non-edge region based on the arrangement of the non-edge region provisionally determined by the provisional determination unit 43. For example, it is assumed that two non-edge regions, which have been provisionally determined to be the background region, are adjacent to each other. It is assumed that one of them is adjacent to the document region and the non-edge region provisionally determined, and the other is not adjacent to the document region non-edge region provisionally determined. In this case, the correction unit 44 corrects the non-edge area tentatively determined to be the background area, which is adjacent to the non-edge area tentatively determined to be the document area, to the original area. Further, when the two adjacent background areas are not adjacent to the original area, the correction unit 44 corrects both background areas to the original area.

例えば、図7の(B)において、背景領域と仮判定された非エッジ領域L2,L3は、隣接している。隣接する非エッジ領域L2,L3のうち、非エッジ領域L2が原稿領域の非エッジ領域L1に隣接している。従って、補正部44は、非エッジ領域L2の仮判定を原稿領域に補正する。   For example, in FIG. 7B, the non-edge regions L2 and L3 that are provisionally determined to be the background region are adjacent to each other. Of the adjacent non-edge areas L2 and L3, the non-edge area L2 is adjacent to the non-edge area L1 of the original area. Therefore, the correction unit 44 corrects the temporary determination of the non-edge area L2 to the original area.

図11は、画像データの補正後の原稿領域および背景領域を説明する図である。図11に示す領域L1’は、画像データの原稿領域を示している。領域L3’は、画像データの背景領域を示している。図7の(B)に示した非エッジ領域L2は、図11に示すように原稿領域に補正されている。   FIG. 11 is a diagram illustrating the original area and the background area after the correction of the image data. An area L1 'shown in FIG. 11 shows an original area of image data. Area L3 'indicates the background area of the image data. The non-edge area L2 shown in FIG. 7B is corrected to the original area as shown in FIG.

なお、補正部44は、非エッジ領域が隣接するか否かについて、非エッジ領域検出部42が算出したラベル値に基づいて、判定することができる。   The correction unit 44 can determine whether or not the non-edge regions are adjacent to each other based on the label value calculated by the non-edge region detection unit 42.

図12は、非エッジ領域の隣接判定例を説明する図である。図12には、図9の(D)に示したラベル値の例が示してある。補正部44は、注目画素がエッジの場合、例えば、注目画素の周囲5×5の範囲の画素のラベル値を参照する。補正部44は、周囲5×5の範囲に非エッジの画素が含まれ、かつ、そのラベル値が2種類以上存在する場合、周囲5×5の範囲にある非エッジ領域は隣接していると判定する。   FIG. 12 is a diagram illustrating an example of determining the adjacency of a non-edge region. FIG. 12 shows an example of the label value shown in FIG. 9 (D). When the target pixel is an edge, the correction unit 44 refers to, for example, label values of pixels in a 5 × 5 area around the target pixel. The correction unit 44 determines that non-edge regions in the surrounding 5 × 5 area are adjacent to each other when the non-edge pixels are included in the surrounding 5 × 5 area and there are two or more label values. judge.

図12の例の場合、太線で示す周囲5×5の範囲に、ラベル値「1」の非エッジ領域と、ラベル値「3」の非エッジ領域とが含まれている。従って、補正部44は、ラベル値「1」の非エッジ領域と、ラベル値「3」の非エッジ領域は隣接していると判定する。   In the case of the example in FIG. 12, the non-edge area with the label value “1” and the non-edge area with the label value “3” are included in the surrounding 5 × 5 area indicated by the thick line. Therefore, the correction unit 44 determines that the non-edge area with the label value “1” and the non-edge area with the label value “3” are adjacent to each other.

なお、上記では、補正部44は、注目画素の周囲5×5画素のラベル値を参照するとしたが、これに限られない。例えば、補正部44は、n×nの周囲画素のラベル値を参照してもよい。また、非エッジ領域が隣接しているか否かの判定は、非エッジ領域検出部42が実行してもよい。すなわち、補正部44は、非エッジ領域検出部42の判定結果を用いて、非エッジ領域が隣接しているか否か判定してもよい。   In the above description, the correction unit 44 refers to the label value of 5 × 5 pixels around the target pixel, but the present invention is not limited to this. For example, the correction unit 44 may refer to the label values of n × n surrounding pixels. Further, the non-edge area detection unit 42 may execute the determination as to whether or not the non-edge areas are adjacent to each other. That is, the correction unit 44 may use the determination result of the non-edge region detection unit 42 to determine whether or not the non-edge regions are adjacent to each other.

図4の説明に戻る。切り出し部45は、補正部44によって補正された画像データの原稿領域と背景領域とに基づいて、スキャン部11から出力された画像データから、原稿部分を切り出す。   Returning to the explanation of FIG. The cutout unit 45 cuts out a document portion from the image data output from the scanning unit 11, based on the document region and the background region of the image data corrected by the correction unit 44.

図13は、原稿の切り出し例を説明する図のその1である。図13には、補正部44が補正した画像データの原稿領域(白く塗りつぶした部分)と背景領域(黒く塗りつぶした部分)とが示してある。   FIG. 13 is a first diagram illustrating an example of cutting out a document. FIG. 13 shows a document area (white portion) and a background area (black portion) of the image data corrected by the correction unit 44.

切り出し部45は、画像データの右端から、左端に向けて(−x軸方向に向けて)、原稿領域を探索する。例えば、切り出し部45は、図13の矢印に示すように、−x軸方向に向けて、原稿領域を探索する。切り出し部45は、最初に探索(発見)した原稿領域の座標(x,y)を、原稿の左端座標として、記憶部35に記憶する。   The cutout unit 45 searches the document area from the right end of the image data toward the left end (toward the −x axis direction). For example, the clipping unit 45 searches for the document area in the −x-axis direction, as shown by the arrow in FIG. The cutout unit 45 stores the coordinates (x, y) of the document area initially searched (discovered) in the storage unit 35 as the left end coordinate of the document.

なお、切り出し部45は、y座標を1ずつインクリメントしながら、−x軸方向に向けて、最初の原稿領域を探索する。   The cutout unit 45 searches the first original area in the −x axis direction while incrementing the y coordinate by one.

図14は、原稿の切り出し例を説明する図のその2である。図14に示す黒丸は、切り出し部45が、−x軸方向に向けて最初に探索した原稿領域の座標が示してある。なお、図14には、17個の座標しか示していないが、実際はもっと沢山存在している。   FIG. 14 is a second diagram illustrating an example of cutting out a document. The black circles shown in FIG. 14 indicate the coordinates of the original area first searched by the clipping unit 45 in the −x-axis direction. Although only 17 coordinates are shown in FIG. 14, there are actually many more.

切り出し部45は、−x軸方向において探索した最初の原稿領域の座標の中央値を、原稿の右端と判定する。   The clipping unit 45 determines that the median value of the coordinates of the first document area searched in the −x axis direction is the right edge of the document.

図15は、原稿の切り出し例を説明する図のその3である。図15に示すように、切り出し部45は、−x軸方向に探索した原稿領域の座標を、x座標値に基づいて降順に並べ替える。そして、切り出し部45は、並べ替えたx座標値の中央値の座標を、原稿の右端として判定する。例えば、切り出し部45は、図15に示す矢印A11の座標のx座標値を、原稿の右端の座標値と判定する。   FIG. 15 is a third diagram illustrating an example of cutting out a document. As illustrated in FIG. 15, the cutout unit 45 rearranges the coordinates of the document area searched in the −x-axis direction in descending order based on the x-coordinate value. Then, the clipping unit 45 determines the coordinate of the median value of the rearranged x coordinate values as the right edge of the document. For example, the clipping unit 45 determines that the x coordinate value of the coordinate of the arrow A11 shown in FIG. 15 is the coordinate value of the right end of the document.

切り出し部45は、画像データの上端から、下端に向けても(+y軸方向に向けても)、図13および図14と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図15と同様にして、探索した最初の原稿領域の中央値のy座標値を、原稿の上端の座標値と判定する。   The clipping unit 45 searches for the first original area in the same manner as in FIGS. 13 and 14 from the upper end of the image data toward the lower end (whether toward the + y axis direction). Then, similarly to FIG. 15, the clipping unit 45 determines the y coordinate value of the median value of the first document area searched for as the coordinate value of the upper end of the document.

また、切り出し部45は、画像データの下端から、上端に向けても(−y軸方向に向けても)、図13および図14と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図15と同様にして、探索した最初の原稿領域の中央値のy座標値を、原稿の下端の座標値と判定する。   In addition, the cutout unit 45 searches for the first original area in the same manner as in FIGS. 13 and 14 from the lower end of the image data toward the upper end (toward the −y axis direction). Then, similarly to FIG. 15, the clipping unit 45 determines the y-coordinate value of the median value of the first document area searched for as the coordinate value of the lower end of the document.

また、切り出し部45は、画像データの左端から、右端に向けても(+x軸方向に向けても)、図13および図14と同様にして、最初の原稿領域を探索する。そして、切り出し部45は、図15と同様にして、探索したエッジ画素の中央値のx座標値を、原稿の左端の座標値と判定する。   In addition, the clipping unit 45 searches for the first original area in the same manner as in FIGS. 13 and 14 from the left end of the image data toward the right end (whether toward the + x axis direction). Then, the clipping unit 45 determines the x-coordinate value of the median value of the searched edge pixels as the coordinate value of the left end of the document, similarly to FIG.

そして、切り出し部45は、上記のようにして判定した、原稿の上下左右の端を示す座標値(矩形領域)を用いて、スキャン部11から出力された画像データから、原稿部分を切り出す。これにより、例えば、図13に示す白い部分(原稿部分)が切り出される。   Then, the cutout unit 45 cuts out the document portion from the image data output from the scanning unit 11, using the coordinate values (rectangular regions) indicating the upper, lower, left, and right edges of the document determined as described above. As a result, for example, the white portion (original portion) shown in FIG. 13 is cut out.

図16は、画像処理装置1の動作例を示したフローチャートである。画像処理装置1は、例えば、入力装置4がユーザーから所定の操作を受付けると、図16に示すフローチャートの処理を実行する。   FIG. 16 is a flowchart showing an operation example of the image processing apparatus 1. For example, when the input device 4 receives a predetermined operation from the user, the image processing device 1 executes the process of the flowchart shown in FIG.

まず、スキャン部11は、台2に置かれた原稿をスキャンし、原稿の画像データを出力する(ステップS1)。   First, the scanning unit 11 scans a document placed on the table 2 and outputs image data of the document (step S1).

次に、エッジ抽出部41は、ステップS1にて出力された画像データのエッジを抽出する(ステップS2)。   Next, the edge extraction unit 41 extracts an edge of the image data output in step S1 (step S2).

次に、非エッジ領域検出部42は、ステップS2にて抽出されたエッジに基づいて、画像データの非エッジ領域を検出する(ステップS3)。   Next, the non-edge area detection unit 42 detects the non-edge area of the image data based on the edge extracted in step S2 (step S3).

次に、仮判定部43は、第1の仮判定条件および第2の仮判定条件に基づいて、ステップS3にて検出された非エッジ領域が、原稿領域であるかまたは背景領域であるか、仮判定する(ステップS4)。   Next, the provisional determination unit 43 determines whether the non-edge region detected in step S3 is a document region or a background region, based on the first provisional determination condition and the second provisional determination condition. Tentative determination is made (step S4).

次に、補正部44は、ステップS4にて仮判定された非エッジ領域を、仮判定された原稿領域と背景領域との配置に基づいて補正する(ステップS5)。   Next, the correction unit 44 corrects the non-edge area temporarily determined in step S4 based on the provisionally determined arrangement of the original area and the background area (step S5).

次に、切り出し部45は、ステップS5にて補正された原稿領域と背景領域とに基づいて、ステップS1にて出力された画像データから、原稿部分を切り出す(ステップS6)。そして、画像処理装置1は、当該フローチャートの処理を終了する。   Next, the cutout unit 45 cuts out a document portion from the image data output in step S1 based on the document region and the background region corrected in step S5 (step S6). Then, the image processing apparatus 1 ends the process of the flowchart.

このように、スキャン部11は、台2に置かれた原稿をスキャンし、原稿の画像データを出力する。エッジ抽出部41は、スキャン部11から出力された画像データのエッジを抽出し、非エッジ領域検出部42は、抽出されたエッジに基づいて、画像データの非エッジ領域を検出する。そして、仮判定部43は、第1の仮判定条件および第2の仮判定条件に基づいて、検出された非エッジ領域を、原稿領域であるか背景領域であるか仮判定し、補正部44は、仮判定された非エッジ領域の配置に基づいて、非エッジ領域の仮判定を補正する。これにより、画像処理装置1は、画像データを原稿部分と背景部分とに適切に分けることができる。例えば、画像処理装置1は、原稿がスキャン範囲に接してまたは超えて、台2に置かれても、画像データを原稿部分と背景部分とに適切に分けることができる。   In this way, the scanning unit 11 scans the document placed on the table 2 and outputs the image data of the document. The edge extraction unit 41 extracts an edge of the image data output from the scanning unit 11, and the non-edge region detection unit 42 detects a non-edge region of the image data based on the extracted edge. Then, the provisional determination unit 43 provisionally determines, based on the first provisional determination condition and the second provisional determination condition, whether the detected non-edge region is the original region or the background region, and the correction unit 44. Corrects the provisional determination of the non-edge region based on the provisionally determined placement of the non-edge region. As a result, the image processing apparatus 1 can appropriately divide the image data into the original portion and the background portion. For example, the image processing apparatus 1 can appropriately divide the image data into a document portion and a background portion even if the document is placed on the table 2 in contact with or beyond the scanning range.

なお、図4に示した制御部32の機能は、例えば、パーソナルコンピュータやタブレット端末等の情報処理装置が有していてもよい。   The function of the control unit 32 illustrated in FIG. 4 may be included in an information processing device such as a personal computer or a tablet terminal.

図17は、情報処理装置50の機能ブロック構成例を示した図である。図17に示すように、情報処理装置50は、制御部32aと、I/F部51と、記憶部52とを有している。   FIG. 17 is a diagram showing a functional block configuration example of the information processing device 50. As shown in FIG. 17, the information processing device 50 includes a control unit 32a, an I / F unit 51, and a storage unit 52.

図17に示す制御部32a、エッジ抽出部41a、非エッジ領域検出部42a、仮判定部43a、補正部44a、および切り出し部45aは、図4に示した制御部32、エッジ抽出部41、非エッジ領域検出部42、仮判定部43、補正部44、および切り出し部45と同様の機能を有し、その説明を省略する。   The control unit 32a, the edge extraction unit 41a, the non-edge region detection unit 42a, the temporary determination unit 43a, the correction unit 44a, and the cutout unit 45a illustrated in FIG. It has the same functions as the edge area detection unit 42, the temporary determination unit 43, the correction unit 44, and the cutout unit 45, and a description thereof will be omitted.

I/F部51(本発明の受信部に相当する)は、有線または無線によって、画像処理装置1のスキャン部11がスキャンした原稿の画像データを受信する。受信された画像データは、記憶部52に記憶される。   The I / F unit 51 (corresponding to the receiving unit of the present invention) receives the image data of the document scanned by the scanning unit 11 of the image processing apparatus 1 by wire or wirelessly. The received image data is stored in the storage unit 52.

記憶部52には、制御部32aの機能を実現するアプリケーションプログラムが記憶されている。記憶部52は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの記憶装置である。   The storage unit 52 stores an application program that realizes the function of the control unit 32a. The storage unit 52 is a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

制御部32aは、記憶部52に記憶されたアプリケーションプログラムを実行するCPUによって、その機能が実現される。制御部32aは、I/F部51によって受信された画像データ(記憶部52に記憶された画像データ)に対し、上記で説明したのと同様にして、非エッジ領域の原稿領域および背景領域を仮判定し、補正する。そして、制御部32aは、補正した画像データの原稿領域および背景領域に基づいて、画像データから原稿部分を切り出す。   The function of the control unit 32a is realized by the CPU that executes the application program stored in the storage unit 52. The control unit 32a determines the original area and the background area of the non-edge area for the image data received by the I / F unit 51 (the image data stored in the storage unit 52) in the same manner as described above. Temporarily judge and correct. Then, the control unit 32a cuts out a document portion from the image data based on the document region and the background region of the corrected image data.

このように、情報処理装置50が、画像データを、原稿領域と背景領域とに分け、原稿部分を切り出してもよい。   In this way, the information processing device 50 may divide the image data into the original area and the background area and cut out the original portion.

[第2の実施の形態]
第2の実施の形態では、画像処理装置は、仮判定される非エッジ領域の配置組み合わせと、補正後の非エッジ領域の配置組合せとを対応付けて記憶した記憶部を備える。画像処理装置は、前記記憶部を参照して、仮判定した原稿領域および背景領域を補正する。
[Second Embodiment]
In the second embodiment, the image processing apparatus includes a storage unit that stores the temporarily determined non-edge area arrangement combination and the corrected non-edge area arrangement combination in association with each other. The image processing apparatus refers to the storage unit and corrects the temporarily determined original area and background area.

図18は、第2の実施の形態に係る画像処理装置1の機能ブロック構成例を示した図である。図18において、図4と同じものには同じ符号が付してある。以下では、図4と異なる部分について説明する。   FIG. 18 is a diagram showing a functional block configuration example of the image processing apparatus 1 according to the second embodiment. 18, the same parts as those in FIG. 4 are designated by the same reference numerals. Below, a part different from FIG. 4 will be described.

図18に示すように、画像処理装置1は、仮判定部61と、補正部62と、記憶部63とを有している。仮判定部61は、仮判定部43と同様の機能を有するが、仮判定した非エッジ領域が、画像データのどの位置に配置されているかの判定も行う。ここで、非エッジ領域の取り得るレイアウトについて説明する。   As shown in FIG. 18, the image processing device 1 includes a temporary determination unit 61, a correction unit 62, and a storage unit 63. The provisional determination unit 61 has the same function as the provisional determination unit 43, but also determines which position of the image data the provisionally determined non-edge region is located. Here, a possible layout of the non-edge region will be described.

図19は、非エッジ領域のレイアウト例を示した図である。非エッジ領域は、第1の仮判定条件より、画像データの2辺以上のデータ端に接していると、背景領域と仮判定される可能性がある。一方、非エッジ領域は、画像データの2辺以上のデータ端に接していないと、原稿領域と仮判定される可能性がある。従って、背景領域および原稿領域と仮判定される非エッジ領域のレイアウトは、図19の(A)〜(C)に示すように、3つのレイアウトA〜Cが考えられる。図19に示す「2A」、「2B」…「3A」、「3B」…「4」は、レイアウトの領域の位置を示すとともに、その数字は、レイアウト端の辺に接している数を示している。   FIG. 19 is a diagram showing a layout example of the non-edge region. If the non-edge region is in contact with two or more data edges of the image data according to the first provisional determination condition, the non-edge region may be provisionally determined as the background region. On the other hand, the non-edge area may be tentatively determined to be the original area unless it contacts two or more data edges of the image data. Therefore, as the layouts of the non-edge areas that are tentatively determined to be the background area and the original area, three layouts A to C can be considered, as shown in FIGS. "2A", "2B" ... "3A", "3B" ... "4" shown in FIG. 19 indicate the position of the layout area, and the number indicates the number of sides in contact with the side of the layout. There is.

図20は、非エッジ領域がレイアウトのどの位置に配置されているかを判定するための判定条件を示した図である。図20に示す表の最左欄には、図19に示したレイアウトA〜Cの領域が示してある。図20に示す表の最上欄には、画像データのデータ端の位置が示している。図20に示す「1」は、最左欄の領域が、最上欄に示すデータ端の位置に接していることを示し、「0」は、最左欄の領域が、最上欄に示すデータ端の位置に接していないことを示している。米印は、「0」,「1」のどちらでもよいことを示している。   FIG. 20 is a diagram showing determination conditions for determining at which position in the layout the non-edge region is arranged. In the leftmost column of the table shown in FIG. 20, the areas of the layouts A to C shown in FIG. 19 are shown. The position of the data end of the image data is shown in the uppermost column of the table shown in FIG. 20, "1" indicates that the leftmost column area is in contact with the position of the data edge shown in the uppermost column, and "0" indicates the leftmost column area is the data edge shown in the uppermost column. It means that it is not in contact with the position of. The US mark indicates that either "0" or "1" may be used.

例えば、非エッジ領域検出部42によって検出された非エッジ領域が、画像データの左上端点と、上辺と、左辺とに接し、右上端点と、左下端点と、右下端点と、下辺と、右辺に接していないとする。この場合、仮判定部61は、図20の判定条件より、その非エッジ領域を、レイアウト(画像データ)の「2A」の位置に配置された非エッジ領域と判定する。   For example, the non-edge region detected by the non-edge region detection unit 42 contacts the upper left end point, the upper side, and the left side of the image data, and the upper right end point, the lower left end point, the lower right end point, the lower side, and the right side Suppose you don't touch them. In this case, the tentative determination unit 61 determines that the non-edge region is the non-edge region located at the position "2A" in the layout (image data) based on the determination condition of FIG.

図18の説明に戻る。補正部62は、記憶部63を参照して、仮判定された非エッジ領域を補正する。   Returning to the explanation of FIG. The correction unit 62 refers to the storage unit 63 and corrects the temporarily determined non-edge region.

記憶部63には予め、仮判定部61によって仮判定される非エッジ領域の配置組み合わせと、補正後の非エッジ領域の配置組み合わせとが対応して記憶されている。なお、記憶部63には、図4で説明した記憶部35と同様の情報も記憶されている。   In the storage unit 63, the arrangement combination of the non-edge areas temporarily determined by the provisional determination unit 61 and the arrangement combination of the non-edge areas after the correction are stored in association with each other. The storage unit 63 also stores the same information as the storage unit 35 described with reference to FIG.

図21は、記憶部63のデータ構成例を示した図である。図21に示すように、記憶部63は、仮判定の欄と、補正後の欄とを有している。仮判定の欄および補正後の欄のそれぞれは、図19に示したレイアウトの領域の欄を有している。   FIG. 21 is a diagram showing a data configuration example of the storage unit 63. As shown in FIG. 21, the storage unit 63 has a provisional determination column and a post-correction column. Each of the tentative determination column and the corrected column has a column of the area of the layout shown in FIG.

なお、レイアウトの領域の欄は、図21では、図示を一部省略しているが、仮判定と補正後とのそれぞれにおいて、15個存在する(図20の最左欄を参照)。また、レイアウトの領域の欄は、「2A」、「2B」、「2C」、「2D」…「3C」、「3D」、「4」と順に並ぶが、紙面の都合上、「2A」、「2B」、「2C」、「2D」…と順に記載することができなかった。そのため、図21に示している2つの仮判定および補正後のレイアウトの領域の列は、その記載がずれている。   Although the layout area column is partially omitted in FIG. 21, there are 15 in each of the provisional determination and the corrected area (see the leftmost column in FIG. 20). Further, the layout area columns are arranged in order of “2A”, “2B”, “2C”, “2D” ... “3C”, “3D”, “4”, but due to space limitations, “2A”, "2B", "2C", "2D" ... could not be described in order. Therefore, the columns of the two areas of the layout after the provisional determination and the correction shown in FIG. 21 are misaligned.

仮判定の欄には、仮判定部61によって仮判定される非エッジ領域の原稿領域および背景領域の配置組み合わせが記憶されている。例えば、図21のデータD1に示すように、仮判定の欄には、「2A」の領域が存在しない場合(NAは非エッジ領域が存在しないことを示す)や、「2I」が背景領域と仮判定される場合など、原稿領域および背景領域の配置組合せが記憶される。なお、仮判定の欄のレイアウトの領域の欄は、非エッジ領域が存在しない場合と、原稿領域と仮判定される場合と、背景領域と仮判定される場合との3つがあるので、仮判定される原稿領域および背景領域の全ての配置組み合わせは、315個存在する。 The provisional determination field stores the arrangement combination of the document area and the background area of the non-edge area that is provisionally determined by the provisional determination unit 61. For example, as shown in the data D1 in FIG. 21, when the area of “2A” does not exist in the provisional determination field (NA indicates that there is no non-edge area), “2I” indicates the background area. An arrangement combination of the original area and the background area is stored, such as in the case of temporary determination. Note that there are three layout area fields in the provisional determination field: a case in which there is no non-edge area, a provisional determination in the original area, and a provisional determination in the background area. There are 3 15 combinations of all the arrangements of the original area and the background area.

補正後の欄には、仮判定の欄に対応した、補正後の非エッジ領域の原稿領域および背景領域の配置組み合わせが記憶されている。例えば、図21のデータD1に示すように、「2I」の背景領域と仮判定された非エッジ領域は、補正後の「2I」の欄より、原稿領域に補正されることが分かる。なお、補正後の欄には、仮判定された背景領域が隣接し、そのうちの一方が、原稿領域に隣接している場合、その一方の背景領域が原稿領域に補正されるように、補正後の非エッジ領域の配置組み合わせが記憶されている。   The post-correction column stores the layout combination of the post-correction non-edge region of the original area and the background area, which corresponds to the provisional determination field. For example, as shown in the data D1 in FIG. 21, it can be seen that the non-edge area tentatively determined to be the “2I” background area is corrected to the original area from the corrected “2I” column. In the column after correction, after the temporarily determined background areas are adjacent to each other, and if one of them is adjacent to the original area, the one of the background areas is corrected to the original area. The arrangement combination of the non-edge regions is stored.

以下、図18の画像処理装置1の動作について説明する。   The operation of the image processing apparatus 1 of FIG. 18 will be described below.

図22は、画像処理装置1の動作例を説明する図のその1である。図22の(A)には、スキャン部31によってスキャンされた原稿の画像データ例が示してある。図22の(A)には、スキャン範囲71aと、背景72aと、原稿73aと、罫線74aと、文字75aとが示してある。   FIG. 22 is a first diagram illustrating an example of the operation of the image processing apparatus 1. FIG. 22A shows an example of image data of a document scanned by the scanning unit 31. In FIG. 22A, a scan range 71a, a background 72a, a document 73a, ruled lines 74a, and characters 75a are shown.

図22の(B)には、図22の(A)の画像データのエッジ(白い部分)が示してある。エッジ抽出部41が、図22の(A)の画像データのエッジを抽出すると、そのエッジは図22の(B)に示すようになる。   In FIG. 22B, the edge (white portion) of the image data of FIG. 22A is shown. When the edge extraction unit 41 extracts the edge of the image data of FIG. 22A, the edge becomes as shown in FIG.

図22の(C)には、図22の(B)のエッジに基づいて検出した非エッジ領域L11〜L13が示してある。非エッジ領域検出部42が、図22の(B)のエッジに基づいて、非エッジ領域を検出すると、図22の(C)に示すように、非エッジ領域L11〜L13が検出される。   FIG. 22C shows the non-edge regions L11 to L13 detected based on the edges of FIG. 22B. When the non-edge area detection unit 42 detects the non-edge area based on the edge in FIG. 22B, the non-edge areas L11 to L13 are detected as illustrated in FIG. 22C.

図22の(D)には、図22の(C)の非エッジ領域L11〜L13の仮判定が示してある。仮判定部61が、第1の仮判定条件および第2の仮判定条件に基づいて、図22の(C)の非エッジ領域L11〜L13を仮判定すると、図22の(D)に示すように、非エッジ領域L11が原稿領域と仮判定(白く塗りつぶした部分)され、非エッジ領域L12,L13が背景領域と仮判定(黒く塗りつぶした部分)される。   22D shows the provisional determination of the non-edge regions L11 to L13 of FIG. 22C. When the provisional determination unit 61 provisionally determines the non-edge regions L11 to L13 in FIG. 22C based on the first provisional determination condition and the second provisional determination condition, as shown in FIG. First, the non-edge region L11 is provisionally determined as a document region (white-filled portion), and the non-edge regions L12 and L13 are provisionally determined as background regions (black-filled portion).

また、仮判定部61は、仮判定した非エッジ領域L11〜L13が、画像データのどの位置に配置されているかの判定を行う。例えば、非エッジ領域L11は、画像データの左上端点、左下端点、上辺、下辺、および左辺に接し、右上端点、右下端点、および右辺に接していない。従って、仮判定部61は、図20に示した判定条件より、非エッジ領域L11は「3A」の領域に配置されていると判定する。同様に、仮判定部61は、非エッジ領域L12は「2I」に配置され、非エッジ領域L13は「3B」に配置されていると判定する。すなわち、仮判定部61は、「3A」の領域を原稿領域と仮判定し、「2I」の領域を背景領域と仮判定し、「3B」の領域を背景領域と仮判定する。なお、図22の(D)の非エッジ領域の配置は、図19の(B)のレイアウトBに対応する。   Further, the provisional determination unit 61 determines at which position in the image data the provisionally determined non-edge regions L11 to L13 are arranged. For example, the non-edge region L11 is in contact with the upper left end point, the lower left end point, the upper side, the lower side, and the left side of the image data, and is not in contact with the upper right end point, the lower right point, and the right side. Therefore, the tentative determination unit 61 determines that the non-edge region L11 is arranged in the region “3A” based on the determination conditions shown in FIG. Similarly, the provisional determination unit 61 determines that the non-edge area L12 is located in "2I" and the non-edge area L13 is located in "3B". That is, the provisional determination unit 61 provisionally determines the area of “3A” as the original area, the area of “2I” as the background area, and the area of “3B” as the background area. Note that the arrangement of the non-edge regions in FIG. 22D corresponds to the layout B in FIG. 19B.

図22の(E)には、図22の(D)の仮判定の補正後が示してある。補正部62は、記憶部63を参照して、図22の(D)の仮判定を補正する。図22の(D)の仮判定は、図21に示すデータD1の仮判定の欄に対応し、「2I」の領域は背景領域から原稿領域に補正される。   FIG. 22E shows the image after correction of the provisional determination of FIG. The correction unit 62 corrects the tentative determination of (D) of FIG. 22 with reference to the storage unit 63. The provisional determination in (D) of FIG. 22 corresponds to the provisional determination column of the data D1 shown in FIG. 21, and the area of “2I” is corrected from the background area to the original area.

図23は、画像処理装置1の動作例を説明する図のその2である。図23の(A)には、スキャン部31によってスキャンされた原稿の画像データ例が示してある。図23の(A)には、スキャン範囲71bと、背景72bと、原稿73bと、文字74bとが示してある。図23の(A)に示す点線の四角は、台2に置かれた原稿に対応している。   FIG. 23 is the second part of the diagram illustrating the operation example of the image processing apparatus 1. FIG. 23A shows an example of image data of a document scanned by the scanning unit 31. In FIG. 23A, a scan range 71b, a background 72b, a document 73b, and characters 74b are shown. The dotted line rectangle shown in FIG. 23A corresponds to the document placed on the table 2.

図23の(B)には、図23の(A)の画像データのエッジ(白い部分)が示してある。エッジ抽出部41が、図23の(A)の画像データのエッジを抽出すると、そのエッジは図23の(B)に示すようになる。   In FIG. 23B, the edge (white portion) of the image data of FIG. 23A is shown. When the edge extracting unit 41 extracts the edge of the image data of FIG. 23A, the edge becomes as shown in FIG. 23B.

図23の(C)には、図23の(B)のエッジに基づいて検出した非エッジ領域L21,L22が示してある。非エッジ領域検出部42が、図23の(B)のエッジに基づいて、非エッジ領域を検出すると、図23の(C)に示すように、非エッジ領域L21,L22が検出される。   In FIG. 23C, the non-edge regions L21 and L22 detected based on the edges in FIG. 23B are shown. When the non-edge area detection unit 42 detects the non-edge area based on the edge in FIG. 23B, the non-edge areas L21 and L22 are detected as illustrated in FIG. 23C.

図23の(D)には、図23の(C)の非エッジ領域L21,L22の仮判定が示してある。仮判定部61が、第1の仮判定条件および第2の仮判定条件に基づいて、図23の(C)の非エッジ領域L21,L22を仮判定すると、図23の(D)に示すように、非エッジ領域L21が背景領域と仮判定(黒く塗りつぶした部分)され、非エッジ領域L22が原稿領域と仮判定(白く塗りつぶした部分)される。   FIG. 23D shows the provisional determination of the non-edge regions L21 and L22 of FIG. 23C. When the provisional determination unit 61 provisionally determines the non-edge regions L21 and L22 in FIG. 23C based on the first provisional determination condition and the second provisional determination condition, as shown in FIG. First, the non-edge area L21 is provisionally determined as a background area (black-painted portion), and the non-edge area L22 is provisionally determined as a document area (white-painted portion).

また、仮判定部61は、仮判定した非エッジ領域L21,L22が、画像データのどの位置に配置されているかの判定を行う。例えば、非エッジ領域L21は、画像データの左上端点、上辺、および左辺に接し、右上端点、左下端点、右下端点、下辺、および右辺に接していない。従って、仮判定部61は、図20に示した判定条件より、非エッジ領域L21は「2A」に配置されていると判定する。同様に、仮判定部61は、非エッジ領域L22は「4」に配置されていると判定する。すなわち、仮判定部61は、「2A」の領域を背景領域と仮判定し、「4」の領域を原稿領域と仮判定する。なお、図23の(D)の非エッジ領域の配置は、図19の(A)のレイアウトAに対応する。   Further, the provisional determination unit 61 determines at which position in the image data the non-edge regions L21 and L22 that have been provisionally determined are arranged. For example, the non-edge area L21 is in contact with the upper left corner, the upper edge, and the left edge of the image data, and is not in contact with the upper right corner, the lower left edge, the lower right edge, the lower edge, and the right edge. Therefore, the tentative determination unit 61 determines that the non-edge region L21 is located at “2A” based on the determination conditions shown in FIG. Similarly, the provisional determination unit 61 determines that the non-edge region L22 is located at "4". That is, the provisional determination unit 61 provisionally determines the area “2A” as the background area and the area “4” as the original area. Note that the arrangement of the non-edge regions in FIG. 23D corresponds to the layout A in FIG. 19A.

図23の(E)には、図23の(D)の仮判定の補正後が示してある。補正部62は、記憶部63を参照して、図23の(D)の仮判定を補正する。図23の(D)の仮判定は、図21に示すデータD2の仮判定の欄に対応し、「2A」の領域は背景領域から原稿領域に補正される。   FIG. 23 (E) shows the state after correction of the provisional determination of FIG. 23 (D). The correction unit 62 corrects the tentative determination of (D) of FIG. 23 with reference to the storage unit 63. The provisional determination in FIG. 23D corresponds to the provisional determination column of the data D2 shown in FIG. 21, and the area of “2A” is corrected from the background area to the original area.

図24は、画像処理装置1の動作例を説明する図のその3である。図24の(A)には、スキャン部31によってスキャンされた原稿の画像データ例が示してある。図24の(A)には、スキャン範囲71cと、背景72c,73cと、原稿74cと、文字75cと、下線76cとが示してある。文字75cと下線76cはつながっているとする。図24の(A)に示す点線の四角は、台2に置かれた原稿に対応している。   FIG. 24 is a third part of the diagram illustrating the operation example of the image processing apparatus 1. FIG. 24A shows an example of image data of a document scanned by the scanning unit 31. In FIG. 24A, a scan range 71c, backgrounds 72c and 73c, a document 74c, characters 75c, and an underline 76c are shown. It is assumed that the character 75c and the underline 76c are connected. The square of the dotted line shown in FIG. 24A corresponds to the document placed on the table 2.

図24の(B)には、図24の(A)の画像データのエッジ(白い部分)が示してある。エッジ抽出部41が、図24の(A)の画像データのエッジを抽出すると、そのエッジは図24の(B)に示すようになる。   In FIG. 24B, the edge (white portion) of the image data of FIG. 24A is shown. When the edge extracting unit 41 extracts the edge of the image data of FIG. 24A, the edge becomes as shown in FIG.

図24の(C)には、図24の(B)のエッジに基づいて検出した非エッジ領域L31〜L34が示してある。非エッジ領域検出部42が、図24の(B)のエッジに基づいて、非エッジ領域を検出すると、図24の(C)に示すように、非エッジ領域L31〜L34が検出される。   In FIG. 24C, the non-edge regions L31 to L34 detected based on the edges in FIG. 24B are shown. When the non-edge area detecting unit 42 detects the non-edge area based on the edge of FIG. 24B, the non-edge areas L31 to L34 are detected as shown in FIG.

図24の(D)には、図24の(C)の非エッジ領域L31〜L34の仮判定が示してある。仮判定部61が、第1の仮判定条件および第2の仮判定条件に基づいて、図24の(C)の非エッジ領域L31〜L34を仮判定すると、図24の(D)に示すように、非エッジ領域L31〜L34が背景領域と仮判定(黒く塗りつぶした部分)される。   FIG. 24D shows the provisional determination of the non-edge regions L31 to L34 of FIG. 24C. When the provisional determination unit 61 provisionally determines the non-edge regions L31 to L34 in FIG. 24C based on the first provisional determination condition and the second provisional determination condition, as shown in FIG. In addition, the non-edge regions L31 to L34 are provisionally determined to be background regions (blacked portions).

また、仮判定部61は、仮判定した非エッジ領域L31〜L34が、画像データのどの位置に配置されているかの判定を行う。例えば、非エッジ領域L33は、画像データの右上端点、上辺、左辺、および右辺に接し、左上端点、左下端点、右下端点、および下辺に接していない。従って、仮判定部61は、図20に示した判定条件より、非エッジ領域L33は「3C」に配置されていると判定する。同様に、仮判定部61は、非エッジ領域L31は「2A」に配置されていると判定し、非エッジ領域L32は「2C」に配置されていると判定し、非エッジ領域L34は「3D」に配置されていると判定する。すなわち、仮判定部61は、「2A」、「2C」、「3C」、「3D」の領域を背景領域と判定する。なお、図24の(D)の非エッジ領域の配置は、図19の(C)のレイアウトCに対応する。   Further, the provisional determination unit 61 determines at which position in the image data the provisionally determined non-edge regions L31 to L34 are arranged. For example, the non-edge region L33 is in contact with the upper right end point, the upper side, the left side, and the right side of the image data, and is not in contact with the upper left end point, the lower left end point, the lower right end point, and the lower side. Therefore, the provisional determination unit 61 determines that the non-edge region L33 is located at “3C” based on the determination conditions shown in FIG. Similarly, the provisional determination unit 61 determines that the non-edge area L31 is located in “2A”, the non-edge area L32 is located in “2C”, and the non-edge area L34 is “3D”. It is determined to be placed in ". That is, the provisional determination unit 61 determines the areas of “2A”, “2C”, “3C”, and “3D” as the background area. Note that the arrangement of the non-edge regions in FIG. 24D corresponds to the layout C in FIG. 19C.

図24の(E)には、図24の(D)の補正後が示してある。補正部62は、記憶部63を参照して、図24の(D)の仮判定を補正する。図24の(D)の仮判定は、図21に示すデータD3の仮判定の欄に対応し、「2A」、「2C」、「3C」、「3D」の領域は背景領域から原稿領域に補正される。   FIG. 24E shows the corrected image of FIG. 24D. The correction unit 62 corrects the tentative determination of (D) of FIG. 24 with reference to the storage unit 63. The provisional determination of (D) of FIG. 24 corresponds to the provisional determination column of the data D3 shown in FIG. 21, and the areas of “2A”, “2C”, “3C”, and “3D” are changed from the background area to the original area. Will be corrected.

図18の画像処理装置1のフローチャートは、図16に示したフローチャートと同様になるが、ステップS4,S5の処理が異なる。図18の画像処理装置1は、図16のステップS4にて、非エッジ領域の仮判定を行うとともに、その非エッジ領域が画像データのどの位置に配置されているか判定する。そして、画像処理装置1は、ステップS5にて、記憶部63を参照し、仮判定を補正する。   The flowchart of the image processing apparatus 1 of FIG. 18 is the same as the flowchart shown in FIG. 16, but the processes of steps S4 and S5 are different. The image processing apparatus 1 of FIG. 18 makes a provisional determination of the non-edge region and determines at which position of the image data the non-edge region is located in step S4 of FIG. Then, in step S5, the image processing apparatus 1 refers to the storage unit 63 and corrects the temporary determination.

このように、記憶部63は、仮判定部61によって仮判定される非エッジ領域の配置組み合わせと、補正後の非エッジ領域の配置組合せとを対応付けて記憶する。そして、補正部62は、記憶部63を参照して、非エッジ領域の仮判定を補正する。これにより、画像処理装置1は、画像データを原稿部分と背景部分とに適切に分けることができる。   In this way, the storage unit 63 stores the arrangement combination of the non-edge areas provisionally determined by the provisional determination unit 61 and the arrangement combination of the non-edge areas after correction in association with each other. Then, the correction unit 62 refers to the storage unit 63 and corrects the tentative determination of the non-edge region. As a result, the image processing apparatus 1 can appropriately divide the image data into the original portion and the background portion.

[第3の実施の形態]
第3の実施の形態では、画像処理装置は、仮判定された非エッジ領域のレイアウトを、単純化したレイアウトに変換する。そして、画像処理装置は、仮判定部によって仮判定される非エッジ領域のレイアウト変換後の配置組合せと、補正後の非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部を備え、その記憶部を参照して、仮判定した原稿領域および背景領域を補正する。
[Third Embodiment]
In the third embodiment, the image processing apparatus converts the provisionally determined layout of the non-edge region into a simplified layout. Then, the image processing device includes a storage unit that stores the layout combination after layout conversion of the non-edge region temporarily determined by the temporary determination unit and the layout combination after correction of the non-edge region in association with each other. The temporarily determined original area and background area are corrected with reference to the copy.

図25は、第3の実施の形態に係る画像処理装置1の機能ブロック構成例を示した図である。図25において、図18と同じものには同じ符号が付してある。以下では、図18と異なる部分について説明する。   FIG. 25 is a diagram showing a functional block configuration example of the image processing apparatus 1 according to the third embodiment. 25, the same components as those in FIG. 18 are designated by the same reference numerals. Below, the part different from FIG. 18 will be described.

図25に示すように、画像処理装置1は、変換部81と、補正部82と、記憶部83とを有している。変換部81は、仮判定部61によって仮判定された非エッジ領域のレイアウトを、単純化したレイアウトに変換する。   As shown in FIG. 25, the image processing device 1 includes a conversion unit 81, a correction unit 82, and a storage unit 83. The conversion unit 81 converts the layout of the non-edge region provisionally determined by the provisional determination unit 61 into a simplified layout.

図26は、レイアウト変換を説明する図である。隣接する非エッジ領域の配置に着目すれば、図19に示したレイアウトは、図26に示すように単純化できる。そこで、変換部81は、以下で説明する変換条件に従って、図19に示したレイアウトA〜Cのそれぞれを、図26に示すレイアウトa〜cのそれぞれに変換する。   FIG. 26 is a diagram for explaining layout conversion. Focusing on the arrangement of adjacent non-edge regions, the layout shown in FIG. 19 can be simplified as shown in FIG. Therefore, the conversion unit 81 converts each of the layouts A to C shown in FIG. 19 into each of the layouts a to c shown in FIG. 26 according to the conversion conditions described below.

図27は、レイアウトの変換条件を示した図である。例えば、図27の「レイアウトAの変換条件」の1行目に示すように、図26のレイアウトaの2aが、NAと変換される条件は、図19のレイアウトAの「2A」〜「2D」の領域の全てが「NA」の場合である。また、例えば、図27の「レイアウトBの変換条件」の6行目に示すように、図26のレイアウトbの「3a」の領域は、図19のレイアウトBの「3A」の仮判定に従う。また、例えば、図27の「レイアウトCの変換条件」の2行目に示すように、図26のレイアウトcの「2a」の領域が、原稿領域と変換される条件は、図19のレイアウトCの「2A」、「2B」の中で、背景領域が1個以下の場合である。   FIG. 27 is a diagram showing layout conversion conditions. For example, as shown in the first line of "Conversion conditions for layout A" in FIG. 27, the conditions for converting 2a of layout a in FIG. 26 into NA are "2A" to "2D" in layout A in FIG. This is the case where all of the areas of “” are “NA”. Further, for example, as shown in the sixth line of “Conversion condition of layout B” in FIG. 27, the area “3a” in layout b in FIG. 26 follows the provisional determination of “3A” in layout B in FIG. 19. Further, for example, as shown in the second line of “Conversion condition of layout C” in FIG. 27, the condition for converting the area “2a” of the layout c of FIG. 26 into the original area is the layout C of FIG. In “2A” and “2B”, the number of background areas is one or less.

図25の説明に戻る。補正部82は、記憶部83を参照して、仮判定された非エッジ領域を補正する。   Returning to the explanation of FIG. The correction unit 82 refers to the storage unit 83 and corrects the temporarily determined non-edge region.

記憶部83には予め、仮判定部61によって仮判定される非エッジ領域のレイアウト変換後の配置組合せと、補正後の非エッジ領域の配置組み合わせとが対応づけて記憶される。なお、記憶部83には、図4で説明した記憶部35と同様の情報も記憶されている。   The storage unit 83 stores, in advance, the layout combination of the non-edge regions after the layout conversion, which is provisionally determined by the provisional determination unit 61, and the corrected layout combination of the non-edge regions in association with each other. The storage unit 83 also stores the same information as the storage unit 35 described with reference to FIG.

図28は、記憶部83のデータ構成例を示した図のその1である。図28に示すように、記憶部83は、仮判定の欄と、補正後の欄とを有している。仮判定の欄および補正後の欄のそれぞれは、図26に示したレイアウトの領域の欄を有している。   FIG. 28 is a first part of a diagram showing a data configuration example of the storage unit 83. As shown in FIG. 28, the storage unit 83 has a column for provisional determination and a column after correction. Each of the tentative determination column and the corrected column has a column of the layout area shown in FIG.

仮判定の欄には、仮判定部61よって仮判定される非エッジ領域の原稿領域および背景領域の、レイアウト変換後の配置組み合わせが記憶されている。補正後の欄には、仮判定の欄に対応した、補正後の非エッジ領域の原稿領域および背景領域の配置組み合わせが記憶されている。なお、図28に示すデータD12,D21は、1回補正された後、その一部(3a’,3b’)がデータD31によってさらに補正される。また、データD13,D22は、1回補正された後、その一部(3a’,3b’)がデータD32によってさらに補正される。   The provisional determination field stores the layout combination after layout conversion of the document area and the background area of the non-edge area that are provisionally determined by the provisional determination unit 61. The post-correction column stores the layout combination of the post-correction non-edge region of the original area and the background area, which corresponds to the provisional determination field. The data D12 and D21 shown in FIG. 28 are corrected once, and then a part (3a ', 3b') thereof is further corrected by the data D31. Further, the data D13 and D22 are corrected once, and then a part (3a ', 3b') thereof is further corrected by the data D32.

また、記憶部83にはさらに予め、図26に示したレイアウトを、図19のレイアウトに戻す情報が記憶されている。   Further, the storage unit 83 further stores in advance information for returning the layout shown in FIG. 26 to the layout shown in FIG.

図29は、記憶部83のデータ構成例を示した図のその2である。図29に示すように、記憶部83には、単純化されたレイアウトの領域と、単純化される前のレイアウトの領域とが対応付けて記憶されている。   FIG. 29 is the second part of the diagram showing the data configuration example of the storage unit 83. As shown in FIG. 29, in the storage unit 83, the area of the simplified layout and the area of the layout before the simplification are stored in association with each other.

以下、図25の画像処理装置1の動作について説明する。   The operation of the image processing apparatus 1 of FIG. 25 will be described below.

図30は、画像処理装置1の動作例を説明する図のその1である。図30の(A)〜(D)は、図22の(A)〜(D)の非エッジ領域の仮判定およびレイアウト判定まで同様であり、その説明を省略する。   FIG. 30 is a first diagram illustrating an example of the operation of the image processing apparatus 1. 30A to 30D are the same as the tentative determination and layout determination of the non-edge region of FIGS. 22A to 22D, and the description thereof will be omitted.

変換部81は、仮判定部61によって、「3A」の領域が原稿領域と判定され、「2I」の領域が背景領域と判定され、「3B」の領域が背景領域と判定(以下では、「3B:背景」等と簡略して記載することがある)されると、図27に示したレイアウト変換条件に基づき、レイアウト変換を行う。図30の(D)の例の場合、「3A:原稿」、「2I:背景」、「3B:背景」は、図26の(B)のレイアウトbに変換され、「3a:原稿」、「2e:背景」、「3b:背景」に変換される。   In the conversion unit 81, the provisional determination unit 61 determines that the area of “3A” is the original area, the area of “2I” is the background area, and the area of “3B” is the background area. 3B: background "or the like), the layout conversion is performed based on the layout conversion condition shown in FIG. In the case of the example of FIG. 30D, “3A: original”, “2I: background”, and “3B: background” are converted into the layout b of FIG. 2e: background ”,“ 3b: background ”.

補正部82は、変換部81によって、レイアウト変換がされると、図28の記憶部83を参照し、仮判定を補正する。上記例の場合、補正部82は、図28のデータD12,D21,D31に基づいて、「3a:原稿」、「2e:原稿」、「3b:背景」と補正する。そして、変換部81は、図29の記憶部83を参照し、元のレイアウト(図19のレイアウトB)に戻す。   When the layout conversion is performed by the conversion unit 81, the correction unit 82 refers to the storage unit 83 in FIG. 28 and corrects the temporary determination. In the above example, the correction unit 82 corrects “3a: original”, “2e: original”, “3b: background” based on the data D12, D21, D31 of FIG. Then, the conversion unit 81 refers to the storage unit 83 in FIG. 29 and restores the original layout (layout B in FIG. 19).

これにより、図30の(D)に示す非エッジ領域の仮判定「3A:原稿」、「2I:背景」、「3B:背景」は、図30の(E)に示すように、「3A:原稿」、「2I:原稿」、「3B:背景」と補正される。すなわち、非エッジ領域L11は原稿に補正され、非エッジ領域L12は原稿に補正され、非エッジ領域L13は背景に補正される。   As a result, the temporary determinations “3A: original”, “2I: background”, and “3B: background” shown in FIG. 30D are “3A: original”, as shown in FIG. The original is corrected to “2I: original” and “3B: background”. That is, the non-edge area L11 is corrected to the original, the non-edge area L12 is corrected to the original, and the non-edge area L13 is corrected to the background.

図31は、画像処理装置1の動作例を説明する図のその2である。図31の(A)〜(D)は、図23の(A)〜(D)の非エッジ領域の仮判定およびレイアウト判定まで同様であり、その説明を省略する。   FIG. 31 is the second part of the diagram illustrating the operation example of the image processing apparatus 1. 31A to 31D are the same as the tentative determination and the layout determination of the non-edge region in FIGS. 23A to 23D, and the description thereof will be omitted.

変換部81は、仮判定部61によって、「2A」の領域が背景領域と判定され、「4」の領域が原稿領域と判定されると、図27に示したレイアウト変換条件に基づき、レイアウト変換を行う。図31の(D)の例の場合、「2A:背景」、「4:原稿」は、図26の(A)のレイアウトaに変換され、「2a:原稿」、「4:原稿」に変換される。   When the tentative determination unit 61 determines that the area “2A” is the background area and the area “4” is the original area, the conversion unit 81 performs layout conversion based on the layout conversion condition shown in FIG. 27. I do. In the case of the example of FIG. 31D, “2A: background” and “4: original” are converted into the layout a of FIG. 26A and converted into “2a: original” and “4: original”. To be done.

補正部82は、変換部81によって、レイアウト変換がされると、図28の記憶部83を参照し、仮判定を補正する。上記例の場合、補正部82は、図28のデータD11に基づいて、「2a:原稿」、「4:原稿」と補正する。そして、変換部81は、図29の記憶部83を参照し、元のレイアウト(図19のレイアウトA)に戻す。   When the layout conversion is performed by the conversion unit 81, the correction unit 82 refers to the storage unit 83 in FIG. 28 and corrects the temporary determination. In the above example, the correction unit 82 corrects “2a: original” and “4: original” based on the data D11 of FIG. Then, the conversion unit 81 refers to the storage unit 83 in FIG. 29 and restores the original layout (layout A in FIG. 19).

これにより、図31の(D)に示す非エッジ領域の仮判定「2A:背景」、「4原稿」は、図31の(E)に示すように、「2A:原稿」、「4:原稿」と補正される。すなわち、非エッジ領域L21,L22は原稿に補正される。   As a result, the provisional determinations “2A: background” and “4 originals” of the non-edge area shown in FIG. 31D are “2A: original” and “4: original” as shown in FIG. Will be corrected. That is, the non-edge areas L21 and L22 are corrected to the original.

図32は、画像処理装置1の動作例を説明する図のその3である。図32の(A)〜(D)は、図24の(A)〜(D)の非エッジ領域の仮判定およびレイアウト判定まで同様であり、その説明を省略する。   FIG. 32 is the third part of the diagram illustrating the operation example of the image processing apparatus 1. 32A to 32D are the same as the tentative determination and the layout determination of the non-edge regions of FIGS. 24A to 24D, and the description thereof will be omitted.

変換部81は、仮判定部61によって、「2A」の領域が背景領域と判定され、「2C」の領域が背景領域と判定され、「3C」の領域が背景領域と判定され、「3D」の領域が背景領域と判定されると、図27に示したレイアウトの変換条件に基づき、レイアウト変換を行う。図32の(D)の例の場合、「2A:背景」、「2C:背景」、「3C:背景」、「3D:背景」は、図26の(C)のレイアウトcに変換され、「2a:原稿」、「2c:原稿」、「3a:背景」、「3b:背景」に変換される。   In the conversion unit 81, the provisional determination unit 61 determines that the area of “2A” is the background area, the area of “2C” is the background area, the area of “3C” is the background area, and the “3D”. If it is determined that the area is a background area, layout conversion is performed based on the layout conversion conditions shown in FIG. In the case of the example of FIG. 32D, “2A: background”, “2C: background”, “3C: background”, and “3D: background” are converted into the layout c of FIG. 2a: original ”,“ 2c: original ”,“ 3a: background ”,“ 3b: background ”.

補正部82は、変換部81によって、レイアウト変換がされると、図28の記憶部83を参照し、仮判定を補正する。上記例の場合、補正部82は、図28のデータD13,D22,D32に基づいて、「2a:原稿」、「2c:原稿」、「3a:原稿」、「3b:原稿」と補正する。そして、変換部81は、図29の記憶部83を参照し、元のレイアウト(図19のレイアウトC)に戻す。   When the layout conversion is performed by the conversion unit 81, the correction unit 82 refers to the storage unit 83 in FIG. 28 and corrects the temporary determination. In the above example, the correction unit 82 corrects “2a: original”, “2c: original”, “3a: original”, “3b: original” based on the data D13, D22, D32 of FIG. Then, the conversion unit 81 refers to the storage unit 83 in FIG. 29 and restores the original layout (layout C in FIG. 19).

これにより、図32の(D)に示す非エッジ領域の仮判定「2A:背景」、「2C:背景」、「3C:背景」、「3D:背景」は、図32の(E)に示すように、「2A:原稿」、「2A:原稿」、「3A:原稿」、「3A:原稿」と補正される。すなわち、非エッジ領域L31〜L34は原稿に補正される。   As a result, the temporary determinations “2A: background”, “2C: background”, “3C: background”, and “3D: background” of the non-edge region shown in (D) of FIG. 32 are shown in (E) of FIG. As described above, “2A: original”, “2A: original”, “3A: original”, and “3A: original” are corrected. That is, the non-edge regions L31 to L34 are corrected as the original.

図33は、画像処理装置1の動作例を示したフローチャートである。図33において、図16と同じ処理には同じ符号が付してある。以下では、図16と異なる処理について説明する。   FIG. 33 is a flowchart showing an operation example of the image processing apparatus 1. 33, the same processes as those in FIG. 16 are designated by the same reference numerals. Hereinafter, processing different from that in FIG. 16 will be described.

ステップS11において、仮判定部61は、第1の仮判定条件および第2の仮判定条件に基づいて、ステップS3にて検出された非エッジ領域を、原稿領域であるかまたは背景領域であるか、仮判定するとともに、仮判定した非エッジ領域が、画像データのどの位置に配置されているか判定する。   In step S11, the provisional determination unit 61 determines whether the non-edge region detected in step S3 is a document region or a background region based on the first provisional determination condition and the second provisional determination condition. At the same time as the tentative determination, the position of the image data where the tentatively determined non-edge region is located is determined.

次に、変換部81は、ステップS11にて仮判定された非エッジ領域のレイアウト変換を行う(ステップS12)。   Next, the conversion unit 81 performs layout conversion of the non-edge region temporarily determined in step S11 (step S12).

次に、補正部82は、記憶部83を参照して、ステップS12にてレイアウト変換された、仮判定された非エッジ領域を補正し、元のレイアウトに戻す(ステップS13)。   Next, the correction unit 82 refers to the storage unit 83, corrects the provisionally determined non-edge region whose layout has been converted in step S12, and restores the original layout (step S13).

このように、変換部81は、仮判定された非エッジ領域のレイアウトを、単純化したレイアウトに変換する。記憶部83は、仮判定部61によって仮判定される非エッジ領域のレイアウト変換後の配置組合せと、補正後の非エッジ領域の配置組み合わせとを対応付けて記憶する。そして、補正部82は、記憶部83を参照して、非エッジ領域の仮判定を補正する。これにより、画像処理装置1は、記憶部83の記憶容量を低減することができる。   In this way, the conversion unit 81 converts the provisionally determined layout of the non-edge region into a simplified layout. The storage unit 83 stores the layout combination after layout conversion of the non-edge area temporarily determined by the temporary determination unit 61 and the layout combination after correction of the non-edge area in association with each other. Then, the correction unit 82 refers to the storage unit 83 and corrects the temporary determination of the non-edge region. As a result, the image processing apparatus 1 can reduce the storage capacity of the storage unit 83.

以上、本発明について実施形態を用いて説明したが、画像処理装置1および情報処理装置50の機能構成は、その構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。画像処理装置1および情報処理装置50の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   Although the present invention has been described above using the embodiments, the functional configurations of the image processing apparatus 1 and the information processing apparatus 50 are classified according to the main processing content in order to facilitate understanding of the configurations. .. The present invention is not limited by the classification method and names of the constituent elements. The configurations of the image processing device 1 and the information processing device 50 can be classified into more components according to the processing content. Also, one component can be classified so as to perform more processing. The processing of each component may be executed by one piece of hardware or a plurality of pieces of hardware.

また、本発明の技術的範囲は、上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更又は改良を加えることが可能であることが当業者には明らかである。例えば、各実施の形態を組み合わせてもよい。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。また、本発明は、画像処理装置1および情報処理装置50の機能を実現するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。   Further, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent to those skilled in the art that various modifications and improvements can be added to the above-described embodiment. For example, the embodiments may be combined. It is also apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. The present invention can also be provided as a program that realizes the functions of the image processing apparatus 1 and the information processing apparatus 50, and a storage medium that stores the program.

1…画像処理装置、2…台、3…カバー、4…入力装置、11…スキャン範囲、12…背景、13…原稿、14…罫線、15…文字、31…スキャン部、32…制御部、33…通信部、34…入力部、35…記憶部、41…エッジ抽出部、42…非エッジ領域検出部、43…仮判定部、44…補正部、45…切り出し部、50…情報処理装置、51…I/F部、52…記憶部、61…仮判定部、62…補正部、63…記憶部、71a…スキャン範囲、72a…背景、73a…原稿、74a…罫線、75a…文字、81…変換部、82…補正部、83…記憶部。   DESCRIPTION OF SYMBOLS 1 ... Image processing device, 2 ... Stand, 3 ... Cover, 4 ... Input device, 11 ... Scan range, 12 ... Background, 13 ... Original, 14 ... Ruled line, 15 ... Character, 31 ... Scan section, 32 ... Control section, 33 ... Communication unit, 34 ... Input unit, 35 ... Storage unit, 41 ... Edge extraction unit, 42 ... Non-edge region detection unit, 43 ... Temporary determination unit, 44 ... Correction unit, 45 ... Cutout unit, 50 ... Information processing device , 51 ... I / F section, 52 ... Storage section, 61 ... Temporary determination section, 62 ... Correction section, 63 ... Storage section, 71a ... Scan range, 72a ... Background, 73a ... Original, 74a ... Ruled line, 75a ... Character, 81 ... conversion unit, 82 ... correction unit, 83 ... storage unit.

Claims (10)

スキャン対象物をスキャンして生成された画像データを取得する取得部と、
前記画像データのエッジを抽出するエッジ抽出部と、
前記エッジに基づいて、前記画像データの非エッジ領域を検出する非エッジ領域検出部と、
前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定部と、
仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正部と、
を有することを特徴とする画像処理装置。
An acquisition unit that acquires image data generated by scanning an object to be scanned ,
An edge extraction unit that extracts an edge of the image data,
A non-edge region detection unit that detects a non-edge region of the image data based on the edge;
The non-edge region is an image region of the scan target object or an image region of the background, a provisional determination unit for provisionally determining based on a predetermined condition,
A correction unit that corrects the provisional determination of the non-edge region based on the provisionally determined placement of the non-edge region;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記所定の条件は、次の2つの条件であり、
第1の条件は、前記非エッジ領域が前記画像データの2辺以上のデータ端に接していること、
第2の条件は、前記非エッジ領域によってエッジがまれていないこと、
を特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein
The predetermined conditions are the following two conditions,
The first condition is that the non-edge region is in contact with data edges of two or more sides of the image data,
The second condition is the fact thus edge non-edge region is not uncommon circumference,
An image processing device characterized by.
請求項2に記載の画像処理装置であって、
前記仮判定部は、
前記非エッジ領域が前記第1の条件および前記第2の条件の少なくとも一方を満たさない場合、前記非エッジ領域を前記スキャン対象物の画像領域と仮判定し、
前記非エッジ領域が前記第1の条件および前記第2の条件の両方を満たす場合、前記非エッジ領域を前記背景の画像領域と仮判定する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2, wherein
The provisional determination unit,
When the non-edge region does not satisfy at least one of the first condition and the second condition, the non-edge region is provisionally determined as an image region of the scan target,
If the non-edge region satisfies both the first condition and the second condition, the non-edge region is tentatively determined as the image region of the background,
An image processing device characterized by the above.
請求項1〜3のいずれか一項に記載の画像処理装置であって、
前記補正部は、前記背景の画像領域と仮判定された第1の非エッジ領域と第2の非エッジ領域とが隣接し、前記第1の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に隣接し、前記第2の非エッジ領域が前記スキャン対象物の画像領域と仮判定された前記非エッジ領域に接していない場合、前記第1の非エッジ領域の仮判定を前記スキャン対象物の画像領域に補正する、
ことを特徴とする画像処装置。
The image processing apparatus according to any one of claims 1 to 3,
In the correction unit, the first non-edge area and the second non-edge area that are tentatively determined to be the image area of the background are adjacent to each other, and the first non-edge area is tentatively the image area of the scan target. If the second non-edge region is adjacent to the determined non-edge region and is not in contact with the non-edge region tentatively determined to be the image region of the scan target, the first non-edge region is temporarily Correct the determination to the image area of the scan target,
Image processing apparatus characterized by.
請求項1〜3のいずれか一項に記載の画像処理装置であって、
前記仮判定部によって仮判定される前記非エッジ領域の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、
前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
A storage unit that stores the combination of the arrangement of the non-edge regions provisionally determined by the provisional determination unit and the arrangement combination of the corrected non-edge regions in association with each other;
The correction unit corrects the temporary determination of the non-edge region with reference to the storage unit,
An image processing device characterized by the above.
請求項1〜3のいずれか一項に記載の画像処理装置であって、
前記仮判定された前記非エッジ領域のレイアウトを、単純化したレイアウトに変換する変換部と、
前記仮判定部によって仮判定される前記非エッジ領域のレイアウト変換後の配置組合せと、補正後の前記非エッジ領域の配置組み合わせとを対応付けて記憶した記憶部、をさらに有し、
前記補正部は、前記記憶部を参照して、前記非エッジ領域の前記仮判定を補正する、
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
A conversion unit for converting the provisionally determined layout of the non-edge region into a simplified layout;
A storage unit that stores the layout combination after layout conversion of the non-edge region provisionally determined by the provisional determination unit, and the alignment combination of the corrected non-edge region in association with each other;
The correction unit corrects the temporary determination of the non-edge region with reference to the storage unit,
An image processing device characterized by the above.
請求項1〜6のいずれか一項に記載の画像処理装置であって、
前記エッジ抽出部は、前記画像データの第1の画素の輝度分散と、前記第1の画素の周囲の第2の画素の輝度分散との輝度分散差を算出し、前記輝度分散差に基づいて、前記画像データのエッジを抽出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The edge extraction unit calculates a luminance dispersion difference between a luminance dispersion of a first pixel of the image data and a luminance dispersion of a second pixel around the first pixel, and based on the luminance dispersion difference, , Extracting edges of the image data,
An image processing device characterized by the above.
スキャン対象物をスキャンして生成された画像データを取得する取得部と、  An acquisition unit that acquires image data generated by scanning an object to be scanned,
前記画像データのエッジを抽出するエッジ抽出部と、  An edge extraction unit that extracts an edge of the image data,
前記画像データについて、前記スキャン対象物の画像領域と背景の画像領域とを判定する判定部と、  For the image data, a determination unit that determines the image area of the scan target and the image area of the background,
を有し、  Have
前記判定部は、前記画像データの非エッジ領域の配置について、配置についての条件を含む所定の条件に基づいて前記スキャン対象物の画像領域であるかまたは背景の画像領域であるかを判定する、  The determination unit determines whether the non-edge region of the image data is an image region of the scan target object or a background image region based on a predetermined condition including a condition for the arrangement,
ことを特徴とする画像処理装置。  An image processing device characterized by the above.
スキャン対象物をスキャンして生成された画像データを取得する取得ステップと、
前記画像データのエッジを抽出する抽出ステップと、
前記エッジに基づいて、前記画像データの非エッジ領域を検出する検出ステップと、
前記非エッジ領域が、前記スキャン対象物の画像領域であるかまたは背景の画像領域であるか、所定の条件に基づいて仮判定する仮判定ステップと、
仮判定された前記非エッジ領域の配置に基づいて、前記非エッジ領域の仮判定を補正する補正ステップと、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring image data generated by scanning the scan target object;
An extraction step of extracting an edge of the image data,
A detection step of detecting a non-edge region of the image data based on the edge;
The non-edge region is an image region of the scan target object or a background image region, a provisional determination step of provisionally determining based on a predetermined condition,
A correction step of correcting the provisional determination of the non-edge region based on the provisionally determined arrangement of the non-edge region;
An image processing method comprising:
スキャン対象物をスキャンして生成された画像データを取得する取得ステップと、  An acquisition step of acquiring image data generated by scanning the scan target object;
前記画像データのエッジを抽出する抽出ステップと、  An extraction step of extracting an edge of the image data,
前記画像データについて、前記スキャン対象物の画像領域と背景の画像領域とを判定する判定ステップと、  For the image data, a determination step of determining the image area of the scan target and the image area of the background,
を有し、  Have
前記判定ステップは、前記画像データの非エッジ領域の配置について、配置についての条件を含む所定の条件に基づいて前記スキャン対象物の画像領域であるかまたは背景の画像領域であるかを判定する、  The determination step determines whether the non-edge region of the image data is an image region of the scan target object or a background image region based on a predetermined condition including a condition for the arrangement,
ことを特徴とする画像処理方法。  An image processing method characterized by the above.
JP2016047315A 2016-03-10 2016-03-10 Image processing apparatus and image processing method Active JP6693184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016047315A JP6693184B2 (en) 2016-03-10 2016-03-10 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016047315A JP6693184B2 (en) 2016-03-10 2016-03-10 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2017163411A JP2017163411A (en) 2017-09-14
JP6693184B2 true JP6693184B2 (en) 2020-05-13

Family

ID=59857455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016047315A Active JP6693184B2 (en) 2016-03-10 2016-03-10 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6693184B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023013021A1 (en) * 2021-08-06 2023-02-09

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4777178B2 (en) * 2006-07-28 2011-09-21 キヤノン株式会社 Image processing method
JP5645519B2 (en) * 2010-07-16 2014-12-24 キヤノン株式会社 Image processing method, image processing apparatus, and program

Also Published As

Publication number Publication date
JP2017163411A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
CN109543501B (en) Image processing apparatus, image processing method, and storage medium
US8218890B2 (en) Method and apparatus for cropping images
US9712717B2 (en) Image processing apparatus, region detection method and computer-readable, non-transitory medium
JP5826081B2 (en) Image processing apparatus, character recognition method, and computer program
US9092869B2 (en) Image processing apparatus, region determining method, and computer-readable, non-transitory medium
JP4574503B2 (en) Image processing apparatus, image processing method, and program
US20050226510A1 (en) Boundary extracting method, program, and device using the same
JP5766073B2 (en) Image processing apparatus, image processing method, image processing program, and image processing system
KR102090973B1 (en) Information processing apparatus, information processing method, and storage medium
US9661166B2 (en) Image processing apparatus, region detection method and computer-readable, non-transitory medium
JP2018046360A (en) Image processing device, method and program
JP6021665B2 (en) Image processing apparatus, image processing method, and computer program
JP6693184B2 (en) Image processing apparatus and image processing method
US10049269B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP2017068562A (en) Information processing device and program
JP2007072642A (en) Image processor and controlling method of image processor
JP6693082B2 (en) Information processing device and program
JP2007081882A (en) Apparatus and method for reading manuscript
US10237432B2 (en) Medium storing program executable by image processing apparatus, image processing apparatus, and image processing method
JP6639257B2 (en) Information processing apparatus and control method therefor
JP2013157968A (en) Image processing apparatus
JP2017163407A (en) Image processing apparatus, information processing apparatus, and image processing method
JP6950237B2 (en) Computer programs and image processing equipment
JP7516170B2 (en) Image processing device, image processing method, and program
JP6645143B2 (en) Image analysis device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6693184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150